пятница, 21 февраля 2014 г.

Всем миром построим! Вот только что?.. Open Compute Project.

Проблема

    Эффективность вычислительной техники, эффективность датацентра - эти сочетания слов все чаще мелькают и отражают существующие проблемы и чаяния ИТ специалистов.

    Как ни крути - мощности, подводимые на кубический метр вычислительной техники растут чуть ли не в геометрической прогрессии. Плотность размещения компонентов увеличивается. "Прожорливость" компонентов снижают, увеличивая вместе с этим их количество в системе. Если несколько лет назад рядовой сервер требовал 450-Ваттного блока питания ( Intel® Xeon®Processor 54xx), то в настоящем 1200 Ватт - обычное явление. Да, пиковая нагрузка на блок питания, на которую рассчитана его максимальная мощность, происходит только во время включения питания. Устоявшееся потребление несколько ниже. Но все-таки... Если это 1U сервер... В стойке 42U. К полностью укомплектованной стойке необходимо подводить 50 киловатт??? И одновременно с этим постараться унести эти же 50 киловатт, переваренные в тепло! На что потратить еще процентов десять энергии - итого 55 КВт. Так это только ОДНА стойка. Задачи у датацентросторителей все сложнее, все затратнее. И все это для того, чтобы через 3 года грустно констатировать: "наше вычислительное оборудование устарело, надо ВСЕ менять!"

    У гигантских компаний по предоставлению ИТ услуг - Google, Twitter, Facebook,..., Mail.ru, Яндекс,... затраты на обновление/расширение, пусть, несколько меньшие в процентном отношении, но в абсолютном виде многих повергнут в шок. Каждый год - тысячи новых серверов, ты-ся-чи!!!

    Неудивительно, что инициативу проявила компания, "у которой больше болит" - Facebook. В 2011 году была поставлена задача: "построить наиболее эффективную вычислительную инфраструктуру с наименьшей возможной стоимостью". Выделю - "инфраструктуру"!
    И, чтобы быть совсем конкретными, образовавшееся сообщество четко определило критерий "счастья" - "на 38% эффективнее и на 24% дешевле" Впечатляет конкретика?

Решение?

    Проект получил название Open Compute Project (OCP). Он открытый. Сейчас в тренде все открытое. Список начинаний с первым словом "Open" займет, наверное, не одну страницу. Список  желающих поделиться своими идеями и умениями, а также почерпнуть оные у коллег содержит порядка 50 имен. Результаты не скрываются. Вокруг и внутри сообщества происходят события. Саммит OCP, проведенный 27 января 2014 года в Сан-Хосе, Калифорния собрал более 3000 участников. Поддерживают проект, в том числе, Microsoft, VMware, IBM, Intel, AMD,.. "От наших" там Яндекс.

    Что мы имеем "на-гора"? Ну, как на это смотреть... Некоторое время назад один из уважаемых членов сообщества воскликнул: "Проекту уже 2 года, но до практической реализации по-прежнему далеко". С другой стороны, то и дело у отдельных компаний анонсируются OCP-ориентированные продукты. Qlogic, вот, контроллер предложил для OCP-сертифицированного сервера Quanta на процессорах AMD. А Mellanox предложил для проекта свои 10/40Гб адаптеры и коммутаторы. То есть, все-таки что-то куда-то движется, пусть пока и не в массовом производстве, а на стадии концептов. Поисковики на запрос "OCP" выдадут фотографии реального "железа" и укомплектованных стоек, демонстрировавшихся на саммитах сообщества.

    Проект - как и обещалось, описывает экосистему в целом. Разделы:
- серверы (server);
- хранилища (storage);
- сети (networking);
- управление оборудованием (hardware management);
- стойки для установки оборудования (open rack);
- общий дизайн датацентра (data center design);
- сертификацию (certification);
- а также нормы поведения потребителя :) (solution providers)
    На сайте представлены концепции построения. Частности - в руках конкретного производителя. От него требуется "попасть в размер". Инженерные решения, взятые за основу, формулировались с учетом недостатков тех решений, которые в настоящее время эксплуатируются и рассчитаны на долгую жизнь. Все по максимуму модульное, легко заменяемое. Подход комплексный. Питание, охлаждение, взаимосвязи компонентов, управление и обслуживание - все аспекты рассматриваются вкупе.

    В проект тащат все новое, что появляется в ИТ области. Или то - что давно хотели сделать, но не получалось, так как не вписывалось в сложившуюся архитектуру. А тут - с нуля... Твори не оглядываясь!

    Итак - за что цепляется глаз?

Стойки

    Стойка немного шире, чем привычная 19-дюймовая и разделена по вертикали на зоны. Одна зона имеет высоту 48мм и является одним юнитом (U) системы - пока все так же, как в привычной стойке за исключением размеров.
  Два ввода питания вверху - один переменным током, второй - постоянным 48 Вольт от батареи.
  Самый верхний 2U отсек - для коммутаторов (не мало ли - 2 на такую прорву серверов?)
  Дальше все пространство делится на 3 13-юнитовых зоны, каждая из которых состоит из 10U зоны для вычислителей (Innovation Zone) и 3U зоны блоков питания (Power Shelf). Да, блоки питания вынесены. Power Shelf состоит из 7шт блоков питания с горячей заменой. К зоне вычислителей питание подводится тремя 12 Вольтными шинами. В соответствующую 10-юнитовую зону помещаются корпуса собственно вычислителей, высота которых должна составлять минимум 1U (48мм) и может задаваться с шагом 1/2 U (24мм). Корпуса фиксируются уголками-направляющими. Установка корпуса на место автоматически подключает к нему питание - на "заднице" корпуса 3 комплекта подпружиненых коннекторов в виде ласточкиного хвоста.
  Помимо одиночной стойки, описанной выше, можно делать тройные. Все то же, только продублированное еще два раза в ширину. Экономятся два комплекта вертикальных стоек - и легче и дешевле.

   На будущее - Intel внес свою лепту, предложив использовать для межсоединений внутри стойки New Photonic Connector (NPC) и интегрированные на плату сервера оптические модули. Заботятся о сокращении количества кабелей в системе и скорости передачи данных между узлами!

    Пока просматривал материал, у меня в голове не затихал голос - "если в проекте все самое-самое, продвинутое, эффективное, модное,...   .. то где же охлаждение водой??? Холодной - по старинке, или горячей - как уже "открыли"? Ха!.. Не у меня одного! Комментарии к странице описания пестрят тем же вопросом - где же ватер-кулинг??? Не унесем мы 50..60 КВт ветром!..

Серверы

    Стойки описаны в проекте хотя бы наглядно и логично.

    С серверами (вычислительными модулями) несколько хуже. Начинка каждому производителю видится по-своему, "вседозволенность" и отсутствие направляющей концепции может завести в зоопарк, в котором мы все и так ковыряемся и уйти от которого пытается проект. А эта красивая и логичная концепция, учитывающая прошлые ошибки и современный подход, похоже, не выкристаллизовалась, либо она не лежит на поверхности и я ее на нашел.
    Intel. Полка (shelf) - полу-корпус. Днище и боковые стенки. В него можно расположить до трех треев (tray). Пример такого трея представлен на фотографии.
Материнская плата (v2.0) узкая - как в Twin решениях. 2 процессора, 16 слотов под память. Платы расширения добавляются через ризер - на фотографии внизу, располагаются параллельно материнской плате (до 2шт). Плата управления (midplane) располагается между материнской платой и вентиляторами - управляет питанием и вентиляторами. Таких в один корпус можно поставить до 3шт. В обычном, не-OCP решении Twin умещается 2. Или использовать треи для чего-то очень нужного - локальных дисков, например. Или двойного блока питания для
решения High Availability (никак не пойму - откуда он вылез и зачем нужен. Тем более - со своими индивидуальными фишками питания от 220В. Или это было еще до принятия концепции с вынесенными блоками питания?). Рисунок подобной комплексной компоновки представлен ниже - одна материнская плата, двойной блок питания, трей с HDD.
Ну, совсем уже стало похоже на затрапезный, совершенно обычный сервер в стойку, только скомпонованный по-дурацки и несколько ущербный.

    AMD. Как-то без огонька. Во всю ширину корпуса материнская плата замысловатой формы на 2 процессора, не-сосчитаешь-сколько слотов под память. Перед ней батарея вентиляторов. Еще ближе к фронту батарея НЖМД. Вариации: сервер, сервер для HPC, сервер хранения. От 1U до 3U. С ризерами для плат расширения или без них. Ощущение такое, что существующую линейку без особенных фантазий подстроили под новый типоразмер. Картинки не привожу - ничего интересного на них нет.

Цимес где??

    Рисовали, время тратили, обсуждали и представляли... Алле, кто-нибудь еще помнит сверхзадачу проекта? "На 38% эффективнее и на 24% дешевле". Ну, пусть не так прямо конкретно... Хотя бы "эффективнее и при этом дешевле"?

А если поискать?


    Есть вариант вычислителя, содержащего микросерверы. Это хотя бы действительная попытка поиграться с эффективностью. Использование ARM и подобных - слабеньких, но не прожорливых процессоров для датацентров в вычислительных задачах и для WEB приложений - то притихающая, то шевелящаяся ветка. Calxeda - не единственная, надорвавшаяся на этом поприще компания. Как написал один обозреватель - "Многие подняли миллионы из венчурных фондов и выстраивали партнерские отношения с громкими компаниями, такими как IBM. Большинство из них погибло ужасной смертью." Бррр..
    К нашим баранам. Выглядеть микросерверный вычислитель - если выживет - может примерно так, как на рисунке. Предложение от Applied Micro Circuits Corporation. Оговариваюсь "если выживет" - поскольку проект базировался на решении Calxeda - драйвера направления в течение длительного времени. Флаг еще не упал, еще остались бойцы. Тут AMD подтянулся вовремя со своим ARM процессором, поскольку с рынка "толстых" процессоров его тихо-мирно практически уже вытеснили. Да и Intel экспериментирует с облегченными процессорами. Вот, Penguin Computing недавно - в сентябре 2013 продемонстрировал платформу для OCP основанную на Intel® Atom™ processor C2000. Сей атом имеет  64-битную архитектуру, содержит до 8 ядер и работает с памятью объемом до 32GB на частоте 1600 MHz. И все это богатство при 6Вт потребления!!! У компании, кстати, являющейся "официальным поставщиком решений" для OCP, есть и набор традиционных, толстых вычислителей - решения для OCP.

Хранилище

    Решение OpenVault, представленное инженерами Facebook (на фотографии). Это нечто. Пока не увидишь фотографии, оно не производит эффекта. А если своими руками отщелкнуть, вытянуть... она еще и отваливается на 45 градусов на петлях для удобного доступа.. - наверное, мурашки пробегут или чего посерьезнее произойдет.
    2 этажа. В каждом - 15 накопителей 3,5 дюйма (почему только 3,5 ????) уложенных в три ряда по пять. Внешний интерфейс - SAS. Меня лично напрягают решения по упаковке НЖМД в корпус "рядами в глубину" из-за сомнений в достаточности охлаждения углубленных накопителей. Хотя, с другой стороны, потребляемая НЖМД мощность все меньше с каждым новым поколением, наверное так располагать накопители уже не страшно.
    В проекте выделено понятие "Холодное хранилище" (Cold Storage). Для "холодных данных". Тех, что пишутся, но никогда не читаются. Архив, резервные копии, ... Для такого применения прямо, практически, без вариантов просятся Shingled Magnetic Recording (SMR) HDD - плотность записи повышенная, модификация данных отсуствтует. Записали - похранили нужное время - затерли более свежим. Скорость записи и чтения не на первых позициях в требованиях.
    О горячих (в данном случае - ну, очень горячих!) данных побеспокоился FusionIO, засветившись в совместных решениях с Quanta - сервер Quanta Rackgo X с акселератором  ioScale (релиз) и Hyve Solutions - сервер 1500 Series . Quanta вообще не на шутку взялась за инициативу OCP! 3 вида стоек, 2 вида серверов, хранилище на 28 НЖМД 3.5 или 2.5 дюйма (я был не прав!), Ethernet коммутатор. Полный комплект кирпичиков, только проставляй в нужной колонке количество каждого... Правда, хранилище реализовано с другой компоновкой, не такой эффектной, как от OpenVault.

    Отношение к проекту неоднозначное. От щенячего восторга до разочарования и обратно - 2..3 запроса поисковика.
    С одной стороны, судя по отголоскам в информационных источниках и все чаще встречающемся буквосочетанием Open Compute Project или OCP, работа ведется и нешуточная. С другой - какая-то она очень не публичная, несмотря на слово "Открытый" в названии. Поисковики бодро выдают множество результатов, в то время, как сайт замерз в каком-то неактуальном состоянии.
    С точки зрения экономики. Да, Facebook иметь в качестве покупателя оборудования - это большая удача! Если приплюсовать других провайдеров (Google, Microsoft, Amazon,...) это будет существенная, но все-таки ДОЛЯ рынка. Если, при этом, оборудование для этой доли будет кардинально несовместимо с оставшейся частью рынка - как быть производителю? Проектировать и производить ДВА варианта изделия - "для OCP" и "для не-OCP"? Это дорого. Это усложнит планирование производства. Перепроизвели одного, недо- другого, все распаивать и паять заново? Стойки 19" производят уже сколько лет... Все на них построено. Теперь провайдеру (датацентру) что - делить все на зоны? "Для OCP" и "для не-OCP"? Или этот междусобойчик и не планировал существовать вне своей песочницы, "мы для себя щас все оптимизируем и будем жить счастливо, кто хочет отхватить кусок пирога - пожалте к столу со своим самоваром, а нет - никого не насилуем, проходите своей дорогой!"

Комментариев нет:

Отправить комментарий