пятница, 9 мая 2014 г.

HGST тоже увидел бдущее в дисковых накопителях с Ethernet

    7 мая 2014 HGST опубликовал пресс-релиз о предстоящей демонстрации на OpenStack Summit, который будет проходить в Атланте 12..16 мая 2014 дисковых накопителей с непосредственным подключением по Ethernet.

    Впервые услышанное из уст Seagate - "в будущем у дисков будет один интерфейс - Ethernet" и вызвавшее некоторое замешательство в аудитории утверждение, начинает закрепляться на почве. Никто не говорит, что это очень близкое будущее, но предпосылки таковы:
   - облака очень активно берут на себя все большую долю вычислительной нагрузки
   - программно-определяемое хранилище (Software-Defined Storage, SDS), которыми, в том числе активно занимается OpenStack  - замечательный шаг вперед в области систем хранения. Отдельные устройства в SDS объединяются в единое хранилище с теми или иными потребительскими свойствами применительно к конкретной задаче. Масштабируемость и гибкость - вот главные рычаги движения. Проприетарные "железные" решения - на покой! Как утверждают разработчики одной из систем хранения (имеющей, кстати, отечественные корни), "мы умеем так быстро считать RAID 6, что нам не надо дожидаться, пока ВСЕ диски ответят, мы имеем конечный результат еще до получения всех запросов от HDD". Требуются дополнительные вычислительные мощности? Это не проблема.
   - в парадигму SDS отлично ложатся Ethernet-подключаемые устройства хранения. Лишь бы пропускной способности хватало и обеспечивалась гарантированная доставка пакетов.

    HGST решила одним выстрелом накрыть все мишени. На шоу будет представлен накопитель Ultrastar® He6 - один из САМЫХ ЕМКИХ на сегодня (6 терабайт), ГЕЛИЙ-НАПОЛНЕННЫЙ - пока единственный в мире, да еще и с Ethernet интерфейсом! В общем, САМЫЙ-САМЫЙ.


http://www.prnewswire.com/news-releases/hgst-to-demonstrate-an-open-ethernet-drive-architecture-for-scale-out-applications-at-openstack-summit-2014-booth-d5-258296731.html

PRAM, она же PSM (Phase Change Memory) готова поспорить за лидерство

    Еще не упомянутый здесь тип энегонезависимой памяти, активно исследуемый в последнее время - память с изменением фазового состояния. Синонимы - PRAM, PSM. Физика основана на способности некоторых материалов (ха́лькогени́дов, в частности) находиться в двух стабильных состояниях - аморфном и кристаллическом. При этом, электрическое сопротивление материала в этих состояниях изменяется примерно в 10 раз. Переход из одной фазы в другую происходит при локальном нагреве. Таким образом, она термо-ассистируемая. Но не путать с Heat-assisted magnetic recording (HAMR) - она относится к магнитной записи.

    Существующие технологии позволяют формировать ячейку памяти PSM с приемлемыми уровнями надежности записи и долговечности. Размер ячейки может составлять менее 16нм. При этом ячейка гарантированно выдерживает миллион циклов записи.

   По производительности PCM занимает место между динамической оперативной памятью (DRAM) и флэш (NAND). Сдерживающим фактором для использования этого типа памяти были большие задержки при записи - это обуславливается процессом (нагрел - дождался равномерного прогрева рабочего слоя - изменил фазу - подождал, пока тепло рассосется). Порядок цифр примерно такой: Запись - 10...150 миллисекунд; Чтение - 100...300 наносекунд.
    Исследования проводились Ioannis Koltsidas со товарищи в Цюрихской лаборатории IBM. Для удобства, они совместили PCM и NAND в одной гибридной плате, названной ими Prototype Storage Subsystem (PSS). В основе лежат чипы PCM P5Q 128 Mbit, производящиеся промышленно Micron с 2012 года по 90 нм технологии.


    Испытания PCM микросхем дали следующие результаты:

  • время записи 1.15 миллисекунд;
  • время чтения 75.24 микросекунд

Соотношение 15:1.
Неэстетично асимметрично! Можно ли с этим что-то сделать? Ускорить микросхемы памяти нельзя. Если поспешим с изменением фазы - ячейка может некачественно записаться. Если после изменения фазы не выждем - она может "испортиться" не зафиксировав четко своего состояния. То есть, уменьшение задержек приведет к ненадежной записи.
    Но мы можем использовать преобразование время-пространство, прямое и обратное! :) Располагаем микросхемы памяти в 2D сетке. Контроллер многоканальный. Микросхемы, управляемые одним каналом - в колонке, образуют Под-канал (Sub-channel, голубым на рисунке). Объединение микросхем по горизонтали - в строке, образует Под-банк (Sub-bank, желтым на рисунке). Если за один цикл, время которого фиксировано, записать более длинное слово - в пересчете на 1 бит информации, время записи сократится. При этом несколько
усложняется чтение, но оно а) итак намного быстрее записи, б) может быть ускорено увеличением количества подканалов. Итак, больше подбанков - быстрее запись; больше подканалов - быстрее чтение. Рассчитав необходимую размерность по вертикали и горизонтали, можно подобрать оптимальное соотношение для некоторого выравнивания времен записи и чтения (можно попробовать самостоятельно найти оптимум, формулы для расчета приводятся).

    В лаборатории остановились на следующей схеме модуля: 2 PCM канала (он двухсторонний, с каждой стороны по независимому каналу), в каждом 2 банка из 3х3 микросхем. В результате получили следующие скоростные характеристики системы:


  • скорость передачи 49,5 МБ/с
  • время чтения сектора  13,8 мкс
  • скорость чтения  61,6 тысяч секторов/с
  • время записи сектора  133,8 мкс
  • скорость записи  14,8 тысяч секторов/с


Соотношение скоростей записи и чтения несколько выровнено.

Помимо прочего, в модуль может быть добавлено 512МБ RAM в качестве кэш прямой или отложенной записи, но это - как рекомендация для производителей, в лабораторном решении не было реализовано.

    Теория теорией, но она мертва без практики! (В.И.Ленин, если кто забыл) Испытуемый образец (PSS PCI-e Card) сравнился с тремя аналогичными продуктами - два PCI-e SSD ускорителя разных производителей (MLC Flash PCI-e SSD 1 и MLC Flash PCI-e SSD 2) и TLC Flash SATA SSD. Запись велась блоками 4к.
    Некоторые диаграммы испытаний приведены в слайдшоу.

Выводы по результатам:
1. PSS показал хорошие результаты в производительности:
65k IOPS , задержка 35 мкс на чтение
15k IOPS , задержка 61 мкс на запись
2. Задержка при записи, несмотря на ограничения, присущая технологии PSM , вполне приемлемая и не уступает современным MLC решениям:
99,9 процентов запросов завершены в течение 240 мкс - что в 12x и 275x ниже, чем MLC и TLC флэш накопителей соответственно
Самая высокая наблюдаемая задержка была 2 мс - это в 7x и 61x ниже, чем MLC и TLC флэш накопителей, соответственно
   

http://www.slideshare.net/IBMZRL/theseus-pss-nvmw2014
http://www.theregister.co.uk/2014/05/08/big_blue_rings_the_phase_changes/

среда, 7 мая 2014 г.

Виртуальный кэш для виртуальных машин

    Добрались до виртуализации кэш. Не важно, как он физически организован в сервере - в оперативной ли памяти или на флеш-ускорителе - программный продукт PernixData FVP виртуализирует его и делает доступным для пула серверов. FVP Cluster™ Technology
позволяет любой виртуальной машине в системе обращаться к кэш любого сервера.
   В отличие от анонсированного в августе встроенного в VMware Flash Read Cache, продукт PernixData позволяет виртуальной машине не только читать кэш другого хоста, но и писать в него и организовывать кластеры из кэш. Основатели PernixData считают, что в работе с кэш они опережают VMware на 2..3 года.

    Дабы полноценно реализовать кластеризацию, компания использует Recover Point Objective (RPO) - специальные метки (флажки), подтверждающие гарантированную запись реплики на удаленном хосте.
    В качестве кэш может использоваться, как уже упоминалось, флеш, оперативная память или их гибридное сочетание. При этом, размер кэш в RAM может выделяться динамически.

    Подобные решения предлагают и другие производители:

Dell Fluid Cache for SAN   - описание. Ориентирован на PCIe флэш ускорители
Q&A    - вопросы и ответы. В частности: работает не только на оборудовании Dell; может масштабироваться до 8 хостов; гарантируется совместимость с рядом PCIe ускорителей (НЕ ЛЮБЫХ!!!!!).

Atlantis ILIO   заточен на работу с оперативной памятью, хотя и работа с флеш поддерживается и не возбраняется. Есть, так же, упоминание о гибридной схеме.

http://www.pernixdata.com/products
http://www.dell.com/learn/us/en/555/campaigns/dell-fluid-cache-for-san
http://www.atlantiscomputing.com/technology/caching

AVAGO TECHNOLOGIES завершил сделку по покупке LSI Corporation

6 мая 2014 все завершилось.

Avago - производитель аналоговых полупроводниковых приборов (как они сами себя позиционируют). Производят датчики, сенсоры, индикаторы, оптические приборы. Теперь вот, вошли в сферу высоких технологий..  :)

http://investors.avagotech.com/phoenix.zhtml?c=203541&p=irol-newsArticle&ID=1927486

SGI + Intel + 3M. Еще одна реализация датацентра, охлаждаемого жидкостью

    Апрель 2014. SGI реализовал проект суперкомпьютера, охлаждаемого жидкостью. Все та же 3M Novec в первом контуре, вода - во втором.

    По заявлению SGI, экономия пространства - более 10 раз! Экономия электроэнергии есть, но уровень ее не заявляется. 2-контрурная система охлаждения с погруженными в ванны стойками позволяет размещать до 100кВт активного оборудования на квадратный метр площади.

    Эх, если бы не цена суперводы от 3M!!!....

http://www.sgi.com/company_info/newsroom/press_releases/2014/april/immersioncooling.html

вторник, 6 мая 2014 г.

EMC и Hitachi померялись... размерами.

Сколько волка ни корми, а ... у слона больше!
(народная мудрость)

    Подводятся итоги операционного периода, все - кто может, стараются показать замечательные итоги. А если можно при этом позиционироваться впереди планеты всей...

    CEO EMC - David Goulden сообщил, что компания EMC - лидер по поставкам SSD хранилищ в первом квартале 2014 с общей емкостью поставленного оборудования в 17 терабайт.
    Позвольте, позвольте!.., поправляет его Bob Madaio, маркетинг-директор Hitachi Data Systems, а как же наши 19.5 петабайт в системах??? Они же больше, чем ваши 17, да еще и не учитывают более 25 петабайт, поставленных в виде накопителей на сторону!

http://www.theregister.co.uk/2014/05/05/nand_shipper_numero_uno_aint_who_you_think/

FusionIO, UlltraDIMM, газоны и танки.

                                                                       - А мы танками по вашему газону!
                                                                       - Мы даже не заметим на нашем газоне ваших танков.

    Две технологии (лица, представляющие эти технологии, конечно же) немного поспорили в заочном споре. Пока последнее слово за FusionIO.

    Ricardo Badalone, CEO Diablo Technologies пообещал, что их продукт - UlltraDIMM - просто сметет PCIe SSD ускорители с рынка.
    На что Lance Smith, COO FusionIO привел ряд контраргументов, во многом совпадающих с приведенными мной:


  • Да, UlltraDIMM обгоняет в задержках, но FusionIO имеет более сбалансированное соотношение при записи и чтении:

Read latency - Fusion-io - 68 microsecs vs flash DIMM's 100 microsecs
Write latency - Fusion-io - 15 microsecs vs flashDIMM's <5 microsecs

  • ... тем более, что сравнение идет не в равных условиях. "Если ставите в систему 8 модулей UlltraDIMM, но поставьте также 8 карт FusionIO в параллель - тогда и сравнивайте!"
  • Да, FusionIO карта потребляет больше энергии, ну так и объем памяти у нее больше!
  • RAM все равно быстрее флэш. Устанавливая модули UlltraDIMM вместо оперативной памяти RAM, мы урезаем ее объем и потенциально снижаем производительность системы. Флэш надо ставить в систему ВМЕСТЕ с RAM, а не ВМЕСТО!! Т.е, в дополнение, а не как замену. Поскольку, например, Buffer Pool Extension (BPE) SQL Server 2014 использует флэш как буфер уровня L2 по отношению к основной памяти - уровню L1. 
    К тому же, задержки - то есть, единственное, в чем UlltraDIMM выигрывает, по мнению Lance Smith, не являются узким местом и определяющей характеристикой в общей производительности системы.



http://www.theregister.co.uk/2014/04/30/fusionios_dim_view_of_flash_dimms/

EMC родит монстра?

    EMC World 2014. EMC приобретает DSSD - стартап, занимающийся разработкой масштабируемой флеш структуры. "SSD размером в стойку".
    Компания взяла на вооружение лозунг "Flash Everywhere" (Флеш повсюду).

    Небольшая справка. "Стартап" - DSSD - основан в 2010 году звездами Силиконовой долины.
Andy Bechtolsheim (Andreas von Bechtolsheim) - один из соучредителей и главный архитектор Sun Microsystems, финансирует проект.
Учредители DSSD:
Jeff Bonwick - ведущий разработчик ZFS, был вице-президентом Sun Microsystems, затем главным архитектором в Oracle, откуда и ушел в DSSD.
Bill Moore - боевая школа которого включает IBM, 3PAR, Sun Microsystems.

    Некоторое время компания работала "в тени". На сайте - заглушка, предлагающая связаться с компанией по электронной почте. Информация о деятельности просачивалась лишь в слухах и косвенных данных. А они говорили о том, что готовится небольшая революция в области продвинутых хранилищ.

понедельник, 5 мая 2014 г.

Sony Corporation - 148 Гб/кв.дюйм на лентах

    Sony, оказывается, не совсем еще забросил ленточные накопители! Тратит деньги на исследования и новые технологии.

    30 апреля 2014 корпорация Sony представила технологию нанесения покрытия с наногранулированным магнитным слоем, которая позволит повысить плотность записи на ленточные носители до 148 гигабит / квадратный дюйм. Это в 74 раза больше, чем у существующих ныне LTO-6 (2 Гб/кв.дюйм) носителей. Неслабый рывок!.. 185 ТБ на одном картридже.

    Собственно, физика не меняется. Sony добилась получения очень тонкого рабочего слоя магнитного материала с очень равномерной структурой кристаллов. Для этого происходит напыление "сглаживающего" промежуточного слоя, выравнивающего поверхностные неровности полимерного носителя и магнитомягкого подслоя. Неровности приводили к осаждению неравномерных по размеру кристаллов с некоторым разбросом магнитной ориентации. В результате, Sony получает гранулы со средним размером 7,7 нм.

http://www.sony.net/SonyInfo/News/Press/201404/14-044E/index.html

пятница, 2 мая 2014 г.

Google всерьез взялся за ARM?

    По информации The Register, Google взяла на работу Prashant Chandra - главного архитектора проекта Calxeda.
    К чему бы это?...    :)

    http://www.theregister.co.uk/2014/05/01/google_calxeda_chip_hire/

Storage Tiering - хорошо забытое старое...

Мухи - отдельно,
мясо - отдельно.
(народная мудрость)

    Выражение, вынесенное в эпиграф, не является плодом напряженного ума Великого Ведущего. В приведенной интерпретации я слышал его в своей семье с глубокого детства. В определенный момент, произнесенная в микрофон для довольно большой аудитории фраза, получает "вторую молодость".
    Является ли техника иерархического хранения (Hierarchical Storage Management, HSM. Синоним - Storage Tiering) "открытием 201х года"? Конечно же, нет! Она применялась чуть ли с рождения серверов. Wikipedia затруднилась обозначить более-менее точный период, но ассоциация с мэйнфреймами IBM не вызвала возражений общественности. Честно говоря, первенство IBM можно оспорить, поскольку в основе своей техника имеет веками использующуюся логику хранения "шкаф -> кладовка -> гараж -> дача (сарай, если дачи нет) -> помойка"

   Причина разделения хранилища на разделы банальна - чем быстрее раздел, тем он дороже. Строить монолитное "самое быстрое из возможных" хранилище - в большинстве случаев глупо-расточительно, поскольку сохраняемые данные (как правило) могут быть разделены на часто используемые (горячие) и используемые редко-никогда (холодные). Как показывает практика, этот вполне логичный подход часто не работает. "Нам необходима система хранения с максимально возможной скоростью доступа объемом ХХХ петабайт" - уж строить, так строить!