7 декабря 2015 QLogic совместно с Brocade продемонстрировали решение NVMe Over Fabrics на базе FC во время Infrastructure & Operations Management Conference, проходящей в Gartner Data Center, Las Vegas.
Одеяло инфраструктуры, на которой строятся современные сети хранения данных (SAN) то перетягивается в сторону Ethernet, то Fibre Channel частично отвоевывает потерянное. Однозначного "мы победили и враг бежит!" нет даже в стане Ethernet, поскольку все игроки понимают, что предустановленного в мире оборудования Fibre Channel ОЧЕНЬ МНОГО и владельцы его не могут в одночасье все бросить, резко перейдя на конкурирующее решение. При этом, правда, утверждается, что все вновь вводимые вычислительные мощности не используют Fibre Channel в качестве транспорта (речь идет об огромных проектах - Амазон, Майкрософт, Фейсбук,...).
Как бы там ни было, индустрия подстраивается под возрастающие потребности. С появлением самых быстрых на сегодня накопителей - NVMe (Non-Volatile Memory Express), возникла идея их оптимальной утилизации - коллективного распределенного владения столь мощным, но и столь дорогостоящим ресурсом. Ведь по природе своей накопитель привязан к локальному серверу интерфейсом. Шины PCI Express предоставляются конкретным процессором конкретного сервера.
Оно, конечно, спецификация PCI Express 2.0 (2007 год) заложила возможности построения сети PCI Express, описав внешнее соединение. И некоторые компании даже пытаются делать коммутаторы - IDT, Avago, например. Но перспективы у фабрик PCI Express под вопросом. Не в чисто поле надо выходить, а на очень утоптанную поляну, на которой УЖЕ смертным боем бьются Ethernet, Fibre Channel, да и InfiniBand не собирается отдавать свой специфический угол. SAS например, хотя тоже имел амбиции на СТРУКТУРУ, так ей и не стал, оставшись локальным интерфейсом к устройствам хранения.
Одеяло инфраструктуры, на которой строятся современные сети хранения данных (SAN) то перетягивается в сторону Ethernet, то Fibre Channel частично отвоевывает потерянное. Однозначного "мы победили и враг бежит!" нет даже в стане Ethernet, поскольку все игроки понимают, что предустановленного в мире оборудования Fibre Channel ОЧЕНЬ МНОГО и владельцы его не могут в одночасье все бросить, резко перейдя на конкурирующее решение. При этом, правда, утверждается, что все вновь вводимые вычислительные мощности не используют Fibre Channel в качестве транспорта (речь идет об огромных проектах - Амазон, Майкрософт, Фейсбук,...).
Как бы там ни было, индустрия подстраивается под возрастающие потребности. С появлением самых быстрых на сегодня накопителей - NVMe (Non-Volatile Memory Express), возникла идея их оптимальной утилизации - коллективного распределенного владения столь мощным, но и столь дорогостоящим ресурсом. Ведь по природе своей накопитель привязан к локальному серверу интерфейсом. Шины PCI Express предоставляются конкретным процессором конкретного сервера.
Оно, конечно, спецификация PCI Express 2.0 (2007 год) заложила возможности построения сети PCI Express, описав внешнее соединение. И некоторые компании даже пытаются делать коммутаторы - IDT, Avago, например. Но перспективы у фабрик PCI Express под вопросом. Не в чисто поле надо выходить, а на очень утоптанную поляну, на которой УЖЕ смертным боем бьются Ethernet, Fibre Channel, да и InfiniBand не собирается отдавать свой специфический угол. SAS например, хотя тоже имел амбиции на СТРУКТУРУ, так ей и не стал, оставшись локальным интерфейсом к устройствам хранения.