Сравнение гиперконвергентных решений ведущих производителей

vce-vblock-homepage
В условиях жёсткой конкуренции на IT-рынке, вендоры стараются не отставать друг от друга, по этому существует огромное количество аналогичных решений от разных производителей. Разобраться в их возможностях, сравнить и попытаться определиться с тем — какое решение можно назвать лидирующим в этой области, а что из них наиболее гармонично вписывается в вашу существующую или строящуюся инфраструктуру. Сегодня мы попытаемся разобраться с лидерами рынка и расставить все точки.

Для решения таких задач, как, к примеру, виртуализация есть набор решений, от разных производителей, как программные, так и аппаратные. Основной проблемой в данном случае что при возникновении нештатных ситуаций или непрогнозирумом поведении системы её сложнее обслуживать, в случае работы с несколькими вендорами, услугами и оборудованием, которых вы пользуетесь. Гиперконвергентные решения призваны упростить эту систему, что приведёт к упрощению развёртываний систем и их обслуживания, что благоприятно скажется на стоимости их обслуживания.
Сами же гиперконвергентные решение предполагают отсутствие выделенного оборудования для решения лишь одного типа задач (вычислительные ноды или системы хранения данных, сетевые маршрутизаторы, брэндмауеры и тд). Гиперконвергентная инфраструктура была разработана, чтобы решить проблемы производительности, масштабирования, сложности и стоимости, которые преследуют ИТ с расширением бизнеса. Благодаря этим системам, мы возвращаемся к DAS (direct-attached storage) — системам хранения, подключаемым непосредственно к серверам.
Наиболее важным в данных решениях является ПО, устанавливаемое на данные серверы, т.к. оно должно решать сложные задачи распределения ресурсов по нодам кластера, а так же позволять быстро и просто управлять крупными средами. Собственно данное ПО и является тем, что отличает гиперконвергентные решения от просто серверов, в большинстве случаев. Гиперконвергентные решения отличаются улучшениями на уровне программного контролера, что позволяет легко масштабировать эти системы. Чем больше устройств вы добавляете, тем большую производительность и емкость получаете. Вместо наращивания мощности за счет добавления большего числа дисков, памяти или процессоров, появляется возможность увеличивать производительность за счет добавления большего числа серверных нод. Но такой же подход является и минусом данных решений.
Предположим что дисковое пространство в вашем кластере стремительно заканчивается, но при этом вычислительных ресурсов системы ещё более чем достаточно. В данном случае вам всё-равно придётся приобретать полноценную серверную систему, переплачивая при этом за ненужные вам в данный момент вычислительные ресурсы. Но существуют и исключения из этого правила, если вы приобретаете не коробочное решение (Nutanix, SimpliVity), а строите инфраструктуру самостоятельно, при помощи таких продуктов как VMware Virtual SAN, которые продаются именно как ПО, оставляя право подбора необходимого вам серверного оборудования за вами. Собственно продукты для создания гиперконвергентное инфраструктуры и можно разделить на 2 типа: коробочные решение и ПО. Стоит так же отметить что некоторые компании предлагают свои решениях в обоих вариантах, оставляя лишь рекомендации по подбору оборудования.
Как и в случае с SDS — игроков на рынке за последние годы появилось достаточно большое количество и обозревать их все подробно не имеет смысла. Во-первых по тому что некоторые из данных решений просто не интересны, а некоторые решения реализованы на одном и том же наборе ПО и отличаются лишь аппаратным обеспечением, по факту предлагая одно и то же лишь под разными брендами.
Так же стоит учитывать, что гиперконвергентное решение включает в себя и SDS, но есть решения, когда вместо SDS используется аппаратная СХД.

Nutanix *1
SimpliVity
EMC VCE VxRail
NetApp FlexPod
Cisco HyperFlex
Huawei FusionCube
HyperGrid
Аппаратное обеспечение
Supermicro (NX), Dell EMC, Cisco, LenovoDell EMC (White box), Cisco, LenovoQuanta, Dell EMCCisco, NetApp
Cisco
Huawei
Supermicro
Серверов в ноде/блоке
от 1 до 41
1 или 4от 1 до 81
от 1 до 8
от 8 до 28, от 20 до 70 дисков
Минимальная конфигурация (нод)
11
3
2 коммутатора, 2 сервера, 1 схд
3 (нельзя миксовать разные модели серверов HX)
3
1 блок с 8 лезвиями,20 дисков
Максимальная конфигурация (нод)
Нет4-8 OmniCubes в кластере или 32 в федерации
64
Нет
До 8 серверов в кластере, до 4 кластеров
256
Нет
Метод расширения
1 нода
1 нода
Диски, SSD, нодыВозможно по отдельности наращиватькак дисковое пространство (СХД),
так и вычислительные ресурсы. Ресурсы можно как добавлять, так и удалять
1 нода
1 нода
Возможно по отдельности наращивать как дисковое пространство (СХД), так и вычислительные ресурсы.
Поддержка гипервизоров
vSphere, Hyper-V, AHV (KVM)vSphere
vSphere
vSphere, Hyper-V
vSphere
vSphere, FusionSphere (на основе Xen)
KVM
Специальная версия гипервизора
Нет для vSphere, Hyper-V, но AHV - гипервизор разработки Nutanix на базе KVMДа
Нет
Нет
Нет
Нет
Нет
Архитектура хранения
VSA (Управляющая VM на каждом хосте)
VSA (Управляющая VM на каждом хосте)
vSAN
Аппаратная СХД
VSA (Управляющая VM на каждом хосте)
VSA (Управляющая VM на каждом хосте)
Аппаратная дисковая полка + VSA
Необходимый объём памяти для VM хранения
16-32GB
56-128GB
Нет
Нет
---
------
Соединениес локальными дисками
Непосредственная работа с RAID контроллером
Непосредственная работа с RAID контроллером
Непосредственная работа с RAID контроллером
FC, iSCSI, NFS
Непосредственная работа с RAID контроллером
Непосредственная работа с RAID контроллером
Infiniband
Возможность презентации лунов внешним системам
iSCSI
NFS
Нет
FC, FCoE, iSCSI, NFS, pNFS, CIFS/SMB
Да
NFS
Да
Презентация внешнего хранилища кластеру
SMB3, NFS, iSCSI
NFS, iSCSI
NFS, iSCSI
FC, iSCSI, NFS
NFS
NFS, iSCSI
Через отдельную VM
Дедупликация
In-line для Flash
Post-process для остальных типов
In-line для всех типов. Возможность использовать PCI-E адаптеры для уменьшения нагрузки на ноду
Только In-line для Flash
In-line и Post-process для всех типов
Да
Нет
Да
Компрессия
In-line и Post-process для всех типов
In-line для всех типов
Только In-line для Flash
In-line и Post-process для всех типов
Да
Нет
Да
Шифрование
Да
Да
Нет
Да
Да
Нет
Да
Использование Flash памяти
Да
Только для тиринга
Кэш чтение/запись для гибрида, кэш на запись для All FlashДа, так же могут быть использованы PCI карты Flash Cache
Да
Да, для кэша на чтение и на запись
Да, для кэша на чтение и на запись
VAAI
Да
Да
Нет
Да
Да
Нет
---
VASA
Нет
Нет
Да
Нет
Нет
Да
---
VVOL
Нет
Нет
Нет
Да
Нет
Нет
---
Snapshots
Да
Да
Да
Да
Да
Да
Да
Интегрированное резервное копирование VM
Да, на основе снэпшотов, могут быть реплицированы на другой сайт с настраиваимым параметромколичества копий
Да, может хранится локально или реплицироваться на другой сайт. При репликациина другой сайт перемещаются только изменения
Да, VPDДа

Нет
Нет
Репликация
Да
Да
Да, vSphere Replication или RecoverPoint for VMДа
Да
Да
Да
Сохранность данных
Может быть выбрано 2 или 3 копии данных. Для 3 копий необходимоминимум 5 нод
ЗаписываетVM зеркально парами на ноды
Настраиваемое количество копий
2 копии данных на парах нод
Настраиваемое количество копий
2 копии данных
---
Отказоустойчивость
При двух копиях данных - блок, при трёх копиях - два блока
Одна нода
от 0 до 3 нод в зависимости от числа копийВыход одной ноды из каждой пары, диски в зависимости от типа RAID
Одна нода
Одна или две ноды
5 любых дисков в день

На основе этих продуктов некоторые вендоры выпускают решения под собственными брендами:
1 Dell XC
2 EMC VSPEX Blue, Fujitsu, HPE HC, Hitachi Data Systems UCP 1000, Supermicro

 

Решение NetApp FlexPod архитектурно выделяется из всех сравниваемых решений, использованием аппаратной СХД взамен SDS. Такой подход имеет как свои плюсы, так и минусы. С точки зрения экономии ресурсов, при расширении СХД у нас не будут появляться ненужные вычислительные ресурсы (основная проблема при масштабировании гиперконвергентных решений), но с другой стороны — это более дорогой подход с точки зрения стоимости оборудования. И возможно покупка «хранительно/вычислительной» ноды обойдётся дешевле, чем полка расширения того же объёма.

Продукт от Green IT Glob так же похож на FlexPod тем, что так же используется внешняя СХД, которая подключается к серверной корзине по Infiniband. В качестве вычислительных нод используется MicroBlade. При использовании данного оборудования появляется отличная возможность крайне плавно наращивать вычислительные ресурсы, использовать различные процессоры (в том числе и достаточно экономичные Intel Xeon D). Лезвия могут быть как одноядерные, так и двухядерные. И использовании «небольших» по ресурсу лезвий так же имеет свои плюсы, одним из которых является восстановление виртуальных машин после падения одной из нод. Чем менее мощным будет хост, тем меньше машин будет на нём располагаться, соответственно в случае выхода из строя такой ноды — меньше виртуальных машин будет подвержено перезапуску на соседних нодах.

Так же, архитектурно интересно решение от Huawei. FusionCube построен на базе блейдовой корзины E9000. Самое интересно в данном решении это возможность выбора лезвий. Лезвия можно поделить на 2 типа: полной длинны (их может быть установлено до 16 штук, их число должно быть кратно 4) и полной длинны (их может быть установлено до 8 штук, их число должно быть кратно 2). С точки зрения хранения данных интересны 3 модели:
CH226 V3 Storage Expansion — может содержать до до двух 22-ядерных процессоров Intel Xeon серии E5-2600 v3, 24 линейки памяти DDR4 DIMM и 6 x 3.5-дюймовых и 2 x 2.5-дюймовых дисков SSD, SAS HDD или SATA HDD.
CH225 V3 All-Flash — может содержать до до двух 18-ядерных процессоров Intel Xeon серии E5-2600 v3, 24 линейки памяти DDR4 DIMM и 12 x 2,5-дюймовых NVMe SSDs, а так же 2 x 2,5-дюймовых дисков SSD, SAS HDD или SATA HDD.
CH222 V3 — может содержать до до двух 18-ядерных процессоров Intel Xeon серии E5-2600 v3, 24 линейки памяти DDR4 DIMM и 15 x 2,5-дюймовых дисков SSD, SAS HDD или SATA HDD.
Так же данное решение можно расширить вычислительными нодами половинной длинны:
CH121 — может содержать до до двух 18-ядерных процессоров Intel Xeon серии E5-2600 v3, 24 линейки памяти DDR4 DIMM
CH140 — может содержать до до четырёх 12-ядерных процессоров Intel Xeon серии E5-2600 v2, 8 линеек памяти DDR4 DIMM
Если же решение вдруг потребуется подготовить для качественного VDI, можно рассматривать лезвия:
CH120 — может содержать до до двух 18-ядерных процессоров Intel Xeon серии E5-2600 v3, 16 линейки памяти DDR4 DIMM и шесть стандартных слотов расширения PCIe для различных вариантов конфигурации шины PCIe, в том числе и для установки видео карт.
Так же все лезвия поддерживают SATA DOM, что позволяет не использовать диски лезвий для установки гипервизора. И очень не маловажное дополнение — на дисках в серверах Huawei нет вендорлока.
Решение FusionCube было продемонстрировано нам компанией Huawei на базе построенного ими для компании Акадо ЦОДа объёмом в стоек. Следует сразу отметить, что гиперконвергентное решение было построено на базе обычных стоечных серверов, а не на платформе FusionCube.

Продукт Hyperscale от компании Ericsson в перую очередь нацелен на телеком-компании, для предоставления качесвтенных услуг связи. Стоит отметить, что требовательность таких компаний к оборудованию на много выше (в частности по сетевому стеку), нежели у облачных провайдеров. Как по производительности отдельных компонентов, так и по отказоустойчивости. представители компании Ericsson не смогли в открытую рассказать об отказоустойчивости их системы, в частности о количестве нод/дисков, вышедших из строя, которое может спокойно переварить их система, сославшись только на то, что их решения используют крупные западные телеком-компании, такие как AT&T для обеспечения услуг связи, которое подразумевает отказоустойчивость в 5 девяток после запятой. Так же данное решение немного смущает количеством используемого ПО. В частности в их решение включён OpenStack, который сам по себе содержит множество подпроектов, но OpenStack «приправлен» ещё и добавками от самой Ericsson. В качестве SDS так же используется стороннее решение, а в качестве управляющего оркестратора ещё одно решение от Ericsson. И несмотря на то, что большая часть ПО является свободным, всё это нагромождение проектов может вызвать некоторые проблемы в его эксплуатации.

Остальные, коробочные решения, предлагают меньшую гибкость в аохитектуре построения системы. Их закрытость так же сказывается на количестве объективной информации, доступной в свободном доступе. Привязанность некоторых решений к конкретному аппаратному обеспечению так же влияет и на его стоимость и на совместимость с уже имеющимся оборудованием компании. К сожалению, в открытом доступе отсутствует информация об эксплуатации данных решений в крупных масштабах, либо вендоры сознательно не говорят ни об одной построенной системе. Некоторое время назад, присутствуя на одной IT конферении, у нас с коллегами возник диалог на тему решений от Nutanix. Основным вопросом дискуссии было — «а видел ли кто то, построенное на его базе решение, более чем из 4 нод, которые они дают в демо?». Несмотря на то что компания достаточно известна, очень много информации в сми и на профильных ресурсов — реальных кейсов в интернете находится очень не много и все они достаточно скромны по своим размерам. Так же стоит отметить, что большинство коробочных решений, позиционируются вендорами всё же как решение, более нацеленное на VDI.

 

4 ответа к «Сравнение гиперконвергентных решений ведущих производителей»

  1. VxRail:
    Серверов в ноде/блоке — 1 или 4
    Репликация — Да, vSphere Replication или RecoverPoint for VM
    Отказоустойчивость — от 0 до 3 нод в зависимости от числа копий
    Минимальная конфигурация (нод) — 3
    Метод расширения — диски, SSD, ноды
    Использование Flash памяти — наоборот: кэш чтение/запись для гибрида, кэш на запись для All Flash
    Интегрированное резервное копирование VM — да, VPD
    Аппаратное обеспечение — Quanta, Dell EMC
    VVOL — нет (SPBM — да)

    EVO:RAIL — трансформирован в VxRail, поэтому не вижу смысла его оставлять в таблице, т.к. купить его нельзя. Вместо него имеет смысл добавить VxRack SDDC (VMware Cloud Foundation), хотя по пунктам из таблицы там все будет похоже на VxRail (при этом там большая разница по другим параметрам)

     

Добавить комментарий