Сравнение гиперконвергентных решений ведущих производителей
В условиях жёсткой конкуренции на IT-рынке, вендоры стараются не отставать друг от друга, по этому существует огромное количество аналогичных решений от разных производителей. Разобраться в их возможностях, сравнить и попытаться определиться с тем — какое решение можно назвать лидирующим в этой области, а что из них наиболее гармонично вписывается в вашу существующую или строящуюся инфраструктуру. Сегодня мы попытаемся разобраться с лидерами рынка и расставить все точки.
Для решения таких задач, как, к примеру, виртуализация есть набор решений, от разных производителей, как программные, так и аппаратные. Основной проблемой в данном случае что при возникновении нештатных ситуаций или непрогнозирумом поведении системы её сложнее обслуживать, в случае работы с несколькими вендорами, услугами и оборудованием, которых вы пользуетесь. Гиперконвергентные решения призваны упростить эту систему, что приведёт к упрощению развёртываний систем и их обслуживания, что благоприятно скажется на стоимости их обслуживания.
Сами же гиперконвергентные решение предполагают отсутствие выделенного оборудования для решения лишь одного типа задач (вычислительные ноды или системы хранения данных, сетевые маршрутизаторы, брэндмауеры и тд). Гиперконвергентная инфраструктура была разработана, чтобы решить проблемы производительности, масштабирования, сложности и стоимости, которые преследуют ИТ с расширением бизнеса. Благодаря этим системам, мы возвращаемся к DAS (direct-attached storage) — системам хранения, подключаемым непосредственно к серверам.
Наиболее важным в данных решениях является ПО, устанавливаемое на данные серверы, т.к. оно должно решать сложные задачи распределения ресурсов по нодам кластера, а так же позволять быстро и просто управлять крупными средами. Собственно данное ПО и является тем, что отличает гиперконвергентные решения от просто серверов, в большинстве случаев. Гиперконвергентные решения отличаются улучшениями на уровне программного контролера, что позволяет легко масштабировать эти системы. Чем больше устройств вы добавляете, тем большую производительность и емкость получаете. Вместо наращивания мощности за счет добавления большего числа дисков, памяти или процессоров, появляется возможность увеличивать производительность за счет добавления большего числа серверных нод. Но такой же подход является и минусом данных решений.
Предположим что дисковое пространство в вашем кластере стремительно заканчивается, но при этом вычислительных ресурсов системы ещё более чем достаточно. В данном случае вам всё-равно придётся приобретать полноценную серверную систему, переплачивая при этом за ненужные вам в данный момент вычислительные ресурсы. Но существуют и исключения из этого правила, если вы приобретаете не коробочное решение (Nutanix, SimpliVity), а строите инфраструктуру самостоятельно, при помощи таких продуктов как VMware Virtual SAN, которые продаются именно как ПО, оставляя право подбора необходимого вам серверного оборудования за вами. Собственно продукты для создания гиперконвергентное инфраструктуры и можно разделить на 2 типа: коробочные решение и ПО. Стоит так же отметить что некоторые компании предлагают свои решениях в обоих вариантах, оставляя лишь рекомендации по подбору оборудования.
Как и в случае с SDS — игроков на рынке за последние годы появилось достаточно большое количество и обозревать их все подробно не имеет смысла. Во-первых по тому что некоторые из данных решений просто не интересны, а некоторые решения реализованы на одном и том же наборе ПО и отличаются лишь аппаратным обеспечением, по факту предлагая одно и то же лишь под разными брендами.
Так же стоит учитывать, что гиперконвергентное решение включает в себя и SDS, но есть решения, когда вместо SDS используется аппаратная СХД.
Nutanix *1 | SimpliVity | EMC VCE VxRail | NetApp FlexPod | Cisco HyperFlex | Huawei FusionCube | HyperGrid |
|
---|---|---|---|---|---|---|---|
Аппаратное обеспечение | Supermicro (NX), Dell EMC, Cisco, Lenovo | Dell EMC (White box), Cisco, Lenovo | Quanta, Dell EMC | Cisco, NetApp | Cisco | Huawei | Supermicro |
Серверов в ноде/блоке | от 1 до 4 | 1 | 1 или 4 | от 1 до 8 | 1 | от 1 до 8 | от 8 до 28, от 20 до 70 дисков |
Минимальная конфигурация (нод) | 1 | 1 | 3 | 2 коммутатора, 2 сервера, 1 схд | 3 (нельзя миксовать разные модели серверов HX) | 3 | 1 блок с 8 лезвиями,20 дисков |
Максимальная конфигурация (нод) | Нет | 4-8 OmniCubes в кластере или 32 в федерации | 64 | Нет | До 8 серверов в кластере, до 4 кластеров | 256 | Нет |
Метод расширения | 1 нода | 1 нода | Диски, SSD, ноды | Возможно по отдельности наращиватькак дисковое пространство (СХД), так и вычислительные ресурсы. Ресурсы можно как добавлять, так и удалять | 1 нода | 1 нода | Возможно по отдельности наращивать как дисковое пространство (СХД), так и вычислительные ресурсы. |
Поддержка гипервизоров | vSphere, Hyper-V, AHV (KVM) | vSphere | vSphere | vSphere, Hyper-V | vSphere | vSphere, FusionSphere (на основе Xen) | KVM |
Специальная версия гипервизора | Нет для vSphere, Hyper-V, но AHV - гипервизор разработки Nutanix на базе KVM | Да | Нет | Нет | Нет | Нет | Нет |
Архитектура хранения | VSA (Управляющая VM на каждом хосте) | VSA (Управляющая VM на каждом хосте) | vSAN | Аппаратная СХД | VSA (Управляющая VM на каждом хосте) | VSA (Управляющая VM на каждом хосте) | Аппаратная дисковая полка + VSA |
Необходимый объём памяти для VM хранения | 16-32GB | 56-128GB | Нет | Нет | --- | --- | --- |
Соединениес локальными дисками | Непосредственная работа с RAID контроллером | Непосредственная работа с RAID контроллером | Непосредственная работа с RAID контроллером | FC, iSCSI, NFS | Непосредственная работа с RAID контроллером | Непосредственная работа с RAID контроллером | Infiniband |
Возможность презентации лунов внешним системам | iSCSI | NFS | Нет | FC, FCoE, iSCSI, NFS, pNFS, CIFS/SMB | Да | NFS | Да |
Презентация внешнего хранилища кластеру | SMB3, NFS, iSCSI | NFS, iSCSI | NFS, iSCSI | FC, iSCSI, NFS | NFS | NFS, iSCSI | Через отдельную VM |
Дедупликация | In-line для Flash Post-process для остальных типов | In-line для всех типов. Возможность использовать PCI-E адаптеры для уменьшения нагрузки на ноду | Только In-line для Flash | In-line и Post-process для всех типов | Да | Нет | Да |
Компрессия | In-line и Post-process для всех типов | In-line для всех типов | Только In-line для Flash | In-line и Post-process для всех типов | Да | Нет | Да |
Шифрование | Да | Да | Нет | Да | Да | Нет | Да |
Использование Flash памяти | Да | Только для тиринга | Кэш чтение/запись для гибрида, кэш на запись для All Flash | Да, так же могут быть использованы PCI карты Flash Cache | Да | Да, для кэша на чтение и на запись | Да, для кэша на чтение и на запись |
VAAI | Да | Да | Нет | Да | Да | Нет | --- |
VASA | Нет | Нет | Да | Нет | Нет | Да | --- |
VVOL | Нет | Нет | Нет | Да | Нет | Нет | --- |
Snapshots | Да | Да | Да | Да | Да | Да | Да |
Интегрированное резервное копирование VM | Да, на основе снэпшотов, могут быть реплицированы на другой сайт с настраиваимым параметромколичества копий | Да, может хранится локально или реплицироваться на другой сайт. При репликациина другой сайт перемещаются только изменения | Да, VPD | Да | Нет | Нет |
|
Репликация | Да | Да | Да, vSphere Replication или RecoverPoint for VM | Да | Да | Да | Да |
Сохранность данных | Может быть выбрано 2 или 3 копии данных. Для 3 копий необходимоминимум 5 нод | ЗаписываетVM зеркально парами на ноды | Настраиваемое количество копий | 2 копии данных на парах нод | Настраиваемое количество копий | 2 копии данных | --- |
Отказоустойчивость | При двух копиях данных - блок, при трёх копиях - два блока | Одна нода | от 0 до 3 нод в зависимости от числа копий | Выход одной ноды из каждой пары, диски в зависимости от типа RAID | Одна нода | Одна или две ноды | 5 любых дисков в день |
На основе этих продуктов некоторые вендоры выпускают решения под собственными брендами:
1 Dell XC
2 EMC VSPEX Blue, Fujitsu, HPE HC, Hitachi Data Systems UCP 1000, Supermicro
Решение NetApp FlexPod архитектурно выделяется из всех сравниваемых решений, использованием аппаратной СХД взамен SDS. Такой подход имеет как свои плюсы, так и минусы. С точки зрения экономии ресурсов, при расширении СХД у нас не будут появляться ненужные вычислительные ресурсы (основная проблема при масштабировании гиперконвергентных решений), но с другой стороны — это более дорогой подход с точки зрения стоимости оборудования. И возможно покупка «хранительно/вычислительной» ноды обойдётся дешевле, чем полка расширения того же объёма.
Продукт от Green IT Glob так же похож на FlexPod тем, что так же используется внешняя СХД, которая подключается к серверной корзине по Infiniband. В качестве вычислительных нод используется MicroBlade. При использовании данного оборудования появляется отличная возможность крайне плавно наращивать вычислительные ресурсы, использовать различные процессоры (в том числе и достаточно экономичные Intel Xeon D). Лезвия могут быть как одноядерные, так и двухядерные. И использовании «небольших» по ресурсу лезвий так же имеет свои плюсы, одним из которых является восстановление виртуальных машин после падения одной из нод. Чем менее мощным будет хост, тем меньше машин будет на нём располагаться, соответственно в случае выхода из строя такой ноды — меньше виртуальных машин будет подвержено перезапуску на соседних нодах.
Так же, архитектурно интересно решение от Huawei. FusionCube построен на базе блейдовой корзины E9000. Самое интересно в данном решении это возможность выбора лезвий. Лезвия можно поделить на 2 типа: полной длинны (их может быть установлено до 16 штук, их число должно быть кратно 4) и полной длинны (их может быть установлено до 8 штук, их число должно быть кратно 2). С точки зрения хранения данных интересны 3 модели:
CH226 V3 Storage Expansion — может содержать до до двух 22-ядерных процессоров Intel Xeon серии E5-2600 v3, 24 линейки памяти DDR4 DIMM и 6 x 3.5-дюймовых и 2 x 2.5-дюймовых дисков SSD, SAS HDD или SATA HDD.
CH225 V3 All-Flash — может содержать до до двух 18-ядерных процессоров Intel Xeon серии E5-2600 v3, 24 линейки памяти DDR4 DIMM и 12 x 2,5-дюймовых NVMe SSDs, а так же 2 x 2,5-дюймовых дисков SSD, SAS HDD или SATA HDD.
CH222 V3 — может содержать до до двух 18-ядерных процессоров Intel Xeon серии E5-2600 v3, 24 линейки памяти DDR4 DIMM и 15 x 2,5-дюймовых дисков SSD, SAS HDD или SATA HDD.
Так же данное решение можно расширить вычислительными нодами половинной длинны:
CH121 — может содержать до до двух 18-ядерных процессоров Intel Xeon серии E5-2600 v3, 24 линейки памяти DDR4 DIMM
CH140 — может содержать до до четырёх 12-ядерных процессоров Intel Xeon серии E5-2600 v2, 8 линеек памяти DDR4 DIMM
Если же решение вдруг потребуется подготовить для качественного VDI, можно рассматривать лезвия:
CH120 — может содержать до до двух 18-ядерных процессоров Intel Xeon серии E5-2600 v3, 16 линейки памяти DDR4 DIMM и шесть стандартных слотов расширения PCIe для различных вариантов конфигурации шины PCIe, в том числе и для установки видео карт.
Так же все лезвия поддерживают SATA DOM, что позволяет не использовать диски лезвий для установки гипервизора. И очень не маловажное дополнение — на дисках в серверах Huawei нет вендорлока.
Решение FusionCube было продемонстрировано нам компанией Huawei на базе построенного ими для компании Акадо ЦОДа объёмом в стоек. Следует сразу отметить, что гиперконвергентное решение было построено на базе обычных стоечных серверов, а не на платформе FusionCube.
Продукт Hyperscale от компании Ericsson в перую очередь нацелен на телеком-компании, для предоставления качесвтенных услуг связи. Стоит отметить, что требовательность таких компаний к оборудованию на много выше (в частности по сетевому стеку), нежели у облачных провайдеров. Как по производительности отдельных компонентов, так и по отказоустойчивости. представители компании Ericsson не смогли в открытую рассказать об отказоустойчивости их системы, в частности о количестве нод/дисков, вышедших из строя, которое может спокойно переварить их система, сославшись только на то, что их решения используют крупные западные телеком-компании, такие как AT&T для обеспечения услуг связи, которое подразумевает отказоустойчивость в 5 девяток после запятой. Так же данное решение немного смущает количеством используемого ПО. В частности в их решение включён OpenStack, который сам по себе содержит множество подпроектов, но OpenStack «приправлен» ещё и добавками от самой Ericsson. В качестве SDS так же используется стороннее решение, а в качестве управляющего оркестратора ещё одно решение от Ericsson. И несмотря на то, что большая часть ПО является свободным, всё это нагромождение проектов может вызвать некоторые проблемы в его эксплуатации.
Остальные, коробочные решения, предлагают меньшую гибкость в аохитектуре построения системы. Их закрытость так же сказывается на количестве объективной информации, доступной в свободном доступе. Привязанность некоторых решений к конкретному аппаратному обеспечению так же влияет и на его стоимость и на совместимость с уже имеющимся оборудованием компании. К сожалению, в открытом доступе отсутствует информация об эксплуатации данных решений в крупных масштабах, либо вендоры сознательно не говорят ни об одной построенной системе. Некоторое время назад, присутствуя на одной IT конферении, у нас с коллегами возник диалог на тему решений от Nutanix. Основным вопросом дискуссии было — «а видел ли кто то, построенное на его базе решение, более чем из 4 нод, которые они дают в демо?». Несмотря на то что компания достаточно известна, очень много информации в сми и на профильных ресурсов — реальных кейсов в интернете находится очень не много и все они достаточно скромны по своим размерам. Так же стоит отметить, что большинство коробочных решений, позиционируются вендорами всё же как решение, более нацеленное на VDI.
Как помнится, Nutanix доступен также на железе Lenovo (http://blog.in-a-nutshell.ru/lenovo-hx-nutanix/) и Cisco (http://blog.in-a-nutshell.ru/nutanix-cisco-ucs/).
Спасибо, добавлю в таблицу
VxRail:
Серверов в ноде/блоке — 1 или 4
Репликация — Да, vSphere Replication или RecoverPoint for VM
Отказоустойчивость — от 0 до 3 нод в зависимости от числа копий
Минимальная конфигурация (нод) — 3
Метод расширения — диски, SSD, ноды
Использование Flash памяти — наоборот: кэш чтение/запись для гибрида, кэш на запись для All Flash
Интегрированное резервное копирование VM — да, VPD
Аппаратное обеспечение — Quanta, Dell EMC
VVOL — нет (SPBM — да)
EVO:RAIL — трансформирован в VxRail, поэтому не вижу смысла его оставлять в таблице, т.к. купить его нельзя. Вместо него имеет смысл добавить VxRack SDDC (VMware Cloud Foundation), хотя по пунктам из таблицы там все будет похоже на VxRail (при этом там большая разница по другим параметрам)
И ещё раз огромное вам спасибо за помощь 🙂