Software-defined storage. Варить или не варить?

В попытке экономии на приобретаемом и обслуживаемом оборудовании, компании находятся в состоянии поиска новых технологических решений для удовлетворения собственных потребностей. Направление хранения данных является одним из наиболее востребованных направлений в этом плане, ввиду высокой стоимости классических систем хранения данных.
Технология SDS далеко не нова и начала развиваться ещё в начале 2000-х годов, но за все эти годы так пока и не смогла заменить классические СХД, как это предрекали в самом начале, да и основной бум развития данной технологии приходится лишь на последние годы.

Концепция данного решения крайне интересна и превлекательна:

  • Абстрагирование от аппаратной платформы
  • Отличная масштабируемость
  • Низкая цена решений
  • Упрощение инфраструктуры

К сожалению, на данный момент можно констатировать что далеко не все из этих ключевых задач полностью решены хотя бы одним разработчиком, но стоит отметить, что разработчики активно занимаются развитием своих продуктов, что бы решить все поставленные задачи.

И так, вернёмся к SDS. Условно их можно разделить на несколько категорий:

  • Классические SDS (CEPH, Red Hat Storage Server, EMC ScaleIO)
  • SDS на основе традиционных систем хранения (NetApp Data ONTAP Select, HP StoreVirtual VSA)
  • SDS в составе вычислительных комплексов (Vmware vSAN, Nutanix)

Так же стоит отметить, что некоторые вендоры предлагают свои решения как «All in one», так и только «софтверную» часть (Huawei, Nutanix, EMC). Это даёт некую гибкость в подборе решений, а так же возможность использования морально устаревшего «вычислительного» оборудования под менее ресурсоёмкие задачи хранения данных. Опять-таки одним из толчков к реализации программного хранилища стала, как раз-таки, постоянно растущая вычислительная способность ЦП которая далеко не всегда, даже на младших моделях процессоров, бывает востребована и зачастую — просто простаивает.
Ещё одной заслугой, технологии SDS стала возможность в некоторых классических СХД использования «виртуализации» дисковых массивов.

Крупные провайдеры услуг хранения, такие как Dropbox, Amazon, Google, Apple и др., давно уже поняли перспективность данного направления и располагают достаточным количеством ресурсов, для реализации этой технологии для собственных нужд.

Архитектурно, решения строятся по двум принипам: слабо связанные и распределённые, без общих элементов. Слабо связанные системы обеспечиваются транзакционность данных, а отказоустойчивость обеспечивается за счёт распределённых копий данных, а вот минусом данного решения можно считать большое количество коммуникаций между нодами, что в свою очередь негативно сказывается на скорости записи. Критичным местом в такой архитектуре является сеть передачи данных, по этому такие решения строятся обычно на основе Infiniband. По такому принципу построены решения VMware VSAN, HP StoreVirtual VSA, EMC ScaleIO, Nutanix.
Что же касается систем без общих элементов, то здесь идёт на одну ноду, а уже в последствии с некой периодичностью копируется на другие, для обеспечения отказоустойчивости. При этом записи не являются транзакционными. Это наиболее дешёвый подход к построение систем, по этому в основном использует Ethernet. Данная архитектура наиболее удобна с точки зрения масштабируемости. Наиболее яркой представитель: Ceph.

Сравнение возможностей SDS решений.


Конечно Nutanix немного выбивается из общей массы сравниваемых продуктов, но SDS это всё-таки достаточно большая часть гиперконвергентных решений, о которых я ещё буду говорить в дальнейшем. Да и сама компания Nutanix предлагала нам свои решения в том числе и под SDS.

Это далеко не полный список производителей SDS решений на рынке. Почти у каждого «железного» вендора на данный момент в портфеле имеется и SDS решение той или иной «продвинутости», но помимо этого на рынке есть и немалое количество компаний, которые занимаются именно SDS (как в только софтверной части, так и all-in-one решениями), в том числе имеются и продукты с открытым исходным кодом. Думаю с большой долей уверенности можно назвать решение от компании StarWind одним из лидеров рынка, как по его возможностям, так и по модели лицензирования, которая в итоге получается наиболее привлекательной в пересчёте на 1Гб данных.
В любом случае, пока это наша лишь первая теоретическая часть по SDS решениям, и конечно без практического тестирования производительности, отказоустойчивости, восстановления после сбоев, расширяемости и тд картина не полная. К сожалению на проведение этих испытаний требуется на много больше времени, по этому данный материал пришлось разделить на 2 части.

11 ответов к «Software-defined storage. Варить или не варить?»

  1. Привет. Поправлю про Nutanix.
    Файловый доступ: если мы говорим про именно SDS-функциональность, то сейчас в Acropolis File Service (AFS) у Nutanix «наружу», внешним потребителям, отдается SMB 2.1, и вскоре, вероятно, будет NFS. «Внутри», как внутренний сервис узлов, есть SMB 3.0 и NFS, но это уже не «SDS-функциональность», а внутренние фичи.
    Кроме этого QoS у Nutanix как такового нет. Странно, но факт 🙂 Обусловлено это тем, что в принятой в Nutanix архитектуре нет большой нужды в QoS, так как в пределах кластера влияние нагрузок минимально. Но, как факт, QoS как такового — нет.

  2. В StarWind нет таеринга, есть кеширование — L1 (память) и L2 (флеш).
    И в ScaleIO таеринга нет. Хотя в документации слово упоминается. Но возможность создавать пулы на разных дисках — это не таеринг 🙂

  3. Load More

Добавить комментарий