2017/11/20 13:15:49

Что такое гиперконвергентная инфраструктура и почему она стала так популярна?


Содержание

Что такое гиперконвергентная инфраструктура и почему она стала так популярна?

Не секрет, что для лучшего использования ресурсов, в любых системах, информационные не исключение, ресурсы следует собирать в общие пулы, с тем, чтобы их можно было целесообразно перераспределять. В компьютинге оптимизация в части использования ресурсов началась давно, еще с систем распределения времени. Потом пришла очередь виртуализации. Во втором десятилетии XXI века фокус внимания естественным образом сместился на гиперконвергенцию и дезагрегацию, потому что на данном уровне развития технологий создавать ресурсные пулы можно этими двумя альтернативными способами.

Различие между ними заключаются в отношении к виртуализации. Если оставаться на физическом уровне, то следует действовать средствами дезагрегации. Если же физические ресурсы можно преобразовать в виртуальные, то тогда предпочтительнее средства гиперконвергенции.

Гиперконвергенция позволяет создавать программно-центричные инфраструктуры, в которых тесно интегрирован разнообразный «аппаратный ширпотреб» (сommodity hardware), но на рынок такие инфраструктуры выводятся под брендом одного вендора.

Префикс «гипер» предполагает существование и просто конвергентных систем. Совместно два типа систем образуют подход, который изначально называли интегрированным стеком (integrated stack). Общим для обоих является то, что в масштабируемый стек собираются три основные компоненты – сети, серверы и СХД, и они объединяются средствами виртуализации и управления.

Недолгая история гиперконвергенции, начавшаяся с середины нулевых годов XXI века, интересна своей эволюцией. Начало было положено образованием альянсов несколькими компаниями, что достаточно нетипично для рынка. Совместно они предложили так называемые интегрированные стеки. Раньше других - группа VCE (VMware, Cisco и EMC) со своим Vblocks, затем группа в составе VMware, Cisco и NetApp с сетью хранения FcoE и стеком FlexPod. Следом был секстет в составе Dell, Fujitsu, HP, Microsoft, IBM и NEC с решением вокруг гипервизора Microsoft Hyper-V, а также две самостоятельные компании - Oracle с решением Exalogic и HP с Matrix.

Консолидировано возникшее движение в одном направлении крупнейших производителей поневоле заставило задуматься о фундаментальности предполагаемого сдвига.

Вот, что говорили тогда аналитики. Стефан Рейд из Forrester Research:

«
Тектонические плиты всех индустрий пришли в движение, а это значит, что меняются основные правила взаимодействия между производителями и пользователями
»

Марк Боукер из Enterprise Strategy Group:

«
Серьезность происходящих изменений не вызывает вопросов. Вся индустрия перестраивается под влиянием того, что происходит в Oracle, IBM, Cisco, Microsoft и у всех тех, кто делает бизнес вместе с ними
»

И на самом деле, появление интегрированных стеков изменило правила игры.[1] Раньше предприятию не оставалось ничего иного, как собирать системы собственными силами или прибегать к услугам компаний-интеграторов, а интегрированный стек можно было купить готовым, почти как домашний кинотеатр. Разумеется, тонкие ценители и критики, коих в компьютинге не мало, всегда найдут в любом интегрированном решении массу недостатков. Так было, например, с интегрированными пакетами ПО для ПК. Объединение редакторов, СУБД и электронных таблиц в одном продукте принималось ими в штыки до тех пор, пока не появился один всеобщий Microsoft Office, на этом все дискуссии закончились.

Спору нет, по отдельным показателям готовый комплекс может уступать специализированным решениям, но у него есть главное достоинство — возможность смещения расходов с эксплуатационных (OpEx) в сторону инвестиции в новые решения (CapEx), то есть на поддержку выполнения нового функционала. Продолжив параллель с аудио, можно сказать, что готовые интегрированные стеки позволяют тратить больше денег на музыку, а не на технику для ее воспроизведения.

Затем возникло новое обобщенное понятие «конвергентные инфраструктуры» (Сonverged Infrastructure, CI).[2] Обычно под CI понимают целостное законченное решение, собранное из взаимодополняющих готовых компонентов: серверов, систем хранения, коммуникационного оборудования и ПО для управления инфраструктурой, включающего средства для автоматизации и оркестровки. В некоторых случаях в состав CI могут входить еще и специализированные аппаратные модули управления. Управляющее ПО и специализированные модули обеспечивают централизованное управление обычно виртуализованными и объединенными в общие пулы ресурсами, распределяемыми между различными приложениями. Это повышает экономическую эффективность и снижает стоимость эксплуатации. Появление CI стало закономерным результатом эволюции корпоративных ЦОД по направлению к частным облакам.

По степени консолидированности CI можно разделить на три группы: шаблон, или референсная архитектура (Reference Architecture, RA), инфраструктура единого стека (Single Stack Infrastructure, SSI) и истинно конвергентная инфраструктура (True Converged Infrastructure, TCI).

В первом случае консолидация сводится к отдельным рекомендуемым конфигурациям, состоящим из компонентов от различных производителей. Во втором - весь стек оборудования производится и собирается в единое целое, а в третьем - в единое целое собираются компоненты от разных производителей, то есть в TCI объединены преимущества RA и SSI.[3]

И, наконец, еще один логичный шаг. Его сделала компания-стартап Nutanix, предложив Complete Cluster - масштабируемую инфраструктуру, которая объединяет в себе составные части корпоративной системы: компьютерные ресурсы и ресурсы систем хранения в форме единообразных базовых модулей. В последующем именно такие инфраструктуры стали называть гиперконвергентными (Hyperconverged Infrastructure, HCI).[4]

Отличительная особенность Complete Cluster и всех его последователей состоит в возможности собирать из модулей частное корпоративное облако без дополнительных вложений в сетевые СХД SAN или NAS. Идея Complete Cluster, казалось бы, лежала на поверхности. Известно, что успех таких гигантов, как Google, Yahoo, Amazon и Facebook, в значительной мере базируется на собственных блочных проприетарных технологиях, используемых для создания ЦОД. Почему бы не применить аналогичные подходы к существенно меньшим корпоративным ЦОД с классическими серверами и системами хранения, адаптированными к традиционным нагрузкам? Такого рода заимствование опыта имеет смысл, поскольку в современных корпоративных ЦОД, независимо от их масштаба, доминируют близкие виртуализованные нагрузки.

Основатели Nutanix раньше других обратили внимание на две проблемы классических ЦОДов, состоящих из серверов, SAN и NAS. Первая связана с наследием старых традиций — ЦОД создавались в расчете на статичную нагрузку, а новое представление о динамической нагрузке возникло в связи с виртуализацией серверов и переходом к облакам. Динамика заключается в необходимости на лету создавать виртуальные машины, перемещать их между серверами, однако в этих условиях управление существующими сетевыми системами хранения становится сложным и неудобным и отмахнуться от этой проблемы уже нельзя. Растет количество виртуальных машин, объем данных, которыми они оперируют, увеличивается, причем в немалой степени количественным изменениям способствуют новые технологии виртуализации, в частности, виртуализация настольных систем.

Еще одна проблема современных ЦОДов возникает из-за того, что они проектировались с учетом несоответствия между все более увеличивающейся производительностью процессоров и медлительностью, в силу их механической природы, жестких дисков. Этот разрыв принимался как данность, и его приходилось компенсировать посредством тех или иных методов распределения данных по дискам. Однако появились твердотельные накопители (SSD) со скоростью обмена на два-три порядка выше, чем у традиционных жестких дисков (HDD), что могло бы нивелировать разрыв, но инфраструктура оказалась не подготовлена к ним, и простая замена HDD на SSD создает новую проблему — существующие сети не в состоянии справиться с возросшей потребностью в скорости передачи данных, что затрудняет использование преимуществ SSD.

В Nutanix откровенно признавали, что они заимствовали подход к горизонтальному масштабированию, а их собственный вклад состоит в распространении методики Google на корпоративные системы и предложении создания «готовых к употреблению» блоков для строительства корпоративных систем. Для того чтобы применить Complete Cluster к условиям отдельно взятого предприятия, общую идею пришлось серьезно переработать. Если Google File System представляет собой собственное заказное решение, адаптированное для специфических внутренних приложений (поиск и электронная почта), то Nutanix предлагает более общее решение, адаптированное к условиям корпоративной виртуализованной среды с упором на ее особые требования: эффективное управление данными, высокую готовность, резервирование, восстановление после сбоев.

Архитектура Nutanix Complete Cluster представляла собой кластер с горизонтальным масштабированием, собранный из высокопроизводительных узлов. Отдельный узел имеет в своем составе процессоры, память и локальную систему хранения, состоящую из дисков HDD и SSD. На каждом узле работает собственный экземпляр гипервизора. Узел служит хостом для работающих на нем виртуальных машин. Для объединения ресурсов отдельных систем хранения в единый виртуализованный пул служит SOCS (Scale-out Converged Storage) — аналог Google File System. Виртуальные машины посредством SOCS оперируют данными точно так же, как если бы они работали с SAN, иначе говоря, SOCS служит в качестве гипервизора систем хранения, перемещая данные как можно ближе к той виртуальной машине, на которой они используются, что повышает производительность и снижает стоимость. Кроме того, Complete Cluster служит инструментом для горизонтального масштабирования вплоть до нескольких сотен узлов.

К 2017 году процесс формирования HCI систем достиг определенной зрелости, наряду со стартапами в него включились и крупные вендоры. В России гиперконвергентное решение предлагает компания IBS. Её вычислительная платформа "Скала-Р" – полностью сконфигурированный модуль, на базе которого можно собрать дата-центр практически любой мощности.

Рынок HCI в представлении Forrester

Сравнивая CI и HCI, можно использовать строительную аналогию. В первом случае конструкцию собирают из предопределенного набора крупных блоков от связанных между собой производителей, а во втором используют подходящие из имеющихся на рынке кирпичей. Обычно в создании CI ведущая роль принадлежит тому из членов альянса, кто поставляет управление, но об остальных, кто поставляет серверы, СХД, сети и виртуализацию, тоже не забывают. А системы класса HCI поставляются одним вендором, он собирает все необходимое в корпус (box) такими необходимыми вещами как средства для резервного копирования, создания снэп-шотов, дедупликации, компрессии в режиме in-lint и т.д. Конкретный состав набора у разных производителей может варьироваться, некоторые, например, SimpliVity, для ускорения используют собственные специализированные интегральные микросхемы ASIC.

Кем бы не была произведена HCI, создается виртуализированная инфраструктура, точнее говоря, инфраструктура, виртуализованная по определению. Она обладает следующими достоинствами:

  • Гибкость – реализуются возможные типы масштабирования.
  • Эконмическая эффективность – снижаются как CAPEX, так и OPEX.
  • Высокая готовность – естественное резервирование блоков и быстрая реконфигурация.
  • Защищенность данных – данные не привязаны к единственному с точки зрения уязвимости месту.
  • Эффективность работы с данными – сокращаются затраты на СХД и сети.

Виртуальное и физическое в HCI

В HCI реализуются три типа масштабирования: хорошо известное по кластерам горизонтальное (scale out), по мэйнфреймам и Unix-серверам вертикальное (scale up) и новое scale through.

* Scale out – увеличение числа боков. * Scale up – использование готовых блоков с большей мощностью. * Scale through – наращивание мощности существующих блоков.

Если сравнивать два подхода - гипервиртуализацию с дезагрегацией, то можно выразить осторожное предположение о том, что у этих двух подходов могут быть разные потребители. У программ-гипервизоров и у технологии виртуализации в целом есть пределы, поэтому HCI, скорее всего, не выйдет за пределы частных облаков. У дезагрегации пределов нет, поэтому ее сфера применения - ЦОДы компаний-гиперскейлеров, поставщиков услуг глобальных облаков.

Классический серверный стек «западная редакция» Из презентации ""Росплатформа: российские технологии для создания серверных ИТ-инфраструктур и облаков"
Общая архитектура: от «классики» до «гиперконвергенции»
Гиперконвергентный стек: «суверенная редакция»

Программные и сетевые решения для гиперконвергентных инфраструктур

Гиперконвергентные инфраструктуры (HCI) становятся одной из наиболее перспективных технологий для создания частных и гибридных облаков. Идею HCI предложили стартапы, раньше других осознавшие возможность радикальных изменений и успевшие занять лидирующие позиции в этом сегменте рынка. Однако в последнее время и отраслевые тяжеловесы, как обычно задержавшиеся на старте, но обладающие достаточным научным и техническим потенциалом, делают все возможное, чтобы занять подобающее им положение.

Общая ситуация такова: независимо от того, под каким брендом производится та или иная конкурентная HCI, она состоит из четырех взаимосвязанных компонентов – серверы, СХД, сеть и виртуализация СХД с целью создания общих пулов (Storage Pool). В этом отношении, пожалуй, единственное исключение представляет собой совсем недавно появившийся трехкомпонентный подход к образованию HCI на базе Intel Xeon Scalable с чип-сетом Intel C620 и СХД Optane SSD.

В качестве поставщика HCI за редким исключением выступают компании, обеспечивающие функционал, а именно два первых из перечисленных выше четырех компонентов. Они могут сами производить серверы и/или СХД, или же могут приобретать их, практически не имея собственного производства, то есть быть, как сейчас говорят, фаблесс.

Что же касается двух других компонентов (виртуализационное ПО и сетевое оборудование), которые можно назвать системообразующими, то здесь картина совершенно иная. В этих сегментах есть несколько безусловных лидеров и именно они задают правила игры (подробнее здесь).

Читайте также

Примечания