Как развернуть гиперконвергентную систему в небольшой компании?
TADетали
В сегменте крупных ИТ-сред уже довольно давно апробировано применение конвергентной инфраструктуры и экспертно-интегрированных систем — готовых решений, включающих в себя серверы, СХД, интерконнекты, средства виртуализации и средства управления инфраструктурой. Однако, такие системы плохо подходят для небольших компаний с ограниченными ресурсами. Выход - гиперконвергентные системы, в которых идеи конвергентной инфраструктуры получили дальнейшее развитие.
Содержание |
Конвергентная инфраструктура
Что делать, если требуется развернуть ИТ-инфраструктуру в небольшой компании или филиале? Можно взять серверы, СХД, коммутаторы, установить гипервизоры и развернуть виртуальные машины. Такой подход имеет определенные преимущества, позволяя применять именно те продукты и решения, которые наилучшим образом подходят для конкретного заказчика. Однако этот подход несет трудности, неприемлемые для случаев, когда ИТ-служба компании или филиала не имеет в своем составе полного набора специалистов по серверам, СХД, сетям, виртуализации и прочим инфраструктурным средствам, т.к. при построении ИТ-инфраструктуры с применением такого подхода (будем называть его традиционным) каждая из ее подсистем управляется и обслуживается отдельно специалистом соответствующего профиля. Даже при наличии в компании всех необходимых специалистов (что в случае с небольшими компаниями является скорее исключением) остается проблема отсутствия единой точки управления, что усложняет процессы управления ИТ-инфраструктурой и требует эффективного взаимодействия между администраторами ее подсистем.
В то же время в сегменте крупных ИТ-сред уже довольно давно апробировано применение конвергентной инфраструктуры и экспертно-интегрированных систем — готовых решений, включающих в себя серверы, СХД, интерконнекты, средства виртуализации и средства управления инфраструктурой. Экспертно-интегрированные системы разрабатываются, изготавливаются и внедряются непосредственно вендорами (альянсами вендоров) либо системными интеграторами. Заказчик получает систему, уже готовую для развертывания его приложений. Главными отличительными чертами таких систем являются, во-первых, единая среда управления, включающая в себя средства управления всеми подсистемами, интегрированные таким образом, чтобы процессы, требующиеся для выполнения задач управления и затрагивающие различные подсистемы, выполнялись автоматически и в нужной последовательности. Такое взаимодействие между подсистемами, обеспечиваемое единой средой управления, называется оркестрацией (англ. orchestration), а сама среда управления или ее компонент, обеспечивающие такое взаимодействие, — оркестратором (англ. orchestrator). Во-вторых, экспертно-интегрированным системам свойственна единая точка взаимодействия со службой поддержки поставщика, в то время как при традиционном подходе требуется взаимодействовать со службами поддержки каждого компонента системы, что значительно усложняет процедуру разрешения комплексных инцидентов. Единая точка обслуживания также обеспечивает централизованный процесс обновления системы и ее компонентов. В-третьих, такие системы обычно построены на основе принципов конвергентной инфраструктуры: при таком подходе оборудование (серверы, СХД, сетевые коммутаторы и т.д.) представлено в виде ресурсов (процессорного времени, памяти, дискового пространства, сетевых портов), а управление оборудованием в общих чертах сводится к добавлению этих ресурсов в тот или иной пул. Приложениям ресурсы назначаются уже из пулов без привязки к тому оборудованию, на котором эти ресурсы физически размещаются. Это позволяет гибко управлять ресурсами и упрощает операции при необходимости вывода оборудования из эксплуатации для обслуживания либо замены.
К сожалению, конвергентные экспертно-интегрированные системы, будучи нацеленными прежде всего на enterprise-сегмент, плохо подходят для небольших компаний с ограниченными ресурсами. Лучше всего эти системы подходят для развертывания в крупных ИТ-средах и центрах обработки данных.
При этом небольшие компании, проблемы которых при развертывании ИТ-инфраструктуры описаны в первом абзаце, тоже способны оценить изложенные выше преимущества интегрированных систем. В ответ на требования таких заказчиков в последнее время ведущие поставщики ИТ-решений стали предлагать гиперконвергентные системы, в которых идеи конвергентной инфраструктуры получили дальнейшее развитие. В гиперконвергентных системах вычислительные ресурсы и система хранения объединены конструктивно в небольшой блок стандартного рэкового конструктива. Такой блок является законченной системой, готовой к развертыванию сервисов заказчика и включающей в себя серверные лезвия, объединенные в кластер виртуализации, и виртуализованное дисковое хранилище, объединяющее дисковое пространство серверов в одну виртуальную СХД. Гиперконвергентная система масштабируется путем добавления в систему таких блоков. Гиперконвергентные системы обладают всеми преимуществами интегрированных систем, но при этом доступны не только крупным заказчикам, но и сравнительно небольшим компаниям, и хорошо подходят для развертывания основных ИТ-сервисов, что также позволяет применять их для организации удаленных филиалов. В целом гиперконвергентные системы являются продуктом философии программно-определяемого ЦОД и могут являться примером реализации программно-определяемого подхода к построению ИТ-инфраструктуры.
На практике
Примером гиперконвергентной системы является серия HPE HyperConverged. Например, модель HC250 построена на базе шасси высокой плотности HPE Apollo 2000 с четырьмя серверами-лезвиями и занимает 2U в стойке. Шасси поддерживает установку 24 дисков малого форм-фактора, при этом к каждому серверному лезвию физически подключено шесть дисковых отсеков. В варианте ConvergedSystem серверы поставляются с предустановленными гипервизорами ESXi 5.5 или 6.0, на одном из которых размещена виртуальная машина управления. На каждом из узлов также расположен СХД-компонент гиперконвергентной системы — виртуальная машина StoreVirtual VSA.
Установка
Система поставляется с крепежом для установки в стойку. Как отмечалось ранее, система занимает в стойке два юнита. Вес системы в сборе превышает 35 кг, поэтому для монтажа необходимо удалить из нее серверные лезвия, диски и блоки питания, запомнив, какие серверы какие отсеки занимали изначально. Монтировать систему рекомендуется силами двух человек. После монтажа системы в стойку требуется установить ее компоненты в шасси в те же отсеки, в которых они находились изначально, подключить ее блоки питания двумя стандартными кабелями C13-C14, затем подключить порты 10GbE SFP+ серверных лезвий к двум коммутаторам производственной сети. Опционально также можно подключить порты управления iLO серверных лезвий к коммутатору сети управления (для штатной работы эти порты не требуются, но могут использоваться при необходимости сброса системы в заводское состояние).
Здесь следует сделать важное замечание. Для работы системы необходимо подключать ее в 10-гигабитную сеть. Работа в гигабитной сети, хотя технически возможна (с применением соответствующих трансиверов или с заказом 4-портовых адаптеров 1 GbE вместо двухпортовых 10 GbE), может серьезно снизить производительность дисковой подсистемы.
Схема коммутации системы показана на рисунке ниже.
После монтажа и коммутации системы следует убедиться, что на нее подано питание и серверные лезвия включены. После загрузки серверов (может занять 10−15 минут) система готова к развертыванию.
Развертывание
По состоянию на март 2016 года, средство OneView InstantOn активно обновляется, поэтому выполнение описанных ниже процедур может отличаться в версии средства, актуальной на момент чтения этого текста. Рекомендуем ознакомиться с текущей редакцией инструкции по развертыванию системы, предоставляемой производителем.
Процедура развертывания системы подробно описана в документе HPE HyperConverged 250 Installation Guide, доступном на сайте HPE. Ниже приведено описание для случая развертывания новой системы, состоящей из одного шасси и четырех серверов.
Для развертывания системы следует подключить ноутбук либо ПК управления к порту RJ-45 №2 сервера №1 (нижний правый, если смотреть на систему сзади) и сконфигурировать сетевому интерфейсу IP-адрес 192.168.42.99/24, после чего по протоколу RDP войти на виртуальную машину управления (имеет адрес 192.168.42.100).
Развертывание системы производится с помощью средства OneView InstantOn. Мастер развертывания запустится автоматически при входе в систему (также его можно запустить ярлыком на рабочем столе и из меню «Пуск»).
При запуске мастера развертывания следует принять условия пользовательских соглашений, отметив соответствующие флажки, и щелкнуть Next:
На экране Health отобразится текущее состояние обнаружения узлов системы и доступность предустановленного на ВМ управления сервера vCenter:
На каждом узле системы установлена специально подготовленная версия гипервизора ESXi, с состав которого входят агенты, обеспечивающие взаимодействие узла с OneView InstantOn. Нужно дождаться, пока индикаторы станут зеленого цвета (это не займет больше одной-двух минут), и щелкнуть Next.
На следующем экране нужно задать IP-адреса хостов ESXi, интерфейсов vMotion и интерфейсов iSCSI. Всего потребуется выделить 23 адреса: 5 — для ESXi и vCenter, 4 — для vMotion и 14 — для iSCSI. Все адреса могут принадлежать одной подсети, но также можно задать для каждой группы адресов свою подсеть. Вводим адреса и щелкаем Next:
На экране Credentials необходимо ввести имя и пароль администратора системы хранения StoreVirtual. Эти реквизиты будут использоваться для управления хранилищем. Щелкаем Next и попадаем на экран Settings, где указываем имя хранилища (можно оставить предложенное мастером), адреса серверов DNS, NTP, а дакже адрес электронной почты, на которой система будет отсылать уведомления, и адрес SMTP-сервера, затем щелкаем Next. Откроется экран Review Configuration:
На этом экране отображается состояние проверки готовности компонентов системы к развертыванию и корректности введенных данных. Убеждаемся, что все пункты отмечены зеленым цветом, и щелкаем Deploy. Начинается процесс развертывания системы, в ходе которого компонентам системы задаются указанные IP-адреса и другие настройки, хосты ESXi системы объединяются в кластер vSphere, создается кластер VSA и т.д. Развертывание системы занимает около десяти минут. После развертывания откроется страница с MAC-адресами узлов VSA, которые требуются для активации лицензий. Лицензии активируются на портале поддержки HPE.
После развертывания следует установить лицензии на vSphere и vCenter в веб-консоли vSphere на виртуальной машине управления.
Подготовка хранилища
После установки лицензий нужно создать хранилище на VSA. Для этого в веб-консоли vSphere следует выбрать нужный кластер, перейти на вкладку Manage и щелкнуть HP Management. Откроется раздел HP Management, добавляемый предустановленным плагином HPE OneView for vCenter. Этот плагин обеспечивает интеграцию vCenter с компонентами системы и позволяет выполнять управление системой и мониторинг из консоли vCenter.
В разделе HP Management переходим на вкладку Storage и щелкаем по меню Actions. Выбираем пункт Create Datastore.
Откроется мастер создания хранилища. Выбираем расположение создаваемого хранилища — кластер vSphere и щелкаем Next. На следующей странице мастера выбираем пул хранения (в данном случае имеется только один пул), указываем количество создаваемых хранилищ и их размер. Также можно выбрать уровень сетевого RAID — для конфигурации кластера VSA из четырех узлов (то есть для одной системы HC250) рекомендуется Network RAID 10. Щелкаем Next. На следующем шаге задаем имя хранилища и щелкаем Next. На следующем шаге производится валидация введенных данных. Следует дождаться ее завершения и щелкнуть Next, затем — Finish. Хранилище будет создано в течение нескольких секунд и сразу станет доступно для использования. Теперь система готова к работе. Развертывание виртуальных машин и другие повседневные операции не отличаются от таковых в обычных версиях vSphere.
Сброс системы
Если что-то пошло не так, систему можно сбросить в заводское состояние. Все данные при этом будут потеряны.
Для сброса системы необходимо скачать набор инструментов с сайта HPE. В него входят кастомизированный дистрибутив ESXi с интегрированным образом виртуальной машины VSA, скрипты для развертывания и образ виртуальной машины управления.
В общих чертах процедура сброса системы выглядит следующим образом: сначала создается установочный USB-носитель путем записи образа инструментом dd или аналогичным, затем на него записываются скрипты для развертывания конкретной модели системы, после чего каждый из серверов загружается с носителя (здесь рекомендуется воспользоваться модулем управления iLO) и устанавливается гипервизор. Затем на сервер №1 разворачивается образ виртуальной машины управления, после чего система готова к автоматизированному развертыванию.
Подробно процедура восстановления описана в документе HPE HyperConverged 250 User Guide, доступном на сайте HPE.
Материал подготовлен при поддержке компаний HPE и "Ланит"