Описание
При развёртывании Kubernetes вы имеете дело с кластером. Кластер Kubernetes — это набор машин, так называемые узлы (node’s), которые запускают контейнеризированные приложения. Кластер должен иметь как минимум один рабочий узел.
На рабочих узлах размещены поды (pod’s), являющиеся компонентами приложения. Внутренние сервисы Kubernetes управляют рабочими узлами и подами в кластере. В промышленных управляющие сервисы обычно запускается на нескольких компьютерах, а кластер, как правило, развёртывается на нескольких узлах, гарантируя отказоустойчивость и высокую надёжность.
Каждый кластер Kubernetes может содержать несколько управляющих сервисов и групп рабочих узлов, на которых запущены приложения пользователя.
Создание кластера
Чтобы создать кластер, необходимо открыть раздел «Контейнеры» через панель управления Linx Cloud и нажать «Добавить».
Далее нужно выбрать необходимую конфигурацию кластера. Преднастроенные типы сред различаются по параметрам масштабирования и активированными расширениями:
- Dev среда (разработка);
- Staging среда (пред-релизная среда);
- Production (боевое или живое окружение, для такой среды рекомендуется минимум 3 мастер-ноды).
Еще вы можете выбирать предустановленные аддоны, которые будут активированы в кластере:
- Мониторинг на базе Prometheus Operator и Grafana;
- Docker Registry, хранящий данные images в объектном хранилище Linx Cloud;
- Nginx Ingress Controller, для которого дополнительно создается балансировщик нагрузки.
После нажатия кнопки «Следующий шаг» вы можете выбрать конфигурацию кластера:
Мастер создания отражает следующие поля конфигурации:
Поле
|
Описание
|
Тип виртуальной машины Master
|
Конфигурация головного узла — количество CPU и оперативной памяти управляющей машины («Master»). Для продуктивных сред, рекомендуется минимальная конфигурация CPU=2 RAM=4Gb.
|
Количество узлов Master
|
Количество управляющих машин (машин типа «Master»). Для production-сред рекомендуется минимум 3 мастер-ноды.
|
Размер диска на Master‑узле, GB
|
Объем диска на управляющих Master-нодах.
|
Тип виртуальной машины Node
|
Тип конфигурации для рабочего узла — количество CPU и оперативной памяти.
|
Количество узлов Node
|
Количество рабочих узлов.
|
Размер диска на Node‑узле, GB
|
Объем диска для рабочих узлов.
|
Тип дисков для Master и Node-узлов
|
Тип дисков (HDD/SSD).
|
Версия Kubernetes
|
Версия Kubernetes, которая будет установлена на ноды кластера.
|
Сеть
|
Сеть, в которой будет развернут кластер, если она создана. Если сети нет, то для кластера создастся собственная приватная сеть.
|
Назначить внешний IP
|
Если этот переключатель включен, то будет назначен публичный IPv4 адрес для балансировщика нагрузки, управляющего Kubernetes API Server, а также для балансировщика нагрузки, отвечающего за Ingress Controller.
Также можно выбрать создание кластера без внешнего IP для обоих балансировщиков. В этом случае для доступа к кластеру потребуется создание VPN-соединения. |
Имя кластера
|
Имя кластера.
|
Ключ виртуальной машины
|
Если ключевая пара уже создана, рекомендуется указать её. Необходимо убедиться, что файл от нее сохранен. Также можно создать новую ключевую пару — она нужна для подключения к нодам кластера по ssh.
|
На следующем шаге можно выбрать количество узлов Node в Node Group. Node Group могут быть разного размера с разными размерами рабочих узлов. Также для каждого Node Group можно активировать параметры автоматического масштабирования.
Нужно бдует некоторое время для завершения создания кластера.
Операции, описанные в статье, можно выполнить с помощью Linx Cloud Terraform Provider.