Описание
Кластер Kubernetes — набор машин, другими словами узлов (node’s), запускающие контейнеризированные приложения.
Управление внутренними сервисами Kubernetes происходит через рабочие узлы и поды в кластере. Поды (pod’s) — это компоненты приложения, располагающиеся на рабочих узлах В промышленных средах сервисы управления рекомендуется запускать на нескольких компьютерах, а кластер развертывать на нескольких узлах, это будет гарантировать отказоустойчивость и высокую надежность.
Топология кластеров в Linx Cloud включает в себя понятие мастер-узлов, на которых располагаются управляющие сервисы и групп рабочих узлов (Node Group), на которых запущены приложения пользователь. Каждый кластер Kubernetes может содержать несколько групп рабочих узлов, каждая из которых создана на базе определенного шаблона виртуальной машины.
Создание кластера
Чтобы создать кластер нужно зайти в раздел панели управления Linx Cloud «Контейнеры» и нажать «Создать кластер», если у вас уже были созданы кластеры Kubernetes, то нажать «Добавить».
Далее нужно выбрать необходимую конфигурацию кластера, примеры конфигураций:
- Dev среда (разработка)
- Staging среда (пред-релизная среда)
- Production (боевое или живое окружение, для такой среды рекомендуется минимум 3 мастер-ноды)
По мимо этого можно выбрать аддоны для кластера:
- Мониторинг на базе Prometheus Operator и Grafana;
- Docker Registry, хранящий данные images в объектном хранилище Linx Cloud;
- Nginx Ingress Controller, для которого дополнительно создается балансировщик нагрузки.
После нажатия кнопки «Следующий шаг» необходимо выбрать конфигурацию кластера:
Мастер создания отражает следующие поля конфигурации:
Поле | Описание |
---|---|
Тип виртуальной машины Master
|
Конфигурация головного узла — количество CPU и оперативной памяти управляющей машины («Master»). Для продуктивных сред, рекомендуется минимальная конфигурация CPU=2 RAM=4Gb.
|
Количество узлов Master
|
Количество управляющих машин (машин типа «Master»). Для production-сред рекомендуется минимум 3 мастер-ноды.
|
Размер диска на Master‑узле, GB
|
Объем диска на управляющих Master-нодах.
|
Тип виртуальной машины Node
|
Тип конфигурации для рабочего узла — количество CPU и оперативной памяти.
|
Количество узлов Node
|
Количество рабочих узлов.
|
Размер диска на Node‑узле, GB
|
Объем диска для рабочих узлов.
|
Тип дисков для Master и Node-узлов
|
Тип дисков (HDD/SSD).
|
Версия Kubernetes
|
Версия Kubernetes, которая будет установлена на ноды кластера.
|
Сеть
|
Сеть, в которой будет развернут кластер, если она создана. Если сети нет, то для кластера создастся собственная приватная сеть.
|
Использовать сеть Load Balancer
|
По умолчанию балансировщик нагрузки создается в приватной сети кластера, указанной в пункте Сеть. Это опция позволяет создать балансировщик нагрузки в другой приватной сети доступной в рамках текущего проекта.
|
Использовать подсеть пода
|
Опция позволяет изменить дефолтную сеть для подов. В терминологии kubernetes это
pod-cidr-network |
Назначить внешний IP
|
Если этот переключатель включен, то будет назначен публичный IPv4 адрес для балансировщика нагрузки, управляющего Kubernetes API Server, а также для балансировщика нагрузки, отвечающего за Ingress Controller.Также можно выбрать создание кластера без внешнего IP для обоих балансировщиков. В этом случае для доступа к кластеру потребуется создание VPN-соединения.
|
Имя кластера
|
Имя кластера.
|
Ключ виртуальной машины
|
Если ключевая пара уже создана, рекомендуется указать её. Необходимо убедиться, что файл от нее сохранен. Также можно создать новую ключевую пару — она нужна для подключения к нодам кластера по ssh.
|
После можно выбрать количество узлов Node в Node Group, Node Group могут быть разного размера с разными размерами рабочих узлов. Кроме того для каждого Node Group можно активировать параметры автоматического масштабирования.
На завершение операции создания кластера потребуется некоторое время.