K8s Q A Replica Set vs Deployments

Материал из noname.com.ua
Версия от 14:05, 9 января 2024; Sirmax (обсуждение | вклад)
(разн.) ← Предыдущая | Текущая версия (разн.) | Следующая → (разн.)
Перейти к навигацииПерейти к поиску


Различия в Replication Controller, Replica Set и Deployments

Как инструмент оркестрации контейнеров, Kubernetes предусматривает управление несколькими экземплярами (репликами) контейнеров. На сегодняшний день существует несколько способов организации репликации - в данной статье мы рассмотрим три варианта:

  • Replication Controllers
  • Replica Sets
  • Deployments

Прежде всего, нужно знать зачем нужна репликация контейнеров в кластере Kubernetes.
Чаще всего, это нужно для:

  • надежности. C несколькими экземплярами приложения вы избавляетесь от проблем в случае отказа одного (или нескольких) из них;
  • балансировки. Наличие нескольких экземпляров приложения позволяет распределять траффик между ними, предотвращая перегрузку одного инстанса (под / контейнер) или ноды;
  • масштабирования. При возрастающей нагрузке на уже существующие экземпляры приложения Kubernetes позволяет легко увеличивать количество реплик по необходимости.




Replication Controller - традиционный (изначальный) способ организации репликации в кластере Kubernetes. В данный момент он заменяется более “свежим” вариантом - Replica Sets, но не будет лишним понять, что это и как работает.

С помощью объекта Replication Controller можно создать несколько экземпляров подов и отслеживать их состояние. Если один (или несколько) подов завершаются с ошибкой, то контроллер создаст и запустит новый экземпляр (чтобы количество подов всегда соответствовало желаемому). Кроме того, Replication Controller предоставляет возможность масштабирования подов.
Создадим файл rc.yaml следующего содержания:

apiVersion: v1
kind: ReplicationController
metadata:
  name: testrc
spec:
  replicas: 3
  selector:
    app: testrc
  template:
    metadata:
      name: testrc
      labels:
        app: testrc
    spec:
      containers:
      - name: testrc
        image: ealebed/test
        ports:
        - containerPort: 80

Далее создадим объект Replication Controller в кластере на основе описания выше:

kubectl create -f rc.yaml
replicationcontroller "testrc" created

Получим детальное описание созданного объекта:

kubectl describe rc testrc
Name:           testrc
Namespace:      default
Image(s):       ealebed/test
Selector:       app=testrc
Labels:         app=testrc
Replicas:       3 current / 3 desired
Pods Status:    3 Running / 0 Waiting / 0 Succeeded / 0 Failed
No volumes.
Events:
  FirstSeen     LastSeen        Count   From                            SubobjectPath   Type   Reason                   Message
  ---------     --------        -----   ----                            -------------   --------------                  -------
  1m            1m              1       {replication-controller }                       Normal SuccessfulCreate Created pod: testrc-g5snq
  1m            1m              1       {replication-controller }                       Normal SuccessfulCreate Created pod: testrc-cws05
  1m            1m              1       {replication-controller }                       Normal SuccessfulCreate Created pod: testrc-ro2bl
<PRE>
Как видно, все три реплики запущены (ожидаемо). Увидеть состояние подов можно с помощью команды:
<PRE>
kubectl get pods
NAME           READY     STATUS    RESTARTS   AGE
testrc-cws05   1/1       Running   0          3m
testrc-g5snq   1/1       Running   0          3m
testrc-ro2bl   1/1       Running   0          3m

Перед рассмотрением Replica Sets “убираем” за собой:

kubectl delete rc testrc

Как мы уже ранее говорили, Replica Sets - это более современная версия все того же Replication Controller, которая отличается поддержкой множественного выбора в селекторе. Создадим файл rs.yaml с таким содержимым:

apiVersion: extensions/v1beta1
 kind: ReplicaSet
 metadata:
   name: testrs
 spec:
   replicas: 3
   selector:
     matchLabels:
       app: testrs
   template:
     metadata:
       labels:
         app: testrs
         environment: dev
     spec:
       containers:
       - name: testrs
         image: ealebed/test
         ports:
         - containerPort: 80

Здесь все практически то же самое, что и в описании Replication Controller, за исключением того, что мы используем matchLabels. Но можно пойти дальше и заменить секцию matchLabels на такую:

     matchExpressions:
      - {key: app, operator: In, values: [testrs, test]}
      - {key: tier, operator: NotIn, values: [production]}

Создаем объект в кластере командой:

kubectl create -f rs.yaml
replicaset "testrs" created

Смотрим описание:

kubectl describe rs testrs
Name:           testrs
Namespace:      default
Image(s):       ealebed/test
Selector:       app in (test,testrs),tier notin (production)
Labels:         app=testrs
Replicas:       3 current / 3 desired
Pods Status:    3 Running / 0 Waiting / 0 Succeeded / 0 Failed
No volumes.
Events:
  FirstSeen     LastSeen        Count   From                            SubobjectPath   Type    Reason                   Message
  ---------     --------        -----   ----                            -------------   --------------                   -------
  1m            1m              1       {replicaset-controller }                        Normal  SuccessfulCreate Created pod: testrs-it2hf
  1m            1m              1       {replicaset-controller }                       Normal  SuccessfulCreate Created pod: testrs-kimmm
  1m            1m              1       {replicaset-controller }                        Normal  SuccessfulCreate Created pod: testrs-8i4ra
kubectl get pods
NAME           READY     STATUS    RESTARTS   AGE
testrs-8i4ra   1/1       Running   0          1m
testrs-it2hf   1/1       Running   0          1m
testrs-kimmm   1/1       Running   0          1m

Как видим, Replica Sets действительно очень похожа не Replication Controller. Еще одно важное отличие, о котором мы не упомянули - команда rolling-update будет работать для Replication Controller, но не для Replica Sets.

“Убираем” за собой:

kubectl delete rs testrs
replicaset "testrs" deleted

Вариант репликации подов с использованием объекта Deployment - еще более высокий уровень абстракции. На самом деле, под капотом, Deployment будет самостоятельно создавать необходимые Replica Sets (следовательно, предоставлять тот же функционал, но с возможностью rolling-update/rollback).

Создадим файл deployment.yaml следующего содержания:

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: test
spec:
  replicas: 5
  template:
    metadata:
      labels:
        app: test
    spec:
      containers:
      - name: test
        image: ealebed/test
        ports:
        - containerPort: 80

Запускаем объект в кластере:

kubectl create -f deployment.yaml
deployment "test" created

Просмотр деталей:

kubectl describe deployment test
Name:                   test
Namespace:              default
CreationTimestamp:      Mon, 03 Sep 2018 13:21:19 +0000
Labels:                 app=test
Selector:               app=test
Replicas:               5 updated | 5 total | 5 available | 0 unavailable
StrategyType:           RollingUpdate
MinReadySeconds:        0
RollingUpdateStrategy:  1 max unavailable, 1 max surge
OldReplicaSets:         <none>
NewReplicaSet:          test-3914185155 (5/5 replicas created)
Events:
  FirstSeen     LastSeen        Count   From                            SubobjectPath   Type    Reason                   Message
  ---------     --------        -----   ----                            -------------   --------------                   -------
  38s           38s             1       {deployment-controller }                        Normal  ScalingReplicaSet        Scaled up replica set test-3914185155 to 3
  36s           36s             1       {deployment-controller }                        Normal  ScalingReplicaSet        Scaled up replica set test-3914185155 to 5
kubectl get pods
NAME                    READY     STATUS    RESTARTS   AGE
test-3914185155-7gyja   1/1       Running   0          2m
test-3914185155-lrm20   1/1       Running   0          2m
test-3914185155-o28px   1/1       Running   0          2m
test-3914185155-ojzn8   1/1       Running   0          2m
test-3914185155-r2pt7   1/1       Running   0          2m