Flannel Kubernetes the hard way v2: различия между версиями
Sirmax (обсуждение | вклад) |
Sirmax (обсуждение | вклад) |
||
Строка 387: | Строка 387: | ||
=Полный путь пакет (подведение итога)= |
=Полный путь пакет (подведение итога)= |
||
+ | |||
− | TBD |
||
+ | Для закрепления - повторю еще раз (словами, без деталей) путь пакета: |
||
− | <PRE> |
||
+ | |||
− | пакет из интерфейса на под3 -> таблица маршрутизации в под3 -> шлюз в под3 -> flannel.1 на воркер3 -> flannel.1 на воркер1 -> таблица маршрутизации на воркер1 -> шлюз на воркер1 -> пакет на интерфейс под1 |
||
+ | # Внутри POD3: просматривает таблицу маршрутизации, находит маршрут (это default gateway, 10.244.3.1/) |
||
− | </PRE> |
||
+ | # Внутри POD3 Определяется интерфейс через который доступен default gateway (это тот конец veth который заведен в POD3) |
||
+ | # Пакет отправляется на шлюз POD3 (мак адрес шлюза известен через ARP, MAC-адрес получателя в пакете это мак адрес шлюза, IP адрес получателя в пакете это IP адрес POD1) |
||
+ | # Пакет проходит через Veth и попадает в Global Network Namespace (т.е. в основной сетевой стек) |
||
+ | # Так как в основном сетевем стеке второй конец veth включен в бридж cni0 то входящим логическим интерфейсом будет cni0 (хотя физическим - vethx) |
||
+ | # Пакет имеет правильный мак-адрес получателя, совпадающий с мак-адресом интерйейса cni0, по этой причине пакет не будет отброшен, а будет передан на обработку процессу маршрутизации |
||
+ | # В процесса маршрутизации определяется что адрес получателя доступен через интерфейс flannel.1 через шлюз 10.244.1.0 |
||
+ | # Мак-адрес шлюза 10.244.1.0 определяется через ARP |
||
+ | # Формируется новый пакет, который имеет мак-адресом получателя мак-адрес шлюза 10.244.1.0, изученный через arp, а IP адресом получателя - адрес POD1 |
||
+ | # Пакет попадает в интерфейс flannel.1 на Worker 3 и обрабатывается согласно правилам коммутации которые настроены на flannel.1 |
||
+ | # Согласно этих правил пакет инкапсулируется в UDP и отправляется на адрес Worker 1 ( 192.168.0.88 ) |
||
+ | # Отправка пакета на Worker 1 проимходит обычным образом - просмотр таблицы маршрутизации, определение интерфейса, поимк ма-адреса, отправка |
||
+ | # Инкапсулированный пакет, содержащий внутри себя Etherneth-frame доставлен на интерфейс enp1s0 ноды Worker 1 (процесс доставки, коммутация завист от физической сети и подразумевает ее работоспособность) |
||
+ | # Так как это пакет на порт, на котором ожидается получения пакетов с инкапсуляцией VxLAN, то пакет проходит процедуру декапсуляции и оригинальный пакет попадает на интерфейс flannel.1 на ноде worker 1 |
||
+ | # Согласно таблице маршрутизации определяется что получатель этого пакета доступен через интерфейс cni0 |
||
+ | # Просиходит заполнение записи ARP для получателя обычным образом |
||
+ | # Пакет отправлется с интерфейса cni0. Так как это интерфейс типа бридж, то процесс коммутации опердеяет на каком порту виртуального бриджа доступен мак-адрес получателя. Этот адрес уже известен и изучен процессом комутации так как он учавствовал в процессе поределения ARP. Если нет то пакет был бы отправле на все порты |
||
+ | # Пакет коммутируется через виртуальный интерфейс veth и достигает pod1 |
||
=Результат= |
=Результат= |
Версия 17:58, 14 декабря 2022
Flannel
Flannel
- один из способов организации оверлейной сети
Зачем это нужно
- В частных случаях когда сеть полностью контролируема и можно назначать любые маршруты и адреса на всех устройствах - не нужно строить никаких оверлейных сетей
- Если сеть не контролируется (например в арендованном датацентре или облаке, и не возможно создание маршрутов между worker-nodes то это один из множества возможных способов обеспечить оверлейную сеть
Как это устроено
"под капотом" используется VxLAN
Подробнее про VxLAN
"VxLAN
это не только тунель но и свитч" =) точнее сказать распределенный свитч
VxLAN
инкапсулирует кадры Ethernet
уровня 2 в пакеты UDP уровня 4, что означает, что виртуальные подсети уровня 2 могут охватывать базовые сети уровня.
Другими словами, это дает возможность строить "продолжение" сети 2 уровня поверх сети третьего уровня,
например соединить 2 географически разнесенных сегмента сети, между которыми нет физического
соединения (а только логическое, через интернет или другую сеть с маршрутизацией а не коммутацией)
так, что бы с точки зрения подключенных устройств это выглядело бы как-будто они включены в
один сегмент (например в один свитч, или для бытового уровня - в один домашний роутер).
VxLAN
помешает кадры ethernet
внутрь пакета UDP который в свою очередь инкапсулируется (помещается внутрь) в пакет IP.
Результирующий пакет IP может быть передан далее по IP-сетям, в том числе и через интернет. На стороне получателя устройство с
настроенной поддержкой VxLAN производит обратную процедуру - деинкапсуляцию
Впрочем, процесс инкапсуляция/деинкапсуляция применяется весьма широко и ничего нового в нем нет.
Терминология
VNI
Идентификатор сети VxLAN
(VNI) используется для сегментации каждой подсети уровня 2 аналогично традиционным идентификаторам VLAN.
VTEP
Конечная точка туннеля VxLAN
(VTEP, VxLAN Tunnel End Point) — это устройство с поддержкой VXLAN, которое инкапсулирует и деинкапсулирует пакеты.
Это может быть как программная реализация (Linux или OpenVSwitch в котором есть свой механизм для работы с VxLAN
) или аппаратная (Коммутаторы с поддержкой VxLAN
).
Схема лабы (несколько упрощенная)
На схеме не изображены мастер-ноды так как они в данном случае не участвуют в процессе передачи траффика.
- Worker1 -
192.168.122.88
(физическая сетевая карта) - Worker3 -
192.168.122.114
(физическая сетевая карта)
Адреса остальных нод на схеме значения не имеют
Для POD выделено адресное пространство (первый адрес зарезервирован за шлюзом на интерфейс cni0)
- Worker1:
10.244.1.0/24
- Worker2:
10.244.2.0/24
(не участвует) - Worker3:
10.244.3.0/24
Схема
+-------------------------+ +-------------------------+ +-------------------------+ +-------------------------+ | node: worker1 | | node: worker2 | | node: worker3 | | node: workerN | | | | | | | | | | +------------+ | | +------------+ | | +------------+ | | +------------+ | | | POD 1 | | | | POD 2 | | | | POD 3 | | | | POD N | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | +--eth0------+ | | +--eth0------+ | | +--eth0------+ | | +--eth0------+ | | | | | | | | | | | | | | | | | | | | | | | | | | +--vethX---------+ | | +--vethX---------+ | | +--vethX---------+ | | +--vethX---------+ | | | | | | | | | | | | | ..... | | | | | | cni0 (bridge) | | | | cni0 (bridge) | | | | cni0 (bridge) | | | | cni0 (bridge) | | | | 10.244.1.1/24 | | | | 10.244.2.1/24 | | | | 10.244.3.1/24 | | | | 10.244.X.1/24 | | | +----------------+ | | +----------------+ | | +----------------+ | | +----------------+ | | | | | | | | | | | | | | | | | | +-------------------+ | | +-------------------+ | | +-------------------+ | | +-------------------+ | | | flannel.1 (VxLan) | | | | flannel.1 (VxLan) | | | | flannel.1 (VxLan) | | | | flannel.1 (VxLan) | | | +------+------------+ | | +------+------------+ | | +------+------------+ | | +-------+-----------+ | | | | | | | | | | | | | | | | | | | | | | | | | | +------------------------------+------------------------------+------------------- ..... -------------+ | | | | | | | | | | | | | | | | | +----- enp1s0--------------+ +----- enp1s0-------------+ +----- enp1s0-------------+ +----- enp1s0-------------+ 192.168.0.88 192.168.0.XX 192.168.122.114 192.168.122.YY | | | | +----+------------------------------+------------------------------+-------------------- ----------+----+ | L2 connected network (switch or virtual switch) ..... | +------------------------------------------------------------------+-------------------- ----------+----+
veth/cni0
Для каждой ноды (это делается при создании POD, точно так же делает docker
)
- Для простоты изображен только один POD (их может быть любое количество)
- При создании POD создается "виртуальный патч-корд",
veth
, это особый тип виртуальногоethernet
- два интерфейса соединенных между собой - Один из пары виртуальных интерфейсов
veth
помещается в сетевое пространство имен POD (network namespace, так жи иногда используется термин vrf) - Внутри POD он именуется как
eth0
(именовать интерфейсы можно любым способом, уникальным имя должно быть только в пределах namespace) - Таким образом, так как виртуальный патч-корд ведет из POD в сетевую подсистему хост-машины
- Второй конец випртуального патч-корда включен в бридж
cni0
Flannel
Интерфейс flannel это VxLAN
, проверить это можно командой:
ip -d link show dev flannel.1
В примере показан интерфейс для ноды worker3
flannel.1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue state UNKNOWN mode DEFAULT group default link/ether 86:df:93:cc:8e:62 brd ff:ff:ff:ff:ff:ff promiscuity 0 vxlan id 1 local 192.168.122.114 dev enp1s0 srcport 0 0 dstport 8472 nolearning ttl inherit ageing 300 udpcsum noudp6zerocsumtx noudp6zerocsumrx addrgenmode eui64 numtxqueues 1 numrxqueues 1 gso_max_size 65536 gso_max_segs 65535
Тут нужно обратить внимание на следующие настройки:
vxlan id 1
VNI=1 (идентификатор сети, нужен если нужно более больше VxLAN)local 192.168.122.114 dev enp1s0
Адрес и интерфейс которые используются для отправки пакетов. Так как тут не указан параметр remote то он будет взят из таблицы "коммутации" (условно)srcport 0 0 dstport 8472
Порт куда отправлять пакеты UDPsrcport 0 0
означает что выбор с какого порта оставлен на усмотрение операционной системы (вероятно можно задать отдельный порт или диапазон, но практической необходимости в этом нет)dstport 8472
порт получателя - обязательный параметр, и должен быть указан правильно
nolearning
Адреса в таблицу "коммутации" добавляются в ручном режиме (в случае с Flannel - как раз процессом flanneld)
Остальное менее значимо : ttl inherit ageing 300 udpcsum noudp6zerocsumtx noudp6zerocsumrx addrgenmode eui64 numtxqueues 1 numrxqueues 1 gso_max_size 65536 gso_max_segs 65535
Для простоты восприятия VxLAN
можно думать о нем как о виртуальном свитче распределённом по нескольким физическим нодам, при ээтом в таблице "коммутации" этого "свитча" вместо портов, куда отправлять пакеты для известных адресов, содержаться IP адреса нод
Таблица заполняется статически, таким образом эта схема похожа на ситуацию когда на коммутаторе выключен mac-learning
и для каждого мака рукам (или сторонним ПО, но не средствами коммутатора) создается запись в таблице коммутации.
Для сравнения VxLAN
и классического коммутатора рассмотрим их таблицы коммутации (fdb
, forwarding data base):
VxLan FDB
Просмотр таблицы коммутации (fdb):
bridge fdb show dev flannel.1
Для простоты оставлена одна запись (на самом деле их может быть много).
a2:99:54:8b:35:bd dst 192.168.122.88 self permanent
Запись следует читать так: для отправки кадра мак адресу a2:99:54:8b:35:bd
в UDP пакете указать получателя dst 192.168.122.88
и порт dstport 8472
(порт взят из ip -d dev show ..
Cisco (или любой другой коммутаор) FDB
Просмотр таблицы коммутации:
#show mac address-table
Для простоты оставлена одна запись (на самом деле их может быть много).
Unicast Entries vlan mac address type protocols port ---------+---------------+--------+---------------------+------------------------- 123 00cc.3444.b074 dynamic ip,ipx,assigned,other TenGigabitEthernet1/50
Для сравнения, на физическом коммутаторе запись читать так:
для отправки кадра на мак 00cc.3444.b074
в Vlan 123
использовать физический порт TenGigabitEthernet1/50
В целом аналогия достаточно близкая.
Разбор прохождения пакетов между двумя POD запущенными на разных нодах
Далее разберем работу Flannel на примере прохождения пакетов из одного POD запущенного на worker3 на другой запущенный на ноде worker1 Для простоты буду называть
- pod запущенный на ноде worker3 - pod3
- pod запущенный на ноде worker1 - pod1
Маршрут от pod3 к pod1
Проверяем как идет маршрутизация из pod3 к адресу pod1: 10.244.1.34
# traceroute 10.244.1.34
traceroute to 10.244.1.34 (10.244.1.34), 30 hops max, 60 byte packets 1 10.244.3.1 (10.244.3.1) 0.156 ms 0.048 ms 0.040 ms 2 10.244.1.0 (10.244.1.0) 2.451 ms 2.340 ms 2.239 ms 3 10.244.1.34 (10.244.1.34) 2.143 ms 2.051 ms 1.954 ms
Из этого маршрута видно три "маршрутизатора"
1 - это шлюз для POD (согласно схеме это обычно интерфейс cni0
Таблица маршрутизации pod3
Проверяем таблицу маршрутизации внутри pod3
# ip route show
default via 10.244.3.1 dev eth0 10.244.0.0/16 via 10.244.3.1 dev eth0 10.244.3.0/24 dev eth0 proto kernel scope link src 10.244.3.254
Из этого видно что первый хоп (первый адрес в трейсе) это адрес шлюза для pod3 (10.244.3.1), это адрес интерфейса cni0 на ноде worker3, на которой и запущен pod
Шлюз для pod3
В этом можно убедиться, запустив ifconfig
на ноде worker3 за пределами контейнера
root@worker3:/home/ubuntu# ifconfig cni0
cni0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1450 inet 10.244.3.1 netmask 255.255.255.0 broadcast 10.244.3.255 inet6 fe80::f8c6:3aff:fe2b:8a prefixlen 64 scopeid 0x20<link> ether fa:c6:3a:2b:00:8a txqueuelen 1000 (Ethernet) RX packets 112 bytes 6220 (6.2 KB) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 76 bytes 6164 (6.1 KB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
После получения пакета на интерфейсе cni0
он будет передан дальше согласно имеющимся записям в таблице маршрутизации.
Таблица маршрутизации на worker3
После получения пакета нодой worker3 далее он следует согласно ее таблице маршрутизации:
ip route show
default via 192.168.122.1 dev enp1s0 proto dhcp src 192.168.122.114 metric 100 10.244.0.0/24 via 10.244.0.0 dev flannel.1 onlink 10.244.1.0/24 via 10.244.1.0 dev flannel.1 onlink 10.244.2.0/24 via 10.244.2.0 dev flannel.1 onlink 10.244.3.0/24 dev cni0 proto kernel scope link src 10.244.3.1 172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1 linkdown 192.168.122.0/24 dev enp1s0 proto kernel scope link src 192.168.122.114 192.168.122.1 dev enp1s0 proto dhcp scope link src 192.168.122.114 metric 100
Здесь видно что пакет попадает под строку 10.244.1.0/24 via 10.244.1.0
и в качестве шлюза будет использован адрес 10.244.1.0
Тот же результат можно получить воспользовавшись командой ip route get <IP адрес>
Маршруты с флагом onlink
Найденный в таблице маршрутизации маршрут (с некоторыми особенностями)
10.244.1.0/24 via 10.244.1.0 dev flannel.1 onlink
Внимание нужно обратить на то что у маршрута есть флаг onlink
Вот цитата из руководства iproute2
https://man7.org/linux/man-pages/man8/ip-route.8.html
onlink pretend that the nexthop is directly attached to this link, even if it does not match any interface prefix.
Это означает что для маршрутов с таким флагом onlink не обязательно иметь адрес назначенный на интерфейсе (в примере это flannel.1)
который находился бы в одной сети с шлюзом, через которые отправлять пакеты
Получение ARP-записи для адреса 10.244.1.0
Очевидно, что для того что бы отправить пакет далее на шлюз с адресом 10.244.1.0
необходимо иметь запись в таблице arp
.
Проверить такое наличие можно командой arp
на ноде worker3 (за пределами контейнеров)
# arp -n
Address HWtype HWaddress Flags Mask Iface 10.244.1.0 ether a2:99:54:8b:35:bd CM flannel.1
Далее пакет отправляется через устройство flannel.1
, для этого есть все необходимые данные:
- мак-адрес получателя (что бы сформировать
ethernet
-кадр) - физический или виртуальный интерфейс через который отправлять сформированный кадр
Отправка пакета через VxLAN интрерфейс
Так как устройство flannel.1
является VxLAN
то далее работает в чем-то похоже на виртуальный коммутатор,
таблицу коммутации которого можно просмотреть (оставлена только значимая запись для нужного МАК-адреса, остальные пропущены):
bridge fdb show dev flannel.1
... a2:99:54:8b:35:bd dst 192.168.122.88 self permanent ...
Тут есть некоторые отличия от обычной таблицы коммутации
- "обычные" классические свитчи ищут в таблице какой мак был изучен на каком порту и в каком VLAN
- тут таблицу следует читать так: что бы отправить кадр на мак получателя (
a2:99:54:8b:35:bd
) нужно в IP пакете, в который будем инкапсулировать этот кадр, в качестве получателя указать адрес192.168.122.88
192.168.122.88
- это адрес ноды worker1 на которой и расположен нужный POD
Повторю, что записи таблице "коммутации" в реализации Flannel
возникают не магическим образом, а их добавляет демон flanneld
, который в свою очередь, имея доступ к API kube-apiserver
имеет информацию для заполнения таблички, а именно
- MAC-адреса POD-ов запущенных на ноде
- IP-адрес ноды (
kubelet
)
Соответственно таблица коммутации на каждой ноде выглядит так (с допущением что на каждой ноде запущен только один POD)
[Мак адрес POD1 на ноде 1] dst [IP адрес ноды 1] [Мак адрес POD2 на ноде 2] dst [IP адрес ноды 2] [Мак адрес POD2 на ноде 3] dst [IP адрес ноды 3] ... [Мак адрес POD2 на ноде N] dst [IP адрес ноды N]
Важное замечание:
- Такой способ заполнения таблицы не единственно возможный, есть и другие реализации
- Ручное удаление записей из таблицы приводит к тому что данные перестают передаваться (что совершенно ожидаемо)
- Простейший способ восстановить связь после ручного удаления записей - это рестарт пода
flanneld
на ноде, где были удалены записи. При старте
POD с flanneld
актуализирует таблицу "коммутации" интерфейса flannel.1
. Данные о том где какой под запущен и какие у них мак-адреса flanneld
получает из API k8s
Немного детальнее про формат VxLAN
Выше есть некоторое упрощение - инкапсуляция проходит в несколько этапов
- фрейм
ethernet
помещается в UPD - UDP помещается в IP
Формат пакета VxLAN
(https://www.routexp.com/2019/02/vxlan-encapsulation-and-packet-format.html)
Передача между нодами
Далее пакет (с инкапсулированным фреймом) должен быть отправлен на адрес 192.168.122.88
(как было выяснено из таблицы "коммутации" интерфейса flannel.1
)
Для этого снова обращаемся к таблице маршрутизации хоста worker3:
ip route show
default via 192.168.122.1 dev enp1s0 proto dhcp src 192.168.122.114 metric 100 10.244.0.0/24 via 10.244.0.0 dev flannel.1 onlink 10.244.1.0/24 via 10.244.1.0 dev flannel.1 onlink 10.244.2.0/24 via 10.244.2.0 dev flannel.1 onlink 10.244.3.0/24 dev cni0 proto kernel scope link src 10.244.3.1 172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1 linkdown 192.168.122.0/24 dev enp1s0 proto kernel scope link src 192.168.122.114 192.168.122.1 dev enp1s0 proto dhcp scope link src 192.168.122.114 metric 100
Здесь видно что сеть 192.168.122.0/24
, а значит и адрес 192.168.122.88
доступны через интерфейс enp1s0
Это видно из строки 192.168.122.0/24 dev enp1s0 proto kernel scope link src 192.168.122.114
или воспользоваться командой ip route get ...
Далее происходит классическая отправка пакета через ethernet
(без подробностей)
- Выяснить мак получателя (arp)
- сформировать кадр, инкапсулировав в него пакет
- отправить через интерфейс
enp1s0
Получение пакета на ноде worker1
Пакет попадает на ноду worker1 так как в сформированном IP
, UDP пакет деинкапсулируется и результирующий кадр доставляется на интерфейс flannel.1
ifconfig flannel.1
flannel.1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1450 inet 10.244.1.0 netmask 255.255.255.255 broadcast 0.0.0.0 inet6 fe80::a099:54ff:fe8b:35bd prefixlen 64 scopeid 0x20<link> ether a2:99:54:8b:35:bd txqueuelen 0 (Ethernet) RX packets 38 bytes 2424 (2.4 KB) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 24 bytes 2088 (2.0 KB) TX errors 0 dropped 16 overruns 0 carrier 0 collisions 0
Далее оригинальный пакет извлекается из кадра ethernet
и маршрутизируется согласно таблице маршрутизации на ноде worker1
Маршрутизация на ноде worker1
ip route show
default via 192.168.122.1 dev enp1s0 proto dhcp src 192.168.122.88 metric 100 10.244.0.0/24 via 10.244.0.0 dev flannel.1 onlink 10.244.1.0/24 dev cni0 proto kernel scope link src 10.244.1.1 10.244.2.0/24 via 10.244.2.0 dev flannel.1 onlink 10.244.3.0/24 via 10.244.3.0 dev flannel.1 onlink 172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1 linkdown 192.168.122.0/24 dev enp1s0 proto kernel scope link src 192.168.122.88 192.168.122.1 dev enp1s0 proto dhcp scope link src 192.168.122.88 metric 100
Тут видно что сеть 10.244.1.0/24
и в том числе и адрес назначения 10.244.1.34
доступны через интерфейс cni0
То же самое можно подтвердить командой:
ip route get 10.244.1.34
10.244.1.34 dev cni0 src 10.244.1.1 uid 0 cache
Зная интерфейс, далее пакет отправляется через него так как через обычный ethernet
- Выясняем мак получателя с помощью
arp
- Формируем и отправляем кадр
ethernet
конечному получателю
Полный путь пакет (подведение итога)
Для закрепления - повторю еще раз (словами, без деталей) путь пакета:
- Внутри POD3: просматривает таблицу маршрутизации, находит маршрут (это default gateway, 10.244.3.1/)
- Внутри POD3 Определяется интерфейс через который доступен default gateway (это тот конец veth который заведен в POD3)
- Пакет отправляется на шлюз POD3 (мак адрес шлюза известен через ARP, MAC-адрес получателя в пакете это мак адрес шлюза, IP адрес получателя в пакете это IP адрес POD1)
- Пакет проходит через Veth и попадает в Global Network Namespace (т.е. в основной сетевой стек)
- Так как в основном сетевем стеке второй конец veth включен в бридж cni0 то входящим логическим интерфейсом будет cni0 (хотя физическим - vethx)
- Пакет имеет правильный мак-адрес получателя, совпадающий с мак-адресом интерйейса cni0, по этой причине пакет не будет отброшен, а будет передан на обработку процессу маршрутизации
- В процесса маршрутизации определяется что адрес получателя доступен через интерфейс flannel.1 через шлюз 10.244.1.0
- Мак-адрес шлюза 10.244.1.0 определяется через ARP
- Формируется новый пакет, который имеет мак-адресом получателя мак-адрес шлюза 10.244.1.0, изученный через arp, а IP адресом получателя - адрес POD1
- Пакет попадает в интерфейс flannel.1 на Worker 3 и обрабатывается согласно правилам коммутации которые настроены на flannel.1
- Согласно этих правил пакет инкапсулируется в UDP и отправляется на адрес Worker 1 ( 192.168.0.88 )
- Отправка пакета на Worker 1 проимходит обычным образом - просмотр таблицы маршрутизации, определение интерфейса, поимк ма-адреса, отправка
- Инкапсулированный пакет, содержащий внутри себя Etherneth-frame доставлен на интерфейс enp1s0 ноды Worker 1 (процесс доставки, коммутация завист от физической сети и подразумевает ее работоспособность)
- Так как это пакет на порт, на котором ожидается получения пакетов с инкапсуляцией VxLAN, то пакет проходит процедуру декапсуляции и оригинальный пакет попадает на интерфейс flannel.1 на ноде worker 1
- Согласно таблице маршрутизации определяется что получатель этого пакета доступен через интерфейс cni0
- Просиходит заполнение записи ARP для получателя обычным образом
- Пакет отправлется с интерфейса cni0. Так как это интерфейс типа бридж, то процесс коммутации опердеяет на каком порту виртуального бриджа доступен мак-адрес получателя. Этот адрес уже известен и изучен процессом комутации так как он учавствовал в процессе поределения ARP. Если нет то пакет был бы отправле на все порты
- Пакет коммутируется через виртуальный интерфейс veth и достигает pod1
Результат
Оригинальный пакет через оверлейную сеть доставлен получателю.
Что дальше
Calico
?