Ceph: различия между версиями
Материал из noname.com.ua
Перейти к навигацииПерейти к поискуSirmax (обсуждение | вклад) |
Sirmax (обсуждение | вклад) |
||
(не показана 1 промежуточная версия этого же участника) | |||
Строка 3: | Строка 3: | ||
=Заметка на полях про ceph= |
=Заметка на полях про ceph= |
||
* https://blog.mailon.com.ua/установка-и-настройка-ceph-ceph-fs-ceph-fuse-на-ubuntu-16-04/ |
* https://blog.mailon.com.ua/установка-и-настройка-ceph-ceph-fs-ceph-fuse-на-ubuntu-16-04/ |
||
+ | |||
+ | |||
+ | * MON, Ceph monitor - монитор кластера, который отслеживает его состояние. Все узлы кластера сообщают мониторам информацию о своем состоянии. Когда вы монтируете хранилища кластера к целевым серверам, вы указываете адреса мониторов. Сами мониторы не хранят непосредственно данные. |
||
+ | * OSD, Object Storage Device - элемент хранилища, который хранит сами данные и обрабатывает запросы клиентов. OSD являются основными демонами кластера, на которые ложится большая часть нагрузки. Данные в OSD хранятся в виде блоков. |
||
+ | * MDS, Metadata Server Daemon - сервер метаданных. Он нужен для работы файловой системы CephFS. Если вы ее не используете, то MDS вам не нужен. К примеру, если кластер ceph предоставляет доступ к данным через блочное устройство RBD, сервер метаданных разворачивать нет необходимости. Разделение метаданных от данных значительно увеличивает производительность кластера. К примеру, для листинга директории нет необходимости дергать OSD. Данные берутся из MDS. |
||
+ | * MGR, Manager Daemon - сервис мониторинга. До релиза Luminous был не обязательным компонентом, теперь - неотъемлемая часть кластера. Демон обеспечивает различный мониторинг кластера - от собственного дашборда до выгрузки метрик через json. |
||
+ | |||
+ | |||
Строка 14: | Строка 22: | ||
<PRE> |
<PRE> |
||
apt install lvm2 |
apt install lvm2 |
||
+ | </PRE> |
||
+ | |||
+ | <PRE> |
||
+ | [pi-node-1.home][WARNIN] ceph-volume lvm create: error: GPT headers found, they must be removed on: /dev/loop0 |
||
+ | [pi-node-1.home][ERROR ] RuntimeError: command returned non-zero exit status: 2 |
||
+ | [ceph_deploy.osd][ERROR ] Failed to execute command: /usr/sbin/ceph-volume --cluster ceph lvm create --bluestore --data /dev/loop0 |
||
+ | [ceph_deploy][ERROR ] GenericError: Failed to create 1 OSDs |
||
+ | |||
+ | root@pi-node-1:~/CEPH# sgdisk --zap-all /dev/loop0 |
||
</PRE> |
</PRE> |
Текущая версия на 07:54, 18 декабря 2021
Заметка на полях про ceph
- MON, Ceph monitor - монитор кластера, который отслеживает его состояние. Все узлы кластера сообщают мониторам информацию о своем состоянии. Когда вы монтируете хранилища кластера к целевым серверам, вы указываете адреса мониторов. Сами мониторы не хранят непосредственно данные.
- OSD, Object Storage Device - элемент хранилища, который хранит сами данные и обрабатывает запросы клиентов. OSD являются основными демонами кластера, на которые ложится большая часть нагрузки. Данные в OSD хранятся в виде блоков.
- MDS, Metadata Server Daemon - сервер метаданных. Он нужен для работы файловой системы CephFS. Если вы ее не используете, то MDS вам не нужен. К примеру, если кластер ceph предоставляет доступ к данным через блочное устройство RBD, сервер метаданных разворачивать нет необходимости. Разделение метаданных от данных значительно увеличивает производительность кластера. К примеру, для листинга директории нет необходимости дергать OSD. Данные берутся из MDS.
- MGR, Manager Daemon - сервис мониторинга. До релиза Luminous был не обязательным компонентом, теперь - неотъемлемая часть кластера. Демон обеспечивает различный мониторинг кластера - от собственного дашборда до выгрузки метрик через json.
Важно - хостнеймы должны быть правильными
у меня одна нода pi-node-1.home которая должна лукапится в обе стороны
cat /etc/hosts 10.240.1.2 pi-node-1 pi-node-1.homer
apt install lvm2
[pi-node-1.home][WARNIN] ceph-volume lvm create: error: GPT headers found, they must be removed on: /dev/loop0 [pi-node-1.home][ERROR ] RuntimeError: command returned non-zero exit status: 2 [ceph_deploy.osd][ERROR ] Failed to execute command: /usr/sbin/ceph-volume --cluster ceph lvm create --bluestore --data /dev/loop0 [ceph_deploy][ERROR ] GenericError: Failed to create 1 OSDs root@pi-node-1:~/CEPH# sgdisk --zap-all /dev/loop0