Ceph: различия между версиями

Материал из noname.com.ua
Перейти к навигацииПерейти к поиску
 
(не показаны 2 промежуточные версии этого же участника)
Строка 3: Строка 3:
 
=Заметка на полях про ceph=
 
=Заметка на полях про ceph=
 
* https://blog.mailon.com.ua/установка-и-настройка-ceph-ceph-fs-ceph-fuse-на-ubuntu-16-04/
 
* https://blog.mailon.com.ua/установка-и-настройка-ceph-ceph-fs-ceph-fuse-на-ubuntu-16-04/
  +
  +
  +
* MON, Ceph monitor - монитор кластера, который отслеживает его состояние. Все узлы кластера сообщают мониторам информацию о своем состоянии. Когда вы монтируете хранилища кластера к целевым серверам, вы указываете адреса мониторов. Сами мониторы не хранят непосредственно данные.
  +
* OSD, Object Storage Device - элемент хранилища, который хранит сами данные и обрабатывает запросы клиентов. OSD являются основными демонами кластера, на которые ложится большая часть нагрузки. Данные в OSD хранятся в виде блоков.
  +
* MDS, Metadata Server Daemon - сервер метаданных. Он нужен для работы файловой системы CephFS. Если вы ее не используете, то MDS вам не нужен. К примеру, если кластер ceph предоставляет доступ к данным через блочное устройство RBD, сервер метаданных разворачивать нет необходимости. Разделение метаданных от данных значительно увеличивает производительность кластера. К примеру, для листинга директории нет необходимости дергать OSD. Данные берутся из MDS.
  +
* MGR, Manager Daemon - сервис мониторинга. До релиза Luminous был не обязательным компонентом, теперь - неотъемлемая часть кластера. Демон обеспечивает различный мониторинг кластера - от собственного дашборда до выгрузки метрик через json.
  +
  +
  +
  +
  +
Важно - хостнеймы должны быть правильными
  +
у меня одна нода pi-node-1.home которая должна лукапится в обе стороны
  +
<PRE>
  +
cat /etc/hosts
  +
10.240.1.2 pi-node-1 pi-node-1.homer
  +
</PRE>
  +
  +
<PRE>
  +
apt install lvm2
  +
</PRE>
  +
  +
<PRE>
  +
[pi-node-1.home][WARNIN] ceph-volume lvm create: error: GPT headers found, they must be removed on: /dev/loop0
  +
[pi-node-1.home][ERROR ] RuntimeError: command returned non-zero exit status: 2
  +
[ceph_deploy.osd][ERROR ] Failed to execute command: /usr/sbin/ceph-volume --cluster ceph lvm create --bluestore --data /dev/loop0
  +
[ceph_deploy][ERROR ] GenericError: Failed to create 1 OSDs
  +
  +
root@pi-node-1:~/CEPH# sgdisk --zap-all /dev/loop0
  +
</PRE>

Текущая версия на 08:54, 18 декабря 2021


Заметка на полях про ceph


  • MON, Ceph monitor - монитор кластера, который отслеживает его состояние. Все узлы кластера сообщают мониторам информацию о своем состоянии. Когда вы монтируете хранилища кластера к целевым серверам, вы указываете адреса мониторов. Сами мониторы не хранят непосредственно данные.
  • OSD, Object Storage Device - элемент хранилища, который хранит сами данные и обрабатывает запросы клиентов. OSD являются основными демонами кластера, на которые ложится большая часть нагрузки. Данные в OSD хранятся в виде блоков.
  • MDS, Metadata Server Daemon - сервер метаданных. Он нужен для работы файловой системы CephFS. Если вы ее не используете, то MDS вам не нужен. К примеру, если кластер ceph предоставляет доступ к данным через блочное устройство RBD, сервер метаданных разворачивать нет необходимости. Разделение метаданных от данных значительно увеличивает производительность кластера. К примеру, для листинга директории нет необходимости дергать OSD. Данные берутся из MDS.
  • MGR, Manager Daemon - сервис мониторинга. До релиза Luminous был не обязательным компонентом, теперь - неотъемлемая часть кластера. Демон обеспечивает различный мониторинг кластера - от собственного дашборда до выгрузки метрик через json.



Важно - хостнеймы должны быть правильными у меня одна нода pi-node-1.home которая должна лукапится в обе стороны

cat /etc/hosts
10.240.1.2 pi-node-1 pi-node-1.homer
 apt install lvm2
[pi-node-1.home][WARNIN] ceph-volume lvm create: error: GPT headers found, they must be removed on: /dev/loop0
[pi-node-1.home][ERROR ] RuntimeError: command returned non-zero exit status: 2
[ceph_deploy.osd][ERROR ] Failed to execute command: /usr/sbin/ceph-volume --cluster ceph lvm create --bluestore --data /dev/loop0
[ceph_deploy][ERROR ] GenericError: Failed to create 1 OSDs

root@pi-node-1:~/CEPH# sgdisk --zap-all  /dev/loop0