Ceph2: различия между версиями

Материал из noname.com.ua
Перейти к навигацииПерейти к поиску
 
(не показано 8 промежуточных версий этого же участника)
Строка 8: Строка 8:
 
* <code>node-2</code> - хостнейм ноды на котрой этот OSD
 
* <code>node-2</code> - хостнейм ноды на котрой этот OSD
 
* <code>sdd</code> - блочное устройство
 
* <code>sdd</code> - блочное устройство
==Пометить OSD <code>out</code> из кластера Ceph==
+
==Пометить <code>OSD</code> <code>out</code> из кластера Ceph==
 
<PRE>
 
<PRE>
 
ceph osd out osd.123
 
ceph osd out osd.123
 
</PRE>
 
</PRE>
   
==Remove the failed OSD from the CRUSH map==
+
==Удалить сбойную <code>OSD</code> из <code>CRUSH map</code>==
 
<PRE>
 
<PRE>
 
ceph osd crush rm osd.123
 
ceph osd crush rm osd.123
 
</PRE>
 
</PRE>
  +
==Delete Ceph authentication keys for the OSD==
 
  +
==Удалить ключи (<code>authentication keys</code>) для <code>OSD</code>==
 
<PRE>
 
<PRE>
 
ceph auth del osd.123
 
ceph auth del osd.123
 
</PRE>
 
</PRE>
  +
==Remove the OSD from the Ceph cluster==
 
  +
==Удалить <code>OSD</code> из кластера Ceph==
 
<PRE>
 
<PRE>
 
ceph osd rm osd.123
 
ceph osd rm osd.123
 
</PRE>
 
</PRE>
Please keep in mind that whenever an OSD is unavailable your cluster health will not be OK, and it will continue to perform the recovery which is a normal Ceph operation in this situation.
+
Please keep in mind that whenever an OSD is unavailable your cluster health will not be OK,
  +
and it will continue to perform the recovery which is a normal Ceph operation in this situation.
5. So as long as the server is hot swappable which it should be, then just put the new drive in and perform the following tasks. If its node-2 then, keep in mind you will need to use the name of your node.
 
  +
==Заменить диск==
  +
Список дисков (после замены) посмотреть так:
 
<PRE>
 
<PRE>
 
ceph-deploy disk list node-2
 
ceph-deploy disk list node-2
 
</PRE>
 
</PRE>
  +
==Before adding the disk to the Ceph cluster, perform a disk zap==
 
  +
==Перед добавлением диска в кластер Ceph выполните очистку диска==
(Watch the output of the disk list for the location that gets assigned, that will be the location that you will run the osd create command on. For example if disk list output is [node-2][DEBUG ] /dev/sdd other, btrfs then disk zap will be the following:
 
  +
Перед добавлением проверить как определился диск (sdd или другая буква)
 
<PRE>
 
<PRE>
 
ceph-deploy disk zap node-2:sdd
 
ceph-deploy disk zap node-2:sdd
 
</PRE>
 
</PRE>
  +
==Create an OSD on the disk, and Ceph will add it as osd.123==
 
  +
==Создать <code>OSD</code> на дискеи добавить в кластер <code>Ceph</code> как <code>osd.123</code>==
  +
<PRE>
 
ceph-deploy --overwrite-conf osd create node-2:sdd
 
ceph-deploy --overwrite-conf osd create node-2:sdd
 
</PRE>
 
</PRE>
==Additional Information==
 
Once an OSD is created Ceph will run a recovery operation and start moving placement groups from secondary OSDs to the new OSD. Again the recovery operation will take a while depending on the size of your cluster, once it is completed your Ceph cluster will be HEALTH_OK.
 
   
 
==Additional Information==
When a new host or disk is added to a Ceph cluster, CRUSH starts a rebalancing operation, under which it moves the data from existing hosts/disks to a new host/ disk. Rebalancing is performed to keep all disks equally utilized, which improves the cluster performance and keeps it healthy.
 
  +
После создания OSD Ceph запустит операцию восстановления и начнет перемещать группы размещения из вторичных OSD в новый OSD. <BR>
Internal Notes
 
  +
Опять же, операция восстановления займет некоторое время в зависимости от размера вашего кластера, после ее завершения ваш кластер Ceph будет <code>HEALTH_OK</code>.
  +
<BR>
  +
Когда новый хост или диск добавляется в кластер Ceph, CRUSH запускает операцию перебалансировки, в рамках которой он перемещает данные с существующих хостов/дисков на новый хост/диск. <BR>
  +
Перебалансировка выполняется для того, чтобы все диски использовались одинаково, что повышает производительность кластера и поддерживает его работоспособность.

Текущая версия на 14:17, 22 октября 2024

Ceph2

Сборник рецептов по ceph

Удаление OSD из кластера

  • 123 - номер OSD на удаление
  • node-2 - хостнейм ноды на котрой этот OSD
  • sdd - блочное устройство

Пометить OSD out из кластера Ceph

ceph osd out osd.123

Удалить сбойную OSD из CRUSH map

ceph osd crush rm osd.123

Удалить ключи (authentication keys) для OSD

ceph auth del osd.123

Удалить OSD из кластера Ceph

ceph osd rm osd.123

Please keep in mind that whenever an OSD is unavailable your cluster health will not be OK, and it will continue to perform the recovery which is a normal Ceph operation in this situation.

Заменить диск

Список дисков (после замены) посмотреть так:

ceph-deploy disk list node-2

Перед добавлением диска в кластер Ceph выполните очистку диска

Перед добавлением проверить как определился диск (sdd или другая буква)

ceph-deploy disk zap node-2:sdd

Создать OSD на дискеи добавить в кластер Ceph как osd.123

ceph-deploy --overwrite-conf osd create node-2:sdd

Additional Information

После создания OSD Ceph запустит операцию восстановления и начнет перемещать группы размещения из вторичных OSD в новый OSD.
Опять же, операция восстановления займет некоторое время в зависимости от размера вашего кластера, после ее завершения ваш кластер Ceph будет HEALTH_OK.
Когда новый хост или диск добавляется в кластер Ceph, CRUSH запускает операцию перебалансировки, в рамках которой он перемещает данные с существующих хостов/дисков на новый хост/диск.
Перебалансировка выполняется для того, чтобы все диски использовались одинаково, что повышает производительность кластера и поддерживает его работоспособность.