Ceph2: различия между версиями
Sirmax (обсуждение | вклад) (Новая страница: «=Ceph2= Сборник рецептов по ceph ==1==») |
Sirmax (обсуждение | вклад) |
||
(не показано 16 промежуточных версий этого же участника) | |||
Строка 1: | Строка 1: | ||
+ | [[Категория: ceph]] |
||
=Ceph2= |
=Ceph2= |
||
Сборник рецептов по ceph |
Сборник рецептов по ceph |
||
+ | =Удаление OSD из кластера= |
||
− | ==1== |
||
+ | |||
+ | * <code>123</code> - номер OSD на удаление |
||
+ | * <code>node-2</code> - хостнейм ноды на котрой этот OSD |
||
+ | * <code>sdd</code> - блочное устройство |
||
+ | ==Пометить <code>OSD</code> <code>out</code> из кластера Ceph== |
||
+ | <PRE> |
||
+ | ceph osd out osd.123 |
||
+ | </PRE> |
||
+ | |||
+ | ==Удалить сбойную <code>OSD</code> из <code>CRUSH map</code>== |
||
+ | <PRE> |
||
+ | ceph osd crush rm osd.123 |
||
+ | </PRE> |
||
+ | |||
+ | ==Удалить ключи (<code>authentication keys</code>) для <code>OSD</code>== |
||
+ | <PRE> |
||
+ | ceph auth del osd.123 |
||
+ | </PRE> |
||
+ | |||
+ | ==Удалить <code>OSD</code> из кластера Ceph== |
||
+ | <PRE> |
||
+ | ceph osd rm osd.123 |
||
+ | </PRE> |
||
+ | Please keep in mind that whenever an OSD is unavailable your cluster health will not be OK, |
||
+ | and it will continue to perform the recovery which is a normal Ceph operation in this situation. |
||
+ | ==Заменить диск== |
||
+ | Список дисков (после замены) посмотреть так: |
||
+ | <PRE> |
||
+ | ceph-deploy disk list node-2 |
||
+ | </PRE> |
||
+ | |||
+ | ==Перед добавлением диска в кластер Ceph выполните очистку диска== |
||
+ | Перед добавлением проверить как определился диск (sdd или другая буква) |
||
+ | <PRE> |
||
+ | ceph-deploy disk zap node-2:sdd |
||
+ | </PRE> |
||
+ | |||
+ | ==Создать <code>OSD</code> на дискеи добавить в кластер <code>Ceph</code> как <code>osd.123</code>== |
||
+ | <PRE> |
||
+ | ceph-deploy --overwrite-conf osd create node-2:sdd |
||
+ | </PRE> |
||
+ | |||
+ | ==Additional Information== |
||
+ | После создания OSD Ceph запустит операцию восстановления и начнет перемещать группы размещения из вторичных OSD в новый OSD. <BR> |
||
+ | Опять же, операция восстановления займет некоторое время в зависимости от размера вашего кластера, после ее завершения ваш кластер Ceph будет <code>HEALTH_OK</code>. |
||
+ | <BR> |
||
+ | Когда новый хост или диск добавляется в кластер Ceph, CRUSH запускает операцию перебалансировки, в рамках которой он перемещает данные с существующих хостов/дисков на новый хост/диск. <BR> |
||
+ | Перебалансировка выполняется для того, чтобы все диски использовались одинаково, что повышает производительность кластера и поддерживает его работоспособность. |
Текущая версия на 14:17, 22 октября 2024
Ceph2
Сборник рецептов по ceph
Удаление OSD из кластера
123
- номер OSD на удалениеnode-2
- хостнейм ноды на котрой этот OSDsdd
- блочное устройство
Пометить OSD
out
из кластера Ceph
ceph osd out osd.123
Удалить сбойную OSD
из CRUSH map
ceph osd crush rm osd.123
Удалить ключи (authentication keys
) для OSD
ceph auth del osd.123
Удалить OSD
из кластера Ceph
ceph osd rm osd.123
Please keep in mind that whenever an OSD is unavailable your cluster health will not be OK, and it will continue to perform the recovery which is a normal Ceph operation in this situation.
Заменить диск
Список дисков (после замены) посмотреть так:
ceph-deploy disk list node-2
Перед добавлением диска в кластер Ceph выполните очистку диска
Перед добавлением проверить как определился диск (sdd или другая буква)
ceph-deploy disk zap node-2:sdd
Создать OSD
на дискеи добавить в кластер Ceph
как osd.123
ceph-deploy --overwrite-conf osd create node-2:sdd
Additional Information
После создания OSD Ceph запустит операцию восстановления и начнет перемещать группы размещения из вторичных OSD в новый OSD.
Опять же, операция восстановления займет некоторое время в зависимости от размера вашего кластера, после ее завершения ваш кластер Ceph будет HEALTH_OK
.
Когда новый хост или диск добавляется в кластер Ceph, CRUSH запускает операцию перебалансировки, в рамках которой он перемещает данные с существующих хостов/дисков на новый хост/диск.
Перебалансировка выполняется для того, чтобы все диски использовались одинаково, что повышает производительность кластера и поддерживает его работоспособность.