Bonsoir,
----- Le 16 Déc 17, à 19:49, Luc Didry luc@didry.org a écrit :
D'ailleurs je serai curieux d'avoir un retour d'expérience de quelques uns sur les sauvegades.
Je veux bien que tu expliques 2/3 trucs là. Ça, c'est la recette pour faire tomber un cluster Ceph ?
Oui. C'était de l'autodérision. La règle des 2/3 c'est pour reprendre ce qui a été ecrit dans cette discussion. Mais je pense que cette règle s'applique plutôt au stockage global. Un peu comme avec ZFS ou il ne faut pas dépasser 80% de l'espace utilisable.
Donc pour avoir un cluster Ceph, il faudrait :
- changer la conf par défaut pour prioriser les I/O clients
Oui. Je l'ai appris ici après coup (slide 15) : https://redhatstorage.redhat.com/2015/10/06/ceph-deployment-at-target-best-p... Il y a ça aussi: https://forum.proxmox.com/threads/ceph-high-i-o-wait-on-osd-add-remove.20271...
- ne pas remplir les OSDs au-delà de 2/3 de leur capacité
A vérifier. Mais une chose est certaine c'est que j'avais beaucoup de warnings à ce sujet.
- utiliser les bons outils pour monitorer le cluster. C'est à dire ? J'utilise
des sondes nagios, dont un
e qui checke le ceph health, une pour le taux de
remplissage des OSDs et une pour surveiller les monitors. Est-ce suffisant ?
Avec le recul ça me semble être un minimum. En tous les cas c'est ce que je ferai la prochaine fois. Surveiller le taux de remplissage des OSDs et leur états (up/down)
C'est bien ce que tu voulais dire ?
Oui.
-- Luc https://fiat-tux.fr/ https://luc.frama.io/ Internet n'est pas compliqué, Internet est ce que vous en faites.