Le 18/09/2020 à 11:22, Grosjean Cyril a écrit :
Le ven. 18 sept. 2020 à 11:11, Pierre DOLIDON <sn4ky@sn4ky.net mailto:sn4ky@sn4ky.net> a écrit :
de mémoire, ceph sur 2 noeuds, c'est pas possible ? (puisque c'est un cluster... quorum toussa toussa).
ll faut 3 noeuds pour les monitors/managers, mais ton 3ème noeud pour les monitors/manager peuvent être sur un autre site, en standalone (un peu comme un arbitre dans un SAN bi-site synchrone). Le cluster d'OSD, si bien configuré peut supporter la perte d'un noeud.
Pas mal de retours intéressants sur cette question de Ceph avec deux noeuds. Je voulais justement faire un lab pour voir ce que ca donne en remplacement d'un cluster DRBD avec deux noeuds.
En 'théorie', avec deux nodes, quatre OSD (deux sur chaque node), deux mon+mgr (un sur chaque node), size = 2, min size = 1.
En gros, un RAID over Ethernet puisque chaque PG sera sur chaque node.
Si on perd TOTALEMENT un node : pas d'impact, et rebalance au redémarrage du node H.S
Si on perd le réseau entre les deux (c'est toujours le scenario stressant) : il se passe quoi exactement ?
En partant du principe que chaque VM a ses propres objects (aka blocks) : je ne vois pas pourquoi il y aurait plus grave comme soucis qu'un resync au moment où le réseau revient ? En quoi le quorum est-il critique dans ce cas ?
Je n'ai pas osé le test encore, je suis peut être complètement à côté de la plaque ...
Merci de vos lumières, Julien