Bonjour,
Plus simple dans Proxmox tu fais deux noeuds en zfs local et tu mets des tâches programmées de réplication.
C'est pas temps réel mais c'est pour moi le plus safe quand tu as de la latence entre deux hosts voir pire de la gigue.
Ceph de mes tests n'apprécie pas plus de 5ms de latence il refuse de créer un cluster et s'il a été créé avant, il se met à faire du split brain où chaque noeud estime qu'il est seul.
Notre but était de faire un cluster kube sur plusieurs providers avec un ceph partagé entre eux.
Le 02/10/2020 à 10:11, Julien Escario a écrit :
Bonjour, Je relance le débat ;-)
Donc, nous tombons d'accord que pour deux nœuds, un cluster CEPH ne fera pas le job.
J'aimerais votre opinion sur une autre possibilité : le RDB mirroring (https://docs.ceph.com/en/latest/rbd/rbd-mirroring/).
Admettons que l'on ai deux nœuds, en particulier si ils sont géographiquement séparés (donc latence, toussa).
Mettons deux disques dans le premier nœud et la crush-map qui va bien pour faire un 'simili' raid1 entre les deux disques avec size=2 (et min_size=1). Le nœud est également MON et MGR.
On a un 'cluster' Ceph autonome, non répliqué. On perd évidemment toute la partie résilience de Ceph, ok.
Maintenant, on créé un second noeud de la même manière et on configure le rdb-mirror pour synchroniser le pool Ceph complet de noeud1 vers noeud2.
C'est du one-way mais rien n'empêche de créer un second pool qui va fasse l'inverse, tant que l'espace disque suite et donc de faire tourner des VMs de chaque côté.
On pourrait même envisager de faire du two-way mirror mais là, ca devient dangereux dans le sens où il faut un mécanisme s'assurant qu'une VM ne tourne pas des deux côtés simultannément sinon c'est la perte de données assurée (et massive). Peut être que le cluster Proxmox peut assurer ce rôle, je ne sais pas.
Je vais probablement me lancer dans un lab sur ce postulat mais avant de perdre du temps sur un détail qui m'échapperait, certains d'entre vous ont-ils un avis ?
Note : ca ferait l'objet d'un magnifique tuto si ça fonctionne.
Merci, Julien
Le 18/09/2020 à 14:00, Richard DEMONGEOT a écrit :
Bonjour,
Le 2020-09-18 13:48, Stéphane Rivière a écrit :
Ceph c'est bien à partir de 4 noeuds pour être tranquille.
Je ne connais pas ceph et pose certainement une question idiote...
Quel serait l'avantage d'avoir a minima 4 nœuds (par rapport à, par exemple, 2 nœuds de prod + un nœud d'arbitrage - ça je comprends l'idée) ?
CEPH étant (massivement) distribué, il deviens de plus en plus performant avec le volume de disques que tu lui affecte. Selon la documentation, le minimum préconisé est de faire "3 copies", sur "3 machines différentes".
CEPH préfère par ailleurs un accès direct au disque, et ne pas avoir de raid sur les disques.
Setup standard CEPH :
+--------------+ +--------------+ +--------------+ | Hôte1 | | Hôte2 | | Hôte3 | | HDD1 HDD2 | | HDD3 HDD4 | | HDD5 HDD6 | +--------------+ +--------------+ +--------------+
Ton premier bloc sera sur les disques 1, 3 et 5; Ton second sur les disques 2, 4 et 5; Etc. CEPH s'ammusera à les placer différement à chaque fois.
Du coup, si tu n'as que 3 disques, les 3 seront "identiques", mais la fragmentation va te faire perdre en performance vis à vis de DRBD. Si tu as 12 disques ou plus, réparti dans plusieurs châssis, tu va pouvoir tirer parti de l'ensemble des axes / ports disques. Et plus tu rajoutes de disque, plus ta performance s'améliore :).
Cordialement, _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Liste de diffusion du FRsAG http://www.frsag.org/