Bonjour,
----- Mail original -----
De: "RegisM" regis.frsag@tornad.net À: "Olivier DELHOMME" olivier.delhomme@mines-paristech.fr Cc: "Pierre DOLIDON" sn4ky@sn4ky.net, "French SysAdmin Group" frsag@frsag.org Envoyé: Vendredi 12 Décembre 2014 15:58:04 Objet: Re: [FRsAG] Vos retours sur le stockage distribué / Glusterfs ?
Quelqu'un a testé ca ?
Je suis tombé dessus lorsque j'ai refait un tour du web la dernière fois sur "distribued file system", et j'avoue que c'est pariel, si je m'en tiens au site internet et la présentation, je me dis que mes soucis de stockage sont enfin terminés (belle utopie :) )..
Je n'ai pas testé. Dans le principe, il y a toujours une différenciation metadata et données ce qui peut potentiellement être un goulot d'étranglement.
Sinon, j'ai aussi la partie stockage d'openstack à tester (mais j'ai peur d'avance..) . OVH n'a plus de soucis avec hubic depuis qu'ils ont basculé là-dessus d'après les bruits de couloir :)
Openstack se couple apparemment très bien avec Ceph... (mais c'est pas pour du système de fichier "classique" /home de 200 To !)
je dérive un peu par rapport à ton besoin initial mais bon, une fois qu'on a un bon système clusterisé qui encaisse des To sur des To sans crainte... tu mets un point d'entrée NFS quelque part et t'es tranquille...
Je me pose la question de xtreemfs over rbd (Ceph)...
@+,
Olivier.
Le 12 décembre 2014 15:49, Olivier DELHOMME < olivier.delhomme@mines-paristech.fr> a écrit :
Bonjour,
----- Mail original -----
De: "Pierre DOLIDON" sn4ky@sn4ky.net À: frsag@frsag.org Envoyé: Vendredi 12 Décembre 2014 14:30:01 Objet: Re: [FRsAG] Vos retours sur le stockage distribué / Glusterfs ?
Bonjour.
J'ai effectivement pu constater des bugs sur glusterfs, particulièrement
sur
des environnements web répliqués. Les serveurs partaient en sucette fréquemment. Cette histoire de NFS qui est assez pénible aussi.
Actuellement je bench une solution articulée autour de DRDB en primary/primary avec un filesystem OCFS2 par dessus (monté sur les 2 serveurs bien sur).
J'ai du DRDB actif/actif avec GFS2 dessus. L'arrêt d'une machine, voulu ou non implique invariablement un split brain qu'il faut résoudre manuellement !
J'ai par ailleurs une architecture avec GlusterFS en Distributed Replicated Volume. Je dois dire que ce n'est pas beaucoup mieux et que lorsque ça marche on n'y touche plus !
Je louche très fortement sur Ceph qui est en comparaison beaucoup plus stable (le début du développement de Ceph date de 2004). Je n'ai pas du tout testé CephFS dont la brique FS n'est pas supportée au delà d'un seul noeud (pour le moment).
Notez que lors de mes essais (avec du vieux matériel datant de 2005) Ceph a été performant avec des tailles de bloc importantes de l'ordre de 4Mo et 30x moins bon avec des tailles de bloc de 4ko.
A bientôt,
Olivier DELHOMME.
Liste de diffusion du FRsAG http://www.frsag.org/