Bonjour,
Pourquoi ne pas utiliser Ceph ? Il a l'avantage de supporter plusieurs chunck size (jusqu'a 64kB) et surtout offre la possibilite de mettre les metadata sur des disques SSD qui permettront d'augmenter les performances sur les petits fichiers. Les sites avec Ceph sur materiel Open Compute marchent plutot bien.
Jean-Marie
Le 12/12/14 12:14, Jerome LE TANOU a écrit :
Bonjour,
- Nous souhaitons mettre un oeuvre une solution de stockage d'au moins
200To utiles qui seront accédés en mode fichiers (NFS, CIFS).
- Il faudrait que l'on puisse disposer d'une redondance permettant de
pallier à la panne d'un ou plusieurs disques ou d'un noeud.
- Il est acceptable d'avoir une interruption de service pour
redémarrer le service en cas de panne majeure dans la limite de 4H.
- A noter qu'actuellement nos utilisateurs utilisent énormément de
petits fichiers (plus de 400 millions de fichiers de moins de 128ko).
- A noter que pour convenance du service, les systèmes hôtes seront
sous Debian.
Au vue des différents articles, documentations que nous avons consulté, nous penchons vers le choix de GlusterFS. Toujours à la suite de nos lectures, nous pensons partir sur une implémentation en "Distributed Replicated Volume" basée sur 2 briques (qui seront hébergées sur 2 sites distants interconnectés en 10Gbps) composées chacune d'au moins 2 noeuds (voire 4).
Bien entendu, avant d'investir et de partir en production nous allons maquetter cela. Toutefois, on se dit que plusieurs d'entre nous ont surement testés cela voire même mis en oeuvre ce type de solution et pourraient nous faire gagner du temps voire nous suggérer d'autres implémentations.
Du coup, comme vous l'avez surement compris nous sommes intéressé pour tout retour sur l'utilisation de GlusterFS, notamment sur les choix que vous avez pu faire. De même nous serions intéressé pour avoir des retours sur un couplage GlusterFS et ZFS.
Si vous avez également des retours heureux sur d'autres systèmes de stockage distribué qui pourraient satisfaire nos besoins, nous sommes intéressés.
Merci d'avance.
Jérôme LE TANOU