J'ai regardé les divers projets pour cette problématique (et n'en utilise aucun actuellement), est : glusterfs ne m'a pas donné l'impression d'être un projet "qui a classe". J'ai plutôt eu l'impression d'avoir une paire de script, qui marchent, mais pas trop Ceph est, je trouve, beaucoup plus intéressant (mieux fait, au niveau de la conception, de ce que tu peux en faire etc etc). Cependant, c'est peut-être un peux trop jeune pour s'en servir massivement (enfin, vu que des gens utilisent butterfs en production, pourquoi pas ..) Je me demande si une solution plus classique ne serait pas envisageable (surtout si tu utilises zfs / mdadm) : export des nodes en iscsi, construction d'un raid (ou raid-like) par dessus Évidement, cela signifie que tu as un point d'entrée unique au système En cas de perte d'un node, tu peux le remplacer et reconstruire le raid En cas de perte du maître, tu devrait pouvoir déplacer l'ensemble des points de montages sur une autre machine, avec l'IP À tester; On 12/12/2014 12:14, Jerome LE TANOU wrote:Bonjour, - Nous souhaitons mettre un oeuvre une solution de stockage d'au moins 200To utiles qui seront accédés en mode fichiers (NFS, CIFS). - Il faudrait que l'on puisse disposer d'une redondance permettant de pallier à la panne d'un ou plusieurs disques ou d'un noeud. - Il est acceptable d'avoir une interruption de service pour redémarrer le service en cas de panne majeure dans la limite de 4H. - A noter qu'actuellement nos utilisateurs utilisent énormément de petits fichiers (plus de 400 millions de fichiers de moins de 128ko). - A noter que pour convenance du service, les systèmes hôtes seront sous Debian. Au vue des différents articles, documentations que nous avons consulté, nous penchons vers le choix de GlusterFS. Toujours à la suite de nos lectures, nous pensons partir sur une implémentation en "Distributed Replicated Volume" basée sur 2 briques (qui seront hébergées sur 2 sites distants interconnectés en 10Gbps) composées chacune d'au moins 2 noeuds (voire 4). Bien entendu, avant d'investir et de partir en production nous allons maquetter cela. Toutefois, on se dit que plusieurs d'entre nous ont surement testés cela voire même mis en oeuvre ce type de solution et pourraient nous faire gagner du temps voire nous suggérer d'autres implémentations. Du coup, comme vous l'avez surement compris nous sommes intéressé pour tout retour sur l'utilisation de GlusterFS, notamment sur les choix que vous avez pu faire. De même nous serions intéressé pour avoir des retours sur un couplage GlusterFS et ZFS. Si vous avez également des retours heureux sur d'autres systèmes de stockage distribué qui pourraient satisfaire nos besoins, nous sommes intéressés. Merci d'avance. Jérôme LE TANOU
Splitted-Desktop Systems is a proud member of the Open
Compute Foundation and a Gold member till July '15. We can provide you consulting and engineering services related to any OCP hardware. We also drive RuggedPOD and Daap Open Hardware projects |