Oui, le NFS est vraiment une solution "bancale" (c'est du NFS hein ...) : c'est probablement fonctionnel, mais vraiment dédié aux gens qui sont "bloqués" sur le NFS (pour des raisons d'OS propriétaire, de connecteur hardware ou que sais-je)
Si tu as le choix, n'utilise pas NFS :)
Par rapport à Ceph, je trouve que le projet est globalement conservateur Ils font du stockage, et sont sérieux en conséquence, contrairement à certains systèmes de fichier (zapperfs par exemple !)
Ceph te permet également de faire des choses très charmante, telle qu'une redondance inter-dc sans coût (au niveau latence etc), permettant l'implémentation d'un PRA facilement J'aime également la méthode permettant, toujours sans impacter la production, de mixer disque dur et SSD (les clients utilisent les SSD, les disques dur ne sont utilisés qu'en arrière plan, pour la redondance, donc sans impact sur les performances)
Bref, c'est vraiment un projet à tester et à retester, à mon avis !
On 10/10/2017 10:30, Yoann Moulin wrote:
Bonjour,
Alors, personnellement, je dirais Ceph parce que c'est quand même le plus polyvalent et avec la nouvelle release de Red Hat Storage, on aura le nfs et bien d'autres choses dont j'ai hâte de pouvoir y mettre les mains dessus.
Sans forcément attendre la release de RedHat, on peut déjà jouer avec la dernière mouture Luminous (12.2.1) de Ceph, j'ai commencé un peu à tester et même si la peinture n'est pas fraiche, ça permet de prendre en main les nouvelles fonctionnalités.
Je n’ai par contre pas encore tout regardé coté NFS (ils utilisent Ganesha), mais les 1èrs tests de passerelle entre la radosgw et NFS ne m'ont pas semblé concluant (erreur d'écriture par exemple), mais je ne sais pas si le problème vient de ma config ou de ceph lui-même
J'ai par contre testé un peu plus CephFS (filesystem POSIX distribué) et ça me semble plus prometteur que faire du NFS.
Pour mes tests, j'utilise le playbook ceph-ansible[1] pour déployer mon cluster. Il me faut moins de 2h pour avoir un cluster fonctionnel from scratch sur des serveurs barmetals (incluant application de script de reset bios/ipmi/config raid, installation ubuntu pxe kickstart, exécution du playbook ceph-ansible). J'utilise une Ubuntu 16.04 LTS.
La communauté est assez réactive tant sur IRC (#ceph sur oftc) que sur la mailing-list d'ailleurs.
Enfin, de l'expérience que j'ai de ceph, pour du block device (rados bloc device), ceph n'est pas le plus approprié si besoin de faible latence ou de beaucoup d'I/O en mono thread (ie un seul client) pour des workloads globales avec de la virtu, ça rend un bon service et c'est plutôt résilient.
Bonne journée à tous