Bonjour,
Alors, personnellement, je dirais Ceph parce que c'est quand même le plus polyvalent et avec la nouvelle release de Red Hat Storage, on aura le nfs et bien d'autres choses dont j'ai hâte de pouvoir y mettre les mains dessus.
Sans forcément attendre la release de RedHat, on peut déjà jouer avec la dernière mouture Luminous (12.2.1) de Ceph, j'ai commencé un peu à tester et même si la peinture n'est pas fraiche, ça permet de prendre en main les nouvelles fonctionnalités.
Je n’ai par contre pas encore tout regardé coté NFS (ils utilisent Ganesha), mais les 1èrs tests de passerelle entre la radosgw et NFS ne m'ont pas semblé concluant (erreur d'écriture par exemple), mais je ne sais pas si le problème vient de ma config ou de ceph lui-même
J'ai par contre testé un peu plus CephFS (filesystem POSIX distribué) et ça me semble plus prometteur que faire du NFS.
Pour mes tests, j'utilise le playbook ceph-ansible[1] pour déployer mon cluster. Il me faut moins de 2h pour avoir un cluster fonctionnel from scratch sur des serveurs barmetals (incluant application de script de reset bios/ipmi/config raid, installation ubuntu pxe kickstart, exécution du playbook ceph-ansible). J'utilise une Ubuntu 16.04 LTS.
1. https://github.com/ceph/ceph-ansible
La communauté est assez réactive tant sur IRC (#ceph sur oftc) que sur la mailing-list d'ailleurs.
Enfin, de l'expérience que j'ai de ceph, pour du block device (rados bloc device), ceph n'est pas le plus approprié si besoin de faible latence ou de beaucoup d'I/O en mono thread (ie un seul client) pour des workloads globales avec de la virtu, ça rend un bon service et c'est plutôt résilient.
Bonne journée à tous