Bonjour,
Pour ceux qui utilise du Ceph, c’est du home made ou plus appliance type HP apollo, Mars200 ?
Home made, déploiement avec ceph-ansible sur commodity hardware (18 nodes, 180 OSDs et 36 SSDs pour les journaux) je fais principalement du S3 mais j'ai un peu de rbd, et je teste cephfs sur un cluster de test en luminous (4 nodes, 40 OSDs et 8 SSDs pour WAL et rockDB).
Yoann
On 10 October 2017 at 16:00:42, Armanet Stephane (armanets@ill.fr mailto:armanets@ill.fr) wrote:
Bonjour a tous
Nous utilisons beaucoup ZFS sur notre infra de stockage dans divers mode (block -> Zvol +FC ou iscsi) ou filesystem.
Notre base est un/des serveur Dell R720 et baie de stockage Dell MD1200 ou MD3060e en jbod le tout sous solaris
Notre plus grosse machine heberge environ 500TB et la plus redondante est très proche de ce que propose un metro cluster netapp (ecriture synchrone entre 2 salle machine et fail over d'un noeud frontal qui fait du NFS et CIFS) pour 300TB net.
Cette infra est en prod depuis 4 ans sans problème majeur et s'est révél assez simple a gérer ( avec une bonne experience UNIX)
Bonne journée
On 10/10/2017 03:37 PM, Fabrice Vincent wrote:
Bonjour,
A job-1, sur des volumétrie inférieures, on était parti sur des NAS Synology. Avec les options cache rw SSD ou full SSD, le iSCSI Target, la HA, etc. on obtiens des fonctionnalité assez proches des baies de stockage de grand constructeurs pour une fractions du cout ! D'autant plus qu'on peut acheter les disques que l'on veut ou on veut (voir quand même la liste des HD certifiés compatibles suivant la baie). Coté couts humain, l'effort de mise en œuvre n'est pas le même qu'avec un CEPH, Gluster ou autre !
En terme de volumétrie, leur plus grosse baie actuelle a 16 emplacements et accepte 2 extensions de 12, soit un total de 40 HD. Imaginons 4 SSD en RAID 10 pour le cache RW, reste 36 HD de 12 To soit 432 To brut.
Après je ne suis pas un expert SAN et je n'ai jamais eu l'occasion de comparer en live avec une baie HP, NetAPP, EMC, ou autre (c'était hors budget !). Mais vu le différentiel prix, AMHA ça se vaut le coup de faire un PoC (avec des baies plus petites). Au pire ça ourra servir pour stocker les sauvegardes. :)
mes 2 cents...
Bonne journée, Fabrice
Le 09/10/2017 à 23:48, Bruno LEAL DE SOUSA a écrit :
Bonjour à tous,
Je suis face à une problématique, que beaucoup aujourd’hui doivent rencontrer.
Dans ce monde hyperconnecté, on se retrouve souvent à gérer des grosses volumétries.
Aujourd’hui, nous sommes équipés avec des baies HPE 3PAR 7200 (SSD/FC/NL) et 8400 (Full SSD).
Ces baies sont vraiment super, on en content du service. Cependant le cout du stockage au To est assez important.
Cela allait tant qu’on gérait des quantités « Raisonnables » mais là dernièrement ceci explose et ça ne devrait pas s’arrêter. Passage de 50To utiles à 200 en 3 ans.
Si vous avez ce genre de réflexion, n’hésitez pas ! Partager vos pensées et vos solutions pour faire face aux couts astronomiques du stockage.
Bonne soirée à tous !
--
*Bruno LEAL DE SOUSA*
Ingénieur Système et Infrastructure
Liste de diffusion du FRsAG http://www.frsag.org/
Liste de diffusion du FRsAG http://www.frsag.org/
-- ___________________________________________________________________ ARMANET Stephane Network and Data Services (ILL - DPT/SI)
Institut Laue langevin 38042 Grenoble Cedex 9 France
Tel: (33)4.76.20.78.56 email: armanets@ill.fr http://www.ill.eu
Liste de diffusion du FRsAG http://www.frsag.org/
Liste de diffusion du FRsAG http://www.frsag.org/