Bonjour à tous, pour éviter de me "coincer" avec VSAN de vmware, un presta me propose de passer par StorMagic qui semble plus souple que VSAN surtout pour la partie accés disques (direct, FC, ISCSI ...), certain d'entre vous on un retour d'expérience la dessus ?

merci par avance jerome :)

Le 23 juin 2017 à 18:55, <frsag@jack.fr.eu.org> a écrit :
Aucune idée, je n'ai jamais utilisé les deux projets dont tu parles

Attention cependant, Ceph n'a pas vraiment le même usage que les deux fs
que tu cites (qui sont des fs, alors que Ceph fait du stockage object,
stockage de block dans le cas de rbd)

Niveau performance, je trouve cela très confortable en lecture, un poil
moins en écriture (le fix qui corrige ce problème de design arrive dans
la prochaine release, dont la RC1 est sortie aujourd'hui)

Cela dépends également du matériel que tu utilises (j'ai la version du
pauvre, c'est à dire que les journaux ne sont pas sur SSD)

On 23/06/2017 13:34, Jean-Baptiste COUPIAC wrote:
> Ok, merci
>
> Et niveau performance ça donne quoi ceph si on utilise librbd /qemu ? (si
> on se compare à un autre système distribué genre Refs, ocfs2,...)
>
> +
>
>
> Le 23 juin 2017 12:02 PM, "Laurent Cligny" <lcligny@neocom.fr> a écrit :
>
> Le 23/06/2017 à 11:32, Jean-Baptiste COUPIAC a écrit :
>
> En parlant de Ceph, c'est stable  ?
>
> C'est stable et plutôt robuste d'ailleurs. Notre cluster de 3 noeud (4 OSD
> par noeud) sous Ceph Kraken a résisté sans pb à une maintenance sauvage
> d'un UPS dans une baie, un noeud par terre par coupure courant, ça a
> continué tranquillement à fonctionner et ça c'est recontruit tout seul
> quand le noeud est remonté. On héberge le stockage des VM dessus, tout a
> continué à tourner sans ralentissement visible.
>
> Niveau target, ISCSI et NFS sont t'ils fonctionnels ?
>
> Il n'y a pas de target iSCSI ni NFS sur Ceph mais un client natif (rbd) et
> une gateway objet qui fait S3 et swift. La solution, en attendant que
> XenServer par exemple propose de brancher les SR en rbd natif, est de
> mapper le rbd comme un block device sur chaque noeud Ceph OSD (fonction
> native de Ceph) et de mettre un tartget ISCSI ou NFS dessus comme n'importe
> quel disque standard.
>
> Ensuite on peut carrément faire du multipath IO en iSCSI depuis Xenserver
> en se connectant sur tous les targets à la fois, ce qui donne de la haute
> dispo niveau connectivité et stockage.
>
>
>
> _______________________________________________
> Liste de diffusion du FRsAG
> http://www.frsag.org/
>


--
"UNIX was not designed to stop its users from doing stupid things, as
that would also stop them from doing clever things." – Doug Gwyn
_______________________________________________
Liste de diffusion du FRsAG
http://www.frsag.org/