Le 31/10/2013 15:56, Mathieu Arnold a écrit :
+--On 31 octobre 2013 11:24:16 +0100 Guillaume Friloux guillaume.friloux@asp64.com wrote: | Sur tous les tests que j'ai fait, plus mon experience en prod (5 ans chez | un vendeur de solutions de sauvegarde) + les diverses confs que j ai vu | (je pense notamment a la conf zfs faite par gandi/beorn), je deconseille | l utilisation de la deduplication. Son cout par rapport au gain est | vraiment peu interessant dans la tres grande majorite des cas. que ce | soit de la deduplication au niveau bloc comme au niveau fichier.
Je plussoie grandement, pour que ça fonctionne de manière utilisable, (c'est à dire ou on peut écrire sur le disque sans trop de latence,) il faut que le checksum de tous les blocs du pool tiennent en mémoire, et ça veut dire que ça va prendre *beaucoup* de mémoire.
[...]
Hello,
Juste en passant, je ne connais pas assez ZFS pour savoir. N'y a-t-il pas un moyen de faire de la déduplication en batch plutôt qu'à la volée ? Ça consommerait de la mémoire que pendant ce traitement, le reste du temps, pas d'overhead ni de conso mémoire.