Bonjour,
Je suis arrivé ici il y a quelques semaines grâce à un pilier du bar@ovh... Comme il faut dire bonjour, je me lance :)
Gère des machines sous Debian/Xen avec nginx (lb, proxy et web), burp (genre bacula mais mieux), nut (gestion d'onduleurs), seafile (genre owncloud mais fiable), mailcow pour le mail (trop bien) et j'aime bien le pingouin aussi en station... dev ma propre distrib à base de debian/openbox/tint2 -pour les bécanes de la boite, afin d'avoir du stable très léger- je dev aussi, sur de l'embarqué (avr) ou plus gros...
J'aime bien partager et j'ai pas mal de tutos qui peuvent aider, sur les applications évoquées plus haut...
Stéphane
Le 06/03/2018 à 15:47, Stéphane Rivière a écrit :
Bonjour,
Je suis arrivé ici il y a quelques semaines grâce à un pilier du bar@ovh... Comme il faut dire bonjour, je me lance :)
Gère des machines sous Debian/Xen avec nginx (lb, proxy et web), burp (genre bacula mais mieux), nut (gestion d'onduleurs), seafile (genre owncloud mais fiable), mailcow pour le mail (trop bien) et j'aime bien le pingouin aussi en station... dev ma propre distrib à base de debian/openbox/tint2 -pour les bécanes de la boite, afin d'avoir du stable très léger- je dev aussi, sur de l'embarqué (avr) ou plus gros...
J'aime bien partager et j'ai pas mal de tutos qui peuvent aider, sur les applications évoquées plus haut...
Stéphane
welcome mon homonyme de prénom !
Stéphane
Bonjour Stéphane :-)
Puisque tu abordes le sujet, tu évoques Seafile et tu n'es pas le premier qui m'en parle. Ça consiste en quoi la meilleure fiabilité ?
++
Le 6 mars 2018 à 15:47, Stéphane Rivière stef@genesix.org a écrit :
Bonjour,
Je suis arrivé ici il y a quelques semaines grâce à un pilier du bar@ovh... Comme il faut dire bonjour, je me lance :)
Gère des machines sous Debian/Xen avec nginx (lb, proxy et web), burp (genre bacula mais mieux), nut (gestion d'onduleurs), seafile (genre owncloud mais fiable), mailcow pour le mail (trop bien) et j'aime bien le pingouin aussi en station... dev ma propre distrib à base de debian/openbox/tint2 -pour les bécanes de la boite, afin d'avoir du stable très léger- je dev aussi, sur de l'embarqué (avr) ou plus gros...
J'aime bien partager et j'ai pas mal de tutos qui peuvent aider, sur les applications évoquées plus haut...
Stéphane
-- Be Seeing You Number Six
Liste de diffusion du FRsAG http://www.frsag.org/
Surtout que bon nombre sont plutôt passés sous nextcloud depuis le fork... Après s'il y a des comparatifs objectifs je prends j'ai pas testé seafile
Le 6 mars 2018 17:58:45 GMT+01:00, Emmanuel Jacquet manu@formidable-inc.net a écrit :
Bonjour Stéphane :-)
Puisque tu abordes le sujet, tu évoques Seafile et tu n'es pas le premier qui m'en parle. Ça consiste en quoi la meilleure fiabilité ?
++
Le 6 mars 2018 à 15:47, Stéphane Rivière stef@genesix.org a écrit :
Bonjour,
Je suis arrivé ici il y a quelques semaines grâce à un pilier du
bar@ovh...
Comme il faut dire bonjour, je me lance :)
Gère des machines sous Debian/Xen avec nginx (lb, proxy et web), burp (genre bacula mais mieux), nut (gestion d'onduleurs), seafile (genre owncloud mais fiable), mailcow pour le mail (trop bien) et j'aime
bien le
pingouin aussi en station... dev ma propre distrib à base de debian/openbox/tint2 -pour les bécanes de la boite, afin d'avoir du
stable
très léger- je dev aussi, sur de l'embarqué (avr) ou plus gros...
J'aime bien partager et j'ai pas mal de tutos qui peuvent aider, sur
les
applications évoquées plus haut...
Stéphane
-- Be Seeing You Number Six
Liste de diffusion du FRsAG http://www.frsag.org/
-- Emmanuel Jacquet manu@formidable-inc.net
Salut
Bienvenue à toi :) Et comme pour toi seafile c'est amour :)
Km
PS : seafile ne m'a pas encore corrompu une donnée même après plantage système, owncloud n'a pas attendu longtemps pour corrompre le tout (fichier, cal, contacts, .....). PS' : seafile cherche à gérer un problème, owncloud cherche à faire le café, pas Kiss
Et comme pour toi seafile c'est amour :)
Tests sur une instance (fortement) partagée à 2 € OVH, au lancement du public cloud, lorsque les racks openstack n'avaient qu'un bus d'alim - avec des conséquences (sic) - ça bronchait pas :) Tellement pas que j'ai eu la flemme de la bouger pendant 6 mois, j'ajoutais juste des ressources disque... qui ont fini par coûter. Depuis c'est 100Go sur une toute petite VM (1go/1thread) debian/xen/raid1/lvm, une vingtaine de clients et 5 stations qui n'arrêtent pas d'écrire (c'est à l'écriture que les choses deviennent 'intéressantes ' ;).
Juste prévoir un petit cron pour purger les datas, histoire que la base ne grossisse pas.
PS' : seafile cherche à gérer un problème, owncloud cherche à faire le
Approche technique /= approche marketing.
Implémenter le core en php, rien contre ce langage, mais pour faire ça, c'est légèrement sous optimal. Connait pas nextcloud, je suppose qu'ils ont amélioré de partout, puisque désormais ça semble gazer. Le coté 'app plugin' était une bonne idée.
café, pas Kiss
Oui le Kiss devrait toujours prévaloir. On devrait se méfier de ces usines à gaz qui se présentent comme une simplification. Inévitablement, la 'simplification' se vengera :>
Bonsoir Emmanuel,
Puisque tu abordes le sujet, tu évoques Seafile et tu n'es pas le premier qui m'en parle. Ça consiste en quoi la meilleure fiabilité ?
Ayant commencé par Owncloud, j'en étais parfaitement content. Je l'avais testé quelques mois, ça semblait rouler génial et tout...
Alors je le met en prod. Evidemment, plus de monde que moi tout seul pour tester sur quelques PC... Puis quelques temps plus tard (pas eu longtemps à attendre), des fichiers ont été explosés.
Bien sûr le pétage de fichiers a été propagé sur tous les repository clients. J'aurais pas eu de sauvegardes journalisées dessus, j'étais mort. Quand même passé pour un "crétin d'admin" auprès des users :()
Creusé dans les sources d'owncloud et trouvé l'endroit où la grande décision (ce fichier a t-il été mis à jour ou pas ?) était prise et j'ai pleuré devant la criminelle naïveté de l'algo (à l'époque tout du moins, 2015/2016 de mémoire). J'avais décrit l'algo sur le bar@ovh à l'époque, pas retrouvé le message.
Puis maté le coté transfert et réalisé (toujours à l'époque) que la modif d'un bit sur un fichier d'un Go impliquait également la maj complète (je suppose aussi que c'est mieux aujourd'hui).
Alors j'ai cherché autre chose.
Trouvé seafile, qui reprend des concepts git pour la réplication et torrent pour les chunck et la déduplication (pour faire simple).
Avec pour résultat une fiabilité absolue et redoutable efficacité : un truc de 4 Go a un peu bougé ? C'est détecté à coup sûr et on ne transmet que le chunck dans lequel apparaît la modif, quelques dizaines de Ko...
Pour mieux voir comment ça marche :
https://manual.seafile.com/develop/data_model.html
https://manual.seafile.com/develop/sync_algorithm.html
https://indico.cern.ch/event/336753/contributions/1726347/attachments/658854...
On est donc très loin d'owncloud (qui fait plein d'autres choses que ne fait pas seafile toutefois). Seafile ne fait qu'une chose, mais le fait incomparablement mieux. Par ailleurs l'implémentation du moteur est en C, c'est légèrement plus efficace que le php pour ce genre de choses. En tout cas, mon cpumètre de serveur avait aimé la migration owncloud>seafile.
Des users qui sont content d'owncloud m'ont reporté une utilisation cpu modérée. Ce n'est pas ce que j'ai constaté, mais préfère le dire.
Toutefois seafile n'est pas nourri à la https://www.poudreverte.org :
Si Bob et Alice chargent Toto.txt, puis sauvent avec des modifs différentes, on obtiendra un nouveau Toto.txt et pour le second (le dernier arrivé) un Toto-Conflict_User_GDH.txt (groupe date heure).
Charge à Bob et/ou Alice d'y mettre bon ordre à la main.
Ca m'est arrivé, entre moi-même (sic), des versions de fichiers sauvés à partir de différentes machines... (le con). Du coup j'ai rien perdu et bien constaté que seafile gère parfaitement des sauvegardes multiples de version différentes : il laisse à l'humain le soin de choisir la bonne version du fichier et "ne pense pas à sa place".
Seafile a une version libre (50 users ou users illimités je ne sais plus) qui est très bien, une "complète payante mais gratuite (sic)" (3 users), puis une payante pas chère (100$ pour 9 users) et c'est après que ça se gâte (le prix par siège devient plus coûteux).
La version non libre a (presque que) des fonctions pas fondamentales pour un usage tpe (mise en avant des derniers fichiers modifiés, des logs, des validations par machine, LDAP...). A voir selon le besoin. La version libre est très bien.
La "mise en avant des derniers fichiers modifiés", imho la seule fonction réellement utile de la version payante, peut être implémentée avec un utilitaire windows "Everything" correctement paramétré ou avec un utilitaire Linux (qu'il me reste à découvrir, sic) - j'ai pas besoin de cette fonction pour l'instant.
L'app android est gratuite et ça permet aussi d'avoir les photos qui arrivent direct dans le drive sans rien faire (une case à cocher).
J'ai un tuto validé tout prêt à dispo (avec nginx, je n'utilise plus apache). Pré-requis : - MariaDB ; - Nginx ; - Groupe de Diffie-Hellman fort (c'est mieux) ; - Certificat Letsencrypt à jour.
Bien sûr le client seafile est multi-serveurs et un serveur seafile est multi-dossiers dans un seul compte. J'ai trois serveurs dans des vm séparées (soc 1 et soc 2 avec n comptes, perso avec plusieurs dossiers et 7 comptes avec des droits différents).
Le chiffrement des chunks sur un serveur seafile contenait, il y a encore quelques temps, une faille parait-il exploitable. Encore faut-il bien sûr avoir l'accès root dessus pour ensuite tenter de casser le chiffre selon l'exploit qui est parfaitement documenté sur le net (je n'ai pas le niveau pour juger de la validité du POC). Je signale ce point par objectivité. Perso je m'en fiche. Si accès root, j'ai un problème immédiat bien plus grave.
Tu l'auras compris, j'adore seafile :)
Les bugs de owncloud étaient effectivement dur à supporter au début.
A présent NextCloud assure très bien et j'ai plusieurs PME qui l'utilisent de façon intensive (multi desktop / smartphone / tablette par compte souvent en même temps). Le seul reproche que j'ai à faire c'est le stockage externe Swift / S3 qui s'intègre pas comme racine des comptes mais en tant que sous répertoire. Du coup dur de proposer une solution où le stockage n'est pas local, les utilisateurs ayant tendance de tout mettre à la racine.
Seafile je l'ai écarté par le côté restrictif des différences entre la version open source et pro. Certains clients n'iront pas payer des comptes à des prix hallucinants pour un compte pour un prestataire externe qui doit juste déposer une fois pas mois des fichiers. Et pourtant on les encourage à prendre du support payant mais là c'était vraiment pas tenable pour une boite de 40 personnes avec 120 comptes externes.
Sinon en très bien aussi https://syncthing.net/ mais moins orienté client.
Le 06/03/2018 à 19:33, Stéphane Rivière a écrit :
Bonsoir Emmanuel,
Puisque tu abordes le sujet, tu évoques Seafile et tu n'es pas le premier qui m'en parle. Ça consiste en quoi la meilleure fiabilité ?
Ayant commencé par Owncloud, j'en étais parfaitement content. Je l'avais testé quelques mois, ça semblait rouler génial et tout...
Alors je le met en prod. Evidemment, plus de monde que moi tout seul pour tester sur quelques PC... Puis quelques temps plus tard (pas eu longtemps à attendre), des fichiers ont été explosés.
Bien sûr le pétage de fichiers a été propagé sur tous les repository clients. J'aurais pas eu de sauvegardes journalisées dessus, j'étais mort. Quand même passé pour un "crétin d'admin" auprès des users :()
Creusé dans les sources d'owncloud et trouvé l'endroit où la grande décision (ce fichier a t-il été mis à jour ou pas ?) était prise et j'ai pleuré devant la criminelle naïveté de l'algo (à l'époque tout du moins, 2015/2016 de mémoire). J'avais décrit l'algo sur le bar@ovh à l'époque, pas retrouvé le message.
Puis maté le coté transfert et réalisé (toujours à l'époque) que la modif d'un bit sur un fichier d'un Go impliquait également la maj complète (je suppose aussi que c'est mieux aujourd'hui).
Alors j'ai cherché autre chose.
Trouvé seafile, qui reprend des concepts git pour la réplication et torrent pour les chunck et la déduplication (pour faire simple).
Avec pour résultat une fiabilité absolue et redoutable efficacité : un truc de 4 Go a un peu bougé ? C'est détecté à coup sûr et on ne transmet que le chunck dans lequel apparaît la modif, quelques dizaines de Ko...
Pour mieux voir comment ça marche :
https://manual.seafile.com/develop/data_model.html
https://manual.seafile.com/develop/sync_algorithm.html
https://indico.cern.ch/event/336753/contributions/1726347/attachments/658854...
On est donc très loin d'owncloud (qui fait plein d'autres choses que ne fait pas seafile toutefois). Seafile ne fait qu'une chose, mais le fait incomparablement mieux. Par ailleurs l'implémentation du moteur est en C, c'est légèrement plus efficace que le php pour ce genre de choses. En tout cas, mon cpumètre de serveur avait aimé la migration owncloud>seafile.
Des users qui sont content d'owncloud m'ont reporté une utilisation cpu modérée. Ce n'est pas ce que j'ai constaté, mais préfère le dire.
Toutefois seafile n'est pas nourri à la https://www.poudreverte.org :
Si Bob et Alice chargent Toto.txt, puis sauvent avec des modifs différentes, on obtiendra un nouveau Toto.txt et pour le second (le dernier arrivé) un Toto-Conflict_User_GDH.txt (groupe date heure).
Charge à Bob et/ou Alice d'y mettre bon ordre à la main.
Ca m'est arrivé, entre moi-même (sic), des versions de fichiers sauvés à partir de différentes machines... (le con). Du coup j'ai rien perdu et bien constaté que seafile gère parfaitement des sauvegardes multiples de version différentes : il laisse à l'humain le soin de choisir la bonne version du fichier et "ne pense pas à sa place".
Seafile a une version libre (50 users ou users illimités je ne sais plus) qui est très bien, une "complète payante mais gratuite (sic)" (3 users), puis une payante pas chère (100$ pour 9 users) et c'est après que ça se gâte (le prix par siège devient plus coûteux).
La version non libre a (presque que) des fonctions pas fondamentales pour un usage tpe (mise en avant des derniers fichiers modifiés, des logs, des validations par machine, LDAP...). A voir selon le besoin. La version libre est très bien.
La "mise en avant des derniers fichiers modifiés", imho la seule fonction réellement utile de la version payante, peut être implémentée avec un utilitaire windows "Everything" correctement paramétré ou avec un utilitaire Linux (qu'il me reste à découvrir, sic) - j'ai pas besoin de cette fonction pour l'instant.
L'app android est gratuite et ça permet aussi d'avoir les photos qui arrivent direct dans le drive sans rien faire (une case à cocher).
J'ai un tuto validé tout prêt à dispo (avec nginx, je n'utilise plus apache). Pré-requis :
- MariaDB ;
- Nginx ;
- Groupe de Diffie-Hellman fort (c'est mieux) ;
- Certificat Letsencrypt à jour.
Bien sûr le client seafile est multi-serveurs et un serveur seafile est multi-dossiers dans un seul compte. J'ai trois serveurs dans des vm séparées (soc 1 et soc 2 avec n comptes, perso avec plusieurs dossiers et 7 comptes avec des droits différents).
Le chiffrement des chunks sur un serveur seafile contenait, il y a encore quelques temps, une faille parait-il exploitable. Encore faut-il bien sûr avoir l'accès root dessus pour ensuite tenter de casser le chiffre selon l'exploit qui est parfaitement documenté sur le net (je n'ai pas le niveau pour juger de la validité du POC). Je signale ce point par objectivité. Perso je m'en fiche. Si accès root, j'ai un problème immédiat bien plus grave.
Tu l'auras compris, j'adore seafile :)
Bonsoir
Pydio est très bien aussi comme soft open source pour faire cela
Le 6 mars 2018 à 20:41, Wallace wallace@morkitu.org a écrit :
Les bugs de owncloud étaient effectivement dur à supporter au début.
A présent NextCloud assure très bien et j'ai plusieurs PME qui l'utilisent de façon intensive (multi desktop / smartphone / tablette par compte souvent en même temps). Le seul reproche que j'ai à faire c'est le stockage externe Swift / S3 qui s'intègre pas comme racine des comptes mais en tant que sous répertoire. Du coup dur de proposer une solution où le stockage n'est pas local, les utilisateurs ayant tendance de tout mettre à la racine.
Seafile je l'ai écarté par le côté restrictif des différences entre la version open source et pro. Certains clients n'iront pas payer des comptes à des prix hallucinants pour un compte pour un prestataire externe qui doit juste déposer une fois pas mois des fichiers. Et pourtant on les encourage à prendre du support payant mais là c'était vraiment pas tenable pour une boite de 40 personnes avec 120 comptes externes.
Sinon en très bien aussi https://syncthing.net/ mais moins orienté client.
Le 06/03/2018 à 19:33, Stéphane Rivière a écrit : Bonsoir Emmanuel,
Puisque tu abordes le sujet, tu évoques Seafile et tu n'es pas le premier qui m'en parle. Ça consiste en quoi la meilleure fiabilité ?
Ayant commencé par Owncloud, j'en étais parfaitement content. Je l'avais testé quelques mois, ça semblait rouler génial et tout...
Alors je le met en prod. Evidemment, plus de monde que moi tout seul pour tester sur quelques PC... Puis quelques temps plus tard (pas eu longtemps à attendre), des fichiers ont été explosés.
Bien sûr le pétage de fichiers a été propagé sur tous les repository clients. J'aurais pas eu de sauvegardes journalisées dessus, j'étais mort. Quand même passé pour un "crétin d'admin" auprès des users :()
Creusé dans les sources d'owncloud et trouvé l'endroit où la grande décision (ce fichier a t-il été mis à jour ou pas ?) était prise et j'ai pleuré devant la criminelle naïveté de l'algo (à l'époque tout du moins, 2015/2016 de mémoire). J'avais décrit l'algo sur le bar@ovh à l'époque, pas retrouvé le message.
Puis maté le coté transfert et réalisé (toujours à l'époque) que la modif d'un bit sur un fichier d'un Go impliquait également la maj complète (je suppose aussi que c'est mieux aujourd'hui).
Alors j'ai cherché autre chose.
Trouvé seafile, qui reprend des concepts git pour la réplication et torrent pour les chunck et la déduplication (pour faire simple).
Avec pour résultat une fiabilité absolue et redoutable efficacité : un truc de 4 Go a un peu bougé ? C'est détecté à coup sûr et on ne transmet que le chunck dans lequel apparaît la modif, quelques dizaines de Ko...
Pour mieux voir comment ça marche :
https://manual.seafile.com/develop/data_model.html
https://manual.seafile.com/develop/sync_algorithm.html
https://indico.cern.ch/event/336753/contributions/1726347/attachments/658854...
On est donc très loin d'owncloud (qui fait plein d'autres choses que ne fait pas seafile toutefois). Seafile ne fait qu'une chose, mais le fait incomparablement mieux. Par ailleurs l'implémentation du moteur est en C, c'est légèrement plus efficace que le php pour ce genre de choses. En tout cas, mon cpumètre de serveur avait aimé la migration owncloud>seafile.
Des users qui sont content d'owncloud m'ont reporté une utilisation cpu modérée. Ce n'est pas ce que j'ai constaté, mais préfère le dire.
Toutefois seafile n'est pas nourri à la https://www.poudreverte.org :
Si Bob et Alice chargent Toto.txt, puis sauvent avec des modifs différentes, on obtiendra un nouveau Toto.txt et pour le second (le dernier arrivé) un Toto-Conflict_User_GDH.txt (groupe date heure).
Charge à Bob et/ou Alice d'y mettre bon ordre à la main.
Ca m'est arrivé, entre moi-même (sic), des versions de fichiers sauvés à partir de différentes machines... (le con). Du coup j'ai rien perdu et bien constaté que seafile gère parfaitement des sauvegardes multiples de version différentes : il laisse à l'humain le soin de choisir la bonne version du fichier et "ne pense pas à sa place".
Seafile a une version libre (50 users ou users illimités je ne sais plus) qui est très bien, une "complète payante mais gratuite (sic)" (3 users), puis une payante pas chère (100$ pour 9 users) et c'est après que ça se gâte (le prix par siège devient plus coûteux).
La version non libre a (presque que) des fonctions pas fondamentales pour un usage tpe (mise en avant des derniers fichiers modifiés, des logs, des validations par machine, LDAP...). A voir selon le besoin. La version libre est très bien.
La "mise en avant des derniers fichiers modifiés", imho la seule fonction réellement utile de la version payante, peut être implémentée avec un utilitaire windows "Everything" correctement paramétré ou avec un utilitaire Linux (qu'il me reste à découvrir, sic) - j'ai pas besoin de cette fonction pour l'instant.
L'app android est gratuite et ça permet aussi d'avoir les photos qui arrivent direct dans le drive sans rien faire (une case à cocher).
J'ai un tuto validé tout prêt à dispo (avec nginx, je n'utilise plus apache). Pré-requis :
- MariaDB ;
- Nginx ;
- Groupe de Diffie-Hellman fort (c'est mieux) ;
- Certificat Letsencrypt à jour.
Bien sûr le client seafile est multi-serveurs et un serveur seafile est multi-dossiers dans un seul compte. J'ai trois serveurs dans des vm séparées (soc 1 et soc 2 avec n comptes, perso avec plusieurs dossiers et 7 comptes avec des droits différents).
Le chiffrement des chunks sur un serveur seafile contenait, il y a encore quelques temps, une faille parait-il exploitable. Encore faut-il bien sûr avoir l'accès root dessus pour ensuite tenter de casser le chiffre selon l'exploit qui est parfaitement documenté sur le net (je n'ai pas le niveau pour juger de la validité du POC). Je signale ce point par objectivité. Perso je m'en fiche. Si accès root, j'ai un problème immédiat bien plus grave.
Tu l'auras compris, j'adore seafile :)
Liste de diffusion du FRsAG http://www.frsag.org/
Je ne sais pas pour les autres serveurs, mais pydio (en tout cas la version 6) décède assez rapidement quand on lui demande de télécharger un dossier de quelques Go via l'interface web : il tente de zipper les fichiers, et la charge élimine lentement le serveur (après on s'est retrouvés avec des utilisateurs qui téléchargeaient des dossiers de quelques To, forcément ça se passait mal…).
On avait « résolu » ça par un patch qui interdit le téléchargement des gros dossiers, de mémoire, mais c'était une limitation notable, là où il aurait probablement pu streamer un .tar.gz depuis le disque dur sans création de fichier temporaire (et donc requête de l'utilisateur qui timeout avant le début du transfert, utilisateur qui réessaie alors que le démon de zipping tourne encore, et charge du serveur qui monte jusqu'à le rendre totalement inaccessible si on n'intervient pas).
Après bon, est-ce que les autres font mieux, je n'en ai aucune idée, mais c'est toujours un data point.
(Ah et aussi WebRTC ne marchait pas out-of-the-box en suivant le manuel, après on ne s'est pas fatigués plus que ça sur le sujet, donc il faut potentiellement pas grand chose pour que ça marche bien.)
On 03/07/2018 12:08 AM, Guillaume Tournat wrote:
Bonsoir
Pydio est très bien aussi comme soft open source pour faire cela
Le 6 mars 2018 à 20:41, Wallace <wallace@morkitu.org mailto:wallace@morkitu.org> a écrit :
Les bugs de owncloud étaient effectivement dur à supporter au début.
A présent NextCloud assure très bien et j'ai plusieurs PME qui l'utilisent de façon intensive (multi desktop / smartphone / tablette par compte souvent en même temps). Le seul reproche que j'ai à faire c'est le stockage externe Swift / S3 qui s'intègre pas comme racine des comptes mais en tant que sous répertoire. Du coup dur de proposer une solution où le stockage n'est pas local, les utilisateurs ayant tendance de tout mettre à la racine.
Seafile je l'ai écarté par le côté restrictif des différences entre la version open source et pro. Certains clients n'iront pas payer des comptes à des prix hallucinants pour un compte pour un prestataire externe qui doit juste déposer une fois pas mois des fichiers. Et pourtant on les encourage à prendre du support payant mais là c'était vraiment pas tenable pour une boite de 40 personnes avec 120 comptes externes.
Sinon en très bien aussi https://syncthing.net/ mais moins orienté client.
Le 06/03/2018 à 19:33, Stéphane Rivière a écrit :
Bonsoir Emmanuel,
Puisque tu abordes le sujet, tu évoques Seafile et tu n'es pas le premier qui m'en parle. Ça consiste en quoi la meilleure fiabilité ?
Ayant commencé par Owncloud, j'en étais parfaitement content. Je l'avais testé quelques mois, ça semblait rouler génial et tout...
Alors je le met en prod. Evidemment, plus de monde que moi tout seul pour tester sur quelques PC... Puis quelques temps plus tard (pas eu longtemps à attendre), des fichiers ont été explosés.
Bien sûr le pétage de fichiers a été propagé sur tous les repository clients. J'aurais pas eu de sauvegardes journalisées dessus, j'étais mort. Quand même passé pour un "crétin d'admin" auprès des users :()
Creusé dans les sources d'owncloud et trouvé l'endroit où la grande décision (ce fichier a t-il été mis à jour ou pas ?) était prise et j'ai pleuré devant la criminelle naïveté de l'algo (à l'époque tout du moins, 2015/2016 de mémoire). J'avais décrit l'algo sur le bar@ovh à l'époque, pas retrouvé le message.
Puis maté le coté transfert et réalisé (toujours à l'époque) que la modif d'un bit sur un fichier d'un Go impliquait également la maj complète (je suppose aussi que c'est mieux aujourd'hui).
Alors j'ai cherché autre chose.
Trouvé seafile, qui reprend des concepts git pour la réplication et torrent pour les chunck et la déduplication (pour faire simple).
Avec pour résultat une fiabilité absolue et redoutable efficacité : un truc de 4 Go a un peu bougé ? C'est détecté à coup sûr et on ne transmet que le chunck dans lequel apparaît la modif, quelques dizaines de Ko...
Pour mieux voir comment ça marche :
https://manual.seafile.com/develop/data_model.html
https://manual.seafile.com/develop/sync_algorithm.html
https://indico.cern.ch/event/336753/contributions/1726347/attachments/658854...
On est donc très loin d'owncloud (qui fait plein d'autres choses que ne fait pas seafile toutefois). Seafile ne fait qu'une chose, mais le fait incomparablement mieux. Par ailleurs l'implémentation du moteur est en C, c'est légèrement plus efficace que le php pour ce genre de choses. En tout cas, mon cpumètre de serveur avait aimé la migration owncloud>seafile.
Des users qui sont content d'owncloud m'ont reporté une utilisation cpu modérée. Ce n'est pas ce que j'ai constaté, mais préfère le dire.
Toutefois seafile n'est pas nourri à la https://www.poudreverte.org :
Si Bob et Alice chargent Toto.txt, puis sauvent avec des modifs différentes, on obtiendra un nouveau Toto.txt et pour le second (le dernier arrivé) un Toto-Conflict_User_GDH.txt (groupe date heure).
Charge à Bob et/ou Alice d'y mettre bon ordre à la main.
Ca m'est arrivé, entre moi-même (sic), des versions de fichiers sauvés à partir de différentes machines... (le con). Du coup j'ai rien perdu et bien constaté que seafile gère parfaitement des sauvegardes multiples de version différentes : il laisse à l'humain le soin de choisir la bonne version du fichier et "ne pense pas à sa place".
Seafile a une version libre (50 users ou users illimités je ne sais plus) qui est très bien, une "complète payante mais gratuite (sic)" (3 users), puis une payante pas chère (100$ pour 9 users) et c'est après que ça se gâte (le prix par siège devient plus coûteux).
La version non libre a (presque que) des fonctions pas fondamentales pour un usage tpe (mise en avant des derniers fichiers modifiés, des logs, des validations par machine, LDAP...). A voir selon le besoin. La version libre est très bien.
La "mise en avant des derniers fichiers modifiés", imho la seule fonction réellement utile de la version payante, peut être implémentée avec un utilitaire windows "Everything" correctement paramétré ou avec un utilitaire Linux (qu'il me reste à découvrir, sic) - j'ai pas besoin de cette fonction pour l'instant.
L'app android est gratuite et ça permet aussi d'avoir les photos qui arrivent direct dans le drive sans rien faire (une case à cocher).
J'ai un tuto validé tout prêt à dispo (avec nginx, je n'utilise plus apache). Pré-requis :
- MariaDB ;
- Nginx ;
- Groupe de Diffie-Hellman fort (c'est mieux) ;
- Certificat Letsencrypt à jour.
Bien sûr le client seafile est multi-serveurs et un serveur seafile est multi-dossiers dans un seul compte. J'ai trois serveurs dans des vm séparées (soc 1 et soc 2 avec n comptes, perso avec plusieurs dossiers et 7 comptes avec des droits différents).
Le chiffrement des chunks sur un serveur seafile contenait, il y a encore quelques temps, une faille parait-il exploitable. Encore faut-il bien sûr avoir l'accès root dessus pour ensuite tenter de casser le chiffre selon l'exploit qui est parfaitement documenté sur le net (je n'ai pas le niveau pour juger de la validité du POC). Je signale ce point par objectivité. Perso je m'en fiche. Si accès root, j'ai un problème immédiat bien plus grave.
Tu l'auras compris, j'adore seafile :)
Liste de diffusion du FRsAG http://www.frsag.org/
Liste de diffusion du FRsAG http://www.frsag.org/
Après bon, est-ce que les autres font mieux, je n'en ai aucune idée,
Pour seafile, c'est no soussaï. Il ne met à jour que la portion modifiée (modulo la taille du chunck).
Les critiques de seafile : - la version pro a plein de fonctionnalités utiles pour des structures autres que tpe - jusqu'à 3 users, elle est gratuite (suffit de s'inscrire) - jusqu'à 9 users, le coût est anecdotique (80€/an), ensuite ça se gâte, mais à rapporter au CA
Le premier gros manque de la libre est la mise en évidence des derniers fichiers modifiés. Réglé avec Everything sous windows qui, bien paramétré, présente, toujours dispo dans le tray, la liste par ancienneté des derniers fichiers modifiés. J'aimerai bien connaître *l'équivalent* sous Nux (pas trouvé pour l'instant) : çad juste un truc qui affiche une jolie liste par date décroissante sur l'ensemble d'une arborescence.
L'intégration ldap n'est pas dans la version libre. Les logs de la version libre sont de très bas niveau.
Maintenant, ça peut être rassurant (et fair-play) de supporter une application aussi solide et efficace (dont la version libre assure l'essentiel) et qui permet d'être tellement plus efficace, tout en gardant ses données au chaud.
Bonjour,
Je connaissais pas du tout BRUP, tu pourrais m'en dire plus ? tu l'utilise aussi sur des postes Windows ou juste Linux ? Tu as déjà eu des problèmes avec ?
de mon coté j'utilise Veeam pour la partie VMWare et Hyper-V et rdiff-backup pour la partie Libvirt/QEMU/KVM
rdiff-backup marche pas mal mais je suis curieux du support de VSS par BURP
Sébastien
Le 06-03-18 à 15:47, Stéphane Rivière a écrit :
Bonjour,
Je suis arrivé ici il y a quelques semaines grâce à un pilier du bar@ovh... Comme il faut dire bonjour, je me lance :)
Gère des machines sous Debian/Xen avec nginx (lb, proxy et web), burp (genre bacula mais mieux), nut (gestion d'onduleurs), seafile (genre owncloud mais fiable), mailcow pour le mail (trop bien) et j'aime bien le pingouin aussi en station... dev ma propre distrib à base de debian/openbox/tint2 -pour les bécanes de la boite, afin d'avoir du stable très léger- je dev aussi, sur de l'embarqué (avr) ou plus gros...
J'aime bien partager et j'ai pas mal de tutos qui peuvent aider, sur les applications évoquées plus haut...
Stéphane
Le 07/03/2018 à 09:34, Sebastien Caps a écrit :
Bonjour,
Je connaissais pas du tout BRUP, tu pourrais m'en dire plus ? tu l'utilise aussi sur des postes Windows ou juste Linux ?
dozes 7, nuxs debian 8 et 9 stables (portables, stations et serveurs), je dois le mettre sur un mac aussi (il parait que ça se fait, on verra).
https://stef.genesix.org/pub/burp-et-Burp-UI.pdf
Vieux tuto (01/17), sera mis à jour cette année et en passé en anglais (vieille promesse pour le dev de burp-gui). Burp est utilisé sur l'intranet depuis un an. Environ 5To de sauvés. Les portables se sauvent tous seuls quand ils passent au bureau. Généralisé sur les serveurs OVH cette année.
Tu as déjà eu des problèmes avec ?
Non. J'ai lourdement loggué et je surveille les CR par email. Rien à dire. J'ai dû faire des restaurations partielles. Deux ou trois fois. Même pas cherché à le faire en CLI, passé par le GUI (optionnel), le GUI est réactif pour sélectionner des bouts d'aborescences.
Ca a chaque fois gazé, avec un petit message d'insulte du GUI à la fin pour être objectif, mais pas cherché plus, la restauration s'étant bien passé.
Le gui (python) est joliment fait par un admin french, super sympa et réactif.
Donc burp et burp-ui, deux projets séparés mais les devs communiquent bien et sont très actifs.
Semble très utilisé et spontanément sponsorisé ($) par les utilisateurs (les dons sont listés tous les mois). MLs très actives.
rdiff-backup marche pas mal mais je suis curieux du support de VSS par BURP
Il le fait. A vérifier, car je n'ai pas testé (de moins en moins de bécanes sous doze).
Regarde le tuto et donc les liens vers le site de l'auteur de Burp, qui est un ancien dev de bacula, il explique pourquoi il a fait burp, suite à toutes les difficultés liées aux concepts de bacula.
Burp est kiss, ce sont les clients qui initient (donc on traverse les fw par défaut), création des certs auto, etc... Le set de sauvegarde peut être contrôlé coté client ou coté admin (c'est génial pour centraliser tous les sets sur une seule machine). Inversement la confidentialité des données clients peut être gérée.
Ah oui, les sets de sauvegarde (de simples fichiers textes) peuvent s'inclure... donc on simplifie beaucoup en modularisant les scripts.
Découvert en m'intéressant à bacula (*) Enfin, perso, ça me convient et ça juste marche...
(*) Juste eu très peur en lisant la doc sur bacula. L'idée même de devoir sauver séparément les données de bacula (une base sql, de mémoire) me semble pas kiss : sauver <séparément> le catalogue des sauvegardes (qui ne font donc pas partie de la sauvegarde elle-même), ça me semble juste "légèrement suicidaire" (sic).