Hello la liste,
Je cherche une solution pour monter un gros NAS (15-20 disques SATA) qui soit un minimum "pro" (shelf de disque, etc...) mais dans un format "bureau" et pas rackable 19" car je pense que ca va faire un peu trop de bruit dans les locaux.
Ou alors une solution pour utiliser les classiques shelfs & hba sur serveur en format 19" mais sans le bruit associé.
Au dela de ça, est-ce que ca existe une solution de ce type avec l'OS/le software clé en main pour fournir un service NAS SMB/AFP sur le lan ?
L'idée générale est d'éviter le DIY de la maxi-tour gavée de disques sous debian/samba/netatalk maison avec laquelle j'ai un max de problème en ce moment (kernels panics dans tous les sens sans arriver à en trouver la cause).
J'espère que c'est clair....
Merci d'avance,
Salut,
Non, c'est pas très clair pour moi :-) Tu veux un boîtier format tour ? Ou un serveur xU ? Pour le silence, mise à part utiliser des disques SSD, ça fera tjs du bruit ! (sauf à utiliser des "patins" en caoutchou pour amortir les vibrations des disques etc etc...).
Sinon, pour la partie logicielle / OS, si tu ne veux pas te prendre la tête, je te conseille FreeNAS qui est parfait pour ce genre de besoin.
Le 10 août 2011 17:37, Simon Morvan garphy@zone84.net a écrit :
Hello la liste,
Je cherche une solution pour monter un gros NAS (15-20 disques SATA) qui soit un minimum "pro" (shelf de disque, etc...) mais dans un format "bureau" et pas rackable 19" car je pense que ca va faire un peu trop de bruit dans les locaux.
Ou alors une solution pour utiliser les classiques shelfs & hba sur serveur en format 19" mais sans le bruit associé.
Au dela de ça, est-ce que ca existe une solution de ce type avec l'OS/le software clé en main pour fournir un service NAS SMB/AFP sur le lan ?
L'idée générale est d'éviter le DIY de la maxi-tour gavée de disques sous debian/samba/netatalk maison avec laquelle j'ai un max de problème en ce moment (kernels panics dans tous les sens sans arriver à en trouver la cause).
J'espère que c'est clair....
Merci d'avance,
-- Simon
______________________________**_________________ Liste de diffusion du FRsAG http://www.frsag.org/
Le 10/08/2011 17:41, Ludovic Cartier a écrit :
Salut,
Non, c'est pas très clair pour moi :-) Tu veux un boîtier format tour ? Ou un serveur xU ? Pour le silence, mise à part utiliser des disques SSD, ça fera tjs du bruit ! (sauf à utiliser des "patins" en caoutchou pour amortir les vibrations des
La j'ai un grand boitier lian-li avec 15 disque SATA dedans, ca fait pas un bruit.
Le problème c'est que c'est (je constate, je pensais pas) méga instable. il y a 8 disques sur une carte lsi en raid matériel et 5 disques en direct sur la CM en raid soft (mdadm) (+2 petit SATA pour l'OS) : ca n'arrete pas de planter (kernel panics, gpf, ...). Après s'il y a des pistes pour faire marcher correctement cette bete la, je suis preneur.
Je me disais juste qu'il y a peu etre des solution un peu plus "packagée" et moins DIY. Je pensais par exemple, au moins, sortir les disques dans un shelf et mettre une carte HBA SAS sur le serveur. Comme ca, le linux ne gère pas les disques lui meme. Mais je ne trouve pas de trucs très sympatiques qui irai dans un contexte de bureau et non de DC. Cela dit, il y a peut etre des solution pour faire avec des boitier xU dans une sorte de mini-baie pour l'aspect bruit...
Sinon, pour la partie logicielle / OS, si tu ne veux pas te prendre la tête, je te conseille FreeNAS qui est parfait pour ce genre de besoin.
Je vais regarder.
Le 10 août 2011 17:37, Simon Morvan <garphy@zone84.net mailto:garphy@zone84.net> a écrit :
Hello la liste, Je cherche une solution pour monter un gros NAS (15-20 disques SATA) qui soit un minimum "pro" (shelf de disque, etc...) mais dans un format "bureau" et pas rackable 19" car je pense que ca va faire un peu trop de bruit dans les locaux. Ou alors une solution pour utiliser les classiques shelfs & hba sur serveur en format 19" mais sans le bruit associé. Au dela de ça, est-ce que ca existe une solution de ce type avec l'OS/le software clé en main pour fournir un service NAS SMB/AFP sur le lan ? L'idée générale est d'éviter le DIY de la maxi-tour gavée de disques sous debian/samba/netatalk maison avec laquelle j'ai un max de problème en ce moment (kernels panics dans tous les sens sans arriver à en trouver la cause). J'espère que c'est clair.... Merci d'avance, -- Simon _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
-- Ludovic Cartier
Liste de diffusion du FRsAG http://www.frsag.org/
Ah, dans ce cas, je te conseillerais juste l'achat d'une carte contrôleur qui puisse gérer tes 15 disques, un FreeNAS, et hop, du zfs sur ces 15 disques :-)
Le 10 août 2011 17:49, Simon Morvan garphy@zone84.net a écrit :
Le 10/08/2011 17:41, Ludovic Cartier a écrit :
Salut,
Non, c'est pas très clair pour moi :-) Tu veux un boîtier format tour ? Ou un serveur xU ? Pour le silence, mise à part utiliser des disques SSD, ça fera tjs du bruit ! (sauf à utiliser des "patins" en caoutchou pour amortir les vibrations des
La j'ai un grand boitier lian-li avec 15 disque SATA dedans, ca fait pas un bruit.
Le problème c'est que c'est (je constate, je pensais pas) méga instable. il y a 8 disques sur une carte lsi en raid matériel et 5 disques en direct sur la CM en raid soft (mdadm) (+2 petit SATA pour l'OS) : ca n'arrete pas de planter (kernel panics, gpf, ...). Après s'il y a des pistes pour faire marcher correctement cette bete la, je suis preneur.
Je me disais juste qu'il y a peu etre des solution un peu plus "packagée" et moins DIY. Je pensais par exemple, au moins, sortir les disques dans un shelf et mettre une carte HBA SAS sur le serveur. Comme ca, le linux ne gère pas les disques lui meme. Mais je ne trouve pas de trucs très sympatiques qui irai dans un contexte de bureau et non de DC. Cela dit, il y a peut etre des solution pour faire avec des boitier xU dans une sorte de mini-baie pour l'aspect bruit...
Sinon, pour la partie logicielle / OS, si tu ne veux pas te prendre la
tête, je te conseille FreeNAS qui est parfait pour ce genre de besoin.
Je vais regarder.
Le 10 août 2011 17:37, Simon Morvan <garphy@zone84.net mailto: garphy@zone84.net> a écrit :
Hello la liste,
Je cherche une solution pour monter un gros NAS (15-20 disques SATA) qui soit un minimum "pro" (shelf de disque, etc...) mais dans un format "bureau" et pas rackable 19" car je pense que ca va faire un peu trop de bruit dans les locaux.
Ou alors une solution pour utiliser les classiques shelfs & hba sur serveur en format 19" mais sans le bruit associé.
Au dela de ça, est-ce que ca existe une solution de ce type avec l'OS/le software clé en main pour fournir un service NAS SMB/AFP sur le lan ?
L'idée générale est d'éviter le DIY de la maxi-tour gavée de disques sous debian/samba/netatalk maison avec laquelle j'ai un max de problème en ce moment (kernels panics dans tous les sens sans arriver à en trouver la cause).
J'espère que c'est clair....
Merci d'avance,
-- Simon
______________________________**_________________ Liste de diffusion du FRsAG http://www.frsag.org/
-- Ludovic Cartier
______________________________**_________________ Liste de diffusion du FRsAG http://www.frsag.org/
______________________________**_________________ Liste de diffusion du FRsAG http://www.frsag.org/
Question subsidiaire alors, histoire d'éliminer une cause possible de problème :
15 disques SATA (13 samsung HD204UI et 2 WDC WD2500AAJS) dans un boitier, combien de W pour l'alim ? (je pense que j'ai assez de W pour le coup et que donc c'est sur que c'est pas çà...)
Le 10/08/2011 17:51, Ludovic Cartier a écrit :
Ah, dans ce cas, je te conseillerais juste l'achat d'une carte contrôleur qui puisse gérer tes 15 disques, un FreeNAS, et hop, du zfs sur ces 15 disques :-)
Le 10 août 2011 17:49, Simon Morvan <garphy@zone84.net mailto:garphy@zone84.net> a écrit :
Le 10/08/2011 17:41, Ludovic Cartier a écrit : Salut, Non, c'est pas très clair pour moi :-) Tu veux un boîtier format tour ? Ou un serveur xU ? Pour le silence, mise à part utiliser des disques SSD, ça fera tjs du bruit ! (sauf à utiliser des "patins" en caoutchou pour amortir les vibrations des La j'ai un grand boitier lian-li avec 15 disque SATA dedans, ca fait pas un bruit. Le problème c'est que c'est (je constate, je pensais pas) méga instable. il y a 8 disques sur une carte lsi en raid matériel et 5 disques en direct sur la CM en raid soft (mdadm) (+2 petit SATA pour l'OS) : ca n'arrete pas de planter (kernel panics, gpf, ...). Après s'il y a des pistes pour faire marcher correctement cette bete la, je suis preneur. Je me disais juste qu'il y a peu etre des solution un peu plus "packagée" et moins DIY. Je pensais par exemple, au moins, sortir les disques dans un shelf et mettre une carte HBA SAS sur le serveur. Comme ca, le linux ne gère pas les disques lui meme. Mais je ne trouve pas de trucs très sympatiques qui irai dans un contexte de bureau et non de DC. Cela dit, il y a peut etre des solution pour faire avec des boitier xU dans une sorte de mini-baie pour l'aspect bruit... Sinon, pour la partie logicielle / OS, si tu ne veux pas te prendre la tête, je te conseille FreeNAS qui est parfait pour ce genre de besoin. Je vais regarder. Le 10 août 2011 17:37, Simon Morvan <garphy@zone84.net <mailto:garphy@zone84.net> <mailto:garphy@zone84.net <mailto:garphy@zone84.net>>> a écrit : Hello la liste, Je cherche une solution pour monter un gros NAS (15-20 disques SATA) qui soit un minimum "pro" (shelf de disque, etc...) mais dans un format "bureau" et pas rackable 19" car je pense que ca va faire un peu trop de bruit dans les locaux. Ou alors une solution pour utiliser les classiques shelfs & hba sur serveur en format 19" mais sans le bruit associé. Au dela de ça, est-ce que ca existe une solution de ce type avec l'OS/le software clé en main pour fournir un service NAS SMB/AFP sur le lan ? L'idée générale est d'éviter le DIY de la maxi-tour gavée de disques sous debian/samba/netatalk maison avec laquelle j'ai un max de problème en ce moment (kernels panics dans tous les sens sans arriver à en trouver la cause). J'espère que c'est clair.... Merci d'avance, -- Simon _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/ -- Ludovic Cartier _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/ _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
-- Ludovic Cartier
Liste de diffusion du FRsAG http://www.frsag.org/
HD204UI : 6.3 W en charge. WD2500AAJS : 7.8 en charge.
Donc, en gros, 90W pour tes disques.
Apres, tout dépends du matos, mais le CPU ca doit etre moins de 100W, une CM ca peut aller dans les 40W en général, pis t'as probablement pas de carte graphique... Ta carte RAID, ca doit pas faire monter tellement.
Donc en théorie moins de 300W, y'a de grandes chances que ca passe. Le souci est ptet ailleurs.
Y'a des messages particuliers au kernel panic ? Et quelle version le noyau ?
On Wed, 10 Aug 2011 17:54:58 +0200, Simon Morvan wrote:
Question subsidiaire alors, histoire d'éliminer une cause possible de problème :
15 disques SATA (13 samsung HD204UI et 2 WDC WD2500AAJS) dans un boitier, combien de W pour l'alim ? (je pense que j'ai assez de W pour le coup et que donc c'est sur que c'est pas çà...)
Le 10/08/2011 17:51, Ludovic Cartier a écrit :
Ah, dans ce cas, je te conseillerais juste l'achat d'une carte contrôleur qui puisse gérer tes 15 disques, un FreeNAS, et hop, du zfs sur ces 15 disques :-)
Le 10 août 2011 17:49, Simon Morvan <garphy@zone84.net mailto:garphy@zone84.net> a écrit :
Le 10/08/2011 17:41, Ludovic Cartier a écrit : Salut, Non, c'est pas très clair pour moi :-) Tu veux un boîtier format tour ? Ou un serveur xU ? Pour le silence, mise à part utiliser des disques SSD, ça
fera tjs du bruit ! (sauf à utiliser des "patins" en caoutchou pour amortir les vibrations des
La j'ai un grand boitier lian-li avec 15 disque SATA dedans, ca fait pas un bruit. Le problème c'est que c'est (je constate, je pensais pas) méga instable. il y a 8 disques sur une carte lsi en raid matériel et
5 disques en direct sur la CM en raid soft (mdadm) (+2 petit SATA pour l'OS) : ca n'arrete pas de planter (kernel panics, gpf, ...). Après s'il y a des pistes pour faire marcher correctement cette bete la, je suis preneur.
Je me disais juste qu'il y a peu etre des solution un peu plus "packagée" et moins DIY. Je pensais par exemple, au moins,
sortir les disques dans un shelf et mettre une carte HBA SAS sur le serveur. Comme ca, le linux ne gère pas les disques lui meme. Mais je ne trouve pas de trucs très sympatiques qui irai dans un contexte de bureau et non de DC. Cela dit, il y a peut etre des solution pour faire avec des boitier xU dans une sorte de mini-baie pour l'aspect bruit...
Sinon, pour la partie logicielle / OS, si tu ne veux pas te prendre la tête, je te conseille FreeNAS qui est parfait
pour ce genre de besoin.
Je vais regarder. Le 10 août 2011 17:37, Simon Morvan <garphy@zone84.net <mailto:garphy@zone84.net> <mailto:garphy@zone84.net <mailto:garphy@zone84.net>>> a écrit : Hello la liste, Je cherche une solution pour monter un gros NAS (15-20
disques SATA) qui soit un minimum "pro" (shelf de disque, etc...) mais dans un format "bureau" et pas rackable 19" car je pense que ca va faire un peu trop de bruit dans les locaux.
Ou alors une solution pour utiliser les classiques shelfs
& hba sur serveur en format 19" mais sans le bruit associé.
Au dela de ça, est-ce que ca existe une solution de ce
type avec l'OS/le software clé en main pour fournir un service NAS SMB/AFP sur le lan ?
L'idée générale est d'éviter le DIY de la maxi-tour gavée
de disques sous debian/samba/netatalk maison avec laquelle j'ai un max de problème en ce moment (kernels panics dans tous les sens sans arriver à en trouver la cause).
J'espère que c'est clair.... Merci d'avance, -- Simon _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/ -- Ludovic Cartier _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/ _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
-- Ludovic Cartier
Liste de diffusion du FRsAG http://www.frsag.org/
Liste de diffusion du FRsAG http://www.frsag.org/
Hello,
Le 10 août 2011 à 17:51, Ludovic Cartier a écrit :
Ah, dans ce cas, je te conseillerais juste l'achat d'une carte contrôleur qui puisse gérer tes 15 disques, un FreeNAS, et hop, du zfs sur ces 15 disques :-)
Ou si l'espace utile ne dépasse pas les 12To, il y a NexentaStor Community…
Par contre bien évidement : processeur 64Bits et au moins 4Go de RAM ZFS oblige.
Pour revenir a la solution précédente si ça fait des GPF etc… faudrait peut-être regarder si le système actuel n'as pas de pb hardware… Car il suffit que la RAM aie des emmerdes pour que ça commence sérieux a délirer.
En général sur du serveur de fichiers : RAM ECC (au mini) Registered si possible. On a déjà assez d'emmerdes a traiter avec la surface disk et les erreurs disques pour ne pas ajouter celles de la ram.
Xavier
sans les 8 disques la machines est plus stable ? ou ta toujours tout qui déconne ? Il est possible que ton alim aime pas trop.
Le 10/08/2011 17:49, Simon Morvan a écrit :
Le 10/08/2011 17:41, Ludovic Cartier a écrit :
Salut,
Non, c'est pas très clair pour moi :-) Tu veux un boîtier format tour ? Ou un serveur xU ? Pour le silence, mise à part utiliser des disques SSD, ça fera tjs du bruit ! (sauf à utiliser des "patins" en caoutchou pour amortir les vibrations des
La j'ai un grand boitier lian-li avec 15 disque SATA dedans, ca fait pas un bruit.
Le problème c'est que c'est (je constate, je pensais pas) méga instable. il y a 8 disques sur une carte lsi en raid matériel et 5 disques en direct sur la CM en raid soft (mdadm) (+2 petit SATA pour l'OS) : ca n'arrete pas de planter (kernel panics, gpf, ...). Après s'il y a des pistes pour faire marcher correctement cette bete la, je suis preneur.
Je me disais juste qu'il y a peu etre des solution un peu plus "packagée" et moins DIY. Je pensais par exemple, au moins, sortir les disques dans un shelf et mettre une carte HBA SAS sur le serveur. Comme ca, le linux ne gère pas les disques lui meme. Mais je ne trouve pas de trucs très sympatiques qui irai dans un contexte de bureau et non de DC. Cela dit, il y a peut etre des solution pour faire avec des boitier xU dans une sorte de mini-baie pour l'aspect bruit...
Sinon, pour la partie logicielle / OS, si tu ne veux pas te prendre la tête, je te conseille FreeNAS qui est parfait pour ce genre de besoin.
Je vais regarder.
Le 10 août 2011 17:37, Simon Morvan <garphy@zone84.net mailto:garphy@zone84.net> a écrit :
Hello la liste,
Je cherche une solution pour monter un gros NAS (15-20 disques SATA) qui soit un minimum "pro" (shelf de disque, etc...) mais dans un format "bureau" et pas rackable 19" car je pense que ca va faire un peu trop de bruit dans les locaux.
Ou alors une solution pour utiliser les classiques shelfs & hba sur serveur en format 19" mais sans le bruit associé.
Au dela de ça, est-ce que ca existe une solution de ce type avec l'OS/le software clé en main pour fournir un service NAS SMB/AFP sur le lan ?
L'idée générale est d'éviter le DIY de la maxi-tour gavée de disques sous debian/samba/netatalk maison avec laquelle j'ai un max de problème en ce moment (kernels panics dans tous les sens sans arriver à en trouver la cause).
J'espère que c'est clair....
Merci d'avance,
-- Simon
Le 10/08/2011 17:59, Arnaud Steyer a écrit :
Il est possible que ton alim aime pas trop.
Ouep, je me suis dit la meme chose, j'ai mis une 1000W (!), ca continue. Je blacklist autant de modules que je peux au fur et a mesure (dingue le nombre de periph inutile sur une CM grand public, finalement...)
FWIW : http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=637190
tu as testé la ram ? (j'imagine que oui) 1kw no name ? enfin de toute facon y a que le spinup des disques qui vont lui tirer dessus. Après normalement c'est beaucoup moins.
Le 10/08/2011 18:03, Simon Morvan a écrit :
Le 10/08/2011 17:59, Arnaud Steyer a écrit :
Il est possible que ton alim aime pas trop.
Ouep, je me suis dit la meme chose, j'ai mis une 1000W (!), ca continue. Je blacklist autant de modules que je peux au fur et a mesure (dingue le nombre de periph inutile sur une CM grand public, finalement...)
FWIW : http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=637190 _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Le 10/08/2011 18:14, Arnaud Steyer a écrit :
tu as testé la ram ? (j'imagine que oui)
yep, 4 heures durant
1kw no name ?
http://www.materiel.net/alimentation-pour-pc/cooler-master-silent-pro-gold-1...
depuis le changement (c'était le meme type mais en 600W au début) je n'ai plus que des kernel panic qui semblent toutes related aux disques, je vais alimenter le bugreport avec la prochaine trace, si j'arrive a la choper.
enfin de toute facon y a que le spinup des disques qui vont lui tirer dessus. Après normalement c'est beaucoup moins.
on est d'accord
Le 10/08/2011 18:03, Simon Morvan a écrit :
Le 10/08/2011 17:59, Arnaud Steyer a écrit :
Il est possible que ton alim aime pas trop.
Ouep, je me suis dit la meme chose, j'ai mis une 1000W (!), ca continue. Je blacklist autant de modules que je peux au fur et a mesure (dingue le nombre de periph inutile sur une CM grand public, finalement...)
FWIW : http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=637190 _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Liste de diffusion du FRsAG http://www.frsag.org/
Au fait, le sujet dévie, mais merci déjà a tous et quel bonheur d'avoir l'existence de cette liste !
Le 10/08/2011 18:26, Simon Morvan a écrit :
Le 10/08/2011 18:14, Arnaud Steyer a écrit :
tu as testé la ram ? (j'imagine que oui)
yep, 4 heures durant
1kw no name ?
http://www.materiel.net/alimentation-pour-pc/cooler-master-silent-pro-gold-1...
depuis le changement (c'était le meme type mais en 600W au début) je n'ai plus que des kernel panic qui semblent toutes related aux disques, je vais alimenter le bugreport avec la prochaine trace, si j'arrive a la choper.
enfin de toute facon y a que le spinup des disques qui vont lui tirer dessus. Après normalement c'est beaucoup moins.
on est d'accord
Le 10/08/2011 18:03, Simon Morvan a écrit :
Le 10/08/2011 17:59, Arnaud Steyer a écrit :
Il est possible que ton alim aime pas trop.
Ouep, je me suis dit la meme chose, j'ai mis une 1000W (!), ca continue. Je blacklist autant de modules que je peux au fur et a mesure (dingue le nombre de periph inutile sur une CM grand public, finalement...)
FWIW : http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=637190 _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Liste de diffusion du FRsAG http://www.frsag.org/
On 10/08/2011 18:26, Simon Morvan wrote: ../..
depuis le changement (c'était le meme type mais en 600W au début) je n'ai plus que des kernel panic qui semblent toutes related aux disques, je vais alimenter le bugreport avec la prochaine trace, si j'arrive a la choper.
../.. Pour information, as-tu constament des accés sur les disques ? que dis un iostat ? J'ai constaté des soucis de raid avec des mises en veille de disques peu utilisés en raid et qui lors d'accés n'arrivent pas à en sortir (utiliser des disques genre Raid Edition qui ont des firmwares spéciaux pour çà en plus d'un mtbf amélioré -peut être marketing le mtbf-) Luc.
Le 10/08/2011 18:32, Bégault Luc a écrit :
On 10/08/2011 18:26, Simon Morvan wrote: ../..
depuis le changement (c'était le meme type mais en 600W au début) je n'ai plus que des kernel panic qui semblent toutes related aux disques, je vais alimenter le bugreport avec la prochaine trace, si j'arrive a la choper.
../.. Pour information, as-tu constament des accés sur les disques ? que dis un iostat ? J'ai constaté des soucis de raid avec des mises en veille de disques peu utilisés en raid et qui lors d'accés n'arrivent pas à en sortir (utiliser des disques genre Raid Edition qui ont des firmwares spéciaux pour çà en plus d'un mtbf amélioré -peut être marketing le mtbf-) Luc.
exact j'avais lu ce genre de souci en plus, mais c’était surtout des temps d’aces super long. avec hdparm ou les softs constructeurs il y a moyen de changer ça ( hdparm -B 254 /dev ...)
Le 10/08/2011 21:32, Arnaud Steyer a écrit :
exact j'avais lu ce genre de souci en plus, mais c’était surtout des temps d’aces super long. avec hdparm ou les softs constructeurs il y a moyen de changer ça ( hdparm -B 254 /dev ...)
Alors je viens de le mettre en place pour les disques concernés par le raid-soft et (so far so good) ca tient mieux. Bon, j'ai aussi désactivé le LAN de la carte mère et mis une carte PCI à la place.
On va voir si ca re-gpf ou pas...
(une sync raid est en cours, ca stresse assez les disques, je pense)
Le 11/08/2011 11:33, Simon Morvan a écrit :
Le 10/08/2011 21:32, Arnaud Steyer a écrit :
exact j'avais lu ce genre de souci en plus, mais c’était surtout des temps d’aces super long. avec hdparm ou les softs constructeurs il y a moyen de changer ça ( hdparm -B 254 /dev ...)
Alors je viens de le mettre en place pour les disques concernés par le raid-soft et (so far so good) ca tient mieux. Bon, j'ai aussi désactivé le LAN de la carte mère et mis une carte PCI à la place.
On va voir si ca re-gpf ou pas...
(une sync raid est en cours, ca stresse assez les disques, je pense)
Comme ca tournait bien, j'ai relancé slapd pour pouvoir me connecter sous un user normal déclaré dans l'annuaire, et j'ai lancé une compilation de noyeau sous cet user (le /home de l'user étant en partie sur raid en reconstruction).
Bin... paf (PJ)
Donc du coup, la vraie question : Entre le synology DS3611xs et le DS2411+, à part la différence en nombre de baie d’extension possible et la présence ou non de port 10G, c'est assez équivalent non ?
Le 11/08/2011 12:13, Simon Morvan a écrit :
Le 11/08/2011 11:33, Simon Morvan a écrit :
Le 10/08/2011 21:32, Arnaud Steyer a écrit :
exact j'avais lu ce genre de souci en plus, mais c’était surtout des temps d’aces super long. avec hdparm ou les softs constructeurs il y a moyen de changer ça ( hdparm -B 254 /dev ...)
Alors je viens de le mettre en place pour les disques concernés par le raid-soft et (so far so good) ca tient mieux. Bon, j'ai aussi désactivé le LAN de la carte mère et mis une carte PCI à la place.
On va voir si ca re-gpf ou pas...
(une sync raid est en cours, ca stresse assez les disques, je pense)
Comme ca tournait bien, j'ai relancé slapd pour pouvoir me connecter sous un user normal déclaré dans l'annuaire, et j'ai lancé une compilation de noyeau sous cet user (le /home de l'user étant en partie sur raid en reconstruction).
Bin... paf (PJ)
Détail intressant : si je ne mount pas les filesystems, je n'ai aucun freeze. Par contre, il y a toujours un resync d'un MD (sur 5 disques) et un déplacement d'extents LVM de ce MD vers le volume raid géré par la carte LSI en cours et ca ne plante pas, alors que ca génère quand meme pas mal d'io et que ca tire sur l'alim.
Any tought ?
Un pti fsck sur tes filesystems peut-être...? Tu as un outil qui te permet de voir où en est la resync ?
Le 11 août 2011 15:45, Simon Morvan garphy@zone84.net a écrit :
Le 11/08/2011 12:13, Simon Morvan a écrit :
Le 11/08/2011 11:33, Simon Morvan a écrit :
Le 10/08/2011 21:32, Arnaud Steyer a écrit :
exact j'avais lu ce genre de souci en plus, mais c’était surtout des temps d’aces super long. avec hdparm ou les softs constructeurs il y a moyen de changer ça ( hdparm -B 254 /dev ...)
Alors je viens de le mettre en place pour les disques concernés par le raid-soft et (so far so good) ca tient mieux. Bon, j'ai aussi désactivé le LAN de la carte mère et mis une carte PCI à la place.
On va voir si ca re-gpf ou pas...
(une sync raid est en cours, ca stresse assez les disques, je pense)
Comme ca tournait bien, j'ai relancé slapd pour pouvoir me connecter sous un user normal déclaré dans l'annuaire, et j'ai lancé une compilation de noyeau sous cet user (le /home de l'user étant en partie sur raid en reconstruction).
Bin... paf (PJ)
Détail intressant : si je ne mount pas les filesystems, je n'ai aucun freeze. Par contre, il y a toujours un resync d'un MD (sur 5 disques) et un déplacement d'extents LVM de ce MD vers le volume raid géré par la carte LSI en cours et ca ne plante pas, alors que ca génère quand meme pas mal d'io et que ca tire sur l'alim.
Any tought ?
-- Simon _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Le 11/08/2011 16:09, Yves Rougy a écrit :
Un pti fsck sur tes filesystems peut-être...?
Fait il n'y a pas longtemps. Je vais le refaire quand le pvmove sera terminé (lundi, si tout va bien).
Tu as un outil qui te permet de voir où en est la resync ?
cat /proc/mdstat :
md2 : active raid5 sdd1[5] sdh1[6](S) sdg1[4] sdf1[2] sde1[1] 5860538880 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [_UUU] [==============>......] recovery = 72.5% (1416368700/1953512960) finish=8409.9min speed=1064K/sec
Le 11 août 2011 15:45, Simon Morvangarphy@zone84.net a écrit :
Le 11/08/2011 12:13, Simon Morvan a écrit :
Le 11/08/2011 11:33, Simon Morvan a écrit :
Le 10/08/2011 21:32, Arnaud Steyer a écrit :
exact j'avais lu ce genre de souci en plus, mais c’était surtout des temps d’aces super long. avec hdparm ou les softs constructeurs il y a moyen de changer ça ( hdparm -B 254 /dev ...)
Alors je viens de le mettre en place pour les disques concernés par le raid-soft et (so far so good) ca tient mieux. Bon, j'ai aussi désactivé le LAN de la carte mère et mis une carte PCI à la place.
On va voir si ca re-gpf ou pas...
(une sync raid est en cours, ca stresse assez les disques, je pense)
Comme ca tournait bien, j'ai relancé slapd pour pouvoir me connecter sous un user normal déclaré dans l'annuaire, et j'ai lancé une compilation de noyeau sous cet user (le /home de l'user étant en partie sur raid en reconstruction).
Bin... paf (PJ)
Détail intressant : si je ne mount pas les filesystems, je n'ai aucun freeze. Par contre, il y a toujours un resync d'un MD (sur 5 disques) et un déplacement d'extents LVM de ce MD vers le volume raid géré par la carte LSI en cours et ca ne plante pas, alors que ca génère quand meme pas mal d'io et que ca tire sur l'alim.
Any tought ?
-- Simon _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Liste de diffusion du FRsAG http://www.frsag.org/
T'as pas un disque qui a un soucis ? (je sais que le kernel panic peut mettre en vrac ton raid, et donc qu'il y ait une reconstruction, mais bon.).
Un petit test smart sur chacun d'entre eux pourrait être intéressant. Ce n'est pas normal que tu aies des panic ou des GPF avec le raid logiciel, c'est peut être pas la panacée, mais ça marche quand même honnêtement...
Y.
Le 11/08/2011 16:32, Yves Rougy a écrit :
T'as pas un disque qui a un soucis ? (je sais que le kernel panic peut mettre en vrac ton raid, et donc qu'il y ait une reconstruction, mais bon.).
Non il y a reconstruction parce que l'un des kernel panic semblait incriminer un disque en particulier, je l'avais donc sorti du raid pour le tester. un hot spare a pris le relais mais la machine s'est replantée pendant le swap. Du coup j'ai remis, après tests smart long le disque original dans l'array et donc il est en spare rebuild la.
Sinon, "d'habitude" a chaque freeze, le reboot suivant j'ai un resync mais c'est normal non ?
Un petit test smart sur chacun d'entre eux pourrait être intéressant. Ce n'est pas normal que tu aies des panic ou des GPF avec le raid logiciel, c'est peut être pas la panacée, mais ça marche quand même honnêtement...
Clair, j'en ai des douzaines en prod.
Y. _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Le 11 août 2011 16:40, Simon Morvan garphy@zone84.net a écrit :
Le 11/08/2011 16:32, Yves Rougy a écrit :
T'as pas un disque qui a un soucis ? (je sais que le kernel panic peut mettre en vrac ton raid, et donc qu'il y ait une reconstruction, mais bon.).
Non il y a reconstruction parce que l'un des kernel panic semblait incriminer un disque en particulier, je l'avais donc sorti du raid pour le tester. un hot spare a pris le relais mais la machine s'est replantée pendant le swap. Du coup j'ai remis, après tests smart long le disque original dans l'array et donc il est en spare rebuild la.
Sinon, "d'habitude" a chaque freeze, le reboot suivant j'ai un resync mais c'est normal non ?
Ça me semble normal, mais la machine a replanté pendant le sync sur le spare, c'est ça ? Si le disque est bon, peut-être un soucis de cable ou du contrôleur... Ça ressemble quand même bien à un soucis matériel je trouve.
Y.
Le 11/08/2011 16:46, Yves Rougy a écrit :
Le 11 août 2011 16:40, Simon Morvangarphy@zone84.net a écrit :
Le 11/08/2011 16:32, Yves Rougy a écrit :
T'as pas un disque qui a un soucis ? (je sais que le kernel panic peut mettre en vrac ton raid, et donc qu'il y ait une reconstruction, mais bon.).
Non il y a reconstruction parce que l'un des kernel panic semblait incriminer un disque en particulier, je l'avais donc sorti du raid pour le tester. un hot spare a pris le relais mais la machine s'est replantée pendant le swap. Du coup j'ai remis, après tests smart long le disque original dans l'array et donc il est en spare rebuild la.
Sinon, "d'habitude" a chaque freeze, le reboot suivant j'ai un resync mais c'est normal non ?
Ça me semble normal, mais la machine a replanté pendant le sync sur le spare, c'est ça ? Si le disque est bon, peut-être un soucis de cable ou du contrôleur... Ça ressemble quand même bien à un soucis matériel je trouve.
je trouvais aussi, mais je trouve bizarre qu'avec un rebuild + un pvmove qui au global concerne tous les disques de la machine, mais sans monter les fs, ca ne plante pas. pour le matériel, de l'io, c'est de l'io, fs monté ou non.
Le 11 août 2011 16:52, Simon Morvan garphy@zone84.net a écrit :
Le 11/08/2011 16:46, Yves Rougy a écrit :
Le 11 août 2011 16:40, Simon Morvangarphy@zone84.net a écrit :
Le 11/08/2011 16:32, Yves Rougy a écrit :
T'as pas un disque qui a un soucis ? (je sais que le kernel panic peut mettre en vrac ton raid, et donc qu'il y ait une reconstruction, mais bon.).
Non il y a reconstruction parce que l'un des kernel panic semblait incriminer un disque en particulier, je l'avais donc sorti du raid pour le tester. un hot spare a pris le relais mais la machine s'est replantée pendant le swap. Du coup j'ai remis, après tests smart long le disque original dans l'array et donc il est en spare rebuild la.
Sinon, "d'habitude" a chaque freeze, le reboot suivant j'ai un resync mais c'est normal non ?
Ça me semble normal, mais la machine a replanté pendant le sync sur le spare, c'est ça ? Si le disque est bon, peut-être un soucis de cable ou du contrôleur... Ça ressemble quand même bien à un soucis matériel je trouve.
je trouvais aussi, mais je trouve bizarre qu'avec un rebuild + un pvmove qui au global concerne tous les disques de la machine, mais sans monter les fs, ca ne plante pas. pour le matériel, de l'io, c'est de l'io, fs monté ou non.
Oui, mais si le FS est monté, tu vas utiliser le VFS et gérer des zones mémoires. Si ton disque/controleur/whatever corrompt le FS, tu peux te retrouver avec des incohérences qui peuvent déboucher sur du panic à mon avis. Alors que sans le monter, tu déplaces des blocs ou des physical extends sans vraiment les "interpréter". Enfin, je pense.
Y
Le 11/08/2011 16:59, Yves Rougy a écrit :
Le 11 août 2011 16:52, Simon Morvangarphy@zone84.net a écrit :
Le 11/08/2011 16:46, Yves Rougy a écrit :
Le 11 août 2011 16:40, Simon Morvangarphy@zone84.net a écrit :
Le 11/08/2011 16:32, Yves Rougy a écrit :
T'as pas un disque qui a un soucis ? (je sais que le kernel panic peut mettre en vrac ton raid, et donc qu'il y ait une reconstruction, mais bon.).
Non il y a reconstruction parce que l'un des kernel panic semblait incriminer un disque en particulier, je l'avais donc sorti du raid pour le tester. un hot spare a pris le relais mais la machine s'est replantée pendant le swap. Du coup j'ai remis, après tests smart long le disque original dans l'array et donc il est en spare rebuild la.
Sinon, "d'habitude" a chaque freeze, le reboot suivant j'ai un resync mais c'est normal non ?
Ça me semble normal, mais la machine a replanté pendant le sync sur le spare, c'est ça ? Si le disque est bon, peut-être un soucis de cable ou du contrôleur... Ça ressemble quand même bien à un soucis matériel je trouve.
je trouvais aussi, mais je trouve bizarre qu'avec un rebuild + un pvmove qui au global concerne tous les disques de la machine, mais sans monter les fs, ca ne plante pas. pour le matériel, de l'io, c'est de l'io, fs monté ou non.
Oui, mais si le FS est monté, tu vas utiliser le VFS et gérer des zones mémoires. Si ton disque/controleur/whatever corrompt le FS, tu peux te retrouver avec des incohérences qui peuvent déboucher sur du panic à mon avis. Alors que sans le monter, tu déplaces des blocs ou des physical extends sans vraiment les "interpréter". Enfin, je pense.
Bon et bien après avoir retiré le md constitué des disques reliés à la carte mère et laissé dans le vg uniquement le volume raid géré par la carte LSI, j'ai pu remonter les fs et le serveur est stable. Une idée pour un protocole de test ? Je rappelle qu'avec les disques branché la carte mère je peux faire de "grosses" opérations d'I/O lvm ou md sans le faire planter, c'est juste si je monte me fs que ca part en sucette.
Le 17/08/2011 22:28, Simon Morvan a écrit :
Bon et bien après avoir retiré le md constitué des disques reliés à la carte mère et laissé dans le vg uniquement le volume raid géré par la carte LSI, j'ai pu remonter les fs et le serveur est stable. Une idée pour un protocole de test ? Je rappelle qu'avec les disques branché la carte mère je peux faire de "grosses" opérations d'I/O lvm ou md sans le faire planter, c'est juste si je monte me fs que ca part en sucette.
Alors, le serveur a finalement replanté après avoir tenu quelques jours.
Je l'ai rebooté sur un memtest (reboot à chaud). Au bout de quelques minutes, j'ai eu des erreurs, mais impossible de déterminer quelle barette sur les 4, donc reprise de memtests longs sur chacune des barettes.
J'en ai déjà testé deux pendant 10-20h (reboots à froid, évidemment, faut swapper les barettes) sans remontées d'erreurs. Il m'en reste deux à tester mais en attendant, avez vous déjà eu des erreurs de RAM selon une configuration de nombre et capacité de barettes RAM sans que chaque barette n'ai de problème elle meme ? Un problème de CM ?
Le reboot à froid/à chaud a t'il eu une importance dans mon protocole de test (stale data) ?
Merci d'avance
Personnellement j'ai déjà eu des barrettes de RAM défectueuses qui passaient les tests memtest. Il te reste la possibilité de les swapper sur une autre machine et voir ce que cela donne.
Sinon, il y a aussi la politique de l'autruche. Tu rachètes de la RAM si tu n'as pas de serveur de spare. Et si c'est pas la RAM, c'est que c'est la CM et qu'il faut la remplacer ^^
Vincent
Le 31/08/2011 15:09, Simon Morvan a écrit :
Le 17/08/2011 22:28, Simon Morvan a écrit :
Bon et bien après avoir retiré le md constitué des disques reliés à la carte mère et laissé dans le vg uniquement le volume raid géré par la carte LSI, j'ai pu remonter les fs et le serveur est stable. Une idée pour un protocole de test ? Je rappelle qu'avec les disques branché la carte mère je peux faire de "grosses" opérations d'I/O lvm ou md sans le faire planter, c'est juste si je monte me fs que ca part en sucette.
Alors, le serveur a finalement replanté après avoir tenu quelques jours.
Je l'ai rebooté sur un memtest (reboot à chaud). Au bout de quelques minutes, j'ai eu des erreurs, mais impossible de déterminer quelle barette sur les 4, donc reprise de memtests longs sur chacune des barettes.
J'en ai déjà testé deux pendant 10-20h (reboots à froid, évidemment, faut swapper les barettes) sans remontées d'erreurs. Il m'en reste deux à tester mais en attendant, avez vous déjà eu des erreurs de RAM selon une configuration de nombre et capacité de barettes RAM sans que chaque barette n'ai de problème elle meme ? Un problème de CM ?
Le reboot à froid/à chaud a t'il eu une importance dans mon protocole de test (stale data) ?
Merci d'avance
Lu,
On Wed, Aug 31, 2011 at 03:24:00PM +0200, "Vincent Duvernet (Nolmë Informatique)" wrote:
Sinon, il y a aussi la politique de l'autruche. Tu rachètes de la RAM si tu n'as pas de serveur de spare. Et si c'est pas la RAM, c'est que c'est la CM et qu'il faut la remplacer ^^
Oui, et aussi d'un point de vue purement financier, ça coûte souvent moins cher de remplacer totalement un chassis plutôt que de passer du temps à chercher à comprendre un défaut matériel. Surtout quand ce n'est pas reproductible facilement.
Mais... ça nécessite d'avoir du stock et des bons contacts chez ses fournisseurs pour renvoyer du matos vraisemblablement pourri, i.e. qui semble fonctionner quand même.
Sylvain
Le 31/08/2011 15:35, Sylvain Rochet a écrit :
Lu,
On Wed, Aug 31, 2011 at 03:24:00PM +0200, "Vincent Duvernet (Nolmë Informatique)" wrote:
Sinon, il y a aussi la politique de l'autruche. Tu rachètes de la RAM si tu n'as pas de serveur de spare. Et si c'est pas la RAM, c'est que c'est la CM et qu'il faut la remplacer ^^
Oui, et aussi d'un point de vue purement financier, ça coûte souvent moins cher de remplacer totalement un chassis plutôt que de passer du temps à chercher à comprendre un défaut matériel. Surtout quand ce n'est pas reproductible facilement.
Mais... ça nécessite d'avoir du stock et des bons contacts chez ses fournisseurs pour renvoyer du matos vraisemblablement pourri, i.e. qui semble fonctionner quand même.
Sylvain
il te reste également la possibilité de retoucher les timing SPD à la hausse.
ça m'est déjà arriver sur un PC perso, le PC plantait aléatoirement. En jouant à la hausse les timing SPD (donc à la baisse sur les perf) j'ai pu stabiliser ma conf.
Le problème venait des timing annoncé par les RAM qui n'était pas complètement fonctionnel sur la CM et c'est le DUAL channel qui révélait vraiment l'erreur...
A essayer
Salut !
si il s'agit d'un problème hardware, as tu essayé de voir les logs des MCE ( machine check events) reporté par le hardware via le kernel ?
Il te faut pour cela:
- un kernel possedant les attributs suivants d'activés: CONFIG_X86_MCE CONFIG_X86_MCE_INTEL (si proc/chipset Intel) CONFIG_X86_MCE_AMD (si proc/chipset AMD)
- une installation de mcelog (http://www.kernel.org/pub/linux/utils/cpu/mce/)
Suite à cela, tu auras la commande "mcelog" à disposition qui te permet d'avoir un rapport de l'erreur hardware détectée. Attention, chaque utilisation de la commande flush le cache donc si il te donne une erreur, il te faut la sauvegarder qq part par copier/coller ou autre. Si le plantage est total donc tu es obligé de rebooter ton serveur, alors, il te faut utiliser le mode démon de mcelog via syslog (idéalement sur un syslog hors serveur via ethernet) pour avoir une chance de savoir pourquoi il y a eu plantage avant le reboot du serveur qui flushera les MCE logs.
Le mécanisme des MCE n'est pas toujours efficace mais a le mérite de te donner la panne exacte hardware quand il te donne une alerte. Par exemple il peut te remonter une erreur de cache CPU, une erreur de RAM, du northbridge, etc... de manière assez précise te signalant un processeur sous volté, une barrette de RAM défectueuse ou un chipset trop chaud....
JeFF
On Wed, 2011-08-31 at 16:39 +0200, Sebastien PLOT wrote:
Le 31/08/2011 15:35, Sylvain Rochet a écrit :
Lu,
On Wed, Aug 31, 2011 at 03:24:00PM +0200, "Vincent Duvernet (Nolmë Informatique)" wrote:
Sinon, il y a aussi la politique de l'autruche. Tu rachètes de la RAM si tu n'as pas de serveur de spare. Et si c'est pas la RAM, c'est que c'est la CM et qu'il faut la remplacer ^^
Oui, et aussi d'un point de vue purement financier, ça coûte souvent moins cher de remplacer totalement un chassis plutôt que de passer du temps à chercher à comprendre un défaut matériel. Surtout quand ce n'est pas reproductible facilement.
Mais... ça nécessite d'avoir du stock et des bons contacts chez ses fournisseurs pour renvoyer du matos vraisemblablement pourri, i.e. qui semble fonctionner quand même.
Sylvain
il te reste également la possibilité de retoucher les timing SPD à la hausse.
ça m'est déjà arriver sur un PC perso, le PC plantait aléatoirement. En jouant à la hausse les timing SPD (donc à la baisse sur les perf) j'ai pu stabiliser ma conf.
Le problème venait des timing annoncé par les RAM qui n'était pas complètement fonctionnel sur la CM et c'est le DUAL channel qui révélait vraiment l'erreur...
A essayer _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Le 31/08/2011 16:39, Sebastien PLOT a écrit :
Le 31/08/2011 15:35, Sylvain Rochet a écrit :
Lu,
On Wed, Aug 31, 2011 at 03:24:00PM +0200, "Vincent Duvernet (Nolmë Informatique)" wrote:
Sinon, il y a aussi la politique de l'autruche. Tu rachètes de la RAM si tu n'as pas de serveur de spare. Et si c'est pas la RAM, c'est que c'est la CM et qu'il faut la remplacer ^^
Oui, et aussi d'un point de vue purement financier, ça coûte souvent moins cher de remplacer totalement un chassis plutôt que de passer du temps à chercher à comprendre un défaut matériel. Surtout quand ce n'est pas reproductible facilement.
Mais... ça nécessite d'avoir du stock et des bons contacts chez ses fournisseurs pour renvoyer du matos vraisemblablement pourri, i.e. qui semble fonctionner quand même.
Sylvain
il te reste également la possibilité de retoucher les timing SPD à la hausse.
ça m'est déjà arriver sur un PC perso, le PC plantait aléatoirement. En jouant à la hausse les timing SPD (donc à la baisse sur les perf) j'ai pu stabiliser ma conf.
Le problème venait des timing annoncé par les RAM qui n'était pas complètement fonctionnel sur la CM et c'est le DUAL channel qui révélait vraiment l'erreur...
j'ai passé la RAM de unganged à ganged pour voir. la machine tourne maintenant depuis ce matin en faisant des compilation de noyeau et des bonnie++ en boucle sans tomber on va voir si ça passe la nuit...
ca augurerait d'un problème de contrôleur mémoire dans le cpu...
Le 01/09/2011 17:21, Simon Morvan a écrit :
Le 31/08/2011 16:39, Sebastien PLOT a écrit :
Le 31/08/2011 15:35, Sylvain Rochet a écrit :
Lu,
On Wed, Aug 31, 2011 at 03:24:00PM +0200, "Vincent Duvernet (Nolmë Informatique)" wrote:
Sinon, il y a aussi la politique de l'autruche. Tu rachètes de la RAM si tu n'as pas de serveur de spare. Et si c'est pas la RAM, c'est que c'est la CM et qu'il faut la remplacer ^^
Oui, et aussi d'un point de vue purement financier, ça coûte souvent moins cher de remplacer totalement un chassis plutôt que de passer du temps à chercher à comprendre un défaut matériel. Surtout quand ce n'est pas reproductible facilement.
Mais... ça nécessite d'avoir du stock et des bons contacts chez ses fournisseurs pour renvoyer du matos vraisemblablement pourri, i.e. qui semble fonctionner quand même.
Sylvain
il te reste également la possibilité de retoucher les timing SPD à la hausse.
ça m'est déjà arriver sur un PC perso, le PC plantait aléatoirement. En jouant à la hausse les timing SPD (donc à la baisse sur les perf) j'ai pu stabiliser ma conf.
Le problème venait des timing annoncé par les RAM qui n'était pas complètement fonctionnel sur la CM et c'est le DUAL channel qui révélait vraiment l'erreur...
j'ai passé la RAM de unganged à ganged pour voir. la machine tourne maintenant depuis ce matin en faisant des compilation de noyeau et des bonnie++ en boucle sans tomber on va voir si ça passe la nuit...
ca augurerait d'un problème de contrôleur mémoire dans le cpu...
Petit retour pour info, on dirait bien que le passage de "unganged" à "ganged" rend le serveur stable. Ca me chiffone un peu comme resultat des courses mais bon, visiblement je ne suis pas le seul selon google a avoir ce genre d'emmerdes.
Le 5 septembre 2011 13:22, Simon Morvan garphy@zone84.net a écrit :
Le 01/09/2011 17:21, Simon Morvan a écrit :
Petit retour pour info, on dirait bien que le passage de "unganged" à "ganged" rend le serveur stable. Ca me chiffone un peu comme resultat des courses mais bon, visiblement je ne suis pas le seul selon google a avoir ce genre d'emmerdes.
En tous cas merci de nous avoir tenu au courant du diagnostic "final".
Y.
Le 05/09/2011 16:28, Yves Rougy a écrit :
En tous cas merci de nous avoir tenu au courant du diagnostic "final".
J'espère qu'il sera effectivement "final".
Pour etre précis, donc : - La carte mère est une GA-890GPA-UD3H - Le CPU est un X4 640 - Les barrettes de ram sont des G.Skill F3-10666CL9S-4GBNT
Ce trio semble donc poser des soucis en "unganged".
'jour.
Du coup j'ai remis, après tests smart long le disque original dans l'array et donc il est en spare rebuild la.
C'est pas une réponse à ton problème directement mais j'aimerai comprendre, au moment où un disque de 2TB coûte si peu cher (et je ne parle pas des 3 TB)*, à quoi ça sert de faire encore du RAID5 ou RAID6.
Le temps de reconstruction me parait complètement rédhibitoire et carrément risqué ! Sans parler du temps CPU perdu...
David
* : entre 65 et 180 euros TTC pour un 2 TB (5400rpm vs NearLine 7200rpm) aux alentours de 130 euros TTC pour un 3 TB de base
----- Mail original -----
Le Thursday 11 August 2011 à 16:51, David Touitou écrivait:
à quoi ça sert de faire encore du RAID5 ou RAID6.
La sécurité
Laquelle ?
Un RAID5, tu as le droit de perdre un disque, c'est tout. Vu le temps mis pour reconstruire un volume avec des disques de 2 TB (ou plus), le risque d'en perdre un second pendant ce temps n'est pas nul du tout...
Sur un RAID6, tu as le droit de perdre deux disques. Mais là encore, vu le temps mis pour reconstruire...
Sur un RAID10, il ne faut pas perdre deux disques "face à face", c'est vrai. Mais tu peux perdre plusieurs disques néanmoins (cependant, avec la loi de Murphy, bof). Par contre le temps de reconstruction est réduit (on peut pas faire moins).
et les I/O peut-être ? ...
Bah là, un RAID10 les pulvérise justement, non ?
En ZFS, ce serait autre chose...
David
Le 11/08/2011 16:15, Simon Morvan a écrit :
Le 11/08/2011 16:09, Yves Rougy a écrit :
Un pti fsck sur tes filesystems peut-être...?
Fait il n'y a pas longtemps. Je vais le refaire quand le pvmove sera terminé (lundi, si tout va bien).
Tu as un outil qui te permet de voir où en est la resync ?
cat /proc/mdstat :
md2 : active raid5 sdd1[5] sdh1[6](S) sdg1[4] sdf1[2] sde1[1] 5860538880 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [_UUU] [==============>......] recovery = 72.5% (1416368700/1953512960) finish=8409.9min speed=1064K/sec
c'est moi ou le debit est a chier ?
Le 11/08/2011 16:37, Arnaud Steyer a écrit :
Le 11/08/2011 16:15, Simon Morvan a écrit :
Le 11/08/2011 16:09, Yves Rougy a écrit :
Un pti fsck sur tes filesystems peut-être...?
Fait il n'y a pas longtemps. Je vais le refaire quand le pvmove sera terminé (lundi, si tout va bien).
Tu as un outil qui te permet de voir où en est la resync ?
cat /proc/mdstat :
md2 : active raid5 sdd1[5] sdh1[6](S) sdg1[4] sdf1[2] sde1[1] 5860538880 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [_UUU] [==============>......] recovery = 72.5% (1416368700/1953512960) finish=8409.9min speed=1064K/sec
c'est moi ou le debit est a chier ?
il y a un pvmove en cours sur ce md
Bonjour, Un memtest doit se faire sur une période de 48 heures de préférence.
Je confirme que Freenas avec une carte Raid LSI ou 3Ware fonctionne très très bien...et surtout stable sur des machines de qualités (Ram ECC, Disques SAS...).
Très cordialement / Best regards
Marc F. GOMEZ -----Message d'origine----- De : frsag-bounces@frsag.org [mailto:frsag-bounces@frsag.org] De la part de Simon Morvan Envoyé : mercredi 10 août 2011 18:26 À : French SysAdmin Group Objet : Re: [FRsAG] Solution storage "non-rackable"
Le 10/08/2011 18:14, Arnaud Steyer a écrit :
tu as testé la ram ? (j'imagine que oui)
yep, 4 heures durant
1kw no name ?
http://www.materiel.net/alimentation-pour-pc/cooler-master-silent-pro-gold-1 000w-58104.html
depuis le changement (c'était le meme type mais en 600W au début) je n'ai plus que des kernel panic qui semblent toutes related aux disques, je vais alimenter le bugreport avec la prochaine trace, si j'arrive a la choper.
enfin de toute facon y a que le spinup des disques qui vont lui tirer dessus. Après normalement c'est beaucoup moins.
on est d'accord
Le 10/08/2011 18:03, Simon Morvan a écrit :
Le 10/08/2011 17:59, Arnaud Steyer a écrit :
Il est possible que ton alim aime pas trop.
Ouep, je me suis dit la meme chose, j'ai mis une 1000W (!), ca continue. Je blacklist autant de modules que je peux au fur et a mesure (dingue le nombre de periph inutile sur une CM grand public, finalement...)
FWIW : http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=637190 _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Liste de diffusion du FRsAG http://www.frsag.org/
_______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Le 10 août 2011 17:37, Simon Morvan garphy@zone84.net a écrit :
Hello la liste,
Je cherche une solution pour monter un gros NAS (15-20 disques SATA) qui soit un minimum "pro" (shelf de disque, etc...) mais dans un format "bureau" et pas rackable 19" car je pense que ca va faire un peu trop de bruit dans les locaux.
Genre ça : http://www.synology.com/products/product.php?product_name=DS3611xs&lang=... ?
Apparemment, avec l'extension, tu dois pouvoir atteindre ton quota de disks ; je n'ai pas vu mention du nombre de disques possibles mais on doit se rapprocher de ce que tu souhaites...
Le 10/08/2011 17:52, Nicolas Steinmetz a écrit :
Le 10 août 2011 17:37, Simon Morvan <garphy@zone84.net mailto:garphy@zone84.net> a écrit :
Hello la liste, Je cherche une solution pour monter un gros NAS (15-20 disques SATA) qui soit un minimum "pro" (shelf de disque, etc...) mais dans un format "bureau" et pas rackable 19" car je pense que ca va faire un peu trop de bruit dans les locaux.
Genre ça : http://www.synology.com/products/product.php?product_name=DS3611xs&lang=... http://www.synology.com/products/product.php?product_name=DS3611xs&lang=fre ?
Intéressant ! Tu as un retour d'expérience avec ce genre de bestiole ?
Apparemment, avec l'extension, tu dois pouvoir atteindre ton quota de disks ; je n'ai pas vu mention du nombre de disques possibles mais on doit se rapprocher de ce que tu souhaites...
Je vais voir ca.
salut
j ai un petit syno chez moi (ds411+) en environnement mac jusqu a la mise a jour du protocole afp sur Lion -> aucun pb de perf en 3 ans ( juste un disque qui a crash et un rebuild du raid 5 de +24h ...) , apres la mise a jour lion il a falut utiliser l os en beta pour qu afp fonctionne a nouveau (comme chez beaucoup de fabricant de nas...)
pour le taf je viens de prendre un 2411+ en depannage d'urgence pour de la saubegarde , 12 disques hitachi de 3TB enterprise class en raid 6 niveau debit ca tiens la charge ( 800GB de vmdk en moins de 2h ... pas le chiffre exact en tete) nfs ok avec vmware, linux , sco smb / afp ok sur mac et windows (avec l os 3.2 beta)
bref un bon choix pour un produit clef en main et low cost
Le 10 août 2011 17:56, Simon Morvan garphy@zone84.net a écrit :
Intéressant ! Tu as un retour d'expérience avec ce genre de bestiole ?
Oui et non car uniquement sur les versions pour particuliers avec les modèles DS209/210 qui font très bien le boulot très simple que je leur demande :-)
Au niveau des fonctionnalités, leur interface est plutôt bien conçue (pas de salut sans de toutes façons), c'est tout packagé et ils font des mises à jour régulières de leur firmware.
As tu regarder du côté de chez Thecus ?
Il sont une série PRO en version tour qui peuvent être managé par grappe et qui gère même le ZFS:
http://www.thecus.com/product_catalog.php?PROD_TYPE_ID=64
On Wed, 2011-08-10 at 17:37 +0200, Simon Morvan wrote:
Hello la liste,
Je cherche une solution pour monter un gros NAS (15-20 disques SATA) qui soit un minimum "pro" (shelf de disque, etc...) mais dans un format "bureau" et pas rackable 19" car je pense que ca va faire un peu trop de bruit dans les locaux.
Ou alors une solution pour utiliser les classiques shelfs & hba sur serveur en format 19" mais sans le bruit associé.
Au dela de ça, est-ce que ca existe une solution de ce type avec l'OS/le software clé en main pour fournir un service NAS SMB/AFP sur le lan ?
L'idée générale est d'éviter le DIY de la maxi-tour gavée de disques sous debian/samba/netatalk maison avec laquelle j'ai un max de problème en ce moment (kernels panics dans tous les sens sans arriver à en trouver la cause).
J'espère que c'est clair....
Merci d'avance,
Salut, +1 fonctionne très bien.
--Vincent
Sent by avian carriers, CPIP (cf: RFC 1149)
Le 23 août 2011 à 12:30, Jean-Francois Maeyhieux b4b1@free.fr a écrit :
As tu regarder du côté de chez Thecus ?
Il sont une série PRO en version tour qui peuvent être managé par grappe et qui gère même le ZFS:
http://www.thecus.com/product_catalog.php?PROD_TYPE_ID=64
On Wed, 2011-08-10 at 17:37 +0200, Simon Morvan wrote:
Hello la liste,
Je cherche une solution pour monter un gros NAS (15-20 disques SATA) qui soit un minimum "pro" (shelf de disque, etc...) mais dans un format "bureau" et pas rackable 19" car je pense que ca va faire un peu trop de bruit dans les locaux.
Ou alors une solution pour utiliser les classiques shelfs & hba sur serveur en format 19" mais sans le bruit associé.
Au dela de ça, est-ce que ca existe une solution de ce type avec l'OS/le software clé en main pour fournir un service NAS SMB/AFP sur le lan ?
L'idée générale est d'éviter le DIY de la maxi-tour gavée de disques sous debian/samba/netatalk maison avec laquelle j'ai un max de problème en ce moment (kernels panics dans tous les sens sans arriver à en trouver la cause).
J'espère que c'est clair....
Merci d'avance,
Liste de diffusion du FRsAG http://www.frsag.org/
Bonsoir,
tu as la possibilité de mettre plusieurs NAS chaînés en iSCSI chez QNAP avec le 10 disques par exemple. (http://www.qnap.com/fr/pro_detail_feature.asp?p_id=200) Leur dernier firmware 3.5 supporte (enfin) le serveur Syslog, Radius et Clamav en natif)
++ Vincent