Hello,
Certains d'entre vous ont-ils des expériences, bonnes ou mauvaises, avec des cartes 10 Gb/s sous Linux ? Je pense en particulier aux cartes Intel X710 avec bonding (LACP) de plusieurs ports 10G + VLANs par dessus : sous Debian ? Sous Redhat ? Autre ?
Et deuxième question : Avez-vous eu l'occasion d'avoir d'autres marques en prod ? Je pense par exemple à Mellanox, mais tous vos retours m'intéressent !
Nous avons des misères avec des cartes Intel X710 sous Debian Jessie : Même avec le dernier kernel bpo et un driver i40e très récent, ça marche juste pas (le réseau plante complètement au bout de plusieurs heures, sans explication). Et quand on remonte les logs aux devs Intel, ils sont... peu réceptifs, pour rester poli (du genre "Debian n'est pas supporté, désolé mon gars"). Bref on cherche une alternative, ou soyons fous une solution :-)
Merci d'avance pour vos lumières, bonne soirée. Fabien
Hello,
Par chez moi on utilise du Intel X540-AT2 (intégré sur des mobos Supermicro), sous debian, sans bonding ni VLAN -> aucun soucis
Le 18/01/2017 à 18:28, Fabien Germain a écrit :
Hello,
Certains d'entre vous ont-ils des expériences, bonnes ou mauvaises, avec des cartes 10 Gb/s sous Linux ? Je pense en particulier aux cartes Intel X710 avec bonding (LACP) de plusieurs ports 10G + VLANs par dessus : sous Debian ? Sous Redhat ? Autre ?
Et deuxième question : Avez-vous eu l'occasion d'avoir d'autres marques en prod ? Je pense par exemple à Mellanox, mais tous vos retours m'intéressent !
Nous avons des misères avec des cartes Intel X710 sous Debian Jessie : Même avec le dernier kernel bpo et un driver i40e très récent, ça marche juste pas (le réseau plante complètement au bout de plusieurs heures, sans explication). Et quand on remonte les logs aux devs Intel, ils sont... peu réceptifs, pour rester poli (du genre "Debian n'est pas supporté, désolé mon gars"). Bref on cherche une alternative, ou soyons fous une solution :-)
Merci d'avance pour vos lumières, bonne soirée. Fabien _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
J'ai ça en prod depuis ~1an, avec vlan et LACP: http://www.supermicro.com/products/accessories/addon/AOC-STG-b4S.cfm
So far so good
On 18/01/2017 18:28, Fabien Germain wrote:
Hello,
Certains d'entre vous ont-ils des expériences, bonnes ou mauvaises, avec des cartes 10 Gb/s sous Linux ? Je pense en particulier aux cartes Intel X710 avec bonding (LACP) de plusieurs ports 10G + VLANs par dessus : sous Debian ? Sous Redhat ? Autre ?
Et deuxième question : Avez-vous eu l'occasion d'avoir d'autres marques en prod ? Je pense par exemple à Mellanox, mais tous vos retours m'intéressent !
Nous avons des misères avec des cartes Intel X710 sous Debian Jessie : Même avec le dernier kernel bpo et un driver i40e très récent, ça marche juste pas (le réseau plante complètement au bout de plusieurs heures, sans explication). Et quand on remonte les logs aux devs Intel, ils sont... peu réceptifs, pour rester poli (du genre "Debian n'est pas supporté, désolé mon gars"). Bref on cherche une alternative, ou soyons fous une solution :-)
Merci d'avance pour vos lumières, bonne soirée. Fabien _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Bonsoir,
Fabien Germain fabien@klipz.fr : [...]
Nous avons des misères avec des cartes Intel X710 sous Debian Jessie : Même avec le dernier kernel bpo et un driver i40e très récent, ça marche juste
^^^ Quès acco ?
pas (le réseau plante complètement au bout de plusieurs heures, sans explication). Et quand on remonte les logs aux devs Intel, ils sont... peu réceptifs, pour rester poli (du genre "Debian n'est pas supporté, désolé mon gars"). Bref on cherche une alternative, ou soyons fous une solution :-)
A défaut de fonctionner avec votre noyau de prédilection, est-ce que ça fonctionne avec la ou les versions du noyau que les devs préconisent ?
Hello
On 01/18/2017 03:21 PM, Francois Romieu wrote:
Bonsoir,
Fabien Germain fabien@klipz.fr : [...]
Nous avons des misères avec des cartes Intel X710 sous Debian Jessie : Même avec le dernier kernel bpo et un driver i40e très récent, ça marche juste
^^^ Quès acco ?
du kernel backport.
pas (le réseau plante complètement au bout de plusieurs heures, sans explication). Et quand on remonte les logs aux devs Intel, ils sont... peu réceptifs, pour rester poli (du genre "Debian n'est pas supporté, désolé mon gars"). Bref on cherche une alternative, ou soyons fous une solution :-)
A défaut de fonctionner avec votre noyau de prédilection, est-ce que ça fonctionne avec la ou les versions du noyau que les devs préconisent ?
Bonjour,
On 19/01/2017 00:21, Francois Romieu wrote:
pas (le réseau plante complètement au bout de plusieurs heures, sans explication). Et quand on remonte les logs aux devs Intel, ils sont... peu réceptifs, pour rester poli (du genre "Debian n'est pas supporté, désolé mon gars"). Bref on cherche une alternative, ou soyons fous une solution :-)
A défaut de fonctionner avec votre noyau de prédilection, est-ce que ça fonctionne avec la ou les versions du noyau que les devs préconisent ?
Je n'ai pas de noyau de prédilection (enfin si : celui fournit de base par la distrib, qui sera mis à jour régulièrement/facilement), je veux juste avoir du réseau qui fonctionne :-) Si on a tenté un kernel de backport, c'était pour voir si sur du kernel très récent ça fonctionnait mieux : ben non, toujours pas... Quand aux devs Intel du driver, on a l'impression de parler avec le support de Dell... J'ai juste une version polie de "on ne supporte que RedHat/Suse, démerdez vous".
Fabien
Et du coup, vous avez testé avec RedHat/Suse ?
Jo
On 01/19/2017 09:41 AM, Fabien Germain wrote:
Bonjour,
On 19/01/2017 00:21, Francois Romieu wrote:
pas (le réseau plante complètement au bout de plusieurs heures, sans explication). Et quand on remonte les logs aux devs Intel, ils sont... peu réceptifs, pour rester poli (du genre "Debian n'est pas supporté, désolé mon gars"). Bref on cherche une alternative, ou soyons fous une solution :-)
A défaut de fonctionner avec votre noyau de prédilection, est-ce que ça fonctionne avec la ou les versions du noyau que les devs préconisent ?
Je n'ai pas de noyau de prédilection (enfin si : celui fournit de base par la distrib, qui sera mis à jour régulièrement/facilement), je veux juste avoir du réseau qui fonctionne :-) Si on a tenté un kernel de backport, c'était pour voir si sur du kernel très récent ça fonctionnait mieux : ben non, toujours pas... Quand aux devs Intel du driver, on a l'impression de parler avec le support de Dell... J'ai juste une version polie de "on ne supporte que RedHat/Suse, démerdez vous".
Fabien _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
On 19/01/2017 09:44, Jonathan Tremesaygues wrote:
Et du coup, vous avez testé avec RedHat/Suse ?
Non pas encore, ce sera le dernier recours. Ou retour de ces cartes mer...veilleuses, et on change de fabriquant.
Sur le principe, ça m'irrite légèrement qu'on m'impose la distrib :-)
Fabien
Si ça ne fonctionne pas avec le kernel linux-image-4.9.0-1-amd64, changer de distrib ne sert probablement à rien
Ceci dit .. T'as des trucs dans ton dmesg ?
Tu peux aussi "essayer" redhat pour mettre en lumière le fait que c'est le matos qui est pété (si applicable)
On 19/01/2017 09:50, Fabien Germain wrote:
On 19/01/2017 09:44, Jonathan Tremesaygues wrote:
Et du coup, vous avez testé avec RedHat/Suse ?
Non pas encore, ce sera le dernier recours. Ou retour de ces cartes mer...veilleuses, et on change de fabriquant.
Sur le principe, ça m'irrite légèrement qu'on m'impose la distrib :-)
Fabien _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Le 19/01/2017 à 09:53, frsag@jack.fr.eu.org a écrit :
Si ça ne fonctionne pas avec le kernel linux-image-4.9.0-1-amd64, changer de distrib ne sert probablement à rien
Les noyau des distribs commerciales comme RHEL ou SLES sont loin d'être "vanillia" et incluent un sacré paquet de pilotes rétroportés pour supporter ce type de matériels... Debian ne fait pas forcément ce même travail sur les pilotes"
Sous redhat/suse, aucune idée, mais en tout cas, même problème sous esx 5.5 dernier patch à jour (pas testé pour esx 6), tout le matériel étant dans la HCL (donc pas de matos exotique). Les cartes x710 qui "reset" sans raison apparente. Le dernier vib (genre de rpm pour vmware) fourni par VMware à beaucoup diminué les fréquences de reset sans régler le problème pour autant. Du coup, faut en avoir deux (yeahh), et pas qu'elles reset en même temps.
2017-01-23 8:45 GMT+01:00 Eric Belhomme rico-frsag@ricozome.net:
Le 19/01/2017 à 09:53, frsag@jack.fr.eu.org a écrit :
Si ça ne fonctionne pas avec le kernel linux-image-4.9.0-1-amd64, changer de distrib ne sert probablement à rien
Les noyau des distribs commerciales comme RHEL ou SLES sont loin d'être "vanillia" et incluent un sacré paquet de pilotes rétroportés pour supporter ce type de matériels... Debian ne fait pas forcément ce même travail sur les pilotes"
-- Rico _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Hello,
Le 23/01/2017 à 08:45, Eric Belhomme a écrit :
Si ça ne fonctionne pas avec le kernel linux-image-4.9.0-1-amd64, changer de distrib ne sert probablement à rien
Les noyau des distribs commerciales comme RHEL ou SLES sont loin d'être "vanillia" et incluent un sacré paquet de pilotes rétroportés pour supporter ce type de matériels... Debian ne fait pas forcément ce même travail sur les pilotes"
En effet, oui... En résumé, et avec la semi happy end :
* kernel de base Debian Jessie : ça ne fonctionne pas * en téléchargeant et recompilant le dernier module i40e dispo sur intel.com : ça ne fonctionne pas * kernel 4.8.0-0.bpo.2-amd64 : ça ne fonctionne pas * tout dernier kernel officiel dispo et même pas encore frais (4.10.0-rc4) : ça ne fonctionne pas
J'ai réinstallé et reconfiguré le serveur en CentOS 7 (vu le temps déjà perdu, je n'étais plus à ça près), avec son vieux noyau 3.10.0 patché dans tous les sens : ça fonctionne, enfin.
Conclusion : content de ne pas avoir 4 cartes X710 à jeter à la poubelle quand même. Par contre pour les prochains serveurs, plus jamais de cartes réseaux Intel.
Fabien
2017-02-03 15:37 GMT+01:00 Fabien Germain fabien@klipz.fr:
Conclusion : content de ne pas avoir 4 cartes X710 à jeter à la poubelle quand même. Par contre pour les prochains serveurs, plus jamais de cartes réseaux Intel.
Sur du FreeBSD j'évite aussi les cartes Intel à cause de problème de performance et des difficultés à faire évoluer les drivers. Les cartes Chelsio et Melanox elles n'ont pas ce problème: C'est du très bon hardware couplé avec des drivers bien foutus (et surtout avec des développeurs très réactif).
Ce qui semble confirmé chez les gros utilisateur, comme par exemple Netflix ou Isilon: https://openconnect.netflix.com/en/hardware/ http://www.chelsio.com/isilon-systemssbquonbspselects-chelsio-10gbe-adapters...
Fabien Germain fabien@klipz.fr : [...]
Sur le principe, ça m'irrite légèrement qu'on m'impose la distrib :-)
Non, juste le noyau. :o/
Le plus naturel serait de tester le dernier noyau standard et de signaler l'erreur dans la liste de diffusion netdev avec un Cc: Jeff Kirsher jeffrey.t.kirsher@intel.com. Vous saurez quoi répondre si quelqu'un suggère de poster dans la liste dédiée d'Intel.
Le 19/01/2017 à 09:41, Fabien Germain a écrit :
Je n'ai pas de noyau de prédilection (enfin si : celui fournit de base par la distrib, qui sera mis à jour régulièrement/facilement), je veux juste avoir du réseau qui fonctionne :-) Si on a tenté un kernel de backport, c'était pour voir si sur du kernel très récent ça fonctionnait mieux : ben non, toujours pas...
Le noyau bpo n'est pas un kernel très récent, c'est juste un kernel *plus* récent que STABLE... La nuance est d'importance !
Commences plutôt par éplucher les logs de commit sur ton driver sur kernel.org pour trouver les évolutions qu'il y a eu sur ton pilote de carte - et tu vas en trouver - pour savoir à partir de quel version de noyau ta carte est correctement supportée.
Il ne te restera plus qu'à compiler ton kernel à l'ancienne avec la bonne version de noyau.
Le Wed, Jan 18, 2017 at 06:28:44PM +0100, Fabien Germain [fabien@klipz.fr] a écrit: [...]
Nous avons des misères avec des cartes Intel X710 sous Debian Jessie : Même avec le dernier kernel bpo et un driver i40e très récent, ça marche juste pas (le réseau plante complètement au bout de plusieurs heures, sans explication). Et quand on remonte les logs aux devs Intel, ils sont... peu réceptifs, pour rester poli (du genre "Debian n'est pas supporté, désolé mon gars"). Bref on cherche une alternative, ou soyons fous une solution :-)
Ca va pas directement t'aider, mais... - essaye sur le meme materiel avec une distribution "supportee", si il y a effectivement des bugs, ils devrait accepter d'y regarder - remonte les bugs au mainteneur Debian, plutot qu'aux dev Intel
J’ai eu le même problème il y a quelques années (squeeze) avec une « Intel Corporation 82599EB 10-Gigabit SFI/SFP+ Network Connection (rev 01) », la carte arrêtait soudainement de transférer les paquets (link up sur la machine et le switch en face, rien dans dmesg, mais plus aucun transfert), pas d’améliorations avec le kernel bpo, ni le driver made in Intel. Un ip l down / ip l up de l’interface permettait de la relancer pour quelques To. On avait créé un bond avec une des interfaces Giga en failover pour ne pas perdre la machine, et de mémoire, on avait réussi à le stabiliser en supprimant quelques options d’offloading (avec ethtool).
2017-01-19 9:53 GMT+01:00 Dominique Rousseau d.rousseau@nnx.com:
Le Wed, Jan 18, 2017 at 06:28:44PM +0100, Fabien Germain [fabien@klipz.fr] a écrit: [...]
Nous avons des misères avec des cartes Intel X710 sous Debian Jessie : Même avec le dernier kernel bpo et un driver i40e très récent, ça marche juste pas (le réseau plante complètement au bout de plusieurs heures, sans explication). Et quand on remonte les logs aux devs Intel, ils sont... peu réceptifs, pour rester poli (du genre "Debian n'est pas supporté, désolé mon gars"). Bref on cherche une alternative, ou soyons fous une solution :-)
Ca va pas directement t'aider, mais...
- essaye sur le meme materiel avec une distribution "supportee", si il y a effectivement des bugs, ils devrait accepter d'y regarder
- remonte les bugs au mainteneur Debian, plutot qu'aux dev Intel
-- Dominique Rousseau Neuronnexion, Prestataire Internet & Intranet 21 rue Frédéric Petit - 80000 Amiens tel: 03 22 71 61 90 - fax: 03 22 71 61 99 - http://www.neuronnexion.coop _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Bonsoir,
On 19/01/2017 10:13, Landry Minoza wrote:
J’ai eu le même problème il y a quelques années (squeeze) avec une « Intel Corporation 82599EB 10-Gigabit SFI/SFP+ Network Connection (rev 01) », la carte arrêtait soudainement de transférer les paquets (link up sur la machine et le switch en face, rien dans dmesg, mais plus aucun transfert), pas d’améliorations avec le kernel bpo, ni le driver made in Intel. Un ip l down / ip l up de l’interface permettait de la relancer pour quelques To. On avait créé un bond avec une des interfaces Giga en failover pour ne pas perdre la machine, et de mémoire, on avait réussi à le stabiliser en supprimant quelques options d’offloading (avec ethtool).
(tristement) amusant de voir que plusieurs années après, c'est exactement le même comportement que l'on observe sur nos X710 : Avec un kernel 4.8.0-0.bpo.2-amd64, ça fonctionne niquel pendant environ 15 ou 16h, et puis d'un coup plus rien, le réseau fait grève.
Les logs juste avant le plantage du réseau (mais la machine est toujours up, on a l'accès en console dessus) :
Jan 18 09:40:26 int-rt1 kernel: [62284.961173] i40e 0000:01:00.0: TX driver issue detected, PF reset issued Jan 18 09:40:27 int-rt1 kernel: [62285.442664] bond0: link status down for interface eth2, disabling it in 200 ms Jan 18 09:40:27 int-rt1 kernel: [62285.650320] i40e 0000:01:00.0: Error I40E_AQ_RC_EINVAL adding RX filters on PF, promiscuous mode forced on Jan 18 09:40:27 int-rt1 kernel: [62285.650627] bond0: link status up again after 200 ms for interface eth2
C'est un bonding sur 4 interfaces 10G : même si eth2 avait un soucis et lâchait, ça ne devrait pas avoir trop d'impact. Et pourtant...
On va tenter la semaine prochaine avec un kernel tout frais et pas encore bien sec (4.10-rc4), pour voir ce que ça donne. Puis on se résoudra à tester avec une CentOS.
Merci à tous pour vos retours !
Fabien
Bonsoir à tous,
As tu essayé de désactiver les différents offloading hardware que fait la carte, par exemple avec du :
ethtool --offload eth2 sg off ethtool -K eth2 tso off
(Il doit y en avoir d'autres. )
J'ai déjà vu ca en jessie sur un firewall qui au bout de 5 min faisait du yoyo Link Down / Link Up. Si cette piste peut aider ...
A+
Nico.
PS : @Fabien : tu viens plus aux soirées ? :-)
20 janvier 2017 20:22 "Fabien Germain" fabien@klipz.fr a écrit:
Bonsoir,
On 19/01/2017 10:13, Landry Minoza wrote:
J’ai eu le même problème il y a quelques années (squeeze) avec une « Intel Corporation 82599EB 10-Gigabit SFI/SFP+ Network Connection (rev 01) », la carte arrêtait soudainement de transférer les paquets (link up sur la machine et le switch en face, rien dans dmesg, mais plus aucun transfert), pas d’améliorations avec le kernel bpo, ni le driver made in Intel. Un ip l down / ip l up de l’interface permettait de la relancer pour quelques To. On avait créé un bond avec une des interfaces Giga en failover pour ne pas perdre la machine, et de mémoire, on avait réussi à le stabiliser en supprimant quelques options d’offloading (avec ethtool).
(tristement) amusant de voir que plusieurs années après, c'est exactement le même comportement que l'on observe sur nos X710 : Avec un kernel 4.8.0-0.bpo.2-amd64, ça fonctionne niquel pendant environ 15 ou 16h, et puis d'un coup plus rien, le réseau fait grève.
Les logs juste avant le plantage du réseau (mais la machine est toujours up, on a l'accès en console dessus) :
Jan 18 09:40:26 int-rt1 kernel: [62284.961173] i40e 0000:01:00.0: TX driver issue detected, PF reset issued Jan 18 09:40:27 int-rt1 kernel: [62285.442664] bond0: link status down for interface eth2, disabling it in 200 ms Jan 18 09:40:27 int-rt1 kernel: [62285.650320] i40e 0000:01:00.0: Error I40E_AQ_RC_EINVAL adding RX filters on PF, promiscuous mode forced on Jan 18 09:40:27 int-rt1 kernel: [62285.650627] bond0: link status up again after 200 ms for interface eth2
C'est un bonding sur 4 interfaces 10G : même si eth2 avait un soucis et lâchait, ça ne devrait pas avoir trop d'impact. Et pourtant...
On va tenter la semaine prochaine avec un kernel tout frais et pas encore bien sec (4.10-rc4), pour voir ce que ça donne. Puis on se résoudra à tester avec une CentOS.
Merci à tous pour vos retours !
Fabien _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org
Nicolas S.
Bonjour,
On 20/01/2017 21:36, Nicolas S. wrote:
As tu essayé de désactiver les différents offloading hardware que fait la carte, par exemple avec du :
ethtool --offload eth2 sg off ethtool -K eth2 tso off
(Il doit y en avoir d'autres. )
J'ai déjà vu ca en jessie sur un firewall qui au bout de 5 min faisait du yoyo Link Down / Link Up. Si cette piste peut aider ...
J'avais testé ça au tout début oui, ça ne changeait rien. Mais si ça replante encore avec le tout dernier kernel, je retenterai, sait-on jamais :-) Merci pour le rappel.
PS : @Fabien : tu viens plus aux soirées ? :-)
Merci Intel, hein, j'ai plus le temps :-D
Fabien
Le 20/01/2017 à 20:21, Fabien Germain a écrit :
Bonsoir,
On 19/01/2017 10:13, Landry Minoza wrote:
<snip>
(tristement) amusant de voir que plusieurs années après, c'est exactement le même comportement que l'on observe sur nos X710 : Avec un kernel 4.8.0-0.bpo.2-amd64, ça fonctionne niquel pendant environ 15 ou 16h, et puis d'un coup plus rien, le réseau fait grève.
Les logs juste avant le plantage du réseau (mais la machine est toujours up, on a l'accès en console dessus) :
Jan 18 09:40:26 int-rt1 kernel: [62284.961173] i40e 0000:01:00.0: TX driver issue detected, PF reset issued Jan 18 09:40:27 int-rt1 kernel: [62285.442664] bond0: link status down for interface eth2, disabling it in 200 ms Jan 18 09:40:27 int-rt1 kernel: [62285.650320] i40e 0000:01:00.0: Error I40E_AQ_RC_EINVAL adding RX filters on PF, promiscuous mode forced on Jan 18 09:40:27 int-rt1 kernel: [62285.650627] bond0: link status up again after 200 ms for interface eth2
C'est un bonding sur 4 interfaces 10G : même si eth2 avait un soucis et lâchait, ça ne devrait pas avoir trop d'impact. Et pourtant...
On va tenter la semaine prochaine avec un kernel tout frais et pas encore bien sec (4.10-rc4), pour voir ce que ça donne. Puis on se résoudra à tester avec une CentOS.
Merci à tous pour vos retours !
Hello,
Visiblement il y a plusieurs types de cartes réseaux X710... Tu sais laquelle tu as ? Tu es en RJ45 ou en SFP ? En SFP, ils ont testé qu'avec certains visiblement Quand tu dis un kernel tout frais, tu utilises les drivers présents sur le site d'Intel ou pas ? De la même façon as-tu mis à jour la partie NVM, sorte de firmware de la carte ?
Cdlt,
JYL
Hello,
On 21/01/2017 17:19, Jean-Yves LENHOF wrote:
Visiblement il y a plusieurs types de cartes réseaux X710... Tu sais laquelle tu as ? Tu es en RJ45 ou en SFP ? En SFP, ils ont testé qu'avec certains visiblement
C'est du SFP+ dans mon cas.
Quand tu dis un kernel tout frais, tu utilises les drivers présents sur le site d'Intel ou pas ?
J'ai essayé les deux, mais les drivers fournis sur le site d'Intel sont moins récents (v1.5.x) que ceux du kernel (v1.6.x)...
De la même façon as-tu mis à jour la partie NVM, sorte de firmware de la carte ?
Oui oui, ça a bien été mis à jour.
Bonne soirée, Fabien
Le 21/01/2017 à 20:43, Fabien Germain a écrit :
Hello,
On 21/01/2017 17:19, Jean-Yves LENHOF wrote:
Visiblement il y a plusieurs types de cartes réseaux X710... Tu sais laquelle tu as ? Tu es en RJ45 ou en SFP ? En SFP, ils ont testé qu'avec certains visiblement
C'est du SFP+ dans mon cas.
Quand tu dis un kernel tout frais, tu utilises les drivers présents sur le site d'Intel ou pas ?
J'ai essayé les deux, mais les drivers fournis sur le site d'Intel sont moins récents (v1.5.x) que ceux du kernel (v1.6.x)...
De la même façon as-tu mis à jour la partie NVM, sorte de firmware de la carte ?
Oui oui, ça a bien été mis à jour.
Si j'ai bien lu et vu que tu parlais de LACP dans ton tout premier mail, tu ne sembles pas tout seul à rencontrer le pb : https://sourceforge.net/p/e1000/bugs/524/ Mais visiblement le paramètre miimon=0 permettrait d'aider à la stabilité du biniou
Amicalement,
JYL
Bonjour,
Expérience avec la distribution SL.
Les cartes intel X520 en version RJ45 sont sensibles à la température et s'arretent avec un message du genre "p1p1: Network adapter has been stopped because it has over heated." dans des Dell 2U bourrés de disques.
Pas ce genre de soucis avec les X540, je n'ai pas eu besoin de passer du temps à tuner pour saturer le lien. driver standard de la distrib (SL>=5.8 , SL6, CentOS 7).
bonding 802.3ad ou balance-alb ou balance-tlb : ça marche.
Mellanox, expérience avec des CX313A (40gb) uniquement, ça marche bien, pour tuner un peu, ma référence est celle-ci : https://fasterdata.es.net/host-tuning/
Cordialement Denis
Le 18/01/2017 à 18:28, Fabien Germain a écrit :
Hello,
Certains d'entre vous ont-ils des expériences, bonnes ou mauvaises, avec des cartes 10 Gb/s sous Linux ? Je pense en particulier aux cartes Intel X710 avec bonding (LACP) de plusieurs ports 10G + VLANs par dessus : sous Debian ? Sous Redhat ? Autre ?
Et deuxième question : Avez-vous eu l'occasion d'avoir d'autres marques en prod ? Je pense par exemple à Mellanox, mais tous vos retours m'intéressent !
Nous avons des misères avec des cartes Intel X710 sous Debian Jessie : Même avec le dernier kernel bpo et un driver i40e très récent, ça marche juste pas (le réseau plante complètement au bout de plusieurs heures, sans explication). Et quand on remonte les logs aux devs Intel, ils sont... peu réceptifs, pour rester poli (du genre "Debian n'est pas supporté, désolé mon gars"). Bref on cherche une alternative, ou soyons fous une solution :-)
Merci d'avance pour vos lumières, bonne soirée. Fabien