Salut,
Chez nous on a une petite infra de dev sous proxmox avec deux hyperviseurs sur lesquels on a (de souvenir) :
* configuré multipath,
* présenté un Virtual Volume a chaque HV proxmox (chez nous via une baie HPE 3PAR qui exporte un volume via un réseau SAN FC)
* utiliser LVM ( [ https://pve.proxmox.com/wiki/Storage | https://pve.proxmox.com/wiki/Storage ] - le ² dans la colonne LVM : It is possible to use LVM on top of an iSCSI or FC-based storage. That way you get a shared LVM storage. )
* créer un PV et un Volume Group
* chaque disque utilisé par une VM sera un LV dans le VG,
On a un peu plus de 60 VM qui tournent et 60 de plus en état arrêté actuellement.
Exemple de ce que ca donne en console :
root@c:~# multipath -ll
mpatha (360002ac00000000000000***********) dm-5 3PARdata,VV
size=4.0T features='1 queue_if_no_path' hwhandler='1 alua' wp=rw
`-+- policy='round-robin 0' prio=50 status=active
|- 1:0:0:1 sdb 8:16 active ready running
|- 2:0:0:1 sdd 8:48 active ready running
|- 1:0:1:1 sdc 8:32 active ready running
`- 2:0:2:1 sde 8:64 active ready running
root@c:~# ls -alh /dev/mapper/mpatha
lrwxrwxrwx 1 root root 7 Jan 4 14:18 /dev/mapper/mpatha -> ../dm-5
root@c:~# ls -alh /dev/mapper/mpatha-part1
lrwxrwxrwx 1 root root 7 Feb 24 11:39 /dev/mapper/mpatha-part1 -> ../dm-6
root@c:~# pvdisplay
--- Physical volume ---
PV Name /dev/mapper/mpatha-part1
VG Name pve-datastore
PV Size <4.00 TiB / not usable <12.02 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 1048567
Free PE 389760
Allocated PE 658807
root@c:~# pvs
PV VG Fmt Attr PSize PFree
/dev/mapper/mpatha-part1 pve-datastore lvm2 a-- <4.00t <1.49t
root@c:~# vgs
VG #PV #LV #SN Attr VSize VFree
pve-datastore 1 343 0 wz--n- <4.00t <1.49t
root@c:~# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
vm-100-cloudinit pve-datastore -wi-a----- 4.00m
vm-100-disk-0 pve-datastore -wi-a----- 10.00g
vm-101-disk-0 pve-datastore -wi-ao---- 10.00g
vm-102-cloudinit pve-datastore -wi------- 4.00m
vm-102-disk-0 pve-datastore -wi------- 2.00g
vm-102-disk-1 pve-datastore -wi------- 50.00g
vm-103-cloudinit pve-datastore -wi------- 4.00m
vm-103-disk-0 pve-datastore -wi------- 10.00g
vm-103-disk-1 pve-datastore -wi------- 2.00g
vm-104-disk-0 pve-datastore -wi------- 10.00g
vm-105-cloudinit pve-datastore -wi------- 4.00m
vm-105-disk-0 pve-datastore -wi------- 30.00g
[...]
et on voit exactement la même chose sur le second hyperviseur.
Dans proxmox pour chaque hyperviseur on peux voir dans Disk > LVM :
++
De: "Ludovic Scotti" <tontonlud(a)gmail.com>
À: mysolo(a)cynetek.com
Cc: "French SysAdmin Group" <frsag(a)frsag.org>
Envoyé: Vendredi 24 Février 2023 13:59:53
Objet: [FRsAG] Re: Promox - stockage partagé
BQ_BEGIN
Bonjour,
Une baie MSA qu'elle soit Fiber Channel, iSCSI, ou SAS se comporte de la même manière, elle présente une LUN à un host.
Donc en présentant une même LUN à 2, 3, 4 hosts avec un système de fichier partagé qu'il soit NFS, VMFS, NTFS/ReFS, QueSais-jeFS, on peut faire des opérations de Live Migration, Storage vMotion, etc.
@job-1/-3 j'en ai installé/utlisé avec de l'Hyper-V Failover Cluster, du cluster vSphere HA. Jamais testé avec Proxmox mais j'imagine que ca doit fonctionner pareil.
En fouillant un peu sur le net j'ai trouvé cet article : [ https://forum.proxmox.com/threads/proxmox-with-hp-msa-2040-storage.38955/ | https://forum.proxmox.com/threads/proxmox-with-hp-msa-2040-storage.38955/ ]
Bonne fin de semaine à tous.
Ludovic
Le ven. 24 févr. 2023, 00:57, [ mailto:mysolo@cynetek.com | mysolo(a)cynetek.com ] < [ mailto:mysolo@cynetek.com | mysolo(a)cynetek.com ] > a écrit :
BQ_BEGIN
Je rejoins David,
Il aurait mieux fallut 2 serveurs relié chacun a 2 baies. Tu as toujours une redondance si un équipement a des problèmes.
Le 23/02/2023 à 13:35, HYVERNAT Philippe Responsable Informatique CHAVS a écrit :
BQ_BEGIN
oui je comprends.
c'est pas full redondé mais c'est une bonne entrée en matière et limite un peu les coûts.
est ce que quelqu'un l'a déjà essayé ?
C'est la question initiale ;)
Le 23/02/2023 à 13:18, David Ponzone a écrit :
BQ_BEGIN
Pas de réseau mais t’as quand même un seul chassis MSA.
Je sais que c’est très solide, mais quand on me parle de HA et que je vois un SPOF, euh, comment dire….
BQ_BEGIN
Le 23 févr. 2023 à 13:04, HYVERNAT Philippe Responsable Informatique CHAVS < [ mailto:phhyvernat@ch-avs.fr | phhyvernat(a)ch-avs.fr ] > a écrit :
Une baie MSA 2050 avec port SAS pour connecter les 3 serveurs DL donc pas de réseau entre les hôtes et le stockage
sous vmware on voit le stockage comme du stockage interne mais je voulais m'assurer que sur Proxmox on est la même réaction.
BQ_END
BQ_END
_______________________________________________
Liste de diffusion du %(real_name)s [ http://www.frsag.org/ | http://www.frsag.org/ ]
BQ_END
_______________________________________________
Liste de diffusion du %(real_name)s
[ http://www.frsag.org/ | http://www.frsag.org/ ]
BQ_END
_______________________________________________
Liste de diffusion du %(real_name)s
http://www.frsag.org/
BQ_END
Bonjour,
Dans le cadre de nos travaux, nous recherchons des expertises pour :
- Une montée en compétence sur Ansible, au rythme d’une journée en présentiel à Paris centre;
- La configuration d’un ELK existant pour y créer de beaux dashboards depuis les logs de nos firewalls. En présentiel également à Paris centre.
Cela peut-être deux sociétés différentes pour les deux expertises.
Je vous remercie par avance pour vos propositions.
HP
by HYVERNAT Philippe Responsable Informatique CHAVS
Bonjour la communauté,
J'ai un futur projet de clustering et aimerais utiliser Proxmox.
Je vous décris la config :
- 3 serveurs HP DL360gen10, reliés directement chacun d'eux en SAS 12G
sur une baie MSA 2050 (2 contrôleurs / 2 ports par serveur), jusque là,
rien d'exceptionnel :)
La question était de savoir si Proxmox allait reconnaitre le stockage
SAS et si on peut faire :
- Clustering
- HA
- Live migration
Si oui, y a t il des spécificités, des outils en plus à installer etc...
De plus, quitte à faire de l'opensource, j'aimerais utiliser Proxmox
Backup Server pour sauvegarder tout cela. Est ce que cela sera possible ?
J'ai fouiller un peu partout sur le net, je trouve un peu tout et son
contraire et surtout du stockage réseau SAN ISCSI NFS ...
En vous remerciant pour votre expertise
--
**
*HYVERNAT Philippe
*
*Responsable Informatique
*
CH Ain Val de Saône
Rue Pierre Goujon - 01290 Pont de Veyle
Téléphone : 03.85.36.23.50
**
Bonjour à tous,
Nous sommes encore en hiver alors on en profite!
nous vous proposons un apéro Réseau et SysAdmin le mercredi 22 juin à
partir de 19h00 au Berlin1989 de Saint-Herblain.
https://www.openstreetmap.org/node/7467668997
En before, nous proposons un atelier BGP et peering à 17h30, réalisé par
LUGOS et des membres de l'équipe de Ouest Network.
--
Cordialement,
Antoine Nivard
Président & Business Developer de https://Ouest.Network - Vous
rapprocher !
https://www.linkedin.com/company/ouestnetwork/
Tél: 06 52 57 79 69 - antoine.nivard(a)ouest.network
by HYVERNAT Philippe Responsable Informatique CHAVS
Merci pour ces retours,
Y a t il quelqu'un qui a déjà eu ce projet ?
**
*HYVERNAT Philippe
*
*Responsable Informatique
*
CH Ain Val de Saône
Rue Pierre Goujon - 01290 Pont de Veyle
Téléphone : 03.85.36.23.50
**
Le 23/02/2023 à 10:38, Christophe BARRY a écrit :
>
> Côté HP, la présentation d’une LUN à plusieurs hôtes fonctionne pas
> mal sur RHEL ou VmWare par ex.
>
> cb
>
> *De : *David Ponzone <david.ponzone(a)gmail.com>
> *Date : *jeudi 23 février 2023 à 10:32
> *À : *HYVERNAT Philippe Responsable Informatique CHAVS
> <phhyvernat(a)ch-avs.fr>
> *Cc : *"frsag(a)frsag.org" <frsag(a)frsag.org>
> *Objet : *[FRsAG] Re: Promox - stockage partagé
>
> En fait, c’est plus un problème côté HP.
>
> Si tu sais monter le même volume de la MSA depuis les 3 PVE, y pas de
> raison que ça marche pas.
>
> Proxmox lui, il se contente de démarrer les VM parce qu’il détecte
> qu’un autre PVE est dead.
>
> Après, ça se maquette, quand même.
>
> Le 23 févr. 2023 à 10:24, HYVERNAT Philippe Responsable
> Informatique CHAVS <phhyvernat(a)ch-avs.fr> a écrit :
>
> Bonjour,
>
> Merci pour ce retour
>
> Le but est de configurer les choses simplement, 1 volume pour
> l'ensemble des VM sur la MSA pour un accès au même volume depuis
> les 3 PVE pour du live migration sans coupure.
>
> Le 23/02/2023 à 09:37, David Ponzone a écrit :
>
> Avec Proxmox, et tout HV je pense, la règle est simple:
>
> si tu veux faire HA/Live Migration, tous les HV doivent
> pouvoir accéder à l’image de la VM sur ton stockage.
>
> Donc les technos vont varier:
>
> -NFS
>
> -CIFS
>
> -CEPH
>
> -iSCSI
>
> etc..
>
> Une baie SAS, c’est comme des HD internes. A priori, tu vas
> physiquement configurer la MSA pour assigner les disques aux
> différents HV.
>
> Mon petit doigt me dit que HP pourrait être capable de
> basculer un groupe de HDs d’un client vers un autre, mais je
> doute que Proxmox gère ça.
>
> Pour Proxmox Backup Server, il parle par le réseau avec les
> HV, donc l’endroit où tu mets le storage ne le concerne pas.
>
> Le 23 févr. 2023 à 08:53, HYVERNAT Philippe Responsable
> Informatique CHAVS <phhyvernat(a)ch-avs.fr> a écrit :
>
> Bonjour la communauté,
>
> J'ai un futur projet de clustering et aimerais utiliser
> Proxmox.
>
> Je vous décris la config :
>
> - 3 serveurs HP DL360gen10, reliés directement chacun
> d'eux en SAS 12G sur une baie MSA 2050 (2 contrôleurs / 2
> ports par serveur), jusque là, rien d'exceptionnel :)
>
> La question était de savoir si Proxmox allait reconnaitre
> le stockage SAS et si on peut faire :
>
> - Clustering
>
> - HA
>
> - Live migration
>
> Si oui, y a t il des spécificités, des outils en plus à
> installer etc...
>
> De plus, quitte à faire de l'opensource, j'aimerais
> utiliser Proxmox Backup Server pour sauvegarder tout cela.
> Est ce que cela sera possible ?
>
> J'ai fouiller un peu partout sur le net, je trouve un peu
> tout et son contraire et surtout du stockage réseau SAN
> ISCSI NFS ...
>
> En vous remerciant pour votre expertise
>
> --
>
> *HYVERNAT Philippe*
>
> *Responsable Informatique*
>
> CH Ain Val de Saône
>
> Rue Pierre Goujon - 01290 Pont de Veyle
>
> Téléphone : 03.85.36.23.50
>
> *<VdMaO5kdVx3SjnCg.png><GNsaOj7kKok0rPvw.png>*
>
> _______________________________________________
> Liste de diffusion du %(real_name)s
> http://www.frsag.org/
> <https://antiphishing.vadesecure.com/v4?f=NmhwUWdPbjljNWRxSlVxNUQHyRjXhZxLDB…>
>
Bonjour/Bonsoir,
Mon hackerspace doit vider un espace de stockage, il nous reste qu'une baie
informatique 22U sur les bras.
Je n'ai pas les dimensions exactes, elle n'est pas assez profonde pour
contenir du gros serveur, mais sans problème pour du matos réseau ou des
serveurs 1U "courts".
Elle est démontée, avec toutes ses vis.
Quelques photos dispo ici:
https://mia.gasy.me/index.php/s/YSTmoMjHqyJcBZR
À venir récupérer sur place à Pantin jusqu'au 5 mars.
Contactez-moi directement pour les modalités d'accès.
Cordialement,
Kholah pour La Bidouille
Bonjour ,
J ai installé sur un serveur Windows 2019, une vm sous hyperV
Cette vm a pour but de sniffer le réseau depuis un flux mirroré depuis un
switch.
Lorsque je lance un wireshark sur le serveur 2019, je constate bien l
ensemble des flux arriver sur l interface mirrorée.
Lorsque je lance un tcpdump depuis ma Vm, j ai uniquement que du brodcast.
Il semblerait qu HyperV ne remonte pas les flux mirrorés depuis un switch
vers la vm.
Quelqu'un a déjà rencontré ce phénomène et si oui, comment l avez-vous
corrigé ?
Note : le promiscuous mode fonctionne très bien sous esxi, virtualbox et
promox, mais pas avec hyperV
Merci par avance de votre aide
Anthony
Bonjour la liste,
Je récupère une infra mobilisant pas mal de stockage EMC Unity et Vplex,
technos que je connais très mal (pour ne pas dire pas du tout).
Je cherche donc un intervenant qui pourrait venir une journée ou deux
sur site à Grenoble afin de jeter un œil à la conf actuelle, et nous
former sur l'administration.
N'hésitez pas à me contacter pour plus de précisions :)
Merci pour votre aide,
Fabien
Bonjour,
Il s'agit de mails de confirmation d'une inscription à un événement. La personne
qui s'inscrit remplit un formulaire en ligne, donne volontairement (de son plein
gré) son adresse mail et coche la case "Cochez cette case si vous souhaitez
recevoir les mails d'informations".
Cette personne attend un mail de confirmation de son inscription.
Mais ce mail, envoyé automatiquement, est rejeté avec un message dans
/var/log/mail.log tel que : "…status=deferred (host
smtp-in.orange.fr[80.12.26.32] refused to talk to me: 421 EHLO … Service refuse.
Veuillez essayer plus tard. Service refused, please try later. OFR005_202 [202])"
Le serveur réessaie donc de renvoyer le mail après un délai de 8, 10, 20, 40 et
toutes les 90 minutes ensuite (jusqu'à ce que je le supprime manuellement de la
file d'attente).
Toujours la même réponse mais seulement pour certaines adresses @orange.com.
Entre-temps, d'autres mails envoyés à …(a)orange.com passent.
Une précision qui me semble utile : ce serveur envoie très peu de mail
similaires, quelques dizaines par jour tout au plus.
J'ai deux problèmes pour lesquels je sollicite les lumières de cette liste :
1. Pourquoi ce rejet de mail pour certaines adresses @orange.com ?
2. Pourquoi une réponse "Veuillez essayer plus tard" si toute nouvelle
tentative est rejetée ?
Tout indice par rapport à ces questions et toute suggestion pour résoudre ces
problèmes seraient les bienvenus.
Cordialement,
Laurent Barme