Bonjour,
Je gère des VM Debian sous VMware et j'ai un problème d'activation des périphériques LVM au boot. Gros problème : c'est aléatoire.
En résumé, *parfois* une VM ne peut pas démarrer car il lui manque un disque, si on se connecte sur la console de secours, on voit bien le LV et on peut l'activer et le monter à la main (donc le disque est bien là → c'est un problème d'activation). Si je ne fais aucune action et que je reboote la VM plantée, elle redémarre sans problème.
On a une utilisation très simple de LVM : 1 VMDK = 1 PV = 1 VG = 1 LV.
Le problème touche aussi bien des Debian 11 ou 12. On n'a aucun problème sur nos VM Red Hat & dérivés.
On a quelques spécificités mais rien de foufou :
- on créé nos PV directement sur les disques plutôt que sur des partitions LVM (pvcreate /dev/sdc et non pas pvcreate /dev/sdc1), cela nous permet d'étendre facilement les disques et les LV,
- on expose les UUID des disques à la VM, c'est la préférence disk.EnableUUID, cela permet à l'OS de voir les serial/wwn des disques et nous ça nous permet de faire le lien dans l'API vSphere,
- on utilise parfois le paramètre issue_discards=1 mais sinon on utilise la conf LVM par défaut de Debian,
- on utilise le boot BIOS, pas EFI.
J'ai essayé d'activer le debug LVM et pour l'instant ya rien de flagrant en cas de problème.
Les pistes :
- Debian peut « mélanger » les disques au démarrage : le disque qui est sur SCSI0:0 ne sera pas forcément /dev/sda alors que Red Hat respecte l'ordre, ça pourrait perturber l'activation LVM ?
- le mode de démarrage EFI qui serait plus fiable que le mode legacy ?
- utiliser une activation « basique » des périphériques LVM au lieu de passer par toutes les règles et les mécanismes qui sont là pour gérer les cas complexes ?
Si vous avez des idées je suis preneur.
En cherchant sur le net je trouve des problèmes similaires mais c'est souvent sur des PC ou des serveurs physiques qui ont des conf un peu spécifiques (multipath, LUKS, raid logiciel, etc.)
Bonne journée,