Serveur Proxmox

Objectif et environnement

Objectif

Installation et configuration d’un cluster Proxmox avec trois serveurs en haute disponibilité sur serveurs. Tolérance de panne d’un serveur.

Environnement

Matériels :

  • 3 x Dell PowerEdge r240 avec Proxmox 7.1-7

Adressage des VMS :

  • Réseau interne : 172.16.0.0/16

  • IP internes : 172.28.1.250, 172.28.1.250, 172.28.1.250

  • Réseau externe : 192.168.10.xx/26 (en DHCP fournie par le PEI)

Documentation

https://www.youtube.com/watch?app=desktop&v=Y-n73ciSsZw

Configuration préalable

Avertissement

Nous allons utiliser des disques formattés en Ceph pour la haut disponibilité. Ces disques doivent être non RAID ou RAID0 à 1 disque, sinon Ceph ne pourra pas s’installer.

Processus

Création d’un Cluster

Nous avons créé un cluster sur le 1er serveur (172.28.1.250/16) :

_images/image5.png

Nommé le cluster puis create :

_images/image6.png

Le cluster a été correctement créé :

_images/image7.png

Une fois le cluster créé, nous avons copié join information (clé d’agrégation)

_images/image8.png

Sur le 2e serveur (pve2 : 172.28.1.251/16)

Menu Cluster > Joindre le cluster

_images/image9.png

Le serveur est bien arrivé sur le cluster. Nous avons fait la même manipulation pour le 3e serveur (172.28.1.252/16).

_images/image10.png

Installation Ceph

Installation Ceph sur les serveurs

Menu > Ceph

_images/image11.png

_images/image12.png

_images/image13.png

Nous avons installé Ceph sur les deux autres serveurs également.

_images/image14.png

_images/image15.png

Ajout des Monitors et Managers

Cette fonctionnalité donne des droits pour afficher et manager les différents serveurs Proxmox.

Menu > Ceph > Monitor

_images/image16.png

_images/image17.png

_images/image18.png

_images/image19.png

_images/image20.png

Création d’un pool de stockage

Menu Ceph > OSD > Create OSD

_images/image21.png

_images/image22.png

Nous avons effectué la même manipulation sur les deux autres serveurs.

_images/image23.png

Création d’un pool

Menu > Ceph > Pools

_images/image24.png

_images/image25.png

Ceph stockage a été créé.

Mise en place de la haute disponibilité (HA)

Menu > HA > Groups

_images/image26.png

_images/image27.png

_images/image28.png

Test de la migration d’une VM

Nous avons créé un conteneur test sur le pve1

_images/image29.png

Nous avons ajouté le conteneur dans la haute disponibilité pve1-ha

_images/image30.png

_images/image31.png

Nous avons arrêté le pve1.

_images/image32.png

Le conteneur est bien arrivé sur le pv3. Par la suite nous avons rallumé pve1.

_images/image33.png

Le conteneur est retourné automatiquement sur pve1(3 min après avoir démarré pv1).

Test de la haute disponibilité lors d’une coupure d’un serveur

Nous avons lancé une copie d’un fichier volumineux à partir de la partition D:\ du l’AD sur le pve1 vers un dossier partage se trouvant sur le serveur SAMBA sur le pve3.

_images/image34.png_images/image35.png

_images/image36.png

En paralelle, nous avons lancé un ping continue depuis CLI-DEB-01 sur pve3 vers www.google.com. Le client accède à l’internet via FW-PROXY se trouvant sur le pve1.

_images/image37.png

NB : chaque VM possède un snapshot avec sa dernière bonne configuration. Lors d’une migration, la VM bascule avec son snapshot !

Configuration des groupes HA

_images/image38.png

Ajout des ressources pour effectuer le test

_images/image39.png

Etapes Activité L'heure
0 Lancement du ping vers Google et lancement de la copie d'une ISO 10h11
1 Nous avons débranché le câble réseaux vmbr1 sur le pve1 pour simuler une coupure 10h11
2 Retour ping sur pfSense 10h16
pfSense est opérationnel 10h18
Démarrage du AD est complet 10h18

Etape1

_images/image41.png

_images/image42.png

Les VM sont arrivées sur le pve3

_images/image43.png

_images/image44.png

_images/image45.png

Nous avons rejoué la séquence en rebranchent le pve1

Etapes Activité L'heure
0 Lancement du ping vers Google et lancement de la copie d'une ISO 10h23
1 Nous avons rebranché le câble réseaux vmbr1 sur le pve1 10h23
2 Début de la migration SRV-W19-AD et FW-PROXY 10h25
3 Migration complète du FW-PROXY 10h34
4 Fin de copie du fichier de la VM vers le partage. La migration de l'AD est toujours en cours. 10h38
5 La bascule de l'AD est effective, sans aucune coupure de services. 10h48

Etape2

Les VM AD et PROXY sont en état migrate

_images/image47.png

Pendant la copie la migration du l’AD n’a pas été effective.

Etape 3

Pf a basculé complètement sans aucune coupure

_images/image48.png

_images/image49.png

Etape 4

Fin de la copie du fichier depuis l’AD vers le partage SAMBA.

_images/image50.png

Pendant la migration l’AD continue fournir des services, notamment la résolution DNS. L’AD est toujours 100% fonctionnel.

_images/image51.png

Etape 5

La migration du l’AD est effective

_images/image52.png

Suppression d’un cluster

systemctl stop corosync pve-cluster  
pmxcfs -l  
rm -rf /etc/corosync/\*  
rm -rf /etc/pve/corosync.conf  
killall pmxcfs  
systemctl start pve-cluster

Conclusion

La mise en place d’un cluster est terminée. Les images concernées par la haute disponibilité doivent être crées sur la partition répliquée prévue à cette effet(ceph-stockage).

Sur Proxmox il y a une différence notable entre migration voulu ou depuis et vers un serveur actif et migration automatique suite d’une panne. Dans le premier cas (reprise d’activités), nous n’avons pas constaté de coupure de service. La migration est plus lente. Lors de la simulation d’une panne la migration est automatique avec des coupures de service, néanmoins la migration est plus rapide.

  Pierre & Zoltan v: 0.1
Sur Pierre & Zoltan
Home
Sur GitHub
View
Search
Hosted by GitHub ·