Aller au contenu principal
Version: 23.10

Montée de version de Centreon HA depuis Centreon 21.04

Ce chapitre décrit comment mettre à niveau votre plate-forme Centreon HA de la version 21.04 vers la version 23.10.

Vous ne pouvez pas simplement monter de version une plateforme avec HA (ou Centreon Failover) depuis une version antérieure à Centreon 20.10 et vers une version 23.10, car CentOS 7 n'est plus supporté: vous devez migrer votre plateforme vers un OS supporté, puis installer Centreon HA sur la nouvelle platforme. Vous pouvez également contacter Centreon pour commander une prestation de migration.

Prérequis

Suspendre la gestion des ressources du cluster

Afin d'éviter un basculement du cluster pendant la mise à jour, il est nécessaire de surpendre toutes les ressources Centreon, ainsi que MariaDB.

pcs property set maintenance-mode=true

Effectuer une sauvegarde

Assurez-vous que vous avez entièrement sauvegardé votre environnement pour les éléments suivants serveurs :

  • Serveur Central
  • Serveur Database

Mise à jour de la clé de signature RPM

Pour des raisons de sécurité, les clés utilisées pour signer les RPM Centreon font l'objet d'une rotation régulière. La dernière modification a eu lieu le 14 octobre 2021. Lorsque vous effectuez une mise à niveau à partir d'une version antérieure, vous devez suivre la [procédure de rotation des clés] (../../security/key-rotation.md#existing-installation), pour supprimer l'ancienne clé et installer la nouvelle.

Processus de mise à niveau

Pour effectuer la mise à niveau, veuillez suivre la documentation officielle Uniquement sur le nœud central actif et nœud de base de données actif si nécessaire.

Ensuite, exécutez les commandes suivantes uniquement sur les serveurs centraux :

mv /etc/centreon-ha/centreon_central_sync.pm.rpmsave /etc/centreon-ha/centreon_central_sync.pm

Sur le nœud central passif, déplacez le répertoire "install" pour éviter d'obtenir l'écran "upgrade" dans le WUI en cas de nouvel échange de rôles.

mv /usr/share/centreon/www/install /var/lib/centreon/installs/install-update-YYYY-MM-DD
sudo -u apache /usr/share/centreon/bin/console cache:clear

Suppression des tâches cron

La mise à jour RPM remet en place les cron jobs sur les serveurs Central et Databases. Supprimez-les pour éviter les exécutions simultanées :

rm -rf /etc/cron.d/centreon
rm -rf /etc/cron.d/centstorage
rm -f /etc/cron.d/centreon-ha-mysql

Le cron centreon-ha-mysql étant supprimé, vérifiez que vous avez bien la ligne suivante dans la section server du fichier /etc/my.cnf.d/server.cnf :

expire_logs_days=7

Si ce n'est pas le cas, ajoutez-la et redémarrez la ressource ms_mysql :

pcs resource restart ms_mysql

Réinitialiser les autorisations pour la ressource centreon_central_sync

La mise à jour RPM remet les permissions en place sur les serveurs Central. Changez-les en utilisant ces commandes :

chmod 775 /var/log/centreon-engine/
mkdir /var/log/centreon-engine/archives
chown centreon-engine: /var/log/centreon-engine/archives
chmod 775 /var/log/centreon-engine/archives/
find /var/log/centreon-engine/ -type f -exec chmod 664 {} \;
find /usr/share/centreon/www/img/media -type d -exec chmod 775 {} \;
find /usr/share/centreon/www/img/media -type f \( ! -iname ".keep" ! -iname ".htaccess" \) -exec chmod 664 {} \;

Montée de version du cluster

Depuis Centreon 22.04, la réplication de mariaDB est maintenant basée sur GTID. Il est nécessaire de détruire complètement le cluster et de le configurer à nouveau avec la dernière version de Centreon et les mécanismes de réplication de MariaDB.

Mode maintenance et sauvegarde

Effectuez une sauvegarde du cluster en utilisant :

pcs config backup centreon_cluster
pcs config export pcs-commands | sed -e :a -e '/\\$/N; s/\\\n//; ta' | sed 's/-f tmp-cib.xml//' | egrep "create|group" | egrep -v "(mysql|php|cbd_rrd)" > centreon_pcs_command.sh

Vérifiez que le fichier centreon_cluster.tar.bz2 existe avant de continuer cette procédure.

ls -l centreon_cluster.tar.bz2

Vous devriez obtenir un résultat comme celui-ci :

-rw------- 1 root root 2777 May  3 17:49 centreon_cluster.tar.bz2

Vérifiez ensuite le fichier centreon_pcs_command.sh, la commande d'exportation peut afficher quelques lignes d'avertissement mais elle n'est pas bloquante.

cat centreon_pcs_command.sh

Le contenu doit ressembler à ceci :

pcs resource create vip ocf:heartbeat:IPaddr2 broadcast=@VIP_BROADCAST_IPADDR@ cidr_netmask=@VIP_CIDR_NETMASK@ flush_routes=true ip=@VIP_IPADDR@ nic=@VIP_IFNAME@ op monitor interval=10s timeout=20s start interval=0s timeout=20s stop interval=0s timeout=20s meta target-role=started
pcs resource create http systemd:httpd24-httpd op monitor interval=5s timeout=20s start interval=0s timeout=40s stop interval=0s timeout=40s meta target-role=started
pcs resource create gorgone systemd:gorgoned op monitor interval=5s timeout=20s start interval=0s timeout=90s stop interval=0s timeout=90s meta target-role=started
pcs resource create centreon_central_sync systemd:centreon-central-sync op monitor interval=5s timeout=20s start interval=0s timeout=90s stop interval=0s timeout=90s meta target-role=started
pcs resource create cbd_central_broker systemd:cbd-sql op monitor interval=5s timeout=30s start interval=0s timeout=90s stop interval=0s timeout=90s meta target-role=started
pcs resource create centengine systemd:centengine op monitor interval=5s timeout=30s start interval=0s timeout=90s stop interval=0s timeout=90s meta multiple-active=stop_start target-role=started
pcs resource create centreontrapd systemd:centreontrapd op monitor interval=5s timeout=20s start interval=0s timeout=30s stop interval=0s timeout=30s meta target-role=started
pcs resource create snmptrapd systemd:snmptrapd op monitor interval=5s timeout=20s start interval=0s timeout=30s stop interval=0s timeout=30s meta target-role=started
pcs resource group add centreon vip http gorgone centreon_central_sync cbd_central_broker centengine centreontrapd snmptrapd

Ce fichier sera nécessaire pour recréer toutes les ressources de votre cluster.

Supprimer les ressources

Ces commandes ne doivent être exécutées que sur le nœud central actif :

pcs resource delete ms_mysql --force
pcs resource delete cbd_rrd --force
pcs resource delete php7 --force
pcs resource delete centreon --force

Reconfigurer MariaDB

Il est nécessaire de modifier la configuration de mysql en éditant le fichier /etc/my.cnf.d/server.cnf :

Sur les 2 serveurs centraux dans les nœuds HA 2. Sur les 2 serveurs de bases de données en HA 4 nœuds.

[server]
...
skip-slave-start
log-slave-updates
gtid_strict_mode=ON
expire_logs_days=7
ignore-db-dir=lost+found
...

Lancer la réplication GTID

Exécutez cette commande sur le nœud de base de données secondaire:.

mysqladmin -p shutdown

Il est important de s'assurer que MariaDB est complètement arrêté. Vous allez exécuter cette commande et vérifier qu'elle ne renvoie aucun résultat :

ps -ef | grep mariadb[d]

Une fois le service arrêté sur le nœud de base de données secondaire, vous exécuterez le script de synchronisation à partir du nœud de base de données primaire :

mysqladmin -p shutdown
systemctl restart mariadb
/usr/share/centreon-ha/bin/mysql-sync-bigdb.sh

La sortie de ce script est très verbeuse et vous ne pouvez pas vous attendre à tout comprendre, donc pour vous assurer que tout s'est bien passé, concentrez-vous sur les dernières lignes de sa sortie, en vérifiant qu'elle ressemble à ceci :

Umount and Delete LVM snapshot
Logical volume "dbbackupdatadir" successfully removed
Start MySQL Slave
Start Replication
Id User Host db Command Time State Info Progress
[variable number of lines]

La chose importante à vérifier est que Start MySQL Slave et Start Replication sont présents et qu'aucune erreur ne les suit.

De plus, la sortie de cette commande ne doit afficher que des résultats OK :

/usr/share/centreon-ha/bin/mysql-check-status.sh

Le résultat attendu est :

Connection Status '@CENTRAL_MASTER_NAME@' [OK]
Connection Status '@CENTRAL_SLAVE_NAME@' [OK]
Slave Thread Status [OK]
Position Status [OK]

Redémarrer les processus Centreon

Puis de redémarrer tous les processus sur le nœud central actif :

systemctl restart cbd-sql cbd gorgoned centengine centreontrapd 

Et sur le nœud central passif :

systemctl restart cbd

Nettoyer les fichiers de mémoire de Broker

Attention: n'exécutez cette commande que sur le noeud central passif.

Avant de reprendre la gestion des ressources du cluster, pour éviter les problèmes de broker, nettoyez tous les fichiers .memory., .unprocessed. ou .queue. :

rm -rf /var/lib/centreon-broker/central-broker-master.memory*
rm -rf /var/lib/centreon-broker/central-broker-master.queue*
rm -rf /var/lib/centreon-broker/central-broker-master.unprocessed*

Recréer les ressources du cluster

A exécuter seulement sur un noeud central :

Attention: la syntaxe de la commande suivante dépend de la distribution Linux que vous utilisez.

Vous pouvez trouver @CENTRAL_MASTER_NAME@ @CENTRAL_SLAVE_NAME@ @MARIADB_REPL_USER@ La variable @MARIADB_REPL_USER@ dans /etc/centreon-ha/mysql-resources.sh.

pcs resource create "ms_mysql" \
ocf:heartbeat:mariadb-centreon \
config="/etc/my.cnf.d/server.cnf" \
pid="/var/lib/mysql/mysql.pid" \
datadir="/var/lib/mysql" \
socket="/var/lib/mysql/mysql.sock" \
binary="/usr/bin/mysqld_safe" \
node_list="@CENTRAL_MASTER_NAME@ @CENTRAL_SLAVE_NAME@" \
replication_user="@MARIADB_REPL_USER@" \
replication_passwd='@MARIADB_REPL_PASSWD@' \
test_user="@MARIADB_REPL_USER@" \
test_passwd="@MARIADB_REPL_PASSWD@" \
test_table='centreon.host'

Attention: la syntaxe de la commande suivante dépend de la distribution Linux que vous utilisez.

pcs resource promotable ms_mysql \
master-node-max="1" \
clone_max="2" \
globally-unique="false" \
clone-node-max="1" \
notify="true"

Resource PHP

pcs resource create "php" \
systemd:php-fpm \
meta target-role="started" \
op start interval="0s" timeout="30s" \
stop interval="0s" timeout="30s" \
monitor interval="5s" timeout="30s" \
clone

Ressource RRD broker

pcs resource create "cbd_rrd" \
systemd:cbd \
meta target-role="started" \
op start interval="0s" timeout="90s" \
stop interval="0s" timeout="90s" \
monitor interval="20s" timeout="30s" \
clone

Recréer le groupe de ressource centreon

bash centreon_pcs_command.sh

Recréer les contraintes

pcs constraint colocation add master "ms_mysql-clone" with "centreon"
pcs constraint order stop centreon then demote ms_mysql-clone

Reprise de la gestion des ressources du cluster

Maintenant que la mise à jour est terminée, les ressources peuvent être gérées à nouveau :

pcs property set maintenance-mode=false
pcs resource cleanup

Vérifier la santé du cluster

Vous pouvez surveiller les ressources du cluster en temps réel à l'aide de la commande crm_mon -fr :

INFO: L'option -fr vous permet d'afficher toutes les ressources même si elles sont désactivées.

Stack: corosync
Current DC: @CENTRAL_SLAVE_NAME@ (version 1.1.20-5.el7_7.2-3c4c782f70) - partition with quorum
Last updated: Thu Feb 20 13:14:17 2020
Last change: Thu Feb 20 09:25:54 2020 by root via crm_attribute on @CENTRAL_MASTER_NAME@

2 nodes configured
14 resources configured

Online: [ @CENTRAL_MASTER_NAME@ @CENTRAL_SLAVE_NAME@ ]

Active resources:

Master/Slave Set: ms_mysql-master [ms_mysql]
Masters: [ @CENTRAL_MASTER_NAME@ ]
Slaves: [ @CENTRAL_SLAVE_NAME@ ]
Clone Set: cbd_rrd-clone [cbd_rrd]
Started: [ @CENTRAL_MASTER_NAME@ @CENTRAL_SLAVE_NAME@ ]
Resource Group: centreon
vip (ocf::heartbeat:IPaddr2): Started @CENTRAL_MASTER_NAME@
http (systemd:httpd24-httpd): Started @CENTRAL_MASTER_NAME@
gorgone (systemd:gorgoned): Started @CENTRAL_MASTER_NAME@
centreon_central_sync (systemd:centreon-central-sync): Started @CENTRAL_MASTER_NAME@
centreontrapd (systemd:centreontrapd): Started @CENTRAL_MASTER_NAME@
snmptrapd (systemd:snmptrapd): Started @CENTRAL_MASTER_NAME@
cbd_central_broker (systemd:cbd-sql): Started @CENTRAL_MASTER_NAME@
centengine (systemd:centengine): Started @CENTRAL_MASTER_NAME@
Clone Set: php-clone [php]
Started: [ @CENTRAL_MASTER_NAME@ @CENTRAL_SLAVE_NAME@ ]

Ressources désactivées

Lorsque vous faites un crm_mon -fr et que vous avez une ressource qui est désactivée :

...
Master/Slave Set: ms_mysql-master [ms_mysql]
Masters: [ @DATABASE_MASTER_NAME@ ]
Slaves: [ @DATABASE_SLAVE_NAME@ ]
Stopped: [ @CENTRAL_MASTER_NAME@ @CENTRAL_SLAVE_NAME@ ]
vip_mysql (ocf::heartbeat:IPaddr2): Stopped (disabled)
...

Vous devez activer la ressource avec la commande suivante :

pcs resource enable @RESSOURCE_NAME@

Dans notre cas :

pcs resource enable vip_mysql

Vérification de la stabilité de la plate-forme

Vous devez maintenant vérifier que tout fonctionne correctement :

  • Accès aux menus de l'interface web.
  • Génération de la configuration des pollers + méthode de rechargement et de redémarrage.
  • Programmation des contrôles immédiats (Central + Pollers), des acquittements, des temps d'arrêt, etc.
  • Déplacer les ressources ou redémarrer le serveur actif et vérifier à nouveau que tout va bien.