Aller au contenu principal
Version: 23.10

Centreon HA

Introduction

Centreon-HA est la seule solution officielle et supportée pour mettre en place un cluster de supervision en haute disponibilité. Il inclut les éléments suivants :

  • Une documentation, principalement pour décrire comment mettre en place votre Cluster sur votre solution Centreon.
  • Une collection de scripts permettant une gestion sûre et efficace des ressources liées à Centreon.
  • Des fichiers additionnels qui étendront les capacités par défaut de Centreon.

Cette architecture s'appuie sur les composants pacemaker et corosync de ClusterLabs, permettant une tolérance aux pannes sur les composants suivants :

  • Daemons applicatifs du serveur central
    • centreon-engine (ordonnanceur)
    • centreon-Broker (multiplexeur)
    • centreon-Gorgone (gestionnaire de tâches)
    • centreon-central-sync (réplication des fichiers de configuration)
    • snmptrapd et centreontrapd (système et processus applicatifs de gestion des traps SNMP)
  • Daemons tiers du serveur central
    • php-fpm (cache FastCGI PHP)
    • apache server (serveur web)
  • Bases de données
    • Réplication active/passive de binlogs (stockage)
  • Défaillances des hôtes
    • Machines virtuelles ou serveurs physiques

Avertissement: Si vous disposez d'une IT ou Business edition, veuillez contacter votre représentant commercial Centreon ou votre responsable de compte technique avant de le mettre en place. Les extensions ont besoin de fichiers de licence spécifiques pour fonctionner sans problème sur les deux nœuds.

Concepts

La solution met en œuvre trois types de ressources différentes :

  • Ressources multi-state, fonctionnant sur les deux nœuds avec des rôles différents.
  • Ressources clone, fonctionnant à la fois sur le nœud principal et le nœud secondaire.
  • Ressources unique, faisant partie d'un groupe et fonctionnant sur un seul nœud.

Les services du cluster sont divisés en deux groupes fonctionnels.

Groupe fonctionnel MariaDB

Le groupe fonctionnel ms_mysql est une ressource multi-state. Cette ressource peut être en mode actif/primaire sur un nœud et en mode secondaire/passif sur l'autre nœud.

La méta-ressource ms_mysql-master est affectée à la base de données primaire.

Groupe fonctionnel Centreon

Le groupe fonctionnel centreon rassemble toutes les ressources Centreon pour les gérer.

Description du type de ressources

Toutes ces ressources sont décrites dans le tableau ci-dessous.

NomTypeDescription
ms_mysqlressource multi-stateGère le processus mysql et la réplication des données.
ms_mysql-masterlocationDéfinir la préférence de règle du serveur maître MariaDB
php7service cloneService gestionnaire des processus FastCGI (php-fpm)
cbd_rrdservice cloneService du Broker RRD (cbd)
centreongroupeGroupe des "services primitifs" de Centreon
vipservice primitifAdresse de la VIP pour Centreon
httpservice primitifService Apache (httpd24-httpd)
gorgoneservice primitifService Gorgone (gorgoned)
centreon_central_syncservice primitifService de synchronisation des fichiers
cbd_central_brokerservice primitifService du Broker Central (cbd-sql)
centengineservice primitifService Centreon-Engine (centengine)
centreontrapdservice primitifService de gestion des traps SNMP (centreontrapd)
snmptrapdservice primitifService d'écoute des traps SNMP (snmptrapd)

Note: Les ressources du groupe centreon sont démarrées les unes après les autres dans l'ordre de la liste.

Contraintes de resources :

Pacemaker propose différents types de contraintes :

  • Location : où la ressource doit ou ne doit pas s'exécuter.
  • Colocation : comment les ressources se comportent les unes par rapport aux autres.

Par exemple, Centreon-HA utilise des contraintes de location pour spécifier à Pacemaker que le processus de base de données dois être opérationnel sur les nœuds backend, mais pas sur les nœuds frontend.

En ce qui concerne les contraintes de colocation, ils peuvent s'assurer qu'une IP virtuelle (VIP) est attribuée aux nœuds primaires. Par conséquent, les utilisateurs, les Collecteurs et les Démons interagissent constamment avec le nœud primaire.

QDevice et votes

La configuration d'un qdevice est obligatoire pour éviter le split-brain et autres situations auxquelles personne ne veut être confronté dans un Cluster. Le serveur avec le rôle quorum-device vise à obtenir une majorité absolue lors d'un vote pour élire un nœud maître ou un rôle ressource.

Support

Logiciels et systèmes d'exploitation

Centreon supporte officiellement le Clustering sur les produits suivants :

  • Toutes les éditions sous licence de Centreon
  • Serveur de Centreon-Map

Et sur les systèmes d'exploitation suivants :

  • Alma / RHEL / Oracle Linux 8
  • Debian 11

Important: Pour installer les paquets pacemaker et corosync sur les systèmes RedHat, les serveurs doivent avoir accès au dépôt sous licence Red Hat Enterprise Linux High Availability.

Le seul système de base de données officiel pris en charge par Centreon est MariaDB.

Néanmoins, notez que nous avons validé que l'ensemble de la solution peut fonctionner sur MySQL 8 avec quelques modifications, seule la communauté (ou vos DBA) peut vous aider et vous supporter dans l'exécution d'un Cluster sur un serveur Oracle MySQL.

Pour MariaDB et Oracle MySQL, la configuration de la réplication peut être intrusive. Nous vous déconseillons fortement de mettre en place un Cluster sur un serveur contenant d'autres bases de données d'applications, nous ne le supporterons pas.

Architectures

Centreon prend en charge les architectures à 2 et 4 nœuds. Nous recommandons l'utilisation d'une architecture à deux nœuds, sauf si votre organisation exige une séparation systématique des serveurs frontend et backend ou si votre périmètre de supevision est supérieur à 5k hôtes.

Les schémas ci-dessous montrent à la fois la structure de l'architecture et les flux réseau entre les serveurs. Pour obtenir la matrice complète des flux, reportez-vous à la page d'installation de l'architecture dédiée.

image

Accéder à cette page pour commencer votre installation à deux nœuds !

Informations complémentaires

Placement des serveurs

La mise en place d'un cluster Centreon-HA peut s'avérer excessive ou du moins non-optimale lorsque tous vos serveurs fonctionnent dans le même datacenter, voir dans la même baie.

Dans un monde parfait, les nœuds primaires et secondaires fonctionnent sur des sites (géographiques) différents, et le QDevice communique avec les deux sites indépendamment. Évidemment, tous les nœuds doivent communiquer entre eux.

Rôle du serveur central Centreon

Dans le cas d'une architecture hautement disponible, le cluster central Centreon ne doit pas être utilisé comme Poller. En d'autres termes, il ne doit pas surveiller les ressources. Sa capacité de supervision ne doit être utilisée que pour surveiller ses Pollers. Si cette recommandation n'est pas suivie, le service centengine prendrait trop de temps à redémarrer et il pourrait provoquer le basculement du groupe fonctionnel centreon.

VIP et Bascule

Centreon recommande d'utiliser des adresses virtuelles.

L'utilisation d'un load balancer est une option, mais il doit prendre en charge des règles personnalisées afin d'acheminer les flux d'applications.

Par exemple, dans une configuration à quatre nœuds, un load balancer peut s'appuyer sur :

  • frontend-vip: le port d'écoute ou l'état du processus apache pour acheminer les communications des utilisateurs et des Collecteurs vers les serveurs frontend.
  • backend-vip: la valeur de l'indicateur "read_only" sur les deux serveurs de base de données pour déterminer lequel est le serveur primaire.