Configuration d'un serveur NFS actif-passif dans un cluster Red Hat Enterprise Linux High Availability Add-On
Les informations suivantes décrivent la configuration d'un serveur NFS actif-passif dans un cluster Red Hat Enterprise Linux (RHEL) High Availability Add-On. Le cluster utilise des instances de serveur virtuel dans IBM® Power® Virtual Server comme nœuds de cluster.
La configuration décrite utilise des volumes de stockage partageables qui sont accessibles sur les deux nœuds du cluster. Les systèmes de fichiers pour les exportations d' NFS s sont créés sur ces volumes de stockage partageables. HA-LVM s'assure que le groupe de volumes est actif sur un seul nœud à la fois.
Dans l'exemple de configuration, un groupe de volumes partagés nfssharevg
contient trois volumes logiques nfssharelv
, sap${SID}lv
et saptranslv
. Les systèmes de fichiers XFS sont créés sur ces
volumes logiques et sont montés sur /nfsshare
, /nfshare/export/sap${SID}
, /nfsshare/export/saptrans
.
Les instructions sont basées sur la documentation du produit Red Hat et sur les articles énumérés dans Mise en œuvre de la haute disponibilité pour les applications SAP sur IBM Power Virtual Server Références.
Avant de commencer
Passez en revue les exigences générales, la documentation produit, les articles de support et les notes SAP répertoriées dans la section Mise en œuvre de la haute disponibilité pour les applications SAP à l'adresse IBM Power Virtual Server Références.
Prérequis
Un nom d'hôte et une adresse IP virtuels sont requis pour le serveur NFS. Assurez-vous que l'adresse IP virtuelle est définie sur l'interface réseau et accessible sur le réseau.
La résolution des noms et la recherche inversée des noms et adresses IP physiques et virtuels doivent être uniques et cohérentes sur tous les nœuds serveur et client d' NFS. Les détails des clients d' NFS s (sous-réseau, options d'exportation d' NFS s requises) doivent être disponibles. Vous devez les saisir lors de la configuration du cluster.
Préparation d'un serveur d' NFS s hautement disponible
Utilisez les informations suivantes pour préparer l'environnement d'un serveur d' NFS s hautement disponible.
Installation des logiciels NFS
Sur les deux nœuds, exécutez les commandes suivantes.
dnf install -y nfs-utils
Préparation des objets LVM
Tous les nœuds de cluster ont besoin d'accéder aux volumes de stockage partagés, mais un seul nœud dispose d'un accès exclusif en lecture et en écriture à un volume.
Préparation de la HA LVM active-passive
Sur les deux nœuds, modifiez le fichier /etc/lvm/lvm.conf
pour inclure l'ID système dans le groupe de volumes. Recherchez le paramètre de configuration system_id_source
et remplacez sa valeur par « uname ».
Exemple de paramétrage d' system_id_source
dans /etc/lvm/lvm.conf
:
# grep "system_id_source =" /etc/lvm/lvm.conf
system_id_source = "uname"
Vérifiez que l' LVM system ID
e du nœud correspond à la sortie de l' uname -n
.
lvm systemid
uname -n
Exemple de sortie :
# lvm systemid
system ID: cl-nfs-1
# uname -n
cl-nfs-1
Identification des noms universels des volumes de stockage partagés
Identifiez les noms mondiaux (WWN) pour tous les volumes utilisés dans le groupe de volumes partagés.
-
Connectez-vous à IBM Cloud® et rendez-vous dans la rubrique Storage volumes de Power Virtual Server.
-
Sélectionnez votre espace de travail.
-
Filtrez le préfixe de volume dans la liste des volumes de stockage et identifiez tous les noms universels des volumes concernés (le nom universel est un nombre hexadécimal à 32 chiffres).
Assurez-vous que l'attribut Partageable est activé pour ces volumes.
-
Dans la vue Instances de serveur virtuel, accédez aux deux instances de serveur virtuel du cluster et vérifiez que les volumes de la zone sont attachés aux deux instances de serveur virtuel.
Découverte de nouveaux volumes SAN sur les nœuds de cluster
Lorsque vous attachez un nouveau volume de stockage à une instance de serveur virtuel, vous devez réanalyser le bus SCSI pour détecter le nouveau volume. Puis, mettez à jour la configuration multipath de l'instance de serveur virtuel.
Sur les nœuds avec de nouvelles pièces jointes de volume de stockage, exécutez la commande suivante.
rescan-scsi-bus.sh && sleep 10 && multipathd reconfigure
La valeur WWN d'un volume peut également être trouvée avec la commande pvs --all
.
Préparation des variables d'environnement
Pour simplifier la configuration, préparez les variables d'environnement suivantes pour l'ID utilisateur root
sur les deux nœuds. Ces variables d'environnement sont utilisées dans les commandes suivantes dans le reste de ce document.
Sur les deux nœuds, créez un fichier avec les variables d'environnement. Ensuite, adaptez-les à votre configuration.
Adaptez NFS_VH
, NFS_IP
, NFS_CLIENTSPEC
, et NFS_OPTIONS
à votre environnement. Pour l' NFS_PVID
, utilisez le WWN que vous avez identifié précédemment. Outre le système
de fichiers utilisé pour le partage d' NFS, l'exemple montre deux autres systèmes de fichiers utilisés pour un paysage système d' SAP, avec l'ID système « ${SID}
» et le répertoire de transport « SAP ». Les tailles d'échantillon
${NFS_SZ1}
, ${NFS_SZ2}
et ${NFS_SZ3}
sont des pourcentages de la taille du groupe de volume d' ${NFS_VG}
s et doivent être modifiées en fonction de vos besoins. Les noms des groupes de
volumes et des points de montage sont des suggestions et doivent être modifiés pour correspondre à vos propres conventions de nommage.
Assurez-vous de définir la variable d'environnement NFS_PVID
en utilisant des lettres minuscules dans le nombre hexadécimal.
# virtual hostnames
export NFS_VH=<virtual hostname> # virtual hostname for NFS server
export NFS_IP=<IP address> # virtual IP address for NFS server
# LVM storage for NFS file systems
export NFS_PVID=3<WWN> # WWN of shareable storage volume used for NFS
export NFS_VG="nfssharevg" # volume group name for NFS exported file systems
# NFS share file system
export NFS_LV1="nfssharelv" # logical volume name export #1
export NFS_SZ1="5%VG" # logical volume size
export NFS_FS1="/nfsshare" # file system mount point
export NFS_ROOT="${NFS_FS1}/export" # base export directory
# NFS share file system for SAP system ID <SID>
export SID=<SID> # SAP system ID
export NFS_LV2="sap${SID}lv" # logical volume name export #2
export NFS_SZ2="40%VG" # logical volume size
export NFS_FS2="${NFS_ROOT}/sap${SID}" # file system mount point
# NFS share file system for SAP transport directory
export NFS_LV3="saptranslv" # logical volume name export #3
export NFS_SZ3="40%VG" # logical volume size
export NFS_FS3="${NFS_ROOT}/saptrans" # file system mount point
# NFS client options
export NFS_CLIENTSPEC="10.111.1.0/24" # client specs (subnet and netmask) for allowed NFS clients
export NFS_OPTIONS="rw,sync,no_root_squash,no_subtree_check,crossmnt" # options for NFS export
Vous devez vous procurer ce fichier avant d'utiliser les exemples de commandes dans le reste de ce document.
Par exemple, si vous avez créé un fichier nommé nfs_envs.sh
, exécutez la commande suivante sur les deux nœuds pour définir les variables d'environnement.
source nfs_envs.sh
Chaque fois que vous démarrez une nouvelle session de terminal, vous devez exécuter la commande « source
». Vous pouvez également ajouter le fichier des variables d'environnement au répertoire d' /etc/profile.d
s
lors de la configuration du cluster. Dans cet exemple, le fichier est automatiquement récupéré à chaque fois que vous vous connectez au serveur.
Création d'objets LVM
Utilisez les informations suivantes pour créer des objets LVM.
Création de volumes physiques
Sur NODE1, exécutez la commande suivante.
pvcreate /dev/mapper/${NFS_PVID}
Exemple de sortie :
pvcreate /dev/mapper/${NFS_PVID}
Physical volume "/dev/mapper/360050768108103357000000000002ddc" successfully created.
Création d'un groupe de volumes
Sur NODE1, créez le groupe de volumes pour l'exportation d' NFS.
vgcreate ${NFS_VG} /dev/mapper/${NFS_PVID}
Vérifiez que l'ID système est défini.
vgs -o+systemid
Exemple de sortie :
# vgs -o+systemid
VG #PV #LV #SN Attr VSize VFree System ID
nfssharevg 1 0 0 wz--n- <50.00g <50.00g cl-sap-1
Création de volumes logiques
Sur NODE1, créez trois volumes logiques pour l'exportation de l' NFS.
lvcreate -l ${NFS_SZ1} -n ${NFS_LV1} ${NFS_VG}
lvcreate -l ${NFS_SZ2} -n ${NFS_LV2} ${NFS_VG}
lvcreate -l ${NFS_SZ3} -n ${NFS_LV3} ${NFS_vg}
Création des systèmes de fichiers
Sur NODE1, créer les systèmes de fichiers pour les exportations d' NFS.
L'exemple utilise le type de système de fichiers xfs
. D'autres types de systèmes de fichiers sont possibles. Ensuite, les définitions des ressources doivent être modifiées.
mkfs.xfs /dev/${NFS_VG}/${NFS_LV1}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV2}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV3}
Création du point de montage pour l'exportation de l' NFS
Sur les deux nœuds, exécutez la commande suivante.
mkdir -p ${NFS_FS1}
S'assurer qu'un groupe de volumes n'est pas activé sur plusieurs nœuds de cluster
Les groupes de volumes gérés par l' Pacemaker, ne doivent pas s'activer automatiquement au démarrage.
Pour RHEL 8.5 et versions ultérieures, vous pouvez désactiver l'activation automatique d'un groupe de volumes lorsque vous créez le groupe de volumes en spécifiant l'indicateur d'activation automatique ( --setautoactivation n
) pour la commande vgcreate.
Sur les deux nœuds, éditez le fichier /etc/lvm/lvm.conf
et modifiez l'entrée auto_activation_volume_list
pour limiter l'auto-activation à des groupes de volumes spécifiques. Recherchez le paramètre auto_activation_volume_list
et ajoutez les groupes de volumes, autres que le groupe de volumes que vous avez défini pour le cluster d' NFS, en tant qu'entrées dans cette liste.
Exemple de paramétrage de l'entrée auto_activation_volume_list
dans /etc/lvm/lvm.conf
:
auto_activation_volume_list = [ "rhel_root" ]
Reconstruire l'image de démarrage initramfs pour s'assurer que l'image de démarrage n'active pas un groupe de volumes contrôlé par le cluster.
Sur les deux nœuds, exécutez la commande suivante.
dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)
Redémarrez les deux nœuds.
Installation et configuration du cluster RHEL HA Add-On
Suivez les instructions suivantes pour effectuer la configuration initiale du cluster.
- Installez et configurez le cluster de modules complémentaires RHEL HA conformément à la section Implémentation d'un cluster de modules complémentaires Red Hat Enterprise Linux High Availability.
- Configurez et testez le système de clôture comme décrit dans la section Création du système de clôture.
Exemple de sortie de l'état du cluster à ce stade.
# pcs status
Cluster name: SAP_NFS
Cluster Summary:
* Stack: corosync
* Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
* Last updated: Fri Mar 10 10:35:42 2023
* Last change: Fri Mar 10 09:52:08 2023 by root via cibadmin on cl-nfs-1
* 2 nodes configured
* 1 resource instance configured
Node List:
* Online: [ cl-nfs-1 cl-nfs-2 ]
Full List of Resources:
* res_fence_ibm_powervs (stonith:fence_ibm_powervs): Started cl-nfs-1
Daemon Status:
corosync: active/disabled
pacemaker: active/disabled
pcsd: active/enabled
Configuration des propriétés générales du cluster
Pour empêcher le cluster de déplacer des ressources saines vers un autre nœud (par exemple, lorsque vous redémarrez le cluster sur un nœud qui avait précédemment échoué), vous pouvez définir la valeur par défaut du méta-attribut resource-stickiness
sur 1.
Sur NODE1, exécutez la commande suivante.
pcs resource defaults update resource-stickiness=1
Configuration d'un groupe de ressources et de ressources d' NFS
Suivez les étapes suivantes pour configurer les ressources d' NFS s dans le cluster.
Création de la ressource LVM-activate
Pour vous assurer que toutes les ressources d' NFS s s'exécutent sur le même nœud, configurez-les dans le groupe de ressources nfsgroup
.
Ce groupe de ressources est créé avec la première ressource. Les ressources commencent dans l'ordre dans lequel elles sont ajoutées au groupe. Les ressources s'arrêtent dans l'ordre inverse.
Sur NODE1, exécutez la commande suivante.
pcs resource create nfs_vg ocf:heartbeat:LVM-activate \
vgname=${NFS_VG} \
vg_access_mode=system_id \
--group nfsgroup
Pour éviter la corruption des données, ne configurez pas plus d'une ressource LVM-activate qui utilise le même groupe de volumes LVM dans une configuration HA active-passive. Ne configurez pas une ressource LVM-activate en tant que ressource clone dans une configuration HA active-passive.
Vérifiez l'état du cluster et assurez-vous que l' nfs_vg
s sur les ressources est active.
Sur NODE1, exécutez la commande suivante.
pcs resource status
Exemple de sortie :
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
La commande suivante configure les ressources du système de fichiers d' xfs
s pour le groupe de ressources d' nfsgroup
s. Les systèmes de fichiers utilisent le groupe de volumes LVM ${NFS_vg}
et les
volumes logiques (${NFS_LV1}
, ${NFS_LV2}
, ${NFS_LV3}
) qui ont été créés auparavant.
Sur NODE1, exécutez la commande suivante.
pcs resource create nfs_fs1 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV1} \
directory=${NFS_FS1} \
fstype=xfs \
--group nfsgroup
Vous pouvez spécifier des options de montage dans le cadre de la configuration d'une ressource de système de fichiers à l'aide du paramètre « options=<options>
». Rendez-vous sur pcs resource describe filesystem
pour obtenir la liste complète des options de configuration.
Vérifiez l'état du cluster et assurez-vous que l' nfs_fs1
s sur les ressources est active.
pcs resource status
Exemple de sortie :
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
Sur le nœud avec le groupe de ressources actif nfsgroup
, créez deux sous-répertoires dans ${NFS_FS1}
.
${NFS_FS1}/stat
est utilisé comme nfs_shared_infodir
pour les informations de verrouillage d' NFS, et ${NFS_FS1}/export
est utilisé comme racine d' NFS.
mkdir ${NFS_FS1}/stat ${NFS_FS1}/export
Créez les points de montage pour les autres systèmes de fichiers exportés.
Sur les deux nœuds, exécutez la commande suivante.
mkdir ${NFS_FS2} ${NFS_FS3}
Créer les ressources pour les deux autres systèmes de fichiers d' NFS.
Sur NODE1, exécutez les commandes suivantes.
pcs resource create nfs_fs2 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV2} \
directory=${NFS_FS2} \
fstype=xfs \
--group nfsgroup
pcs resource create nfs_fs3 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV3} \
directory=${NFS_FS3} \
fstype=xfs \
--group nfsgroup
Vérifiez l'état du cluster et assurez-vous que les trois ressources du système de fichiers (nfs_fs1
, nfs_fs2
, nfs_fs3
) sont actives.
pcs resource status
Exemple de sortie :
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
Création de la ressource nfsserver
Sur NODE1, créer une ressource pour gérer le serveur NFS.
pcs resource create nfs_daemon nfsserver \
nfs_shared_infodir=${NFS_FS1}/stat \
nfs_no_notify=true \
--group nfsgroup
Le paramètre nfs_shared_infodir
de la ressource nfsserver
spécifie un répertoire où le serveur NFS stocke les informations d'état.
Vérifiez l'état du cluster et assurez-vous que le serveur d' NFS s est démarré.
pcs resource status
Exemple de sortie :
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-1
Création de la ressource exportfs
Pour exporter le répertoire ${NFS_ROOT}
, ajoutez les ressources exportfs au groupe nfsgroup
, qui construit un répertoire virtuel pour les clients NFSv4. NFSv3 les clients peuvent également accéder à ces
exportations.
Sur NODE1, exécutez la commande suivante.
pcs resource create nfs_export exportfs \
clientspec=${NFS_CLIENTSPEC} \
options=${NFS_OPTIONS} \
directory=${NFS_ROOT} \
fsid=0 \
--group nfsgroup
Configuration d'une ressource d'adresse IP flottante
Passez en revue les informations de la section Réserver des adresses IP virtuelles et réservez une adresse IP virtuelle pour le cluster d' NFS.
Créer une ressource pour l'adresse IP virtuelle du serveur NFS. NFS les clients accèdent au partage d' NFS s en utilisant l'adresse IP flottante.
Sur NODE1, exécutez la commande suivante.
pcs resource create nfs_ip IPaddr2 \
ip=${NFS_IP} \
--group nfsgroup
Configuration d'une ressource de notification
La ressource nfsnotify envoie FSv3 des notifications de redémarrage après l'initialisation de l'ensemble du déploiement d' NFS.
Sur NODE1, exécutez la commande suivante.
pcs resource create nfs_notify nfsnotify \
source_host=${NFS_IP} \
--group nfsgroup
La configuration du cluster d' NFS s est maintenant terminée.
Sur NODE1, exécutez la commande suivante pour vérifier l'état.
pcs resource status
Exemple de sortie :
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-1
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-1
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-1
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-1
Test du cluster de serveurs d' NFS
Vous pouvez valider la configuration des ressources d' NFS s dans un cluster haute disponibilité en utilisant les procédures suivantes. Vous pouvez monter le système de fichiers exporté avec l'utilitaire NFSv3 ou NFSv4. Exécutez les tests suivants pour vérifier que le cluster d' NFS s fonctionne.
Test1- Tester l'exportation d' NFS
Utilisez les informations suivantes pour tester l'exportation d' NFS.
Exécuter toutes les commandes sur un nœud client d' NFS, en dehors du cluster d' NFS s HA.
Vérifier les exportations d' NFS.
showmount -e ${NFS_IP}
La commande showmount
affiche des informations sur les systèmes de fichiers exportés par un serveur NFS ( NFS v3 ). Vérifiez que la sortie répertorie tous les répertoires exportés.
Créer un répertoire temporaire sur le nœud client d' NFS. Ensuite, monter le système de fichiers d' NFS, et créer la structure de répertoires nécessaire à l'installation d' SAP.
Dans le premier exemple, seuls /usr/sap/trans
et /sapmnt/${SID}
sont des applications montées sur l'instance du serveur d'applications SAP ( NFS ).
Préparer les points de montage utilisés pour l'installation d' SAP.
mkdir -p /sapmnt/${SID} \
/usr/sap/trans
Modifier les attributs des points de montage.
chattr +i /sapmnt/${SID} \
/usr/sap/trans
Monter les parts de NFS.
mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /usr/sap/trans
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID}
Modifier la propriété et les autorisations.
chown ${sid}adm:sapsys /usr/sap/trans
chmod g+w /usr/sap/trans
chown -R ${sid}adm:sapsys /sapmnt/${SID}
Démontez les systèmes de fichiers.
umount /usr/sap/trans
umount /sapmnt/${SID}
Ajoutez les nouveaux systèmes de fichiers à /etc/fstab
.
cat >> /etc/fstab << EOT
${NFS_VH}:/saptrans /usr/sap/trans nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID} nfs4 sec=sys 0 0
EOT
Vérifiez le fichier mis à jour.
cat /etc/fstab
Dans le deuxième exemple, /usr/sap/trans
, /sapmnt/${SID}
et tous les répertoires d'instance sont montés en lecture-écriture ( NFS ) sur les instances du serveur d'applications SAP.
Variables d'environnement d'exportation pour les numéros de système ASCS et ERS. Remplacez les numéros suivants par les numéros système que vous avez utilisés lors de l'installation d'ASCS et d'ERS.
export ASCS_NR=01
export ERS_NR=02
Préparer les points de montage finaux qui sont utilisés pour l'installation d' SAP.
mkdir -p /sapmnt/${SID} \
/usr/sap/trans \
/usr/sap/${SID}/SYS \
/usr/sap/${SID}/ASCS${ASCS_INSTNO} \
/usr/sap/${SID}/ERS${ERS_INSTNO}
Modifier les attributs des points de montage.
chattr +i /sapmnt/${SID} \
/usr/sap/trans \
/usr/sap/${SID}/SYS \
/usr/sap/${SID}/ASCS${ASCS_INSTNO} \
/usr/sap/${SID}/ERS${ERS_INSTNO}
Montez les partages d' NFS s pour créer les sous-répertoires requis, modifiez la propriété et modifiez les autorisations.
mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /mnt
chown ${sid}adm:sapsys /mnt
chmod g+w /mnt
umount /mnt
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID} /mnt
mkdir -p /mnt/sapmnt \
/mnt/ASCS \
/mnt/ERS \
/mnt/SYS \
/mnt/PAS \
/mnt/AS1
chown -R ${sid}adm:sapsys /mnt
umount /mnt
Ajoutez les nouveaux systèmes de fichiers à /etc/fstab
.
cat >> /etc/fstab < EOT
${NFS_VH}:/saptrans /usr/sap/trans nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/ASCS /usr/sap/${SID}/ASCS${ASCS_INSTNO} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/ERS /usr/sap/${SID}/ERS${ERS_INSTNO} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/SYS /usr/sap/${SID}/SYS nfs4 sec=sys 0 0
EOT
Vérifiez le fichier mis à jour.
cat /etc/fstab
Test2- Test du basculement du serveur d' NFS
Utilisez les informations suivantes pour tester le basculement du serveur d' NFS.
Test2- Description
Simuler une panne du nœud de cluster qui possède les ressources d' NFS.
Test2- Conditions préalables
- Un cluster Add-On RHEL HA fonctionnel à deux nœuds pour un serveur HA d' NFS.
- Le cluster est démarré sur les deux nœuds.
- Les systèmes de fichiers sont montés sur un nœud client d' NFS, en dehors du cluster, et les applications peuvent accéder au contenu.
Test2- Procédure de test
Éteindre le nœud de cluster en envoyant une requête d'arrêt du système.
Tout d'abord, vérifiez l'état du cluster et identifiez le nœud sur lequel le groupe de ressources nfsgroup est en cours d'exécution.
Sur NODE1, exécutez la commande suivante.
pcs status
Ensuite, connectez-vous au nœud de cluster identifié et envoyez une requête de plantage du système.
sync; echo c > /proc/sysrq-trigger
Test2- Comportement attendu
- Le nœud avec le groupe de ressources nfsgroup actif s'arrête.
- Le cluster détecte le nœud défaillant et lance une action de clôture.
- L'opération de clôture définit l'état du nœud clôturé sur hors ligne.
- Le cluster acquiert les ressources du serveur d' NFS s sur le nœud de basculement.
Vérifiez que toutes les ressources ont démarré sur le nœud de basculement.
pcs resource status
Exemple de sortie :
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-2
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-2
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-2
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-2
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-2
Vérifiez que le système de fichiers est toujours monté sur le nœud client d' NFS, et que les applications peuvent toujours accéder au contenu.
Test2- Procédure de recouvrement
Connectez-vous à la console IBM Cloud et démarrez l'instance arrêtée. Attendez que le nœud du cluster soit à nouveau disponible, puis redémarrez le framework du cluster.
Sur le nœud du cluster, exécutez la commande suivante.
pcs cluster start
Vérifier l'état du cluster.
pcs status
Exemple de sortie :
# pcs status
Cluster name: SAP_NFS
Cluster Summary:
* Stack: corosync
* Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
* Last updated: Mon Mar 20 08:11:28 2023
* Last change: Mon Mar 20 07:56:25 2023 by hacluster via crmd on cl-nfs-1
* 2 nodes configured
* 9 resource instances configured
Node List:
* Online: [ cl-nfs-1 cl-nfs-2 ]
Full List of Resources:
* res_fence_ibm_powervs (stonith:fence_ibm_powervs): Started cl-nfs-1
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-2
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-2
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-2
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-2
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-2
Daemon Status:
corosync: active/disabled
pacemaker: active/disabled
pcsd: active/enabled