Configurazione di un server NFS attivo-passivo in un cluster Red Hat Enterprise Linux High Availability Add-On
Le seguenti informazioni descrivono la configurazione di un server NFS attivo-passivo in un cluster Red Hat Enterprise Linux (RHEL) High Availability Add-On. Il cluster utilizza istanze di server virtuali in IBM® Power® Virtual Server come nodi del cluster.
La configurazione descritta utilizza volumi di archiviazione condivisibili accessibili su entrambi i nodi del cluster. I file system per le esportazioni dell' NFS e vengono creati su quei volumi di archiviazione condivisibili. HA-LVM si assicura che il gruppo di volumi sia attivo su un nodo alla volta.
Nell'esempio di configurazione, un gruppo di volumi condivisi nfssharevg
contiene tre volumi logici nfssharelv
, sap${SID}lv
e saptranslv
. I file system XFS vengono creati su quei volumi logici
e vengono montati su /nfsshare
, /nfshare/export/sap${SID}
, /nfsshare/export/saptrans
.
Le istruzioni si basano sulla documentazione del prodotto Red Hat e sugli articoli elencati in Implementing high availability for SAP applications on IBM Power Virtual Server References.
Prima di iniziare
Esaminare i requisiti generali, la documentazione del prodotto, gli articoli di supporto e le note SAP elencate in Implementing high availability for SAP applications on IBM Power Virtual Server References.
Prerequisiti
Per il server NFS è necessario un nome host e un indirizzo IP virtuali. Assicurarsi che l'indirizzo IP virtuale sia definito sull'interfaccia di rete e raggiungibile nella rete.
La risoluzione dei nomi e la ricerca inversa per nomi e indirizzi IP fisici e virtuali devono essere univoci e coerenti su tutti i nodi server e client dell' NFS. I dettagli dei client dell' NFS e (sottorete, opzioni di esportazione dell' NFS e richieste) devono essere disponibili. È necessario inserirli durante la configurazione del cluster.
Preparazione per un server di alta disponibilità ( NFS )
Utilizzare le seguenti informazioni per preparare l'ambiente per un server di alta disponibilità ( NFS ).
Installazione dei pacchetti software NFS
Su entrambi i nodi, eseguire i seguenti comandi.
dnf install -y nfs-utils
Preparazione degli oggetti LVM
Tutti i nodi del cluster devono poter accedere ai volumi di archiviazione condivisi, ma solo un nodo ha accesso esclusivo in lettura e scrittura a un volume.
Preparazione HA LVM attivo-passivo
Su entrambi i nodi, modificare il file /etc/lvm/lvm.conf
per includere l'ID di sistema nel gruppo di volumi. Cerca l'impostazione di configurazione " system_id_source
" e cambia il suo valore in "uname".
Esempio di impostazione di system_id_source
in /etc/lvm/lvm.conf
:
# grep "system_id_source =" /etc/lvm/lvm.conf
system_id_source = "uname"
Verificare che l' LVM system ID
e per il nodo corrisponda all'output dell' uname -n
.
lvm systemid
uname -n
Output di esempio:
# lvm systemid
system ID: cl-nfs-1
# uname -n
cl-nfs-1
Identificazione dei nomi World Wide Names dei volumi di archiviazione condivisi
Identificare i nomi World Wide Names (WWN) per tutti i volumi utilizzati nel gruppo di volumi condivisi.
-
Accedi a IBM Cloud® e vai alla sezione Storage volumes di Power Virtual Server.
-
Selezionare l'area di lavoro.
-
Filtra per il prefisso del volume nell 'elenco dei volumi di archiviazione e identifica tutti i nomi universali dei volumi nell'ambito (il nome universale è un numero esadecimale a 32 cifre).
Assicurati che l'attributo Condivisibile sia attivo per quei volumi.
-
Nella vista Istanze del server virtuale, vai a entrambe le istanze del server virtuale del cluster e verifica che i volumi di ambito siano collegati a entrambe le istanze del server virtuale.
Alla scoperta di nuovi volumi SAN sui nodi del cluster
Quando si collega un nuovo volume di archiviazione a un'istanza di server virtuale, è necessario ripetere la scansione del bus SCSI per rilevare il nuovo volume. Quindi, aggiornare la configurazione multipath dell'istanza del server virtuale.
Sui nodi con nuovi allegati di volume di archiviazione, eseguire il seguente comando.
rescan-scsi-bus.sh && sleep 10 && multipathd reconfigure
Il valore WWN di un volume può essere trovato anche con il comando pvs --all
.
Preparazione delle variabili di ambiente
Per semplificare la configurazione, preparare le seguenti variabili di ambiente per l'ID utente root
su entrambi i nodi. Queste variabili ambientali sono utilizzate nei comandi successivi nel resto di questo documento.
Su entrambi i nodi, creare un file con le variabili di ambiente. Quindi, adattali alla tua configurazione.
Adatta NFS_VH
, NFS_IP
, NFS_CLIENTSPEC
e NFS_OPTIONS
al tuo ambiente. Per l' NFS_PVID
, utilizzare il WWN identificato in precedenza. Oltre al file system utilizzato per
la condivisione dell' NFS, l'esempio mostra altri due file system utilizzati per un ambiente di sistema dell' SAP, con l'ID di sistema " ${SID}
" e la directory di trasporto " SAP ". Le dimensioni dei campioni
${NFS_SZ1}
, ${NFS_SZ2}
e ${NFS_SZ3}
sono percentuali della dimensione del gruppo di volume dell' ${NFS_VG}
e e devono essere modificate in base alle proprie esigenze. I nomi dei gruppi
di volumi e dei punti di montaggio sono suggerimenti e devono essere modificati per adattarsi alle proprie convenzioni di denominazione.
Assicurati di impostare la variabile d'ambiente NFS_PVID
utilizzando lettere minuscole nel numero esadecimale.
# virtual hostnames
export NFS_VH=<virtual hostname> # virtual hostname for NFS server
export NFS_IP=<IP address> # virtual IP address for NFS server
# LVM storage for NFS file systems
export NFS_PVID=3<WWN> # WWN of shareable storage volume used for NFS
export NFS_VG="nfssharevg" # volume group name for NFS exported file systems
# NFS share file system
export NFS_LV1="nfssharelv" # logical volume name export #1
export NFS_SZ1="5%VG" # logical volume size
export NFS_FS1="/nfsshare" # file system mount point
export NFS_ROOT="${NFS_FS1}/export" # base export directory
# NFS share file system for SAP system ID <SID>
export SID=<SID> # SAP system ID
export NFS_LV2="sap${SID}lv" # logical volume name export #2
export NFS_SZ2="40%VG" # logical volume size
export NFS_FS2="${NFS_ROOT}/sap${SID}" # file system mount point
# NFS share file system for SAP transport directory
export NFS_LV3="saptranslv" # logical volume name export #3
export NFS_SZ3="40%VG" # logical volume size
export NFS_FS3="${NFS_ROOT}/saptrans" # file system mount point
# NFS client options
export NFS_CLIENTSPEC="10.111.1.0/24" # client specs (subnet and netmask) for allowed NFS clients
export NFS_OPTIONS="rw,sync,no_root_squash,no_subtree_check,crossmnt" # options for NFS export
È necessario procurarsi questo file prima di utilizzare i comandi di esempio nel resto di questo documento.
Ad esempio, se hai creato un file denominato nfs_envs.sh
, esegui il seguente comando su entrambi i nodi per impostare le variabili di ambiente.
source nfs_envs.sh
Ogni volta che si avvia una nuova sessione di terminale, è necessario eseguire il comando source
. In alternativa, è possibile aggiungere il file delle variabili di ambiente alla directory " /etc/profile.d
"
durante la configurazione del cluster. In questo esempio, il file viene ricercato automaticamente ogni volta che si accede al server.
Creazione di oggetti LVM
Utilizzare le seguenti informazioni per creare oggetti LVM.
Creazione di volumi fisici
Su NODE1, eseguire il seguente comando.
pvcreate /dev/mapper/${NFS_PVID}
Output di esempio:
pvcreate /dev/mapper/${NFS_PVID}
Physical volume "/dev/mapper/360050768108103357000000000002ddc" successfully created.
Creazione di un gruppo di volumi
Su NODE1, creare il gruppo di volumi per l'esportazione dell' NFS.
vgcreate ${NFS_VG} /dev/mapper/${NFS_PVID}
Verificare che l'ID sistema sia impostato.
vgs -o+systemid
Output di esempio:
# vgs -o+systemid
VG #PV #LV #SN Attr VSize VFree System ID
nfssharevg 1 0 0 wz--n- <50.00g <50.00g cl-sap-1
Creazione di volumi logici
Su NODE1, creare tre volumi logici per l'esportazione dell' NFS.
lvcreate -l ${NFS_SZ1} -n ${NFS_LV1} ${NFS_VG}
lvcreate -l ${NFS_SZ2} -n ${NFS_LV2} ${NFS_VG}
lvcreate -l ${NFS_SZ3} -n ${NFS_LV3} ${NFS_vg}
Creazione dei file system
Su NODE1, creare i file system per le esportazioni di NFS.
L'esempio utilizza il tipo di file system xfs
. Sono possibili altri tipi di file system. Quindi, le definizioni delle risorse devono essere modificate.
mkfs.xfs /dev/${NFS_VG}/${NFS_LV1}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV2}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV3}
Creazione del punto di montaggio per l'esportazione dell' NFS
Su entrambi i nodi, eseguire il seguente comando.
mkdir -p ${NFS_FS1}
Assicurarsi che un gruppo di volumi non sia attivato su più nodi cluster
I gruppi di volume gestiti da un Pacemaker e non devono attivarsi automaticamente all'avvio.
Per RHEL 8.5 e versioni successive, è possibile disabilitare l'attivazione automatica per un gruppo di volumi quando si crea il gruppo di volumi specificando il flag --setautoactivation n
per il comando vgcreate.
Su entrambi i nodi, modificare il file /etc/lvm/lvm.conf
e modificare la voce " auto_activation_volume_list
" per limitare l'attivazione automatica a gruppi di volumi specifici. Cerca il parametro "
auto_activation_volume_list
" e aggiungi i gruppi di volumi, diversi dal gruppo di volumi che hai definito per il cluster " NFS ", come voci in tale elenco.
Esempio di impostazione della voce " auto_activation_volume_list
" in " /etc/lvm/lvm.conf
":
auto_activation_volume_list = [ "rhel_root" ]
Ricostruisci l'immagine di avvio initramfs per assicurarti che l'immagine di avvio non attivi un gruppo di volumi controllato dal cluster.
Su entrambi i nodi, eseguire il seguente comando.
dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)
Riavvia entrambi i nodi.
Installazione e configurazione del cluster RHEL HA Add-On
Utilizzare le seguenti istruzioni per eseguire la configurazione iniziale del cluster.
- Installare e configurare il cluster RHEL HA Add-On seguendo la procedura di implementazione di un cluster Red Hat Enterprise Linux High Availability Add-On.
- Configurare e testare la recinzione come descritto in Creazione del dispositivo di recinzione.
Esempio di output dello stato del cluster in questa fase.
# pcs status
Cluster name: SAP_NFS
Cluster Summary:
* Stack: corosync
* Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
* Last updated: Fri Mar 10 10:35:42 2023
* Last change: Fri Mar 10 09:52:08 2023 by root via cibadmin on cl-nfs-1
* 2 nodes configured
* 1 resource instance configured
Node List:
* Online: [ cl-nfs-1 cl-nfs-2 ]
Full List of Resources:
* res_fence_ibm_powervs (stonith:fence_ibm_powervs): Started cl-nfs-1
Daemon Status:
corosync: active/disabled
pacemaker: active/disabled
pcsd: active/enabled
Configurazione delle proprietà generali del cluster
Per evitare che il cluster sposti risorse sane su un altro nodo (ad esempio quando si riavvia il cluster su un nodo precedentemente guasto), è possibile impostare il valore predefinito per il meta attributo resource-stickiness
su 1.
Su NODE1, eseguire il seguente comando.
pcs resource defaults update resource-stickiness=1
Configurazione di un gruppo di risorse e risorse dell NFS
Seguire i passaggi seguenti per configurare le risorse dell' NFS e nel cluster.
Creazione della risorsa LVM-activate
Per assicurarsi che tutte le risorse dell' NFS e funzionino sullo stesso nodo, configurarle come parte del gruppo di risorse nfsgroup
.
Questo gruppo di risorse viene creato con la prima risorsa. Le risorse iniziano nell'ordine in cui vengono aggiunte al gruppo. Le risorse si arrestano in ordine inverso.
Su NODE1, eseguire il seguente comando.
pcs resource create nfs_vg ocf:heartbeat:LVM-activate \
vgname=${NFS_VG} \
vg_access_mode=system_id \
--group nfsgroup
Per evitare il danneggiamento dei dati, non configurare più di una risorsa di attivazione LVM che utilizza lo stesso gruppo di volumi LVM in una configurazione HA attiva-passiva. Non configurare una risorsa LVM-activate come risorsa clone in una configurazione HA attiva-passiva.
Controllare lo stato del cluster e verificare che l' nfs_vg
e delle risorse sia attiva.
Su NODE1, eseguire il seguente comando.
pcs resource status
Output di esempio:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
Il seguente comando configura le risorse del file system dell' xfs
e per il gruppo di risorse dell' nfsgroup
e. I file system utilizzano il gruppo di volumi LVM ${NFS_vg}
e i volumi logici (${NFS_LV1}
,
${NFS_LV2}
, ${NFS_LV3}
) creati in precedenza.
Su NODE1, eseguire il seguente comando.
pcs resource create nfs_fs1 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV1} \
directory=${NFS_FS1} \
fstype=xfs \
--group nfsgroup
È possibile specificare le opzioni di montaggio come parte della configurazione delle risorse per una risorsa del file system utilizzando il parametro options=<options>
. Visitare il sito pcs resource describe filesystem
per un elenco completo delle opzioni di configurazione.
Controllare lo stato del cluster e verificare che l' nfs_fs1
e delle risorse sia attivo.
pcs resource status
Output di esempio:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
Sul nodo con il gruppo di risorse attivo nfsgroup
, creare due sottodirectory in ${NFS_FS1}
.
${NFS_FS1}/stat
è utilizzato come nfs_shared_infodir
per le informazioni di blocco dell' NFS e e ${NFS_FS1}/export
è utilizzato come root dell' NFS.
mkdir ${NFS_FS1}/stat ${NFS_FS1}/export
Creare i punti di montaggio per gli altri file system esportati.
Su entrambi i nodi, eseguire il seguente comando.
mkdir ${NFS_FS2} ${NFS_FS3}
Creare le risorse per gli altri due file system dell' NFS.
Su NODE1, eseguire i seguenti comandi.
pcs resource create nfs_fs2 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV2} \
directory=${NFS_FS2} \
fstype=xfs \
--group nfsgroup
pcs resource create nfs_fs3 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV3} \
directory=${NFS_FS3} \
fstype=xfs \
--group nfsgroup
Controlla lo stato del cluster e verifica che tutte e tre le risorse del file system (nfs_fs1
, nfs_fs2
, nfs_fs3
) siano attive.
pcs resource status
Output di esempio:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
Creazione della risorsa nfsserver
Su NODE1, creare una risorsa per la gestione del server NFS.
pcs resource create nfs_daemon nfsserver \
nfs_shared_infodir=${NFS_FS1}/stat \
nfs_no_notify=true \
--group nfsgroup
Il parametro nfs_shared_infodir
della risorsa nfsserver
specifica una directory in cui il server NFS memorizza le informazioni relative allo stato.
Controllare lo stato del cluster e verificare che il server NFS sia avviato.
pcs resource status
Output di esempio:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-1
Creazione della risorsa exportfs
Per esportare la directory ${NFS_ROOT}
, aggiungere le risorse exportfs al gruppo nfsgroup
, che crea una directory virtuale per i client NFSv4. NFSv3 anche i clienti possono accedere a queste esportazioni.
Su NODE1, eseguire il seguente comando.
pcs resource create nfs_export exportfs \
clientspec=${NFS_CLIENTSPEC} \
options=${NFS_OPTIONS} \
directory=${NFS_ROOT} \
fsid=0 \
--group nfsgroup
Configurazione di una risorsa di indirizzo IP flottante
Rivedere le informazioni in Riservare indirizzi IP virtuali e riservare un indirizzo IP virtuale per il cluster dell' NFS.
Creare una risorsa per l'indirizzo IP virtuale del server NFS. NFS i clienti accedono alla condivisione dell' NFS, utilizzando l'indirizzo IP flottante.
Su NODE1, eseguire il seguente comando.
pcs resource create nfs_ip IPaddr2 \
ip=${NFS_IP} \
--group nfsgroup
Configurazione di una risorsa di notifica
La risorsa nfsnotify invia FSv3 notifiche di riavvio dopo l'inizializzazione dell'intera distribuzione di NFS.
Su NODE1, eseguire il seguente comando.
pcs resource create nfs_notify nfsnotify \
source_host=${NFS_IP} \
--group nfsgroup
L'installazione del cluster dell' NFS e è ora completa.
Su NODE1, eseguire il seguente comando per controllare lo stato.
pcs resource status
Output di esempio:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-1
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-1
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-1
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-1
Test del cluster di server dell' NFS
È possibile convalidare la configurazione delle risorse dell' NFS e in un cluster ad alta disponibilità utilizzando le seguenti procedure. È possibile montare il file system esportato con " NFSv3 " o " NFSv4 ". Esegui i seguenti test per verificare che il cluster dell' NFS e funzioni.
Test1- Test dell'esportazione dell' NFS
Utilizzare le seguenti informazioni per testare l'esportazione dell' NFS.
Esegui tutti i comandi su un nodo client dell' NFS, al di fuori del cluster dell' NFS.
Verificare le esportazioni dell' NFS.
showmount -e ${NFS_IP}
Il comando showmount
visualizza informazioni sui file system esportati da un server NFS ( NFS v3 ). Verificare che l'output elenchi tutte le directory esportate.
Creare una directory temporanea sul nodo client NFS. Quindi, montare il file system dell' NFS e e creare la struttura di directory necessaria per l'installazione dell' SAP.
Nel primo esempio, solo /usr/sap/trans
e /sapmnt/${SID}
sono montati in modalità NFS sull'istanza del server applicativo SAP.
Preparare i punti di montaggio utilizzati per l'installazione dell' SAP.
mkdir -p /sapmnt/${SID} \
/usr/sap/trans
Modificare gli attributi dei punti di montaggio.
chattr +i /sapmnt/${SID} \
/usr/sap/trans
Montare le parti dell' NFS.
mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /usr/sap/trans
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID}
Modificare la proprietà e le autorizzazioni.
chown ${sid}adm:sapsys /usr/sap/trans
chmod g+w /usr/sap/trans
chown -R ${sid}adm:sapsys /sapmnt/${SID}
Smontare i file system.
umount /usr/sap/trans
umount /sapmnt/${SID}
Aggiungete i nuovi file system a /etc/fstab
.
cat >> /etc/fstab << EOT
${NFS_VH}:/saptrans /usr/sap/trans nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID} nfs4 sec=sys 0 0
EOT
Controlla il file aggiornato.
cat /etc/fstab
Nel secondo esempio, /usr/sap/trans
, /sapmnt/${SID}
e tutte le directory di istanze sono montate in modalità NFS sulle istanze del server applicativo SAP.
Variabili di ambiente di esportazione per i numeri di sistema ASCS ed ERS. Sostituisci i seguenti numeri con i numeri di sistema che hai utilizzato durante l'installazione di ASCS ed ERS.
export ASCS_NR=01
export ERS_NR=02
Preparare i punti di montaggio finali che verranno utilizzati per l'installazione dell' SAP.
mkdir -p /sapmnt/${SID} \
/usr/sap/trans \
/usr/sap/${SID}/SYS \
/usr/sap/${SID}/ASCS${ASCS_INSTNO} \
/usr/sap/${SID}/ERS${ERS_INSTNO}
Modificare gli attributi dei punti di montaggio.
chattr +i /sapmnt/${SID} \
/usr/sap/trans \
/usr/sap/${SID}/SYS \
/usr/sap/${SID}/ASCS${ASCS_INSTNO} \
/usr/sap/${SID}/ERS${ERS_INSTNO}
Montare le condivisioni dell' NFS e per creare le sottodirectory richieste, modificare la proprietà e modificare le autorizzazioni.
mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /mnt
chown ${sid}adm:sapsys /mnt
chmod g+w /mnt
umount /mnt
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID} /mnt
mkdir -p /mnt/sapmnt \
/mnt/ASCS \
/mnt/ERS \
/mnt/SYS \
/mnt/PAS \
/mnt/AS1
chown -R ${sid}adm:sapsys /mnt
umount /mnt
Aggiungete i nuovi file system a /etc/fstab
.
cat >> /etc/fstab < EOT
${NFS_VH}:/saptrans /usr/sap/trans nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/ASCS /usr/sap/${SID}/ASCS${ASCS_INSTNO} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/ERS /usr/sap/${SID}/ERS${ERS_INSTNO} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/SYS /usr/sap/${SID}/SYS nfs4 sec=sys 0 0
EOT
Controlla il file aggiornato.
cat /etc/fstab
Test2- Test del failover del server dell' NFS
Utilizzare le seguenti informazioni per testare il failover del server NFS.
Test2- Descrizione
Simulare un crash del nodo cluster che ha le risorse dell' NFS.
Test2- Prerequisiti
- Un cluster add-on RHEL HA a due nodi funzionale per un server HA dell' NFS.
- Il cluster viene avviato su entrambi i nodi.
- I file system sono montati su un nodo client dell' NFS, al di fuori del cluster, e le applicazioni possono accedere al contenuto.
Test2- Procedura di prova
Blocca il nodo del cluster inviando una richiesta di spegnimento del sistema.
Per prima cosa, controlla lo stato del cluster e identifica il nodo in cui è in esecuzione il gruppo di risorse nfsgroup.
Su NODE1, eseguire il seguente comando.
pcs status
Quindi, accedere al nodo cluster identificato e inviare una richiesta di arresto anomalo del sistema.
sync; echo c > /proc/sysrq-trigger
Test2- Comportamento previsto
- Il nodo con il gruppo di risorse nfsgroup attivo si spegne.
- Il cluster rileva il nodo guasto e avvia un'azione di recinzione.
- L'operazione di recinzione imposta lo stato del nodo recintato su offline.
- Il cluster acquisisce le risorse del server NFS sul nodo di failover.
Verificare che tutte le risorse siano state avviate sul nodo di failover.
pcs resource status
Output di esempio:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-2
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-2
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-2
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-2
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-2
Verificare che il file system sia ancora montato sul nodo client dell' NFS, e che le applicazioni possano ancora accedere al contenuto.
Test2- Procedura di recupero
Accedi alla console di IBM Cloud e avvia l'istanza interrotta. Attendere che il nodo del cluster sia nuovamente disponibile, quindi riavviare il framework del cluster.
Sul nodo del cluster, eseguire il seguente comando.
pcs cluster start
Controllare lo stato del quadro strumenti.
pcs status
Output di esempio:
# pcs status
Cluster name: SAP_NFS
Cluster Summary:
* Stack: corosync
* Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
* Last updated: Mon Mar 20 08:11:28 2023
* Last change: Mon Mar 20 07:56:25 2023 by hacluster via crmd on cl-nfs-1
* 2 nodes configured
* 9 resource instances configured
Node List:
* Online: [ cl-nfs-1 cl-nfs-2 ]
Full List of Resources:
* res_fence_ibm_powervs (stonith:fence_ibm_powervs): Started cl-nfs-1
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-2
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-2
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-2
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-2
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-2
Daemon Status:
corosync: active/disabled
pacemaker: active/disabled
pcsd: active/enabled