Configuración de un servidor NFS activo-pasivo en un clúster Red Hat Enterprise Linux High Availability Add-On
La siguiente información describe la configuración de un servidor NFS activo-pasivo en un cluster Red Hat Enterprise Linux (RHEL) High Availability Add-On. El clúster utiliza instancias de servidor virtual en IBM® Power® Virtual Server como nodos de clúster.
La configuración descrita utiliza volúmenes de almacenamiento compartibles a los que se puede acceder en ambos nodos del clúster. Los sistemas de archivos para las exportaciones de NFS se crean en esos volúmenes de almacenamiento compartibles. HA-LVM se asegura de que el grupo de volumen esté activo en un nodo a la vez.
En la configuración de ejemplo, un grupo de volúmenes compartidos nfssharevg
contiene tres volúmenes lógicos nfssharelv
, sap${SID}lv
y saptranslv
. Los sistemas de archivos XFS se crean en esos
volúmenes lógicos y se montan en /nfsshare
, /nfshare/export/sap${SID}
, /nfsshare/export/saptrans
.
Las instrucciones se basan en la documentación del producto Red Hat y en los artículos que aparecen en Implementación de alta disponibilidad para aplicaciones SAP en IBM Power Virtual Server Referencias.
Antes de empezar
Revise los requisitos generales, la documentación del producto, los artículos de soporte y las notas de SAP que aparecen en Implementación de alta disponibilidad para aplicaciones de SAP en IBM Power Virtual Server Referencias.
Requisitos previos
Se requiere un nombre de host virtual y una dirección IP para el servidor NFS. Asegúrese de que la dirección IP virtual esté definida en la interfaz de red y sea accesible en la red.
La resolución de nombres y la búsqueda inversa de nombres y direcciones IP físicas y virtuales deben ser únicas y coherentes en todos los nodos de servidor y cliente de NFS. Los detalles de los clientes de NFS (subred, opciones de exportación de NFS requeridas) deben estar disponibles. Debe introducirlos durante la configuración del clúster.
Preparación para un servidor de alta disponibilidad ( NFS )
Utilice la siguiente información para preparar el entorno para un servidor de alta disponibilidad ( NFS ).
Instalación de paquetes de software NFS
En ambos nodos, ejecute los siguientes comandos.
dnf install -y nfs-utils
Preparación de objetos LVM
Todos los nodos del clúster necesitan acceso a los volúmenes de almacenamiento compartido, pero solo un nodo tiene acceso exclusivo de lectura y escritura a un volumen.
Preparación de HA LVM activo-pasivo
En ambos nodos, edite el archivo /etc/lvm/lvm.conf
para incluir el ID del sistema en el grupo de volúmenes. Busque el ajuste de configuración system_id_source
y cambie su valor a "uname".
Ejemplo de configuración de system_id_source
en /etc/lvm/lvm.conf
:
# grep "system_id_source =" /etc/lvm/lvm.conf
system_id_source = "uname"
Verifique que el LVM system ID
del nodo coincida con el resultado de uname -n
.
lvm systemid
uname -n
Salida de ejemplo:
# lvm systemid
system ID: cl-nfs-1
# uname -n
cl-nfs-1
Identificación de los nombres mundiales de los volúmenes de almacenamiento compartido
Identifique los nombres mundiales (WWN) de todos los volúmenes que se utilizan en el grupo de volúmenes compartidos.
-
Inicie sesión en IBM Cloud® y vaya a la vista de volúmenes de almacenamiento de Power Virtual Server.
-
Seleccione su espacio de trabajo.
-
Filtre por el prefijo de volumen en la lista de volúmenes de almacenamiento e identifique todos los nombres mundiales de los volúmenes en el ámbito (el nombre mundial es un número hexadecimal de 32 dígitos).
Asegúrese de que el atributo Compartible esté Activado para esos volúmenes.
-
En la vista de instancias de servidor virtual, vaya a ambas instancias de servidor virtual del clúster y compruebe que los volúmenes del ámbito están conectados a ambas instancias de servidor virtual.
Descubrimiento de nuevos volúmenes SAN en nodos de clúster
Cuando se conecta un nuevo volumen de almacenamiento a una instancia de servidor virtual, es necesario volver a explorar el bus SCSI para detectar el nuevo volumen. A continuación, actualice la configuración de múltiples rutas de la instancia del servidor virtual.
En los nodos con nuevos archivos adjuntos de volumen de almacenamiento, ejecute el siguiente comando.
rescan-scsi-bus.sh && sleep 10 && multipathd reconfigure
El valor WWN de un volumen también se puede encontrar con el comando pvs --all
.
Preparación de variables de entorno
Para simplificar la configuración, prepare las siguientes variables de entorno para el ID de usuario root
en ambos nodos. Estas variables de entorno se utilizan en los comandos posteriores en el resto de este documento.
En ambos nodos, cree un archivo con las variables de entorno. Después, adáptelos a su configuración.
Adapte NFS_VH
, NFS_IP
, NFS_CLIENTSPEC
y NFS_OPTIONS
a su entorno. Para NFS_PVID
, utilice el WWN que identificó anteriormente. Además del sistema de archivos que se utiliza
para el recurso compartido NFS, el ejemplo muestra otros dos sistemas de archivos que se utilizan para un entorno de sistema SAP con el ID de sistema ${SID}
y el directorio de transporte SAP. Los tamaños de muestra ${NFS_SZ1}
,
${NFS_SZ2}
y ${NFS_SZ3}
son porcentajes del tamaño de grupo de volumen de ${NFS_VG}
y deben modificarse de acuerdo con sus requisitos. Los nombres de los grupos de volúmenes y de los puntos de montaje
son sugerencias y deben modificarse para que coincidan con sus propias convenciones de nomenclatura.
Asegúrese de establecer la variable de entorno NFS_PVID
utilizando letras minúsculas en el número hexadecimal.
# virtual hostnames
export NFS_VH=<virtual hostname> # virtual hostname for NFS server
export NFS_IP=<IP address> # virtual IP address for NFS server
# LVM storage for NFS file systems
export NFS_PVID=3<WWN> # WWN of shareable storage volume used for NFS
export NFS_VG="nfssharevg" # volume group name for NFS exported file systems
# NFS share file system
export NFS_LV1="nfssharelv" # logical volume name export #1
export NFS_SZ1="5%VG" # logical volume size
export NFS_FS1="/nfsshare" # file system mount point
export NFS_ROOT="${NFS_FS1}/export" # base export directory
# NFS share file system for SAP system ID <SID>
export SID=<SID> # SAP system ID
export NFS_LV2="sap${SID}lv" # logical volume name export #2
export NFS_SZ2="40%VG" # logical volume size
export NFS_FS2="${NFS_ROOT}/sap${SID}" # file system mount point
# NFS share file system for SAP transport directory
export NFS_LV3="saptranslv" # logical volume name export #3
export NFS_SZ3="40%VG" # logical volume size
export NFS_FS3="${NFS_ROOT}/saptrans" # file system mount point
# NFS client options
export NFS_CLIENTSPEC="10.111.1.0/24" # client specs (subnet and netmask) for allowed NFS clients
export NFS_OPTIONS="rw,sync,no_root_squash,no_subtree_check,crossmnt" # options for NFS export
Debe obtener este archivo antes de utilizar los comandos de muestra que aparecen en el resto de este documento.
Por ejemplo, si ha creado un archivo llamado nfs_envs.sh
, ejecute el siguiente comando en ambos nodos para establecer las variables de entorno.
source nfs_envs.sh
Cada vez que inicie una nueva sesión de terminal, debe ejecutar el comando source
. De forma alternativa, puede añadir el archivo de variables de entorno al directorio /etc/profile.d
durante la configuración del clúster.
En este ejemplo, el archivo se obtiene automáticamente cada vez que se inicia sesión en el servidor.
Creación de objetos LVM
Utilice la siguiente información para crear objetos LVM.
Creación de volúmenes físicos
En NODE1, ejecute el siguiente comando.
pvcreate /dev/mapper/${NFS_PVID}
Salida de ejemplo:
pvcreate /dev/mapper/${NFS_PVID}
Physical volume "/dev/mapper/360050768108103357000000000002ddc" successfully created.
Creación de un grupo de volumen
En NODE1, cree el grupo de volumen para la exportación de NFS.
vgcreate ${NFS_VG} /dev/mapper/${NFS_PVID}
Verifique que el ID del sistema esté configurado.
vgs -o+systemid
Salida de ejemplo:
# vgs -o+systemid
VG #PV #LV #SN Attr VSize VFree System ID
nfssharevg 1 0 0 wz--n- <50.00g <50.00g cl-sap-1
Creación de volúmenes lógicos
En NODE1, cree tres volúmenes lógicos para la exportación de NFS.
lvcreate -l ${NFS_SZ1} -n ${NFS_LV1} ${NFS_VG}
lvcreate -l ${NFS_SZ2} -n ${NFS_LV2} ${NFS_VG}
lvcreate -l ${NFS_SZ3} -n ${NFS_LV3} ${NFS_vg}
Creación de los sistemas de archivos
En NODE1, cree los sistemas de archivos para las exportaciones de NFS.
El ejemplo utiliza el tipo de sistema de archivos xfs
. Son posibles otros tipos de sistemas de archivos. Entonces, las definiciones de recursos deben cambiarse.
mkfs.xfs /dev/${NFS_VG}/${NFS_LV1}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV2}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV3}
Creación del punto de montaje para la exportación de NFS
En ambos nodos, ejecute el siguiente comando.
mkdir -p ${NFS_FS1}
Asegurarse de que un grupo de volumen no esté activado en varios nodos de clúster
Los grupos de volumen gestionados por Pacemaker no deben activarse automáticamente al inicio.
Para RHEL 8.5 y posteriores, puede desactivar la activación automática de un grupo de volúmenes cuando cree el grupo de volúmenes especificando el indicador " --setautoactivation n
" para el comando vgcreate.
En ambos nodos, edite el archivo /etc/lvm/lvm.conf
y modifique la entrada auto_activation_volume_list
para limitar la activación automática a grupos de volumen específicos. Busque el parámetro auto_activation_volume_list
y añada los grupos de volumen, distintos del grupo de volumen que definió para el clúster de NFS, como entradas en esa lista.
Ejemplo de configuración de la entrada auto_activation_volume_list
en /etc/lvm/lvm.conf
:
auto_activation_volume_list = [ "rhel_root" ]
Reconstruir la imagen de arranque initramfs para asegurarse de que la imagen de arranque no activa un grupo de volúmenes controlado por el clúster.
En ambos nodos, ejecute el siguiente comando.
dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)
Reinicia ambos nodos.
Instalación y configuración del clúster RHEL HA Add-On
Siga las instrucciones siguientes para realizar la configuración inicial del clúster.
- Instale y configure el clúster complementario RHEL HA de acuerdo con Implementación de un clúster complementario de alta disponibilidad Red Hat Enterprise Linux.
- Configure y pruebe el vallado como se describe en Creación del dispositivo de vallado.
Muestra de salida del estado del clúster en esta etapa.
# pcs status
Cluster name: SAP_NFS
Cluster Summary:
* Stack: corosync
* Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
* Last updated: Fri Mar 10 10:35:42 2023
* Last change: Fri Mar 10 09:52:08 2023 by root via cibadmin on cl-nfs-1
* 2 nodes configured
* 1 resource instance configured
Node List:
* Online: [ cl-nfs-1 cl-nfs-2 ]
Full List of Resources:
* res_fence_ibm_powervs (stonith:fence_ibm_powervs): Started cl-nfs-1
Daemon Status:
corosync: active/disabled
pacemaker: active/disabled
pcsd: active/enabled
Configuración de las propiedades generales del clúster
Para evitar que el clúster mueva recursos sanos a otro nodo (por ejemplo, cuando reinicias el clúster en un nodo que ha fallado anteriormente), puedes establecer el valor predeterminado del metaatributo resource-stickiness
en
1.
En NODE1, ejecute el siguiente comando.
pcs resource defaults update resource-stickiness=1
Configuración de un grupo de recursos y recursos de NFS
Siga los pasos siguientes para configurar los recursos de NFS en el clúster.
Creación del recurso de activación de LVM
Para asegurarse de que todos los recursos de NFS se ejecutan en el mismo nodo, configúrelos como parte del grupo de recursos nfsgroup
.
Este grupo de recursos se crea con el primer recurso. Los recursos comienzan en el orden en que se añaden al grupo. Los recursos se detienen en orden inverso.
En NODE1, ejecute el siguiente comando.
pcs resource create nfs_vg ocf:heartbeat:LVM-activate \
vgname=${NFS_VG} \
vg_access_mode=system_id \
--group nfsgroup
Para evitar la corrupción de datos, no configure más de un recurso de activación de LVM que utilice el mismo grupo de volúmenes de LVM en una configuración de alta disponibilidad activa-pasiva. No configure un recurso de activación LVM como recurso clónico en una configuración de alta disponibilidad activa-pasiva.
Comprueba el estado del clúster y verifica que el recurso nfs_vg
esté activo.
En NODE1, ejecute el siguiente comando.
pcs resource status
Salida de ejemplo:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
El siguiente comando configura los recursos del sistema de archivos de xfs
para el grupo de recursos de nfsgroup
. Los sistemas de archivos utilizan el grupo de volúmenes LVM ${NFS_vg}
y los volúmenes
lógicos (${NFS_LV1}
, ${NFS_LV2}
, ${NFS_LV3}
) que se crearon anteriormente.
En NODE1, ejecute el siguiente comando.
pcs resource create nfs_fs1 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV1} \
directory=${NFS_FS1} \
fstype=xfs \
--group nfsgroup
Puede especificar opciones de montaje como parte de la configuración de recursos para un recurso de sistema de archivos utilizando el parámetro options=<options>
. Visite pcs resource describe filesystem
para
obtener una lista completa de las opciones de configuración.
Comprueba el estado del clúster y verifica que el recurso nfs_fs1
esté activo.
pcs resource status
Salida de ejemplo:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
En el nodo con el grupo de recursos activo nfsgroup
, cree dos subdirectorios en ${NFS_FS1}
.
${NFS_FS1}/stat
se utiliza como nfs_shared_infodir
para la información de bloqueo de NFS y ${NFS_FS1}/export
se utiliza como raíz de NFS.
mkdir ${NFS_FS1}/stat ${NFS_FS1}/export
Cree los puntos de montaje para los otros sistemas de archivos exportados.
En ambos nodos, ejecute el siguiente comando.
mkdir ${NFS_FS2} ${NFS_FS3}
Crear los recursos para los otros dos sistemas de archivos e NFS.
En NODE1, ejecute los siguientes comandos.
pcs resource create nfs_fs2 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV2} \
directory=${NFS_FS2} \
fstype=xfs \
--group nfsgroup
pcs resource create nfs_fs3 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV3} \
directory=${NFS_FS3} \
fstype=xfs \
--group nfsgroup
Compruebe el estado del clúster y verifique que los tres recursos del sistema de archivos (nfs_fs1
, nfs_fs2
, nfs_fs3
) estén activos.
pcs resource status
Salida de ejemplo:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
Creación del recurso nfsserver
En NODE1, cree un recurso para gestionar el servidor NFS.
pcs resource create nfs_daemon nfsserver \
nfs_shared_infodir=${NFS_FS1}/stat \
nfs_no_notify=true \
--group nfsgroup
El parámetro nfs_shared_infodir
del recurso nfsserver
especifica un directorio donde el servidor NFS almacena información de estado.
Compruebe el estado del clúster y verifique que el servidor NFS esté iniciado.
pcs resource status
Salida de ejemplo:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-1
Creación del recurso exportfs
Para exportar el directorio ${NFS_ROOT}
, agregue los recursos exportfs al grupo nfsgroup
, que crea un directorio virtual para clientes NFSv4. NFSv3 los clientes también pueden acceder a estas exportaciones.
En NODE1, ejecute el siguiente comando.
pcs resource create nfs_export exportfs \
clientspec=${NFS_CLIENTSPEC} \
options=${NFS_OPTIONS} \
directory=${NFS_ROOT} \
fsid=0 \
--group nfsgroup
Configuración de un recurso de dirección IP flotante
Revise la información en Reservar direcciones IP virtuales y reserve una dirección IP virtual para el clúster NFS.
Cree un recurso para la dirección IP virtual del servidor NFS. NFS los clientes acceden al recurso compartido NFS utilizando la dirección IP flotante.
En NODE1, ejecute el siguiente comando.
pcs resource create nfs_ip IPaddr2 \
ip=${NFS_IP} \
--group nfsgroup
Configuración de un recurso de notificación
El recurso nfsnotify envía FSv3 notificaciones de reinicio después de que se inicialice toda la implementación de NFS.
En NODE1, ejecute el siguiente comando.
pcs resource create nfs_notify nfsnotify \
source_host=${NFS_IP} \
--group nfsgroup
La configuración del clúster de NFS s ya está completa.
En NODE1, ejecute el siguiente comando para comprobar el estado.
pcs resource status
Salida de ejemplo:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-1
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-1
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-1
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-1
Prueba del clúster de servidores de NFS
Puede validar la configuración de recursos de NFS en un clúster de alta disponibilidad mediante los siguientes procedimientos. Puede montar el sistema de archivos exportado con NFSv3 o NFSv4. Ejecute las siguientes pruebas para verificar que el clúster de NFS funciona.
Test1- Prueba de la exportación de NFS
Utilice la siguiente información para probar la exportación de NFS.
Ejecutar todos los comandos en un nodo cliente de alta disponibilidad ( NFS ) fuera del clúster de alta disponibilidad ( NFS ).
Verificar las exportaciones de NFS.
showmount -e ${NFS_IP}
El comando showmount
muestra información sobre los sistemas de archivos que exporta un servidor NFS ( NFS v3 ). Verifique que el resultado muestre todos los directorios exportados.
Cree un directorio temporal en el nodo cliente NFS. A continuación, monte el sistema de archivos NFS y cree la estructura de directorios necesaria para la instalación de SAP.
En el primer ejemplo, solo /usr/sap/trans
y /sapmnt/${SID}
son NFS montados en la instancia del servidor de aplicaciones SAP.
Prepare los puntos de montaje que se utilizan para la instalación de la e SAP.
mkdir -p /sapmnt/${SID} \
/usr/sap/trans
Cambiar los atributos de los puntos de montaje.
chattr +i /sapmnt/${SID} \
/usr/sap/trans
Montar las acciones NFS.
mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /usr/sap/trans
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID}
Cambiar la propiedad y los permisos.
chown ${sid}adm:sapsys /usr/sap/trans
chmod g+w /usr/sap/trans
chown -R ${sid}adm:sapsys /sapmnt/${SID}
Desmonte los sistemas de archivos.
umount /usr/sap/trans
umount /sapmnt/${SID}
Añada los nuevos sistemas de archivos a /etc/fstab
.
cat >> /etc/fstab << EOT
${NFS_VH}:/saptrans /usr/sap/trans nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID} nfs4 sec=sys 0 0
EOT
Compruebe el archivo actualizado.
cat /etc/fstab
En el segundo ejemplo, /usr/sap/trans
, /sapmnt/${SID}
y todos los directorios de instancias están montados en NFS en las instancias del servidor de aplicaciones SAP.
Exportar variables de entorno para los números de sistema ASCS y ERS. Cambie los siguientes números por los números de sistema que utilizó durante la instalación de ASCS y ERS.
export ASCS_NR=01
export ERS_NR=02
Prepare los puntos de montaje finales que se utilizarán para la instalación e SAP.
mkdir -p /sapmnt/${SID} \
/usr/sap/trans \
/usr/sap/${SID}/SYS \
/usr/sap/${SID}/ASCS${ASCS_INSTNO} \
/usr/sap/${SID}/ERS${ERS_INSTNO}
Cambiar los atributos de los puntos de montaje.
chattr +i /sapmnt/${SID} \
/usr/sap/trans \
/usr/sap/${SID}/SYS \
/usr/sap/${SID}/ASCS${ASCS_INSTNO} \
/usr/sap/${SID}/ERS${ERS_INSTNO}
Monte los recursos compartidos de NFS para crear los subdirectorios necesarios, cambiar la propiedad y cambiar los permisos.
mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /mnt
chown ${sid}adm:sapsys /mnt
chmod g+w /mnt
umount /mnt
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID} /mnt
mkdir -p /mnt/sapmnt \
/mnt/ASCS \
/mnt/ERS \
/mnt/SYS \
/mnt/PAS \
/mnt/AS1
chown -R ${sid}adm:sapsys /mnt
umount /mnt
Añada los nuevos sistemas de archivos a /etc/fstab
.
cat >> /etc/fstab < EOT
${NFS_VH}:/saptrans /usr/sap/trans nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/ASCS /usr/sap/${SID}/ASCS${ASCS_INSTNO} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/ERS /usr/sap/${SID}/ERS${ERS_INSTNO} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/SYS /usr/sap/${SID}/SYS nfs4 sec=sys 0 0
EOT
Compruebe el archivo actualizado.
cat /etc/fstab
Test2- Prueba de la conmutación por error del servidor NFS
Utilice la siguiente información para probar la conmutación por error del servidor NFS.
Test2- Descripción
Simular un bloqueo del nodo del clúster que tiene los recursos de NFS.
Test2- Requisitos previos
- Un clúster Add-On RHEL HA funcional de dos nodos para un servidor HA de alta disponibilidad ( NFS ).
- El clúster se inicia en ambos nodos.
- Los sistemas de archivos se montan en un nodo cliente de NFS fuera del clúster y las aplicaciones pueden acceder al contenido.
Test2- Procedimiento de prueba
Bloquear el nodo del clúster enviando una solicitud de apagado del sistema.
Primero, compruebe el estado del clúster e identifique el nodo donde se está ejecutando el grupo de recursos nfsgroup.
En NODE1, ejecute el siguiente comando.
pcs status
A continuación, inicie sesión en el nodo del clúster identificado y envíe una solicitud de bloqueo del sistema.
sync; echo c > /proc/sysrq-trigger
Test2- Comportamiento esperado
- El nodo con el grupo de recursos nfsgroup activo se apaga.
- El clúster detecta el nodo fallido e inicia una acción de aislamiento.
- La operación de cierre establece el estado del nodo cerrado en desconectado.
- El clúster adquiere los recursos del servidor de NFS en el nodo de conmutación por error.
Compruebe que todos los recursos se inicien en el nodo de conmutación por error.
pcs resource status
Salida de ejemplo:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-2
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-2
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-2
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-2
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-2
Verifique que el sistema de archivos siga montado en el nodo cliente de NFS y que las aplicaciones puedan seguir accediendo al contenido.
Test2- Procedimiento de recuperación
Inicie sesión en la consola de IBM Cloud e inicie la instancia detenida. Espere hasta que el nodo del clúster vuelva a estar disponible y, a continuación, reinicie el marco del clúster.
En el nodo del clúster, ejecute el siguiente comando.
pcs cluster start
Compruebe el estado del clúster.
pcs status
Salida de ejemplo:
# pcs status
Cluster name: SAP_NFS
Cluster Summary:
* Stack: corosync
* Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
* Last updated: Mon Mar 20 08:11:28 2023
* Last change: Mon Mar 20 07:56:25 2023 by hacluster via crmd on cl-nfs-1
* 2 nodes configured
* 9 resource instances configured
Node List:
* Online: [ cl-nfs-1 cl-nfs-2 ]
Full List of Resources:
* res_fence_ibm_powervs (stonith:fence_ibm_powervs): Started cl-nfs-1
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-2
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-2
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-2
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-2
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-2
Daemon Status:
corosync: active/disabled
pacemaker: active/disabled
pcsd: active/enabled