IBM Cloud Docs
Configuração de um servidor NFS ativo-passivo em um cluster Red Hat Enterprise Linux High Availability Add-On

Configuração de um servidor NFS ativo-passivo em um cluster Red Hat Enterprise Linux High Availability Add-On

As informações a seguir descrevem a configuração de um servidor ativo-passivo NFS em um cluster Red Hat Enterprise Linux (RHEL) High Availability Add-On. O cluster usa instâncias de servidor virtual em IBM® Power® Virtual Server como nós do cluster.

A configuração descrita usa volumes de armazenamento compartilháveis que podem ser acessados em ambos os nós do cluster. Os sistemas de arquivos para as exportações do NFS são criados nesses volumes de armazenamento compartilháveis. O HA-LVM garante que o grupo de volumes esteja ativo em um nó de cada vez.

Na configuração de exemplo, um grupo de volumes compartilhados nfssharevg contém três volumes lógicos nfssharelv, sap${SID}lv e saptranslv. Os sistemas de arquivos XFS são criados nesses volumes lógicos e montados em /nfsshare, /nfshare/export/sap${SID}, /nfsshare/export/saptrans.

As instruções se baseiam na documentação do produto Red Hat e nos artigos listados em Implementação de alta disponibilidade para aplicativos SAP em IBM Power Virtual Server Referências.

Antes de Iniciar

Analise os requisitos gerais, a documentação do produto, os artigos de suporte e as notas SAP listados em Implementação de alta disponibilidade para aplicativos SAP em IBM Power Virtual Server Referências.

Pré-requisitos

É necessário um nome de host virtual e um endereço IP para o servidor NFS. Certifique-se de que o endereço IP virtual esteja definido na interface de rede e seja acessível na rede.

A resolução de nomes e a pesquisa reversa de nomes e endereços IP físicos e virtuais devem ser exclusivas e consistentes em todos os nós do servidor e do cliente NFS. Os detalhes dos clientes NFS (sub-rede, opções de exportação NFS necessárias) devem estar disponíveis. Você precisa inseri-los durante a configuração do cluster.

Preparação para um servidor NFS altamente disponível

Use as informações a seguir para preparar o ambiente para um servidor NFS altamente disponível.

Instalação dos pacotes de software do NFS

Em ambos os nós, execute os seguintes comandos.

dnf install -y nfs-utils

Preparação de objetos LVM

Todos os nós do cluster precisam acessar os volumes de armazenamento compartilhado, mas somente um nó tem acesso exclusivo de leitura e gravação a um volume.

Preparação do HA LVM ativo-passivo

Em ambos os nós, edite o arquivo /etc/lvm/lvm.conf para incluir o ID do sistema no grupo de volumes. Procure a definição de configuração system_id_source e altere seu valor para "uname".

Exemplo de configuração de system_id_source em /etc/lvm/lvm.conf:

# grep "system_id_source ="  /etc/lvm/lvm.conf
system_id_source = "uname"

Verifique se o LVM system ID do nó corresponde à saída do uname -n.

lvm systemid
uname -n

Saída de amostra:

# lvm systemid
  system ID: cl-nfs-1
# uname -n
  cl-nfs-1

Identificação dos nomes da rede mundial de computadores dos volumes de armazenamento compartilhado

Identifique os WWNs (World Wide Names) de todos os volumes usados no grupo de volumes compartilhados.

  1. Faça login em IBM Cloud® e acesse a visualização Storage volumes(Volumes de armazenamento) em Power Virtual Server.

  2. Selecione seu espaço de trabalho.

  3. Filtre o prefixo do volume na lista Volumes de armazenamento e identifique todos os World Wide Names dos volumes no escopo (o World Wide Name é um número hexadecimal de 32 dígitos).

    Certifique-se de que o atributo Shareable esteja ativado para esses volumes.

  4. No modo de exibição Instâncias de servidor virtual, vá para as duas instâncias de servidor virtual do cluster e verifique se os volumes no escopo estão anexados às duas instâncias de servidor virtual.

Descoberta de novos volumes SAN nos nós do cluster

Quando você anexa um novo volume de armazenamento a uma instância de servidor virtual, é necessário verificar novamente o barramento SCSI para detectar o novo volume. Em seguida, atualize a configuração multipath da instância do servidor virtual.

Nos nós com novos anexos de volume de armazenamento, execute o seguinte comando.

rescan-scsi-bus.sh && sleep 10 && multipathd reconfigure

O valor WWN de um volume também pode ser encontrado com o comando pvs --all.

Preparação de variáveis de ambiente

Para simplificar a configuração, prepare as seguintes variáveis de ambiente para o ID de usuário root em ambos os nós. Essas variáveis de ambiente são usadas em comandos subsequentes no restante deste documento.

Em ambos os nós, crie um arquivo com as variáveis de ambiente. Em seguida, adapte-os à sua configuração.

Adapte NFS_VH, NFS_IP, NFS_CLIENTSPEC e NFS_OPTIONS ao seu ambiente. Para NFS_PVID, use o WWN que você identificou anteriormente. Além do sistema de arquivos usado para o compartilhamento NFS, o exemplo mostra mais dois sistemas de arquivos usados para um cenário de sistema SAP com ID de sistema ${SID} e o diretório de transporte SAP. Os tamanhos de amostra ${NFS_SZ1}, ${NFS_SZ2} e ${NFS_SZ3} são porcentagens do tamanho do grupo de volume ${NFS_VG} e precisam ser modificados de acordo com suas necessidades. Os nomes dos grupos de volumes e dos pontos de montagem são sugestões e precisam ser alterados para corresponder às suas próprias convenções de nomenclatura.

Certifique-se de definir a variável de ambiente NFS_PVID usando letras minúsculas no número hexadecimal.

# virtual hostnames
export NFS_VH=<virtual hostname>        # virtual hostname for NFS server
export NFS_IP=<IP address>              # virtual IP address for NFS server

# LVM storage for NFS file systems
export NFS_PVID=3<WWN>                  # WWN of shareable storage volume used for NFS
export NFS_VG="nfssharevg"              # volume group name for NFS exported file systems

# NFS share file system
export NFS_LV1="nfssharelv"             # logical volume name export #1
export NFS_SZ1="5%VG"                   # logical volume size
export NFS_FS1="/nfsshare"              # file system mount point
export NFS_ROOT="${NFS_FS1}/export"     # base export directory

# NFS share file system for SAP system ID <SID>
export SID=<SID>                        # SAP system ID
export NFS_LV2="sap${SID}lv"            # logical volume name export #2
export NFS_SZ2="40%VG"                  # logical volume size
export NFS_FS2="${NFS_ROOT}/sap${SID}"  # file system mount point

# NFS share file system for SAP transport directory
export NFS_LV3="saptranslv"             # logical volume name export #3
export NFS_SZ3="40%VG"                  # logical volume size
export NFS_FS3="${NFS_ROOT}/saptrans"   # file system mount point

# NFS client options
export NFS_CLIENTSPEC="10.111.1.0/24"   # client specs (subnet and netmask) for allowed NFS clients
export NFS_OPTIONS="rw,sync,no_root_squash,no_subtree_check,crossmnt"   # options for NFS export

Você deve obter esse arquivo antes de usar os comandos de amostra no restante deste documento.

Por exemplo, se você criou um arquivo chamado nfs_envs.sh, execute o seguinte comando em ambos os nós para definir as variáveis de ambiente.

source nfs_envs.sh

Toda vez que iniciar uma nova sessão de terminal, você deverá executar o comando source. Como alternativa, você pode adicionar o arquivo de variáveis de ambiente ao diretório /etc/profile.d durante a configuração do cluster. Neste exemplo, o arquivo é originado automaticamente sempre que você faz login no servidor.

Criação de objetos LVM

Use as informações a seguir para criar objetos LVM.

Criação de volumes físicos

Em NODE1, execute o seguinte comando.

pvcreate /dev/mapper/${NFS_PVID}

Saída de amostra:

pvcreate /dev/mapper/${NFS_PVID}
  Physical volume "/dev/mapper/360050768108103357000000000002ddc" successfully created.

Criação de um grupo de volumes

Em NODE1, crie o grupo de volumes para a exportação NFS.

vgcreate ${NFS_VG} /dev/mapper/${NFS_PVID}

Verifique se a ID do sistema está definida.

vgs -o+systemid

Saída de amostra:

# vgs -o+systemid
  VG          #PV #LV #SN Attr   VSize   VFree   System ID
  nfssharevg    1   0   0 wz--n- <50.00g <50.00g cl-sap-1

Criação de volumes lógicos

Em NODE1, crie três volumes lógicos para a exportação NFS.

lvcreate -l ${NFS_SZ1} -n ${NFS_LV1} ${NFS_VG}
lvcreate -l ${NFS_SZ2} -n ${NFS_LV2} ${NFS_VG}
lvcreate -l ${NFS_SZ3} -n ${NFS_LV3} ${NFS_vg}

Criação dos sistemas de arquivos

Em NODE1, crie os sistemas de arquivos para as exportações de NFS.

O exemplo usa o tipo de sistema de arquivos xfs. Outros tipos de sistema de arquivos são possíveis. Em seguida, as definições de recursos precisam ser alteradas.

mkfs.xfs /dev/${NFS_VG}/${NFS_LV1}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV2}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV3}

Criação do ponto de montagem para a exportação do NFS

Em ambos os nós, execute o seguinte comando.

mkdir -p ${NFS_FS1}

Garantir que um grupo de volumes não seja ativado em vários nós do cluster

Os grupos de volumes gerenciados pelo site Pacemaker não devem ser ativados automaticamente na inicialização.

No RHEL 8.5 e posterior, você pode desativar a ativação automática de um grupo de volumes ao criar o grupo de volumes especificando o sinalizador --setautoactivation n para o comando vgcreate.

Em ambos os nós, edite o arquivo /etc/lvm/lvm.conf e modifique a entrada auto_activation_volume_list para limitar a autoativação a grupos de volumes específicos. Procure o parâmetro auto_activation_volume_list e adicione os grupos de volumes, além do grupo de volumes que você definiu para o cluster NFS, como entradas nessa lista.

Exemplo de configuração da entrada auto_activation_volume_list em /etc/lvm/lvm.conf:

auto_activation_volume_list = [ "rhel_root" ]

Reconstrua a imagem de inicialização do initramfs para garantir que a imagem de inicialização não ative um grupo de volumes controlado pelo cluster.

Em ambos os nós, execute o seguinte comando.

dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)

Reinicialize os dois nós.

Instalação e configuração do cluster do RHEL HA Add-On

Use as instruções a seguir para realizar a configuração inicial do cluster.

Exemplo de saída do status do cluster nesse estágio.

# pcs status
Cluster name: SAP_NFS
Cluster Summary:
  * Stack: corosync
  * Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
  * Last updated: Fri Mar 10 10:35:42 2023
  * Last change:  Fri Mar 10 09:52:08 2023 by root via cibadmin on cl-nfs-1
  * 2 nodes configured
  * 1 resource instance configured

Node List:
  * Online: [ cl-nfs-1 cl-nfs-2 ]

Full List of Resources:
  * res_fence_ibm_powervs	(stonith:fence_ibm_powervs):	 Started cl-nfs-1

Daemon Status:
  corosync: active/disabled
  pacemaker: active/disabled
  pcsd: active/enabled

Configuração das propriedades gerais do cluster

Para evitar que o cluster mova recursos íntegros para outro nó (por exemplo, quando você reinicia o cluster em um nó que falhou anteriormente), é possível definir o valor padrão do metatributo resource-stickiness como 1.

Em NODE1, execute o seguinte comando.

pcs resource defaults update resource-stickiness=1

Configuração dos recursos e do grupo de recursos NFS

Use as etapas a seguir para configurar os recursos do NFS no cluster.

Criação do recurso LVM-activate

Para garantir que todos os recursos do NFS sejam executados no mesmo nó, configure-os como parte do grupo de recursos nfsgroup.

Esse grupo de recursos é criado com o primeiro recurso. Os recursos começam na ordem em que são adicionados ao grupo. Os recursos param na ordem inversa.

Em NODE1, execute o seguinte comando.

pcs resource create nfs_vg ocf:heartbeat:LVM-activate \
    vgname=${NFS_VG} \
    vg_access_mode=system_id \
    --group nfsgroup

Para evitar a corrupção de dados, não configure mais de um recurso LVM-activate que use o mesmo grupo de volumes LVM em uma configuração de HA ativo-passivo. Não configure um recurso LVM-activate como um recurso clone em uma configuração de HA ativo-passivo.

Verifique o status do cluster e verifique se o recurso nfs_vg está ativo.

Em NODE1, execute o seguinte comando.

pcs resource status

Saída de amostra:

# pcs resource status
  * Resource Group: nfsgroup:
    * nfs_vg    (ocf::heartbeat:LVM-activate):   Started cl-nfs-1

O comando a seguir configura os recursos do sistema de arquivos xfs para o grupo de recursos nfsgroup. Os sistemas de arquivos usam o grupo de volumes LVM ${NFS_vg} e os volumes lógicos (${NFS_LV1}, ${NFS_LV2}, ${NFS_LV3}) que foram criados anteriormente.

Em NODE1, execute o seguinte comando.

pcs resource create nfs_fs1 Filesystem \
    device=/dev/${NFS_VG}/${NFS_LV1} \
    directory=${NFS_FS1} \
    fstype=xfs \
    --group nfsgroup

Você pode especificar opções de montagem como parte da configuração de recursos para um recurso de sistema de arquivos usando o parâmetro options=<options>. Execute pcs resource describe filesystem para obter uma lista completa das opções de configuração.

Verifique o status do cluster e verifique se o recurso nfs_fs1 está ativo.

pcs resource status

Saída de amostra:

# pcs resource status
  * Resource Group: nfsgroup:
    * nfs_vg    (ocf::heartbeat:LVM-activate):   Started cl-nfs-1
    * nfs_fs1   (ocf::heartbeat:Filesystem):     Started cl-nfs-1

No nó com o grupo de recursos ativo nfsgroup, crie dois subdiretórios em ${NFS_FS1}. ${NFS_FS1}/stat é usado como nfs_shared_infodir para informações de bloqueio de NFS e ${NFS_FS1}/export é usado como raiz de NFS.

mkdir ${NFS_FS1}/stat ${NFS_FS1}/export

Crie os pontos de montagem para os outros sistemas de arquivos exportados.

Em ambos os nós, execute o seguinte comando.

mkdir ${NFS_FS2} ${NFS_FS3}

Crie os recursos para os outros dois sistemas de arquivos NFS.

Em NODE1, execute os seguintes comandos.

pcs resource create nfs_fs2 Filesystem \
    device=/dev/${NFS_VG}/${NFS_LV2} \
    directory=${NFS_FS2} \
    fstype=xfs \
    --group nfsgroup
pcs resource create nfs_fs3 Filesystem \
    device=/dev/${NFS_VG}/${NFS_LV3} \
    directory=${NFS_FS3} \
    fstype=xfs \
    --group nfsgroup

Verifique o status do cluster e verifique se todos os três recursos do sistema de arquivos (nfs_fs1, nfs_fs2, nfs_fs3) estão ativos.

pcs resource status

Saída de amostra:

# pcs resource status
  * Resource Group: nfsgroup:
    * nfs_vg    (ocf::heartbeat:LVM-activate):   Started cl-nfs-1
    * nfs_fs1   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_fs2   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_fs3   (ocf::heartbeat:Filesystem):     Started cl-nfs-1

Criação do recurso nfsserver

Em NODE1, crie um recurso para gerenciar o servidor NFS.

pcs resource create nfs_daemon nfsserver \
    nfs_shared_infodir=${NFS_FS1}/stat \
    nfs_no_notify=true \
    --group nfsgroup

O parâmetro nfs_shared_infodir do recurso nfsserver especifica um diretório em que o servidor NFS armazena informações com estado.

Verifique o status do cluster e verifique se o servidor NFS foi iniciado.

pcs resource status

Saída de amostra:

# pcs resource status
  * Resource Group: nfsgroup:
    * nfs_vg    (ocf::heartbeat:LVM-activate):   Started cl-nfs-1
    * nfs_fs1   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_fs2   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_fs3   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_daemon        (ocf::heartbeat:nfsserver):      Started cl-nfs-1

Criação do recurso exportfs

Para exportar o diretório ${NFS_ROOT}, adicione os recursos exportfs ao grupo nfsgroup, que cria um diretório virtual para os clientes NFSv4. NFSv3 os clientes também podem acessar essas exportações.

Em NODE1, execute o seguinte comando.

pcs resource create nfs_export exportfs \
    clientspec=${NFS_CLIENTSPEC} \
    options=${NFS_OPTIONS} \
    directory=${NFS_ROOT} \
    fsid=0 \
    --group nfsgroup

Configuração de um recurso de endereço IP flutuante

Revise as informações em Reservar endereços IP virtuais e reserve um endereço IP virtual para o cluster NFS.

Crie um recurso para o endereço IP virtual do servidor NFS. NFS os clientes acessam o compartilhamento NFS usando o endereço IP flutuante.

Em NODE1, execute o seguinte comando.

pcs resource create nfs_ip IPaddr2 \
    ip=${NFS_IP} \
    --group nfsgroup

Configuração de um recurso de notificação

O recurso nfsnotify envia FSv3 notificações de reinicialização após a inicialização de toda a implantação do NFS.

Em NODE1, execute o seguinte comando.

pcs resource create nfs_notify nfsnotify \
    source_host=${NFS_IP} \
    --group nfsgroup

A configuração do cluster NFS está concluída.

Em NODE1, execute o seguinte comando para verificar o status.

pcs resource status

Saída de amostra:

# pcs resource status
  * Resource Group: nfsgroup:
    * nfs_vg    (ocf::heartbeat:LVM-activate):   Started cl-nfs-1
    * nfs_fs1   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_fs2   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_fs3   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_daemon        (ocf::heartbeat:nfsserver):      Started cl-nfs-1
    * nfs_export        (ocf::heartbeat:exportfs):       Started cl-nfs-1
    * nfs_ip    (ocf::heartbeat:IPaddr2):        Started cl-nfs-1
    * nfs_notify        (ocf::heartbeat:nfsnotify):      Started cl-nfs-1

Teste do cluster do servidor NFS

Você pode validar a configuração do recurso NFS em um cluster de alta disponibilidade usando os procedimentos a seguir. Você pode montar o sistema de arquivos exportado com NFSv3 ou NFSv4. Execute os seguintes testes para verificar se o cluster NFS funciona.

Test1- Testando a exportação NFS

Use as informações a seguir para testar a exportação para NFS.

Execute todos os comandos em um nó cliente NFS fora do cluster HA NFS.

Verifique as exportações do site NFS.

showmount -e ${NFS_IP}

O comando showmount exibe informações sobre os sistemas de arquivos que são exportados por um servidor NFS ( NFS v3 ). Verifique se a saída lista todos os diretórios exportados.

Crie um diretório temporário no nó do cliente NFS. Em seguida, monte o sistema de arquivos NFS e crie a estrutura de diretórios necessária para a instalação do SAP.

No primeiro exemplo, somente /usr/sap/trans e /sapmnt/${SID} são NFS montados na instância do servidor de aplicativos SAP.

Prepare os pontos de montagem que serão usados para a instalação do SAP.

mkdir -p /sapmnt/${SID} \
         /usr/sap/trans

Altere os atributos dos pontos de montagem.

chattr +i /sapmnt/${SID} \
          /usr/sap/trans

Monte os compartilhamentos NFS.

mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /usr/sap/trans
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID}

Altere a propriedade e as permissões.

chown ${sid}adm:sapsys /usr/sap/trans
chmod g+w /usr/sap/trans
chown -R ${sid}adm:sapsys /sapmnt/${SID}

Desmonte os sistemas de arquivos.

umount /usr/sap/trans
umount /sapmnt/${SID}

Adicione os novos sistemas de arquivos a /etc/fstab.

cat >> /etc/fstab << EOT
​${NFS_VH}:/saptrans /usr/sap/trans  nfs4 sec=sys  0  0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID}  nfs4 sec=sys  0  0
EOT

Verifique o arquivo atualizado.

cat /etc/fstab

No segundo exemplo, /usr/sap/trans, /sapmnt/${SID} e todos os diretórios de instância são NFS montados nas instâncias do servidor de aplicativos SAP.

Exportar variáveis de ambiente para os números de sistema do ASCS e do ERS. Altere os números a seguir para os números de sistema que você usou durante a instalação do ASCS e do ERS.

export ASCS_NR=01
export ERS_NR=02

Prepare os pontos de montagem finais que serão usados para a instalação do SAP.

mkdir -p /sapmnt/${SID} \
         /usr/sap/trans \
         /usr/sap/${SID}/SYS \
         /usr/sap/${SID}/ASCS${ASCS_INSTNO} \
         /usr/sap/${SID}/ERS${ERS_INSTNO}

Altere os atributos dos pontos de montagem.

chattr +i /sapmnt/${SID} \
          /usr/sap/trans \
          /usr/sap/${SID}/SYS \
          /usr/sap/${SID}/ASCS${ASCS_INSTNO} \
          /usr/sap/${SID}/ERS${ERS_INSTNO}

Monte os compartilhamentos NFS para criar os subdiretórios necessários, alterar a propriedade e as permissões.

mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /mnt
chown ${sid}adm:sapsys /mnt
chmod g+w /mnt
umount /mnt
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID} /mnt
mkdir -p /mnt/sapmnt \
         /mnt/ASCS \
         /mnt/ERS \
         /mnt/SYS \
         /mnt/PAS \
         /mnt/AS1
chown -R ${sid}adm:sapsys /mnt
umount /mnt

Adicione os novos sistemas de arquivos a /etc/fstab.

cat >> /etc/fstab < EOT
​${NFS_VH}:/saptrans /usr/sap/trans  nfs4 sec=sys  0  0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID}  nfs4 sec=sys  0  0
${NFS_VH}:/sap${SID}/ASCS /usr/sap/${SID}/ASCS${ASCS_INSTNO} nfs4 sec=sys  0  0
${NFS_VH}:/sap${SID}/ERS  /usr/sap/${SID}/ERS${ERS_INSTNO} nfs4 sec=sys  0  0
${NFS_VH}:/sap${SID}/SYS  /usr/sap/${SID}/SYS  nfs4 sec=sys  0  0
EOT

Verifique o arquivo atualizado.

cat /etc/fstab

Test2- Testar o failover do servidor NFS

Use as informações a seguir para testar o failover do servidor NFS.

Test2- Descrição

Simule uma falha do nó do cluster que tem os recursos NFS.

Test2- Pré-requisitos

  • Um cluster funcional de dois nós do RHEL HA Add-On para um servidor NFS HA.
  • O cluster é iniciado em ambos os nós.
  • Os sistemas de arquivos são montados em um nó cliente NFS fora do cluster e os aplicativos podem acessar o conteúdo.

Test2- Procedimento de teste

Desativar o nó do cluster enviando uma solicitação de desligamento do sistema.

Primeiro, verifique o status do cluster e identifique o nó em que o grupo de recursos nfsgroup está sendo executado.

Em NODE1, execute o seguinte comando.

pcs status

Em seguida, faça login no nó do cluster identificado e envie uma solicitação de falha do sistema.

sync; echo c > /proc/sysrq-trigger

Test2- Comportamento esperado

  • O nó com o grupo de recursos nfsgroup ativo é encerrado.
  • O cluster detecta o nó com falha e inicia uma ação de vedação.
  • A operação de cercamento define o estado do nó cercado como off-line.
  • O cluster adquire os recursos do servidor NFS no nó de failover.

Verifique se todos os recursos foram iniciados no nó de failover.

pcs resource status

Saída de amostra:

# pcs resource status
  * Resource Group: nfsgroup:
    * nfs_vg    (ocf::heartbeat:LVM-activate):   Started cl-nfs-2
    * nfs_fs1   (ocf::heartbeat:Filesystem):     Started cl-nfs-2
    * nfs_fs2   (ocf::heartbeat:Filesystem):     Started cl-nfs-2
    * nfs_fs3   (ocf::heartbeat:Filesystem):     Started cl-nfs-2
    * nfs_daemon        (ocf::heartbeat:nfsserver):      Started cl-nfs-2
    * nfs_export        (ocf::heartbeat:exportfs):       Started cl-nfs-2
    * nfs_ip    (ocf::heartbeat:IPaddr2):        Started cl-nfs-2
    * nfs_notify        (ocf::heartbeat:nfsnotify):      Started cl-nfs-2

Verifique se o sistema de arquivos ainda está montado no nó do cliente NFS e se os aplicativos ainda podem acessar o conteúdo.

Test2- Procedimento de recuperação

Faça login no Console IBM Cloud e inicie a instância interrompida. Aguarde até que o nó do cluster esteja disponível novamente e, em seguida, reinicie a estrutura do cluster.

No nó do cluster, execute o seguinte comando.

pcs cluster start

Verifique o status do cluster.

pcs status

Saída de amostra:

# pcs status
Cluster name: SAP_NFS
Cluster Summary:
  * Stack: corosync
  * Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
  * Last updated: Mon Mar 20 08:11:28 2023
  * Last change:  Mon Mar 20 07:56:25 2023 by hacluster via crmd on cl-nfs-1
  * 2 nodes configured
  * 9 resource instances configured

Node List:
  * Online: [ cl-nfs-1 cl-nfs-2 ]

Full List of Resources:
  * res_fence_ibm_powervs	(stonith:fence_ibm_powervs):	 Started cl-nfs-1
  * Resource Group: nfsgroup:
    * nfs_vg	(ocf::heartbeat:LVM-activate):	 Started cl-nfs-2
    * nfs_fs1	(ocf::heartbeat:Filesystem):	 Started cl-nfs-2
    * nfs_fs2	(ocf::heartbeat:Filesystem):	 Started cl-nfs-2
    * nfs_fs3	(ocf::heartbeat:Filesystem):	 Started cl-nfs-2
    * nfs_daemon	(ocf::heartbeat:nfsserver):	 Started cl-nfs-2
    * nfs_export	(ocf::heartbeat:exportfs):	 Started cl-nfs-2
    * nfs_ip	(ocf::heartbeat:IPaddr2):	 Started cl-nfs-2
    * nfs_notify	(ocf::heartbeat:nfsnotify):	 Started cl-nfs-2

Daemon Status:
  corosync: active/disabled
  pacemaker: active/disabled
  pcsd: active/enabled