Configuração de um servidor NFS ativo-passivo em um cluster Red Hat Enterprise Linux High Availability Add-On
As informações a seguir descrevem a configuração de um servidor ativo-passivo NFS em um cluster Red Hat Enterprise Linux (RHEL) High Availability Add-On. O cluster usa instâncias de servidor virtual em IBM® Power® Virtual Server como nós do cluster.
A configuração descrita usa volumes de armazenamento compartilháveis que podem ser acessados em ambos os nós do cluster. Os sistemas de arquivos para as exportações do NFS são criados nesses volumes de armazenamento compartilháveis. O HA-LVM garante que o grupo de volumes esteja ativo em um nó de cada vez.
Na configuração de exemplo, um grupo de volumes compartilhados nfssharevg
contém três volumes lógicos nfssharelv
, sap${SID}lv
e saptranslv
. Os sistemas de arquivos XFS são criados nesses volumes
lógicos e montados em /nfsshare
, /nfshare/export/sap${SID}
, /nfsshare/export/saptrans
.
As instruções se baseiam na documentação do produto Red Hat e nos artigos listados em Implementação de alta disponibilidade para aplicativos SAP em IBM Power Virtual Server Referências.
Antes de Iniciar
Analise os requisitos gerais, a documentação do produto, os artigos de suporte e as notas SAP listados em Implementação de alta disponibilidade para aplicativos SAP em IBM Power Virtual Server Referências.
Pré-requisitos
É necessário um nome de host virtual e um endereço IP para o servidor NFS. Certifique-se de que o endereço IP virtual esteja definido na interface de rede e seja acessível na rede.
A resolução de nomes e a pesquisa reversa de nomes e endereços IP físicos e virtuais devem ser exclusivas e consistentes em todos os nós do servidor e do cliente NFS. Os detalhes dos clientes NFS (sub-rede, opções de exportação NFS necessárias) devem estar disponíveis. Você precisa inseri-los durante a configuração do cluster.
Preparação para um servidor NFS altamente disponível
Use as informações a seguir para preparar o ambiente para um servidor NFS altamente disponível.
Instalação dos pacotes de software do NFS
Em ambos os nós, execute os seguintes comandos.
dnf install -y nfs-utils
Preparação de objetos LVM
Todos os nós do cluster precisam acessar os volumes de armazenamento compartilhado, mas somente um nó tem acesso exclusivo de leitura e gravação a um volume.
Preparação do HA LVM ativo-passivo
Em ambos os nós, edite o arquivo /etc/lvm/lvm.conf
para incluir o ID do sistema no grupo de volumes. Procure a definição de configuração system_id_source
e altere seu valor para "uname".
Exemplo de configuração de system_id_source
em /etc/lvm/lvm.conf
:
# grep "system_id_source =" /etc/lvm/lvm.conf
system_id_source = "uname"
Verifique se o LVM system ID
do nó corresponde à saída do uname -n
.
lvm systemid
uname -n
Saída de amostra:
# lvm systemid
system ID: cl-nfs-1
# uname -n
cl-nfs-1
Identificação dos nomes da rede mundial de computadores dos volumes de armazenamento compartilhado
Identifique os WWNs (World Wide Names) de todos os volumes usados no grupo de volumes compartilhados.
-
Faça login em IBM Cloud® e acesse a visualização Storage volumes(Volumes de armazenamento) em Power Virtual Server.
-
Selecione seu espaço de trabalho.
-
Filtre o prefixo do volume na lista Volumes de armazenamento e identifique todos os World Wide Names dos volumes no escopo (o World Wide Name é um número hexadecimal de 32 dígitos).
Certifique-se de que o atributo Shareable esteja ativado para esses volumes.
-
No modo de exibição Instâncias de servidor virtual, vá para as duas instâncias de servidor virtual do cluster e verifique se os volumes no escopo estão anexados às duas instâncias de servidor virtual.
Descoberta de novos volumes SAN nos nós do cluster
Quando você anexa um novo volume de armazenamento a uma instância de servidor virtual, é necessário verificar novamente o barramento SCSI para detectar o novo volume. Em seguida, atualize a configuração multipath da instância do servidor virtual.
Nos nós com novos anexos de volume de armazenamento, execute o seguinte comando.
rescan-scsi-bus.sh && sleep 10 && multipathd reconfigure
O valor WWN de um volume também pode ser encontrado com o comando pvs --all
.
Preparação de variáveis de ambiente
Para simplificar a configuração, prepare as seguintes variáveis de ambiente para o ID de usuário root
em ambos os nós. Essas variáveis de ambiente são usadas em comandos subsequentes no restante deste documento.
Em ambos os nós, crie um arquivo com as variáveis de ambiente. Em seguida, adapte-os à sua configuração.
Adapte NFS_VH
, NFS_IP
, NFS_CLIENTSPEC
e NFS_OPTIONS
ao seu ambiente. Para NFS_PVID
, use o WWN que você identificou anteriormente. Além do sistema de arquivos usado para
o compartilhamento NFS, o exemplo mostra mais dois sistemas de arquivos usados para um cenário de sistema SAP com ID de sistema ${SID}
e o diretório de transporte SAP. Os tamanhos de amostra ${NFS_SZ1}
, ${NFS_SZ2}
e ${NFS_SZ3}
são porcentagens do tamanho do grupo de volume ${NFS_VG}
e precisam ser modificados de acordo com suas necessidades. Os nomes dos grupos de volumes e dos pontos de montagem são sugestões e precisam
ser alterados para corresponder às suas próprias convenções de nomenclatura.
Certifique-se de definir a variável de ambiente NFS_PVID
usando letras minúsculas no número hexadecimal.
# virtual hostnames
export NFS_VH=<virtual hostname> # virtual hostname for NFS server
export NFS_IP=<IP address> # virtual IP address for NFS server
# LVM storage for NFS file systems
export NFS_PVID=3<WWN> # WWN of shareable storage volume used for NFS
export NFS_VG="nfssharevg" # volume group name for NFS exported file systems
# NFS share file system
export NFS_LV1="nfssharelv" # logical volume name export #1
export NFS_SZ1="5%VG" # logical volume size
export NFS_FS1="/nfsshare" # file system mount point
export NFS_ROOT="${NFS_FS1}/export" # base export directory
# NFS share file system for SAP system ID <SID>
export SID=<SID> # SAP system ID
export NFS_LV2="sap${SID}lv" # logical volume name export #2
export NFS_SZ2="40%VG" # logical volume size
export NFS_FS2="${NFS_ROOT}/sap${SID}" # file system mount point
# NFS share file system for SAP transport directory
export NFS_LV3="saptranslv" # logical volume name export #3
export NFS_SZ3="40%VG" # logical volume size
export NFS_FS3="${NFS_ROOT}/saptrans" # file system mount point
# NFS client options
export NFS_CLIENTSPEC="10.111.1.0/24" # client specs (subnet and netmask) for allowed NFS clients
export NFS_OPTIONS="rw,sync,no_root_squash,no_subtree_check,crossmnt" # options for NFS export
Você deve obter esse arquivo antes de usar os comandos de amostra no restante deste documento.
Por exemplo, se você criou um arquivo chamado nfs_envs.sh
, execute o seguinte comando em ambos os nós para definir as variáveis de ambiente.
source nfs_envs.sh
Toda vez que iniciar uma nova sessão de terminal, você deverá executar o comando source
. Como alternativa, você pode adicionar o arquivo de variáveis de ambiente ao diretório /etc/profile.d
durante a configuração
do cluster. Neste exemplo, o arquivo é originado automaticamente sempre que você faz login no servidor.
Criação de objetos LVM
Use as informações a seguir para criar objetos LVM.
Criação de volumes físicos
Em NODE1, execute o seguinte comando.
pvcreate /dev/mapper/${NFS_PVID}
Saída de amostra:
pvcreate /dev/mapper/${NFS_PVID}
Physical volume "/dev/mapper/360050768108103357000000000002ddc" successfully created.
Criação de um grupo de volumes
Em NODE1, crie o grupo de volumes para a exportação NFS.
vgcreate ${NFS_VG} /dev/mapper/${NFS_PVID}
Verifique se a ID do sistema está definida.
vgs -o+systemid
Saída de amostra:
# vgs -o+systemid
VG #PV #LV #SN Attr VSize VFree System ID
nfssharevg 1 0 0 wz--n- <50.00g <50.00g cl-sap-1
Criação de volumes lógicos
Em NODE1, crie três volumes lógicos para a exportação NFS.
lvcreate -l ${NFS_SZ1} -n ${NFS_LV1} ${NFS_VG}
lvcreate -l ${NFS_SZ2} -n ${NFS_LV2} ${NFS_VG}
lvcreate -l ${NFS_SZ3} -n ${NFS_LV3} ${NFS_vg}
Criação dos sistemas de arquivos
Em NODE1, crie os sistemas de arquivos para as exportações de NFS.
O exemplo usa o tipo de sistema de arquivos xfs
. Outros tipos de sistema de arquivos são possíveis. Em seguida, as definições de recursos precisam ser alteradas.
mkfs.xfs /dev/${NFS_VG}/${NFS_LV1}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV2}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV3}
Criação do ponto de montagem para a exportação do NFS
Em ambos os nós, execute o seguinte comando.
mkdir -p ${NFS_FS1}
Garantir que um grupo de volumes não seja ativado em vários nós do cluster
Os grupos de volumes gerenciados pelo site Pacemaker não devem ser ativados automaticamente na inicialização.
No RHEL 8.5 e posterior, você pode desativar a ativação automática de um grupo de volumes ao criar o grupo de volumes especificando o sinalizador --setautoactivation n
para o comando vgcreate.
Em ambos os nós, edite o arquivo /etc/lvm/lvm.conf
e modifique a entrada auto_activation_volume_list
para limitar a autoativação a grupos de volumes específicos. Procure o parâmetro auto_activation_volume_list
e adicione os grupos de volumes, além do grupo de volumes que você definiu para o cluster NFS, como entradas nessa lista.
Exemplo de configuração da entrada auto_activation_volume_list
em /etc/lvm/lvm.conf
:
auto_activation_volume_list = [ "rhel_root" ]
Reconstrua a imagem de inicialização do initramfs para garantir que a imagem de inicialização não ative um grupo de volumes controlado pelo cluster.
Em ambos os nós, execute o seguinte comando.
dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)
Reinicialize os dois nós.
Instalação e configuração do cluster do RHEL HA Add-On
Use as instruções a seguir para realizar a configuração inicial do cluster.
- Instale e configure o cluster RHEL HA Add-On de acordo com a seção Implementando um cluster Red Hat Enterprise Linux High Availability Add-On.
- Configure e teste a cerca conforme descrito em Criação do dispositivo de cerca.
Exemplo de saída do status do cluster nesse estágio.
# pcs status
Cluster name: SAP_NFS
Cluster Summary:
* Stack: corosync
* Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
* Last updated: Fri Mar 10 10:35:42 2023
* Last change: Fri Mar 10 09:52:08 2023 by root via cibadmin on cl-nfs-1
* 2 nodes configured
* 1 resource instance configured
Node List:
* Online: [ cl-nfs-1 cl-nfs-2 ]
Full List of Resources:
* res_fence_ibm_powervs (stonith:fence_ibm_powervs): Started cl-nfs-1
Daemon Status:
corosync: active/disabled
pacemaker: active/disabled
pcsd: active/enabled
Configuração das propriedades gerais do cluster
Para evitar que o cluster mova recursos íntegros para outro nó (por exemplo, quando você reinicia o cluster em um nó que falhou anteriormente), é possível definir o valor padrão do metatributo resource-stickiness
como 1.
Em NODE1, execute o seguinte comando.
pcs resource defaults update resource-stickiness=1
Configuração dos recursos e do grupo de recursos NFS
Use as etapas a seguir para configurar os recursos do NFS no cluster.
Criação do recurso LVM-activate
Para garantir que todos os recursos do NFS sejam executados no mesmo nó, configure-os como parte do grupo de recursos nfsgroup
.
Esse grupo de recursos é criado com o primeiro recurso. Os recursos começam na ordem em que são adicionados ao grupo. Os recursos param na ordem inversa.
Em NODE1, execute o seguinte comando.
pcs resource create nfs_vg ocf:heartbeat:LVM-activate \
vgname=${NFS_VG} \
vg_access_mode=system_id \
--group nfsgroup
Para evitar a corrupção de dados, não configure mais de um recurso LVM-activate que use o mesmo grupo de volumes LVM em uma configuração de HA ativo-passivo. Não configure um recurso LVM-activate como um recurso clone em uma configuração de HA ativo-passivo.
Verifique o status do cluster e verifique se o recurso nfs_vg
está ativo.
Em NODE1, execute o seguinte comando.
pcs resource status
Saída de amostra:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
O comando a seguir configura os recursos do sistema de arquivos xfs
para o grupo de recursos nfsgroup
. Os sistemas de arquivos usam o grupo de volumes LVM ${NFS_vg}
e os volumes lógicos (${NFS_LV1}
,
${NFS_LV2}
, ${NFS_LV3}
) que foram criados anteriormente.
Em NODE1, execute o seguinte comando.
pcs resource create nfs_fs1 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV1} \
directory=${NFS_FS1} \
fstype=xfs \
--group nfsgroup
Você pode especificar opções de montagem como parte da configuração de recursos para um recurso de sistema de arquivos usando o parâmetro options=<options>
. Execute pcs resource describe filesystem
para obter
uma lista completa das opções de configuração.
Verifique o status do cluster e verifique se o recurso nfs_fs1
está ativo.
pcs resource status
Saída de amostra:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
No nó com o grupo de recursos ativo nfsgroup
, crie dois subdiretórios em ${NFS_FS1}
.
${NFS_FS1}/stat
é usado como nfs_shared_infodir
para informações de bloqueio de NFS e ${NFS_FS1}/export
é usado como raiz de NFS.
mkdir ${NFS_FS1}/stat ${NFS_FS1}/export
Crie os pontos de montagem para os outros sistemas de arquivos exportados.
Em ambos os nós, execute o seguinte comando.
mkdir ${NFS_FS2} ${NFS_FS3}
Crie os recursos para os outros dois sistemas de arquivos NFS.
Em NODE1, execute os seguintes comandos.
pcs resource create nfs_fs2 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV2} \
directory=${NFS_FS2} \
fstype=xfs \
--group nfsgroup
pcs resource create nfs_fs3 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV3} \
directory=${NFS_FS3} \
fstype=xfs \
--group nfsgroup
Verifique o status do cluster e verifique se todos os três recursos do sistema de arquivos (nfs_fs1
, nfs_fs2
, nfs_fs3
) estão ativos.
pcs resource status
Saída de amostra:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
Criação do recurso nfsserver
Em NODE1, crie um recurso para gerenciar o servidor NFS.
pcs resource create nfs_daemon nfsserver \
nfs_shared_infodir=${NFS_FS1}/stat \
nfs_no_notify=true \
--group nfsgroup
O parâmetro nfs_shared_infodir
do recurso nfsserver
especifica um diretório em que o servidor NFS armazena informações com estado.
Verifique o status do cluster e verifique se o servidor NFS foi iniciado.
pcs resource status
Saída de amostra:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-1
Criação do recurso exportfs
Para exportar o diretório ${NFS_ROOT}
, adicione os recursos exportfs ao grupo nfsgroup
, que cria um diretório virtual para os clientes NFSv4. NFSv3 os clientes também podem acessar essas exportações.
Em NODE1, execute o seguinte comando.
pcs resource create nfs_export exportfs \
clientspec=${NFS_CLIENTSPEC} \
options=${NFS_OPTIONS} \
directory=${NFS_ROOT} \
fsid=0 \
--group nfsgroup
Configuração de um recurso de endereço IP flutuante
Revise as informações em Reservar endereços IP virtuais e reserve um endereço IP virtual para o cluster NFS.
Crie um recurso para o endereço IP virtual do servidor NFS. NFS os clientes acessam o compartilhamento NFS usando o endereço IP flutuante.
Em NODE1, execute o seguinte comando.
pcs resource create nfs_ip IPaddr2 \
ip=${NFS_IP} \
--group nfsgroup
Configuração de um recurso de notificação
O recurso nfsnotify envia FSv3 notificações de reinicialização após a inicialização de toda a implantação do NFS.
Em NODE1, execute o seguinte comando.
pcs resource create nfs_notify nfsnotify \
source_host=${NFS_IP} \
--group nfsgroup
A configuração do cluster NFS está concluída.
Em NODE1, execute o seguinte comando para verificar o status.
pcs resource status
Saída de amostra:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-1
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-1
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-1
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-1
Teste do cluster do servidor NFS
Você pode validar a configuração do recurso NFS em um cluster de alta disponibilidade usando os procedimentos a seguir. Você pode montar o sistema de arquivos exportado com NFSv3 ou NFSv4. Execute os seguintes testes para verificar se o cluster NFS funciona.
Test1- Testando a exportação NFS
Use as informações a seguir para testar a exportação para NFS.
Execute todos os comandos em um nó cliente NFS fora do cluster HA NFS.
Verifique as exportações do site NFS.
showmount -e ${NFS_IP}
O comando showmount
exibe informações sobre os sistemas de arquivos que são exportados por um servidor NFS ( NFS v3 ). Verifique se a saída lista todos os diretórios exportados.
Crie um diretório temporário no nó do cliente NFS. Em seguida, monte o sistema de arquivos NFS e crie a estrutura de diretórios necessária para a instalação do SAP.
No primeiro exemplo, somente /usr/sap/trans
e /sapmnt/${SID}
são NFS montados na instância do servidor de aplicativos SAP.
Prepare os pontos de montagem que serão usados para a instalação do SAP.
mkdir -p /sapmnt/${SID} \
/usr/sap/trans
Altere os atributos dos pontos de montagem.
chattr +i /sapmnt/${SID} \
/usr/sap/trans
Monte os compartilhamentos NFS.
mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /usr/sap/trans
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID}
Altere a propriedade e as permissões.
chown ${sid}adm:sapsys /usr/sap/trans
chmod g+w /usr/sap/trans
chown -R ${sid}adm:sapsys /sapmnt/${SID}
Desmonte os sistemas de arquivos.
umount /usr/sap/trans
umount /sapmnt/${SID}
Adicione os novos sistemas de arquivos a /etc/fstab
.
cat >> /etc/fstab << EOT
${NFS_VH}:/saptrans /usr/sap/trans nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID} nfs4 sec=sys 0 0
EOT
Verifique o arquivo atualizado.
cat /etc/fstab
No segundo exemplo, /usr/sap/trans
, /sapmnt/${SID}
e todos os diretórios de instância são NFS montados nas instâncias do servidor de aplicativos SAP.
Exportar variáveis de ambiente para os números de sistema do ASCS e do ERS. Altere os números a seguir para os números de sistema que você usou durante a instalação do ASCS e do ERS.
export ASCS_NR=01
export ERS_NR=02
Prepare os pontos de montagem finais que serão usados para a instalação do SAP.
mkdir -p /sapmnt/${SID} \
/usr/sap/trans \
/usr/sap/${SID}/SYS \
/usr/sap/${SID}/ASCS${ASCS_INSTNO} \
/usr/sap/${SID}/ERS${ERS_INSTNO}
Altere os atributos dos pontos de montagem.
chattr +i /sapmnt/${SID} \
/usr/sap/trans \
/usr/sap/${SID}/SYS \
/usr/sap/${SID}/ASCS${ASCS_INSTNO} \
/usr/sap/${SID}/ERS${ERS_INSTNO}
Monte os compartilhamentos NFS para criar os subdiretórios necessários, alterar a propriedade e as permissões.
mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /mnt
chown ${sid}adm:sapsys /mnt
chmod g+w /mnt
umount /mnt
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID} /mnt
mkdir -p /mnt/sapmnt \
/mnt/ASCS \
/mnt/ERS \
/mnt/SYS \
/mnt/PAS \
/mnt/AS1
chown -R ${sid}adm:sapsys /mnt
umount /mnt
Adicione os novos sistemas de arquivos a /etc/fstab
.
cat >> /etc/fstab < EOT
${NFS_VH}:/saptrans /usr/sap/trans nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/ASCS /usr/sap/${SID}/ASCS${ASCS_INSTNO} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/ERS /usr/sap/${SID}/ERS${ERS_INSTNO} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/SYS /usr/sap/${SID}/SYS nfs4 sec=sys 0 0
EOT
Verifique o arquivo atualizado.
cat /etc/fstab
Test2- Testar o failover do servidor NFS
Use as informações a seguir para testar o failover do servidor NFS.
Test2- Descrição
Simule uma falha do nó do cluster que tem os recursos NFS.
Test2- Pré-requisitos
- Um cluster funcional de dois nós do RHEL HA Add-On para um servidor NFS HA.
- O cluster é iniciado em ambos os nós.
- Os sistemas de arquivos são montados em um nó cliente NFS fora do cluster e os aplicativos podem acessar o conteúdo.
Test2- Procedimento de teste
Desativar o nó do cluster enviando uma solicitação de desligamento do sistema.
Primeiro, verifique o status do cluster e identifique o nó em que o grupo de recursos nfsgroup está sendo executado.
Em NODE1, execute o seguinte comando.
pcs status
Em seguida, faça login no nó do cluster identificado e envie uma solicitação de falha do sistema.
sync; echo c > /proc/sysrq-trigger
Test2- Comportamento esperado
- O nó com o grupo de recursos nfsgroup ativo é encerrado.
- O cluster detecta o nó com falha e inicia uma ação de vedação.
- A operação de cercamento define o estado do nó cercado como off-line.
- O cluster adquire os recursos do servidor NFS no nó de failover.
Verifique se todos os recursos foram iniciados no nó de failover.
pcs resource status
Saída de amostra:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-2
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-2
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-2
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-2
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-2
Verifique se o sistema de arquivos ainda está montado no nó do cliente NFS e se os aplicativos ainda podem acessar o conteúdo.
Test2- Procedimento de recuperação
Faça login no Console IBM Cloud e inicie a instância interrompida. Aguarde até que o nó do cluster esteja disponível novamente e, em seguida, reinicie a estrutura do cluster.
No nó do cluster, execute o seguinte comando.
pcs cluster start
Verifique o status do cluster.
pcs status
Saída de amostra:
# pcs status
Cluster name: SAP_NFS
Cluster Summary:
* Stack: corosync
* Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
* Last updated: Mon Mar 20 08:11:28 2023
* Last change: Mon Mar 20 07:56:25 2023 by hacluster via crmd on cl-nfs-1
* 2 nodes configured
* 9 resource instances configured
Node List:
* Online: [ cl-nfs-1 cl-nfs-2 ]
Full List of Resources:
* res_fence_ibm_powervs (stonith:fence_ibm_powervs): Started cl-nfs-1
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-2
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-2
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-2
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-2
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-2
Daemon Status:
corosync: active/disabled
pacemaker: active/disabled
pcsd: active/enabled