IBM Cloud Docs
Red Hat Enterprise Linux High Availability Add-On クラスタ内のアクティブ-パッシブ NFS Server の構成

Red Hat Enterprise Linux High Availability Add-On クラスタ内のアクティブ-パッシブ NFS Server の構成

次の情報では、 Red Hat Enterprise Linux (RHEL) High Availability Add-Onクラスタにおけるアクティブ-パッシブ NFS サーバの構成について説明します。 クラスタは、仮想サーバーインスタンスを IBM® Power® Virtual Server クラスタノードとして使用しています。

ここで説明されている設定では、クラスタノードの両方でアクセス可能な共有ストレージボリュームを使用します。 NFS のエクスポート用のファイルシステムは、それらの共有ストレージボリューム上に作成されます。 HA-LVMは、ボリュームグループが1つのノードでアクティブであることを確認します。

例の設定では、1つの共有ボリュームグループ nfssharevg に、3つの論理ボリューム nfssharelvsap${SID}lvsaptranslv が含まれています。 XFSファイルシステムはこれらの論理ボリューム上に作成され、 /nfsshare/nfshare/export/sap${SID}/nfsshare/export/saptrans にマウントされます。

手順は 、 IBM Power Virtual Server リファレンス 上の SAP アプリケーションの高可用性の実装 に記載されている Red Hat 製品のドキュメントと記事に基づいています。

開始前に

IBM Power Virtual Server リファレンスでの SAP アプリケーションの高可用性の実装」 に記載されている一般要件、製品ドキュメント、サポート記事、および SAP ノートを確認してください。

前提条件

NFS サーバーには、仮想ホスト名とIPアドレスが必要です。 仮想 IP アドレスがネットワークインターフェースで定義され、ネットワーク内でアクセス可能であることを確認してください。

物理的および仮想的なIP名とアドレスの名前解決と逆引きは、 NFS のサーバーおよびクライアントのすべてのノードで一意かつ一貫性のあるものでなければなりません。 NFS クライアントの詳細(サブネット、必要な NFS エクスポートオプション)が利用可能である必要があります。 クラスタのセットアップ時にそれらを入力する必要があります。

高可用性 NFS サーバーの準備

以下の情報を使用して、高可用性 NFS サーバーの環境を準備します。

NFS ソフトウェアパッケージのインストール

両方のノードで、以下のコマンドを実行します。

dnf install -y nfs-utils

LVMオブジェクトの準備

すべてのクラスタノードは共有ストレージボリュームへのアクセスが必要ですが、ボリュームへの排他的な読み取りおよび書き込みアクセス権を持つのは1つのノードのみです。

アクティブ-パッシブHA LVMの準備

両方のノードで、ボリュームグループにシステムIDを含めるようにファイル /etc/lvm/lvm.conf を編集します。 構成設定 system_id_source を検索し、その値を「uname」に変更します。

/etc/lvm/lvm.conf における system_id_source の設定例:

# grep "system_id_source ="  /etc/lvm/lvm.conf
system_id_source = "uname"

ノードの LVM system IDuname -n の出力と一致していることを確認してください。

lvm systemid
uname -n

出力例:

# lvm systemid
  system ID: cl-nfs-1
# uname -n
  cl-nfs-1

共有ストレージボリュームのワールドワイド名を特定する

共有ボリュームグループで使用されているすべてのボリュームのワールドワイド名(WWN)を特定します。

  1. IBM Cloud® にログインし、 Power Virtual Server の ストレージボリュームの表示に移動します。

  2. ワークスペースを選択します。

  3. ストレージボリュームのリストボリュームのプレフィックスをフィルタリングし、対象のボリュームのワールドワイド名をすべて特定します (ワールドワイド名は 32桁の16進数です)。

    それらのボリュームの属性 「共有可能」「オン」 になっていることを確認してください。

  4. 仮想サーバーインスタンスの表示で、クラスタの仮想サーバーインスタンスの両方に移動し、スコープボリュームが両方の仮想サーバーインスタンスにアタッチされていることを確認します。

クラスタノード上の新しいSANボリュームを発見する

新しいストレージボリュームを仮想サーバーインスタンスに追加する際には、新しいボリュームを検出するためにSCSIバスを再スキャンする必要があります。 次に、仮想サーバーインスタンスの マルチパス構成を更新します。

新しいストレージボリュームがアタッチされたノードで、次のコマンドを実行します。

rescan-scsi-bus.sh && sleep 10 && multipathd reconfigure

ボリュームの WWN値はpvs --all コマンドでも確認できます。

環境変数の準備

セットアップを簡素化するために、両方のノードでユーザーID root 用の以下の環境変数を準備します。 これらの環境変数は、この文書の残りの部分で、その後のコマンドで使用されます。

両方のノードで、環境変数を含むファイルを作成します。 次に、それらをあなたの構成に適応させます。

NFS_VHNFS_IPNFS_CLIENTSPECNFS_OPTIONS を貴社の環境に合わせて適応させてください。 NFS_PVID には、以前に特定した WWN を使用します。 NFS 共有で使用されるファイルシステムに加え、この例では、システムID ${SID} および SAP トランスポートディレクトリを持つ SAP システムランドスケープで使用される2つのファイルシステムが示されています。 サンプルサイズの ${NFS_SZ1}${NFS_SZ2}${NFS_SZ3} は、 ${NFS_VG} のボリュームグループサイズに対する割合であり、要件に応じて変更する必要があります。 ボリュームグループ名とマウントポイント名は提案であり、お客様の命名規則に合わせて変更する必要があります。

NFS_PVID 環境変数を設定する際には、16進数表記を小文字で入力してください。

# virtual hostnames
export NFS_VH=<virtual hostname>        # virtual hostname for NFS server
export NFS_IP=<IP address>              # virtual IP address for NFS server

# LVM storage for NFS file systems
export NFS_PVID=3<WWN>                  # WWN of shareable storage volume used for NFS
export NFS_VG="nfssharevg"              # volume group name for NFS exported file systems

# NFS share file system
export NFS_LV1="nfssharelv"             # logical volume name export #1
export NFS_SZ1="5%VG"                   # logical volume size
export NFS_FS1="/nfsshare"              # file system mount point
export NFS_ROOT="${NFS_FS1}/export"     # base export directory

# NFS share file system for SAP system ID <SID>
export SID=<SID>                        # SAP system ID
export NFS_LV2="sap${SID}lv"            # logical volume name export #2
export NFS_SZ2="40%VG"                  # logical volume size
export NFS_FS2="${NFS_ROOT}/sap${SID}"  # file system mount point

# NFS share file system for SAP transport directory
export NFS_LV3="saptranslv"             # logical volume name export #3
export NFS_SZ3="40%VG"                  # logical volume size
export NFS_FS3="${NFS_ROOT}/saptrans"   # file system mount point

# NFS client options
export NFS_CLIENTSPEC="10.111.1.0/24"   # client specs (subnet and netmask) for allowed NFS clients
export NFS_OPTIONS="rw,sync,no_root_squash,no_subtree_check,crossmnt"   # options for NFS export

この文書の残りの部分にあるサンプルコマンドを使用する前に、このファイルを入手する必要があります。

例えば、 nfs_envs.sh という名前のファイルを作成した場合は、両方のノードで次のコマンドを実行して環境変数を設定します。

source nfs_envs.sh

新しいターミナルセッションを開始するたびに、 source コマンドを実行する必要があります。 あるいは、クラスタ構成時に環境変数ファイルを /etc/profile.d ディレクトリに追加することもできます。 この例では、サーバーにログインするたびにファイルが自動的に読み込まれます。

LVMオブジェクトの作成

以下の情報を使ってLVMオブジェクトを作成する。

物理ボリュームの作成

NODE1 で、以下のコマンドを実行する。

pvcreate /dev/mapper/${NFS_PVID}

出力例:

pvcreate /dev/mapper/${NFS_PVID}
  Physical volume "/dev/mapper/360050768108103357000000000002ddc" successfully created.

ボリュームグループの作成

NODE1 で、 NFS エクスポート用のボリュームグループを作成します。

vgcreate ${NFS_VG} /dev/mapper/${NFS_PVID}

システムID が設定されていることを確認してください。

vgs -o+systemid

出力例:

# vgs -o+systemid
  VG          #PV #LV #SN Attr   VSize   VFree   System ID
  nfssharevg    1   0   0 wz--n- <50.00g <50.00g cl-sap-1

論理ボリュームの作成

NODE1 で、 NFS のエクスポート用に3つの論理ボリュームを作成します。

lvcreate -l ${NFS_SZ1} -n ${NFS_LV1} ${NFS_VG}
lvcreate -l ${NFS_SZ2} -n ${NFS_LV2} ${NFS_VG}
lvcreate -l ${NFS_SZ3} -n ${NFS_LV3} ${NFS_vg}

ファイルシステムを作成する

NODE1 で、 NFS エクスポート用のファイルシステムを作成します。

この例では、ファイルシステムタイプとして xfs を使用しています。 他のファイルシステムタイプも可能です。 次に、リソース定義を変更する必要があります。

mkfs.xfs /dev/${NFS_VG}/${NFS_LV1}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV2}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV3}

NFS のエクスポート用マウントポイントの作成

両方のノードで、以下のコマンドを実行します。

mkdir -p ${NFS_FS1}

ボリュームグループが複数のクラスタノードでアクティブ化されていないことを確認する

Pacemaker によって管理されるボリュームグループは、起動時に自動的にアクティブ化されてはなりません。

RHEL 8.5 以降では、vgcreateコマンドに --setautoactivation n フラグを指定してボリュームグループを作成すると、ボリュームグループの自動アクティベーションを無効にすることができます。

両方のノードで、ファイル /etc/lvm/lvm.conf を編集し、 auto_activation_volume_list のエントリを変更して、自動アクティベーションを特定のボリュームグループに限定します。 パラメータ auto_activation_volume_list を検索し、 NFS クラスタ用に定義したボリュームグループ以外のボリュームグループを、そのリストのエントリとして追加します。

/etc/lvm/lvm.confauto_activation_volume_list のエントリーのサンプル設定:

auto_activation_volume_list = [ "rhel_root" ]

initramfsブートイメージを再構築し、クラスタによって制御されているボリュームグループが起動イメージによって起動されないようにします。

両方のノードで、以下のコマンドを実行します。

dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)

両方のノードを再起動します。

RHEL HAアドオンクラスターのインストールと設定

以下の手順に従って、初期クラスタ構成を実行してください。

この段階でのクラスタの状態の出力例。

# pcs status
Cluster name: SAP_NFS
Cluster Summary:
  * Stack: corosync
  * Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
  * Last updated: Fri Mar 10 10:35:42 2023
  * Last change:  Fri Mar 10 09:52:08 2023 by root via cibadmin on cl-nfs-1
  * 2 nodes configured
  * 1 resource instance configured

Node List:
  * Online: [ cl-nfs-1 cl-nfs-2 ]

Full List of Resources:
  * res_fence_ibm_powervs	(stonith:fence_ibm_powervs):	 Started cl-nfs-1

Daemon Status:
  corosync: active/disabled
  pacemaker: active/disabled
  pcsd: active/enabled

クラスタの一般的なプロパティの設定

クラスタが健全なリソースを別のノードに移動するのを防ぐには(例えば、以前に障害が発生したノード上でクラスタを再起動する場合)、 resource-stickiness メタ属性のデフォルト値を1に設定することができます。

NODE1 で、以下のコマンドを実行する。

pcs resource defaults update resource-stickiness=1

NFS リソースグループとリソースの設定

クラスタ内の NFS リソースを設定するには、以下の手順に従います。

LVM-activateリソースの作成

すべての NFS リソースが同じノードで実行されるようにするには、リソースグループ nfsgroup の一部としてそれらを設定します。

このリソースグループは、最初のリソースとともに作成されます。 リソースはグループに追加された順番に並びます。 リソースは逆順で停止します。

NODE1 で、以下のコマンドを実行する。

pcs resource create nfs_vg ocf:heartbeat:LVM-activate \
    vgname=${NFS_VG} \
    vg_access_mode=system_id \
    --group nfsgroup

データ破損を避けるため、アクティブ-パッシブHA構成で同じLVMボリュームグループを使用する LVM-activateリソースを1つ以上構成しないでください。 アクティブ-パッシブHA構成において、LVM-activateリソースをクローンリソースとして構成しないでください。

クラスタのステータスを確認し、リソース nfs_vg がアクティブであることを確認します。

NODE1 で、以下のコマンドを実行する。

pcs resource status

出力例:

# pcs resource status
  * Resource Group: nfsgroup:
    * nfs_vg    (ocf::heartbeat:LVM-activate):   Started cl-nfs-1

次のコマンドは、 nfsgroup リソースグループの xfs ファイルシステムリソースを設定します。 ファイルシステムは、以前に作成されたLVMボリュームグループ ${NFS_vg} と論理ボリューム(${NFS_LV1}${NFS_LV2}${NFS_LV3} )を使用します。

NODE1 で、以下のコマンドを実行する。

pcs resource create nfs_fs1 Filesystem \
    device=/dev/${NFS_VG}/${NFS_LV1} \
    directory=${NFS_FS1} \
    fstype=xfs \
    --group nfsgroup

options=<options> パラメータを使用して、ファイルシステムリソースのリソース構成の一部としてマウントオプションを指定することができます。 pcs resource describe filesystem を実行すると、設定オプションの完全なリストが表示されます。

クラスタの状態を確認し、リソース nfs_fs1 がアクティブであることを確認します。

pcs resource status

出力例:

# pcs resource status
  * Resource Group: nfsgroup:
    * nfs_vg    (ocf::heartbeat:LVM-activate):   Started cl-nfs-1
    * nfs_fs1   (ocf::heartbeat:Filesystem):     Started cl-nfs-1

アクティブなリソースグループを持つノード nfsgroup で、 ${NFS_FS1} に2つのサブディレクトリを作成します。 ${NFS_FS1}/stat nfs_shared_infodir は ロック情報用、 は ルート用として使用されます。 NFS ${NFS_FS1}/export NFS

mkdir ${NFS_FS1}/stat ${NFS_FS1}/export

他のエクスポートされたファイルシステム用のマウントポイントを作成します。

両方のノードで、以下のコマンドを実行します。

mkdir ${NFS_FS2} ${NFS_FS3}

他の2つの NFS ファイルシステム用のリソースを作成します。

NODE1 で、以下のコマンドを実行する。

pcs resource create nfs_fs2 Filesystem \
    device=/dev/${NFS_VG}/${NFS_LV2} \
    directory=${NFS_FS2} \
    fstype=xfs \
    --group nfsgroup
pcs resource create nfs_fs3 Filesystem \
    device=/dev/${NFS_VG}/${NFS_LV3} \
    directory=${NFS_FS3} \
    fstype=xfs \
    --group nfsgroup

クラスタのステータスを確認し、3つのファイルシステムリソース(nfs_fs1nfs_fs2nfs_fs3 )がすべてアクティブであることを確認します。

pcs resource status

出力例:

# pcs resource status
  * Resource Group: nfsgroup:
    * nfs_vg    (ocf::heartbeat:LVM-activate):   Started cl-nfs-1
    * nfs_fs1   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_fs2   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_fs3   (ocf::heartbeat:Filesystem):     Started cl-nfs-1

nfsserverリソースの作成

NODE1 で、 NFS サーバーを管理するためのリソースを作成します。

pcs resource create nfs_daemon nfsserver \
    nfs_shared_infodir=${NFS_FS1}/stat \
    nfs_no_notify=true \
    --group nfsgroup

nfsserver リソースの nfs_shared_infodir パラメータは、 NFS サーバーがステートフル情報を保存するディレクトリを指定します。

クラスタの状態を確認し、 NFS サーバーが起動していることを確認します。

pcs resource status

出力例:

# pcs resource status
  * Resource Group: nfsgroup:
    * nfs_vg    (ocf::heartbeat:LVM-activate):   Started cl-nfs-1
    * nfs_fs1   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_fs2   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_fs3   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_daemon        (ocf::heartbeat:nfsserver):      Started cl-nfs-1

exportfsリソースの作成

${NFS_ROOT} ディレクトリをエクスポートするには、 nfsgroup グループに exportfsリソースを追加します。これにより、 NFSv4 クライアント用の仮想ディレクトリが構築されます。 NFSv3 クライアントもこれらのエクスポートにアクセスできます。

NODE1 で、以下のコマンドを実行する。

pcs resource create nfs_export exportfs \
    clientspec=${NFS_CLIENTSPEC} \
    options=${NFS_OPTIONS} \
    directory=${NFS_ROOT} \
    fsid=0 \
    --group nfsgroup

フローティングIPアドレスリソースの設定

仮想 IP アドレスの予約 」の情報を確認し、 NFS クラスター用の仮想 IP アドレスを予約します。

NFS サーバーの仮想IPアドレスのリソースを作成します。 NFS クライアントは、フローティングIPアドレスを使用して の共有にアクセスします。 NFS

NODE1 で、以下のコマンドを実行する。

pcs resource create nfs_ip IPaddr2 \
    ip=${NFS_IP} \
    --group nfsgroup

通知リソースの設定

nfsnotifyリソースは、 FSv3NFS の展開全体が初期化された後に再起動通知を送信します。

NODE1 で、以下のコマンドを実行する。

pcs resource create nfs_notify nfsnotify \
    source_host=${NFS_IP} \
    --group nfsgroup

NFS クラスタのセットアップは完了しました。

NODE1 で、以下のコマンドを実行してステータスをチェックする。

pcs resource status

出力例:

# pcs resource status
  * Resource Group: nfsgroup:
    * nfs_vg    (ocf::heartbeat:LVM-activate):   Started cl-nfs-1
    * nfs_fs1   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_fs2   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_fs3   (ocf::heartbeat:Filesystem):     Started cl-nfs-1
    * nfs_daemon        (ocf::heartbeat:nfsserver):      Started cl-nfs-1
    * nfs_export        (ocf::heartbeat:exportfs):       Started cl-nfs-1
    * nfs_ip    (ocf::heartbeat:IPaddr2):        Started cl-nfs-1
    * nfs_notify        (ocf::heartbeat:nfsnotify):      Started cl-nfs-1

NFS サーバークラスタのテスト

高可用性クラスタにおける NFS リソース構成の検証は、以下の手順に従って実行できます。 エクスポートしたファイルシステムは、 NFSv3 または NFSv4 でマウントできます。 NFS クラスタが機能していることを確認するために、以下のテストを実行します。

Test1- NFS のエクスポートをテストする

NFS のエクスポートをテストするには、以下の情報をご利用ください。

HA NFS クラスター外の NFS クライアントノード上ですべてのコマンドを実行します。

NFS のエクスポートを確認します。

showmount -e ${NFS_IP}

showmount コマンドは、 NFS サーバー( NFS v3 )によってエクスポートされたファイルシステムに関する情報を表示します。 出力がエクスポートされたすべてのディレクトリをリストしていることを確認してください。

NFS クライアントノード上に一時ディレクトリを作成します。 次に、 NFS ファイルシステムをマウントし、 SAP のインストールに必要なディレクトリ構造を作成します。

最初の例では、 /usr/sap/trans/sapmnt/${SID} のみが NFS として SAP アプリケーションサーバーインスタンスにマウントされています。

SAP のインストールに使用するマウントポイントを準備します。

mkdir -p /sapmnt/${SID} \
         /usr/sap/trans

マウントポイントの属性を変更します。

chattr +i /sapmnt/${SID} \
          /usr/sap/trans

NFS 共有をマウントする。

mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /usr/sap/trans
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID}

所有権と権限を変更する。

chown ${sid}adm:sapsys /usr/sap/trans
chmod g+w /usr/sap/trans
chown -R ${sid}adm:sapsys /sapmnt/${SID}

ファイルシステムをアンマウントします。

umount /usr/sap/trans
umount /sapmnt/${SID}

新しいファイルシステムを /etc/fstab に追加する。

cat >> /etc/fstab << EOT
​${NFS_VH}:/saptrans /usr/sap/trans  nfs4 sec=sys  0  0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID}  nfs4 sec=sys  0  0
EOT

更新されたファイルを確認してください。

cat /etc/fstab

2番目の例では、 /usr/sap/trans/sapmnt/${SID}、およびすべてのインスタンスディレクトリが NFS で SAP アプリケーションサーバーインスタンスにマウントされています。

ASCS とERSのシステム番号の環境変数をエクスポートします。 以下の番号を*、ASCS* とERSのインストール時に使用したシステム番号に変更します。

export ASCS_NR=01
export ERS_NR=02

SAP のインストールに使用する最終的なマウントポイントを準備します。

mkdir -p /sapmnt/${SID} \
         /usr/sap/trans \
         /usr/sap/${SID}/SYS \
         /usr/sap/${SID}/ASCS${ASCS_INSTNO} \
         /usr/sap/${SID}/ERS${ERS_INSTNO}

マウントポイントの属性を変更します。

chattr +i /sapmnt/${SID} \
          /usr/sap/trans \
          /usr/sap/${SID}/SYS \
          /usr/sap/${SID}/ASCS${ASCS_INSTNO} \
          /usr/sap/${SID}/ERS${ERS_INSTNO}

NFS の共有をマウントして、必要なサブディレクトリを作成し、所有権を変更し、権限を変更します。

mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /mnt
chown ${sid}adm:sapsys /mnt
chmod g+w /mnt
umount /mnt
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID} /mnt
mkdir -p /mnt/sapmnt \
         /mnt/ASCS \
         /mnt/ERS \
         /mnt/SYS \
         /mnt/PAS \
         /mnt/AS1
chown -R ${sid}adm:sapsys /mnt
umount /mnt

新しいファイルシステムを /etc/fstab に追加する。

cat >> /etc/fstab < EOT
​${NFS_VH}:/saptrans /usr/sap/trans  nfs4 sec=sys  0  0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID}  nfs4 sec=sys  0  0
${NFS_VH}:/sap${SID}/ASCS /usr/sap/${SID}/ASCS${ASCS_INSTNO} nfs4 sec=sys  0  0
${NFS_VH}:/sap${SID}/ERS  /usr/sap/${SID}/ERS${ERS_INSTNO} nfs4 sec=sys  0  0
${NFS_VH}:/sap${SID}/SYS  /usr/sap/${SID}/SYS  nfs4 sec=sys  0  0
EOT

更新されたファイルを確認してください。

cat /etc/fstab

Test2- NFS サーバーのフェイルオーバーのテスト

NFS サーバーのフェイルオーバーをテストするには、以下の情報をご利用ください。

Test2- 説明

NFS のリソースを持つクラスタノードのクラッシュをシミュレートします。

Test2- 前提条件

  • NFS HA サーバー用の機能的な2ノード RHEL HA アドオンクラスター。
  • クラスタは両方のノードで起動します。
  • ファイルシステムはクラスタ外の NFS クライアントノードにマウントされ、アプリケーションはコンテンツにアクセスできます。

Test2- 試験手順

シャットオフシステムリクエストを送信してクラスタノードをクラッシュさせる。

まず、クラスタのステータスを確認し*、nfsgroupリソースグループが*実行されているノードを特定します。

NODE1 で、以下のコマンドを実行する。

pcs status

次に、特定されたクラスタノードにログインし、 クラッシュシステムリクエストを送信します。

sync; echo c > /proc/sysrq-trigger

Test2- 期待される動作

  • アクティブな nfsgroup リソースグループを持つノードがシャットダウンします。
  • クラスタは故障したノードを検知し、フェンシング処理を開始します。
  • フェンシング操作により、フェンシングされたノードの状態がオフラインに設定されます。
  • クラスタはフェールオーバーノード上の NFS サーバーリソースを取得します。

フェールオーバーノード上ですべてのリソースが起動したことを確認します。

pcs resource status

出力例:

# pcs resource status
  * Resource Group: nfsgroup:
    * nfs_vg    (ocf::heartbeat:LVM-activate):   Started cl-nfs-2
    * nfs_fs1   (ocf::heartbeat:Filesystem):     Started cl-nfs-2
    * nfs_fs2   (ocf::heartbeat:Filesystem):     Started cl-nfs-2
    * nfs_fs3   (ocf::heartbeat:Filesystem):     Started cl-nfs-2
    * nfs_daemon        (ocf::heartbeat:nfsserver):      Started cl-nfs-2
    * nfs_export        (ocf::heartbeat:exportfs):       Started cl-nfs-2
    * nfs_ip    (ocf::heartbeat:IPaddr2):        Started cl-nfs-2
    * nfs_notify        (ocf::heartbeat:nfsnotify):      Started cl-nfs-2

NFS クライアントノードにファイルシステムがマウントされていること、およびアプリケーションがコンテンツにアクセスできることを確認してください。

Test2- 回復手順

IBM Cloud コンソールにログインし、停止したインスタンスを起動します。 クラスタノードが再び利用可能になるまで待ち、その後クラスタフレームワークを再起動します。

クラスタ・ノードで以下のコマンドを実行する。

pcs cluster start

クラスタのステータスを確認します。

pcs status

出力例:

# pcs status
Cluster name: SAP_NFS
Cluster Summary:
  * Stack: corosync
  * Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
  * Last updated: Mon Mar 20 08:11:28 2023
  * Last change:  Mon Mar 20 07:56:25 2023 by hacluster via crmd on cl-nfs-1
  * 2 nodes configured
  * 9 resource instances configured

Node List:
  * Online: [ cl-nfs-1 cl-nfs-2 ]

Full List of Resources:
  * res_fence_ibm_powervs	(stonith:fence_ibm_powervs):	 Started cl-nfs-1
  * Resource Group: nfsgroup:
    * nfs_vg	(ocf::heartbeat:LVM-activate):	 Started cl-nfs-2
    * nfs_fs1	(ocf::heartbeat:Filesystem):	 Started cl-nfs-2
    * nfs_fs2	(ocf::heartbeat:Filesystem):	 Started cl-nfs-2
    * nfs_fs3	(ocf::heartbeat:Filesystem):	 Started cl-nfs-2
    * nfs_daemon	(ocf::heartbeat:nfsserver):	 Started cl-nfs-2
    * nfs_export	(ocf::heartbeat:exportfs):	 Started cl-nfs-2
    * nfs_ip	(ocf::heartbeat:IPaddr2):	 Started cl-nfs-2
    * nfs_notify	(ocf::heartbeat:nfsnotify):	 Started cl-nfs-2

Daemon Status:
  corosync: active/disabled
  pacemaker: active/disabled
  pcsd: active/enabled