Red Hat Enterprise Linux High Availability Add-On クラスタ内のアクティブ-パッシブ NFS Server の構成
次の情報では、 Red Hat Enterprise Linux (RHEL) High Availability Add-Onクラスタにおけるアクティブ-パッシブ NFS サーバの構成について説明します。 クラスタは、仮想サーバーインスタンスを IBM® Power® Virtual Server クラスタノードとして使用しています。
ここで説明されている設定では、クラスタノードの両方でアクセス可能な共有ストレージボリュームを使用します。 NFS のエクスポート用のファイルシステムは、それらの共有ストレージボリューム上に作成されます。 HA-LVMは、ボリュームグループが1つのノードでアクティブであることを確認します。
例の設定では、1つの共有ボリュームグループ nfssharevg
に、3つの論理ボリューム nfssharelv
、 sap${SID}lv
、 saptranslv
が含まれています。 XFSファイルシステムはこれらの論理ボリューム上に作成され、 /nfsshare
、 /nfshare/export/sap${SID}
、 /nfsshare/export/saptrans
にマウントされます。
手順は 、 IBM Power Virtual Server リファレンス 上の SAP アプリケーションの高可用性の実装 に記載されている Red Hat 製品のドキュメントと記事に基づいています。
開始前に
IBM Power Virtual Server リファレンスでの SAP アプリケーションの高可用性の実装」 に記載されている一般要件、製品ドキュメント、サポート記事、および SAP ノートを確認してください。
前提条件
NFS サーバーには、仮想ホスト名とIPアドレスが必要です。 仮想 IP アドレスがネットワークインターフェースで定義され、ネットワーク内でアクセス可能であることを確認してください。
物理的および仮想的なIP名とアドレスの名前解決と逆引きは、 NFS のサーバーおよびクライアントのすべてのノードで一意かつ一貫性のあるものでなければなりません。 NFS クライアントの詳細(サブネット、必要な NFS エクスポートオプション)が利用可能である必要があります。 クラスタのセットアップ時にそれらを入力する必要があります。
高可用性 NFS サーバーの準備
以下の情報を使用して、高可用性 NFS サーバーの環境を準備します。
NFS ソフトウェアパッケージのインストール
両方のノードで、以下のコマンドを実行します。
dnf install -y nfs-utils
LVMオブジェクトの準備
すべてのクラスタノードは共有ストレージボリュームへのアクセスが必要ですが、ボリュームへの排他的な読み取りおよび書き込みアクセス権を持つのは1つのノードのみです。
アクティブ-パッシブHA LVMの準備
両方のノードで、ボリュームグループにシステムIDを含めるようにファイル /etc/lvm/lvm.conf
を編集します。 構成設定 system_id_source
を検索し、その値を「uname」に変更します。
/etc/lvm/lvm.conf
における system_id_source
の設定例:
# grep "system_id_source =" /etc/lvm/lvm.conf
system_id_source = "uname"
ノードの LVM system ID
が uname -n
の出力と一致していることを確認してください。
lvm systemid
uname -n
出力例:
# lvm systemid
system ID: cl-nfs-1
# uname -n
cl-nfs-1
共有ストレージボリュームのワールドワイド名を特定する
共有ボリュームグループで使用されているすべてのボリュームのワールドワイド名(WWN)を特定します。
-
IBM Cloud® にログインし、 Power Virtual Server の ストレージボリュームの表示に移動します。
-
ワークスペースを選択します。
-
ストレージボリュームのリストでボリュームのプレフィックスをフィルタリングし、対象のボリュームのワールドワイド名をすべて特定します (ワールドワイド名は 32桁の16進数です)。
それらのボリュームの属性 「共有可能」 が 「オン」 になっていることを確認してください。
-
仮想サーバーインスタンスの表示で、クラスタの仮想サーバーインスタンスの両方に移動し、スコープボリュームが両方の仮想サーバーインスタンスにアタッチされていることを確認します。
クラスタノード上の新しいSANボリュームを発見する
新しいストレージボリュームを仮想サーバーインスタンスに追加する際には、新しいボリュームを検出するためにSCSIバスを再スキャンする必要があります。 次に、仮想サーバーインスタンスの マルチパス構成を更新します。
新しいストレージボリュームがアタッチされたノードで、次のコマンドを実行します。
rescan-scsi-bus.sh && sleep 10 && multipathd reconfigure
ボリュームの WWN値は、 pvs --all
コマンドでも確認できます。
環境変数の準備
セットアップを簡素化するために、両方のノードでユーザーID root
用の以下の環境変数を準備します。 これらの環境変数は、この文書の残りの部分で、その後のコマンドで使用されます。
両方のノードで、環境変数を含むファイルを作成します。 次に、それらをあなたの構成に適応させます。
NFS_VH
、 NFS_IP
、 NFS_CLIENTSPEC
、 NFS_OPTIONS
を貴社の環境に合わせて適応させてください。
NFS_PVID
には、以前に特定した WWN を使用します。 NFS 共有で使用されるファイルシステムに加え、この例では、システムID ${SID}
および SAP トランスポートディレクトリを持つ SAP システムランドスケープで使用される2つのファイルシステムが示されています。 サンプルサイズの ${NFS_SZ1}
、 ${NFS_SZ2}
、
${NFS_SZ3}
は、 ${NFS_VG}
のボリュームグループサイズに対する割合であり、要件に応じて変更する必要があります。 ボリュームグループ名とマウントポイント名は提案であり、お客様の命名規則に合わせて変更する必要があります。
NFS_PVID
環境変数を設定する際には、16進数表記を小文字で入力してください。
# virtual hostnames
export NFS_VH=<virtual hostname> # virtual hostname for NFS server
export NFS_IP=<IP address> # virtual IP address for NFS server
# LVM storage for NFS file systems
export NFS_PVID=3<WWN> # WWN of shareable storage volume used for NFS
export NFS_VG="nfssharevg" # volume group name for NFS exported file systems
# NFS share file system
export NFS_LV1="nfssharelv" # logical volume name export #1
export NFS_SZ1="5%VG" # logical volume size
export NFS_FS1="/nfsshare" # file system mount point
export NFS_ROOT="${NFS_FS1}/export" # base export directory
# NFS share file system for SAP system ID <SID>
export SID=<SID> # SAP system ID
export NFS_LV2="sap${SID}lv" # logical volume name export #2
export NFS_SZ2="40%VG" # logical volume size
export NFS_FS2="${NFS_ROOT}/sap${SID}" # file system mount point
# NFS share file system for SAP transport directory
export NFS_LV3="saptranslv" # logical volume name export #3
export NFS_SZ3="40%VG" # logical volume size
export NFS_FS3="${NFS_ROOT}/saptrans" # file system mount point
# NFS client options
export NFS_CLIENTSPEC="10.111.1.0/24" # client specs (subnet and netmask) for allowed NFS clients
export NFS_OPTIONS="rw,sync,no_root_squash,no_subtree_check,crossmnt" # options for NFS export
この文書の残りの部分にあるサンプルコマンドを使用する前に、このファイルを入手する必要があります。
例えば、 nfs_envs.sh
という名前のファイルを作成した場合は、両方のノードで次のコマンドを実行して環境変数を設定します。
source nfs_envs.sh
新しいターミナルセッションを開始するたびに、 source
コマンドを実行する必要があります。 あるいは、クラスタ構成時に環境変数ファイルを /etc/profile.d
ディレクトリに追加することもできます。 この例では、サーバーにログインするたびにファイルが自動的に読み込まれます。
LVMオブジェクトの作成
以下の情報を使ってLVMオブジェクトを作成する。
物理ボリュームの作成
NODE1 で、以下のコマンドを実行する。
pvcreate /dev/mapper/${NFS_PVID}
出力例:
pvcreate /dev/mapper/${NFS_PVID}
Physical volume "/dev/mapper/360050768108103357000000000002ddc" successfully created.
ボリュームグループの作成
NODE1 で、 NFS エクスポート用のボリュームグループを作成します。
vgcreate ${NFS_VG} /dev/mapper/${NFS_PVID}
システムID が設定されていることを確認してください。
vgs -o+systemid
出力例:
# vgs -o+systemid
VG #PV #LV #SN Attr VSize VFree System ID
nfssharevg 1 0 0 wz--n- <50.00g <50.00g cl-sap-1
論理ボリュームの作成
NODE1 で、 NFS のエクスポート用に3つの論理ボリュームを作成します。
lvcreate -l ${NFS_SZ1} -n ${NFS_LV1} ${NFS_VG}
lvcreate -l ${NFS_SZ2} -n ${NFS_LV2} ${NFS_VG}
lvcreate -l ${NFS_SZ3} -n ${NFS_LV3} ${NFS_vg}
ファイルシステムを作成する
NODE1 で、 NFS エクスポート用のファイルシステムを作成します。
この例では、ファイルシステムタイプとして xfs
を使用しています。 他のファイルシステムタイプも可能です。 次に、リソース定義を変更する必要があります。
mkfs.xfs /dev/${NFS_VG}/${NFS_LV1}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV2}
mkfs.xfs /dev/${NFS_VG}/${NFS_LV3}
NFS のエクスポート用マウントポイントの作成
両方のノードで、以下のコマンドを実行します。
mkdir -p ${NFS_FS1}
ボリュームグループが複数のクラスタノードでアクティブ化されていないことを確認する
Pacemaker によって管理されるボリュームグループは、起動時に自動的にアクティブ化されてはなりません。
RHEL 8.5 以降では、vgcreateコマンドに --setautoactivation n
フラグを指定してボリュームグループを作成すると、ボリュームグループの自動アクティベーションを無効にすることができます。
両方のノードで、ファイル /etc/lvm/lvm.conf
を編集し、 auto_activation_volume_list
のエントリを変更して、自動アクティベーションを特定のボリュームグループに限定します。 パラメータ auto_activation_volume_list
を検索し、 NFS クラスタ用に定義したボリュームグループ以外のボリュームグループを、そのリストのエントリとして追加します。
/etc/lvm/lvm.conf
の auto_activation_volume_list
のエントリーのサンプル設定:
auto_activation_volume_list = [ "rhel_root" ]
initramfsブートイメージを再構築し、クラスタによって制御されているボリュームグループが起動イメージによって起動されないようにします。
両方のノードで、以下のコマンドを実行します。
dracut -H -f /boot/initramfs-$(uname -r).img $(uname -r)
両方のノードを再起動します。
RHEL HAアドオンクラスターのインストールと設定
以下の手順に従って、初期クラスタ構成を実行してください。
- Red Hat Enterprise Linux High Availability Add-On クラスタの実装 」に従って、RHEL HA Add-On クラスタをインストールしてセットアップします。
- フェンシングデバイスの作成 で説明されているように、フェンシングを設定し、テストします。
この段階でのクラスタの状態の出力例。
# pcs status
Cluster name: SAP_NFS
Cluster Summary:
* Stack: corosync
* Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
* Last updated: Fri Mar 10 10:35:42 2023
* Last change: Fri Mar 10 09:52:08 2023 by root via cibadmin on cl-nfs-1
* 2 nodes configured
* 1 resource instance configured
Node List:
* Online: [ cl-nfs-1 cl-nfs-2 ]
Full List of Resources:
* res_fence_ibm_powervs (stonith:fence_ibm_powervs): Started cl-nfs-1
Daemon Status:
corosync: active/disabled
pacemaker: active/disabled
pcsd: active/enabled
クラスタの一般的なプロパティの設定
クラスタが健全なリソースを別のノードに移動するのを防ぐには(例えば、以前に障害が発生したノード上でクラスタを再起動する場合)、 resource-stickiness
メタ属性のデフォルト値を1に設定することができます。
NODE1 で、以下のコマンドを実行する。
pcs resource defaults update resource-stickiness=1
NFS リソースグループとリソースの設定
クラスタ内の NFS リソースを設定するには、以下の手順に従います。
LVM-activateリソースの作成
すべての NFS リソースが同じノードで実行されるようにするには、リソースグループ nfsgroup
の一部としてそれらを設定します。
このリソースグループは、最初のリソースとともに作成されます。 リソースはグループに追加された順番に並びます。 リソースは逆順で停止します。
NODE1 で、以下のコマンドを実行する。
pcs resource create nfs_vg ocf:heartbeat:LVM-activate \
vgname=${NFS_VG} \
vg_access_mode=system_id \
--group nfsgroup
データ破損を避けるため、アクティブ-パッシブHA構成で同じLVMボリュームグループを使用する LVM-activateリソースを1つ以上構成しないでください。 アクティブ-パッシブHA構成において、LVM-activateリソースをクローンリソースとして構成しないでください。
クラスタのステータスを確認し、リソース nfs_vg
がアクティブであることを確認します。
NODE1 で、以下のコマンドを実行する。
pcs resource status
出力例:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
次のコマンドは、 nfsgroup
リソースグループの xfs
ファイルシステムリソースを設定します。 ファイルシステムは、以前に作成されたLVMボリュームグループ ${NFS_vg}
と論理ボリューム(${NFS_LV1}
、 ${NFS_LV2}
、 ${NFS_LV3}
)を使用します。
NODE1 で、以下のコマンドを実行する。
pcs resource create nfs_fs1 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV1} \
directory=${NFS_FS1} \
fstype=xfs \
--group nfsgroup
options=<options>
パラメータを使用して、ファイルシステムリソースのリソース構成の一部としてマウントオプションを指定することができます。
pcs resource describe filesystem
を実行すると、設定オプションの完全なリストが表示されます。
クラスタの状態を確認し、リソース nfs_fs1
がアクティブであることを確認します。
pcs resource status
出力例:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
アクティブなリソースグループを持つノード nfsgroup
で、 ${NFS_FS1}
に2つのサブディレクトリを作成します。
${NFS_FS1}/stat
nfs_shared_infodir
は ロック情報用、 は ルート用として使用されます。 NFS ${NFS_FS1}/export
NFS
mkdir ${NFS_FS1}/stat ${NFS_FS1}/export
他のエクスポートされたファイルシステム用のマウントポイントを作成します。
両方のノードで、以下のコマンドを実行します。
mkdir ${NFS_FS2} ${NFS_FS3}
他の2つの NFS ファイルシステム用のリソースを作成します。
NODE1 で、以下のコマンドを実行する。
pcs resource create nfs_fs2 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV2} \
directory=${NFS_FS2} \
fstype=xfs \
--group nfsgroup
pcs resource create nfs_fs3 Filesystem \
device=/dev/${NFS_VG}/${NFS_LV3} \
directory=${NFS_FS3} \
fstype=xfs \
--group nfsgroup
クラスタのステータスを確認し、3つのファイルシステムリソース(nfs_fs1
、 nfs_fs2
、 nfs_fs3
)がすべてアクティブであることを確認します。
pcs resource status
出力例:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
nfsserverリソースの作成
NODE1 で、 NFS サーバーを管理するためのリソースを作成します。
pcs resource create nfs_daemon nfsserver \
nfs_shared_infodir=${NFS_FS1}/stat \
nfs_no_notify=true \
--group nfsgroup
nfsserver
リソースの nfs_shared_infodir
パラメータは、 NFS サーバーがステートフル情報を保存するディレクトリを指定します。
クラスタの状態を確認し、 NFS サーバーが起動していることを確認します。
pcs resource status
出力例:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-1
exportfsリソースの作成
${NFS_ROOT}
ディレクトリをエクスポートするには、 nfsgroup
グループに exportfsリソースを追加します。これにより、 NFSv4 クライアント用の仮想ディレクトリが構築されます。 NFSv3 クライアントもこれらのエクスポートにアクセスできます。
NODE1 で、以下のコマンドを実行する。
pcs resource create nfs_export exportfs \
clientspec=${NFS_CLIENTSPEC} \
options=${NFS_OPTIONS} \
directory=${NFS_ROOT} \
fsid=0 \
--group nfsgroup
フローティングIPアドレスリソースの設定
「仮想 IP アドレスの予約 」の情報を確認し、 NFS クラスター用の仮想 IP アドレスを予約します。
NFS サーバーの仮想IPアドレスのリソースを作成します。 NFS クライアントは、フローティングIPアドレスを使用して の共有にアクセスします。 NFS
NODE1 で、以下のコマンドを実行する。
pcs resource create nfs_ip IPaddr2 \
ip=${NFS_IP} \
--group nfsgroup
通知リソースの設定
nfsnotifyリソースは、 FSv3NFS の展開全体が初期化された後に再起動通知を送信します。
NODE1 で、以下のコマンドを実行する。
pcs resource create nfs_notify nfsnotify \
source_host=${NFS_IP} \
--group nfsgroup
NFS クラスタのセットアップは完了しました。
NODE1 で、以下のコマンドを実行してステータスをチェックする。
pcs resource status
出力例:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-1
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-1
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-1
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-1
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-1
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-1
NFS サーバークラスタのテスト
高可用性クラスタにおける NFS リソース構成の検証は、以下の手順に従って実行できます。 エクスポートしたファイルシステムは、 NFSv3 または NFSv4 でマウントできます。 NFS クラスタが機能していることを確認するために、以下のテストを実行します。
Test1- NFS のエクスポートをテストする
NFS のエクスポートをテストするには、以下の情報をご利用ください。
HA NFS クラスター外の NFS クライアントノード上ですべてのコマンドを実行します。
NFS のエクスポートを確認します。
showmount -e ${NFS_IP}
showmount
コマンドは、 NFS サーバー( NFS v3 )によってエクスポートされたファイルシステムに関する情報を表示します。 出力がエクスポートされたすべてのディレクトリをリストしていることを確認してください。
NFS クライアントノード上に一時ディレクトリを作成します。 次に、 NFS ファイルシステムをマウントし、 SAP のインストールに必要なディレクトリ構造を作成します。
最初の例では、 /usr/sap/trans
と /sapmnt/${SID}
のみが NFS として SAP アプリケーションサーバーインスタンスにマウントされています。
SAP のインストールに使用するマウントポイントを準備します。
mkdir -p /sapmnt/${SID} \
/usr/sap/trans
マウントポイントの属性を変更します。
chattr +i /sapmnt/${SID} \
/usr/sap/trans
NFS 共有をマウントする。
mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /usr/sap/trans
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID}
所有権と権限を変更する。
chown ${sid}adm:sapsys /usr/sap/trans
chmod g+w /usr/sap/trans
chown -R ${sid}adm:sapsys /sapmnt/${SID}
ファイルシステムをアンマウントします。
umount /usr/sap/trans
umount /sapmnt/${SID}
新しいファイルシステムを /etc/fstab
に追加する。
cat >> /etc/fstab << EOT
${NFS_VH}:/saptrans /usr/sap/trans nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID} nfs4 sec=sys 0 0
EOT
更新されたファイルを確認してください。
cat /etc/fstab
2番目の例では、 /usr/sap/trans
、 /sapmnt/${SID}
、およびすべてのインスタンスディレクトリが NFS で SAP アプリケーションサーバーインスタンスにマウントされています。
ASCS とERSのシステム番号の環境変数をエクスポートします。 以下の番号を*、ASCS* とERSのインストール時に使用したシステム番号に変更します。
export ASCS_NR=01
export ERS_NR=02
SAP のインストールに使用する最終的なマウントポイントを準備します。
mkdir -p /sapmnt/${SID} \
/usr/sap/trans \
/usr/sap/${SID}/SYS \
/usr/sap/${SID}/ASCS${ASCS_INSTNO} \
/usr/sap/${SID}/ERS${ERS_INSTNO}
マウントポイントの属性を変更します。
chattr +i /sapmnt/${SID} \
/usr/sap/trans \
/usr/sap/${SID}/SYS \
/usr/sap/${SID}/ASCS${ASCS_INSTNO} \
/usr/sap/${SID}/ERS${ERS_INSTNO}
NFS の共有をマウントして、必要なサブディレクトリを作成し、所有権を変更し、権限を変更します。
mount -t nfs4 -o sec=sys ${NFS_VH}:/saptrans /mnt
chown ${sid}adm:sapsys /mnt
chmod g+w /mnt
umount /mnt
mount -t nfs4 -o sec=sys ${NFS_VH}:/sap${SID} /mnt
mkdir -p /mnt/sapmnt \
/mnt/ASCS \
/mnt/ERS \
/mnt/SYS \
/mnt/PAS \
/mnt/AS1
chown -R ${sid}adm:sapsys /mnt
umount /mnt
新しいファイルシステムを /etc/fstab
に追加する。
cat >> /etc/fstab < EOT
${NFS_VH}:/saptrans /usr/sap/trans nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/sapmnt /sapmnt/${SID} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/ASCS /usr/sap/${SID}/ASCS${ASCS_INSTNO} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/ERS /usr/sap/${SID}/ERS${ERS_INSTNO} nfs4 sec=sys 0 0
${NFS_VH}:/sap${SID}/SYS /usr/sap/${SID}/SYS nfs4 sec=sys 0 0
EOT
更新されたファイルを確認してください。
cat /etc/fstab
Test2- NFS サーバーのフェイルオーバーのテスト
NFS サーバーのフェイルオーバーをテストするには、以下の情報をご利用ください。
Test2- 説明
NFS のリソースを持つクラスタノードのクラッシュをシミュレートします。
Test2- 前提条件
- NFS HA サーバー用の機能的な2ノード RHEL HA アドオンクラスター。
- クラスタは両方のノードで起動します。
- ファイルシステムはクラスタ外の NFS クライアントノードにマウントされ、アプリケーションはコンテンツにアクセスできます。
Test2- 試験手順
シャットオフシステムリクエストを送信してクラスタノードをクラッシュさせる。
まず、クラスタのステータスを確認し*、nfsgroupリソースグループが*実行されているノードを特定します。
NODE1 で、以下のコマンドを実行する。
pcs status
次に、特定されたクラスタノードにログインし、 クラッシュシステムリクエストを送信します。
sync; echo c > /proc/sysrq-trigger
Test2- 期待される動作
- アクティブな nfsgroup リソースグループを持つノードがシャットダウンします。
- クラスタは故障したノードを検知し、フェンシング処理を開始します。
- フェンシング操作により、フェンシングされたノードの状態がオフラインに設定されます。
- クラスタはフェールオーバーノード上の NFS サーバーリソースを取得します。
フェールオーバーノード上ですべてのリソースが起動したことを確認します。
pcs resource status
出力例:
# pcs resource status
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-2
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-2
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-2
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-2
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-2
NFS クライアントノードにファイルシステムがマウントされていること、およびアプリケーションがコンテンツにアクセスできることを確認してください。
Test2- 回復手順
IBM Cloud コンソールにログインし、停止したインスタンスを起動します。 クラスタノードが再び利用可能になるまで待ち、その後クラスタフレームワークを再起動します。
クラスタ・ノードで以下のコマンドを実行する。
pcs cluster start
クラスタのステータスを確認します。
pcs status
出力例:
# pcs status
Cluster name: SAP_NFS
Cluster Summary:
* Stack: corosync
* Current DC: cl-nfs-1 (version 2.0.5-9.el8_4.5-ba59be7122) - partition with quorum
* Last updated: Mon Mar 20 08:11:28 2023
* Last change: Mon Mar 20 07:56:25 2023 by hacluster via crmd on cl-nfs-1
* 2 nodes configured
* 9 resource instances configured
Node List:
* Online: [ cl-nfs-1 cl-nfs-2 ]
Full List of Resources:
* res_fence_ibm_powervs (stonith:fence_ibm_powervs): Started cl-nfs-1
* Resource Group: nfsgroup:
* nfs_vg (ocf::heartbeat:LVM-activate): Started cl-nfs-2
* nfs_fs1 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs2 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_fs3 (ocf::heartbeat:Filesystem): Started cl-nfs-2
* nfs_daemon (ocf::heartbeat:nfsserver): Started cl-nfs-2
* nfs_export (ocf::heartbeat:exportfs): Started cl-nfs-2
* nfs_ip (ocf::heartbeat:IPaddr2): Started cl-nfs-2
* nfs_notify (ocf::heartbeat:nfsnotify): Started cl-nfs-2
Daemon Status:
corosync: active/disabled
pacemaker: active/disabled
pcsd: active/enabled