IBM Cloud Docs
VPC クラスターへの OpenShift Data Foundation のデプロイ

VPC クラスターへの OpenShift Data Foundation のデプロイ

OpenShift Data Foundation は、Red Hat® OpenShift® on IBM Cloud® クラスターで、コンテナー化されたワークロードの永続ストレージを管理するために使用できる高可用性ストレージ・ソリューションです。

IBM Cloud クラスターでは、OperatorHub からの OpenShift Data Foundation のインストールはサポートされていません。 ODF をインストールするには、以下の手順を実行して、クラスター・アドオンをデプロイします。

最小限必要な許可
Administrator プラットフォーム・アクセス・ロール
IBM Cloud Kubernetes Service内のクラスターの Manager サービス・アクセス役割。

前提条件

以下の前提条件を確認してください。

  1. oc CLI を インストール または更新します。

  2. 3 台以上のワーカー・ノードで構成される VPC クラスターを作成します。 高可用性を確保するために、3 つのゾーンの各ゾーンにワーカー・ノードが 1 台以上存在するクラスターを作成してください。 各ワーカー・ノードには、少なくとも CPU 16 個および RAM 64 GB が必要です。

    OpenShift Data Foundation は、16 個の CPU と 32 GB の RAM を備えた 3 つのワーカー・ノードにデプロイできますが、ODF ポッドのみを実行するようにワーカー・ノードにテイントを適用する必要があります。 このセットアップを使用する場合、ODF ノードで追加のアプリ・ワークロードやシステム・ポッドを実行することはできません。

オプション: IBM Cloud Object Storage サービス・インスタンスのセットアップ

以下のステップを実行して、ODF デプロイメントでデフォルト補助ストレージとして使用できる IBM Cloud Object Storage インスタンスを作成します。 IBM Cloud Object Storage をセットアップしない場合は、この手順をスキップして アドオンをインストールできます。

IBM Cloud Object Storage をストレージ・クラスターのデフォルトのバッキング・ストアとしてセットアップする場合は、IBM Cloud Object Storage のインスタンスを作成します。 その後、HMAC 資格情報のセットと、Object Storage HMAC 資格情報を使用する Kubernetes シークレットを作成します。 インストール時に IBM Cloud Object Storage の資格情報を指定しない場合、ストレージ・クラスターのデフォルトのバッキング・ストアは、クラスターの PV を使用して作成されます。 ODF のデプロイ後に追加の補助ストレージをセットアップできますが、デフォルトの補助ストレージを変更することはできません。

Red Hat OpenShift クラスターにアクセスします

  1. クラスター内に openshift-storage 名前空間を作成します。 ドライバー・ポッドは、この名前空間にデプロイされます。 以下の YAML をコピーし、os-namespace.yaml という名前でローカル・マシンに保存します。
    apiVersion: v1
    kind: Namespace
    metadata:
      labels:
        openshift.io/cluster-monitoring: "true"
      name: openshift-storage
    
  2. 保存した YAML ファイルを使用して、openshift-storage 名前空間を作成します。
    oc create -f os-namespace.yaml
    
  3. 名前空間が作成されたことを確認します。
    oc get namespaces | grep storage
    
  4. IBM Cloud Object Storage サービス・インスタンスを作成します。
    ibmcloud resource service-instance-create noobaa-store cloud-object-storage standard global
    
  5. HMAC 資格情報を作成します。 自分の資格情報を書き留めてください。
    ibmcloud resource service-key-create cos-cred-rw Writer --instance-name noobaa-store --parameters '{"HMAC": true}'
    
  6. ibm-cloud-cos-creds 名前空間に、Object Storage HMAC 資格情報を使用する Kubernete シークレットを、openshift-storage という名前で作成します。 このコマンドを実行するときには、Object Storage HMAC のアクセス・キー ID とシークレット・アクセス・キーを指定します。 シークレットの名前は ibm-cloud-cos-creds にする必要があります。
    oc -n 'openshift-storage' create secret generic 'ibm-cloud-cos-creds' --type=Opaque --from-literal=IBM_COS_ACCESS_KEY_ID=<access_key_id> --from-literal=IBM_COS_SECRET_ACCESS_KEY=<secret_access_key>
    
  7. シークレットが作成されたことを確認します。
    oc get secrets -A | grep cos
    

オプション: Hyper Protect Crypto Services または Key Protect を使用して暗号化をセットアップする

暗号化をセットアップする場合は、 Hyper Protect Crypto Services または Key Protectのインスタンスを作成します。 次に、ルート鍵と、 Hyper Protect Crypto Services または Key Protect 資格情報を使用する Kubernetes 秘密を作成します。

Hyper Protect Crypto Services または Key Protect の API キーには、少なくとも以下の権限が必要です。
Reader
Reader Plus
クラスター全体の暗号化とストレージ・クラスの暗号化を使用する場合は、API キーに以下の必要な許可がなければなりません。
Reader
Reader Plus
Writer
  1. Hyper Protect Crypto Services または Key Protect サービス・インスタンスを作成します。

  2. ルート鍵を作成します。

  3. インスタンスとルート鍵を作成したら、 Hyper Protect Crypto Services または Key Protect インスタンス名、インスタンス ID、ルート鍵 ID、およびパブリック・エンドポイントをメモします。

  4. Hyper Protect Crypto Services と Red Hat OpenShift on IBM Cloud または Key Protect と Red Hat OpenShift on IBM Cloudのいずれかへのアクセスを許可する サービス IDAPI キー、および アクセス・ポリシー を作成します。 作成した API をメモします。

  5. プライベート・クラスター: KMS インスタンスへのアクセスを許可する仮想プライベート・エンドポイント・ゲートウェイを作成します。 VPC 内の各サブネットから少なくとも 1 つの IP アドレスを VPE にバインドしてください。

Red Hat OpenShift クラスターにアクセスします

  1. 名前空間をリストして、openshift-storage 名前空間があるかどうかを判別します。 openshift-storage 名前空間がない場合は、作成します。
    oc get namespaces | grep openshift-storage
    
    1. クラスター内に openshift-storage 名前空間を作成します。 ドライバー・ポッドは、この名前空間にデプロイされます。 以下の YAML をコピーし、os-namespace.yaml という名前でローカル・マシンに保存します。
      apiVersion: v1
      kind: Namespace
      metadata:
        labels:
          openshift.io/cluster-monitoring: "true"
        name: openshift-storage
      
    2. 保存した YAML ファイルを使用して、openshift-storage 名前空間を作成します。
      oc create -f os-namespace.yaml
      
    3. 名前空間が作成されたことを確認します。
      oc get namespaces | grep storage
      
  2. ルート鍵の ID と、base64 に対して作成したサービス ID の API キーの両方をエンコードします。
    printf "ROOT-KEY-ID" | base64
    
    printf "SERVICE-ID-API-KEY" | base64
    
  3. Hyper Protect Crypto Services 資格情報を使用する openshift-storage 名前空間に Kubernetes シークレットを作成します。
    1. 以下のシークレットを ibm-hpcs-secret.yaml という YAML ファイルとして保存します。
      apiVersion: v1
      data:
        IBM_KP_CUSTOMER_ROOT_KEY: AaAAAaZAAAAy11AAAyAAkaAaQtAAk0AAA2AzY5AjYaaa67aa # your base64 encoded root key ID
        IBM_KP_SERVICE_API_KEY: AAAaaajAAAAAncmAAaaaaAAAAdAAId1AtVjBJRU1aAAaAeTh1aEw=AaaaA # your base64 encoded API
      kind: Secret
      metadata:
        name: ibm-hpcs-secret
        namespace: openshift-storage
      type: Opaque
      
    2. クラスター内にシークレットを作成します。
      oc apply -f ibm-hpcs-secret.yaml
      
  4. シークレットが作成されたことを確認します。
    oc get secrets -A | grep ibm-hpcs-secret
    

コンソールからの OpenShift Data Foundation アドオンのインストール

クラスターに ODF をインストールするには、以下の手順を実行します。

  1. アドオンを有効にする前に、変更ログで最新バージョン情報を確認してください。

  2. パラメーター・リファレンスを確認します

  3. Red Hat OpenShift クラスター・コンソールから、アドオンのインストール先となるクラスターを選択します。

  4. クラスターの**「概要」ページで、「OpenShift Data Foundation」カードの「インストール」**をクリックします。 **「ODF のインストール (Install ODF)」**パネルが開きます。

  5. **「ODF のインストール (Install ODF)」**パネルで、ODF デプロイメントに使用する構成パラメーターを入力します。

  6. 請求プランとして**「基本」または「拡張」**を選択します。 請求タイプについて詳しくは、 請求タイプ別のフィーチャー・サポート を参照してください。

  7. VPC クラスターの場合は、 「リモート・プロビジョニング」 を選択して、 Block Storage for VPCを使用して ODF のボリュームを動的にプロビジョンします。

  8. 「OSD ストレージ・クラス名」 フィールドに、ストレージ・ボリュームのプロビジョニングに使用する Block Storage for VPC ODF ストレージ・クラスの名前を入力します。 複数ゾーン・クラスターの場合は、 VolumeBindingModeWaitForFirstConsumer のストレージ・クラスを使用します。 詳しくは、「 Storage Class Reference 」を参照してください。

  9. **「OSD ポッド・サイズ」**フィールドに、プロビジョンするボリュームのサイズを入力します。

  10. **「ワーカー・ノード」**フィールドに、ODF をデプロイするワーカー・ノードのノード名を入力します。 少なくとも 3 つのワーカー・ノード名を入力する必要があります。 ノード名を見つけるには、クラスター内で oc get nodes コマンドを実行します。 Node の名前は、名前の間にスペースを入れずにコンマで区切る必要があります。 例: 10.240.0.24,10.240.0.26,10.240.0.25。すべてのワーカー・ノードに ODF をデプロイする場合は、このフィールドをブランクのままにします。

  11. **「必要な OSD ディスクの数」**フィールドに、各ワーカー・ノードにプロビジョンする OSD ディスク (アプリ・ストレージ) の数を入力します。

  12. ODF システム・ポッドで使用される OSD ボリューム (クラスター全体の暗号化) を暗号化する場合は、 「クラスター暗号化の有効化」 を選択します。

  13. アプリケーション・ボリューム (アプリ・ストレージ) の暗号化を有効にする場合は、 「ボリューム暗号化の有効化」 を選択します。

    1. 「インスタンス名」 フィールドに、 Hyper Protect Crypto Services または Key Protect インスタンスの固有の名前を入力します。
    2. 「インスタンス・タイプ」 フィールドに、暗号化インスタンスのタイプを入力します。
    3. 「インスタンス ID」 フィールドに、 Hyper Protect Crypto Services または Key Protect インスタンス ID を入力します。 例: d11a1a43-aa0a-40a3-aaa9-5aaa63147aaa
    4. 「シークレット名」 フィールドに、 Hyper Protect Crypto Services または Key Protect 資格情報を使用して作成したシークレットの名前を入力します。 例: ibm-hpcs-secret
    5. 「ベース URL」 フィールドに、 Hyper Protect Crypto Services または Key Protect インスタンスのパブリック・エンドポイントを入力します。 例: https://api.eu-gb.hs-crypto.cloud.ibm.com:8389
    6. **「トークン URL」**フィールドに、https://iam.cloud.ibm.com/identity/token を入力します。
  14. 使用するパラメーターを入力したら、**「インストール」**をクリックします。

  15. アドオンのデプロイメントが完了するまで数分待ちます。 デプロイメントが完了すると、アドオンの状況は Normal - Addon Ready になります。

  16. インストールを検証します。 Red Hat OpenShift クラスターにアクセスします

  17. 以下のコマンドを実行して、ODF ポッドが実行されていることを確認します。

    oc get pods -n openshift-storage
    
次のステップ
ODF を使用するアプリをデプロイします

CLI からのアドオンのインストール

ibmcloud oc cluster addon enable コマンドを使用して、アドオンをインストールできます。

  1. VPC パラメーター・リファレンス を確認してください。 アドオンを有効にすると、オーバーライドするパラメーターごとに --param "key=value" オプションを指定することによって、デフォルト値をオーバーライドできます。

  2. Red Hat OpenShift クラスターにアクセスします

  3. openshift-data-foundation アドオン・バージョンをリストします。 デフォルト・バージョンを書き留め、インストールするバージョンを決定します。

    ibmcloud ks cluster addon versions
    
  4. アドオンを有効にする前に、変更ログで最新バージョン情報を確認してください。 アドオンは n+1 のクラスター・バージョンをサポートすることに注意してください。 例えば、バージョン 4.10.0 のアドオンを OCP 4.9 または 4.11 クラスターにデプロイすることができます。 デフォルト以外のクラスター・バージョンを使用している場合は、アドオンを有効にするときに --version オプションを指定する必要があります。

  5. アドオンのオプションを確認します。

    ibmcloud oc cluster addon options --addon openshift-data-foundation --version 4.12.0
    

    バージョン 4.12.0 のアドオン・オプションの例

    Add-on Options
    Option                Default Value
    clusterEncryption     false
    hpcsTokenUrl          <Please provide the KMS token URL>
    osdDevicePaths        <Please provide IDs of the disks to be used for OSD pods if using local disks or standard classic cluster>
    ocsUpgrade            false
    autoDiscoverDevices   false
    hpcsServiceName       <Please provide the KMS Service instance name>
    hpcsSecretName        <Please provide the KMS secret name>
    osdSize               250Gi
    osdStorageClassName   ibmc-vpc-block-metro-10iops-tier
    billingType           advanced
    hpcsInstanceId        <Please provide the KMS Service instance ID>
    hpcsBaseUrl           <Please provide the KMS Base (public) URL>
    odfDeploy             true
    numOfOsd              1
    workerNodes           all
    hpcsEncryption        false
    ignoreNoobaa          false
    
  6. openshift-data-foundationアドオンを有効にします。 いずれかのデフォルト・パラメーターをオーバーライドする場合は、オーバーライドするパラメーターごとに --param "key=value" オプションを指定します。 アドオンを有効にするときにストレージ・クラスターを作成しない場合は、まずアドオンを有効にしてから、後で CRD を作成してストレージ・クラスターを作成することができます。

    デフォルトのストレージ・クラスター設定と、Hyper Protect Crypto Services を有効にした暗号化を使用してアドオン・バージョン 4.10 をデプロイするためのコマンド例。

    ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster-name> --version 4.12.0 --param "odfDeploy=true" --param "hpcsTokenUrl=https://iam.cloud.ibm.com/identity/token" --param "hpcsEncryption=true" --param "hpcsBaseUrl=<hpcs-instance-public-endpoint>" --param "hpcsInstanceId=<hpcs-instance-id>" --param "hpcsServiceName=<hpcs-instance-name>" --param "hpcsSecretName=<hpcs-secret-name>"
    

    ODF アドオンのみをデプロイするコマンドの例。

    ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster_name> --version <version> --param "odfDeploy=false"
    

    デフォルトの構成パラメーターを使用して、ODF をデプロイし、ストレージ・クラスターを作成するコマンドの例。

    ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster_name> --version <version>
    

    osdSize パラメーターをオーバーライドしながら ODF をデプロイし、ストレージ・クラスターを作成するコマンドの例。

    ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster_name> --version <version> --param "osdSize=500Gi"
    
  7. アドオンが Ready 状態であることを確認します。

    oc get storagecluster -n openshift-storage
    

    出力例:

    NAME                 AGE   PHASE   EXTERNAL   CREATED AT             VERSION
    ocs-storagecluster   53m   Ready              2023-03-10T12:20:52Z   4.11.0
    
  8. ibm-ocs-operator-controller-manager-***** ポッドが kube-system 名前空間で実行されていることを確認します。

    oc get pods -A | grep ibm-ocs-operator-controller-manager
    
  9. odfDeployfalse に設定してアドオンを有効にした場合は、 ODF カスタム・リソースを作成する 手順に従ってください。

Terraform からのアドオンのインストール

始めに:

  1. Terraform プロバイダー・ファイルを作成します。 ファイルを Terraform ディレクトリーに保存します。 詳しくは、 Terraform IBM Cloud プロバイダーの資料を参照してください。

    Terraform プロバイダー・ファイルの例。

    terraform {
    required_providers {
        ibm = {
        source = "IBM-Cloud/ibm"
        version = "1.53.0"
        }
    }
    }
    
    provider "ibm" {
    region = "us-south"
    ibmcloud_api_key = "<api-key>"
    }
    
  2. ODF アドオン用の Terraform 構成ファイルを作成します。 ファイルを Terraform ディレクトリーに保存します。

    構成ファイルの例。

    ibmcloud_api_key = "" # Enter your API Key
    cluster = "" # Enter the Cluster ID
    region = "us-south" # Enter the region
    
    # For add-on deployment
    odfVersion = "4.12.0"
    
    # For CRD Creation and Management
    autoDiscoverDevices = "false"
    billingType = "advanced"
    clusterEncryption = "false"
    hpcsBaseUrl = null
    hpcsEncryption = "false"
    hpcsInstanceId = null
    hpcsSecretName = null
    hpcsServiceName = null
    hpcsTokenUrl = null
    ignoreNoobaa = "false"
    numOfOsd = "1"
    ocsUpgrade = "false"
    osdDevicePaths = null
    osdSize = "250Gi"
    osdStorageClassName = "ibmc-vpc-block-metro-10iops-tier"
    workerNodes = null
    
  3. CLI で、Terraform ディレクトリーにナビゲートします。

    cd <terraform_directory>
    
  4. コマンドを実行して、Terraform アクションを初期化および計画します。 計画の出力を調べて、正しいアクションが実行されていることを確認してください。

    terraform init
    
    terraform plan
    
  5. Terraform ファイルを適用してクラスターを作成します。 次に、 IBM Cloud コンソールにナビゲートして、クラスターがプロビジョニングされていることを確認します。

    terraform apply
    

ODF カスタム・リソースの作成

ストレージ・ボリュームの動的プロビジョニングを使用して、VPC クラスター内に ODF ストレージ・クラスターを作成するには、ストレージ・デバイスの詳細を指定するためのカスタム・リソースを作成します。

IBM Cloud Object Storage サービス・インスタンスをデフォルトのバッキング・ストアとして使用する場合は、サービス・インスタンスを作成したこと、また、クラスターに Kubernetes シークレットを作成したことを確認してください。 ODF の CRD をクラスターに作成すると、ODF が ibm-cloud-cos-creds という名前のシークレットを検索し、Object Storage の HMAC 資格情報を使用してデフォルトのバッキング・ストアをセットアップします。

  1. OcsCluster という名前のカスタム・リソース定義を作成します。 以下のカスタム・リソース定義ファイルのいずれかをローカル・マシンに保存して編集し、事前に作成しておいたカスタム・ストレージ・クラスの名前を monStorageClassName および osdStorageClassName パラメーターとして指定します。 OcsCluster の各パラメーターについて詳しくは、 パラメーターのリファレンスを参照してください。

    4.8 クラスター上のすべてのワーカー・ノードに ODF をインストールするためのカスタム・リソース定義の例。

    apiVersion: ocs.ibm.io/v1
    kind: OcsCluster
    metadata:
      name: ocscluster-vpc # Kubernetes resource names can't contain capital letters or special characters. Enter a name for your resource that uses only lowercase letters, numbers, `-` or `.`
    spec:
      osdStorageClassName: <osdStorageClassName> # Specify an ODF storage class with a waitForFirstConsumer volume binding mode
      osdSize: <osdSize> # The OSD size is the total storage capacity of your OCS storage cluster. Use at least 250Gi OSDs for production workloads.
      numOfOsd: 1
      billingType: advanced
      ocsUpgrade: false
    

    4.8 クラスター上の指定されたワーカー・ノードにのみ ODF をインストールするためのカスタム・リソース定義の例。

    apiVersion: ocs.ibm.io/v1
    kind: OcsCluster
    metadata:
      name: ocscluster-vpc # Kubernetes resource names can't contain capital letters or special characters. Enter a name for your resource that uses only lowercase letters, numbers, `-` or `.`
    spec:
      osdStorageClassName: <osdStorageClassName> # Specify an ODF storage class with a waitForFirstConsumer volume binding mode
      osdSize: <osdSize> # The OSD size is the total storage capacity of your OCS storage cluster. Use at least 250Gi OSDs for production workloads.
      numOfOsd: 1
      billingType: advanced
      ocsUpgrade: false
      workerNodes: # Specify the private IP addresses of the worker nodes where you want to install OCS.
        - <workerNodes> # To get a list worker nodes, run `oc get nodes`.
        - <workerNodes>
        - <workerNodes>
    
  2. ファイルを保存し、クラスターに OcsCluster カスタム・リソースを作成します。

    oc create -f <ocs-cluster-filename>.yaml
    
  3. OcsCluster が実行中であることを確認します。

    oc describe ocscluster ocscluster-vpc
    

    出力例。

    Name:         ocscluster-vpc
    Namespace:    
    Labels:       <none>
    Annotations:  <none>
    API Version:  ocs.ibm.io/v1
    Kind:         OcsCluster
    Metadata:
        Creation Timestamp:  2021-03-23T20:56:51Z
    Finalizers:
      finalizer.ocs.ibm.io
    Generation:  1
    Managed Fields:
      API Version:  ocs.ibm.io/v1
      Fields Type:  FieldsV1
      fieldsV1:
        f:spec:
          .:
          f:billingType:
          f:monSize:
          f:monStorageClassName:
          f:numOfOsd:
          f:ocsUpgrade:
          f:osdSize:
          f:osdStorageClassName:
      Manager:      oc
      Operation:    Update
      Time:         2021-03-23T20:56:51Z
      API Version:  ocs.ibm.io/v1
      Fields Type:  FieldsV1
      fieldsV1:
        f:metadata:
          f:finalizers:
            .:
            v:"finalizer.ocs.ibm.io":
        f:status:
          .:
          f:storageClusterStatus:
      Manager:         manager
      Operation:       Update
      Time:            2021-04-09T23:12:02Z
    Resource Version:  11372332
    Self Link:         /apis/ocs.ibm.io/v1/ocsclusters/ocscluster-vpc
    UID:               aa11a1a1-111f-aace-afac-1fa1afe1111a
    Spec:
      Billing Type:            hourly
      Mon Size:                20Gi
      Mon Storage Class Name:  ibmc-vpc-block-10iops-tier
      Num Of Osd:              1
      Ocs Upgrade:             false
      Osd Size:                250Gi
      Osd Storage Class Name:  ibmc-vpc-block-10iops-tier
    Status:
      Storage Cluster Status:  
    Events:                    <none>
    
  4. ODF を使用するアプリをデプロイします

ODF のスケーリング

numOfOsd 設定値を増加させて、ODF 構成を拡張できます。 OSD の数を増やすと、ODF は ODF クラスターの各ワーカー・ノードに、その数のディスクをプロビジョンします (各ディスクの容量は同じ osdSize (GB))。 ただし、アプリケーションで使用可能なストレージ総量は、osdSizenumOfOsd を乗算した値に等しくなります。

表 1. OpenShift Data Foundation スケーリング。
ワーカー・ノードの数 初期 osdSize numOfOsd アプリケーションで使用可能なストレージ容量 プロビジョンされたディスクのストレージ総量
3 250Gi 1 250Gi 750Gi
3 250Gi 2 500Gi 1500Gi
3 250Gi 3 750Gi 2250Gi
3 250Gi 4 1000Gi 3000Gi

numOfOsd の増加によるスケーリング

Red Hat OpenShift クラスターにアクセスします

  1. OcsCluster カスタム・リソースの名前を取得します。

    oc get ocscluster
    
  2. OcsCluster カスタム・リソースの YAML ファイルを ocscluster.yaml という名前でローカル・マシンに保存します。

    oc get ocscluster ocscluster-vpc -o yaml
    
  3. numOfOsd パラメーターを増加させて、ocscluster CRD をクラスターに再適用します。

    oc apply -f ocscluster.yaml
    
  4. 追加の OSD が作成されたことを確認します。

    oc get pv
    

VPC クラスターにワーカー・ノードを追加して ODF を拡張する

ストレージ・クラスターのストレージ容量を増やすには、互換性のあるワーカー・ノードをクラスターに追加します。

  1. ワーカー・ノードを追加して、OCS 用のクラスターのワーカー・プールを拡張します。 ワーカー・ノードが ODF の要件を満たしていることを確認してください。 クラスターのすべてのワーカー・ノードに ODF をデプロイしていた場合は、新規ワーカー・ノードをクラスターに追加すると、そのワーカー・ノードに ODF ドライバーがインストールされます。

  2. OcsCluster カスタム・リソースでプライベート <workerNodes> パラメーターを指定して、クラスター内のワーカー・ノードのサブセットに ODF をデプロイした場合は、カスタム・リソース定義を編集して、新しいワーカー・ノードのノード名を ODF デプロイメントに追加できます。

    oc edit ocscluster ocscluster-vpc
    
  3. OcsCluster カスタム・リソース・ファイルを保存し、そのファイルをクラスターに再適用します。

制限

ODF のデプロイに関する以下の制限事項を確認してください。

Kubernetes リソース ID の文字数制限: Kubernetes PVC 名は 63 文字未満にする必要があります。 ODF をマルチゾーン VPC クラスターにデプロイし、retain などのメトロ ibmc-vpc-block-metro-retain-10iops-tier ストレージ・クラスを使用して ODF ストレージ・クラスターを作成する場合、このストレージ・クラスを使用して作成された対応する ODF デバイス・セットは失敗します。 詳しくは、Kubernetes 文字数制限が原因で ODF デバイス・セットの作成が失敗するを参照してください。

ストレージ・クラス・リファレンス

ODF ストレージ・クラスのリファレンス