IBM Cloud Docs
VPC クラスターへの OpenShift Data Foundation のデプロイ

VPC クラスターへの OpenShift Data Foundation のデプロイ

OpenShift Data Foundation は、Red Hat® OpenShift® on IBM Cloud® クラスターで、コンテナー化されたワークロードの永続ストレージを管理するために使用できる高可用性ストレージ・ソリューションです。

IBM Cloud クラスターでは、OperatorHub からの OpenShift Data Foundation のインストールはサポートされていません。 ODF をインストールするには、以下の手順を実行して、クラスター・アドオンをデプロイします。

最小限必要な許可
Administrator プラットフォーム・アクセス・ロール
IBM Cloud Kubernetes Service内のクラスターの Manager サービス・アクセス役割。

ODFは、 CoreOS ワーカー用のクラスターバージョン 4.16.23_1546_openshift 、RHELワーカー用のクラスターバージョン 4.16.21_1544_openshift から、プライベート専用VPCクラスターでサポートされています。

前提条件

  • インストール または CLI を更新します。
  • 3 台以上のワーカー・ノードで構成される VPC クラスターを作成します。
    • 高可用性を確保するために、3 つのゾーンの各ゾーンにワーカー・ノードが 1 台以上存在するクラスターを作成してください。
    • 各ワーカー・ノードには、少なくとも CPU 16 個および RAM 64 GB が必要です。 4.16 より前のクラスタバージョンでは、各サブネットにパブリックゲートウェイがアタッチされていることを確認してください。
    • 注: OpenShift Data Foundation を 16 CPU、32 GB RAM の 3 つのワーカーノードにデプロイすることは可能ですが、ODF ポッドのみを実行するには、ワーカーノードを汚染する必要があります。 このセットアップを使用する場合、ODF ノードで追加のアプリ・ワークロードやシステム・ポッドを実行することはできません。

オプション:デフォルトの演算子を無効にする

プライベートクラスターのみ:プライベートクラスターのみの場合、ODFを適切に動作させるには、 openshift-marketplace で以下のコマンドを使用して、デフォルトの演算子を手動で無効にする必要があります。

oc patch OperatorHub cluster --type json -p '[{"op": "add", "path": "/spec/disableAllDefaultSources", "value": true}]'

オプション: IBM Cloud Object Storage サービス・インスタンスのセットアップ

以下のステップを実行して、ODF デプロイメントでデフォルト補助ストレージとして使用できる IBM Cloud Object Storage インスタンスを作成します。 IBM Cloud Object Storage をセットアップしない場合は、この手順をスキップして アドオンをインストールできます。

IBM Cloud Object Storage をストレージ・クラスターのデフォルトのバッキング・ストアとしてセットアップする場合は、IBM Cloud Object Storage のインスタンスを作成します。 その後、HMAC 資格情報のセットと、Object Storage HMAC 資格情報を使用する Kubernetes シークレットを作成します。 インストール時に IBM Cloud Object Storage の資格情報を指定しない場合、ストレージ・クラスターのデフォルトのバッキング・ストアは、クラスターの PV を使用して作成されます。 ODF のデプロイ後に追加の補助ストレージをセットアップできますが、デフォルトの補助ストレージを変更することはできません。

Red Hat OpenShift クラスターにアクセスします

  1. クラスター内に openshift-storage 名前空間を作成します。 ドライバー・ポッドは、この名前空間にデプロイされます。 以下の YAML をコピーし、os-namespace.yaml という名前でローカル・マシンに保存します。
    apiVersion: v1
    kind: Namespace
    metadata:
      labels:
        openshift.io/cluster-monitoring: "true"
      name: openshift-storage
    
  2. 保存した YAML ファイルを使用して、openshift-storage 名前空間を作成します。
    oc create -f os-namespace.yaml
    
  3. 名前空間が作成されたことを確認します。
    oc get namespaces | grep storage
    
  4. IBM Cloud Object Storage サービス・インスタンスを作成します。
    ibmcloud resource service-instance-create noobaa-store cloud-object-storage standard global
    
  5. HMAC 資格情報を作成します。 自分の資格情報を書き留めてください。
    ibmcloud resource service-key-create cos-cred-rw Writer --instance-name noobaa-store --parameters '{"HMAC": true}'
    
  6. ibm-cloud-cos-creds 名前空間に、Object Storage HMAC 資格情報を使用する Kubernete シークレットを、openshift-storage という名前で作成します。 このコマンドを実行するときには、Object Storage HMAC のアクセス・キー ID とシークレット・アクセス・キーを指定します。 シークレットの名前は ibm-cloud-cos-creds にする必要があります。
    oc -n 'openshift-storage' create secret generic 'ibm-cloud-cos-creds' --type=Opaque --from-literal=IBM_COS_ACCESS_KEY_ID=<access_key_id> --from-literal=IBM_COS_SECRET_ACCESS_KEY=<secret_access_key>
    
  7. シークレットが作成されたことを確認します。
    oc get secrets -A | grep cos
    

オプション: Hyper Protect Crypto Services、または Key Protect

暗号化をセットアップする場合は、 Hyper Protect Crypto Services または Key Protectのインスタンスを作成します。 次に、ルート・キーと、 Hyper Protect Crypto Services または Key Protect の認証情報を使用する Kubernetes シークレットを作成します。

Hyper Protect Crypto Services または Key Protect の API キーには、少なくとも以下の権限が必要です。
Reader
Reader Plus
クラスター全体の暗号化とストレージ・クラスの暗号化を使用する場合は、API キーに以下の必要な許可がなければなりません。
Reader
Reader Plus
Writer
  1. Hyper Protect Crypto Services または Key Protect サービス・インスタンスを作成します。

  2. ルート鍵を作成します。

  3. インスタンスとルート・キーを作成したら、 Hyper Protect Crypto Services または Key Protect インスタンス名、インスタンスID、ルート・キーID、パブリック・エンドポイントをメモしておく。

  4. Hyper Protect Crypto Services と Red Hat OpenShift on IBM Cloud または Key Protect と Red Hat OpenShift on IBM Cloudのいずれかへのアクセスを許可する サービス IDAPI キー、および アクセス・ポリシー を作成します。 作成した API をメモします。

  5. プライベート・クラスター: KMS インスタンスへのアクセスを許可する仮想プライベート・エンドポイント・ゲートウェイを作成します。 VPC 内の各サブネットから少なくとも 1 つの IP アドレスを VPE にバインドしてください。

Red Hat OpenShift クラスターにアクセスします

  1. 名前空間をリストして、openshift-storage 名前空間があるかどうかを判別します。 openshift-storage 名前空間がない場合は、作成します。
    oc get namespaces | grep openshift-storage
    
    1. クラスター内に openshift-storage 名前空間を作成します。 ドライバー・ポッドは、この名前空間にデプロイされます。 以下の YAML をコピーし、os-namespace.yaml という名前でローカル・マシンに保存します。
      apiVersion: v1
      kind: Namespace
      metadata:
        labels:
          openshift.io/cluster-monitoring: "true"
        name: openshift-storage
      
    2. 保存した YAML ファイルを使用して、openshift-storage 名前空間を作成します。
      oc create -f os-namespace.yaml
      
    3. 名前空間が作成されたことを確認します。
      oc get namespaces | grep storage
      
  2. ルート鍵の ID と、base64 に対して作成したサービス ID の API キーの両方をエンコードします。
    printf "ROOT-KEY-ID" | base64
    
    printf "SERVICE-ID-API-KEY" | base64
    
  3. Hyper Protect Crypto Services 資格情報を使用する openshift-storage 名前空間に Kubernetes シークレットを作成します。
    1. 以下のシークレットを ibm-hpcs-secret.yaml という YAML ファイルとして保存します。
      apiVersion: v1
      data:
        IBM_KP_CUSTOMER_ROOT_KEY: AaAAAaZAAAAy11AAAyAAkaAaQtAAk0AAA2AzY5AjYaaa67aa # your base64 encoded root key ID
        IBM_KP_SERVICE_API_KEY: AAAaaajAAAAAncmAAaaaaAAAAdAAId1AtVjBJRU1aAAaAeTh1aEw=AaaaA # your base64 encoded API
      kind: Secret
      metadata:
        name: ibm-hpcs-secret
        namespace: openshift-storage
      type: Opaque
      
    2. クラスター内にシークレットを作成します。
      oc apply -f ibm-hpcs-secret.yaml
      
  4. シークレットが作成されたことを確認します。
    oc get secrets -A | grep ibm-hpcs-secret
    

コンソールからの OpenShift Data Foundation アドオンのインストール

クラスターに ODF をインストールするには、以下の手順を実行します。

アドオンを有効にする前に、変更ログで最新バージョン情報を確認してください。 また、インストールオプションを理解するために、 パラメータリファレンスを確認して ください。

  1. コンソールから、アドオンをインストールするクラスタを選択します。
  2. OpenShift Data Foundationカードで、 Installをクリックする。 **「ODF のインストール (Install ODF)」**パネルが開きます。
  3. **「ODF のインストール (Install ODF)」**パネルで、ODF デプロイメントに使用する構成パラメーターを入力します。
課金タイプ
エッセンシャルまたはアドバンスドをご選択ください。 請求タイプについて詳しくは、 請求タイプ別のフィーチャー・サポート を参照してください。
ストレージ・クラス
使用するストレージ・クラスを入力する。
  • 仮想マシンを使用するVPCクラスタでは、 リモートプロビジョニングを選択して、 Block Storage for VPC を使用してODF用のボリュームを動的にプロビジョニングします。
  • Bare Metal Servers for VPC ワーカーノードを使用する VPC クラスタの場合は、「 ローカルストレージ 」を選択します。 ワーカーノードの利用可能なストレージデバイスを自動的に検出し、ODFで使用する場合は、 ローカルディスク検出を選択します。
OSD のストレージ・クラス名
ストレージボリュームのプロビジョニングに使用するストレージクラスの名前を入力します。
  • Bare Metal Servers for VPC ワーカーノードを持つ VPC クラスタの場合は、 localblock を選択します。
  • マルチゾーン・クラスタでは、 WaitForFirstConsumerVolumeBindingMode を持つストレージ・クラスを使用します。
  • ストレージ・クラスのリストについては、 ストレージ・クラス・リファレンスを 参照のこと。
OSDポッドサイズ
プロビジョニングするボリュームのサイズを入力します。 少なくとも 512Gi を入力してください。
ワーカー・ノード
ODFを配置するワーカーノードのノード名を入力します。 少なくとも 3 つのワーカー・ノード名を入力する必要があります。 ノード名を見つけるには oc get nodes コマンドを実行します。 Node の名前はカンマ区切りで、名前と名前の間にスペースを入れてはならない。 例えば、10.240.0.24,10.240.0.26,10.240.0.25 などです。 すべてのワーカー・ノードに ODF をデプロイする場合は、このフィールドをブランクのままにします。
必要 OSD ディスク数
各ワーカーノードにプロビジョニングするOSDディスク(アプリストレージ)の数を入力します。
クラスター暗号化を有効にする
ODFシステムポッドが使用するOSDボリュームを暗号化(クラスタ全体の暗号化)する場合は、このオプションを選択します。
ボリュームの暗号化を有効にする
アプリケーションボリューム(アプリストレージ)の暗号化を有効にする場合は、このオプションを選択します。
  • 「インスタンス名」 フィールドに、 Hyper Protect Crypto Services または Key Protect インスタンスの固有の名前を入力します。
  • 「インスタンス・タイプ」 フィールドに、暗号化インスタンスのタイプを入力します。
  • インスタンスID ]フィールドに、 Hyper Protect Crypto Services または Key Protect インスタンスID を入力します。 例: d11a1a43-aa0a-40a3-aaa9-5aaa63147aaa
  • シークレット名フィールドに、 Hyper Protect Crypto Services または Key Protect の認証情報を使用して作成したシークレットの名前を入力します。 例: ibm-hpcs-secret
  • Base URL フィールドに、 Hyper Protect Crypto Services または Key Protect インスタンスのパブリック・エンドポイントを入力します。 例: https://api.eu-gb.hs-crypto.cloud.ibm.com:8389
  • **「トークン URL」**フィールドに、https://iam.cloud.ibm.com/identity/token を入力します。
  1. 使用するパラメーターを入力したら、**「インストール」**をクリックします。

  2. アドオンのデプロイメントが完了するまで数分待ちます。 デプロイメントが完了すると、アドオンの状況は Normal - Addon Ready になります。

  3. インストールを検証します。 Red Hat OpenShift クラスターにアクセスします

  4. 以下のコマンドを実行して、ODF ポッドが実行されていることを確認します。

    oc get pods -n openshift-storage
    
次のステップ
ODF を使用するアプリをデプロイします

CLI からのアドオンのインストール

ibmcloud oc cluster addon enable コマンドを使用して、アドオンをインストールできます。

  1. VPC パラメーター・リファレンス を確認してください。 アドオンを有効にすると、オーバーライドしたい各パラメータに --param "key=value" オプションを指定して、デフォルト値をオーバーライドできます。

  2. Red Hat OpenShift クラスターにアクセスします

  3. openshift-data-foundation アドオン・バージョンをリストします。 デフォルト・バージョンを書き留め、インストールするバージョンを決定します。

    ibmcloud ks cluster addon versions
    
  4. アドオンを有効にする前に、変更ログで最新バージョン情報を確認してください。 アドオンは n+1 のクラスター・バージョンをサポートすることに注意してください。 たとえば、OCP 4.9 または 4.11 クラスタにアドオンのバージョン 4.10.0 をデプロイできます。 デフォルト以外のクラスタバージョンを使用している場合は、アドオンを有効にするときに --version オプションを指定する必要があります。

  5. アドオンのオプションを確認します。

    ibmcloud oc cluster addon options --addon openshift-data-foundation --version 4.15.0
    

    最高のパフォーマンスを得るには、 resourceProfile オプションを performance として指定することをお勧めします。 このオプションは、展開時のリソースの可用性に基づいて、より高いパフォーマンスレベルの達成に役立ちます。 resourceProfile オプションの詳細については、 Red Hat OpenShiftの パフォーマンスプロファイルを参照してください

    4.15.0のアドオンオプションの例

    Add-on Options
    Option                            Default Value
    osdStorageClassName               ibmc-vpc-block-metro-10iops-tier
    ocsUpgrade                        false
    billingType                       advanced
    autoDiscoverDevices               false
    hpcsBaseUrl                       <Please provide the KMS Base (public) URL>
    taintNodes                        false
    enableNFS                         false
    resourceProfile                   performance
    useCephRBDAsDefaultStorageClass   false
    clusterEncryption                 false
    hpcsEncryption                    false
    hpcsSecretName                    <Please provide the KMS secret name>
    encryptionInTransit               false
    disableNoobaaLB                   false
    osdSize                           512Gi
    numOfOsd                          1
    ignoreNoobaa                      true
    addSingleReplicaPool              false
    prepareForDisasterRecovery        false
    workerPool                        -
    odfDeploy                         true
    osdDevicePaths                    <Please provide IDs of the disks to be used for OSD pods if using local disks or standard classic cluster>
    workerNodes                       all
    hpcsServiceName                   <Please provide the KMS Service instance name>
    hpcsInstanceId                    <Please provide the KMS Service instance ID>
    hpcsTokenUrl                      <Please provide the KMS token URL>
    
  6. openshift-data-foundationアドオンを有効にします。 デフォルトのパラメータをオーバーライドしたい場合は、オーバーライドしたいパラメータごとに --param "key=value" オプションを指定する。 アドオンを有効にするときにストレージ・クラスターを作成しない場合は、まずアドオンを有効にしてから、後で CRD を作成してストレージ・クラスターを作成することができます。

    アドオン・バージョン 4.10、デフォルトのストレージ・クラスター設定、 performance リソース・プロファイル、暗号化 Hyper Protect Crypto Services を有効にしてデプロイするコマンド例。

    ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster-name> --version 4.15.0 --param "odfDeploy=true" --param "resourceProfile=performance" --param "hpcsTokenUrl=https://iam.cloud.ibm.com/identity/token" --param "hpcsEncryption=true" --param "hpcsBaseUrl=<hpcs-instance-public-endpoint>" --param "hpcsInstanceId=<hpcs-instance-id>" --param "hpcsServiceName=<hpcs-instance-name>" --param "hpcsSecretName=<hpcs-secret-name>"
    

    ODF アドオンのみをデプロイするコマンドの例。

    ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster_name> --version <version> --param "odfDeploy=false"
    

    デフォルトの構成パラメーターを使用して、ODF をデプロイし、ストレージ・クラスターを作成するコマンドの例。

    ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster_name> --version <version>
    

    osdSize パラメーターをオーバーライドしながら ODF をデプロイし、ストレージ・クラスターを作成するコマンドの例。

    ibmcloud oc cluster addon enable openshift-data-foundation -c <cluster_name> --version <version> --param "osdSize=500Gi"
    
  7. アドオンが Ready 状態であることを確認します。

    oc get storagecluster -n openshift-storage
    

    出力例:

    NAME                 AGE   PHASE   EXTERNAL   CREATED AT             VERSION
    ocs-storagecluster   53m   Ready              2023-03-10T12:20:52Z   4.11.0
    
  8. ibm-ocs-operator-controller-manager-***** ポッドが kube-system 名前空間で実行されていることを確認します。

    oc get pods -A | grep ibm-ocs-operator-controller-manager
    
  9. odfDeployfalse に設定してアドオンを有効にした場合は、 ODF カスタム・リソースを作成する 手順に従ってください。

Terraform からのアドオンのインストール

  1. Terraformプロバイダーファイルを作成する。 ファイルを Terraform ディレクトリーに保存します。 詳しくは、 Terraform IBM Cloud プロバイダーの資料を参照してください。

    Terraform プロバイダー・ファイルの例。

    terraform {
    required_providers {
        ibm = {
        source = "IBM-Cloud/ibm"
        version = "1.53.0"
        }
    }
    }
    
    provider "ibm" {
    region = "us-south"
    ibmcloud_api_key = "<api-key>"
    }
    
  2. ODF アドオン用の Terraform 構成ファイルを作成します。 ファイルを Terraform ディレクトリーに保存します。

    構成ファイルの例。

    ibmcloud_api_key = "" # Enter your API Key
    cluster = "" # Enter the Cluster ID
    region = "us-south" # Enter the region
    
    # For add-on deployment
    odfVersion = "4.12.0"
    
    # For CRD Creation and Management
    autoDiscoverDevices = "false"
    billingType = "advanced"
    clusterEncryption = "false"
    hpcsBaseUrl = null
    hpcsEncryption = "false"
    hpcsInstanceId = null
    hpcsSecretName = null
    hpcsServiceName = null
    hpcsTokenUrl = null
    ignoreNoobaa = "false"
    numOfOsd = "1"
    ocsUpgrade = "false"
    osdDevicePaths = null
    osdSize = "250Gi"
    osdStorageClassName = "ibmc-vpc-block-metro-10iops-tier"
    workerNodes = null
    
  3. CLI で、Terraform ディレクトリーにナビゲートします。

    cd <terraform_directory>
    
  4. コマンドを実行して、Terraform アクションを初期化および計画します。 計画の出力を調べて、正しいアクションが実行されていることを確認してください。

    terraform init
    
    terraform plan
    
  5. Terraform ファイルを適用してクラスターを作成します。 次に、 IBM Cloud コンソールにナビゲートして、クラスターがプロビジョニングされていることを確認します。

    terraform apply
    

ODF カスタム・リソースの作成

ストレージ・ボリュームの動的プロビジョニングを使用して、VPC クラスター内に ODF ストレージ・クラスターを作成するには、ストレージ・デバイスの詳細を指定するためのカスタム・リソースを作成します。

IBM Cloud Object Storage サービス・インスタンスをデフォルトのバッキング・ストアとして使用する場合は、サービス・インスタンスを作成したこと、また、クラスターに Kubernetes シークレットを作成したことを確認してください。 ODF の CRD をクラスターに作成すると、ODF が ibm-cloud-cos-creds という名前のシークレットを検索し、Object Storage の HMAC 資格情報を使用してデフォルトのバッキング・ストアをセットアップします。

  1. OcsCluster という名前のカスタム・リソース定義を作成します。 以下のカスタム・リソース定義ファイルのいずれかをローカル・マシンに保存し、先ほど作成したストレージ・クラスの名前を monStorageClassNameosdStorageClassName パラメータとして含めるように編集します。 OcsCluster の各パラメーターについて詳しくは、 パラメーターのリファレンスを参照してください。

    4.8 クラスター上のすべてのワーカー・ノードに ODF をインストールするためのカスタム・リソース定義の例。

    apiVersion: ocs.ibm.io/v1
    kind: OcsCluster
    metadata:
      name: ocscluster-vpc # Kubernetes resource names can't contain capital letters or special characters. Enter a name for your resource that uses only lowercase letters, numbers, `-` or `.`
    spec:
      osdStorageClassName: <osdStorageClassName> # Specify an ODF storage class with a waitForFirstConsumer volume binding mode
      osdSize: <osdSize> # The OSD size is the total storage capacity of your OCS storage cluster. Use at least 250Gi OSDs for production workloads.
      numOfOsd: 1
      billingType: advanced
      ocsUpgrade: false
    

    4.8 クラスター上の指定されたワーカー・ノードにのみ ODF をインストールするためのカスタム・リソース定義の例。

    apiVersion: ocs.ibm.io/v1
    kind: OcsCluster
    metadata:
      name: ocscluster-vpc # Kubernetes resource names can't contain capital letters or special characters. Enter a name for your resource that uses only lowercase letters, numbers, `-` or `.`
    spec:
      osdStorageClassName: <osdStorageClassName> # Specify an ODF storage class with a waitForFirstConsumer volume binding mode
      osdSize: <osdSize> # The OSD size is the total storage capacity of your OCS storage cluster. Use at least 250Gi OSDs for production workloads.
      numOfOsd: 1
      billingType: advanced
      ocsUpgrade: false
      workerNodes: # Specify the private IP addresses of the worker nodes where you want to install OCS.
        - <workerNodes> # To get a list worker nodes, run `oc get nodes`.
        - <workerNodes>
        - <workerNodes>
    
  2. ファイルを保存し、クラスターに OcsCluster カスタム・リソースを作成します。

    oc create -f <ocs-cluster-filename>.yaml
    
  3. OcsCluster が実行中であることを確認します。

    oc describe ocscluster ocscluster-vpc
    

    出力例

    Name:         ocscluster-vpc
    Namespace:    
    Labels:       <none>
    Annotations:  <none>
    API Version:  ocs.ibm.io/v1
    Kind:         OcsCluster
    Metadata:
        Creation Timestamp:  2021-03-23T20:56:51Z
    Finalizers:
      finalizer.ocs.ibm.io
    Generation:  1
    Managed Fields:
      API Version:  ocs.ibm.io/v1
      Fields Type:  FieldsV1
      fieldsV1:
        f:spec:
          .:
          f:billingType:
          f:monSize:
          f:monStorageClassName:
          f:numOfOsd:
          f:ocsUpgrade:
          f:osdSize:
          f:osdStorageClassName:
      Manager:      oc
      Operation:    Update
      Time:         2021-03-23T20:56:51Z
      API Version:  ocs.ibm.io/v1
      Fields Type:  FieldsV1
      fieldsV1:
        f:metadata:
          f:finalizers:
            .:
            v:"finalizer.ocs.ibm.io":
        f:status:
          .:
          f:storageClusterStatus:
      Manager:         manager
      Operation:       Update
      Time:            2021-04-09T23:12:02Z
    Resource Version:  11372332
    Self Link:         /apis/ocs.ibm.io/v1/ocsclusters/ocscluster-vpc
    UID:               aa11a1a1-111f-aace-afac-1fa1afe1111a
    Spec:
      Billing Type:            hourly
      Mon Size:                20Gi
      Mon Storage Class Name:  ibmc-vpc-block-10iops-tier
      Num Of Osd:              1
      Ocs Upgrade:             false
      Osd Size:                250Gi
      Osd Storage Class Name:  ibmc-vpc-block-10iops-tier
    Status:
      Storage Cluster Status:  
    Events:                    <none>
    
  4. ODF を使用するアプリをデプロイします

ODF のスケーリング

numOfOsd 設定値を増加させて、ODF 構成を拡張できます。 OSD の数を増やすと、ODF は ODF クラスターの各ワーカー・ノードに、その数のディスクをプロビジョンします (各ディスクの容量は同じ osdSize (GB))。 ただし、アプリケーションで使用可能なストレージ総量は、osdSizenumOfOsd を乗算した値に等しくなります。

OpenShift Data Foundation のスケーリング。
ワーカー・ノードの数 初期 osdSize numOfOsd アプリケーションで使用可能なストレージ容量 プロビジョンされたディスクのストレージ総量
3 250Gi 1 250Gi 750Gi
3 250Gi 2 500Gi 1500Gi
3 250Gi 3 750Gi 2250Gi
3 250Gi 4 1000Gi 3000Gi

numOfOsd の増加によるスケーリング

Red Hat OpenShift クラスターにアクセスします

  1. OcsCluster カスタム・リソースの名前を取得します。

    oc get ocscluster
    
  2. OcsCluster カスタム・リソースの YAML ファイルを ocscluster.yaml という名前でローカル・マシンに保存します。

    oc get ocscluster ocscluster-vpc -o yaml
    
  3. numOfOsd パラメーターを増加させて、ocscluster CRD をクラスターに再適用します。

    oc apply -f ocscluster.yaml
    
  4. 追加の OSD が作成されたことを確認します。

    oc get pv
    

VPC クラスターにワーカー・ノードを追加して ODF を拡張する

ストレージ・クラスターのストレージ容量を増やすには、互換性のあるワーカー・ノードをクラスターに追加します。

  1. ワーカー・ノードを追加して、OCS 用のクラスターのワーカー・プールを拡張します。 ワーカー・ノードが ODF の要件を満たしていることを確認してください。 クラスターのすべてのワーカー・ノードに ODF をデプロイしていた場合は、新規ワーカー・ノードをクラスターに追加すると、そのワーカー・ノードに ODF ドライバーがインストールされます。

  2. OcsCluster カスタムリソースでプライベート <workerNodes> パラメータを指定してクラスタ内のワーカーノードのサブセットに ODF をデプロイした場合は、カスタムリソース定義を編集して新しいワーカーノードのノード名を ODF デプロイメントに追加できます。

    oc edit ocscluster ocscluster-vpc
    
  3. OcsCluster カスタム・リソース・ファイルを保存し、そのファイルをクラスターに再適用します。

制限

ODF のデプロイに関する以下の制限事項を確認してください。

Kubernetes リソース ID の文字数制限: Kubernetes PVC 名は 63 文字未満にする必要があります。 ODF をマルチゾーン VPC クラスターにデプロイし、retain などのメトロ ibmc-vpc-block-metro-retain-10iops-tier ストレージ・クラスを使用して ODF ストレージ・クラスターを作成する場合、このストレージ・クラスを使用して作成された対応する ODF デバイス・セットは失敗します。 詳しくは、Kubernetes 文字数制限が原因で ODF デバイス・セットの作成が失敗するを参照してください。

ストレージ・クラス・リファレンス

ODF ストレージ・クラスのリファレンス