Red Hat OpenShift AIアドオンのインストール
既存のクラスタに OpenShift AIアドオンをインストールするには、以下の手順に従います。
OpenShift AI オペレーターを新しいクラスターに展開しますか? IBM Cloud デプロイ可能なアーキテクチャーで OpenShift AI をお試しください。
考慮事項
アドオンを設定する前に、以下の点を確認してください。
- クラスタのバージョンは 4.16 以降でなければなりません。
- クラスタには少なくとも2つのワーカーノードが必要です。 各ワーカーノードには、最低でも 8vCPU と 32GB メモリが必要です。
- ワーカーノードはRHCOSオペレーティングシステムを使用する必要があります。
- OpenShift AIが提供するすべての機能を使用するには、少なくとも1つのGPUを推奨します。
- クラスタにはGPUノードと非GPUノードを混在させることができます。 ただし、この構成を使用する場合は、GPUノードのリソースを活用するために、必ずアプリをGPUノードにデプロイしてください。
開始前に
-
アカウントにログインします。 該当する場合は、適切なリソース・グループをターゲットにします。 クラスターのコンテキストを設定します。
-
オプション :まだお持ちでない場合は、 VPC Public Gateway を作成して ください。
-
OpenShift Pipelines、 Node Feature Discovery、または NVIDIA GPU 演算子 を OpenShift AI アドオンで使用する場合は、送信トラフィック保護を無効にする必要があります。 それらの演算子を使用したくない場合は、このステップをスキップしてください。
送信トラフィック保護を無効にすると、すべての外部ネットワーク接続が許可されます。 詳細は 、「VPCクラスターにおける送信トラフィック保護の管理 」を参照してください。
ibmcloud oc vpc outbound-traffic-protection disable --cluster CLUSTER
-
クラスタで OperatorHub を有効にします。
oc patch operatorhub cluster --type json -p '[{"op": "add", "path": "/spec/disableAllDefaultSources", "value": false}]'
ステップ1:カスタマイズオプションを選択
ポータブルな機械学習ワークフローを構築するためのデータパイプラインや、リソースを管理および拡張するためのツールなど、アドオンのインストールに含めるさまざまなオプションを指定することで、 Red Hat OpenShift AI プロジェクトを強化できます。 アップグレードポリシーと削除ポリシーもカスタマイズできます。
コマンドを実行して、すべてのオプションをリストアップする。 各オプションの詳細については、 OpenShift のAIカスタマイズオプション をご覧ください。 アドオンをインストールする際に特定のオプションを指定しない場合、デフォルト値が適用されます。
ibmcloud oc cluster addon options --addon openshift-ai
ステップ 2: 推奨される演算子を確認する
特定の OpenShift AI機能を使用する際に推奨される追加の演算子をインストールすることもできます。 クラスタにまだインストールされていない場合は、アドオンインストールに含めることができます。 または、 OperatorHub をご利用いただくか、オペレータ固有のインストール手順に従って、いつでもインストールすることができます。 これらのオペレータを使用するには、クラスタの 送信トラフィック保護を無効にする 必要があります。
お客様は、これらのオペレータの管理責任を負うものとし、これにはアップデート、監視、復旧、再インストールなどが含まれますが、これらに限定されません。
以下のオペレーターを推奨する。
これらのオペレータの中には、アドオンをインストールする際に指定できる追加のカスタマイズが含まれている場合があります。 推奨オペレータで利用可能なカスタマイズ の一覧を確認してください。
ステップ 3: CLI にアドオンをインストールする
Red Hat OpenShift AIアドオンをインストールするには、コマンドを実行します。 カスタマイズ を指定する際は、 --parameter PARAM=VALUE
の形式を使用してください。 例えば、Data Science Pipelinesオプションを含めるには、
--parameter oaiDataSciencePipelines=Managed
を指定します。
CLIでアドオンをインストールする際に推奨されるオペレータを含めるには、インストールコマンドを実行する際に次のオプションを指定します。
- OpenShift パイプライン:
--parameter pipelineEnabled=true
- Node 機能の発見:
--parameter nfdEnabled=true
- NVIDIA GPUオペレーター:
--parameter nvidiaEnabled=true
インストールコマンド。
ibmcloud oc cluster addon enable openshift-ai --cluster CLUSTER [-f] [--param PARAM] [-q] [--version VERSION]
アドオンのインストールコマンドの例。自動マイナーアップデートとパッチアップデート、Codeflare、Kserveが有効になっています。
ibmcloud oc cluster addon enable openshift-ai --cluster CLUSTER --param oaiInstallPlanApproval=Automatic --param oaiCodeflare=Managed --param oaiKserve=Managed
ステップ1:推奨される演算子を確認する
特定の OpenShift AI機能を使用する際に推奨される追加の演算子をインストールすることもできます。 クラスタにまだインストールされていない場合は、アドオンインストールに含めることができます。 または、 OperatorHub をご利用いただくか、オペレータ固有のインストール手順に従って、いつでもインストールすることができます。 これらのオペレータを使用するには、クラスタの 送信トラフィック保護を無効にする 必要があります。
お客様は、これらのオペレータの管理責任を負うものとし、これにはアップデート、監視、復旧、再インストールなどが含まれますが、これらに限定されません。
以下のオペレーターを推奨する。
これらのオペレータの中には、アドオンをインストールする際に指定できる追加のカスタマイズが含まれている場合があります。 推奨オペレータで利用可能なカスタマイズ の一覧を確認してください。
ステップ 2: UIにアドオンをインストールする
UIとともに Red Hat OpenShift AIアドオンをインストールします。
-
クラスターページに移動し、該当するクラスターをクリックします。
-
クラスタの詳細ページで、 アドオンのセクションを見つけます。 Red Hat OpenShift のAI オプションを見つけ、 インストールをクリックします。
-
「機能」セクションで、利用可能なアドオンカスタマイズオプションの説明を確認し、インストールに含めるオプションを有効にします。
-
追加推奨オペレータセクションで、各オペレータをクリックして展開し、追加するカスタマイズオプションを選択します。 これらの追加オペレーターとカスタマイズは、特定の Red Hat OpenShift AI機能に推奨されます。 これらのオプションは、 OperatorHub を使用するか、またはオペレータ固有のインストール手順に従うことで、後からインストールすることができます。
お客様は、これらのオペレータの管理責任を負うものとし、これにはアップデート、監視、復旧、再インストールなどが含まれますが、これらに限定されません。
-
**「インストール」**をクリックします。
OpenShift AIのカスタマイズオプション
OpenShift AIアドオンの利用可能なカスタマイズオプションを確認してください。
CLIで OpenShift AIアドオンをインストールする 際にオプションを含めるには、 ibmcloud oc cluster addon enable openshift-ai
を実行する際に --parameter PARAM=VALUE
形式でオプションを含めます。 例えば、Data Science Pipelines オプション付きのアドオンをインストールするには、 --parameter oaiDataSciencePipelines=Managed
を指定します。
OpenShift AIアドオンをUIとともにインストールする際 にオプションを含めるには、プロンプトが表示されたらオプションを有効にするためにクリックします。
カスタマイズ | CLIパラメータ | 説明 | CLIの値 | デフォルト値 |
---|---|---|---|---|
OpenShift AI承認方針 | oaiInstallPlanApproval |
マイナーアップデートとパッチアップデートを自動または手動で適用します。 | Automatic またはManual |
Automatic |
OpenShift AI削除ポリシー | oaiDeletePolicy |
アドオンを削除する場合は、アドオンによってインストールされたオペレータまたはコンポーネントを保持するか削除します。 | Retain またはDelete |
Retain |
データハブダッシュボードを開く | oaiDashboard |
コンポーネントを有効または無効にする。 有効化されている場合、 OpenShift AIプラットフォームによって管理されます。 | Managed Removed を有効にするには無効にする |
Managed (有効) |
クエ | oaiKueue |
コンポーネントを有効または無効にする。 有効化されている場合、 OpenShift AIプラットフォームによって管理されます。 | Managed Removed を有効にするには無効にする |
Managed (有効) |
コードフレア | oaiCodeflare |
コンポーネントを有効または無効にする。 有効化されている場合、 OpenShift AIプラットフォームによって管理されます。 | Managed Removed を有効にするには無効にする |
Managed (有効) |
ModelMesh サービング | oaiModelmeshserving |
コンポーネントを有効または無効にする。 有効化されている場合、 OpenShift AIプラットフォームによって管理されます。 | Managed Removed を有効にするには無効にする |
Managed (有効) |
ワークベンチ | oaiWorkbenches |
コンポーネントを有効または無効にする。 有効化されている場合、 OpenShift AIプラットフォームによって管理されます。 | Managed Removed を有効にするには無効にする |
Managed (有効) |
データサイエンスパイプライン | oaiDataSciencePipelines |
コンポーネントを有効または無効にする。 有効化されている場合、 OpenShift AIプラットフォームによって管理されます。 | Managed Removed を有効にするには無効にする |
Managed (有効) |
Kサーブ | oaiKserve |
コンポーネントを有効または無効にする。 有効化されている場合、 OpenShift AIプラットフォームによって管理されます。 | Managed Removed を有効にするには無効にする |
Managed (有効) |
Ray | oaiRay |
コンポーネントを有効または無効にする。 有効化されている場合、 OpenShift AIプラットフォームによって管理されます。 | Managed Removed を有効にするには無効にする |
Managed (有効) |
推奨オペレーターのカスタマイズ
インストール時に追加できる 推奨オペレータ とオプションのカスタマイズを確認します。
CLIで OpenShift AIアドオンをインストールする 際に、オペレータ用のカスタマイズを含めるには、 ibmcloud oc cluster addon enable openshift-ai
を実行する際に --parameter PARAM=VALUE
形式でオプションを含めます。 例えば、 NVIDIA オペレータ用の NVIDIA GPUDirect Storage カスタマイズを含めるには、 --parameter nvidiaGpuDirectStorageEnabled=true
を指定します。
OpenShift AIアドオンをUIとともにインストールする際 に、オペレータ用のカスタマイズを含めるには、指示に従ってオプションを有効にするためにクリックします。
カスタマイズ | CLIパラメータ | 説明 | CLIの値 | デフォルト値 |
---|---|---|---|---|
NDF削除ポリシー | nfdDeletePolicy |
OpenShift AIアドオンを削除する場合は、演算子を保持するか削除します。 | Retain またはDelete |
Retain |
NVIDIA 削除ポリシー | nvidiaDeletePolicy |
OpenShift AIアドオンを削除する場合は、演算子を保持するか削除します。 | Retain またはDelete |
Retain |
NVIDIA サンドボックスのワークロード | nvidiaSandboxWorkloads |
サンドボックスの作業負荷に必要な追加オペランドの管理を有効にします。 | true (有効) (無効)false |
true (有効) |
NVIDIA DCGM Hostengine 展開 | nvidiaDcgmEnabled |
NVIDIA DCGM hostengine を独立したポッドとしてデプロイできるようにします。 | true (有効) (無効)false |
true (有効) |
NVIDIA vGPU マネージャー | nvidiaVgpuManagerEnabled |
NVIDIA vGPU Managerを有効にする。 | true (有効) (無効)false |
true (有効) |
NVIDIA VFIOマネージャー | nvidiaVfioManagerEnabled |
VFIO-PCI を展開するための設定を有効にするには、VFIOManager を有効にします。 | true (有効) (無効)false |
true (有効) |
NVIDIA Node ステータス・エクスポーター | nvidiaNodeStatusExporterEnabled |
Node ステータス・エクスポーターを有効にする。 | true (有効) (無効)false |
true (有効) |
NVIDIA サンドボックス・デバイス・プラグイン | nvidiaSandboxDevicePluginEnabled |
NVIDIA Sandbox Device Pluginを有効にします。 | true (有効) (無効)false |
true (有効) |
NVIDA MIG マネージャー | nvidiaMigManagerEnabled |
NVIDIA MIG Managerを有効にします。 | true (有効) (無効)false |
true (有効) |
NVIDIA vGPU デバイスマネージャー | nvidiaVgpuDeviceManagerEnabled |
NVIDIA vGPU デバイスマネージャーを有効にします。 | true (有効) (無効)false |
true (有効) |
NVIDIA GPUDirectストレージ | nvidiaGpuDirectStorageEnabled |
GPUDirectストレージを有効にする。 | true (有効) (無効)false |
true (有効) |
NVIDIA CUDAのテスト | nvidiaCudaTest |
NVIDIA CUDA テストを有効にします。 | true (有効) (無効)false |
false (無効) |
パイプライン運営者削除ポリシー | pipelineDeletePolicy |
OpenShift AIアドオンを削除する場合は、演算子を保持するか削除します。 | Retain またはDelete |
次のステップ
- OpenShift AIアドオンの管理 に関する情報をご覧ください。
- OpenShift AIアドオンの アップデートプロセス を理解していることを確認してください。