AI、IoT、および機械学習用のエッジ環境
IoT (Internet of Things) デバイスの近くのエッジにデプロイされたコンピュート・インフラストラクチャー上に、IBM Cloud Satellite® クラスターを備えた Red Hat OpenShift ロケーションを作成します。 これにより、ご使用のアプリが、Satellite ロケーションを経由して一連の IBM Cloud 人工知能 (AI) および機械学習サービスにアクセスできるようになり、データがある場所にかかわらずデータの価値を最大化することが可能になります。
IBM Cloud での一般的なエッジ・ワークロードの課題の解決
エッジ・ワークロードの一般的な課題には、機械学習モデルのトレーニングや、予測モデル推論の使用などがあります。 Satellite を使用すると、エッジ・ワークロードが実際に実行される場所でこれらの課題に対処できる、IBM Cloud サービスにアクセスできます。
- 機械学習モデルのトレーニング
- 機械学習モデルのトレーニングには、通常、メモリー、GPU、およびストレージ用の重要な計算リソースが含まれます。 トレーニング・モデル・ソフトウェアをコンピュート・インフラストラクチャーにインストールして管理する代わりに、コンピュート・インフラストラクチャーを Satellite ロケーションに追加することができます。 そうすることで、データ分析およびモデル・トレーニング用の IBM Cloud Pak® for Data や Watson Studio などのツールを含む IBM Watson® Machine Learning にアクセスできます。 クラウド・サービスとしてこれらのツールにアクセスすることにより、ソフトウェアのインストールと管理が単純化されます。 基盤となるインフラストラクチャー・プロバイダーに関係なく、すべてのエッジ・インフラストラクチャーで同じクラウド・サービスを使用することもできます。
- モデルの推論
- モデルの推論は、トレーニングされたモデルを使用して、エッジ環境から予測を行い、異常を検出し、データをカテゴリー化するタスクです。 メモリー、ストレージ、および待ち時間の要件のために、モデル推論は、IoT センサーや他のデータ・ソースに可能な限り近い方が効果的に実行されます。 マネージド Red Hat OpenShift クラスターを使用して、エッジ環境にデータを配置する Satellite ロケーションを作成できます。 その後、Red Hat™ OpenShift™ Serverless™ などのサーバーレス・プログラミング・モデルをセットアップして、REST インターフェースを備えた簡素化されたプログラミング・モデルを提供し、トレーニングされたモデルを照会して予測を生成することができます。
Satellite を使用したエッジ・ソリューションのセットアップ
エッジ環境の課題に対して、多数のソリューションをセットアップして解決することは可能です。しかし、Satellite を使用することにより、異なる複数の環境にまたがって、一貫性のあるスケーラブルなエクスペリエンスを提供できます。 セットアップの例を以下に示します。
- 使用するデータのための機械学習とモデル・トレーニングをセットアップします。
- サーバーレス・コンポーネントを備えた Satellite をエッジ環境にデプロイします。
- エッジでモデル推論を実行します。
ステップ 1: 使用するデータのためのデータの機械学習とモデル・トレーニングのセットアップ
AI モデル開発者として、IBM Cloud で機械学習および AI ツールを使用してエッジ・データを準備します。 開始する前に、Watson Studio アカウントや Machine Learning などで、IBM Cloud インスタンスおよび IBM Cloud Pak for Data インスタンスにアクセスできる必要があります。
- トレーニング・データを IBM Cloud Object Storage にアップロードします。
- を使用する。 Watson Studio と Machine Learning を使用して、 IBM Cloud Object Storage から学習データを取得し、データを分析し、 TensorFlow, Keras SciKit-Learn, またはその他の一般的な機械学習アルゴリズムでモデルを学習します。
トレーニングされたモデルは、データがエッジ環境のストレージ・スペースを占有しないように、IBM Cloud Object Storage に再び保存されます。
ステップ 2: サーバーレス・コンポーネントを備えた Satellite のエッジ環境へのデプロイ
エッジ環境のシステム管理者として、サーバーレス・ツールを有効にして、エッジでのモデル推論を単純化します。
- エッジコンピューティング・インフラストラクチャー上に Satellite ロケーションを作成します。
- Satellite ロケーションに 管理対象 Red Hat OpenShift クラスターを作成します 。
- Red Hat OpenShift Web コンソールにアクセスします。
- OperatorHub, を使って 、 Red Hat OpenShift サーバーレス・オペレーターをインストールする。
- Knative Serving Operator をインストールします。
サーバーレス・コンポーネントを備えた Satellite がデプロイされました。
ステップ 3: エッジでのモデル推論の実行
AI 開発者として、エッジ管理者がセットアップしたサーバーレス処理を使用して、エッジ・データに対してモデル推論を実行します。
- トレーニングされたモデルを IBM Cloud Object Storage からローカル開発環境にダウンロードします。
- Knative 準拠のコンテナー・イメージを作成します。
- イメージのデプロイ を、 Satellite クラスターで稼働する Red Hat OpenShift Serverless プロセッサーに追加します。
開発者視点では Red Hat OpenShift ウェブコンソールを、 Satellite Serverless では
kn
コマンドラインツールを使用することができる。
これで、管理対象の Satellite ロケーションがエッジ環境で実行され、AI でトレーニングされたモデルと Red Hat OpenShift Serverless を使用してエッジ・データのオンデマンド・モデル推論を実行できます。