IBM Cloud Docs
既知の問題

既知の問題

既知の問題は、その問題が識別されたリリースごとにリストされています。

IBM Cloud Pak for Data IBM Software Hub

このトピックで説明する既知の問題は、インストール済みのデプロイメントにのみ適用されます。

5.1.x リリース

Watson Discoveryの制限事項と既知の問題 を参照してください。

5.0.x リリース

Watson Discoveryの制限事項と既知の問題 を参照してください。

4.8.x リリース

Watson Discoveryの制限事項と既知の問題 を参照してください。

4.7.x リリース

Watson Discoveryの制限事項と既知の問題 を参照してください。

4.6.x リリース

Watson Discoveryの制限事項と既知の問題 を参照してください。

4.5.x リリース

Watson Discoveryの制限事項と既知の問題を参照してください。

4.0.x リリース

既知の問題について詳しくは、 IBM Cloud Pak for Data の資料を参照してください。

4.0.9 2022年5月25日

  • Discovery は、データ保護 (OADP) バックアップおよびリストア・ユーティリティー用の IBM Cloud Pak for Data Red Hat OpenShift API の部分的な障害状況メッセージを生成します。

    • エラー: Discovery がインストールされているクラスタのバックアップに OADP バックアップユーティリティを使用した後、そのステータスを確認すると、 Phase: PartiallyFailed のメッセージが表示されます。 Failed のリストには、1つ以上の Discovery コンポーネントが含まれています。
    • 原因: Discovery は、 OADP のバックアップおよび復元ユーティリティを使用してバックアップおよび復元することができません。 Discovery サービスが存在し、管理者が IBM Cloud Pak for Data インスタンス全体をバックアップすると、一部の障害を示すステータスメッセージが表示されます。 このステータスは、 Discovery の永続ボリューム要求(PVC)がバックアップされていないために表示されます。 ただし、このメッセージは残りのサービスのバックアップには影響しません。
    • 解決策: 状況メッセージを解決するためのアクションは不要です。 ディスカバリー・サービスに関連付けられている永続ボリューム要求は個別に削除できます。 スクリプトを使用してディスカバリー・サービス・データをバックアップした後、ディスカバリー・サービスのアンインストール手順に記載されている手順に従って PVC を削除できます。 ディスカバリーに関連付けられた PVC を削除する方法について詳しくは、ディスカバリー・サービスのアンインストールを参照してください。

4.0.8 2022年4月27日

  • システム管理者以外の者がアップグレードを実行すると、wd-discovery-multi-tenant-migrationジョブは失敗します。

    • エラー :admin以外のユーザーIDでアップグレードすると、移行ジョブが失敗します。

    • 原因: 移行スクリプトは、管理ユーザーIDを持つユーザーによって実行されることを前提としています。

    • 解決策: マイグレーションを成功させるためのパッチを適用します。 以下のステップを実行します。

      1. Cloud Pak for Data ウェブクライアントから、アップグレードしたいインスタンスのオーナーのユーザーIDを取得します。

      2. Watson Developer Cloud GitHub リポジトリーからwd-migration-uid-patch.zipパッチ・ファイルをダウンロードします。

      3. アーカイブファイルからファイルを抽出 wd-migration-uid-patch.yaml アーカイブファイルからファイルを抽出し、テキストエディタで開きます。

      4. <user_id>変数を、アップグレードするインスタンスの所有者のユーザー ID に置換します。

      5. クラスターにログインしている端末で以下のコマンドを実行します。

        oc create -f wd-migration-uid-patch.yaml
        
      6. 以下のコマンドを使用して、以前のマイグレーション・ジョブを削除します。

        oc delete job wd-discovery-multi-tenant-migration
        

    ジョブが削除されると、マイグレーション・ジョブが再開され、マイグレーションが再開されます。

    この問題は、 4.0.9 リリースで修正されました。

  • Discovery は、 IBM Cloud Pak for Data OpenShift® APIs for Data Protection (OADP) バックアップおよびリストア・ユーティリティーの部分的な障害状況メッセージを生成します。

    • エラー: Discovery がインストールされているクラスタのバックアップに OADP バックアップユーティリティを使用した後、そのステータスを確認すると、 Phase: PartiallyFailed のメッセージが表示されます。 Failed のリストには、1つ以上の Discovery コンポーネントが含まれています。
    • 原因: Discovery は、 OADP のバックアップおよび復元ユーティリティを使用してバックアップおよび復元することができません。 Discovery サービスが存在し、管理者が IBM Cloud Pak for Data インスタンス全体をバックアップすると、一部の障害を示すステータスメッセージが表示されます。 このステータスは、 Discovery の永続ボリューム要求(PVC)がバックアップされていないために表示されます。 ただし、このメッセージは残りのサービスのバックアップには影響しません。
    • 解決策: 状況メッセージを解決するためのアクションは不要です。 ディスカバリー・サービスに関連付けられている永続ボリューム要求は個別に削除できます。 スクリプトを使用してディスカバリー・サービス・データをバックアップした後、ディスカバリー・サービスのアンインストール手順に記載されている手順に従って PVC を削除できます。 ディスカバリーに関連付けられた PVC を削除する方法について詳しくは、ディスカバリー・サービスのアンインストールを参照してください。

4.0.7 2022年3月30日

  • Discovery は、 IBM Cloud Pak for Data OpenShift® APIs for Data Protection (OADP) バックアップおよびリストア・ユーティリティーでエラーを生成します。

    • エラー: ユーティリティーが正常に完了せず、以下のメッセージがログに書き込まれます。 preBackupViaConfigHookRule on backupconfig/watson-discovery in namespace cpd (status=error)

    • 原因: Discovery は、 OADP のバックアップおよび復元ユーティリティを使用してバックアップおよび復元することができません。 Discovery サービスが存在し、管理者が IBM Cloud Pak for Data インスタンス全体をバックアップしようとすると、 Discovery が正常に完了するのを妨げます。

    • 解決策: Discovery がユーティリティの正常な完了を妨げるのを防ぐパッチを適用します。

      1. Watson Developer Cloud Github リポジトリーからwd-aux-br-patch.zipファイルをダウンロードします。

      2. ZIP ファイルからwd-aux-br-patch.yamlファイルを解凍します。

      3. クラスターにログインしている端末で以下のコマンドを実行します。

        oc create -f wd-aux-br-patch.yaml
        

    この問題は、 4.0.8 リリースで修正されました。 (ディスカバリー・サービスは、 OADP ユーティリティーを使用してバックアップすることはできませんが、 OADP ユーティリティーは、ディスカバリーのインストール時に他のサービスをバックアップすることができます。)

  • Deployed 4.0.7 のアップグレード完了後にリソースの状態が変動する。

    • エラー: oc get WatsonDiscoveryコマンドを実行依頼して状況を確認すると、リソースの作動可能状況が、23/23コンポーネントと20/23コンポーネントの使用準備完了の表示に切り替わります。

    • 原因: リソースの作動可能状態は、マイグレーション後に一貫して報告されません。

    • 解決策: 通常、インスタンスは、作動可能状態が不安定であるにもかかわらず、使用する準備ができています。 ステータス情報を手動で更新するには、クラスタにログインしたターミナルで以下のコマンドを実行します

      oc proxy &
      curl -ksS -X PATCH -H "Accept: application/json, */*" -H "Content-Type: application/merge-patch+json" http://127.0.0.1:8001/apis/discovery.watson.ibm.com/v1/namespaces/<namespace>/watsondiscoveries/wd/status --data '{"status": null}'
      

    この問題は、 4.0.8 リリースで修正されています。

  • システム管理者以外の者がアップグレードを実行すると、wd-discovery-multi-tenant-migrationジョブは失敗します。

    • エラー :admin以外のユーザーIDでアップグレードすると、移行ジョブが失敗します。

    • 原因: 移行スクリプトは、管理ユーザーIDを持つユーザーによって実行されることを前提としています。

    • 解決策: マイグレーションを成功させるためのパッチを適用します。 以下のステップを実行します。

      1. Cloud Pak for Data ウェブクライアントから、アップグレードしたいインスタンスのオーナーのユーザーIDを取得します。

      2. Watson Developer Cloud GitHub リポジトリーからwd-migration-uid-patch.zipパッチ・ファイルをダウンロードします。

      3. アーカイブファイルからファイルを抽出 wd-migration-uid-patch.yaml アーカイブファイルからファイルを抽出し、テキストエディタで開きます。

      4. <user_id>変数を、アップグレードするインスタンスの所有者のユーザー ID に置換します。

      5. クラスターにログインしている端末で以下のコマンドを実行します。

        oc create -f wd-migration-uid-patch.yaml
        
      6. 以下のコマンドを使用して、以前のマイグレーション・ジョブを削除します。

        oc delete job wd-discovery-multi-tenant-migration
        

    ジョブが削除されると、マイグレーション・ジョブが再開され、マイグレーションが再開されます。

    この問題は、 4.0.9 リリースで修正されました。

4.0.6 2022年3月1日

  • アップグレードプロセスを開始する前に、既存のクラスタに Discovery インスタンスがプロビジョニングされていない場合、 4.0.6 へのアップグレードは失敗します。

    • エラー: 4.0.6 のアップグレードプロセスでは、既存のクラスタに Discovery インスタンスがプロビジョニングされていることを前提としています。 例えば、4.0.5 から 4.0.6 にアップグレードする場合は、マイグレーションを開始する前に、4.0.5 クラスターにインスタンスをプロビジョンしておく必要があります。
    • 原因: マイグレーションする文書索引が見つからないためにインスタンスが存在しない場合、現行コードはエラーを返します。
    • 解決策: 4.0.6 へのアップグレードを開始する前に、既存の IBM Cloud Pak for Data クラスターに Discovery のインスタンスがプロビジョニングされていることを確認してください。 4.0.6 にアップグレードしようとしたが、プロビジョンされたインスタンスがなく、マイグレーションが失敗した場合は、既存のインストール済み環境を削除し、4.0.6 を最初からインストールします。
  • Deployed 4.0.6 のアップグレード完了後にリソースの状態が変動する。

    • エラー: oc get WatsonDiscoveryコマンドを実行依頼して状況を確認すると、リソースの作動可能状況が、23/23コンポーネントと20/23コンポーネントの使用準備完了の表示に切り替わります。

    • 原因: リソースの作動可能状態は、マイグレーション後に一貫して報告されません。

    • 解決策: 通常、インスタンスは、作動可能状態が不安定であるにもかかわらず、使用する準備ができています。 作動可能状態は約 5 時間後に落ち着きます。 23/23 が常に表示される状態になるまで待つか、クラスタにログインしたターミナルで以下のコマンドを実行して、ステータス情報を手動で更新することができます

      oc proxy &
      curl -ksS -X PATCH -H "Accept: application/json, */*" -H "Content-Type: application/merge-patch+json" http://127.0.0.1:8001/apis/discovery.watson.ibm.com/v1/namespaces/<namespace>/watsondiscoveries/wd/status --data '{"status": null}'
      

    この問題は、 4.0.8 リリースで修正されています。

  • Discovery は、 IBM Cloud Pak for Data OpenShift® APIs for Data Protection (OADP) バックアップおよびリストア・ユーティリティーでエラーを生成します。

    • エラー: ユーティリティーが正常に完了せず、以下のメッセージがログに書き込まれます。 preBackupViaConfigHookRule on backupconfig/watson-discovery in namespace cpd (status=error)

    • 原因: Discovery は、 OADP のバックアップおよび復元ユーティリティを使用してバックアップおよび復元することができません。 Discovery サービスが存在し、管理者が IBM Cloud Pak for Data インスタンス全体をバックアップしようとすると、 Discovery が正常に完了するのを妨げます。

    • 解決策: Discovery がユーティリティの正常な完了を妨げるのを防ぐパッチを適用します。

      1. Watson Developer Cloud Github リポジトリーからwd-aux-br-patch.zipファイルをダウンロードします。

      2. ZIP ファイルからwd-aux-br-patch.yamlファイルを解凍します。

      3. クラスターにログインしている端末で以下のコマンドを実行します。

        oc create -f wd-aux-br-patch.yaml
        

    この問題は、 4.0.8 リリースで修正されました。 (ディスカバリー・サービスは、 OADP ユーティリティーを使用してバックアップすることはできませんが、 OADP ユーティリティーは、ディスカバリーのインストール時に他のサービスをバックアップすることができます。)

  • システム管理者以外の者がアップグレードを実行すると、wd-discovery-multi-tenant-migrationジョブは失敗します。

    • エラー :admin以外のユーザーIDでアップグレードすると、移行ジョブが失敗します。

    • 原因: 移行スクリプトは、管理ユーザーIDを持つユーザーによって実行されることを前提としています。

    • 解決策: マイグレーションを成功させるためのパッチを適用します。 以下のステップを実行します。

      1. Cloud Pak for Data ウェブクライアントから、アップグレードしたいインスタンスのオーナーのユーザーIDを取得します。

      2. Watson Developer Cloud GitHub リポジトリーからwd-migration-uid-patch.zipパッチ・ファイルをダウンロードします。

      3. アーカイブファイルからファイルを抽出 wd-migration-uid-patch.yaml アーカイブファイルからファイルを抽出し、テキストエディタで開きます。

      4. <user_id>変数を、アップグレードするインスタンスの所有者のユーザー ID に置換します。

      5. クラスターにログインしている端末で以下のコマンドを実行します。

        oc create -f wd-migration-uid-patch.yaml
        
      6. 以下のコマンドを使用して、以前のマイグレーション・ジョブを削除します。

        oc delete job wd-discovery-multi-tenant-migration
        

    ジョブが削除されると、マイグレーション・ジョブが再開され、マイグレーションが再開されます。

    この問題は、 4.0.9 リリースで修正されました。

4.0.5 2022年1月26日

  • Discovery は、 IBM Cloud Pak for Data OpenShift® APIs for Data Protection (OADP) バックアップおよびリストア・ユーティリティーでエラーを生成します。

    • エラー: ユーティリティーが正常に完了せず、以下のメッセージがログに書き込まれます。 preBackupViaConfigHookRule on backupconfig/watson-discovery in namespace cpd (status=error)

    • 原因: Discovery は、 OADP のバックアップおよび復元ユーティリティを使用してバックアップおよび復元することができません。 Discovery サービスが存在し、管理者が IBM Cloud Pak for Data インスタンス全体をバックアップしようとすると、 Discovery が正常に完了するのを妨げます。

    • 解決策: Discovery がユーティリティの正常な完了を妨げるのを防ぐパッチを適用します。

      1. Watson Developer Cloud Github リポジトリーからwd-aux-br-patch.zipファイルをダウンロードします。

      2. ZIP ファイルからwd-aux-br-patch.yamlファイルを解凍します。

      3. クラスターにログインしている端末で以下のコマンドを実行します。

        oc create -f wd-aux-br-patch.yaml
        

    この問題は、 4.0.8 リリースで修正されました。 (ディスカバリー・サービスは、 OADP ユーティリティーを使用してバックアップすることはできませんが、 OADP ユーティリティーは、ディスカバリーのインストール時に他のサービスをバックアップすることができます。)

4.0.4 2021年12月20日

  • Discovery は、 IBM Cloud Pak for Data OpenShift® APIs for Data Protection (OADP) バックアップおよびリストア・ユーティリティーでエラーを生成します。

    • エラー: ユーティリティーが正常に完了せず、以下のメッセージがログに書き込まれます。 preBackupViaConfigHookRule on backupconfig/watson-discovery in namespace cpd (status=error)

    • 原因: Discovery は、 OADP のバックアップおよび復元ユーティリティを使用してバックアップおよび復元することができません。 Discovery サービスが存在し、管理者が IBM Cloud Pak for Data インスタンス全体をバックアップしようとすると、 Discovery が正常に完了するのを妨げます。

    • 解決策: Discovery がユーティリティの正常な完了を妨げるのを防ぐパッチを適用します。

      1. Watson Developer Cloud Github リポジトリーからwd-aux-br-patch.zipファイルをダウンロードします。

      2. ZIP ファイルからwd-aux-br-patch.yamlファイルを解凍します。

      3. クラスターにログインしている端末で以下のコマンドを実行します。

        oc create -f wd-aux-br-patch.yaml
        

    この問題は、 4.0.8 リリースで修正されました。 (ディスカバリー・サービスは、 OADP ユーティリティーを使用してバックアップすることはできませんが、 OADP ユーティリティーは、ディスカバリーのインストール時に他のサービスをバックアップすることができます。)

4.0.3 2021年11月18日

  • ガイド付きツアーは、このリリースでは使用できません。

  • Discovery は、 IBM Cloud Pak for Data OpenShift® APIs for Data Protection (OADP) バックアップおよびリストア・ユーティリティーでエラーを生成します。

    • エラー: ユーティリティーが正常に完了せず、以下のメッセージがログに書き込まれます。 preBackupViaConfigHookRule on backupconfig/watson-discovery in namespace cpd (status=error)

    • 原因: Discovery は、 OADP のバックアップおよび復元ユーティリティを使用してバックアップおよび復元することができません。 Discovery サービスが存在し、管理者が IBM Cloud Pak for Data インスタンス全体をバックアップしようとすると、 Discovery が正常に完了するのを妨げます。

    • 解決策: Discovery がユーティリティの正常な完了を妨げるのを防ぐパッチを適用します。

      1. Watson Developer Cloud Github リポジトリーからwd-aux-br-patch.zipファイルをダウンロードします。

      2. ZIP ファイルからwd-aux-br-patch.yamlファイルを解凍します。

      3. クラスターにログインしている端末で以下のコマンドを実行します。

        oc create -f wd-aux-br-patch.yaml
        

    この問題は、 4.0.8 リリースで修正されました。 (ディスカバリー・サービスは、 OADP ユーティリティーを使用してバックアップすることはできませんが、 OADP ユーティリティーは、ディスカバリーのインストール時に他のサービスをバックアップすることができます。)

4.0.0 2021年7月13日

  • 分析 API を使用して適用した機械学習モデルのエンリッチメントは、失敗する可能性があります。

    • エラー: [WKSML_MODEL_NAME]: Enrichment of a document failed
    • 原因: Watson Knowledge Studio には、エンリッチ処理のタイムアウトを引き起こす可能性がある既知の問題があります。
    • 解決策: 分析 API を使用して Watson Knowledge Studio モデル・エンリッチメントをコレクションに適用する場合は、入力文書のサイズを 50 KB 未満にしてください。

後続のリリースで修正された 2.2.1 の問題

  • [バージョン4で修正済み] IBM Watson® Knowledge Studio の機械学習強化機能をコレクションに追加すると、取り込みプロセスが非常に遅くなる場合がありますが、最終的には完了します。 取り込みプロセスに時間がかかり過ぎると、**「警告とエラー (Warnings and errors)」**に以下のエラー・メッセージが表示されることがあります。

    [WKSML_MODEL_NAME]: Document analysis timed out
    

    タイムアウトの詳細については、Knowledge Studio 機械学習ログを確認してください。以下のようなログが記録されます。

    {
      "message": "Analysis failed due to:
        org.apache.uima.analysis_engine.AnalysisEngineProcessException
        at c.i.n.b.SIREAnnotator.process(_:454)
      ... ",
      "level": "SEVERE",
    }
    

    処理中にタイムアウトになった文書は、Knowledge Studio エンリッチメント結果なしで索引付けされます。

2.2.1 2021年2月26日

  • デプロイメントのタイミングの問題:

    • エラー: パッチ 7 をインストールした後、サービス・インスタンスをプロビジョンしようとすると、 404 Not Found エラーが表示されます。 nginx ポッドについて、以下のメッセージがログに記録される場合があります。 open() "/usr/local/openresty/nginx/html/watson/common/discovery/auth" failed (2: No such file or directory)
    • 解決策: zen-watcher ポッドを再始動します。
  • 外部コンテナー・レジストリーからコンテナー・イメージをプルするエアギャップ・インストールを実行すると、以下の問題が発生する可能性があります。

    • エラー: 一部の Discovery ポッドが ImagePullBackoff エラーを報告する場合があります。

    • 原因: 誤ったイメージ・プル・シークレットが使用されています。

    • 解決策: インストール中に以下のステップを実行します。

      • Watson Discoveryのインストールを開始します。

      • watson-discovery-operator モジュールが完了したら、以下のコマンドを実行して、 WatsonDiscovery カスタム・リソースが作成されているかどうかを確認します。

        oc get WatsonDiscovery wd
        
      • カスタム・リソースが作成されたら、以下のコマンドを実行して、外部レジストリーからイメージをプルするための正しいイメージ・プル・シークレットを指定します。

        pull_secret=$(oc get secrets | grep 'docker-pull-.*-watson-discovery-registry-registry' | cut -d ' ' -f 1)
        cat << EOS > discovery-patch.yaml
        spec:
          shared:
            imagePullSecret: $pull_secret
        EOS
        oc patch wd wd --type=merge --patch "$(cat discovery-patch.yaml)"
        
      • RabbitMQ ポッドがまだ ImagePullBackoff の状態である場合は、 RabbitMQ CR を削除して、rabbitmq-operator が RabbitMQ クラスタを再作成できるようにします。 以下のコマンドを使用できます。

        oc delete IbmRabbitmq wd-rabbitmq
        
  • IBM Watson® Discovery の場合、Content Mining・プロジェクトは 1 プロジェクト当たり 1 つのコレクションしかサポートしていません。 複数のContent Mining・コレクションを作成すると、エラーが発生する場合があります。 エラーになった場合は、追加のContent Mining・コレクションを削除して、各Content Mining・プロジェクトの関連コレクションが 1 つだけになるようにしてください。

  • 2.2.0 から 2.2.1 にインスタンスをインプレース・アップグレードするために Discovery for Cloud Pak for Data クラスターを準備しているときに、cpd-cli adm コマンドが失敗し、Error from server (UnsupportedMediaType): error when applying patch というエラー・メッセージが表示されることがあります。 このエラー・メッセージを受け取ったら、oc delete scc cpd-zensys-scc cpd-user-scc cpd-noperm-scc edb-operator-scc admin-discovery-scc を入力して関連リソースを削除してから、cpd-cli adm コマンドを再入力してください。

  • Discovery for Cloud Pak for Data インスタンスを 2.2.0 から 2.2.1 にアップグレードするときに、ローリング更新の完了前に cpd-cli upgrade コマンドが完了することがあります。 アップグレードが正常に完了したかどうかを確認する方法については、アップグレードが正常に完了したかどうかの確認を参照してください。

  • Discovery 2.2.0 から 2.2.1 にアップグレードした後、鉄道模型の画像が更新されません。 この問題に対応するために、モデル・トレーニング・オペレーターが作成したデプロイメントをいったん削除し、オペレーターがデプロイメントを再作成するのを待ってください。 デプロイメントを削除するには、以下のコマンドを入力します。

    oc delete deploy -l 'app.kubernetes.io/managed-by=ibm-modeltrain'
    

    このコマンドの実行後に、モデル・トレーニング・オペレーターが新しいデプロイメントを作成します。

  • Discovery for Cloud Pak for Data を 2.2.0 から 2.2.1にアップグレードすると、以下のエラー・メッセージを受け取ることがあります。

    [ERROR] [2021-03-04 05:12:44-0657] Exiting due to error (Storage class is immutable. Module ibm-watson-gateway-operator x86_64 from Assembly portworx-shared-gp3 was installed with ibm-watson-gateway-operator x86_64, but new install/upgrade command is requesting portworx-db-gp3-sc. If you installed the assembly with a different storage class, please upgrade it individually.). Please check /ibm/cpd-cli-workspace/logs/CPD-2021-03-04T05-12-04.log for details
    [ERROR] 2021-03-04T05:12:44.659615Z Execution error:  exit status 1
    

    このエラー・メッセージは、インストールに使用されたストレージ・クラスが、アップグレード中に使用されたストレージ・クラスと異なるために生成されます。 異なるアドオンのストレージ・クラス依存関係オペレーターが、インストールに使用されたストレージ・クラス依存関係オペレーターとして記録されているため、この不一致は、異なるアドオンが依存関係オペレーターをインストールした結果として生じます。 この問題を回避するには、以下のサブアセンブリーを個別にアップグレードする必要があります。

    • Watson ゲートウェイ・オペレーターをアップグレードします。

      ./cpd-cli upgrade \
      --repo ./repo.yaml \
      --assembly ibm-watson-gateway-operator \
      --arch Cluster_architecture \
      --namespace <Project> \
      --transfer-image-to <Registry_location> \
      --cluster-pull-prefix <Registry_from_cluster> \
      --ask-pull-registry-credentials \
      --ask-push-registry-credentials
      
    • Minio オペレーターのアップグレード:

      ./cpd-cli upgrade \
      --repo ./repo.yaml \
      --assembly ibm-minio-operator \
      --namespace <Project> \
      --transfer-image-to <Registry_location> \
      --cluster-pull-prefix <Registry_from_cluster> \
      --ask-pull-registry-credentials \
      --ask-push-registry-credentials
      
    • RabbitMQ オペレーターをアップグレードします。

      ./cpd-cli upgrade \
      --repo ./repo.yaml \
      --assembly ibm-rabbitmq-operator \
      --namespace <Project> \
      --transfer-image-to <Registry_location> \
      --cluster-pull-prefix <Registry_from_cluster> \
      --ask-pull-registry-credentials \
      --ask-push-registry-credentials
      
    • etcd オペレーターをアップグレードします。

      ./cpd-cli upgrade \
      --repo ./repo.yaml \
      --assembly ibm-etcd-operator \
      --namespace <Project> \
      --transfer-image-to <Registry_location> \
      --cluster-pull-prefix <Registry_from_cluster> \
      --ask-pull-registry-credentials \
      --ask-push-registry-credentials
      
    • モデルのトレーニング・クラシック・オペレーターをアップグレードします。

      ./cpd-cli upgrade \
      --repo ./repo.yaml \
      --assembly modeltrain-classic \
      --arch Cluster_architecture \
      --namespace <Project> \
      --transfer-image-to <Registry_location> \
      --cluster-pull-prefix <Registry_from_cluster> \
      --ask-pull-registry-credentials \
      --ask-push-registry-credentials
      
    • Elasticsearch オペレーターをアップグレードします。

      ./cpd-cli upgrade \
      --repo ./repo.yaml \
      --assembly ibm-cloudpakopen-elasticsearch-operator \
      --namespace <Project> \
      --transfer-image-to <Registry_location> \
      --cluster-pull-prefix <Registry_from_cluster> \
      --ask-pull-registry-credentials \
      --ask-push-registry-credentials
      

      <Project> は、 Discovery for Cloud Pak for Data 2.2.0 インスタンスがインストールされている名前空間、 <Registry_location> は、レジストリサーバーにプッシュしたイメージの場所、 <Registry_from_cluster> は、クラスタ上のポッドがイメージをプルできる場所です。

  • IBM Cloud Pak for Data 3.5にインストールすると、以下の問題が発生する場合があります。

    • エラー: Planning Analytics が実行されているクラスターで Discovery サービスをプロビジョンしようとすると、一部の Discovery ポッドが開始せず、インストールが失敗します。 ポッドのログには、 java.lang.NumberFormatException: For input string などのメッセージが表示されます。
    • 原因: COUCHDB_PORT という名前の環境変数が、 Planning Analyticsとともにインストールされる couchdb サービスによって Kubernetes クラスターに追加されました。 Discovery は couchdb を使用しないため、この環境変数の値を指定しません。 ただし、一部のポッドが変数を解析しようとすると、エラーが発生します。
    • 解決策: パッチ cpd-watson-discovery-2.2.1-patch-1をインストールして、この問題を修正します。

過去の全リリースの問題も参照してください。

2.2 2020年12月8日

  • 小さな CSV ファイル (一般的には 99 行以下の CSV) をアップロードすると、ヘッダーまたは最初の行、あるいはその両方が正しく取り込まれないことがあります。 そうなった場合は、ツールの「CSV 設定 (CSV Settings)」タブにナビゲートし、設定を更新してください。 再処理を行った後、**「フィールドの管理 (Manage fields)」**タブにナビゲートし、必要に応じてフィールド・タイプを更新します。

  • IBM Cloud Pak for Data カスタムコネクタ で作成したカスタムクローラを使用してコレクションを設定し、その後カスタムクローラのデプロイメントを削除すると、[処理設定] ページにクローラ構成が表示されなくなります。 これは、基礎となるクローラーを使用できないからです。 この問題を回避するために、カスタム・クローラーを使用するコレクションがあるときにはカスタム・クローラーがデプロイされていることを確認してください。

  • IBM Cloud Pak for Data カスタム・コネクター を Discovery と共に IBM Cloud Pak for Data 2.2で使用すると、 scripts/manage_custom_crawler.sh スクリプトは失敗します。 この問題を回避するには、podname="gateway" の 37 行目の podname="wd-discovery-gateway"scripts/manage_custom_crawler.sh に置き換えてから、deploy コマンドを再実行します。

  • ツールでカスタム・エンリッチメントを作成する場合は、エンリッチメントを適用するフィールドを選択し、**「適用」をクリックする必要があります。 フィールドが選択されない場合は、新規エンリッチメントにフィールドが設定されるまで「適用して再処理 (Apply and reprocess)」**ボタンは無効になり、エンリッチメントを変更できません。

  • コレクションに 「契約(Contracts)」 エンリッチメントまたは 「表について(Understanding tables)」 エンリッチメントを適用すると、そのコレクションが文書を取り込むときに次のエラー・メッセージが表示される場合があります。 The number of nested documents has exceeded the allowed limit of [X].IBM サポート・センター に連絡して、制限を調整してください。

  • テキストがカスタム辞書でエンリッチされたときの entities.type の出力は、辞書エンリッチメントの絶対ファセット・パスでなければなりません。 しかし、このリリースでは、絶対ファセット・パスが表示されません。 これを回避するには、コレクションを再処理します。 例えば、ファセット・パスが sample1.sample2 の場合、再処理前は次のようになります。

    {
      "result" : {
        "enriched_text" : [
          {
            "entities" : [
              {
                "text" : "capital",
                "type" : "sample2",
                ...
                "model_name" : "Dictionary:.sample1.sample2"}
                ...
    

    再処理後は、次のようになります。

    {
      "result" : {
        "enriched_text" : [
          {
            "entities" : [
              {
                "text" : "capital",
                "type" : "sample1.sample2",
                ...
                "model_name" : "Dictionary:.sample1.sample2"}
                ...
    
  • コンバーターの設定を auto_detection=true に設定して CSV ファイルをアップロードすると、ツールの**「CSV 設定 (CSV settings)」**タブに正しくない設定が表示されます。 **「CSV 設定 (CSV settings)」**タブの設定を更新すると、auto_detectiontrue に設定されなくなります。

  • Smart Document Understanding (SDU) カスタム・モデルを使用して Office 文書 (「.doc」、「.docx」、「.odf」、「.xls」、「.xlsx」、「.ods」、「.ppt」、「.pptx」、「.odp」) を変換したときに、publicationdate が JSON 応答の extracted_metadata フィールドに表示されないことがあります。 代わりに、JSON 応答の html フィールドに表示されます。 publicationdate フィールドの html には、文書の元の公開日ではなく、文書が取り込まれた日が入ります。

  • 分析 API は、メモリー内のキャッシュを使用して、文書の実行に使用されるコレクションに関連付けられたエンリッチメント・モデルを保持します。 コレクションに大きなエンリッチメントが多数含まれていたり、それらのコレクションが同時に複数使用されたりすると、キャッシュのメモリーが不足することがあります。 そのような状況が発生すると、分析 API は null の結果を返し (例を参照)、ステートレス api rest プロキシーによって RESOURCE_EXHAUSTED: stateless.Analysis/analyze: RESOURCE_EXHAUSTED というメッセージがログに表示されます。

    {
      "result": null,
      "notices": null
    }
    

    この問題を回避するには、以下の手順を実行します。

    1. コレクションに使用されているエンリッチメントを確認し、アプリケーションに必要のないものは削除します。 特に、 品詞強化を削除します。

    2. 分析 API と同時に使用するコレクションの数を減らします。

    3. キャッシュ・メモリーを増やします。

      • container model-runtimedeployment core-discovery-stateless-api-model-runtime のメモリー制限を 10 GB 以上に増やします
      • CAPACITY_MB の環境変数 deployment core-discovery-stateless-api-model-runtime を編集し、10240 以上に設定します
  • モデル・ランタイム・コンテナーが再始動されたが、モデル・メッシュ・ランタイム・コンテナーが再始動されない場合、分析 API で問題が発生する可能性があります。

    • エラー: Analzye API 呼び出しは特定のコレクションで 500 エラーを返し、ログには以下の項目が含まれています。

      "message": "error occurred in analyzer
        java.lang.NullPointerException
        at c.i.e.a.a.s.r.ModelManager$2.analyze(ModelManager.java:112)
      
    • 原因: モデル・ランタイム・コンテナーとモデル・メッシュ・ランタイム・コンテナーが同期していません。

    • 解決策: wd-stateless-api-model-runtime ポッドを削除して、モデル・メッシュとモデル・ランタイム・コンテナーの両方を再始動します。

また、過去の全リリースで識別された問題も参照してください。

2.1.4 2020年9月2日:

  • FORM 認証を使用して Web クロールを構成する際に、末尾にスラッシュを付けずに URL を指定すると (例: https://webcrawlurl.com)、Web クロールでログイン・ページのみクロールされます。 この問題を回避するには、 URL の最後にスラッシュを追加します。例えば、 https://webcrawlurl.com/ のようにします。
  • Firefox でガイド付きツアーが稼働しません。 その他のサポートされているブラウザーのリストについては、ブラウザーのサポートを参照してください。
  • Watson Knowledge Studio で作成されたカスタム の高度なルールモデル を使用するコレクションにドキュメントを取り込む際に、モデル内の複数の抽出機能が1つ以上の出力ビューに同じ名前を内部的に使用していると、取り込みに失敗することがあります。
  • 多数の文書を削除した後に、多数の文書を即時に取り込むと、すべての文書が使用可能になるまでに時間がかかることがあります。
  • 「分類」 エンリッチメントは、FIPS (連邦情報処理標準) が有効になっていると機能しません。

また、過去の全リリースで識別された問題も参照してください。

後続のリリースで修正された 2.1.4 の問題

  • [バージョン 2.2] デプロイされたコンテンツ・マイニング・アプリケーションで、ファジー・マッチングを有効にするために波形記号 (~) を検索照会に含めるか、ワイルドカードを表すためにアスタリスク (*) 記号を含めると、検索のカスタマイズは適切に機能しますが、照会結果で一致するストリングが強調表示されません。
  • [バージョン 2.2 で修正]ツールの「フィールドの管理」タブ「インデックスに含める」フィールドを変更すると、変換エラーが発生することがある。 このエラーが発生すると、文書は索引付けされません。 この問題を回避するには、以下のようにします。
    1. oc edit sts core-discovery-converter

    2. containers- name: INGESTION_POD_NAME の間を次のように編集します。

      containers:
        - command:
          - bash
          - -c
          - |
            FILE=/opt/ibm/wex/zing/bin/converter.sh &&
            sed -i "/choreo_2.11-9.1.1.jar/d" $FILE &&
            sed -i "/disco-doc-conversion-commons_2.11-1.0.4.jar/d" $FILE &&
            sed -i "/jackson-module-scala_2.11-2.10.4.jar/d" $FILE &&
            sed -i "/macro-compat_2.11-1.1.1.jar/d" $FILE &&
            sed -i "/pureconfig-core_2.11-0.12.2.jar/d" $FILE &&
            sed -i "/pureconfig-generic-base_2.11-0.12.2.jar/d" $FILE &&
            sed -i "/pureconfig-generic_2.11-0.12.2.jar/d" $FILE &&
            sed -i "/pureconfig-macros_2.11-0.12.2.jar/d" $FILE &&
            sed -i "/pureconfig_2.11-0.12.2.jar/d" $FILE &&
            sed -i "/scala-guice_2.11-4.1.1.jar/d" $FILE &&
            sed -i "/scala-logging_2.11-3.7.2.jar/d" $FILE &&
            sed -i "/scalactic_2.11-3.0.5.jar/d" $FILE &&
            sed -i "/scalaj-http_2.11-2.3.0.jar/d" $FILE &&
            sed -i "/service-commons_2.11-22.1.0.jar/d" $FILE &&
            sed -i "/shapeless_2.11-2.3.3.jar/d" $FILE &&
            /opt/ibm/wex/zing/bin/entrypoint.sh /opt/ibm/wex/zing/bin/controller.sh
          env:
          - name: INGESTION_POD_NAME
      

      - command: から /opt/ibm/wex/zing/bin/entrypoint.sh /opt/ibm/wex/zing/bin/controller.sh に追加された行と、 - の削除。 env:

    3. 変更を保存します。 converter ポッドを再起動します。

2.1.3 2020年6月19日:

  • IBM Watson® Knowledge Studio 機械学習モデルの Entity Subtypes は、Discovery for Cloud Pak for Data 2.1.3 以降ではサポートされていません。 既存のモデルの変換方法については、 サポートセンターまでお問い合わせください。

  • ファイル名にスペースが含まれている CSV ファイル (例: file 1.csv) をコンテンツ・マイニング・プロジェクトにアップロードすることはできません。 この問題を回避するには、ファイル名を変更します。

  • プロジェクト・レベルの関連性トレーニングを実行する場合、コレクションが複数あり、それらのコレクションの 2 つ以上で document_id が重複していると、プロジェクト・レベルの関連性トレーニングは失敗します。 document_ids の重複例: ID が Collection A の文書が 1234 にあり、Collection B にも ID が 1234 の文書がある。

  • 接頭部が extracted_metadata であるフィールドを使用する最初のファセットのみが、作成後に正しく保存されます。 その接頭部を使用する他のファセットも表示されますが、画面を最新表示すると表示されなくなります。 これが起こるのは 1 つのプロジェクトで 1 回だけなので、ファセットを最新表示して再度追加することが回避策になります。

  • IBM Cloud Pak for Data IBM Cloud Pak® for Data へのインストール中に、一部の ジョブが としてステータスを誤って報告し、インストールがタイムアウトする原因となる場合があります。 2.5.0.0 Kubernetes OOMKilled これを解決するには、ジョブが OOMKilled を返したら、そのジョブに関連付けられたポッドのログを確認します。 明らかなエラー・メッセージはログにないはずであり、リソースは作成されたとログで報告されています。 それらのリソースが名前空間に存在することを手動で確認してから、そのジョブを削除してください。 これによりインストールが続行されます。

  • 文書によっては、エンリッチメントを適用するときに、html フィールドが 2 つ示される場合があります。 示される html フィールドはどちらも同じであり、そのまま作用します。

  • Firefox でデータ・ソースを作成するときに、**「その他の処理設定 (More processing settings)」**設定を含め、オプションのリスト全体が表示されない場合があります。 この問題を回避するには、ズームアウトするか、ブラウザーの高さを高くするか、サポートされている別のブラウザーを使用します。

  • 検索結果の表示をカスタマイズする場合、Applyボタンをクリックしても変更内容が保存されないことがあります。 この問題を回避するには、ブラウザーを最新表示して、変更を再試行してください。

  • コレクションのデータ・ソースまたは Web クローラーをセットアップするときに、誤った構成を入力して**「処理設定 (Processing settings)」ページで更新しようとした場合、Apply changes and reprocessボタンをクリックしてもデータ・ソースの更新やクロールが開始されないことがあります。 この問題を確認するには、コレクションの「アクティビティー (Activity)」**ページを開いて、処理が開始されたかどうかを確認します。 データ・ソースの処理が開始されていないことが分かったら、Recrawlボタンをクリックしてから、Apply changes and reprocessボタンをクリックします。 Web クロールの処理が開始されていないことが分かったら、Stopボタンをクリックしてから、Recrawlボタンをクリックします。

  • IBM Cloud Pak for Data Helm テストを 展開で を使用して実行すると、 は のステータスを返します。 core helm test core core-discovery-api-post-install-test FAILED これは、 test ポッドイメージ内のバグが原因です。 この場合の失敗はデプロイメント内のどれにも関係していないので、テスト結果は無視してもかまいません。

  • ツールを使用してoffプロジェクト・タイプを作成するとき、光学式文字認識 (OCR) はデフォルトで ** に設定されています。 ただし、API を使用してプロジェクトを作成すると、OCR は on に設定されます。 この問題を回避するには、ツールを開き、「プロジェクト設定 (Project setting)」**を off に変更します。

  • コレクションに関する光学式文字認識 (OCR) が on に設定されており、しかもトレーニングされた Smart Document Understanding (SDU) モデルが適用されていない場合、PNG、TIFF、JPG ファイルにはテキスト認識に関する処理が行われません。 PDF、Word、PowerPoint、Excel 文書に埋め込まれたイメージは処理されません。これらの文書のイメージ以外の部分に限り、テキスト認識に関する処理が行われます。 この問題を回避するには、SDU モデルをインポートするかトレーニングして、コレクションを再処理します。 こうすると、イメージからテキストを抽出できるようになります。

  • Watson Assistant で Search Skill を作成した後、Watson Discovery ツールに誘導されると、画面がブランクになります。 この問題は、URL に Discovery インスタンス ID が欠落しているために発生します。 この問題を回避するには、以下の手順を実行します。

    1. IBM Cloud Pak for Data Web クライアントのメニューから、**「マイ・インスタンス (My Instances)」**を選択します。 例: https://mycluster.com/zen/#/myInstances
    2. 使用している Discovery インスタンスを選択し 、Launch Tool をクリックします。
    3. ツールがロードされると、URL が https://mycluster.com/discovery/core/instances/00000000-0000-0000-0001-597165341876/projects という構造になっているはずです。
    4. /projects を除くパス全体をコピーします。 例えば:https://mycluster.com/discovery/core/instances/00000000-0000-0000-0001-597165341876
    5. Discovery の空白の画面を表示しているブラウザのタブに戻ります。 この URL の構造は https://mycluster.com/discovery/core/collections/new?redirect_uri=... のようになります。
    6. https://mycluster.com/discovery/core を以前にコピーした URL と置き換えます。新しい URL は https://mycluster.com/discovery/core/instances/00000000-0000-0000-0001-597165341876/collections/new?redirect_uri=... のようになるはずです。
    7. Enter キーを押して、更新された URL を開きます。 この時点で、Watson Discovery の**「コレクションの管理」**ページが表示されるはずです。

また、過去の全リリースで識別された問題も参照してください。

2.1.2 2020年3月31日

  • 韓国語、ポーランド語、日本語、スロバキア語、中国語でパッセージの取得を使用する場合、このバージョンでは、応答時間が遅くなる可能性があります。 これを解決するには、パッセージの取得を無効にするか、文書内でよく使われる単語 (前置詞や代名詞など) を入れたカスタム・ストップワード・リストをアップロードします。 いくつかの言語のサンプル・ストップワード・リストについては、ストップワードの定義を参照してください。 GitHubの ストップワード ISOも参照してください。

  • [更新:バージョン 2.1.3 で修正済み]。バージョン 2.1.2、 2.1.1、 2.1.0 では、PNG、TIFF、JPGの個々の画像ファイルはスキャンされず、これらのファイルからテキストは抽出されません。 PDF、Word、PowerPoint、Excel のファイルに埋め込まれている PNG、TIFF、JPEG のイメージもスキャンされず、それらの画像ファイルからは、テキストが抽出されません。

  • FIPS (連邦情報処理標準) が有効になっている場合には、Smart Document Understanding で .doc.docx.odf.xls.xlsx.ods.ppt.pptx、および .odp の変換はサポートされません。

  • Content Mining アプリケーションでは、そのコレクションに対して索引が再構築されると、文書フラグのセットはすべて消えます。

  • 2.1.2 リリース以降、v1 API を使用して関連性トレーニング・データをアップロードして管理しても、関連性トレーニング・モデルはトレーニングされません。 v1 のAPIは、 プロジェクト関連性のトレーニング v2 のAPI に置き換えられました。 トレーニング・データを保持する必要がある場合は、v1 API を使用してリストしてから、v2 API を使用してプロジェクトに追加することができます。

  • 複数の 正規表現 をコレクションに同時に適用することはできません。

  • IBM Cloud Pak for Data IBM Watson® Discovery for IBM Cloud Pak® for Data のダウンロードに含まれているインストール手順のREADMEに、2つの小さな変更がありました。 READMEの更新版については、 Discovery Helm chart README.md をご覧ください。

    • --cluster-pull-prefix PREFIX 引数の記述の変更。
    • 言語拡張パック名が ibm-watson-discovery-pack1-2.1.2.tar.xz. から ibm-wat-dis-pack1-prod-2.1.2.tar.xz に更新されました。

また、過去の全リリースで識別された問題も参照してください。

2.1.1 2020年1月24日

  • 辞書 を作成する際、提案された辞書用語はデフォルトで小文字に正規化されます(例えば、 Watson Assistant はwatson assistantに正規化されます)。 大文字表記の用語の一致を確実にするには、それらを Other terms リストの一部として、または Base term として明示的に含める必要があります。
  • データをバックアップしてリストアしても、トレーニング・データは正常にリストアされません。 コネクターまたは Web クロールを使用したクロールでコレクション内の文書が追加された場合は、既存のプロジェクトからトレーニング・データを別個にバックアップ用として取得し、リストアした新しいプロジェクトにアップロードすることができます。 詳細は、API リファレンスの 「トレーニングクエリの一覧」 および 「トレーニングクエリの作成」 を参照してください。
  • SharePoint Online 文書または SharePoint OnPrem 文書をクロールすると、JSON 文書が正しく索引付けされず、返される titleerrored になる場合があります。 これは、SharePoint Web サービスが ows_FileRef プロパティーを使用して JSON ファイルを取得するため、エラー・ページが返されるからです。 この問題を解決するには、SharePoint 管理者および Microsoft サポートに問い合わせてください。
  • バージョン 2.0.1 で作成されたコレクションをバージョン 2.1.0 または 2.1.1 のいずれかにマイグレーションすると、そのコレクションにプロジェクト・タイプが割り当てられず、コレクションを照会できません。 プロジェクト・タイプを割り当てるには、**「マイ・プロジェクト」を選択して「プロジェクト」**ページを開きます。 プロジェクトに名前を付け、いずれかのプロジェクト・タイプ (Document RetrievalConversational SearchContent Mining、または Custom) を選択します。

また、過去の全リリースで識別された問題も参照してください。

後続のリリースで修正された 2.1.1 の問題

  • [バージョン 2.1.2 で修正] Discovery for Cloud Pak for Data を OpenShift, にインストールする際、 classpath の互換性のない jar が原因で、 ranker-rest サービスが起動に失敗することがありました。 問題を修正するには、以下の手順を実行します。

    1. ranker-rest コマンドを使用して、kubectl edit deployment {release-name}-{watson-discovery}-ranker-rest エディターを開きます。

    2. エディターで、ranker-rest image を検索します (例: {docker-registry}/{namespace}/discovery-ranker-rest-service:20200113-150050-2-d1527c2)

    3. 次のコマンドを {docker-registry}/{namespace}/discovery-ranker-rest-service:20200113-150050-2-d1527c2 の下に追加します。

      command: ["/tini"]
      args: ["-s", "-v", "--", "java", "-Dkaryon.ssl=true", "-Dkaryon.port=9081", "-Dkaryon.ssl.port=9090", "-Dkaryon.ssl.certificate=/opt/bluegoat/karyon/ssl/karyon-cert.pem", "-Dkaryon.ssl.privatekey=/opt/bluegoat/karyon/ssl/karyon-private-key.pem", "-Djavax.net.ssl.trustStore=/opt/bluegoat/karyon/ssl/keystore.jks", "-Djavax.net.ssl.keyStore=/opt/bluegoat/karyon/ssl/keystore.jks", "-Dlog4j.debug=false", "-Dlitelinks.threadcontexts=log4j_mdc", "-Dwatson.ssl.truststore.path=/opt/bluegoat/karyon/ssl/litelinks-truststore.jks", "-Dwatson.ssl.truststore.password=watson15qa", "-Dlitelinks.delay_client_close=false", "-Drxnetty.http.maxcontentlength=314572800", "-cp", "lib/logback-classic-1.2.3.jar:*:lib/*", "com.ibm.watson.raas.rest.Runner"]
      

2.1.0 2019年11月27日

  • コレクションにエンリッチメントを適用する際、エンリッチメント言語はコレクション言語と一致していなければなりません。そうしないと失敗します。 言語に関係なく、ツールはすべてのコレクションを表示します。
  • 「フィールドの管理 (Manage Fields)」タブで、システム生成フィールドを編集できます。 document_idextracted_metadatametadata の各フィールドは、フィールド・タイプを変更したり索引付けをオフにしたりする編集をしないでください。
  • コレクションを削除するときにオプション Don't delete underlying data を選択した場合、未完了の文書取り込みクロールは既存のクロールが完了するまでバックグラウンドで実行され続け、新規クロール開始時刻に影響を与えることになります。
  • IBM Cloud Pak for Data Discovery コンポーネントがロック状態になることで、正しく起動できないことがあります。 ロックをクリアするには、手動によるデータベース介入が必要になる場合があります。 この問題の識別と解決について詳しくは、ロック状態のクリアを参照してください。
  • 「データのアップロード」機能を使用して文書をアップロードし、その文書を削除した後、同じ文書、または同じ文書 ID の別の文書をアップロードしようとすると、アップロードが失敗し、Error during creating a document というメッセージが表示されます。
  • 処理時に html フィールドを生成する文書は、関連性トレーニングでは使用できません。 Smart Document Understanding または Content Intelligenceで処理される文書に対して html が生成されます。 関連性トレーニングを正常に完了するためには、html フィールドを削除しておく必要があります。
  • 品詞強化機能が有効になっていない場合:動的ファセットは作成されず、辞書による提案を使用できず、 Content Miner 「抽出されたファセット」は生成されません。
  • [更新:バージョン 2.1.1 で修正済み]。 Discovery は Content Intelligence およびテーブル理解のエンリッチメント用に設定済み。 html という名前のフィールドに適用される。 ユーザーがルートレベルのフィールド名 html を持たないJSONドキュメントをアップロードした場合、これらの拡張機能はインデックスに結果を生成しません。 このような JSON 文書に対してエンリッチメントを実行するには、ユーザーは JSON 文書内の既存のフィールド (複数可) に対して実行されるようにエンリッチメントを再構成する必要があります。
  • Content Miner のデプロイ・ページを表示する際、アプリケーション URL 全体がコピー用に表示されないことがあります。 修正するには、ページを最新表示します。
  • [更新:バージョン 2.1.2 で修正済み] IBM Watson® Discovery for IBM Cloud Pak® for Data インスタンスのプロビジョニング解除では、そのインスタンスの基礎となるデータは削除されません。 コレクションと文書を手動で削除してください。
  • [更新:バージョン 2.1.3 で修正済み]。改善ツールパネルにエンリッチメント Sentiment of phrases がリストアップされていますが、現在は利用できません。
  • 「コンテンツ・マイニング (Content Mining)」プロジェクトでは、ファセットでの表示用に dates フィールドが正しく解析されない場合があります。
  • 「動的ファセット (Dynamic facets)」トグルは、「コンテンツ・マイニング (Content Mining)」プロジェクトでは表示されないはずです。
  • 生成された有効な動的ファセットを確認するには、最低でも 50 件から 100 件の文書を取り込む必要があります。
  • **「停止」**をクリックしてクローラーを停止しても、コンバーターの処理が遅かったり、コンバーターにエラーがあったりした場合、クローラー実行中という状況が表示されることがあります。
  • アップロードされた文書とクロールされた文書内の HTML ではないフィールドすべての合計サイズの制限は 1MB (1,048,576 バイトに相当) で、これらの文書内の HTML フィールドすべての合計サイズの制限は 5MB です。 どちらかの制限を超えると、The document has fields/HTML fields that exceed the 1 MB/5 MB limit.というエラー・メッセージが表示され、文書は取り込まれません。 いずれかのサイズ制限の引き上げに関するサポートが必要な場合は 、 IBM サポートセンターまでお問い合わせください。

また、過去の全リリースで識別された問題も参照してください。

2.0.1 2019年8月30日

  • IBM Watson® Knowledge Studio モデルを使用して機械学習エンリッチメントを作成した後、**「フィールドのエンリッチ (Enrich fields)」**ページに、完全に同じ名前の 2 つのエンリッチメントが表示される場合があります。 これはエンリッチメントには影響しませんが、それらの 1 つのみを使用してそのエンリッチメントを選択し、1 つ以上のフィールドに適用するのが最善です。
  • ウェブクロールが一定の文書数で処理が停止しているように見える場合、またログページに表示されるメッセージが The ingestion job <jobid> is terminated incorrectly の場合、クロールの再起動について IBM サポートまでお問い合わせください。
  • 1 つ以上のコレクションがトレーニングされた場合、それらのコレクションのいずれかからのトレーニング・データが、トレーニングされていないコレクションの **「トレーニング (Train)」**ページに表示される場合があります。 トレーニング・データをクリアするには、ページを最新表示します。
  • .docx、.pptx、.xlsx タイプの文書は、適切なファイル拡張子がなければ処理されません。

また、過去のリリースで識別された問題も参照してください。

後続のリリースで修正された 2.0.1 の問題

  • [バージョン 2.1.2 で修正済み]既存のドキュメントが存在するコレクションにドキュメントをアップロードすると、 Documents uploaded! というメッセージがアクティビティページに表示されますが、ドキュメントの数が増加するまでは、それ以上の処理状況は表示されません。

一般提供(GA)リリース、2019年6月28日

  • Discovery for Cloud Pak for Data ツールで作業している場合に IBM Cloud Pak® for Data セッションの有効期限が切れると、ブランク・ページが表示されます。 ツールに戻るには、ブラウザーを最新表示して再度ログインしてください。
  • Discovery に取り込まれるすべての JSON ファイルには、.json ファイル拡張子がなければなりません。
  • トレーニングされたコレクションの collection_id を照会すると、training_status.notices 値が、正しい値ではなく 0 と表示されることがあります。
  • このリリースでは、照会に関する制限がすべて適用されるわけではありません。 禁止フィールドの完全なリストについては、照会に関する制限を参照してください。
  • JSON ソース文書では、システム生成フィールド document_idparent_document_idfilename、および title を重複させてはなりません。 重複していると、重複フィールドが配列内にネストされ、ランカー・トレーニングなどの特定の機能が中断されます。
  • JSON文書にルートレベルの metadata プロパティを含めないでください。 ルートレベルの metadata プロパティがすでに含まれているJSON文書をアップロードした場合、インデックス化された文書の metadata プロパティはインデックス内で配列に変換されます。
  • CSV ファイルの列名にメタデータを使用してはなりません。 ヘッダーの列名にメタデータを使用する CSV ファイルをアップロードすると、索引付けされた文書の metadata プロパティーは、索引では配列に変換されます。
  • CSV ファイルではコンマ (,) またはセミコロン (;) を区切り文字として使用する必要があります。他の区切り文字はサポートされていません。 コンマまたはセミコロンを含む値が CSV ファイルに入っている場合は、それらの値が分離されないように、値を二重引用符で囲む必要があります。 ヘッダー行が存在する場合、その行の値は他のすべての行の値と同じように処理されます。 CSV ファイルの最後の行は、その後に CRLF (復帰) が続いていなければ処理されません。
  • 現在、固有のコレクション名は強制されていません。 重複するコレクション名を使用することは推奨されません。避けるべきです