Bekannte Probleme
Bekannte Probleme sind unter dem jeweiligen Release aufgelistet, in dem sie erkannt wurden.
IBM Cloud Pak for Data IBM Software Hub
Die in diesem Abschnitt beschriebenen bekannten Probleme gelten nur für installierte Implementierungen.
5.1.x veröffentlichungen
Siehe Einschränkungen und bekannte Probleme in Watson Discovery.
5.0.x-Releases
Siehe Einschränkungen und bekannte Probleme in Watson Discovery.
4.8.x-Releases
Siehe Einschränkungen und bekannte Probleme in Watson Discovery.
4.7.x-Releases
Siehe Einschränkungen und bekannte Probleme in Watson Discovery.
4.6.x-Releases
Siehe Einschränkungen und bekannte Probleme in Watson Discovery.
4.5.x Releases
Siehe Einschränkungen und bekannte Probleme in Watson Discovery.
4.0.x-Releases
Weitere Informationen zu bekannten Problemen finden Sie in der IBM Cloud Pak for Data-Dokumentation.
4.0.9, 25. Mai 2022
-
Discovery generiert eine Nachricht zum partiellen Fehlerstatus für das Sicherungs-und Wiederherstellungsdienstprogramm von IBM Cloud Pak for Data Red Hat OpenShift APIs for Data Protection (OADP).
- Fehler: Wenn Sie den Status des OADP-Backup-Dienstprogramms überprüfen, nachdem Sie es zum Sichern eines Clusters verwendet haben, auf dem Discovery installiert ist, wird eine
Phase: PartiallyFailed
-Nachricht angezeigt. Eine oder mehrere Discovery-Komponenten sind in derFailed
-Liste enthalten. - Ursache: Discovery kann nicht mit dem Sicherungs- und Wiederherstellungsdienstprogramm OADP gesichert und wiederhergestellt werden. Wenn der Discovery-Dienst vorhanden ist und ein Administrator eine vollständige IBM Cloud Pak for Data-Instanz sichert, wird eine Statusmeldung angezeigt, die auf einen Teilausfall hinweist. Dieser Status wird angezeigt, weil die persistenten Volume-Ansprüche (PVCs) für Discovery nicht gesichert sind. Die Nachricht wirkt sich jedoch nicht auf das Backup der übrigen Services aus.
- Lösung: Zum Auflösen der Statusnachricht ist keine Aktion erforderlich. Sie können die PVCs, die dem Erkennungsservice zugeordnet sind, separat entfernen. Nachdem Sie die Erkennungsservicedaten mit den Scripts gesichert haben, können Sie den Schritt ausführen, der in den Deinstallationsanweisungen für den Erkennungsservice zum Löschen der PVCs dokumentiert ist. Weitere Informationen zum Entfernen des PVC, der der Erkennung zugeordnet ist, enthält Erkennungsservice deinstallieren.
- Fehler: Wenn Sie den Status des OADP-Backup-Dienstprogramms überprüfen, nachdem Sie es zum Sichern eines Clusters verwendet haben, auf dem Discovery installiert ist, wird eine
4.0.8, 27. April 2022
-
Der Auftrag "wd-discovery-multi-tenant-migration" schlägt fehl, wenn jemand anderes als ein Systemadministrator das Upgrade durchführt.
-
Fehler: Wenn Sie ein Upgrade mit einer anderen Benutzerkennung als "admin" durchführen, schlägt der Migrationsauftrag fehl.
-
Ursache: Das Migrationsskript geht davon aus, dass das Skript von einem Benutzer mit der Admin-Benutzer-ID ausgeführt wird.
-
Lösung: Wenden Sie eine Programmkorrektur an, die eine erfolgreiche Migration ermöglicht. Führen Sie die folgenden Schritte aus:
-
Rufen Sie über den Webclient Cloud Pak for Data die Benutzerkennung des Eigentümers der Instanz ab, die Sie aktualisieren möchten.
-
Laden Sie die Patchdatei
wd-migration-uid-patch.zip
aus dem Watson Developer Cloud-GitHub -Repository herunter. -
Entpacken Sie die wd-migration-uid-patch.yaml datei aus der Archivdatei und öffnen Sie sie dann in einem Texteditor.
-
Ersetzen Sie die Variable
<user_id>
durch die Benutzer-ID des Eigners der Instanz, für die Sie ein Upgrade durchführen wollen. -
Führen Sie den folgenden Befehl in einem Terminal aus, das am Cluster angemeldet ist:
oc create -f wd-migration-uid-patch.yaml
-
Löschen Sie den vorherigen Migrationsjob mit dem folgenden Befehl:
oc delete job wd-discovery-multi-tenant-migration
-
Nachdem der Job gelöscht wurde, wird der Umlagerungsjob erneut gestartet und die Umlagerung fortgesetzt.
Das Problem wurde mit dem Release 4.0.9 behoben.
-
-
Discovery generiert eine partielle Fehlerstatusnachricht für das Sicherungs-und Wiederherstellungsdienstprogramm von IBM Cloud Pak for Data OpenShift® APIs for Data Protection (OADP).
- Fehler: Wenn Sie den Status des OADP-Backup-Dienstprogramms überprüfen, nachdem Sie es zum Sichern eines Clusters verwendet haben, auf dem Discovery installiert ist, wird eine
Phase: PartiallyFailed
-Nachricht angezeigt. Eine oder mehrere Discovery-Komponenten sind in derFailed
-Liste enthalten. - Ursache: Discovery kann nicht mit dem Sicherungs- und Wiederherstellungsdienstprogramm OADP gesichert und wiederhergestellt werden. Wenn der Discovery-Dienst vorhanden ist und ein Administrator eine vollständige IBM Cloud Pak for Data-Instanz sichert, wird eine Statusmeldung angezeigt, die auf einen Teilausfall hinweist. Dieser Status wird angezeigt, weil die persistenten Volume-Ansprüche (PVCs) für Discovery nicht gesichert sind. Die Nachricht wirkt sich jedoch nicht auf das Backup der übrigen Services aus.
- Lösung: Zum Auflösen der Statusnachricht ist keine Aktion erforderlich. Sie können die PVCs, die dem Erkennungsservice zugeordnet sind, separat entfernen. Nachdem Sie die Erkennungsservicedaten mit den Scripts gesichert haben, können Sie den Schritt ausführen, der in den Deinstallationsanweisungen für den Erkennungsservice zum Löschen der PVCs dokumentiert ist. Weitere Informationen zum Entfernen des PVC, der der Erkennung zugeordnet ist, enthält Erkennungsservice deinstallieren.
- Fehler: Wenn Sie den Status des OADP-Backup-Dienstprogramms überprüfen, nachdem Sie es zum Sichern eines Clusters verwendet haben, auf dem Discovery installiert ist, wird eine
4.0.7, 30. März 2022
-
Discovery generiert einen Fehler im Sicherungs-und Wiederherstellungsdienstprogramm IBM Cloud Pak for Data OpenShift® APIs for Data Protection (OADP).
-
Fehler: Das Dienstprogramm wird nicht erfolgreich ausgeführt und die folgende Nachricht wird in das Protokoll geschrieben:
preBackupViaConfigHookRule on backupconfig/watson-discovery in namespace cpd (status=error)
-
Ursache: Discovery kann nicht mit dem Sicherungs- und Wiederherstellungsdienstprogramm OADP gesichert und wiederhergestellt werden. Wenn der Discovery-Dienst vorhanden ist und ein Administrator versucht, eine vollständige IBM Cloud Pak for Data-Instanz zu sichern, verhindert Discovery, dass das Dienstprogramm erfolgreich abgeschlossen wird.
-
Lösung: Wenden Sie ein Patch an, das verhindert, dass Discovery die erfolgreiche Ausführung des Dienstprogramms verhindert.
-
Laden Sie die Datei
wd-aux-br-patch.zip
aus dem Watson Developer Cloud Github -Repository herunter. -
Extrahieren Sie die Datei
wd-aux-br-patch.yaml
aus der ZIP-Datei. -
Führen Sie den folgenden Befehl in einem Terminal aus, das am Cluster angemeldet ist:
oc create -f wd-aux-br-patch.yaml
-
Das Problem wurde mit dem Release 4.0.8 behoben. (Sie können den Erkennungsservice weiterhin nicht mit dem Dienstprogramm OADP sichern, aber das Dienstprogramm OADP kann andere Services sichern, wenn die Erkennung installiert ist.)
-
-
Deployed
der Status der Ressourcen schwankt, nachdem das Upgrade von 4.0.7 abgeschlossen ist.-
Fehler: Wenn Sie den Status überprüfen, indem Sie den Befehl
oc get WatsonDiscovery
übergeben, wechselt der Bereitstatus der Ressourcen zwischen der Anzeige von23/23
und20/23
-Komponenten als einsatzbereit. -
Ursache: Der Bereitschaftsstatus der Ressourcen wird nach einer Migration nicht konsistent gemeldet.
-
Lösung: Normalerweise ist die Instanz trotz der Instabilität des Bereitstatus für die Verwendung bereit. Um die Statusinformationen manuell zu aktualisieren, führen Sie die folgenden Befehle in einem Terminal aus, das beim Cluster angemeldet ist:
oc proxy & curl -ksS -X PATCH -H "Accept: application/json, */*" -H "Content-Type: application/merge-patch+json" http://127.0.0.1:8001/apis/discovery.watson.ibm.com/v1/namespaces/<namespace>/watsondiscoveries/wd/status --data '{"status": null}'
Dieses Problem wurde mit der Veröffentlichung von 4.0.8 behoben.
-
-
Der Auftrag "wd-discovery-multi-tenant-migration" schlägt fehl, wenn jemand anderes als ein Systemadministrator das Upgrade durchführt.
-
Fehler: Wenn Sie ein Upgrade mit einer anderen Benutzerkennung als "admin" durchführen, schlägt der Migrationsauftrag fehl.
-
Ursache: Das Migrationsskript geht davon aus, dass das Skript von einem Benutzer mit der Admin-Benutzer-ID ausgeführt wird.
-
Lösung: Wenden Sie eine Programmkorrektur an, die eine erfolgreiche Migration ermöglicht. Führen Sie die folgenden Schritte aus:
-
Rufen Sie über den Webclient Cloud Pak for Data die Benutzerkennung des Eigentümers der Instanz ab, die Sie aktualisieren möchten.
-
Laden Sie die Patchdatei
wd-migration-uid-patch.zip
aus dem Watson Developer Cloud-GitHub -Repository herunter. -
Entpacken Sie die wd-migration-uid-patch.yaml datei aus der Archivdatei und öffnen Sie sie dann in einem Texteditor.
-
Ersetzen Sie die Variable
<user_id>
durch die Benutzer-ID des Eigners der Instanz, für die Sie ein Upgrade durchführen wollen. -
Führen Sie den folgenden Befehl in einem Terminal aus, das am Cluster angemeldet ist:
oc create -f wd-migration-uid-patch.yaml
-
Löschen Sie den vorherigen Migrationsjob mit dem folgenden Befehl:
oc delete job wd-discovery-multi-tenant-migration
-
Nachdem der Job gelöscht wurde, wird der Umlagerungsjob erneut gestartet und die Umlagerung fortgesetzt.
Das Problem wurde mit dem Release 4.0.9 behoben.
-
4.0.6, 1. März 2022
-
Das Upgrade auf 4.0.6 schlägt fehl, wenn vor Beginn des Upgrade-Prozesses keine Discovery-Instanz im vorhandenen Cluster bereitgestellt wird.
- Fehler: Der 4.0.6-Upgrade-Prozess geht davon aus, dass eine Discovery-Instanz im vorhandenen Cluster bereitgestellt wird. Wenn Sie beispielsweise ein Upgrade von 4.0.5 auf 4.0.6 durchführen, müssen Sie eine Instanz im 4.0.5-Cluster bereitstellen, bevor Sie mit der Migration beginnen.
- Ursache: Der aktuelle Code gibt einen Fehler zurück, wenn keine Instanz vorhanden ist, weil er keinen zu migrierenden Dokumentindex finden kann.
- Lösung: Vergewissern Sie sich, dass eine Instanz von Discovery im vorhandenen IBM Cloud Pak for Data-Cluster bereitgestellt wurde, bevor Sie das Upgrade auf 4.0.6 starten. Wenn Sie versucht haben, ein Upgrade auf 4.0.6 durchzuführen, aber keine Instanzen bereitgestellt wurden und die Migration fehlgeschlagen ist, entfernen Sie die vorhandene Installation und installieren Sie 4.0.6 völlig neu.
-
Deployed
der Status der Ressourcen schwankt, nachdem das Upgrade von 4.0.6 abgeschlossen ist.-
Fehler: Wenn Sie den Status überprüfen, indem Sie den Befehl
oc get WatsonDiscovery
übergeben, wechselt der Bereitstatus der Ressourcen zwischen der Anzeige von23/23
und20/23
-Komponenten als einsatzbereit. -
Ursache: Der Bereitschaftsstatus der Ressourcen wird nach einer Migration nicht konsistent gemeldet.
-
Lösung: Normalerweise ist die Instanz trotz der Instabilität des Bereitstatus für die Verwendung bereit. Der Bereitschaftszustand setzt sich nach etwa 5 Stunden ein. Sie können warten, bis der Bereitschaftsstatus durchgehend
23/23
anzeigt, oder Sie können die Statusinformationen manuell aktualisieren, indem Sie die folgenden Befehle in einem Terminal ausführen, das beim Cluster angemeldet ist:oc proxy & curl -ksS -X PATCH -H "Accept: application/json, */*" -H "Content-Type: application/merge-patch+json" http://127.0.0.1:8001/apis/discovery.watson.ibm.com/v1/namespaces/<namespace>/watsondiscoveries/wd/status --data '{"status": null}'
Dieses Problem wurde mit der Veröffentlichung von 4.0.8 behoben.
-
-
Discovery generiert einen Fehler im Sicherungs-und Wiederherstellungsdienstprogramm IBM Cloud Pak for Data OpenShift® APIs for Data Protection (OADP).
-
Fehler: Das Dienstprogramm wird nicht erfolgreich ausgeführt und die folgende Nachricht wird in das Protokoll geschrieben:
preBackupViaConfigHookRule on backupconfig/watson-discovery in namespace cpd (status=error)
-
Ursache: Discovery kann nicht mit dem Sicherungs- und Wiederherstellungsdienstprogramm OADP gesichert und wiederhergestellt werden. Wenn der Discovery-Dienst vorhanden ist und ein Administrator versucht, eine vollständige IBM Cloud Pak for Data-Instanz zu sichern, verhindert Discovery, dass das Dienstprogramm erfolgreich abgeschlossen wird.
-
Lösung: Wenden Sie ein Patch an, das verhindert, dass Discovery die erfolgreiche Ausführung des Dienstprogramms verhindert.
-
Laden Sie die Datei
wd-aux-br-patch.zip
aus dem Watson Developer Cloud Github -Repository herunter. -
Extrahieren Sie die Datei
wd-aux-br-patch.yaml
aus der ZIP-Datei. -
Führen Sie den folgenden Befehl in einem Terminal aus, das am Cluster angemeldet ist:
oc create -f wd-aux-br-patch.yaml
-
Dieses Problem wurde im Release 4.0.8 behoben. (Sie können den Erkennungsservice weiterhin nicht mit dem Dienstprogramm OADP sichern, aber das Dienstprogramm OADP kann andere Services sichern, wenn die Erkennung installiert ist.)
-
-
Der Auftrag "wd-discovery-multi-tenant-migration" schlägt fehl, wenn jemand anderes als ein Systemadministrator das Upgrade durchführt.
-
Fehler: Wenn Sie ein Upgrade mit einer anderen Benutzerkennung als "admin" durchführen, schlägt der Migrationsauftrag fehl.
-
Ursache: Das Migrationsskript geht davon aus, dass das Skript von einem Benutzer mit der Admin-Benutzer-ID ausgeführt wird.
-
Lösung: Wenden Sie eine Programmkorrektur an, die eine erfolgreiche Migration ermöglicht. Führen Sie die folgenden Schritte aus:
-
Rufen Sie über den Webclient Cloud Pak for Data die Benutzerkennung des Eigentümers der Instanz ab, die Sie aktualisieren möchten.
-
Laden Sie die Patchdatei
wd-migration-uid-patch.zip
aus dem Watson Developer Cloud-GitHub -Repository herunter. -
Entpacken Sie die wd-migration-uid-patch.yaml datei aus der Archivdatei und öffnen Sie sie dann in einem Texteditor.
-
Ersetzen Sie die Variable
<user_id>
durch die Benutzer-ID des Eigners der Instanz, für die Sie ein Upgrade durchführen wollen. -
Führen Sie den folgenden Befehl in einem Terminal aus, das am Cluster angemeldet ist:
oc create -f wd-migration-uid-patch.yaml
-
Löschen Sie den vorherigen Migrationsjob mit dem folgenden Befehl:
oc delete job wd-discovery-multi-tenant-migration
-
Nachdem der Job gelöscht wurde, wird der Umlagerungsjob erneut gestartet und die Umlagerung fortgesetzt.
Das Problem wurde mit dem Release 4.0.9 behoben.
-
4.0.5, 26. Januar 2022
-
Discovery generiert einen Fehler im Sicherungs-und Wiederherstellungsdienstprogramm IBM Cloud Pak for Data OpenShift® APIs for Data Protection (OADP).
-
Fehler: Das Dienstprogramm wird nicht erfolgreich ausgeführt und die folgende Nachricht wird in das Protokoll geschrieben:
preBackupViaConfigHookRule on backupconfig/watson-discovery in namespace cpd (status=error)
-
Ursache: Discovery kann nicht mit dem Sicherungs- und Wiederherstellungsdienstprogramm OADP gesichert und wiederhergestellt werden. Wenn der Discovery-Dienst vorhanden ist und ein Administrator versucht, eine vollständige IBM Cloud Pak for Data-Instanz zu sichern, verhindert Discovery, dass das Dienstprogramm erfolgreich abgeschlossen wird.
-
Lösung: Wenden Sie ein Patch an, das verhindert, dass Discovery die erfolgreiche Ausführung des Dienstprogramms verhindert.
-
Laden Sie die Datei
wd-aux-br-patch.zip
aus dem Watson Developer Cloud Github -Repository herunter. -
Extrahieren Sie die Datei
wd-aux-br-patch.yaml
aus der ZIP-Datei. -
Führen Sie den folgenden Befehl in einem Terminal aus, das am Cluster angemeldet ist:
oc create -f wd-aux-br-patch.yaml
-
Dieses Problem wurde im Release 4.0.8 behoben. (Sie können den Erkennungsservice weiterhin nicht mit dem Dienstprogramm OADP sichern, aber das Dienstprogramm OADP kann andere Services sichern, wenn die Erkennung installiert ist.)
-
4.0.4, 20. Dezember 2021
-
Discovery generiert einen Fehler im Sicherungs-und Wiederherstellungsdienstprogramm IBM Cloud Pak for Data OpenShift® APIs for Data Protection (OADP).
-
Fehler: Das Dienstprogramm wird nicht erfolgreich ausgeführt und die folgende Nachricht wird in das Protokoll geschrieben:
preBackupViaConfigHookRule on backupconfig/watson-discovery in namespace cpd (status=error)
-
Ursache: Discovery kann nicht mit dem Sicherungs- und Wiederherstellungsdienstprogramm OADP gesichert und wiederhergestellt werden. Wenn der Discovery-Dienst vorhanden ist und ein Administrator versucht, eine vollständige IBM Cloud Pak for Data-Instanz zu sichern, verhindert Discovery, dass das Dienstprogramm erfolgreich abgeschlossen wird.
-
Lösung: Wenden Sie ein Patch an, das verhindert, dass Discovery die erfolgreiche Ausführung des Dienstprogramms verhindert.
-
Laden Sie die Datei
wd-aux-br-patch.zip
aus dem Watson Developer Cloud Github -Repository herunter. -
Extrahieren Sie die Datei
wd-aux-br-patch.yaml
aus der ZIP-Datei. -
Führen Sie den folgenden Befehl in einem Terminal aus, das am Cluster angemeldet ist:
oc create -f wd-aux-br-patch.yaml
-
Dieses Problem wurde im Release 4.0.8 behoben. (Sie können den Erkennungsservice weiterhin nicht mit dem Dienstprogramm OADP sichern, aber das Dienstprogramm OADP kann andere Services sichern, wenn die Erkennung installiert ist.)
-
4.0.3, 18. November 2021
-
Die geführten Touren sind in diesem Release nicht verfügbar.
-
Discovery generiert einen Fehler im Sicherungs-und Wiederherstellungsdienstprogramm IBM Cloud Pak for Data OpenShift® APIs for Data Protection (OADP).
-
Fehler: Das Dienstprogramm wird nicht erfolgreich ausgeführt und die folgende Nachricht wird in das Protokoll geschrieben:
preBackupViaConfigHookRule on backupconfig/watson-discovery in namespace cpd (status=error)
-
Ursache: Discovery kann nicht mit dem Sicherungs- und Wiederherstellungsdienstprogramm OADP gesichert und wiederhergestellt werden. Wenn der Discovery-Dienst vorhanden ist und ein Administrator versucht, eine vollständige IBM Cloud Pak for Data-Instanz zu sichern, verhindert Discovery, dass das Dienstprogramm erfolgreich abgeschlossen wird.
-
Lösung: Wenden Sie ein Patch an, das verhindert, dass Discovery die erfolgreiche Ausführung des Dienstprogramms verhindert.
-
Laden Sie die Datei
wd-aux-br-patch.zip
aus dem Watson Developer Cloud Github -Repository herunter. -
Extrahieren Sie die Datei
wd-aux-br-patch.yaml
aus der ZIP-Datei. -
Führen Sie den folgenden Befehl in einem Terminal aus, das am Cluster angemeldet ist:
oc create -f wd-aux-br-patch.yaml
-
Dieses Problem wurde im Release 4.0.8 behoben. (Sie können den Erkennungsservice weiterhin nicht mit dem Dienstprogramm OADP sichern, aber das Dienstprogramm OADP kann andere Services sichern, wenn die Erkennung installiert ist.)
-
4.0.0, 13. Juli 2021
-
Aufbereitungen des Modells für maschinelles Lernen, die Sie mithilfe der Analyse-API anwenden, können fehlschlagen.
- Fehler:
[WKSML_MODEL_NAME]: Enrichment of a document failed
- Ursache: In Watson Knowledge Studio gibt es ein bekanntes Problem, das zu einer Zeitlimitüberschreitung bei der Aufbereitungsverarbeitung führen kann.
- Lösung: Wenn Sie die Analyse-API verwenden, um eine Watson Knowledge Studio-Modellaufbereitung auf eine Objektgruppe anzuwenden, behalten Sie die Größe des Eingabedokuments unter 50 KB bei.
- Fehler:
Probleme mit 2.2.1, die in nachfolgenden Releases behoben wurden
-
[Behoben in Version 4.] Wenn Sie eine IBM Watson® Knowledge Studio-Anreicherung für maschinelles Lernen zu einer Sammlung hinzufügen, kann der Aufnahmeprozess sehr langsam ablaufen, wird aber schließlich abgeschlossen. Wenn der Prozess des Einpflegens sehr langsam ist, wird möglicherweise die folgende Fehlernachricht unter Warnungen und Fehler angezeigt:
[WKSML_MODEL_NAME]: Document analysis timed out
Weitere Details zur Zeitlimitüberschreitung finden Sie in den Knowledge Studio-Protokollen für Machine Learning. Diese sehen den folgenden Protokollen möglicherweise ähnlich:
{ "message": "Analysis failed due to: org.apache.uima.analysis_engine.AnalysisEngineProcessException at c.i.n.b.SIREAnnotator.process(_:454) ... ", "level": "SEVERE", }
Dokumente, die während der Verarbeitung das Zeitlimit überschreiten werden ohne Knowledge Studio-Aufbereitungsergebnis indiziert.
2.2.1, 26. Februar 2021
-
Problem beim Zeitpunkt der Implementierung:
- Fehler: Wenn Sie nach der Installation von Patch 7 versuchen, eine Serviceinstanz bereitzustellen, wird der Fehler
404 Not Found
angezeigt. Möglicherweise wird die folgende Nachricht für dienginx
-Pods protokolliert:open() "/usr/local/openresty/nginx/html/watson/common/discovery/auth" failed (2: No such file or directory)
- Lösung: Starten Sie den Pod
zen-watcher
erneut.
- Fehler: Wenn Sie nach der Installation von Patch 7 versuchen, eine Serviceinstanz bereitzustellen, wird der Fehler
-
Wenn Sie eine durch eine Air-Gap geschützte Installation ausführen, die Container-Images aus einer externen Container-Registry extrahiert, kann das folgende Problem auftreten:
-
Fehler: Einige Discovery-Pods melden möglicherweise den Fehler
ImagePullBackoff
. -
Ursache: Es wird der falsche geheime Schlüssel für Image-Pull-Operationen verwendet.
-
Lösung: Führen Sie die folgenden Schritte während der Installation aus:
-
Beginnen Sie mit der Installation von Watson Discovery.
-
Überprüfen Sie nach Abschluss des Moduls "watson-discovery-operator", ob eine angepasste Ressource WatsonDiscovery erstellt wurde, indem Sie den folgenden Befehl ausführen:
oc get WatsonDiscovery wd
-
Führen Sie nach der Erstellung der angepassten Ressource die folgenden Befehle aus, um auf den richtigen geheimen Schlüssel für Image-Pull-Operationen zu verweisen, damit Images aus der externen Registry extrahiert werden:
pull_secret=$(oc get secrets | grep 'docker-pull-.*-watson-discovery-registry-registry' | cut -d ' ' -f 1) cat << EOS > discovery-patch.yaml spec: shared: imagePullSecret: $pull_secret EOS oc patch wd wd --type=merge --patch "$(cat discovery-patch.yaml)"
-
Wenn sich die
RabbitMQ
-Pods noch im ImagePullBackoff-Status befinden, entfernen Sie den RabbitMQ-CR, damit der rabbitmq-Operator die RabbitMQ-Cluster neu erstellen kann. Sie können den folgenden Befehl verwenden:oc delete IbmRabbitmq wd-rabbitmq
-
-
-
In IBM Watson® Discovery unterstützt das Projekt
Content Mining
nur eine Erfassung pro Projekt. Wenn Sie mehr als eineContent Mining
-Erfassung erstellen, treten möglicherweise Fehler auf. Wenn Fehler auftreten, löschen Sie weitereContent Mining
-Erfassungen, damit jedesContent Mining
-Projekt nur eine zugehörige Erfassung aufweist. -
Wenn Sie Ihre Discovery for Cloud Pak for Data-Cluster auf ein Inplace-Upgrade Ihrer Instanz von 2.2.0 auf 2.2.1 vorbereiten, kann der Befehl
cpd-cli adm
gelegentlich fehlschlagen und die folgende Fehlernachricht wird angezeigt:Error from server (UnsupportedMediaType): error when applying patch
(Serverfehler (UnsupportedMediaType): Fehler beim Anwenden des Patch). Wenn Sie diese Fehlernachricht erhalten, geben Sie Folgendes ein, um die Ressourcen zu löschen:oc delete scc cpd-zensys-scc cpd-user-scc cpd-noperm-scc edb-operator-scc admin-discovery-scc
und geben anschließend den Befehlcpd-cli adm
erneut aus. -
Wenn Sie ein Upgrade für Ihre Discovery for Cloud Pak for Data-Instanz von 2.2.0 auf 2.2.1 durchführen, wird der Befehl
cpd-cli upgrade
gelegentlich abgeschlossen, bevor die rollierende Aktualisierung der Updates abgeschlossen ist. Informationen zur Überprüfung des erfolgreichen Abschlusses Ihres Upgrades finden Sie unter Erfolgreichen Abschluss Ihres Upgrades überprüfen. -
Bilder von Modelleisenbahnen werden nach dem Upgrade von Discovery 2.2.0 auf 2.2.1 nicht aktualisiert. Um dieses Problem zu umgehen, löschen Sie die Bereitstellungen, die der Operator 'model-train' erstellt, und warten Sie bis der Operator die Bereitstellungen erneut erstellt. Geben Sie folgenden Befehl ein, um die Bereitstellungen zu löschen:
oc delete deploy -l 'app.kubernetes.io/managed-by=ibm-modeltrain'
Nachdem Sie diesen Befehl ausgeführt haben, erstellt der Operator 'model-train' neue Bereitstellungen.
-
Wenn Sie ein Upgrade für Discovery for Cloud Pak for Data von 2.2.0 auf 2.2.1durchführen, erhalten Sie möglicherweise die folgende Fehlernachricht:
[ERROR] [2021-03-04 05:12:44-0657] Exiting due to error (Storage class is immutable. Module ibm-watson-gateway-operator x86_64 from Assembly portworx-shared-gp3 was installed with ibm-watson-gateway-operator x86_64, but new install/upgrade command is requesting portworx-db-gp3-sc. If you installed the assembly with a different storage class, please upgrade it individually.). Please check /ibm/cpd-cli-workspace/logs/CPD-2021-03-04T05-12-04.log for details [ERROR] 2021-03-04T05:12:44.659615Z Execution error: exit status 1
Diese Fehlernachricht wird generiert, da sich die für die Installation verwendete Speicherklasse von der Speicherklasse unterscheidet, die während des Upgrades verwendet wurde. Diese Abweichung resultiert aus einer anderen Add-on-Installation der Abhängigkeitsoperatoren, da die Speicherklassenabhängigkeitsoperatoren der verschiedenen Add-ons als diejenigen aufgezeichnet wurden, die für die Installation verwendet wurden. Um dieses Problem zu umgehen, müssen Sie die folgenden Unterbaugruppen einzeln aktualisieren:
-
Führen Sie ein Upgrade des Watson-Gateway-Operators durch:
./cpd-cli upgrade \ --repo ./repo.yaml \ --assembly ibm-watson-gateway-operator \ --arch Cluster_architecture \ --namespace <Project> \ --transfer-image-to <Registry_location> \ --cluster-pull-prefix <Registry_from_cluster> \ --ask-pull-registry-credentials \ --ask-push-registry-credentials
-
Upgrade für Minio-Operator durchführen
./cpd-cli upgrade \ --repo ./repo.yaml \ --assembly ibm-minio-operator \ --namespace <Project> \ --transfer-image-to <Registry_location> \ --cluster-pull-prefix <Registry_from_cluster> \ --ask-pull-registry-credentials \ --ask-push-registry-credentials
-
RabbitMQ-Operator aktualisieren:
./cpd-cli upgrade \ --repo ./repo.yaml \ --assembly ibm-rabbitmq-operator \ --namespace <Project> \ --transfer-image-to <Registry_location> \ --cluster-pull-prefix <Registry_from_cluster> \ --ask-pull-registry-credentials \ --ask-push-registry-credentials
-
Operator etcd aktualisieren:
./cpd-cli upgrade \ --repo ./repo.yaml \ --assembly ibm-etcd-operator \ --namespace <Project> \ --transfer-image-to <Registry_location> \ --cluster-pull-prefix <Registry_from_cluster> \ --ask-pull-registry-credentials \ --ask-push-registry-credentials
-
Klassischer Operator für Modelltraining aktualisieren:
./cpd-cli upgrade \ --repo ./repo.yaml \ --assembly modeltrain-classic \ --arch Cluster_architecture \ --namespace <Project> \ --transfer-image-to <Registry_location> \ --cluster-pull-prefix <Registry_from_cluster> \ --ask-pull-registry-credentials \ --ask-push-registry-credentials
-
Operator Elasticsearch aktualisieren:
./cpd-cli upgrade \ --repo ./repo.yaml \ --assembly ibm-cloudpakopen-elasticsearch-operator \ --namespace <Project> \ --transfer-image-to <Registry_location> \ --cluster-pull-prefix <Registry_from_cluster> \ --ask-pull-registry-credentials \ --ask-push-registry-credentials
wobei
<Project>
der Namespace ist, in dem Ihre Discovery for Cloud Pak for Data 2.2.0-Instanz installiert ist, wobei<Registry_location>
der Speicherort der Bilder ist, die Sie auf den Registrierungsserver übertragen haben, und wobei<Registry_from_cluster>
der Speicherort ist, von dem Pods im Cluster Bilder abrufen können.
-
-
Bei der Installation unter IBM Cloud Pak for Data 3.5tritt möglicherweise das folgende Problem auf:
- Fehler: Wenn Sie versuchen, den Discovery-Service in einem Cluster bereitzustellen, in dem Planning Analytics ausgeführt wird, werden einige der Discovery-Pods nicht gestartet und die Installation schlägt fehl. Die Protokolle
für den Pod enthalten Nachrichten wie beispielsweise
java.lang.NumberFormatException: For input string
. - Ursache: Eine Umgebungsvariable mit dem Namen
COUCHDB_PORT
wird dem Kubernetes-Cluster durch den CouchDB-Service hinzugefügt, der mit Planning Analyticsinstalliert wird. Discovery verwendet keine CouchDB und gibt daher keinen Wert für diese Umgebungsvariable an. Einige Pods versuchen jedoch, die Variable zu analysieren, was zu dem Fehler führt. - Lösung: Installieren Sie den Patch cpd-watson-discovery-2.2.1-patch-1, der dieses Problem behebt.
- Fehler: Wenn Sie versuchen, den Discovery-Service in einem Cluster bereitzustellen, in dem Planning Analytics ausgeführt wird, werden einige der Discovery-Pods nicht gestartet und die Installation schlägt fehl. Die Protokolle
für den Pod enthalten Nachrichten wie beispielsweise
Beachten Sie auch die bekannten Probleme in den vorherigen Releases.
2.2, 8. Dezember 2020
-
Wenn eine kleine CSV-Datei (in der Regel eine CSV-Datei mit bis zu 99 Zeilen) hochgeladen wird, werden der Header und/oder die erste Zeile möglicherweise nicht korrekt aufgenommen. Wenn dies der Fall ist, navigieren Sie in den Tools zur Registerkarte 'CSV-Einstellungen' und aktualisieren die Einstellungen. Navigieren Sie nach der erneuten Verarbeitung zur Registerkarte Felder verwalten und aktualisieren Sie bei Bedarf die Feldtypen.
-
Wenn Sie Ihre Sammlungen mit einem benutzerdefinierten Crawler eingerichtet haben, der mit dem benutzerdefinierten Connector IBM Cloud Pak for Data erstellt wurde, und dann die Bereitstellung des benutzerdefinierten Crawlers entfernen, wird auf der Seite "Verarbeitungseinstellungen" die Crawler-Konfiguration nicht angezeigt. Ursache hierfür ist, dass der zugrunde liegende Crawler nicht verfügbar ist. Stellen Sie zum Vermeiden dieses Problems sicher, dass der angepasste Crawler bereitgestellt wird, wenn Sammlungen vorhanden sind, von denen er verwendet wird.
-
Wenn Sie einen angepassten IBM Cloud Pak for Data-Connector mit Discovery für IBM Cloud Pak for Data 2.2verwenden, schlägt das Script
scripts/manage_custom_crawler.sh
zum Bereitstellen und Entfernen der Bereitstellung des angepassten Crawlers fehl. Ersetzen Sie zum Umgehen dieses Problems im Scriptpodname="gateway"
Zeile 37podname="wd-discovery-gateway"
durchscripts/manage_custom_crawler.sh
und führen Sie den Befehl anschließend erneut aus. -
Wenn Sie in den Tools eine angepasste Aufbereitung erstellen, müssen Sie ein Feld auswählen, auf das die Aufbereitung angewendet werden soll; klicken Sie danach auf Anwenden. Wenn kein Feld ausgewählt ist, wird die Schaltfläche Anwenden und erneut verarbeiten für die Aufbereitungsänderungen inaktiviert, bis die neue Aufbereitung ein Feld aufweist.
-
Wenn Sie die Aufbereitung Contracts oder die Aufbereitung Understanding tables auf eine Objektgruppe anwenden, erhalten Sie möglicherweise die folgende Fehlernachricht, wenn diese Objektgruppe Dokumente aufnimmt:
The number of nested documents has exceeded the allowed limit of [X].
Wenden Sie sich an dasIBM Support Center, um den Grenzwert anzupassen. -
Wenn Text mit einem angepassten Wörterverzeichnis aufbereitet wird, muss die Ausgabe von
entities.type
der vollständige Facettenpfad für die Aufbereitung 'Wörterverzeichnis' sein. In diesem Release wird der vollständige Facettenpfad jedoch nicht angezeigt. Verarbeiten Sie die Sammlung zum Umgehen dieses Problems erneut. Wenn der Facettenpfad beispielsweisesample1.sample2
lautet, wird er vor der erneuten Verarbeitung wie folgt angezeigt:{ "result" : { "enriched_text" : [ { "entities" : [ { "text" : "capital", "type" : "sample2", ... "model_name" : "Dictionary:.sample1.sample2"} ...
Und danach wie folgt:
{ "result" : { "enriched_text" : [ { "entities" : [ { "text" : "capital", "type" : "sample1.sample2", ... "model_name" : "Dictionary:.sample1.sample2"} ...
-
Wenn eine CSV-Datei mit den Konvertierungseinstellungen
auto_detection=true
hochgeladen wird, werden in der Registerkarte CSV-Einstellungen in den Tools falsche Einstellungen angezeigt. Wenn Sie die Einstellungen in der Registerkarte CSV-Einstellungen aktualisieren, lautet der Wert fürauto_detection
nicht mehrtrue
. -
In Office-Dokumenten ('.doc', '.docx', '.odf', '.xls', '.xlsx', '.ods', '.ppt', '.pptx', '.odp'), die mit einem angepassten Modell des Typs Smart Document Understanding (SDU) konvertiert wurden, wird
publicationdate
möglicherweise nicht im Feldextracted_metadata
in der JSON-Antwort angezeigt. Die Angabe wird stattdessen im Feldhtml
der JSON-Antwort angezeigt. Die Informationen fürpublicationdate
imhtml
geben das Datum an, an dem das Dokument aufgenommen wurde und nicht das Datum der ursprünglichen Veröffentlichung des Dokuments. -
Von der Analyse-API wird ein speicherinterner Cache verwendet, um die Aufbereitungsmodelle zu speichern, die der Sammlung zugeordnet sind, die zum Ausführen der Dokumente verwendet wird. Wenn die Sammlung viele große Aufbereitungen enthält oder mehrere dieser Sammlungen gleichzeitig verwendet werden, kann es vorkommen, dass der Speicher des Cache nicht ausreicht. Ist dies der Fall, werden von der Analyse-API null Ergebnisse zurückgegeben (siehe Beispiel) und vom statusunabhängigen API-REST-Proxy wird die folgende Nachricht im Protokoll angezeigt:
RESOURCE_EXHAUSTED: stateless.Analysis/analyze: RESOURCE_EXHAUSTED
.{ "result": null, "notices": null }
Gehen Sie zur Umgehung dieses Problems wie folgt vor:
-
Überprüfen Sie die in der Sammlung verwendeten Aufbereitungen und entfernen Sie diejenigen, die für die Anwendung nicht erforderlich sind. Entfernen Sie insbesondere die Wortartanreicherung.
-
Reduzieren Sie die Anzahl der gleichzeitig mit der Analyse-API verwendeten Sammlungen.
-
Erhöhen Sie den Cache:
- Erhöhen Sie die Speicherbegrenzung von
container model-runtime
indeployment core-discovery-stateless-api-model-runtime
auf mindestens10
GB. - Bearbeiten Sie die Umgebungsvariable
CAPACITY_MB
indeployment core-discovery-stateless-api-model-runtime
und legen Sie mindestens0240
fest.
- Erhöhen Sie die Speicherbegrenzung von
-
-
Wenn der Modelllaufzeitcontainer erneut gestartet wird, der Modellnetzlaufzeitcontainer jedoch nicht, kann die Analyse-API auf Probleme stoßen.
-
Fehler: Der Analzye-API-Aufruf gibt 500 Fehler für eine bestimmte Sammlung zurück und das Protokoll enthält den folgenden Eintrag:
"message": "error occurred in analyzer java.lang.NullPointerException at c.i.e.a.a.s.r.ModelManager$2.analyze(ModelManager.java:112)
-
Ursache: Der Laufzeitcontainer des Modells und der Laufzeitcontainer des Modellnetzes sind nicht synchron.
-
Lösung: Löschen Sie die
wd-stateless-api-model-runtime
-Pods, um das Modellnetz und die Modelllaufzeitcontainer erneut zu starten.
-
Sehen Sie sich auch die in allen vorherigen Releases erkannten Probleme an.
2.1.4 2. September 2020:
- Wenn Sie eine Web-Crawler-Suche mit Formularauthentifizierung konfigurieren und dann eine URL ohne abschließenden Schrägstrich angeben, z. B.
https://webcrawlurl.com
, durchsucht die Web-Crawler-Suche nur die Anmeldeseite. Um dieses Problem zu umgehen, fügen Sie einen abschließenden Schrägstrich an URL an, zum Beispiel:https://webcrawlurl.com/
. - Die geführten Touren (Guided Tours) werden in Firefox nicht ausgeführt. Die Liste der anderen unterstützten Browser finden Sie unter Browserunterstützung.
- Das Einlesen von Dokumenten in eine Sammlung, die ein benutzerdefiniertes, in Watson Knowledge Studio erstelltes erweitertes Regelmodell verwendet, kann fehlschlagen, wenn mehrere Extraktoren im Modell intern dieselben Namen für eine oder mehrere Ausgabeansichten verwenden.
- Wenn Sie eine große Anzahl von Dokumenten löschen und dann sofort eine große Anzahl von Dokumenten aufnehmen, kann es länger dauern, bis alle Dokumente verfügbar sind.
- Die Aufbereitung Classifier funktioniert nicht, wenn FIPS (Federal Information Processing Standards) aktiviert ist.
Sehen Sie sich auch die in allen vorherigen Releases erkannten Probleme an.
2.1.4 Probleme, die in nachfolgenden Releases behoben wurden
- [In Version 2.2] Wenn Sie in der implementierten Content-Mining-Anwendung das Tildezeichen (~) in eine Suchabfrage einschließen, um die unscharfe Suche zu aktivieren, oder ein Sternsymbol (*) einschließen, um ein Platzhalterzeichen darzustellen, funktionieren die Suchanpassungen ordnungsgemäß, aber die übereinstimmende Zeichenfolge wird im Abfrageergebnis nicht hervorgehoben.
- [Behoben in Version 2.2 Wenn] das Feld "In Index aufnehmen" auf der Registerkarte "Felder verwalten" in den Tools geändert wird, kann ein Konvertierungsfehler auftreten. Wenn dieser Fehler
auftritt, wird das Dokument nicht indexiert. Gehen Sie zur Umgehung des Problems wie folgt vor:
-
oc edit sts core-discovery-converter
-
Bearbeiten Sie den Abschnitt zwischen
containers
und- name: INGESTION_POD_NAME
wie folgt:containers: - command: - bash - -c - | FILE=/opt/ibm/wex/zing/bin/converter.sh && sed -i "/choreo_2.11-9.1.1.jar/d" $FILE && sed -i "/disco-doc-conversion-commons_2.11-1.0.4.jar/d" $FILE && sed -i "/jackson-module-scala_2.11-2.10.4.jar/d" $FILE && sed -i "/macro-compat_2.11-1.1.1.jar/d" $FILE && sed -i "/pureconfig-core_2.11-0.12.2.jar/d" $FILE && sed -i "/pureconfig-generic-base_2.11-0.12.2.jar/d" $FILE && sed -i "/pureconfig-generic_2.11-0.12.2.jar/d" $FILE && sed -i "/pureconfig-macros_2.11-0.12.2.jar/d" $FILE && sed -i "/pureconfig_2.11-0.12.2.jar/d" $FILE && sed -i "/scala-guice_2.11-4.1.1.jar/d" $FILE && sed -i "/scala-logging_2.11-3.7.2.jar/d" $FILE && sed -i "/scalactic_2.11-3.0.5.jar/d" $FILE && sed -i "/scalaj-http_2.11-2.3.0.jar/d" $FILE && sed -i "/service-commons_2.11-22.1.0.jar/d" $FILE && sed -i "/shapeless_2.11-2.3.3.jar/d" $FILE && /opt/ibm/wex/zing/bin/entrypoint.sh /opt/ibm/wex/zing/bin/controller.sh env: - name: INGESTION_POD_NAME
Zeilen von
- command:
zu/opt/ibm/wex/zing/bin/entrypoint.sh
/opt/ibm/wex/zing/bin/controller.sh
hinzugefügt und-
entfernt, bevorenv:
-
Speichern Sie die Änderungen. Dadurch wird der
converter
-Pod neu gestartet.
-
2.1.3 19. Juni 2020:
-
Entity Subtypes
in IBM Watson® Knowledge Studio Machine Learning-Modellen werden nicht in Discovery for Cloud Pak for Data 2.1.3 oder höher unterstützt. Wenden Sie sich an das Support-Center, um Anweisungen zur Konvertierung vorhandener Modelle zu erhalten. -
Sie können keine CSV-Dateien, die ein Leerzeichen im Dateinamen enthalten (z. B.
file 1.csv
) in ein Content-Mining-Projekt hochladen. Benennen Sie die Datei um, um das Problem zu umgehen. -
Wenn Sie Relevanztraining auf Projektebene ausführen und wenn Sie über mehrere Sammlungen verfügen und mindestens zwei dieser Sammlungen eine doppelte Dokument-ID (
document_id
) enthalten, schlägt das Relevanztraining auf Projektebene fehl. Beispiel für doppelte Dokument-IDs (document_ids
):Collection A
enthält ein Dokument mit der ID1234
undCollection B
enthält ebenfalls ein Dokument mit der ID1234
. -
Nur die erste Facette, die ein Feld mit dem Präfix
extracted_metadata
verwendet, wird nach der Erstellung korrekt gespeichert. Andere Facetten mit diesem Präfix werden zwar zunächst angezeigt, verschwinden dann aber nach Aktualisierung der Anzeige. Dies geschieht nur einmal pro Projekt. Das Projekt kann umgangen werden, indem die Facette nach der Aktualisierung erneut hinzugefügt wird. -
IBM Cloud Pak for Data Während der Installation auf IBM Cloud Pak® for Data 2.5.0.0 können einige Kubernetes-Jobs ihren Status fälschlicherweise als
OOMKilled
melden, was zu einem Timeout bei der Installation führt. Um dieses Problem zu beheben, überprüfen Sie - sobaldOOMKilled
von einem Job zurückgegeben wird - die Protokolle des Pods, der diesem Job zugeordnet ist. Es sollten keine offensichtlichen Fehlernachrichten in den Protokollen vorhanden sein und die Ressourcen in den Protokollen werden als erstellt gemeldet. Überprüfen Sie manuell, ob diese Ressourcen im Namensbereich vorhanden sind, und löschen Sie anschließend den Job. Dies bewirkt, dass die Installation fortgesetzt wird. -
Manche Dokumente enthalten möglicherweise zwei
html
-Felder beim Anwenden einer Anreicherung. Die beiden angegebenenhtml
-Felder sind identisch und verhalten sich auch so. -
Beim Erstellen einer Datenquelle in Firefox wird möglicherweise nicht die gesamte Liste der Optionen angezeigt, einschließlich der Einstellungen für Weitere Verarbeitungseinstellungen. Um das Problem zu umgehen, verkleinern Sie die Anzeige und wählen Sie eine größere Browserhöhe oder verwenden Sie einen anderen unterstützten Browser.
-
Wenn Sie die Anzeige der Suchergebnisse anpassen, werden die vorgenommenen Änderungen zuweilen nach dem Klicken auf die Schaltfläche
Apply
nicht gespeichert. Um dieses Problem zu umgehen, aktualisieren Sie den Browser und versuchen Sie erneut, die Änderungen vorzunehmen. -
Wenn Sie eine Datenquelle oder einen Web-Crawler für Ihre Sammlung einrichten, dabei eine falsche Konfiguration eingeben und versuchen Sie, sie auf der Seite Verarbeitungseinstellungen zu aktualisieren, kann die Aktualisierung der Datenquelle oder die Crawlersuche möglicherweise nicht gestartet werden, wenn Sie auf die Schaltfläche
Apply changes and reprocess
klicken. Sie können das Problem prüfen, indem Sie die Seite Aktivität für Ihre Sammlung öffnen, um festzustellen, ob die Verarbeitung gestartet wurde. Wenn Sie feststellen, dass die Verarbeitung für Ihre Datenquelle nicht gestartet wurde, klicken Sie auf die SchaltflächeRecrawl
und anschließend auf die SchaltflächeApply changes and reprocess
. Wenn Sie feststellen, dass die Verarbeitung für Ihre Datenquelle nicht gestartet wurde, klicken Sie auf die SchaltflächeStop
und anschließend auf die SchaltflächeRecrawl
. -
IBM Cloud Pak for Data Wenn Helm Tests auf der
core
Bereitstellung mithelm test core
ausführt, gibtcore-discovery-api-post-install-test
einenFAILED
Status zurück. Dies ist auf einen Fehler im Bild destest
-Pods zurückzuführen. Das Testergebnis kann ignoriert werden, da sich der Fehler nicht auf etwas innerhalb der Bereitstellung bezieht. -
Standardmäßig ist die optische Zeichenerkennung (Optical Character Recognition, OCR) auf
off
gesetzt, wenn Sie einen Projekttyp mit den Tools erstellen. Wenn Sie jedoch ein Projekt mit der API erstellen, wird OCR aufon
gesetzt. Um dieses Problem zu umgehen, öffnen Sie die Tools und ändern Sie die Projekteinstellung inoff
. -
Wenn die optische Zeichenerkennung (OCR) für eine Sammlung
on
ist UND kein trainiertes SDU-Modell (Smart Document Understanding) angewendet wird, werden von der Texterkennung keine PNG-, TIFF- und JPG-Dateien verarbeitet. In PDF-, Word-, PowerPoint- und Excel-Dokumente eingebettete Bilder werden nicht verarbeitet. Die Texterkennung wird lediglich den Nicht-Bildteil dieser Dokumente verarbeiten. Um dieses Problem zu umgehen, müssen Sie ein SDU-Modell importieren oder trainieren und die Sammlung erneut verarbeiten. Dies ermöglicht die Extraktion von Text aus den Bildern. -
Wenn Sie in Watson Assistant ein Suchskill erstellt haben und zu den Tools von Watson Discovery weitergeleitet werden, ist die Anzeige leer. Dies geschieht, weil in der URL die Discovery-Instanz-ID fehlt. Gehen Sie zur Umgehung dieses Problems wie folgt vor:
- Wählen Sie im Menü des IBM Cloud Pak for Data-Web-Clients Eigene Instanzen aus. Beispiel:
https://mycluster.com/zen/#/myInstances
. - Wählen Sie die von Ihnen verwendete Discovery-Instanz aus und klicken Sie auf "Tool starten ".
- Sobald die Tools geladen sind, sollte die URL die folgende Struktur haben:
https://mycluster.com/discovery/core/instances/00000000-0000-0000-0001-597165341876/projects
. - Kopieren Sie den gesamten Pfad mit Ausnahme von
/projects
. Beispiel:https://mycluster.com/discovery/core/instances/00000000-0000-0000-0001-597165341876
- Gehen Sie zurück zu dem Browser-Tab, der den leeren Discovery-Bildschirm anzeigt. Diese URL-Struktur wird wie folgt aussehen:
https://mycluster.com/discovery/core/collections/new?redirect_uri=...
- Ersetzen Sie
https://mycluster.com/discovery/core
durch die zuvor kopierte URL, sodass die neue URL wie folgt aussehen sollte:https://mycluster.com/discovery/core/instances/00000000-0000-0000-0001-597165341876/collections/new?redirect_uri=...
- Drücken Sie die Eingabetaste, um aktualisierte URL zu öffnen. Sie sollten sich nun auf der Watson-Seite Discovery Sammlungen verwalten befinden.
- Wählen Sie im Menü des IBM Cloud Pak for Data-Web-Clients Eigene Instanzen aus. Beispiel:
Sehen Sie sich auch die in allen vorherigen Releases erkannten Probleme an.
2.1.2, 31. März 2020
-
Bei Verwendung des Passagenabrufs mit Koreanisch, Polnisch, Japanisch, Slowakisch oder Chinesisch können in dieser Version deutlich längere Antwortzeiten auftreten. Um dies zu beheben, inaktivieren Sie entweder den Passagenabruf oder laden Sie eine angepasste Stoppwortliste mit Wörtern hoch, die in Ihren Dokumenten häufig vorkommen (z. B. Präpositionen und Pronomen). Unter Stoppwörter definieren finden Sie Beispiel-Stoppwortlisten in mehreren Sprachen. Siehe auch Stopwords ISO) auf GitHub.
-
[Update: Fehler in Version 2.1.3 behoben]. In den Versionen 2.1.2, 2.1.1 und 2.1.0 werden einzelne Bilddateien im Format PNG, TIFF und JPG nicht gescannt und es wird kein Text aus diesen Dateien extrahiert. Auch PNG-, TIFF- und JPEG-Grafiken, die in PDF-, Word-, PowerPoint- und Excel-Dateien eingebettet sind, werden nicht gescannt und es wird kein Text aus diesen Bilddateien extrahiert.
-
Smart Document Understanding unterstützt keine Konvertierung von
.doc
,.docx
,.odf
,.xls
,.xlsx
,.ods
,.ppt
,.pptx
und.odp
, wenn FIPS (Federal Information Processing Standards) aktiviert ist. -
In einer Content Mining-Anwendung werden alle festgelegten Dokumentflags gelöscht, wenn der Index für diese Sammlung erneut erstellt wird.
-
Ab Release 2.1.2 wird beim Hochladen und Verwalten von Relevanztrainingsdaten unter Verwendung der APIs aus Version 1 kein Relevanz-Trainingsmodell trainiert. Die v1-APIs wurden durch die v2-APIs für die Relevanzschulung für Projekte ersetzt. Wenn Ihre Trainingsdaten beibehalten werden müssen, können sie unter Verwendung der API der Version 1 aufgelistet und dann einem Projekt mit der API der Version 2 hinzugefügt werden.
-
Mehrere reguläre Ausdrücke können nicht gleichzeitig auf eine Sammlung angewendet werden.
-
IBM Cloud Pak for Data Es gab zwei kleine Änderungen an der Installationsanleitung README, die beim Download von IBM Watson® Discovery for IBM Cloud Pak® for Data enthalten war. Die aktuelle Version der README-Datei finden Sie unter Discovery Helm chart README.md.
- Eine Änderung an der Beschreibung des Arguments
--cluster-pull-prefix PREFIX
. - Der Name des Spracherweiterungspakets wurde von
ibm-watson-discovery-pack1-2.1.2.tar.xz.
inibm-wat-dis-pack1-prod-2.1.2.tar.xz
geändert.
- Eine Änderung an der Beschreibung des Arguments
Sehen Sie sich auch die in allen vorherigen Releases erkannten Probleme an.
2.1.1, 24. Januar 2020
- Beim Erstellen eines Wörterbuchs werden vorgeschlagene Wörterbuchbegriffe standardmäßig in Kleinbuchstaben umgewandelt (z. B. wird Watson Assistant in watson assistant
umgewandelt). Um sicherzustellen, dass auch Großbuchstaben übereinstimmen, sollten sie ausdrücklich als Teil der
Other terms
-Liste oder alsBase term
aufgenommen werden. - Beim Sichern und Wiederherstellen von Daten werden Trainingsdaten nicht erfolgreich wiederhergestellt. Wenn die Dokumente in Ihrer Sammlung durch Crawlersuche mithilfe eines Connectors oder eines Web-Crawlers hinzugefügt wurden, können Ihre Trainingsdaten separat für die Sicherung aus einem vorhandenen Projekt abgerufen und in ein neues wiederhergestelltes Projekt hochgeladen werden. Weitere Informationen finden Sie unter "List training queries" und "Create training queries " in der API-Referenz.
- Wenn eine Crawlersuche in SharePoint-Online- oder SharePoint-OnPrem-Dokumenten durchgeführt wird, werden JSON-Dokumente möglicherweise nicht ordnungsgemäß indexiert. Es kann außerdem sein, dass der zurückgegebene Titel (
title
) fehlerhaft (errored
) ist. Dies liegt daran, dass SharePoint-Web-Services die Eigenschaftows_FileRef
verwenden, um JSON-Dateien abzurufen. Diese Eigenschaft gibt eine Fehlerseite zurück. Wenden Sie sich zur Lösung dieses Problems an Ihren SharePoint-Administrator und den Microsoft Support. - Wenn Sie eine Sammlung, die in Version 2.0.1 erstellt wurde, auf Version 2.1.0 oder 2.1.1 migrieren, wird dieser Sammlung kein Projekttyp zugewiesen und die Sammlung kann nicht abgefragt werden. Wenn Sie einen Projekttyp zuweisen möchten, öffnen Sie die Seite Projekte, indem Sie Eigene Projekte auswählen. Benennen Sie Ihr Projekt und wählen Sie einen der Projekttypen aus:
Document Retrieval
,Conversational Search
,Content Mining
oderCustom
.
Sehen Sie sich auch die in allen vorherigen Releases erkannten Probleme an.
2.1.1 Probleme, die in nachfolgenden Releases behoben wurden
-
[Behoben in Version 2.1.2]. Bei der Installation von Discovery for Cloud Pak for Data auf OpenShift, kann es vorkommen, dass der
ranker-rest
-Dienst aufgrund eines inkompatiblen JAR-Archivs inclasspath
zeitweise nicht startet. Gehen Sie folgendermaßen vor, um das Problem zu beheben:-
Öffnen Sie den Editor
ranker-rest
mit diesem Befehl:kubectl edit deployment {release-name}-{watson-discovery}-ranker-rest
-
Suchen Sie im Editor nach dem
ranker-rest image
(z. B.{docker-registry}/{namespace}/discovery-ranker-rest-service:20200113-150050-2-d1527c2
) -
Fügen Sie unter
{docker-registry}/{namespace}/discovery-ranker-rest-service:20200113-150050-2-d1527c2
den folgenden Befehl hinzu:command: ["/tini"] args: ["-s", "-v", "--", "java", "-Dkaryon.ssl=true", "-Dkaryon.port=9081", "-Dkaryon.ssl.port=9090", "-Dkaryon.ssl.certificate=/opt/bluegoat/karyon/ssl/karyon-cert.pem", "-Dkaryon.ssl.privatekey=/opt/bluegoat/karyon/ssl/karyon-private-key.pem", "-Djavax.net.ssl.trustStore=/opt/bluegoat/karyon/ssl/keystore.jks", "-Djavax.net.ssl.keyStore=/opt/bluegoat/karyon/ssl/keystore.jks", "-Dlog4j.debug=false", "-Dlitelinks.threadcontexts=log4j_mdc", "-Dwatson.ssl.truststore.path=/opt/bluegoat/karyon/ssl/litelinks-truststore.jks", "-Dwatson.ssl.truststore.password=watson15qa", "-Dlitelinks.delay_client_close=false", "-Drxnetty.http.maxcontentlength=314572800", "-cp", "lib/logback-classic-1.2.3.jar:*:lib/*", "com.ibm.watson.raas.rest.Runner"]
-
2.1.0, 27. November 2019
- Wenn Sie eine Aufbereitung auf eine Sammlung anwenden, muss die Aufbereitungssprache mit der Sprache der Sammlung übereinstimmen. Andernfalls schlägt die Anwendung fehl. Die Tools zeigen alle Sammlungen unabhängig von der Sprache an.
- Auf der Registerkarte "Felder verwalten" können Sie vom System generierte Felder bearbeiten. Für die folgenden Felder sollten Sie nicht den Feldtyp ändern oder die Indexierung inaktivieren:
document_id
,extracted_metadata
,metadata
. - Wenn Sie eine Sammlung löschen und die Option
Don't delete underlying data
auswählen, wird eine nicht abgeschlossene Crawlersuche in aufgenommenen Dokumenten im Hintergrund weitergeführt, was sich auf die Startzeit für eine neue Crawlersuche auswirkt, bis die aktuelle Crawlersuche abgeschlossen ist. - IBM Cloud Pak for Data Discovery kann aufgrund von Komponenten, die in einen Sperrzustand geraten, nicht richtig starten. Für die Aufhebung des Sperrstatus kann ein manueller Datenbankeingriff notwendig sein. Weitere Informationen zum Ermitteln und Beheben dieses Problems finden Sie unter Sperrstatus aufheben.
- Wenn Sie die Funktion "Daten hochladen" verwenden, um ein Dokument hochzuladen, dieses Dokument dann löschen und anschließend versuchen, entweder dasselbe Dokument oder ein anderes Dokument mit derselben Dokument-ID hochzuladen,
schlägt der Upload fehl und die Nachricht
Error during creating a document
wird angezeigt. - Dokumente, die bei der Verarbeitung ein Feld
html
erzeugen, können nicht mit Relevanztraining verwendet werden. HTML wird für Dokumente erzeugt, die mit Smart Document Understanding oder Content Intelligenceverarbeitet werden. Das Feldhtml
muss entfernt werden, damit das Relevanztraining erfolgreich abgeschlossen werden kann. - Wenn die Anreicherung der Wortart nicht aktiviert ist: Es werden keine dynamischen Facetten erstellt, Wörterbuchvorschläge können nicht verwendet werden, "extrahierte Facetten" von Content Miner werden nicht generiert.
- [Update: behoben in Version 2.1.1] Discovery für Content Intelligence und Table Understanding-Anreicherungen sind standardmäßig so konfiguriert, dass sie auf ein Feld namens
html
angewendet werden. Wenn ein Benutzer ein JSON-Dokument ohne ein Stammfeld namenshtml
hochlädt, führen diese Anreicherungen nicht zu Ergebnissen im Index. Wenn Sie diese Aufbereitungen für diese Art von JSON-Dokumenten ausführen möchten, müssen Sie die Aufbereitungen so rekonfigurieren, dass sie für vorhandene Felder im JSON-Dokument ausgeführt werden können. - Beim Anzeigen der Content-Miner-Bereitstellungsseite wird manchmal nicht die vollständige Anwendungs-URL zum Kopieren angezeigt. Aktualisieren Sie die Seitenanzeige, um dieses Problem zu lösen.
- [Update: Fehler in Version 2.1.2 behoben]. Durch die Deaktivierung einer IBM Watson® Discovery for IBM Cloud Pak® for Data-Instanz werden die zugrunde liegenden Daten nicht gelöscht. Löschen Sie die Sammlungen und Dokumente manuell.
- [Update: Fehler in Version 2.1.3 behoben]. Im Bereich "Verbesserungswerkzeuge" ist die Anreicherung
Sentiment of phrases
aufgeführt, aber derzeit nicht verfügbar. - In Content-Mining-Projekten können die
dates
-Felder möglicherweise nicht ordnungsgemäß für eine Anzeige in Facetten analysiert werden. - Der Umschalter "Dynamische Facetten" sollte nicht in Content-Mining-Projekten angezeigt werden.
- Wenn gültige dynamische Facetten generiert werden sollen, müssen mindestens 50-100 Dokumente aufgenommen werden.
- Wenn Sie auf Stoppen klicken, um einen Crawler zu stoppen, und der Konvertierungsprozess langsam oder fehlerhaft ist, wird möglicherweise ein Status des aktiven Crawlers angezeigt.
- Die Gesamtgröße aller Nicht-HTML-Felder von hochgeladenen und durchsuchten Dokumenten ist auf 1 MB begrenzt, was 1.048.576 Bytes entspricht. Die Gesamtgröße aller HTML-Felder in diesen Dokumenten ist auf 5 MB begrenzt. Wenn Sie einen der Grenzwerte
überschreiten, empfangen Sie die Fehlernachricht
The document has fields/HTML fields that exceed the 1 MB/5 MB limit.
. Das Dokument wird dann nicht aufgenommen. Wenn Sie Hilfe bei der Erhöhung einer der beiden Größenbeschränkungen benötigen, wenden Sie sich an das Support-Center unter IBM.
Sehen Sie sich auch die in allen vorherigen Releases erkannten Probleme an.
2.0.1, 30. August 2019
- Wenn Sie mit einem Modell von IBM Watson® Knowledge Studio eine Machine Learning-Aufbereitung erstellt haben, können auf der Seite Felder aufbereiten zwei identisch benannte Aufbereitungen angezeigt werden. Dies hat keine Auswirkungen auf die Aufbereitungen. Es ist jedoch am besten, wenn Sie nur eine der Aufbereitungen auswählen und diese dann auf Felder anwenden.
- Wenn ein Web-Crawl bei der Verarbeitung einer bestimmten Anzahl von Dokumenten stecken zu bleiben scheint und auf der Seite "Protokolle" die Meldung
The ingestion job <jobid> is terminated incorrectly
angezeigt wird, wenden Sie sich an IBM support, um Unterstützung beim Neustart des Crawls zu erhalten. - Wenn Sie ein Training für Ihre Sammlungen durchführen, können die Trainingsdaten einer dieser Sammlungen auf der Seite Training für eine Sammlung ohne Training angezeigt werden. Wenn Sie die Seitenanzeige aktualisieren, werden die Trainingsdaten gelöscht.
- Die folgenden Dokumenttypen werden nicht verarbeitet, wenn sie nicht die richtige Dateierweiterung haben: .docx, .pptx, .xlsx.
Sehen Sie sich auch die im vorherigen Release erkannten Probleme an.
2.0.1 Probleme, die in nachfolgenden Releases behoben wurden
- [Behoben in Version 2.1.2] Wenn Sie Dokumente in eine Sammlung mit vorhandenen Dokumenten hochladen, wird auf der Seite "Aktivität" eine
Documents uploaded!
-Nachricht angezeigt, aber es wird kein weiterer Verarbeitungsstatus angezeigt, bis sich die Anzahl der Dokumente erhöht.
Veröffentlichung der allgemeinen Verfügbarkeit (GA), 28. Juni 2019
- Wenn Sie mit den Discovery for Cloud Pak for Data-Tools arbeiten und die IBM Cloud Pak® for Data-Sitzung abläuft, wird eine leere Seite angezeigt. Wenn Sie zu den Tools zurückkehren möchten, aktualisieren Sie den Browser und melden Sie sich erneut an.
- Alle JSON-Dateien, die in Discovery eingepflegt wurden, müssen die Dateierweiterung .json aufweisen.
- Wenn Sie den Wert für
collection_id
für eine trainierte Sammlung abfragen, kann für den Wert vontraining_status.notices
gelegentlich0
anstatt des korrekten Werts angezeigt werden. - In diesem Release werden nicht alle Einschränkungen für Abfragen erzwungen. Die vollständige Liste der ausgeschlossenen Felder finden Sie unter Einschränkungen für Abfragen.
- In JSON-Quellendokumenten sollten Sie die folgenden vom System generierten Felder nicht duplizieren:
document_id
,parent_document_id
,filename
undtitle
. Die duplizierten Felder würden in Arrays verschachtelt werden und bestimmte Features beeinträchtigen, z. B. das Ranker-Training. - Fügen Sie in Ihren JSON-Dokumenten keine
metadata
-Eigenschaft auf Root-Ebene ein. Wenn Sie ein JSON-Dokument hochladen, das bereits einemetadata
-Eigenschaft auf Stammebene enthält, wird diemetadata
-Eigenschaft des indizierten Dokuments in ein Array im Index umgewandelt. - Verwenden Sie in den CSV-Dateien keine Metadaten für Spaltennamen. Wenn Sie eine CSV-Datei hochladen, von der Metadaten für die Spaltennamen im Header verwendet werden, wird die Eigenschaft
metadata
des indexierten Dokuments in einen Array im Index konvertiert. - In CSV-Dateien müssen Kommas (
,
) oder Semikolons (;
) als Begrenzer verwendet werden; andere Begrenzer werden nicht unterstützt. Wenn in einer CSV-Datei Werte enthalten sind, die entweder Kommas oder Semikolons enthalten, schließen Sie diese Werte in doppelte Anführungszeichen ein, damit sie nicht getrennt werden. Falls Kopfzeilen vorhanden sind, werden die Werte in ihnen auf dieselbe Weise wie die Werte in allen anderen Zeilen verarbeitet. Die letzte Zeile von CSV-Dateien wird nicht verarbeitet, wenn sie nicht mit einem CRLF-Zeichen (Rücklaufzeichen) endet. - Derzeit werden eindeutige Namen für Sammlungen nicht erzwungen. Die Verwendung doppelter Sammlungsnamen wird nicht empfohlen und sollte vermieden werden