copyright: jahre: 2025 lastupdated: "2025-06-09"
unterkategorie: Watson-Assistent
Konfigurieren der Basis-LLM
watsonx Assistant enthält eine Reihe vorgefertigter KI-Modelle und Algorithmen, die zur Erstellung von Texten, Bildern und anderen Arten von Inhalten verwendet werden können. Diese Modelle können auf verschiedene Weise angepasst und kombiniert werden, um anspruchsvollere und leistungsfähigere generative KI-Anwendungen zu erstellen.
Der Abschnitt "Base large language model (LLM)" auf der Seite "Generative AI" hilft Ihnen bei der Konfiguration großer Sprachmodelle für Ihre Assistenten. Die LLMs ermöglichen Ihren Kunden eine nahtlose Interaktion mit den Assistenten ohne speziell entwickelte Konversationsschritte. Sie können die Basis-LLM-Funktionen für die vorhandenen Aktionen in Ihren Assistenten aktivieren, um deren Konversationsfähigkeit zu verbessern.
In der Basiskonfiguration von LLM können Sie folgende Aktionen ausführen:
Auswahl eines großen Sprachmodells für Ihren Assistenten
Um das LLM auszuwählen, das zu Ihrem Unternehmensökosystem passt, gehen Sie wie folgt vor:
-
Zur Startseite > Generative KI.
-
Wählen Sie im Abschnitt "Großes Sprachmodell (LLM)" der Basis das große Sprachmodell aus der Dropdown-Liste "Modell auswählen " aus.
LLM-Beschreibungstabelle
Die folgende Tabelle enthält eine Liste der LLMs, die von watsonx Assistant unterstützt werden.
LLM-Modell | Beschreibung |
---|---|
ibm/granite-13b-chat-v2 Zurückgezogen |
Das Granite 13 Milliarden Chat V2 (granite-13b-chat-v2 ) Modell ist die Chat-fokussierte Variante, die aus dem vorab trainierten Granite Base 13 Milliarden Base V2 (granite-13b-base-v2 ) Modell initialisiert wurde.
granite-13b-base-v2 wird mit über 2.5T Token trainiert. IBM Generative KI-Modelle der Large Language Foundation sind englischsprachige Modelle auf Unternehmensebene, die mit einer großen Datenmenge trainiert werden, die
einer intensiven Vorverarbeitung und sorgfältigen Analyse unterzogen wird. |
ibm/granite-13b-instruct-v2 |
Das Modell Granite 13 Billion Instruct V2 (granite.13b.instruct.v2 ) ist die auf Anweisungen abgestimmte Variante, die aus dem vorab trainierten Modell Granite Base 13 Billion Base V2 (granite.13b.base.v2 ) initialisiert
wurde. granite.13b.base.v2 wird mit über 2.5T-Token trainiert. IBM Generative KI-Modelle der Large Language Foundation sind englischsprachige Modelle auf Unternehmensebene, die mit einer großen Datenmenge trainiert werden,
die einer intensiven Vorverarbeitung und sorgfältigen Analyse unterzogen wird. |
ibm/granite-3-8b-instruct |
Granite-3.0-8B-Instruct ist ein 8B-Parametermodell, das aus Granite-3.0-8B-Base mithilfe einer Kombination aus Open-Source-Anweisungsdatensätzen mit freizügiger Lizenz und intern gesammelten synthetischen Datensätzen verfeinert wurde. Das Modell ist so konzipiert, dass es auf allgemeine Anweisungen reagiert und kann verwendet werden, um Assistenten für mehrere Bereiche, einschließlich Geschäftsanwendungen, zu erstellen. |
ibm/granite-3-2b-instruct |
Granite-3.0-2B-Instruct ist ein leichtgewichtiges und quelloffenes 2B-Parametermodell, das von Granite-3.0-2B-Base auf einer Kombination aus quelloffenen und proprietären Anweisungsdaten mit einer freizügigen Lizenz abgestimmt wurde. Das Modell ist so konzipiert, dass es auf allgemeine Anweisungen reagiert und zur Erstellung von Assistenten für mehrere Bereiche, einschließlich Geschäftsanwendungen, verwendet werden kann. |
Hinzufügen von Anweisungen
Sie können dem LLM in Ihrem Assistenten durch Hinzufügen von Anweisungen Anweisungen geben, um präzisere Antworten zu erhalten. Die sofortigen Anweisungen helfen den LLMs, die Gespräche klar und präzise zu führen, um das Endziel einer Aktion zu erreichen. Führen Sie die folgenden Schritte aus, um die Eingabeaufforderung hinzuzufügen:
-
Zur Startseite > Generative KI.
-
Klicken Sie im Abschnitt "Anweisungen für Eingabeaufforderung hinzufügen " auf "Anweisungen hinzufügen ", um das Feld "Anweisungen für Eingabeaufforderung" anzuzeigen.
-
Geben Sie die Eingabeaufforderungen in das Feld "Eingabeaufforderung" ein.
Die maximale Anzahl der Zeichen, die Sie in das Feld "Prompt-Anweisung" eingeben können, beträgt 1.000.
Auswahl des Antwortverhaltens Ihres Assistenten
Sie können das Antwortverhalten Ihres Assistenten so konfigurieren, dass er Antworten gibt, die auf den vorinstallierten Inhalten basieren. Das Antwortverhalten, das Sie konfigurieren können, ist:
- Dialogsuche
Um die Konversationssuche zu verwenden, konfigurieren Sie die Suchintegration und aktivieren Sie die Konversationssuche.
Ausschalten: Die konversationelle Suche deaktiviert den Prozess, der sie im Routing-Prioritätspfad aufruft. Sie deaktivieren nicht die Suchfunktion selbst.
Nur Plus- oder Enterprise-Pläne unterstützen die Conversational Search. Ab dem 1. Juni 2024 fallen für die Nutzung der Konversationssuchfunktion zusätzlich zu Ihren Plus- oder Enterprise-Plänen Zusatzgebühren an. Weitere Informationen zu den Preisplänen finden Sie unter Preispläne. Weitere Informationen zu den Nutzungsbedingungen finden Sie unter Nutzungsbedingungen.
Bei der Konversationssuche verwendet das LLM Inhalte, die während der Suchintegration vorab geladen werden, um Kundenanfragen zu beantworten.
Unterstützte Sprachen für die Konversationssuche
Sie können die Konversationssuche mit anderen Sprachen als Englisch verwenden, einschließlich Französisch, Spanisch, Deutsch und brasilianisches Portugiesisch. Sie können testen, ob Sie in Ihrer Sprache zufriedenstellende Ergebnisse erzielen.