Copyright ©
Mindbreeze GmbH, A-4020 Linz, 2024.
Alle Rechte vorbehalten. Alle verwendeten Hard- und Softwarenamen sind Handelsnamen und/oder Marken der jeweiligen Hersteller.
Diese Unterlagen sind streng vertraulich. Durch die Übermittlung und Präsentation dieser Unterlagen alleine werden keine Rechte an unserer Software, an unseren Dienstleistungen und Dienstleistungsresultaten oder sonstigen geschützten Rechten begründet. Die Weitergabe, Veröffentlichung oder Vervielfältigung ist nicht gestattet.
Aus Gründen der einfacheren Lesbarkeit wird auf die geschlechtsspezifische Differenzierung, z.B. Benutzer/-innen, verzichtet. Entsprechende Begriffe gelten im Sinne der Gleichbehandlung grundsätzlich für beide Geschlechter.
Retrieval Augmented Generation (RAG) ist eine Technik zur Verarbeitung natürlicher Sprache, die Stärken von abfragebasierten und generativen Modellen der künstlichen Intelligenz (KI) kombiniert. In einem RAG-basierten KI-System wird ein Abfragemodell verwendet, um relevante Informationen aus vorhandenen Informationsquellen zu finden. Währenddessen nimmt das generative Modell die abgefragten Informationen auf, synthetisiert alle Daten und formt sie in eine zusammenhängende, kontextbezogene Antwort um.
Die Anleitung für die Initialeinrichtung eines LLMs finden Sie in Konfiguration – InSpire AI Chat und Insight Services für Retrieval Augmented Generation.
Um ein Large Language Model (LLM) für Ihre Pipelines zu konfigurieren, wechseln Sie im Menüpunkt „RAG“ zum Bereich "LLMs".
Klicken Sie auf "Hinzufügen" und wählen Sie das entsprechende LLM aus, um es zu konfigurieren. Derzeit sind vier LLMs für die Integration verfügbar:
Die folgenden Einstellungen können für das jeweilige LLM konfiguriert werden.
Beim Anlegen eines OpenAI LLMs werden Sie durch einen Dialog auf die Datenschutzbestimmungen hingewiesen. Sie müssen diesen Datenschutzbestimmungen zustimmen, um mit dem Anlegen fortzufahren.
Achtung: Bei Verwendung der OpenAI API werden Chat Eingaben des Benutzers und von Ihrer Organisation indizierte Informationen über Prompts an die jeweiligen Endpunkte übermittelt. Der Umgang mit den übermittelten Informationen richtet sich nach den Datenschutz-Bestimmungen des entsprechenden KI-Anbieters. Mindbreeze ist für die weiterführende Datenverarbeitung nicht verantwortlich. Der KI-Anbieter ist weder Erfüllungsgehilfe noch Unterauftragsverarbeiter von Mindbreeze. Wir weisen darauf hin, dass eine rechtmäßige Nutzung von KI-Dienstleistungen nach gegenwärtiger Einschätzung nicht sichergestellt ist (vorsorglicher Hinweis nach Art 28 Abs. 3 S. 3 DSGVO). Für weitere Informationen und Risiken wird auf die jeweiligen Datenschutzhinweise des jeweiligen KI-Anbieters verwiesen.
Mehr Informationen erhalten Sie unter https://openai.com/enterprise-privacy .
Durch Bestätigung der Checkbox weisen Sie als Datenverantwortlicher Mindbreeze an, diese Übermittlung dennoch durchzuführen und nehmen den oben beschriebenen Hinweis zur Kenntnis.
Einstellung | Beschreibung |
API Key (erforderlich) | Der API-Key. |
Modell (erforderlich) | Der Name des zu verwendenden Open AI LLM. |
Mit "Verbindung testen" wird geprüft, ob die angegebenen Werte gültig sind und ob die Verbindung hergestellt werden kann.
Für die Bereiche „Allgemein“, „Prompt“ und „Test“ siehe das Kapitel Allgemeine Teile der LLM-Einstellungen.
Beim Anlegen eines Azure OpenAI LLMs werden Sie durch einen Dialog auf die Datenschutzbestimmungen hingewiesen. Sie müssen diesen Datenschutzbestimmungen zustimmen, um mit dem Anlegen fortzufahren.
Achtung: Bei Verwendung der Azure OpenAI API werden Chat Eingaben des Benutzers und von Ihrer Organisation indizierte Informationen über Prompts an die jeweiligen Endpunkte übermittelt. Der Umgang mit den übermittelten Informationen richtet sich nach den Datenschutz-Bestimmungen des entsprechenden KI-Anbieters. Mindbreeze ist für die weiterführende Datenverarbeitung nicht verantwortlich. Der KI-Anbieter ist weder Erfüllungsgehilfe noch Unterauftragsverarbeiter von Mindbreeze. Wir weisen darauf hin, dass eine rechtmäßige Nutzung von KI-Dienstleistungen nach gegenwärtiger Einschätzung nicht sichergestellt ist (vorsorglicher Hinweis nach Art 28 Abs. 3 S. 3 DSGVO). Für weitere Informationen und Risiken wird auf die jeweiligen Datenschutzhinweise des jeweiligen KI-Anbieters verwiesen.
Mehr Informationen erhalten Sie unter https://learn.microsoft.com/de-de/legal/cognitive-services/openai/data-privacy
Durch Bestätigung der Checkbox weisen Sie als Datenverantwortlicher Mindbreeze an, diese Übermittlung dennoch durchzuführen und nehmen den oben beschriebenen Hinweis zur Kenntnis.
Einstellung | Beschreibung |
URL (erforderlich) | URL des LLM Endpoint. |
API Key (erforderlich) | Der API Key. |
Einstellung | Beschreibung |
Azure Bereitstellung (erforderlich) | Name der Azure Bereitstellung. |
Für die Bereiche „Allgemein“, „Prompt“ und „Test“ siehe das Kapitel Allgemeine Teile der LLM-Einstellungen.
Einstellung | Beschreibung |
URL (erforderlich) | URL des LLM Endpoint. |
Einstellung | Beschreibung |
User Message Token User Message End Token Assistant Message Token Assistant Message End Token Message End Token | Je nach Modell auszufüllen (Default: Only the Message End Token is used with the Value “</s>” |
Für die Bereiche „Allgemein“, „Prompt“ und „Test“ siehe das Kapitel Allgemeine Teile der LLM-Einstellungen.
Beim Anlegen eines Aleph Alpha LLMs werden Sie durch einen Dialog auf die Datenschutzbestimmungen hingewiesen. Sie müssen diesen Datenschutzbestimmungen zustimmen, um mit dem Anlegen fortzufahren.
Achtung: Bei Verwendung der Aleph Alpha API werden Chat Eingaben des Benutzers und von Ihrer Organisation indizierte Informationen über Prompts an die jeweiligen Endpunkte übermittelt. Der Umgang mit den übermittelten Informationen richtet sich nach den Datenschutz-Bestimmungen des entsprechenden KI-Anbieters. Mindbreeze ist für die weiterführende Datenverarbeitung nicht verantwortlich. Der KI-Anbieter ist weder Erfüllungsgehilfe noch Unterauftragsverarbeiter von Mindbreeze. Wir weisen darauf hin, dass eine rechtmäßige Nutzung von KI-Dienstleistungen nach gegenwärtiger Einschätzung nicht sichergestellt ist (vorsorglicher Hinweis nach Art 28 Abs. 3 S. 3 DSGVO). Für weitere Informationen und Risiken wird auf die jeweiligen Datenschutzhinweise des jeweiligen KI-Anbieters verwiesen.
Mehr Informationen erhalten Sie unter https://aleph-alpha.com/de/datenschutz/
Durch Bestätigung der Checkbox weisen Sie als Datenverantwortlicher Mindbreeze an, diese Übermittlung dennoch durchzuführen und nehmen den oben beschriebenen Hinweis zur Kenntnis.
Einstellung | Beschreibung |
API Key (erforderlich) | Der API-Key. |
Modell (erforderlich) | Der Name des zu verwendenden Aleph Alpha LLM. |
Mit "Verbindung testen" wird geprüft, ob die angegebenen Werte gültig sind und ob die Verbindung hergestellt werden kann.
Für die Bereiche „Allgemein“, „Prompt“ und „Test“ siehe das Kapitel Allgemeine Teile der LLM-Einstellungen.
Einstellung | Beschreibung |
Name | Name des Large Language Models. |
Maximale Länge der Antwort (Tokens) | Begrenzt die Menge der erzeugten Token (1 Token ~ 1 Wort). Der Wert "0" begrenzt die Token nicht. Begrenze die Länge der Antwort, um zu lange Antworten zu vermeiden und die Belastung des LLM Endpoints zu verringern. Achtung: Stellen Sie sicher, dass die Länge des Prompts und die maximale Antwortlänge nicht größer ist als die Länge des Kontextes des Modells. |
Zufälligkeit (Temperatur) überschreiben | Wenn aktiviert, wird die Standardtemperatur des LLM mit der konfigurierten "Zufälligkeit der Antwort" überschrieben. |
Zufälligkeit der Antwort (Temperatur) | Steuert die Zufälligkeit der generierten Antwort (0 - 100%). Höhere Werte machen die Ausgabe kreativer, während niedrigere Werte sie zielgerichteter und deterministischer machen. |
Wiederholungsstrafe überschreiben | Ist diese Einstellung aktiviert, wird der Wert von der Einstellung „Wiederholungsstrafe“ als LLM Parameter übernommen. |
Wiederholungsstrafe | Mit diesem Parameter können Token, basierend auf ihrer Häufigkeit im Text, bestraft werden:
|
Top P überschreiben | Ist diese Einstellung aktiviert, wird der Wert von der Einstellung „Top-P“ als LLM Parameter übernommen. |
Top P | Mit diesem Parameter kann der Top-P Wert definiert werden. Der eingegebene Wert muss größer als 0 aber kleiner als 1 sein. |
Stopsequenzen | Falls Stopsequenzen definiert sind, beendet das Modell die Generierung eines Textes sofort, sobald eine solche Sequenz vom Modell generiert worden ist. Selbst wenn die Ausgabelänge das angegebene Token-Limit noch nicht erreicht hat, wird die Textgenerierung beendet. |
Einstellung | Beschreibung |
Preprompt | Ein Pre-Prompt wird verwendet, um spezifische Rollen, Absichten und Einschränkungen auf jeden nachfolgenden Prompt eines Modells anzuwenden. |
Prompt Examples | Siehe das Kapitel Prompt Beispiele. |
Diese Beispiele werden im Mindbreeze InSpire AI Chat als Beispielfragen angezeigt. Dementsprechend eignen sich häufig gestellte Fragen als Prompt Beispiele. Durch das Anklicken eines Prompt Beispiels wird diese Frage im Mindbreeze InSpire AI Chat automatisch eingegeben. Ein Prompt Beispiel kann erstellt werden, indem Sie auf „Hinzufügen“ drücken und die folgenden Felder befüllen:
Einstellung | Beschreibung | Beispiel |
Titel | Der Titel des Prompt Beispiels. Dieser Text wird im Mindbreeze InSpire AI Chat angezeigt | Fragen Sie, wie viele Konnektoren Mindbreeze unterstützt. |
Prompt | Die Frage oder Anweisung, die im Mindbreeze InSpire AI Chat eingegeben wird. | Wie viele Konnektoren unterstützt Mindbreeze? |
Klicken Sie auf „Speichern“ um das Prompt Beispiel zu sichern. Es können beliebig viele Prompt Beispiele erstellt werden. Sind alle Prompt Beispiele erstellt, speichern sie das gesamte LLM um die Änderungen zu sichern.
Auf dieser Seite kann die Konfiguration getestet werden. Falls LLM Parameter definiert worden sind, werden dieser hier nochmals zusammengefasst. Beachten Sie, dass der generierte Text nicht auf abgerufenen Dokumenten basiert.
Nach dem Testen der LLM-Einstellungen klicken Sie auf "Speichern", um das LLM zu speichern.
Um eine Pipeline zu erstellen, wechseln Sie in den Bereich „Generative Pipelines“. Klicken Sie auf „Hinzufügen“, um mit der Erstellung einer neuen Pipeline zu beginnen.
Die Erstellung einer Pipeline teilt sich in fünf Bereiche auf:
In den folgenden Kapiteln wird genauer auf die einzelnen Bereiche eingegangen.
Im Bereich „Allgemein“ können folgende allgemeine Einstellungen vorgenommen werden:
Einstellung | Beschreibung |
Name der Pipeline | Der Name, der im Mindbreeze InSpire AI Chat angezeigt wird. |
Beschreibung | Beschreibung der Pipeline. |
Version | Eine generierte Versions-ID. |
Vorgängerversion | Die vorhergehende Version, worauf diese Version basiert. |
Versionsname | Wenn eine Pipeline freigegeben wird, muss ein Versionsname angegeben werden. Der Versionsname wird nicht im Mindbreeze InSpire AI Chat angezeigt und dient zur Nachvollziehbarkeit von Änderungen an der Pipeline. Der Versionsname soll eine kurze Zusammenfassung der Änderungen beinhalten. |
Versionsbeschreibung | Eine detailliertere Beschreibung der Änderungen in der Pipeline. |
Pipeline Key | Schlüssel einer Pipeline (vgl. Erstellung von Datensets). |
Im Bereich „Prompt Beispiele“ können Beispielfragen für eine Pipeline hinzugefügt werden, die im AI Chat angezeigt werden. Sind keine Beispielfragen in der Pipeline definiert, werden Beispielfragen vom LLM übernommen. Sind auch im LLM keine Beispielfragen definiert, werden im AI Chat keine Beispielfragen angezeigt. Für mehr Informationen zu Prompt Beispielen, siehe das Kapitel Erstellung von Prompt Beispielen.
Sind die notwendigen Einstellungen erledigt, können Sie mit „Weiter“ oder mit einem Klick auf den gewünschten Bereich in der linken Navigationsleiste zum nächsten Bereich fortfahren.
Dieser Bereich hat momentan noch keine Auswirkungen auf die Pipeline und kann übersprungen werden.
Im Bereich „Beispiele“ können Sie ein neues Datenset erstellen oder ein existierendes Datenset hinzufügen. Die Datensets in diesem Bereich können zukünftig für die Evaluierung der Pipeline verwendet werden, damit die Auswirkungen einer Änderung untersucht werden können.
Wenn hier ein neues Datenset erstellt wird, dann wird dies automatisch der Pipeline hinzugefügt. Für mehr Informationen, siehe das Kapitel Hinzufügen von Daten.
Wenn Sie bereits ein (oder mehrere) Datensets erstellt haben, welche Sie in dieser Pipeline verwenden möchte, können Sie dies hinzufügen, indem Sie auf „Existierendes Datenset hinzufügen“ klicken. In dem Kontextmenü können Sie mehrere Datensets auswählen und durch „Hinzufügen“ in ihrer Pipeline verwenden.
Nur Indizes, die das Feature „Semantic Sentence Similarity Search” aktiviert haben, können im AI Chat Antworten für die Generierung liefern.
Im Bereich „Retrieval“ kann der Retrieval-Teil des RAG konfiguriert werden. Dabei stehen die folgenden Einstellungen zur Verfügung:
Einstellung | Beschreibung |
Suchservice | Client Service, welcher für die Suche verwendet werden soll. |
SSL Zertifikat Überprüfung überspringen | Ist dies aktiviert, wird bei der Suche keine Überprüfung des SSL-Zertifikats durchgeführt. |
Nur Content verarbeiten | Wenn diese Eigenschaft gesetzt wird, werden nur Antworten, aus dem content Metadatum verwendet. Ansonsten werden Antworten aus allen Metadaten verarbeitet. |
Maximale Anzahl Antworten | Die ersten n Antworten der Suche werden prozessiert und werden für den Prompt verwendet. Hinweis: Wenn n = 0 und das Prompt Logging im app.telemetry deaktiviert ist, dann haben die Spalten für die Antworten im CSV Logging keine Spaltenüberschriften für die Antwort-Details. |
Minimaler Antwort Score [0-1] | Es werden nur Antworten prozessiert, die eine größere Antwort-Wertung haben. Hinweis: Wenn der Score in der Pipeline 0 ist, dann wird (wenn gesetzt) der Minimum Score aus den Similarity Search Settings des Client Services verwendet. |
Antwortgröße | Die Textlänge der abgerufenen Antworten. Es stehen die Optionen „Standard“ und „Groß“ zur Verfügung. Standardwert: Standard. |
Satzzeichen entfernen | Ist diese Einstellung aktiviert, werden folgende Satzzeichen entfernt:
|
Im Abschnitt „Regeln“ kann die Pipeline verfeinert und auf die jeweiligen Anforderungen angepasst werden.
Einstellung | Beschreibung |
Überschreiben der Suchanfragenvorlage erlauben | Erlaubt das Überschreiben von Werten der Suchanfragenvorlage via API-Requests. Nur relevant, wenn die API direkt verwendet wird. Für mehr Informationen, siehe api.chat.v1beta.generate Schnittstellenbeschreibung. |
Sucheinschränkung | Bei der Suche mittels Search Service wird der Wert in diesem Feld (sofern vorhanden) auch als Bedingung in die Suche miteingenommen. |
Datenquelle inkludieren | Wenn (eine oder mehrere) Datenquellen inkludiert werden, dann werden automatisch alle anderen Datenquellen ausgeschlossen. |
Datenquelle ausschließen | Wenn (eine oder mehrere) Datenquellen ausgeschlossen werden, dann werden automatisch alle anderen Datenquellen eingeschlossen. |
Im Abschnitt „Verwendete Datenquellen“ wird eine Übersicht über die effektiven Datenquellen des gewählten Suchservices geboten.
Im Bereich „Generation“ wird die Prompt-Generierung konfiguriert, das LLM und die Prompt Templates ausgewählt, die mit den Suchergebnissen befüllt und anschließend zum konfigurierten LLM geschickt werden.
Wählen Sie in der Einstellung „Model“ das von Ihnen erstellte LLM aus. Durch die Auswahl des LLMs erhalten Sie eine Zusammenfassung bestehend aus den folgenden Punkten:
Einstellung | Beschreibung |
Model | Legt fest, welches LLM ausgewählt ist. |
Chat History verwenden | Ist diese Einstellung aktiviert, wird der Inhalt der bisher geführten Konversation zur Generierung der nächsten Antwort herangezogen. |
Maximale Anzahl verwendeter Chat History Messages | Diese Einstellung ist nur wirksam, wenn „Chat-History verwenden“ aktiv ist. Limitiert die Anzahl an Chat-History Nachrichten die für die Generierung verwendet werden. Ist der Wert „0“, werden alle Chat-History Nachrichten verwendet. Mit dieser Einstellung wird sichergestellt, dass die Anfragen an das LLM bei längeren Chats nicht zu groß werden. Empfohlene Werte: 1-5. |
Maximale Länge der Antworten (Tokens) | Diese Einstellung überschreibt die Einstellung "Max Answer Length (Tokens)" im LLM, wenn der Wert größer als 0 ist. |
Zufälligkeit der Antwort (Temperatur) | Diese Einstellung überschreibt die Einstellung "Zufälligkeit der Antwort (Temperatur)" im LLM, wenn der Wert größer als 0 ist. |
Überschreiben von Systemprompttemplatevariablen zulassen | Erlaubt das Überschreiben der Systemprompttemplatevariablen ({question}, {summaries}). Nur relevant, wenn die API direkt verwendet wird. Für mehr Informationen, siehe api.chat.v1beta.generate Schnittstellenbeschreibung. |
Template für Antworten (pro Resultat) | Das Template, welches die erhaltenen Antworten in einen Text für den Prompt verarbeitet. Je nach gewünschten Informationen aus der Antwort können folgende Platzhalter eingebaut werden:
|
Prompt Template | Das Template, welches die Anweisungen für das LLM enthält. Um die Frage und die Antworten in dem Prompt zu verarbeiten, sollten folgende Platzhalter eingebaut werden:
|
Prompt Template (wenn keine Suchresultate gefunden wurden) | Wenn der Service die Einstellung „Generate with empty Results“ aktiviert hat und der Suchservice für eine Frage aber keine Antworten findet, dann kann für die Generierung ein alternativer Prompt angegeben werden. Es können folgende Platzhalter eingebaut werden:
|
Prompt Template zum Benennen einer Konversation | Dieser Prompt wird an das LLM gesendet, um im AI Chat die Konversation zu benennen. Der folgende Platzhalter kann eingefügt werden:
|
Gefundene Quellen anzeigen | Wenn diese Einstellung aktiviert ist, werden die zuletzt abgerufenen Quellen laut der Einstellung "Maximale Anzahl gefundener Quellen" am Ende des generierten Antworttextes angehängt. Standardmäßig weist die Einstellung "Prompt Template" das Modell an, die relevanten Quellen bereitzustellen, unabhängig von dieser Einstellung. Wenn diese Einstellung aktiviert ist, empfiehlt es sich, die Einstellung "Prompt Template" anzupassen, um doppelte Quellen in der generierten Antwort zu vermeiden. |
Template gefundener Quelle | Das Template legt fest, wie die einzelnen Quellen angezeigt werden sollen. Der folgende Platzhalter muss eingefügt werden:
|
Template gefundener Quellen | Das Template zeigt die abgerufenen Zusammenfassungen der Templates der gefundenen Quellen an. Der folgende Platzhalter muss eingefügt werden:
|
Maximale Anzahl gefundener Quellen | Diese Einstellung legt fest, wie viele gefundene Quellen angezeigt werden sollen. |
Einstellungen hier sind nur notwendig, wenn eine Pipeline z.B. explizit zur Datenset-Verfeinerung angelegt wurde.
Einstellung | Beschreibung |
Die gewählte Eigenschaft Default: Answer | |
Ausgabeformat | Auswahl, in welchem Format die Ausgabe der Zieleigenschaft erfolgen soll. Default: Text |
Trennausdruck (wenn „Output Format“ auf „Text“ gesetzt ist) | Wenn als Ausgabeformat „Text“ ausgewählt wurde, dann kann der generierte Text mittels eines Ausdrucks (Text oder Regular Expression) gesplitted werden. |
JSON Path (wenn „Output Format“ auf „JSON“ gesetzt ist) | Einzelne JSON-Angaben können geparsed werden mittels JSON Path (https://goessner.net/articles/JsonPath/index.html#e2). |
Im Bereich „Test“ können Sie die Einstellungen der Pipeline testen und überprüfen, ob die getätigten Einstellungen die Anforderungen erfüllen.
Eine Pipeline kann mehrere Versionen haben und jede Version davon hat einen Status:
Nachdem eine Pipeline erstellt oder bearbeitet wurde, gibt es dafür eine Bearbeitungsversion. Um die Bearbeitungsversion abzuschließen, muss diese freigegeben werden. Wählen Sie dafür die erstellte Pipeline aus und klicken Sie auf „Version freigeben“. Geben Sie einen Versionsnamen und optional eine Versionsbeschreibung an. Klicken Sie dann auf „Version freigeben“.
Um eine Pipeline im Mindbreeze InSpire AI Chat zu verwenden ist die Veröffentlichung einer Version notwendig. Markieren Sie dazu eine Pipeline, die bereits eine freigegebene Version enthält und klicken Sie auf „Veröffentlichen“. Es können nur freigegebene Pipeline Versionen veröffentlicht werden.
Wählen Sie in dem Dialogfeld eine Pipeline-Version aus, die Sie veröffentlichen möchten, und überprüfen Sie den Anzeigenamen und die Beschreibung. Wenn bereits eine Version der Pipeline veröffentlicht ist, dann findet man Informationen zu der veröffentlichten Version der Pipeline über dem Auswahlfeld.
Klicken Sie anschließend „Veröffentlichen“, damit die ausgewählte Version veröffentlicht wird. Nach der Veröffentlichung sollte in der Spalte „Veröffentlicht“ die Versionsnummer der veröffentlichten Version stehen.
Sie können nun ihre erstellte Pipeline im Mindbreeze InSpire AI Chat auswählen und benutzen.
Wählen Sie eine veröffentlichte Pipeline und klicken Sie auf „Veröffentlichen“. In dem Dialogfeld finden Sie Informationen zur veröffentlichten Version. Klicken Sie anschließend auf „Veröffentlichung entfernen“.
In der Übersicht sollte bei der Pipeline kein Wert mehr bei „Veröffentlicht“ stehen. Die Pipeline ist nun nicht mehr im Mindbreeze InSpire AI Chat verfügbar.
Wenn Sie ein Producer-Consumer-Szenario haben, kann die RAG-Konfiguration mit der Schaltfläche "Mit dem Consumer synchronisieren" auf alle Nodes synchronisiert werden.
In diesem Bereich können Datensets erstellt werden, welche zur Evaluierung von Pipelines notwendig sind.
Klicken Sie auf „Neues Datenset erstellen“, und geben Sie dem Datenset bei „Name des Datensets“ einen Namen. Fügen Sie anschließend Daten zu einem Datenset hinzu, indem Sie auf „Hinzufügen“ klicken.
Folgende Felder können befüllt werden:
Spaltenname | Beschreibung |
Frage | Die Frage die verschickt wird. |
Antwort | Die erwartete Antwort zur Frage. |
Queries | Jede Query muss in einer eigenen Zeile geschrieben werden. |
Query Einschränkungen | Einschränkungen, die auf die Query beim Retrieval angewendet werden. Jede Einschränkung muss in einer neuen Zeile geschrieben werden. |
Pipeline Key | Wenn ein Pipeline Key ausgewählt wird, wird die Frage ausschließlich mit der veröffentlichten Version der Pipeline beantwortet, die dem Key zugeordnet ist. |
Anmerkung | Anmerkung zu den Fragen. |
In den Kontexten können pro Frage die erwarteten Antworten eingegeben werden.
Speichern Sie die Änderungen in den Kontexten indem Sie in dem Fenster unten auf „Speichern“ klicken.
Pro Frage können Platzhalter definiert werden, wo der Wert des Platzhalters in den Prompt eingefügt werden soll. Der Abgleich erfolgt anhand des Schlüssels.
Speichern Sie die Änderungen in den Platzhaltern indem Sie im Fenster unten auf „Speichern“ klicken.
Klicken Sie schlussendlich auf „Speichern“, um das Datenset zu speichern.
Neben der manuellen Erstellung von Daten, kann auch eine Datei hochgeladen werden. Klicken Sie dafür auf „Datei hochladen“. Legen Sie fest, ob die Daten aus der Datei die bestehenden Einträge erweitern oder überschreiben soll.
Beachten Sie, dass nur eine Datei hochgeladen werden kann. Die folgenden Dateitypen sind kompatibel: JSON und CSV.
Wurde die Datei erfolgreich geladen, klicken Sie auf „Hinzufügen“. Speichern Sie anschließend das Datenset.
Pro Frage können folgende Werte angegeben werden:
Werte | Beschreibung |
Frage | |
answer | Erwartete Antwort |
remark | Notiz |
contexts | Erwartete Kontexte (siehe Kontexte) |
pipeline_key | Schlüssel einer Pipeline, mit der die Frage evaluiert werden soll. |
queries | Liste an Queries für das Retrieval. |
query_constraints | Liste an Query-Bedingungen. |
prompt_placeholders | Verzeichnis von Schlüsseln zu Begriffen. |
Kontexte können folgende Werte enthalen:
text | Erwarteter Text |
source | Erwartete Quelle |
Beispiel einer JSON-Datei:
"data": [
{
"question": "Wie kann ich eine SAML basierende Authentication in Mindbreeze InSpire konfigurieren?",
"answer": "Die Konfiguration von SAML in Mindbreeze erfolgt in vier Schritten: 1. Hinzufügen eines SSL Zertifikats 2. Konfiguration des SAML Authenticators 3. Konfiguration der Parameter 4.Aktivieren von SAML für einzelne Services",
"remark": "Das ist eine Notiz zur Frage",
"contexts": [
{
"text": "Die Konfiguration von SAML in Mindbreeze erfolgt in vier Schritten: 1. Hinzufügen eines SSL Zertifikats, das zur Erzeugung der Service Provider Metadaten verwendet wird 2. Konfiguration des SAML Authenticators 3. Konfiguration der Parameter (Session timeout und Metadata timeout) 4. Aktivieren von SAML für einzelne Services",
"source": "https://help.mindbreeze.com/de/index.php?topic=doc/SAML-Authentifizierung/index.html"
},
{
"text": "Noch ein Context",
"source": "noch_eine_quelle.pdf"
}
],
"pipeline_key": "spezielle-pipeline",
"query_constraints": [
"extension:pdf",
"fqcategory:Web"
],
"queries": [
"Welche Authorisierungsmöglichkeiten gibt es in {product}?",
"Was ist {authentication}?"
],
"prompt_placeholders": {
"product": "Mindbreeze InSpire",
"authentication": "SAML"
}
},
{
"question": "Die nächste Frage ..."
}
]
}
Bei der CSV-Datei muss darauf geachtet werden, dass das Trennzeichen ein Semikolon ist und die Datei im UTF-8 Format gespeichert wurde, da die Bereiche gegebenenfalls nicht korrekt eingelesen werden können oder es Fehler beim Einlesen geben kann.
Die Datei muss einen Header haben.
Werte | Beschreibung |
Frage | |
answer | Erwartete Antwort |
remark | Notiz |
queries | Liste an Queries für das Retrieval. Die einzelnen Queries müssen jeweils mit einem Zeilenumbruch getrennt sein. |
queryconstraints | Liste an Bedingungen für die Query für das Retrieval. Die einzelnen Bedinungen müssen jeweils mit einem Zeilenumbruch getrennt sein. |
context / source | Text und Source eines Kontextes müssen mit „context“ und „source direkt aufeinanderfolgend angegeben werden. Sind mehrere Kontexte gewünscht, dann muss pro Kontext ein „context“ und ein „source“ Feld angelegt sein. |
pipelinename | Key einer Pipeline. |
pp_<key> | Jeder Platzhalter braucht ein eigenes Feld beginnend mit „pp_“ und dem Platzhalter-Schlüssel. |
Beispiel einer CSV-Datei:
question;answer;remark;queries;queryconstraints;context;source;context;source;pipelinename;pp_product;pp_authentication
Wie kann ich eine SAML basierende Authentication in Mindbreeze InSpire konfigurieren?;Die Konfiguration von SAML in Mindbreeze erfolgt in vier Schritten: 1. Hinzufügen eines SSL Zertifikats 2. Konfiguration des SAML Authenticators 3. Konfiguration der Parameter 4.Aktivieren von SAML für einzelne Services;Eine Frage über Authentifizierung;"Welche Authorisierungsmöglichkeiten gibt es in {product}?
Was ist {authentication}?";"extension:pdf
fqcategory:Web";Die Konfiguration von SAML in Mindbreeze erfolgt in vier Schritten: 1. Hinzufügen eines SSL Zertifikats, das zur Erzeugung der Service Provider Metadaten verwendet wird 2. Konfiguration des SAML Authenticators 3. Konfiguration der Parameter (Session timeout und Metadata timeout) 4. Aktivieren von SAML für einzelne Services;https://help.mindbreeze.com/de/index.php?topic=doc/SAML-Authentifizierung/index.html;Ein zweiter Kontext;noch_eine_quelle.pdf;spezielle_pipeline;Mindbreeze InSpire;SAML
Um die Effektivität einer Pipeline zu testen, gibt es die Möglichkeit, Pipelines dahingehend zu evaluieren.
In der Übersicht werden die Evaluierungen aufgelistet und entsprechend der Startzeit gereiht.
Einstellung | Beschreibung |
Der Name der Evaluierung. | |
Name der Pipeline | Der Name der Pipeline. |
Datenset | Der Name des Datensets. |
Startzeit | Der Zeitpunkt des Starts der Evaluierung. |
Gestartet von | Der Name des Nutzers, von dem die Evaluierung gestartet wurde |
Modus | Der gewählte Evaluierungsmodus. Für mehr Informationen zu den Evaluierungsmodi, siehe Neue Evaluierung anlegen. |
Status | Der aktuelle Status der Evaluierung. Die folgenden Stati des Evaluierungsprozesses sind möglich: „…“ – Die Evaluierung befindet sich in der Warteschlange. „Läuft“ – Die Evaluierung ist im Gange. „Unvollständig“ - Mindestens eine Frage hat nicht den Status „Fertiggestellt“. „Vollständig“ - Alle Fragen haben den Status „Fertiggestellt“. |
Fortschritt | Die Anzahl der bereits prozessierten Fragen im Vergleich mit der Anzahl aller insgesamt zu prozessierenden Fragen. |
Dauer | Die Dauer des Evaluierungsdurchlaufs. |
Feedback | Der Durchschnitt der Bewertung aller bereits bewerteten Fragen. In den Klammern befindet sich die Anzahl der bereits bewerteten Fragen im Vergleich mit der Anzahl aller Fragen. Sind alle Fragen bewertet worden, wird nur der Bewertungsdurchschnitt angezeigt. |
Evaluierung wiederholen | Solange eine Evaluierung läuft wird in der letzten Spalte ein Lade-Icon angezeigt. Ist eine Evaluierung beendet, dann wird in der letzten Spalte ein „Wiederholen“ Icon angezeigt. Wenn man auf das Icon klickt, kann man eine neue Evaluierung starten, welche initial bereits mit der Konfiguration der gewählten Evaluierung ausgefüllt wird. |
Mit „Neue Evaluierung“ kann eine neue Evaluierung angelegt werden.
Einstellung | Beschreibung |
Der Name der Evaluierung. | |
Beschreibung der Evaluierung | Die Beschreibung der Evaluierung. Hier kann man erklären was man evaluieren möchte oder welche Einstellung geändert oder angepasst wurde. |
Pipeline | Die Auswahl der Pipeline. |
Pipeline Version | Die Version der gewählten Pipeline. |
Datenset | Das Datenset auf dessen Basis die Evaluierung erstellt werden soll. |
Sucheinschränkung | Hier kann eine Sucheinschränkung für die gesamte Evaluierung definiert werden. Der hier definierte Wert wird (sofern vorhanden) als Bedingung in die Suche mit eingenommen. |
Modus | Die folgenden Modi stehen zur Auswahl:
|
Eigenen Evaluierungseintrag pro Query erstellen | Wenn aktiviert, wird für jede Query des Datensets ein eigener Evaluierungseintrag erstellt. Standardeinstellung: Deaktiviert. Achtung: Ist nur im Modus „Nur Retrieval“ verfügbar. |
LLM der Pipeline überschreiben | Wenn aktiviert, kann ein anderes LLM für die Generierung verwendet werden, als in der Pipeline definiert. Achtung: Ist nur in den Modi „Nur Generierung“ und „Retrieval und Generierung“ verfügbar. |
Einstellung | Beschreibung |
Die Anzahl der zu verarbeiteten Anfragen. | |
Fertiggestellt | Die Anzahl der bereits verarbeiteten Anfragen. |
Startzeit | Das Datum und die Uhrzeit wann die Evaluierung gestartet wurde. |
Endzeit | Das Datum und die Uhrzeit wann der Evaluierungsprozess beendet wurde. |
Dauer des Retrieval | Die Dauer des Retrieval wird mit den folgenden Werten bestimmt:
|
Dauer der Generierung | Die Dauer der Generierung wird mit den folgenden Werten bestimmt:
|
Generierung beendet | Die Anzahl der Anfragen bei denen die Generierung erfolgreich beendet wurde. |
Feld | Beschreibung |
Frage | Die Frage, die im Datenset definiert wurde. |
Erwartete Antwort | Die erwartete Antwort, die im Datenset definiert wurde. |
Status | Der Status der Evaluierung (z. B. „Fertiggestellt“, „Fehlgeschlagen“ und andere). |
Note | Die Bewertung der Frage anhand des User-Feedbacks. |
Mit „Details“ sieht man die Details der Evaluierung einer Frage.
Feld | Beschreibung |
Der ausgewählte Modus. Für mehr Informationen, siehe Neue Evaluierung anlegen. | |
Frage | Die verarbeitete Frage. |
Status | Folgende Stati sind möglich:
„Abgebrochen“ - Der Nutzer hat den Evaluierungsprozess abgebrochen und die Frage wurde bis zu diesem Zeitpunkt noch nicht prozessiert. „Fehlgeschlagen“ – Der Evaluierungsprozess wurde vom System abgebrochen. |
Fehlernachricht | Falls der Status „Fehlgeschlagen“ lautet, findet man hier einen Hinweis zum Fehler. |
Hier gibt es die Möglichkeit, das Evaluierungsergebnis für eine Frage zu bewerten.
Einstellung | Beschreibung |
Hier kann eine Note von 1 (Sehr gut) bis 5 (Nicht genügend) vergeben werden, um die Verarbeitung der Frage zu bewerten. | |
Label | Hier kann ein selbstdefiniertes Label vergeben werden. |
Anmerkung | Hier kann man eine Anmerkung zum Evaluierungsergebnis hinterlassen. |
Nach dem Einfügen/Ändern einer Bewertung muss das Ergebnis mit „Speichern“ gespeichert werden.
Dieser Bereich gibt Aufschluss über die Antwortgenerierung.
Option | Beschreibung |
Der effektive Prompt wird angezeigt. | |
Parameter anzeigen | Die verwendeten Parameter für die Generierung werden angezeigt, wie z.B. Temperatur und andere Parameter. |
In der Tabelle darunter findet man die erwartete Antwort der Frage (im Datenset definiert) gegenübergestellt mit der erhaltenen Antwort des LLM.
Dieser Bereich gibt Aufschluss über den Retrieval Prozess.
Feld/Optionen | Beschreibung |
Queries | Hier werden die Queries angezeigt, mit denen die Suchanfrage ergänzt wurde. |
Suchanfrage anzeigen | Hier sieht man die effektive Suchanfrage, die an den Client Service gesendet wurde. |
Prompt Platzhalter anzeigen | Hier werden die gegebenen Prompt Platzhalter aus dem Datenset-Eintrag aufgelistet. |
Query Einschränkungen anzeigen | Hier werden die gegebenen Query Einschränkungen aus dem Datenset-Eintrag aufgelistet. |
In der Tabelle werden die erwarteten Kontexte (im Datenset definiert) gegenübergestellt mit den erhaltenen Kontexten aus dem Retrieval Prozess.