Home
Home
Englische Version
Support
Impressum
25.2 Release ►

Start Chat with Collection

    Main Navigation

    • Vorbereitung
      • Einrichten InSpire G7 Primärsystem und Standby Appliances
      • Erstellen einer InSpire-VM auf Hyper-V
      • Initiale Inbetriebnahme für G7 Appliances
      • Konnektoren
    • Datenquellen
      • Anleitung zur Datenintegration mithilfe eines SQL Datenbank-Beispiels
      • Handbuch - Mindbreeze InSpire Insight Apps in Salesforce
      • Indizierung benutzerspezifischer Eigenschaften (SharePoint 2013 Connector)
      • Indizierung benutzerspezifischer Objekttypen (Documentum)
      • Installation & Konfiguration - Atlassian Confluence Sitemap Generator Add-On
      • Installation & Konfiguration - Caching Principal Resolution Service
      • Installation & Konfiguration - Mindbreeze InSpire Insight Apps in Microsoft SharePoint On-Prem
      • Konfiguration - Atlassian Confluence Connector
      • Konfiguration - Best Bets Connector
      • Konfiguration - Box Connector
      • Konfiguration - COYO Connector
      • Konfiguration - Data Integration Connector
      • Konfiguration - Documentum Connector
      • Konfiguration - Dropbox Connector
      • Konfiguration - Egnyte Connector
      • Konfiguration - GitHub Connector
      • Konfiguration - Google Drive Connector
      • Konfiguration - GSA Adapter Service
      • Konfiguration - HL7 Connector
      • Konfiguration - IBM Connections Connector
      • Konfiguration - IBM Lotus Connector
      • Konfiguration - Jira Connector
      • Konfiguration - JVM Launcher Service
      • Konfiguration - LDAP Connector
      • Konfiguration - Microsoft Azure Principal Resolution Service
      • Konfiguration - Microsoft Dynamics CRM Connector
      • Konfiguration - Microsoft Exchange Connector
      • Konfiguration - Microsoft File Connector (Legacy)
      • Konfiguration - Microsoft File Connector
      • Konfiguration - Microsoft Graph Connector
      • Konfiguration - Microsoft Loop Connector
      • Konfiguration - Microsoft Project Connector
      • Konfiguration - Microsoft SharePoint Connector
      • Konfiguration - Microsoft SharePoint Online Connector
      • Konfiguration - Microsoft Stream Connector
      • Konfiguration - Microsoft Teams Connector
      • Konfiguration - Salesforce Connector
      • Konfiguration - SCIM Principal Resolution Service
      • Konfiguration - SemanticWeb Connector
      • Konfiguration - ServiceNow Connector
      • Konfiguration - Web Connector
      • Konfiguration - Yammer Connector
      • Mindbreeze InSpire Insight Apps in Microsoft SharePoint Online
      • Mindbreeze Web Parts in Microsoft SharePoint
      • Whitepaper - Web Connector Erweiterte JavaScript Anwendungsfälle
    • Konfiguration
      • CAS Authentifizierung
      • Cookie Authentifizierung
      • Handbuch - AI Chat
      • Handbuch - Erstellung einer AWS 10M InSpire Applikation
      • Handbuch - Erstellung einer AWS 1M InSpire Applikation
      • Handbuch - Erstellung einer AWS 2M InSpire Applikation
      • Handbuch - Erstellung einer Google Compute Cloud Virtual Machine InSpire Applikation
      • Handbuch - Erstellung einer Oracle Cloud 10M InSpire Applikation
      • Handbuch - Erstellung einer Oracle Cloud 1M InSpire Applikation
      • Handbuch - MMC_ Services
      • Handbuch - Natural Language Question Answering (NLQA)
      • Handbuch - SSO mit Microsoft AAD oder AD FS
      • Handbuch - Text Classification Insight Services
      • I18n Item Transformation
      • JWT Authentifizierung
      • Konfiguration - Alternative Suchvorschläge und automatische Sucherweiterung
      • Konfiguration - Backend Credentials
      • Konfiguration - Benachrichtigungen
      • Konfiguration - CJK Tokenizer Plugin
      • Konfiguration - CSV Metadata Mapping Item Transformation Service
      • Konfiguration - Entity Recognition
      • Konfiguration - Export Funktionalität
      • Konfiguration - External Query Service
      • Konfiguration - Filter Plugins
      • Konfiguration - Gesammelte Ergebnisse
      • Konfiguration - GSA Late Binding Authorization
      • Konfiguration - Identity Conversion Service - Replacement Conversion
      • Konfiguration - InceptionImageFilter
      • Konfiguration - Index-Servlets
      • Konfiguration - InSpire AI Chat und Insight Services für Retrieval Augmented Generation
      • Konfiguration - Item Property Generator
      • Konfiguration - Kerberos Authentfizierung
      • Konfiguration - Management Center Menü
      • Konfiguration - Metadata Reference Builder Plugin
      • Konfiguration - Metadaten Anreicherung
      • Konfiguration - Mindbreeze InSpire
      • Konfiguration - Mindbreeze Proxy Umgebung (Remote Connector)
      • Konfiguration - Outlook Add-In
      • Konfiguration - Personalisierte Relevanz
      • Konfiguration - Plugin Installation
      • Konfiguration - Principal Validation Plugin
      • Konfiguration - Profile
      • Konfiguration - Reporting Query Log
      • Konfiguration - Reporting Query Performance Tests
      • Konfiguration - Request Header Session Authentisierung
      • Konfiguration - Verteilte Konfiguration (Windows)
      • Konfiguration - Vokabulare für Synonyme und Autovervollständigung
      • Konfiguration von Vorschaubildern
      • Mindbreeze Personalization
      • Mindbreeze Property Expression Language
      • Mindbreeze Query Expression Transformation
      • SAML Authentifizierung
      • Spracherkennung mit dem LanguageDetector Plugin
      • Trusted Peer Authentication für Mindbreeze InSpire
      • Verwendung von InSpire-Snapshots in einer CI_CD-Umgebung
    • Betrieb
      • Anpassung der InSpire Host OpenSSH Einstellungen - LoginGraceTime auf 0 setzen (Mitigation für CVE-2024-6387)
      • app.telemetry Statistiken zu Suchanfragen
      • Bereitstellen von app.telemetry Informationen mittels SNMPv3 auf G7 Appliances
      • CIS Level 2 Hardening - SELinux in den Modus Enforcing versetzen
      • Handbuch - Administration von Insight Services für Retrieval Augmented Generation
      • Handbuch - Filemanager
      • Handbuch - Indizierungs- und Suchlogs
      • Handbuch - Kommandozeilenwerkzeuge
      • Handbuch - Sichern & Wiederherstellen
      • Handbuch - Updates und Downgrades
      • Handbuch - Verteilter Betrieb (G7)
      • Index Betriebskonzepte
      • Inspire Diagnose und Ressourcen Monitoring
      • Konfiguration - app.telemetry Dashboards für Nutzungsanalyse
      • Konfiguration - Nutzungsanalyse
      • Löschung der Festplatten
      • Wiederherstellen des Lieferzustandes
    • Anwenderhandbuch
      • Browser Extension
      • Cheat Sheet
      • iOS App
      • Tastaturbedienung
    • SDK
      • api.chat.v1beta.generate Schnittstellenbeschreibung
      • api.v2.alertstrigger Schnittstellenbeschreibung
      • api.v2.export Schnittstellenbeschreibung
      • api.v2.personalization Schnittstellenbeschreibung
      • api.v2.search Schnittstellenbeschreibung
      • api.v2.suggest Schnittstellenbeschreibung
      • api.v3.admin.SnapshotService Schnittstellenbeschreibung
      • Debugging (Eclipse)
      • Einbetten des Insight App Designers
      • Entwicklung eines API V2 Search Request Response Transformer
      • Entwicklung eines Query Expression Transformer
      • Entwicklung von Insight Apps
      • Entwicklung von Item Transformation und Post Filter Plugins mit der Mindbreeze SDK
      • Java API Schnittstellenbeschreibung
      • OpenAPI Schnittstellenbeschreibung
      • SDK Übersicht
    • Release Notes
      • Release Notes 20.1 Release - Mindbreeze InSpire
      • Release Notes 20.2 Release - Mindbreeze InSpire
      • Release Notes 20.3 Release - Mindbreeze InSpire
      • Release Notes 20.4 Release - Mindbreeze InSpire
      • Release Notes 20.5 Release - Mindbreeze InSpire
      • Release Notes 21.1 Release - Mindbreeze InSpire
      • Release Notes 21.2 Release - Mindbreeze InSpire
      • Release Notes 21.3 Release - Mindbreeze InSpire
      • Release Notes 22.1 Release - Mindbreeze InSpire
      • Release Notes 22.2 Release - Mindbreeze InSpire
      • Release Notes 22.3 Release - Mindbreeze InSpire
      • Release Notes 23.1 Release - Mindbreeze InSpire
      • Release Notes 23.2 Release - Mindbreeze InSpire
      • Release Notes 23.3 Release - Mindbreeze InSpire
      • Release Notes 23.4 Release - Mindbreeze InSpire
      • Release Notes 23.5 Release - Mindbreeze InSpire
      • Release Notes 23.6 Release - Mindbreeze InSpire
      • Release Notes 23.7 Release - Mindbreeze InSpire
      • Release Notes 24.1 Release - Mindbreeze InSpire
      • Release Notes 24.2 Release - Mindbreeze InSpire
      • Release Notes 24.3 Release - Mindbreeze InSpire
      • Release Notes 24.4 Release - Mindbreeze InSpire
      • Release Notes 24.5 Release - Mindbreeze InSpire
      • Release Notes 24.6 Release - Mindbreeze InSpire
      • Release Notes 24.7 Release - Mindbreeze InSpire
      • Release Notes 24.8 Release - Mindbreeze InSpire
      • Release Notes 25.1 Release - Mindbreeze InSpire
      • Release Notes 25.2 Release - Mindbreeze InSpire
    • Sicherheit
      • Bekannte Schwachstellen
    • Produktinformation
      • Produktinformation - Mindbreeze InSpire - Standby
      • Produktinformation - Mindbreeze InSpire
    Home

    Path

    Sure, you can handle it. But should you?
    Let our experts manage the tech maintenance while you focus on your business.
    See Consulting Packages

    Handbuch
    Administration von Insight Services für Retrieval Augmented Generation

    Motivation und ÜberblickPermanenter Link zu dieser Überschrift

    Retrieval Augmented Generation (RAG) ist eine Technik zur Verarbeitung natürlicher Sprache, die Stärken von abfragebasierten und generativen Modellen der künstlichen Intelligenz (KI) kombiniert. In einem RAG-basierten KI-System wird ein Abfragemodell verwendet, um relevante Informationen aus vorhandenen Informationsquellen zu finden. Währenddessen nimmt das generative Modell die abgefragten Informationen auf, synthetisiert alle Daten und formt sie in eine zusammenhängende, kontextbezogene Antwort um.

    Konfiguration eines Large Language Model (LLM)Permanenter Link zu dieser Überschrift

    InitialeinrichtungPermanenter Link zu dieser Überschrift

    Die Anleitung für die Initialeinrichtung eines LLMs finden Sie in Konfiguration – InSpire AI Chat und Insight Services für Retrieval Augmented Generation.

    Integration eines LLMsPermanenter Link zu dieser Überschrift

    Um ein Large Language Model (LLM) für Ihre Pipelines zu konfigurieren, wechseln Sie im Menüpunkt „RAG“ zum Bereich "LLMs".

    Klicken Sie auf "Hinzufügen" und wählen Sie das entsprechende LLM aus, um es zu konfigurieren. Derzeit sind vier LLMs für die Integration verfügbar:

    • InSpire LLM
    • OpenAI
    • Azure OpenAI
    • InSpire LLM (TGI)

    Die folgenden Einstellungen können für das jeweilige LLM konfiguriert werden.

    InSpire LLMPermanenter Link zu dieser Überschrift

    VerbindungPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    URL

    (erforderlich)

    Definiert die URL des LLM Endpoint. Die URL erhalten Sie von sales@mindbreeze.com.

    Für mehr Informationen, siehe Konfiguration - InSpire AI Chat und Insight Services für Retrieval Augmented Generation - Vorbereitung.

    Für die Bereiche „Allgemein“, „Prompt“ und „Test“ siehe das Kapitel Allgemeine Teile der LLM-Einstellungen.

    OpenAIPermanenter Link zu dieser Überschrift

    Beim Anlegen eines OpenAI LLMs werden Sie durch einen Dialog auf die Datenschutzbestimmungen hingewiesen. Sie müssen diesen Datenschutzbestimmungen zustimmen, um mit dem Anlegen fortzufahren.

    Achtung: Bei Verwendung der OpenAI API werden Chat Eingaben des Benutzers und von Ihrer Organisation indizierte Informationen über Prompts an die jeweiligen Endpunkte übermittelt. Der Umgang mit den übermittelten Informationen richtet sich nach den Datenschutz-Bestimmungen des entsprechenden KI-Anbieters. Mindbreeze ist für die weiterführende Datenverarbeitung nicht verantwortlich. Der KI-Anbieter ist weder Erfüllungsgehilfe noch Unterauftragsverarbeiter von Mindbreeze. Wir weisen darauf hin, dass eine rechtmäßige Nutzung von KI-Dienstleistungen nach gegenwärtiger Einschätzung nicht sichergestellt ist (vorsorglicher Hinweis nach Art 28 Abs. 3 S. 3 DSGVO). Für weitere Informationen und Risiken wird auf die jeweiligen Datenschutzhinweise des jeweiligen KI-Anbieters verwiesen.

    Mehr Informationen erhalten Sie unter https://openai.com/enterprise-privacy .

    Durch Bestätigung der Checkbox weisen Sie als Datenverantwortlicher Mindbreeze an, diese Übermittlung dennoch durchzuführen und nehmen den oben beschriebenen Hinweis zur Kenntnis.

    VerbindungPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    API Key

    (erforderlich)

    Definiert den API-Key. Den API-Key erhalten Sie von Open AI bei der Verwendung eines Modelles.

    Modell

    (erforderlich)

    Der Name des zu verwendenden Open AI LLM.

    Spezielle LLM URL verwenden

    Ist diese Einstellung aktiviert, kann man eine individuelle URL zu einem LLM in der nachfolgenden Einstellung „URL“ angeben. Damit wird die Verwendung eines LLM ermöglicht, das nicht direkt von OpenAI gehostet wird, aber die OpenAI Schnittstelle verwendet.

    Standardeinstellung: Deaktiviert

    URL

    Hier kann man eine individuelle URL zu einem LLM angeben, das die OpenAI Schnittstelle verwenden soll.

    Mit "Verbindung testen" wird geprüft, ob die angegebenen Werte gültig sind und ob die Verbindung hergestellt werden kann.

    Für die Bereiche „Allgemein“, „Prompt“ und „Test“ siehe das Kapitel Allgemeine Teile der LLM-Einstellungen.

    Azure OpenAIPermanenter Link zu dieser Überschrift

    Beim Anlegen eines Azure OpenAI LLMs werden Sie durch einen Dialog auf die Datenschutzbestimmungen hingewiesen. Sie müssen diesen Datenschutzbestimmungen zustimmen, um mit dem Anlegen fortzufahren.

    Achtung: Bei Verwendung der Azure OpenAI API werden Chat Eingaben des Benutzers und von Ihrer Organisation indizierte Informationen über Prompts an die jeweiligen Endpunkte übermittelt. Der Umgang mit den übermittelten Informationen richtet sich nach den Datenschutz-Bestimmungen des entsprechenden KI-Anbieters. Mindbreeze ist für die weiterführende Datenverarbeitung nicht verantwortlich. Der KI-Anbieter ist weder Erfüllungsgehilfe noch Unterauftragsverarbeiter von Mindbreeze. Wir weisen darauf hin, dass eine rechtmäßige Nutzung von KI-Dienstleistungen nach gegenwärtiger Einschätzung nicht sichergestellt ist (vorsorglicher Hinweis nach Art 28 Abs. 3 S. 3 DSGVO). Für weitere Informationen und Risiken wird auf die jeweiligen Datenschutzhinweise des jeweiligen KI-Anbieters verwiesen.

    Mehr Informationen erhalten Sie unter https://learn.microsoft.com/de-de/legal/cognitive-services/openai/data-privacy

    Durch Bestätigung der Checkbox weisen Sie als Datenverantwortlicher Mindbreeze an, diese Übermittlung dennoch durchzuführen und nehmen den oben beschriebenen Hinweis zur Kenntnis.

    VerbindungPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    URL

    (erforderlich)

    Definiert den URL des LLM Endpoint. Die URL erhalten Sie von Microsoft Azure bei der Verwendung eines Modelles.

    API Key

    (erforderlich)

    Definiert den API Key. Den API-Key erhalten Sie von Microsoft Azure bei der Verwendung eines Modelles.

    ModellPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    Azure Bereitstellung

    (erforderlich)

    Definiert den Namen der Microsoft Azure Bereitstellung.

    Für mehr Informationen, siehe Deployment Types.

    Für die Bereiche „Allgemein“, „Prompt“ und „Test“ siehe das Kapitel Allgemeine Teile der LLM-Einstellungen.

    InSpire LLM (TGI)Permanenter Link zu dieser Überschrift

    Das InSpire LLM (TGI) nutzt die Text Generation Inference (kurz: TGI) Schnittstelle von Huggingface.

    VerbindungPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    URL

    (erforderlich)

    Definiert die URL des LLM Endpoint. Die URL erhalten Sie von sales@mindbreeze.com.

    Für mehr Informationen, siehe Konfiguration - InSpire AI Chat und Insight Services für Retrieval Augmented Generation - Vorbereitung.

    ModellPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    User Message Token

    User Message End Token

    Assistant Message Token

    Assistant Message End Token

    Message End Token

    Je nach Modell auszufüllen, wobei die Einstellungen je nach Modell variieren können.

    Standardeinstellung: Nur die Einstellung “Message End Token” wird mit dem Wert “</s>” verwendet.

    Für die Bereiche „Allgemein“, „Prompt“ und „Test“ siehe das Kapitel Allgemeine Teile der LLM-Einstellungen.

    Allgemeine Teile der LLM-EinstellungenPermanenter Link zu dieser Überschrift

    AllgemeinPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    Name

    Der Name für das Large Language Model.

    Maximale Länge der Antwort (Tokens)

    Begrenzt die Menge der erzeugten Token (1 Token ~ 1 Wort). Indem man die Länge der Antwort begrenzt, können lange Antworten vermieden und die Belastung des LLM Endpoints verringert werden.

    Mit dem Wert "0" werden die Token bzw. die Antwort nicht begrenzt.

    Achtung: Stellen Sie sicher, dass die Länge des Prompts und die maximale Antwortlänge nicht größer sind, als die Länge des Kontextes des Modells.

    Zufälligkeit (Temperatur) überschreiben

    Wenn aktiviert, wird die Standardtemperatur des LLM mit der konfigurierten "Zufälligkeit der Antwort" überschrieben.

    Für mehr Informationen über die Zufälligkeit bzw. Temperatur einer Antwort, siehe die Beschreibung der Einstellung „Zufälligkeit der Antwort (Temperatur)“.

    Zufälligkeit der Antwort (Temperatur)

    Steuert die Zufälligkeit bzw. die Kreativität der generierten Antwort (0 - 100%). Durch die Konfiguration der Temperatur wird die Wahrscheinlichkeitsverteilung beeinflusst, die während der Generierung des nächsten Tokens erzeugt wird. Durch die Veränderung der Wahrscheinlichkeitsverteilung wird das Model folgendermaßen beeinflusst:

    • Höhere Werte für die Temperatur machen die Ausgabe kreativer, indem Tokens mit einer niedrigeren Wahrscheinlichkeit gewählt werden.
    • Niedrige Werte für die Temperatur machen die Ausgabe zielgerichteter und deterministischer, indem Tokens mit einer höheren Wahrscheinlichkeit gewählt werden.

    Wiederholungsstrafe überschreiben

    Ist diese Einstellung aktiviert, wird der Wert von der Einstellung „Wiederholungsstrafe“ als LLM Parameter übernommen.

    Für mehr Informationen über Wiederholungsstrafen, siehe die Beschreibung der Einstellung „Wiederholungsstrafe“.

    Wiederholungsstrafe

    Mit diesem Parameter können Token, basierend darauf wie häufig sie im Text vorkommen (inklusive des eingegebenen Prompts), bestraft werden. Ein Token welcher bereits mehrmals vorgekommen ist, wird härter „bestraft“ als ein Token, welcher erst ein- oder noch keinmal vorgekommen ist.

    Die Bestrafung besteht darin, dass die Wahrscheinlichkeit reduziert wird, dass ein Token der vorher schon im Text vorgekommen ist, erneut generiert wird.

    Der gültige Wertebereich der Wiederholungsstrafe ist abhängig vom verwendeten LLM.

    Top P überschreiben

    Ist diese Einstellung aktiviert, wird der Wert von der Einstellung „Top P“ als LLM Parameter übernommen.

    Für mehr Informationen über Top P, siehe die Beschreibung der Einstellung „Top P“.

    Top P

    Mit Top-P-Sampling kann die Vielfalt und Zufälligkeit von generiertem Text gesteuert werden. Dabei wird der nächste Token aus einem "Kern" von Top-P-Token ausgewählt. Dieser Kern wird auf eine von zwei Arten zusammengestellt:

    • Der Kern besteht aus einer Menge an Token mit der höchsten Wahrscheinlichkeit.
    • Der Kern besteht aus einer Menge an Token, wobei die Wahrscheinlichkeiten in Summe den konfigurierten Top-P-Wert erreichen oder sogar übertreffen.

    Der angegeben Top-P-Wert bestimmt die Diversität der Ausgabe folgendermaßen:

    • Höhere Werte erzeugen mehr Zufälligkeit im generierten Text.
    • Niedrigere Werte erzeugen weniger Zufälligkeit und dadurch eine fokussiertere Ausgabe.

    Der Top-P-Wert muss größer als 0 aber kleiner als 1 sein.

    Stopsequenzen

    Falls Stopsequenzen definiert sind, beendet das Modell die Generierung eines Textes sofort, sobald eine solche Sequenz vom Modell generiert worden ist. Selbst wenn die Ausgabelänge das angegebene Token-Limit noch nicht erreicht hat, wird die Textgenerierung beendet.

    PromptPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    Preprompt

    Ein Pre-Prompt wird verwendet, um spezifische Rollen, Absichten und Einschränkungen auf jeden nachfolgenden Prompt eines Modells anzuwenden.

    Beispiel:

    Ich möchte, dass du dich wie ein Mitglied des Mindbreeze Sales Teams verhältst. Ich werde dir Fragen stellen und du wirst mir diese Fragen ausführlich beantworten. Formuliere deine Antworten enthusiastisch und aufregend, aber bleibe bei den Fakten. Hebe besonders die Vorteile von verschiedenen Mindbreeze Features hervor.

    Prompt Examples

    Siehe das Kapitel Prompt Beispiele.

    Prompt BeispielePermanenter Link zu dieser Überschrift

    Diese Beispiele werden im Mindbreeze InSpire AI Chat als Beispielfragen angezeigt (siehe Screenshot am Ende des Kapitels). Dementsprechend eignen sich häufig gestellte Fragen als Prompt Beispiele. Durch das Anklicken eines Prompt Beispiels wird diese Frage im Mindbreeze InSpire AI Chat automatisch eingegeben. Ein Prompt Beispiel kann erstellt werden, indem Sie auf „Hinzufügen“ drücken und die folgenden Felder befüllen:

    Einstellung

    Beschreibung

    Beispiel

    Titel

    Der Titel des Prompt Beispiels. Dieser Text wird im Mindbreeze InSpire AI Chat angezeigt

    Fragen Sie, wie viele Konnektoren Mindbreeze unterstützt.

    Prompt

    Die Frage oder Anweisung, die im Mindbreeze InSpire AI Chat eingegeben wird.

    Wie viele Konnektoren unterstützt Mindbreeze?

    Klicken Sie auf „Speichern“ um das Prompt Beispiel zu sichern. Es können beliebig viele Prompt Beispiele erstellt werden. Sind alle Prompt Beispiele erstellt, speichern sie das gesamte LLM um die Änderungen zu sichern. Nun sollten Sie die Prompt Beispiele im AI Chat sehen:

    DatenschutzPermanenter Link zu dieser Überschrift

    Falls Sie ein InSpire LLM verwenden, ist dieser Bereich nicht verfügbar. Sollten Sie ein LLM von OpenAI oder Azure OpenAI verwenden, können Sie sich hier über den Haftungsausschluss zum Datenschutz informieren.

    TestPermanenter Link zu dieser Überschrift

    Auf dieser Seite kann die Konfiguration getestet werden. Falls LLM Parameter definiert worden sind, werden dieser hier nochmals zusammengefasst. Beachten Sie, dass der generierte Text nicht auf abgerufenen Dokumenten basiert.

    Nach dem Testen der LLM-Einstellungen klicken Sie auf "Speichern", um das LLM zu speichern.

    Erstellung einer PipelinePermanenter Link zu dieser Überschrift

    Um eine Pipeline zu erstellen, gehen Sie zum Bereich „Generative Pipelines“. Klicken Sie auf „Hinzufügen“, um mit der Erstellung einer neuen Pipeline zu beginnen.

    Die Erstellung einer Pipeline teilt sich in fünf Bereiche auf:

    1. Allgemein
    2. Beispiele
    3. Retrieval
    4. Generation
    5. Test

    In den folgenden Kapiteln wird genauer auf die einzelnen Bereiche eingegangen.

    AllgemeinPermanenter Link zu dieser Überschrift

    Im Bereich „Allgemein“ können folgende allgemeine Einstellungen vorgenommen werden:

    Einstellung

    Beschreibung

    Name der Pipeline

    Der Name, der im Mindbreeze InSpire AI Chat angezeigt wird.

    Beschreibung

    Beschreibung der Pipeline.

    Version

    Eine generierte Versions-ID.

    Vorgängerversion

    Die vorhergehende Version, worauf diese Version basiert.

    Versionsname

    Wenn eine Pipeline freigegeben wird, muss ein Versionsname angegeben werden. Der Versionsname wird nicht im Mindbreeze InSpire AI Chat angezeigt und dient zur Nachvollziehbarkeit von Änderungen an der Pipeline. Der Versionsname soll eine kurze Zusammenfassung der Änderungen beinhalten.

    Versionsbeschreibung

    Eine detailliertere Beschreibung der Änderungen in der Pipeline.

    Pipeline Key

    Schlüssel einer Pipeline (vgl. Erstellung von Datensets).

    Im Bereich „Prompt Beispiele“ können Beispielfragen für eine Pipeline hinzugefügt werden, die im AI Chat angezeigt werden. Sind keine Beispielfragen in der Pipeline definiert, werden Beispielfragen vom LLM übernommen. Sind auch im LLM keine Beispielfragen definiert, werden im AI Chat keine Beispielfragen angezeigt. Für mehr Informationen zu Prompt Beispielen, siehe das Kapitel Erstellung von Prompt Beispielen.

    Sind die notwendigen Einstellungen erledigt, können Sie mit „Weiter“ oder mit einem Klick auf den gewünschten Bereich in der linken Navigationsleiste zum nächsten Bereich fortfahren.

    RetrievalPermanenter Link zu dieser Überschrift

    Im Bereich „Retrieval“ kann der Retrieval-Teil des RAG konfiguriert werden. Nur Indizes, die das Feature „Semantic Sentence Similarity Search” aktiviert haben, können im AI Chat Antworten für die Generierung liefern. Es stehen die folgenden Einstellungen zur Verfügung:

    Einstellung

    Beschreibung

    Suchservice

    Der Client Service der für die Suche verwendet werden soll.

    Im Abschnitt „Regeln“ kann die Pipeline verfeinert und auf die jeweiligen Anforderungen angepasst werden.

    Einstellung

    Beschreibung

    Überschreiben der Suchanfragenvorlage erlauben

    Ist nur relevant, wenn die API direkt verwendet wird. Erlaubt das Überschreiben von Werten der Suchanfragenvorlage via API-Requests.

    Für mehr Informationen, siehe api.chat.v1beta.generate Schnittstellenbeschreibung.

    Sucheinschränkung

    Bei der Suche mittels Search Service wird der Wert in diesem Feld (sofern vorhanden) auch als Bedingung in die Suche miteingenommen.

    Datenquelle inkludieren

    Wenn (eine oder mehrere) Datenquellen inkludiert werden, dann werden automatisch alle anderen Datenquellen ausgeschlossen.

    Datenquelle ausschließen

    Wenn (eine oder mehrere) Datenquellen ausgeschlossen werden, dann werden automatisch alle anderen Datenquellen eingeschlossen.

    Im Abschnitt „Verwendete Datenquellen“ wird eine Übersicht über die effektiven Datenquellen des gewählten Suchservices geboten.

    Erweiterte EinstellungenPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    SSL Zertifikat Überprüfung überspringen

    Ist dies aktiviert, wird bei der Suche keine Überprüfung des SSL-Zertifikats durchgeführt. Die Aktivierung dieser Einstellung wird empfohlen, wenn ein SSL-Zertifikat besteht.

    Nur Content verarbeiten

    Wenn diese Eigenschaft gesetzt wird, werden nur Antworten, aus dem content Metadatum verwendet. Ansonsten werden Antworten aus allen Metadaten verarbeitet.

    Maximale Anzahl Antworten

    Die ersten n Antworten der Suche werden prozessiert und für den Prompt verwendet.

    Hinweis: Wenn n = 0 und das Prompt Logging in app.telemetry deaktiviert ist, dann haben die Spalten für die Antworten im CSV Logging keine Spaltenüberschriften für die Antwort-Details.

    Minimaler Antwort Score [0-1]

    Es werden nur Antworten prozessiert, die eine größere Antwort-Wertung haben.

    Hinweis: Wenn der Score in der Pipeline 0 ist, dann wird (wenn gesetzt) der Minimum Score aus den Similarity Search Settings des Client Services verwendet.

    Antwortgröße

    Definiert wie lange die Antwort sein soll, die im Prompt Template dargestellt wird. Es stehen die Optionen „Standard“ und „Groß“ zur Verfügung.

    Die Option „Standard“ ist abhängig von der Konfiguration von „Sentence Transformation Text Segmentation“. Die Option „Groß“ ist ein großer Textblock. Für mehr Informationen, siehe Konfiguration - Mindbreeze  InSpire- Sentence Transformation.

    Standardeinstellung: Standard.

    Satzzeichen entfernen

    Ist diese Einstellung aktiviert, werden Satzzeichen aus der Nutzereingabe entfernt bevor sie von der Similarity Search verarbeitet werden. Folgende Satzzeichen werden entfernt:

    • Punkt
    • Fragezeichen
    • Ausrufezeichen
    • Umgekehrtes Fragezeichen
    • Umgekehrtes Ausrufezeichen

    Standardeinstellung: Aktiviert.

    Hinweis: Durch das Deaktivieren dieser Einstellung können potentiell bessere oder mehr Antworten gefunden werden. Standardmäßig ist diese Einstellung aktiviert, um rückwärtskompatibel zu bleiben, falls durch das Weglassen der Satzzeichen eine Verschlechterung der Qualität der Antworten erkennbar ist.

    Formatierte Antworten verwenden

    Diese Einstellung ist standardmäßig deaktiviert. Die Antworten werden somit als einfacher Text weiterverarbeitet.

    Ist diese Einstellung aktiviert, wird HTML-Formatierung zu den erhaltenen Antworten hinzugefügt, um die Struktur des Originaldokuments zu reproduzieren.

    Für mehr Informationen, siehe api.v2.search Schnittstellenbeschreibung - formatted_answers.

    GenerierungPermanenter Link zu dieser Überschrift

    Im Bereich „Generierung“ wird die Prompt-Generierung konfiguriert und das LLM und die Prompt Templates ausgewählt, die mit den Suchergebnissen befüllt und anschließend zum konfigurierten LLM geschickt werden.

    ModellPermanenter Link zu dieser Überschrift

    Wählen Sie in der Einstellung „Modell“ das von Ihnen erstellte LLM aus.

    Einstellung

    Beschreibung

    Modell

    Zeigt welches LLM ausgewählt ist.

    Erweiterte EinstellungenPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    Maximale Länge der Antwort (Tokens)

    Diese Einstellung überschreibt die Einstellung "Maximale Länge der Antwort (Tokens)" des LLMs, wenn der Wert größer als 0 ist.

    Durch das Begrenzen der Länge der Antwort, werden lange Antworten vermieden und die Belastung des LLM Endpoints verringert.

    Zufälligkeit der Antwort (Temperatur)

    Diese Einstellung überschreibt die Einstellung "Zufälligkeit der Antwort (Temperatur)" im LLM, wenn der Wert größer als 0 ist.

    Für mehr Informationen über die Zufälligkeit bzw. Temperatur einer Antwort, siehe die Beschreibung der Einstellung „Zufälligkeit der Antwort (Temperatur)“ im Kapitel Allgemeine Teile der LLM-Einstellungen.

    Chat History verwenden

    Ist diese Einstellung aktiviert, wird der Inhalt der bisher geführten Konversation zur Generierung der nächsten Antwort herangezogen. Dies kann zum Bespiel bei Folgefragen zu potentiell besseren Antworten führen.

    Maximale Anzahl verwendeter Chat History Messages

    Diese Einstellung ist nur wirksam, wenn „Chat-History verwenden“ aktiv ist. Limitiert die Anzahl an Chat-History Nachrichten die für die Generierung verwendet werden. Ist der Wert „0“, werden alle Chat-History Nachrichten verwendet.

    Mit dieser Einstellung wird sichergestellt, dass die Anfragen an das LLM bei längeren Chats nicht zu groß werden.

    Empfohlene Werte: 1 - 5.

    Überschreiben von Systemprompttemplatevariablen zulassen

    Nur relevant, wenn die API direkt verwendet wird. Erlaubt das Überschreiben der Systemprompttemplatevariablen ({question}, {summaries}).

    Für mehr Informationen, siehe api.chat.v1beta.generate Schnittstellenbeschreibung.

    PromptsPermanenter Link zu dieser Überschrift

    Die Definition von Prompts kann auf zwei Arten durchgeführt werden:

    • in einer strukturierten Form
    • als reine Text-Vorlage

    Mit der Mindbreeze InSpire 25.2 Release wird bei neu angelegten Pipelines automatisch das strukturierte Format angewandt. Bei bereits bestehenden Pipelines wird das Textformat beibehalten, wobei in den erweiterten Einstellungen das Format geändert werden kann.

    Hinweis: Die Nutzung der strukturierten Form für Prompts wird empfohlen.

    Strukturiertes Prompt FormatPermanenter Link zu dieser Überschrift

    Folgende Einstellungen können in „Chat Template“ und „Chat Template (ohne Retrieval Ergebnisse)“ vorgenommen werden:

    Einstellung

    Beschreibung

    System Message Template

    Die System-Message definiert im Prompt das Verhalten (Persönlichkeit, Rolle), gibt Einschränkungen und Regeln mit und stellt Hintergrundinformationen für das LLM bereit. Die System Message fungiert quasi als "Job-Beschreibung" für das LLM.

    User Message Template

    Die User-Message definiert die konkreten Anweisungen, Aufgaben oder Fragen an das LLM.

    Prompt im Text FormatPermanenter Link zu dieser Überschrift

    Erweiterte EinstellungenPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    Strukturiertes Prompt-Format verwenden

    Mit dieser Einstellung kann man einen bestehenden Prompt im Textformat in einen Prompt im strukturierten Format umwandeln.

    Achtung: Bei Änderungen des Formats werden Prompts nicht konvertiert. Es wird daher empfohlen, die Prompts vor der Formatänderung zu sichern.

    Standardeinstellung:

    • Aktiviert (bei neu erstellten Pipelines)
    • Deaktiviert (bei Pipelines, die vor Mindbreeze InSpire 25.2 Release erstellt wurden)

    Prompt Template zum Erzeugen des Konversations-Titels

    Prompt Template zum Erzeugen des Konversations-Titels

    Dieser Prompt wird an das LLM gesendet, um im AI Chat den Titel einer Konversation zu generieren. Der folgende Platzhalter kann eingefügt werden:

    • {user_input} für die initial eingegebene Frage.

    Gefundene Quellen anzeigen

    Gefundene Quellen anzeigen

    Wenn diese Einstellung aktiviert ist, werden die zuletzt abgerufenen Quellen laut der Einstellung "Maximale Anzahl gefundener Quellen" am Ende des generierten Antworttextes angehängt.

    Standardmäßig weist die Einstellung "Prompt Template" das Modell an, die relevanten Quellen bereitzustellen, unabhängig von dieser Einstellung.

    Wenn diese Einstellung aktiviert ist, empfiehlt es sich, die Einstellung "Prompt Template" anzupassen, um doppelte Quellen in der generierten Antwort zu vermeiden.

    Template gefundener Quelle

    Das Template legt fest, wie die einzelnen Quellen angezeigt werden sollen. Der folgende Platzhalter muss eingefügt werden:

    • {source} für die Quelle.

    Template gefundener Quellen

    Das Template zeigt die abgerufenen Zusammenfassungen der Templates der gefundenen Quellen an. Der folgende Platzhalter muss eingefügt werden:

    • {retrieved_sources} für die Zusammenfassung der gefundenen Quellen.

    Maximale Anzahl gefundener Quellen

    Diese Einstellung legt fest, wie viele gefundene Quellen angezeigt werden sollen.

    Zusammenfassung der AntwortenPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    Information

    Ist ein Hinweis für die Einstellung „Template für Antworten (pro Resultat)“.

    Template für Antworten (pro Resultat)

    Das Template, das die erhaltenen Antworten in einen Text für den Prompt verarbeitet. Je nach gewünschten Informationen aus der Antwort können folgende Platzhalter eingebaut werden:

    • {page_content} für den Dokumenteninhalt.
    • {source} für die Dokumentenquelle.

    Erweiterte EinstellungenPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    Verbindungstext für Template für Antworten

    Mit diesem Text werden die einzelnen Resultat-Templates für Antworten verbunden. Diese Einstellung kann dabei helfen, den Prompt im Bereich der erhaltenen Antworten zu optimieren.

    Standardwert: \n\n

    Normalisierung der Zusammenfassung der gefundenen Antworten

    Mithilfe dieser Einstellung können die erhaltenen Antwort-Texte ({summaries}) normalisiert oder bearbeitet werden, bevor sie in den Prompt eingefügt werden.

    Standardmäßig werden die Antworten mit der folgenden Einstellung normalisiert:

    Muster

    Ersatztext

    \r\n

    \n

    Es ist möglich, mehrere Einträge für die Normalisierung zu setzen. Sind mehrere Einträge eingefügt worden, werden diese in der gegebenen Reihenfolge abgearbeitet.

    Ist ein Muster nicht in den Antwort-Texten enthalten oder ungültig, dann wird dieser Eintrag ignoriert, während die vorangegangenen und nachfolgenden Einträge ausgeführt werden.

    EvaluierungPermanenter Link zu dieser Überschrift

    In diesem Bereich können Einstellungen zum Beispiel für eine Pipeline vorgenommen werden, die explizit zur Datenset-Verfeinerung angelegt wurde. Zusätzlich ist es auch möglich Anfragen und Einschränkungen statt Antworten für ein Datenset zu generieren.

    Einstellung

    Beschreibung

    Name der Zieleigenschaft

    Definiert die gewählte Eigenschaft. Zur Auswahl stehen folgenden Optionen:

    • Antwort
    • Queries
    • Query Einschränkungen

    Default: Antwort

    Ausgabeformat

    Definiert in welchem Format die Ausgabe der Zieleigenschaft erfolgen soll.

    Default: Text

    Trennausdruck

    (wenn „Ausgabeformat“ auf „Text“ gesetzt ist)

    Wenn als Ausgabeformat „Text“ ausgewählt wurde, dann kann der generierte Text mittels eines Ausdrucks (Text oder Regular Expression) geteilt werden.

    JSON Path

    (wenn „Ausgabeformat“ auf „JSON“ gesetzt ist)

    Einzelne JSON-Angaben können geparsed werden mittels JSON Path (https://goessner.net/articles/JsonPath/index.html#e2).

    Ist zum Beispiel nützlich, wenn man ein Datenset hat, worin sich Anfragen und Einschränkungen im JSON-Format befinden. Mit dem Ausgabeformat „JSON Path“ kann man einen Pfad definieren, womit die Anfragen und Einschränkungen aus dem Datenset extrahiert werden.

    Beispiel:

    {

      "query": "This is my example query"

    }

    Der zu konfigurierende JSON Path lautet dann „query“.

    TestPermanenter Link zu dieser Überschrift

    Im Bereich „Test“ können Sie die Einstellungen der Pipeline testen und überprüfen, ob die getätigten Einstellungen die Anforderungen erfüllen.

    Veröffentlichung der erstellten PipelinePermanenter Link zu dieser Überschrift

    Status der PipelinePermanenter Link zu dieser Überschrift

    Eine Pipeline kann mehrere Versionen haben und jede Version davon hat einen Status:

    • In Bearbeitung: Diese Pipeline hat momentan eine Bearbeitungsversion. Es kann pro Pipeline nur eine Bearbeitungsversion geben, die jederzeit bearbeitet werden kann.
    • Freigegeben: Eine freigegebene Version ist im Nachhinein nicht mehr veränderbar. Wenn man doch noch Änderungen vornehmen möchte, muss man eine neue Bearbeitungsversion erstellen, sofern noch keine vorhanden ist.
    • Veröffentlicht: Pro Pipeline kann nur eine freigegebene Version veröffentlicht werden. Es ist auch möglich eine frühere freigegebene Version zu veröffentlichen. Daher muss nicht zwangsläufig die letzte freigegebene Version veröffentlicht werden. Veröffentlichte Versionen können auch wieder zurückgenommen werden, wenn man die Veröffentlichung entfernt.

    Freigabe der Pipeline-VersionPermanenter Link zu dieser Überschrift

    Nachdem eine Pipeline erstellt oder bearbeitet wurde, gibt es dafür eine Bearbeitungsversion. Um die Bearbeitungsversion abzuschließen, muss diese freigegeben werden. Wählen Sie dafür die erstellte Pipeline aus, indem Sie ein Häkchen neben dem Namen der Pipeline setzen. Geben Sie einen Versionsnamen und optional eine Versionsbeschreibung an. Klicken Sie dann auf „Version freigeben“.

    Der Status der Pipeline ist nun „Freigegeben“.

    Veröffentlichung der Pipeline-VersionPermanenter Link zu dieser Überschrift

    Um eine Pipeline im Mindbreeze InSpire AI Chat zu verwenden ist die Veröffentlichung einer Pipeline-Version notwendig. Wählen Sie dazu eine Pipeline mit dem Status „Freigegeben“ aus, indem Sie ein Häkchen neben dem Namen der Pipeline setzen. Klicken Sie dann auf „Veröffentlichen“. Es können nur Pipeline-Versionen mit dem Status „Freigegeben“ veröffentlicht werden.

    Wählen Sie in dem Dialogfeld eine Pipeline-Version aus, die Sie veröffentlichen möchten, und überprüfen Sie den Anzeigenamen und die Beschreibung. Wenn bereits eine Version der Pipeline veröffentlicht ist, dann findet man Informationen zu der veröffentlichten Version der Pipeline über dem Auswahlfeld.

    Klicken Sie anschließend „Veröffentlichen“, damit die ausgewählte Version veröffentlicht wird.

    Nach der Veröffentlichung sollte in der Spalte „Veröffentlicht“ die Versionsnummer der veröffentlichten Version stehen.

    Sie können nun ihre erstellte Pipeline im Mindbreeze InSpire AI Chat auswählen und benutzen.

    Entfernung der VeröffentlichungPermanenter Link zu dieser Überschrift

    Wählen Sie eine Pipeline mit einer Versionsnummer in der Spalte „Veröffentlicht“, indem Sie ein Häkchen neben dem Namen der Pipeline setzen. Klicken Sie dann auf „Veröffentlichen“. In dem aufkommenden Dialogfeld finden Sie Informationen zur veröffentlichten Version. Klicken Sie anschließend auf „Veröffentlichung entfernen“.

    In der Übersicht sollte bei der Pipeline keine Versionsnummer mehr bei der Spalte „Veröffentlicht“ stehen. Die Pipeline ist nun nicht mehr im Mindbreeze InSpire AI Chat verfügbar.

    Producer-Consumer-EinrichtungPermanenter Link zu dieser Überschrift

    Wenn Sie ein Producer-Consumer-Szenario besitzen, kann die RAG-Konfiguration mit der Schaltfläche "Mit dem Consumer synchronisieren" auf alle Nodes synchronisiert werden.

    Erstellung von DatensetsPermanenter Link zu dieser Überschrift

    In diesem Bereich können Datensets erstellt werden, welche zur Evaluierung von Pipelines notwendig sind.

    Erstellung eines neuen DatensetsPermanenter Link zu dieser Überschrift

    Hinzufügen von DatenPermanenter Link zu dieser Überschrift

    Klicken Sie auf „Neues Datenset hinzufügen“ und geben Sie dem Datenset bei „Name des Datensets“ einen Namen. Fügen Sie anschließend Daten zu einem Datenset hinzu, indem Sie im Bereich „Daten“ auf „Hinzufügen“ klicken.

    Folgende Felder können befüllt werden:

    Spaltenname

    Beschreibung

    Frage

    Die Frage, die verschickt wird.

    Antwort

    Die erwartete Antwort zur Frage.

    Queries

    Jedes Query muss in einer eigenen Zeile geschrieben werden.

    Query Einschränkungen

    Einschränkungen, die auf die Query beim Retrieval angewendet werden. Jede Einschränkung muss in einer neuen Zeile geschrieben werden.

    Pipeline Key

    Der Pipeline Key kann vom Benutzer selbständig definiert werden. Ist ein Pipeline Key definiert, kann man diesen auswählen und die Frage wird ausschließlich mit der veröffentlichten Version der Pipeline beantwortet, die dem Key zugeordnet ist.

    Anmerkung

    Anmerkung zu den Fragen.

    KontextePermanenter Link zu dieser Überschrift

    In den Kontexten können pro Frage die erwarteten Antworten eingegeben werden.

    Feld

    Beschreibung

    Text

    Definiert den erwarteten Text, bestehend aus einer Antwort und umliegendem Kontext.

    Quelle

    Definiert die erwartete Quelle.

    Speichern Sie die Änderungen in den Kontexten indem Sie in dem Fenster unten auf „Speichern“ klicken.

    PlatzhalterPermanenter Link zu dieser Überschrift

    Pro Frage können Platzhalter definiert werden, wo der Wert des Platzhalters in den Prompt eingefügt werden soll. Der Abgleich erfolgt anhand des Schlüssels.

    Feld

    Beschreibung

    Schlüssel

    Der Schlüssel ist die ID, die im Prompt mit geschwungenen Klammern definiert ist. Wenn zum Beispiel im Prompt steht „{xyz}“, dann ist der Schlüssel „xyz“.

    Wert

    Der Wert kann beliebig definiert werden. Zum Beispiel kann man zum Schlüssel „company“ den Wert „Mindbreeze“ definieren.

    Hinweis: Wird als Wert regressiv wieder ein Schlüssel verwendet (wie zum Beispiel „{department}“), wird der Wert nicht mehr verändert.

    Speichern Sie die Änderungen in den Platzhaltern indem Sie im Fenster unten auf „Speichern“ klicken.

    Klicken Sie schlussendlich auf „Speichern“, um das Datenset zu speichern.

    Hochladen einer DateiPermanenter Link zu dieser Überschrift

    Neben der manuellen Erstellung von Daten, kann auch eine Datei hochgeladen werden. Klicken Sie dafür auf „Datei hochladen“. Legen Sie mit der Einstellung „Bestehende Einträge“ fest, ob die Daten aus der Datei die bestehenden Einträge erweitern oder überschreiben soll.

    Beachten Sie, dass nur eine Datei hochgeladen werden kann. Die Dateitypen JSON und CSV sind kompatibel.

    Wurde die Datei erfolgreich geladen, klicken Sie auf „Hinzufügen“. Speichern Sie anschließend das Datenset.

    JSON UploadPermanenter Link zu dieser Überschrift

    Pro Frage können folgende Werte angegeben werden:

    Werte

    Beschreibung

    question

    Definiert die Frage.

    answer

    Definiert die erwartete Antwort.

    queries

    Liste an Queries für das Retrieval. Damit können Fragen eines Datensets mit zusätzlichen Informationen ausgestattet werden, um den Retrieval-Prozess zu unterstützen.

    Beispiel: Ein Datenset besitzt Aufforderungen anstatt Fragen. Um den Retrieval-Prozess zu unterstützen, können passende Fragen als queries zu den jeweiligen Aufforderungen hinzugefügt werden:

    • Aufforderung: Liste mir alle Features von Mindbreeze InSpire auf.
    • Query: Welche Features bietet Mindbreeze InSpire an?

    query_constraints

    Liste an Query-Bedingungen. Damit können Einschränkungen für den Retrieval Prozess definiert werden, wie zum Beispiel die Verwendung bestimmter Dateiformate oder Metadaten.

    Beispiel: Der Retrieval-Prozess soll nur PDF-Dokumente zum Beantworten der Fragen verarbeiten:

    • extension:pdf

    pipeline_key

    Definiert den Schlüssel einer Pipeline. Ein Pipeline Key kann vom Benutzer selbst definiert und dann ausgewählt werden. Damit lassen sich zum Beispiel Kennzahlen aus mehreren Pipelines errechnen, indem man durch Pipeline Keys Fragen für bestimmte Pipelines zuweist.

    remark

    Eine Notiz mit Anmerkungen.

    contexts

    Erwartete Kontexte (siehe Kontexte).

    Besitzt immer ein text und ein source Element:

    Element

    Beschreibung

    text

    Definiert den erwarteten Text, bestehend aus einer Antwort und umliegendem Kontext.

    source

    Definiert die erwartete Quelle.

    prompt_placeholders

    Verzeichnis von Schlüsseln zu Begriffen. Durch die Definition von prompt_placeholders kann der Prompt, der beim Generieren der Antwort an das LLM geschickt wird, angepasst und verfeinert werden.

    Ein prompt_placeholder besteht aus einem Schlüssel (Key) und einem Wert (Value), wobei diese beliebig definiert werden können. Der {key} Platzhalter im Prompt wird dann durch den benutzerdefinierten Key-Wert ersetzt, bevor der Prompt dann an das LLM geschickt wird. Damit ist es möglich den Prompt pro Frage zum Beispiel für die Evaluierung abzuwandeln.

    Achtung: Definierte prompt_placeholders dürfen nicht in der Frage oder in den queries verwendet werden, da diese im Retrieval-Prozess angewandt werden, wo die prompt_placeholder nicht ausgetauscht werden.

    Beispiel einer JSON-Datei:

    {

      "data": [

        {

          "question": "Wie kann ich eine SAML basierende Authentication in Mindbreeze InSpire konfigurieren?",

          "answer": "Die Konfiguration von SAML in Mindbreeze erfolgt in vier Schritten: 1. Hinzufügen eines SSL Zertifikats 2. Konfiguration des SAML Authenticators 3. Konfiguration der Parameter 4.Aktivieren von SAML für einzelne Services",

          "remark": "Das ist eine Notiz zur Frage",

          "contexts": [

            {

              "text": "Die Konfiguration von SAML in Mindbreeze erfolgt in vier Schritten: 1. Hinzufügen eines SSL Zertifikats, das zur Erzeugung der Service Provider  Metadaten verwendet wird 2. Konfiguration des SAML Authenticators 3. Konfiguration der Parameter (Session timeout und Metadata timeout) 4. Aktivieren von SAML für einzelne Services",

              "source": "https://help.mindbreeze.com/de/index.php?topic=doc/SAML-Authentifizierung/index.html"

            },

            {

              "text": "Noch ein Context",

              "source": "noch_eine_quelle.pdf"

            }

          ],

          "pipeline_key": "spezielle-pipeline",

          "query_constraints": [

            "extension:pdf",

            "fqcategory:Web"

          ],

          "queries": [

            "Welche Authorisierungsmöglichkeiten gibt es in {product}?",

            "Was ist {authentication}?"

          ],

          "prompt_placeholders": {

            "product": "Mindbreeze InSpire",

            "authentication": "SAML"

          }

        },

        {

          "question": "Die nächste Frage ..."

        }

      ]

    }

    CSV UploadPermanenter Link zu dieser Überschrift

    Bei der CSV-Datei muss darauf geachtet werden, dass das Trennzeichen ein Semikolon ist und die Datei im UTF-8 Format gespeichert wurde, da die Bereiche gegebenenfalls nicht korrekt eingelesen werden können oder es Fehler beim Einlesen geben kann.

    Die Datei muss einen Header haben.

    Werte

    Beschreibung

    question

    Frage

    answer

    Erwartete Antwort

    remark

    Notiz

    queries

    Liste an Queries für das Retrieval. Die einzelnen Queries müssen jeweils mit einem Zeilenumbruch getrennt sein.

    queryconstraints

    Liste an Bedingungen für die Query für das Retrieval. Die einzelnen Bedinungen müssen jeweils mit einem Zeilenumbruch getrennt sein.

    context / source

    Text und Source eines Kontextes müssen mit „context“ und „source direkt aufeinanderfolgend angegeben werden. Sind mehrere Kontexte gewünscht, dann muss pro Kontext ein „context“ und ein „source“ Feld angelegt sein.

    pipelinename

    Key einer Pipeline.

    pp_<key>

    Diese Einstellung ist nur relevant, wenn man eigene Platzhalter im Prompt Template spezifiziert hat. Jeder Platzhalter braucht ein eigenes Feld beginnend mit „pp_“ und dem Platzhalter-Schlüssel.

    Beispiel einer CSV-Datei:

    question;answer;remark;queries;queryconstraints;context;source;context;source;pipelinename;pp_product;pp_authentication

    Wie kann ich eine SAML basierende Authentication in Mindbreeze InSpire konfigurieren?;Die Konfiguration von SAML in Mindbreeze erfolgt in vier Schritten: 1. Hinzufügen eines SSL Zertifikats 2. Konfiguration des SAML Authenticators 3. Konfiguration der Parameter 4.Aktivieren von SAML für einzelne Services;Eine Frage über Authentifizierung;"Welche Authorisierungsmöglichkeiten gibt es in {product}?

    Was ist {authentication}?";"extension:pdf

    fqcategory:Web";Die Konfiguration von SAML in Mindbreeze erfolgt in vier Schritten: 1. Hinzufügen eines SSL Zertifikats, das zur Erzeugung der Service Provider  Metadaten verwendet wird 2. Konfiguration des SAML Authenticators 3. Konfiguration der Parameter (Session timeout und Metadata timeout) 4. Aktivieren von SAML für einzelne Services;https://help.mindbreeze.com/de/index.php?topic=doc/SAML-Authentifizierung/index.html;Ein zweiter Kontext;noch_eine_quelle.pdf;spezielle_pipeline;Mindbreeze InSpire;SAML

    Datensets exportierenPermanenter Link zu dieser Überschrift

    Datensets können als JSON- oder als CSV-Datei exportiert werden.

    Um ein oder mehrere Datensets zu exportieren, müssen die jeweiligen Datensets ausgewählt werden. Setzen Sie dafür ein Häkchen neben den jeweiligen Datensets, um diese auszuwählen. Ist mindestens ein Datenset ausgewählt, können Sie bei „Export“ im Drop-Down-Menü das Dateiformat auswählen.

    Klicken Sie auf das gewünschte Dateiformat und Sie erhalten anschließend ein Pop-Up-Fenster, wo sich der Download-Link für das exportierte Datenset befindet.

    Sind mehrere Datensets gleichzeitig ausgewählt, werden diese in der gewählten Art verpackt und in einem ZIP-File exportiert.

    Hinweis: Falls kein Datenset ausgewählt ist, sind beide Dateiformat-Optionen ausgegraut und nicht auswählbar.

    Evaluierung einer PipelinePermanenter Link zu dieser Überschrift

    Um die Effektivität einer Pipeline zu testen, gibt es die Möglichkeit, Pipelines dahingehend zu evaluieren.

    ÜbersichtPermanenter Link zu dieser Überschrift

    In der Übersicht werden die Evaluierungen aufgelistet und entsprechend der Startzeit gereiht.

    Einstellung

    Beschreibung

    Name der Evaluierung

    Der Name der Evaluierung.

    Name der Pipeline

    Der Name der Pipeline.

    Datenset

    Der Name des Datensets.

    Startzeit

    Der Zeitpunkt, wann die Evaluierung gestartet wurde.

    Gestartet von

    Der Name des Nutzers, der die Evaluierung gestartet hat.

    Modus

    Der gewählte Evaluierungsmodus.

    Für mehr Informationen zu den Evaluierungsmodi, siehe Neue Evaluierung anlegen.

    Status

    Der aktuelle Status der Evaluierung. Die folgenden Stati des Evaluierungsprozesses sind möglich:

    „…“ – Die Evaluierung befindet sich in der Warteschlange.

    „Läuft“ – Die Evaluierung ist im Gange.

    „Unvollständig“ - Mindestens eine Frage besitzt nicht den Status „Fertiggestellt“.

    „Vollständig“ - Alle Fragen besitzen den Status „Fertiggestellt“.

    Fortschritt

    Die Anzahl der bereits prozessierten Fragen im Vergleich mit der Anzahl aller insgesamt zu prozessierenden Fragen.

    Dauer

    Die Dauer des Evaluierungsdurchlaufs.

    Feedback

    Zeigt die durchschnittliche Bewertung aller bewerteten Fragen an. Die Anzahl der bewerteten Fragen verglichen mit der Gesamtanzahl an Fragen wird in den Klammern angezeigt. Sind alle Fragen bewertet, wird nur der gesamte Durchschnittswert der Bewertung angezeigt.

    Evaluierung wiederholen

    Solange eine Evaluierung läuft wird in der letzten Spalte ein Lade-Symbol angezeigt. Ist eine Evaluierung beendet, dann wird in der letzten Spalte ein „Wiederholen“ Symbol angezeigt. Wenn man auf das Symbol klickt, kann man eine neue Evaluierung starten, welche initial bereits mit der Konfiguration der gewählten Evaluierung ausgefüllt wird.

    Neue Evaluierung anlegenPermanenter Link zu dieser Überschrift

    Mit „Neue Evaluierung“ kann eine neue Evaluierung angelegt werden.

    Einstellung

    Beschreibung

    Name der Evaluierung

    Der Name der Evaluierung.

    Beschreibung der Evaluierung

    Die Beschreibung der Evaluierung. Hier kann man erklären was man evaluieren möchte oder welche Einstellung geändert oder angepasst wurde.

    Pipeline

    Die Auswahl der Pipeline.

    Pipeline Version

    Die Version der gewählten Pipeline.

    Datenset

    Das Datenset auf dessen Basis die Evaluierung erstellt werden soll.

    Sucheinschränkung

    Hier kann eine Sucheinschränkung für die gesamte Evaluierung definiert werden. Der hier definierte Wert wird (sofern vorhanden) als Bedingung in die Suche mit eingenommen.

    Modus

    Die folgenden Modi stehen zur Auswahl:

    • „Nur Retrieval“ - Nur der Retrieval-Teil wird evaluiert, was  hilfreich ist, wenn man prüfen will, welche Antworten man für die Frage erhält.
    • „Nur Generierung“ - Nur die Generierung wird auf Basis der gegebenen Antworten und Kontexte des Datensets evaluiert. Damit kann man die Leistung der Generierung überprüfen.
    • „Retrieval und Generierung“ - Der Retrieval-Teil und die Generierung werden gemeinsam evaluiert. Dadurch kann man überprüfen, welche Antworten man für die Frage erhält und wie die Leistung der Generierung ist.

    Eigenen Evaluierungseintrag pro Query erstellen

    (wenn „Modus“ auf „Nur Retrieval“ gesetzt ist)

    Wenn aktiviert, wird für jede Query des Datensets ein eigener Evaluierungseintrag erstellt.

    Standardeinstellung: Deaktiviert.

    LLM der Pipeline überschreiben

    (wenn „Modus“ auf „Nur Generierung“ oder „Retrieval und Generierung“ gesetzt ist)

    Wenn aktiviert, kann ein anderes LLM für die Generierung verwendet werden, als in der Pipeline definiert.

    EvaluierungsübersichtPermanenter Link zu dieser Überschrift

    Zusammenfassung des EvaluierungsergebnissesPermanenter Link zu dieser Überschrift

    Einstellung

    Beschreibung

    Gesamt

    Die Anzahl der zu verarbeiteten Anfragen.

    Fertiggestellt

    Die Anzahl der verarbeiteten Anfragen.

    Startzeit

    Das Datum und die Uhrzeit wann die Evaluierung gestartet wurde.

    Endzeit

    Das Datum und die Uhrzeit wann die Evaluierung beendet wurde.

    Dauer des Retrieval

    Die Dauer des Retrieval wird mit den folgenden Werten bestimmt:

    • Min - Die kürzeste Zeit, die vom Retrieval-Prozess benötigt wurde, um alle Anfragen zu verarbeiten.
    • Max – Die längste Zeit, die vom Retrieval-Prozess benötigt wurde, um alle Anfragen zu verarbeiten.
    • – Die durchschnittliche Dauer des Retrieval-Prozesses einer verarbeiteten Anfrage.

    Dauer der Generierung

    Die Dauer der Generierung wird mit den folgenden Werten bestimmt:

    • Min - Die kürzeste Zeit, die von der Generierung benötigt wurde, um alle Anfragen zu verarbeiten.
    • Max - Die längste Zeit, die von der Generierung benötigt wurde, um alle Anfragen zu verarbeiten.
    • Die durchschnittliche Dauer der Generierung einer verarbeiteten Anfrage.

    Generierung beendet

    Die Anzahl der Anfragen bei denen die Generierung erfolgreich beendet wurde.

    Retrieval beendet

    Die Anzahl der Anfragen bei denen das Retrieval beendet wurde.

    Retrieval erfolgreich

    Die Anzahl der Anfragen bei denen das Retrieval erfolgreich war.

    Übersicht der Ergebnisse der einzelnen FragenPermanenter Link zu dieser Überschrift

    Feld

    Beschreibung

    Frage

    Die Frage, die im Datenset definiert wurde.

    Erwartete Antwort

    Die erwartete Antwort, die im Datenset definiert wurde.

    Status

    Der Status der Evaluierung (z. B. „Fertiggestellt“, „Fehlgeschlagen“ und andere).

    Note

    Die Bewertung der Frage anhand des User-Feedbacks.

    Details

    Hier findet man die Details der Evaluierung einer Frage.

    Angereichertes Datenset aus einer EvaluierungPermanenter Link zu dieser Überschrift

    Pro Evaluierung kann ein angereichertes Datenset heruntergeladen oder als neues Datenset gespeichert und weitergenutzt werden. Je nach Modus wird das Datenset mit unterschiedlichen Daten angereichert:

    Modus

    Anreicherung mit…

    Retrieval and Generation

    • retrievte Kontexte
    • generierte Antworten

    Retrieval only

    retrievte Kontexte.

    Generation only

    generierte Antworten.

    Speicherung des angereicherten Datensets als neues DatensetPermanenter Link zu dieser Überschrift

    Mit „Als Datenset speichern“ kann das angereicherte Datenset als neues Datenset gespeichert werden.

    Export des erhaltenen Datensets aus der EvaluierungPermanenter Link zu dieser Überschrift

    Angereicherte Datensets können mit „Exportieren“ als JSON oder CSV Datei heruntergeladen werden.

    Ergebnis einer FragePermanenter Link zu dieser Überschrift

    AllgemeinPermanenter Link zu dieser Überschrift

    Feld

    Beschreibung

    Modus

    Der ausgewählte Modus der Evaluierung.

    Für mehr Informationen, siehe Neue Evaluierung anlegen.

    Frage

    Die verarbeitete Frage.

    Status

    Folgende Stati sind möglich:

    • „Fertiggestellt“ – Der Evaluierungsprozess ist abgeschlossen.
    • „Retrieval“ – Der Retrieval-Teil läuft.
    • „Generierung“ – Die Generierung läuft.
    • „…“ – Befindet sich in der Warteschlange.

    „Abgebrochen“ - Der Nutzer hat den Evaluierungsprozess abgebrochen und die Frage wurde bis zu diesem Zeitpunkt noch nicht prozessiert.

    „Fehlgeschlagen“ – Der Evaluierungsprozess wurde vom System abgebrochen.

    Fehlernachricht

    Falls der Status „Fehlgeschlagen“ lautet, findet man hier einen Hinweis zum Fehler.

    BewertungPermanenter Link zu dieser Überschrift

    Hier gibt es die Möglichkeit, das Evaluierungsergebnis für eine Frage zu bewerten.

    Einstellung

    Beschreibung

    Benotung

    Hier kann eine Note von 1 (Sehr gut) bis 5 (Nicht genügend) vergeben werden, um die Verarbeitung der Frage zu bewerten.

    Label

    Hier kann ein selbstdefiniertes, individuelles Label vergeben werden.

    Anmerkung

    Hier kann man eine Anmerkung zum Evaluierungsergebnis hinterlassen.

    Nach dem Einfügen/Ändern einer Bewertung muss das Ergebnis mit „Speichern“ gespeichert werden.

    GenerierungPermanenter Link zu dieser Überschrift

    Dieser Bereich gibt Aufschluss über die Antwortgenerierung.

    Option

    Beschreibung

    Prompt anzeigen

    Der effektive Prompt wird angezeigt.

    Parameter anzeigen

    Die verwendeten Parameter für die Generierung werden angezeigt, wie z.B. Temperatur und andere Parameter.

    In der Tabelle darunter findet man die erwartete Antwort der Frage (im Datenset definiert) gegenübergestellt mit der erhaltenen Antwort des LLM.

    RetrievalPermanenter Link zu dieser Überschrift

    Dieser Bereich gibt Aufschluss über den Retrieval Prozess.

    Feld/Optionen

    Beschreibung

    Queries

    Hier werden die Queries angezeigt, mit denen die Suchanfrage ergänzt wurde.

    Suchanfrage anzeigen

    Hier sieht man die effektive Suchanfrage, die an den Client Service gesendet wurde.

    Prompt Platzhalter anzeigen

    Hier werden die gegebenen Prompt Platzhalter aus dem Datenset-Eintrag aufgelistet.

    Query Einschränkungen anzeigen

    Hier werden die gegebenen Query Einschränkungen aus dem Datenset-Eintrag aufgelistet.

    In der Tabelle werden die erwarteten Kontexte (im Datenset definiert) gegenübergestellt mit den erhaltenen Kontexten aus dem Retrieval Prozess.

    Evaluierungen exportieren und importierenPermanenter Link zu dieser Überschrift

    Evaluierungen können nur als JSON-Datei exportiert werden.

    Das Importieren und Exportieren von Evaluierungen kann mit „Im-/Export“ durchgeführt werden.

    ExportPermanenter Link zu dieser Überschrift

    Um eine (oder mehrere) Evaluierung(en) zu exportieren, müssen die jeweiligen Evaluierungen ausgewählt werden. Setzen Sie dafür ein Häkchen neben den jeweiligen Evaluierungen, um diese auszuwählen. Ist mindestens eine Evaluierung ausgewählt, können Sie bei „Im-/Export“ die Option „Exportieren“ auswählen. Es erscheint anschließend ein Pop-Up-Fenster, wo sich der Download-Link für die exportierte Evaluierung befindet.

    Sind mehrere Evaluierungen gleichzeitig ausgewählt, werden diese als ZIP-Dateien exportiert.

    Hinweis: Ist keine Evaluierung ausgewählt, ist die Option „Exportieren“ ausgegraut und nicht auswählbar.

    ImportPermanenter Link zu dieser Überschrift

    Exportierte Evaluierungen kann man in einem anderen RAG-Service auch wieder als ZIP-Dateien importieren. Importierte Evaluierungen von anderen RAG Services werden in der Übersichtstabelle mit „[Imported]“ vor dem Namen gekennzeichnet. Sie werden mit den weiteren (nicht importierten) Evaluierungen anhand des Evaluierungsstarts sortiert.

    PDF herunterladen

    • Handbuch - Administration von Insight Services für Retrieval Augmented Generation

    Inhalt

    • Motivation und Überblick
    • Konfiguration eines Large Language Model (LLM)
    • Erstellung einer Pipeline
    • Veröffentlichung der erstellten Pipeline
    • Producer-Consumer-Einrichtung
    • Erstellung von Datensets
    • Evaluierung einer Pipeline

    PDF herunterladen

    • Handbuch - Administration von Insight Services für Retrieval Augmented Generation