Home
Home
Englische Version
Support
Impressum
25.2 Release ►

Start Chat with Collection

    Main Navigation

    • Vorbereitung
      • Einrichten InSpire G7 Primärsystem und Standby Appliances
      • Erstellen einer InSpire-VM auf Hyper-V
      • Initiale Inbetriebnahme für G7 Appliances
      • Konnektoren
    • Datenquellen
      • Anleitung zur Datenintegration mithilfe eines SQL Datenbank-Beispiels
      • Handbuch - Mindbreeze InSpire Insight Apps in Salesforce
      • Indizierung benutzerspezifischer Eigenschaften (SharePoint 2013 Connector)
      • Indizierung benutzerspezifischer Objekttypen (Documentum)
      • Installation & Konfiguration - Atlassian Confluence Sitemap Generator Add-On
      • Installation & Konfiguration - Caching Principal Resolution Service
      • Installation & Konfiguration - Mindbreeze InSpire Insight Apps in Microsoft SharePoint On-Prem
      • Konfiguration - Atlassian Confluence Connector
      • Konfiguration - Best Bets Connector
      • Konfiguration - Box Connector
      • Konfiguration - COYO Connector
      • Konfiguration - Data Integration Connector
      • Konfiguration - Documentum Connector
      • Konfiguration - Dropbox Connector
      • Konfiguration - Egnyte Connector
      • Konfiguration - GitHub Connector
      • Konfiguration - Google Drive Connector
      • Konfiguration - GSA Adapter Service
      • Konfiguration - HL7 Connector
      • Konfiguration - IBM Connections Connector
      • Konfiguration - IBM Lotus Connector
      • Konfiguration - Jira Connector
      • Konfiguration - JVM Launcher Service
      • Konfiguration - LDAP Connector
      • Konfiguration - Microsoft Azure Principal Resolution Service
      • Konfiguration - Microsoft Dynamics CRM Connector
      • Konfiguration - Microsoft Exchange Connector
      • Konfiguration - Microsoft File Connector (Legacy)
      • Konfiguration - Microsoft File Connector
      • Konfiguration - Microsoft Graph Connector
      • Konfiguration - Microsoft Loop Connector
      • Konfiguration - Microsoft Project Connector
      • Konfiguration - Microsoft SharePoint Connector
      • Konfiguration - Microsoft SharePoint Online Connector
      • Konfiguration - Microsoft Stream Connector
      • Konfiguration - Microsoft Teams Connector
      • Konfiguration - Salesforce Connector
      • Konfiguration - SCIM Principal Resolution Service
      • Konfiguration - SemanticWeb Connector
      • Konfiguration - ServiceNow Connector
      • Konfiguration - Web Connector
      • Konfiguration - Yammer Connector
      • Mindbreeze InSpire Insight Apps in Microsoft SharePoint Online
      • Mindbreeze Web Parts in Microsoft SharePoint
      • Whitepaper - Web Connector Erweiterte JavaScript Anwendungsfälle
    • Konfiguration
      • CAS Authentifizierung
      • Cookie Authentifizierung
      • Handbuch - AI Chat
      • Handbuch - Erstellung einer AWS 10M InSpire Applikation
      • Handbuch - Erstellung einer AWS 1M InSpire Applikation
      • Handbuch - Erstellung einer AWS 2M InSpire Applikation
      • Handbuch - Erstellung einer Google Compute Cloud Virtual Machine InSpire Applikation
      • Handbuch - Erstellung einer Oracle Cloud 10M InSpire Applikation
      • Handbuch - Erstellung einer Oracle Cloud 1M InSpire Applikation
      • Handbuch - MMC_ Services
      • Handbuch - Natural Language Question Answering (NLQA)
      • Handbuch - SSO mit Microsoft AAD oder AD FS
      • Handbuch - Text Classification Insight Services
      • I18n Item Transformation
      • JWT Authentifizierung
      • Konfiguration - Alternative Suchvorschläge und automatische Sucherweiterung
      • Konfiguration - Backend Credentials
      • Konfiguration - Benachrichtigungen
      • Konfiguration - CJK Tokenizer Plugin
      • Konfiguration - CSV Metadata Mapping Item Transformation Service
      • Konfiguration - Entity Recognition
      • Konfiguration - Export Funktionalität
      • Konfiguration - External Query Service
      • Konfiguration - Filter Plugins
      • Konfiguration - Gesammelte Ergebnisse
      • Konfiguration - GSA Late Binding Authorization
      • Konfiguration - Identity Conversion Service - Replacement Conversion
      • Konfiguration - InceptionImageFilter
      • Konfiguration - Index-Servlets
      • Konfiguration - InSpire AI Chat und Insight Services für Retrieval Augmented Generation
      • Konfiguration - Item Property Generator
      • Konfiguration - Kerberos Authentfizierung
      • Konfiguration - Management Center Menü
      • Konfiguration - Metadata Reference Builder Plugin
      • Konfiguration - Metadaten Anreicherung
      • Konfiguration - Mindbreeze InSpire
      • Konfiguration - Mindbreeze Proxy Umgebung (Remote Connector)
      • Konfiguration - Outlook Add-In
      • Konfiguration - Personalisierte Relevanz
      • Konfiguration - Plugin Installation
      • Konfiguration - Principal Validation Plugin
      • Konfiguration - Profile
      • Konfiguration - Reporting Query Log
      • Konfiguration - Reporting Query Performance Tests
      • Konfiguration - Request Header Session Authentisierung
      • Konfiguration - Verteilte Konfiguration (Windows)
      • Konfiguration - Vokabulare für Synonyme und Autovervollständigung
      • Konfiguration von Vorschaubildern
      • Mindbreeze Personalization
      • Mindbreeze Property Expression Language
      • Mindbreeze Query Expression Transformation
      • SAML Authentifizierung
      • Spracherkennung mit dem LanguageDetector Plugin
      • Trusted Peer Authentication für Mindbreeze InSpire
      • Verwendung von InSpire-Snapshots in einer CI_CD-Umgebung
    • Betrieb
      • Anpassung der InSpire Host OpenSSH Einstellungen - LoginGraceTime auf 0 setzen (Mitigation für CVE-2024-6387)
      • app.telemetry Statistiken zu Suchanfragen
      • Bereitstellen von app.telemetry Informationen mittels SNMPv3 auf G7 Appliances
      • CIS Level 2 Hardening - SELinux in den Modus Enforcing versetzen
      • Handbuch - Administration von Insight Services für Retrieval Augmented Generation
      • Handbuch - Filemanager
      • Handbuch - Indizierungs- und Suchlogs
      • Handbuch - Kommandozeilenwerkzeuge
      • Handbuch - Sichern & Wiederherstellen
      • Handbuch - Updates und Downgrades
      • Handbuch - Verteilter Betrieb (G7)
      • Index Betriebskonzepte
      • Inspire Diagnose und Ressourcen Monitoring
      • Konfiguration - app.telemetry Dashboards für Nutzungsanalyse
      • Konfiguration - Nutzungsanalyse
      • Löschung der Festplatten
      • Wiederherstellen des Lieferzustandes
    • Anwenderhandbuch
      • Browser Extension
      • Cheat Sheet
      • iOS App
      • Tastaturbedienung
    • SDK
      • api.chat.v1beta.generate Schnittstellenbeschreibung
      • api.v2.alertstrigger Schnittstellenbeschreibung
      • api.v2.export Schnittstellenbeschreibung
      • api.v2.personalization Schnittstellenbeschreibung
      • api.v2.search Schnittstellenbeschreibung
      • api.v2.suggest Schnittstellenbeschreibung
      • api.v3.admin.SnapshotService Schnittstellenbeschreibung
      • Debugging (Eclipse)
      • Einbetten des Insight App Designers
      • Entwicklung eines API V2 Search Request Response Transformer
      • Entwicklung eines Query Expression Transformer
      • Entwicklung von Insight Apps
      • Entwicklung von Item Transformation und Post Filter Plugins mit der Mindbreeze SDK
      • Java API Schnittstellenbeschreibung
      • OpenAPI Schnittstellenbeschreibung
      • SDK Übersicht
    • Release Notes
      • Release Notes 20.1 Release - Mindbreeze InSpire
      • Release Notes 20.2 Release - Mindbreeze InSpire
      • Release Notes 20.3 Release - Mindbreeze InSpire
      • Release Notes 20.4 Release - Mindbreeze InSpire
      • Release Notes 20.5 Release - Mindbreeze InSpire
      • Release Notes 21.1 Release - Mindbreeze InSpire
      • Release Notes 21.2 Release - Mindbreeze InSpire
      • Release Notes 21.3 Release - Mindbreeze InSpire
      • Release Notes 22.1 Release - Mindbreeze InSpire
      • Release Notes 22.2 Release - Mindbreeze InSpire
      • Release Notes 22.3 Release - Mindbreeze InSpire
      • Release Notes 23.1 Release - Mindbreeze InSpire
      • Release Notes 23.2 Release - Mindbreeze InSpire
      • Release Notes 23.3 Release - Mindbreeze InSpire
      • Release Notes 23.4 Release - Mindbreeze InSpire
      • Release Notes 23.5 Release - Mindbreeze InSpire
      • Release Notes 23.6 Release - Mindbreeze InSpire
      • Release Notes 23.7 Release - Mindbreeze InSpire
      • Release Notes 24.1 Release - Mindbreeze InSpire
      • Release Notes 24.2 Release - Mindbreeze InSpire
      • Release Notes 24.3 Release - Mindbreeze InSpire
      • Release Notes 24.4 Release - Mindbreeze InSpire
      • Release Notes 24.5 Release - Mindbreeze InSpire
      • Release Notes 24.6 Release - Mindbreeze InSpire
      • Release Notes 24.7 Release - Mindbreeze InSpire
      • Release Notes 24.8 Release - Mindbreeze InSpire
      • Release Notes 25.1 Release - Mindbreeze InSpire
      • Release Notes 25.2 Release - Mindbreeze InSpire
    • Sicherheit
      • Bekannte Schwachstellen
    • Produktinformation
      • Produktinformation - Mindbreeze InSpire - Standby
      • Produktinformation - Mindbreeze InSpire
    Home

    Path

    Sure, you can handle it. But should you?
    Let our experts manage the tech maintenance while you focus on your business.
    See Consulting Packages

    Schnittstellenbeschreibung
    api.chat.v1beta.generate

    EinleitungPermanenter Link zu dieser Überschrift

    Dieses Dokument beschäftigt sich mit der Mindbreeze Web API zum Generieren von Chat- Completions mittels RAG Pipelines.

    Generate-Anfragen werden als HTTP POST-Request an ein Client Service gesendet. Der Pfad für Generate-Anfragen lautet:

    <Client Service>/api/chat/v1beta/generate

    Im Body des HTTP-Request wird ein JSON-Dokument mitgeschickt, das die Generate-Anfrage beschreibt. Wie dieses JSON-Dokument auszusehen hat, wird im Kapitel "Felder Im Request" beschrieben.

    Als Response erhält man ebenfalls Server Sent Events (Stream). Das Format wird im Kapitel "Felder in der Response" beschrieben.

    Eine OpenAPI Spezifikation der API ist ebenfalls verfügbar. Eine genauere Anleitung dazu befindet sich in der Dokumentation OpenAPI Schnittstellenbeschreibung .

    Felder im Request [ConversationInput]Permanenter Link zu dieser Überschrift

    id (optional)

    Kennung der Konversation (optional).

    Die ID wird in der app.telemetry angezeigt.

    Type: String

    inputs

    Eingabetext für die Generate-Anfrage.

    Type: String

    stream

    Steuert, ob die Generierung gestreamed wird.

    Standardwert: true

    Type: Boolean

    model_id

    ID der zu verwendenden RAG Pipeline.

    Type: String

    pipeline_id

    Alias zu model_id.

    Type: String

    pipeline_key

    Der Schlüssel einer Pipeline.

    Für mehr Informationen, siehe hier.

    Type: String

    messages

    Konversationsverlauf (optional).

    Siehe das Kapitel messages [liste].

    parameters

    Generierungsparameter (optional).

    Siehe das Kapitel parameters.

    prompt_dictionary

    Zusätzliche Werte der Promptvorlage (optional).

    Siehe das Kapitel prompt_dictionary.

    retrieval_options

    Zusätzliche Einschränkungen der Suche (optional).

    Siehe das Kapitel retrieval_options.

    generation_options

    Zusätzliche Einstellmöglichkeiten für die Generierung (optional).

    Für mehr Informationen, siehe das Kapitel generation_options.

    {

       "inputs": "Who is the CEO of Mindbreeze?",

       "stream": false,

       "model_id": "3a0e8612-a24f-4b16-93cc-aa6307d0c62b",

       "retrieval_options": {

          "constraint": {

             "unparsed": "title:management"

          }

       }

    }

    messages [Liste]Permanenter Link zu dieser Überschrift

    Die API ist stateless. Um den Generate Endpoint für Chat- Anwendungen zu verwenden, kann optional eine Chat- Verlauf als Liste von Messages angegeben werden. Dazu muss auch die Option „Chat History verwenden“ in der Pipeline aktiviert sein.

    from

    Absender der Message („user“ oder „assistant“).

    Type: String

    id

    Kennung der Message (optional).

    Type: String

    content

    Textinhalt der Message.

    Type: String

    content_processed

    Ausgefüllte Promptvorlage mit Suchergebnissen (optional).

    Type: String

    [

      {

        "from": "user",

        "content": "Who is the CEO of Mindbreeze?",

        "content_processed": "Given the following extracted parts of …"

      },

      {

        "from": assistant",

        "content": "Daniel Fallmann is the CEO of Mindbreeze"

      }

    ]

    parametersPermanenter Link zu dieser Überschrift

    Optional können die Generation-Parameter der verwendeten Pipeline überschrieben werden.

    temperature

    Überschreibt „Zufälligkeit der Antwort (Temperatur)“

    Steuert die Zufälligkeit der generierten Antwort (0 - 100%).

    Höhere Werte machen die Ausgabe kreativer, während niedrigere Werte sie zielgerichteter und deterministischer machen.

    Type: Integer

    max_new_tokens

    Überschreibt „Maximale Länge der Antwort (Tokens)“

    Begrenzt die Menge der erzeugten Tokens (100 Token ~ 75 Wörter; abhängig vom Tokenizer).

    Type: Integer

    details

    Fügt der Antwort zusätzlich zum generierten Text noch detailliertere Informationen über die einzelnen Tokens hinzu.

    Type: Boolean

    Hinweis: Ist nur relevant, wenn es nicht gestreamed wird.

    retrieval_details

    Fügt der Antwort zusätzlich noch detaillierte Informationen über die erhaltenen Antworten aus dem Retrieval Prozess hinzu.

    Type: Boolean

    {

      "temperature": 5,

      "max_new_tokens": 500,

      "details": true,

      "retrieval_details": true

    }

    optional_parametersPermanenter Link zu dieser Überschrift

    Hiermit kann man optionale Parameter, die nicht von allen LLMs unterstützt werden, übergeben.

    Name

    Beschreibung

    Unterstützte LLM Protokolle

    do_sample

    Wenn do_sample auf false gesetzt ist, erfolgt die Textgenerierung deterministisch. Das Modell wählt immer das Token mit der höchsten Wahrscheinlichkeit (logits-Wert). Diese Einstellung wird empfohlen für klar definierte und vorhersehbare Aufgaben.

    Wenn do_sample auf true gesetzt ist, erfolgt die Auswahl der nächsten Tokens stochastisch, basierend auf den Wahrscheinlichkeitsverteilungen, die das Modell berechnet. Dies ermöglicht kreativere und diversere Ausgaben.

    Typ: Boolean

    InSpire LLM

    truncate

    Kürzt die Anzahl der Token auf die angegebene Größe. Das Definieren dieser Einstellung ist sinnvoll für das Einhalten der Kontextgröße bei LLMs. Die Konfiguration dieser Einstellung wird empfohlen, wenn davon auszugehen ist, dass sehr lange Prompts verwendet werden, die eventuell auch die Kontextlänge des LLMs überschreiten könnten.

    Typ: Integer

    Achtung: Durch die Verwendung des „truncate“ Parameters können Informationen verloren gehen.

    InSpireLLM

    {
      "do_sample": true
    ,
      "truncate": 8000

    }

    prompt_dictionaryPermanenter Link zu dieser Überschrift

    Optional können zum Ausfüllen von Platzhaltern in der Prompt Template der verwendeten Pipeline Key- Value Paare angegeben werden. Um Default Platzhalter zu überschreiben, muss die Einstellung „Überschreiben von Systemprompttemplatevariablen zulassen“ in der Pipeline aktiviert sein.

    "prompt_dictionary": {

       "question": "Tell me about Mindbreeze",

       "answer": "Mindbreeze is fast!"

    }

    retrieval_optionsPermanenter Link zu dieser Überschrift

    Optional können die Retrieval-Einstellungen der verwendeten Pipeline überschrieben werden.

    constraint

    Query Expression, die zusätzlich zu der in der Pipeline konfigurierten Sucheinschränkung für das Retrieval verwendet wird.

    Type: String

    search_request

    Erweitert die Suchanfrage, die für das Retrieval verwendet wird. Felder dich nicht in der Suchanfrage der Pipeline vorhanden sind, werden ergänzt, um das Überschreiben von Feldern zu erlauben, muss die Einstellung „Überschreiben der Suchanfragenvorlage erlauben“ in der Pipeline aktiviert sein.

    Type: Objekt

    Für mehr Informationen, siehe api.v2.search Schnittstellenbeschreibung - Felder in der Suchanfrage.

    use_inputs

    Steuert, ob der Eingabetext (inputs) als Query für das Retrieval verwendet wird.

    Standardwert: true

    Type: Boolean

    skip_retrieval

    Überspringt den Retrieval Teil. Diese Einstellung ist hilfreich, wenn man ohne einen zusätzlichen Kontext aus Antworten generieren möchte oder die Antworten selbst angeben möchte.

    Standardwert: false

    Type: Boolean

    Für mehr Informationen, siehe die Einstellung „answers“ im Kapitel generation_options.

    "retrieval_options": {

       "constraint": {

          "unparsed": "title:management"

       },

       "search_request": {

          "term": "mind"

       },

       "use_inputs": false,
       "skip_retrieval": true

    }

    generation_optionsPermanenter Link zu dieser Überschrift

    Optional können die Retrieval-Einstellungen der verwendeten Pipeline überschrieben werden:

    prompt_dictionary

    Dieses „Prompt Dictionary“ hat Priorität gegenüber dem anderen prompt_dictionary.

    Für mehr Informationen, siehe das Kapitel prompt_dictionary

    llm_selector

    Mit dieser Einstellung kann ein LLM für die Generierung via Namen oder Familie ausgewählt werden.

    Dies ist nur möglich, wenn keine Pipeline mit model_id spezifiziert wurde.

    Die Werte der einzelnen LLMs können über die /data Schnittstelle herausgefunden werden.

    answers

    Mit dieser Einstellung kann man die Antworten selbst angeben, vorausgesetzt das Retrieval wurde mit skip_retrieval in den retrieval_options deaktiviert.

    Type: List[Answer]

    Für mehr Informationen, siehe api.v2.search Schnittstellenbeschreibung - answers.

    message_templates

    Mit dieser Einstellung können die Messages, die an das LLM geschickt werden sollen, sehr präzise angegeben werden.

    Für mehr Informationen, siehe das Kapitel message_templates [Liste].

    "generation_options": {
       "prompt_dictionary": {
          "company": "Mindbreeze"
       },
       "llm_selector": {
          "family": "Meta Llama 3 Instruct"

       }

    }

    message_templates [Liste]Permanenter Link zu dieser Überschrift

    role

    Definiert die Rolle des Konversationsteilnehmers dieser Message. Mögliche Werte sind:

    • system
    • user
    • assistant

    Type: String

    content

    Der Inhalt der Message, der aus mehreren Teilen bestehen kann.

    Für mehr Infomationen, siehe das Kapitel content [Liste].

    {
       "role": "user",
       "content": [
          {
             "type": "text",
             "text": "Who is the CEO of Mindbreeze?"
          }
       ]
    }

    content [Liste]Permanenter Link zu dieser Überschrift

    type

    Definiert den Typ dieses Inhalts. Mögliche Werte sind:

    text

    text/fstring-template

    Type: String

    text

    Definiert den eigentlichen Inhalt.

    Wenn die Einstellung type den Wert text/fstring-template besitzt, können hier Platzhalter aus der Einstellung prompt_dictionary oder die Standardplatzhalter (summaries und question) verwendet werden.

    Type: String

    {
       "type": "text/fstring-template",
       "text": "You are a helpful AI assistant. Please answer the question with the context below:\n{summaries}"

    }

    Felder in der ResponsePermanenter Link zu dieser Überschrift

    Die Struktur ist abhängig vom Feld „stream“ im Request.

    stream (Request)

    Response Struktur

    true (Default)

    TokenStreamEvent

    false

    GeneratTextResponse

    TokenStreamEventPermanenter Link zu dieser Überschrift

    Beim Streaming enthält nur das letzte TokenStreamEvent den kompletten generierten Text.

    data: {"token": {"text": "Daniel", "logprob": -0.055236816, "id": 4173}}

    data: {"token": {"text": " ", "logprob": -0.0005774498, "id": 32106}}

    data: {"token": {"text": "Fall", "logprob": -7.176399e-05, "id": 2589}}

    …

    "data": {

       "token":{

          "text":"</s>",

          "logprob":-0.22509766,

          "id":1,

          "special":true

       },

       "generated_text":"Daniel Fallmann is the CEO of Mindbreeze.\n\nRetrieved Sources: …",

       "details":{

          "finish_reason":"eos_token",

          "generated_tokens":19.0,

          "seed":null

       },

       "content_processed":"Given the following …"

    }

    tokenPermanenter Link zu dieser Überschrift

    Enthält Informationen zum generierten Token

    text

    Textinhalt des Tokens.

    Type: String

    logprob

    Logarithmische Wahrscheinlichkeit des Tokens.

    Type: Float ]-inf,0]

    id

    Kennung des Tokens in Bezug auf seinen Kontext

    Type: Integer

    special

    Token hat spezielle Bedeutung (e.g. End-of-Sequence).

    Type: Boolean

    "token": {

      "text": "mind",

      "logprob": -0.0029792786,

      "id": 1,

      "special": false

    }

    generated_text [String]Permanenter Link zu dieser Überschrift

    Der komplette generierte Text, also alle gestreamten Tokens, ausgenommen Special Tokens.

    "generated_text": "The CEO of Mindbreeze is…",

    detailsPermanenter Link zu dieser Überschrift

    finish_reason

    Grund für den Abschluss der Token-Generierung (z.B. "eos_token").

    Type: String

    generated_tokens

    Anzahl der generierten Tokens.

    Type: Float

    seed

    Bei der Generierung verwendeter Seed.

    Type: String | null

    "details": {

      "finish_reason": "eos_token",

      "generated_tokens": 51.0,

      "seed": null

    }

    content_processed [String]Permanenter Link zu dieser Überschrift

    Enthält den Text, der als Eingabe zur Generierung an das LLM gesendet wurde (Prompt). Der Text wird anhand der Prompt Template der Verwendeten Pipeline erzeugt.

    "content_processed": "Given the following extracted parts of …"

    retrieval_detailsPermanenter Link zu dieser Überschrift

    Enthält Informationen zu den erhaltenen Antworten der Suche. Nur präsent, wenn der Parameter "retrieval_details" mit "true" im Request mitgeschickt wurde.

    answers

    Die Liste der Antworten aus der Suche.

    Type: List[Answer]

    Für mehr Informationen, siehe api.v2.search Schnittstellenbeschreibung - Antwort.

    GenerateTextResponsePermanenter Link zu dieser Überschrift

    Ohne Streaming wird der generierte Text, ohne zusätzlich Informationen wie beim Streaming zurückgeliefert.

    {

      "generated_text": "Daniel Fallmann is the CEO…",

      "details": {

        "generated_tokens": 19,

        "tokens": [

          {

            "text": "Daniel",

            "logprob": -0.055236816

          },

          {

            "text": " ",

            "logprob": -0.0005774498

          },

          {

            "text": "Fall",

            "logprob": -7.176399e-05

          },

          …

           {

             "text": "</s>",

             "logprob": -0.22509766,

             "special":true

           }

        ]

      },

      "retrieval_details" {

        "answers": [

          {

            "score": 0.7742171883583069,

            "text": {

              "text": "Management \nDaniel Fallmann Founder & CEO\nDaniel Fallmann founded Mindbreeze in 2005 and as its CEO he is a living example of high quality and innovation standards.",

              "context_after": " From the company’s very beginning, Fallmann, together with his team, laid the foundation for the highly scalable and intelligent Mindbreeze InSpire appliance.",

              "text_start_pos": 0,

              "text_end_pos": 164

            },

            "property_name": "content",

            "properties": [

              {

                "id": "extension",

                "name": "Extension",

                "data": [

                  {

                    "value": {

                      "str": "html"

                    }

                  }

                ]

              },

              ...

            ]

          }

        ]

      }

    }

    generated_text [String]Permanenter Link zu dieser Überschrift

    Der komplette generierte Text, also alle gestreamten Tokens, ausgenommen Special Tokens.

    "generated_text": "The CEO of Mindbreeze is…",

    detailsPermanenter Link zu dieser Überschrift

    Enthält Informationen zum generierten Text. Nur präsent, wenn der Parameter "details" mit "true" im Request mitgeschickt wurde.

    generated_tokens

    Anzahl der generierten Tokens.

    Type: Integer

    tokens

    Die generierten Tokens

    Type: Array[Token]

    tokenPermanenter Link zu dieser Überschrift

    Enthält Informationen zum generierten Token

    text

    Textinhalt des Tokens.

    Type: String

    logprob

    Logarithmische Wahrscheinlichkeit des Tokens.

    Type: Float ]-inf,0]

    retrieval_detailsPermanenter Link zu dieser Überschrift

    Enthält Informationen zu den erhaltenen Antworten der Suche. Nur präsent, wenn der Parameter "retrieval_details" mit "true" im Request mitgeschickt wurde.

    answers

    Die Liste der Antworten aus der Suche.

    Type: List[Answer]

    Für mehr Informationen, siehe api.v2.search Schnittstellenbeschreibung - Antwort.

    PDF herunterladen

    • api.chat.v1beta.generate Schnittstellenbeschreibung

    Inhalt

    • Einleitung
    • Felder im Request [ConversationInput]
    • Felder in der Response

    PDF herunterladen

    • api.chat.v1beta.generate Schnittstellenbeschreibung