Release Notes für Mindbreeze InSpire
Version 25.5
Innovationen und neue Features
AI-basiertes Neurales Reranking – Optimierte Antwort-Qualität durch tiefere semantische Übereinstimmung
Mindbreeze Kunden steht mit der Mindbreeze InSpire Release 25.5 ein AI-basiertes neurales Reranking durch konfigurierbare Transformer Language Modelle für die Optimierung der Antwortqualität zur Verfügung. Dabei wird die Relevanz von Antworten für eine Anfrage durch konfigurierbare AI-Modelle in Bezug auf eine tiefe semantische Übereinstimmung neu festgelegt. Durch die Anwendung von „Cross Attention“ werden mehr potenzielle Antwortmöglichkeiten von Mindbreeze eingeholt als ursprünglich angefordert und entsprechend der neu bewerteten Übereinstimmung auf ihre Relevanz geprüft. Basierend darauf erfolgt die Generierung und Ausgabe der entsprechenden Antwort. Durch die Konfiguration von Boosting-Regeln können Mindbreeze Kunden neben der initialen Bewertung der Antworten auch die neue Bewertung und Einordnung entsprechend ihren Anwendungsfällen anpassen.

Neurales Reranking kann neben den AI-Antworten im Mindbreeze InSpire Client auch bei Retrieval Augmented Generation (RAG) und agentischen RAG-Anwendungsfällen eingesetzt werden. Dadurch erhalten Mindbreeze Kunden nicht nur qualitativ hochwertige Inhalte im LLM-Kontext, sondern profitieren auch von einem reduzierten Token-Verbrauch und einer schnelleren Generierung von Antworten. Für eine flexible Nutzung dieser Optimierung besteht auch die Möglichkeit, neurales Reranking pro Anfrage dynamisch zu aktivieren.
Link zur Dokumentation
Technische Erweiterungen
Mindbreeze InSpire AI Chat-Funktionalitäten mit AI-Antworten in Insight Apps verfügbar
Mit der Mindbreeze InSpire 25.5 Release ist es möglich, die gesamte Funktionalität der Insight Services für RAG Pipelines mit den AI-Antworten in Insight Apps zu nutzen. Dazu erfolgten insbesondere Verbesserungen in Bezug auf die Konsistenz mit anderen Chat-Anwendungen bei der Verwendung des Retrievals innerhalb der RAG Pipeline. Die AI-Antworten-Komponente wurde durch die Anpassung des Fortschrittsbalkens und durch die Optimierung der Formatierung der Antworten zusätzlich weiterentwickelt.
Link zur Dokumentation
Durchgängige Nutzung der OpenAI-kompatiblen API für GenAI-Anwendungsfälle
Kunden erhalten mit der Mindbreeze InSpire 25.5 Release die Möglichkeit, OpenAI-kompatible APIs einfacher für ihre GenAI-Anwendungsfälle zu nutzen. Beispielsweise sind die Mindbreeze InSpire LLMs anhand des Modellnamens nun auswählbar und die Konformität in Bezug auf die OpenAI Chat API erhöht.
Link zur Dokumentation
Optimierte Multi-Turn-Chat-Konversationen
Mit der Mindbreeze InSpire 25.5 Release erhalten Multi-Turn-Chat-Konversationen eine Optimierung. Abhängig von der Konfiguration und der produktiven RAG-Pipeline kann der AI-Assistent jetzt umfassender auf den Chat-Verlauf und die bisherigen Konversationen zugreifen und dadurch noch besser auf Fragen eingehen und entsprechende Antworten generieren.
Link zur Dokumentation
Vereinfachte Nachvollziehbarkeit von Konfigurationsänderungen in OCI-Image-Snapshots
Mindbreeze unterstützt Kunden ab jetzt noch umfassender beim Continuous Deployment. Das Mindbreeze SDK ermöglicht nun die Extraktion von YAML-Repräsentationen aus Snapshots im OCI-Image-Format. Damit lassen sich Konfigurationsänderungen schneller und einfacher erkennen und durch die zusätzliche Signierung der YAML-Repräsentation kann ein robuster Review-Prozess entwickelt werden.
Weitere Neuerungen
Unterstützung bei Producer-Consumer-Szenarien und Mindbreeze InSpire Appliances in Hyperscaler-Umgebungen
Mindbreeze bietet ab sofort zusätzliche Unterstützung bei der Nutzung eines Consumer Node als Producer Node sowie bei der Erstellung von Mindbreeze InSpire Appliances in Hyperscaler-Umgebungen.
Link zur Dokumentation
Link zur Dokumentation
Sicherheitsrelevante Änderungen
- Aktualisiert: Python dependency (CVE-2024-47081, CVE-2025-3262, CVE-2025-47273, CVE-2025-48379, CVE-2025-48945, CVE-2025-50181, CVE-2025-50182, GITHUB GHSA-5qpg-rh4j-qp35).
- Aktualisiert: Chromium auf die Version 138.0.7204.157 (CVE-2025-6556, CVE-2025-6557, CVE-2025-6191, CVE-2025-6192, CVE-2025-6555, CVE-2025-6554, CVE-2025-7656, CVE-2025-6558, CVE-2025-7657).
- Aktualisiert: Dell Firmware (CVE-2025-20103, CVE-2025-20054, CVE-2024-45332, CVE-2024-43420, CVE-2025-20623).
- Aktualisiert: CoreOS Security auf die Version 42.20250623.3.0 (CVE-2025-23395, CVE-2025-46802, CVE-2025-46803, CVE-2025-46804, CVE-2025-46803, CVE-2025-5278, CVE-2025-4598, CVE-2025-6032, CVE-2025-6020, CVE-2024-57970, CVE-2025-1632, CVE-2025-25724, CVE-2024-12718, CVE-2025-4138, CVE-2025-4330, CVE-2025-4517).
Zusätzliche Änderungen
- Hinzugefügt: Vereinfachte Verfolgbarkeit von Konfigurationsänderungen in OCI-Image Snapshots.
- Hinzugefügt: Unterstützung von Binary Data für die Verarbeitung von Inhalten und verbesserte Robustheit im Datenbank Konnektor.
- Hinzugefügt: Modellname kann festgelegt werden beim Erstellen eines Mindbreeze InSpire LLM Service in Insight Services für RAG.
- Hinzugefügt: Docling ContentFilterService.
- Hinzugefügt: Antworten können mit Cross Encoder Modellen neu bewertet werden.
- Hinzugefügt: Unterstützung für Jira Data Center 10.
- Hinzugefügt: SMTP-Authentifizierung für ausgehende E-Mails wird unterstützt.
- Hinzugefügt: Das Content Filter Plugin kann mit der Plugin ID in der Anfrage /filterAndIndex ausgewählt werden.
- Hinzugefügt: Unterstützung für mehrere authentifizierte LLMs in Helm Chart.
- Fix für: Der Import sehr kleiner OCI-Snapshots in Kubernetes konnte hängen bleiben.
- Fix für: Übermäßiges Logging im Fall von „No authorizer for fqCategory“.
- Fix für: Fehler, die die geplante Bereinigung von Buckets unterbrechen, sollten mit dem ERROR-Level gelogged werden.
- Fix für: AI Antworten verhalten sich anders als AI Chat für Single-Conversation-Chat-Anwendungsfälle, wenn sie in RAG-Pipelines abgerufen werden.
- Fix für: Microsoft File, Microsoft SharePoint, LDAP und Documentum Konnektoren speichern ihren Status nun standardmäßig nicht mehr in /tmp.
- Fix für: Sporadische 401-Antworten während des Crawlings des Remote-Connectors.
- Fix für: Auflösung des Benutzernamens im Jira Principal Cache.
- Fix für: Ähnlichkeitssuche von statischer, aggregierbarer, vorab berechneter synthetischer Eigenschaften liefert Ergebnisse, aber keine Antworten.
- Fix für: Unvollständige app.telemetry-Instrumentierung für einige Abfrageausdrücke im Client Service Logpool.
- Fix für: Das Ändern von „apptelemetryusersgroup“ in Kubernetes Deployments war nicht wirksam.
- Fix für: Korrekte Handhabung von Log Prompt in app.telemetry.
- Fix für: Der Indexierungsprozess kann hängen bleiben, wenn das Herunterfahren unmittelbar nach dem Start erfolgt.
- Fix für: Suchproblem im File Manager im Management Center.
- Fix für: Die Generierung von Antworten wurde durch das Drücken des Knopfes „Stopp“ nicht beendet.
- Fix für: Fehlende Antworten in RAG, wenn die Quelle keine Formatierung enthält.
- Fix für: Windows Installer enthält keine Client-Ressourcen.
- Fix für: Das Computed Event läuft so lange, bis das erste Generierungstoken von der /generate-Anfrage empfangen wird.
- Fix für: Sicherstellen, dass das Laden von sourceInfo abgeschlossen ist, bevor die Verfügbarkeit des Services mindbreeze.chat.v1beta für die Generierung überprüft wird.
- Fix für: Wenn die Titel-Eigenschaft nicht im VALUE-Format, sondern im PROPERTIES-Format angefordert wurde, werden in den AI Antworten keine Quellen angegeben.
- Fix für: In bestimmten seltenen Fällen wird während der Abfrage bei der Verarbeitung von Anmerkungen (Kontextualisierung) eine Assertion ausgelöst.
- Verbessert: Der Start von Sub-Prozessen wurde unter Berücksichtigung von Speicher- und Latenzbedingungen optimiert.
- Verbessert: Robustheit der Service-Prozesse durch Neustart des Query Services bei Instabilität von JWKS während dem initialen Setup in Testumgebungen.
- Verbessert: Robustheit bei der Generierung mit Konversationsnachrichten.