AI Explorer

Der AI Explorer steht auf jeder Seite der Labordatenbank zur Verfügung und ermöglicht es direkt kontextbezogene Fragen zu den gerade relevanten Daten an eine künstliche Intelligenz (AI) zu stellen.

  • Kontextbezogen
    Der AI Explorer stellt für jeden Datensatz (Probe, Auftrag, Kunde, Prüfmittel, Material, Dokument,...) automatisch den passenden Kontext bereit, sodass die AI relevante Antworten liefert.
  • Transparenz & Kontrolle
    Sie sehen jederzeit, welche Informationen zusammen mit Ihrer Frage an die AI geschickt werden. Mit Checkboxen entscheiden Sie welche Daten einbezogen werden (oder nicht).
  • Zugriffsrechte
    Dabei werden die Zugriffsrechte der Labordatenbank für den Kontext automatisch berücksichtigt.
  • Persistente Chats
    Jeder AI-Chat wird direkt beim zugehörigen Datensatz gespeichert und kann jederzeit nahtlos fortgesetzt werden.
  • Beispielfragen
    Praxisnahe Beispielfragen ermöglichen einen schnellen Einstieg in die AI Nutzung.

AI Explorer auf jeder Seite integriert

Der AI Explorer ist direkt in die Labordatenbank integriert und erscheint auf jeder Seite in der Menüleiste rechts oben. Befinden Sie sich z.B. auf Probenansicht, können Sie per Chat-Frage die AI um Auskunft genau zu dieser Probe bitten - etwa „Fasse die Ergebnisse dieser Probe zusammen und prüfe die Plausibilität der Messergebnisse“. Die AI kennt den Kontext der Probe (Stammdaten, Parameter, Messwerte, Sollwerte, Auftrag, usw.) und liefert darauf basierend Antworten in Sekunden direkt bei der betreffenden Probe.

Genauso funktioniert es auf allen anderen Seiten der Labordatenbank: Bei einem Kunden können Sie z.B. fragen „Welche Aufträge hat dieser Kunde im letzten Jahr abgeschlossen?“, bei einem Prüfmittel „Wann steht die nächste Kalibrierung an?“ usw. Durch diese kontextbezogene Herangehensweise wird die Labordatenbank zu Ihrem persönlichen AI-Assistenten, der Ihnen monotone Recherchen abnimmt und komplexe Fragen verständlich beantwortet.

Context-Engineering

Die Qualität der Antworten der AI hängt entscheidend davon ab, welchen Kontext sie bei einer Frage als Hintergrundinformation erhält. Wir haben großes Augenmerk auf das Context-Engineering gelegt - also darauf, der AI automatisch immer genau die richtigen Daten und Zusatzinformationen bereitzustellen, die für den jeweiligen Datentyp relevant sind. Dieses Prinzip des Context-Engineering bedeutet, ein AI-System so zu gestalten, dass es zur Erfüllung einer Aufgabe „die richtigen Informationen im richtigen Format“ erhält. Nur wenn die AI den richtigen Kontext erhält, wird die Antwort verlässlich ausfallen.

Deshalb haben wir für jeden Datentyp ein maßgeschneidertes Kontextpaket in der Labordatenbank eingebaut. Beispielsweise erhält die AI bei einer Probenanfrage die Parameter und Messwerte, Grenzwertinformationen, Probennotizen und verbundenen Auftragsdaten als Hintergrundwissen. Bei einer Frage zu einem Kunden werden z.B. Auftragsverlauf, Kontaktpersonen und offene Vorgänge kontextuell mitgeliefert. Dieses dynamische Zusammenstellen des Kontexts passiert vollautomatisch im Hintergrund, während Sie Ihre Frage formulieren. Das Ergebnis: Die AI „weiß“, worum es geht, und Sie erhalten qualitativ hochwertige, präzise Antworten statt generischer Outputs. Diese aufwändige Kontextvorbereitung hebt unsere AI-Integration deutlich von einfachen AI-Demos ab - der Unterschied zwischen einem gewöhnlichen Chatbot und dem AI Explorer liegt vor allem in der Qualität des bereitgestellten Kontexts.

Flexibilität durch verschiedene AI-Modelle

Die Labordatenbank setzt auf eine flexible Architektur, die verschiedene AI-Modelle nützt. Wir unterstützen die aktuellen LLMs (Large Language Models) von Google Gemini und OpenAI ChatGPT. Dieses Multi-LLM-Konzept bedeutet für Sie das wir Fortschritte aus neuen Modellen schnell integrieren können und wir die Möglichkeit haben, je nach Anwendungsfall das geeignetste Modell auszuwählen.

Auch hier gilt volle Transparenz, sodass sie jederzeit sehen welches AI Model zum Einsatz kommt.

{
  "gemini-2.5-pro": "Gemini 2.5 Pro",
  "gemini-2.5-flash": "Gemini 2.5 Flash",
  "gemini-2.5-flash-lite": "Gemini 2.5 Flash Lite",
  "gpt-5": "GPT-5",
  "gpt-5-mini": "GPT-5 Mini",
  "gpt-5-nano": "GPT-5 Nano"
}

Transparenz, Zugriffsrechte und Kontrolle

Ein essenzieller Aspekt des AI Explorers ist Transparenz. Uns ist wichtig, dass Sie vollstes Vertrauen in die AI Integration der Labordatenbank gewinnen können. Daher listen wir die kontextbezogenen Daten mit einer Checkbox zur Freigabe auf, bevor sie an das AI-Modell geschickt werden.

Dabei werden die Zugriffsrechte des fragenden Nutzers berücksichtigt und nur Daten vorgeschlagen, auf die der Nutzer Lesezugriff hat. So bleiben die Zugriffsrechte der Labordatenbank auch in der AI Nutzung bewahrt und sie behalten die volle Kontrolle über Ihre Daten.

Persistente AI-Chats direkt beim Datensatz

In der Labordatenbank bleibt jeder AI Chat kontextgebunden beim jeweiligen Datensatz und Nutzer gespeichert. Stellen Sie sich vor, Sie haben zu einer bestimmten Probe eine mehrteilige Fragestellung - z.B. zunächst „Welche Messwerte dieser Probe liegen außerhalb der Sollwerte?“ und anschließend „Welche möglichen Ursachen könnte das haben?“. Der AI Explorer speichert diesen Dialog direkt bei der betreffenden Probe. Selbst Wochen später können Sie diese Probe aufrufen und den gespeicherten Chatverlauf einsehen, inklusive aller Fragen, Kontextinformationen und AI-Antworten. Sie können nahtlos weitere Fragen stellen oder einen neuen Chat zu der Probe starten.

Diese persistente Chat-Historie pro Datensatz hat enorme Vorteile: Zum einen dient sie der Dokumentation - Sie oder Kollegen können jederzeit nachvollziehen, welche Auskünfte die AI zu einem Vorgang gegeben hat. Zum anderen fördert sie die Zusammenarbeit im Team. Wenn ein Laborleiter eine AI-Analyse zu einem Auftrag durchgeführt hat, kann ein Kollege diese Unterhaltung später einsehen und fortführen, anstatt die Fragen neu zu formulieren. Wissen und Erkenntnisse gehen nicht verloren, sondern bleiben dort abrufbar, wo sie hingehören - beim jeweiligen Datensatz im System.

Beispielfragen aus der Laborpraxis

Gerade für Nutzer, die zum ersten Mal mit einer AI arbeiten, haben wir praxisnahe Beispielfragen hinterlegt. Auf jeder Seite finden Sie vordefinierte Beispielfragen, die praxisnah zu dem jeweiligen Datentyp passen. Ein Klick auf eine dieser Fragen genügt, und der AI Explorer beantwortet die Frage mit den Kontextdaten des betreffenden Datensatzes.

Beispielsweise könnte bei einem Material eine Beispielfrage lauten: „Welche Chargen von diesem Material laufen demnächst ab?“ - ideal, um zu sehen, wie die AI solche Informationen aus den Daten extrahiert und beantwortet. Für einen Kunden-Datensatz könnte ein Beispiel sein: „Liste die zuletzt abgeschlossenen Aufträge dieses Kunden auf.“ Diese One-Klick-Fragen senken die Hemmschwelle und zeigen schnell auf, was man die AI alles fragen kann.

Die Beispielfragen sind sorgfältig ausgewählt und werden laufend erweitert, um Mehrwert zu liefern und gängige Anwendungsfälle abzudecken. So stellen wir sicher, dass jeder Nutzer einen leichten Zugang zur AI findet und direkt produktive Ergebnisse erzielt.

Kosten der AI Nutzung

Die Labordatenbank Nutzunslizenz i.H.v. 99€ pro Nutzer pro Monat, enthält 10 Mio. AI Token pro Nutzer. Wenn Sie z.B. 25 Nutzer in Ihrer Labordatenbank haben, steht Ihrem Unternehmen ein Kontingent von 250 Mio. AI Token pro Monat zur Verfügung.

Das Kontingent kann von allen Nutzern geteilt verwendet werden und ist so angelegt, dass der AI Explorer bei typischer Verwendung von allen Nutzern regelmässig verwendet werden kann.

Für unsere Bestandskunden ist das AI Token Kontingent bis Ende 2025 kostenlos enthalten.

Die Menge an verwendeten AI Token, hängt von der Größe des Kontexts und der Größe der zurückgegeben Antwort ab und liegt in der Regel zwischen 1.000 und 10.000 Token pro Frage.

Bei Überschreitung der verwendeten AI Token werden die darüber liegenden Token, bis zu einem wählbaren Überschreitungslimit, mit 2€ pro 1 Mio. AI Token verrechnet (siehe Abb.).

Neue Maßstäbe für LIMS-Systeme

Die Labordatenbank setzt mit dem AI Explorer neue Maßstäbe. Durch den Einsatz modernster AI gepaart mit fokussiertem Context-Engineering bieten wir Mehrwert, den kein anderes System in dieser Form liefert. All das mit voller Transparenz und unter Berücksichtigung der bestehenden Zugriffsrechte.

Winter Release: November 29th, 2024

12.09.2025 | 11:00 a.m.
Topics: AI Explorer & Fall Update 2025