Verlässliche, robuste und vertrauenswürdige KI

Trusting Artificial Intelligence

Wir ermöglichen eine effiziente Entwicklung und einen zuverlässigen Betrieb von vertrauenswürdigen KI-Lösungen.

Symbol Menschliche Souveränität

Menschliche Souveränität

Maßgeschneiderte Human-AI Interfaces schaffen Vertrauen und Akzeptanz.

Symbol Robuste Systeme

Robuste Systeme

Moderne Infrastruktur ist Grundlage für Zuverlässigkeit und Resilienz.

Symbol Datenschutz

Datenschutz

Prozesse und Technik gewährleisten Vertraulichkeit und Sicherheit.

Ausschnitt des Architekturdiagramms eines Empfehlungssystems

Praxisbericht: Ein sich selbst erklärendes, LLM-basiertes Empfehlungssystem

Das Textverständnis vortrainierter Large Language Models (LLMs) eröffnet neue Möglichkeiten für die Entwicklung von Empfehlungssystemen. Jedoch stellen Anforderungen des Datenschutzes, begrenzte Datenbasis und nicht zuletzt der Black-Box-Charakter der LLMs Hürden für ihren Einsatz dar.

Wir demonstrieren, wie Erklärbare KI und Feedback-Mechanismen eine selbstbestimmte Nutzung des Empfehlungssystems unterstützen. Darüber hinaus zeigen wir Strategien für datenschutzkonformen und kostengünstigen Betrieb LLM-basierter Lösungen auf.

Verschiedene Zielgruppen haben unterschiedliche Bedürfnisse und Anforderungen an die Erklärbarkeit von KI-Systemen

Bessere User Experience mit Erklärbarer KI

Über zahlreiche Projekte in Forschung und Praxis hinweg hat sich ein strukturiertes Vorgehen für die Entwicklung von Erklärkomponenten bewährt.

In vier aufeinander aufbauenden Phasen erfassen wir zunächst Zielgruppe und Anwendungskontext, identifizieren dann geeignete XAI-Methoden identifiziert, die wir anschließend mit einem Prototypen erproben und schließlich zu einer anwendungsreifen Erklärkomponente entwickeln.

Zusammenspiel von MLOps, Model Governance und Explainable AI.

MLOps, Model Governance und Explainable AI sichern robusten Einsatz Künstlicher Intelligenz

Moderne KI-Systeme haben den Ruf, Black Boxes zu sein, deren Funktionsweise Anwendern und Entwicklerinnen verborgen bleibt. Auf dem Weg zur künftigen Nutzung von KI stehen Unternehmen daher vor Herausforderungen, die sich bisher in der klassischen Softwareentwicklung nicht gestellt hatten.

In einem Beitrag für heise online zeigt unser Co-Gründer Kilian Kluge gemeinsam mit INNOQ-Expertin Isabel Bär, wie Unternehmen ihre KI-Software auf den drei Grundpfeilern MLOps, Model Governance und XAI aufbauen können, um sie wirksam zu kontrollieren und im Einklang mit rechtlichen Vorgaben zu betreiben.