I
Impetora
Glossar

Halluzination (KI)

Eine Halluzination liegt vor, wenn ein KI-Modell Inhalte fabriziert, die plausibel klingen, aber sachlich falsch oder ohne Beleg in den Eingangs-Daten sind. Sie ist die häufigste Beanstandung in Audit-Berichten zu generativer KI.

Definition und Aufbau

Halluzinationen entstehen aus dem statistischen Wesen der Modelle: sie sagen das wahrscheinlichste nächste Token vorher, ohne Wahrheits-Bewertung. Drei Klassen werden unterschieden: faktisch falsch (falsche Zahlen, Zitate, Daten), kontextuell falsch (widerspricht der mitgelieferten Quelle), unsinnig (formell falsche Ausgabe). Studien aus 2024 messen je nach Aufgabe Quoten zwischen 3 und 27 Prozent.

Was Impetora hier liefert

In Hochrisiko-Domänen verlangt der EU-KI-Verordnungs-Artikel 13 (Transparenz) und Artikel 14 (menschliche Aufsicht) konkret messbare Halluzinations-Reduktion. Praxis: RAG mit nachverfolgbaren Quellen, JSON-Schema-Constraints, Verifikations-Schicht (zweites Modell prüft die Antwort gegen Quellen), kontinuierliche Bewertungsharness. Wir berichten Halluzinations-Quote pro Release als Pflicht-Metrik.

Verwandte Begriffe

RAG: Retrieval-Augmented Generation. Bewertungsharness: Eval-Harness.

Diese deutsche Fassung wird laufend ausgebaut. Für ein konkretes Projekt nutzen Sie bitte das Beratungsgespräch oder schreiben an info@ainora.lt.

Discovery-Gespräch

Discovery-Gespräch buchen

Erzählen Sie uns, was Sie bauen möchten. Wir antworten innerhalb eines Werktages.

30-minütiges Gespräch. Kostenfrei. Unverbindlich.