Halluzination (KI)
Eine Halluzination liegt vor, wenn ein KI-Modell Inhalte fabriziert, die plausibel klingen, aber sachlich falsch oder ohne Beleg in den Eingangs-Daten sind. Sie ist die häufigste Beanstandung in Audit-Berichten zu generativer KI.
Definition und Aufbau
Halluzinationen entstehen aus dem statistischen Wesen der Modelle: sie sagen das wahrscheinlichste nächste Token vorher, ohne Wahrheits-Bewertung. Drei Klassen werden unterschieden: faktisch falsch (falsche Zahlen, Zitate, Daten), kontextuell falsch (widerspricht der mitgelieferten Quelle), unsinnig (formell falsche Ausgabe). Studien aus 2024 messen je nach Aufgabe Quoten zwischen 3 und 27 Prozent.
Was Impetora hier liefert
In Hochrisiko-Domänen verlangt der EU-KI-Verordnungs-Artikel 13 (Transparenz) und Artikel 14 (menschliche Aufsicht) konkret messbare Halluzinations-Reduktion. Praxis: RAG mit nachverfolgbaren Quellen, JSON-Schema-Constraints, Verifikations-Schicht (zweites Modell prüft die Antwort gegen Quellen), kontinuierliche Bewertungsharness. Wir berichten Halluzinations-Quote pro Release als Pflicht-Metrik.
Verwandte Begriffe
RAG: Retrieval-Augmented Generation. Bewertungsharness: Eval-Harness.
Diese deutsche Fassung wird laufend ausgebaut. Für ein konkretes Projekt nutzen Sie bitte das Beratungsgespräch oder schreiben an info@ainora.lt.