---
title: "Halluzination (KI) | Glossar Impetora"
description: "Eine Halluzination liegt vor, wenn ein KI-Modell Inhalte fabriziert, die plausibel klingen, aber sachlich falsch oder ohne Beleg in den Eingangs-Daten sind. Sie ist die häufigste Beanstandung in Audit"
url: https://impetora.com/de/glossar/halluzination
locale: de
author: Impetora
---

# Halluzination (KI)

> Eine Halluzination liegt vor, wenn ein KI-Modell Inhalte fabriziert, die plausibel klingen, aber sachlich falsch oder ohne Beleg in den Eingangs-Daten sind. Sie ist die häufigste Beanstandung in Audit-Berichten zu generativer KI.

## Definition

Halluzinationen entstehen aus dem statistischen Wesen der Modelle: sie sagen das wahrscheinlichste nächste Token vorher, ohne Wahrheits-Bewertung. Drei Klassen werden unterschieden: faktisch falsch (falsche Zahlen, Zitate, Daten), kontextuell falsch (widerspricht der mitgelieferten Quelle), unsinnig (formell falsche Ausgabe). Studien aus 2024 messen je nach Aufgabe Quoten zwischen 3 und 27 Prozent.

## Was Impetora liefert

In Hochrisiko-Domänen verlangt der EU-KI-Verordnungs-Artikel 13 (Transparenz) und Artikel 14 (menschliche Aufsicht) konkret messbare Halluzinations-Reduktion. Praxis: RAG mit nachverfolgbaren Quellen, JSON-Schema-Constraints, Verifikations-Schicht (zweites Modell prüft die Antwort gegen Quellen), kontinuierliche Bewertungsharness. Wir berichten Halluzinations-Quote pro Release als Pflicht-Metrik.

## Vollständige englische Fassung

<https://impetora.com/glossary/hallucination>

## CTA

[Beratungsgespräch buchen](https://impetora.com/de#discovery-call)

Kontakt: info@ainora.lt
