Hallucination (IA)
Une hallucination désigne le cas où un modèle d'IA produit un contenu plausible mais factuellement faux ou sans appui dans les données d'entrée. C'est la critique la plus fréquente dans les rapports d'audit sur l'IA générative.
Les hallucinations naissent de la nature statistique des modèles : ils prédisent le prochain jeton le plus probable sans évaluation de vérité. Trois classes sont distinguées : factuellement faux (chiffres, citations, dates erronés), contextuellement faux (contredit la source fournie), incohérent (sortie formellement invalide). Des études de 2024 mesurent des taux entre 3 et 27 pour cent selon la tâche.
Dans les domaines à haut risque, les articles 13 (transparence) et 14 (surveillance humaine) du Règlement IA exigent une réduction mesurable des hallucinations. En pratique : RAG avec sources traçables, contraintes de schéma JSON, couche de vérification (un second modèle contrôle la réponse contre les sources), harness d'évaluation continu. Nous publions le taux d'hallucination par release comme métrique obligatoire.