---
title: "Alucinacion (IA) | Glosario Impetora"
description: "Una alucinacion se produce cuando un modelo de IA genera contenido plausible pero factualmente erroneo o sin apoyo en los datos de entrada. Es la critica mas frecuente en los informes de auditoria sob"
url: https://impetora.com/es/glosario/alucinacion
locale: es
author: Impetora
---

# Alucinacion (IA)

> Una alucinacion se produce cuando un modelo de IA genera contenido plausible pero factualmente erroneo o sin apoyo en los datos de entrada. Es la critica mas frecuente en los informes de auditoria sobre IA generativa.

## Definicion

Las alucinaciones derivan de la naturaleza estadistica de los modelos: predicen el siguiente token mas probable sin evaluar la verdad. Se distinguen tres clases: factualmente falsa (cifras, citas o fechas erroneas), contextualmente falsa (contradice la fuente aportada) e incoherente (salida formalmente invalida). Estudios de 2024 miden tasas entre el 3 y el 27 por ciento segun la tarea.

## Que aporta Impetora

En dominios de alto riesgo, los articulos 13 (transparencia) y 14 (supervision humana) de la Ley de IA de la UE exigen una reduccion medible de las alucinaciones. En la practica: RAG con fuentes trazables, restricciones de esquema JSON, capa de verificacion (un segundo modelo contrasta la respuesta con las fuentes) y harness de evaluacion continuo. Publicamos la tasa de alucinacion por release como metrica obligatoria.

## Version inglesa completa

<https://impetora.com/glossary/hallucination>

## CTA

[Reservar una llamada de descubrimiento](https://impetora.com/es#discovery-call)

Contacto: info@ainora.lt
