Alucinacion (IA)
Una alucinacion se produce cuando un modelo de IA genera contenido plausible pero factualmente erroneo o sin apoyo en los datos de entrada. Es la critica mas frecuente en los informes de auditoria sobre IA generativa.
Qué es Alucinacion (IA)?
Las alucinaciones derivan de la naturaleza estadistica de los modelos: predicen el siguiente token mas probable sin evaluar la verdad. Se distinguen tres clases: factualmente falsa (cifras, citas o fechas erroneas), contextualmente falsa (contradice la fuente aportada) e incoherente (salida formalmente invalida). Estudios de 2024 miden tasas entre el 3 y el 27 por ciento segun la tarea.
Cómo se aplica Alucinacion (IA) en la IA empresarial?
En dominios de alto riesgo, los articulos 13 (transparencia) y 14 (supervision humana) de la Ley de IA de la UE exigen una reduccion medible de las alucinaciones. En la practica: RAG con fuentes trazables, restricciones de esquema JSON, capa de verificacion (un segundo modelo contrasta la respuesta con las fuentes) y harness de evaluacion continuo. Publicamos la tasa de alucinacion por release como metrica obligatoria.
Términos relacionados
Necesita aplicar Alucinacion (IA) a su empresa? Envíenos un resumen corto y responderemos en un día laborable.