Hallucination

Alucinación

Respuesta generada por un modelo de IA que suena convincente pero es factualmente incorrecta o inventada. No es un bug: es una consecuencia natural del modo en que los LLMs generan texto (predicción estadística, no consulta a una base de verdad). Se reduce pero no se elimina totalmente, ni siquiera con RAG o fine-tuning.

¿Cuándo usar Alucinación en una empresa?

Saber qué es. Diseñar el sistema asumiendo que va a ocurrir: validaciones humanas en decisiones críticas, grounding con fuentes citables, UI que muestra confianza del modelo, y logs para auditar errores post-mortem.

¿Cuándo NO conviene Alucinación?

Desplegar un LLM directamente a clientes finales o a decisiones de alto costo (legal, médico, financiero) sin capas de verificación encima. Cada alucinación a costa del cliente daña la marca más de lo que ahorró el caso de uso.

TÉRMINOS RELACIONADOS
LLMRAGMLOps
Ver todos los términos