Alucinación
Respuesta generada por un modelo de IA que suena convincente pero es factualmente incorrecta o inventada. No es un bug: es una consecuencia natural del modo en que los LLMs generan texto (predicción estadística, no consulta a una base de verdad). Se reduce pero no se elimina totalmente, ni siquiera con RAG o fine-tuning.
¿Cuándo usar Alucinación en una empresa?
Saber qué es. Diseñar el sistema asumiendo que va a ocurrir: validaciones humanas en decisiones críticas, grounding con fuentes citables, UI que muestra confianza del modelo, y logs para auditar errores post-mortem.
¿Cuándo NO conviene Alucinación?
Desplegar un LLM directamente a clientes finales o a decisiones de alto costo (legal, médico, financiero) sin capas de verificación encima. Cada alucinación a costa del cliente daña la marca más de lo que ahorró el caso de uso.
Ver todos los términos