Alucinações ocorrem porque LLMs geram texto baseado em padrões estatísticos, não em compreensão factual. Tipos incluem: alucinação factual (dados incorretos), alucinação de atribuição (citações inventadas), inconsistência lógica e fabricação completa. Mitigações incluem RAG, grounding em bases de dados, calibração de temperatura, e técnicas de self-reflection como Chain-of-Verification.