Alucinação (Hallucination)

Quando modelos de IA geram informações falsas ou inventadas com aparência de verdade

Alucinação (ou hallucination em inglês) é quando um modelo de IA gera informações que parecem corretas mas são falsas, inventadas ou não têm base nos dados de treinamento.

Por que acontece

Modelos de linguagem são treinados para prever a próxima palavra mais provável. Quando não têm informação suficiente, podem “inventar” dados para completar a resposta de forma coerente.

Exemplo prático

Você pergunta: “Quem foi o primeiro presidente do Brasil em 2050?”

Uma IA pode responder com um nome e biografia completos - tudo inventado, já que 2050 ainda não aconteceu.

Como evitar
  • Use RAG para fundamentar respostas em dados reais
  • Peça fontes e verifique informações críticas
  • Configure o modelo para admitir quando não sabe
  • No OpenClaw, skills com acesso a dados atuais reduzem alucinações
Impacto em negócios

Alucinações podem causar erros graves em contextos profissionais. Sempre valide informações importantes antes de tomar decisões baseadas em respostas de IA.