Alucinação (Hallucination)

Alucinação (Hallucination)

O Que É Alucinação em IA

Alucinação (ou hallucination em inglês) é quando um modelo de IA gera informações que parecem corretas, coerentes e bem fundamentadas, mas são falsas, inventadas ou não têm base nos dados de treinamento. O nome vem da semelhança com alucinações humanas: a experiência parece completamente real para quem a tem, mas não corresponde à realidade.

O aspecto mais perigoso da alucinação é que ela não vem acompanhada de nenhum sinal de alerta. O modelo não diz “estou inventando isso” — ele apresenta informação fabricada com o mesmo tom confiante que usa para informações corretas. Isso torna alucinações difíceis de identificar sem verificação independente, especialmente para usuários que não são especialistas no assunto.

Alucinações não são bugs no sentido convencional — são uma consequência da forma como modelos de linguagem funcionam. Eles são treinados para gerar texto estatisticamente coerente e provável, não para “saber” o que é verdade versus o que é falso. Quando o modelo não tem informação suficiente para responder com precisão, ele pode “preencher as lacunas” com texto plausível que soa certo mas está errado.

Como Funciona

Modelos de linguagem são treinados para prever a próxima palavra (ou token) mais provável dado o contexto anterior. Esse processo de predição estatística é extraordinariamente eficaz para muitas tarefas, mas cria uma vulnerabilidade fundamental: o modelo não distingue entre “sei a resposta” e “gero uma resposta plausível”.

Quando um modelo recebe uma pergunta sobre algo fora do seu conhecimento de treinamento — eventos após sua data de corte, informações muito específicas sobre nichos obscuros, dados que simplesmente não existiam no conjunto de treinamento — ele tem duas opções: admitir que não sabe (o que modelos modernos fazem com mais frequência) ou gerar uma resposta plausível. O problema é que “plausível” não significa “verdadeiro”. O modelo pode gerar um nome de cientista, um número de estudo, uma citação de livro ou uma data histórica que soa correto mas é completamente inventado.

Existem diferentes tipos de alucinação. Alucinações factuais inventam fatos específicos — datas, nomes, números, citações. Alucinações de raciocínio chegam a conclusões incorretas através de lógica aparentemente coerente. Alucinações de fonte citam referências que não existem. Alucinações de contexto contradizem informações fornecidas pelo próprio usuário no prompt.

Exemplo Prático

Um escritório de advocacia em São Paulo decide usar IA para agilizar pesquisas de jurisprudência. Um advogado pergunta ao modelo: “Cite três acórdãos do STJ sobre responsabilidade civil de empresas de delivery por acidentes de motoboys”.

O modelo responde com três acórdãos completos — número do processo, relator, data, ementa, trechos do voto. Tudo formatado perfeitamente, com linguagem jurídica adequada. O advogado, confiante, cita os acórdãos em uma petição. Na audiência, o juiz informa que dois dos três acórdãos não existem — os números de processo são fictícios, os relatores não julgaram tais casos.

Esse tipo de alucinação jurídica já gerou processos disciplinares contra advogados em vários países. No Brasil, com o crescimento do uso de IA em escritórios, o risco é real e imediato. A solução não é abandonar a IA — é usar técnicas como RAG que fundamentam as respostas em documentos reais verificáveis, e sempre verificar informações críticas em fontes primárias.

Importância para Empresas

Em contextos profissionais, alucinações podem ter consequências sérias que vão muito além de respostas incorretas em um chat. Decisões de negócio baseadas em dados inventados, análises jurídicas com precedentes inexistentes, relatórios financeiros com números fabricados, conteúdo de marketing com afirmações falsas sobre produtos — todos esses cenários já ocorreram em empresas que adotaram IA sem as salvaguardas adequadas.

O risco é proporcionalmente maior em áreas onde a precisão é crítica: saúde, jurídico, financeiro, compliance e engenharia. Nessas áreas, o protocolo deve ser claro: IA é uma ferramenta de apoio que acelera o trabalho, mas a responsabilidade de verificar a precisão das informações antes de usar em decisões importantes permanece humana.

Ao mesmo tempo, é importante não exagerar o risco a ponto de paralisar a adoção. Modelos modernos alucinam significativamente menos do que modelos de gerações anteriores, e técnicas como RAG reduzem ainda mais o problema. A chave é entender quando o risco de alucinação é maior — perguntas muito específicas sobre eventos recentes, citações de fontes, dados numéricos precisos — e implementar verificação adicional nesses casos.

Alucinação no OpenClaw

O OpenClaw implementa várias estratégias para minimizar alucinações nas respostas. Skills com acesso a dados em tempo real — consultas a APIs, busca na web, acesso a bancos de dados corporativos — fundamentam as respostas em informações verificáveis ao invés de depender apenas do conhecimento de treinamento do modelo.

Para casos de uso críticos, o OpenClaw pode ser configurado para citar explicitamente as fontes de cada informação apresentada, facilitando a verificação pelo usuário. O sistema também pode ser instruído via SOUL.md para admitir incerteza quando não tem informação suficiente, ao invés de tentar gerar uma resposta plausível. Essa combinação de RAG, citação de fontes e admissão de limitações reduz substancialmente o risco de alucinações problemáticas.

Termos Relacionados

Perguntas Frequentes

Como saber se uma resposta de IA está alucinando? Os sinais de alerta incluem: informações muito específicas sobre eventos obscuros ou recentes, citações de fontes com detalhes precisos (número de página, volume, edição), dados numéricos sem contexto de onde vieram, e respostas que parecem “perfeitas demais” para perguntas difíceis. Sempre verifique informações críticas em fontes primárias antes de usar em decisões importantes.

Alucinações acontecem com todos os modelos? Sim, todos os modelos de linguagem grandes são suscetíveis a alucinações em algum grau. Modelos mais recentes e maiores alucinam menos do que versões antigas, mas o problema não foi eliminado. Claude, GPT-4 e Gemini têm taxas de alucinação diferentes dependendo do tipo de tarefa e do domínio de conhecimento.

RAG elimina completamente as alucinações? RAG reduz significativamente o risco de alucinações factuais ao fundamentar as respostas em documentos reais. Mas não elimina completamente — o modelo ainda pode interpretar incorretamente os documentos recuperados ou sintetizar informações de forma imprecisa. RAG é a melhor prática atual, não uma solução perfeita.

Modelos podem mentir intencionalmente? Não, pelo menos não da forma como humanos mentem com intenção. Alucinações são falhas de conhecimento e do processo de geração, não engano deliberado. O modelo não “sabe” que está gerando informação falsa. Isso é diferente de preocupações sobre IA ser treinada para enganar, que é um problema de alinhamento distinto.

Como configurar prompts para reduzir alucinações? Instrua o modelo a admitir quando não sabe (“Se você não tiver certeza, diga isso”). Peça que cite as fontes de informações específicas. Use perguntas fechadas com opções conhecidas ao invés de perguntas abertas sobre fatos específicos. Forneça o contexto relevante diretamente no prompt ao invés de pedir que o modelo recupere informações de sua memória.