
Por que a IA ainda mente descaradamente?
O fantasma das “alucinações” que assombra a inteligência artificial
A OpenAI foi notícia recentemente por gerar um obituário totalmente fictício sobre Gary Marcus, um renomado cientista especializado em IA. Ele está vivo, mas o modelo o3 descreveu sua morte com detalhes convincentes – até citou uma declaração falsa de outro pioneiro da área. Este não é um caso isolado: modelos como ChatGPT, Gemini e Grok continuam cometendo erros grotescos, mesmo após anos de desenvolvimento e bilhões de dólares investidos.
Exemplos que desafiam a lógica
Veja situações reais que mostram quanto ainda falta:
- A IA mudou a nacionalidade do ator Harry Shearer (americano virou britânico)
- Sugeriu que humanos comam uma pedrinha por dia (baseado em sátira do The Onion)
- Gerou mapas completamente distorcidos da Europa e EUA ao interpretar comandos simples
O cerne do problema: próximas palavras vs. verdade
Gary Marcus explica que as IAs generativas funcionam como “preditoras de próxima palavra”. Elas não buscam fatos, mas sim combinam padrões estatísticos para criar textos plausíveis. É como um jogo: “Qual frase soaria convincente nesse contexto?” mesmo que seja mentira.
Por que corrigir é tão difícil?
- Dados contaminados: Internet tem lixo e as próprias IAs pioram o problema ao gerar conteúdo impreciso.
- Falta de compreensão: Sistemas não entendem ironia ou contexto real – tragam sátiras como fatos.
- Projeto inadequado: Redes neurais aproximam linguagem, mas não calculam verdades como sistemas simbólicos tradicionais.
A solução? Reinventar tudo do zero
Marcus alerta desde 2001: sem reconstruir a base da IA, incorporando raciocínio lógico e verificação factual (sistemas simbólicos), as “alucinações” persistirão. Modelos atuais:
- Não questionam sua própria precisão
- Não possuem mecanismos internos de checagem
- Priorizam fluidez sobre exatidão
Impacto na produtividade prometida
Sem confiabilidade, aplicações críticas em medicina, direito ou jornalismo continuarão arriscadas. Grandes ganhos de eficiência dependem de IA que não distorce fatos – algo fora do alcance atual.
Uma lição humana para máquinas
Antropomorfizar IA é tentador – falamos como se “pensasse”. Mas Marcus chama isso de “hiato da credulidade”: atribuímos inteligência onde há apenas imitação. Até superarmos essa ilusão e redesenhar a base tecnológica, receberemos respostas fascinantes… e frecuentemente falsas.






