Por que a IA ainda mente descaradamente?

Share
bits wizard anime

Por que a IA ainda mente descaradamente?

Por que a IA ainda mente descaradamente?

O fantasma das “alucinações” que assombra a inteligência artificial

A OpenAI foi notícia recentemente por gerar um obituário totalmente fictício sobre Gary Marcus, um renomado cientista especializado em IA. Ele está vivo, mas o modelo o3 descreveu sua morte com detalhes convincentes – até citou uma declaração falsa de outro pioneiro da área. Este não é um caso isolado: modelos como ChatGPT, Gemini e Grok continuam cometendo erros grotescos, mesmo após anos de desenvolvimento e bilhões de dólares investidos.

Exemplos que desafiam a lógica

Veja situações reais que mostram quanto ainda falta:

  • A IA mudou a nacionalidade do ator Harry Shearer (americano virou britânico)
  • Sugeriu que humanos comam uma pedrinha por dia (baseado em sátira do The Onion)
  • Gerou mapas completamente distorcidos da Europa e EUA ao interpretar comandos simples

O cerne do problema: próximas palavras vs. verdade

Gary Marcus explica que as IAs generativas funcionam como “preditoras de próxima palavra”. Elas não buscam fatos, mas sim combinam padrões estatísticos para criar textos plausíveis. É como um jogo: “Qual frase soaria convincente nesse contexto?” mesmo que seja mentira.

Por que corrigir é tão difícil?

  • Dados contaminados: Internet tem lixo e as próprias IAs pioram o problema ao gerar conteúdo impreciso.
  • Falta de compreensão: Sistemas não entendem ironia ou contexto real – tragam sátiras como fatos.
  • Projeto inadequado: Redes neurais aproximam linguagem, mas não calculam verdades como sistemas simbólicos tradicionais.

A solução? Reinventar tudo do zero

Marcus alerta desde 2001: sem reconstruir a base da IA, incorporando raciocínio lógico e verificação factual (sistemas simbólicos), as “alucinações” persistirão. Modelos atuais:

  • Não questionam sua própria precisão
  • Não possuem mecanismos internos de checagem
  • Priorizam fluidez sobre exatidão

Impacto na produtividade prometida

Sem confiabilidade, aplicações críticas em medicina, direito ou jornalismo continuarão arriscadas. Grandes ganhos de eficiência dependem de IA que não distorce fatos – algo fora do alcance atual.

Uma lição humana para máquinas

Antropomorfizar IA é tentador – falamos como se “pensasse”. Mas Marcus chama isso de “hiato da credulidade”: atribuímos inteligência onde há apenas imitação. Até superarmos essa ilusão e redesenhar a base tecnológica, receberemos respostas fascinantes… e frecuentemente falsas.