Alucinação Digital: IA do Google inventa fabricante em acidente aéreo
Numa das falhas mais graves já registradas, o sistema de buscas do Google atribuiu erroneamente a responsabilidade pelo recente acidente da Air India à Airbus, quando na verdade o avião era um Boeing 787 Dreamliner. O erro aparece nos chamados “AI Overviews” – aqueles resumos gerados por inteligência artificial que respondem perguntas diretamente na página de buscas.
Como o erro aconteceu?
Quando usuários pesquisaram por acidentes aéreos envolvendo Airbus, a IA do Google “alucinou” – termo técnico para quando sistemas geram informações falsas. O mecanismo vinculou equivocadamente o voo AI-171 à fabricante europeia, possivelmente porque:
- Artigos mencionavam a Airbus como concorrente da Boeing
- A IA confundiu contextos ao sintetizar múltiplas fontes
- O acidente é tão recente (12 de junho) que faltavam verificações humanas
Resultado: enquanto sites jornalísticos publicavam notícias precisas, o resumo automático do Google espalhava desinformação para quem buscava respostas rápidas.
O perigo das alucinações digitais
Este não é um erro inofensivo. Acusar a Airbus equivocadamente pode:
- Manchar injustamente a reputação da empresa
- Dar falsa impressão de problemas técnicos na frota Airbus
- Afetar negativamente o valor das ações da companhia
Para a Boeing, a situação se inverte: num momento em que a fabricante já enfrenta críticas por falhas passadas, a IA inadvertidamente transferiu a culpa para sua concorrente.
Por que confiamos em sistemas falíveis?
O Google inclui uma discreta advertência dizendo “respostas de IA podem conter enganos”. Mas quem lê? Quando recebemos uma resposta automática com linguagem confiante e formato limpo, tendemos a aceitá-la como verdade – especialmente em momentos de comoção. Esta é a armadilha:
- Sistemas como o Gemini não compreendem verdade, só padrões estatísticos
- Cada resposta é gerada de forma única (não determinística)
- O mesmo termo pode trazer resultados contraditórios
Ao Ars Technica, o Google confirmou ter removido manualmente os resultados incorretos e ressaltou que a taxa de precisão dos AI Overviews seria similar à de outros recursos como Featured Snippets.
Lavando as mãos com letras miúdas
A postura da empresa levanta questões éticas: até que ponto isentam-se de responsabilidade com avisos técnicos? Quando erros envolvem tragédias reais e empresas reais, deslizes amplificados por IA podem ter consequências jurídicas e econômicas concretas.
Os AI Overviews nasceram da busca por respostas instantâneas, mas compartilham uma vulnerabilidade estrutural de todas as IAs generativas: são máquinas de adivinhar, não de conhecer. E quando essas adivinhações tocam temas sensíveis, o preço do erro é alto demais para ser pago com um simples: “foi mal, alucinei”.