
O Mistério do Consumo Energético da Inteligência Artificial
Sam Altman, CEO da OpenAI, soltou um dado intrigante recentemente: cada consulta ao ChatGPT consome cerca de 0,34 watt-hora de energia. Uma quantidade equivalente ao que uma lâmpada LED gasta em poucos minutos. Mas será que essa informação revela o quadro completo?
O Problema da Transparência
Com 800 milhões de usuários semanais, o consumo energético da IA tornou-se uma questão crítica. Especialistas alertam que o número de Altman vem sem contexto essencial: não explica como define uma “consulta média”, se inclui geração de imagens, ou se considera gastos indiretos como resfriamento de servidores e treinamento de modelos. Sasha Luccioni, líder climática da Hugging Face, ironiza: “Poderia ter inventado esse dado”.
Um Risco Climático Invisível
À medida que a IA se infiltra em nossas vidas, crescem as preocupações sobre seu impacto ambiental. Estudos recentes tentam quantificar as emissões de carbono dessa revolução tecnológica. O desafio? Gigantes como OpenAI e Anthropic revelam pouco sobre sua pegada ecológica. Uma análise liderada por Luccioni mostra que 84% dos modelos de linguagem usados em maio de 2025 não tinham qualquer declaração ambiental publicada.
“É inacreditável”, diz ela. “Sabemos o consumo de um carro, mas usamos ferramentas de IA diariamente sem nenhum dado de eficiência ou emissões. Diante da crise climática, isso deveria ser prioridade máxima para reguladores”.
O Número que Viralizou sem Evidências
Você já ouviu que o ChatGPT consome 10 vezes mais energia que uma pesquisa no Google? Essa estatística recorrente na mídia teve origem num comentário casual de John Hennessy, presidente da Alphabet (dona do Google), em 2023. O detalhe crucial: Hennessy não tinha acesso aos dados da OpenAI. Mesmo assim, a cifra transformou-se em “fato” em relatórios e políticas públicas.
“Transformaram um palpite num dado estatístico que molda decisões”, critica Luccioni. “O cerne do problema é que não temos números reais. Então qualquer cálculo improvisado vira referência”.
Energia: IA Aberta vs IA Secreta
Como descobrir a verdade? Alguns pesquisadores analisam modelos de código aberto, como os da Meta e DeepSeek. Um estudo publicado na Frontiers of Communication avaliou 14 desses sistemas, submetendo-os a 1.000 perguntas. Resultados revelaram que:
- Modelos de “raciocínio profundo” usam 50% mais energia que versões otimizadas
- Sistemas complexos criam mais “tokens de pensamento” (operações internas) consumindo mais eletricidade
- Esses modelos são mais precisos em assuntos complexos, mas ignoram instruções de resposta curta, piorando a eficiência
Maximilian Dauner, principal autor do estudo, propõe soluções: “Poderíamos usar modelos menores para tarefas simples. Eles emitem menos CO2 sem perder precisão”. Empresas como Google e Microsoft já adotam essa estratégia.
Obstáculos Descomplicados
O cálculo real do consumo é mais complexo que testes de laboratório. Três fatores críticos são frequentemente negligenciados:
- Hardware diferente consome energia de formas distintas: GPUs H100 (otimizadas para IA) são mais “famintas” que modelos anteriores
- Infraestrutura física: resfriamento, iluminação e redes de data centers adicionam gastos extras
- Tipo de rede elétrica usada: regiões com matriz fóssil emitem mais carbono
Por Que Regulação é Urgente
O grande segredo continua sendo o custo ambiental do treinamento de modelos. Atualizar sistemas como ChatGPT exige energia colossal, mas empresas não divulgam números. Noman Bashir, pesquisador do MIT, compara: “É como medir consumo de carro sem considerar seu peso. Incompleto”. As “férias climáticas” noturnas dos data centers, por exemplo, reduzem emissões, mas iniciativas assim são raramente computadas.
A solução? Luccioni é direta: “Se pudesse, tornaria obrigatória a divulgação de emissões para qualquer sistema de IA implantado globalmente. Precisamos de responsabilidade ambiental agora”.






