Sam Altman’s Lies About ChatGPT Are Growing Bolder

Sam Altman OpenAI Snowflake Summit 2025

O apodrecimento mental da inteligência artificial no Vale do Silício se manifesta de diversas formas. Para o porta-voz da OpenAI, Sam Altman, isso frequentemente resulta em discursos vagos que tratam a IA como a solução para todas as aflições do mundo. O gaslighting de Altman atingiu novos patamares nesta semana, quando ele citou números excessivamente deflacionados referentes ao uso de água e eletricidade da empresa, comparados a diversos estudos anteriores.

Em um post no blog publicado na terça-feira, Altman apresentou dados internos sobre a quantidade de energia e água consumida por uma única consulta ao ChatGPT. Segundo o CEO da OpenAI, um único comando consumiria cerca de 0,34 Wh – o equivalente ao que “uma lâmpada de alta eficiência usaria em alguns minutos”. Para o resfriamento dos datacenters responsáveis pelo processamento das solicitações de IA, Altman afirmou que um estudante que pede ao ChatGPT para redigir sua redação utiliza “0,000085 galões de água, aproximadamente um décimo quinto de uma colher de chá”.

Entretanto, Altman não apresentou nenhuma evidência que respaldasse essas afirmações, tampouco informou a origem dos dados. Caso acreditemos nessas declarações, basta realizar uma conta simples para se ter uma ideia da quantidade de água envolvida. A OpenAI afirmou que, a partir de dezembro de 2025, o ChatGPT conta com 300 milhões de usuários ativos semanalmente, gerando 1 bilhão de mensagens por dia. Com base nessas métricas, o chatbot consumiria 85.000 galões de água diariamente, ou um pouco mais de 31 milhões de galões ao ano. Vale lembrar que o ChatGPT é hospedado em datacenters da Microsoft, os quais já demandam um uso considerável de água. Embora o gigante da tecnologia tenha planos para centros de resfriamento em “circuito fechado” – que não utilizem água extra –, esses projetos não devem ser implementados antes de pelo menos um ano.

É importante destacar que esses datacenters já eram notórios pelo elevado consumo de água e energia mesmo antes do advento da IA generativa. Para a Microsoft, o uso de água disparou entre 2021 e 2022, após o acordo firmado com a OpenAI. Um estudo realizado por pesquisadores da Universidade da Califórnia, publicado no final de 2023, indicou que a versão GPT-3 do ChatGPT consumia cerca de 0,5 litros de água para cada 10 a 50 consultas. Mesmo adotando a estimativa mais otimista, o modelo antigo estaria utilizando 31 milhões de litros de água por dia – equivalentes a 8,18 milhões de galões –, sem considerar a demanda do atual e muito mais poderoso GPT-4.1 e seu modelo de raciocínio associado.

O tamanho do modelo influencia diretamente seu consumo energético. Diversos estudos já analisaram o impacto ambiental do treinamento dessas redes, e, por precisarem ser continuamente re-treinadas à medida que avançam, os custos de eletricidade tendem a aumentar constantemente. As cifras apresentadas por Altman não esclarecem quais consultas são efetuadas através dos diferentes produtos do ChatGPT, incluindo a assinatura mais avançada, de US$200 mensais, que garante acesso ao GPT-4. Além disso, ele ignora o fato de que processar imagens geradas por IA exige muito mais energia do que lidar com simples consultas de texto.

O post de Altman é marcado por um otimismo exacerbado das grandes empresas de tecnologia, revestido de argumentos que beiram o ilógico. Ele afirma que a produção dos datacenters será “automatizada”, fazendo com que o custo da IA “eventualmente se aproxime do custo da eletricidade”. Mesmo assumindo que a expansão da IA possa, de alguma forma, contrariar os altos custos energéticos, o cenário atual – com o agravamento do aquecimento global – permanece desafiador. Diversas empresas já propuseram soluções para mitigar o consumo de água e eletricidade da IA, indo desde projetos audaciosos de “lançar” datacenters no oceano até a construção de usinas nucleares exclusivas para suprir a demanda. Contudo, muito antes que qualquer usina nuclear possa ser construída, essas empresas continuarão dependendo dos combustíveis fósseis.

O blog do CEO da OpenAI é um retrato do pensamento teimoso e oligárquico das grandes corporações de tecnologia. Altman chegou a afirmar que “categorias inteiras de empregos” desaparecerão, mas alegou que “o mundo ficará tão rico, tão rapidamente, que seremos capazes de considerar novas ideias políticas que jamais sonhamos”. Ele e outros bilionários do setor sugeriram a implementação de uma renda básica universal para minimizar os efeitos da IA, embora se saiba que essa medida dificilmente resolverá o problema. Em um movimento ainda mais controverso, Altman se aliou ao presidente Donald Trump na tentativa de evitar futuras regulações sobre a indústria da IA.

“Precisamos resolver as questões de segurança”, afirmou Altman. Contudo, isso não significa que não devamos integrar a IA em todos os aspectos de nossas vidas. Segundo ele, podemos ignorar o aquecimento do planeta, pois a tecnologia resolverá esse incômodo, eventualmente. No entanto, se as temperaturas aumentarem a ponto de exigir ainda mais água e eletricidade para o resfriamento dos datacenters, é duvidoso que a IA consiga agir com a rapidez necessária para evitar danos irreparáveis. Mas, fique atento – pois, enquanto o mundo arde, pode chegar aquele dispositivo revolucionário, ainda não revelado por Jony Ive, que possivelmente tentará convencer você de que tudo está sob controle.