Sam Altman OpenAI Snowflake Summit 2025

A decadência intelectual no Vale do Silício se manifesta de diversas formas. Para o porta-voz da OpenAI, Sam Altman, isso frequentemente se traduz em discursos vagos sobre inteligência artificial como a solução para todos os problemas do mundo. A manipulação de Altman atingiu novos patamares nesta semana, ao apresentar números extremamente reduzidos referentes ao consumo de água e eletricidade pela OpenAI em comparação com diversos estudos anteriores.

Em um post de blog publicado na terça-feira, Altman citou dados internos sobre quanto de energia e água uma única consulta ao ChatGPT consome. O CEO da OpenAI afirmou que um único comando exige cerca de 0,34 Wh, equivalente ao que “uma lâmpada de alta eficiência consumiria em alguns minutos”. Para o resfriamento dos data centers responsáveis por processar as solicitações de IA, Altman sugeriu que um estudante que utiliza o ChatGPT para redigir seu ensaio consome “0,000085 galões de água, aproximadamente um décimo quinto de uma colher de chá”.

Altman não apresentou evidências que embasassem essas alegações nem esclareceu a origem dos dados citados. O Gizmodo tentou obter um comentário da OpenAI, mas não houve resposta. Se aceitarmos as palavras do entusiasta da IA, basta realizar alguns cálculos simples para verificar o consumo real de água. A OpenAI afirmou que, a partir de dezembro de 2025, o ChatGPT conta com 300 milhões de usuários ativos semanalmente, gerando 1 bilhão de mensagens por dia. Com base nas próprias métricas da empresa e nas declarações de Altman, isso indicaria que o chatbot consome 85.000 galões de água por dia, o que corresponde a pouco mais de 31 milhões de galões por ano. Vale lembrar que o ChatGPT é hospedado em data centers da Microsoft, que já possuem um elevado consumo de água. Embora a gigante da tecnologia possua planos para implantar data centers com circuito fechado, que não utilizem água extra para resfriamento, esses projetos ainda dependem de pelo menos mais um ano para serem implementados.

Os data centers já eram grandes consumidores de água e energia antes do advento da IA generativa. Para a Microsoft, o uso de água aumentou significativamente entre 2021 e 2022, após a formalização de um acordo com a OpenAI. Um estudo de pesquisadores da Universidade da Califórnia, divulgado no final de 2023, apontou que a versão anterior do ChatGPT, baseada no GPT-3, consumia aproximadamente 0,5 litros de água para cada 10 a 50 consultas. Se os dados forem considerados de forma otimista, o modelo antigo estaria utilizando 31 milhões de litros de água por dia, ou 8,18 milhões de galões – e isso sem contar com os modelos atuais, muito mais poderosos (e exigentes), como o GPT-4.1 acompanhado do seu modelo de raciocínio o3.

O tamanho do modelo influencia diretamente o consumo de energia. Diversos estudos já analisaram o impacto ambiental do treinamento desses sistemas, e, à medida que eles precisam ser re-treinados para se manterem avançados, os custos elétricos continuarão a aumentar. As cifras apresentadas por Altman não especificam quais consultas são originadas por meio de seus diversos produtos do ChatGPT – incluindo a assinatura mais avançada, de US$ 200 por mês, que oferece acesso ao GPT-4 – e ignoram o fato de que a geração de imagens via IA consome muito mais energia do que as consultas textuais.

O post de Altman está repleto de um otimismo típico das grandes empresas de tecnologia, permeado por argumentos que beiram o absurdo. Ele sustenta que a produção dos data centers será “automatizada”, de modo que o custo da IA “eventualmente deve convergir para um valor próximo ao da eletricidade”. Mesmo se admitirmos a hipótese de que a expansão da IA compense de alguma forma o consumo de energia, permanecemos diante do desafio de lidar com o aumento das temperaturas globais. Empresas diversas já tentaram solucionar os problemas de consumo de água e eletricidade gerados pela IA. Algumas chegaram a sugerir a ideia de jogar data centers no oceano ou mesmo construir usinas nucleares exclusivamente para suprir essa demanda – mas, muito antes de tais usinas serem viabilizadas, a queima contínua de combustíveis fósseis permanecerá como realidade.

O discurso do CEO da OpenAI é um retrato do pensamento obstinado dos oligarcas da tecnologia. Altman afirmou que “várias categorias de empregos” desaparecerão, mas que isso não importaria, uma vez que “o mundo ficará tão rico tão rapidamente que poderemos conceber novas ideias de políticas jamais imaginadas”. Tanto Altman quanto outros magnatas da tecnologia já sugeriram a implementação da renda básica universal como forma de mitigar o impacto da IA – uma proposta que, segundo a própria OpenAI, “não funcionará”. Em seu discurso, ele defendeu a ideia de maneira mais veemente do que nunca, inclusive estreitando relações com figuras políticas para assegurar que futuras regulações sobre a indústria de IA sejam evitadas.

“Precisamos resolver as questões de segurança”, afirmou Altman. Contudo, essa afirmação não implica que devamos restringir a expansão da IA em nossas vidas. Ele sugere que ignoremos o aquecimento global, pois a IA, em algum momento, solucionará esse problema pontual. No entanto, se as temperaturas aumentarem a ponto de demandar ainda mais água e eletricidade para o resfriamento dos data centers, é questionável se a IA conseguirá agir com a rapidez necessária para evitar consequências irreversíveis. Mas, deixemos essa questão de lado e concentremo-nos naquele “apetrecho ainda não revelado de Jony Ive” que, possivelmente, tentará confundir você enquanto o mundo arde.