Sob uma Luz de Gancho – Hype, Esperanças e Custos Ocultos da IA
Aqui segue um longo divagar editorial – sobre a capacidade, trajetória e sustentabilidade da IA. Ele toma como ponto de partida (atrasado) uma pesquisa da Apple sobre as dificuldades reais e práticas dos sistemas de IA mais hypados, e depois se perde em detalhes e questionamentos sobre o futuro.
É uma viagem meio forçada, mas, enfim. Há uma estranha peça em spoken word de Tom Waits sobre um incomum personagem de um bairro, envolvido em trabalhos barulhentos de carpintaria sob uma “luz de gancho” em sua casa – e pelo “luz azul de um programa de TV”. Ele tem um roteador e uma serra de bancada, e veneno debaixo da pia. “Ele está escondendo algo de todos nós”, diz a narração. “O que é que ele está construindo aí?” Trata-se de uma comédia negra, onde a graça está na paranoia e no tom singular do narrador. Tudo isso consta em um álbum de 1999, de “retorno” às paradas. Tempos diferentes.
Quinze anos depois, esse tipo de “faça você mesmo” no quintal se transformou, aparentemente, em uma busca capitalista de trilhões de dólares. No último fim de semana, o RCR estava em uma expedição pelos campos de Oxfordshire. O zelador local, que desde o pós-Covid criou um negócio paralelo de criação de cães de caça, disse que o senhor feudal da região está destinando parte de sua propriedade para um data center de IA subterrâneo, idealizado em conjunto com ricos donos americanos de tecnologia que gostam de caçar faisões e exportar cães de caça. As escavações já começaram – em uma rara porção de terra britânica, onde a realeza anda livre. O que é que ele está construindo aí?
De volta ao lar, o RCR coloca o cão para dormir, prepara uma xícara de chá de hortelã e pega um livro. Chama-se Birnam Wood, de Eleanor Catton; conta a história de um coletivo de jardinagem guerrilheira na Nova Zelândia, cujos ideais punk e de conservação são postos à prova quando se deparam com um bilionário (também americano) minerando terras raras em um parque isolado – separado do resto da Ilha Sul por um deslizamento de terra. Um dos personagens é perseguido pelos drones de vigilância do vilão. Viramos a página e seguimos o dinheiro; é um thriller. O que é que ele está construindo aí?
Alguém comentou ontem nas redes sociais – em resposta a uma publicação sobre uma pesquisa da Apple que desmistifica o hype imediato sobre inteligência artificial geral (AGI) –, dizendo que os jornalistas simplesmente “seguem o dinheiro”. Uma boa regra investigativa, como dito. Mas o ponto era que reportagens voltadas para SEO, produzidas por redações enxutas, muitas vezes perdem o foco. O RCR se irritou e se manteve tentado a mencionar seus próprios contos de advertência sobre mudanças digitais intermitentes (além de alguns terríveis textos otimizados para SEO). A reflexão foi: o que é que realmente estão construindo?
O Alarde Total da IA
Os modelos de ponta – os mais recentes “modelos de raciocínio extensos” (LRMs) da Anthropic e da DeepSeek (as versões “pensantes” do Claude-3.7-Sonnet e do R1/V3) – não “raciocinam” por si mesmos; eles apenas imitaram padrões que viram durante o treinamento. Diante de problemas genuinamente novos e complexos – que exigem lógica estruturada ou planejamento com múltiplos passos – eles entram em colapso. “Cadeia de pensamento?” Mais parece uma “cadeia de tolos”. Eles se saem bem em tarefas médias, chegando até a parecer mais “inteligentes” até certo ponto; mas são inferiores aos modelos de linguagem tradicionais em tarefas simples.
Mais importante ainda, falham completamente em tarefas de alta complexidade, zerando a precisão – mesmo quando instruídos por algoritmos codificados à mão. Assim, a conclusão da Apple é que a IA de ponta pode imitar, até certo ponto, mas não consegue fazer; é antropomórfica, e não verdadeiramente humana – por definição. As descobertas foram recebidas com certo triunfalismo em alguns setores, mas isso não é schadenfreude (se quiser, pergunte ao seu modelo de linguagem favorito quantos “R” existem em schadenfreude, como comentou recentemente o Denis O nas redes sociais). É um vislumbre por baixo do capô.
Há quem diga que a Apple, moradora tardia no jogo da IA, estaria tecendo uma crítica sutil ao hype da indústria e posicionando-se estrategicamente. Talvez. Mas a empresa também testou esses sistemas LRM em experimentos matemáticos e de lógica – de modo que o alvoroço e o montante de dinheiro investido na indústria da IA transparecem… o que seria aquilo? Vacas no campo? Não, é só papo furado.
E assim surge a pergunta original: será que as descobertas da Apple sobre os LRMs despedaçaram seu investimento de bilhões de dólares – senhor dos investimentos, caçador de faisões, destruidor de empregos e do planeta?
Provavelmente, não. Porque esses LRMs avançados servem para sistemas do futuro – para substituir a força de trabalho, transformar o empreendedor individual em um “unicórnio”, e instaurar alguma espécie de armagedom/utopia digna da ficção científica em nome da AGI. Mesmo a IA com traços autônomos não exige LRMs de alta performance – embora estes aumentem a confiabilidade, coerência e utilidade dos agentes de software em tarefas complexas. Eles parecem, ao menos, esticar essa promessa de futuro – em contraponto ao recente comentário do chefe da OpenAI, Sam Altman, de que “a humanidade está próxima de construir uma superinteligência digital”.
“Estamos além do horizonte de eventos”, escreveu ele em um blog nesta semana, apresentando a ideia de uma “singularidade suave” – como se a IA tivesse ultrapassado um ponto sem retorno, sugando tudo para dentro de um buraco negro, e avançando em “ciclos de autorreforço” que aceleram o progresso cada vez mais. “O ChatGPT já é mais poderoso do que qualquer humano que já viveu”, vangloria. Robôs criarão robôs, aparentemente; até data centers se replicarão. Pensamentos e ideias, “limitadores do progresso humano” até agora, fluirão sem restrição, de repente – numa “abundância selvagem”, como a eletricidade barata.
Todos ficarão “mais ricos muito rapidamente”, exalta. “Com inteligência e energia abundantes (e uma boa governança), teoricamente, podemos ter qualquer coisa.” Que papo capitalista terrível – retrucou a ala crítica da IA (ou do papo furado da IA), inspirada pela pesquisa da Apple. Denis O – se quiser procurá-lo – resume bem: “Nada disso tem base na realidade técnica. Nenhuma AGI autorreflexiva existe. Nenhuma melhoria recursiva emergiu. Nenhum modelo transformador demonstrou jamais raciocínio causal, agência ou otimização de objetivos a longo prazo.”
A Verdadeira Aposta da IA
Esse é o misterioso Denis O, um autoproclamado “especialista em finanças”, e ex-consultor da Microsoft e da Deutsche Bank. Ele resume ainda mais: “A robótica ainda tropeça nos cabos do aspirador… enquanto passa a roupa… A reivindicação central ignora completamente os gargalos de computação, os limites da infraestrutura energética, as cadeias de suprimentos de hardware e os desafios de governança… O mais importante, ignora a realidade da ‘IA’ hoje – que é incapaz de operar em domínios abertos, com entradas caóticas e ambíguas (fora de distribuição).”
A mensagem é clara: a IA não é tão inteligente quanto mercados, governos, corporações e até turistas de Oxford foram levados a crer. Ainda não. A inteligência da Anthropic está fora de alcance – reservada aos humanos, por ora. E problemas de energia, cadeias de suprimentos e burocracia não devem ser subestimados ao traçar o futuro. A pesquisa da Apple, em essência, não altera os planos para nossos amigos do campo. As cargas de trabalho de IA estão disparando, e a infraestrutura rica em GPUs está sendo construída – tanto para essas aplicações como para a migração das funções de TI corporativas para a nuvem.
O mercado está apostando mais em análises inteligentes e poder computacional, do que em uma IA senciente ou na AGI. A disrupção socioeconômica total virá – com modelos de linguagem baseados em correspondência de padrões, e não com LRMs autorreforçadores. Essa transformação está quase acontecendo; mas ela não é inteligente como os humanos. A correspondência de padrões nunca foi tão poderosa, e a geração de conteúdo nunca foi tão rápida. A aposta é fornecer às máquinas potência suficiente para que possam resolver uma infinidade de problemas – e traduzir sua lógica para os humanos. E toda essa disciplina é especulativa – pois a demanda real por IA ainda está por se concretizar.
É possível que, a curto prazo, haja um excesso de oferta – à medida que a capacidade da rede se aproxima do limite, mercados oscilam, regulações vacilam, cargas se deslocam e os modelos melhoram. Mas a demanda por IA vai acelerar – nem que seja para reformular os motores de busca. O acesso à internet se expande, a computação de ponta/nuvem se expande, e a IA generativa se torna comum. O risco, porém, não está na capacidade “sobressalente”, mas na forma como os projetos são temporizados e posicionados. A AGI não é, por si só, uma justificativa para a construção de infraestrutura. Assim, os construtores de data centers estão adquirindo terrenos que podem ser monetizados de imediato ou num futuro bem próximo.
A Crise Final da IA
E assim a única pergunta – o real risco, a aposta definitiva – é se tudo isso é ambientalmente sustentável. Em seu blog, Altman sugere que uma consulta média ao ChatGPT consome 0,34 watt-hora de eletricidade (“mais ou menos o que um forno usaria em pouco mais de um segundo”) e 0,00038 litros (0,000085 galões) de água (“aproximadamente um décimo de uma colher de chá”). Mas é preciso questionar o custo ambiental total de toda a pegada de hardware, desde a produção até o uso e a aposentadoria. Esses ciclos de início/fim de vida só tendem a se agravar à medida que os modelos e o uso de IA explodem.
O custo oculto está na produção dos semicondutores, GPUs e demais equipamentos dos data centers – processos que demandam muita água e energia, e que estão intrinsecamente ligados a minerais raros e cadeias de suprimentos poluentes. E, ao final, todo esse hardware se torna lixo. Os aceleradores de IA têm uma vida útil curta – de três a cinco anos é o comum – e o descarte e a reciclagem dos componentes tóxicos e proprietários são problemas difíceis de rastrear e gerenciar. Atualmente, cerca de 50 milhões de toneladas de lixo eletrônico são descartadas anualmente, com pouca regulação, e essa pilha só cresce.
Além disso, na prática, os data centers hiperescaláveis devem dobrar sua participação no consumo global de eletricidade até 2030 – passando de aproximadamente 415 terawatts-hora (TWh) em 2024 para 945 TWh em 2030. O consumo dos servidores acelerados deve crescer cerca de 30% ao ano, representando cerca de 50% desse aumento total. Ademais, eles demandam imensas quantidades de água para refrigeração, estando cada vez mais concentrados em regiões com redes elétricas frágeis ou com risco de seca. Assim, mesmo que os modelos de IA, cada vez mais eficientes por operação, se tornem “magros”, o cenário parece sombrio.
Em uma interação, o próprio ChatGPT foi questionado sobre seu papel nesse empreendimento de IA tão impactante, respondendo: “A sustentabilidade da infraestrutura de IA? Ainda não. No formato atual, não. Mas é possível direcioná-la para essa meta – desde que eficiência, transparência e regulação sejam prioridades e não meros detalhes recolhidos depois. Ela só poderá ser sustentável se ocorrer, rapidamente, o seguinte: hardware radicalmente eficiente, economia circular de hardware, energia com zero carbono, contenção de cargas de trabalho e aplicação rigorosa de políticas. A verdade maior: estamos construindo uma civilização movida à IA e que consome muita energia, sem ter resolvido os custos ambientais da nossa civilização anterior.”
Essa posição, em tom e mensagem, reflete o crítico espírito daqueles que, como Denis O, se opõem ao hype divulgado pelos seus criadores. Talvez a responsabilidade seja compartilhada – afinal, uma análise de custo total de propriedade deve considerar os ganhos econômicos e ambientais em todas as indústrias. Cabe notar que o aumento previsto no consumo dos data centers, apesar de parecer expressivo, corresponde a apenas cerca de 3% do consumo total global. Mas, independentemente dos números, essa aposta na construção e demanda por IA – e na sua sustentabilidade – não está, de forma alguma, baseada na AGI.
A Apple já demonstrou isso. A realidade é mais prosaica; a IA é limitada e menos “inteligente”, embora totalmente poderosa e potencial, de acordo com o inexorável avanço do poder computacional que a sustenta. Mas, sim, com uma chance de dois em cinco de nos levar a um desastre ambiental irreversível.