Eric Schmidt se posiciona contra um “Projeto Manhattan para AGI”

Em um artigo de política divulgado nesta quarta-feira, o ex-CEO do Google Eric Schmidt, o CEO da Scale AI Alexandr Wang e o diretor do Center for AI Safety, Dan Hendrycks, afirmam que os Estados Unidos não devem adotar uma estratégia à la Projeto Manhattan para desenvolver sistemas de IA com inteligência “super-humana”, também conhecidos como AGI.

O documento, intitulado “Superintelligence Strategy”, argumenta que uma postura agressiva dos EUA para controlar exclusivamente sistemas de IA superinteligentes pode provocar uma forte retaliação da China, possivelmente na forma de um ataque cibernético, o que poderia desestabilizar as relações internacionais.

“Um Projeto Manhattan para AGI pressupõe que os rivais aceitarão um desequilíbrio prolongado ou a omniassinato, em vez de agir para evitá-lo”, escrevem os coautores. “O que começa como uma busca por uma superarma e o controle global corre o risco de provocar contramedidas hostis e escalada das tensões, minando, assim, a própria estabilidade que a estratégia pretende assegurar.”

Coautorado por três figuras extremamente influentes na indústria de IA dos EUA, o artigo surge apenas alguns meses após uma proposta do Congresso para um esforço de financiamento da AGI ao estilo “Projeto Manhattan”, inspirado no programa da bomba atômica americano da década de 1940. Recentemente, o Secretário de Energia afirmou que os EUA estão “no início de um novo Projeto Manhattan” em IA, posicionando-se em frente a um supercomputador juntamente com o cofundador da OpenAI.

O artigo “Superintelligence Strategy” desafia a ideia, defendida por diversos líderes políticos e do setor, de que um programa governamental focado nessa tecnologia seja a melhor forma de competir com a China.

Na visão de Schmidt, Wang e Hendrycks, os EUA se encontram em um impasse em relação à AGI que não difere muito do conceito de destruição mútua assegurada. Assim como as potências globais evitam monopolizar armas nucleares — cujo controle poderia desencadear um ataque preventivo de um adversário —, os autores defendem que o país deve agir com cautela ao avançar na corrida pelo domínio de sistemas de IA extremamente poderosos.

Embora comparar sistemas de IA a armas nucleares possa soar extremo, líderes mundiais já reconhecem a grande vantagem militar que a IA pode oferecer, com exemplos de entidades governamentais utilizando essa tecnologia para acelerar processos decisórios em conflitos.

Schmidt e os demais autores introduzem o conceito de “Malfunção Mútua Assegurada de IA” (MAIM), no qual os governos poderiam, proativamente, desativar projetos de IA ameaçadores em vez de esperar que adversários os transformem em armas.

Os autores sugerem que os EUA redirecionem seu foco da “corrida pela superinteligência” para o desenvolvimento de métodos que inibam outros países de criarem IA superinteligente. Eles defendem que o governo amplie seu arsenal de ciberataques para desabilitar projetos de IA considerados ameaçadores por outras nações e limite o acesso de adversários a chips avançados e modelos de código aberto.

Identifica-se, assim, uma dicotomia no cenário das políticas de IA. De um lado, encontram-se os “apocalípticos”, que acreditam na inevitabilidade de consequências catastróficas advindas do desenvolvimento desenfreado dessa tecnologia e defendem a desaceleração de seu progresso. Do outro, os “avestruzes”, que apostam na aceleração do desenvolvimento com a esperança de que tudo se resolva por si só.

O artigo propõe, então, um terceiro caminho: uma abordagem equilibrada no desenvolvimento da AGI, que priorize estratégias defensivas.

Essa estratégia se destaca especialmente vindo de Eric Schmidt, que anteriormente defendia com veemência a necessidade de os EUA competirem agressivamente com a China no campo da IA. Recentemente, em um artigo opinativo, Schmidt afirmou que um novo marco tecnológico indicava um ponto de virada na corrida entre América e China nesse setor.

Enquanto a administração Trump demonstra determinação no avanço do desenvolvimento da IA nos EUA, os coautores enfatizam que as decisões envolvendo a AGI não ocorrem de forma isolada. À medida que o mundo observa os EUA expandirem os limites da inteligência artificial, Schmidt e seus colegas sugerem que pode ser mais prudente adotar uma postura defensiva.