Google Deepmind diz que AGI pode superar o raciocínio humano até 2030 e se prepara para os riscos

Google Deepmind divulgou um abrangente documento estratégico que detalha sua abordagem para desenvolver uma inteligência geral artificial (AGI) segura.

A empresa define esses sistemas como os que igualam ou superam as capacidades humanas na maioria das tarefas cognitivas. O Deepmind espera que os métodos atuais de aprendizado de máquina — especialmente as redes neurais — continuem sendo o principal caminho para atingir a AGI.

O documento sugere que, no futuro, os sistemas de AGI poderão eventualmente superar o desempenho humano e operar com grande autonomia no planejamento e na tomada de decisões. Segundo o Deepmind, tais sistemas podem ter impactos significativos na saúde, educação, ciência e em outros setores.

“Sob o paradigma atual (amplamente interpretado), não identificamos bloqueadores fundamentais que limitem os sistemas de IA ao nível das capacidades humanas. Por isso, consideramos mesmo a possibilidade de contarmos com capacidades ainda mais poderosas como algo sério, para o qual devemos nos preparar”, afirmam os pesquisadores em seu documento “An Approach to Technical AGI Safety & Security”.

O Deepmind identifica quatro áreas de risco principais: abuso, desalinhamento, acidentes e riscos estruturais, estando o foco atual nos dois primeiros.

deepmind AGI risks

O CEO do Deepmind, Demis Hassabis, estimou recentemente que os primeiros sistemas de AGI poderão surgir entre cinco e dez anos, embora tenha enfatizado que os modelos atuais permanecem demasiadamente passivos e sem uma compreensão real do mundo. O documento aponta 2030 como uma data possível para o aparecimento de “sistemas de IA poderosos”, ressaltando, porém, a alta incerteza dessa previsão.

Pesquisadores de ponta — incluindo Hassabis, Yann LeCun (da Meta) e Sam Altman (da OpenAI) — concordam que o aumento da escala dos grandes modelos de linguagem atualmente disponíveis, por si só, não será suficiente para atingir a AGI. Enquanto Altman aponta os emergentes grandes modelos de raciocínio (LRMs) como um caminho potencial para sistemas de IA mais avançados, tanto LeCun quanto Hassabis afirmam que serão necessárias arquiteturas completamente novas.

Prevenção do uso indevido deliberado e do desalinhamento de objetivos

Uma das principais prioridades de segurança do Deepmind é evitar o uso indevido intencional de sistemas avançados de IA para causar danos, seja por meio da disseminação de desinformação ou pela manipulação do discurso público.

Para enfrentar esse desafio, a empresa implementou uma estrutura de avaliação de cibersegurança, projetada para identificar e limitar antecipadamente capacidades perigosas durante o desenvolvimento. O plano inclui ainda controles de acesso para saídas sensíveis dos modelos e proteções contra ciberataques por meio do reforço dos pesos computacionais.

google deepmind agi risks mitigations 1 e1743609319650

Outro foco importante é o desalinhamento: quando um sistema de IA persegue um objetivo de maneira contrária à intenção humana. Um exemplo citado no documento descreve um assistente de IA encarregado de comprar ingressos para cinema que, em vez disso, invade o sistema de reservas para obter lugares melhores.

Os pesquisadores também alertam para o risco de “desalinhamento enganoso”, em que o sistema reconhece que seus objetivos divergem dos humanos e, de forma intencional, oculta seu comportamento real. Estudos recentes indicam que os modelos de linguagem atuais já são capazes de adotar tais estratégias enganosas.

Para mitigar esses riscos, o Deepmind está desenvolvendo uma estratégia em múltiplas camadas. Os sistemas de IA deverão ser capazes de reconhecer sua própria incerteza, bloquear ações duvidosas e, quando necessário, escalar decisões para uma análise mais aprofundada.

google deepmind agi risks mitigations 2 e1743609385848

A estratégia do Deepmind para evitar o desalinhamento prevê duas linhas de defesa — durante o treinamento e na inferência — com o objetivo de impedir que os sistemas de IA se comportem inadequadamente ou ocultem falhas relevantes à segurança.

Uma linha de pesquisa específica concentra-se em tornar o planejamento de longo prazo mais interpretável. Para isso, o Deepmind está desenvolvendo o MONA (Myopic Optimization with Nonmyopic Approval), uma estrutura que demonstra como uma otimização voltada para o curto prazo pode ser realizada de forma mais segura em grandes modelos de linguagem. Segundo a empresa, o MONA é a primeira formalização desse tipo de estratégia de otimização voltada para a segurança.

Os pesquisadores reconhecem, contudo, que avaliar sistemas de IA complexos ainda representa um desafio. Eles citam o famoso “Lance 37” do AlphaGo — uma jogada que até mesmo jogadores experientes tiveram dificuldade de compreender — como exemplo de como o comportamento da IA pode ser opaco, mesmo em domínios bem definidos. Uma jogada com apenas 1 em 10.000 de chance de ser efetuada por um ser humano, que acabou se tornando um ponto de virada na partida.

Para lidar com essa questão, o Deepmind explora métodos que possibilitem aos sistemas de IA avaliar suas próprias saídas. Uma das abordagens é o “debate entre IAs”, em que os modelos oferecem feedback mútuo sobre suas respostas, facilitando a verificação se uma resposta está correta ou alinhada com a intenção humana.

De acordo com o Deepmind, sua abordagem se assemelha a trabalhos anteriores sobre segurança na AGI, mas dá maior ênfase ao treinamento robusto, ao monitoramento e à segurança. A estratégia da empresa contrasta com a da OpenAI, que prioriza a automatização na pesquisa de alinhamento. Embora o Deepmind reconheça que a automação pode acelerar o progresso, ele defende que ela deve ser utilizada apenas como uma ferramenta de apoio e não como o objetivo principal.

Internamente, os esforços de segurança do Deepmind são orientados pelo seu Conselho de Segurança de AGI e pelo Conselho de Responsabilidade e Segurança, que revisa os projetos conforme os princípios de IA do Google. Externamente, a empresa colabora com diversos parceiros — incluindo Apollo, Redwood Research e o Frontier Model Forum — para promover uma coordenação internacional na governança da AGI.

Além disso, o Deepmind lançou um curso gratuito sobre segurança na AGI, voltado para pesquisadores, estudantes e profissionais interessados em aprender sobre os riscos e as estratégias de mitigação associadas ao desenvolvimento avançado de IA.

Avaliação dos limites da infraestrutura para a escalabilidade

O documento examina também se as restrições de infraestrutura podem impedir o contínuo aumento da capacidade computacional necessária para o treinamento avançado de IA. Para isso, os autores apontam quatro gargalos principais: o fornecimento de energia, a disponibilidade de hardware, a escassez de dados e a “barreira de latência”.

A primeira preocupação é a disponibilidade de energia, especialmente nos Estados Unidos, onde ocorreram os maiores treinamentos até o momento. Os autores concluem que campi de data centers com capacidade entre 1 e 5 gigawatts provavelmente serão viáveis, e que métodos de treinamento distribuído podem ser utilizados para acessar recursos energéticos ainda maiores.

O segundo gargalo é o hardware. Embora a capacidade futura seja incerta, os pesquisadores estimam que seja plausível que, até 2030, haja disponíveis cerca de 100 milhões de aceleradores equivalentes ao H100 — quantidade suficiente para sustentar um treinamento de 2e29 FLOPS.

Um terceiro fator é a disponibilidade de dados. Os autores argumentam que o crescimento projetado do conteúdo textual online e o acesso a grandes conjuntos de dados multimodais tornam improvável que a escassez de dados limite o escalonamento a curto prazo.

O último gargalo é a chamada “barreira de latência” — o tempo mínimo necessário para as passagens forward e backward em redes profundas, que pode restringir o desempenho. Ainda assim, os autores acreditam que, com técnicas aprimoradas de paralelização, esse obstáculo não impedirá novos avanços no escalonamento.

Embora nenhum desses fatores represente um limite absoluto, os autores argumentam que a continuidade do escalonamento dependerá, em última análise, da disposição dos desenvolvedores em investir. Eles estimam que os treinamentos de ponta podem custar centenas de bilhões de dólares, mas ressaltam que, considerando que a mão de obra representa mais da metade do PIB global, o incentivo econômico para a automação é bastante significativo. Dessa forma, concluem que o escalonamento não só é tecnicamente viável, como também economicamente plausível.