O documento de 145 páginas da DeepMind sobre segurança em AGI pode não convencer os céticos
Nesta quarta-feira, o Google DeepMind publicou um extenso documento sobre sua abordagem de segurança voltada para a AGI – uma inteligência artificial capaz de realizar qualquer tarefa que um ser humano possa. O estudo, de 145 páginas, co-autorado por Shane Legg, cofundador da DeepMind, prevê que a AGI pode chegar até 2030, podendo causar “danos severos”, com exemplos alarmantes como riscos existenciais capazes de destruir permanentemente a humanidade. Embora alguns detratores, conforme indicado por determinados estudos, considerem a AGI pouco mais do que um sonho distante, outros especialistas alertam para os graves riscos envolvidos.
O documento contrasta a abordagem de mitigação de riscos da DeepMind com a de outras empresas de IA. Enquanto a Anthropic atribui menor ênfase a métodos como treinamento robusto, monitoramento e segurança, a OpenAI aposta de forma exagerada na automação de pesquisas de segurança, conhecidas como pesquisas de alinhamento. Além disso, o estudo questiona a viabilidade da emergência de uma superinteligência – uma IA que realizaria tarefas melhor do que qualquer ser humano – e defende que, sem inovações arquiteturais significativas, tais sistemas podem nunca se tornar realidade.
Contudo, os autores consideram plausível que os paradigmas atuais possam viabilizar a “melhoria recursiva da IA”: um ciclo de feedback positivo no qual a própria inteligência artificial realiza pesquisas para criar sistemas cada vez mais sofisticados, algo que pode oferecer riscos extremamente elevados.
Em termos gerais, o estudo propõe o desenvolvimento de técnicas para impedir o acesso de agentes mal-intencionados a uma hipotética AGI, aprimorar a compreensão das ações dos sistemas de IA e reforçar os ambientes em que essas inteligências operam. Apesar de reconhecer que muitas dessas técnicas estão em estágio inicial e apresentam desafios abertos de pesquisa, o documento adverte que não se deve ignorar os problemas de segurança que podem surgir em breve.
Os autores ressaltam que o potencial transformador da AGI pode trazer benefícios incríveis, mas também acarretar danos severos. Por esse motivo, é fundamental que os desenvolvedores mais avançados de IA planejem proativamente estratégias para mitigar esses riscos. Ainda assim, alguns especialistas divergem dos pressupostos apresentados no documento.
Heidy Khlaaf, cientista-chefe de IA em uma organização sem fins lucrativos, afirmou que o conceito de AGI é demasiado indefinido para ser avaliado de forma científica. Outro pesquisador, Matthew Guzdial, questiona a viabilidade da melhoria recursiva da IA, ressaltando que nunca se observou evidência de que esse processo funcione. Já Sandra Wachter, que estuda tecnologia e regulação, destaca como preocupação real o risco de que a IA se alimente de saídas imprecisas. Segundo ela, com a proliferação de conteúdos gerados por IA e a substituição gradual de dados autênticos, os modelos passam a aprender com suas próprias saídas – frequentemente repletas de inverdades ou alucinações – comprometendo a confiabilidade dos resultados, principalmente quando chatbots são usados para buscas e verificação da verdade.
Apesar da abrangência do estudo, o documento da DeepMind dificilmente encerrará os debates sobre a real viabilidade da AGI e quais aspectos da segurança em IA devem receber atenção imediata.