Principais pesquisadores de IA e líderes do setor emitiram uma declaração aberta exigindo que os riscos extremos da IA sejam levados tão a sério quanto uma guerra nuclear.

“A mitigação do risco de extinção pela IA deve ser uma prioridade global ao lado de outros riscos de escala societal, como pandemias e guerra nuclear”, insta uma declaração divulgada hoje pelo Center for AI Safety.

A declaração foi assinada pelos CEOs das principais empresas de IA, incluindo OpenAI, Google DeepMind e Anthropic, bem como por cientistas de ponta em IA nos Estados Unidos e na China.

“Uma coalizão histórica”

“Isto representa uma coalizão histórica de especialistas em IA – juntamente com filósofos, éticos, estudiosos do direito, economistas, físicos, cientistas políticos, cientistas de pandemias, cientistas nucleares e cientistas do clima – estabelecendo o risco de extinção proveniente de sistemas avançados de IA futura como um dos problemas mais importantes do mundo”, afirmou um comunicado do centro.

Os impactos negativos da IA já estão sendo sentidos e precisam ser abordados. No entanto, também é necessário antecipar os riscos futuros dos sistemas avançados de IA, disseram eles.

“Falar sobre como a IA pode levar ao fim da humanidade pode parecer ficção científica”, disse Charlotte Siegmann, co-fundadora da KIRA, um think tank que estuda os riscos da IA. “Mas há muitas razões para se preocupar: abuso, competição, ignorância, descuido e a falta de controle dos sistemas atuais e futuros. A carta aberta destaca isso.”

Yann LeCun e Meta estão ausentes da lista

Alguns dos signatários notáveis da declaração incluem:

  • CEO's dos principais laboratórios de IA: Sam Altman, Demis Hassabis e Dario Amodei
  • Os autores do livro-texto padrão sobre Inteligência Artificial (Stuart Russell e Peter Norvig)
  • Dois autores do livro-texto padrão sobre Aprendizado Profundo (Ian Goodfellow e Yoshua Bengio)
  • Um autor do livro-texto padrão sobre Aprendizado por Reforço (Andrew Barto)
  • Três vencedores do Prêmio Turing (Geoffrey Hinton, Yoshua Bengio e Martin Hellman)
  • Executivos da Microsoft, OpenAI, Google, Google DeepMind e Anthropic – Meta não assinou
  • Os cientistas por trás de famosos sistemas de IA, como AlphaGo e todas as versões do GPT (David Silver, Ilya Sutskever)
  • Os dois cientistas da computação mais citados (Hinton e Bengio) e a acadêmica mais citada em segurança e privacidade da computação (Dawn Song)
  • Professores de IA de universidades chinesas
  • Professores que estudam pandemias, mudanças climáticas e tecnologia nuclear
  • Outros signatários incluem Marian Rogers Croak (inventora do VoIP – Voz sobre Protocolo de Internet), Kersti Kaljulaid (Ex-presidente da República da Estônia) e outros.

Um vencedor do Prêmio Turing está faltando: o chefe de IA da Meta, Yann LeCun, não assinou a carta, e a Meta em si está ausente da lista. A empresa atualmente possui uma política de código aberto e está por trás dos poderosos modelos LLaMA, por exemplo. Também ausente atualmente está Gary Marcus, que recentemente testemunhou no Senado dos Estados Unidos a favor de uma maior regulamentação da pesquisa e das empresas de IA.

Um dos signatários é Connor Leahy, CEO da Conjecture, uma empresa dedicada à pesquisa de alinhamento aplicado e escalável. Em um episódio recente do programa Machine Learning Street Talk, ele explica em detalhes por que a IA representa um risco existencial e como podemos gerenciá-lo.