O Future of Life Institute, organização sem fins lucrativos, concentra-se nas ameaças fundamentais à existência humana. Agora publicou uma carta aberta pedindo uma pausa na IA. A carta é assinada por várias figuras proeminentes nos negócios e na ciência.

Por pelo menos seis meses, todos os laboratórios de IA devem parar de desenvolver sistemas de IA mais poderosos que o GPT-4, diz a carta, referindo-se a projetos em andamento como “experimentos gigantes de IA”.

A carta é assinada por líderes empresariais como Elon Musk, Steve Wozniak e o co-fundador da Stablity-AI (Stable Diffusion) Emad Mostaque, bem como muitos pesquisadores notáveis de IA, como o vencedor do Prêmio Turing Yoshua Bengio, o professor de IA de Berkeley Stuart Russell e o crítico de modelos de linguagem Gary Marcus.

Três pesquisadores da empresa irmã de IA do Google, Deepmind, e um desenvolvedor do Google também assinaram a carta. Até agora, ninguém da OpenAI está entre eles. No total, a carta aberta conta atualmente com 1.125 signatários.

Veja a tradução da carta na íntegra.

Carta aberta para OpenAI e Microsoft

A carta é endereçada a “todos os laboratórios de IA” para parar de trabalhar em sistemas de IA mais poderosos do que o GPT-4. Mas o tom é voltado principalmente para a implantação agressiva de grandes modelos de linguagem pela Microsoft e OpenAI. Em questão de semanas, ambas as empresas trouxeram a tecnologia de IA para muitos milhões de pessoas e integraram grandes modelos de linguagem em vários aplicativos padrão, como Search ou Office.

O Instituto cita a falta de planejamento e gerenciamento na atual disseminação da tecnologia de IA. A corrida da IA está fora de controle, diz ele, e mesmo seus criadores não podem “entender, prever ou controlar de forma confiável” o impacto de “mentes digitais poderosas”.

A carta cita cenários negativos comuns, como a propaganda da IA, a automação de muitos empregos, o deslocamento da inteligência humana e a eventual perda de controle sobre nossa própria civilização como possíveis riscos.

“Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos gerenciáveis”, diz a carta.

Mais regras para a inteligência artificial

Laboratórios de IA e especialistas independentes devem usar a pausa de pelo menos seis meses para desenvolver diretrizes de segurança comuns que serão negligenciadas por especialistas externos. Essas diretrizes devem garantir que os sistemas “estejam seguros além de uma dúvida razoável”.

Ao mesmo tempo, o instituto pede coordenação com os legisladores, o que significaria pelo menos que os sistemas de IA podem ser monitorados, controlados e rastreados por um departamento dedicado, por exemplo, através de um sistema de marca d ‘água.

O instituto não está pedindo uma parada geral no desenvolvimento da IA, mas “apenas um passo atrás da perigosa corrida para modelos de caixa preta cada vez maiores e imprevisíveis com recursos emergentes”.

“A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos na sociedade. Podemos fazer isso aqui ”, escreve o instituto.