Todos estão falando sobre o ChatGPT e a geração de texto por IA. Mas o objetivo real da OpenAI é desenvolver uma superinteligência artificial. A empresa nos lembra de seu objetivo distante – e sugere como manter tal sistema sob controle.

Diretamente da diretoria executiva da OpenAI, surge um artigo sobre como controlar uma potencial superinteligência: os autores são Sam Altman, Greg Brockman e Ilya Sutskever.

Eles discutem possíveis sistemas de controle para sistemas de IA superinteligentes. Segundo sua definição, esses serão sistemas de IA futuros que serão “dramaticamente mais poderosos” do que mesmo a “inteligência artificial geral” (AGI), embora não especifiquem o termo “superinteligência”.

Altman, Brockman e Sutskever sugerem que o impacto da superinteligência artificial será amplo, tanto positivo quanto negativo, e comparam as potenciais consequências às da energia nuclear ou da biologia sintética. Na próxima década, sistemas de IA “superarão especialistas na maioria das áreas e realizarão tanto trabalho produtivo quanto as maiores empresas fazem hoje”.

Coordenação, controle, tecnologia

Para controlar efetivamente uma superinteligência, eles sugerem três pontos de partida:

  • Coordenação: Os esforços de desenvolvimento de superinteligência precisariam ser coordenados para garantir a integração segura e tranquila dos sistemas superinteligentes na sociedade. Isso poderia ser feito por meio de um projeto global lançado pelos principais governos ou por meio de um acordo coletivo para limitar a taxa de crescimento das capacidades de IA.
  • Regulamentação: A OpenAI reitera seu chamado na audiência do Senado dos EUA por uma agência reguladora semelhante à Agência Internacional de Energia Atômica (AIEA). Tal agência seria responsável por supervisionar a superinteligência. Ela inspecionaria os sistemas, exigiria auditorias, imporia padrões de segurança e estabeleceria restrições de uso e níveis de segurança.
  • Soluções técnicas: Para tornar a IA superinteligente segura, a humanidade também precisaria desenvolver capacidades técnicas. Essa é uma questão de pesquisa em aberto.

Embora os três líderes da OpenAI apoiem uma regulamentação rigorosa da superinteligência, eles também enfatizam a necessidade de um limite claro que permita às empresas e projetos de código aberto desenvolver modelos abaixo de um limiar de capacidade significativa sem regulamentação.

“Os sistemas que nos preocupam terão poder além de qualquer tecnologia já criada, e devemos ter cuidado para não diluir o foco neles aplicando padrões semelhantes a tecnologias muito aquém desse nível.”

Sam Altman, Greg Brockman, Ilya Sutskever

Os seres humanos devem estar no comando da IA

Altman, Brockman e Sutskever enfatizam a importância da participação pública e supervisão na governança de sistemas de IA poderosos. Em sua visão, os limites e objetivos desses sistemas devem ser determinados democraticamente.

Dentro desses limites amplos, no entanto, os usuários devem ter “muito controle” sobre o sistema de IA que utilizam. O CEO da OpenAI, Altman, já anunciou anteriormente que sua empresa planeja oferecer modelos de IA personalizáveis no futuro.

Por fim, os autores justificam o desenvolvimento de uma superinteligência artificial, apesar de todos os riscos: ela poderia levar a um “mundo muito melhor” do que podemos imaginar hoje. Eles afirmam que já são visíveis exemplos disso na educação, criatividade e produtividade.

Além disso, seria quase impossível impedir o desenvolvimento de uma superinteligência artificial. Sua emergência é inevitável, afirmam os três fundadores, devido aos enormes benefícios, aos custos em declínio e à multiplicidade de atores envolvidos. Pará-la exigiria algum tipo de “regime global de vigilância”, e mesmo assim não há garantias. “Portanto, precisamos acertar.”