Todos estão falando sobre o ChatGPT e a geração de texto por IA. Mas o objetivo real da OpenAI é desenvolver uma superinteligência artificial. A empresa nos lembra de seu objetivo distante – e sugere como manter tal sistema sob controle.
Diretamente da diretoria executiva da OpenAI, surge um artigo sobre como controlar uma potencial superinteligência: os autores são Sam Altman, Greg Brockman e Ilya Sutskever.
Eles discutem possíveis sistemas de controle para sistemas de IA superinteligentes. Segundo sua definição, esses serão sistemas de IA futuros que serão “dramaticamente mais poderosos” do que mesmo a “inteligência artificial geral” (AGI), embora não especifiquem o termo “superinteligência”.
Altman, Brockman e Sutskever sugerem que o impacto da superinteligência artificial será amplo, tanto positivo quanto negativo, e comparam as potenciais consequências às da energia nuclear ou da biologia sintética. Na próxima década, sistemas de IA “superarão especialistas na maioria das áreas e realizarão tanto trabalho produtivo quanto as maiores empresas fazem hoje”.
Coordenação, controle, tecnologia
Para controlar efetivamente uma superinteligência, eles sugerem três pontos de partida:
- Coordenação: Os esforços de desenvolvimento de superinteligência precisariam ser coordenados para garantir a integração segura e tranquila dos sistemas superinteligentes na sociedade. Isso poderia ser feito por meio de um projeto global lançado pelos principais governos ou por meio de um acordo coletivo para limitar a taxa de crescimento das capacidades de IA.
- Regulamentação: A OpenAI reitera seu chamado na audiência do Senado dos EUA por uma agência reguladora semelhante à Agência Internacional de Energia Atômica (AIEA). Tal agência seria responsável por supervisionar a superinteligência. Ela inspecionaria os sistemas, exigiria auditorias, imporia padrões de segurança e estabeleceria restrições de uso e níveis de segurança.
- Soluções técnicas: Para tornar a IA superinteligente segura, a humanidade também precisaria desenvolver capacidades técnicas. Essa é uma questão de pesquisa em aberto.
Embora os três líderes da OpenAI apoiem uma regulamentação rigorosa da superinteligência, eles também enfatizam a necessidade de um limite claro que permita às empresas e projetos de código aberto desenvolver modelos abaixo de um limiar de capacidade significativa sem regulamentação.
“Os sistemas que nos preocupam terão poder além de qualquer tecnologia já criada, e devemos ter cuidado para não diluir o foco neles aplicando padrões semelhantes a tecnologias muito aquém desse nível.”
Sam Altman, Greg Brockman, Ilya Sutskever
Os seres humanos devem estar no comando da IA
Altman, Brockman e Sutskever enfatizam a importância da participação pública e supervisão na governança de sistemas de IA poderosos. Em sua visão, os limites e objetivos desses sistemas devem ser determinados democraticamente.
Dentro desses limites amplos, no entanto, os usuários devem ter “muito controle” sobre o sistema de IA que utilizam. O CEO da OpenAI, Altman, já anunciou anteriormente que sua empresa planeja oferecer modelos de IA personalizáveis no futuro.
Por fim, os autores justificam o desenvolvimento de uma superinteligência artificial, apesar de todos os riscos: ela poderia levar a um “mundo muito melhor” do que podemos imaginar hoje. Eles afirmam que já são visíveis exemplos disso na educação, criatividade e produtividade.
Além disso, seria quase impossível impedir o desenvolvimento de uma superinteligência artificial. Sua emergência é inevitável, afirmam os três fundadores, devido aos enormes benefícios, aos custos em declínio e à multiplicidade de atores envolvidos. Pará-la exigiria algum tipo de “regime global de vigilância”, e mesmo assim não há garantias. “Portanto, precisamos acertar.”