OpenAI abandona teoria de avanço repentino da AGI

feel the agi SF

A OpenAI, a empresa responsável pelo ChatGPT e por diversas outras aplicações comerciais de inteligência artificial, há muito tempo persegue o objetivo de desenvolver uma inteligência artificial geral (AGI) que “beneficie toda a humanidade”. Agora, a organização revisa de forma significativa sua perspectiva sobre como essa tecnologia transformadora pode surgir.

Em um post recente no blog da empresa, a OpenAI explicou que não espera mais que a AGI apareça repentinamente, num momento dramático em que os sistemas de IA de repente alcançariam capacidades sobre-humanas. Em vez disso, a companhia enxerga o desenvolvimento da AGI como um processo contínuo, marcado por melhorias incrementais e estáveis.

A mudança de perspectiva também conduziu a uma abordagem mais prática em relação à segurança. Em vez de se planejar cenários teóricos futuros, a empresa agora aposta em aprender com a experiência prática obtida com os sistemas de IA atuais – alinhando-se, dessa forma, à sua estratégia comercial.

O objetivo é construir medidas de segurança que se fortaleçam à medida que as capacidades da inteligência artificial evoluem. Recentemente, a OpenAI revelou um novo sistema de segurança que pode ser ampliado conforme a IA se torna mais poderosa, possivelmente até mesmo atingindo níveis comparáveis aos da AGI.

Ao longo de todo esse processo, a empresa mantém que é crucial que os seres humanos continuem no controle. Acredita-se que a sociedade deva ter voz ativa na determinação de como os sistemas de IA se comportam e quais valores eles refletem. Para possibilitar isso, estão sendo desenvolvidas ferramentas que facilitem a comunicação clara com os sistemas de IA, garantindo o controle mesmo quando estas tecnologias possam, em certas áreas, superar as capacidades humanas.

Aprendendo com a cautela do passado

A OpenAI agora analisa algumas de suas decisões de segurança anteriores de forma diferente. Um exemplo citado é a decisão de, em 2019, reter temporariamente o GPT-2 para seu lançamento público – uma atitude considerada, à época, como resultado de uma “cautela exagerada”, baseada na visão da AGI como um avanço repentino. Naquele período, apenas uma versão reduzida do modelo foi divulgada devido a temores de que modelos de linguagem de grande escala pudessem ser utilizados para gerar conteúdos enganosos, tendenciosos ou abusivos.

No entanto, Miles Brundage, ex-chefe de Pesquisa de Políticas da OpenAI, questiona essa nova interpretação da empresa. Segundo ele, a liberação gradual do GPT-2 já refletia uma filosofia de desenvolvimento iterativo, e muitos especialistas em segurança, à época, elogiaram essa abordagem cautelosa, considerando a disponibilidade das informações naquele período.

AGI é o que gera lucros elevados

Reportagens recentes revelaram que o contrato da OpenAI com a Microsoft inclui uma definição bastante prática de AGI: um sistema que supera os seres humanos na maioria das tarefas economicamente valiosas, gerando pelo menos US$ 100 bilhões em lucro.

Essa definição está em sintonia com a nova visão da OpenAI, que passa a enxergar a AGI como uma progressão gradual, bem como com as críticas do CEO da Microsoft, Satya Nadella, que condenou práticas de “gambiarra de benchmarks” na busca por marcos autoproclamados de AGI. Essa perspectiva também se alinha ao conselho dado por Altman, que orientou seus seguidores a moderar suas expectativas em 100 vezes em face da especulação sobre um iminente lançamento de AGI.

Resumo

  • A OpenAI abandonou a ideia de que a Inteligência Artificial Geral surgirá num único momento dramático, passando a vê-la como um processo evolutivo contínuo de melhorias incrementais.
  • A estratégia de segurança da empresa agora se fundamenta em uma abordagem empírica, aprimorando as medidas de segurança através da experiência prática com os sistemas atuais.
  • A OpenAI reforça a importância de manter os humanos no controle dos sistemas de IA, garantindo que a sociedade influencie o comportamento e os valores refletidos por essas tecnologias.