Durante um jantar recente com líderes empresariais em San Francisco, um comentário que fiz deixou o ambiente tenso. Eu não havia questionado algo que consideraria um grande deslize social: se eles achavam que a IA atual algum dia poderia alcançar uma inteligência semelhante à humana (ou seja, a AGI) ou até ultrapassá-la.
É um tema mais controverso do que se imagina.
Em 2025, não faltam CEOs de tecnologia que defendem a hipótese de que os grandes modelos de linguagem, que impulsionam chatbots como ChatGPT e Gemini, poderão atingir inteligência em nível humano ou até super-humana num futuro próximo. Esses executivos argumentam que uma IA altamente capaz trará benefícios sociais amplos e bem distribuídos.
Por exemplo, o CEO da Anthropic afirmou em um ensaio que uma IA excepcionalmente poderosa poderia chegar já em 2026 e ser “mais inteligente do que um ganhador do Prêmio Nobel na maioria das áreas relevantes”. Enquanto isso, o CEO da OpenAI recentemente declarou que sua empresa sabe como construir uma IA “superinteligente”, prevendo que isso poderá “acelerar massivamente a descoberta científica”.
No entanto, nem todos se convencem com essas afirmações otimistas.
Um grupo distinto de líderes em IA é cético quanto à possibilidade de os modelos de linguagem atuais chegarem à AGI – e muito menos à superinteligência – a não ser que ocorram inovações revolucionárias. Esses líderes, historicamente discretos, recentemente passaram a se pronunciar mais abertamente.
Em um artigo recente, Thomas Wolf, cofundador e diretor de ciência da Hugging Face, classificou partes da visão de alguns como “puro pensamento desejoso, na melhor das hipóteses”. Informado por sua pesquisa de doutorado em física estatística e quântica, Wolf acredita que os avanços ao nível de um Prêmio Nobel não surgem ao responder perguntas já estabelecidas – algo em que a IA se destaca – mas sim ao formular questões que ninguém sequer imaginou.
Na visão de Wolf, os modelos de linguagem atuais não estão à altura desse desafio.
“Eu adoraria ver esse ‘modelo Einstein’ por aí, mas precisamos nos aprofundar nos detalhes de como chegar lá”, declarou em entrevista, ressaltando que é justamente nesse ponto que tudo se torna interessante.
Wolf afirmou que escreveu o artigo porque sentiu que havia muito alarde em torno da AGI e não uma avaliação séria de como ela poderia ser alcançada. Ele acredita que, nas condições atuais, há uma possibilidade real de a IA transformar o mundo num futuro próximo, sem que, entretanto, alcance a inteligência em nível humano ou a superinteligência.
Grande parte do universo da IA se encantou com a promessa da AGI. Aqueles que não acreditam em sua viabilidade são frequentemente rotulados como “anti-tecnologia” ou vistos como pessimistas e desinformados.
Alguns podem rotular Wolf como pessimista por essa visão, mas ele se define como um “otimista informado” – alguém que deseja impulsionar a IA sem perder o pé na realidade. Certamente, ele não é o único líder da área a ter previsões mais conservadoras sobre a tecnologia.
O CEO do Google DeepMind, Demis Hassabis, teria afirmado que, em sua opinião, a indústria pode estar a até uma década de desenvolver a AGI, lembrando que há muitas tarefas que a IA simplesmente não consegue realizar atualmente. O principal cientista de IA da Meta, Yann LeCun, também expressou dúvidas quanto ao potencial dos modelos de linguagem. Durante um evento, LeCun afirmou que a ideia de que os modelos de linguagem possam atingir a AGI é “absurda” e defendeu a criação de novas arquiteturas que sirvam de base para a superinteligência.
Kenneth Stanley, ex-pesquisador líder na OpenAI, é um dos especialistas que está mergulhado nos detalhes de como construir uma IA avançada utilizando os modelos atuais. Atualmente, ele atua como executivo na Lila Sciences, uma startup que arrecadou 200 milhões de dólares em capital de risco para impulsionar a inovação científica por meio de laboratórios automatizados.
Stanley dedica seus dias a extrair ideias originais e criativas dos modelos de IA, numa vertente da pesquisa conhecida como “open-endedness”. O objetivo da Lila Sciences é criar modelos que automatizem todo o processo científico, incluindo aquela etapa inicial crucial – formular perguntas e hipóteses extremamente boas que possam, em última instância, levar a grandes descobertas.
“Eu até gostaria de ter escrito o ensaio do Thomas Wolf, pois ele realmente reflete os meus sentimentos”, comentou Stanley em entrevista. “O que ele apontou foi que ser extremamente conhecedor e habilidoso não necessariamente leva à geração de ideias realmente originais.”
Stanley acredita que a criatividade é um passo essencial no caminho rumo à AGI, embora ressalte que desenvolver um modelo de IA “criativo” seja mais fácil falar do que fazer.
Otimistas, como alguns dos já citados, apontam para métodos como os modelos de “raciocínio” que utilizam maior poder computacional para verificar fatos e responder a certas questões de forma mais consistente, como evidência de que a AGI não está tão distante. No entanto, criar perguntas e ideias originais pode exigir um tipo distinto de inteligência, segundo Stanley.
“Se você pensar bem, o raciocínio é quase o oposto da criatividade”, acrescentou. “Modelos de raciocínio dizem: ‘Este é o objetivo do problema, vamos direto a ele’, o que basicamente impede que se seja oportunista e se percebam possibilidades fora desse escopo, dificultando a divergência e a geração de ideias criativas.”
Para desenvolver modelos de IA verdadeiramente inteligentes, Stanley sugere a necessidade de replicar, de forma algorítmica, o gosto subjetivo humano por novas ideias promissoras. Os modelos atuais funcionam muito bem em domínios acadêmicos com respostas claras, como matemática e programação. Porém, ele ressalta que é muito mais difícil projetar uma IA para tarefas subjetivas que exigem criatividade, onde não existe uma resposta “correta”.
“As pessoas evitam a subjetividade na ciência – a palavra é quase tóxica”, afirmou Stanley. “Mas nada nos impede de lidar com a subjetividade de forma algorítmica. Ela é apenas parte do fluxo de dados.”
Stanley demonstrou satisfação com o fato de que o campo da “open-endedness” vem ganhando mais atenção, com laboratórios de pesquisa dedicados na Lila Sciences, Google DeepMind e na startup Sakana trabalhando nesse desafio. Ele passa a notar que mais pessoas têm discutido a criatividade na IA, embora acredite que ainda há muito trabalho a ser feito.
Wolf e LeCun provavelmente concordariam. Podemos chamá-los de realistas da IA: líderes que encaram a AGI e a superinteligência com questionamentos sérios e fundamentados sobre sua viabilidade. O objetivo deles não é menosprezar os avanços na área, mas iniciar uma conversa ampla sobre o que impede os modelos de IA atuais de alcançarem a AGI – e a superinteligência – e como superar esses obstáculos.