Diretor Científico da Hugging Face teme que a IA esteja se tornando “servo de concordância nos servidores”

Fundadores de empresas de inteligência artificial têm fama de fazer afirmações ousadas sobre o potencial da tecnologia para transformar diversas áreas, especialmente as ciências. No entanto, Thomas Wolf, cofundador e diretor científico da Hugging Face, adota uma postura mais comedida.

Em um ensaio publicado recentemente, Wolf expressou seu receio de que a IA se transforme em “servo de concordância nos servidores” na ausência de um avanço revolucionário na pesquisa sobre o tema. Ele explicou que os paradigmas atuais de desenvolvimento não serão capazes de gerar uma inteligência artificial apta à resolução criativa e inovadora de problemas — aquele tipo de solução que rende, por exemplo, um Prêmio Nobel.

Segundo Wolf, o erro principal cometido pelas pessoas é imaginar que gênios como Newton ou Einstein foram apenas alunos exemplares ampliados, como se o gênio surgisse ao extrapolar linearmente o desempenho de um estudante do top 10%. “Para criar um Einstein em um data center, não basta dispor de um sistema que conhece todas as respostas, mas sim de um que consiga formular perguntas que ninguém mais pensou ou ousou perguntar”, destaca o diretor científico.

Essas afirmações se contrapõem a visões de outros líderes do setor, como Sam Altman, CEO da OpenAI, que defendeu que uma IA “superinteligente” poderia acelerar de forma maciça as descobertas científicas, bem como Dario Amodei, CEO da Anthropic, que previu a possibilidade de a tecnologia contribuir para a formulação de curas para a maioria dos tipos de câncer.

O principal problema apontado por Wolf é que a IA atual não gera novo conhecimento ao conectar fatos previamente desconexos. Mesmo com acesso a praticamente toda a internet, essa tecnologia se limita a preencher as lacunas do que os humanos já sabem.

Alguns especialistas, como o ex-engenheiro do Google, Francois Chollet, compartilham dessa visão, argumentando que, embora a IA possa memorizar padrões de raciocínio, é improvável que ela seja capaz de criar um “novo raciocínio” a partir de situações inéditas.

Wolf sustenta que os laboratórios de IA estão, essencialmente, formando “alunos muito obedientes” — e não revolucionários científicos. A tecnologia atual não é incentivada a questionar ou propor ideias que possam contestar seu treinamento, restringindo-se a responder questões já conhecidas.

Ele enfatiza: “Para criar um Einstein em um data center, não precisamos apenas de um sistema que conheça todas as respostas, mas sim de um que possa fazer perguntas que ninguém mais pensou ou ousou fazer. Um que questione: ‘E se todos estiverem errados sobre isso?’ mesmo quando livros, especialistas e o conhecimento comum apontam o contrário.”

Wolf também aponta que a “crise de avaliação” na inteligência artificial contribui para esse cenário desalentador. Segundo ele, as métricas atualmente utilizadas para medir as melhorias dos sistemas se baseiam principalmente em perguntas com respostas claras, óbvias e fechadas.

Como solução, o diretor científico propõe que a indústria de IA adote uma nova medida fundamentada no conhecimento e raciocínio. Essa abordagem seria capaz de esclarecer se uma inteligência artificial consegue adotar abordagens contrafactuais ousadas, elaborar propostas gerais a partir de “pequenas pistas” e levantar questões não óbvias que possam abrir novos caminhos para a pesquisa.

Embora o desafio resida em definir como essa nova métrica poderia ser estruturada, Wolf acredita que o esforço pode valer a pena. “O aspecto mais crucial da ciência é a habilidade de fazer as perguntas certas e de desafiar até mesmo o que se aprendeu. Não precisamos de um aluno nota A+ que responda todas as questões com conhecimentos gerais. Precisamos de um aluno nota B que perceba e questione o que os outros deixaram passar.”