O diretor científico da Hugging Face, Thomas Wolf, expressou em um ensaio publicado na rede social X sua preocupação de que a inteligência artificial (IA) esteja se transformando em “sim, senhor, nos servidores”, caso não ocorra um avanço revolucionário nas pesquisas de IA. Segundo Wolf, os atuais paradigmas de desenvolvimento não permitirão a criação de uma IA capaz de solucionar problemas de modo inovador – o mesmo tipo de raciocínio que pode levar a conquistas de nível Nobel.
Em seu texto, Wolf argumenta que o maior erro é pensar que gênios como Newton ou Einstein eram apenas estudantes exemplares, fruto de uma extrapolação linear de um aluno com desempenho entre os 10% melhores. “Para criar um Einstein em um data center, não precisamos apenas de um sistema que saiba todas as respostas, mas sim de um que faça perguntas que ninguém mais pensou ou ousou fazer”, enfatiza.
Essas colocações se contrapõem às visões de outros líderes da área, como o CEO da OpenAI, Sam Altman, que já havia afirmado que uma IA “superinteligente” poderia acelerar massivamente as descobertas científicas, e Dario Amodei, CEO da Anthropic, que chegou a prever que a IA poderia auxiliar na formulação de curas para diversos tipos de câncer.
Wolf aponta que o principal problema da IA atual é a falta de geração de conhecimento novo, ou seja, ela não conecta fatos que antes pareciam não ter relação entre si. Mesmo com acesso à imensa quantidade de informações disponível na internet, os sistemas de IA hoje se limitam a preencher lacunas com base no que os humanos já sabem.
Alguns especialistas, como o ex-engenheiro do Google Francois Chollet, manifestaram opiniões semelhantes. Eles acreditam que, embora a IA consiga memorizar padrões de raciocínio, é improvável que ela seja capaz de criar um “novo raciocínio” diante de situações inéditas.
Wolf alerta que os laboratórios de IA estão, na prática, formando “estudantes muito obedientes” – não mentes revolucionárias capazes de propor mudanças profundas. Por não ser incentivada a questionar ou oferecer ideias que desafiem seus dados de treinamento, a IA acaba se restringindo a responder perguntas já conhecidas.
“Para criar um Einstein em um data center, não precisamos apenas de um sistema que saiba todas as respostas, mas sim de um que faça perguntas que ninguém mais pensou ou ousou fazer. Aquele que escreve ‘E se todos estiverem errados sobre isso?’ mesmo quando livros, especialistas e conhecimentos comuns dizem o contrário”, ressalta Wolf.
Ele atribui parte dessa problemática à “crise de avaliação” na área de IA, onde os benchmarks adotados frequentemente se baseiam em questões com respostas claras e fechadas. Como alternativa, Wolf propõe que a indústria da IA avance para uma metodologia que mensure o conhecimento e o raciocínio, capaz de determinar se os sistemas podem adotar “abordagens contrafactuais ousadas”, formular propostas gerais a partir de “pequenas pistas” e levantar “perguntas não óbvias” que conduzam a novos caminhos de pesquisa.
Apesar do desafio ser definir como será essa nova medida, Wolf acredita que o esforço pode trazer benefícios significativos para o campo. Para ele, “o aspecto mais crucial da ciência é a habilidade de fazer as perguntas certas e questionar até mesmo aquilo que se aprendeu”. Em outras palavras, não precisamos de um aluno que acerte todas as respostas com base no conhecimento geral, mas sim de alguém que observe e questione o que os demais deixaram passar.