Noam Brown, que lidera a pesquisa em raciocínio em IA na OpenAI, afirma que modelos de IA voltados para o “raciocínio”, como o modelo o1, poderiam ter surgido 20 anos antes se os pesquisadores tivessem conhecido a abordagem e os algoritmos corretos.
Durante um painel na conferência GTC da Nvidia, em San Jose, na última quarta-feira, Brown explicou que “havia várias razões pelas quais essa direção de pesquisa foi negligenciada”. Ele acrescentou que, ao longo de sua pesquisa, percebeu que “algo estava faltando. Os humanos passam muito tempo pensando antes de agir em situações complicadas; talvez isso fosse extremamente útil na IA.”
Brown é um dos principais responsáveis pelo desenvolvimento do o1, um modelo de IA que emprega uma técnica chamada inferência em tempo de teste para “pensar” antes de responder às consultas. Essa técnica consiste na aplicação de processamento adicional durante a execução dos modelos, promovendo uma forma de “raciocínio”. Em geral, os modelos de raciocínio se revelam mais precisos e confiáveis do que os modelos tradicionais, especialmente em áreas como matemática e ciência.
O especialista ressaltou, entretanto, que o pré-treinamento — ou seja, o treinamento de modelos cada vez maiores com conjuntos de dados também crescentes — não está exatamente “obsoleto”. Laboratórios de IA, inclusive a OpenAI, concentraram anteriormente seus esforços no aumento do pré-treinamento. Atualmente, esses esforços são divididos entre pré-treinamento e inferência em tempo de teste, duas abordagens que se complementam, segundo Brown.
Em meio ao debate, foi questionado se a academia seria capaz de realizar experimentos em escala semelhante aos dos grandes laboratórios de IA, considerando a limitada disponibilidade de recursos computacionais nas instituições. Brown admitiu que isso se tornou mais difícil nos últimos anos, à medida que os modelos exigem cada vez mais poder de processamento, mas destacou que os acadêmicos podem causar impacto explorando áreas que demandam menos capacidade computacional, como o design de arquiteturas de modelos.
Ele também enfatizou a oportunidade de colaboração entre os principais laboratórios e a academia. “Os laboratórios de ponta observam as publicações acadêmicas e analisam minuciosamente os argumentos apresentados. Se houver evidências convincentes de que a ampliação dessa abordagem resultaria em soluções eficazes, certamente teremos interesse em investigar a proposta”, afirmou Brown.
Essas declarações ocorrem em um momento em que a administração Trump vem promovendo cortes significativos no financiamento destinado à pesquisa científica, medidas que têm sido criticadas por especialistas em IA, incluindo o Nobel Geoffrey Hinton, que alertam para os riscos que esses cortes podem representar tanto para os esforços de pesquisa internos quanto para os internacionais.
Brown também apontou a avaliação de benchmarks em IA como uma área em que a academia pode ter um impacto decisivo. “O estado dos benchmarks em IA é realmente precário, e isso não exige muito poder computacional para ser aprimorado”, comentou. Atualmente, os benchmarks mais populares tendem a testar conhecimentos esotéricos e a fornecer pontuações que se correlacionam de forma limitada com a proficiência em tarefas de interesse geral, contribuindo para uma confusão disseminada acerca das capacidades e dos avanços dos modelos.