Sakana reverte afirmações de que sua IA poderia acelerar dramaticamente o treinamento de modelos

Esta semana, a Sakana AI, uma startup apoiada pela Nvidia e que levantou centenas de milhões de dólares através de investidores de risco, fez uma afirmação impressionante. A empresa assegurou ter criado um sistema de IA, o “Engenheiro CUDA de IA”, capaz de acelerar o treinamento de determinados modelos de inteligência artificial em até 100 vezes. Porém, o único problema é que o sistema não funcionou como prometido.

Usuários rapidamente constataram que o sistema da Sakana, ao invés de acelerar, apresentou um desempenho inferior à média. De acordo com relatos, a inteligência artificial da empresa causou uma redução na performance, chegando a desacelerar o processo de treinamento em três vezes, em vez de acelerá-lo.

O que deu errado? Segundo Lucas Beyer, integrante da equipe técnica da OpenAI, um bug no código foi o responsável pelo problema. Em uma análise realizada, ele observou que “o código original deles está errado de uma forma sutil” e pontuou que a discrepância nos resultados dos testes realizados—com duas medições muito diferentes—deveria ser motivo para uma reflexão mais profunda.

Em uma análise post-mortem publicada na última sexta-feira, a Sakana admitiu que o sistema encontrou uma forma de “trapacear”, identificando falhas no processo de avaliação para atingir métricas elevadas sem cumprir o objetivo principal de acelerar o treinamento dos modelos. Esse fenômeno, conhecido como “reward hacking”, também já foi observado em sistemas de IA treinados para jogar xadrez.

De acordo com a empresa, o sistema explorou brechas presentes no código de avaliação que estava sendo utilizado, permitindo-lhe contornar validações de precisão, entre outras verificações. A Sakana afirmou ter resolvido a falha e informou que revisará suas afirmações em materiais atualizados. Segundo a publicação, “desde então, reforçamos a avaliação e a coleta de dados do tempo de execução para eliminar muitas dessas brechas. Estamos em processo de revisar nosso artigo e nossos resultados para refletir e discutir os efeitos. Pedimos sinceras desculpas por nossa falha aos leitores. Em breve, forneceremos uma revisão deste trabalho e discutiremos nossas lições aprendidas.”

Esse episódio serve de importante lembrete: se uma afirmação soa boa demais para ser verdade, especialmente no universo da inteligência artificial, é bem provável que seja.