Modelo de IA Pequeno do Ai2 Supera Concorrentes de Tamanho Similar
No último dia 1 de maio de 2025, o instituto de pesquisa em IA sem fins lucrativos Ai2 lançou o Olmo 2 1B, um modelo de 1 bilhão de parâmetros que, segundo a organização, supera modelos de tamanho semelhante desenvolvidos por gigantes como Google, Meta e Alibaba em diversas avaliações.
Os parâmetros, também conhecidos como pesos, são os componentes internos que orientam o comportamento de um modelo. O Olmo 2 1B está disponível sob a licença permissiva Apache 2.0 na plataforma de desenvolvimento Hugging Face. Diferentemente de muitos modelos, ele pode ser replicado do zero, já que o Ai2 disponibilizou o código e os conjuntos de dados (Olmo-mix-1124, Dolmino-mix-1124) utilizados em sua criação.
Embora modelos menores possam não possuir a mesma capacidade dos seus equivalentes maiores, a grande vantagem está na menor exigência de hardware para sua execução. Essa característica os torna mais acessíveis para desenvolvedores e entusiastas que operam com máquinas de menor desempenho, possibilitando a execução em laptops modernos e até mesmo em dispositivos móveis.
O Ai2 informou que o Olmo 2 1B foi treinado em um conjunto de dados contendo 4 trilhões de tokens, oriundos de fontes públicas, geradas por IA e criadas manualmente. Em um benchmark que avalia o raciocínio aritmético, o teste GSM8K, o Olmo 2 1B alcançou melhor desempenho que o Gemma 3 1B do Google, o Llama 3.2 1B da Meta e o Qwen 2.5 1.5B da Alibaba. Além disso, o modelo também se destacou no teste TruthfulQA, que mede a precisão factual.
No entanto, o Ai2 alerta que o Olmo 2 1B possui riscos. Assim como qualquer modelo de IA, ele pode gerar saídas problemáticas, incluindo conteúdo potencialmente prejudicial ou sensível, bem como informações factualmente incorretas. Por esses motivos, a recomendação é evitar a utilização deste modelo em ambientes comerciais.