OpenAI lança os novos modelos de raciocínio AI, o3 e o4-mini

O OpenAI apresentou nesta quinta-feira os modelos de raciocínio o3 e o4-mini, desenvolvidos para analisar e processar as questões de forma aprofundada antes de oferecer uma resposta. Segundo a empresa, o o3 é seu modelo de raciocínio mais avançado, superando os anteriores em testes que avaliam capacidades matemáticas, de codificação, raciocínio, ciência e compreensão visual. Em paralelo, o o4-mini apresenta um equilíbrio competitivo entre preço, velocidade e desempenho — fatores essenciais para desenvolvedores na escolha de uma ferramenta de IA para suas aplicações.

Diferentemente de modelos anteriores, o o3 e o4-mini conseguem gerar respostas utilizando ferramentas disponíveis no ChatGPT, como navegação na web, execução de código Python, processamento e criação de imagens. A partir de hoje, esses modelos, juntamente com uma variante do o4-mini, denominada o4-mini-high, que dedica mais tempo à elaboração das respostas para aumentar sua confiabilidade, estão disponíveis para assinantes dos planos Pro, Plus e Team.

Os novos modelos fazem parte da estratégia do OpenAI para se destacar na competição global contra gigantes como Google, Meta, xAI, Anthropic e DeepSeek. Embora a empresa tenha sido pioneira ao lançar um modelo de raciocínio (o o1), os concorrentes rapidamente desenvolveram versões próprias que igualam ou superam o desempenho dos modelos do OpenAI, destacando a tendência dos laboratórios de IA em buscar extrair cada vez mais performance de seus sistemas.

Inicialmente, o lançamento do o3 quase não ocorreu no ChatGPT. Em fevereiro, o CEO Sam Altman sinalizara a intenção de dedicar mais recursos a uma alternativa sofisticada que integrasse a tecnologia do o3. No entanto, a pressão competitiva levou a uma mudança de direção, culminando na sua inclusão na plataforma.

O OpenAI afirma que o o3 alcança desempenho de ponta em diversos benchmarks, como Codeforces, SWE-bench e MMMU, mesmo sem a necessidade de estruturas personalizadas específicas para o modelo.

Outra inovação é a capacidade inédita dos modelos de “pensar com imagens”. Na prática, os usuários podem enviar imagens para o ChatGPT — como esboços de quadro branco ou diagramas extraídos de PDFs — e os modelos analisam esses insumos durante a fase de “cadeia de raciocínio” antes de formular uma resposta. Essa funcionalidade permite que o o3 e o4-mini compreendam imagens de baixa qualidade ou desfocadas, além de realizarem operações como zoom e rotação enquanto processam as informações visuais.

Além do processamento de imagens, ambos os modelos podem executar código Python diretamente no navegador, por meio do recurso Canvas do ChatGPT, e realizar buscas na web para fornecer informações sobre eventos atuais.

Para além da aplicação direta no ChatGPT, os três modelos — o3, o4-mini e o4-mini-high — estarão disponíveis também via endpoints direcionados a desenvolvedores, como as APIs de Chat Completions e Responses, permitindo a criação de aplicações com tarifas baseadas no uso. Nas próximas semanas, o OpenAI planeja lançar o o3-pro, uma versão que utiliza recursos computacionais ampliados para fornecer respostas, disponível exclusivamente para assinantes do ChatGPT Pro.

Sam Altman indicou que o o3 e o4-mini podem ser os últimos modelos autônomos de raciocínio no ChatGPT antes da chegada do GPT-5, que promete integrar os modelos tradicionais, como o GPT-4.1, com as capacidades avançadas dos modelos de raciocínio.