OpenAI atualiza seu ambiente de codificação com o GPT-5.1-Codex-Max, um novo modelo projetado para lidar com grandes volumes de contexto e resolver tarefas complexas de engenharia que podem levar horas para serem concluídas.

A OpenAI lançou o GPT-5.1-Codex-Max, seu novo modelo de codificação “agentic”. O sistema foi desenvolvido especificamente para trabalhos detalhados e de longa duração, substituindo o modelo anterior como padrão em todas as interfaces do Codex.

A empresa afirma que o novo modelo utiliza 30% menos “tokens de pensamento” do que seu predecessor, mantendo a mesma qualidade, além de operar de 27 a 42% mais rápido em tarefas do mundo real. Para funções em que a latência não é um problema, há ainda um novo modo de raciocínio Extra High que reserva mais tempo para o processamento.

De acordo com a OpenAI, o GPT-5.1-Codex-Max é o primeiro modelo treinado especificamente para funcionar de forma eficaz em ambientes Windows, otimizando a execução de tarefas na linha de comando. A empresa relata que 95% dos seus engenheiros utilizam o Codex semanalmente e observou um aumento de 70% nos pull requests desde a introdução da ferramenta.

O acesso já está disponível para usuários dos planos ChatGPT Plus, Pro, Team, Edu e Enterprise, com a versão Max substituindo o modelo anterior como padrão. Enquanto a versão anterior custava US$ 1,25 por milhão de tokens de entrada e US$ 10 por milhão de tokens de saída, os preços do novo modelo ainda não foram divulgados, e o acesso à API está previsto para breve.

Para os usuários do ChatGPT Plus, os limites são de 45 a 225 mensagens locais e de 10 a 60 tarefas na nuvem a cada cinco horas. Já os usuários Pro contam com uma capacidade consideravelmente maior, com limites de 300 a 1.500 mensagens locais e de 50 a 400 tarefas na nuvem no mesmo período.

Nova técnica permite sessões de codificação com duração de um dia

A OpenAI afirma que, em testes internos, o modelo consegue manter o foco em uma única tarefa por mais de 24 horas, sendo capaz de lidar com funções como corrigir falhas em testes ou iterar implementações. Para gerir essas longas sessões, o processo chamado “compaction” é utilizado: quando a janela de contexto é preenchida, o histórico da sessão é automaticamente comprimido, resumindo as informações essenciais e descartando detalhes menos relevantes. Dessa forma, a inteligência artificial consegue reter a tarefa principal e os pontos chave em meio a milhões de tokens. O GPT-5.1-Codex-Max é o primeiro modelo treinado de forma nativa para operar dessa maneira em múltiplas janelas de contexto.

No campo da segurança, a OpenAI destaca que este é seu modelo de cibersegurança mais avançado até o momento, embora ainda não atinja o limiar interno de “Alta Capacidade”. A empresa planeja oferecer apoio aos defensores com ferramentas específicas, mas alerta para a necessidade de que os desenvolvedores revisem cuidadosamente o trabalho do modelo antes de sua implantação, já que ele não substitui a análise humana.

Segundo a OpenAI, a revisão do trabalho do modelo torna-se cada vez mais crucial à medida que o Codex assume tarefas mais prolongadas, principalmente porque o sistema ainda pode cometer erros. Conforme o modelo gera mais código, a verificação e a compreensão para futuras depurações se tornam desafios maiores, o que pode anular os ganhos de eficiência. Para auxiliar nesse processo, o Codex produz logs de terminal com informações sobre chamadas de ferramentas e resultados de testes, atuando como um revisor adicional, e não como substituto da avaliação humana.