Google envia modelos Gemini mais rapidamente do que seus relatórios de segurança de IA

Mais de dois anos depois de ter sido pego desprevenido pelo lançamento do ChatGPT, da OpenAI, a Google acelerou drasticamente seu ritmo de lançamentos. No final de março, a empresa apresentou um modelo de raciocínio em IA, o Gemini 2.5 Pro, que lidera a indústria em diversos benchmarks que medem capacidades de programação e matemática. Esse lançamento ocorreu apenas três meses após a estreia de outro modelo, o Gemini 2.0 Flash, que era considerado de ponta na época.

A diretora e chefe de Produto para o Gemini afirmou que essa frequência aumentada de lançamentos faz parte de um esforço concentrado para acompanhar a rápida evolução do setor de IA. Segundo ela, a equipe ainda está definindo a melhor forma de disponibilizar os modelos e obter feedback.

No entanto, esse ritmo acelerado dos lançamentos parece ter gerado um custo para a transparência. A Google ainda não divulgou os relatórios de segurança de seus modelos mais recentes, como o Gemini 2.5 Pro e o Gemini 2.0 Flash, o que gera preocupações de que a empresa esteja priorizando a velocidade em detrimento da clareza e da responsabilidade.

Atualmente, é prática comum em laboratórios de IA de ponta – entre eles OpenAI, Anthropic e Meta – apresentar testes de segurança, avaliações de desempenho e casos de uso sempre que lançam um novo modelo. Esses relatórios, às vezes denominados “system cards” ou “model cards”, foram sugeridos há alguns anos por pesquisadores da indústria e do meio acadêmico, e a própria Google foi uma das pioneiras ao propor esse formato em um artigo de 2019.

De acordo com a responsável, a Google não publicou uma “model card” para o Gemini 2.5 Pro porque o modelo foi considerado um lançamento “experimental”. O objetivo desses lançamentos experimentais é disponibilizar o modelo de forma limitada, coletar feedback e iterar antes de um lançamento em produção. A empresa pretende liberar a “model card” do Gemini 2.5 Pro quando o modelo estiver amplamente disponível, ressaltando que os testes de segurança e as análises por adversários já foram concluídos.

Em comunicado, um porta-voz da Google destacou que a segurança continua sendo uma das principais prioridades da empresa e que mais documentações sobre seus modelos de IA, incluindo o Gemini 2.0 Flash, serão publicadas futuramente. Vale lembrar que o último relatório divulgado foi referente ao Gemini 1.5 Pro, lançado há mais de um ano.

Os “system cards” e “model cards” fornecem informações úteis – e por vezes pouco lisonjeiras – que nem sempre são amplamente divulgadas sobre as IAs. Tais documentos têm ganhado cada vez mais importância, especialmente porque a Google firmou compromisso com os governos de divulgar relatórios de segurança para todos os lançamentos públicos considerados “significativos”.

Enquanto esforços regulatórios nos Estados Unidos, tanto em nível federal quanto estadual, tentam estabelecer padrões para os desenvolvedores de modelos de IA, a adoção tem sido limitada. Apesar de legislações terem sido propostas para criar diretrizes e até mesmo criar um instituto de segurança em IA, a implementação prática desses compromissos ainda encontra desafios significativos.

Ao que tudo indica, a Google está ficando para trás em alguns de seus compromissos de transparência em relação à testagem dos modelos, enquanto entrega novos modelos a uma velocidade nunca vista. Esse cenário é visto como um mau precedente, especialmente à medida que esses modelos se tornam cada vez mais sofisticados e capazes.