
Google apresenta Gemma 3 270M: Modelo compacto para aplicações específicas de IA
O Google lançou o Gemma 3 270M, mais novo integrante da família Gemma 3, projetado para uso eficiente em aplicações de escopo restrito. Com 270 milhões de parâmetros, esta é a variante mais compacta da linha até o momento. Segundo o Google, o modelo foi desenvolvido para desenvolvedores que precisam de uma solução que possa ser ajustada rapidamente e implantada em cenários de tarefas estruturadas, focadas em instruções claras e especializadas.
O Gemma 3 270M utiliza 170 milhões de parâmetros para embeddings – beneficiado por um vocabulário extenso com 256 mil tokens – e 100 milhões de parâmetros para os blocos de transformadores. Essa ampliação do vocabulário melhora a cobertura de tokens raros e específicos de determinados domínios, tornando o modelo uma base robusta para ajustes finos em idiomas ou áreas temáticas específicas.
Desempenho eficiente em ambientes restritos
O modelo se destaca em cenários com alta demanda e tarefas bem definidas, como análise de sentimentos, reconhecimento de entidades, roteamento de consultas e verificações de conformidade. Apesar de seu tamanho reduzido, o Gemma 3 270M também se mostra capaz de executar tarefas criativas, como a geração de histórias simples.
Por ser compacto, o modelo pode ser ajustado em poucas horas, possibilitando sua operação completa em hardware local – uma vantagem importante para o tratamento de dados sensíveis. Em testes internos realizados com um Pixel 9 Pro SoC, a versão quantizada em INT4 consumiu apenas 0,75% da bateria após 25 conversas, o que o consagra como o modelo mais eficiente em termos energéticos da linha Gemma.
Versões e disponibilidade
O Gemma 3 270M é oferecido em duas versões: uma Instruct, treinada para seguir instruções, e uma Pretrained. O modelo pode ser baixado em plataformas como Hugging Face, Ollama, Kaggle, LM Studio e Docker. Também é possível testar o modelo por meio da plataforma Vertex AI ou com ferramentas de inferência populares, como llama.cpp, Gemma.cpp, LiteRT, Keras e MLX. Para ajustes finos, o Google oferece suporte a ferramentas como Hugging Face, UnSloth e JAX.