Meta lança Llama 4: nova geração de modelos de IA

A Meta lançou uma nova coleção de modelos de inteligência artificial, a Llama 4, integrante da família Llama – e isso aconteceu em um sábado. A coleção conta com quatro novos modelos: Llama 4 Scout, Llama 4 Maverick e Llama 4 Behemoth. Todos foram treinados com grandes quantidades de texto, imagens e vídeos não rotulados para oferecer uma compreensão visual ampla.

O sucesso de modelos abertos de um laboratório chinês de IA acelerou o desenvolvimento da nova geração. A Meta teria reunido equipes para entender como esses concorrentes conseguiram reduzir os custos de operação e implantação dos modelos anteriores.

Enquanto os modelos Scout e Maverick estão disponíveis abertamente através do Llama.com e de parceiros da Meta, como a plataforma de desenvolvedores de IA Hugging Face, o modelo Behemoth ainda se encontra em treinamento. A assistente de IA da Meta, presente em aplicativos como WhatsApp, Messenger e Instagram, já foi atualizada com a Llama 4 em 40 países, com recursos multimodais restringidos ao inglês nos Estados Unidos.

Usuários e empresas sediadas na União Europeia estão proibidos de utilizar ou distribuir esses modelos, em conformidade com as exigências das leis de IA e privacidade de dados da região. Além disso, empresas que ultrapassam 700 milhões de usuários ativos mensais devem solicitar uma licença especial, a qual a Meta pode conceder ou negar conforme seu critério.

Segundo a Meta, “estes modelos Llama 4 marcam o início de uma nova era para o ecossistema Llama. Este é apenas o começo para a coleção Llama 4”.

489528324 1866126614188079 2353760794201377773 n

A Llama 4 é a primeira linha de modelos da Meta a utilizar a arquitetura de mistura de especialistas (MoE), uma abordagem que torna o treinamento e a resposta a consultas mais eficientes em termos computacionais. Essa arquitetura fragmenta as tarefas de processamento de dados em subtarefas, delegando-as a modelos especializados, ou “especialistas”.

Por exemplo, o modelo Maverick possui 400 bilhões de parâmetros totais, mas apenas 17 bilhões de parâmetros ativos distribuídos por 128 especialistas. Já o Scout conta com 17 bilhões de parâmetros ativos, 16 especialistas e 109 bilhões de parâmetros no total.

Testes internos indicam que o Maverick, ideal para funções de assistente geral e conversas, supera modelos anteriores em determinadas métricas de codificação, raciocínio, aptidão multilingue, processamento de contextos extensos e análise de imagens. Todavia, ainda não se equipara aos modelos mais recentes e avançados, como alguns dos maiores concorrentes do mercado.

O Scout se destaca em tarefas como a sumarização de documentos e a análise de grandes bases de código. Um diferencial notável é sua capacidade de processar uma janela de contexto de 10 milhões de tokens, o que possibilita trabalhar com documentos extremamente longos. Além disso, o Scout pode operar em uma única GPU Nvidia H100, ao passo que o Maverick requer um sistema mais robusto, como o Nvidia H100 DGX ou equivalente.

O modelo Behemoth, que ainda não foi lançado, necessitará de hardware ainda mais potente. Com 288 bilhões de parâmetros ativos, 16 especialistas e quase dois trilhões de parâmetros totais, os testes internos da Meta demonstram que ele supera concorrentes em avaliações de habilidades em STEM, como a resolução de problemas matemáticos.

Nenhum dos modelos Llama 4 foi projetado especificamente como um “modelo de raciocínio” – os chamados modelos que verificam a veracidade das respostas e tendem a demorar mais para respondê-las. Essa característica permite que os modelos tradicionais ofereçam respostas de forma mais ágil.

488655517 650996354186993 1043942188415715102 n

De forma interessante, a Meta afirmou que ajustou todos os seus modelos Llama 4 para se recusar a responder perguntas consideradas “polêmicas” com menor frequência. Assim, o Llama 4 está preparado para abordar tópicos políticos e sociais amplamente debatidos, algo que os modelos anteriores evitavam. A empresa acrescenta que o modelo se mostra “dramaticamente mais equilibrado” ao selecionar os prompts que ignora.

“Você pode contar com o Llama 4 para fornecer respostas úteis e baseadas em fatos, sem julgamentos”, afirmou um porta-voz da Meta, ressaltando que os aprimoramentos visam tornar o sistema mais responsivo e capaz de lidar com diferentes pontos de vista sem favorecer uns em detrimento de outros.

Esses ajustes chegam em um momento em que aliados da Casa Branca criticam os chatbots de IA por supostamente adotarem posturas demasiadamente “politicamente corretas”. Em meio a diversas controvérsias, a Meta se posiciona em um cenário que evidencia a complexidade do viés em inteligência artificial – um desafio técnico que também tem sido enfrentado por outras empresas do setor, que vêm aprimorando seus modelos para responder a uma ampla gama de questões, inclusive as mais controversas.