Lançamento da Mistral 3
A startup francesa de IA, Mistral, lançou sua nova família de modelos de pesos abertos, a Mistral 3, nesta terça-feira – um conjunto de 10 modelos que inclui um grande modelo de fronteira com capacidades multimodais e multilíngues, além de nove modelos menores, capazes de operar offline e totalmente personalizáveis.
O lançamento ocorre em um momento em que a Mistral, responsável pelo desenvolvimento de modelos de linguagem de pesos abertos e do chatbot de IA voltado para a Europa, Le Chat, parece estar buscando alcançar os modelos proprietários de ponta do Vale do Silício. Fundada há dois anos por ex-pesquisadores da DeepMind e da Meta, a empresa já arrecadou aproximadamente US$ 2,7 bilhões, com uma avaliação de US$ 13,7 bilhões – uma quantia modesta se comparada aos números obtidos por concorrentes que levantaram recursos muito superiores.
A Mistral, entretanto, tenta demonstrar que maior nem sempre significa melhor – especialmente para aplicações empresariais.
“Nossos clientes, por vezes, optam inicialmente por um modelo [fechado] muito grande, que não precisa de ajuste fino… mas, ao implementá-lo, percebem que ele é caro e lento”, explicou Guillaume Lample, cofundador e cientista-chefe da Mistral. “Depois, eles recorrem a nós para ajustar modelos pequenos de forma a atender ao caso de uso de maneira mais eficiente.”
Na prática, a grande maioria dos casos de uso empresarial consiste em tarefas que podem ser solucionadas por modelos pequenos, especialmente se estes forem ajustados conforme a necessidade. Segundo Lample, embora os benchmarks iniciais posicionem os modelos menores bem abaixo dos concorrentes proprietários, essa comparação pode ser enganosa. Grandes modelos de fonte fechada podem oferecer um desempenho superior imediato, mas os verdadeiros ganhos acontecem após a personalização.
“Em muitos casos, é possível igualar ou até superar os modelos proprietários”, afirmou Lample.
Evento em São Francisco
O grande modelo de fronteira, denominado Mistral Large 3, foi apresentado em evento realizado em São Francisco, de 13 a 15 de outubro de 2026. Ele reúne importantes capacidades presentes em modelos proprietários maiores, como os avançados da OpenAI e do Google, ao mesmo tempo em que compete com diversos concorrentes de pesos abertos.
O Large 3 destaca-se por ser um dos primeiros modelos de fronteira abertos a integrar, em uma única solução, capacidades multimodais e multilíngues. Essa abordagem o coloca em pé de igualdade com modelos como o Llama 3 da Meta e o Qwen3-Omni da Alibaba. Enquanto muitas empresas combinam modelos de linguagem robustos com modelos multimodais separados, a Mistral já havia adotado essa estratégia anteriormente com modelos como o Pixtral e o Mistral Small 3.1.
Com uma arquitetura de “Mistura Granular de Especialistas” que conta com 41 bilhões de parâmetros ativos (675 bilhões no total), o Large 3 processa informações de maneira eficiente em uma janela de contexto de 256 mil tokens, proporcionando tanto velocidade quanto capacidade. Isso o torna adequado para processar documentos extensos e atuar como assistente inteligente em tarefas corporativas complexas, incluindo análise de documentos, codificação, criação de conteúdo, assistentes de IA e automação de fluxos de trabalho.
A linha de modelos pequenos: Ministral 3
Com a nova família de modelos pequenos, denominada Ministral 3, a Mistral aposta que modelos menores não são apenas suficientes para muitas aplicações – eles podem ser até superiores. A linha conta com nove modelos densos de alto desempenho distribuídos em três tamanhos (14B, 8B e 3B parâmetros) e divididos em três variantes: Base (o modelo pré-treinado fundamental), Instruct (otimizado para conversação e fluxos de trabalho de assistente) e Reasoning (aperfeiçoado para lógica complexa e tarefas analíticas).
Essa variedade permite que desenvolvedores e empresas escolham o modelo que melhor se adequa às suas necessidades, seja em termos de performance, eficiência de custos ou funcionalidades especializadas. Segundo a Mistral, os modelos Ministral 3 apresentam desempenho igual ou superior em comparação com outros líderes de modelos de pesos abertos, além de serem mais eficientes e gerarem menos tokens para executar tarefas semelhantes. Todas as variantes suportam capacidades de visão, operam com janelas de contexto de 128K a 256K tokens e funcionam em múltiplos idiomas.
Eficiência e Acessibilidade
Um ponto central da proposta é a praticidade. Lample enfatiza que o Ministral 3 pode ser executado usando apenas uma GPU, viabilizando sua implementação em hardware acessível – desde servidores locais até laptops, robôs e outros dispositivos de borda, que podem ter conectividade limitada. Essa característica é relevante tanto para empresas que preferem manter seus dados internamente quanto para estudantes que necessitam de feedback offline ou equipes de robótica que operam em ambientes remotos. Segundo Lample, maior eficiência se traduz diretamente em acessibilidade ampliada.
“Faz parte da nossa missão garantir que a IA seja acessível a todos, especialmente para aqueles sem acesso à internet”, ressaltou.
Outras empresas também estão explorando soluções que priorizam a eficiência: o mais recente modelo empresarial da Cohere, o Command A, funciona com apenas duas GPUs, enquanto sua plataforma de agentes de IA North pode ser executada com uma única GPU.
Essa preocupação com acessibilidade tem impulsionado o foco da Mistral em integrar seus modelos físicos em aplicações práticas. No início deste ano, a empresa iniciou trabalhos para incorporar seus modelos menores em robôs, drones e veículos. A Mistral está colaborando com agências e startups para desenvolver modelos especializados que abrangem desde sistemas de cibersegurança e prevenção de incêndios até assistentes de IA para automóveis.
Para a Mistral, a confiabilidade e a independência são tão essenciais quanto o desempenho dos modelos. “Utilizar uma API de um concorrente que fica fora do ar por meia hora a cada duas semanas – se você é uma grande empresa, não pode se dar ao luxo disso”, concluiu Lample.