Em um post no blog, em julho passado, o CEO da Meta, Mark Zuckerberg, afirmou que “vender acesso” aos modelos de IA Llama, disponíveis publicamente, “não é o modelo de negócio da Meta”. No entanto, a empresa realmente obtém parte de sua receita por meio de acordos de compartilhamento, conforme revela um novo documento judicial não redatado.
O documento apresentado pelos advogados dos demandantes na ação por direitos autorais Kadrey contra a Meta, na qual a empresa é acusada de treinar seus modelos Llama com centenas de terabytes de ebooks pirateados, demonstra que a Meta “compartilha uma porcentagem da receita” gerada pelas empresas que hospedam seus modelos Llama para os usuários.
Embora o processo não especifique quais hosts pagam à Meta, a empresa cita em diversos posts parceiros que hospedam os modelos Llama, entre os quais se encontram AWS, Nvidia, Databricks, Groq, Dell, Azure, Google Cloud e Snowflake.
Os desenvolvedores não são obrigados a utilizar um parceiro de hospedagem para empregar um modelo Llama. Os modelos podem ser baixados, ajustados e executados em diferentes hardwares, embora muitos hosts ofereçam serviços e ferramentas adicionais que tornam o processo de implementação mais simples e ágil.
Durante uma teleconferência de resultados realizada em abril, Zuckerberg mencionou a possibilidade de licenciar o acesso aos modelos Llama e sugeriu outras formas de monetização, como serviços de mensagens empresariais e anúncios em “interações de IA”. No entanto, ele não detalhou os termos específicos.
“Se você é alguém como a Microsoft, Amazon ou Google e vai basicamente revender esses serviços, achamos que devemos receber uma parte da receita”, afirmou Zuckerberg. “Esses são os acordos que pretendemos firmar, e já começamos a implementá-los de certa forma.”
Mais recentemente, Zuckerberg ressaltou que a maior parte do valor que a Meta obtém com o Llama advém das melhorias proporcionadas pela comunidade de pesquisa em IA. A Meta utiliza os modelos Llama para alimentar diversos produtos em suas plataformas, incluindo seu assistente de IA, o Meta AI.
“Acredito que é um bom negócio procedermos de forma aberta”, comentou Zuckerberg durante a teleconferência de resultados do terceiro trimestre de 2024. “Isso torna nossos produtos melhores, ao invés de estarmos isolados construindo um modelo que ninguém padroniza na indústria.”
O fato de a Meta poder gerar receita de forma direta com o Llama é significativo, especialmente considerando que os demandantes na ação Kadrey contra a Meta afirmam que a empresa não só utilizou obras pirateadas para desenvolver o Llama, como também facilitou a violação dos direitos autorais ao “semear” esses conteúdos. Segundo os demandantes, a Meta teria empregado métodos de torrenting dissimulados para obter ebooks para treinamento e, em consequência do funcionamento do torrenting, compartilhado esses ebooks com outras pessoas.
A empresa planeja aumentar significativamente seus investimentos em despesas de capital neste ano, impulsionada pelos crescentes aportes em IA. Em janeiro, a Meta anunciou que investiria entre 60 e 80 bilhões de dólares em CapEx em 2025 — aproximadamente o dobro do investimento realizado em 2024 —, com foco principal em centros de dados e na ampliação das equipes de desenvolvimento em IA.
Para equilibrar parte destes custos, a Meta estaria considerando lançar um serviço de assinatura para o Meta AI, o que agregaria capacidades ainda não especificadas ao assistente.
Atualizado em 21/03 às 13h54: Um porta-voz da Meta indicou, por meio de uma transcrição de teleconferência de resultados, contextos adicionais, incluindo um comentário de Zuckerberg sobre a intenção de compartilhar a receita com os grandes hosts dos modelos Llama.