DeepSeek revela margem teórica de 545% em seus modelos de IA
A DeepSeek, um fenômeno chinês de inteligência artificial, revelou números financeiros surpreendentes no último sábado, afirmando que sua margem de lucro “teórica” poderia ultrapassar cinco vezes o valor dos custos. Essa divulgação quebra um pouco o manto de sigilo que envolve os modelos de negócio na indústria de IA.
A startup, com apenas 20 meses de existência, conquistou a atenção de Silicon Valley com sua abordagem inovadora e econômica para a criação de modelos de IA. Em uma publicação na rede X, a empresa revelou que, no último dia de fevereiro, o custo de inferência – que engloba a potência computacional, eletricidade, armazenamento de dados e outros recursos essenciais para o funcionamento dos modelos em tempo real – dos seus modelos V3 e R1, comparado às vendas, resultou em uma margem de lucro de 545% durante um período de 24 horas.
Apesar de os números chamarem atenção, a DeepSeek destacou, em detalhes compartilhados no GitHub, que a receita real é consideravelmente menor por diversos motivos. Entre eles, apenas uma pequena parte dos seus serviços é monetizada, além de oferecer descontos durante os períodos de menor demanda. Adicionalmente, os custos informados não incluem todas as despesas relacionadas à pesquisa, desenvolvimento e treinamento dos modelos.
A divulgação ocorre em um momento em que a rentabilidade das startups de IA e seus modelos de negócio é um tema amplamente debatido entre investidores de tecnologia. Empresas como OpenAI Inc. e Anthropic PBC estão experimentando diversos modelos de receita – desde assinaturas e cobrança por uso até taxas de licenciamento – enquanto corrrem para desenvolver produtos de IA cada vez mais sofisticados. Contudo, esses modelos estão sendo questionados, colocando em xeque a viabilidade de alcançar a lucratividade em um futuro próximo.
Com sede em Hangzhou, a startup também apresentou uma visão geral das suas operações, ressaltando como otimizou o uso da capacidade computacional por meio do balanceamento de carga, distribuindo o tráfego de trabalho entre múltiplos servidores e data centers. A DeepSeek afirmou ter inovado ao otimizar a quantidade de dados processados pelo seu modelo de IA em um determinado período e ao gerenciar a latência – o intervalo entre a consulta do usuário e o recebimento da resposta.
Detalhes Técnicos da Otimização
- Escalonamento em lotes com tecnologia EP entre nós
- Sobreposição de computação e comunicação
- Balanceamento de carga