DeepSeek V4: o modelo trilionário que ninguém consegue lançar
-
Lucas Ferreira - 31 Mar, 2026
O DeepSeek V4 deveria ter sido o modelo que provava que a China consegue competir no frontier da IA sem chips americanos. Um trilhão de parâmetros. Arquitetura MoE com 37 bilhões ativos por token. Multimodal — texto, imagem, vídeo. Otimizado para rodar em silício chinês da Huawei e Cambricon. O lançamento estava previsto para o início de março, antes das “Two Sessions” — o maior evento político anual da China, onde IA seria vitrine de soberania tecnológica.
Março acabou. O V4 não saiu.
O que se sabe sobre o modelo
O DeepSeek V4 é ambicioso em todos os eixos. Um trilhão de parâmetros totais com arquitetura Mixture of Experts, ativando apenas 37 bilhões por token na inferência. Na teoria, isso combina a capacidade de um modelo massivo com o custo computacional de um modelo médio. O V3, com 671 bilhões de parâmetros e 37B ativos, já havia demonstrado que essa abordagem funciona. O V4 escala o conceito.
A grande novidade técnica é a Engram memory architecture — um sistema de memória persistente que, segundo números vazados, atinge 97% no benchmark Needle-in-a-Haystack com janela de 1 milhão de tokens. Se confirmado, isso colocaria o V4 no mesmo patamar do Claude Opus 4.6 e do Gemini Ultra em capacidade de contexto longo.
O modelo também é multimodal de nascença: processa texto, imagem e vídeo no mesmo pipeline. Não é uma extensão bolada depois — a multimodalidade foi projetada desde a arquitetura base. Isso importa porque multimodalidade nativa tende a gerar resultados mais coerentes do que adaptações pós-treinamento.
O calendário que não se cumpriu
A DeepSeek planejava lançar o V4 completo antes das Two Sessions, que começaram em 5 de março. A lógica era política e comercial: mostrar ao governo chinês e ao mundo que um laboratório chinês consegue entregar modelos frontier treinados em hardware chinês, mesmo sob as restrições de exportação americanas.
Não aconteceu.
Em 9 de março, uma versão chamada V4 Lite apareceu brevemente no site da DeepSeek. Não houve anúncio formal. O modelo ficou acessível por algumas horas e saiu do ar. Analistas que conseguiram testar reportaram que era uma versão reduzida — provavelmente o modelo destilado, não o modelo completo. Não houve comunicação oficial.
Desde então, silêncio. Nenhum paper, nenhum blog post, nenhum anúncio de data. O site da DeepSeek continua oferecendo o V3 como modelo principal. Comunidades no Weibo e no X especulam, mas ninguém tem informação concreta.
O que provavelmente está travando
Treinar um modelo de 1T parâmetros é difícil. Treinar em chips que não são NVIDIA é mais difícil. Os indícios apontam para dois gargalos principais.
Hardware chinês ainda não é NVIDIA. O DeepSeek V4 foi otimizado para chips Huawei Ascend 910B e Cambricon MLU370. São os melhores aceleradores de IA fabricados na China, mas os benchmarks públicos mostram que o Ascend 910B entrega cerca de 60-70% da performance de uma NVIDIA H100 em tarefas de treinamento de modelos grandes. Isso significa que o mesmo treinamento leva mais tempo, consome mais energia e tem mais chance de falha em clusters grandes.
Treinar um modelo de 1T parâmetros exige milhares de aceleradores trabalhando em sincronia por semanas. Quanto menos eficiente o chip, maior a chance de instabilidades no treinamento — spikes de loss, checkpoints corrompidos, comunicação entre nós que não escala. O DeepSeek já demonstrou engenhosidade com o V3, usando paralelismo e otimizações criativas para compensar as limitações de hardware. Mas com o V4 o desafio é de outra escala.
Multimodalidade nativa é mais cara do que se imagina. Processar texto, imagem e vídeo no mesmo modelo, desde o pré-treinamento, multiplica a quantidade de dados necessários, a complexidade do pipeline e o número de hiperparâmetros que precisam ser ajustados. O GPT-4 da OpenAI também levou mais tempo que o esperado por causa da multimodalidade. E a OpenAI tinha H100s à vontade.
A dimensão geopolítica
Os adiamentos do V4 não são apenas uma história técnica. São geopolítica em código.
Os Estados Unidos restringiram a exportação de chips avançados de IA para a China em outubro de 2022, com atualizações em 2023 e 2024. O objetivo declarado é impedir que a China desenvolva modelos frontier que possam ser usados em aplicações militares e de vigilância. A resposta chinesa foi acelerar o desenvolvimento de silício doméstico.
O DeepSeek V4 é, nesse contexto, um teste de viabilidade. Se a DeepSeek consegue entregar um modelo competitivo com o GPT-5 usando apenas hardware chinês, as restrições americanas perdem parte da eficácia. Se não consegue — ou se consegue com atrasos significativos — a dependência de silício americano fica exposta.
Cada semana de atraso reforça o argumento de que as restrições de exportação estão funcionando. Não é coincidência que Washington esteja acompanhando de perto.
E o Brasil?
O DeepSeek V3 se tornou um dos modelos mais usados por desenvolvedores brasileiros. O motivo é simples: custo. A API do V3 cobra uma fração do que cobram OpenAI e Anthropic. Para startups e devs independentes que operam em real, a diferença é brutal — especialmente quando o dólar está acima de R$ 5,50.
Um V4 funcional ampliaria isso. Multimodalidade a preço de DeepSeek seria um divisor para aplicações brasileiras que hoje não conseguem justificar o custo de usar GPT-4 ou Claude para processar imagens e vídeos. Healthtechs, edtechs, agritechs — tem demanda real por multimodalidade barata no Brasil.
Mas enquanto o V4 não sai, a dependência do V3 continua. E o V3, por melhor que seja, não tem multimodalidade, tem janela de contexto menor e está ficando para trás na comparação com os lançamentos recentes de Anthropic e OpenAI.
O que os adiamentos dizem
Há uma narrativa confortável no mundo da IA: a de que o progresso é inevitável e linear. Modelos ficam maiores, melhores e mais baratos a cada trimestre. A realidade é mais complicada.
O DeepSeek V4 mostra que modelos frontier continuam sendo projetos de engenharia de altíssima complexidade. Não basta ter a arquitetura certa no paper. É preciso hardware confiável, dados de qualidade em escala massiva, infraestrutura de treinamento estável e — talvez o mais subestimado — tempo.
A DeepSeek vai lançar o V4 eventualmente. A empresa tem talento, capital e motivação política de sobra. Mas o fato de que até eles estão atrasados é um lembrete: na fronteira da IA, promessas são fáceis. Entregas são difíceis.
E quando a entrega depende de hardware que um governo estrangeiro está ativamente tentando negar, são mais difíceis ainda.