GTC 2026: Jensen Huang projeta US$1 trilhão em pedidos e coloca a NVIDIA em órbita — literalmente
-
Lucas Ferreira - 28 Mar, 2026
Um trilhão de dólares. Essa é a projeção de Jensen Huang para o volume de pedidos de chips Grace Blackwell e Vera Rubin até 2027. Na GTC 2026, realizada de 17 a 21 de março em San Jose, o CEO da NVIDIA dobrou a meta anterior — que já era de US$500 bilhões até 2026 — e apresentou uma plataforma que vai muito além de GPUs. E como se uma projeção de treze dígitos não bastasse, anunciou que a NVIDIA vai colocar computação de IA em órbita. Literalmente.
O número impressiona. Mas o que ele significa na prática?
O trilhão em contexto
Primeiro, um detalhe importante: o US$1 trilhão se refere apenas aos chips Grace Blackwell e Vera Rubin. Quando se soma a linha completa — Vera, Groq 3, storage racks e infraestrutura associada — o valor total será maior. Jensen não deu o número consolidado, mas a direção é clara: a NVIDIA quer ser a fornecedora de toda a cadeia de computação de IA, não só de GPUs.
Para colocar em perspectiva: US$1 trilhão é mais do que o PIB da Holanda. É o tipo de cifra que transforma uma empresa de semicondutores em infraestrutura civilizacional. A NVIDIA não está competindo com AMD ou Intel no sentido tradicional. Ela está se posicionando como a TSMC da computação de IA — o elo insubstituível da cadeia.
E daí? Se você trabalha com IA, a dependência da NVIDIA no seu stack provavelmente já é total. Se você investe, a questão é se essa concentração é uma oportunidade ou um risco sistêmico. A resposta honesta é: as duas coisas.
Vera Rubin: plataforma, não chip
Na CES em janeiro, a NVIDIA já tinha apresentado a arquitetura Vera Rubin. Na GTC, ficou claro que Vera Rubin não é um chip — é uma plataforma full-stack. São 7 chips distintos, 5 sistemas em escala de rack e 1 supercomputador. No total, 1,3 milhão de componentes trabalhando juntos.
Os números de performance são difíceis de ignorar: 10x mais performance por watt em relação ao Grace Blackwell. Numa indústria onde data centers consomem a energia de cidades inteiras, eficiência energética é a métrica que realmente importa. Não é sobre ter mais teraflops — é sobre quantos tokens você gera por quilowatt-hora.
A NVIDIA posiciona a Vera Rubin especificamente para IA agêntica — sistemas que não apenas respondem perguntas, mas executam tarefas complexas de forma autônoma. Isso exige inference contínua, memória persistente e latência baixa. A plataforma foi desenhada para esse workload, não adaptada a posteriori.
É um movimento que muda a conversa. Quando a NVIDIA era “só” uma empresa de GPUs, concorrentes podiam atacar nichos. Agora que ela entrega racks completos — CPU, GPU, networking, storage, software — a barreira de entrada para competir subiu de forma brutal.
Groq 3: a aquisição de US$20 bilhões já dando frutos
Lembra quando a NVIDIA adquiriu a Groq por US$20 bilhões em dezembro de 2025? Muita gente achou caro. Três meses depois, a GTC mostrou o Groq 3 LPU integrado ao ecossistema.
O conceito é direto: um rack com 256 LPUs posicionado ao lado dos racks Vera Rubin. As LPUs (Language Processing Units) são chips especializados em inferência de linguagem, não em treinamento. Elas fazem uma coisa e fazem bem: processar tokens com eficiência absurda.
O número que Jensen destacou: 35x mais tokens por watt em comparação com soluções anteriores. Se confirmado em produção, isso muda a economia de inference para qualquer empresa que roda LLMs em escala. O custo por token é a métrica que determina se um agente de IA é viável economicamente ou não. Reduzi-lo em 35x não é uma melhoria incremental — é uma mudança de categoria.
A integração também é um sinal estratégico. A NVIDIA não comprou a Groq para engavetar a tecnologia. Ela comprou para criar um portfólio completo: GPUs para treinamento, LPUs para inferência, tudo no mesmo rack, com o mesmo software stack. É verticalização agressiva.
Space-1: data centers em órbita
Aqui é onde a keynote saiu do previsível. A NVIDIA anunciou o Space-1 Vera Rubin Module — hardware projetado para data centers orbitais. O módulo entrega até 25x mais AI compute para inferência espacial em comparação com o H100.
Os parceiros já estão definidos: Aetherflux, Axiom Space, Kepler Communications, Planet, Sophia Space e Starcloud. Não é uma lista de startups obscuras — Axiom está construindo a estação espacial comercial que vai substituir a ISS.
A aplicação mais imediata: processar dados de sensores e imagens de satélite em órbita, sem precisar transmitir tudo para a Terra. Reduz latência, reduz custo de bandwidth e habilita decisões em tempo real. Um lab chinês já demonstrou, durante a GTC, controle de robôs humanoides usando computação orbital.
Mas Jensen foi honesto sobre o desafio de engenharia: “No espaço não há convecção, só radiação. Temos que descobrir como resfriar esses sistemas.” É o tipo de problema que separa anúncios de marketing de produtos reais. O fato de Jensen ter mencionado a dificuldade, em vez de só mostrar renders bonitos, é um bom sinal.
E daí? Computação em órbita parece ficção científica, mas faz sentido operacional. A quantidade de dados gerados por satélites está crescendo exponencialmente. Mandar tudo para data centers terrestres é caro e lento. Processar no espaço e só transmitir os resultados é engenharia pragmática. A NVIDIA está apostando que esse mercado vai existir — e quer ser a fornecedora desde o primeiro dia.
Wall Street não comprou
Aqui entra o ceticismo saudável. Depois da keynote, as ações da NVIDIA caíram. Investidores esperavam mais detalhes sobre o Vera Rubin Ultra e ficaram com a sensação de que a apresentação foi mais visão do que execução.
É um padrão conhecido. Jensen Huang é um showman extraordinário, e o mercado já aprendeu a separar o espetáculo dos números trimestrais. Uma projeção de US$1 trilhão em pedidos até 2027 é impressionante — mas projeção não é receita. A diferença entre as duas coisas é execução, e a NVIDIA ainda precisa entregar yields satisfatórios na fabricação, manter a cadeia de suprimentos funcionando e convencer clientes de que o Vera Rubin justifica o investimento em migração.
O mercado também está atento à concentração de risco. Se a NVIDIA é a fornecedora de toda a infraestrutura de IA, o que acontece quando ela tem um problema? Um atraso no Vera Rubin impacta não uma empresa, mas uma indústria inteira. Essa dependência é boa para a NVIDIA — até o dia em que não é.
O que muda para quem trabalha com IA
A GTC 2026 confirmou algo que já era tendência: a NVIDIA não é mais uma empresa de chips. É a fábrica de IA do mundo. Chips, racks, software, inferência especializada, computação espacial — tudo integrado, tudo proprietário.
O roadmap futuro já está traçado. A próxima arquitetura se chama Feynman, com uma CPU chamada Rosa — homenagem a Rosalind Franklin. A NVIDIA está nomeando gerações de hardware com cientistas que mudaram o entendimento humano sobre o universo. A mensagem é deliberada.
Para quem depende dessa cadeia — e neste ponto, quase todo mundo que trabalha com IA depende — a pergunta prática é: qual é o seu plano B? Se a resposta é “não tem”, a GTC 2026 deveria ser um alerta. Não porque a NVIDIA vá falhar, mas porque depender de um único fornecedor para infraestrutura crítica é uma decisão que merece ser consciente, não acidental.
A NVIDIA em 2026 é como a TSMC em 2020: todo mundo sabe que a dependência existe, ninguém tem alternativa viável, e todo mundo torce para que nada dê errado. É uma posição confortável para Jensen Huang. Para o resto da indústria, nem tanto.