Showing Posts From

Nemotron

Nemotron Coalition — NVIDIA, Mistral, Perplexity e Cursor juntos por modelos abertos (ou quase)

Nemotron Coalition — NVIDIA, Mistral, Perplexity e Cursor juntos por modelos abertos (ou quase)

A NVIDIA decidiu que não basta fabricar as GPUs onde os modelos rodam — agora quer organizar quem constrói os modelos. A Nemotron Coalition reúne um lineup que, no papel, impressiona: Reflection AI, Mistral AI, Perplexity, Cursor, LangChain e Black Forest Labs. O objetivo declarado: desenvolver modelos frontier abertos. A pergunta que importa: abertos de verdade ou "abertos"? Quem está na mesa Vamos aos membros e o que cada um traz:Membro O que faz Valuation / RelevânciaNVIDIA Infraestrutura (GPUs, CUDA, NeMo) Líder do ecossistemaReflection AI Modelos frontier, fundada por ex-DeepMind $25B valuationMistral AI Modelos abertos (Mistral, Mixtral, Voxtral) Líder europeu em open-weightsPerplexity Search AI Referência em RAG em produçãoCursor AI code editor ~1M+ devs ativosLangChain Framework de orquestração LLM Padrão de facto em AI appsBlack Forest Labs Modelos de geração de imagem (FLUX) FLUX.1 é o Stable Diffusion killerA Reflection AI é o nome que mais chama atenção. Fundada por ex-líderes do DeepMind, com $25 bilhões de valuation, é a aposta mais cara da coalizão. O fato de ser membro fundador sugere que vai contribuir com capacidade significativa de treinamento de modelos. O que já existe: Nemotron 3 Super A NVIDIA não entrou nessa conversa de mãos vazias. O Nemotron 3 Super já está disponível:120B de parâmetros 60.47% no SWE-Bench Verified — para contexto, isso é enterprise-grade para coding Foco em coding e raciocínio para ambientes corporativos Treinado no stack NeMo da NVIDIAO SWE-Bench Verified é o benchmark que mais importa se você está avaliando modelos para coding em produção. 60.47% coloca o Nemotron 3 Super no mesmo patamar de modelos como Claude 3.5 Sonnet e GPT-4o nas tarefas que esse benchmark mede. Não é state-of-the-art, mas é competitivo — e com weights disponíveis. NemoClaw: deployment enterprise em TypeScript O outro artefato concreto é o NemoClaw — um plugin TypeScript para deployment enterprise do OpenClaw (4.200 stars). A ideia é reduzir a fricção entre "modelo treinado" e "modelo em produção" para equipes enterprise. # Instalação do NemoClaw npm install @nvidia/nemoclaw# Configuração básica npx nemoclaw init --model nemotron-3-super-120bimport { NemoClaw } from '@nvidia/nemoclaw';const deployment = new NemoClaw({ model: 'nemotron-3-super-120b', quantization: 'int8', maxConcurrency: 32, });const result = await deployment.inference({ prompt: "Refactor this function to use async/await", maxTokens: 2048, });Se funciona tão bem quanto o marketing sugere, ainda preciso testar mais a fundo. Mas a direção é certa: abstrair a complexidade de deployment de modelos grandes para que times enterprise não precisem de um PhD em MLOps para colocar um modelo em produção. A pergunta incômoda: open-source ou open-weights? Aqui é onde eu coloco o chapéu de cético. "Open" no mundo de AI em 2026 virou um espectro, não um binário. Vamos olhar o histórico dos próprios membros da coalizão:Membro Licença típica dos modelos Genuinamente open?Mistral Apache 2.0 (alguns), CC BY NC (Voxtral) Depende do modeloNVIDIA Custom NVIDIA license Não (source-available)Black Forest Labs FLUX.1 [dev]: custom non-commercial Não para uso comercialReflection AI Ainda não lançou modelos TBDPerplexity Não treina modelos base N/ACursor Não treina modelos base N/AQuando a Mistral lança o Mistral 7B sob Apache 2.0, isso é open-source. Quando lança o Voxtral sob CC BY NC 4.0, é open-weights para pesquisa. Quando a NVIDIA distribui o Nemotron sob licença custom, é "dê uma olhada mas leia as letras miúdas". A coalizão fala em "modelos frontier abertos". Mas aberto com qual licença? Apache 2.0? MIT? Ou mais uma variação de "weights disponíveis, licença restritiva, uso comercial só via API"? Essa distinção importa. Para pesquisadores e hobbyists, open-weights é suficiente. Para empresas que querem fine-tunar e deployar on-premise, a licença é tudo. E até agora, nenhum anúncio da coalizão especificou licenças dos modelos futuros. O contexto geopolítico: DeepSeek e a corrida por modelos abertos A Nemotron Coalition é explicitamente posicionada como resposta ocidental ao DeepSeek e ao ecossistema de AI aberta da China. Os números dão contexto:4.3 milhões de repos relacionados a AI no GitHub 178% de crescimento YoY em projetos de LLM Ollama: 162K stars — a forma como a maioria dos devs roda modelos localmente Dify: 130K stars — plataforma de AI apps obra/superpowers: 92.1K starsO DeepSeek abriu modelos competitivos com licenças permissivas e forçou o Ocidente a responder. A lógica geopolítica é: se a China lidera em modelos abertos, a infraestrutura de AI global passa a depender de modelos chineses. A coalizão é a tentativa de evitar isso. Mas aqui está o paradoxo: para competir com DeepSeek em abertura, a coalizão precisa ser tão aberta quanto o DeepSeek. E o DeepSeek distribuiu modelos sob MIT License. Se a Nemotron Coalition entregar modelos sob licenças restritivas, o argumento geopolítico cai por terra — devs vão usar o que funciona e é livre, independente de onde vem. O que isso significa para quem constrói com esses modelos Na prática, três cenários possíveis: Cenário otimista: A coalizão entrega modelos frontier com licença Apache 2.0 ou MIT, com qualidade competitiva com GPT-4o e Claude Opus. NVIDIA subsidia o treinamento com hardware, membros contribuem expertise. O ecossistema open ganha um boost real. Cenário realista: Os modelos saem com licenças custom que permitem uso comercial com restrições. Algo tipo "pode usar, não pode competir conosco, precisa atribuir". Útil para a maioria dos casos, mas não é genuinamente open. Os melhores checkpoints ficam atrás de APIs pagas. Cenário cínico: A coalizão vira um veículo de marketing para NVIDIA vender mais H200s e para os membros ganharem visibilidade. Os modelos "abertos" são mid-tier e os frontier de verdade ficam proprietários. Basicamente o que já temos hoje, com um logo bonito. Na minha experiência, a realidade tende a ficar entre o realista e o cínico. E tudo bem — mesmo modelos mid-tier abertos têm valor. Mas é importante calibrar expectativas. O que fazer agora Se você está construindo produtos sobre modelos open:Monitore os releases da coalizão — especialmente as licenças, não só os benchmarks Teste o Nemotron 3 Super se seu caso de uso é coding enterprise — 60.47% no SWE-Bench é relevante Não aposte tudo num único ecossistema — a coalizão pode entregar ou não, tenha abstrações que permitam trocar de modelo Continue acompanhando DeepSeek — a competição é boa para devs independente de quem ganhe# Testar Nemotron 3 Super localmente via Ollama ollama pull nemotron:120b ollama run nemotron:120b "Explain the trade-offs of microservices vs monolith"Limitações e o que não sabemos Para ser transparente sobre os gaps:Nenhum modelo da coalizão foi lançado ainda — tudo é promessa e roadmap Licenças dos futuros modelos não foram definidas publicamente A dinâmica entre membros (que são competidores entre si em vários mercados) pode gerar atrito O funding model não é claro — quem paga o compute? Só a NVIDIA? A Reflection AI, apesar do valuation de $25B, ainda não entregou um modelo públicoVeredito A Nemotron Coalition tem o potencial de ser um marco para modelos abertos no Ocidente. Ou pode ser mais uma aliança corporativa que produz whitepapers e press releases. O histórico de coalizões tech sugere cautela. O que vai definir o sucesso ou fracasso é simples: qual licença vai estar no primeiro modelo frontier que lançarem? Se for Apache 2.0 ou MIT, eu passo a levar a sério. Se for mais uma licença custom com restrições, é marketing. Enquanto isso, o DeepSeek continua lançando modelos competitivos sob MIT. A competição por abertura é a melhor coisa que aconteceu para desenvolvedores. Independente de quem ganhe a corrida geopolítica, quem ganha de verdade é quem roda ollama pull e tem um modelo frontier para usar sem pedir permissão. Vou monitorar e reportar conforme os releases aconteçam. Por enquanto, é tudo promessa — e promessa em tech tem shelf life curto.