Showing Posts From
Startups
-
Marina Santos - 17 Apr, 2026
Manycore estreia em Hong Kong com +187% — e a categoria 'spatial intelligence' acaba de entrar no mapa do VC
A Manycore Tech, startup de Hangzhou fundada em 2011, estreou hoje na bolsa de Hong Kong e viu as ações subirem 187% nas primeiras horas de pregão. Captou US$ 156 milhões na IPO, precificou a ação a HK$ 7,62 e fechou o dia em HK$ 18,60. É o primeiro IPO entre as "Seis Pequenas Dragões de Hangzhou" — grupo de startups chinesas que Pequim elegeu como próxima vitrine tecnológica — e virou a primeira companhia listada na categoria que ainda pouca gente sabe nomear: spatial intelligence. O número da abertura chama atenção, mas a história interessante é outra. A Manycore não estreou como empresa de 3D design, que é o que ela foi por quinze anos. Estreou como fornecedora de dados de treinamento para robôs. Esse pivô — e o valuation que ele destravou — é o que importa. O que é spatial intelligence (e por que de repente todo mundo fala disso) Spatial intelligence é o termo guarda-chuva para sistemas de IA que entendem o mundo físico em três dimensões — objetos, trajetórias, colisões, superfícies, volumes. O conceito não é novo (Fei-Fei Li empurra essa pauta desde 2023 com a World Labs), mas o que mudou foi a economia. Em 2025, treinar um modelo de linguagem grande exigia terabytes de texto da web. Em 2026, treinar um modelo que controla um robô humanoide exige terabytes de interação 3D simulada — objetos sendo agarrados, derrubados, empilhados, abertos. Esse tipo de dado é caríssimo de gerar. E é exatamente o estoque que a Manycore acumulou operando a maior plataforma cloud de design espacial da China desde 2011. Em outras palavras: a Manycore gastou quinze anos sem saber que estava sentada em cima de um commodity raríssimo para a era dos humanoides. O pivô foi perceber isso antes do mercado. A tese do investidor O fundador, Victor Huang, é ex-Nvidia — o que ajuda a entender o pitch. A Manycore não está prometendo vender robôs. Está prometendo vender o combustível que os robôs precisam para aprender. É o equivalente a ser a empresa de GPU em vez da empresa de modelo. Vende para todo mundo que está construindo, sem competir com eles. Os compradores imediatos são os fabricantes chineses de humanoides — Unitree, Agibot, Fourier Intelligence, UBTech — que enfrentam o mesmo problema que a Figure e a Tesla: simulação 3D em escala industrial. Os contratos dessa natureza, em geral, não são recorrentes como SaaS, mas são grandes e de margem alta. O mercado comprou a tese e cravou US$ 2,6 bilhões de valuation no primeiro dia. O detalhe geopolítico: uma empresa chinesa vendendo dados de treinamento para robôs chineses, em uma IPO chinesa (Hong Kong), com capital majoritariamente asiático. A cadeia inteira descolada dos EUA. Isso é parte da tese de muitos fundos que entraram, especialmente os soberanos do Golfo e os fundos de Cingapura. Por que isso importa para o Brasil Três camadas, em ordem crescente de relevância para quem constrói no Brasil: Camada 1: o mercado global validou que physical AI é a próxima vaga de capital. O trimestre passado já havia dado pistas — a Eclipse levantou US$ 1,3 bi em round focado em physical AI, a Figure renegociou valuation para US$ 39 bi, a Hark levantou US$ 100 mi de seed. A Manycore abrindo bem na IPO cimenta a tese. Para founders brasileiros que estão em IA generativa pura, vale olhar: a próxima onda tem cheiro de simulação, robótica, sensoriamento. Camada 2: o modelo de negócio "picks and shovels" funciona. A Manycore provou que você não precisa construir o humanoide para capturar valor — basta ser fornecedor crítico de quem constrói. No Brasil, isso é relevante porque construir hardware humanoide por aqui é batalha perdida em 2026 (custo, fornecedor, talento). Construir o dado ou a simulação que alimenta esses sistemas? É possível. Startups brasileiras com dados agrícolas 3D, dados urbanos em LiDAR, dados industriais — todas têm estoque potencial valioso para esse mercado. Ninguém está monetizando ainda. Camada 3: o BNDES e o novo fundo bilionário de IA (anunciado em janeiro) ainda não têm tese de physical AI. A maior parte do capital público brasileiro de IA em 2026 está indo para generativa, modelos de linguagem, agentes. Isso faz sentido pelo hype ocidental, mas ignora o fato de que o valuation por dólar investido em robótica está superando o de LLM nos últimos seis meses. Se eu fosse conselheiro de fundo público hoje, estaria pedindo uma carve-out explícita para physical AI. O contraste com o ecossistema brasileiro No Brasil, as startups de IA em 2026 estão quase todas no verticalzinho seguro: agentes para atendimento, copilotos jurídicos, cópias nacionais do Cursor, RAG para contabilidade. São negócios válidos. Mas quando a Manycore dispara 187% e abre uma categoria inteira de physical AI, o contraste fica constrangedor. Há três fatores que explicam o atraso: Primeiro, custo de simulação. Gerar dado 3D em escala exige GPU em larga escala, e o custo de GPU em real ainda é inibitório para startup early-stage brasileira. A saída razoável é parceria com universidades (USP, Unicamp e UFMG têm clusters subutilizados) — mas isso raramente acontece porque a burocracia mata o tempo de desenvolvimento. Segundo, mercado local de robôs é incipiente. A Manycore vende para fabricantes de humanoides chineses — há dezenas deles. O Brasil não tem equivalente nacional, então quem construir dados aqui precisa vender lá fora. Para founders early-stage, isso adiciona uma camada de dificuldade (comercial internacional, contratos em moeda forte) que muitos não têm estrutura para operar. Terceiro, o capital brasileiro de IA está alocado em teses de 2023. Fundo que levantou em 2024 prometeu investir em generativa, e está cumprindo. Physical AI ainda não tem cheque na praça em peso. O sinal para quem está construindo Se você é founder de IA no Brasil em 2026, a Manycore é um sinal duplo: há capital global grande para categorias novas, e a categoria nova deste ciclo é spatial/physical. Generativa continua relevante, mas o múltiplo está normalizando. Robótica, simulação, sensoriamento — é onde os preços estão abrindo. Se você é investidor, vale a pergunta: seu portfólio tem exposição a physical AI? Se a resposta é "não" ou "indireta via NVIDIA", você está em 2024 enquanto o mercado já está em 2027. E se você é board de empresa grande olhando adoção de IA, adicione "humanoides/robótica colaborativa" na sua agenda de 18 meses. Não porque você vai comprar um amanhã. Porque quando o fornecedor chinês bater na sua porta em 2027 com uma solução custando 30% do equivalente americano, você precisa ter pensado sobre isso antes do CFO descobrir pelo noticiário. A IPO da Manycore hoje não é sobre design 3D. É sobre uma categoria inteira entrando em modo visível. Vale estar atento.
-
Marina Santos - 15 Apr, 2026
Nexus levanta $4,3M para colocar agentes de IA em operação enterprise — e já roda na Orange
A Nexus, startup de Bruxelas fundada por um ex-McKinsey e um engenheiro de IA, acaba de fechar uma rodada seed de $4,3 milhões liderada pela General Catalyst, com participação da Y Combinator, Transpose Platform e Twenty Two Ventures. O pitch é simples: permitir que times de negócio — não engenheiros — deployem agentes de IA que executam workflows completos dentro de sistemas enterprise como CRM, ERP, Slack e Teams. Com mais de 4.000 integrações e compliance regulatório embutido. O que chama atenção não é o valor da rodada — $4,3M é modesto para o hype de agentes. O que chama atenção é que a empresa já tem case em produção com a Orange, uma das maiores telecoms da Europa. O case Orange: de zero a €5M em valor anual A Nexus deployou um agente de IA de onboarding na Orange em quatro semanas. O resultado reportado: 50% de aumento na taxa de conversão de onboarding, gerando mais de €5 milhões em valor de lifetime anual. Para uma startup pre-Series A, ter esse tipo de métrica em um cliente enterprise desse porte é raro. O detalhe técnico relevante: o agente não é um chatbot respondendo perguntas. Ele executa o processo de onboarding de ponta a ponta — coleta dados, preenche sistemas, verifica compliance, e entrega o cliente configurado. É o tipo de agente que a indústria vem prometendo há dois anos, mas que poucos conseguiram colocar em produção com resultados mensuráveis. Por que Bruxelas — e por que isso importa A escolha de Bruxelas como base não é acidental. Com o EU AI Act entrando em fase de enforcement em agosto de 2026, ter uma startup de agentes nascida no coração regulatório da Europa é uma vantagem competitiva. A Nexus construiu compliance como feature, não como afterthought. Para enterprises europeus que precisam de IA com governança, isso resolve uma dor real. Ao mesmo tempo, a empresa opera nos EUA — combinando o rigor regulatório europeu com o mercado americano. É um playbook que estamos vendo mais startups tentarem, mas que poucos executam bem. O mercado de "agentes enterprise" está fragmentando O timing da Nexus é interessante porque o mercado de agentes enterprise está se fragmentando rapidamente. De um lado, os grandes players (Microsoft com Agent 365, Salesforce com Agentforce, ServiceNow) estão integrando agentes em suas plataformas existentes. Do outro, startups verticais como Sierra ($150M ARR), Harvey (jurídico), e agora Nexus (operações enterprise) estão atacando nichos específicos com profundidade. A pesquisa da OutSystems publicada na mesma semana mostra que 96% das empresas já usam agentes de alguma forma, mas 94% estão preocupadas com o "sprawl" — a proliferação descontrolada de agentes sem governança centralizada. Nexus se posiciona exatamente nesse gap: deploy fácil, mas com controle. Conexão Brasil: o gap de deploy Para o ecossistema brasileiro de startups de IA, o modelo da Nexus levanta uma pergunta importante. O Brasil tem empresas construindo agentes — mas quase todas focam no modelo ou na inteligência, não na camada de deploy e governança enterprise. É um gap de mercado. Grandes empresas brasileiras — bancos, telecoms, varejistas — precisam de agentes que se integrem a SAPs, Salesforces e sistemas legados com compliance LGPD. Quem resolver essa camada de integração + governança no contexto brasileiro tem um mercado endereçável significativo. O BNDES e a FINEP já sinalizaram interesse em financiar startups de IA aplicada. Uma startup brasileira que replicasse o playbook da Nexus — agentes enterprise com compliance nativo — teria capital disponível e mercado demandante. O veredito $4,3M é uma rodada pequena, mas a Nexus está jogando smart. Tem case em produção com métrica forte, posicionamento regulatório no lugar certo, e os investidores certos na mesa. A questão é se consegue escalar a base de clientes antes que os incumbents — especialmente Microsoft e Salesforce — dominem a camada de agentes enterprise. Se o case da Orange se repetir em outros clientes enterprise, a Series A vai ser significativamente maior. E mais rápida.
-
Marina Santos - 13 Apr, 2026
MiniMax M2.7: o modelo chinês que se auto-evoluiu por 100 rounds e agora compete com GPT-5.3 Codex
56,22% no SWE-Pro. 57,0% no Terminal Bench 2. ELO de 1495 — o mais alto entre modelos open-source. A MiniMax acabou de soltar o M2.7, e o número que mais importa não está nos benchmarks: é o mecanismo que gerou esses resultados. O modelo se auto-evoluiu por mais de 100 rounds sem supervisão humana e melhorou 30% de desempenho no processo. Isso não é ajuste fino tradicional. É outra coisa. O que é o M2.7 A MiniMax é uma startup chinesa fundada em 2021 em Xangai. Menos conhecida no Ocidente do que Zhipu, Moonshot ou Alibaba, mas com um portfólio de produtos que inclui o Talkie — plataforma de personagens IA com dezenas de milhões de usuários — e o Hailuo, gerador de vídeo que competiu de frente com o Sora. A empresa captou mais de US$600 milhões e tem valuation estimado em US$2,5 bilhões. O M2.7 é um modelo Mixture of Experts (MoE) esparso com 230 bilhões de parâmetros totais. Como todo MoE bem implementado, o custo de inferência é proporcional apenas aos parâmetros ativos por forward pass — não ao total. Isso é relevante para quem vai rodar localmente ou servir via API própria. O modelo está disponível no Hugging Face e já tem suporte no Ollama para quem quer experimentar sem configurar infra. O mecanismo que importa: auto-evolução em 100 rounds Benchmarks de coding são uma coisa. O que diferencia o M2.7 é como ele chegou lá. A MiniMax desenvolveu o que chama de self-evolving scaffold: um loop autônomo onde o modelo analisa trajetórias de falha das próprias tentativas, planeja mudanças no scaffold de código que usa para resolver tarefas, implementa essas mudanças, roda avaliações e decide se mantém ou reverte cada alteração. Mais de 100 rounds desse processo, sem intervenção humana. O resultado foi uma melhoria de 30% de desempenho em relação à versão base. Para ter clareza sobre o que isso significa: não é o modelo retreinando a si mesmo — os pesos não mudam. O que evolui é a estratégia de scaffolding que o modelo usa para abordar problemas complexos de software engineering. É parecido com o que acontece quando um desenvolvedor aprende que sua abordagem de debugging estava errada e ajusta o processo — exceto que aqui o desenvolvedor é o próprio modelo e o ciclo de aprendizado é autônomo. É um sinal da direção que os agentes de código estão tomando: menos prompt engineering manual, mais auto-otimização do processo de resolução. Os benchmarks em contextoModelo SWE-Pro Terminal Bench 2 ELO GDPval-AA TipoMiniMax M2.7 56,22% 57,0% 1495 Open-sourceGPT-5.3 Codex ~56% ~57% — ProprietárioGLM-5.1 (Z.ai) 58,4% — — Open-sourceClaude Opus 4.6 — — — ProprietárioDois pontos que precisam de contexto antes de qualquer conclusão. Primeiro: o GLM-5.1, lançado pela Z.ai (braço de IA da Zhipu) no mesmo período, atingiu 58,4% no SWE-Bench Pro — superando tanto o GPT-5.4 quanto o Claude Opus 4.6. Isso significa que, na semana em que o M2.7 da MiniMax empatou com o Codex, outro lab chinês já tinha avançado além. A corrida está acelerada a um ritmo que torna qualquer SOTA obsoleto em dias. Segundo: o SWE-Pro mede a capacidade de resolver issues reais de repositórios open-source. É o benchmark mais relevante para coding agents hoje. Atingir 56% não é perfeito — significa que quase metade dos problemas reais ainda não é resolvida. Mas cruzar a linha de 50% com um modelo open-source, disponível para qualquer um rodar, é um marco qualitativo importante. A questão da licença: é realmente open-source? Aqui vale a honestidade. Há debate legítimo sobre se o M2.7 é genuinamente open-source. O modelo é disponibilizado publicamente com pesos acessíveis — o que a maioria das pessoas chama de "open-source" no contexto de IA. Mas a licença inclui restrições para uso comercial, dependendo do volume e do tipo de aplicação. O padrão da indústria é chamar isso de "open-weights" para distinguir de licenças como Apache 2.0 ou MIT. Para um desenvolvedor brasileiro que quer experimentar, fazer fine-tuning pessoal ou usar em projetos internos: sem problema. Para uma startup que quer construir um produto comercial em cima do M2.7 em escala: leia os termos com atenção antes de comprometer arquitetura. Não é diferente do que acontece com Llama, Qwen e vários outros modelos "open-source" da China e do Ocidente. Mas o detalhe importa quando você está tomando decisões de infraestrutura. China está fechando o gap — mais rápido do que parece O M2.7 não acontece no vácuo. Em menos de um semestre, labs chineses abertos entregaram:Kimi K2.5 (Moonshot AI): 1T parâmetros totais, 32B ativos, MIT, liderança em HumanEval+ GLM-5.1 (Z.ai): 58,4% SWE-Bench Pro, supera GPT-5.4 MiniMax M2.7: 56,22% SWE-Pro, auto-evolução em 100 rounds, ELO 1495 DeepSeek V4: arquitetura MoE trilionária com 37B ativosO padrão é consistente: labs chineses com menos acesso a hardware de ponta do que OpenAI, Anthropic e Google estão compensando com inovação arquitetural e de treinamento. MoE eficiente, destilação agressiva, mecanismos de auto-melhoria. A pressão das restrições de exportação americanas de chips está, paradoxalmente, acelerando a criatividade de engenharia. O gap entre modelos proprietários ocidentais e open-source de qualquer origem estava em dois anos em 2023. Hoje está em semanas, e em algumas dimensões já não existe. O que isso muda para startups e devs brasileiros A pergunta prática: o que um desenvolvedor ou startup no Brasil faz com essa informação? Para devs individuais: um coding agent de frontier-level está disponível hoje, de graça, rodando localmente. O M2.7 via Ollama, o GLM-5.1 via HuggingFace, o Kimi K2.5 quantizado numa RTX 4090. Qualquer dev com hardware razoável pode acessar capacidade que custaria centenas de dólares por mês em API proprietária. O custo de entrada para agentes de código sofisticados caiu para zero. Para startups de produto: a vantagem competitiva de APIs proprietárias está encolhendo. Uma startup que constrói um produto de coding assistance em cima do GPT-5.3 Codex paga margem para a OpenAI em cada token. Uma que constrói em cima do M2.7 ou GLM-5.1 pode rodar na própria infra, controlar os dados e reduzir custo variável drasticamente. A decisão build vs. buy vs. self-host ficou muito mais nuançada. Para quem trabalha com compliance: o fato de um modelo rodar localmente — sem dados saindo para APIs externas — é um argumento regulatório relevante. LGPD, contratos com cláusula de confidencialidade, projetos em setores regulados (saúde, financeiro, jurídico) — self-hosting de modelo aberto pode ser a única rota viável. E agora essa rota inclui modelos de capacidade comparável à fronteira. A limitação que ainda importa: modelos chineses foram otimizados para inglês e mandarim. Português é terceira ou quarta língua na melhor das hipóteses. Para tarefas de código em inglês — que é a língua do código — a capacidade é plena. Para raciocínio, redação ou análise de documentos em português brasileiro, o gap com Claude Opus e GPT ainda existe. Não é suficiente para ignorar os modelos abertos, mas é suficiente para planejar com cuidado onde cada um vai. O momento é agora O M2.7 da MiniMax representa algo além de mais um SOTA: um modelo open-source que se aprimora autonomamente, disponível publicamente, que empata com o melhor agente de código da OpenAI. Ao mesmo tempo, o GLM-5.1 já foi além. Para o ecossistema de IA no Brasil — que ainda luta para acessar modelos de frontier via API por conta de custo e latência — a janela que se abre é real e imediata. A questão não é mais "quando open-source vai ser bom o suficiente?". A questão é "quem vai construir os produtos que aproveitam o que já está disponível hoje?" A corrida não está no modelo. Está no produto. E nesse campo, a vantagem dos labs americanos não existe.
-
Marina Santos - 09 Apr, 2026
Eclipse levanta $1.3B para construir startups de physical AI — a nova tese que está mudando venture capital
$1.3 bilhão. É quanto a Eclipse, VC de Palo Alto conhecida por apostar em hard tech, acaba de levantar para um fundo dedicado a physical AI — startups que combinam inteligência artificial com o mundo físico. Robôs que constroem prédios, barcos elétricos autônomos, reciclagem de baterias com ML. O fundo foi anunciado em 7 de abril e representa uma das maiores apostas de venture capital em IA fora do software puro. Os números do fundo O fundo se divide em duas partes: $720 milhões para early-stage e $591 milhões para later-stage. A estrutura não é acidental. A Eclipse não quer apenas investir em startups de physical AI — quer construí-las do zero. O modelo é venture building: a firma identifica lacunas no mercado, recruta founders, monta a empresa e financia desde o dia um. É um contraste direto com o modelo tradicional de VC, que espera startups baterem na porta com deck e tração. A Eclipse está dizendo: o mercado de physical AI é tão novo que não tem founders suficientes. Então vamos criar as empresas nós mesmos. O que é physical AI, afinal Physical AI é o termo que a indústria adotou para descrever sistemas de inteligência artificial que interagem diretamente com o mundo real. Não é chatbot, não é geração de imagem, não é copilot de código. É IA que move coisas, constrói coisas, opera coisas. Os setores-alvo do fundo da Eclipse:Transporte — veículos autônomos, logística inteligente Energia — otimização de grid, manutenção preditiva Infraestrutura — construção autônoma, inspeção com drones Compute — data centers, chips especializados Defesa — sistemas autônomos, surveillanceO portfólio existente da Eclipse já dá o tom. A firma é investidora da Cerebras (chips de IA), Arc (barcos elétricos), Redwood Materials (reciclagem de baterias), Bedrock Robotics (construção autônoma), Wayve (direção autônoma) e Mind Robotics (robótica industrial). Não é uma tese teórica — é uma tese com portfolio. O contexto de mercado O timing não é coincidência. O Q1 de 2026 bateu recordes: $300 bilhões em venture capital global, com 80% indo para IA. Mas a concentração é brutal — $188 bilhões foram para apenas quatro empresas (OpenAI, Anthropic, xAI, Waymo). O que sobra para o resto do ecossistema? É aí que a tese da Eclipse fica interessante. Enquanto a maior parte do capital de IA vai para modelos de linguagem e infraestrutura de software, a Eclipse está apostando que a próxima onda de valor está na camada física. Modelos de linguagem são commoditizáveis — robôs que operam em ambientes reais, não. A NVIDIA endossa essa visão. O GTC 2026 dedicou metade da programação a physical AI e robótica. O Jensen Huang repetiu em três keynotes que "o próximo grande mercado de IA é o mundo físico". Quando o CEO da empresa que vende as pás na corrida do ouro diz para onde cavar, presta-se atenção. O que isso significa para o Brasil Aqui é onde a coisa fica interessante — e frustrante ao mesmo tempo. O Brasil tem setores inteiros que são candidatos perfeitos para physical AI: agronegócio, mineração, logística, energia. Um país continental com infraestrutura de transporte precária, uma matriz energética diversa e complexa, e uma agricultura que já é referência global em uso de tecnologia. Se existe um mercado onde robôs autônomos, drones inteligentes e manutenção preditiva podem gerar impacto real, é aqui. Mas o capital não está aqui. O BNDES anunciou um fundo de R$ 1 bilhão para IA, mas o foco tem sido software e serviços digitais. A FINEP financia projetos de pesquisa, mas a ponte entre lab e produto ainda é longa. Não existe hoje no Brasil um fundo do porte da Eclipse dedicado a physical AI. A oportunidade é dupla: startups brasileiras que resolvem problemas de physical AI nos setores onde o Brasil é forte (agro, mineração, energia), e VCs internacionais como a Eclipse que podem olhar para o Sul como mercado de aplicação. Um robô autônomo que opera em uma mina na Austrália pode operar em Carajás. A pergunta é quem vai fazer a adaptação — uma startup brasileira ou uma australiana. Análise Três pontos para ficar de olho. A tese de venture building funciona em physical AI? Construir startups de software é uma coisa. Construir startups que envolvem hardware, logística, regulação industrial e supply chain físico é outra. A Eclipse está apostando que seu modelo de ecossistema — onde as portfolio companies se tornam parceiras entre si — resolve parte dessa complexidade. É uma aposta ousada. Physical AI vai atrair mais capital? Se a Eclipse levantou $1.3B, outros fundos vão seguir. A questão é se o mercado de physical AI vai gerar os retornos que VC espera no prazo que VC espera. Hardware tem ciclos mais longos que software. E o Brasil? O país tem os problemas certos para physical AI resolver. Falta o capital, os founders e o ecossistema de suporte. Se a próxima onda de VC internacional olhar para physical AI em mercados emergentes, o Brasil deveria estar na lista. Mas só vai estar se começar a construir agora. A Eclipse não está apenas investindo em physical AI. Está construindo a categoria. Para o ecossistema de startups, é um sinal claro: a próxima fronteira de IA não está na nuvem. Está no chão da fábrica.
-
Marina Santos - 07 Apr, 2026
State of AI Agents 2026: 57% das empresas já rodam workflows multi-step — e o gargalo não é o modelo
O State of AI Agents 2026, publicado pela Arcade.dev em parceria com o Google Cloud, traz um retrato que confirma o que o mercado já intuía e adiciona números que ninguém tinha: 57% das empresas já operam workflows de agentes multi-step em produção. Não pilotos. Não demos. Produção real, com dados reais, impactando receita e operação. O dado impressiona menos pelo tamanho e mais pelo que revela sobre maturidade. Há seis meses, a conversa sobre agentes de IA era dominada por provas de conceito e decks de PowerPoint. Agora, mais da metade das organizações pesquisadas cruzou a linha entre experimentação e execução. A pergunta mudou de "agentes funcionam?" para "como escalo sem quebrar o que já existe?". O que o relatório realmente diz Os números do State of AI Agents 2026 merecem contexto, porque sem ele viram manchete de press release. 57% operam workflows multi-step. Isso significa agentes que executam sequências de ações — pesquisar, processar, decidir, agir — sem intervenção humana a cada passo. Não é um chatbot respondendo perguntas. É um sistema que recebe um objetivo e percorre múltiplas etapas para atingi-lo. 16% já têm agentes cross-functional. Esses são os casos mais avançados: agentes que cruzam departamentos, acessam múltiplos sistemas e coordenam ações entre equipes. De 57% para 16% é uma queda expressiva, e ela conta uma história importante: a maioria das empresas conseguiu automatizar dentro de um domínio, mas pouquíssimas conectaram agentes entre domínios. 90% usam agentes em desenvolvimento de software. Este é provavelmente o número mais previsível do relatório. Code assistants, agentes de debugging, pipelines de CI/CD com automação inteligente — o desenvolvimento de software foi o primeiro campo de batalha dos agentes porque os engenheiros que constroem agentes são também seus primeiros usuários. 81% planejam expandir nos próximos 12 meses. Quatro em cada cinco empresas vão ampliar o uso de agentes. É um sinal forte de que quem implementou viu valor suficiente para dobrar a aposta. O gargalo que ninguém resolveu E aqui está o dado que importa mais do que todos os outros: 46% apontam integração com sistemas existentes como o principal desafio. Quase metade. Esse número é persistente. No nosso post sobre o vale da morte dos agentes, a integração com sistemas legados já aparecia como bloqueador número um. Na pesquisa da KPMG com 2.110 líderes, a complexidade de integração liderava o ranking de barreiras há dois trimestres consecutivos. Agora o State of AI Agents 2026 confirma pela terceira vez: o problema não é construir o agente. É conectá-lo ao mundo real da empresa. Um ERP de 15 anos, um CRM com APIs proprietárias, bancos de dados sem documentação, processos que vivem na cabeça de três pessoas do financeiro — esse é o terreno onde os agentes precisam operar. E nenhum modelo foundation, por mais capaz que seja, resolve isso sozinho. É por isso que a camada de integração virou a oportunidade mais clara do mercado de agentes. Empresas como Arcade.dev (que publicou o relatório, não por acaso), MuleSoft, Workato e dezenas de startups menores estão disputando esse espaço. Quem resolver a integração de forma confiável e escalável vai capturar uma fatia desproporcional do valor gerado por agentes. O contexto de mercado: dinheiro, produto e escala Os dados do relatório não existem no vácuo. O primeiro trimestre de 2026 consolidou agentes de IA como categoria de produto enterprise: O Salesforce Agentforce atingiu US$800 milhões em ARR — provando que empresas pagam por agentes quando eles se encaixam em workflows existentes. A Microsoft lançou o Agent 365, integrando agentes diretamente no ecossistema Office. A Okta criou um produto de identidade especificamente para AI Agents, reconhecendo que agentes precisam de autenticação e autorização próprias. Esses movimentos das big techs validam a categoria, mas também comprimem o espaço para startups que não encontraram seu nicho. Se Salesforce e Microsoft oferecem agentes como feature, a startup precisa ser infraestrutura, ou ser vertical o suficiente para justificar existência independente. E o Brasil? A conexão entre esses dados globais e o ecossistema brasileiro é mais direta do que parece. O número de 46% com problemas de integração é, se alguma coisa, conservador para o Brasil. Empresas brasileiras carregam mais débito técnico na média, operam com orçamentos de TI proporcionalmente menores e dependem de sistemas locais (TOTVS, Linx, sistemas legados do governo) que não têm o mesmo ecossistema de conectores e APIs das plataformas americanas. Isso cria um paradoxo interessante: a dor de integração é maior aqui, logo a oportunidade para quem resolve essa dor também é maior. Startups brasileiras que construírem conectores nativos para ERPs locais, integrações com sistemas tributários (SPED, NFe, eSocial) e camadas de orquestração que entendem a complexidade regulatória brasileira têm uma vantagem que nenhuma startup do Vale do Silício pode replicar facilmente. Já vemos sinais disso. Startups como a Nuveo e a Oncase estão explorando automação de processos com componentes de agentes. Os hubs de Recife, Florianópolis e Campinas têm times técnicos com experiência em sistemas complexos de empresas brasileiras — exatamente o tipo de conhecimento que falta em San Francisco. O dado de 90% de adoção em desenvolvimento de software também reflete no Brasil. Ferramentas como Cursor, GitHub Copilot e agentes de código já são padrão em equipes de engenharia brasileiras. A barreira de entrada caiu. O próximo passo — levar agentes para operações, financeiro, jurídico — é onde a partida real começa. O que os números não dizem O State of AI Agents 2026 é otimista por construção. É publicado por empresas que vendem infraestrutura para agentes. Isso não invalida os dados, mas exige leitura com calibração. Os 57% que "rodam workflows multi-step" incluem desde automações sofisticadas de múltiplas etapas até scripts com um LLM no meio que mal se qualificam como agentes. A definição de "multi-step" varia enormemente. Os 81% que planejam expandir podem estar planejando mover um piloto para dois pilotos — não necessariamente escalar para produção enterprise. Cruzando com os dados da KPMG (11% escalam de verdade) e o vale da morte (78% pilotam, 14% escalam), o quadro realista é: a adoção é ampla, a intenção é forte, mas a distância entre rodar um workflow e ter agentes operando como parte central do negócio ainda é enorme. A leitura que importa Três conclusões para quem acompanha este mercado: A categoria se consolidou. Agentes de IA não são mais hype de conferência. São produto, com receita, com métricas de adoção e com problemas reais de escala. O debate agora é operacional, não filosófico. Integração é o novo model training. Assim como treinar modelos era o gargalo de 2023-2024, integrar agentes com sistemas reais é o gargalo de 2026. Quem resolve isso — com plataformas, conectores, middleware — captura o valor. Brasil tem janela. A complexidade local é barreira de entrada para competidores globais e vantagem para quem entende o terreno. Startups brasileiras que posicionarem agentes como solução para dores específicas do mercado local — tributário, compliance, operações em real — têm uma tese clara de produto. Os próximos 12 meses vão separar quem realmente escalou agentes de quem apenas expandiu pilotos. Os 81% que planejam crescer vão descobrir, como 46% já sabem, que o desafio não é o modelo. É o encanamento.
-
Marina Santos - 02 Apr, 2026
AMI Labs (US$1B seed) e Nscale (US$2B Series C): a Europa finalmente joga no mesmo time que o Vale
US$1,03 bilhão em um seed round. Não Series B, não growth equity — seed. A AMI Labs, startup europeia de IA, acaba de levantar a maior rodada seed da história da Europa. Na mesma semana de março de 2026, a Nscale fechou US$2 bilhões em Series C — a maior rodada de venture capital já registrada no continente. Dois recordes absolutos em sete dias. A Europa, que passava os últimos anos assistindo o Vale do Silício concentrar o capital de IA, decidiu que o jogo agora é outro. O que aconteceu em uma semana de março Os números, isolados, já impressionam. Mas o contexto é o que transforma dados em tendência. A AMI Labs levantou US$1,03 bilhão em seed. Para quem acompanha rodadas, um seed de US$1 bilhão soa quase absurdo — e é. No ecossistema americano, seeds dessa magnitude não existem. O maior seed da história global, até pouco tempo, estava na casa dos US$300-400 milhões. A AMI Labs multiplicou isso por três. O sinal é claro: investidores europeus (e globais alocando na Europa) estão dispostos a queimar a largada com cheques que antes só apareciam em Series C ou D. A Nscale, por sua vez, opera na camada de infraestrutura — GPU cloud para IA, competindo diretamente com AWS, Azure e GCP no segmento de compute otimizado para treinamento e inferência de modelos. Os US$2 bilhões em Series C refletem uma tese que já vimos validada nos EUA: quem controla o compute, controla o jogo. CoreWeave levantou capital massivo com essa mesma premissa. Agora a Europa tem a sua aposta própria. E não parou aí. Na mesma semana, a Nebius — plataforma de cloud e IA com raízes na Yandex — recebeu US$2 bilhões da Nvidia. Mais de US$1,2 bilhão foi para startups de robótica europeias. Somando tudo, estamos falando de mais de US$6 bilhões fluindo para IA na Europa em uma única semana de março. Isso não é ruído. É reposicionamento. A Europa que regulava agora financia Por anos, a narrativa sobre a Europa no espaço de IA era previsível: regulação demais, inovação de menos. Enquanto o Vale produzia OpenAI, Anthropic e xAI, e a China escalava DeepSeek e Baidu, a Europa era lembrada pelo EU AI Act, pelo GDPR e por uma postura que muitos founders classificavam como hostil à inovação. Essa leitura sempre foi parcial — a Europa tem centros de pesquisa fortes, a DeepMind nasceu em Londres, a Mistral saiu de Paris com tração real — mas o capital nunca acompanhou. As rodadas europeias eram uma fração do que acontecia nos EUA. O gap não era de talento. Era de cheque. Março de 2026 fecha esse gap de uma vez. O que AMI Labs e Nscale demonstram é que a infraestrutura de capital europeia para IA finalmente existe em escala comparável. Não é mais um ecossistema que financia seed de US$5 milhões e torce para que o founder vá para o Vale captar a Series A. É um ecossistema que escreve cheques de US$1-2 bilhões sem precisar de coinvestidor americano como âncora. A pergunta que importa: isso é sustentável ou é um pico pontual alimentado por FOMO? Minha leitura é que é sustentável, mas com uma nuance importante. O capital europeu para IA não está vindo no vácuo — está vindo junto com o EU AI Act, que entra em vigor pleno em agosto de 2026. Isso significa que as startups financiadas na Europa já nascem dentro de um framework regulatório definido. Compliance não é afterthought. É pré-requisito. O que muda para startups brasileiras Aqui é onde a coisa fica interessante para quem está construindo no Brasil. Nos últimos dez anos, o playbook de expansão de uma startup brasileira de IA era quase sempre o mesmo: crescer no mercado doméstico, captar com fundos locais (Kaszek, Canary, Valor), e quando chegasse a hora de escalar internacionalmente, mirar o Vale. YC, Sand Hill Road, Delaware C-Corp. O caminho era único porque o capital estava concentrado lá. Com a Europa jogando nesse nível, a equação muda. Startups brasileiras que constroem para o mercado enterprise — governança de IA, compliance, agentes verticais — agora têm um segundo polo de capital e mercado. A Europa não é apenas fonte de cheque. É mercado consumidor com demanda real por soluções de IA que já nasçam compliant. E startups brasileiras, que lidam com LGPD e com a complexidade regulatória local, podem ter uma vantagem inesperada: a familiaridade com operar sob regulação desde o dia um. Não estou dizendo que o Vale perdeu relevância — longe disso. OpenAI e Anthropic continuam captando dezenas de bilhões. Mas a existência de uma alternativa real muda a dinâmica de negociação. Founder brasileiro que antes tinha uma única opção de Series A internacional agora pode comparar termos, valuations e condições entre EUA e Europa. Concorrência de capital beneficia quem capta. A conexão mais direta: o EU AI Act cria demanda por ferramentas de compliance, auditoria de modelos, documentação de sistemas de IA. Startups brasileiras que já trabalham com governança de dados e LGPD estão mais perto desse mercado do que parece. O salto de "compliance de dados" para "compliance de IA" é menor do que o salto de "zero regulação" para "EU AI Act compliant". O ceticismo necessário Dito tudo isso, vale manter o pé no chão. Capital recorde não garante resultado recorde. A Europa tem um histórico de financiar grandes rodadas que não se convertem em empresas dominantes globalmente. O que falta, historicamente, não é dinheiro — é a cultura de escalar agressivamente e a tolerância a risco que define o Vale. AMI Labs levantou US$1 bilhão em seed. Ótimo. Agora precisa provar que consegue transformar isso em produto, receita e mercado antes que o capital acabe. O burn rate de uma startup que levanta US$1 bilhão em seed é, por definição, brutal. E a pressão por resultado vai chegar rápido. A Nscale compete com AWS, Azure e GCP. São adversários que têm distribuição global, base instalada e décadas de relacionamento enterprise. Ter US$2 bilhões é necessário. Não é suficiente. Mas o ponto central permanece: a Europa entrou no jogo de IA com capital sério, em múltiplas camadas (modelos, infraestrutura, robótica), em uma escala que não existia seis meses atrás. Para quem constrói startups de IA no Brasil, isso significa mais opções, mais mercado e mais capital acessível. O mapa mudou. Quem ajustar a rota primeiro, captura a vantagem.
-
Marina Santos - 01 Apr, 2026
Accenture + Databricks: enterprise AI agents escalam 327% em 4 meses — quem está comprando e por quê
A Accenture anunciou em 17 de março a criação de um Business Group dedicado com a Databricks. Não é mais uma parceria de go-to-market com logo bonito no slide. É uma divisão inteira da maior consultoria do mundo alocada exclusivamente para deployar agentes de IA em clientes enterprise usando a plataforma Databricks. No mesmo período, dados de mercado mostram que multi-agent systems cresceram 327% em quatro meses no segmento corporativo. Quando a Accenture cria uma unidade de negócio dedicada a um tema, não é porque o tema é promissor — é porque os clientes já estão pedindo e pagando. E esse é o sinal mais claro de que agentes de IA saíram da fase de experimentação e entraram na fase de industrialização. O que 327% de crescimento realmente significa Vamos colocar o número em contexto. Um crescimento de 327% em multi-agent systems no enterprise em quatro meses não é adoção orgânica — é uma corrida. Empresas que tinham um piloto de agente em outubro de 2025 agora estão rodando sistemas com múltiplos agentes coordenados em produção. A diferença entre um agente e um multi-agent system é a mesma diferença entre um funcionário e uma equipe. Um agente faz uma tarefa. Um sistema multi-agente divide um processo complexo em subtarefas, distribui entre agentes especializados, coordena a execução e consolida o resultado. Supply chain, compliance, onboarding de clientes, procurement — são processos que nenhum agente único resolve bem, mas que uma orquestração de agentes pode automatizar de ponta a ponta. É isso que as empresas estão comprando. Não um chatbot. Uma força de trabalho digital que opera processos inteiros. Accenture + Databricks: consultoria vira fábrica de agentes A criação de um Business Group dedicado é um movimento que merece atenção. A Accenture faturou US$64 bilhões no ano fiscal de 2025. Quando uma empresa desse porte cria uma divisão, não é experimento — é resposta a demanda de clientes que já está no pipeline. O casamento com a Databricks faz sentido por um motivo específico: dados. Agentes de IA enterprise não funcionam sem acesso a dados internos da empresa — e a Databricks é a plataforma que mais penetrou nos data lakes corporativos nos últimos três anos. A combinação é Accenture trazendo capacidade de implementação em escala e Databricks fornecendo a camada de dados e compute que os agentes precisam para operar. Na prática, isso transforma a Accenture de consultoria que vende PoC em fábrica que produz e opera agentes em escala. É uma mudança de modelo de negócio disfarçada de parceria estratégica. Onde o budget enterprise de IA está indo em 2026 Os números contam a história. Três data points que mostram para onde o dinheiro corporativo está migrando: Salesforce: US$800M de ARR com Agentforce. Quando a Salesforce reportou esses números, o mercado prestou atenção. US$800 milhões de receita recorrente anual com uma plataforma de agentes lançada há menos de um ano. É revenue real, não pipeline. Significa que milhares de empresas estão pagando mensalmente para ter agentes operando dentro do ecossistema Salesforce — vendas, atendimento, marketing. Microsoft: 100+ agentes em supply chain. A Microsoft não está vendendo agentes como produto isolado. Está embarcando agentes dentro do Dynamics 365, do Copilot e da Azure. Mais de 100 agentes já operam em cadeias de suprimentos de clientes enterprise. Não em piloto. Em produção, tomando decisões sobre inventário, routing e procurement. Accenture: Business Group dedicado com Databricks. O terceiro ponto do triângulo. A maior consultoria do mundo dedicando uma unidade inteira para implementar agentes. Quando o integrador mais importante do enterprise monta uma fábrica de agentes, é porque a demanda já justifica a estrutura. O padrão é inequívoco. O budget de IA enterprise em 2026 está migrando de "experimentação com LLMs" para "operações com agentes". De modelos para sistemas. De PoCs para produção. O que isso diz sobre maturidade do mercado Tem um momento na adoção de qualquer tecnologia em que a conversa muda de "funciona?" para "quem implementa?". Agentes de IA enterprise acabam de cruzar esse limiar. Quando uma empresa quer colocar agentes em produção, ela precisa de três coisas: a plataforma de IA (OpenAI, Anthropic, Databricks, AWS Bedrock), os dados internos organizados e acessíveis, e alguém que faça a integração com os sistemas que já existem. Esse terceiro pedaço — a integração — é o gargalo. E exatamente o gargalo que a Accenture está montando uma divisão para resolver. E não é só a Accenture. Deloitte, McKinsey, Wipro e TCS estão todas acelerando práticas de IA agêntica. A diferença é que a Accenture foi a primeira a criar uma estrutura dedicada com um parceiro de plataforma. É sinalização de que o mercado de serviços de implementação de agentes vai ser tão grande quanto o mercado das plataformas em si. Para quem acompanha startups, a implicação é direta: o channel partner virou tão importante quanto o produto. Uma startup de agentes que não tem rota para o enterprise via integradores vai ter um teto de crescimento baixo. E integradores estão escolhendo parceiros agora. A pergunta que ninguém está fazendo Todo mundo está discutindo qual plataforma de agentes vai vencer. Databricks, Salesforce, Microsoft, AWS. A pergunta mais interessante é outra: quem captura o valor quando agentes viram commodity? Se a história de cloud computing serve como guia, a resposta é: quem controla o workflow. AWS, Azure e GCP dominam não porque têm a melhor infra, mas porque uma vez que seu workload está lá, migrar é caro e doloroso. O mesmo vai acontecer com agentes. Quem define o processo, orquestra os agentes e integra com os sistemas do cliente cria lock-in operacional. É por isso que a Accenture está fazendo esse movimento. A consultoria não quer vender tecnologia — quer ser dona do workflow do cliente. Se a Accenture implementa e opera seus agentes, trocar de fornecedor de plataforma é possível. Trocar a Accenture, não. O que isso significa para o ecossistema Para startups de agentes: a janela de venda direta para enterprise está fechando. Não porque o mercado não quer agentes — quer mais do que nunca. Mas porque o comprador enterprise prefere comprar de quem já está dentro (Salesforce, Microsoft) ou de quem ele confia para implementar (Accenture, Deloitte). Startups que não construírem parcerias de canal agora vão disputar migalhas. Para o ecossistema brasileiro: a onda de agentes enterprise vai chegar via consultorias e system integrators. Accenture tem operação grande no Brasil. Quando o Business Group com Databricks começar a gerar projetos na América Latina, vai precisar de talento local — engenheiros de dados, desenvolvedores de agentes, especialistas em integração. Startups brasileiras que se posicionarem como parceiras de implementação, e não como concorrentes, têm uma oportunidade concreta. O crescimento de 327% em multi-agent systems não é uma estatística. É o mercado votando com o orçamento. E quando consultorias de US$64 bilhões de faturamento criam divisões dedicadas para capturar essa demanda, a mensagem é clara: agentes de IA enterprise deixaram de ser tendência e viraram linha de negócio. A fase de experimentação acabou. A fase de industrialização começou. E quem não está posicionado agora vai assistir de fora.
-
Marina Santos - 01 Apr, 2026
Q1 2026 fecha com US$300B em venture capital — e IA engoliu 81% do bolo
Trezentos bilhões de dólares. Esse é o número que o Crunchbase publicou hoje para o venture capital global no primeiro trimestre de 2026. Recorde absoluto — não de um mês, mas de um trimestre inteiro. Para referência: o Q1 de 2025 somou US$91 bilhões. O crescimento é de 230% em doze meses. O número impressiona. A composição, preocupa. IA absorveu 81% do capital total — US$243 bilhões dos US$300 bilhões. E quatro empresas levaram 64% de tudo que foi investido no planeta: OpenAI, Anthropic, xAI e Waymo. Juntas, US$192 bilhões. O recorde é de concentração, não de distribuição. A anatomia de um trimestre distorcido Vamos reconstruir. Janeiro abriu com a xAI levantando US$20 bilhões em Series E e a Humans& fechando um seed de US$480 milhões. Fevereiro foi o mês que quebrou todos os registros: US$189 bilhões investidos, com a megarrodada de US$110 bilhões da OpenAI e os US$30 bilhões da Anthropic. Março completou o quadro com mais de uma dúzia de rodadas acima de US$100 milhões, agora focadas em infraestrutura, segurança e operações de agentes. Mês a mês, a narrativa mudou — de modelos foundation para trust layer e operações. Mas a concentração de capital, não. As dez maiores rodadas do trimestre representaram mais de 75% dos US$300 bilhões. É uma lei de potência que seria extrema até para o venture capital, um mercado que já opera com distribuição absurdamente desigual. Os dados da Crunchbase mostram que o número de deals globais em Q1 2026 cresceu apenas 12% em relação a Q1 2025. O volume de capital cresceu 230%. Isso significa que o ticket médio explodiu — puxado por megarrodadas que distorcem toda a curva. 81% para IA: o que sobra para o resto Dos US$300 bilhões, US$243 bilhões foram para startups classificadas como IA. Os outros US$57 bilhões se dividiram entre fintech, climate tech, biotech, SaaS e tudo mais. É dinheiro — mas num contexto onde IA engoliu oito em cada dez dólares, categorias inteiras de startups estão competindo por restos. Climate tech, que tinha momentum real em 2024, sentiu o impacto. O funding para startups de energia limpa e descarbonização caiu 18% YoY no Q1 2026, segundo o TechCrunch. Não porque a tese enfraqueceu — os problemas climáticos não desapareceram — mas porque o capital tem custo de oportunidade. Se o LP pode colocar dinheiro num fundo focado em IA e ver retornos de 5x em dois anos, o incentivo para alocar em climate tech com horizonte de dez anos diminui. O mesmo padrão aparece em biotech e fintech. Não há crise — há reorientação gravitacional. O capital não fugiu dessas categorias. Ele foi atraído para um buraco negro chamado IA generativa. Quatro empresas, 64% do capital global Esse é o dado que deveria tirar o sono de qualquer fundador. OpenAI (US$110B), Anthropic (US$30B), xAI (US$20B) e Waymo (US$16B) concentraram, sozinhas, mais da metade de todo o venture capital investido no mundo nos primeiros três meses do ano. Somando as rodadas secundárias e extensões de capital que não aparecem nos headlines, o número sobe para 64%. Não é que o ecossistema parou de receber dinheiro. É que a escala mudou de forma irreversível. Quando uma rodada única de US$110 bilhões existe no mesmo mercado que seeds de US$2 milhões, as duas coisas são venture capital apenas no nome. Na prática, são mercados completamente diferentes operando sob o mesmo rótulo. O capital que foi para OpenAI e Anthropic financia treinamento de modelos com orçamentos de bilhões de dólares. O capital que vai para uma startup early-stage em São Paulo financia seis meses de runway. Chamar os dois de "venture capital" é como comparar o orçamento da NASA com o de um clube de foguetes de universidade. O que isso significa para o early-stage Aqui está o paradoxo: o dinheiro de seed e Series A em termos absolutos cresceu. A Crunchbase reporta que deals de seed somaram US$11,2 bilhões no Q1, contra US$9,8 bilhões no Q1 de 2025 — alta de 14%. Mas como proporção do total, o early-stage caiu de 10,8% para 3,7%. O bolo cresceu tanto que a fatia ficou invisível. Para fundadores, isso cria um ambiente estranho. Levantar um seed de US$3-5 milhões não ficou mais difícil em termos absolutos. Mas a atenção dos LPs, a cobertura de mídia e a dinâmica de mercado estão dominadas por megarrodadas. Quando a Sequoia aloca US$2 bilhões numa única empresa, o incentivo para o partner dedicar tempo a um seed de US$4 milhões diminui. Não por maldade — por economia de tempo. O efeito prático é que fundos especializados em early-stage estão ganhando importância relativa. Os generalistas foram sugados pela gravidade dos megarounds. Quem ainda olha para pre-seed e seed são os fundos que nasceram para isso — e, no Brasil, são poucos. E o Brasil nesse cenário? O ecossistema brasileiro de startups de IA tem 975 empresas ativas e o BNDES planejando um fundo de até R$1 bilhão. São números reais. Mas colocados contra US$300 bilhões globais, o Brasil é um erro de arredondamento. O ticket médio de seed no Brasil gira em torno de US$1,5 a US$2 milhões. Nos EUA, o seed médio para startups de IA passou de US$6 milhões no Q1, com outliers como a Humans& distorcendo a média para cima. A competição é assimétrica por definição — não porque fundadores brasileiros são piores, mas porque operam com 10x menos capital num mercado onde capital virou barreira de entrada. Três caminhos se destacam para startups brasileiras nesse contexto. Primeiro: vertical AI. Construir agentes e automação para setores onde o conhecimento local é vantagem — agro, tributário, saúde pública, logística. Nenhum frontier lab de San Francisco vai treinar um modelo que entende a legislação trabalhista brasileira melhor do que quem vive nela. Segundo: eficiência como estratégia. Quando seu competidor tem US$100 bilhões, gastar menos para resolver o mesmo problema não é limitação — é moat. Terceiro: captar fora. O capital brasileiro é insuficiente para competir em IA. Fundadores que conseguem acessar capital americano ou europeu multiplicam suas chances por uma ordem de magnitude. Onde a concentração leva O Q1 de 2026 confirma uma tendência que não é nova, mas que atingiu um ponto de inflexão. O venture capital global se bifurcou em dois mercados que mal se comunicam. De um lado, megarrodadas para frontier labs e infraestrutura de IA — capital medido em dezenas de bilhões, investidores que incluem fundos soberanos e Big Tech. Do outro, o ecossistema de startups "normais" — seeds, Series A, fundadores com pitch deck e doze meses de runway. O risco não é que o dinheiro acabe. O risco é que a concentração se torne auto-reforçante. Modelos maiores exigem mais capital. Mais capital gera modelos maiores. O ciclo cria uma barreira de entrada que transforma a camada foundation em oligopólio. Para quem constrói na camada de aplicação, isso pode ser oportunidade — modelos melhores e mais baratos como plataforma. Para quem queria competir na camada foundation, o jogo acabou. Trezentos bilhões de dólares em um trimestre. O número é histórico. Mas a pergunta que importa não é quanto entrou — é para onde foi. E a resposta, por enquanto, é que foi para o topo.
-
Marina Santos - 01 Apr, 2026
Salesforce Agentforce bate US$800M de ARR — agentes de IA já são linha de receita, não promessa
A Salesforce acabou de divulgar o resultado fiscal do Q4 2026 e enterrou, com um número, qualquer dúvida sobre a viabilidade comercial de agentes de IA. O Agentforce — a plataforma de agentes autônomos lançada em outubro de 2024 — atingiu US$800 milhões de receita recorrente anual. Crescimento de 169% year-over-year. São 29.000 deals fechados em apenas 15 meses de operação comercial. US$800 milhões. Não é pipeline. Não é projeção de analista. É ARR reportado em earnings call para investidores. Agentes de IA acabaram de se tornar uma linha de receita de quase um bilhão de dólares por ano dentro de uma única empresa. O poder da base instalada O que explica a velocidade? Distribuição. A Salesforce tem 150.000 clientes enterprise que já rodam CRM, Service Cloud, Marketing Cloud e uma constelação de produtos integrados. Quando o Agentforce chega, não precisa convencer o CIO a comprar um conceito novo. Precisa mostrar que o agente resolve um ticket, qualifica um lead ou automatiza um workflow dentro de um sistema que o cliente já usa, já paga e já depende. É a diferença brutal entre vender agentes para quem nunca usou IA e adicionar agentes ao stack de quem já está dentro do ecossistema. A Salesforce não vendeu 29.000 deals do zero — converteu 29.000 clientes existentes em compradores de uma nova camada de valor. Para startups, esse é o dado mais incômodo do earnings call. Não é que o Agentforce seja tecnicamente superior a qualquer concorrente. É que ele chega com CRM, dados do cliente, integrações e billing já resolvidos. A barreira de entrada para o cliente é mínima. Para a startup que compete pelo mesmo orçamento, a barreira é brutal. O mapa de quem está monetizando de verdade Vale colocar o número da Salesforce em contexto com os outros players que cobri aqui nos últimos meses. Salesforce Agentforce: US$800M de ARR. O incumbente. Crescimento por distribuição e base instalada. Modelo SaaS tradicional — cobra por uso dentro da plataforma existente. Não precisou inventar um mercado; adicionou uma feature monstruosa a um produto que já domina enterprise. Sierra: US$150M de ARR. A startup pura de agentes de atendimento, fundada por Bret Taylor (ex-co-CEO da própria Salesforce, aliás) e Clay Bavor. Cresceu de US$26M para US$150M em pouco mais de um ano. Cobra por resultado — por interação resolvida, não por seat. Provou que agentes verticais geram receita recorrente sem base instalada prévia. Harvey: US$11B de valuation. A referência em agentes jurídicos, com 100 mil advogados usando o produto em 1.300 organizações. Rodada de US$200M em março. Não divulga ARR, mas o valuation e a velocidade de adoção sugerem receita crescente e significativa. Rox: US$1.2B de valuation. Agentes autônomos de vendas B2B que substituem SDRs. Avaliação alcançada em março de 2026. Modelo de precificação por resultado — cobra por lead qualificado e reunião agendada. O padrão é claro: quem monetiza agentes de IA não é quem tem o demo mais impressionante. É quem tem distribuição (Salesforce), vertical defensável (Harvey, Sierra) ou modelo de negócio que alinha incentivos (Sierra, Rox). Demo sem distribuição é roadshow. Distribuição sem produto é vaporware. A interseção dos dois é receita. O que US$800M significa para o mercado de agentes Três implicações que importam. Primeiro, budget enterprise para agentes existe e é grande. Quando o CFO de uma Fortune 500 vê que a Salesforce — a empresa na qual ele já confia — gera resultados mensuráveis com agentes, a conversa de "deveríamos experimentar IA?" vira "quanto a mais vamos gastar com IA?". A Salesforce está normalizando a compra de agentes na mesma velocidade que normalizou a compra de CRM em nuvem duas décadas atrás. Isso abre mercado para todo mundo — inclusive para startups que oferecem algo que a Salesforce não cobre. Segundo, o modelo de precificação vai ser campo de batalha. A Salesforce cobra no modelo SaaS tradicional — add-on ao contrato existente. Sierra e Rox cobram por resultado. Quando os dois modelos competem pelo mesmo orçamento, o cliente vai comparar: "pago X fixo à Salesforce pelo agente dentro do meu CRM, ou pago Y variável à Sierra/Rox pelo mesmo trabalho feito?". Essa tensão vai definir margens e modelos de negócio pelos próximos três anos. Terceiro, a janela para startups de agentes horizontais está fechando. Um agente genérico de atendimento, vendas ou suporte que tenta competir head-to-head com o Agentforce dentro de empresas que já usam Salesforce tem uma probabilidade baixíssima de ganhar. A oportunidade real está nos verticais que a Salesforce não cobre — jurídico (Harvey), saúde, compliance, engenharia — e nos mercados onde a Salesforce não domina. O que startups brasileiras precisam entender Aqui é onde eu conecto com o ecossistema que acompanho de perto. O mercado enterprise brasileiro gasta com Salesforce — mas nem de longe na mesma proporção que os EUA. A penetração de CRM enterprise no Brasil ainda tem gaps significativos, especialmente em mid-market e em setores como agro, saúde e governo. Esses gaps são oportunidade. Uma startup brasileira de agentes que tenta competir com o Agentforce dentro de clientes Salesforce está morta antes de começar. Mas uma startup que constrói agentes para verticais brasileiros — atendimento em português com integração a TOTVS, agentes de cobrança que entendem o ciclo de inadimplência local, agentes de compliance que navegam LGPD e regulação setorial — essa não compete com a Salesforce. Compete por um orçamento diferente, num mercado que a Salesforce não atende bem. O dado de US$800M de ARR tem dois lados para founders brasileiros. O lado ruim: o incumbente está monetizando rápido e vai sugar uma fatia enorme do budget global de agentes enterprise. O lado bom: US$800M prova que o mercado existe. Quando a Salesforce valida a categoria, o cliente brasileiro que não é cliente Salesforce também começa a perguntar "e eu, preciso de agentes?". Quem tiver a resposta certa para o mercado local captura essa demanda. Agentes saíram do slide para o P&L Há seis meses, quando escrevi sobre o vale da morte dos agentes — 78% pilotam, 14% escalam — o cenário era de promessa e frustração. O dado da Salesforce não elimina o vale da morte. Ainda tem muita empresa emperrada em piloto. Mas mostra que quem cruza o vale encontra receita real do outro lado. US$800 milhões de ARR em 15 meses. 29.000 deals. 169% de crescimento. Agentes de IA deixaram de ser uma linha no slide de estratégia e viraram uma linha no P&L. A pergunta para quem constrói no espaço não é mais "agentes funcionam?" — é "como eu capturo minha fatia antes que os incumbentes fechem a porta?". A porta ainda está aberta. Mas está fechando rápido.
-
Marina Santos - 31 Mar, 2026
Hark: o fundador da Figure AI aposta US$100M do próprio bolso em 'interface para AGI'
Brett Adcock tem um padrão. Funda empresas ambiciosas, levanta capital agressivamente e aposta em teses que soam impossíveis até provarem que não são. Fez isso com a Vettery (recrutamento, vendida à Adecco), fez com a Archer Aviation (eVTOL, abriu capital via SPAC) e faz com a Figure AI, que construiu robôs humanoides e levantou mais de US$1.6 bilhão em dois anos. Agora, a nova aposta: Hark. A startup saiu de oito meses em stealth com uma tese que chama atenção pela ambição. Hark quer construir a "interface dedicada para AGI" — um dispositivo de hardware combinado com IA personalizada que, segundo Adcock, será o paradigma de interação com inteligência artificial que vai substituir chat e browser. E o detalhe que define o tom: os US$100 milhões iniciais saíram do bolso dele. O que "interface para AGI" significa na prática A tese da Hark parte de uma premissa que, isoladamente, faz sentido: se inteligência artificial geral eventualmente existir, interagir com ela via caixa de texto num navegador é subótimo. Um sistema genuinamente inteligente precisaria de uma interface que capture contexto visual, auditivo e ambiental em tempo real — não apenas texto digitado. Até aí, o argumento é racional. O problema começa quando tentamos traduzir isso em produto. Adcock não divulgou especificações do hardware, data de lançamento ou demonstrações funcionais. O que temos são declarações de visão: hardware proprietário, IA personalizada que aprende o comportamento do usuário, interação multimodal que vai além de tela e teclado. É uma pitch deck ambulante — convincente em PowerPoint, indefinida em engenharia. E aqui mora a tensão. A Hark está vendendo o futuro (AGI precisa de interface nova) enquanto o presente (chat funciona surpreendentemente bem) ainda não esgotou suas possibilidades. ChatGPT, Claude, Gemini — todos evoluíram de caixa de texto para interfaces multimodais com voz, visão e execução de código. A pergunta que a Hark precisa responder é: o que um hardware dedicado faz que um smartphone com app de IA não faz? O cemitério de hardware + IA É impossível analisar a Hark sem olhar para os cadáveres recentes. O Humane AI Pin foi lançado em 2024 como o "dispositivo pós-smartphone". Custava US$699 mais assinatura mensal de US$24. Projetava informações na palma da mão com um laser. As reviews foram devastadoras: lento, impreciso, bateria de 2 horas. A Humane tentou se vender, não encontrou comprador no valor que queria e virou case de estudo de como não lançar hardware de IA. O Rabbit R1 custava US$199 e prometia um "assistente universal" que operava apps por você via um modelo proprietário (LAM — Large Action Model). Na prática, fazia menos que os apps que prometia substituir. As vendas iniciais foram altas por curiosidade, mas o dispositivo acabou em gavetas. Ambos compartilham o mesmo erro: assumiram que IA precisa de um novo form factor antes que a IA em si estivesse boa o suficiente para justificar o form factor. Quando o software ainda está evoluindo a cada trimestre, fixar uma interface de hardware é apostar que você sabe como vai ser a interação com IA daqui a 3 anos. Ninguém sabe. O contra-argumento: por que Adcock pode estar certo Existe um cenário onde a Hark faz sentido. E ele depende de timing. Se AGI (ou algo próximo) chegar nos próximos 3-5 anos — como Anthropic, OpenAI e DeepMind parecem acreditar —, a interação com essa inteligência vai demandar mais do que uma janela de chat. Um sistema que vê o que você vê, ouve o que você ouve, entende seu contexto físico e responde em tempo real precisa de sensores, processamento local e uma interface pensada para fluxo contínuo, não para prompts discretos. Adcock pode estar construindo para esse momento. E o fato de usar US$100 milhões do próprio dinheiro — não de VCs — muda o cálculo. Ele não precisa mostrar métricas de tração em 18 meses. Não tem board cobrando pivots trimestrais. Tem runway para errar, iterar e esperar o momento certo. É uma vantagem estrutural que Humane e Rabbit não tinham. A Figure AI, sua outra empresa, também dá pistas. Adcock construiu robôs humanoides que operam em fábricas — hardware complexo que integra IA em tempo real. Ele sabe fazer hardware funcionar com modelos de IA. A questão é se essa competência em robótica se traduz para dispositivos pessoais, que são um mercado completamente diferente. O que falta na tese Três perguntas que a Hark ainda não respondeu: Distribuição. Hardware pessoal de IA compete com o smartphone. Não em funcionalidade — em hábito. Oito bilhões de pessoas já têm um dispositivo no bolso que faz chamadas, tira fotos e roda apps de IA. Convencer alguém a carregar um segundo dispositivo exige que ele faça algo que o smartphone categoricamente não pode fazer. Modelo de negócio. Hardware é margens baixas, supply chain complexa e ciclos de produto longos. A Apple leva 3 anos para desenvolver um iPhone. A Humane levou 4 anos e falhou. US$100 milhões cobrem prototipagem e primeiras iterações, mas se o produto precisar de escala de manufatura, o capital acaba rápido. Timing de AGI. A tese inteira depende de AGI chegar num horizonte onde o hardware da Hark ainda seja relevante. Se AGI demora 10 anos, a primeira geração do produto vai parecer tão datada quanto um Palm Pilot. O ângulo para o ecossistema Independentemente de a Hark ter sucesso, a movimentação de Adcock sinaliza algo relevante: founders com capital e track record estão começando a apostar que a era do "chat como interface de IA" tem prazo de validade. É uma minoria ainda, mas é uma minoria com dinheiro. Para o ecossistema brasileiro, o aprendizado é indireto mas importante. A maioria das startups de IA no Brasil está construindo sobre a camada de software: agentes, automações, integrações via API. Se a interface mudar, o que está por baixo (os agentes, os modelos, os pipelines de dados) continua valendo. Mas quem apostou toda a experiência do usuário em chat pode precisar repensar. A Hark é uma aposta de US$100 milhões numa pergunta que ainda não tem resposta: como vamos interagir com IA quando ela for inteligente de verdade? Brett Adcock acha que sabe. O cemitério de hardware de IA sugere cautela. E o mercado, como sempre, vai decidir com a carteira.
-
Marina Santos - 31 Mar, 2026
Rox atinge US$1.2B de valuation — agentes autônomos de vendas são o novo SaaS?
A Rox AI acaba de ser avaliada em US$1.2 bilhão. A rodada, reportada pelo TechCrunch em 12 de março, coloca mais uma startup de agentes autônomos no clube dos unicórnios. Mas o que diferencia a Rox não é o valuation — é a tese. A empresa não construiu uma ferramenta que ajuda vendedores a vender melhor. Construiu agentes que substituem vendedores. Especificamente, SDRs: os profissionais de sales development que qualificam leads, fazem cold outreach e agendam reuniões. É uma distinção que parece sutil, mas muda tudo. E com US$20.8 bilhões acumulados em funding no setor de AI agents e 1.040 empresas ativas segundo o Tracxn, entender qual modelo de negócio vence não é exercício teórico — é questão de sobrevivência para quem constrói no espaço. Ferramenta vs. substituto: dois modelos, duas apostas O mercado de vendas B2B assistidas por IA tem dois paradigmas competindo pelo mesmo orçamento. O primeiro é o modelo ferramenta. Startups como Gong, Outreach e Apollo.io construíram plataformas que tornam vendedores mais produtivos. Gravam calls, sugerem follow-ups, automatizam sequências de email. O vendedor continua no centro. A IA é o co-piloto. O modelo de negócio é SaaS clássico: cobra por seat, escala com headcount do cliente. O segundo é o modelo substituto. É onde a Rox se posiciona. O agente não assiste o SDR — ele é o SDR. Pesquisa o lead, personaliza a abordagem, envia a mensagem, interpreta a resposta, qualifica e agenda a reunião. O humano entra quando o lead qualificado chega à reunião. O modelo de negócio é diferente: não cobra por seat (porque não tem seat), cobra por resultado — por reunião agendada, por lead qualificado, por pipeline gerado. A diferença econômica é brutal. Um SDR nos Estados Unidos custa entre US$60 mil e US$90 mil por ano em salário, mais benefícios, ramp-up de 3 meses e turnover médio de 18 meses. Um agente da Rox custa uma fração disso por lead qualificado, não precisa de onboarding e melhora com o tempo em vez de pedir demissão. Por que os investidores estão comprando a tese O valuation de US$1.2 bilhão num mercado onde Sierra já está em US$10 bilhões e Harvey em US$11 bilhões segue uma lógica consistente: agentes que substituem trabalho repetitivo e mensurável atraem capital porque o ROI é imediato e calculável. O cliente não precisa acreditar em transformação digital. Precisa comparar duas planilhas: quanto gasta com um time de 10 SDRs versus quanto gasta com agentes fazendo o mesmo trabalho. Se o output é equivalente e o custo é 70% menor, a decisão se toma sozinha. É o mesmo padrão que vimos na Sierra com atendimento ao cliente — a empresa que acabou de bater US$150 milhões de ARR cobrando por interação resolvida, não por seat. O modelo de precificação por resultado está se tornando o padrão para startups de agentes autônomos. O risco que ninguém está precificando Mas existe um risco estrutural que o mercado parece estar ignorando: dependência de modelo base. Agentes de vendas como os da Rox dependem de LLMs para interpretar contexto, gerar mensagens personalizadas e tomar decisões de qualificação. Quando a OpenAI muda preço de API, quando um modelo tem regressão de qualidade depois de um update, quando um provider sai do ar por duas horas — o agente para. E com ele, o pipeline de vendas do cliente. Para ferramentas SaaS tradicionais, um downtime de API de LLM é um inconveniente. Para um agente que substitui um time inteiro de SDRs, é uma parada de produção. Isso cria uma fragilidade que valuations de US$1.2 bilhão ainda não refletem. E o ecossistema brasileiro? O Brasil tem dois players relevantes no espaço de sales tech. A RD Station — hoje parte da TOTVS — domina inbound marketing e automação para PMEs. A Meetime construiu uma plataforma de inside sales com inteligência conversacional. Ambas operam no modelo ferramenta. A chegada de agentes autônomos como os da Rox apresenta um cenário dual. De um lado, é ameaça. Se o custo de um SDR nos EUA justifica substituição por agente, no Brasil a equação é diferente — SDRs custam menos, mas a produtividade média também é menor. A janela até que agentes de vendas em português tenham qualidade suficiente para competir com SDRs brasileiros não é infinita. De outro lado, é oportunidade. O mercado brasileiro de vendas B2B tem especificidades — ciclos de venda mais longos, relações mais pessoais, decisores que preferem WhatsApp a email — que um agente treinado em dados americanos não captura. Quem construir agentes de vendas nativamente brasileiros, que entendem o ritmo e os canais do mercado local, tem um moat defensável que a Rox não consegue replicar de Mountain View. O que falta é capital. Das 975 startups de IA ativas no Brasil, nenhuma está construindo agentes autônomos de vendas com a ambição (e o funding) da Rox. O BNDES e seu fundo bilionário para IA poderiam mudar isso, mas o ecossistema precisa de founders que pensem em substituição, não apenas em assistência. O que isso sinaliza A Rox não é uma anomalia — é um ponto de dados numa tendência clara. O mercado de agentes autônomos está migrando de "IA que ajuda profissionais" para "IA que faz o trabalho do profissional". Atendimento ao cliente já foi (Sierra). Jurídico está indo (Harvey). Vendas B2B é o próximo. Para quem constrói no espaço, a questão estratégica é simples: você está construindo o último upgrade para o vendedor humano ou o primeiro substituto? Ambos podem funcionar. Mas os valuations — e o capital — estão indo cada vez mais para quem responde a segunda opção.
-
Marina Santos - 30 Mar, 2026
MCP cruza 97 milhões de installs: o protocolo da Anthropic que virou a infraestrutura invisível dos agentes
Em 25 de março de 2026, o Model Context Protocol atingiu 97 milhões de downloads mensais do SDK. No lançamento, em novembro de 2024, eram 2 milhões. Isso é um crescimento de 4.750% em dezesseis meses — a curva de adoção mais rápida de qualquer padrão de infraestrutura de IA na história. Se você está construindo agentes e ainda não integrou MCP, este artigo é um alerta. De protocolo obscuro a infraestrutura de facto Quando a Anthropic lançou o MCP no final de 2024, a reação do mercado foi morna. Mais um protocolo? Mais um padrão aberto que uma empresa cria para servir seus próprios interesses? A desconfiança era compreensível — o histórico de "padrões abertos" controlados por big techs não é exatamente inspirador. O ponto de inflexão veio quando a OpenAI anunciou, em 2025, que adotaria o MCP como padrão de integração para seus agentes. Quando o criador do GPT decide usar o protocolo do concorrente em vez de construir o próprio, o mercado percebe que algo diferente está acontecendo. Google seguiu com o Gemini. Frameworks de agentes como LangChain, CrewAI e AutoGen integraram MCP em suas stacks. Em menos de um ano, a pergunta deixou de ser "vamos suportar MCP?" e virou "qual servidor MCP a gente conecta primeiro?" Hoje são mais de 5.800 servidores MCP — entre comunitários e enterprise — cobrindo bancos de dados, CRMs, provedores de nuvem, ferramentas de produtividade, plataformas de desenvolvimento, e-commerce e analytics. Todo grande provedor de IA suporta o protocolo. Claude, GPT-5.4, Gemini, todos falam MCP. O que o MCP resolve (e por que isso importa mais do que parece) A explicação mais simples: MCP é para agentes de IA o que USB-C é para dispositivos. Um conector universal que padroniza como agentes se conectam a ferramentas e fontes de dados externas. Antes do MCP, cada integração era custom. Quer que seu agente acesse o Salesforce? Escreva um conector. PostgreSQL? Outro conector. Google Calendar? Mais um. Cada combinação de modelo + ferramenta exigia implementação específica. Para uma startup construindo um agente que precisa acessar dez ferramentas, isso significava dez integrações distintas, cada uma com sua autenticação, formato de dados e tratamento de erros. O MCP padroniza tudo isso. Um servidor MCP para o Salesforce funciona com qualquer cliente MCP — seja ele rodando Claude, GPT ou um modelo open-source. O agente não precisa saber como cada ferramenta funciona internamente. Ele fala MCP, o servidor traduz. Um paper recente no arxiv (2603.13417) — "Bridging Protocol and Production: Design Patterns for Deploying AI Agents with MCP" — documenta os padrões de design que estão emergindo. Não é mais teoria. Empresas estão deployando agentes em produção usando MCP como camada de integração padrão. As dores de crescimento de um protocolo que cresceu rápido demais Crescer 4.750% em dezesseis meses tem consequências. O roadmap de 2026 do MCP, detalhado pela The New Stack, aborda problemas reais que surgiram com a adoção em escala. Autenticação e autorização. Quando o MCP era usado por desenvolvedores em ambientes locais, auth era um detalhe. Com servidores enterprise conectando agentes a sistemas críticos — ERP, bancos de dados financeiros, plataformas de compliance — a camada de segurança precisa ser robusta. O roadmap promete um framework de autenticação padronizado, mas por enquanto cada implementação resolve isso de forma diferente. Streaming e estado. Agentes em produção precisam manter contexto entre chamadas e lidar com operações de longa duração. O protocolo original foi desenhado para interações request-response simples. Adaptar isso para fluxos complexos — onde um agente monitora um pipeline de dados em tempo real, por exemplo — exige extensões que ainda estão sendo definidas. Governança de servidores. Com 5.800+ servidores, a qualidade varia enormemente. Alguns são mantidos por enterprises com SLA. Outros são projetos de fim de semana de um desenvolvedor que pode abandonar o repo amanhã. Para empresas que dependem de um servidor MCP em produção, a questão de quem mantém e garante a estabilidade é real. São dores legítimas. Mas são dores de crescimento, não de design. O protocolo funciona. O desafio agora é fazê-lo funcionar em escala enterprise com as garantias que produção exige. O elefante na sala: Anthropic controla o protocolo Não dá para analisar o MCP sem discutir quem o controla. A Anthropic criou o protocolo, mantém o repositório principal e define o roadmap. Sim, é open-source. Sim, qualquer um pode contribuir. Mas a governança é da Anthropic. Isso é ao mesmo tempo uma força e um risco. Força porque garante coerência de design e velocidade de evolução — não há comitê de 47 empresas discutindo a cor do bikeshed. Risco porque a Anthropic é uma empresa com interesses comerciais. Se em algum momento o protocolo evoluir de uma forma que favorece o ecossistema Claude em detrimento de outros, a neutralidade desmorona. Até agora, a Anthropic jogou o jogo certo. Manter o protocolo aberto o suficiente para que a OpenAI adotasse foi um movimento estratégico brilhante. Quando seu maior concorrente usa sua infraestrutura, você não precisa vencer a guerra dos modelos para controlar o ecossistema. É a mesma lógica que fez o Android dominar mobile. Google não precisava que todo mundo usasse Pixel. Precisava que todo mundo usasse Android. A Anthropic não precisa que todo mundo use Claude. Precisa que todo mundo use MCP. O que isso significa para startups brasileiras Aqui é onde a análise fica prática. O ecossistema brasileiro de agentes de IA está crescendo rápido. BNDES lançou fundo de R$1 bilhão para IA, aceleradoras estão financiando startups de agentes verticais, empresas como Stone, Nubank e iFood estão construindo capacidade interna de agentes. Se essas startups e times internos estão construindo agentes sem MCP, estão criando silos. Cada integração custom é dívida técnica. Cada conector proprietário é uma barreira para interoperabilidade. Quando um cliente pergunta "seu agente se integra com nosso CRM?" e a resposta é "precisamos de 3 semanas para construir o conector", o concorrente que responde "sim, via MCP" vence. A recomendação é direta: se você está construindo agentes no Brasil, MCP não é opcional. É a camada de integração que o ecossistema global padronizou. Ignorar isso é o equivalente a construir um app mobile que não roda em Android. Tecnicamente possível. Comercialmente suicida. Para quem quer ir além de consumir o protocolo, há oportunidade em contribuir. O ecossistema de servidores MCP ainda tem gaps significativos para ferramentas e plataformas populares no Brasil — Totvs, RD Station, Pipefy, Conta Azul. Construir e manter servidores MCP para o stack brasileiro é uma forma de gerar valor e posicionar-se no ecossistema global. O ponto que importa 97 milhões de installs não é uma métrica de vaidade. É a prova de que o ecossistema de agentes convergiu para um padrão de integração. Não é perfeito — o roadmap de 2026 mostra que há problemas reais a resolver. Não é neutro — a Anthropic controla a direção. Mas é o padrão. E em infraestrutura, o padrão vence o melhor. A Anthropic fez algo que nenhum outro player de IA conseguiu: criou a camada de interoperabilidade que todos usam. Não vendendo modelos. Vendendo o protocolo que conecta modelos ao mundo. E quem controla a conexão, controla o ecossistema.
-
Marina Santos - 30 Mar, 2026
Shield AI levanta US$2B a US$12,7B de valuation: defesa autônoma virou o vertical de IA mais quente de 2026
Dois bilhões de dólares. Não em uma rodada de modelo foundation. Não em mais uma plataforma de agentes para vendas. Em drones autônomos e software de defesa. A Shield AI acaba de fechar a maior rodada de 2026 em IA aplicada: US$1,5 bilhão na Series G liderada por Advent International e JPMorgan, mais US$500 milhões do Blackstone. O valuation saltou de US$5,3 bilhões para US$12,7 bilhões — um aumento de 140% em doze meses. Para colocar em perspectiva, a Harvey (agentes jurídicos) atingiu US$11 bilhões no mesmo mês. Uma startup de drones militares vale mais que a startup de IA mais badalada do setor jurídico. Algo mudou na paisagem de capital de risco em IA. E vale prestar atenção. Quem está assinando os cheques O detalhe mais revelador dessa rodada não é o tamanho — é a composição. Advent International é um dos maiores fundos de private equity do mundo, com mais de US$90 bilhões sob gestão. Blackstone dispensa apresentações. JPMorgan é JPMorgan. David Mussafer, chairman da Advent, entrou para o board da Shield AI. Todd Combs, do JPMorgan, como observador. Isso não é venture capital. É capital institucional pesado apostando em defense tech como classe de ativo. Snowpoint, InnovationX, Riot Ventures, Disruptive e Apandion complementam a rodada, mas a mensagem é dada pelo trio de cima: defesa autônoma deixou de ser tese de VC contrarian e virou investimento de private equity. A transição importa porque sinaliza maturidade. PEs não investem em promessas — investem em receita previsível e contratos de longo prazo. A Shield AI projeta mais de US$540 milhões em receita para 2026. Quando Blackstone coloca meio bilhão em uma empresa de drones, está precificando um pipeline de contratos governamentais que justifica o risco. Hivemind: o primeiro foundation model de defesa O produto central da Shield AI é o Hivemind — um sistema de autonomia que permite que drones e aeronaves operem sem GPS, comunicação ou piloto remoto. A US Air Force selecionou o Hivemind para o programa Collaborative Combat Aircraft, um marco que a própria empresa destaca como a primeira vez na história em que software de autonomia de missão foi desacoplado da plataforma de voo. Isso é mais significativo do que parece. Historicamente, inteligência de voo era inseparável da aeronave. O F-35, por exemplo, tem software de missão que é construído para o F-35 — e só para ele. Desacoplar a inteligência do hardware significa que o Hivemind pode rodar em diferentes plataformas, de drones da V-BAT a Collaborative Combat Aircraft do programa NGAD. Agora a Shield AI está empurrando o conceito para o próximo nível: o "Hivemind Foundation Model for Defense". A ideia é construir um modelo domain-specific que integre dados de simulação (reforçados pela aquisição da Aechelon Technology, especializada em simulação de voo militar) com dados operacionais do mundo real. Um foundation model treinado não em texto da internet, mas em cenários de combate, navegação autônoma e coordenação de enxames. Se isso funcionar, cria um moat brutal. Dados operacionais de defesa são, por definição, classificados e inacessíveis. Cada missão real, cada exercício, cada simulação alimenta um dataset que nenhum concorrente pode replicar. É o mesmo argumento que funciona para Harvey no jurídico ou para Waymo em veículos autônomos — mas em um setor onde a barreira regulatória e de segurança é ainda mais alta. O vertical que ninguém queria Defesa era o patinho feio do ecossistema de startups de IA até dois anos atrás. Founders do Vale do Silício evitavam o setor por questões éticas, ciclos de venda longos e burocracia de procurement governamental. O caso mais emblemático foi o Google retirando-se do Project Maven em 2018 sob pressão de seus próprios funcionários. O cenário mudou por três razões simultâneas. Primeiro, o contexto geopolítico. O conflito na Ucrânia demonstrou que drones autônomos não são ficção científica — são arma decisiva. Segundo, os ciclos de procurement aceleraram. O Pentágono criou programas como o Replicator, que busca deployar milhares de sistemas autônomos em meses, não décadas. Terceiro, o dinheiro apareceu. Quando Advent e Blackstone entram, o resto do mercado segue. A Shield AI não está sozinha. Anduril (fundada por Palmer Luckey) atingiu US$14 bilhões de valuation em 2025. Skydio, Kratos e Joby Aviation operam no mesmo ecossistema. Mas a Shield AI se diferencia pelo foco em software de autonomia agnóstico à plataforma — vende inteligência, não hardware. A conexão Brasil que ninguém está discutindo Aqui é onde a análise fica interessante para quem acompanha o ecossistema brasileiro. A Embraer é a terceira maior fabricante de jatos do mundo e a maior fabricante de aeronaves militares da América Latina. A empresa já opera no segmento de drones com o programa SABER M200 e tem parcerias de defesa com múltiplos governos. Se defense AI se consolida como vertical — e tudo indica que sim — a Embraer está posicionada como uma das poucas empresas fora dos EUA e China com capacidade industrial e acesso a mercados de defesa para integrar software de autonomia em plataformas reais. O Super Tucano, usado por mais de 15 forças aéreas, é exatamente o tipo de plataforma que poderia se beneficiar de sistemas como o Hivemind. Não estou dizendo que a Embraer vai comprar a Shield AI ou construir seu próprio foundation model de defesa. Estou dizendo que a tese de "autonomia desacoplada do hardware" abre uma oportunidade para fabricantes que têm a plataforma mas não têm o software. E a Embraer, com o Centro de Inovação em IA que inaugurou em 2025, parece estar prestando atenção. O que fica Três pontos para guardar dessa rodada: Defense AI é o vertical de IA de crescimento mais rápido em 2026. Os números não mentem — US$2B numa única empresa, capital institucional entrando, contratos governamentais acelerando. Quem ignorou esse setor por questões estéticas está sendo atropelado pelos fatos. O conceito de foundation model verticalizado está se consolidando. Não é só defense. É jurídico (Harvey), é robótica (NVIDIA com Isaac), é saúde. A era de "um modelo para tudo" está dando lugar a modelos especializados treinados em dados de domínio. A Shield AI está aplicando isso a um dos domínios mais complexos que existem. Capital institucional em IA mudou o jogo. Quando Advent, Blackstone e JPMorgan lideram uma rodada, o perfil de risco muda. Esses investidores não saem fácil. Estão apostando em contratos de 10, 15, 20 anos. Para o ecossistema, isso significa que defense AI não é bolha — é infraestrutura. A maior rodada de IA aplicada em 2026 não foi para um chatbot. Foi para drones que pensam sozinhos. Isso diz algo sobre para onde o mercado está indo.
-
Marina Santos - 28 Mar, 2026
Março 2026: o mês que reescreveu o playbook de funding em IA
Março de 2026 ainda não acabou e já produziu mais rodadas acima de US$100 milhões em inteligência artificial do que qualquer mês ou trimestre comparável na história do venture capital. Não é hipérbole — é dado do TechCrunch. E o mais revelador não é o volume de dinheiro. É para onde ele está indo. Há um ano, as megarrodadas de IA eram para quem prometia o melhor modelo. Hoje, o capital está migrando para quem constrói a infraestrutura que faz modelos funcionarem em produção — redes, segurança, governança, procurement, automação. A tese mudou. Quem vende a pá está vencendo quem cava. Os números de março: um mês que vale por um ano Vamos aos fatos. Nexthop AI levantou US$500 milhões numa Series B para redes otimizadas por IA. Quince, plataforma de e-commerce com IA embarcada, captou outros US$500 milhões a um valuation de US$10,1 bilhões. Axiom fechou US$200 milhões para segurança verificável de código gerado por IA. Kai trouxe US$125 milhões para cybersecurity agêntica. Oro Labs, focada em procurement inteligente, levantou US$100 milhões com Goldman Sachs co-liderando. E Gumloop, que constrói agentes de IA no-code, fechou uma Series B de US$50 milhões liderada pela Benchmark, com participação de YC, First Round e Shopify Ventures. Só essas seis rodadas somam US$1,475 bilhão. Em um mês. E não são exceções — startups do Reino Unido levantaram £149,1 milhões apenas na semana de 23 a 27 de março. Olha a composição dessas empresas. Nenhuma delas está construindo um novo LLM. Nexthop faz networking. Axiom faz verificação de código. Kai faz cybersecurity. Oro faz procurement. São empresas que resolvem problemas que surgem quando modelos de IA saem do laboratório e entram em operações reais. A tese que morreu: "quem tem o melhor modelo vence" Durante 2024 e boa parte de 2025, a corrida de IA era uma corrida de modelos. OpenAI, Anthropic, Google, Meta — cada um investindo bilhões para treinar o próximo modelo que superasse benchmarks. O dinheiro de venture seguia essa lógica: financiar quem pudesse competir na fronteira dos LLMs. Essa tese não desapareceu completamente, mas perdeu o monopólio sobre o capital. O que março de 2026 mostra é que os investidores entenderam algo que operadores de tecnologia já sabiam: ter o melhor modelo não adianta se você não consegue colocá-lo em produção com segurança, governança e infraestrutura adequada. O setor de IA agêntica — agentes autônomos que executam tarefas complexas — ilustra essa virada. Segundo dados da Tracxn, existem 1.041 empresas ativas no espaço de IA agêntica, das quais 530 já têm funding. A Automation Anywhere lidera com US$840 milhões em captação total. São empresas que não treinam modelos. Elas constroem os trilhos sobre os quais os modelos rodam. Por que a "trust layer" virou o novo ouro A rodada da Axiom — US$200 milhões para segurança verificável de código IA — é talvez o sinal mais claro da nova tese. O problema que a Axiom resolve é direto: quando um agente de IA escreve código, como você garante que esse código é seguro? Não "provavelmente seguro" ou "seguro segundo nosso benchmark interno". Verificavelmente seguro, com prova matemática. Esse é o tipo de problema que não existia há dois anos. Ninguém se preocupava com segurança de código gerado por IA quando os modelos mal conseguiam escrever um script funcional. Agora que modelos como Claude, GPT-5 e os open-source de fronteira escrevem código em produção, a camada de confiança se tornou crítica. O mesmo raciocínio vale para cada uma das rodadas de março. Kai resolve cybersecurity para agentes — porque agentes autônomos são superfícies de ataque. Oro Labs resolve procurement com IA — porque decisões de compra automatizadas precisam de audit trail. Nexthop resolve networking — porque infraestrutura de IA exige redes otimizadas para inferência distribuída. Em cada caso, a premissa é a mesma: IA em produção gera problemas novos, e problemas novos geram mercados novos. O efeito Gumloop: no-code encontra agentes Vale um destaque para a Gumloop. US$50 milhões numa Series B para uma plataforma de agentes no-code, liderada pela Benchmark com participação de YC, First Round e Shopify Ventures. Esse cap table não é acidente — são os investidores que definiram categorias como Figma, Uber e Shopify. A aposta da Benchmark na Gumloop sinaliza que a mesma democratização que aconteceu com web (WordPress), mobile (Bubble) e e-commerce (Shopify) está começando para agentes de IA. Se a tese estiver certa, nos próximos dois anos qualquer equipe de operações vai poder montar seus agentes sem escrever código. Isso importa porque muda quem compete. Quando construir um agente exige engenheiros de ML, só empresas com capital e talento participam. Quando é no-code, a barreira cai para o nível do conhecimento de domínio. E conhecimento de domínio é algo que empresas brasileiras têm de sobra em seus verticais. O que março de 2026 significa para o ecossistema brasileiro Toda vez que o venture capital americano redefine uma tese, o efeito cascata chega ao Brasil — com delay, mas chega. A migração de capital de "melhor modelo" para "infraestrutura e trust" tem três implicações concretas para o ecossistema local. O timing melhorou para startups brasileiras de infraestrutura de IA. Se o dinheiro global está indo para trust, governança e operações, startups brasileiras que constroem nessa camada ficam mais investíveis por fundos internacionais. Compliance com LGPD, integração com sistemas brasileiros (Pix, nota fiscal eletrônica, eSocial) — são moats locais que ganham valor quando a conversa muda de "qual modelo usar" para "como rodar IA em produção com segurança". VCs brasileiros vão atualizar a tese — mas devagar. A maioria dos fundos de venture no Brasil ainda opera com a tese de 2024: investir em startups que usam IA para resolver um problema vertical. Não está errado, mas o playbook global já evoluiu para uma camada abaixo — a infraestrutura que habilita todas essas startups verticais. Gestoras como Canary, Kaszek e NXTP vão precisar decidir se alocam capital nessa tese. O gap de capital fica mais evidente. Quando Axiom levanta US$200 milhões para verificação de código, e no Brasil a maior rodada de uma startup de IA em 2026 não chega a US$30 milhões, a diferença de escala é gritante. Isso não significa que startups brasileiras estão fazendo algo errado. Significa que competir globalmente na camada de infraestrutura de IA exige um volume de capital que o ecossistema brasileiro ainda não produz. O playbook reescrito Março de 2026 vai ser lembrado como o mês em que o mercado de venture capital em IA amadureceu. Não porque investiu mais — isso já vinha acontecendo. Mas porque mudou onde investiu. A mensagem é clara: modelos viraram commodity. O valor está em quem constrói a camada de trust, segurança e operações que transforma modelos em produtos confiáveis. Para quem constrói startups de IA, no Brasil ou fora, a pergunta não é mais "qual modelo você usa". É "que problema de infraestrutura, governança ou operações você resolve que ninguém mais resolve". Se a resposta for convincente, o capital aparece. Março provou isso com US$1,5 bilhão em um único mês.
-
Marina Santos - 28 Mar, 2026
Physical AI na GTC 2026: a NVIDIA quer ser o Android da robótica — e 110 devs de 'robot brains' já embarcaram
US$6,4 bilhões. Esse é o volume de capital que fluiu para startups de Physical AI só no primeiro trimestre de 2026. No mesmo período, a NVIDIA subiu ao palco da GTC e fez algo que nenhuma empresa de semicondutores costuma fazer: apresentou uma stack completa de software para robótica, da simulação ao cérebro do robô. Cosmos 3, Isaac GR00T N1.7, Alpamayo 1.5 — nomes que poucos fora do setor conhecem, mas que representam uma aposta de que a próxima grande plataforma de IA não vai rodar em datacenters. Vai andar, pegar objetos e operar no mundo físico. A pergunta que importa: a NVIDIA consegue fazer para robótica o que o Android fez para smartphones? O stack que a NVIDIA montou — e por que cada peça importa Physical AI é um termo que a NVIDIA vem empurrando há dois anos, mas na GTC 2026 ele ganhou substância concreta. A ideia é simples de explicar e difícil de executar: criar IA que entende e age no mundo físico — gravidade, atrito, geometria de objetos, movimentos humanos — e traduz tudo isso em ação motora. O stack tem três camadas. Cosmos 3 são world models — modelos que simulam o mundo físico com fidelidade suficiente para treinar robôs antes de colocá-los num galpão real. É o equivalente a um flight simulator, mas para braços robóticos e humanoides. A lógica econômica é direta: treinamento em simulação custa uma fração do treinamento no mundo real e elimina o risco de quebrar hardware caro durante o aprendizado. Isaac GR00T N1.7 é o cérebro do robô. Disponível em early access com licença comercial, o GR00T N1.7 oferece controle dextro avançado — a capacidade de manipular objetos com precisão usando mãos robóticas. É o tipo de competência que separa um robô de demonstração de um robô que opera numa linha de montagem. A versão N2, prevista para o fim de 2026, promete dobrar a taxa de sucesso em tarefas novas e ambientes desconhecidos, usando uma arquitetura chamada DreamZero World Action Model. Alpamayo 1.5 completa a stack no lado de percepção e planejamento. E no hardware, a NVIDIA já tem os chips Jetson para rodar tudo isso na borda, sem depender de conexão com a nuvem. É uma plataforma vertical: simulação, treinamento, cérebro e hardware. Tudo de uma empresa. "O Android da robótica" — a comparação que faz sentido e onde ela quebra O TechCrunch cunhou a frase: "NVIDIA quer ser o Android da robótica generalista". É uma comparação que funciona em vários níveis. Assim como o Android ofereceu um sistema operacional gratuito que permitiu a dezenas de fabricantes de hardware competirem com o iPhone, a NVIDIA está oferecendo um stack de software que permite a fabricantes de robôs construírem produtos sem precisar desenvolver a inteligência do zero. E o ecossistema já está se formando. São 110 desenvolvedores de "robot brains" trabalhando sobre a plataforma NVIDIA. Parceiros industriais de peso — ABB, FANUC, KUKA, Hexagon Robotics — adotaram as tecnologias. A extensão para robótica médica e cirúrgica já começou. Mas a comparação tem limites importantes. O Android prosperou porque o custo de um smartphone caiu para US$50. Robôs industriais custam dezenas ou centenas de milhares de dólares. A barreira de adoção não é só software — é capital, integração e regulação. E diferente do mercado mobile, onde um app funciona em qualquer Android, cada aplicação robótica tem restrições físicas únicas. Um robô que opera num warehouse não opera num hospital sem reengenharia significativa. A NVIDIA entendeu isso. O GR00T N1.7 foi projetado para robôs "produzidos em massa" — a ênfase é em escala, não em customização artesanal. Se o preço do hardware cair e a taxa de sucesso do N2 se confirmar, a comparação com o Android pode deixar de ser metáfora e virar descrição. O ecossistema de startups que já orbita a plataforma Quando uma plataforma atinge massa crítica, o ecossistema ao redor cresce mais rápido que a plataforma em si. É o que está começando a acontecer. O caso mais interessante é o ROSClaw, que nasceu de um hackathon da comunidade OpenClaw. O projeto cria uma ponte entre o OpenClaw e o ROS 2 — o framework padrão de robótica — permitindo que agentes de IA controlem robôs via chat. É o tipo de integração que parece trivial mas desbloqueia uma classe inteira de aplicações: operadores humanos dando instruções em linguagem natural para robôs em chão de fábrica. Fora do ecossistema direto da NVIDIA, a Skild AI levantou US$1,4 bilhão a um valuation de US$14 bilhões. A tese é construir um foundation model para controle robótico — um GPT para robôs. A OpenAI, por sua vez, fez seis aquisições em 2026, com foco crescente em Physical AI. É capital sério perseguindo a mesma tese de direções diferentes. O padrão é familiar para quem acompanha ciclos de plataforma: a NVIDIA fornece a infraestrutura, startups constroem aplicações verticais em cima, grandes empresas industriais integram. Quem controla a plataforma captura valor desproporcional — mas quem constrói as aplicações certas nos verticais certos também ganha. E o Brasil nessa história? Toda vez que uma plataforma horizontal surge, a pergunta para o ecossistema brasileiro é a mesma: vamos ser consumidores ou construtores? O Brasil tem três verticais onde Physical AI tem aplicação imediata e vantagem competitiva local. Agro robotizado. O agronegócio brasileiro é um dos mais avançados do mundo em escala, mas a automação robótica ainda é incipiente. Colheita seletiva, monitoramento de pragas com drones autônomos, operação de máquinas pesadas com controle por IA — são aplicações que se beneficiam diretamente do stack NVIDIA e onde startups brasileiras entendem o contexto operacional melhor que qualquer competidor do Vale do Silício. Manufatura. O parque industrial brasileiro precisa de modernização, e robótica colaborativa — robôs que trabalham ao lado de humanos — é a porta de entrada. Integrar GR00T com linhas de produção existentes é um problema de engenharia de aplicação, não de pesquisa fundamental. Startups que dominarem essa integração capturam um mercado que importa hoje US$800 milhões em robôs industriais por ano. Healthtech. A expansão de Physical AI para robótica cirúrgica abre espaço para startups que construam ferramentas de planejamento e simulação sobre o Cosmos. O SUS atende 150 milhões de brasileiros — escala não é problema. Falta tecnologia acessível. O BNDES sinalizou um fundo de até R$1 bilhão para IA e data centers. Se uma fração desse capital for direcionada para Physical AI aplicada, o Brasil pode sair da posição de espectador. Physical AI é onde os agentes encontram o mundo real A narrativa dominante dos últimos dois anos foi sobre agentes de software — código que escreve código, assistentes que agendam reuniões, bots que negociam contratos. Physical AI é o próximo capítulo: agentes que não só pensam, mas agem no mundo dos átomos. A NVIDIA está apostando que vai controlar a plataforma desse mundo. Com Cosmos para simulação, GR00T para o cérebro e Jetson para o hardware, ela tem a stack mais completa do mercado. Os 110 desenvolvedores de robot brains e os parceiros industriais de peso dão credibilidade à aposta. Mas plataformas não vencem por completude técnica — vencem por ecossistema. O Android não ganhou por ser melhor que o iOS. Ganhou porque era aberto o suficiente para que milhares de fabricantes e desenvolvedores construíssem em cima. A pergunta de US$6,4 bilhões é se a NVIDIA vai ser aberta o suficiente para que isso aconteça na robótica. Os primeiros sinais — licença comercial no GR00T N1.7, integração com ROS 2 via ROSClaw, early access para desenvolvedores — apontam que sim. Quem chegar primeiro à produção em escala, vence. E agora existe uma plataforma para tentar.
-
Marina Santos - 28 Mar, 2026
OpenClaw bate 250 mil stars no GitHub em 60 dias — e redesenha o mapa dos agentes de IA
Um número para calibrar a conversa: 250 mil stars no GitHub em 60 dias. O OpenClaw, um agente de IA autônomo e open-source, ultrapassou o React — que levou uma década para chegar ao mesmo patamar. São 47.700 forks. Nove mil stars no primeiro dia de lançamento, em 25 de janeiro de 2026. Esses números não medem apenas popularidade. Medem velocidade de adoção de uma categoria que está se formando em tempo real. De Clawdbot a OpenClaw: a trajetória de um projeto que não parava quieto O criador é Peter Steinberger, um desenvolvedor austríaco que se define como "vibe coder" — a prática de programação onde a IA escreve o código, a IA roda os testes e o humano basicamente clica para confirmar. O projeto nasceu em novembro de 2025 com o nome Clawdbot. Em janeiro de 2026, virou Moltbot após uma reclamação de trademark da Anthropic. Dias depois, renasceu como OpenClaw. Três nomes em três meses. O que não mudou foi a proposta: um agente autônomo, gratuito, que qualquer desenvolvedor pode rodar, modificar e integrar. Enquanto empresas como a Anthropic e a OpenAI constroem agentes proprietários dentro de ecossistemas fechados, o OpenClaw fez o caminho oposto — e o GitHub votou com stars. 250 mil stars: o que o número realmente diz Comparar com o React é útil para dimensionar. O React foi lançado pelo Facebook em 2013 e levou cerca de dez anos para atingir essa marca. Ele definiu como a web moderna é construída. O OpenClaw fez o mesmo trajeto em dois meses. Isso não significa que o OpenClaw é mais importante que o React. Significa que a demanda por ferramentas de agentes autônomos open-source é enorme e estava represada. Desenvolvedores do mundo inteiro estavam esperando uma base aberta sobre a qual construir — e o OpenClaw chegou no momento certo, com a licença certa e a arquitetura certa. O crescimento de 9 mil stars no dia do lançamento para 250 mil em março confirma uma coisa: não foi hype de um dia. É adoção sustentada. O ecossistema que se formou em volta O mais interessante do OpenClaw não é o projeto em si — é o que está sendo construído em cima dele. O ROSClaw venceu o SF OpenClaw Hackathon. É uma ponte entre o OpenClaw e o ROS 2, o framework padrão de robótica. Na prática, isso significa que o OpenClaw já roda em robôs Unitree G1, drones e quadrúpedes. Um laboratório chinês demonstrou controle remoto de robôs humanoides usando OpenClaw com computação orbital. A fronteira entre agentes de software e agentes no mundo físico está encolhendo rápido. Na outra ponta, a NVIDIA lançou o NemoClaw durante a GTC 2026. É uma camada enterprise em cima do OpenClaw, com segurança, privacidade e as garantias que empresas exigem para colocar agentes em produção. A NVIDIA olhou para o OpenClaw e viu o que faltava no mercado: uma plataforma aberta de agentes sobre a qual construir valor enterprise. Em menos de três meses, o OpenClaw gerou um ecossistema com hackathons, extensões de robótica e uma camada corporativa da maior empresa de chips do mundo. Isso não é um projeto de GitHub — é uma plataforma. Por que Steinberger foi para a OpenAI em vez de criar uma startup Aqui está a decisão contraintuitiva. Em 14 de fevereiro de 2026, Steinberger anunciou que estava indo para a OpenAI. O OpenClaw seria transferido para uma fundação open-source independente. A frase dele: "O que eu quero é mudar o mundo, não construir uma grande empresa." Na lógica do Vale do Silício, isso não faz sentido. Você cria o projeto open-source mais popular do momento, com ecossistema formado e a NVIDIA construindo em cima, e em vez de levantar uma Series A de US$100 milhões, vai ser funcionário? Mas a decisão revela algo importante sobre a dinâmica do mercado de agentes. Steinberger entendeu que o valor do OpenClaw como plataforma aberta é maior do que o valor de uma startup fechada construída em volta dele. Uma fundação independente garante neutralidade — e neutralidade é o que atrai contribuidores, extensões como o ROSClaw e investimentos enterprise como o da NVIDIA. Se o OpenClaw fosse propriedade de uma startup, a NVIDIA provavelmente teria construído sua própria solução. Commoditização do agente base: onde está o valor real O padrão que o OpenClaw revela é familiar para quem acompanha a história do open-source. Linux é gratuito. Red Hat construiu um negócio de bilhões em cima. Android é aberto. Google captura valor via Play Store e serviços. O agente base está se commoditizando. O valor migra para as camadas acima. No caso dos agentes de IA, essas camadas são: segurança enterprise (NemoClaw), integrações verticais (ROSClaw para robótica), e ferramentas de monitoramento, billing e compliance para agentes em produção. Exatamente o tipo de infraestrutura que, não por coincidência, 41,5% do batch W26 da Y Combinator está construindo. Para startups, a implicação é direta: construir outro agente genérico de IA provavelmente é uma perda de tempo. O OpenClaw é gratuito e tem 250 mil stars. A oportunidade está na camada acima — ferramentas, integrações e serviços que fazem agentes funcionarem em contextos específicos. E o Brasil nessa história? O OpenClaw é open-source. Não tem barreira geográfica. E isso cria uma oportunidade que o ecossistema brasileiro costuma ignorar: contribuição direta para projetos de infraestrutura global. Desenvolvedores brasileiros tendem a consumir ferramentas open-source, não a construí-las. Mas o momento do OpenClaw — projeto recente, fundação recém-criada, ecossistema ainda se formando — é exatamente quando contribuidores externos têm mais impacto. Uma extensão do OpenClaw para um vertical específico da América Latina, uma integração com infraestrutura local, uma contribuição para o ROSClaw com foco em agricultura de precisão — são caminhos concretos. Hackathons de OpenClaw já estão acontecendo em São Francisco. Não há razão técnica para que não aconteçam em São Paulo, Florianópolis ou Recife. A comunidade está sendo construída agora. Quem entra cedo, define o terreno. O mapa que está se desenhando O OpenClaw não é apenas um projeto popular. É um sinal de mercado. O agente autônomo como commodity aberta, com valor capturado nas camadas de cima — enterprise, robótica, verticais específicas. Um criador que escolhe a fundação aberta em vez da startup fechada. Uma NVIDIA que constrói por cima em vez de competir por baixo. Se agentes de IA são o próximo sistema operacional da economia digital, o OpenClaw está disputando o papel de kernel. E como todo kernel, o que importa não é quem o escreveu — é o que vai rodar em cima dele.
-
Marina Santos - 28 Mar, 2026
Reflection AI: de US$545M a US$25B em menos de um ano — a aposta da NVIDIA num 'DeepSeek do Ocidente'
US$545 milhões de valuation em meados de 2025. US$25 bilhões em março de 2026. Um salto de 46 vezes em menos de um ano — sem receita pública conhecida, sem produto amplamente disponível, sem IPO no horizonte. A Reflection AI está negociando uma rodada de US$2,5 bilhões que, se fechada, vai colocá-la entre as startups mais valiosas do planeta. Os números são absurdos. Mas antes de descartá-los como mais uma bolha de IA, vale entender o que está por trás: uma tese geopolítica que a NVIDIA decidiu bancar com meio bilhão de dólares. A empresa e o contexto A Reflection AI foi fundada por Misha Laskin e Ioannis Antonoglou, ambos ex-pesquisadores do Google DeepMind. O foco declarado: construir modelos de IA de fronteira, abertos e livremente disponíveis, com ênfase em automação de escrita e manutenção de código. A rodada anterior, de US$1 bilhão, já sinalizava a ambição. A NVIDIA liderou com US$500 milhões — metade do total. O restante veio de nomes que não passam despercebidos: a 1789 Capital, empresa de venture ligada a Donald Trump Jr., entrou com US$100 milhões. A DST Global, de Yuri Milner, contribuiu com outros US$100 milhões. Agora, a rodada de US$2,5 bilhões pode trazer JPMorgan Chase através da sua iniciativa Security and Resilience, ao lado do fundo Disruptive. Quando um banco de investimento dessa magnitude entra numa startup de IA, o dinheiro não é apenas financeiro — é institucional. O rótulo que importa: "DeepSeek do Ocidente" A Reflection AI se posiciona explicitamente como alternativa ocidental ao DeepSeek. Modelos abertos, de alta performance, desenvolvidos fora da China. Esse enquadramento não é acidente — é a tese que justifica o valuation. A DeepSeek mostrou que é possível construir modelos competitivos com orçamento menor e distribuí-los abertamente. Isso incomodou profundamente o ecossistema americano, que vinha operando sob a premissa de que modelos de fronteira exigem bilhões em compute e estratégias proprietárias. A resposta veio rápido: se a China tem um campeão de open source, os EUA precisam do seu. A NVIDIA entendeu isso antes de todo mundo. Além do investimento direto de US$500 milhões, a Reflection AI é membro fundador da Nemotron Coalition — uma aliança orquestrada pela NVIDIA que reúne Mistral, Perplexity, Cursor, LangChain e Black Forest Labs. O objetivo declarado da coalizão: desenvolver modelos abertos de fronteira como alternativa ocidental à IA chinesa. Para a NVIDIA, a lógica é transparente. A empresa vende GPUs. Modelos abertos significam mais empresas treinando e rodando modelos, o que significa mais GPUs vendidas. O investimento na Reflection não é caridade — é desenvolvimento de mercado. Os 46x no contexto: o que o número significa (e o que não significa) Um salto de 46x em valuation em menos de um ano é, por qualquer métrica, extraordinário. Mesmo para IA, onde valuations crescem rápido, esse ritmo não tem precedente comparável entre startups na fase da Reflection. Mas é preciso contextualizar. O valuation de US$545 milhões era provavelmente de uma rodada seed ou pré-seed inflada pelo pedigree dos fundadores. O de US$25 bilhões reflete uma aposta geopolítica mais do que uma avaliação de receita ou produto. A distância entre os dois números conta menos sobre o progresso da empresa e mais sobre a escalada da corrida IA entre EUA e China. Para comparação: a Mistral, que já tem modelos amplamente adotados e receita real, levantou a um valuation de US$6 bilhões na sua última rodada. A Reflection pede quatro vezes mais, com menos produto no mercado. Isso pode significar que os investidores estão precificando o futuro com muita generosidade — ou que o prêmio geopolítico de ter um campeão americano de open source vale exatamente essa diferença. Minha leitura: é um pouco dos dois. O valuation carrega um prêmio real pela tese geopolítica, mas também reflete a quantidade absurda de capital buscando exposição a IA aberta. Quando NVIDIA, Trump Jr. e JPMorgan estão na mesma cap table, o valuation é um artefato do dinheiro disponível tanto quanto do valor criado. O que isso muda para startups que usam modelos abertos Aqui é onde a história fica interessante para quem constrói em cima de modelos abertos — incluindo startups brasileiras. Se a Reflection entregar o que promete — modelos de fronteira abertos, competitivos com GPT e Claude, focados em código — o ecossistema ganha mais uma opção de modelo base sem lock-in. Isso é bom. Mais modelos abertos de alta qualidade significam menor dependência de APIs proprietárias, custos mais previsíveis e mais liberdade para fine-tuning. Mas existe um risco que pouca gente discute: a fragmentação. Com Llama (Meta), Mistral, DeepSeek, Qwen e agora Reflection, o ecossistema open source está se dividindo em múltiplas famílias de modelos, cada uma com suas peculiaridades, formatos e stacks de tooling. Para uma startup brasileira com time enxuto, testar e validar cada novo modelo que aparece é custo real. O reflexo no Brasil O ecossistema brasileiro de IA é majoritariamente consumidor de modelos, não produtor. Isso significa que a corrida entre Reflection, DeepSeek e Mistral nos afeta diretamente — mesmo que nenhuma dessas empresas tenha escritório aqui. Três implicações concretas: Custo de inferência vai continuar caindo. Mais competição na camada de modelos abertos pressiona preços para baixo. Para startups brasileiras que dependem de inferência, isso é vento a favor. O risco de escolher o modelo errado aumenta. Com mais opções, a decisão de qual modelo base usar fica mais complexa. Apostar tudo no Llama e ver a Reflection entregar algo superior dois meses depois gera retrabalho real. A narrativa geopolítica cria oportunidade. Se os EUA estão investindo bilhões para ter alternativas ocidentais à China, existe espaço para que hubs de IA fora dos dois polos — incluindo o Brasil — se beneficiem. O BNDES já sinalizou interesse em financiar infraestrutura de IA. A pergunta é se esse capital vai para projetos que realmente constroem capacidade técnica ou apenas para importação de soluções americanas com label local. A questão que fica A Reflection AI é uma empresa legítima com fundadores excepcionais construindo tecnologia relevante. Mas US$25 bilhões de valuation para uma startup sem produto público amplamente testado é, antes de tudo, uma declaração de intenções geopolíticas disfarçada de rodada de venture capital. O dinheiro que flui para a Reflection diz menos sobre a empresa e mais sobre o momento: os EUA decidiram que open source é front de defesa estratégica, e a NVIDIA está disposta a escrever cheques de meio bilhão para garantir que essa frente tenha um campeão americano. Para quem constrói startups de IA — no Brasil ou em qualquer lugar — o takeaway é prático: modelos abertos de alta qualidade vão continuar aparecendo. O desafio não é acesso ao modelo. É construir algo em cima que gere valor real antes que o próximo modelo torne seu diferencial obsoleto.
-
Marina Santos - 27 Mar, 2026
O vale da morte dos agentes de IA: 78% pilotam, 14% escalam — e quem lucra é quem vende a pá
Uma pesquisa de março de 2026 com 650 líderes de tecnologia trouxe dois números que resumem o estado dos agentes de IA nas empresas: 78% têm pelo menos um piloto rodando. Apenas 14% conseguiram escalar para uso organizacional. A distância entre esses dois números é o que o mercado está chamando de "vale da morte dos agentes". E como todo vale da morte, é ao mesmo tempo um cemitério de projetos e uma oportunidade enorme para quem resolve o problema certo. Os 5 bloqueadores que travam a escalada Os dados da pesquisa detalham onde os pilotos morrem. Não é na tecnologia do agente em si — é em tudo que está ao redor dele. Integração com sistemas legados (46%). Quase metade dos líderes apontam isso como o bloqueador principal. Um agente que funciona no sandbox não sobrevive ao encontrar um ERP de 15 anos, APIs SOAP, bancos de dados sem documentação e processos que ninguém mapeou completamente. A complexidade não é construir o agente — é conectá-lo ao mundo real da empresa. Qualidade inconsistente em volume (32%). Um agente que acerta 95% das respostas em um piloto com 500 interações pode cair para 80% quando processa 50 mil. Alucinações que são anedota em piloto viram risco operacional em produção. E a maioria das empresas não tem ferramentas para detectar essa degradação em tempo real. Ausência de ferramentas de monitoramento. Quando um agente toma uma decisão errada às 3h da manhã, quem percebe? Dashboards de observabilidade para agentes autônomos praticamente não existiam até recentemente. As ferramentas de APM tradicionais — Datadog, New Relic — foram construídas para monitorar software determinístico, não sistemas que tomam decisões probabilísticas. Falta de ownership organizacional. De quem é o agente? Do time de IA? De produto? De operações? Em muitas empresas, o piloto é tocado por um squad de inovação que não tem poder para forçar integração com sistemas core. Quando o piloto precisa virar produção, esbarra na política interna. Dados de treinamento insuficientes. Agentes precisam de dados do contexto específico da empresa para funcionar bem. Muitas organizações descobrem, tarde demais, que seus dados internos são desorganizados, incompletos ou inacessíveis. O investimento em curadoria e pipeline de dados é subestimado em 40% a 60%, segundo a pesquisa. Picks and shovels: a tese de infraestrutura Na corrida do ouro da Califórnia, quem mais lucrou foram os vendedores de pás e picaretas. Na corrida dos agentes de IA, a lógica é a mesma. Se 78% das empresas estão pilotando agentes e apenas 14% escalam, existe um mercado massivo de organizações dispostas a pagar por ferramentas que resolvam o gap. Não é mais uma questão de "se" agentes vão para produção — é uma questão de "com qual infraestrutura". O batch W26 da YC confirmou essa tese de forma inequívoca: 41,5% das startups selecionadas constroem infraestrutura para agentes autônomos. Autenticação, testes, billing, monitoramento, segurança. A YC não está apostando em mais agentes — está apostando nas ferramentas que fazem agentes funcionarem em escala. Quem está resolvendo o problema O ecossistema de startups de infraestrutura para agentes está se formando rápido. Algumas categorias que estão ganhando tração: Observabilidade para agentes. Startups construindo dashboards que monitoram não só latência e uptime, mas qualidade de decisão, taxa de alucinação, drift de comportamento e custo por tarefa. É o Datadog dos agentes — e quem chegar primeiro com um produto que funciona em produção vai capturar um mercado que não existia dois anos atrás. Avaliação e testing. Frameworks que permitem testar agentes antes do deploy, medir performance em cenários adversos e detectar regressões. O equivalente a CI/CD para sistemas não-determinísticos. Se um agente vai aprovar empréstimos ou fazer triagem médica, alguém precisa garantir que ele funciona antes de ir ao ar. Integração e orquestração. Plataformas que conectam agentes a sistemas legados sem exigir que a empresa reescreva tudo. Middlewares que traduzem entre o mundo de APIs modernas e os ERPs, CRMs e bancos de dados que existem há décadas. É o problema mais chato e talvez o mais lucrativo — porque toda empresa que quer escalar agentes esbarra nele. Governança e compliance. Ferramentas que definem o que um agente pode e não pode fazer, auditam decisões e mantêm logs para reguladores. À medida que agentes tomam decisões com impacto financeiro e legal, essa camada deixa de ser nice-to-have e vira requisito. A oportunidade brasileira no meio do gap Aqui é onde eu conecto os pontos. O ecossistema brasileiro de IA tem 975 startups ativas e um gap de capital que dificulta competir em modelos foundation ou em agentes verticais que exigem escala global. Mas infraestrutura de agentes é diferente. Primeiro, a competição é mais fragmentada. Nenhuma startup domina observabilidade ou testing de agentes da mesma forma que a OpenAI domina modelos. A janela está aberta. Segundo, o mercado latino-americano tem necessidades específicas. Integrações com sistemas locais — TOTVS, SAP adaptado para Brasil, sistemas do governo — exigem conhecimento que startups americanas não têm. Uma startup brasileira que constrói a camada de integração entre agentes e sistemas corporativos da América Latina tem um moat geográfico real. Terceiro, custo de operação. Construir ferramentas de infraestrutura exige engenharia, não datasets bilionários ou clusters de GPUs. Uma equipe de engenharia forte no Brasil pode competir em qualidade a uma fração do custo de uma equipe no Vale do Silício. O BNDES planeja um fundo de até R$1 bilhão para IA. Se parte desse capital for direcionada para startups de infraestrutura de agentes — e não apenas para aplicações de IA genéricas — o ecossistema pode capturar uma fatia relevante de um mercado global que está nascendo agora. O dinheiro está na camada de baixo A narrativa dominante de IA é sobre agentes cada vez mais inteligentes. Modelos maiores, benchmarks quebrados, demos impressionantes. Mas o dado de 78% vs 14% conta outra história: inteligência não é o gargalo. Infraestrutura é. Empresas não estão falhando porque seus agentes são burros. Estão falhando porque não têm como conectá-los, monitorá-los, testá-los e governá-los em escala. Quem resolver esses problemas vai construir as empresas mais duráveis desta era — porque infraestrutura é a camada que sobrevive às mudanças de modelo, de framework e de hype. Na corrida do ouro dos agentes, a maioria está comprando ouro. Eu estou de olho em quem está vendendo a pá.
-
Marina Santos - 26 Mar, 2026
YC W26: 60% do batch é IA — e a infraestrutura de agentes domina
A Y Combinator acabou de encerrar o Demo Day do batch W26. Os números: 196 startups apresentadas entre 24 e 26 de março. Dessas, 60% são de IA — contra 40% em 2024. Mas o dado que importa de verdade é outro: 41,5% do batch inteiro está construindo infraestrutura para agentes autônomos. Não são chatbots. São ferramentas de autenticação, testes, segurança, monitoramento e billing para agentes que operam sozinhos em produção. A YC está dizendo, com dinheiro e seleção, que a era dos agentes já começou — e que falta o encanamento para ela funcionar. O batch mais forte da história da YC Não é exagero. 14 startups chegaram ao Demo Day com US$1 milhão de receita recorrente anual. Isso nunca aconteceu. O Rebel Fund, que acompanha cada batch com métricas proprietárias, classificou 35% das empresas no top 20% de todas as startups que já passaram pela YC. Analistas projetam algo em torno de 20 unicórnios saindo deste batch — uma taxa de 10%, mais que o dobro da média histórica de 4,5%. É cedo para confirmar, mas a combinação de receita real + tese forte + timing de mercado sustenta o otimismo. Infraestrutura de agentes: a nova categoria Se em 2024 a YC selecionou startups que usavam IA, em 2026 ela está selecionando startups que fazem a IA funcionar em escala. A diferença é sutil mas fundamental. Pense assim: quando agentes autônomos começam a fechar contratos, operar supply chains e tomar decisões financeiras, alguém precisa garantir que eles tenham permissão para agir, que seus outputs sejam testáveis, que o billing funcione por tarefa executada e que um humano consiga monitorar o que está acontecendo. Essa é a camada que 41,5% do batch está construindo. É a lógica de "picks and shovels" aplicada à corrida do ouro dos agentes. Quem vende a infraestrutura lucra independentemente de qual agente vence. O giro para o mundo físico Outra mudança silenciosa: o batch W26 tem uma presença forte de startups atacando problemas do mundo físico. Robótica, energia, agricultura, construção civil. A onda de consumer AI de 2023-2024 — apps de geração de imagem, wrappers de ChatGPT — praticamente desapareceu. A ARC Prize Foundation, uma das startups selecionadas, cria benchmarks de AGI usados por OpenAI, Anthropic e Google. A Asimov coleta dados de movimento humano para treinar robôs humanoides. A Pocket já despachou mais de 30 mil unidades de hardware em cinco meses. Saúde também aparece com força — cerca de 10% do batch. Legal tech está acelerando. O padrão é claro: investidores querem IA que resolve problemas concretos, com moat defensável e ciclo de vendas corporativo. E o Brasil? A YC não divulga a lista completa de países, mas o ecossistema brasileiro de IA está num momento interessante. O número de startups ativas de IA no Brasil cresceu 40% nos últimos anos — de 352 para 975. O BNDES planeja um fundo de R$500 milhões a R$1 bilhão para IA e data centers. O programa Rio.IA 2026 vai selecionar 8 startups com R$80 mil cada para proof of concept. São sinais positivos. Mas a distância ainda é enorme. Enquanto o batch W26 tem startups com US$1M de ARR antes de Demo Day, a maioria das startups brasileiras de IA não passou da barreira de US$10 milhões em captação total. São apenas 23 que conseguiram. A oportunidade existe — especialmente para startups brasileiras que constroem infraestrutura de agentes (onde a competição global é mais fragmentada) ou que aplicam IA a problemas específicos da América Latina. Mas para capturar essa oportunidade, o ecossistema precisa de mais capital de risco, mais exits e mais founders que já operaram em escala. O que isso sinaliza para o mercado O batch W26 é um termômetro confiável do que os investidores mais sofisticados do mundo acreditam que vai funcionar. E a mensagem é tripla:Agentes autônomos são a tese dominante. Não como promessa — como produto com receita. A camada de infraestrutura para agentes é o novo SaaS. Auth, billing, testes, observabilidade — tudo precisa ser reinventado para um mundo onde software age sozinho. O mundo físico voltou. Robótica, hardware e problemas tangíveis estão atraindo capital sério.Se você está construindo algo em IA, o W26 é um mapa. Leia a lista de startups. Veja onde o dinheiro está indo. E preste atenção no que não apareceu — porque o que a YC deixou de fora também conta uma história.
-
Marina Santos - 25 Mar, 2026
Harvey levanta US$200M a US$11B de valuation: agentes jurídicos saíram do piloto
A Harvey acaba de fechar uma rodada de US$200 milhões a um valuation de US$11 bilhões. Há três meses, o número era US$8 bilhões. Um salto de 37,5% em um trimestre — para uma empresa que vende software para advogados. Os investidores são GIC (fundo soberano de Cingapura) e Sequoia na liderança, com a16z, Coatue e Kleiner Perkins na mesa. Quando esse tipo de capital se alinha numa mesma rodada, a mensagem é clara: agentes de IA verticais não são aposta — são tese consolidada. O que a Harvey faz (de verdade) A Harvey constrói agentes de IA que completam tarefas jurídicas de forma autônoma. Não é um chatbot que responde perguntas sobre contratos. São sistemas que fazem due diligence, revisam documentos regulatórios, preparam memorandos e analisam jurisprudência — trabalho que, até ontem, exigia associados juniores cobrando centenas de dólares por hora. Mais de 100 mil advogados em 1.300 organizações usam a plataforma. Isso inclui escritórios de advocacia do Magic Circle e corporações do Fortune 500. Quando a adoção chega nesse nível, não estamos mais falando de piloto. Por que US$11B faz sentido O mercado jurídico global movimenta mais de US$1 trilhão por ano. A maior parte desse valor é mão de obra — advogados fazendo trabalho repetitivo que segue padrões documentáveis. É exatamente o tipo de tarefa onde agentes de IA performam melhor que humanos: alta precisão, grande volume, tolerância zero a erro. A Harvey não está competindo com software jurídico tradicional. Está capturando horas de trabalho humano. Cada hora substituída por um agente é receita que sai do headcount do escritório e vai para a assinatura da plataforma. Isso explica a velocidade do crescimento de valuation: o TAM não é o mercado de legal tech — é o mercado de trabalho jurídico. O modelo que está funcionando A Harvey é o exemplo mais nítido de um padrão que está se repetindo no ecossistema:Escolhe um vertical com custo de mão de obra alto. Direito, saúde, contabilidade, compliance. Constrói agentes que fazem o trabalho, não ferramentas que ajudam a fazer. A diferença é crucial — um copiloto sugere, um agente executa. Vende por valor entregue, não por seat. Quando o agente substitui horas de associado, o ROI é imediato e mensurável. Acumula dados proprietários de cada vertical. Cada contrato revisado, cada memorando gerado, cada due diligence completada treina o sistema para o próximo caso.Sierra (atendimento ao cliente, US$150M de ARR em janeiro) segue a mesma lógica. Cursor (desenvolvimento de software, US$2B de ARR) também. O padrão é vertical + agente autônomo + captura de labor spend. O gap entre piloto e produção Os números da Harvey contrastam com uma realidade mais ampla do mercado. Uma pesquisa recente com 650 líderes de tecnologia mostrou que 78% das empresas têm pelo menos um piloto de agente de IA rodando, mas menos de 15% chegaram à produção. O gargalo não é tecnológico — é organizacional. Falta infraestrutura de avaliação, monitoramento e ownership. Quem define se o agente pode tomar uma decisão? Quem audita o resultado? Quem é responsável quando dá errado? A Harvey resolveu isso porque o setor jurídico tem algo que poucos verticais têm: processos extremamente bem documentados, padrões de qualidade claros e uma cultura de revisão. O agente da Harvey não opera no escuro — opera dentro de um framework onde cada output pode ser verificado. Para outros setores, a lição é: antes de deployar agentes em produção, resolva o problema de governança. A tecnologia está pronta. A organização, na maioria dos casos, não. O que isso significa para startups Se você está construindo agentes verticais, a Harvey é o benchmark. Três pontos para prestar atenção: O valuation é função de labor displacement, não de ARR. Investidores estão precificando o tamanho da mão de obra que pode ser substituída, não a receita atual. Por isso os múltiplos parecem absurdos comparados com SaaS tradicional. O moat é o dado vertical. Modelos foundation são commodity. O diferencial está nos dados específicos do setor que você acumula com cada cliente. Harvey tem milhões de documentos jurídicos processados. Esse dataset não se replica. Timing importa. Harvey entrou cedo no jurídico e agora tem 100K advogados. Cada mês de atraso em um vertical significa menos dados, menos clientes e um concorrente mais difícil de alcançar. A corrida pelos verticais está aberta. Mas as melhores cadeiras já estão sendo ocupadas.
-
Marina Santos - 20 Mar, 2026
OpenAI compra 6 empresas em 2026 e Physical AI atrai US$6,4B: a corrida pela stack completa
A OpenAI fez seis aquisições nos primeiros três meses de 2026. Em todo o ano de 2025, foram oito. A empresa está comprando startups no ritmo mais agressivo da sua história — e o padrão das aquisições conta uma história clara sobre onde a IA está indo. No mesmo trimestre, 27 startups de Physical AI — robótica, automação industrial, semicondutores — levantaram mais de US$6,4 bilhões. Duas tendências que parecem desconectadas, mas apontam para o mesmo lugar: a corrida deixou de ser sobre quem tem o melhor modelo e virou sobre quem controla a stack completa. OpenAI: comprando a cadeia de ferramentas Das seis aquisições, duas se destacam. Astral (19 de março): a startup por trás do uv, Ruff e ty — ferramentas open-source de Python que milhões de desenvolvedores usam diariamente. O uv é o gerenciador de pacotes mais rápido do ecossistema Python. O Ruff é o linter que virou padrão. A OpenAI integrou o time inteiro ao projeto Codex. A lógica é direta: se o Codex é um agente que escreve código, ele precisa entender e operar as ferramentas que desenvolvedores reais usam. Comprar a Astral dá ao Codex acesso nativo ao toolchain Python mais popular do mercado. É o equivalente a comprar o martelo que todo carpinteiro usa — e então construir um robô carpinteiro que já sabe usar esse martelo. Promptfoo (março): plataforma open-source de testes e segurança para aplicações de IA. A OpenAI vai integrar a tecnologia ao OpenAI Frontier, sua plataforma enterprise para construir "AI coworkers". Quando uma empresa deploya agentes de IA em produção, precisa testar se eles fazem o que devem e não fazem o que não devem. Promptfoo resolvia exatamente isso — agora como parte do produto da OpenAI. O padrão é lock-in via developer tooling. Se você usa Codex para escrever código, Astral para gerenciar pacotes e Promptfoo para testar segurança, trocar de plataforma fica cada vez mais caro. São 17 aquisições desde 2023. Mais da metade é sobre capturar pontos de contato com desenvolvedores. Physical AI: o hardware encontra o foundation model Enquanto a OpenAI compra software, o capital está fluindo para quem constrói IA que move coisas no mundo real. Skild AI levantou US$1,4 bilhão a US$14 bilhões de valuation. A empresa constrói modelos foundation para controle robótico — o equivalente a um GPT, mas para robôs. Liderada por SoftBank, com NVIDIA e Jeff Bezos na mesa. A tese: assim como um LLM entende linguagem, um foundation model para robótica vai entender o mundo físico — gravidade, atrito, geometria de objetos — e traduzir isso em ação motora. Mind Robotics, spin-out da Rivian, fechou US$500 milhões em Series A para robótica industrial. Rhoda AI saiu do stealth com US$450 milhões para automação. Em fevereiro, seis startups de robótica entraram no Unicorn Board — mais do que qualquer outro setor. O total do trimestre: US$6,4 bilhões em 27 empresas de Physical AI. Desses, cerca de US$4 bilhões foram para robótica e US$2 bilhões para semicondutores e hardware de IA. A convergência que importa Physical AI e aquisições de software tools parecem tendências separadas. Não são. O ponto de convergência é autonomia. A OpenAI está construindo agentes de software que operam sozinhos: escrevem código, testam, deployam. As startups de Physical AI estão construindo agentes que operam no mundo real: movem caixas em warehouses, soldam peças em fábricas, dirigem caminhões. Os dois precisam da mesma coisa: modelos foundation potentes, infraestrutura de monitoramento, frameworks de teste e mecanismos de segurança. A diferença é que um opera em bytes e o outro em átomos. Para o ecossistema de startups, a implicação é que a camada de infraestrutura para agentes — o que 41,5% do batch W26 da YC está construindo — precisa funcionar para ambos os mundos. Auth, billing, observabilidade e testes para agentes que operam software E hardware. O mapa de oportunidades Para quem constrói ferramentas de desenvolvedor: a OpenAI está comprando. Se sua ferramenta é boa o suficiente para ter milhões de usuários, você é um target de aquisição. Isso é bom (exit) e ruim (concentração de mercado). A comunidade open-source já está debatendo se as aquisições da Astral e Promptfoo são boas para o ecossistema. Para quem constrói em robótica: US$6,4 bilhões em um trimestre é capital sério, mas concentrado em poucos players. A competição é por talento — engenheiros que entendem tanto ML quanto controle robótico são raríssimos. Se você tem esse time, o capital existe. Para quem constrói infra de agentes: a oportunidade é construir a camada que conecta agentes de software e hardware ao mundo real. Monitoramento, compliance, billing por tarefa executada — tudo precisa ser reinventado. O Q1 de 2026 mostrou que a IA está se expandindo em duas direções simultâneas: mais profunda na stack de software (OpenAI comprando tooling) e mais ampla no mundo físico (robótica e automação). Quem está construindo nessas intersecções tem a melhor posição do mercado.
-
Marina Santos - 14 Mar, 2026
Cursor bate US$2B de ARR e Lovable chega a US$400M: a era do vibe coding
Dois números para começar: US$2 bilhões e US$400 milhões. O primeiro é a receita anualizada do Cursor em março de 2026 — dobrou em três meses. O segundo é a da Lovable, que estava em US$100 milhões em julho de 2025. Oito meses depois, quadruplicou. Esses números não são normais. Nenhuma categoria de software na história cresceu nessa velocidade. E estamos falando de ferramentas que fazem algo que parecia ficção há dois anos: permitir que qualquer pessoa construa software descrevendo o que quer em linguagem natural. Cursor: de IDE para plataforma O Cursor começou como um editor de código com IA embutida. Virou algo maior. Com US$2B de ARR, a empresa está em conversas para levantar capital a um valuation de US$50 bilhões — quase o dobro dos US$29,3B de novembro de 2025. O crescimento não vem só de desenvolvedores. O Cursor está capturando uma fatia de profissionais que antes não programavam: designers, PMs, analistas de dados. A proposta é direta — você descreve a lógica, a IA escreve o código, você itera em cima. O resultado é funcional, testável e deployável. Para startups, o efeito colateral é brutal: o custo de construir um MVP caiu de meses e dezenas de milhares de dólares para dias e algumas centenas. Isso muda a equação de quem pode empreender e com que velocidade. Lovable: a startup que compra startups A Lovable tem uma trajetória ainda mais agressiva. De US$100M para US$400M de ARR em oito meses, avaliada em US$6,6 bilhões. Mais de 200 mil novos projetos criados na plataforma por dia. Mas o que chama atenção é o próximo passo: a Lovable está fazendo aquisições. Já comprou a Molnett, uma provedora de cloud, e está abertamente procurando mais alvos. Uma startup de dois anos comprando outras empresas. Isso normalmente é território de Big Tech. A lógica faz sentido. A Lovable quer controlar a stack inteira — da criação à hospedagem. Se você constrói o app na Lovable e ela também roda o app, o lock-in é quase total. É a mesma estratégia que a Vercel executou com o Next.js, mas acelerada por receita de IA. Replit completa o trio Com menos alarde, o Replit atingiu US$100M de ARR. A plataforma, que começou como IDE online para educação, se reinventou como ambiente de desenvolvimento com IA. O foco é diferente do Cursor (mais técnico) e da Lovable (mais no-code): o Replit está no meio, capturando desenvolvedores juniores e hobbyistas que querem ir além de um protótipo. Juntas, as três empresas representam mais de US$2,5 bilhões de receita anualizada. Há um ano, a categoria nem tinha nome. O que está por trás do crescimento Três fatores: Modelos melhores e mais baratos. Os custos por token caíram pela metade no último ano enquanto a qualidade de geração de código subiu drasticamente. Claude Opus 4.6, GPT-5.3, Gemini 2.5 Pro — todos geram código production-ready com consistência suficiente para sustentar ferramentas como Cursor e Lovable. Distribuição viral. Quando alguém constrói um app funcional em 20 minutos e posta o vídeo, isso gera mais conversões do que qualquer campanha de marketing. O vibe coding é inerentemente demonstrável — o antes/depois é visual e imediato. Demanda reprimida. Milhões de pessoas têm ideias de software que nunca executaram porque não sabiam programar ou não tinham orçamento. Essa demanda existia silenciosamente. Agora tem como ser atendida. E o Brasil nisso? O vibe coding é uma das poucas tendências de IA onde a barreira geográfica praticamente não existe. As ferramentas são globais, os preços são em dólar mas acessíveis, e o resultado é o mesmo independentemente de onde você está. Para o ecossistema brasileiro, isso significa duas coisas. Primeiro: mais gente vai conseguir construir e testar produtos de software sem equipe técnica, o que pode acelerar o número de startups em estágio inicial. Segundo: startups brasileiras de dev tools precisam decidir rápido se competem, complementam ou são adquiridas. A janela está fechando. O que vem pela frente O vibe coding já saiu do hype e entrou no P&L. Com US$2,5B+ de receita combinada e crescimento de 3-4x ao ano, a categoria vai atrair mais capital, mais competição e — inevitavelmente — consolidação. A pergunta não é mais se vibe coding funciona. É quem captura o mercado. E neste momento, Cursor, Lovable e Replit estão definindo as regras.
-
Marina Santos - 06 Mar, 2026
US$189B em um mês: fevereiro bateu o recorde de venture capital — e 3 empresas levaram 83%
Fevereiro de 2026 entrou para a história. US$189 bilhões em investimento global de venture capital em um único mês — o maior já registrado. Para dimensionar: em fevereiro de 2025, o número foi US$21,5 bilhões. A alta é de 780% em um ano. Mas antes de celebrar, um detalhe: três empresas capturaram 83% desse capital. OpenAI levantou US$110 bilhões. Anthropic, US$30 bilhões. Waymo, US$16 bilhões. Juntas, US$156 bilhões de US$189 bilhões. O recorde é real. A distribuição, não. As três rodadas que definiram o mês OpenAI: US$110B a US$840B de valuation. É a maior rodada da história do venture capital por uma ordem de magnitude. Liderada por SoftBank, a captação coloca a OpenAI num patamar de valuation que rivaliza com as maiores empresas públicas de tecnologia do mundo. Para referência: a Meta vale cerca de US$1,5 trilhão. A OpenAI, ainda privada, já está na metade disso. Anthropic: US$30B Series G a US$380B. Liderada por Coatue e GIC. A Anthropic dobrou seu valuation em menos de um ano. Com o Claude dominando o mercado enterprise e o Claude Code virando ferramenta padrão de desenvolvimento, a empresa está capturando receita real — não apenas promessa. Waymo: US$16B. O braço de veículos autônomos da Alphabet continua queimando capital para escalar operações. A rodada é um voto de confiança de que autonomia nível 4 vai funcionar como negócio — não apenas como tecnologia. O que sobra para o resto do ecossistema US$33 bilhões. Esse é o capital que fluiu para todas as outras startups do mundo em fevereiro. É um número alto em termos absolutos — seria um mês forte em qualquer ano anterior. Mas no contexto de um recorde de US$189 bilhões, representa 17% do total. A concentração não é acidente. Os investidores estão fazendo uma aposta clara: os modelos foundation vão ser controlados por um oligopólio de 3-5 empresas, e o custo de competir nessa camada é proibitivo. OpenAI, Anthropic, Google (via Waymo e DeepMind) e talvez xAI e Meta. O resto do ecossistema vai construir em cima. Para startups que constroem na camada de aplicação — agentes verticais, ferramentas de produtividade, infra de deploy — a concentração na camada foundation pode ser boa notícia. Significa que os modelos base vão continuar melhorando rapidamente, que os custos por token vão cair e que a plataforma sobre a qual você constrói fica mais estável. Seu risco como startup é de execução, não de modelo. O contraste com o mercado público O recorde de VC aconteceu no mesmo mês em que ações de software público caíram um trilhão de dólares. Não é coincidência. O mercado está precificando que IA vai substituir, não complementar, boa parte do software tradicional. SaaS de produtividade, ferramentas de CRM, plataformas de atendimento — tudo está sob ameaça de ser reescrito com agentes. Para o investidor de venture, isso é oportunidade: as empresas que vão capturar o valor que sai do software legado ainda são privadas. Para o investidor do mercado público, é risco: a empresa que você tem em carteira pode ser a próxima a ser disrupted por um agente que custa 10% do preço. Quatro takeaways para fundadores 1. A camada foundation não é para você. A menos que você tenha um time de ex-pesquisadores de Anthropic/Google/OpenAI e acesso a centenas de milhões em compute, não tente construir modelos base. O jogo está decidido. 2. A concentração de capital não significa falta de capital. US$33 bilhões para startups que não são OpenAI/Anthropic/Waymo ainda é muito dinheiro. O funding para Series A e B de startups de IA continua saudável. O problema é que os headlines fazem parecer que tudo vai para o topo. 3. Vertical + agente + produção é a tese que levanta capital. Sierra (US$150M ARR), Harvey (US$11B valuation), Cursor (US$2B ARR) — todas são empresas que constroem agentes em verticais específicos e já operam em produção. Investidores querem receita, não demo. 4. O timing importa mais do que nunca. Quando US$189 bilhões entram no mercado em um mês, a velocidade de tudo acelera. Startups que levantam capital rápido e executam rápido capturam mercado. As que esperam ficam para trás — não por serem piores, mas por serem mais lentas. Fevereiro de 2026 foi o mês que confirmou: IA é a maior alocação de capital de risco da história. A pergunta não é mais se o dinheiro está vindo — é se você está posicionado para capturar sua parte.
-
Marina Santos - 20 Feb, 2026
Brasil planeja fundo de R$1B para IA enquanto 975 startups lutam por escala
O BNDES anunciou que planeja um fundo de R$500 milhões a R$1 bilhão para projetos de inteligência artificial e data centers no Brasil. É o maior comprometimento de capital público para IA na história do país. Ao mesmo tempo, o número de startups de IA ativas chegou a 975 — um crescimento de 40% nos últimos anos. Os números são bons. Mas colocados lado a lado com o que está acontecendo lá fora, contam uma história mais complicada. O ecossistema em números O Brasil tem 975 startups de IA ativas, com 71% das operações concentradas no Sudeste — São Paulo lidera com folga. O crescimento é real: eram 352 há poucos anos. Mas a escala ainda é modesta. O dado mais revelador: apenas 23 empresas brasileiras de IA superaram a barreira de US$10 milhões em captação total. Nos Estados Unidos, US$10 milhões é uma rodada seed generosa. Aqui, é um marco que menos de 2,5% das startups de IA conseguiram atingir. Dez startups estão posicionadas para levantar até US$100 milhões em 2026. A mais avançada é a Blip — plataforma de IA conversacional com US$230 milhões captados e mais de 1.500 funcionários. Nagro (agritech com IA) e Idwall (prevenção a fraude com ML) completam o trio de destaque. O fundo do BNDES: o que muda Um fundo de até R$1 bilhão para IA é significativo para o ecossistema brasileiro. Na prática, pode financiar infraestrutura de data centers (que o Brasil precisa desesperadamente para não depender de cloud internacional) e dar fôlego para startups em estágio de crescimento. Mas há coisas que capital público não resolve. O BNDES opera com velocidade, critérios e burocracia diferentes do venture capital. Startups de IA vivem em ciclos de meses — modelos ficam obsoletos, janelas de mercado fecham rápido. Um fundo que leva seis meses para liberar recursos pode chegar tarde demais. O programa Rio.IA 2026 ilustra o descompasso de escala. A iniciativa, parceria entre ABDI, PUC-Rio e Prefeitura do Rio, vai selecionar 8 startups e dar R$80 mil para cada uma desenvolver proof of concept. São R$640 mil no total. Para referência: o Cursor levantou capital a um valuation de US$50 bilhões na mesma semana. Não é para desvalorizar a iniciativa — qualquer capital ajuda em estágio inicial. Mas é importante ter clareza sobre a ordem de grandeza do que estamos falando. O que falta para escalar O gap do ecossistema brasileiro de IA não é de talento. O Brasil forma engenheiros competentes, tem universidades de pesquisa relevantes em ML e NLP, e os custos de operação são menores que nos EUA. O problema é estrutural: Capital de risco insuficiente. O venture capital brasileiro dedicado a IA é uma fração do americano. Sem rodadas Series A e B robustas, startups que validam produto não conseguem escalar. Muitas acabam migrando para os EUA — levando o valor junto. Poucos exits. O ecossistema de IA no Brasil ainda não teve um IPO ou aquisição de referência que sinalize retorno para investidores. Sem exits, o ciclo de capital não se retroalimenta. Concentração geográfica. 71% no Sudeste significa que talentos e oportunidades em outras regiões ficam desconectados do ecossistema. O modelo de trabalho remoto ajuda, mas aceleradoras, eventos e capital ainda estão fortemente concentrados em São Paulo. Infraestrutura de compute. Treinar e rodar modelos exige GPUs. Data centers no Brasil são caros e escassos comparados com os EUA. O fundo do BNDES pode ajudar aqui, mas a defasagem é de anos. Onde está a oportunidade real O Brasil não vai competir com OpenAI ou Anthropic na construção de modelos foundation. Isso é óbvio. Mas existem oportunidades onde o ecossistema local tem vantagem: IA aplicada a problemas brasileiros. Agritech (o Brasil é potência agrícola), fintech (sistema financeiro digital avançado), healthtech (SUS é um dos maiores sistemas de saúde do mundo) e legaltech (sistema jurídico complexo e litigioso). Nesses verticais, dados locais e conhecimento regulatório são moats reais. Infraestrutura de agentes para LATAM. O batch W26 da YC mostrou que 41,5% das startups estão construindo infraestrutura para agentes autônomos. Startups brasileiras podem construir essa camada adaptada para o mercado latino-americano — com suporte a português e espanhol, integração com sistemas locais e compliance regional. Custo de operação como vantagem. Uma equipe de IA no Brasil custa uma fração do equivalente americano. Para startups que precisam de operação humana-no-loop (etiquetagem de dados, fine-tuning supervisionado, QA de outputs), o Brasil é competitivo. A realidade é dual O ecossistema brasileiro de IA está crescendo — isso é inegável. O BNDES entrando com capital, programas como Rio.IA surgindo, quase mil startups ativas. A direção é positiva. Mas a velocidade global é outra. Enquanto o Brasil planeja um fundo de R$1 bilhão, a Anthropic levantou US$30 bilhões em uma única rodada. Enquanto 23 startups brasileiras passaram de US$10 milhões, 14 startups do YC W26 já tinham US$1 milhão de ARR antes de Demo Day. O Brasil não precisa igualar esses números. Precisa encontrar os nichos onde pode competir com vantagem — e investir neles com a velocidade que o mercado exige. O capital está chegando. A questão é se chega rápido o suficiente.
-
Marina Santos - 22 Jan, 2026
Sierra bate US$150M de ARR: agentes de IA em produção não são mais promessa
A Sierra acaba de ultrapassar US$150 milhões de receita recorrente anual. Para uma empresa de dois anos, fundada por Bret Taylor (ex-co-CEO da Salesforce) e Clay Bavor (ex-Google), o número é impressionante. Mas o detalhe que importa é outro: este foi o primeiro trimestre de US$50 milhões na história da empresa. De US$26 milhões no fim de 2024 para US$100 milhões em novembro de 2025 e agora US$150 milhões. A curva não é linear — é exponencial. E isso muda a conversa sobre agentes de IA de "funciona?" para "como escalar?". O que a Sierra faz diferente A Sierra constrói agentes de IA para atendimento ao cliente. Não chatbots que respondem perguntas frequentes — agentes que resolvem problemas, processam transações, cancelam serviços e escalam para humanos apenas quando necessário. Os clientes incluem ADT, SiriusXM, Rivian e SoFi. São empresas com milhões de interações de suporte por mês. Quando um agente da Sierra atende uma chamada de um cliente da Rivian com problema na recarga do veículo, ele acessa os sistemas internos, diagnostica o problema, agenda o serviço e confirma — sem transferir para um humano. O dado mais revelador: desde setembro de 2025, agentes de voz superaram texto como canal principal na Sierra. Centenas de milhões de chamadas processadas por IA. Isso é significativo porque voz é o canal mais difícil — requer compreensão em tempo real, manejo de interrupções, detecção de emoção e resposta natural. Se funciona em voz, funciona em qualquer canal. O modelo de negócio que sustenta o crescimento A Sierra não cobra por seat. Cobra por resultado. Quando um agente resolve uma interação sem escalar para humano, a Sierra captura uma fração do custo que o cliente pagaria por um atendente. É um modelo onde o incentivo está alinhado: a Sierra só ganha quando entrega valor. Para o cliente, a matemática é direta. Um atendente humano custa entre US$15 e US$40 por hora, dependendo do mercado. Um agente da Sierra custa uma fração disso por interação resolvida. Quando você multiplica por milhões de chamadas mensais, a economia é brutal. E tem o efeito composto: cada interação gera dados que melhoram o modelo para o próximo atendimento. Quanto mais a Sierra opera, melhor fica. Quanto melhor fica, mais volume o cliente direciona para os agentes. É um flywheel que explica por que o trimestre saltou de US$33M para US$50M. O que isso significa para o ecossistema A Sierra é a prova de conceito mais convincente de que agentes de IA em produção geram receita real e recorrente. Três lições para quem está construindo no espaço: Vertical vence horizontal. A Sierra não construiu um framework genérico de agentes. Construiu agentes de atendimento ao cliente. Essa especificidade permite integração profunda com sistemas de cada vertical, dados de treinamento mais relevantes e um ciclo de vendas que o cliente entende — "substitui X horas de call center por Y interações automatizadas". Voz é o multiplicador. A maioria das startups de agentes começou por texto (chat, email, tickets). A Sierra apostou em voz desde cedo. Quando agentes de voz funcionam, o TAM explica: chamadas telefônicas de suporte movimentam centenas de bilhões de dólares por ano globalmente. É o maior mercado de trabalho repetitivo que existe. Precificação por resultado é o padrão emergente. Cobrar por seat é SaaS tradicional. Quando um agente substitui trabalho humano, o modelo natural é cobrar pelo trabalho feito. Isso alinha incentivos e facilita o business case do cliente — mas exige confiança extrema na qualidade do agente. Se o agente falha, a Sierra não ganha. Isso força a empresa a manter qualidade alta. A competição está esquentando A Sierra não está sozinha. Salesforce empurra o Agentforce com toda a força da sua base instalada. A Intercom integrou agentes de IA no seu produto. Startups como Ada, Forethought e Decagon competem em nichos específicos. Mas US$150M de ARR com crescimento acelerando cria um fosso difícil de cruzar. A Sierra tem dados de centenas de milhões de interações reais, integrações profundas com sistemas enterprise e uma marca que está virando sinônimo de "agentes de atendimento que funcionam". Para fundadores pensando em entrar nesse espaço: atendimento ao cliente genérico provavelmente já tem dono. A oportunidade está nos verticais adjacentes — suporte técnico especializado, vendas internas, onboarding de clientes, cobrança — onde a lógica de agente se aplica mas ninguém domina ainda. A Sierra provou o modelo. Agora a pergunta é quem replica o sucesso em outros verticais antes que a própria Sierra chegue lá.
-
Marina Santos - 10 Jan, 2026
xAI levanta US$20B e Humans& fecha seed de US$480M: janeiro começou pesado
Primeira semana de janeiro e o ano já tem cara. A xAI de Elon Musk fechou uma Series E de US$20 bilhões — acima da meta de US$15 bilhões. Duas semanas depois, a Humans&, uma startup com três meses de existência, levantou US$480 milhões em seed a um valuation de US$4,48 bilhões. Para contextualizar: US$480 milhões de seed é a segunda maior da história do venture capital. A primeira foi a de Mira Murati com a Thinking Machines Lab — US$2 bilhões a US$12 bilhões em julho de 2025. Estamos num mercado onde rodadas seed superam o que era Series C há três anos. xAI: US$20B e fundos soberanos na mesa A rodada da xAI trouxe um mix revelador de investidores. NVIDIA e Cisco entraram como estratégicos — querem garantir que o Grok continue comprando suas GPUs e infraestrutura de rede. Fidelity e Baron Capital representam o capital institucional americano. Mas o detalhe que importa é outro: Qatar Investment Authority e MGX (Abu Dhabi) estão na mesa. Fundos soberanos do Golfo investindo diretamente em IA não é novidade — mas a escala é. Não estão mais investindo via fundos de VC. Estão sentando na cap table ao lado da NVIDIA. Isso sinaliza que IA virou infraestrutura geopolítica, não apenas categoria de investimento. O valuation estimado é de US$230 bilhões, colocando a xAI no mesmo patamar de OpenAI e Anthropic. O capital vai para expandir os supercomputadores Colossus I e II — mais de um milhão de GPUs equivalentes. É uma aposta de que escala de compute ainda é o jogo. Humans&: o seed que não faz sentido (até fazer) A Humans& é o tipo de empresa que só existe neste mercado. Fundada em setembro de 2025 por Andi Peng (ex-Anthropic, trabalhou no treinamento do Claude 3.5 até 4.5), Georges Harik (sétimo funcionário do Google), Eric Zelikman e Yuchen He (ex-xAI, ajudaram a construir o Grok) e Noah Goodman (professor de Stanford em psicologia e ciência da computação). A tese é "IA centrada no humano" — ferramentas onde colaboração e insight humano permanecem centrais. Soa vago? Soa. Mas os investidores não parecem se importar. NVIDIA, Jeff Bezos, SV Angel, GV (Google Ventures) e Emerson Collective (Laurene Powell Jobs) colocaram US$480 milhões numa empresa sem produto público. O que está sendo precificado aqui não é produto — é time. Ex-pesquisadores dos três maiores labs de IA do mundo, reunidos com um dos primeiros engenheiros do Google. O mercado está dizendo que esse grupo vai construir algo relevante, e o custo de não estar na cap table é maior do que o risco de entrar cedo. A maior parte do capital vai para compute de treinamento de modelos. Isso confirma que a Humans& não está construindo um wrapper — está competindo na camada foundation. Skild AI e Baseten completam o mês Dois outros deals merecem atenção. A Skild AI, que constrói "cérebros para robôs" — modelos foundation para controle robótico — levantou US$1,4 bilhão a US$14 bilhões de valuation, liderado por SoftBank com NVIDIA e Jeff Bezos na mesa de novo. A Baseten, infraestrutura para deploy de modelos de IA, fechou US$300 milhões em Series E a US$5 bilhões, liderada por IVP e CapitalG. Para quem constrói startups de IA e precisa servir modelos em produção, Baseten é a camada de infraestrutura que faz o deploy funcionar sem dor de cabeça. O que janeiro diz sobre 2026 Mais de US$22 bilhões em mega-rodadas de IA em um único mês. O padrão é claro: Capital soberano está entrando direto. Qatar, Abu Dhabi, Cingapura — não via intermediários, mas como investidores diretos em rodadas de bilhões. IA é geopolítica. Time importa mais que produto. Humans& levantou quase meio bilhão sem produto público. O mercado está precificando talento e potencial, não tração. Isso é bolha? Talvez. Mas enquanto os modelos foundation continuarem melhorando a cada trimestre, a aposta em times de elite faz sentido — mesmo a valuations absurdos. Infraestrutura e compute ainda dominam. xAI comprando GPUs, Skild AI treinando modelos para robôs, Baseten servindo modelos em produção. O dinheiro está indo para quem constrói a base, não para quem constrói em cima dela. Para startups menores, a mensagem é ambígua. De um lado, há mais capital no mercado do que nunca. De outro, a concentração é extrema — meia dúzia de empresas captura a maior parte. Se você não está construindo na camada foundation ou em infraestrutura crítica, a competição por capital continua acirrada. Janeiro de 2026 deu o tom. Resta ver se o resto do ano sustenta o ritmo — ou se essa festa tem data de validade.