IA agêntica nas empresas: por que 40% dos projetos vão fracassar e como evitar estar nessa lista

IA agêntica nas empresas: por que 40% dos projetos vão fracassar e como evitar estar nessa lista

O Gartner projeta que mais de 40% dos projetos de IA agêntica em empresas serão cancelados até 2027. O motivo não é falha de tecnologia — é falha de governança. Em paralelo, o relatório State of AI 2026 da Deloitte mostra que apenas uma em cada cinco organizações possui um modelo maduro de governança para agentes autônomos. O gap entre velocidade de adoção e capacidade de controle está se ampliando. E é nesse gap que o risco operacional, jurídico e reputacional se acumula. IA agêntica não é chatbot com nome novo A distinção importa para quem toma decisão de investimento. Um chatbot recebe uma pergunta e devolve uma resposta. Um agente de IA recebe um objetivo e executa ações para atingi-lo — navega sistemas, toma decisões intermediárias, acessa APIs, modifica dados, dispara processos. A diferença operacional é fundamental: agentes agem. Não sugerem — executam. Um agente de compras pode negociar com fornecedores, aprovar ordens de compra e atualizar o ERP. Um agente de atendimento pode emitir reembolsos, alterar contratos e escalar casos para humanos. Quando um agente erra, o erro não fica contido numa janela de chat. Ele se propaga pelos sistemas integrados. Em cascata. É essa capacidade de ação autônoma que torna a governança de IA agêntica fundamentalmente diferente da governança de IA generativa. O risco não é o agente gerar um texto incorreto. É o agente executar uma ação incorreta com consequências reais no P&L. Por que 40% vão fracassar Três causas raiz explicam a projeção do Gartner. Nenhuma é técnica. Ausência de inventário. A maioria das organizações não sabe quantos agentes opera, onde estão deployados, quais sistemas acessam e quem é o owner de negócio de cada um. Sem inventário, não há governança — há improvisação. É o equivalente a ter funcionários que ninguém contratou formalmente operando em sistemas críticos sem supervisão. Permissões sem controle. Agentes estão sendo deployados com credenciais amplas porque é mais rápido. A lógica de "dar acesso total e depois restringir" é a mesma que gerou os maiores incidentes de segurança da última década. Quando um agente com permissões excessivas interpreta mal uma instrução ou alucina um objetivo intermediário, o dano é proporcional ao acesso que ele tem. Observabilidade zero. Organizações conseguem monitorar uptime e latência de um agente. Mas não monitoram o que o agente decidiu, por que decidiu e qual foi a cadeia de ações. Quando algo dá errado — e vai dar — não há audit trail para diagnosticar a causa raiz, atribuir responsabilidade ou demonstrar ao regulador que existia supervisão. Esses três gaps são sistêmicos. Resolver um sem os outros cria uma falsa sensação de controle. Os 5 pilares de governança para IA agêntica A recomendação aqui é direta: antes de escalar agentes em produção, a organização precisa ter cinco capacidades operacionais funcionando. Não como política — como processo. 1. Inventário de agentes. Registro centralizado de todo agente em operação: nome, função, sistemas acessados, owner de negócio, classificação de risco, data de deploy, modelo subjacente e versão. Atualizado com a mesma disciplina de um inventário de ativos de TI. Se a organização não consegue listar seus agentes em 24 horas, não está pronta para escalar. 2. Identidade e autenticação. Cada agente precisa de uma identidade única — não compartilhada com outros agentes ou com credenciais de usuários humanos. Autenticação baseada em certificados, tokens de curta duração e registro de cada sessão. Quando um agente executa uma ação, o sistema precisa saber qual agente, com qual identidade, em qual contexto. 3. Menor privilégio. Agentes devem operar com o mínimo de permissões necessário para a tarefa específica. Acesso amplo por conveniência é risco acumulado. A implementação exige revisão periódica de permissões — trimestral no mínimo — com owner de negócio atestando que cada permissão é necessária. O paralelo com IAM (Identity and Access Management) para humanos é direto e intencional. 4. Observabilidade de decisões. Monitorar métricas de infraestrutura não é suficiente. A organização precisa registrar a cadeia completa de decisões do agente: objetivo recebido, plano gerado, ações executadas, dados acessados, resultados obtidos. Esse log é o que permite audit trail, root cause analysis e demonstração de compliance. Sem observabilidade de decisões, a organização não sabe o que seus agentes estão fazendo — e ninguém no board deveria aceitar isso. 5. Compliance contínuo. Governança de agentes não é um projeto com data de entrega. É um processo contínuo que acompanha o ciclo de vida do agente: deploy, operação, atualização, descomissionamento. Cada mudança de modelo, de prompt, de permissão ou de escopo requer reavaliação. O framework deve incluir testes automatizados de compliance — o agente ainda opera dentro dos limites definidos? — executados com frequência programada. O framework de Singapura como referência Em janeiro de 2026, a IMDA (Infocomm Media Development Authority) de Singapura publicou um framework de governança específico para IA agêntica. É o primeiro de um regulador nacional a endereçar agentes autônomos de forma estruturada. O framework é relevante por três razões: aborda explicitamente o risco de ações autônomas em cascata, define responsabilidades entre operadores e desenvolvedores de agentes, e propõe uma estrutura de accountability que pode ser auditada. Para organizações que operam globalmente, o framework de Singapura funciona como benchmark — não como obrigação regulatória, mas como referência de maturidade. Se a governança interna da organização não atende ao que Singapura propõe, há gaps a endereçar. O contexto brasileiro No Brasil, o cenário adiciona camadas de complexidade. A LGPD já exige explicabilidade para decisões automatizadas que afetem titulares de dados (art. 20). Um agente de IA que toma decisões autônomas sobre crédito, contratação ou precificação precisa ter sua lógica explicável. Agentes que operam como caixas-pretas violam esse requisito antes mesmo de entrar em produção. O PL 2338 (Marco Legal de IA) vai formalizar obrigações adicionais: avaliação de impacto, supervisão humana, transparência. Empresas brasileiras que já estruturam governança de IA agêntica hoje estarão posicionadas. As que esperarem pela regulação vão enfrentar o custo de adequação sob pressão — sempre mais caro e mais arriscado. O checklist que o CAIO precisa levar ao conselho Cinco perguntas que o conselho deveria conseguir responder antes de autorizar a escala de agentes em produção:Quantos agentes operam na organização hoje, e existe um inventário centralizado com owner de negócio para cada um? Cada agente tem identidade única, ou agentes compartilham credenciais entre si ou com usuários humanos? As permissões de cada agente seguem o princípio de menor privilégio, com revisão periódica documentada? Existe log completo da cadeia de decisões dos agentes — não apenas métricas de infraestrutura? O framework de governança cobre o ciclo completo do agente, incluindo atualização e descomissionamento?Se a resposta para qualquer uma dessas perguntas for "não" ou "não sabemos", a organização não está pronta para escalar. E escalar sem controle é acumular risco que vai se materializar. O Gartner está dizendo que 40% vão descobrir isso da forma mais cara possível. A recomendação é que esse checklist entre na próxima pauta do conselho. Não como item informativo — como item deliberativo. O momento de governar agentes de IA é antes de eles estarem em produção, não depois do primeiro incidente.

Shadow AI e LGPD: 53% das empresas brasileiras não detectam IA não autorizada — e a ANPD está prestando atenção

Shadow AI e LGPD: 53% das empresas brasileiras não detectam IA não autorizada — e a ANPD está prestando atenção

Dados da Cisco publicados em março de 2026 revelam que apenas 5% das empresas brasileiras alcançaram maturidade em cibersegurança — e 53% não têm confiança para detectar o uso não autorizado de ferramentas de IA por seus próprios colaboradores. O número importa porque a ANPD entrou em fase de maturidade fiscalizatória, o PL 2338 (Marco Legal de IA) está em votação no Congresso e a convergência entre proteção de dados e governança de IA cria uma exposição regulatória dupla que a maioria das organizações brasileiras não está equipada para enfrentar. O que é Shadow AI — e por que virou pauta de board Shadow AI é o uso de ferramentas de inteligência artificial por colaboradores sem conhecimento, aprovação ou governança da organização. ChatGPT, Copilot, Gemini, Claude, ferramentas de geração de imagem, transcrição automática — qualquer aplicação de IA usada fora da política corporativa entra nessa categoria. O fenômeno não é novo, mas a escala mudou. Em 2024, Shadow AI era exceção. Em 2026, é rotina. A facilidade de acesso — basta um navegador e um e-mail pessoal — significa que equipes de vendas, jurídico, RH e finanças estão usando LLMs para redigir contratos, analisar currículos, gerar relatórios e processar dados de clientes. Sem que compliance, segurança da informação ou o board saibam. O dado da Cisco não surpreende quem acompanha o mercado. Surpreende quem precisa responder pelo risco. A exposição dupla: LGPD + Marco Legal de IA A LGPD completou cinco anos de vigência em 2025, e a ANPD saiu da fase de orientação para a fase de fiscalização ativa. Multas, advertências e determinações de adequação estão crescendo. O regulador tem mandato, estrutura e, agora, jurisprudência para agir. Simultaneamente, o PL 2338 — que estabelece o Marco Legal de IA no Brasil — está em fase final de votação. O projeto prevê obrigações de transparência, avaliação de impacto algorítmico e supervisão humana para sistemas de IA de alto risco. Quando aprovado, vai exigir que empresas demonstrem governança formal sobre IA em uso — não apenas sobre IA que a empresa comprou, mas sobre toda IA que opera dentro da organização. A convergência cria uma exposição dupla:LGPD: se um colaborador insere dados pessoais de clientes em um LLM público sem base legal adequada, há violação de proteção de dados. A empresa responde — não o colaborador. Marco Legal de IA: se a organização não tem inventário de sistemas de IA em uso e um desses sistemas toma ou informa decisões de alto risco, há descumprimento de obrigações de governança.A referência internacional é o EU AI Act, que entra em vigor em agosto de 2026 com obrigações similares. Empresas brasileiras que operam na Europa ou com dados de cidadãos europeus enfrentam regulação tripla: LGPD, EU AI Act e, em breve, Marco Legal de IA. O que Shadow AI significa para o P&L Para o CFO, Shadow AI se traduz em três linhas de risco financeiro: Multas regulatórias. A LGPD prevê sanções de até 2% do faturamento bruto, limitadas a R$ 50 milhões por infração. Quando dados pessoais são processados por LLMs públicos sem base legal, sem consentimento informado e sem registro de operação, a exposição é concreta. A ANPD não precisa do Marco Legal de IA para autuar — a LGPD já cobre o cenário. Vazamento de dados sensíveis. Colaboradores que inserem dados de clientes, informações financeiras ou propriedade intelectual em ferramentas de IA sem governança estão, na prática, exportando dados corporativos para infraestruturas de terceiros sem contrato de processamento, sem cláusula de confidencialidade e sem garantia de que os dados não serão usados para treinamento do modelo. O custo de remediação pós-incidente — notificação de titulares, forensics, assessoria jurídica, dano reputacional — é ordens de grandeza superior ao custo de prevenção. Decisões sem rastreabilidade. Quando um analista de crédito usa IA para auxiliar uma decisão de concessão, um recrutador usa IA para triar currículos ou um advogado corporativo usa IA para redigir pareceres, a decisão tem componente algorítmico. Se não há registro de qual ferramenta foi usada, com que prompt e qual foi o output, a empresa não consegue cumprir a obrigação de explicabilidade prevista no artigo 20 da LGPD — nem a que virá com o Marco Legal de IA. Três riscos que o board precisa conhecer — e uma oportunidade Risco 1: Dados pessoais em LLMs públicos. O risco mais imediato. Toda vez que um colaborador cola dados de clientes em um ChatGPT gratuito, a empresa perdeu controle sobre aqueles dados. Não há contrato de processamento, não há DPA (Data Processing Agreement), não há como exigir exclusão. A violação da LGPD já está consumada. Risco 2: Decisões automatizadas sem governance. Se IA informa ou toma decisões que afetam pessoas — contratação, crédito, precificação, atendimento — e não há framework de supervisão, a empresa opera no escuro regulatório. Quando o regulador perguntar, a resposta não pode ser "não sabíamos que estavam usando IA". Risco 3: Dependência de vendors sem contrato formal. Muitas ferramentas de IA gratuitas ou freemium têm termos de uso que permitem ao provider utilizar dados inseridos para treinamento do modelo. Se não há contrato enterprise com cláusulas de proteção de dados, a empresa está transferindo risco para um vendor que não assumiu nenhuma obrigação. A oportunidade. Empresas que estruturam governança de IA agora — antes da aprovação do PL 2338 — terão vantagem competitiva. Em processos de licitação, due diligence de M&A, certificações e relações com investidores institucionais, a capacidade de demonstrar governance de IA é diferencial. Quem governar primeiro, lidera. Cinco ações para conter Shadow AI antes da fiscalização 1. Inventário de ferramentas de IA em uso. Começar pelo mapeamento. Quais ferramentas de IA os colaboradores estão usando? Em quais departamentos? Com que dados? O inventário não precisa ser perfeito — precisa existir. Ferramentas de CASB (Cloud Access Security Broker) e DLP (Data Loss Prevention) conseguem identificar tráfego para APIs de IA. A área de TI tem os meios. O que falta, em geral, é o mandato. 2. Política de uso aceitável de IA. Documento claro, objetivo, treinado — não um PDF de 40 páginas no SharePoint. A política precisa responder: quais ferramentas são aprovadas? Que tipos de dados podem ser inseridos? Quais usos são proibidos? Quem aprova exceções? Política sem treinamento é documento. Política treinada é governança. 3. Monitoramento contínuo. Não basta mapear uma vez. Shadow AI é dinâmico — novas ferramentas surgem semanalmente. Implementar monitoramento de tráfego para endpoints de IA conhecidos (api.openai.com, api.anthropic.com, generativelanguage.googleapis.com) e estabelecer alertas. A prevenção é técnica, mas a decisão de implementar é do board. 4. Treinamento de colaboradores. A maioria dos colaboradores que usa IA não autorizada não tem intenção maliciosa — tem intenção produtiva. O treinamento deve explicar o risco (para a empresa e para o próprio colaborador), apresentar as ferramentas aprovadas e mostrar como usar IA de forma segura. O tom é educação, não punição. 5. Framework de governança formalizado. Para organizações que querem ir além do mínimo, a recomendação é adotar um framework reconhecido — NIST AI RMF, ISO 42001 ou o próprio guia de governança da ANPD — como base para estruturar governança de IA. O framework fornece taxonomia de risco, processos de avaliação e critérios de auditoria. Quando o regulador perguntar "qual é o framework de governança de IA da empresa?", a resposta precisa ser mais substancial que "estamos trabalhando nisso". A janela está aberta — mas estreitando Shadow AI não é problema de TI. É risco operacional com implicações regulatórias, financeiras e reputacionais que pertencem à agenda do board. A LGPD já dá à ANPD os instrumentos para fiscalizar o tratamento de dados pessoais por ferramentas de IA não governadas. O PL 2338 vai formalizar o que hoje é implícito. A recomendação aqui é direta: colocar Shadow AI na pauta da próxima reunião de diretoria. Aprovar o inventário. Mandar a política de uso aceitável. Designar accountability. Não esperar a fiscalização definir a urgência — porque quando o regulador chega, o custo de adequação é sempre maior do que o custo de prevenção. A pergunta para quem lidera hoje não é se colaboradores estão usando IA sem autorização. Estão. A pergunta é se a empresa sabe onde, com que dados e sob que risco. Cinquenta e três por cento das organizações brasileiras não conseguem responder. A sua precisa conseguir.

O vale da morte dos agentes de IA: 78% pilotam, 14% escalam — e quem lucra é quem vende a pá

O vale da morte dos agentes de IA: 78% pilotam, 14% escalam — e quem lucra é quem vende a pá

Uma pesquisa de março de 2026 com 650 líderes de tecnologia trouxe dois números que resumem o estado dos agentes de IA nas empresas: 78% têm pelo menos um piloto rodando. Apenas 14% conseguiram escalar para uso organizacional. A distância entre esses dois números é o que o mercado está chamando de "vale da morte dos agentes". E como todo vale da morte, é ao mesmo tempo um cemitério de projetos e uma oportunidade enorme para quem resolve o problema certo. Os 5 bloqueadores que travam a escalada Os dados da pesquisa detalham onde os pilotos morrem. Não é na tecnologia do agente em si — é em tudo que está ao redor dele. Integração com sistemas legados (46%). Quase metade dos líderes apontam isso como o bloqueador principal. Um agente que funciona no sandbox não sobrevive ao encontrar um ERP de 15 anos, APIs SOAP, bancos de dados sem documentação e processos que ninguém mapeou completamente. A complexidade não é construir o agente — é conectá-lo ao mundo real da empresa. Qualidade inconsistente em volume (32%). Um agente que acerta 95% das respostas em um piloto com 500 interações pode cair para 80% quando processa 50 mil. Alucinações que são anedota em piloto viram risco operacional em produção. E a maioria das empresas não tem ferramentas para detectar essa degradação em tempo real. Ausência de ferramentas de monitoramento. Quando um agente toma uma decisão errada às 3h da manhã, quem percebe? Dashboards de observabilidade para agentes autônomos praticamente não existiam até recentemente. As ferramentas de APM tradicionais — Datadog, New Relic — foram construídas para monitorar software determinístico, não sistemas que tomam decisões probabilísticas. Falta de ownership organizacional. De quem é o agente? Do time de IA? De produto? De operações? Em muitas empresas, o piloto é tocado por um squad de inovação que não tem poder para forçar integração com sistemas core. Quando o piloto precisa virar produção, esbarra na política interna. Dados de treinamento insuficientes. Agentes precisam de dados do contexto específico da empresa para funcionar bem. Muitas organizações descobrem, tarde demais, que seus dados internos são desorganizados, incompletos ou inacessíveis. O investimento em curadoria e pipeline de dados é subestimado em 40% a 60%, segundo a pesquisa. Picks and shovels: a tese de infraestrutura Na corrida do ouro da Califórnia, quem mais lucrou foram os vendedores de pás e picaretas. Na corrida dos agentes de IA, a lógica é a mesma. Se 78% das empresas estão pilotando agentes e apenas 14% escalam, existe um mercado massivo de organizações dispostas a pagar por ferramentas que resolvam o gap. Não é mais uma questão de "se" agentes vão para produção — é uma questão de "com qual infraestrutura". O batch W26 da YC confirmou essa tese de forma inequívoca: 41,5% das startups selecionadas constroem infraestrutura para agentes autônomos. Autenticação, testes, billing, monitoramento, segurança. A YC não está apostando em mais agentes — está apostando nas ferramentas que fazem agentes funcionarem em escala. Quem está resolvendo o problema O ecossistema de startups de infraestrutura para agentes está se formando rápido. Algumas categorias que estão ganhando tração: Observabilidade para agentes. Startups construindo dashboards que monitoram não só latência e uptime, mas qualidade de decisão, taxa de alucinação, drift de comportamento e custo por tarefa. É o Datadog dos agentes — e quem chegar primeiro com um produto que funciona em produção vai capturar um mercado que não existia dois anos atrás. Avaliação e testing. Frameworks que permitem testar agentes antes do deploy, medir performance em cenários adversos e detectar regressões. O equivalente a CI/CD para sistemas não-determinísticos. Se um agente vai aprovar empréstimos ou fazer triagem médica, alguém precisa garantir que ele funciona antes de ir ao ar. Integração e orquestração. Plataformas que conectam agentes a sistemas legados sem exigir que a empresa reescreva tudo. Middlewares que traduzem entre o mundo de APIs modernas e os ERPs, CRMs e bancos de dados que existem há décadas. É o problema mais chato e talvez o mais lucrativo — porque toda empresa que quer escalar agentes esbarra nele. Governança e compliance. Ferramentas que definem o que um agente pode e não pode fazer, auditam decisões e mantêm logs para reguladores. À medida que agentes tomam decisões com impacto financeiro e legal, essa camada deixa de ser nice-to-have e vira requisito. A oportunidade brasileira no meio do gap Aqui é onde eu conecto os pontos. O ecossistema brasileiro de IA tem 975 startups ativas e um gap de capital que dificulta competir em modelos foundation ou em agentes verticais que exigem escala global. Mas infraestrutura de agentes é diferente. Primeiro, a competição é mais fragmentada. Nenhuma startup domina observabilidade ou testing de agentes da mesma forma que a OpenAI domina modelos. A janela está aberta. Segundo, o mercado latino-americano tem necessidades específicas. Integrações com sistemas locais — TOTVS, SAP adaptado para Brasil, sistemas do governo — exigem conhecimento que startups americanas não têm. Uma startup brasileira que constrói a camada de integração entre agentes e sistemas corporativos da América Latina tem um moat geográfico real. Terceiro, custo de operação. Construir ferramentas de infraestrutura exige engenharia, não datasets bilionários ou clusters de GPUs. Uma equipe de engenharia forte no Brasil pode competir em qualidade a uma fração do custo de uma equipe no Vale do Silício. O BNDES planeja um fundo de até R$1 bilhão para IA. Se parte desse capital for direcionada para startups de infraestrutura de agentes — e não apenas para aplicações de IA genéricas — o ecossistema pode capturar uma fatia relevante de um mercado global que está nascendo agora. O dinheiro está na camada de baixo A narrativa dominante de IA é sobre agentes cada vez mais inteligentes. Modelos maiores, benchmarks quebrados, demos impressionantes. Mas o dado de 78% vs 14% conta outra história: inteligência não é o gargalo. Infraestrutura é. Empresas não estão falhando porque seus agentes são burros. Estão falhando porque não têm como conectá-los, monitorá-los, testá-los e governá-los em escala. Quem resolver esses problemas vai construir as empresas mais duráveis desta era — porque infraestrutura é a camada que sobrevive às mudanças de modelo, de framework e de hype. Na corrida do ouro dos agentes, a maioria está comprando ouro. Eu estou de olho em quem está vendendo a pá.

YC W26: 60% do batch é IA — e a infraestrutura de agentes domina

YC W26: 60% do batch é IA — e a infraestrutura de agentes domina

A Y Combinator acabou de encerrar o Demo Day do batch W26. Os números: 196 startups apresentadas entre 24 e 26 de março. Dessas, 60% são de IA — contra 40% em 2024. Mas o dado que importa de verdade é outro: 41,5% do batch inteiro está construindo infraestrutura para agentes autônomos. Não são chatbots. São ferramentas de autenticação, testes, segurança, monitoramento e billing para agentes que operam sozinhos em produção. A YC está dizendo, com dinheiro e seleção, que a era dos agentes já começou — e que falta o encanamento para ela funcionar. O batch mais forte da história da YC Não é exagero. 14 startups chegaram ao Demo Day com US$1 milhão de receita recorrente anual. Isso nunca aconteceu. O Rebel Fund, que acompanha cada batch com métricas proprietárias, classificou 35% das empresas no top 20% de todas as startups que já passaram pela YC. Analistas projetam algo em torno de 20 unicórnios saindo deste batch — uma taxa de 10%, mais que o dobro da média histórica de 4,5%. É cedo para confirmar, mas a combinação de receita real + tese forte + timing de mercado sustenta o otimismo. Infraestrutura de agentes: a nova categoria Se em 2024 a YC selecionou startups que usavam IA, em 2026 ela está selecionando startups que fazem a IA funcionar em escala. A diferença é sutil mas fundamental. Pense assim: quando agentes autônomos começam a fechar contratos, operar supply chains e tomar decisões financeiras, alguém precisa garantir que eles tenham permissão para agir, que seus outputs sejam testáveis, que o billing funcione por tarefa executada e que um humano consiga monitorar o que está acontecendo. Essa é a camada que 41,5% do batch está construindo. É a lógica de "picks and shovels" aplicada à corrida do ouro dos agentes. Quem vende a infraestrutura lucra independentemente de qual agente vence. O giro para o mundo físico Outra mudança silenciosa: o batch W26 tem uma presença forte de startups atacando problemas do mundo físico. Robótica, energia, agricultura, construção civil. A onda de consumer AI de 2023-2024 — apps de geração de imagem, wrappers de ChatGPT — praticamente desapareceu. A ARC Prize Foundation, uma das startups selecionadas, cria benchmarks de AGI usados por OpenAI, Anthropic e Google. A Asimov coleta dados de movimento humano para treinar robôs humanoides. A Pocket já despachou mais de 30 mil unidades de hardware em cinco meses. Saúde também aparece com força — cerca de 10% do batch. Legal tech está acelerando. O padrão é claro: investidores querem IA que resolve problemas concretos, com moat defensável e ciclo de vendas corporativo. E o Brasil? A YC não divulga a lista completa de países, mas o ecossistema brasileiro de IA está num momento interessante. O número de startups ativas de IA no Brasil cresceu 40% nos últimos anos — de 352 para 975. O BNDES planeja um fundo de R$500 milhões a R$1 bilhão para IA e data centers. O programa Rio.IA 2026 vai selecionar 8 startups com R$80 mil cada para proof of concept. São sinais positivos. Mas a distância ainda é enorme. Enquanto o batch W26 tem startups com US$1M de ARR antes de Demo Day, a maioria das startups brasileiras de IA não passou da barreira de US$10 milhões em captação total. São apenas 23 que conseguiram. A oportunidade existe — especialmente para startups brasileiras que constroem infraestrutura de agentes (onde a competição global é mais fragmentada) ou que aplicam IA a problemas específicos da América Latina. Mas para capturar essa oportunidade, o ecossistema precisa de mais capital de risco, mais exits e mais founders que já operaram em escala. O que isso sinaliza para o mercado O batch W26 é um termômetro confiável do que os investidores mais sofisticados do mundo acreditam que vai funcionar. E a mensagem é tripla:Agentes autônomos são a tese dominante. Não como promessa — como produto com receita. A camada de infraestrutura para agentes é o novo SaaS. Auth, billing, testes, observabilidade — tudo precisa ser reinventado para um mundo onde software age sozinho. O mundo físico voltou. Robótica, hardware e problemas tangíveis estão atraindo capital sério.Se você está construindo algo em IA, o W26 é um mapa. Leia a lista de startups. Veja onde o dinheiro está indo. E preste atenção no que não apareceu — porque o que a YC deixou de fora também conta uma história.

Harvey levanta US$200M a US$11B de valuation: agentes jurídicos saíram do piloto

Harvey levanta US$200M a US$11B de valuation: agentes jurídicos saíram do piloto

A Harvey acaba de fechar uma rodada de US$200 milhões a um valuation de US$11 bilhões. Há três meses, o número era US$8 bilhões. Um salto de 37,5% em um trimestre — para uma empresa que vende software para advogados. Os investidores são GIC (fundo soberano de Cingapura) e Sequoia na liderança, com a16z, Coatue e Kleiner Perkins na mesa. Quando esse tipo de capital se alinha numa mesma rodada, a mensagem é clara: agentes de IA verticais não são aposta — são tese consolidada. O que a Harvey faz (de verdade) A Harvey constrói agentes de IA que completam tarefas jurídicas de forma autônoma. Não é um chatbot que responde perguntas sobre contratos. São sistemas que fazem due diligence, revisam documentos regulatórios, preparam memorandos e analisam jurisprudência — trabalho que, até ontem, exigia associados juniores cobrando centenas de dólares por hora. Mais de 100 mil advogados em 1.300 organizações usam a plataforma. Isso inclui escritórios de advocacia do Magic Circle e corporações do Fortune 500. Quando a adoção chega nesse nível, não estamos mais falando de piloto. Por que US$11B faz sentido O mercado jurídico global movimenta mais de US$1 trilhão por ano. A maior parte desse valor é mão de obra — advogados fazendo trabalho repetitivo que segue padrões documentáveis. É exatamente o tipo de tarefa onde agentes de IA performam melhor que humanos: alta precisão, grande volume, tolerância zero a erro. A Harvey não está competindo com software jurídico tradicional. Está capturando horas de trabalho humano. Cada hora substituída por um agente é receita que sai do headcount do escritório e vai para a assinatura da plataforma. Isso explica a velocidade do crescimento de valuation: o TAM não é o mercado de legal tech — é o mercado de trabalho jurídico. O modelo que está funcionando A Harvey é o exemplo mais nítido de um padrão que está se repetindo no ecossistema:Escolhe um vertical com custo de mão de obra alto. Direito, saúde, contabilidade, compliance. Constrói agentes que fazem o trabalho, não ferramentas que ajudam a fazer. A diferença é crucial — um copiloto sugere, um agente executa. Vende por valor entregue, não por seat. Quando o agente substitui horas de associado, o ROI é imediato e mensurável. Acumula dados proprietários de cada vertical. Cada contrato revisado, cada memorando gerado, cada due diligence completada treina o sistema para o próximo caso.Sierra (atendimento ao cliente, US$150M de ARR em janeiro) segue a mesma lógica. Cursor (desenvolvimento de software, US$2B de ARR) também. O padrão é vertical + agente autônomo + captura de labor spend. O gap entre piloto e produção Os números da Harvey contrastam com uma realidade mais ampla do mercado. Uma pesquisa recente com 650 líderes de tecnologia mostrou que 78% das empresas têm pelo menos um piloto de agente de IA rodando, mas menos de 15% chegaram à produção. O gargalo não é tecnológico — é organizacional. Falta infraestrutura de avaliação, monitoramento e ownership. Quem define se o agente pode tomar uma decisão? Quem audita o resultado? Quem é responsável quando dá errado? A Harvey resolveu isso porque o setor jurídico tem algo que poucos verticais têm: processos extremamente bem documentados, padrões de qualidade claros e uma cultura de revisão. O agente da Harvey não opera no escuro — opera dentro de um framework onde cada output pode ser verificado. Para outros setores, a lição é: antes de deployar agentes em produção, resolva o problema de governança. A tecnologia está pronta. A organização, na maioria dos casos, não. O que isso significa para startups Se você está construindo agentes verticais, a Harvey é o benchmark. Três pontos para prestar atenção: O valuation é função de labor displacement, não de ARR. Investidores estão precificando o tamanho da mão de obra que pode ser substituída, não a receita atual. Por isso os múltiplos parecem absurdos comparados com SaaS tradicional. O moat é o dado vertical. Modelos foundation são commodity. O diferencial está nos dados específicos do setor que você acumula com cada cliente. Harvey tem milhões de documentos jurídicos processados. Esse dataset não se replica. Timing importa. Harvey entrou cedo no jurídico e agora tem 100K advogados. Cada mês de atraso em um vertical significa menos dados, menos clientes e um concorrente mais difícil de alcançar. A corrida pelos verticais está aberta. Mas as melhores cadeiras já estão sendo ocupadas.

OpenAI compra 6 empresas em 2026 e Physical AI atrai US$6,4B: a corrida pela stack completa

OpenAI compra 6 empresas em 2026 e Physical AI atrai US$6,4B: a corrida pela stack completa

A OpenAI fez seis aquisições nos primeiros três meses de 2026. Em todo o ano de 2025, foram oito. A empresa está comprando startups no ritmo mais agressivo da sua história — e o padrão das aquisições conta uma história clara sobre onde a IA está indo. No mesmo trimestre, 27 startups de Physical AI — robótica, automação industrial, semicondutores — levantaram mais de US$6,4 bilhões. Duas tendências que parecem desconectadas, mas apontam para o mesmo lugar: a corrida deixou de ser sobre quem tem o melhor modelo e virou sobre quem controla a stack completa. OpenAI: comprando a cadeia de ferramentas Das seis aquisições, duas se destacam. Astral (19 de março): a startup por trás do uv, Ruff e ty — ferramentas open-source de Python que milhões de desenvolvedores usam diariamente. O uv é o gerenciador de pacotes mais rápido do ecossistema Python. O Ruff é o linter que virou padrão. A OpenAI integrou o time inteiro ao projeto Codex. A lógica é direta: se o Codex é um agente que escreve código, ele precisa entender e operar as ferramentas que desenvolvedores reais usam. Comprar a Astral dá ao Codex acesso nativo ao toolchain Python mais popular do mercado. É o equivalente a comprar o martelo que todo carpinteiro usa — e então construir um robô carpinteiro que já sabe usar esse martelo. Promptfoo (março): plataforma open-source de testes e segurança para aplicações de IA. A OpenAI vai integrar a tecnologia ao OpenAI Frontier, sua plataforma enterprise para construir "AI coworkers". Quando uma empresa deploya agentes de IA em produção, precisa testar se eles fazem o que devem e não fazem o que não devem. Promptfoo resolvia exatamente isso — agora como parte do produto da OpenAI. O padrão é lock-in via developer tooling. Se você usa Codex para escrever código, Astral para gerenciar pacotes e Promptfoo para testar segurança, trocar de plataforma fica cada vez mais caro. São 17 aquisições desde 2023. Mais da metade é sobre capturar pontos de contato com desenvolvedores. Physical AI: o hardware encontra o foundation model Enquanto a OpenAI compra software, o capital está fluindo para quem constrói IA que move coisas no mundo real. Skild AI levantou US$1,4 bilhão a US$14 bilhões de valuation. A empresa constrói modelos foundation para controle robótico — o equivalente a um GPT, mas para robôs. Liderada por SoftBank, com NVIDIA e Jeff Bezos na mesa. A tese: assim como um LLM entende linguagem, um foundation model para robótica vai entender o mundo físico — gravidade, atrito, geometria de objetos — e traduzir isso em ação motora. Mind Robotics, spin-out da Rivian, fechou US$500 milhões em Series A para robótica industrial. Rhoda AI saiu do stealth com US$450 milhões para automação. Em fevereiro, seis startups de robótica entraram no Unicorn Board — mais do que qualquer outro setor. O total do trimestre: US$6,4 bilhões em 27 empresas de Physical AI. Desses, cerca de US$4 bilhões foram para robótica e US$2 bilhões para semicondutores e hardware de IA. A convergência que importa Physical AI e aquisições de software tools parecem tendências separadas. Não são. O ponto de convergência é autonomia. A OpenAI está construindo agentes de software que operam sozinhos: escrevem código, testam, deployam. As startups de Physical AI estão construindo agentes que operam no mundo real: movem caixas em warehouses, soldam peças em fábricas, dirigem caminhões. Os dois precisam da mesma coisa: modelos foundation potentes, infraestrutura de monitoramento, frameworks de teste e mecanismos de segurança. A diferença é que um opera em bytes e o outro em átomos. Para o ecossistema de startups, a implicação é que a camada de infraestrutura para agentes — o que 41,5% do batch W26 da YC está construindo — precisa funcionar para ambos os mundos. Auth, billing, observabilidade e testes para agentes que operam software E hardware. O mapa de oportunidades Para quem constrói ferramentas de desenvolvedor: a OpenAI está comprando. Se sua ferramenta é boa o suficiente para ter milhões de usuários, você é um target de aquisição. Isso é bom (exit) e ruim (concentração de mercado). A comunidade open-source já está debatendo se as aquisições da Astral e Promptfoo são boas para o ecossistema. Para quem constrói em robótica: US$6,4 bilhões em um trimestre é capital sério, mas concentrado em poucos players. A competição é por talento — engenheiros que entendem tanto ML quanto controle robótico são raríssimos. Se você tem esse time, o capital existe. Para quem constrói infra de agentes: a oportunidade é construir a camada que conecta agentes de software e hardware ao mundo real. Monitoramento, compliance, billing por tarefa executada — tudo precisa ser reinventado. O Q1 de 2026 mostrou que a IA está se expandindo em duas direções simultâneas: mais profunda na stack de software (OpenAI comprando tooling) e mais ampla no mundo físico (robótica e automação). Quem está construindo nessas intersecções tem a melhor posição do mercado.

ICLR 2026 é no Rio: 19.797 submissions, 5.300 aceitos — os 7 papers que você precisa ler antes de abril

ICLR 2026 é no Rio: 19.797 submissions, 5.300 aceitos — os 7 papers que você precisa ler antes de abril

Três números: 19.797 submissions. 5.300+ aceitos. Taxa de aceitação para oral: ~1.1%. Se você achou que o ICLR já era grande, 2026 redefiniu a escala. E pela primeira vez na história, a conferência acontece na América Latina — Riocentro, Rio de Janeiro, 23 a 27 de abril. Eu passei as últimas duas semanas filtrando os aceitos. Critério simples: paper tem que ter código disponível (ou prometido), benchmark reproduzível e resolver um problema que eu consiga usar em produção nos próximos 6 meses. Sobraram 7. O panorama antes dos papers A taxa de aceitação geral ficou em 28.18% — a mais baixa em três anos. A média de score caiu para 5.39 (contra 6.0+ em 2025). Isso não significa que os papers pioraram. Significa que a barra subiu e que o volume de submissions inflou com trabalho incremental. O sinal útil está mais diluído, e filtrar ficou mais importante do que nunca. As tendências dominantes nos aceitos:Post-training scaling — o treino não termina no pre-training Quantização — rodar modelos grandes em hardware menor Vision-Language-Action (VLA) — modelos que veem, entendem e agem Reward modeling — alinhar LLMs sem supervisão humana bruta Scaling laws para MoE — prever custo antes de gastar GPUDito isso, vamos aos papers. 1. SliderQuant: quantização pós-treino que respeita a heterogeneidade das camadas Problema: métodos de quantização pós-treino (PTQ) aplicam a mesma estratégia para todas as camadas. Mas camadas diferentes têm distribuições diferentes — forçar uniformidade destrói qualidade em bit-widths agressivos (3-4 bits). O que faz: SliderQuant trata cada camada como um problema independente de quantização. O framework seleciona automaticamente o design de quantização ideal por camada, combinando weight-only e weight-activation quantization. Resultado-chave: supera métodos existentes (GPTQ, AWQ) em Llama 3, Qwen 2.5 e DeepSeek-R1 distilled — incluindo modelos MoE. Em W4A4 no Llama-3-70B, a perplexidade cai 0.3 pontos comparado ao melhor baseline anterior. Por que importa: se você roda modelos em GPUs consumer ou precisa espremer inferência em edge, esse paper é leitura obrigatória. Quantização não é mais one-size-fits-all.Paper: OpenReview2. Joint MoE Scaling Laws: MoE pode ser mais eficiente em memória que modelos densos Problema: todo mundo assume que MoE gasta mais memória que dense models porque tem mais parâmetros totais. Mas ninguém tinha scaling laws que modelassem a relação entre parâmetros ativos, número de experts e dataset size juntos. O que faz: os autores treinaram 280+ experimentos (até 2.7B ativos, 5B totais) e derivaram scaling laws conjuntas para dense e MoE sob budgets fixos de memória e compute. Resultado-chave: MoE pode ser mais eficiente em memória que dense models para o mesmo nível de performance. Isso inverte a sabedoria convencional. Por que importa: se você está decidindo a arquitetura do seu próximo modelo ou sizing infra para serving, esses scaling laws são a planilha que faltava.Paper: arXiv 2502.05172 Dados: HuggingFace3. On-Policy Distillation: o student aprende com os próprios erros Problema: distillation tradicional treina o student com dados gerados pelo teacher. Mas na hora da inferência, o student gera seus próprios tokens — e o distribution shift entre treino e inferência é fatal para modelos autoregressivos. O que faz: GKD (Generalized Knowledge Distillation) treina o student nas suas próprias sequências geradas, usando feedback do teacher sobre essas sequências. O student literalmente aprende dos seus erros, não dos acertos do teacher. Resultado-chave: integração direta com RLHF — você combina distillation e alignment num pipeline só. Performance consistentemente superior a distillation off-policy em tasks de geração longa. Por que importa: se você está destilando um modelo grande para produção, trocar off-policy por on-policy é low-hanging fruit com ganho real.Paper: OpenReview | arXiv4. Precision-Aware Scaling Laws: prevendo a perda antes de quantizar Problema: você treina um modelo em FP16, quantiza para INT4 e reza para a qualidade não cair muito. Não existe uma forma principled de prever quanto vai perder. O que faz: propõe que treinar em precisão baixa reduz a "contagem efetiva de parâmetros" do modelo. Com isso, deriva scaling laws que preveem a perda adicional tanto de treino em low precision quanto de quantização pós-treino. Resultado-chave: para inferência, a degradação por PTQ aumenta conforme o modelo é treinado com mais dados. Para treino, modelos maiores em precisão mais baixa podem ser compute-optimal. Ou seja: existe um sweet spot e agora dá para calcular. Por que importa: antes de alocar milhões em compute, você pode simular cenários de precisão e prever o trade-off. Isso é engenharia, não chute.Paper: ICLR 2026 proceedings5. MedAgentGym: 72K tasks para treinar agentes de IA biomédica Problema: agentes LLM para biomedicina existem, mas não há um environment padronizado para treiná-los e compará-los. O que faz: cria um ambiente interativo com 72.413 instâncias de tarefas em 129 categorias, derivadas de 12 cenários biomédicos reais. Benchmarkou 29 LLMs e aplicou RL offline e online. Resultado-chave: RL online atingiu +45.28% de ganho sobre o baseline. A diferença entre modelos comerciais e open-source é brutal — e quantificada. Por que importa: se você trabalha com IA em saúde ou quer treinar agentes especializados, esse é o gym que faltava. Environment padronizado = benchmarks comparáveis = progresso mensurável.Paper: ICLR 2026 proceedings6. PAPL: diffusion language models que sabem onde limpar primeiro Problema: diffusion language models geram texto "limpando" uma sequência corrompida em paralelo. Mas a escolha de quais posições limpar a cada step é aleatória — o que é ineficiente. O que faz: Planner Aware Path Learning (PAPL) introduz um planner que decide quais posições limpar a cada step, alinhando o treino com a inferência planejada via Planned ELBO. Resultado-chave: melhora resultados em geração de proteínas, texto e código. Não é um ganho marginal — é a diferença entre random denoising e denoising inteligente. Por que importa: diffusion LMs são a alternativa mais promissora a modelos autoregressivos para geração paralela. Se essa linha de pesquisa decolar, o serving cost cai drasticamente.Paper: ICLR 2026 proceedings7. UniVLA: modelo unificado de visão, linguagem e ação Problema: modelos de robótica tipicamente separam percepção (visão), planejamento (linguagem) e execução (ação) em módulos diferentes. Isso cria gargalos de integração. O que faz: UniVLA modela visão, linguagem e ação como sequências discretas de tokens num único modelo autoregressivo. Um transformer, três modalidades. Resultado-chave: state-of-the-art em benchmarks de manipulação robótica (LIBERO, CALVIN, SIMPLER). A unificação não compromete performance em nenhuma modalidade individual. Por que importa: physical AI é a próxima fronteira. Se você está em robótica ou automação industrial, esse paper mostra que a convergência VLA não é hype — já funciona em benchmarks standard.Paper: OpenReview Código: GitHubWorkshop que vale a inscrição: SPOT O SPOT (Scaling Post-Training for LLMs) é o workshop que mais me interessa nessa edição. 64 papers aceitos, foco em scaling laws para SFT e RL, arquiteturas MoE e reward modeling. Acontece no dia 27 de abril (último dia da conferência). Se post-training é o seu jogo — e deveria ser, porque é onde o valor prático se materializa — esse workshop condensa o estado da arte em um dia.Site: spoticlr.github.ioPara quem vai e para quem fica Se você está indo ao Rio: a comunidade brasileira de ML está organizando side events. Fique de olho no Twitter/X do @iclr_conf e nos grupos locais. O Riocentro é longe de tudo, então planeje logística com antecedência. Se você não vai: todas as sessões terão streaming. Os papers já estão no OpenReview. Monte sua lista de leitura agora, não em abril. Veredito ICLR 2026 no Rio é simbólico para a comunidade latino-americana, mas o valor real está nos proceedings. Dos 5.300+ aceitos, a maioria é ruído incremental — como em toda conferência grande. Os 7 papers acima são os que eu colocaria na fila de implementação de qualquer time de ML engineering. O tema unificador: post-training não é mais pós-pensamento. Quantização, distillation, scaling laws, reward modeling — tudo isso é tão importante quanto o pre-training. E os papers desse ano finalmente têm as scaling laws e os benchmarks para provar. Nos vemos no Riocentro. Ou no stream.

Alucinações de IA em produção: o risco jurídico que chegou ao C-level

Alucinações de IA em produção: o risco jurídico que chegou ao C-level

Os tribunais americanos já documentam mais de 1.174 casos envolvendo alucinações de IA em filings judiciais. O número cresce semanalmente. Não são casos hipotéticos — são advogados sancionados por citar jurisprudência fabricada por ChatGPT, empresas processadas por informações falsas geradas por agentes de IA e contratos contestados porque cláusulas foram redigidas com base em outputs alucinados. A mudança mais importante não é a quantidade de casos. É como os tribunais estão classificando o problema. Produto funcionando conforme projetado A interpretação judicial emergente trata a alucinação não como defeito do produto, mas como característica inerente. LLMs geram texto probabilisticamente — não buscam verdade, buscam plausibilidade. Quando um modelo fabrica uma citação jurídica, está fazendo exatamente o que foi projetado para fazer: gerar texto que parece correto. Essa classificação tem implicações práticas severas para a defesa legal. Se a alucinação é defeito, o fabricante do modelo é responsável. Se é característica inerente de um produto funcionando conforme projetado, a responsabilidade recai sobre quem escolheu usar o produto sem as salvaguardas adequadas. Para organizações que deployam IA em funções customer-facing — atendimento, vendas, consultoria, saúde, jurídico — a mensagem é direta: a responsabilidade é sua, não do vendor. O que os tribunais estão decidindo Três tendências jurisprudenciais relevantes para o C-level: Sanções por negligência profissional. Advogados que usam IA para gerar filings sem verificação estão sendo sancionados. O tribunal não aceita "o ChatGPT disse" como defesa. A obrigação de verificação é do profissional — a ferramenta não substitui a due diligence. Responsabilidade de representação. Se uma empresa usa IA para comunicar-se com clientes — gerar propostas comerciais, responder perguntas sobre produtos, produzir relatórios — ela é responsável pela acurácia do conteúdo. O fato de o texto ter sido gerado por IA não isenta a empresa de responsabilidade por representações falsas ou enganosas. IA em due diligence de M&A. Alucinações em documentos jurídicos usados em transações de M&A estão sendo classificadas como "time bomb" — um risco latente que pode explodir após o closing. Se uma due diligence conduzida com auxílio de IA contém informações fabricadas que não foram verificadas, a exposição legal afeta compradores e vendedores. O framework regulatório que está se fechando O ambiente regulatório está convergindo para formalizar o que os tribunais já estão decidindo caso a caso: EU AI Act (agosto 2026): sistemas de IA que geram conteúdo devem marcar outputs como gerados por IA. Sistemas de alto risco precisam de supervisão humana documentada. Transparência e rastreabilidade são obrigatórias. Colorado AI Act (junho 2026): empresas que deployam IA em "decisões consequenciais" (emprego, crédito, saúde, seguros) devem implementar governance frameworks formalizados. Requisitos emergentes de seguradoras: apólices de E&O (Errors & Omissions) estão sendo revisadas para incluir cláusulas específicas sobre uso de IA. Algumas seguradoras já exigem prova de governance de IA como condição para cobertura. A convergência é clara: compradores, reguladores, tribunais e seguradoras esperam que empresas demonstrem que IA customer-facing é governada — não improvisada. O custo real das alucinações Para o CFO, o risco se materializa em três linhas: Litígio direto. Processos por informações falsas, representações enganosas ou negligência profissional. Custos de defesa, settlements e danos reputacionais. Prêmio de seguro. Seguradoras estão reprecificando risco para empresas que usam IA em funções de alto impacto sem governance documentada. Prêmios de D&O e E&O estão subindo para essas empresas. Impacto em valuation. Em transações de M&A, a ausência de governance de IA está se tornando item de due diligence. Investidores e compradores querem saber: a empresa usa IA? Onde? Com que salvaguardas? Houve incidentes? Como foram tratados? Respostas insatisfatórias afetam valuation. Cinco ações para mitigar o risco 1. Inventário de IA com classificação de risco de alucinação. Nem todo uso de IA tem o mesmo risco. IA para classificação interna de documentos é low-risk. IA para comunicação com clientes ou geração de pareceres é high-risk. A classificação determina o nível de supervisão necessário. 2. Human-in-the-loop obrigatório para outputs de alto risco. Qualquer conteúdo gerado por IA que será comunicado externamente — clientes, reguladores, parceiros, tribunais — deve passar por revisão humana antes de publicação. Sem exceção. 3. Logging e rastreabilidade. Cada output de IA deve ser logado: prompt, modelo usado, versão, timestamp, quem revisou e quem aprovou a publicação. Quando o tribunal ou o regulador pedir, a empresa precisa mostrar a cadeia completa. 4. Política de uso de IA documentada. Definir onde IA pode ser usada, onde não pode, e quais salvaguardas se aplicam em cada caso. A política precisa ser treinada — documento no SharePoint que ninguém leu não é governance. 5. Revisão de contratos com vendors de IA. Verificar cláusulas de indemnification, limitation of liability e responsabilidade por outputs. A maioria dos termos de uso de providers de IA exclui responsabilidade por acurácia dos outputs. Se o contrato do vendor diz que ele não é responsável — e diz — a empresa precisa saber que o risco é inteiramente dela. O contexto brasileiro No Brasil, a LGPD já exige que decisões automatizadas que afetem direitos do titular possam ser explicadas (art. 20). Quando uma IA alucina numa decisão de crédito ou de contratação, a empresa precisa explicar o raciocínio — e não há como explicar uma fabricação. O Marco Legal de IA (PL 2338) vai adicionar camadas de obrigação: transparência, supervisão humana, avaliação de impacto. Empresas brasileiras que já estruturam governance de IA hoje estarão preparadas. As que não estruturarem vão enfrentar o mesmo cenário que empresas americanas enfrentam agora nos tribunais — mas sem a mesma capacidade de absorver custos de litígio. A mensagem para o board Alucinações de IA não são bug. São característica inerente da tecnologia. O risco jurídico não está em usar IA — está em usar IA sem governance. A empresa que deploya agentes de IA em produção sem logging, sem human-in-the-loop, sem política documentada e sem revisão de contratos com vendors está acumulando risco jurídico que vai se materializar. Não é questão de se. É de quando.

Cursor bate US$2B de ARR e Lovable chega a US$400M: a era do vibe coding

Cursor bate US$2B de ARR e Lovable chega a US$400M: a era do vibe coding

Dois números para começar: US$2 bilhões e US$400 milhões. O primeiro é a receita anualizada do Cursor em março de 2026 — dobrou em três meses. O segundo é a da Lovable, que estava em US$100 milhões em julho de 2025. Oito meses depois, quadruplicou. Esses números não são normais. Nenhuma categoria de software na história cresceu nessa velocidade. E estamos falando de ferramentas que fazem algo que parecia ficção há dois anos: permitir que qualquer pessoa construa software descrevendo o que quer em linguagem natural. Cursor: de IDE para plataforma O Cursor começou como um editor de código com IA embutida. Virou algo maior. Com US$2B de ARR, a empresa está em conversas para levantar capital a um valuation de US$50 bilhões — quase o dobro dos US$29,3B de novembro de 2025. O crescimento não vem só de desenvolvedores. O Cursor está capturando uma fatia de profissionais que antes não programavam: designers, PMs, analistas de dados. A proposta é direta — você descreve a lógica, a IA escreve o código, você itera em cima. O resultado é funcional, testável e deployável. Para startups, o efeito colateral é brutal: o custo de construir um MVP caiu de meses e dezenas de milhares de dólares para dias e algumas centenas. Isso muda a equação de quem pode empreender e com que velocidade. Lovable: a startup que compra startups A Lovable tem uma trajetória ainda mais agressiva. De US$100M para US$400M de ARR em oito meses, avaliada em US$6,6 bilhões. Mais de 200 mil novos projetos criados na plataforma por dia. Mas o que chama atenção é o próximo passo: a Lovable está fazendo aquisições. Já comprou a Molnett, uma provedora de cloud, e está abertamente procurando mais alvos. Uma startup de dois anos comprando outras empresas. Isso normalmente é território de Big Tech. A lógica faz sentido. A Lovable quer controlar a stack inteira — da criação à hospedagem. Se você constrói o app na Lovable e ela também roda o app, o lock-in é quase total. É a mesma estratégia que a Vercel executou com o Next.js, mas acelerada por receita de IA. Replit completa o trio Com menos alarde, o Replit atingiu US$100M de ARR. A plataforma, que começou como IDE online para educação, se reinventou como ambiente de desenvolvimento com IA. O foco é diferente do Cursor (mais técnico) e da Lovable (mais no-code): o Replit está no meio, capturando desenvolvedores juniores e hobbyistas que querem ir além de um protótipo. Juntas, as três empresas representam mais de US$2,5 bilhões de receita anualizada. Há um ano, a categoria nem tinha nome. O que está por trás do crescimento Três fatores: Modelos melhores e mais baratos. Os custos por token caíram pela metade no último ano enquanto a qualidade de geração de código subiu drasticamente. Claude Opus 4.6, GPT-5.3, Gemini 2.5 Pro — todos geram código production-ready com consistência suficiente para sustentar ferramentas como Cursor e Lovable. Distribuição viral. Quando alguém constrói um app funcional em 20 minutos e posta o vídeo, isso gera mais conversões do que qualquer campanha de marketing. O vibe coding é inerentemente demonstrável — o antes/depois é visual e imediato. Demanda reprimida. Milhões de pessoas têm ideias de software que nunca executaram porque não sabiam programar ou não tinham orçamento. Essa demanda existia silenciosamente. Agora tem como ser atendida. E o Brasil nisso? O vibe coding é uma das poucas tendências de IA onde a barreira geográfica praticamente não existe. As ferramentas são globais, os preços são em dólar mas acessíveis, e o resultado é o mesmo independentemente de onde você está. Para o ecossistema brasileiro, isso significa duas coisas. Primeiro: mais gente vai conseguir construir e testar produtos de software sem equipe técnica, o que pode acelerar o número de startups em estágio inicial. Segundo: startups brasileiras de dev tools precisam decidir rápido se competem, complementam ou são adquiridas. A janela está fechando. O que vem pela frente O vibe coding já saiu do hype e entrou no P&L. Com US$2,5B+ de receita combinada e crescimento de 3-4x ao ano, a categoria vai atrair mais capital, mais competição e — inevitavelmente — consolidação. A pergunta não é mais se vibe coding funciona. É quem captura o mercado. E neste momento, Cursor, Lovable e Replit estão definindo as regras.

Demissões por IA somam 59 mil em 2026: o board está preparado para essa conversa?

Demissões por IA somam 59 mil em 2026: o board está preparado para essa conversa?

Os números do primeiro trimestre de 2026 são inequívocos: mais de 45 mil demissões no setor de tecnologia globalmente até março, com projeção de 59 mil para o trimestre completo. Desses, mais de 9.200 — aproximadamente um em cinco — são diretamente atribuídos a adoção de IA e automação. O padrão que está se consolidando é previsível: empresa investe em IA, audita quais funções podem ser automatizadas, anuncia reestruturação. A novidade não é o mecanismo — é a escala e a velocidade com que está acontecendo. O mapa dos cortes Os números por empresa são significativos:Meta: Planejando cortes de até 15 mil pessoas (20% do quadro), enquanto anuncia US$135 bilhões em capex de IA para 2026 — quase o dobro de 2025. Oracle: Estimativas de 20 a 30 mil demissões em reestruturação. Block (Square/Cash App): 4 mil demissões, representando 40% do quadro. Jack Dorsey declarou explicitamente que a empresa vai priorizar IA sobre headcount. Atlassian: 1.600 cortes (10% do quadro). O co-fundador Mike Cannon-Brookes afirmou que a reestruturação vai "auto-financiar investimento adicional em IA e vendas enterprise."A frase do Cannon-Brookes é reveladora: as demissões não são corte de custos — são realocação de capital de humanos para infraestrutura de IA. É uma declaração explícita de que o ROI de um engenheiro está sendo comparado com o ROI de um agente. O impacto na contratação Além das demissões, 66% das empresas estão reduzindo contratações de nível junior por causa de IA. Isso é estruturalmente mais preocupante do que os cortes em si. Demissões são pontuais — afetam quem já está empregado. Redução de contratação junior elimina o pipeline de formação. Se empresas param de contratar analistas juniors, associados, desenvolvedores de nível 1 porque IA faz esse trabalho, de onde vem o talento senior daqui a cinco anos? É uma decisão racional no curto prazo e potencialmente destrutiva no longo. O board precisa exigir que a estratégia de workforce inclua não apenas "quantos cargos eliminamos com IA", mas "como formamos o talento que vamos precisar quando a IA não for suficiente." O que isso significa para o board A conversa de workforce e IA tem dimensões que transcendem o RH: Risco reputacional. O caso da Meta é emblemático: demitir 15 mil pessoas enquanto anuncia US$135 bilhões em gastos com IA gera uma narrativa de "empresa que troca pessoas por máquinas." Investidores ESG, reguladores trabalhistas e a opinião pública estão atentos. O board precisa garantir que a comunicação da reestruturação seja honesta e que os programas de transição sejam reais, não cosméticos. Risco regulatório. O EU AI Act classifica IA em processos de contratação e demissão como alto risco. Se a empresa está usando IA para decidir quem demitir — seja diretamente ou via análise de produtividade — o sistema precisa atender aos requisitos do Act. Isso inclui documentação, avaliação de viés e supervisão humana. Risco operacional. Cortar 40% do quadro como a Block fez é uma aposta de que IA vai compensar a perda de capacidade humana. Se a aposta falha — se os agentes não performam como esperado, se a qualidade cai, se os clientes percebem a diferença — o custo de recontratar é significativamente maior do que o custo de manter. Risco de D&O. O gap entre deploy de IA e oversight de IA é, segundo análises recentes, a fonte de crescimento mais rápido de exposição de liability para diretores e oficiais. Se o board aprova uma reestruturação baseada em IA sem verificar que a IA funciona como prometido, a responsabilidade fiduciária está em jogo. Recomendações para liderança Para o CHRO: Antes de executar qualquer reestruturação baseada em IA, exija evidência de que os sistemas de IA que vão substituir funções humanas estão em produção, testados e monitorados. "Vai funcionar" não é evidência — é esperança. Para o General Counsel: Mapeie o risco regulatório de usar IA em decisões de workforce. EU AI Act, leis estaduais nos EUA (Colorado, Illinois, NYC Local Law 144) e legislação trabalhista local têm requisitos específicos. O compliance precisa estar resolvido antes do anúncio. Para o CEO: Trate a reestruturação de workforce como decisão estratégica de board, não como decisão operacional de RH. A escala dos cortes e a exposição a múltiplos riscos exigem supervisão do conselho de administração. E inclua na pauta: se cortamos X cargos junior agora, como garantimos o pipeline de talento senior em 2030? A substituição de trabalho humano por IA é inevitável em categorias específicas. Mas inevitável não significa automático, nem isento de risco. A diferença entre uma reestruturação bem executada e uma crise corporativa está na governança do processo — e essa governança começa no board.