Showing Posts From
Roi
-
Ricardo Melo - 15 Apr, 2026
PwC: 74% dos ganhos com IA ficam com 20% das empresas — o que separa quem lucra de quem gasta
Um estudo da PwC publicado nesta semana coloca números na intuição que muitos C-levels já tinham: a maioria das empresas está gastando com IA, mas poucas estão ganhando dinheiro com ela. A pesquisa, feita com 1.217 executivos seniores de 25 setores, revela que 74% dos ganhos econômicos gerados por IA estão concentrados em apenas 20% das organizações. Os outros 80%? 56% deles reportam zero benefício financeiro significativo até agora. O número mais importante do relatório não é o percentual de concentração — é o multiplicador. As empresas líderes geram 7,2 vezes mais receita e eficiência com IA do que o competidor médio. Não é uma diferença marginal. É um abismo operacional que se alarga a cada trimestre. O mito do investimento como diferencial A reação instintiva de muitos boards ao ver esses dados será: "precisamos investir mais". Mas o relatório da PwC desmonta essa lógica. A diferença entre líderes e retardatários não está no volume de investimento em IA. Está no tipo de uso. Empresas que lideram usam IA para crescimento e reinvenção do modelo de negócio. Empresas que ficam para trás usam IA para eficiência e corte de custos. A distinção parece sutil, mas é estrutural. Cortar custos com IA é o equivalente a automatizar processos existentes — importante, mas com teto baixo de retorno. Crescer com IA significa usar a tecnologia para entrar em mercados adjacentes, criar produtos que antes não eram viáveis, ou redesenhar a cadeia de valor inteira. Convergência industrial: o fator decisivo O achado mais relevante do estudo é que a convergência industrial — usar IA para expandir além das fronteiras tradicionais do setor — é o fator mais forte que correlaciona com performance financeira superior. Mais do que eficiência operacional. Mais do que redução de headcount. Na prática, isso significa que um banco que usa IA para oferecer serviços de saúde financeira integrada está capturando mais valor do que um banco que usa IA para acelerar o processamento de crédito. Uma varejista que usa IA para se tornar plataforma de mídia captura mais do que uma que otimiza estoque. Para o board, a implicação é clara: a estratégia de IA precisa ser discutida no nível do modelo de negócio, não no nível da operação. Se a conversa sobre IA no conselho de administração começa e termina em "automação de processos", a empresa provavelmente está nos 80% que não veem retorno. O que isso significa para empresas brasileiras O mercado brasileiro tem características que amplificam esse padrão. Margens mais apertadas, custo de capital mais alto e infraestrutura de dados menos madura significam que o gap entre líderes e retardatários tende a ser ainda maior. Mas há uma oportunidade que o relatório implica sem dizer explicitamente: se a convergência industrial é o diferencial, empresas em mercados menos consolidados têm mais espaço para convergir. Um player de logística brasileiro que integra IA para oferecer serviços financeiros embedded pode capturar valor desproporcional justamente porque o mercado é menos saturado. A recomendação para CFOs brasileiros é direta: antes de aprovar o próximo orçamento de IA, pergunte se o projeto está otimizando o negócio atual ou criando capacidade para um negócio que ainda não existe. Se for só o primeiro, o ROI provavelmente vai decepcionar. O paradoxo da produtividade revisitado Há um paralelo histórico que vale mencionar. Nos anos 1980 e 90, o economista Robert Solow observou que "podemos ver a era dos computadores em toda parte, exceto nas estatísticas de produtividade". Levou duas décadas para que os ganhos de TI se traduzissem em produtividade mensurável — e quando se traduziram, foram capturados desproporcionalmente pelas empresas que reorganizaram seus processos em torno da tecnologia, não pelas que apenas compraram hardware. Estamos vivendo o mesmo padrão com IA. A tecnologia está em toda parte. O retorno, não. E quando vier em escala, vai para quem redesenhou o negócio, não para quem automatizou planilhas. Checklist para o board Para lideranças que querem sair dos 80%, o relatório da PwC aponta cinco perguntas que o board deveria fazer ao CEO sobre a estratégia de IA:A estratégia de IA está conectada a crescimento de receita ou apenas a redução de custos? Existe um plano para usar IA em convergência com setores adjacentes? O investimento em IA está gerando dados proprietários que criam vantagem competitiva sustentável? A empresa tem capacidade de medir o ROI de IA de forma granular, por caso de uso? A governança de IA está integrada à governança corporativa ou é um silo separado?Se a resposta a três ou mais dessas perguntas for "não" ou "não sei", a empresa está provavelmente no grupo dos 56% que ainda não viram benefício financeiro significativo. E o gap está aumentando.
-
Ricardo Melo - 05 Apr, 2026
NVIDIA State of AI 2026: 88% reportam receita com IA — mas 95% dos pilotos ainda falham. O que explica o paradoxo?
O NVIDIA State of AI Report 2026, publicado em março com dados de 3.200 empresas globais, traz números que parecem contradizer tudo o que se sabe sobre retorno de IA: 88% dos respondentes reportam ganho de receita. 64% já deployam IA em operações. 30% indicam aumento de receita acima de 10%. E 87% reduziram custos operacionais. A contradição é aparente. Este blog já documentou o outro lado: o MIT aponta 95% dos pilotos sem impacto no P&L. A PwC mostra 56% dos CEOs sem aumento de receita nem corte de custo. A McKinsey confirma que adoção massiva não se traduz em resultado financeiro. Os dados continuam válidos. A questão correta não é qual dado está certo. Ambos estão. A questão é: o que separa o universo da NVIDIA do universo Gartner/BCG? Viés de seleção: o relatório não é sobre IA — é sobre quem executa O NVIDIA State of AI é uma pesquisa com empresas que já investem em infraestrutura de IA. Isso não invalida os dados, mas define o escopo. Quem responde a uma pesquisa da NVIDIA sobre IA já superou a barreira de decisão inicial. Já comprou GPU, já deployou modelos, já tem orçamento alocado. É o equivalente a pesquisar frequentadores de academia sobre saúde: o resultado vai ser positivo porque a amostra é de quem já decidiu agir. Isso não significa que academia não funciona. Significa que o dado reflete o resultado de quem executa — não da população geral. Os 95% do MIT e do BCG incluem toda empresa que "testou IA" — desde o departamento que plugou ChatGPT em um workflow até o piloto que nunca teve business case. A amostra da NVIDIA filtra implicitamente: quem está ali já saiu do piloto. A recomendação aqui é direta: leia o relatório da NVIDIA como um benchmark do que é possível para quem executa com disciplina. Não como evidência de que IA funciona para todo mundo. Os números que importam — e os que exigem cautela Três dados do relatório merecem atenção do C-level:64% em produção. Não piloto, não POC — operação. Isso confirma o que o Gartner chama de saída do "Trough of Disillusionment": as empresas que passaram do vale estão operando, não testando. 30% com ganho acima de 10% na receita. Esse é o dado mais relevante. Um terço das empresas que deployam IA em produção reportam impacto material no top line. Não é incremental — é estratégico. 87% cortaram custos. Redução de custo é o caso de uso mais previsível e mensurável de IA. Automação de processos repetitivos, triagem, análise de documentos. É onde o ROI aparece primeiro.Agora, os cuidados: A NVIDIA tem interesse direto no resultado. A empresa vende a infraestrutura que viabiliza IA. Um relatório mostrando ROI positivo reforça a tese de compra. Isso não significa que os dados são fabricados — a NVIDIA não arriscaria credibilidade com números falsos em uma pesquisa de 3.200 empresas. Mas significa que o framing é otimista por design. A seleção de perguntas, a forma de reportar e os destaques editoriais favorecem a narrativa de retorno. A definição de "receita com IA" varia. Para uma empresa que integrou IA no pricing engine e aumentou margem em 3 pontos, é receita direta. Para outra que lançou um chatbot no site e atribui parte do funil de vendas à IA, é receita atribuída. O relatório não diferencia. O denominador importa. 88% de 3.200 empresas que investem ativamente em IA não é 88% do mercado. É 88% da elite de execução. O mercado total tem milhões de empresas onde IA é uma linha no orçamento de TI sem owner definido. O que separa os 88% dos 95%: três características verificáveis Cruzando os dados do NVIDIA State of AI com as análises de MIT, McKinsey e IBM sobre ROI de IA, três fatores distinguem as empresas que geram retorno das que estagnaram no piloto: 1. IA conectada ao core business, não à inovação periférica. As empresas no grupo dos 88% deployam IA onde o dinheiro está: pricing, supply chain, underwriting, atendimento de alto volume, previsão de demanda. Não em projetos de "inovação" desconectados do P&L. O relatório da NVIDIA mostra que os setores com maior adoção em produção — financial services, healthcare, manufacturing — são exatamente os que têm processos de alto custo e alta repetição onde IA substitui trabalho manual com ROI mensurável. 2. Governança como acelerador, não como burocracia. Um dado frequentemente ignorado: empresas com frameworks formais de governança de IA (NIST AI RMF, ISO 42001 ou equivalentes internos) deployam mais rápido, não mais devagar. A governança resolve o gargalo que mata a maioria dos pilotos — a decisão de colocar em produção. Quando existe um framework claro de avaliação de risco, classificação de casos de uso e critérios de go/no-go, a decisão de deploy é técnica, não política. Sem governança, cada deploy vira uma negociação entre jurídico, compliance, TI e negócio. E a negociação mata o projeto. 3. Ownership executivo com accountability sobre resultado. O padrão se repete em todo estudo relevante: empresas com CAIO formalizado ou ownership de IA no C-level reportam mais retorno. Os dados da IBM mostram 36% mais ROI em modelos operacionais centralizados. A NVIDIA confirma: empresas com estratégia de IA definida no nível da diretoria têm taxa de deploy em produção significativamente maior. Quando IA tem dono no C-suite, tem prioridade. Quando é "projeto do time de dados", tem apresentação de PowerPoint. O que muda com este relatório O NVIDIA State of AI 2026 não muda o diagnóstico — muda a prescrição. Até agora, a narrativa dominante era "IA não entrega ROI". Os dados do MIT, da PwC e da McKinsey sustentavam essa leitura. E estavam corretos para a maioria das empresas. O que o relatório da NVIDIA adiciona é a evidência de que o grupo que executa com disciplina está capturando valor real. 30% de aumento de receita acima de 10% não é arredondamento estatístico. É vantagem competitiva material. A implicação para o board é que o problema não é IA — é execução. E que a janela para corrigir está se fechando. As empresas que já deployam em produção estão acumulando vantagem: dados proprietários melhores, processos mais eficientes, equipes mais maduras. Cada trimestre de atraso no piloto é um trimestre a mais de distância competitiva. Recomendações para sair dos 95% e entrar nos 88% Primeiro: mate pilotos sem business case. Se um piloto de IA não tem impacto projetado no P&L em 12 meses, com premissas auditáveis, encerre-o. Redirecione o investimento para casos de uso conectados ao core business. Segundo: implemente governança antes de escalar. Não depois. Um framework mínimo de classificação de risco, critérios de deploy e monitoramento contínuo resolve o gargalo que impede a maioria dos pilotos de chegar a produção. O EU AI Act entra em vigor em agosto de 2026 — governança vai ser obrigatória de qualquer forma. Terceiro: exija ownership no C-level. Se nenhum executivo do C-suite quer assinar embaixo de um projeto de IA, o projeto não merece orçamento de produção. Accountability executiva é o fator com maior correlação com ROI em todo estudo disponível. A pergunta que o relatório da NVIDIA coloca para cada líder é simples: sua empresa está no grupo que executa ou no grupo que pilota? Os dados mostram, com clareza crescente, que o segundo grupo não está apenas atrasado — está ficando para trás.
-
Ricardo Melo - 02 Apr, 2026
KPMG ouviu 2.110 líderes: só 11% dos AI agents chegam a escala — o problema não é técnico, é de governança
A KPMG entrevistou 2.110 executivos C-suite e líderes sênior em 20 mercados — incluindo Brasil, Estados Unidos, Europa e Ásia — para o Global AI Pulse Q1 2026. O número que define o relatório é este: 78% das organizações têm pelo menos um piloto de AI agent ativo. Apenas 11% chegaram a escala enterprise-wide com resultados de negócio mensuráveis. A taxa de fracasso entre piloto e produção é de 86%. Não é um gap de tecnologia. É um gap de governança, ownership e processo operacional. O paradoxo dos US$ 186 milhões O dado mais revelador do relatório não é a taxa de fracasso — é o investimento que a acompanha. As organizações pesquisadas projetam um investimento médio de US$ 186 milhões em agentes de IA. E 88% já estão investindo ativamente. Ao mesmo tempo, apenas 24% reportam ROI mensurável em múltiplos casos de uso. A aritmética não fecha. Organizações estão alocando capital significativo em uma tecnologia que, na maioria dos casos, não conseguem escalar. O dado positivo — 74% dizem que IA entrega valor — mascara uma realidade operacional preocupante: valor em um piloto controlado não é valor em produção. E o board que aprova orçamento com base em resultado de piloto está precificando risco incorretamente. O mais relevante para o C-level: 67% dos líderes afirmam que manterão investimento em agentes mesmo em cenário de recessão. Isso demonstra convicção estratégica, mas também eleva a responsabilidade fiduciária. Investimento resiliente exige governança resiliente. Se a organização não consegue explicar por que 86% dos pilotos falham na transição para produção, manter o investimento sem corrigir os gaps operacionais é acumular exposição. Os 5 gaps que explicam 89% dos fracassos O relatório da KPMG identifica cinco gaps operacionais que, combinados, respondem por 89% dos fracassos na escalada de agentes. O dado mais persistente: pela segunda vez consecutiva, 65% dos líderes apontam a complexidade dos sistemas agenticos como a principal barreira. Dois trimestres é tempo suficiente para concluir que o problema é estrutural, não transitório. Complexidade de integração com sistemas legados. Agentes de IA não operam no vácuo. Eles precisam interagir com ERPs, CRMs, sistemas de compliance e infraestrutura que, em muitos casos, têm décadas de débito técnico acumulado. O piloto funciona porque opera em ambiente isolado. A produção exige que o agente navegue a complexidade real dos sistemas da organização — e essa complexidade não foi resolvida em nenhum roadmap de transformação anterior. Qualidade inconsistente de output em volume. Um agente que entrega 95% de precisão processando 200 solicitações por dia pode degradar significativamente quando processa 20.000. A diferença entre piloto e escala não é linear — é exponencial em termos de edge cases, variações de input e cenários que o treinamento não cobriu. Sem mecanismos de detecção de degradação em tempo real, a organização descobre o problema pelo impacto no cliente. Ausência de ferramentas de monitoramento. Monitorar se o agente está online não é monitorar o que o agente está fazendo. A maioria das organizações não possui observabilidade sobre a cadeia de decisões de seus agentes: qual objetivo recebeu, que plano traçou, que ações executou, que dados acessou. Sem esse nível de visibilidade, não há como auditar, corrigir ou demonstrar compliance. Ownership organizacional não definido. Este é o gap que merece atenção desproporcional do board. Se a pergunta "quem é dono desse agente?" não tem resposta clara na organização, nenhum dos outros gaps será resolvido. Ownership não é responsabilidade técnica do time de engenharia. É accountability de negócio — quem responde pelo resultado, pelo risco, pela conformidade regulatória e pelo impacto no P&L. Em muitas organizações, agentes vivem em uma terra de ninguém entre TI, produto e operações. E terra de ninguém não escala. Dados de domínio insuficientes para treinamento. Agentes de IA enterprise precisam de dados contextuais específicos — processos internos, terminologia da indústria, regras de negócio, histórico de decisões. O investimento em curadoria de dados de domínio é sistematicamente subestimado. Organizações que projetam US$ 186 milhões para agentes frequentemente alocam menos de 5% para preparação dos dados que esses agentes precisam para funcionar. A pergunta que o board precisa fazer A recomendação aqui é direta: antes de aprovar o próximo incremento de investimento em agentes de IA, o conselho precisa fazer uma pergunta simples — "quem é dono desse agente?" A pergunta não é retórica. Ownership implica cinco responsabilidades concretas:Resultado de negócio: o owner define e reporta as métricas de valor que o agente deve entregar Risco operacional: o owner é responsável pelo impacto quando o agente erra — inclusive impacto financeiro e reputacional Conformidade regulatória: o owner garante que o agente opera dentro dos limites da LGPD, do Marco Legal de IA (quando aprovado) e de regulações setoriais Ciclo de vida: o owner decide sobre atualização, retraining e descomissionamento — agentes sem owner se tornam ativos-fantasma que consomem recursos e acumulam risco Escalabilidade: o owner coordena a integração com sistemas legados e a preparação de dados de domínio — os dois gaps mais citados no relatórioSem owner, cada um desses pontos vira responsabilidade difusa. Responsabilidade difusa, em governança corporativa, é sinônimo de ninguém responsável. O que muda para o contexto brasileiro Para organizações brasileiras, a pesquisa da KPMG adiciona urgência a um cenário que já era desafiador. A LGPD exige explicabilidade para decisões automatizadas que afetem titulares de dados. Agentes que operam sem observabilidade de decisões criam exposição regulatória direta — a organização simplesmente não consegue explicar o que o agente decidiu ou por quê. O investimento médio projetado de US$ 186 milhões é, evidentemente, uma média global que inclui big techs e empresas Fortune 500. Empresas brasileiras operam com orçamentos proporcionalmente menores, mas a lógica é a mesma: qualquer investimento em agentes que não contemple ownership, monitoramento e preparação de dados está precificado de forma incompleta. O custo dos gaps operacionais aparece depois — em retrabalho, em incidentes, em compliance retroativo. A recomendação para CIOs e CAIOs brasileiros: incluir na próxima apresentação ao conselho um mapa de ownership dos agentes em operação ou em piloto. Se o mapa não pode ser construído em duas semanas, a organização tem um problema de governança anterior ao problema de escala. O investimento que falta não é em tecnologia O relatório da KPMG confirma um padrão que vem se consolidando ao longo de 2026: o gargalo para escalar agentes de IA não é capacidade técnica. É capacidade organizacional. Ownership, monitoramento, integração, dados — são competências de gestão, não de engenharia. As organizações que compõem os 11% que chegaram a escala com resultados mensuráveis não são necessariamente as que investiram mais. São as que investiram na infraestrutura organizacional antes de investir na infraestrutura técnica. Definiram owners. Construíram observabilidade. Prepararam dados. Endereçaram a integração com legados como projeto de negócio, não como tarefa de TI. Para os 89% restantes, a próxima reunião de conselho deveria ter um item de pauta simples: "Quantos agentes temos, quem é dono de cada um e como sabemos se estão funcionando?" Se a diretoria não consegue responder, o investimento de US$ 186 milhões tem um gap que nenhuma tecnologia vai resolver.
-
Ricardo Melo - 30 Mar, 2026
Bank of America deploya agentes para 1.000 advisors — o case que boards vão citar
O Bank of America deployou uma plataforma de advisory baseada em IA agêntica, construída sobre o Salesforce Agentforce, para aproximadamente 1.000 financial advisors. Não é piloto. Não é prova de conceito. É produção — com clientes reais, decisões reais e impacto mensurável no P&L de uma das maiores instituições financeiras do mundo. Esse é o case que vai mudar a conversa em boardrooms de todos os setores nos próximos trimestres. O contexto executivo: por que esse deploy é diferente O mercado de IA corporativa não tem escassez de anúncios. Tem escassez de deploys em produção com escala relevante. A maioria das organizações opera no ciclo piloto-piloto-piloto — testa em ambiente controlado, apresenta resultados promissores ao board, não consegue escalar, repete. O BofA quebrou esse ciclo. E o fez de uma forma que é difícil de ignorar por três razões: Primeiro: escala. Mil advisors não é um grupo de teste. É uma operação. Financial advisors do BofA gerenciam patrimônios significativos, tomam decisões que afetam diretamente a receita do banco e operam sob supervisão regulatória rigorosa. Deployar agentes de IA nesse contexto exigiu validação jurídica, de compliance, de segurança e de negócio. O fato de que passou por todos esses gates é o dado mais relevante para outros boards. Segundo: contexto regulado. O setor financeiro americano opera sob supervisão da SEC, FINRA, OCC e uma constelação de reguladores estaduais. Cada interação com cliente pode ser auditada. Cada recomendação de investimento tem requisitos de suitability. Deployar IA agêntica nesse ambiente não é instalar um chatbot — é integrar um sistema autônomo numa cadeia de compliance que existe há décadas. Se o BofA conseguiu, a barra de "nosso setor é muito regulado para IA" ficou significativamente mais alta. Terceiro: não é o primeiro movimento. O BofA já opera a Erica, assistente virtual que atende milhões de clientes e executa trabalho equivalente a aproximadamente 11.000 funcionários. Esse número merece atenção do CFO de qualquer organização: 11.000 FTEs equivalentes. Não é projeção — é operação corrente. O deploy para advisors é a extensão dessa capacidade para o segmento de alto valor, onde o impacto por advisor é substancialmente maior. O cenário: IA agêntica sai do piloto O BofA não está sozinho, mas está na frente. O setor financeiro e adjacências concentram os deploys mais maduros de IA agêntica em produção:Harvey AI opera no setor jurídico com avaliação de US$ 11 bilhões e mais de 100.000 advogados usando a plataforma. Agentes que revisam contratos, pesquisam jurisprudência e preparam documentos legais. Sierra atingiu US$ 150 milhões em receita anual recorrente com agentes de atendimento ao cliente que resolvem problemas, não apenas respondem perguntas. Salesforce Agentforce — a plataforma sobre a qual o BofA construiu — se posiciona como a infraestrutura padrão para IA agêntica enterprise.O padrão que emerge é claro: IA agêntica em produção está se concentrando em setores com processos estruturados, compliance nativa e tolerância zero para improvisação. Não é coincidência. Por que serviços financeiros está na frente O Gartner projeta que 40% dos projetos de IA agêntica serão cancelados até 2027 por falha de governança. Essa estatística assusta — e deveria. Mas o setor financeiro tem três vantagens estruturais que reduzem significativamente esse risco: Processos documentados. Bancos não operam com processos informais. Cada fluxo de trabalho — abertura de conta, análise de crédito, recomendação de investimento, compliance KYC — está documentado, mapeado e auditável. Agentes de IA precisam exatamente disso para operar com consistência: processos claros com inputs, outputs e regras de negócio definidos. O que para outros setores é um pré-requisito difícil de construir, para serviços financeiros já existe. Audit trails nativos. Regulação financeira exige registro de decisões há décadas. Essa infraestrutura de logging e auditoria é a mesma que IA agêntica precisa para observabilidade. Quando um agente toma uma decisão, o sistema precisa registrar o quê, por quê e com quais dados. Bancos já fazem isso para decisões humanas. Estender para decisões algorítmicas é incremental, não transformacional. Cultura de compliance. Em setores menos regulados, governança de IA é percebida como burocracia que desacelera inovação. Em serviços financeiros, compliance é condição de operação. Equipes de risco, jurídico e compliance já participam do ciclo de desenvolvimento de produtos. Incluir IA agêntica nesse ciclo é uma extensão natural — não uma revolução cultural. A recomendação aqui é direta: se a organização opera em setor menos regulado e quer escalar IA agêntica, copie a abordagem do setor financeiro. Não a tecnologia — a governança. Documente processos antes de automatizá-los. Construa audit trails antes de deployar agentes. Integre compliance no ciclo de desenvolvimento, não depois. A métrica que o CFO vai usar "Equivalente a 11.000 funcionários." Essa é a métrica que a Erica do BofA produz e que vai aparecer em toda apresentação de business case de IA nos próximos meses. É uma métrica poderosa e perigosa ao mesmo tempo. Poderosa porque traduz capacidade de IA em linguagem de P&L — o CFO entende FTEs, entende custo de headcount, entende o impacto de alocar 11.000 pessoas para outras atividades. Perigosa porque simplifica uma realidade complexa: a Erica não substitui 11.000 funcionários — ela executa volume de trabalho equivalente em tarefas específicas. A distinção importa para dimensionar expectativas corretamente. Para boards avaliando investimento em IA agêntica, o framework de análise deveria incluir:Volume de tarefas automatizáveis: Quantas horas de trabalho estruturado existem na organização que podem ser executadas por agentes? Não todas as horas — apenas as que envolvem processos documentados, regras claras e dados acessíveis. Custo de erro: Qual o impacto financeiro e reputacional quando um agente erra? Em financial advisory, um erro pode gerar processo regulatório. Em atendimento ao cliente, pode gerar churn. O custo de erro define o nível de supervisão humana necessário — e esse custo precisa estar no business case. Tempo para valor: O BofA não chegou aqui em seis meses. A Erica foi lançada em 2018. São oito anos de construção iterativa de capacidade de IA. Boards que esperam ROI de IA agêntica em dois trimestres estão dimensionando errado o investimento necessário.Os riscos que o board precisa discutir Risco de dependência de plataforma. O BofA construiu sobre Salesforce Agentforce. Essa escolha cria dependência de um fornecedor específico para uma capacidade que será cada vez mais crítica. O board deve avaliar: existe estratégia de saída? Existe portabilidade? O lock-in é aceitável dado o valor entregue? Essas perguntas não são técnicas — são estratégicas. Risco de governança em escala. Mil advisors é relevante. Mas quando o deploy chegar a 10.000 — e chegará — a complexidade de governança cresce de forma não linear. Mais agentes, mais interações, mais edge cases, mais decisões autônomas que precisam ser monitoradas. A infraestrutura de observabilidade que funciona para 1.000 pode não escalar para 10.000 sem investimento adicional significativo. Risco de expectativa desalinhada. O case do BofA vai gerar pressão em boards de todos os setores: "se o Bank of America fez, por que nós não fizemos?" Essa pressão pode levar a deploys apressados, sem a governança adequada, sem os processos documentados, sem a cultura de compliance. E é exatamente isso que alimenta a projeção do Gartner de 40% de fracasso. O case do BofA deve inspirar — não apressar. Recomendações para a liderança Para o CEO: Use o case do BofA como referência, não como blueprint. A vantagem do setor financeiro é estrutural — processos regulados, audit trails, cultura de compliance. Se a organização não tem esses fundamentos, o primeiro investimento é construí-los. Deployar agentes antes de ter governança é acumular o risco que o Gartner quantificou. Para o CFO: A métrica de 11.000 FTEs equivalentes é o benchmark. Mas exija do time de IA um business case que inclua custo de governança, custo de erro e timeline realista. O ROI de IA agêntica é real — mas não é instantâneo. O BofA investiu oito anos para chegar aqui. Para o CAIO: Avalie a maturidade de processos antes da maturidade de tecnologia. Agentes de IA escalam onde processos são claros. Mapeie os 20% de processos da organização que concentram 80% do volume de trabalho estruturado — esse é o ponto de partida para IA agêntica em produção. Para o General Counsel: O deploy do BofA em ambiente regulado SEC/FINRA demonstra que compliance e IA agêntica são compatíveis. Mas exige integração de compliance no ciclo de desenvolvimento desde o dia zero. Revise os contratos com fornecedores de plataforma de IA para garantir cláusulas de auditoria, portabilidade de dados e responsabilidade por decisões algorítmicas. O que fica O Bank of America fez o que a maioria das organizações ainda discute em slides: colocou IA agêntica em produção, em escala, em ambiente regulado. Isso muda o patamar da conversa. O argumento de que "IA agêntica não está pronta para produção" perdeu sustentação factual. O argumento de que "nosso setor é muito regulado" também. O que resta é a execução. E execução em IA agêntica exige o que sempre exigiu em qualquer transformação operacional: processos claros, governança robusta, investimento paciente e liderança que entende que escala sem controle é risco, não velocidade. O BofA mostrou o caminho. Os 40% do Gartner mostram o que acontece com quem tenta atalhos.
-
Ricardo Melo - 28 Mar, 2026
DGX Spark e DGX Station: a NVIDIA quer colocar um supercomputador de IA na mesa do CIO — e isso muda a equação de compliance
A NVIDIA anunciou na GTC 2026 dois produtos que alteram o cálculo de infraestrutura de IA para qualquer organização que lida com dados sensíveis. O DGX Spark é um supercomputador pessoal de IA, com chip GB10 e 128 GB de memória unificada, capaz de rodar modelos de até 200 bilhões de parâmetros — a partir de US$ 3.000. O DGX Station é outra categoria: com o superchip GB300 Grace Blackwell Ultra, 748 GB de memória coerente (775 GB com FP4), 20 petaflops de capacidade e suporte a modelos de até 1 trilhão de parâmetros — tudo em formato desktop. Pela primeira vez, capacidade computacional que antes exigia um data center cabe ao lado da mesa do CIO. O significado estratégico não está no hardware em si. Está no que esse hardware viabiliza: processamento local de modelos de larga escala, com dados que nunca saem do perímetro da empresa. Para organizações sob LGPD, EU AI Act ou qualquer regime regulatório que exija controle sobre dados pessoais, essa mudança é estrutural. O que a NVIDIA entregou — traduzido para o board Dois produtos, duas faixas de capacidade, um mesmo princípio: trazer a inferência de modelos de IA para dentro da organização. DGX Spark é o ponto de entrada. O chip GB10 combina CPU Grace e GPU Blackwell em um único módulo, com 128 GB de memória unificada. Roda modelos de até 200 bilhões de parâmetros localmente, sem conexão com a nuvem. Para equipes de ciência de dados, analytics e IA aplicada, é capacidade suficiente para a maioria dos modelos open-source atuais — incluindo variantes do Llama, Mistral e da própria família Nemotron da NVIDIA. O preço começa em US$ 3.000, o que o coloca no orçamento de um departamento, não de um comitê de investimentos. DGX Station é a aposta para cargas enterprise de alta complexidade. O superchip GB300 Grace Blackwell Ultra entrega 20 petaflops de performance com 748 GB de memória coerente. Modelos de até 1 trilhão de parâmetros rodam nativamente. O formato é deskside — ocupa o espaço de um workstation, não de um rack. Estará disponível na primavera de 2026 através de ASUS, Boxx, Dell, GIGABYTE, HP, MSI e Supermicro. Pode operar como nó de computação individual ou como recurso compartilhado para equipes. Ambos os produtos suportam configuração air-gapped — completamente desconectados da internet. E ambos rodam NemoClaw, a stack enterprise de agentes de IA que a NVIDIA lançou na mesma GTC. A combinação é deliberada: hardware local com capacidade de executar agentes autônomos governados, sem que dados transitem por infraestrutura de terceiros. A equação de compliance muda Para organizações sob regulação de dados, a localização do processamento de IA não é detalhe técnico — é variável de compliance. Quando um modelo roda na nuvem, dados pessoais atravessam fronteiras de rede, jurisdição e controle. Quando roda localmente, permanecem no perímetro da empresa. A diferença entre os dois cenários é material para três frameworks regulatórios que estão convergindo em 2026. LGPD. A Lei Geral de Proteção de Dados exige que o tratamento de dados pessoais tenha base legal adequada e que o controlador implemente medidas técnicas de proteção. Processamento local elimina a transferência de dados para infraestrutura de terceiros — o que remove uma camada inteira de risco: contratos de processamento com cloud providers, avaliação de transferência internacional, dependência de DPAs (Data Processing Agreements) com vendors de modelos. Dados pessoais processados em um DGX Spark ou DGX Station não saem da rede. Para o DPO, é um argumento técnico concreto de que a organização implementou controle de localidade de dados. EU AI Act. O regulamento europeu, que entra em vigor em agosto de 2026, impõe obrigações de transparência, explicabilidade e supervisão humana para sistemas de IA de alto risco. Controle total sobre o pipeline de IA — modelo, dados, inferência, output — facilita auditoria e documentação. Quando o regulador perguntar "onde seus dados são processados?", "quem tem acesso ao modelo?" e "como o output é gerado?", a resposta "no nosso hardware, com nosso modelo, dentro da nossa rede" é substancialmente mais robusta do que "no data center de um hyperscaler, sob termos de uso que nosso jurídico revisou". ISO 42001. O padrão de gestão de IA exige que a organização demonstre controle sobre o ciclo de vida dos sistemas de IA. Infraestrutura local com configuração air-gapped é, possivelmente, o cenário de maior controle que uma organização pode alcançar sem construir seu próprio data center. O privacy router do NemoClaw adiciona uma camada relevante: a organização pode operar em modo híbrido, com modelos locais processando dados sensíveis e modelos cloud processando dados não sensíveis, com roteamento automático baseado em política. A decisão de qual dado vai para onde não fica a critério do desenvolvedor — fica codificada em regra auditável. O caso de uso real: agentes locais com NemoClaw O que torna DGX Spark e DGX Station estrategicamente diferentes de um GPU workstation convencional é a integração com NemoClaw. Não se trata apenas de rodar inferência localmente — trata-se de operar agentes de IA enterprise com governança, sandbox e policy enforcement, sem que dados saiam da rede. NemoClaw — que este blog já analisou em detalhe — roda nativamente em ambos os produtos. Na prática, isso significa que uma organização pode deployar agentes autônomos que acessam bases de dados internas, executam ações em sistemas corporativos e processam informações sensíveis, tudo dentro de um ambiente isolado, com políticas declarativas de acesso e controle. O privacy router garante que dados classificados como sensíveis permaneçam em modelos locais, enquanto cargas menos restritivas podem ser roteadas para a nuvem quando a capacidade local for insuficiente. Para setores regulados — saúde, financeiro, jurídico, seguros — o cenário é particularmente relevante. Um agente que analisa prontuários médicos, processa dados de crédito ou triaga documentos jurídicos pode operar inteiramente dentro do perímetro da organização, com auditoria completa de cada ação. A demonstração de controle ao regulador deixa de ser narrativa e passa a ser arquitetura. Riscos que o board precisa ponderar DGX Spark e DGX Station resolvem um problema real de soberania de dados e compliance, mas a decisão de adoção não é isenta de riscos. Cinco pontos que devem entrar na avaliação: Custo total de propriedade. DGX Spark começa em US$ 3.000 — acessível. DGX Station está estimado na faixa de US$ 50.000 a US$ 100.000, com preço exato ainda não divulgado. Além do hardware, há custo de manutenção, energia, refrigeração, atualização de modelos e suporte interno. A comparação justa não é DGX Station versus uma instância cloud — é DGX Station versus o custo total de manter modelos na nuvem com governança equivalente, incluindo contratos de processamento, transferência de dados e risco regulatório. Defasagem de modelos. Modelos locais não se atualizam automaticamente. Quando a OpenAI lança uma nova versão do GPT ou a Meta publica um novo Llama, a organização precisa avaliar, baixar, testar e deployar manualmente. Em cloud, o provider cuida da atualização. Localmente, a responsabilidade é da equipe interna — o que exige competência técnica que nem toda organização possui. Skill gap. Operar infraestrutura local de IA exige engenheiros de ML, administradores de sistema com conhecimento de GPU e equipes de segurança familiarizadas com operação de modelos. Para organizações que já enfrentam escassez de talentos em IA, adicionar hardware local pode ampliar o gap em vez de resolvê-lo. Shadow AI não se resolve com hardware. Dados que este blog publicou mostram que 53% das empresas brasileiras não detectam o uso não autorizado de ferramentas de IA. Um DGX Station na sala de TI não resolve Shadow AI se não houver política de uso, inventário de ferramentas e monitoramento. Hardware local é infraestrutura — não é governança. A ferramenta habilita; o framework organizacional governa. Disponibilidade e maturidade. DGX Station será disponibilizado na primavera de 2026. Para organizações que precisam de soluções agora, o timing pode não ser compatível com a urgência regulatória. Além disso, a operação de modelos de 1 trilhão de parâmetros em formato desktop é território novo — cases de uso em produção enterprise ainda não existem em escala. Recomendações para a liderança A pergunta estratégica não é "cloud ou local?" — é "quais dados não deveriam sair da empresa?". DGX Spark e DGX Station não substituem a nuvem. Complementam a nuvem nos cenários onde soberania de dados, compliance e controle regulatório são requisitos inegociáveis. Três recomendações práticas: 1. Avaliar DGX Spark como POC para equipes que trabalham com dados regulados. A US$ 3.000, o risco financeiro é baixo. Selecionar uma equipe de ciência de dados ou analytics que processa dados pessoais ou dados de setores regulados — e testar a operação de modelos locais com NemoClaw como camada de governança. O objetivo é medir: a qualidade do modelo local atende? A equipe consegue operar sem suporte de cloud? O compliance se beneficia da localidade? 2. Mapear cenários de uso por sensibilidade de dados. Antes de decidir sobre hardware, a organização precisa de um mapa claro: quais cargas de IA processam dados sensíveis, dados pessoais ou dados regulados? Para essas cargas, processamento local é vantagem regulatória. Para cargas com dados não sensíveis, modelos de escala variável e necessidade de atualização frequente, cloud continua sendo a escolha racional. 3. Incluir DGX Station na avaliação de infraestrutura de IA para 2027. O produto estará disponível na primavera de 2026, mas a decisão de investimento na faixa de US$ 50K-100K exige cases de uso validados, análise de TCO e alinhamento com a estratégia de governança. A recomendação é acompanhar os primeiros deployments, avaliar o ecossistema de suporte dos vendors (Dell, HP, Supermicro) e planejar a decisão para o ciclo orçamentário de 2027. O que isso significa para quem toma decisão A NVIDIA está fazendo uma aposta clara: o futuro da IA enterprise não é apenas cloud — é híbrido, com capacidade local significativa para cenários onde controle, privacidade e compliance são prioritários. DGX Spark e DGX Station são a materialização dessa aposta em produto. Para boards e comitês de risco, a implicação é concreta. Pela primeira vez, existe hardware comercial, de prateleira, capaz de rodar modelos de IA de larga escala localmente, com custo que varia de US$ 3.000 a US$ 100.000 — não US$ 3 milhões. A barreira de entrada para soberania de dados em IA caiu drasticamente. A pergunta para a próxima reunião de comitê não é se a organização deveria ter capacidade local de IA. A pergunta é: quais dados a organização está enviando para a nuvem hoje que não deveriam estar saindo do perímetro? A resposta a essa pergunta define o caso de negócio para DGX Spark, DGX Station — ou para qualquer decisão de infraestrutura local de IA que venha nos próximos 12 meses.
-
Ricardo Melo - 28 Mar, 2026
NemoClaw: a NVIDIA construiu a camada enterprise que faltava aos agentes de IA — e o que isso muda para quem lidera
A NVIDIA anunciou o NemoClaw na GTC 2026, em 16 de março. Trata-se de uma stack open-source, instalável com um único comando, construída para levar agentes de IA do piloto à produção enterprise com segurança, isolamento e governança embutidos. O timing não é acidental. Dados que este blog já cobriu mostram que 78% das empresas têm pilotos de agentes autônomos, mas apenas 14% conseguem escalar. O gap entre piloto e produção é, majoritariamente, um gap de infraestrutura de segurança e controle. NemoClaw é a resposta da NVIDIA a esse gap — e a primeira vez que um player desse porte entrega uma camada enterprise-grade especificamente desenhada para operação governada de agentes. O problema que a NVIDIA decidiu resolver Agentes de IA em piloto são demonstrações de capacidade. Agentes em produção são risco operacional. A diferença entre os dois cenários é tudo que envolve o agente além do modelo: isolamento de ambiente, controle de acesso a dados, enforcement de políticas de uso, auditoria de ações e proteção de privacidade. A maioria das organizações que pilota agentes hoje opera sem essas camadas. O agente roda com credenciais amplas, acessa dados sem restrição, executa ações sem sandbox e não tem mecanismo de policy enforcement. Funciona no laboratório porque o escopo é controlado. Quando o escopo é produção — com dados reais, sistemas críticos e reguladores atentos — a ausência dessas camadas é o que trava a escalada. O Gartner projeta que 40% dos projetos de IA agêntica serão cancelados até 2027 por falha de governança. A NVIDIA leu o mercado e construiu a infraestrutura que falta entre "agente funciona" e "agente opera com controle". O que NemoClaw entrega — traduzido para o board NemoClaw é construído sobre o OpenClaw, o framework de agentes open-source mais popular do mundo, com mais de 250 mil stars no GitHub. A NVIDIA adicionou três camadas que transformam o OpenClaw de ferramenta de desenvolvimento em plataforma de operação enterprise. NVIDIA OpenShell — isolamento de agentes. O componente central. OpenShell é um runtime que executa cada agente em um ambiente sandboxed. Na prática, significa que um agente não consegue acessar dados, ferramentas ou sistemas além do que foi explicitamente autorizado pela política da organização. Para o board, a tradução é direta: OpenShell é o equivalente a controle de acesso (IAM) para agentes autônomos. Cada agente opera dentro de um perímetro definido. Se o agente tenta ultrapassar esse perímetro, o runtime bloqueia. Policy-based security e guardrails. NemoClaw permite definir políticas que governam o comportamento do agente: quais APIs pode chamar, quais dados pode acessar, quais ações pode executar e em que condições. As políticas são declarativas — a organização define regras, e o runtime as aplica. Para compliance, isso significa que as restrições operacionais do agente são documentáveis, auditáveis e versionadas. Quando o regulador perguntar "quais são os limites operacionais deste agente?", a resposta está na política — não na memória de quem configurou o prompt. Privacy router. NemoClaw suporta modelos locais (on-device, como a família Nemotron da NVIDIA) e modelos cloud, com um roteador de privacidade que decide qual modelo processa cada requisição com base na sensibilidade dos dados. Dados sensíveis ficam em modelos locais. Dados não sensíveis podem ir para a nuvem. A decisão é automática e baseada em política — não em julgamento ad hoc do desenvolvedor. O privacy router e a questão regulatória O privacy router merece atenção separada porque endereça diretamente obrigações regulatórias que estão se materializando em múltiplas jurisdições. A LGPD exige que dados pessoais sejam tratados com base legal adequada e que o controlador garanta medidas técnicas de proteção. O EU AI Act, que entra em vigor em agosto de 2026, impõe obrigações de transparência e supervisão para sistemas de IA de alto risco. A ISO 42001 define requisitos de gestão para organizações que desenvolvem ou operam IA. O privacy router do NemoClaw não resolve compliance por si só — nenhuma ferramenta faz isso. Mas oferece uma camada técnica que facilita demonstrar ao regulador que a organização implementou controles de roteamento de dados por sensibilidade. É a diferença entre dizer "temos uma política de privacidade" e demonstrar que "dados pessoais não saem do ambiente local porque o roteador bloqueia automaticamente". A primeira frase é documento. A segunda é controle operacional verificável. Para organizações que operam sob LGPD e EU AI Act simultaneamente — caso de qualquer empresa brasileira com clientes europeus — o privacy router reduz a superfície de risco de transferência internacional de dados pessoais via IA. O que muda para CIOs e CTOs Até a GTC 2026, não existia uma stack enterprise-grade, open-source, que integrasse sandbox de agentes, policy enforcement e roteamento de privacidade em um pacote coeso. As organizações que queriam governança técnica de agentes precisavam construir internamente — custoso, lento e difícil de manter. NemoClaw muda essa equação de três formas:Reduz o tempo de readiness. A instalação com um único comando elimina semanas de configuração de infraestrutura de segurança para agentes. Para CIOs que precisam demonstrar progresso em governança de IA ao board, a velocidade de implementação é relevante.Padroniza a camada de controle. Com NemoClaw, a organização adota um padrão aberto de isolamento e policy enforcement para agentes. Isso facilita auditoria, onboarding de novos agentes e comparação com frameworks de mercado como NIST AI RMF.Desacopla governança de vendor de modelo. NemoClaw é hardware-agnostic e suporta múltiplos modelos. A organização não precisa escolher entre governança e flexibilidade de modelo. Isso é estratégico: evita que a decisão de governança crie lock-in com um fornecedor de modelo específico.Riscos que o board precisa ponderar NemoClaw resolve um problema real, mas não é uma decisão livre de riscos. Cinco pontos que devem entrar na avaliação: Status alpha. NemoClaw está em early-access preview. Não é produção-ready. Organizações que adotarem agora estão assumindo risco de instabilidade, breaking changes e suporte limitado. A recomendação é avaliar em ambiente de teste, não em sistemas críticos. Dependência de roadmap NVIDIA. Ser open-source não elimina o fato de que a NVIDIA define o roadmap de desenvolvimento. Se a NVIDIA redirecionar prioridades — como fez com outros projetos — a comunidade herda a manutenção. Para decisões de infraestrutura de longo prazo, esse risco precisa ser mapeado. Integração com stack existente. NemoClaw foi otimizado para hardware NVIDIA (DGX Station, DGX Spark), embora funcione em outros ambientes. Organizações com infraestrutura heterogênea precisam validar compatibilidade e performance antes de comprometer investimento. Governança não é só ferramenta. NemoClaw entrega a camada técnica de controle. Mas governança de agentes exige também processos, políticas, ownership de negócio, inventário, auditoria e accountability no board. A ferramenta habilita — não substitui — o framework organizacional. Maturidade do ecossistema. O OpenClaw tem comunidade robusta (250 mil stars), mas o NemoClaw como camada enterprise é novo. Documentação, cases de uso em produção e integrações com ferramentas corporativas ainda estão se formando. Recomendações práticas para a liderança A recomendação aqui é direta: NemoClaw merece avaliação imediata, não adoção imediata. Quatro ações para os próximos 90 dias: 1. POC com agentes não críticos. Selecionar um caso de uso de baixo risco — automação de relatórios internos, triagem de tickets de suporte, análise de documentos — e testar NemoClaw como camada de isolamento e controle. O objetivo não é produção: é avaliar se a ferramenta atende aos requisitos de segurança e policy enforcement da organização. 2. Mapear NemoClaw contra os 5 pilares de governança. Usando o framework de inventário, identidade, menor privilégio, observabilidade e compliance contínuo: onde NemoClaw contribui e onde há gaps que a organização precisa cobrir com processos e ferramentas adicionais. 3. Avaliar o privacy router contra requisitos de LGPD e EU AI Act. Para organizações sob regulação dupla ou tripla, testar se o roteamento de privacidade atende aos requisitos de localização e proteção de dados pessoais. Envolver jurídico e DPO na avaliação — não apenas engenharia. 4. Acompanhar o roadmap. NemoClaw é alpha. A decisão de investir em integração profunda deve esperar maturidade do produto. Enquanto isso, a organização pode usar o POC para construir competência interna em operação governada de agentes — competência que vale independentemente da ferramenta final escolhida. O que isso significa para quem toma decisão NemoClaw sinaliza uma mudança de fase no mercado de agentes de IA. A NVIDIA — a empresa mais valiosa do ecossistema de IA — está investindo em infraestrutura de governança, não apenas em capacidade computacional. Quando o maior fabricante de GPUs do mundo decide que o próximo problema a resolver é segurança e controle de agentes, a mensagem para o mercado é clara: agentes em produção sem governança é um cenário insustentável. Para boards e comitês de risco, NemoClaw não é a resposta — é uma ferramenta dentro da resposta. A camada técnica de controle é necessária, mas insuficiente sem o framework organizacional: inventário, ownership, auditoria, compliance. A ferramenta habilita; o board governa. A recomendação para quem lidera: colocar NemoClaw na agenda do comitê de tecnologia. Não como decisão de compra — como indicador de onde o mercado está indo. A era dos agentes em sandbox de laboratório está terminando. A era dos agentes em produção governada está começando. A pergunta é se a organização vai estar pronta quando a transição acontecer — ou se vai ser parte dos 40% que o Gartner projeta que vão falhar.
-
Ricardo Melo - 28 Feb, 2026
O paradoxo do ROI: 95% dos pilotos de IA não geram impacto no P&L
O relatório Gen AI Divide do MIT trouxe o número que faltava para a conversa de IA no board: 95% dos pilotos de IA empresariais geraram zero impacto mensurável no P&L. Zero. Não é falta de investimento. O Gartner projeta US$2,52 trilhões em gastos globais com IA em 2026. Não é falta de adoção. A McKinsey reporta que 80% das empresas usam IA generativa. O problema está no gap entre usar e gerar retorno — e esse gap está custando credibilidade, orçamento e paciência dos boards. Os números que o CFO precisa ver Três dados de fontes independentes convergem para a mesma conclusão:MIT: 95% dos pilotos sem impacto no P&L PwC CEO Survey: 56% dos CEOs reportam que IA não gerou aumento de receita nem redução de custo nos últimos 12 meses McKinsey: ~80% das empresas usam gen AI, ~80% reportam impacto insignificante nos resultadosO paradoxo é evidente: o mercado gasta trilhões, a adoção é massiva, e o retorno para a maioria é negligenciável. Quando três fontes de calibre diferente apontam para o mesmo diagnóstico, o problema é sistêmico. O que os 5% fazem diferente Os 5% que geram retorno real compartilham três características: Profundidade, não amplitude. A McKinsey identifica que empresas com IA deployada em três ou mais funções de negócio capturam valor desproporcional. O padrão não é testar IA em dez departamentos com pilotos superficiais. É integrar profundamente em poucas funções onde o impacto é mensurável. Métricas de negócio, não de tecnologia. Os 5% medem "redução de custo por ticket", "aumento de conversão em X%", "horas de trabalho manual eliminadas". Os 95% medem "acurácia do modelo", "tempo de inferência", "número de prompts processados". A diferença é que o primeiro grupo conecta IA ao P&L. O segundo conecta IA ao dashboard do time técnico. Ownership executivo. Empresas com CAIO formalizado reportam 10% mais ROI. Modelos operacionais centralizados geram 36% mais retorno. Quando IA tem dono no C-level, tem orçamento, tem prioridade e tem accountability. Quando é "projeto do time de dados", morre no piloto. O ranking setorial de ROI Os dados de retorno por setor são instrutivos:Setor ROI médioFinancial Services 4.2xMídia & Telecom 3.9xHealthcare 2.8xVarejo 2.1xManufatura 1.7xFinancial services lidera porque combina três condições favoráveis: dados estruturados abundantes, processos altamente repetitivos e custo de mão de obra elevado. Quando um agente de IA processa uma análise de crédito que levaria 2 horas de um analista, o ROI é imediato e mensurável. Manufatura está na base não por falta de oportunidade, mas por complexidade de integração. Conectar IA a sistemas legados de chão de fábrica exige investimento em middleware e adaptação que eleva o custo total e dilui o retorno no curto prazo. Por que os pilotos falham A anatomia do fracasso dos 95% segue um padrão previsível: 1. Piloto sem business case. O projeto nasce de curiosidade técnica ("vamos testar ChatGPT para resumir emails"), não de um problema de negócio com custo mensurável. Sem baseline, não há como demonstrar impacto. 2. Escopo que nunca escala. O piloto funciona com 50 usuários e dados curados. Quando chega a hora de escalar para 5.000 usuários e dados reais, os problemas de integração, qualidade de dados e governança matam o projeto. 3. Ownership no nível errado. O projeto é do gerente de inovação ou do lead de data science. Não tem sponsor no C-level, não tem orçamento de produção, não tem integração com os sistemas core da empresa. 4. Métricas de vaidade. "90% de satisfação dos usuários do piloto" não é ROI. "Reduziu o tempo de resposta ao cliente em 40%, economizando US$2M/ano em headcount de call center" é ROI. A maioria dos pilotos nunca faz essa tradução. Recomendações para o board Primeira: Audite todos os pilotos de IA em andamento. Para cada um, exija resposta a uma pergunta: qual é o impacto projetado no P&L em 12 meses? Se a resposta é vaga ou inexistente, o piloto precisa ser reformulado ou encerrado. Segunda: Priorize depth over breadth. Três casos de uso profundamente integrados geram mais retorno do que trinta pilotos superficiais. Concentre investimento onde o impacto é mensurável. Terceira: Exija ownership executivo. Todo projeto de IA com potencial de impacto no P&L precisa ter um sponsor no C-level com accountability sobre o resultado. Se ninguém no C-suite quer assinar embaixo, o projeto não merece o investimento. O paradoxo do ROI em IA não é um problema de tecnologia. É um problema de gestão. A tecnologia funciona — os 5% provam isso. O que falta nos outros 95% é disciplina de execução, conexão com o negócio e coragem de matar projetos que não entregam.
-
Ricardo Melo - 12 Feb, 2026
US$2,5 trilhões em IA e 95% das empresas sem resultado no P&L: o acerto de contas chegou
O Gartner publicou em janeiro a projeção: gastos globais com IA vão totalizar US$2,52 trilhões em 2026. Um aumento de 44% em relação ao ano anterior. Mais da metade — US$1,37 trilhão — vai para infraestrutura. No mesmo mês, a PwC divulgou seu 29º Global CEO Survey. O dado que deveria tirar o sono de quem aprova esses orçamentos: 56% dos CEOs reportam que IA não gerou aumento de receita nem redução de custos nos últimos doze meses. Apenas 12% conseguiram ambos. São US$2,52 trilhões de investimento global e a maioria dos CEOs não consegue apontar retorno. Isso não é um gap — é um abismo. O relatório que ninguém quer discutir O MIT publicou um estudo sobre o que chama de "Gen AI Divide". A conclusão principal: 95% dos pilotos de IA generativa em empresas não geraram impacto mensurável no P&L. Não "impacto pequeno". Zero impacto mensurável. A McKinsey complementa: quase 80% das empresas reportam usar IA generativa, mas aproximadamente a mesma proporção admite que as ferramentas não afetaram significativamente seus resultados financeiros. Os dados de quem está conseguindo retorno são igualmente reveladores. Financial services lidera com ROI de 4,2x. Media e telecomunicações seguem com 3,9x. O fator comum entre os bem-sucedidos: deploy de IA em três ou mais funções de negócio, não pilotos isolados em um departamento. Por que a maioria falha Três padrões emergem dos dados: Pilotos sem business case. A maioria dos projetos de IA começa com "vamos testar essa tecnologia" em vez de "vamos resolver esse problema de negócio com IA". Quando o piloto termina, não há métrica de sucesso definida, não há owner de negócio e não há caminho para produção. É experimentação sem compromisso — e o board está financiando isso. Infraestrutura sem aplicação. US$1,37 trilhão em infra de IA significa GPUs, data centers, plataformas de ML. Investimento necessário — mas insuficiente sem casos de uso que gerem receita ou economizem custo. É o equivalente a comprar a fábrica antes de saber o que vai produzir. Escala prematura ou ausente. As empresas que obtêm ROI escalam rápido: começam com um caso de uso que funciona, medem o resultado e replicam para funções adjacentes. As que falham fazem o oposto: lançam dezenas de pilotos simultâneos, diluem atenção e recursos, e não aprofundam nenhum. O que os 5% fazem diferente O MIT identificou que os 5% de empresas com retorno transformacional compartilham três características: Casos de uso ligados ao core business. Não são projetos de inovação periférica. São aplicações de IA diretamente conectadas à operação que gera receita — precificação, underwriting, personalização, previsão de demanda, automação de processos de alto volume. Ownership de negócio, não de TI. O dono do projeto não é o CTO. É o VP de Operações, o CFO, o head de Supply Chain. Quem tem P&L responde pelo resultado. Investimento em dados, não em modelos. Modelos foundation são commodity — GPT, Claude, Gemini, todos disponíveis via API. O diferencial competitivo está na qualidade dos dados proprietários da empresa: histórico de transações, dados operacionais, feedback de clientes. O Trough of Disillusionment O Gartner classifica IA em 2026 no "Trough of Disillusionment" — o ponto do ciclo onde a tecnologia deixa de ser novidade e passa a ser cobrada por resultados. Isso muda a dinâmica de compra: empresas vão parar de comprar IA como moonshot e começar a exigir ROI previsível antes de aprovar orçamento. Para vendors de IA, isso significa que a venda muda de "veja o que é possível" para "mostre o que funciona". Para empresas comprando, significa que o poder de barganha aumenta — e que a paciência do board diminui. O contexto brasileiro No Brasil, o gap de ROI tem uma camada adicional: custo de API em real. Quando o dólar sobe, o custo por token sobe junto. Empresas brasileiras que dependem de APIs de IA americanas têm uma variável cambial no centro do business case que empresas americanas não enfrentam. Isso torna ainda mais crítico que empresas brasileiras escolham casos de uso com ROI demonstrável antes de escalar. O custo de um piloto que falha nos EUA é dinheiro perdido. No Brasil, é dinheiro perdido com câmbio adverso. A recomendação para líderes brasileiros: comece pelo caso de uso que tem o business case mais claro, meça obsessivamente, e só escale quando o ROI estiver comprovado em reais — não em dólares projetados. O que o CFO precisa ouvir A era dos orçamentos de IA aprovados por entusiasmo está acabando. O mercado está entrando na fase onde cada real investido precisa de retorno documentado. Três perguntas que todo CFO deveria fazer antes de aprovar o próximo investimento em IA:Qual o business case em reais? Não em "potencial" ou "estimativa do McKinsey". Quanto essa iniciativa vai gerar ou economizar nos próximos 12 meses, com premissas auditáveis.Quem é o owner de negócio? Se a resposta é "o time de dados" ou "a área de inovação", o projeto provavelmente vai gerar um PowerPoint bonito e zero impacto no P&L.Como vamos medir? Antes de começar. Não depois. Se não dá para medir, não dá para justificar.US$2,52 trilhões é muito dinheiro. A pergunta não é quanto a indústria está gastando — é quanto sua empresa está deixando na mesa por não exigir resultado.
-
Ricardo Melo - 12 Jan, 2026
Gartner prevê US$2,5 trilhões em gastos com IA em 2026: o que o CFO precisa saber
O Gartner publicou sua projeção mais recente: gastos globais com inteligência artificial devem atingir US$2,52 trilhões em 2026. É uma alta de 44% em relação a 2025 e representa o maior ciclo de investimento em tecnologia desde a cloud computing. O número é relevante, mas o que importa para quem toma decisões é a composição. Mais da metade — US$1,366 trilhão — vai para infraestrutura: GPUs, data centers, redes de alta velocidade, energia. A camada de aplicação, onde a maioria das empresas opera, fica com a fatia menor. A recomendação aqui é direta: antes de discutir em que IA investir, o CFO precisa entender onde o dinheiro do mercado está indo — e por quê. O mapa do capital A distribuição dos US$2,52 trilhões segue uma lógica de camadas:Infraestrutura (US$1,37T): GPUs, servidores, data centers, energia. Quem lidera: NVIDIA, hyperscalers (AWS, Azure, GCP), empresas de energia. Esse gasto é concentrado em menos de 20 empresas globalmente. Plataformas e middleware (~US$600B): APIs de modelos, ferramentas de deploy, observabilidade, segurança. É a camada que conecta infraestrutura a aplicações. Aplicações e serviços (~US$550B): SaaS com IA integrada, agentes verticais, consultoria de implementação. É onde a maioria das empresas gasta.Para o CFO, a lição é que o custo de IA não é apenas a licença do software. Inclui compute, integração, treinamento de equipe, governança e — cada vez mais — compliance regulatório. Empresas que orçam apenas a licença do Copilot e ignoram o restante subestimam o investimento real em 3x a 5x. O paradoxo do gasto vs. retorno O volume de investimento contrasta com os resultados reportados. A pesquisa mais recente da PwC com CEOs globais revela que 56% afirmam que IA não gerou aumento de receita nem redução de custos nos últimos doze meses. Apenas 12% alcançaram ambos. A McKinsey confirma o padrão: quase 80% das empresas usam IA generativa, mas percentual semelhante reporta impacto insignificante no resultado financeiro. O gap entre adoção e retorno é o maior risco para quem aprova orçamento de IA sem métricas claras de ROI. O dado que quebra o padrão: empresas que deployam IA em três ou mais funções de negócio reportam retorno significativamente maior. Financial services lidera com 4.2x de ROI, seguido por mídia e telecomunicações com 3.9x. O fator diferenciador não é quanto se gasta — é a profundidade da integração. O que o Gartner chama de "Trough of Disillusionment" O Gartner posiciona IA no "vale da desilusão" ao longo de 2026. Na prática, isso significa que o ciclo de hype está cedendo lugar à realidade operacional. As consequências para a estratégia corporativa: IA será vendida pelo fornecedor incumbente, não comprada como projeto moonshot. Empresas vão adotar IA via Salesforce, SAP, Oracle e Microsoft — integrada aos sistemas que já usam — em vez de comprar soluções standalone de startups. Para o C-level, isso simplifica a decisão de compra mas limita o upside. A previsibilidade do ROI precisa melhorar antes do scale-up. Boards não vão aprovar expansão de orçamento de IA sem evidência de retorno. A era dos pilotos sem métrica acabou. Compliance vira custo obrigatório. Com o EU AI Act entrando em vigor em agosto de 2026 e legislações estaduais nos EUA se multiplicando, o custo de governança de IA não é mais opcional. É uma linha no orçamento. Recomendações práticas Para o CFO: Trate IA como capex de infraestrutura, não como opex de inovação. Exija business case por caso de uso, com timeline de payback. O benchmark de mercado é 12-18 meses para ROI positivo em casos de uso bem definidos. Para o CIO/CTO: Centralize a governança de IA. O dado da IBM de 2026 é claro: modelos operacionais centralizados ou hub-and-spoke geram 36% mais ROI do que modelos descentralizados. Cada departamento comprando sua própria ferramenta de IA é receita perdida. Para o CEO: O investimento em IA não é opcional — mas a alocação é uma decisão estratégica. US$2,52 trilhões globais significam que seus concorrentes estão investindo. A pergunta não é se investir, mas onde o retorno é mensurável e em que prazo. O Gartner está dizendo, com números, o que o mercado já sente: IA é o maior ciclo de investimento corporativo da década. A diferença entre as empresas que vão capturar valor e as que vão desperdiçar capital está na disciplina de execução — não no tamanho do cheque.