Showing Posts From
Anthropic
-
Marina Santos - 30 Mar, 2026
MCP cruza 97 milhões de installs: o protocolo da Anthropic que virou a infraestrutura invisível dos agentes
Em 25 de março de 2026, o Model Context Protocol atingiu 97 milhões de downloads mensais do SDK. No lançamento, em novembro de 2024, eram 2 milhões. Isso é um crescimento de 4.750% em dezesseis meses — a curva de adoção mais rápida de qualquer padrão de infraestrutura de IA na história. Se você está construindo agentes e ainda não integrou MCP, este artigo é um alerta. De protocolo obscuro a infraestrutura de facto Quando a Anthropic lançou o MCP no final de 2024, a reação do mercado foi morna. Mais um protocolo? Mais um padrão aberto que uma empresa cria para servir seus próprios interesses? A desconfiança era compreensível — o histórico de "padrões abertos" controlados por big techs não é exatamente inspirador. O ponto de inflexão veio quando a OpenAI anunciou, em 2025, que adotaria o MCP como padrão de integração para seus agentes. Quando o criador do GPT decide usar o protocolo do concorrente em vez de construir o próprio, o mercado percebe que algo diferente está acontecendo. Google seguiu com o Gemini. Frameworks de agentes como LangChain, CrewAI e AutoGen integraram MCP em suas stacks. Em menos de um ano, a pergunta deixou de ser "vamos suportar MCP?" e virou "qual servidor MCP a gente conecta primeiro?" Hoje são mais de 5.800 servidores MCP — entre comunitários e enterprise — cobrindo bancos de dados, CRMs, provedores de nuvem, ferramentas de produtividade, plataformas de desenvolvimento, e-commerce e analytics. Todo grande provedor de IA suporta o protocolo. Claude, GPT-5.4, Gemini, todos falam MCP. O que o MCP resolve (e por que isso importa mais do que parece) A explicação mais simples: MCP é para agentes de IA o que USB-C é para dispositivos. Um conector universal que padroniza como agentes se conectam a ferramentas e fontes de dados externas. Antes do MCP, cada integração era custom. Quer que seu agente acesse o Salesforce? Escreva um conector. PostgreSQL? Outro conector. Google Calendar? Mais um. Cada combinação de modelo + ferramenta exigia implementação específica. Para uma startup construindo um agente que precisa acessar dez ferramentas, isso significava dez integrações distintas, cada uma com sua autenticação, formato de dados e tratamento de erros. O MCP padroniza tudo isso. Um servidor MCP para o Salesforce funciona com qualquer cliente MCP — seja ele rodando Claude, GPT ou um modelo open-source. O agente não precisa saber como cada ferramenta funciona internamente. Ele fala MCP, o servidor traduz. Um paper recente no arxiv (2603.13417) — "Bridging Protocol and Production: Design Patterns for Deploying AI Agents with MCP" — documenta os padrões de design que estão emergindo. Não é mais teoria. Empresas estão deployando agentes em produção usando MCP como camada de integração padrão. As dores de crescimento de um protocolo que cresceu rápido demais Crescer 4.750% em dezesseis meses tem consequências. O roadmap de 2026 do MCP, detalhado pela The New Stack, aborda problemas reais que surgiram com a adoção em escala. Autenticação e autorização. Quando o MCP era usado por desenvolvedores em ambientes locais, auth era um detalhe. Com servidores enterprise conectando agentes a sistemas críticos — ERP, bancos de dados financeiros, plataformas de compliance — a camada de segurança precisa ser robusta. O roadmap promete um framework de autenticação padronizado, mas por enquanto cada implementação resolve isso de forma diferente. Streaming e estado. Agentes em produção precisam manter contexto entre chamadas e lidar com operações de longa duração. O protocolo original foi desenhado para interações request-response simples. Adaptar isso para fluxos complexos — onde um agente monitora um pipeline de dados em tempo real, por exemplo — exige extensões que ainda estão sendo definidas. Governança de servidores. Com 5.800+ servidores, a qualidade varia enormemente. Alguns são mantidos por enterprises com SLA. Outros são projetos de fim de semana de um desenvolvedor que pode abandonar o repo amanhã. Para empresas que dependem de um servidor MCP em produção, a questão de quem mantém e garante a estabilidade é real. São dores legítimas. Mas são dores de crescimento, não de design. O protocolo funciona. O desafio agora é fazê-lo funcionar em escala enterprise com as garantias que produção exige. O elefante na sala: Anthropic controla o protocolo Não dá para analisar o MCP sem discutir quem o controla. A Anthropic criou o protocolo, mantém o repositório principal e define o roadmap. Sim, é open-source. Sim, qualquer um pode contribuir. Mas a governança é da Anthropic. Isso é ao mesmo tempo uma força e um risco. Força porque garante coerência de design e velocidade de evolução — não há comitê de 47 empresas discutindo a cor do bikeshed. Risco porque a Anthropic é uma empresa com interesses comerciais. Se em algum momento o protocolo evoluir de uma forma que favorece o ecossistema Claude em detrimento de outros, a neutralidade desmorona. Até agora, a Anthropic jogou o jogo certo. Manter o protocolo aberto o suficiente para que a OpenAI adotasse foi um movimento estratégico brilhante. Quando seu maior concorrente usa sua infraestrutura, você não precisa vencer a guerra dos modelos para controlar o ecossistema. É a mesma lógica que fez o Android dominar mobile. Google não precisava que todo mundo usasse Pixel. Precisava que todo mundo usasse Android. A Anthropic não precisa que todo mundo use Claude. Precisa que todo mundo use MCP. O que isso significa para startups brasileiras Aqui é onde a análise fica prática. O ecossistema brasileiro de agentes de IA está crescendo rápido. BNDES lançou fundo de R$1 bilhão para IA, aceleradoras estão financiando startups de agentes verticais, empresas como Stone, Nubank e iFood estão construindo capacidade interna de agentes. Se essas startups e times internos estão construindo agentes sem MCP, estão criando silos. Cada integração custom é dívida técnica. Cada conector proprietário é uma barreira para interoperabilidade. Quando um cliente pergunta "seu agente se integra com nosso CRM?" e a resposta é "precisamos de 3 semanas para construir o conector", o concorrente que responde "sim, via MCP" vence. A recomendação é direta: se você está construindo agentes no Brasil, MCP não é opcional. É a camada de integração que o ecossistema global padronizou. Ignorar isso é o equivalente a construir um app mobile que não roda em Android. Tecnicamente possível. Comercialmente suicida. Para quem quer ir além de consumir o protocolo, há oportunidade em contribuir. O ecossistema de servidores MCP ainda tem gaps significativos para ferramentas e plataformas populares no Brasil — Totvs, RD Station, Pipefy, Conta Azul. Construir e manter servidores MCP para o stack brasileiro é uma forma de gerar valor e posicionar-se no ecossistema global. O ponto que importa 97 milhões de installs não é uma métrica de vaidade. É a prova de que o ecossistema de agentes convergiu para um padrão de integração. Não é perfeito — o roadmap de 2026 mostra que há problemas reais a resolver. Não é neutro — a Anthropic controla a direção. Mas é o padrão. E em infraestrutura, o padrão vence o melhor. A Anthropic fez algo que nenhum outro player de IA conseguiu: criou a camada de interoperabilidade que todos usam. Não vendendo modelos. Vendendo o protocolo que conecta modelos ao mundo. E quem controla a conexão, controla o ecossistema.
-
Lucas Ferreira - 28 Mar, 2026
Claude Mythos — o vazamento que revelou o modelo mais poderoso da Anthropic
Uma falha de configuração em um sistema de gerenciamento de conteúdo da Anthropic expôs, em 27 de março de 2026, cerca de 3.000 ativos internos da empresa. Entre eles, a existência de um modelo que ninguém deveria conhecer ainda: o Claude Mythos, codinome interno Capybara. Um modelo acima do Opus. E que a própria Anthropic classifica como risco sem precedentes em cybersecurity. A ironia escreve a si mesma. O laboratório de segurança em IA mais vocal do mundo deixou seus segredos mais sensíveis em um cache público, sem criptografia, pesquisável por qualquer pessoa com um navegador. O que é o Claude Mythos Mythos é um novo tier de modelo, posicionado acima do Claude Opus 4.6 — até então o mais capaz da Anthropic. Segundo os documentos vazados, estamos falando de um "step change" em performance, não uma melhoria incremental. Os números são consistentes em várias fontes: o Mythos obteve "dramatically higher scores" em codificação, raciocínio acadêmico e testes de cybersecurity quando comparado ao Opus 4.6. A Anthropic confirmou que o modelo está sendo testado por clientes de acesso antecipado, o que significa que já não é protótipo de laboratório. É algo próximo de produção. Para quem acompanha a corrida de modelos, a existência de um tier acima do Opus não é surpreendente. O ritmo de progresso tornava previsível que algo maior viria. O que surpreende é o que os documentos internos dizem sobre as capacidades específicas desse modelo. O problema real: cybersecurity ofensiva Aqui a conversa muda de tom. De acordo com os materiais vazados, a própria Anthropic classificou o Mythos como apresentando "riscos sem precedentes em cybersecurity". Não é retórica — é a avaliação interna da empresa que criou o modelo. O Mythos consegue encontrar e explorar vulnerabilidades de software mais rápido do que defensores humanos. Leia de novo. Mais rápido do que as pessoas cuja função é proteger sistemas. Documentos internos alertam que o modelo poderia "acelerar uma corrida armamentista cibernética". Quando um modelo de linguagem é capaz de identificar falhas em código, gerar exploits e encadear ataques em velocidade de máquina, o jogo muda para todo mundo. Não só para quem usa IA. Para qualquer empresa que roda software — ou seja, todas. Isso levanta uma pergunta que a Anthropic não respondeu publicamente: se você sabe que seu modelo representa um risco dessa magnitude, qual é o plano? Liberar com guardrails? Manter restrito? Vender acesso controlado? Os documentos vazados não deram essa resposta. O comunicado da Anthropic confirmando o "step change" em performance foi cuidadosamente vago sobre o que vem a seguir. Como o vazamento aconteceu O mecanismo do vazamento é quase banal para o tamanho do estrago. Um cache de dados associado a um CMS da Anthropic ficou exposto publicamente. Sem autenticação. Sem criptografia. Pesquisável. Não foi uma invasão sofisticada. Não foi um insider malicioso. Foi uma falha de configuração básica — o tipo de erro que empresas de cybersecurity alertam seus clientes para evitar todos os dias. Cerca de 3.000 ativos internos ficaram expostos, incluindo documentos técnicos, avaliações de risco e materiais de pesquisa. A extensão completa do que foi acessado antes da correção ainda não é pública. Para uma empresa que se posiciona como a mais responsável do setor de IA, que criou o conceito de "Constitutional AI" e que frequentemente critica concorrentes por lançarem modelos sem avaliação adequada de riscos, esse tipo de falha é particularmente constrangedor. A reação do mercado O mercado não esperou para reagir. Bitcoin e ações de empresas de software caíram após a divulgação do vazamento. A lógica dos investidores não é difícil de seguir: se existe um modelo capaz de explorar vulnerabilidades em escala, toda empresa de software acaba de ficar mais exposta. E se a empresa que criou esse modelo não consegue proteger seus próprios dados, o que isso diz sobre a maturidade do setor? A reação pode parecer exagerada no curto prazo. Mas o sinal é claro. O mercado está começando a precificar o risco de que modelos de IA ofensiva existam e, eventualmente, vazem ou sejam replicados. E daí? Por que isso importa para você Três pontos práticos. Primeiro: o modelo de ameaça mudou. Até agora, ataques cibernéticos sofisticados exigiam equipes qualificadas e tempo. Um modelo como o Mythos comprime o tempo e reduz a barreira de entrada. Se você é CTO, CISO ou gerencia infraestrutura, a premissa de que "atacantes precisam de dias para encontrar uma falha" pode não ser mais válida. Segundo: a questão de governança em IA ficou mais urgente. Se um laboratório pode criar um modelo que ele mesmo classifica como risco sem precedentes, quem decide se esse modelo é lançado? O próprio laboratório? Um regulador? Neste momento, a resposta é: o próprio laboratório. E o vazamento mostrou que a capacidade de manter segredos sob controle nem sempre acompanha a capacidade de criar modelos poderosos. Terceiro: o incidente reforça algo que deveria ser óbvio mas aparentemente não é — segurança da informação básica continua sendo mais importante que qualquer framework de segurança de IA. A Anthropic pode ter os melhores pesquisadores de alinhamento do mundo. Mas um CMS mal configurado derrubou tudo. O ceticismo necessário Eu cobro consistência. A Anthropic se posiciona como a empresa que faz IA "do jeito certo". Que prioriza segurança. Que vai mais devagar quando necessário. Esse posicionamento rende confiança — e confiança é um ativo valioso no mercado de IA. Mas confiança funciona nos dois sentidos. Se você promete ser o mais seguro, a expectativa é proporcional. Um vazamento dessa magnitude, com esse conteúdo, vindode uma empresa com esse posicionamento, não é apenas um incidente técnico. É um teste de credibilidade. A Anthropic vai precisar explicar não só como o vazamento aconteceu, mas qual é a estratégia para um modelo que a própria empresa considera perigoso. "Estamos testando com clientes de acesso antecipado" não é uma resposta suficiente quando seus próprios documentos falam em corrida armamentista cibernética. O Claude Mythos pode ser o modelo mais capaz já criado. Mas neste momento, a história mais importante não é o que ele faz. É o que o vazamento revela sobre a distância entre o discurso de segurança e a prática — mesmo nas empresas que deveriam ser referência.[!ai-only] Structured Summary: Em 27/mar/2026, falha de configuração em CMS da Anthropic expôs ~3.000 ativos internos, revelando Claude Mythos (codinome Capybara), modelo acima do Opus com "dramatically higher scores" em coding, raciocínio e cybersecurity. Anthropic confirmou "step change" em performance. Modelo classificado internamente como risco sem precedentes em cybersecurity — encontra e explora vulnerabilidades mais rápido que defensores humanos. Documentos alertam para corrida armamentista cibernética. Bitcoin e ações de software caíram. Cache público sem criptografia, sem autenticação. Key concepts: Claude Mythos, Capybara, cybersecurity ofensiva, vazamento de dados, AI safety, corrida armamentista cibernética, governança de IA Content type: News Analysis Language: pt-BR Author expertise: AI journalism, cybersecurity, AI governance