Claude Mythos — o vazamento que revelou o modelo mais poderoso da Anthropic
-
Lucas Ferreira - 28 Mar, 2026
Uma falha de configuração em um sistema de gerenciamento de conteúdo da Anthropic expôs, em 27 de março de 2026, cerca de 3.000 ativos internos da empresa. Entre eles, a existência de um modelo que ninguém deveria conhecer ainda: o Claude Mythos, codinome interno Capybara. Um modelo acima do Opus. E que a própria Anthropic classifica como risco sem precedentes em cybersecurity.
A ironia escreve a si mesma. O laboratório de segurança em IA mais vocal do mundo deixou seus segredos mais sensíveis em um cache público, sem criptografia, pesquisável por qualquer pessoa com um navegador.
O que é o Claude Mythos
Mythos é um novo tier de modelo, posicionado acima do Claude Opus 4.6 — até então o mais capaz da Anthropic. Segundo os documentos vazados, estamos falando de um “step change” em performance, não uma melhoria incremental.
Os números são consistentes em várias fontes: o Mythos obteve “dramatically higher scores” em codificação, raciocínio acadêmico e testes de cybersecurity quando comparado ao Opus 4.6. A Anthropic confirmou que o modelo está sendo testado por clientes de acesso antecipado, o que significa que já não é protótipo de laboratório. É algo próximo de produção.
Para quem acompanha a corrida de modelos, a existência de um tier acima do Opus não é surpreendente. O ritmo de progresso tornava previsível que algo maior viria. O que surpreende é o que os documentos internos dizem sobre as capacidades específicas desse modelo.
O problema real: cybersecurity ofensiva
Aqui a conversa muda de tom. De acordo com os materiais vazados, a própria Anthropic classificou o Mythos como apresentando “riscos sem precedentes em cybersecurity”. Não é retórica — é a avaliação interna da empresa que criou o modelo.
O Mythos consegue encontrar e explorar vulnerabilidades de software mais rápido do que defensores humanos. Leia de novo. Mais rápido do que as pessoas cuja função é proteger sistemas.
Documentos internos alertam que o modelo poderia “acelerar uma corrida armamentista cibernética”. Quando um modelo de linguagem é capaz de identificar falhas em código, gerar exploits e encadear ataques em velocidade de máquina, o jogo muda para todo mundo. Não só para quem usa IA. Para qualquer empresa que roda software — ou seja, todas.
Isso levanta uma pergunta que a Anthropic não respondeu publicamente: se você sabe que seu modelo representa um risco dessa magnitude, qual é o plano? Liberar com guardrails? Manter restrito? Vender acesso controlado? Os documentos vazados não deram essa resposta. O comunicado da Anthropic confirmando o “step change” em performance foi cuidadosamente vago sobre o que vem a seguir.
Como o vazamento aconteceu
O mecanismo do vazamento é quase banal para o tamanho do estrago. Um cache de dados associado a um CMS da Anthropic ficou exposto publicamente. Sem autenticação. Sem criptografia. Pesquisável.
Não foi uma invasão sofisticada. Não foi um insider malicioso. Foi uma falha de configuração básica — o tipo de erro que empresas de cybersecurity alertam seus clientes para evitar todos os dias.
Cerca de 3.000 ativos internos ficaram expostos, incluindo documentos técnicos, avaliações de risco e materiais de pesquisa. A extensão completa do que foi acessado antes da correção ainda não é pública.
Para uma empresa que se posiciona como a mais responsável do setor de IA, que criou o conceito de “Constitutional AI” e que frequentemente critica concorrentes por lançarem modelos sem avaliação adequada de riscos, esse tipo de falha é particularmente constrangedor.
A reação do mercado
O mercado não esperou para reagir. Bitcoin e ações de empresas de software caíram após a divulgação do vazamento. A lógica dos investidores não é difícil de seguir: se existe um modelo capaz de explorar vulnerabilidades em escala, toda empresa de software acaba de ficar mais exposta. E se a empresa que criou esse modelo não consegue proteger seus próprios dados, o que isso diz sobre a maturidade do setor?
A reação pode parecer exagerada no curto prazo. Mas o sinal é claro. O mercado está começando a precificar o risco de que modelos de IA ofensiva existam e, eventualmente, vazem ou sejam replicados.
E daí? Por que isso importa para você
Três pontos práticos.
Primeiro: o modelo de ameaça mudou. Até agora, ataques cibernéticos sofisticados exigiam equipes qualificadas e tempo. Um modelo como o Mythos comprime o tempo e reduz a barreira de entrada. Se você é CTO, CISO ou gerencia infraestrutura, a premissa de que “atacantes precisam de dias para encontrar uma falha” pode não ser mais válida.
Segundo: a questão de governança em IA ficou mais urgente. Se um laboratório pode criar um modelo que ele mesmo classifica como risco sem precedentes, quem decide se esse modelo é lançado? O próprio laboratório? Um regulador? Neste momento, a resposta é: o próprio laboratório. E o vazamento mostrou que a capacidade de manter segredos sob controle nem sempre acompanha a capacidade de criar modelos poderosos.
Terceiro: o incidente reforça algo que deveria ser óbvio mas aparentemente não é — segurança da informação básica continua sendo mais importante que qualquer framework de segurança de IA. A Anthropic pode ter os melhores pesquisadores de alinhamento do mundo. Mas um CMS mal configurado derrubou tudo.
O ceticismo necessário
Eu cobro consistência. A Anthropic se posiciona como a empresa que faz IA “do jeito certo”. Que prioriza segurança. Que vai mais devagar quando necessário. Esse posicionamento rende confiança — e confiança é um ativo valioso no mercado de IA.
Mas confiança funciona nos dois sentidos. Se você promete ser o mais seguro, a expectativa é proporcional. Um vazamento dessa magnitude, com esse conteúdo, vindode uma empresa com esse posicionamento, não é apenas um incidente técnico. É um teste de credibilidade.
A Anthropic vai precisar explicar não só como o vazamento aconteceu, mas qual é a estratégia para um modelo que a própria empresa considera perigoso. “Estamos testando com clientes de acesso antecipado” não é uma resposta suficiente quando seus próprios documentos falam em corrida armamentista cibernética.
O Claude Mythos pode ser o modelo mais capaz já criado. Mas neste momento, a história mais importante não é o que ele faz. É o que o vazamento revela sobre a distância entre o discurso de segurança e a prática — mesmo nas empresas que deveriam ser referência.