OpenAI fecha com o Pentágono, #QuitGPT explode — e a Anthropic diz não

OpenAI fecha com o Pentágono, #QuitGPT explode — e a Anthropic diz não

A OpenAI fechou um contrato com o Departamento de Defesa dos Estados Unidos. Em 48 horas, o movimento #QuitGPT atraiu 2,5 milhões de apoiadores e as desinstalações do ChatGPT dispararam 295%. Na mesma semana, a Anthropic recusou o mesmo tipo de acordo por razões éticas. Março de 2026 não foi só mais um mês de notícias de IA. Foi o mês em que a indústria rachou ao meio.

O contrato e a revolta

Os detalhes do contrato não foram totalmente divulgados — contratos de defesa raramente são. Mas o suficiente vazou para incendiar a base de usuários. A OpenAI, fundada como uma organização sem fins lucrativos com missão de desenvolver IA segura para a humanidade, agora fornece tecnologia para o Pentágono.

A reação foi imediata e visceral. O #QuitGPT se espalhou em horas. Desenvolvedores publicaram tutoriais de migração para Claude e Gemini. Empresas que usavam a API da OpenAI começaram a avaliar alternativas. Em uma semana, as desinstalações do ChatGPT subiram 295% em relação à média.

A OpenAI tentou a resposta padrão: “nosso trabalho com o governo é focado em segurança e não envolve sistemas de armas letais.” É o tipo de frase que seria tranquilizadora se a empresa não tivesse passado anos cultivando uma imagem de organização orientada por princípios — e se o Pentágono fosse conhecido por limitar o uso de tecnologia a aplicações pacíficas.

A Anthropic diz não

A Anthropic recebeu a mesma proposta. E recusou. Não com um comunicado genérico, mas com uma posição explícita: a empresa não fornecerá modelos para aplicações militares ou de vigilância.

Mais do que isso: a Anthropic moveu ação judicial contra o governo americano para reverter uma designação de “supply chain risk” que a empresa recebeu. O caso é complexo — trata-se de uma classificação que pode restringir a atuação da Anthropic em contratos federais e potencialmente afetar sua relação com parceiros internacionais.

A posição da Anthropic não é puramente altruísta. A empresa compete diretamente com a OpenAI e sabe que o segmento de mercado que valoriza ética e segurança é grande — e está crescendo. Mas a decisão tem custo real. Recusar contratos de defesa é recusar receita significativa em um mercado onde capital é oxigênio.

Para o mercado, a mensagem é que existe um espectro ético na indústria de IA. A OpenAI está em um extremo. A Anthropic está em outro. E os clientes vão ter que escolher de que lado querem estar.

Os números por trás da fratura

A escala financeira dá contexto ao drama. A OpenAI ultrapassou $25 bilhões em receita anualizada no início de março. A Anthropic está se aproximando de $19 bilhões. São empresas enormes, lucrativas e com poder de influência crescente.

A OpenAI está flertando com um IPO para o fim de 2026. Contratos governamentais são previsíveis, recorrentes e de alto valor — exatamente o tipo de receita que investidores de IPO adoram. Visto por essa lente, o contrato com o Pentágono é uma decisão de negócio racional, não uma crise moral.

Mas a tecnologia tem memória curta e a internet não. O #QuitGPT pode perder força em semanas. Ou pode se tornar o símbolo permanente de que a OpenAI escolheu crescimento sobre princípios. O resultado depende do que vier a seguir — e do que o Pentágono fizer com o ChatGPT.

A onda de demissões de março

Se o contrato militar dominou as manchetes, as demissões dominaram o mercado de trabalho:

Oracle anunciou entre 20.000 e 30.000 cortes para redirecionar $8 a $10 bilhões para infraestrutura de IA. É a maior reestruturação da história da empresa e sinaliza que Oracle vê IA não como produto adicional, mas como o core do negócio daqui para frente.

Block (dona do Square e Cash App) cortou 4.000 posições — 40% do quadro de funcionários. Jack Dorsey foi direto: as posições foram “tornadas redundantes por IA.” Sem eufemismo, sem “realinhamento estratégico.” Redundantes por IA.

Atlassian cortou 1.600 funcionários, 10% da força de trabalho, para redirecionar recursos para desenvolvimento de IA. O CEO Mike Cannon-Brookes reconheceu que “a IA mudou fundamentalmente o mix de habilidades que a empresa precisa.”

Em três anúncios, mais de 35.000 empregos eliminados. Todos com a mesma justificativa. A IA não está mais ameaçando empregos em cenários hipotéticos de consultoria. Está eliminando posições em empresas reais, com nomes e datas.

Quando a IA vira arma, quem decide os limites?

Março de 2026 expôs uma pergunta que a indústria evitou por anos: quem define os limites éticos da IA?

A resposta até agora tem sido “cada empresa decide por si.” A OpenAI decide que contratos militares são aceitáveis. A Anthropic decide que não são. Os usuários votam com desinstalações. O mercado arbitra com receita.

Mas é um sistema frágil. Não existe regulação internacional que proíba o uso de LLMs em operações militares. Não existe tratado. Não existe nem consenso sobre o que constitui “aplicação militar” — um chatbot que ajuda a redigir relatórios de inteligência é arma?

A minha leitura é que o #QuitGPT, por mais catártico que seja, não vai resolver o problema. O que resolve é regulação clara, auditoria independente e transparência obrigatória em contratos governamentais de IA. Nada disso existe hoje.

O que temos é um mercado de $44 bilhões dividido entre empresas com posições éticas incompatíveis, usuários com opções limitadas e governos com apetite ilimitado por tecnologia. A fratura de março de 2026 não vai cicatrizar com hashtags. Vai precisar de leis.