Horas após o presidente Donald Trump ordenar que agências federais interrompessem o uso das ferramentas de IA da Anthropic, o exército dos EUA realizou um grande ataque aéreo ao Irã que, segundo relatos, contou com a plataforma Claude da empresa. O Comando Central dos EUA utilizou o Claude para avaliações de inteligência, identificação de alvos e simulação de cenários de batalha durante os ataques ao Irã, confirmaram pessoas familiarizadas com o assunto ao Wall Street Journal no sábado. Apesar da orientação de Trump na sexta-feira para que as agências começassem uma descontinuação de seis meses dos produtos da Anthropic, após uma quebra nas negociações entre a empresa e o Pentágono sobre o uso de sistemas de IA comercialmente desenvolvidos. Decrypt entrou em contato com o Departamento de Defesa e a Anthropic para comentários.
“Quando as ferramentas de IA já estão integradas em sistemas de inteligência e simulação ao vivo, as decisões no topo não se traduzem instantaneamente em mudanças no terreno,” disse Midhun Krishna M, cofundador e CEO do rastreador de custos de LLM TknOps.io, ao Decrypt. “Há um atraso — técnico, procedural e humano.” “Quando um modelo está integrado em sistemas de inteligência e simulação classificados, você enfrenta custos de integração já gastos, retreinamento, recertificações de segurança e testes paralelos, então um período de seis meses para descontinuação pode parecer decisivo, mas a carga financeira e operacional real é muito mais profunda,” acrescentou Krishna. “Agências de defesa agora irão priorizar a portabilidade e redundância dos modelos,” afirmou. “Nenhum operador militar sério quer descobrir durante uma crise que sua camada de IA é politicamente frágil.”
O CEO da Anthropic, Dario Amodei, afirmou na quinta-feira que a empresa não removeria salvaguardas que impedem o Claude de ser utilizado para vigilância doméstica em massa ou armas totalmente autônomas. “Não podemos, de boa consciência, atender ao pedido deles,” escreveu Amodei, após o Departamento de Defesa exigir que os contratados permitissem o uso de seus sistemas para “qualquer uso legal.” “Os lunáticos de esquerda na Anthropic cometeram um ERRO DESASTROSO ao tentar forçar o Departamento de Guerra,” escreveu Trump posteriormente na Truth Social, ordenando às agências que “interrompessem imediatamente” todo uso dos produtos da Anthropic. O Secretário de Defesa, Pete Hegseth, seguiu, classificando a Anthropic como um “risco na cadeia de suprimentos para a segurança nacional,” uma etiqueta anteriormente reservada a adversários estrangeiros, proibindo todos os contratantes e parceiros do Pentágono de atividades comerciais com a empresa. A Anthropic considerou a designação “sem precedentes” e prometeu contestá-la na justiça, afirmando que ela “nunca antes foi aplicada publicamente a uma empresa americana.” A empresa acrescentou que, até onde sabe, as duas restrições contestadas não afetaram nenhuma missão governamental até o momento. “A discussão não é sobre se a IA será usada na defesa, isso já está acontecendo,” acrescentou Krishna. “É sobre se os laboratórios de fronteira podem manter limites diferenciados uma vez que seus sistemas se tornem ativos operacionais sob contratos de ‘qualquer uso legal’.” A OpenAI agiu rapidamente para preencher a lacuna, com o CEO Sam Altman anunciando na sexta-feira um acordo com o Pentágono que cobria redes militares classificadas, alegando que incluía os mesmos limites que a Anthropic buscava.
Ontem, chegamos a um acordo com o Departamento de Guerra para implantar sistemas avançados de IA em ambientes classificados, que solicitamos que estivessem disponíveis para todas as empresas de IA.
Acreditamos que nossa implantação possui mais limites do que qualquer acordo anterior para IA classificada…
— OpenAI (@OpenAI) 28 de fevereiro de 2026
Questionado se a efetiva lista negra do Pentágono à Anthropic estabelecia um precedente preocupante para futuras disputas com empresas de IA, o CEO da OpenAI, Sam Altman, respondeu no X: “Sim; acho que é um precedente extremamente assustador, e gostaria que tivessem lidado de outra forma. “Não acho que a Anthropic tenha lidado bem também, mas, como a parte mais poderosa, considero o governo mais responsável. Ainda tenho esperança de uma resolução muito melhor,” acrescentou. Enquanto isso, quase 500 funcionários da OpenAI e do Google assinaram uma carta aberta alertando que o Pentágono tentava colocar empresas de IA umas contra as outras.