Segundo o The Wall Street Journal, o Comando Central dos EUA (CENTCOM) utilizou o sistema de IA Claude da Anthropic durante uma operação de ataque aéreo no Irão, fornecendo análise de inteligência, identificação de alvos e simulação de campo de batalha — mesmo após apenas algumas horas da assinatura de uma ordem executiva de Trump que proibia a Anthropic. Este episódio evidencia que a IA já está profundamente integrada na infraestrutura de defesa, tornando difícil uma interrupção imediata, mesmo com ordens presidenciais. A Anthropic foi excluída pelo Pentágono por se recusar a remover restrições relacionadas a armas autônomas e vigilância em massa, sendo rapidamente substituída pela OpenAI.
(Antecedentes: Trump quer banir totalmente a Anthropic! Recusa-se a modificar Claude para evitar “restrições de homicídio”, enquanto a OpenAI surpreendentemente apoia)
(Complemento: Pentágono confronta a Anthropic! Abre totalmente o uso militar do Claude — “senão, rescindimos o contrato”)
Índice deste artigo
Alternar
Na sexta-feira passada, quando o governo Trump ordenou a suspensão total do uso da tecnologia da Anthropic, e o Departamento de Defesa a colocou na lista de “risco na cadeia de suprimentos”, as operações aéreas dos EUA no Irão continuaram a depender do Claude AI. Essa aparente contradição revela uma realidade inquietante: a infiltração da IA nos sistemas militares já ultrapassou o alcance das ordens executivas que poderiam, em teoria, interrompê-la imediatamente.
Segundo fontes do The Wall Street Journal, durante a operação de ataque ao Irão, denominada “Fúria Épica” (Operation Epic Fury), o Comando Central dos EUA continuou usando o Claude para várias tarefas críticas — incluindo análise de inteligência, auxílio na identificação de alvos e simulação de cenários de combate.
No verão passado, a Anthropic assinou um contrato-protótipo de dois anos, no valor máximo de 200 milhões de dólares, com o Pentágono, por meio de parcerias com a Palantir e a Amazon Web Services. O Claude tornou-se o primeiro modelo de IA comercial autorizado a operar na rede confidencial do Pentágono, sendo utilizado desde testes de armas até comunicações em tempo real no campo de batalha. Relatos indicam que o sistema também apoiou ações do presidente venezuelano Maduro em janeiro deste ano.
O conflito central reside na exigência do Pentágono para que a Anthropic remova restrições contratuais, permitindo o uso do Claude para “todos os fins legais”. Contudo, o CEO da Anthropic, Dario Amodei, recusou-se a ceder, defendendo duas linhas éticas fundamentais:
Amodei declarou que a empresa é contra o uso de IA para “vigilância doméstica em larga escala” e “armas totalmente autônomas”, enfatizando que decisões militares devem ser humanas, não algoritmos. Em comunicado, afirmou: “Não podemos, com consciência tranquila, aceitar esses pedidos.”
O secretário de Defesa, Pete Hegseth, imediatamente colocou a Anthropic na lista de “risco na cadeia de suprimentos”, e Trump ordenou que todas as agências federais “interrompessem imediatamente” o uso da tecnologia da Anthropic — embora o Departamento de Defesa e outros setores tenham um período de transição de seis meses. A Anthropic anunciou que contestará judicialmente essa decisão, alegando que ela é “sem base legal” e alertando que tal medida estabelece um perigoso precedente para “qualquer empresa americana negociando com o governo”.
Poucas horas após o anúncio de Trump de banir a Anthropic, a OpenAI anunciou um acordo com o Departamento de Defesa para implantar sua tecnologia de IA em redes militares confidenciais.
Curiosamente, durante toda a controvérsia, o CEO da OpenAI, Sam Altman, manifestou apoio público à Anthropic em uma entrevista à CNBC, dizendo que ela “é confiável na área de segurança” — mesmo assim, a OpenAI acabou assumindo o contrato militar que a Anthropic foi forçada a abandonar. Essa interação delicada entre gigantes da IA reflete a difícil balança entre interesses comerciais e posições éticas no Vale do Silício.
O episódio mais profundo não é a disputa política entre Trump e a Anthropic, mas uma verdade mais fundamental: quando sistemas de IA já estão profundamente integrados em cada etapa do ciclo militar, de análise de inteligência a alvos, qualquer ordem de “desligar” não se concretiza rapidamente.
Para as comunidades de criptomoedas e Web3, esse caso serve como um alerta: seja IA ou blockchain, quando a tecnologia entra no núcleo do governo e da defesa, o ideal de “descentralização” precisa enfrentar a dura realidade da vontade estatal. A experiência da Anthropic mostra que manter a ética tecnológica pode custar a perda dos maiores clientes.