The Wall Street Journal revela: Trump localiza o assassinato de Khamenei do Irão usando Claude AI, OpenAI assume o controlo total dos sistemas do Pentágono

動區BlockTempo

Segundo o The Wall Street Journal, o Comando Central dos EUA (CENTCOM) utilizou o sistema de IA Claude da Anthropic durante uma operação de ataque aéreo no Irão, fornecendo análise de inteligência, identificação de alvos e simulação de campo de batalha — mesmo após apenas algumas horas da assinatura de uma ordem executiva de Trump que proibia a Anthropic. Este episódio evidencia que a IA já está profundamente integrada na infraestrutura de defesa, tornando difícil uma interrupção imediata, mesmo com ordens presidenciais. A Anthropic foi excluída pelo Pentágono por se recusar a remover restrições relacionadas a armas autônomas e vigilância em massa, sendo rapidamente substituída pela OpenAI.

(Antecedentes: Trump quer banir totalmente a Anthropic! Recusa-se a modificar Claude para evitar “restrições de homicídio”, enquanto a OpenAI surpreendentemente apoia)

(Complemento: Pentágono confronta a Anthropic! Abre totalmente o uso militar do Claude — “senão, rescindimos o contrato”)

Índice deste artigo

Alternar

  • Mesmo após a assinatura do banimento, Claude continua operando no campo de batalha
  • Anthropic mantém duas linhas vermelhas, sendo expulsa por “não obedecer”
  • OpenAI assume rapidamente, a corrida armamentista de IA muda de protagonista
  • A IA não tem mais volta: a inércia tecnológica supera as ordens de proibição

Na sexta-feira passada, quando o governo Trump ordenou a suspensão total do uso da tecnologia da Anthropic, e o Departamento de Defesa a colocou na lista de “risco na cadeia de suprimentos”, as operações aéreas dos EUA no Irão continuaram a depender do Claude AI. Essa aparente contradição revela uma realidade inquietante: a infiltração da IA nos sistemas militares já ultrapassou o alcance das ordens executivas que poderiam, em teoria, interrompê-la imediatamente.

Mesmo após a assinatura do banimento, Claude continua operando no campo de batalha

Segundo fontes do The Wall Street Journal, durante a operação de ataque ao Irão, denominada “Fúria Épica” (Operation Epic Fury), o Comando Central dos EUA continuou usando o Claude para várias tarefas críticas — incluindo análise de inteligência, auxílio na identificação de alvos e simulação de cenários de combate.

No verão passado, a Anthropic assinou um contrato-protótipo de dois anos, no valor máximo de 200 milhões de dólares, com o Pentágono, por meio de parcerias com a Palantir e a Amazon Web Services. O Claude tornou-se o primeiro modelo de IA comercial autorizado a operar na rede confidencial do Pentágono, sendo utilizado desde testes de armas até comunicações em tempo real no campo de batalha. Relatos indicam que o sistema também apoiou ações do presidente venezuelano Maduro em janeiro deste ano.

Anthropic mantém duas linhas vermelhas, sendo expulsa por “não obedecer”

O conflito central reside na exigência do Pentágono para que a Anthropic remova restrições contratuais, permitindo o uso do Claude para “todos os fins legais”. Contudo, o CEO da Anthropic, Dario Amodei, recusou-se a ceder, defendendo duas linhas éticas fundamentais:

  • Claude não pode ser usado para vigilância em massa de cidadãos americanos
  • Claude não pode impulsionar sistemas de armas totalmente autônomas

Amodei declarou que a empresa é contra o uso de IA para “vigilância doméstica em larga escala” e “armas totalmente autônomas”, enfatizando que decisões militares devem ser humanas, não algoritmos. Em comunicado, afirmou: “Não podemos, com consciência tranquila, aceitar esses pedidos.”

O secretário de Defesa, Pete Hegseth, imediatamente colocou a Anthropic na lista de “risco na cadeia de suprimentos”, e Trump ordenou que todas as agências federais “interrompessem imediatamente” o uso da tecnologia da Anthropic — embora o Departamento de Defesa e outros setores tenham um período de transição de seis meses. A Anthropic anunciou que contestará judicialmente essa decisão, alegando que ela é “sem base legal” e alertando que tal medida estabelece um perigoso precedente para “qualquer empresa americana negociando com o governo”.

OpenAI assume rapidamente, a corrida armamentista de IA muda de protagonista

Poucas horas após o anúncio de Trump de banir a Anthropic, a OpenAI anunciou um acordo com o Departamento de Defesa para implantar sua tecnologia de IA em redes militares confidenciais.

Curiosamente, durante toda a controvérsia, o CEO da OpenAI, Sam Altman, manifestou apoio público à Anthropic em uma entrevista à CNBC, dizendo que ela “é confiável na área de segurança” — mesmo assim, a OpenAI acabou assumindo o contrato militar que a Anthropic foi forçada a abandonar. Essa interação delicada entre gigantes da IA reflete a difícil balança entre interesses comerciais e posições éticas no Vale do Silício.

A IA não tem mais volta: a inércia tecnológica supera as ordens de proibição

O episódio mais profundo não é a disputa política entre Trump e a Anthropic, mas uma verdade mais fundamental: quando sistemas de IA já estão profundamente integrados em cada etapa do ciclo militar, de análise de inteligência a alvos, qualquer ordem de “desligar” não se concretiza rapidamente.

Para as comunidades de criptomoedas e Web3, esse caso serve como um alerta: seja IA ou blockchain, quando a tecnologia entra no núcleo do governo e da defesa, o ideal de “descentralização” precisa enfrentar a dura realidade da vontade estatal. A experiência da Anthropic mostra que manter a ética tecnológica pode custar a perda dos maiores clientes.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)