Alega-se que o exército dos EUA utilizou a IA Claude da Anthropic durante um grande ataque aéreo no Irã, uma notícia que surgiu poucas horas após o Presidente Donald Trump ordenar às agências federais que interrompessem o uso do modelo. Comandos na região, incluindo o CENTCOM, supostamente usaram Claude para apoiar análises de inteligência, verificação de alvos e simulações de campo de batalha. O episódio destaca o quão profundamente as ferramentas de IA estão integradas nas operações de defesa, mesmo enquanto os formuladores de políticas tentam cortar laços com certos fornecedores. A situação evidencia uma tensão entre as diretivas executivas e a automação no terreno, que pode influenciar a aquisição e a gestão de riscos em programas de defesa.
Principais conclusões
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.