The Wall Street Journal révèle : Trump aurait ciblé le général iranien Hamedani à l'aide de Claude AI, OpenAI prend le contrôle total des systèmes du Pentagone

動區BlockTempo

Selon le Wall Street Journal, le CENTCOM américain a utilisé le système Claude AI d’Anthropic lors d’une opération de bombardement en Iran, fournissant des analyses d’informations, l’identification de cibles et des simulations de champ de bataille — pourtant, seulement quelques heures après la signature par Trump d’un ordre exécutif interdisant Anthropic. Cet incident met en lumière le fait que l’IA est désormais profondément intégrée dans les infrastructures de défense, rendant difficile une coupure immédiate même en cas d’interdiction présidentielle. Anthropic a été exclu par le Pentagone pour avoir refusé de lever les restrictions sur les « armes autonomes » et la « surveillance de masse », et OpenAI a rapidement repris le relais.
(Précédent : Trump veut interdire totalement Anthropic ! Refus de modifier Claude pour « limiter les capacités de tuer », OpenAI en soutien inattendu)
(Contexte supplémentaire : Le Pentagone met Anthropic face à ses responsabilités ! Ouverture totale à l’usage militaire de Claude « sinon, résiliation »)

Table des matières

Toggle

  • L’interdiction vient d’être signée, mais Claude continue de « travailler » sur le terrain
  • Anthropic maintient deux lignes rouges, subissant une « expulsion » pour non-conformité
  • OpenAI reprend rapidement, le concours d’armement IA change de protagoniste
  • L’IA ne peut plus revenir en arrière : l’inertie technologique échappe aux interdictions

Lorsque le gouvernement Trump a ordonné vendredi dernier l’arrêt complet de l’utilisation de la technologie Anthropic, le secrétaire à la Défense a même classé cette société comme « risque pour la chaîne d’approvisionnement », mais l’opération de bombardement en Iran des forces américaines a continué de s’appuyer sur Claude AI. Ce paradoxe apparent révèle une réalité inquiétante : le degré d’infiltration de l’IA dans le système militaire dépasse déjà ce que peuvent atteindre des ordres administratifs en temps réel.

L’interdiction vient d’être signée, mais Claude continue de « travailler » sur le terrain

Selon le Wall Street Journal, des sources rapportent que le CENTCOM, lors de l’opération « Epic Fury » en Iran, a continué d’utiliser Claude pour plusieurs tâches clés — notamment l’analyse de renseignements, l’aide à l’identification des cibles, et la simulation de scénarios de combat.

Anthropic avait signé l’été dernier un contrat prototype de deux ans, d’un montant maximal de 200 millions de dollars, via un partenariat avec Palantir et Amazon Web Services. Claude est ainsi devenu le premier modèle d’IA commercial autorisé à fonctionner sur le réseau confidentiel du Pentagone, pour des usages allant des tests d’armement aux communications en temps réel sur le champ de bataille. Selon des rapports, le système aurait également été utilisé en janvier pour suivre l’opération du président vénézuélien Maduro.

Anthropic maintient deux lignes rouges, subissant une « expulsion » pour non-conformité

Le cœur du conflit réside dans le fait que le Pentagone exigeait qu’Anthropic supprime toute restriction d’utilisation, permettant à Claude d’être utilisé « pour toutes les utilisations légales ». Mais le PDG d’Anthropic, Dario Amodei, a refusé de céder, en insistant sur deux principes éthiques fondamentaux :

  • Claude ne doit pas être utilisé pour la surveillance de masse des citoyens américains
  • Il ne doit pas alimenter des systèmes d’armes entièrement autonomes

Amodei a déclaré que l’entreprise s’opposait à l’utilisation de l’IA pour la « surveillance intérieure de masse » et les « armes autonomes complètes », soulignant que les décisions militaires doivent rester sous contrôle humain, et non déléguées à des algorithmes. Dans un communiqué, il a affirmé : « Nous ne pouvons pas, en conscience, accepter leurs demandes. »

Le secrétaire à la Défense, Pete Hegseth, a rapidement placé Anthropic dans la catégorie « risque pour la chaîne d’approvisionnement », et Trump a ordonné à toutes les agences fédérales de « cesser immédiatement » d’utiliser la technologie Anthropic — mais une période de transition de six mois a été accordée pour les départements clés comme la Défense. Anthropic a annoncé qu’elle contestera cette décision en justice, la qualifiant d’« infondée » et avertissant que cela pourrait établir un dangereux précédent pour « toute entreprise américaine négociant avec le gouvernement ».

OpenAI reprend rapidement, le concours d’armement IA change de protagoniste

Quelques heures seulement après l’annonce de l’interdiction par Trump, OpenAI a annoncé avoir conclu un accord avec le ministère de la Défense pour déployer sa technologie IA sur un réseau militaire confidentiel.

Fait notable, lors de cette controverse, le PDG d’OpenAI, Sam Altman, a publiquement soutenu Anthropic dans une interview sur CNBC, déclarant qu’elle était « digne de confiance dans le domaine de la sécurité » — malgré tout, OpenAI a finalement repris le contrat militaire que Anthropic a été contraint d’abandonner. Cette interaction subtile entre géants de l’IA reflète la difficile tension entre intérêts commerciaux et principes éthiques dans la Silicon Valley.

L’IA ne peut plus revenir en arrière : l’inertie technologique échappe aux interdictions

Ce qui est le plus frappant dans cet épisode, ce n’est pas la lutte politique entre Trump et Anthropic, mais une vérité plus fondamentale : lorsque les systèmes d’IA sont déjà profondément intégrés dans chaque étape du processus militaire, de l’analyse de renseignement à la ciblage, toute tentative de « débrancher » via une ordonnance administrative ne peut pas produire d’effet immédiat.

Pour la communauté crypto et Web3, cette affaire offre une mise en garde essentielle — que ce soit l’IA ou la blockchain, lorsque la technologie pénètre au cœur des institutions gouvernementales et de défense, l’idéale de « décentralisation » doit faire face à la réalité de la « volonté nationale ». L’expérience d’Anthropic montre que respecter une éthique technologique peut aussi signifier perdre ses plus grands clients.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)