Selon le Wall Street Journal, le CENTCOM américain a utilisé le système Claude AI d’Anthropic lors d’une opération de bombardement en Iran, fournissant des analyses d’informations, l’identification de cibles et des simulations de champ de bataille — pourtant, seulement quelques heures après la signature par Trump d’un ordre exécutif interdisant Anthropic. Cet incident met en lumière le fait que l’IA est désormais profondément intégrée dans les infrastructures de défense, rendant difficile une coupure immédiate même en cas d’interdiction présidentielle. Anthropic a été exclu par le Pentagone pour avoir refusé de lever les restrictions sur les « armes autonomes » et la « surveillance de masse », et OpenAI a rapidement repris le relais.
(Précédent : Trump veut interdire totalement Anthropic ! Refus de modifier Claude pour « limiter les capacités de tuer », OpenAI en soutien inattendu)
(Contexte supplémentaire : Le Pentagone met Anthropic face à ses responsabilités ! Ouverture totale à l’usage militaire de Claude « sinon, résiliation »)
Table des matières
Toggle
Lorsque le gouvernement Trump a ordonné vendredi dernier l’arrêt complet de l’utilisation de la technologie Anthropic, le secrétaire à la Défense a même classé cette société comme « risque pour la chaîne d’approvisionnement », mais l’opération de bombardement en Iran des forces américaines a continué de s’appuyer sur Claude AI. Ce paradoxe apparent révèle une réalité inquiétante : le degré d’infiltration de l’IA dans le système militaire dépasse déjà ce que peuvent atteindre des ordres administratifs en temps réel.
Selon le Wall Street Journal, des sources rapportent que le CENTCOM, lors de l’opération « Epic Fury » en Iran, a continué d’utiliser Claude pour plusieurs tâches clés — notamment l’analyse de renseignements, l’aide à l’identification des cibles, et la simulation de scénarios de combat.
Anthropic avait signé l’été dernier un contrat prototype de deux ans, d’un montant maximal de 200 millions de dollars, via un partenariat avec Palantir et Amazon Web Services. Claude est ainsi devenu le premier modèle d’IA commercial autorisé à fonctionner sur le réseau confidentiel du Pentagone, pour des usages allant des tests d’armement aux communications en temps réel sur le champ de bataille. Selon des rapports, le système aurait également été utilisé en janvier pour suivre l’opération du président vénézuélien Maduro.
Le cœur du conflit réside dans le fait que le Pentagone exigeait qu’Anthropic supprime toute restriction d’utilisation, permettant à Claude d’être utilisé « pour toutes les utilisations légales ». Mais le PDG d’Anthropic, Dario Amodei, a refusé de céder, en insistant sur deux principes éthiques fondamentaux :
Amodei a déclaré que l’entreprise s’opposait à l’utilisation de l’IA pour la « surveillance intérieure de masse » et les « armes autonomes complètes », soulignant que les décisions militaires doivent rester sous contrôle humain, et non déléguées à des algorithmes. Dans un communiqué, il a affirmé : « Nous ne pouvons pas, en conscience, accepter leurs demandes. »
Le secrétaire à la Défense, Pete Hegseth, a rapidement placé Anthropic dans la catégorie « risque pour la chaîne d’approvisionnement », et Trump a ordonné à toutes les agences fédérales de « cesser immédiatement » d’utiliser la technologie Anthropic — mais une période de transition de six mois a été accordée pour les départements clés comme la Défense. Anthropic a annoncé qu’elle contestera cette décision en justice, la qualifiant d’« infondée » et avertissant que cela pourrait établir un dangereux précédent pour « toute entreprise américaine négociant avec le gouvernement ».
Quelques heures seulement après l’annonce de l’interdiction par Trump, OpenAI a annoncé avoir conclu un accord avec le ministère de la Défense pour déployer sa technologie IA sur un réseau militaire confidentiel.
Fait notable, lors de cette controverse, le PDG d’OpenAI, Sam Altman, a publiquement soutenu Anthropic dans une interview sur CNBC, déclarant qu’elle était « digne de confiance dans le domaine de la sécurité » — malgré tout, OpenAI a finalement repris le contrat militaire que Anthropic a été contraint d’abandonner. Cette interaction subtile entre géants de l’IA reflète la difficile tension entre intérêts commerciaux et principes éthiques dans la Silicon Valley.
Ce qui est le plus frappant dans cet épisode, ce n’est pas la lutte politique entre Trump et Anthropic, mais une vérité plus fondamentale : lorsque les systèmes d’IA sont déjà profondément intégrés dans chaque étape du processus militaire, de l’analyse de renseignement à la ciblage, toute tentative de « débrancher » via une ordonnance administrative ne peut pas produire d’effet immédiat.
Pour la communauté crypto et Web3, cette affaire offre une mise en garde essentielle — que ce soit l’IA ou la blockchain, lorsque la technologie pénètre au cœur des institutions gouvernementales et de défense, l’idéale de « décentralisation » doit faire face à la réalité de la « volonté nationale ». L’expérience d’Anthropic montre que respecter une éthique technologique peut aussi signifier perdre ses plus grands clients.