Lors de la collision intense entre l’éthique de l’IA et les besoins militaires, le PDG d’Anthropic, Dario Amodei, a récemment relancé les négociations avec le Pentagone américain, tentant de sauver un contrat de plusieurs centaines de millions de dollars pour la coopération en IA, tout en respectant la « ligne rouge » de l’entreprise, afin d’éviter une exclusion formelle de la chaîne d’approvisionnement de la défense.
(Précédent : Le PDG d’Anthropic dénonce : les contrats entre OpenAI et le Pentagone sont tous des mensonges, Altman se fait passer pour un ambassadeur de la paix)
(Contexte supplémentaire : Trump veut totalement bannir Anthropic ! Refusant de modifier Claude « limiteur de meurtre », OpenAI en soutien sans précédent)
Sommaire
Toggle
La société américaine d’intelligence artificielle Anthropic, dirigée par Dario Amodei, a récemment relancé les négociations avec le Département de la Défense américain (Pentagone), visant à finaliser les termes du contrat concernant l’utilisation militaire de son modèle d’IA Claude. Cette démarche intervient après l’échec des négociations la semaine dernière, lorsque le Pentagone a inscrit Anthropic dans la liste des « risques pour la chaîne d’approvisionnement », dans le but d’éviter l’exclusion d’Anthropic de la coopération militaire tout en maintenant ses principes éthiques fondamentaux.
Depuis l’année dernière, Anthropic a signé un contrat pilote d’une valeur pouvant atteindre 200 millions de dollars avec le Pentagone, permettant à Claude d’être le premier modèle d’IA avancé autorisé à être déployé sur des réseaux confidentiels. Cependant, le gouvernement de Trump a par la suite exigé une modification des clauses, insistant pour que l’IA soit applicable à « toutes les utilisations légales » (any lawful use), sans restriction.
Anthropic maintient deux « lignes rouges » : interdire l’utilisation de Claude pour la surveillance massive des citoyens américains, et interdire son emploi dans des armes entièrement autonomes (fully autonomous weapons, c’est-à-dire des systèmes pouvant choisir et attaquer une cible sans intervention humaine). L’entreprise estime que ces usages pourraient menacer les valeurs démocratiques, et que la technologie IA actuelle n’est pas encore suffisamment fiable. Cependant, le secrétaire à la Défense, Pete Hegseth, a lancé un ultimatum, exigeant une concession dans un délai imparti, faute de quoi le contrat serait résilié et des mesures légales seraient appliquées, ce qui a conduit à l’échec des négociations vendredi dernier.
Selon des sources proches du dossier, Amodei négocie actuellement directement avec Emil Michael, vice-ministre de la Recherche et de l’Ingénierie au Département de la Défense, dans l’objectif de parvenir à un compromis permettant à l’armée américaine de continuer à utiliser Claude tout en réduisant considérablement le risque d’inscription d’Anthropic sur la liste noire officielle.
En cas de succès, le nouveau contrat pourrait apaiser la tension et influencer la dynamique concurrentielle dans le secteur de l’IA — par exemple, OpenAI a déjà conclu un accord avec le Pentagone, mais ajuste également ses clauses pour y intégrer des restrictions similaires. Anthropic insiste sur sa volonté de coopérer, tout en ne renonçant pas à ses principes fondamentaux ; si aucun consensus n’est trouvé, l’entreprise aidera à une transition en douceur vers d’autres fournisseurs afin de ne pas perturber les opérations militaires.
Ce conflit met en lumière la lutte entre les entreprises d’IA et le secteur militaire sur les questions d’éthique, de sécurité et de sécurité nationale. Anthropic, qui se positionne comme une marque d’« IA responsable », refuse de faire des concessions sans condition, reflétant les préoccupations profondes de certains acteurs de la Silicon Valley face à l’utilisation militaire de l’IA ; le Pentagone, de son côté, insiste sur la flexibilité sur le champ de bataille et l’avantage technologique.
Si les négociations aboutissent, cela pourrait établir un nouveau modèle pour l’application militaire de l’IA ; sinon, cela pourrait accentuer la division dans l’industrie. Les observateurs anticipent qu’une déclaration officielle ou de nouvelles avancées pourraient rapidement émerger.