Anthropic et le Pentagone relancent les négociations sur l'IA : chercher à préserver la coopération en défense avec Claude, tout en respectant la ligne rouge éthique

動區BlockTempo

Lors de la collision intense entre l’éthique de l’IA et les besoins militaires, le PDG d’Anthropic, Dario Amodei, a récemment relancé les négociations avec le Pentagone américain, tentant de sauver un contrat de plusieurs centaines de millions de dollars pour la coopération en IA, tout en respectant la « ligne rouge » de l’entreprise, afin d’éviter une exclusion formelle de la chaîne d’approvisionnement de la défense.
(Précédent : Le PDG d’Anthropic dénonce : les contrats entre OpenAI et le Pentagone sont tous des mensonges, Altman se fait passer pour un ambassadeur de la paix)
(Contexte supplémentaire : Trump veut totalement bannir Anthropic ! Refusant de modifier Claude « limiteur de meurtre », OpenAI en soutien sans précédent)

Sommaire

Toggle

  • Contexte des négociations et maintien de la ligne rouge
  • Dernières avancées dans la relance des négociations
  • Signification de l’événement et perspectives d’avenir

La société américaine d’intelligence artificielle Anthropic, dirigée par Dario Amodei, a récemment relancé les négociations avec le Département de la Défense américain (Pentagone), visant à finaliser les termes du contrat concernant l’utilisation militaire de son modèle d’IA Claude. Cette démarche intervient après l’échec des négociations la semaine dernière, lorsque le Pentagone a inscrit Anthropic dans la liste des « risques pour la chaîne d’approvisionnement », dans le but d’éviter l’exclusion d’Anthropic de la coopération militaire tout en maintenant ses principes éthiques fondamentaux.

Contexte des négociations et maintien de la ligne rouge

Depuis l’année dernière, Anthropic a signé un contrat pilote d’une valeur pouvant atteindre 200 millions de dollars avec le Pentagone, permettant à Claude d’être le premier modèle d’IA avancé autorisé à être déployé sur des réseaux confidentiels. Cependant, le gouvernement de Trump a par la suite exigé une modification des clauses, insistant pour que l’IA soit applicable à « toutes les utilisations légales » (any lawful use), sans restriction.

Anthropic maintient deux « lignes rouges » : interdire l’utilisation de Claude pour la surveillance massive des citoyens américains, et interdire son emploi dans des armes entièrement autonomes (fully autonomous weapons, c’est-à-dire des systèmes pouvant choisir et attaquer une cible sans intervention humaine). L’entreprise estime que ces usages pourraient menacer les valeurs démocratiques, et que la technologie IA actuelle n’est pas encore suffisamment fiable. Cependant, le secrétaire à la Défense, Pete Hegseth, a lancé un ultimatum, exigeant une concession dans un délai imparti, faute de quoi le contrat serait résilié et des mesures légales seraient appliquées, ce qui a conduit à l’échec des négociations vendredi dernier.

Dernières avancées dans la relance des négociations

Selon des sources proches du dossier, Amodei négocie actuellement directement avec Emil Michael, vice-ministre de la Recherche et de l’Ingénierie au Département de la Défense, dans l’objectif de parvenir à un compromis permettant à l’armée américaine de continuer à utiliser Claude tout en réduisant considérablement le risque d’inscription d’Anthropic sur la liste noire officielle.

En cas de succès, le nouveau contrat pourrait apaiser la tension et influencer la dynamique concurrentielle dans le secteur de l’IA — par exemple, OpenAI a déjà conclu un accord avec le Pentagone, mais ajuste également ses clauses pour y intégrer des restrictions similaires. Anthropic insiste sur sa volonté de coopérer, tout en ne renonçant pas à ses principes fondamentaux ; si aucun consensus n’est trouvé, l’entreprise aidera à une transition en douceur vers d’autres fournisseurs afin de ne pas perturber les opérations militaires.

Signification de l’événement et perspectives d’avenir

Ce conflit met en lumière la lutte entre les entreprises d’IA et le secteur militaire sur les questions d’éthique, de sécurité et de sécurité nationale. Anthropic, qui se positionne comme une marque d’« IA responsable », refuse de faire des concessions sans condition, reflétant les préoccupations profondes de certains acteurs de la Silicon Valley face à l’utilisation militaire de l’IA ; le Pentagone, de son côté, insiste sur la flexibilité sur le champ de bataille et l’avantage technologique.

Si les négociations aboutissent, cela pourrait établir un nouveau modèle pour l’application militaire de l’IA ; sinon, cela pourrait accentuer la division dans l’industrie. Les observateurs anticipent qu’une déclaration officielle ou de nouvelles avancées pourraient rapidement émerger.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire