Le PDG d'Anthropic déclare : « Les contrats entre OpenAI et le Pentagone sont tous des mensonges, Altman se fait passer pour un ambassadeur de la paix »

動區BlockTempo

Le mémo interne du PDG d’Anthropic, Amodei, fuit, accusant directement le PDG d’OpenAI, Altman, de « mensonges flagrants », alors que les deux géants de l’IA s’affrontent frontalement sur le sujet des contrats militaires.
(Précédent contexte : Sam Altman est-il vilain ? Après avoir été blacklisté par le Pentagone, Anthropic, qui venait de soutenir cette décision, se retourne pour réclamer un contrat avec le Département de la Défense américain.)
(Informations complémentaires : Le Wall Street Journal révèle : Trump aurait ciblé la position de Claude AI pour éliminer l’influence de l’Iran Hamedani, et OpenAI aurait pris le contrôle total des systèmes du Pentagone.)

Table des matières

Toggle

  • Une ultime menace qui déclenche la guerre
  • La ligne « pragmatique » d’OpenAI
  • La véritable scène de bataille révélée par le mémo
  • La réaction immédiate des utilisateurs et du marché

Un

Un mémo interne écrit par Dario Amodei, PDG d’Anthropic, destiné à ses employés, fuit. Dans ce document, il accuse directement le PDG d’OpenAI, Sam Altman, de « mensonges flagrants » et qualifie la dernière transaction avec le Pentagone de « mise en scène de sécurité ».

Les deux entreprises d’IA les plus influentes au monde en viennent à se déchirer sur une question qui pourrait déterminer la trajectoire de l’IA pour la prochaine décennie.

Une ultime menace qui déclenche la guerre

Le déclencheur de ce conflit remonte à un contrat militaire de 200 millions de dollars qu’Anthropic détenait initialement. Grâce à une collaboration avec Palantir, l’IA Claude d’Anthropic a été déployée sur des réseaux militaires classifiés.

Cependant, à la fin février, la situation s’est brusquement détériorée : le Pentagone a lancé une ultime menace à Anthropic : supprimer toutes les restrictions d’utilisation de l’IA, permettant un accès illimité pour « tout usage légal », sinon le contrat serait résilié avant le 27 février et l’entreprise serait blacklistée.

Le PDG Amodei a rapidement rejeté cette demande, déclarant qu’il « ne pouvait pas, en conscience, accepter ces conditions » et a maintenu deux lignes rouges infranchissables :

  • Premièrement, interdiction des systèmes d’armes autonomes : l’IA ne doit pas prendre de décisions finales de ciblage sur le champ de bataille.
  • Deuxièmement, interdiction de la surveillance massive intérieure : interdiction de créer des outils de surveillance de masse sur les citoyens américains.

Lecture complémentaire : Trump veut bannir totalement Anthropic ! Refus de modifier Claude pour limiter les « meurtres »

La riposte a été rapide et violente. Quelques heures après le refus d’Anthropic, le gouvernement de Trump a inscrit l’entreprise sur la liste des « risques pour la chaîne d’approvisionnement » (une étiquette généralement utilisée pour des entités étrangères hostiles), la privant pratiquement de tout contrat fédéral, et l’a qualifiée de « radicale, éveillée » et de menace pour la sécurité nationale.

La ligne « pragmatique » d’OpenAI

Le 28 février, seulement quelques heures après l’interdiction d’Anthropic, Altman annonce que OpenAI a conclu un accord avec le Département de la Guerre. Dans un communiqué officiel, OpenAI affirme que le contrat inclut les mêmes « lignes rouges » que celles d’Anthropic : restrictions sur les systèmes d’armes autonomes, la surveillance intérieure de masse et les décisions automatisées critiques.

Mais le diable se cache dans les détails. Le contrat d’OpenAI autorise « tout usage légal », contrairement à la position ferme d’Anthropic qui interdit explicitement certains usages. OpenAI explique : « Lors de nos échanges, le Département de la Guerre a clairement indiqué que la surveillance de masse intérieure était illégale et qu’il n’avait pas de tels plans. »

Les critiques soulignent immédiatement le problème : la loi peut évoluer. Ce qui est considéré comme illégal aujourd’hui pourrait devenir permis demain. Ainsi, la protection contractuelle basée sur la notion d’« usage légal » est intrinsèquement fragile.

La scène de bataille révélée par le mémo

Dans le mémo fuit, Amodei évalue cette bataille d’opinion avec une franchise directe :

Je pense que cette tentative de manipuler l’opinion publique ne fonctionne pas face à l’opinion et aux médias. La majorité considère que la transaction d’OpenAI avec le Département de la Guerre est suspecte, et que nous sommes les héros.

Il critique aussi plus frontalement la motivation d’Altman :

La principale raison pour laquelle ils acceptent et nous refusons, c’est qu’ils veulent apaiser leurs employés, alors que nous, ce qui nous importe vraiment, c’est prévenir les abus.

Selon « TechCrunch », Amodei accuse également Altman de « se faire passer pour un pacificateur et un négociateur habile ». Face à cette avalanche de critiques, Altman a reconnu lors d’une réunion générale d’OpenAI que cette décision aurait des conséquences très difficiles sur leur image, mais il a défendu que c’était une décision complexe mais juste pour la sécurité nationale.

La réaction immédiate des utilisateurs et du marché

Alors que l’affaire fait rage, les utilisateurs réagissent concrètement. Récemment, le volume de déploiement de ChatGPT par OpenAI a explosé ; parallèlement, le nombre de téléchargements de Claude d’Anthropic a fortement augmenté.

Anthropic a choisi de refuser et d’en assumer les conséquences, au prix de perdre ses contrats fédéraux et ses relations avec le gouvernement ; OpenAI a choisi de coopérer mais avec des limites, au prix de la confiance des utilisateurs et de la réputation de la marque. Les deux options ont leur logique, mais aussi leurs coûts.

Ce qui est vraiment inquiétant, c’est que cette controverse met en lumière une problématique plus profonde : à l’ère de la militarisation rapide de l’IA, la distance entre « légal » et « moral » s’élargit de plus en plus.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire