Anthropic et le Pentagone entrent en conflit direct ! Le PDG Amodei refuse la « surveillance massive nationale » et les « armes entièrement autonomes »

ChainNewsAbmedia

Dirigée par Dario Amodei, Anthropic a toujours été considérée comme l’une des entreprises d’IA les plus actives dans la collaboration avec le gouvernement américain. Aujourd’hui, elle se retrouve en confrontation publique avec le Pentagone en raison de deux restrictions d’utilisation clés.

Amodei insiste sur le fait que l’entreprise est prête à soutenir 98 % à 99 % des usages liés à la défense, mais maintient une ligne rouge sur deux sujets : la « surveillance massive intérieure » et les « armes entièrement autonomes ». Il précise que ce n’est pas un refus de la sécurité nationale, mais une défense des valeurs démocratiques américaines et de l’esprit de la Constitution.

Une collaboration étroite avec le secteur de la défense, mais des lignes rouges tracées

Dans une interview, Amodei souligne qu’Anthropic est en fait l’une des premières entreprises d’IA à avoir collaboré en profondeur avec le système de sécurité nationale américain. Il indique que l’entreprise a déployé ses modèles dans des environnements cloud confidentiels, créant des modèles sur mesure pour des usages de sécurité nationale, largement utilisés par les agences de renseignement et l’armée, notamment dans la cybersécurité et le soutien aux opérations.

En d’autres termes, Anthropic ne refuse pas l’usage militaire, mais y participe activement.

Cependant, l’entreprise a clairement posé deux limites d’utilisation non négociables :

La première concerne la « surveillance massive intérieure ». Amodei craint que l’IA permette au gouvernement d’analyser à une échelle sans précédent d’énormes quantités de données provenant d’entreprises privées, telles que les enregistrements de localisation, les tendances politiques et les comportements personnels. Bien que ces pratiques ne soient pas nécessairement illégales selon le cadre juridique actuel, le développement explosif de la technologie IA a considérablement dépassé l’intention initiale de la législation.

La seconde concerne les « armes entièrement autonomes », c’est-à-dire des systèmes d’armes capables de décider de tirer sans intervention humaine. Amodei souligne que les systèmes d’IA actuels présentent encore des problèmes d’imprévisibilité et de fiabilité. Confier la décision à une machine pourrait entraîner des erreurs de jugement, des tirs accidentels ou des victimes civiles.

Il insiste particulièrement sur le fait que cela ne concerne pas les « armes semi-autonomes » utilisées sur le champ de bataille, mais des systèmes entièrement sans supervision humaine.

Trois jours de dernier avertissement et controverse sur la « chaîne d’approvisionnement »

Selon Amodei, le Pentagone aurait exigé d’Anthropic, en seulement trois jours, qu’elle accepte ses conditions, sous peine d’être classée comme « risque pour la chaîne d’approvisionnement ». Ce type de désignation est habituellement réservé à des entreprises étrangères adverses, comme celles de Russie ou de Chine, et rarement appliqué à des entreprises américaines.

Ce qui est encore plus controversé, c’est que la communication s’est principalement faite via des publications sur les réseaux sociaux. Amodei indique que l’entreprise n’a pas reçu de documents juridiques officiels, mais a seulement vu des déclarations publiques du président et de responsables du Département de la Défense sur X (ancien Twitter).

Le président américain Donald Trump a même critiqué publiquement Anthropic, la qualifiant d’« égoïste » et affirmant que cette démarche mettait en danger l’armée américaine et la sécurité nationale.

En réponse, Amodei déclare que l’entreprise est prête, même en cas de sanctions, à aider le ministère de la Défense à transférer ses activités vers d’autres fournisseurs, afin d’éviter un retard de 6 à 12 mois dans la technologie militaire.

Quel est le vrai enjeu ?

Selon Amodei, l’essence du conflit ne réside pas dans la question de « qui est le plus patriotique », mais dans la maturité technologique et la responsabilité.

Il souligne que l’IA reste imprévisible. Même si ses performances globales sont bonnes, une erreur de 1 % lors d’une opération critique pourrait être catastrophique. Des erreurs comme des tirs sur des civils, des erreurs de reconnaissance ou des pertes amies sont possibles.

Un problème plus profond concerne le « mécanisme de responsabilité ». Si un jour, un réseau d’armes composé de millions de drones contrôlés par quelques personnes ou un seul commandant, commettait une erreur, qui en serait responsable ? L’IA ? Les ingénieurs ? Les officiers ? Ou les dirigeants politiques ?

Ces questions ne sont pas encore pleinement discutées au niveau du Congrès.

Le privé domine-t-il le gouvernement ?

La question la plus aiguë de l’interview est : pourquoi une entreprise privée aurait-elle le pouvoir de décider comment l’armée peut utiliser sa technologie ?

Amodei répond simplement — par le marché libre.

Il explique que le gouvernement peut tout à fait choisir d’autres fournisseurs. Si leurs valeurs ne concordent pas, ils devraient se séparer à l’amiable, plutôt que de punir via une étiquette de « risque pour la chaîne d’approvisionnement ». Il considère que cette pratique crée un effet de refroidissement pour les entreprises privées.

Il admet aussi qu’à long terme, il ne faut pas que les entreprises privées et l’armée se délimitent, mais que le Congrès établisse des règles claires. Il appelle le législateur à créer un cadre réglementaire pour l’IA dans la surveillance et les armes autonomes, afin que la législation suive le rythme de l’évolution technologique.

Une question d’idéologie ?

Certains critiquent Anthropic comme étant une « entreprise woke de gauche ». Amodei nie cette accusation, soulignant que l’entreprise a collaboré avec le gouvernement sur des sujets comme la politique énergétique et les plans d’action en IA. Il affirme que cette divergence n’a rien à voir avec la politique, mais concerne la valeur et la gestion des risques.

Il conclut : « Ne pas être d’accord avec le gouvernement, c’est la manière la plus américaine qui soit. »

Anthropic pourra-t-elle traverser cette tempête ?

Sur le plan commercial, Amodei paraît confiant. Il indique que l’impact réel de la désignation de risque pour la chaîne d’approvisionnement est limité, et ne concerne que les contrats militaires, sans interdire l’utilisation de la technologie Anthropic par d’autres entreprises.

Il pense que certains discours exagèrent délibérément pour créer de la peur, de l’incertitude et du doute (FUD), mais que l’activité principale de l’entreprise restera stable.

Ce conflit révèle en réalité une problématique plus vaste : lorsque la technologie IA évolue à une vitesse exponentielle, mais que la législation et la régulation avancent lentement, qui décide des limites ?

Anthropic prône « 99 % de coopération, 1 % de prudence », tandis que le Pentagone insiste sur « l’ouverture à tous les usages légaux ». Leur divergence reflète non seulement des différences politiques, mais aussi des visions opposées de l’avenir de la guerre.

Cette article sur le conflit frontal entre Anthropic et le Pentagone a été initialement publié sur Chain News ABMedia.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)