Anthropic poursuit le gouvernement Trump : Claude AI est classé comme « risque de chaîne d'approvisionnement », la controverse sur la politique américaine en matière d'intelligence artificielle s'intensifie

GateNews

Le 10 mars, la société d’intelligence artificielle Anthropic a porté plainte devant la cour fédérale de Californie contre le gouvernement Trump, l’accusant d’avoir été victime de « représailles illégales » après que l’entreprise a refusé d’ouvrir un accès illimité à sa technologie pour l’armée. La plainte concerne la décision du gouvernement de la classer comme « risque dans la chaîne d’approvisionnement », une étiquette généralement utilisée pour les entreprises impliquées avec des forces étrangères hostiles, et qui est ici appliquée pour la première fois à une société technologique américaine locale.

Selon le dossier, le 3 mars, le Département de la Défense des États-Unis a officiellement inscrit Anthropic sur la liste des risques de la chaîne d’approvisionnement. Cette décision a été approuvée par le secrétaire à la Défense Pete Hegseth, ce qui interdit à toutes les entreprises ou individus ayant des relations commerciales avec l’armée américaine de collaborer simultanément avec Anthropic. Anthropic affirme dans sa plainte que cette mesure n’a aucune base légale et viole la protection constitutionnelle de la liberté d’expression des entreprises aux États-Unis.

Le cœur du litige concerne les restrictions d’utilisation du système d’intelligence artificielle Claude, développé par Anthropic. La société indique que ses contrats avec le gouvernement stipulent clairement que cette technologie ne doit pas être utilisée pour des systèmes d’armes autonomes létaux ou pour la surveillance de masse ciblant les citoyens américains. Anthropic affirme que le Pentagone a demandé à la société de supprimer ces clauses restrictives, mais que celle-ci a refusé pour des raisons de sécurité et d’éthique.

Dans sa plainte, Anthropic souligne que Claude n’a jamais été testé pour des usages militaires offensifs, et que la société ne peut garantir que le système peut fonctionner en toute sécurité et fiabilité dans de tels scénarios. La plainte indique qu’après que le gouvernement a accepté ces restrictions, le président Trump a ensuite demandé aux agences fédérales d’arrêter d’utiliser la technologie Claude, ce qui constitue une action manifestement punitive.

Au-delà du Département de la Défense, la plainte vise également 17 autres agences et responsables gouvernementaux, notamment le Département du Trésor et son secrétaire Scott Bessent, le Département d’État et le secrétaire d’État Marco Rubio.

Par ailleurs, plus de 30 chercheurs en intelligence artificielle de OpenAI et Google ont soumis un avis juridique au tribunal en soutien à la plainte d’Anthropic, parmi lesquels Jeff Dean, le scientifique en chef de Google. Ces experts estiment que si le gouvernement punit les entreprises d’IA leaders pour des questions de restrictions technologiques, cela pourrait avoir des effets durables sur la capacité de la recherche et l’avantage industriel des États-Unis dans la compétition mondiale en IA.

Cette affaire est considérée comme un conflit juridique majeur entre la gouvernance éthique de l’intelligence artificielle et les exigences de sécurité nationale, et pourrait avoir des répercussions profondes sur les règles d’utilisation de l’IA dans le domaine militaire à l’avenir.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire