L'armée américaine a utilisé Anthropic lors d'une attaque contre l'Iran malgré l'interdiction de Trump

TapChiBitcoin

L’armée américaine aurait utilisé le modèle Claude d’Anthropic lors d’une grande opération de bombardement contre l’Iran, quelques heures seulement après que le président Donald Trump ait demandé aux agences fédérales de cesser de collaborer avec cette entreprise. Selon le Wall Street Journal, le Commandement central des États-Unis aurait utilisé l’IA pour analyser le renseignement, identifier des cibles et simuler le champ de bataille.

Auparavant, Anthropic avait signé un contrat d’une valeur pouvant atteindre 200 millions de dollars avec le Pentagone, en collaboration avec Palantir et Amazon Web Services. Cependant, la tension a augmenté lorsque le PDG Dario Amodei a refusé de permettre à l’armée d’utiliser l’IA sans restriction pour des raisons éthiques. Par la suite, le Pentagone a conclu un accord pour déployer l’IA avec OpenAI.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire