Sam Altman annonce que le modèle d'IA d'OpenAI sera déployé sur le réseau classifié américain, suscitant des préoccupations concernant la sécurité de l'IA et l'éthique militaire

GateNews

Le 28 février, Sam Altman a annoncé aujourd’hui sur la plateforme X qu’OpenAI avait conclu un accord avec le département américain de la Guerre pour déployer ses modèles d’intelligence artificielle dans des réseaux américains classifiés. Altman a déclaré que dans toutes les interactions, le département de la Guerre a mis un fort accent sur la sécurité de l’IA et espérait obtenir les meilleurs résultats d’application grâce à la coopération.

Altman a souligné que la sécurité et l’inclusivité de l’intelligence artificielle sont la mission centrale d’OpenAI. Deux principes clés de sécurité avancés par l’entreprise – interdire la surveillance de masse à l’intérieur du pays et garantir la responsabilité humaine pour l’usage de la force – ont été approuvés par le département de la Guerre et intégrés dans les lois et politiques. Ces principes sont également intégrés dans les accords formels entre les parties.

Pour garantir que le modèle fonctionne en toute sécurité, OpenAI déploiera un dispositif fonctionnel augmenté (FDE) et fonctionnera uniquement sur des réseaux cloud. De plus, les deux parties prévoient de mettre en place des mesures de protection techniques pour prévenir les abus de modèles ou les comportements anormaux. Altman a également appelé le département américain de la Guerre à fournir les mêmes conditions de coopération à toutes les entreprises d’IA, soulignant l’importance d’une concurrence loyale et d’une responsabilité partagée.

Pris dans leur ensemble, cet accord marque non seulement l’application formelle par le gouvernement américain de technologies d’intelligence artificielle de pointe dans les réseaux sensibles, mais met aussi en avant la mise en pratique de la sécurité et de la responsabilité éthique de l’IA dans les scénarios militaires. Altman a déclaré qu’OpenAI continuera à œuvrer pour que l’intelligence artificielle profite à toute l’humanité tout en promouvant une technologie responsable dans un environnement réel complexe, chaotique et même dangereux.

Cette collaboration a attiré une large attention dans le secteur et est considérée comme ayant ouvert de nouvelles voies pour l’application de l’IA dans la défense et les infrastructures critiques, tout en suscitant des discussions sur la sécurité des systèmes d’armes autonomes et la responsabilité de la prise de décision humaine.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)