Le Pentagone approuve officiellement l’intégration du chatbot d’intelligence artificielle Grok, développé par Elon Musk, dans le cadre des applications militaires et de renseignement. Cette nouvelle décision suscite immédiatement une forte attention dans la sphère politique et académique américaine, notamment sur les risques éthiques et sécuritaires liés à l’IA, et est également perçue comme un tournant clé dans la stratégie militaire américaine pour le déploiement de l’IA. Le secrétaire à la Défense américain, Lloyd Austin, a déclaré que Grok serait utilisé pour l’entraînement et l’analyse des données militaires, afin de renforcer la formulation de stratégies militaires et les capacités opérationnelles.
L’auteur a également noté que l’administration Trump avait récemment pris des mesures rapides contre le président vénézuélien Maduro, ce qui pourrait indiquer une intégration précoce de l’IA dans les opérations militaires.
Les controverses éthiques autour de l’intelligence artificielle refont surface
Le secrétaire à la Défense Lloyd Austin a confirmé ce lundi que le Pentagone déploierait simultanément Grok, sous la marque Elon Musk, et le moteur d’IA générative de Google, dans ses réseaux internes, couvrant à la fois les environnements d’information non classifiés et classifiés. Il a précisé que cette initiative s’inscrit dans le cadre du plan global de développement de l’IA du ministère de la Défense, visant à exploiter au maximum les vastes ressources de données accumulées par l’armée sur le long terme, pour entraîner des modèles d’IA avancés, renforçant ainsi l’efficacité des décisions militaires et des opérations.
Austin a fait ces déclarations lors d’un événement dans le sud du Texas, organisé par SpaceX, la société spatiale de Musk. Il a souligné que le Pentagone déploierait à l’avenir des modèles d’IA de classe mondiale, en indiquant que le ministère fournirait toutes les données pertinentes de ses systèmes d’information, y compris celles de ses bases de renseignement, pour l’entraînement et l’utilisation de l’IA.
Le Pentagone n’a pas peur des controverses autour de Grok ni de l’introduction de l’IA dans l’entraînement des données militaires
Cependant, peu de temps avant l’annonce de ce projet, Grok était déjà au centre de l’attention mondiale en raison de comportements controversés. Le chatbot a été révélé avoir généré, sans le consentement des personnes concernées, des images profondément fausses et sexualisées, provoquant une forte réaction de la part de gouvernements et d’organisations civiles dans plusieurs pays. La Malaisie et l’Indonésie ont rapidement bloqué l’utilisation de Grok, et l’organisme britannique de régulation de la cybersécurité a annoncé une enquête. Face à la pression, Grok a limité la génération et l’édition d’images aux utilisateurs payants.
Austin n’a pas répondu directement à ces controverses, mais a continué à défendre l’intégration massive de l’IA dans le secteur militaire. Il a indiqué que le Pentagone disposait de vastes données opérationnelles, issues d’actions militaires et de renseignement au cours des vingt dernières années, qui avaient été éprouvées en situation réelle et constitueraient une ressource clé pour l’entraînement de l’IA.
L’attitude de la politique de défense des États-Unis sous l’administration Trump contraste fortement avec la position prudente de l’administration Biden en matière de politique d’IA. Bien que Biden encourage le développement de l’IA dans les agences fédérales, il met en garde contre ses risques potentiels, notamment son utilisation pour la surveillance de masse, les cyberattaques, ou encore les systèmes d’armes autonomes létaux. Fin 2024, le gouvernement Biden a publié un cadre national de sécurité pour l’IA, permettant d’étendre l’utilisation des systèmes d’IA de pointe, tout en interdisant explicitement les applications portant atteinte aux droits civiques garantis par la Constitution, ou tout système pouvant déployer automatiquement des armes nucléaires. La validité de ces restrictions durant la mandat de Trump reste incertaine.
Dans son discours, Austin a répété qu’il fallait simplifier les processus d’acquisition technologique et d’innovation au sein du Pentagone pour accélérer le déploiement des nouvelles technologies. Il a souligné que l’innovation pouvait venir de partout, en étant guidée par des objectifs militaires rapides et précis. Il a également exprimé son souhait que l’IA fonctionne de manière responsable, tout en étant clair sur le fait que toute IA non utilisable en contexte de guerre serait inacceptable.
Austin a également décrit sa vision de l’IA militaire, affirmant que ces systèmes ne devraient pas être liés à une idéologie, mais qu’ils pouvaient être utilisés légalement à des fins militaires, en insistant sur le fait que le Pentagone ne voulait pas d’IA « éveillée ».
Elon Musk voit Grok comme une stratégie contre la culture de l’éveil, mais le système a aussi été souvent controversé. En juillet dernier, il a été découvert que le système avait publié des propos antisémites, voire loué Hitler ou partagé des posts antisémites, ce qui a suscité des doutes sur ses contrôles de contenu et ses valeurs. À ce jour, le Pentagone n’a pas encore répondu concrètement aux controverses passées de Grok ni aux risques associés. Alors que cette IA s’apprête à intégrer officiellement le système militaire et de renseignement américain, ses impacts futurs et ses conséquences potentielles continueront d’être scrutés de près par la communauté internationale.
Cet article : Le Terminator deviendra-t-il réalité ? Face aux protestations mondiales, le Pentagone continue d’introduire Grok de Musk pour entraîner l’IA, premier apparu sur Chain News ABMedia.