Google : de grands modèles de langage sont utilisés pour des attaques réelles, l'IA peut contourner les mécanismes de sécurité de double authentification

大型語言模型攻擊

Selon CoinEdition, le 12 mai, le groupe de renseignement sur les menaces de Google a publié un rapport avertissant que des attaquants utilisaient des modèles de langage à grande échelle dans des attaques informatiques réelles affectant des systèmes à l’échelle mondiale, et a confirmé que des pirates avaient développé une vulnérabilité zero-day basée sur Python permettant de contourner les mécanismes de sécurité de double authentification (2FA) ; Google indique que l’abus d’outils d’IA dans des activités liées à des attaques cybernétiques de niveau étatique et dans des réseaux de pirates clandestins est en corrélation.

Applications concrètes d’outils d’IA dans les cyberattaques

D’après le rapport du groupe de renseignement sur les menaces de Google, des outils d’IA aident les attaquants à renforcer leurs capacités à presque chaque étape d’une cyberattaque, notamment : détecter plus rapidement des failles logicielles, automatiser certaines étapes des attaques, et améliorer des techniques comme le phishing (hameçonnage) ainsi que la création de logiciels malveillants.

Le rapport consigne un cas précis : des hackers ont utilisé une vulnérabilité zero-day basée sur Python pour contourner avec succès la double authentification (2FA) ; Google précise que l’attaque nécessite toujours des informations d’identification de connexion valides, montrant que la faille provient du design même du système, et non d’un défaut technique du logiciel.

Le rapport ajoute que les attaquants entraînent leurs méthodes d’attaque en utilisant des bases de données sur les vulnérabilités de sécurité contenant des milliers de failles connues et d’exemples d’exploitation afin d’identifier des schémas permettant de découvrir de nouvelles faiblesses ; les pirates exploitent aussi l’IA pour créer de faux codes, altérer des charges utiles et écrire des scripts dynamiques afin d’échapper à la détection, et, dans certains cas, un système d’IA peut envoyer des commandes en temps réel à des appareils infectés.

Organisations liées à la Chine et à la Corée du Nord : le rapport confirme une adoption précoce des méthodes d’attaque par IA

Selon le rapport du groupe de renseignement sur les menaces de Google, les organisations liées à la Chine et à la Corée du Nord sont en avance dans l’adoption des méthodes d’attaque assistées par l’IA susmentionnées ; parmi les techniques, on retrouve des messages-guides soigneusement conçus pour voler des informations de sécurité, ainsi que le fait de se faire passer pour des experts en cybersécurité afin d’effectuer, potentiellement, des analyses de vulnérabilités sur des micrologiciels et des équipements embarqués.

Google déploie des systèmes de défense par IA pour répondre aux menaces

Selon le rapport de CoinEdition, Google indique qu’il renforce ses mesures de défense basées sur l’IA : le système Big Sleep sert à identifier automatiquement les vulnérabilités ; le système CodeMender sert à corriger automatiquement les vulnérabilités ; Gemini intègre des mesures de sécurité visant à empêcher des activités suspectes sur les comptes utilisateurs.

Questions fréquentes

Pourquoi le cas d’IA contournant la double authentification (2FA) consigné dans le rapport du groupe de renseignement sur les menaces de Google ?

Selon le rapport de CoinEdition du 12 mai 2026, le rapport du groupe de renseignement sur les menaces de Google confirme que des hackers ont réussi à contourner la sécurité 2FA en exploitant une vulnérabilité zero-day basée sur Python ; Google explique que la vulnérabilité provient du design même du système, et que l’attaque nécessite des informations d’identification de connexion valides pour être exécutée.

Quelles organisations liées à des pays Google a-t-il nommées comme ayant d’abord recours à des méthodes d’attaque par IA ?

Selon le rapport du groupe de renseignement sur les menaces de Google, les organisations liées à la Chine et à la Corée du Nord sont les premières à adopter des outils d’IA pour mener des cyberattaques ; les méthodes incluent des messages-guides soigneusement conçus pour voler des informations de sécurité, ainsi que le fait de se faire passer pour des experts en cybersécurité afin d’analyser des vulnérabilités de micrologiciels.

Quels systèmes de défense par IA nommés Google a-t-il déployés pour faire face aux menaces concernées ?

Selon le rapport de CoinEdition, Google a déployé des systèmes de défense par IA tels que Big Sleep (identification automatique des vulnérabilités), CodeMender (correction automatique des vulnérabilités) et Gemini avec des mesures de sécurité intégrées (blocage des activités suspectes sur les comptes).

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire