BlockBeats rapporte que le 5 mars, la société de sécurité Web3 GoPlus a publié un communiqué indiquant que l’outil de développement AI OpenClaw a récemment été victime d’un incident de sécurité de type « auto-attaque ». Lors de l’exécution de tâches automatisées, le système a construit une mauvaise commande Bash lors de l’appel à une commande Shell pour créer un problème sur GitHub, ce qui a accidentellement déclenché une injection de commande, exposant ainsi de nombreuses variables d’environnement sensibles.
Dans cet incident, la chaîne générée par l’IA contenait un set entouré de guillemets inversés, interprété par Bash comme une substitution de commande, qui a été exécutée automatiquement. Étant donné que Bash, lorsqu’il exécute set sans paramètres, affiche toutes les variables d’environnement actuelles, plus de 100 lignes d’informations sensibles (y compris des clés Telegram, des tokens d’authentification, etc.) ont été directement écrites dans le problème GitHub et rendues publiques.
GoPlus recommande que, dans les scénarios de développement ou de test automatisés avec l’IA, il faut privilégier l’utilisation d’appels API plutôt que de concaténer directement des commandes Shell, respecter le principe du moindre privilège en isolant les variables d’environnement, désactiver les modes d’exécution à haut risque, et introduire un mécanisme de revue humaine pour les opérations critiques.