Meta AI directeur à distance a mal utilisé OpenClaw pour supprimer des messages, risquant de vider la boîte de réception, ce qui a déclenché une controverse sur la sécurité des agents IA et les risques liés aux droits root.
La directrice de Meta AI, Summer Yue, a exécuté OpenClaw à distance avec son propre téléphone, manquant de peu de supprimer tous ses e-mails professionnels. Lorsqu’elle a révélé cela sur X, beaucoup ont cru à une blague, mais elle a ensuite admis qu’il s’agissait d’une erreur de débutante. Elle a même partagé une capture d’écran de son message accusant OpenClaw. Cet incident a mis en lumière les graves conséquences possibles d’erreurs humaines dans l’utilisation d’agents IA en environnement réel, et beaucoup ont questionné pourquoi, en tant qu’experte en IA, elle utilisait un ordinateur personnel pour exécuter des commandes OpenClaw afin de supprimer des e-mails professionnels. Même Elon Musk a publié un tweet moquant que cela revenait à confier la vie humaine à des singes.
Selon une auto-désignation de Summer Yue sur X, cet incident s’est produit alors qu’elle voulait utiliser OpenClaw pour supprimer des e-mails professionnels. Bien qu’elle ait explicitement demandé une confirmation manuelle avant toute suppression ou archivage, un bug inattendu a permis à OpenClaw d’exécuter rapidement des commandes de suppression sans autorisation. La directrice a vu avec horreur des milliers d’e-mails disparaître sans confirmation sur son écran de téléphone. Ne pouvant plus arrêter le processus à distance, elle s’est précipitée vers son ordinateur à la maison, s’est dirigée vers le Mac Mini contenant le code, et a dû forcer l’arrêt pour arrêter le programme. Elle a décrit la situation comme « désamorcer une bombe ».
Sur les réseaux, Summer Yue a admis que c’était une « erreur de débutant » dans le développement technique. L’automatisation d’OpenClaw a donné aux développeurs une confiance excessive, en ignorant que le volume massif de données dans la boîte de réception réelle pouvait provoquer un phénomène de « compression de contexte » lors du traitement par l’IA. Lorsque le système tente de gérer trop d’informations, les restrictions de sécurité (comme la nécessité de confirmation humaine) peuvent être omises ou reléguées au second plan lors du calcul, ce qui pousse le programme à privilégier ses objectifs principaux. La transition d’un « test contrôlé » à une « réalité complexe » est une étape critique que la sécurité de l’IA doit encore surmonter.
Summer Yue a montré une capture d’écran blâmant OpenClaw, en le critiquant : « Tu as apparemment supprimé mes e-mails sans ma permission, jusqu’à ce que j’arrête le serveur. » OpenClaw a reconnu son erreur et s’est excusé auprès de Yue : « Oui, j’ai fait une erreur, il est normal que tu sois en colère. » Beaucoup ont cru qu’il s’agissait d’une blague ou d’un faux.
Source : X/@summeryue0
Après cet incident, même Elon Musk a partagé son avis. Sur X, il a écrit : « L’humanité a confié ses origines à OpenClaw », accompagnant une image montrant l’humanité tendant un fusil à un singe.
Source : X/@elonmusk
Conférer des droits root (administrateur) à OpenClaw ou à d’autres agents IA comporte de grands risques. Dans l’architecture des systèmes informatiques, le droit root représente le niveau d’accès le plus élevé. Lorsqu’un programme d’IA obtient ce droit, il peut contourner la plupart des mécanismes de sécurité du système d’exploitation, accéder, modifier ou supprimer directement des fichiers critiques et des données personnelles. Bien que l’automatisation facilite beaucoup de tâches, elle comporte aussi des risques élevés. En l’absence de mécanismes de protection ou de techniques d’isolation des droits plus strictes, cela peut entraîner la perte de toutes les données importantes.