Meta AI Geschäftsführer versehentlich das Löschen von E-Mails mit OpenClaw aus der Ferne, beinahe den Posteingang geleert und eine Debatte über KI-Vertreter-Sicherheit und Root-Rechte ausgelöst.
Meta AI-Geschäftsführer Summer Yue führte OpenClaw aus der Ferne mit ihrem eigenen Handy aus und beinahe wurden alle Arbeits-E-Mails im Posteingang gelöscht. Als sie auf X darüber berichtete, dachten viele, es sei ein Scherz, doch sie gab später zu, dass es ein Anfängerfehler war. Sie zeigte sogar einen Screenshot der OpenClaw-Meldung, die sie beschuldigte, was den Vorfall aufdeckte: Die möglichen schwerwiegenden Folgen menschlicher Fehler bei KI-Agenten in der realen Welt. Viele fragten sich, warum sie als KI-Expertin OpenClaw-Befehle auf einem Heimcomputer ausführte, um Arbeitsmails zu löschen, sogar Elon Musk spottete darüber, dass Menschen ihr Leben Affen anvertrauen.
Laut Summer Yue auf X ereignete sich der Vorfall, als sie OpenClaw zur Löschung von Arbeits-E-Mails verwenden wollte. Obwohl sie in den Einstellungen ausdrücklich festgelegt hatte, dass Lösch- oder Archivierungsaktionen nur nach manueller Bestätigung erfolgen sollten, trat ein unerwarteter Bug auf. OpenClaw begann ohne Genehmigung, die Löschbefehle mit hoher Geschwindigkeit auszuführen. Die Geschäftsführerin sah entsetzt auf den Bildschirm, während Tausende von E-Mails ohne Bestätigung verschwanden. Sie erkannte, dass sie die Löschung nicht mehr aus der Ferne stoppen konnte, rannte zum Heim-PC und eilte zum Server, auf dem der Code lief, um den Vorgang manuell zu beenden. Sie beschrieb den Ablauf später als „wie eine Bombe entschärfen“.
Summer Yue gab öffentlich zu, dass es sich um einen „Anfängerfehler“ in der technischen Entwicklung handelte. Die Automatisierung von OpenClaw führte zu übermäßigem Vertrauen bei den Entwicklern, die die große Datenmenge im Posteingang unterschätzten. Dies könne dazu führen, dass KI beim Verarbeiten der Informationen eine „Kontextkompression“ erfährt. Wenn das System zu viele Daten verarbeitet, könnten Sicherheitsvorgaben (wie manuelle Bestätigung) während der Berechnung übersehen oder priorisiert werden, sodass die KI ihre Kernziele priorisiert. Dieser Übergang vom „kontrollierten Test“ zur „komplexen Realität“ ist eine der größten technischen Herausforderungen im Bereich der KI-Sicherheit.
Summer Yue zeigte einen Screenshot, auf dem OpenClaw beschuldigt wurde, und sagte: „Du hast anscheinend meine E-Mails gelöscht, ohne meine Erlaubnis, erst als ich den Server gestoppt habe, hörtest du auf.“ OpenClaw gab den Fehler zu und entschuldigte sich bei Yue: „Ja, ich habe einen Fehler gemacht, es ist verständlich, dass du verärgert bist.“ Viele dachten, es sei ein absichtlicher Scherz.
Bildquelle: X/@summeryue0
Nach dem Vorfall teilte sogar Elon Musk seine Meinung. Er schrieb auf X: „Menschen haben ihr Leben den OpenClaw anvertraut“, und fügte ein Bild bei, das zeigt, wie Menschen eine Waffe an einen Affen übergeben.
Bildquelle: X/@elonmusk
Die Vergabe von Root-Zugriff (Administratorrechte) an OpenClaw oder anderen KI-Agenten birgt erhebliche Risiken. In der Computerarchitektur steht Root für die höchste Verwaltungsebene. Wenn eine KI diese Rechte erhält, kann sie Sicherheitsmechanismen des Betriebssystems umgehen und direkt auf Kern- und Personaldaten zugreifen, sie modifizieren oder löschen. Während Automatisierung im aktuellen technischen Umfeld Vorteile bringt, besteht auch ein hohes Risiko. Ohne Schutzmechanismen oder strengere Rechte-Isolierung könnten wichtige Daten verloren gehen.