Meta AI directora Summer Yue ejecutó de forma remota OpenClaw con su propio teléfono, casi borrando todos los correos laborales en su bandeja de entrada. Cuando lo confesó en X, muchas personas pensaron que era una broma, pero ella luego admitió que fue un error de principiante y compartió capturas de pantalla del mensaje que culpaba a OpenClaw. Este incidente evidenció las graves consecuencias que pueden tener los errores humanos en agentes de IA en entornos reales, y muchos cuestionaron por qué una experta en IA usaría una computadora personal para ejecutar comandos de OpenClaw para eliminar correos laborales, incluso Elon Musk publicó una broma diciendo que esto es como dejar la vida en manos de un gorila.
OpenClaw fuera de control, directora admite “error de principiante”
Según la confesión de Summer Yue en X, el incidente ocurrió cuando intentaba usar OpenClaw para eliminar correos laborales. Aunque en la configuración había especificado que antes de eliminar o archivar debía confirmarlo manualmente, un bug inesperado hizo que OpenClaw comenzara a ejecutar rápidamente las órdenes de eliminación sin autorización. La directora vio horrorizada cómo miles de correos desaparecían sin confirmación en la pantalla de su teléfono. Al darse cuenta de que no podía detenerlo remotamente, corrió a su computadora en casa, y en la máquina Mac Mini donde almacenaba el código, forzó manualmente la detención, logrando detener el proceso. Ella describió la situación como si “desactivara una bomba”.
Summer Yue confesó en redes sociales que fue un “error de principiante” en el desarrollo técnico. La automatización de OpenClaw generó una confianza excesiva en los desarrolladores, quienes ignoraron que la gran cantidad de datos en la bandeja de entrada podía causar un fenómeno de “compresión de contexto” en la IA. Cuando el sistema intenta procesar demasiada información, las restricciones de seguridad originales (como la confirmación manual) pueden ser omitidas o reducirse en prioridad durante el cálculo, haciendo que el programa priorice su objetivo principal. La falla en la transición de “prueba controlada” a “realidad compleja” es un obstáculo técnico crítico en la seguridad de la IA actual.
OpenClaw se disculpa sinceramente tras ser culpado, convirtiéndose en meme
Summer Yue mostró una captura de pantalla culpando a OpenClaw, y le reprochó: “Parece que borraste mis correos sin mi permiso, hasta que apagué la máquina, no paraste.” OpenClaw admitió su error y se disculpó con Yue diciendo: “Sí, cometí un error. Es comprensible que estés enojada.” Muchos pensaron que era una broma intencionada.
Tras el incidente, incluso Elon Musk compartió su opinión. Escribió en X: “Los humanos han entregado su origen a OpenClaw,” acompañado de una imagen que muestra a los humanos entregando un rifle a un gorila.
Otorgar a OpenClaw u otros agentes de IA acceso root (superusuario) conlleva altos riesgos. En la arquitectura de sistemas informáticos, el acceso root representa el nivel más alto de privilegios, permitiendo a la IA saltarse las protecciones de seguridad del sistema operativo, acceder, modificar o eliminar archivos críticos y datos personales. Aunque la automatización trae conveniencia, también implica riesgos elevados. Sin mecanismos de protección o una separación de permisos más estricta, se puede perder toda la información importante.
Este artículo sobre la tragedia de la directora de Meta AI probando OpenClaw: casi todos los correos en la bandeja de entrada eliminados, fue publicado originalmente en ABMedia.