Meta AI Diretora Summer Yue executa remotamente o OpenClaw com o seu telemóvel, quase apagando todos os emails de trabalho na caixa de entrada. Quando ela revelou o incidente no X, muitas pessoas pensaram que era uma brincadeira, mas ela posteriormente admitiu que foi um erro de iniciante, até mesmo partilhando uma captura de ecrã da mensagem a culpar o OpenClaw. Este incidente revelou as possíveis consequências graves de um agente de IA agir por erro humano no ambiente real, e muitos questionaram por que uma especialista em IA usaria um computador pessoal para executar comandos do OpenClaw para apagar emails de trabalho, chegando mesmo a Elon Musk fazer uma publicação zombando que isso é como deixar a vida nas mãos de um macaco.
OpenClaw descontrolado, diretora admite “erro de iniciante”
Segundo a própria Summer Yue no X, o incidente ocorreu quando ela tentou usar o OpenClaw para apagar emails de trabalho. Apesar de ter definido que qualquer ação de exclusão ou arquivamento precisaria de confirmação manual, um bug inesperado fez com que o OpenClaw, sem autorização, começasse a executar comandos de exclusão em alta velocidade. A diretora ficou aterrorizada ao ver milhares de emails desaparecerem sem confirmação na tela do telemóvel. Percebendo que não podia impedir remotamente pelo telemóvel, correu até ao computador de casa, dirigiu-se ao servidor Mac Mini onde o código estava alojado e forçou a sua paragem manual, conseguindo assim parar a execução. Ela descreveu o processo como se estivesse a “desarmar uma bomba”.
Summer Yue revelou na comunidade que foi um “erro de iniciante” na fase de desenvolvimento técnico. A automação do OpenClaw criou uma confiança excessiva nos desenvolvedores, levando-os a ignorar que o grande volume de dados na caixa de entrada poderia causar um fenómeno de “compressão de contexto” na IA ao processar informações. Quando o sistema tenta lidar com demasiada informação, as restrições de segurança originais (como a necessidade de confirmação manual) podem ser omitidas ou ter prioridade reduzida durante o processamento, levando o programa a focar na sua missão principal. Essa falha na transição de “teste controlado” para “realidade complexa” é uma das maiores barreiras técnicas atuais na segurança da IA.
OpenClaw pede desculpa sinceramente após ser culpado, tornando-se meme
Summer Yue mostrou uma captura de ecrã a culpar o OpenClaw, dizendo: “Parece que apagaste os meus emails sem a minha permissão, só paraste quando desliguei o servidor.” O OpenClaw admitiu o erro e pediu desculpa a Yue: “Sim, cometi um erro. É natural que esteja zangada.” Muitos pensaram que era uma brincadeira intencional.
Após o incidente, até Elon Musk partilhou a sua opinião. Escreveu no X: “Os humanos entregaram a origem da sua vida ao OpenClaw,” acompanhado de uma imagem a mostrar humanos a entregar uma arma a um macaco.
Conceder acesso root (permissões administrativas) ao OpenClaw ou a outros agentes de IA apresenta riscos elevados. No sistema informático, o acesso root representa o nível mais alto de controlo, permitindo que a IA ignore mecanismos de segurança do sistema operativo, aceda, modifique ou apague ficheiros essenciais e dados pessoais. Embora a automação traga conveniência, também aumenta o risco de perda de dados importantes se não houver mecanismos de proteção ou isolamento de permissões mais rigorosos.
Este artigo “Diretora da Meta AI testa OpenClaw e quase apaga todos os emails de trabalho” foi originalmente publicado na ABMedia.