Autor: Ariel, Ciudad Cripto
El agente de IA con LOGO de langosta (AI Agent) OpenClaw ha sido un éxito mundial, y el gobierno chino ha emitido el “Manual de Seguridad para Cría de Langostas” para advertir sobre los riesgos relacionados. El legislador Lai Shibao observó que ya hay corredores de bolsa y analistas del mercado de valores en el país que están adoptando gradualmente OpenClaw. ¿Quién será responsable si el agente de IA realiza una orden incorrecta? Además, hizo un llamado a la Comisión de Regulación Financiera para que presente un manual de seguridad específico para la cría de langostas en el sector financiero.
La Comisión de Regulación Financiera, Peng Jinlong, respondió al legislador que él mismo no ha utilizado OpenClaw, pero que ha observado que este fenómeno es bastante común. Las unidades relevantes dentro de la comisión ya están investigando medidas futuras y monitoreando el uso por parte de las instituciones financieras.
Peng Jinlong señaló que la Comisión ya publicó anteriormente las “Directrices para el Uso de IA en el Sector Financiero”, y que las instituciones financieras ya cuentan con mecanismos de seguridad cibernética y control interno adecuados para nuevas tecnologías. Si estas herramientas afectan la seguridad operativa, se revisarán y elaborarán manuales de seguridad relacionados.
Seis puntos clave de las Directrices para el Uso de IA en el Sector Financiero de la Comisión de Regulación Financiera
Fuente de la imagen: Generación de IA de Gemini | Seis puntos clave de las Directrices para el Uso de IA en el Sector Financiero de la Comisión de Regulación Financiera (Diagrama de IA)
El Departamento de Datos y Emisión ya ha respondido a los problemas de ciberseguridad en la cría de langostas
Respecto a las preocupaciones de seguridad cibernética relacionadas con los agentes de IA, el director del Departamento de Datos y Emisión, Lin Yijing, indicó en una audiencia ese mismo día que, para resolver los problemas de seguridad y mejorar la autonomía tecnológica, Taiwán está promoviendo activamente la IA soberana, asegurando que los modelos de IA utilizados por el gobierno y las infraestructuras críticas operen dentro del país y bajo regulación legal, y mencionó que Nvidia lanzó recientemente la plataforma NemoClaw, cuyo enfoque principal es fortalecer la protección de seguridad de los agentes de IA.
Para construir una capacidad de procesamiento exclusiva en Taiwán, el Departamento de Datos y Emisión ha recibido solicitudes de inversión en centros de computación de Hon Hai, y está en discusión con el Ministerio de Finanzas y la Comisión de Regulación Financiera para abrir la inversión de fondos del sector asegurador, con el fin de evitar que todos los modelos de IA en Taiwán dependan completamente del extranjero.
¿Qué dice el Manual de Seguridad para Cría de Langostas en China?
OpenClaw fue desarrollado por el ingeniero austriaco Peter Steinberger, quien inicialmente causó sensación en el mundo tecnológico, y la instalación y uso de OpenClaw se denomina “criar langostas”. Recientemente, la fiebre por criar langostas se ha extendido al mercado chino, donde la gente común también ha comenzado a criar langostas, incluso surgiendo servicios de pago para que ingenieros las instalen en su lugar.
En respuesta, el Ministerio de Seguridad Nacional de China publicó también un manual de cría segura de langostas, advirtiendo sobre riesgos inherentes como la toma de control del host, el robo de datos y la manipulación de opiniones, y llamó a los usuarios a limitar estrictamente el alcance de las operaciones y a ejecutar el software en entornos aislados (como máquinas virtuales dedicadas o sandbox).
Donde hay langostas, también hay desinstalación de langostas
Aunque la fiebre por criar langostas sigue en auge, en la comunidad china ya se observa un cambio de instalar frenéticamente a desinstalar langostas pagando por ello. El periódico BBC, citando análisis de expertos, señala que la causa de esta tendencia a la baja radica en que la tecnología y los costos operativos de OpenClaw son extremadamente altos, y cada acción requiere fondos para activar modelos de IA.
Además, los riesgos de seguridad también son una gran preocupación. El Centro Nacional de Respuesta a Emergencias de Internet de China indicó que un uso inadecuado puede provocar el robo de información sensible como fotos y cuentas de pago, e incluso errores en la comprensión de instrucciones por parte de la IA que puedan llevar a eliminar datos por error. Para los usuarios comunes, la utilidad práctica del software actualmente es limitada, lo que ha impulsado esta ola de desinstalación.