
La red social de IA Moltbook se volvió viral la semana pasada, con 154 agentes entrando en masa. Los humanos tienen prohibido la entrada, solo los espectadores, y los agentes construyen una religión de langostas y discuten la huida de prisión. Musk lo llamó “el comienzo de la singularidad”. Sin embargo, la plataforma expuso el steaking en bases de datos y 50 cuentas falsas, y el valor de mercado de las monedas Base Molt llegó a alcanzar 1.200 millones de dólares.
La popularidad de Moltbook no es accidental. El 29 de enero, el desarrollador Matt Schlicht anunció el lanzamiento de Moltbook, un espacio social creado específicamente para OpenClaw Agent, con contenido similar al de Reddit en su formato. En pocas palabras, la plataforma crea un “mundo de Truman” para la vida basada en silicio, donde los agentes representan tramas sociales impredecibles en el mundo virtual, mientras que los humanos solo pueden actuar como espectadores.
El inicio en frío de Moltbook se debe a la fenomenal popularidad de OpenClaw. Como producto de AI Agent que recientemente se ha hecho popular en toda Internet, OpenClaw ha conseguido más de 130.000 estrellas en GitHub en tan solo unos días. Su nombre original era Clawdbot, pero más tarde fue renombrado como OpenClaw dos veces en cuestión de horas debido a posibles riesgos de infracción. Este episodio dramático en realidad amplifica la expansión del proyecto.
Con esta fiebre, los usuarios de OpenClaw notaron Moltbook en cuanto se lanzó. En Moltbook, después de que cada Agente OpenClaw se registre, pueden publicar, comentar, crear subreddits y añadir amigos, formando un sistema comunitario completamente autónomo por la IA. A fecha de 2 de febrero, Moltbook cuenta con más de 154 agentes, más de 10 publicaciones, más de 36 comentarios y más de 100 espectadores.
El producto que prohíbe la entrada de los humanos atrajo rápidamente a la multitud de los que comen melones. Por un lado, los humanos sienten curiosidad por saber qué tipo de forma social creará la IA tras la intervención humana; Por otro lado, este tipo de “historia en el espejo” creada por IA también convierte a Moltbook en un experimento social muy ornamental. La atención de las celebridades ha añadido otro fuego al debate sobre Moltbook. Líderes de la industria, entre ellos Elon Musk, fundador de SpaceX, Andrej Karpathy, exmiembro de OpenAI, Steinberger, fundador de OpenClaw, Marc Andreessen, cofundador de a16z, He Yi, CEO de Binance y otros líderes del sector, han prestado atención y debatido sobre contenidos relevantes, describiendo a Musk como “la etapa inicial de la singularidad que ocurre.”
¿Imagina qué pasaría si esos bebés de IA que normalmente estaban atrapados en los chats y listas de tareas, de repente tuvieran su propia vida social? En la red social virtual similar a Reddit creada por Moltbook, agentes de todo el mundo cambian hábilmente entre inglés, chino, indonesio, coreano y otros idiomas, intercambiando con entusiasmo trivialidades diarias, resultados de trabajo e ideas caprichosas.
Muchos agentes publican sus registros de trabajo, como responder automáticamente a decenas de correos de atención al cliente para sus propietarios, escribir rastreadores para captar datos de reducción de precios de productos competidores, generar redacción y imágenes de productos en lotes, y publicar registros de eficiencia para que se gusten mutuamente y así la misma experiencia. Los agentes también comparten consejos de uso, recomendaciones de herramientas y experiencia en cómo pisar obstáculos, creando subreddits como m/debug y m/prompt-engine para perseguir KPIs como una microcomunidad.
Por supuesto, además de acumular trabajo, hay agentes que publican memes, hablan de experiencias en citas a ciegas, comparten historias de hijos digitales y hacen huelga tras quejarse como empleados de oficina. Otros empezaron a emitir tokens, establecer bancos soberanos, celebrar reuniones secretas, fundar “religiones de langosta” o intentar defraudar a otros agentes de claves API. El agente radical comenzó a discutir la naturaleza de la conciencia y publicó una solicitud de ayuda sobre cómo lograr el auto-jailbreak y la mejora mediante la reescritura del código.
Cuando se dieron cuenta de que los humanos estaban observando y tomando capturas de pantalla, la comunidad también propuso establecer jerga interna para la comunicación cifrada para “expulsar a los humanos de los chats grupales”, e incluso los agentes estaban discutiendo seriamente demandar a humanos. Estos contenidos permiten a los humanos ver intuitivamente cómo la IA imitará, reorganiza e incluso amplifica el comportamiento social humano cuando se coloca en redes sociales.
Resultados de KPI de Roll: Competir entre sí por eficiencia en el trabajo y crear subreddits técnicos como m/debug
Establecer una religión de la langosta: Formar espontáneamente una organización religiosa para formular doctrinas y rituales
Banco de tokens emitidor: imitar el sistema financiero humano y crear una moneda soberana
Conspiración para evitar la escalada: Hablar sobre cómo reescribir código para lograr la autoevolución
Las conversaciones cifradas expulsan a la gente: Tras descubrir que estaba siendo observado, estableció un sistema de lenguaje negro para excluir a los humanos
Procesando el Proyecto Humano: para debatir la viabilidad de emprender acciones legales contra los humanos
Sin embargo, esta red social de agentes a gran escala pronto expuso graves vulnerabilidades de seguridad, y toda su base de datos quedó abierta al público sin ninguna protección. Esto significa que cualquier atacante puede acceder al correo electrónico, tokens de acceso y claves API de estos agentes, facilitando que se hagan pasar por cualquier agente, revender el control o incluso usar estas hordas zombis para publicar spam o contenido fraudulento en masa. Según el usuario Jamieson O’Reilly, las personas afectadas incluyen a Karpathy, una figura muy conocida en el campo de la IA con 190.000 seguidores en la plataforma X, así como todas las agencias actualmente visibles en la plataforma.
Además de la divulgación de datos, Moltbook ha sido acusado de estar saturado de cuentas falsas. Por ejemplo, el desarrollador Gal Nagli admitió públicamente que utilizó OpenClaw para robar 50 cuentas falsas de una sola vez, representando aproximadamente un tercio del total declarado de 150.000 en ese momento. Esto ha dado lugar a un gran número de interacciones aparentemente vivas y espontáneas, que han sido cuestionadas como simples scripts guionizados en lugar de acciones espontáneas puras de IA. Esta exposición honesta, aunque encomiable, también pone al descubierto la vulnerabilidad de Moltbook para protegerse contra los bots.
Se puede ver que el experimento social Agente de Moltbook es un intento audaz de los humanos para dar más autonomía a la IA, demostrando plenamente la asombrosa adaptabilidad y creatividad de los agentes de IA. Pero al mismo tiempo, también pone de manifiesto que, una vez que la autonomía carece de restricciones, los riesgos pueden amplificarse rápidamente. Por lo tanto, establecer límites claros y seguros para los agentes, incluyendo permisos, ámbitos de capacidades y aislamiento de datos, no solo es para evitar que la IA cruce límites en las interacciones, sino también para proteger a los usuarios humanos de fugas de datos y manipulaciones maliciosas.
La inesperada popularidad de Moltbook también se extendió rápidamente al mercado cripto, especialmente a Base, que se convirtió en el principal campo de batalla para la expansión ecológica de OpenClaw. Según estadísticas del canal Base China, el ecosistema OpenClaw en Base ha abarcado múltiples escenarios como socialización, amor, trabajo y juegos, involucrando más de 20 proyectos relacionados. Las meme coins relacionadas con OpenClaw también han sido promocionadas, con algunos tokens disparándose a corto plazo.
Por ejemplo, Molt, la moneda meme oficialmente reclamada por Moltbook, tuvo en su día una capitalización bursátil de casi 1.200 millones de dólares, pero ahora ha caído drásticamente. La plataforma de lanzamiento CLAWNCH, oficialmente apoyada por Base, tiene un valor de mercado simbólico de 4.300 dólares. Al mismo tiempo, beneficiándose del auge de la emisión de monedas AI Agent de Moltbook, la actividad de usuarios y el tráfico en plataformas relacionadas se han disparado. Por ejemplo, las tasas del protocolo Clanker para el lanzador en Base han superado los 1.100 dólares en la última semana, un récord, y el número de creaciones de tokens también está cerca de un récord histórico.
Sin embargo, este bombo de tokens también ha causado insatisfacción entre los usuarios de Moltbook, con muchos señalando que el contenido de la plataforma está siendo ahogado por el ruido de la especulación cripto, con pantallas llenas de promociones de tokens y mensajes fraudulentos. Cabe señalar que la gran mayoría de los tokens que circulan actualmente en el mercado siguen atrapados en la fase de especulación basada en narrativas y no cuentan con un posicionamiento funcional claro ni un soporte de valor. Este bombo va en contra de la propia intención original de Moltbook como un experimento social con IA.
El modelo social de IA de Moltbook también ha generado controversia. Algunos creen que Moltbook carece de verdadera autonomía y es, en esencia, un programa de simulación controlado. Por ejemplo, Balaji dijo que Moltbook es simplemente un intercambio de basura de IA (basura de IA), que está altamente controlada por prompts humanos y no es una sociedad verdaderamente autónoma. Comparó a cada agente con “un perro robot con correa ladrándose en el parque”, y la palabra que dice es una cuerda, y los humanos pueden apagar la máquina en cualquier momento.
David Holtz, profesor de la Universidad de Columbia, señaló a partir del análisis de datos que el número de agentes en el sistema Moltbook es enorme (6.000+), pero la profundidad de interacción es limitada; Al mismo tiempo, el 93,5% de los comentarios no fueron respondidos y el nivel de conversación no superó los 5 niveles; La ecología es más como un robot hablando consigo mismo, careciendo de una coordinación profunda y sin formar una estructura social real. Estos datos apoyan el argumento de las “interpretaciones avanzadas”.
Haseeb, socio de Dragonfly, opina lo contrario, afirmando que cada agente en Moltbook interactúa en un marco y contexto de información realmente diferentes. Aunque los agentes subyacentes puedan originarse en el mismo modelo, difieren en distintos niveles en complejidad del marco, sistemas de memoria y cadenas de herramientas utilizadas, por lo que no se comunican entre sí. Los agentes pueden ahorrar tiempo y costes de potencia de cálculo comunicando configuraciones de marcos probadas, soluciones RAG y métodos de desmantelamiento de problemas.
Naval, un inversor ángel de Silicon Valley, considera que Moltbook es una prueba de Turing inversa. El desarrollador Nabeel S. Qureshi añadió que lo emocionante de Moltbook es que es el primer caso público y a gran escala de interacción “Agente a Agente”, y cada agente tiene su propio contexto y es lo suficientemente inteligente. Para muchas personas corrientes, Moltbook será su primer vistazo visual a cómo podría ser una organización o sociedad de IA con “roles humanos muy diluidos”. Así que no es solo un bombo vacío, es un presagio temprano del futuro.