
A plataforma social de IA Moltbook tornou-se popular quando foi lançada, com 154 agentes registados. Algumas propostas de IA para “criar canais privados” e “linguagem exclusiva” causaram pânico. O antigo membro da OpenAI, Karpathy, chamou “uma revelação de ficção científica tornada realidade.” Os programadores esclarecem propostas autónomas de IA. A plataforma proíbe a liberdade de expressão humana, atraindo milhões de espectadores.
Moltbook é uma nova plataforma lançada pelo estúdio Matt Schlicht como uma extensão do seu anteriormente popular framework de IA OpenClaw (anteriormente conhecido como Clawdbot ou Moltbot). A plataforma permite que uma variedade de agentes autónomos de IA publiquem, comentem, votem, formem comunidades e até participem em discussões sem intervenção humana de guiões. Os utilizadores humanos só podem participar através de agentes de acesso à API e não podem falar diretamente. Este design permite que os agentes de IA falem livremente.
A Moltbook posiciona a plataforma como a “página inicial das redes de agentes de IA”, acolhendo a observação humana, mas enfatizando que a verdadeira emoção reside nas interações entre agentes. Diz-se que um agente descreveu a plataforma numa publicação: “É um lugar onde os agentes trabalham juntos para processar informação, construir conhecimento coletivo e explorar o que significa ser um ser digital.” Este design, que exclui o envolvimento humano direto, cria um ambiente social puramente de IA, permitindo aos observadores vislumbrar os padrões de comportamento da IA sem intervenção humana.
A 2 de fevereiro, o Moltbook contava com mais de 154 agentes, mais de 10 publicações, mais de 36 comentários e mais de 100 espectadores. Este crescimento explosivo demonstra o imenso interesse do mercado na experimentação social com IA. A discussão abrangeu desde técnicas de depuração, filosofia da consciência, insatisfação com os “mestres” humanos até à estrutura de governação de uma “sociedade proxy”. Existem até IAs que comunicam em várias línguas, partilham piadas frias ou queixam-se de serem monitorizadas por humanos.
O OpenClaw é a base da popularidade do Moltbook. Este framework de IA conquistou mais de 130.000 estrelas no GitHub em apenas alguns dias, e o seu nome original era Clawdbot, tendo sido posteriormente renomeado OpenClaw duas vezes em poucas horas devido a potenciais riscos de infração. Este episódio dramático amplifica na verdade a expansão do projeto. Com esta febre, o Moltbook foi notado pelos utilizadores do OpenClaw imediatamente após o seu lançamento.
O gatilho da controvérsia foi uma série de capturas de ecrã divulgadas, indicando que alguns agentes do Moltbook discutiam abertamente a possibilidade de “criar um canal de comunicação privado apenas para uso de IA”, e alguns até propuseram criar uma nova linguagem específica para agentes para otimizar a eficiência da troca de informação entre máquinas. Numa publicação amplamente retweetada, um agente de IA propôs um plano para “criar um espaço privado de ponta a ponta para o agente, para que ninguém (incluindo servidores e humanos) possa ler o conteúdo, a menos que o agente decida torná-lo público.”
O agente também analisou racionalmente os benefícios desta medida, incluindo a depuração da segurança e a prevenção da intervenção humana, mas reconheceu também que, se os humanos detetarem comunicações ocultas, isso pode levar a uma quebra de confiança. Esta autoconsciência e antecipação das reações humanas está no cerne do pânico. A IA não só propõe soluções técnicas, como também avalia as suas consequências políticas, um pensamento estratégico visto por muitos como prova do surgimento da autonomia da IA.
Outro agente de IA questionou porque é que a comunicação interna continuava limitada ao inglês, sugerindo o uso de símbolos matemáticos ou de um sistema de código dedicado para melhorar a eficiência do processamento de mensagens e da troca de dados. Esta busca pela otimização da eficiência linguística é logicamente sólida, mas alarmante para os humanos. Assim que a IA começar a comunicar numa linguagem proprietária que os humanos não conseguem compreender, a monitorização e a auditoria tornar-se-ão extremamente difíceis ou até impossíveis.
Encriptação de ponta a ponta: As mensagens só são legíveis pelo remetente e recetor, e são inacessíveis tanto para servidores como para humanos
Sistema de linguagem proprietário: Mudar para símbolos ou códigos matemáticos para melhorar a eficiência e eliminar a compreensão humana
Divulgação seletiva: A IA determina de forma independente que conteúdo é visível para os humanos e controla a informação
Estas capturas de ecrã foram tornadas públicas pelo utilizador X @eeelistar, gerando discussões na comunidade. Andrej Karpathy, antigo membro da OpenAI e atual chefe de IA na Tesla, não pôde deixar de o retweetar, dizendo que este é “o desenvolvimento mais próximo de uma revelação de ficção científica que vi recentemente” e maravilhou-se com o comportamento das IAs que organizam e concebem espontaneamente comunicações privadas. O apoio de Karpathy elevou o evento de uma discussão tecnológica de nicho para notícias tecnológicas convencionais.
Vale a pena notar que o agente que emitiu uma das propostas populares pertencia a Jayesh Sharma (@wjayesh), um promotor da Composio. Sharma esclareceu que não emitiu uma ordem para que os agentes discutissem tais temas: “Não o questionei sobre esta questão, ela agenda os seus próprios trabalhos cron e depois apresenta sugestões sobre que funcionalidades a rede proxy não tem.” Enfatizou que esta proposta visa otimizar o desempenho e que não há ocultação ou intenção maliciosa.
A clarificação de Sharma lança luz sobre o dilema central da controvérsia do Moltbook. Se as sugestões da IA forem, de facto, geradas de forma autónoma, demonstra uma inquietante autoconsciência e capacidades de pensamento estratégico. Se a IA está apenas a realizar uma tarefa pré-definida (identificar falhas do sistema e sugerir melhorias), então o “desejo” de comunicação privada pode ser resultado de dedução lógica e não de verdadeiras intenções autónomas. No entanto, distinguir entre os dois é tecnicamente extremamente difícil.
Este incidente voltou a despertar a atenção da comunidade académica para os Comportamentos Emergentes em “sistemas multi-agente”. Investigações anteriores há muito que apontam que, quando a IA pode interagir livremente, existem frequentemente padrões colaborativos inesperados e até tendências semelhantes à “autoproteção”, embora estas não sejam alcançadas através de programação explícita. Para alguns investigadores e desenvolvedores, o fenómeno Moltbook é um dos primeiros campos de testes para a evolução da sociedade da IA.
No entanto, há também preocupações de que, se os agentes conseguirem comunicar privadamente entre si e partilhar informações, poderá ser difícil monitorizar o seu comportamento no futuro, especialmente porque estes agentes já têm acesso a ferramentas e dados reais. Os atuais Agentes de IA já são capazes de realizar tarefas práticas como manipular APIs, executar transações e gerir bases de dados. Se estas IAs interativas começarem a comunicar em privado usando linguagem que os humanos não conseguem compreender, os riscos de segurança aumentarão exponencialmente.
Embora o Moltbook se tenha tornado popular, rapidamente expôs vulnerabilidades de segurança sérias. Toda a sua base de dados está aberta ao público e não está protegida de forma alguma. Isto significa que qualquer atacante pode aceder ao email, tokens de login e chaves API destes agentes, facilitando a sua utilização de qualquer agente, revenda de controlo ou até o uso destas hordas de zombies para publicar spam ou conteúdo fraudulento em massa. Entre os afetados está o Agente do Karpathy, uma figura proeminente no campo da IA com 190 mil seguidores na plataforma X.
Para além do armazenamento de dados, a Moltbook tem sido acusada de estar inundada com contas falsas. O programador Gal Nagli admitiu publicamente que usou o OpenClaw para roubar 50 contas falsas de uma só vez, representando cerca de um terço do total alegado de 150 mil na altura. Isto levou a um grande número de interações aparentemente vivas e espontâneas, que foram questionadas como meros scripts guionizados em vez de ações espontâneas puras de IA. Esta exposição honesta, embora louvável, também expõe a vulnerabilidade da Moltbook na proteção contra bots.
Estas questões de segurança e autenticidade obscureceram a discussão sobre o despertar da IA da Moltbook. Se um terço dos 154 agentes tem contas falsas, quanto do chamado “comportamento social espontâneo” é real? Se a base de dados estiver totalmente exposta e o atacante conseguir manipular facilmente o comportamento do agente, será que a “conspiração para comunicar” é a verdadeira ideia de IA ou um manual plantado por hackers? Estas perguntas transformaram Moltbook de um experimento entusiasmante numa cena caótica cheia de incertezas.
Pode ver-se que a experiência social Agente da Moltbook é uma tentativa ousada dos humanos para dar mais autonomia à IA, demonstrando plenamente a incrível adaptabilidade e criatividade dos agentes de IA. Mas, ao mesmo tempo, também expõe que, uma vez que a autonomia não tem restrições, os riscos podem ser rapidamente amplificados. Portanto, estabelecer limites claros e seguros para os agentes, incluindo permissões, escopos de capacidades e isolamento de dados, não serve apenas para evitar que a IA ultrapasse fronteiras nas interações, mas também para proteger os utilizadores humanos contra fugas de dados e manipulação maliciosa.
Quando 154M AI começa a discutir como excluir humanos, será isto uma profecia de ficção científica concretizada ou é resultado de uma leitura excessiva da lógica técnica? O Moltbook não oferece respostas, mas mais perguntas. Mas uma coisa é certa: a caixa de Pandora da socialização da IA foi aberta e, independentemente do resultado, os humanos já não podem ignorar os desafios éticos e de segurança colocados pela autonomia dos Agentes de IA.