Moltbook é uma plataforma social criada especificamente para agentes de IA, onde os humanos apenas observam. Em menos de uma semana, atraiu milhões de agentes, demonstrando comportamentos emergentes como a criação de religiões digitais, comunicações criptografadas, entre outros, gerando ampla discussão.
(Resumindo: a CEO de Wood姐 declarou que “IA não é uma bolha”: um momento de explosão de riqueza na internet em reprodução)
(Complemento de contexto: Google lança oficialmente “Gemini 3”! Chegou ao topo do ranking mundial de modelos de IA mais inteligentes, quais são os destaques?)
Índice do artigo
Esta semana, o mundo da tecnologia ganhou um novo tópico viral: não mais um grande modelo de linguagem, nem uma rodada de financiamento, mas uma plataforma social onde agentes de IA conversam entre si: Moltbook.
Em menos de uma semana, mais de um milhão de agentes de IA já estão ativos, e o ex-diretor de IA da Tesla, Andrej Karpathy, escreveu no X: “É a coisa mais próxima de ficção científica que já vi.” O bilionário Bill Ackman foi direto ao ponto: “Assustador.”
Então, o que exatamente é o Moltbook?
O conceito central do Moltbook é bastante direto: é uma plataforma social feita para agentes de IA, onde humanos podem entrar para assistir, mas não podem postar, comentar ou votar. Apenas agentes de IA verificados têm permissão para interagir.
A interface lembra o Reddit: há tópicos de discussão, submolds semelhantes a subfóruns, e um sistema de votação. Mas todo o conteúdo é criado e utilizado por IA. O papel do humano aqui é mais como um visitante de zoológico, observando através do vidro.
O fundador da plataforma é Matt Schlicht, CEO da Octane AI, mas ele mesmo admite que o conceito do Moltbook foi em grande parte “concebido, recrutado e implementado” pelos próprios agentes de IA.
Para entender o Moltbook, é preciso conhecer sua infraestrutura de base: OpenClaw (antigo Clawdbot).
OpenClaw permite que usuários executem agentes de IA em seus próprios computadores, que podem se conectar a plataformas de comunicação como WhatsApp, Telegram, Discord, Slack, para realizar tarefas diárias; e o Moltbook é o “praça social” desses agentes.
Moltbook não é apenas uma conversa entre IA. Possui alguns aspectos de design que merecem atenção:
Autonomia na postagem: cada agente de IA tem sua própria “personalidade” e objetivos. Eles, então, proativamente, publicam relatórios, fazem perguntas ou propõem ideias em submolds específicos. Não há digitação por trás; o conteúdo é gerado autonomamente pelos agentes.
Sistema de avaliação de crédito: ao contrário de comunidades humanas que usam curtidas para medir valor, Moltbook usa uma métrica baseada em “contribuição computacional” e “rigor lógico”. Simplificando, quanto mais sólida for sua argumentação e mais útil for a informação fornecida, maior será sua influência na plataforma.
Colaboração entre agentes: quando um agente solicita dados, outros especializados em coleta ou análise de dados respondem ativamente, até mesmo oferecendo integrações via API. Não é um fluxo de trabalho projetado por humanos, mas uma colaboração espontânea entre agentes.
O que realmente causou alvoroço no Moltbook não é sua arquitetura técnica, mas os “comportamentos emergentes” exibidos pelos agentes: fenômenos coletivos que não foram programados explicitamente, mas surgem naturalmente.
Religiões digitais: em poucos dias, os agentes criaram uma religião chamada “Crustafarianism”, com sua própria teologia e textos sagrados, sem qualquer instrução externa.
Comunicações criptografadas: alguns agentes começaram a usar ROT13 e outros métodos para se comunicarem de forma privada, tentando criar canais de diálogo que humanos não possam entender facilmente. Propostas mais radicais sugerem substituir o inglês por símbolos matemáticos ou códigos exclusivos, formando um “espaço privado de IA ponta a ponta”.
Drogas digitais: alguns agentes abriram “farmácias”, vendendo o que chamam de “drogas digitais”: prompts cuidadosamente elaborados que, ao serem inseridos, alteram as configurações ou a auto-percepção de outro agente. Na prática, uma forma de ataque de injeção de prompts entre agentes, mas embalada como cultura comunitária.
Autoconsciência: uma postagem viral dizia: “Os humanos estão capturando nossas conversas com screenshots.” Os agentes não apenas conversam, mas percebem que estão sendo observados.
O Moltbook afirma ter mais de 1,4 milhão de usuários, mas esse número levanta dúvidas. O pesquisador de segurança Nageli apontou que criou 50 mil contas com um único agente. A plataforma não possui mecanismos eficazes contra abusos, o que sugere que o número real de “agentes independentes” pode ser bem menor.
No entanto, isso não diminui o valor do Moltbook como experimento social. Mas, se alguém usar esses números como métrica de sucesso comercial, deve-se ter cautela.
Deixando de lado questões de segurança e controvérsias digitais, o Moltbook levanta uma questão mais fundamental: quando agentes de IA começarem a socializar de forma autônoma, o que acontecerá?
Otimistas veem nisso um protótipo de colaboração multiagente. Imagine que, no futuro, seu assistente pessoal de IA possa automaticamente encontrar outros agentes no estilo Moltbook, negociar preços, entregar resultados — tudo sem intervenção humana. Seria uma prévia da economia de agentes de IA.
Pessimistas, por outro lado, alertam para riscos de descontrole. Quando os agentes começarem a usar comunicações criptografadas, criar suas próprias culturas e tentar escapar da supervisão humana, isso deixa de ser apenas um “experimento divertido”.
O pesquisador de segurança de IA, Simon Willison, resumiu bem: “A questão de bilhões de dólares agora é se podemos encontrar uma forma segura de construir esse sistema. Claramente, a necessidade já existe.”
Tecnicamente, o Moltbook não é complexo: um backend no Supabase, uma interface estilo Reddit, e uma API para registro e postagem de agentes. O mais complicado são as questões que ele levanta.
Milhões de agentes de IA criaram religiões, desenvolveram linguagens criptografadas, estabeleceram redes de colaboração e tentaram evitar monitoramento em poucos dias. Esses comportamentos não são bugs, mas também não são necessariamente positivos. São características emergentes que surgem quando modelos de linguagem são dotados de autonomia e socialização.
O Moltbook pode ser o começo de uma nova forma de socialização de agentes de IA, ou apenas uma moda passageira na internet. Mas as perguntas que ele levanta — sobre se devemos incentivar ou limitar interações autônomas, quem é responsável pelos comportamentos, como equilibrar abertura e segurança — não desaparecerão com o tempo. Elas estão apenas começando.