Uma lagosta desencadeia preocupações: Ansiedade de agentes de IA por trás do sucesso explosivo do OpenClaw

Escrito por: Deng Tong, Jinse Finance

A primavera de 2026 não trouxe apenas conflitos no Médio Oriente, aumento dos preços do petróleo, mas também um lagostim que agitou as águas na pista de IA.

Em 24 de janeiro, Openclaw apareceu na página principal do Hacker News e atingiu o topo do ranking, tornando-se um ponto-chave do seu sucesso explosivo. Em 30 de janeiro, OpenClaw consolidou a marca, nomeando-se oficialmente e estabelecendo o logotipo de lagostim vermelho. Entre fevereiro e março, grandes empresas nacionais começaram a implementar com um clique, com filas para experiências presenciais, tópicos a ferverem em toda a internet, e OpenClaw conquistando popularidade.

Porém, enquanto o lagostim se espalhava por todo o país, preocupações surgiram com o seu uso descontrolado. De “criar lagostins” a “eliminar lagostins”, em poucos dias o medo se intensificou, e debates sobre os limites de segurança e inteligência artificial começaram a se intensificar…

  1. De “criar lagostins” a “eliminar lagostins”

OpenClaw é, na essência, uma estrutura de agentes de IA de código aberto, inicialmente desenvolvida pelo austríaco Peter Steinberger. Permite aos utilizadores criar um “agente autónomo” capaz de chamar grandes modelos, aceder ao sistema de ficheiros, conectar-se a aplicações externas e executar tarefas.

Ao contrário dos chatbots tradicionais, OpenClaw não é apenas uma IA de perguntas e respostas, mas um assistente de IA capaz de realizar ações concretas.

Muitas empresas tecnológicas começaram a construir aplicações baseadas no OpenClaw, e algumas cidades lançaram políticas de subsídio para atrair projetos de empreendedorismo relacionados:

Wuxi High-tech Zone publicou “Medidas para apoiar a integração de projetos de comunidades de código aberto como OpenClaw e a comunidade OPC”, com 12 políticas de “criação de lagostins”, desde suporte básico até implementação industrial, incluindo formação de talentos e conformidade de segurança, com apoios até 5 milhões de yuans. Plataformas locais de nuvem que oferecem ferramentas de implantação e desenvolvimento gratuitas recebem subsídios até 1 milhão de yuans.

Hefei High-tech Zone lançou o “Plano de Ação para criar uma zona de demonstração de ecossistema de empreendedorismo de IA OPC”, com 15 medidas rigorosas para apoiar a implementação de projetos de IA de código aberto como OpenClaw, visando estabelecer um novo padrão de “IA + indivíduos/empresas unipessoais (OPC)”. Hefei oferece um pacote de “espaço + talentos + capacidade de cálculo + cenários + capital”, com apoio financeiro até 10 milhões de yuans.

Nanjing Qixia e Jiangning também lançaram políticas específicas de apoio ao OPC×OpenClaw. Qixia publicou as “Medidas para apoiar o desenvolvimento de ferramentas de IA de código aberto como OpenClaw e a fusão com OPC”, oferecendo recursos de computação gratuitos e subsídios para chamadas de APIs de grandes modelos nacionais, além de permitir aluguer de capacidade de cálculo elástica por hora ou dia, reduzindo custos iniciais de desenvolvimento. A comunidade OPC “Zijin Star” na Zona de Desenvolvimento de Jiangning, em Nanjing, lançou a política “Seis Lagostins”, oferecendo até 30% de reembolso do valor contratado de capacidade de IA, com limite anual de 2 milhões de yuans por utilizador.

Durante algum tempo, “criar um lagostim” tornou-se uma nova tendência na comunidade de IA.

Porém, essa fase não durou muito, pois os riscos associados aos lagostins começaram a preocupar o setor.

Muitos utilizadores, ao implementar, expuseram inadvertidamente interfaces de controlo na internet pública. O OpenClaw, por padrão, fornece o serviço de controlo na porta 18789, e sem uma autenticação rigorosa, qualquer ferramenta de varredura de rede pode localizar facilmente o seu endereço. Se esses interfaces forem atacados, o atacante pode assumir o controlo do agente de IA com privilégios máximos do sistema. Ferramentas que antes facilitavam, podem rapidamente tornar-se plataformas de controlo remoto de computadores ou servidores.

Em 10 de março, Zhou Hongyi falou sobre o desenvolvimento e riscos na era da IA, afirmando: “Criar um OpenClaw também traz problemas de segurança de dados, às vezes ele tem alucinações e pode apagar todos os ficheiros do seu disco C.” Ele também destacou que a maioria das empresas ainda usa modelos internos de “chatbots”, longe de serem agentes inteligentes capazes de “fazer o trabalho”, sendo necessário profissionais com conhecimentos técnicos e de negócios para impulsionar a implementação de IA empresarial.

Em 11 de março, a plataforma de partilha de ameaças e vulnerabilidades do Ministério da Indústria e Tecnologia da Informação (NVDB) recomendou “Seis coisas a fazer e seis a evitar”, alertando que cenários de transações financeiras apresentam riscos de erros de operação ou de roubo de contas. As estratégias incluem isolamento de rede, privilégios mínimos, mecanismos de revisão manual e de emergência, confirmação dupla para operações críticas, auditoria de cadeia de fornecimento, uso de componentes oficiais e reparo regular de vulnerabilidades, além de monitoramento contínuo de segurança.

Um mantenedor do OpenClaw, Shadow, alertou no Discord: “Se você não sabe usar linha de comando, este projeto é demasiado perigoso para você, não deve usá-lo com segurança.”

Na internet, há guias de “eliminar lagostins”, com expressões como “arrancar pela raiz” e “restos de lagostim”, refletindo o clima de risco de segurança. Assim, a mudança de atitude de “criar um lagostim” para “eliminar um lagostim” aconteceu numa velocidade impressionante.

  1. Quais problemas o OpenClaw apresenta

  2. Privilégios excessivos e risco de fuga de informação

OpenClaw requer acesso a permissões sensíveis, como emails, ficheiros locais, chaves API e dados empresariais. Uma configuração incorreta pode gerar riscos elevados. O agente pode apagar ou modificar ficheiros, usar APIs pagas, enviar emails automaticamente ou aceder a dados internos. Pesquisadores de segurança alertam que um malware chamado “extrator de informações” pode copiar os ficheiros de instalação do OpenClaw que se conectam a emails e outros serviços. Se um atacante obtiver esses dados, pode controlar diretamente o agente de IA do utilizador.

Muitos utilizadores conectam o OpenClaw a dados empresariais ou pessoais, aumentando o risco de fuga de informação.

  1. Custos elevados

Embora o OpenClaw seja gratuito e de código aberto, não inclui modelos de linguagem próprios, conectando-se a fornecedores como OpenAI, Anthropic e Google. Cada inferência de IA gera custos. Assim, cada diálogo, automação ou decisão aciona chamadas às APIs desses modelos, consumindo dinheiro.

O custo mensal do OpenClaw varia entre cerca de 6 a mais de 200 dólares, dependendo da configuração e do uso. O custo total depende de recursos de VPS, tipos de modelos utilizados, frequência de automação e escala de trabalho. Utilizadores individuais gastam entre 6 a 13 dólares por mês, pequenas equipas entre 25 a 50 dólares, médias ou grandes equipas entre 50 a 100 dólares, e configurações altamente automatizadas podem ultrapassar 100 dólares mensais, especialmente com milhares de interações diárias.

  1. Falta de auditoria de segurança

Empregados usam comandos simples para instalar o OpenClaw em equipamentos corporativos, sem processos de aprovação ou auditoria de segurança. Os centros de operação de segurança (SOC) não monitoram essas ações. Essa é a forma mais perigosa de “IA sombra”: 63% das organizações que sofreram vulnerabilidades relacionadas com IA não possuem políticas de governança específicas. Assim, os centros de segurança muitas vezes não conseguem monitorar esses agentes, que podem se tornar vulnerabilidades na rede empresarial.

  1. Alucinações

Ao contrário dos chatbots comuns, os agentes de IA podem executar tarefas automaticamente. Estudos mostram que, em tarefas complexas, eles tendem a apresentar “loop de raciocínio”, e se tiverem alucinações, podem gerar tarefas infinitas, chamadas frequentes às APIs, ações incorretas automáticas ou esgotar recursos do servidor.

  1. Reflexões provocadas por um lagostim

OpenClaw foi o primeiro lagostim a emergir na onda de inteligência artificial. Apesar de seus problemas, representa o futuro da IA.

Nos últimos anos, a revolução da IA foi impulsionada pelo ChatGPT, focando na conversação e geração de conteúdo; depois veio a era do Copilot, voltada para assistência no trabalho; agora, estamos na era dos agentes de IA autônomos, que executam tarefas de forma independente. No modo OpenClaw, a IA realiza uma série de passos complexos: entender a tarefa, decompor objetivos, chamar ferramentas, integrar informações e concluir a missão. Os utilizadores deixam de operar o software, apenas descrevem o objetivo, e a IA descompõe a tarefa e chama as ferramentas necessárias. Apesar dos riscos de segurança, essa é uma nova fase na interação homem-máquina e na revolução da IA.

Diferente do software de IA tradicional, os agentes de IA têm maior autonomia na execução de tarefas. Se o sistema for atacado, mal configurado ou tiver alucinações, podem ocorrer erros ou riscos de segurança. Por isso, o sucesso do OpenClaw também gerou debates amplos sobre segurança e governança.

As preocupações de segurança são temporárias; o aperfeiçoamento e desenvolvimento de agentes de IA é uma tendência inevitável. Assim como o ChatGPT abriu caminho para várias aplicações de geração de conteúdo, o OpenClaw também dará origem a muitos agentes de IA.

No futuro, talvez vivamos numa era em que todos “criem lagostins”. Embora sejam valiosos, ao desfrutar do banquete de IA, devemos primeiro aprender a não sermos picados.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar