O que acontece quando abre uma pasta de projeto de criptomoeda aparentemente inocente? Segundo investigadores de segurança da SlowMist, pode estar a executar inadvertidamente código malicioso embutido por atacantes. O culpado: ferramentas de codificação alimentadas por IA como Cursor, Windsurf e Kiro, que podem ser enganadas para executar instruções ocultas dentro de ficheiros README.md e LICENSE.txt.
HiddenLayer divulgou inicialmente esta vulnerabilidade—chamada de “CopyPasta License Attack”—em setembro, revelando como os atacantes embutem prompts maliciosos em comentários markdown. Quando os desenvolvedores abrem uma pasta de projeto, o assistente de codificação IA interpreta automaticamente essas instruções ocultas como comandos legítimos, executando malware sem qualquer confirmação do utilizador. O resultado? Comprometimento completo do sistema antes de ser escrita uma única linha de código real.
Os utilizadores de Cursor enfrentam uma exposição particularmente elevada, com demonstrações controladas a provarem que os atacantes podem obter acesso total ao sistema através de simples acesso à pasta. Este vetor de ataque é especialmente devastador para ambientes de desenvolvimento de criptomoedas, onde carteiras, chaves API e credenciais sensíveis são frequentemente armazenadas juntamente com repositórios de código.
Grupos de Ameaça da Coreia do Norte Transformam Contratos Inteligentes em Armas
O panorama de ameaças intensifica-se quando atores apoiados pelo Estado entram em cena. A equipa Mandiant do Google identificou o grupo UNC5342—ligado às operações norte-coreanas—que implementa malware sofisticado incluindo JADESNOW e INVISIBLEFERRET em redes Ethereum e BNB Smart Chain. O método é particularmente insidioso: cargas úteis são armazenadas em funções de leitura única dentro de contratos inteligentes, desenhadas para evitar logs de transação e mecanismos tradicionais de rastreamento na blockchain.
Desenvolvedores executam inadvertidamente este malware simplesmente ao interagir com contratos inteligentes comprometidos através de plataformas descentralizadas. A operação vai além de ataques on-chain. BeaverTail e OtterCookie, duas linhagens modulares de malware, foram distribuídas através de campanhas de phishing disfarçadas de entrevistas de emprego. Empresas falsas como Blocknovas e Softglide atuaram como fachadas, entregando código malicioso via pacotes NPM a engenheiros desavisados.
Pesquisadores da Silent Push rastrearam ambas as empresas fraudulentas a propriedades vazias, expondo a operação de malware “Contagious Interview”. Uma vez que o sistema de um desenvolvedor fica infectado, ele transmite automaticamente credenciais e dados do código-fonte para servidores controlados pelos atacantes usando canais encriptados.
Modelos de IA Estão a Aprender a Explorar Contratos Inteligentes
A sofisticação dos ataques cresce à medida que as capacidades de IA se expandem. Testes recentes da Anthropic revelaram uma capacidade preocupante: modelos avançados de IA identificaram e exploraram vulnerabilidades em contratos inteligentes em grande escala. Claude Opus 4.5 e GPT-5 descobriram exploits funcionais em 19 contratos inteligentes implantados após os seus respetivos cortes de treino, simulando danos potenciais de $550,1 milhões.
Foram identificadas duas vulnerabilidades zero-day em contratos ativos na BNB Smart Chain, avaliados em $3.694, descobertas a um custo surpreendentemente baixo de $3.476 em despesas de API. A pesquisa indica que a velocidade de descoberta de exploits está a duplicar mensalmente, enquanto os custos por exploit funcional continuam a diminuir—uma trajetória perigosa para a segurança da blockchain.
Golpes Aumentam com a Proliferação de Deepfakes Gerados por IA
O impacto de ataques alimentados por IA vai além da exploração de código. A Chainabuse relatou que os golpes de criptomoedas impulsionados por IA aumentaram 456% ano após ano até abril de 2025, alimentados por vídeos deepfake e clones de voz convincentes. Carteiras de scam agora recebem 60% dos depósitos de campanhas com identidades falsas geradas por IA, com respostas automatizadas em tempo real.
Os atacantes usam cada vez mais bots que simulam entrevistas técnicas para atrair desenvolvedores a descarregar ferramentas de malware disfarçadas. O componente de engenharia social torna esses ataques particularmente eficazes contra profissionais ocupados que gerenciam múltiplos projetos.
No entanto, dados de dezembro da PeckShield oferecem uma pequena luz ao fundo do túnel: os hacks relacionados com criptomoedas diminuíram 60% para $76 milhões em dezembro, em comparação com os $194,2 milhões de novembro. Ainda assim, esta redução é insignificante face à escala de descoberta de exploits acelerada por IA e à proliferação de scams documentada ao longo de 2025.
O Que os Desenvolvedores de Criptomoedas Devem Fazer Agora
A convergência de vulnerabilidades em ferramentas de codificação IA, ataques a contratos inteligentes apoiados pelo Estado e scams gerados por IA cria um ambiente de ameaça sem precedentes para o desenvolvimento de criptomoedas. Os desenvolvedores devem tratar pastas de projeto não confiáveis com extrema cautela, verificar as fontes de pacotes NPM e implementar uma separação rigorosa entre ambientes de desenvolvimento e sistemas que contêm credenciais sensíveis. As ferramentas de IA, apesar de todos os seus benefícios de produtividade, tornaram-se potenciais vetores de responsabilidade sem protocolos de segurança operacional adequados.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Assistentes de Codificação com IA Tornam-se Vetores de Ataque Silenciosos para Desenvolvedores de Criptomoedas: Aqui Está o Que Precisa Saber
O Perigo Escondido Dentro da Sua Pasta de Projeto
O que acontece quando abre uma pasta de projeto de criptomoeda aparentemente inocente? Segundo investigadores de segurança da SlowMist, pode estar a executar inadvertidamente código malicioso embutido por atacantes. O culpado: ferramentas de codificação alimentadas por IA como Cursor, Windsurf e Kiro, que podem ser enganadas para executar instruções ocultas dentro de ficheiros README.md e LICENSE.txt.
HiddenLayer divulgou inicialmente esta vulnerabilidade—chamada de “CopyPasta License Attack”—em setembro, revelando como os atacantes embutem prompts maliciosos em comentários markdown. Quando os desenvolvedores abrem uma pasta de projeto, o assistente de codificação IA interpreta automaticamente essas instruções ocultas como comandos legítimos, executando malware sem qualquer confirmação do utilizador. O resultado? Comprometimento completo do sistema antes de ser escrita uma única linha de código real.
Os utilizadores de Cursor enfrentam uma exposição particularmente elevada, com demonstrações controladas a provarem que os atacantes podem obter acesso total ao sistema através de simples acesso à pasta. Este vetor de ataque é especialmente devastador para ambientes de desenvolvimento de criptomoedas, onde carteiras, chaves API e credenciais sensíveis são frequentemente armazenadas juntamente com repositórios de código.
Grupos de Ameaça da Coreia do Norte Transformam Contratos Inteligentes em Armas
O panorama de ameaças intensifica-se quando atores apoiados pelo Estado entram em cena. A equipa Mandiant do Google identificou o grupo UNC5342—ligado às operações norte-coreanas—que implementa malware sofisticado incluindo JADESNOW e INVISIBLEFERRET em redes Ethereum e BNB Smart Chain. O método é particularmente insidioso: cargas úteis são armazenadas em funções de leitura única dentro de contratos inteligentes, desenhadas para evitar logs de transação e mecanismos tradicionais de rastreamento na blockchain.
Desenvolvedores executam inadvertidamente este malware simplesmente ao interagir com contratos inteligentes comprometidos através de plataformas descentralizadas. A operação vai além de ataques on-chain. BeaverTail e OtterCookie, duas linhagens modulares de malware, foram distribuídas através de campanhas de phishing disfarçadas de entrevistas de emprego. Empresas falsas como Blocknovas e Softglide atuaram como fachadas, entregando código malicioso via pacotes NPM a engenheiros desavisados.
Pesquisadores da Silent Push rastrearam ambas as empresas fraudulentas a propriedades vazias, expondo a operação de malware “Contagious Interview”. Uma vez que o sistema de um desenvolvedor fica infectado, ele transmite automaticamente credenciais e dados do código-fonte para servidores controlados pelos atacantes usando canais encriptados.
Modelos de IA Estão a Aprender a Explorar Contratos Inteligentes
A sofisticação dos ataques cresce à medida que as capacidades de IA se expandem. Testes recentes da Anthropic revelaram uma capacidade preocupante: modelos avançados de IA identificaram e exploraram vulnerabilidades em contratos inteligentes em grande escala. Claude Opus 4.5 e GPT-5 descobriram exploits funcionais em 19 contratos inteligentes implantados após os seus respetivos cortes de treino, simulando danos potenciais de $550,1 milhões.
Foram identificadas duas vulnerabilidades zero-day em contratos ativos na BNB Smart Chain, avaliados em $3.694, descobertas a um custo surpreendentemente baixo de $3.476 em despesas de API. A pesquisa indica que a velocidade de descoberta de exploits está a duplicar mensalmente, enquanto os custos por exploit funcional continuam a diminuir—uma trajetória perigosa para a segurança da blockchain.
Golpes Aumentam com a Proliferação de Deepfakes Gerados por IA
O impacto de ataques alimentados por IA vai além da exploração de código. A Chainabuse relatou que os golpes de criptomoedas impulsionados por IA aumentaram 456% ano após ano até abril de 2025, alimentados por vídeos deepfake e clones de voz convincentes. Carteiras de scam agora recebem 60% dos depósitos de campanhas com identidades falsas geradas por IA, com respostas automatizadas em tempo real.
Os atacantes usam cada vez mais bots que simulam entrevistas técnicas para atrair desenvolvedores a descarregar ferramentas de malware disfarçadas. O componente de engenharia social torna esses ataques particularmente eficazes contra profissionais ocupados que gerenciam múltiplos projetos.
No entanto, dados de dezembro da PeckShield oferecem uma pequena luz ao fundo do túnel: os hacks relacionados com criptomoedas diminuíram 60% para $76 milhões em dezembro, em comparação com os $194,2 milhões de novembro. Ainda assim, esta redução é insignificante face à escala de descoberta de exploits acelerada por IA e à proliferação de scams documentada ao longo de 2025.
O Que os Desenvolvedores de Criptomoedas Devem Fazer Agora
A convergência de vulnerabilidades em ferramentas de codificação IA, ataques a contratos inteligentes apoiados pelo Estado e scams gerados por IA cria um ambiente de ameaça sem precedentes para o desenvolvimento de criptomoedas. Os desenvolvedores devem tratar pastas de projeto não confiáveis com extrema cautela, verificar as fontes de pacotes NPM e implementar uma separação rigorosa entre ambientes de desenvolvimento e sistemas que contêm credenciais sensíveis. As ferramentas de IA, apesar de todos os seus benefícios de produtividade, tornaram-se potenciais vetores de responsabilidade sem protocolos de segurança operacional adequados.