Notícias da Gate, mensagens: a inteligência artificial de deepfakes avançados está a tornar-se uma nova ameaça que enfrenta os sistemas de KYC de bancos e plataformas de criptomoedas. Relatórios recentes indicam que atacantes da dark web já desenvolveram e estão a vender uma ferramenta que combina deepfakes e clonagem de voz em tempo real, capaz de contornar as verificações de identidade tradicionais. A ferramenta não só consegue gerar identidades sintéticas altamente convincentes, como também simular movimentos faciais naturais e respostas de voz, tornando difícil para os revisores de KYC distinguirem o verdadeiro do falso.
O surgimento de fraudes em KYC baseadas em inteligência artificial quebrou os padrões tradicionais de validação. Bancos e plataformas cripto dependem da verificação de documentos, do reconhecimento facial e de testes de liveness, mas esta ferramenta consegue contornar as três camadas de segurança em simultâneo. Os atacantes já não precisam de roubar informações de identidade reais; em vez disso, conseguem gerar rapidamente várias identidades virtuais e realizar, num curto espaço de tempo, registos em massa e atividades fraudulentas.
Especialistas em fintech alertam que, em grande parte, os sistemas de KYC existentes não conseguem identificar totalmente comportamentos avançados de deepfakes. Algumas empresas já começaram a implementar ferramentas de deteção baseadas em inteligência artificial, analisando microexpressões e anomalias de comportamento para melhorar a taxa de deteção, mas os atacantes também estão a atualizar continuamente a tecnologia. A rápida evolução da inteligência artificial para fraude de identidade cria uma competição contínua entre defesa e ataque, aumentando a pressão de segurança sobre as plataformas de finanças digitais.
Especialistas recomendam que as empresas criem um sistema de defesa em múltiplas camadas, combinando monitorização por inteligência artificial e revisão manual, e ao mesmo tempo introduzam meios de análise de comportamento para acompanhar atividades suspeitas após o registo do utilizador. Esta estratégia dinâmica de proteção ajuda a detetar continuamente potenciais fraudes para além da fase de verificação. À medida que as ferramentas de deepfakes baseadas em inteligência artificial continuam a evoluir, os riscos de segurança enfrentados pelos sistemas de KYC vão persistir a longo prazo.
Este desenvolvimento serve como um alerta para as instituições financeiras: um único método de verificação já não consegue garantir a segurança da identidade digital, sendo necessário reforçar o investimento em deteção inteligente e em defesa adaptativa para fazer face à vaga de fraudes impulsionadas por inteligência artificial e criar um ambiente fiável para as plataformas de finanças digitais.
Related Articles
Vítimas de terrorismo da Coreia do Norte entram com moção para confiscar $71M do hack na Aave, buscando reclassificar como fraude
Kelp DAO abandona o LayerZero pela Chainlink CCIP após exploit de ponte de US$ 292 milhões
O cofundador da LayerZero refuta alegações do KelpDAO, citando uma mudança manual de configuração em 1º de abril de 2024
Vulnerabilidade no código de execução remota de mineiros do Bitcoin Core, 43% dos nós não foram atualizados
A vulnerabilidade do Bitcoin Core CVE-2024-52911 permite execução remota de código; 43% dos nós ainda não foram corrigidos
Ekubo: o contrato de roteamento de EVM Swap sofreu um incidente de segurança, e o Starknet não foi afetado