O surgimento de ferramentas avançadas de inteligência artificial para deepfake desencadeou sérias preocupações sobre a segurança pública e a confiabilidade dos sistemas de verificação de identidade visual utilizados por bolsas de criptomoedas centralizadas. Vários governos, incluindo Malásia e Indonésia, estão tomando medidas para restringir o acesso a ferramentas de inteligência artificial como a Grok da xAI, enquanto o escritório do Procurador-Geral da Califórnia está investigando denúncias relacionadas a imagens explícitas não autorizadas. Como essas ferramentas agora podem reproduzir movimentos naturais de forma realista, verificações básicas como piscar ou sorrir podem já não ser suficientes para atender aos requisitos do processo KYC (Conheça Seu Cliente), colocando plataformas globais de criptomoedas que dependem de processos de registro automatizados sob pressão, forçando-as a ajustar suas medidas de segurança.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)