O surgimento de ferramentas avançadas de inteligência artificial para deepfake desencadeou sérias preocupações sobre a segurança pública e a confiabilidade dos sistemas de verificação de identidade visual utilizados por bolsas de criptomoedas centralizadas. Vários governos, incluindo Malásia e Indonésia, estão tomando medidas para restringir o acesso a ferramentas de inteligência artificial como a Grok da xAI, enquanto o escritório do Procurador-Geral da Califórnia está investigando denúncias relacionadas a imagens explícitas não autorizadas. Como essas ferramentas agora podem reproduzir movimentos naturais de forma realista, verificações básicas como piscar ou sorrir podem já não ser suficientes para atender aos requisitos do processo KYC (Conheça Seu Cliente), colocando plataformas globais de criptomoedas que dependem de processos de registro automatizados sob pressão, forçando-as a ajustar suas medidas de segurança.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)