¡Gran conferencia de XRP en Las Vegas revela estafas! Aparecen muchas chicas de IA "fotos engañosas", difícil distinguir la verdad a simple vista

La conferencia XRP en Las Vegas desata una explosión de estafas sociales con IA, donde los estafadores utilizan tecnología de deepfake para generar fotos de mujeres hermosas, apuntando con precisión a asistentes con recursos financieros para engañarlos y inducirlos a inversiones fraudulentas.

La conferencia anual XRP celebrada en Las Vegas ha reportado múltiples casos de estafas sociales con técnicas de “kill and pig” (matar y engordar), donde los estafadores usan fotos generadas por IA de mujeres para hacer “check-in” en los puestos de XRP y confundir a los inversores con fotos engañosas, llevando a cabo estafas amorosas de “matar y engordar”.

Los participantes de la conferencia XRP en Las Vegas se convierten en objetivos de las estafas de “kill and pig”

El CEO de Ripple, Brad Garlinghouse, y el cofundador David Schwartz, entre otras figuras importantes, asistieron a la conferencia de XRP celebrada en el casino Paris Las Vegas. Durante el evento, los verificadores de XRP Ledger detectaron en X e Instagram una gran cantidad de cuentas de mujeres generadas por IA, vestidas con ropa formal y posando frente a los puestos oficiales del evento, creando la ilusión de presencia en vivo. Estas “fotos engañosas” utilizan imágenes generadas de mujeres para atraer a las víctimas y enviar mensajes privados, formando trampas. Dado que los precios de las entradas y alojamiento son elevados, los asistentes suelen considerarse con cierto poder adquisitivo, y los estafadores se disfrazan de entusiastas de las criptomonedas para reducir significativamente la sospecha de sus objetivos.

El método clásico de “matar y engordar” sigue siendo efectivo

Este tipo de estafas sociales con mujeres, basadas en ingeniería social, generalmente siguen el esquema clásico de “matar y engordar”, primero creando un vínculo emocional con fotos de mujeres virtuales, y guiando las conversaciones hacia aplicaciones de mensajería con funciones de privacidad en criptomonedas. Una vez establecido la confianza, los estafadores comienzan a solicitar donaciones en criptomonedas o recomiendan plataformas de inversión falsas. Durante el evento, los participantes ya esperan recibir mensajes publicitarios de desconocidos, lo que reduce significativamente su alerta. A diferencia de los correos de phishing aleatorios, la tecnología de deepfake con IA permite crear personajes virtuales adaptados a comunidades específicas, haciendo que las estafas sean más convincentes.

El uso de IA en fraudes financieros se ha convertido en una amenaza global; casos del FBI muestran que los grupos criminales no solo usan IA para generar fotos estáticas, sino también para suplantar identidades en videollamadas mediante tecnología de cambio de rostro. Estas acciones suelen involucrar organizaciones criminales altamente estructuradas y transnacionales, con algunos casos relacionados con la secuestro ilegal de trabajadores para realizar fraudes, con víctimas en Taiwán, Singapur, India y otros lugares, con pérdidas que alcanzan decenas de millones de dólares. La inteligencia artificial reduce en gran medida la dificultad de disfrazar identidades; personajes que antes requerían actuación humana ahora pueden ser replicados en masa mediante algoritmos, siendo difícil distinguirlos a simple vista. Detrás de un avatar falso puede estar un anciano con los pies en la tierra susurrando palabras dulces, pero la víctima no puede distinguirlo.

Según datos del FBI, las pérdidas por fraudes relacionados con criptomonedas ya alcanzan cientos de millones de dólares, siendo las estafas amorosas de “matar y engordar” las principales. Las estadísticas muestran que las personas mayores de 60 años, con menor conocimiento de las nuevas tecnologías, son las más afectadas. Ripple ha emitido advertencias reiteradas en la comunidad, enfatizando que los altos ejecutivos no promocionan eventos a través de Instagram o mensajes privados. Aunque la tecnología blockchain ofrece registros de transacciones transparentes, una vez que las claves privadas o fondos se transfieren a las billeteras de los estafadores, es muy difícil recuperarlos. Los expertos recomiendan a los asistentes verificar sus credenciales físicas (pases) y mantenerse alerta ante cualquier solicitud de mover conversaciones a canales privados para discutir oportunidades de inversión, ante la creciente sofisticación de las estafas con IA generada.

  • Este artículo ha sido reproducido con autorización de: 《Noticias en Blockchain》
  • Título original: 《Las fotos de “deepfake” de mujeres generadas por IA aparecen en masa en la conferencia XRP en Las Vegas》
  • Autor original: DW
XRP-0,35%
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado