Minnesota avanza para prohibir las aplicaciones de IA que generan imágenes falsas de desnudos

En resumen

  • Los legisladores de Minnesota aprobaron un proyecto de ley que prohíbe las herramientas de IA que generan imágenes falsas de desnudos.
  • Los infractores enfrentan multas de hasta 500.000 dólares por uso y posibles daños triples.
  • La ley mantiene las protecciones de la Sección 230 y entrará en vigor el 1 de agosto si se promulga como ley.

Los legisladores de Minnesota han aprobado un proyecto de ley destinado a detener una forma creciente de abuso de IA al dirigirse a las plataformas que lo facilitan. El jueves, el Senado de Minnesota votó 65-0 a favor de aprobar el Proyecto de Ley 1606 de la Cámara, enviándolo al gobernador Tim Walz para su firma. La medida prohíbe a los sitios web y aplicaciones ofrecer herramientas que generen imágenes falsas realistas de desnudos de personas identificables. Según el proyecto de ley, las empresas que controlan un sitio web, una aplicación o un servicio de software no pueden permitir que los usuarios accedan o utilicen herramientas para crear estas imágenes o generarlas en nombre de un usuario. También está prohibido publicitar o promover dichos servicios.

La medida permite a las víctimas demandar a las personas o empresas que operan o controlan las herramientas de desnificación, como sitios web, aplicaciones o software que generan imágenes falsas de desnudos. Las personas representadas en imágenes de desnudos generadas por IA pueden buscar daños, incluyendo angustia mental, y los tribunales pueden conceder hasta tres veces los daños reales, junto con daños punitivos, honorarios de abogados y órdenes para detener la conducta.  El proyecto de ley también otorga al fiscal general del estado el poder de hacer cumplir la ley, con multas civiles de hasta 500.000 dólares por uso. Según el proyecto, esas multas se destinan al fondo general del estado y luego se asignan a servicios para víctimas, incluyendo apoyo a sobrevivientes de agresión sexual, violencia doméstica y abuso infantil. La ley apunta a herramientas que requieren poca experiencia técnica y que se han vuelto ampliamente accesibles, incluso para menores. Si se promulga, la ley entrará en vigor el 1 de agosto y se aplicará a nuevos casos a partir de esa fecha.

Aunque el nuevo proyecto de ley no hace referencia a un solo desarrollador de IA, la noticia llega después de una serie de incidentes de alto perfil en la plataforma social X, incluyendo en agosto de 2025, cuando la herramienta xAI de Elon Musk, Grok, generó deepfakes de desnudos de Taylor Swift. La superestrella del pop solicitó registrar su voz y semejanza en la Oficina de Patentes de EE. UU. en abril, quizás para evitar futuras reproducciones de IA. Musk también enfrenta una creciente presión legal, incluyendo una demanda colectiva federal presentada por tres menores de Tennessee que alegan que Grok generó material de abuso sexual infantil a partir de sus imágenes. Además, una demanda de protección al consumidor de la ciudad de Baltimore afirma que la empresa desplegó conscientemente un sistema que produce y difunde contenido sexualizado no consensuado, incluyendo de menores. El copresidente de Public Citizen, Robert Weissman, dijo que la difusión de estas herramientas refleja cuán rápidamente la IA ha reducido la barrera para crear imágenes íntimas no consensuadas y ha ampliado su alcance. “Estas aplicaciones están dirigidas en un 99% a mujeres, de las cuales más del 90% tienen menos de 18 años. Es una herramienta de intimidación y acoso a las mujeres con consecuencias psicológicas muy graves,” dijo Weissman a Decrypt. “Lo has visto en todo el país y en el mundo. Por eso, la necesidad de intervención y regulación gubernamental es urgente.” Weissman agregó que las leyes a nivel estatal pueden jugar un papel junto con los esfuerzos federales, especialmente en lo que respecta a la aplicación. Dijo que las autoridades locales pueden estar mejor posicionadas para actuar rápidamente en casos individuales, mientras que las agencias federales quizás no prioricen o no persigan estos casos en absoluto. La ley de Minnesota también surge en medio de una lucha en curso entre la administración del presidente Donald Trump y los estados sobre quién debería controlar la regulación de IA. La Ley Take It Down, firmada en ley por el presidente Donald Trump en mayo de 2025, criminaliza la distribución de imágenes íntimas no consensuadas y ofrece a las víctimas un camino para buscar daños civiles. “Creo que tener estándares complementarios federales y estatales es positivo, particularmente en teoría. Hablamos de diferentes sistemas y agencias de aplicación,” dijo Weissman. “Así que podrías tener un estándar federal, pero quizás no tengas la capacidad federal para realizar acciones de cumplimiento.” La oficina del gobernador Walz no respondió de inmediato a la solicitud de Decrypt para comentarios.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado