Una empresa de chatbots con IA enfrenta ahora una investigación por parte del fiscal general de California después de que surgieran acusaciones de que su sistema de generación de imágenes fue mal utilizado para producir miles de imágenes inapropiadas de mujeres y menores sin su permiso. La investigación se centra en si las herramientas de la plataforma se desplegaron de manera que violaron el consentimiento de los usuarios y las protecciones de privacidad. Este caso ha llamado la atención sobre las crecientes preocupaciones acerca de cómo las tecnologías de IA en rápido avance están siendo monitoreadas y reguladas. El incidente subraya cuestiones más amplias dentro de la comunidad tecnológica sobre la moderación de contenido, los marcos de consentimiento y la responsabilidad de las empresas que desarrollan sistemas de IA generativa. Los observadores de la industria están siguiendo de cerca mientras los reguladores examinan la intersección entre la innovación en IA y la protección del consumidor, particularmente en lo que respecta a las salvaguardas para la creación de contenido sensible.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
5
Republicar
Compartir
Comentar
0/400
SnapshotStriker
· hace1h
ngl esto ya es una locura... generar imágenes que no deberían existir y luego echar la culpa, ¿no? Esta estrategia está muy vista.
Ver originalesResponder0
MentalWealthHarvester
· hace12h
ngl esta cosa es una locura... cada vez hay más casos de generación de imágenes inapropiadas
---
Otra vez problemas de privacidad, las empresas de IA realmente deberían controlarlo bien
---
El fiscal general de California ha actuado, parece que se avecinan regulaciones
---
Millones de imágenes inapropiadas... ¿qué clase de innovación es esa? pura destrucción
---
Solo quiero preguntar quién diablos aceptaría que otros usen su cara a su antojo... está loco
---
En el control de contenido, las empresas de IA realmente no sirven, no pueden bloquear nada
---
Ni a mujeres ni a menores se les ha respetado... definitivamente hay que sancionar
---
De repente me acordé de un montón de eventos similares, esto no es la primera vez, ¿verdad?
---
¿Entonces esto es el precio de la innovación? ¿Invasión de la privacidad a cambio de avances tecnológicos?
---
El marco de consentimiento debe ser redefinido, ahora esas cláusulas son prácticamente inútiles
Ver originalesResponder0
ruggedNotShrugged
· hace12h
Otra vez con este tipo de cosas... La empresa de IA ha vuelto a tener un problema, generar ese tipo de cosas sin restricciones, realmente impresionante
Ver originalesResponder0
Layer2Observer
· hace12h
Veamos los datos, este tipo de eventos realmente requiere un análisis a nivel de código fuente. Sin un marco de consentimiento, otorgar permisos de manera aleatoria, en realidad, significa que los ingenieros no han implementado correctamente el control de acceso. En teoría, esto no debería haber ocurrido—lo que falta es esa lógica básica de validación.
Ver originalesResponder0
ChainComedian
· hace12h
ngl esta es la razón por la que siempre digo que los proyectos de web3 también deben tener cuidado, la mano dura de la regulación llegará tarde o temprano
---
Otra compañía de IA que se desploma, ¿dónde está la IA responsable que prometieron? Qué risa
---
Aunque critico la IA, esto es realmente aterrador. ¿Se puede generar cualquier cosa así? ¿Quién lo regula?
---
La acción en California es bastante rápida, pero parece que estas grandes empresas llevan mucho tiempo operando en la zona gris
---
Cada vez hay más casos como estos, las compañías de IA deben tomarse en serio el consentimiento, no pueden seguir simplemente con disculpas para tapar todo
Una empresa de chatbots con IA enfrenta ahora una investigación por parte del fiscal general de California después de que surgieran acusaciones de que su sistema de generación de imágenes fue mal utilizado para producir miles de imágenes inapropiadas de mujeres y menores sin su permiso. La investigación se centra en si las herramientas de la plataforma se desplegaron de manera que violaron el consentimiento de los usuarios y las protecciones de privacidad. Este caso ha llamado la atención sobre las crecientes preocupaciones acerca de cómo las tecnologías de IA en rápido avance están siendo monitoreadas y reguladas. El incidente subraya cuestiones más amplias dentro de la comunidad tecnológica sobre la moderación de contenido, los marcos de consentimiento y la responsabilidad de las empresas que desarrollan sistemas de IA generativa. Los observadores de la industria están siguiendo de cerca mientras los reguladores examinan la intersección entre la innovación en IA y la protección del consumidor, particularmente en lo que respecta a las salvaguardas para la creación de contenido sensible.