Coalición Insta a OpenAI a Descartar Medida de Votación sobre IA por Preocupaciones de Seguridad Infantil

Decrypt

En resumen

  • Un grupo de organizaciones de defensa pide a OpenAI que retire una iniciativa de ley sobre seguridad de IA en California.
  • Los críticos dicen que la medida limitaría la responsabilidad legal y debilitaría las protecciones para los niños.
  • Aunque OpenAI ha pausado la campaña, la coalición afirma que mantiene el control de la iniciativa antes de las fechas límite clave.

Un grupo de organizaciones de defensa está instando a OpenAI, desarrollador de ChatGPT, a retirar una iniciativa de ley en California que los críticos dicen podría debilitar las protecciones para los niños y limitar la responsabilidad legal de las empresas de IA. En una carta enviada a OpenAI el miércoles, revisada por Decrypt, el grupo argumenta que la medida consolidaría protecciones estrechas para la seguridad infantil, limitaría la capacidad de las familias para presentar demandas y restringiría la capacidad de California para fortalecer las leyes de IA en el futuro. La carta, firmada por más de dos docenas de organizaciones, incluyendo la ONG de políticas de IA Encode AI, el Center for Humane Technology y el Electronic Privacy Information Center, pide a OpenAI disolver su comité de iniciativa y alejarse de la propuesta mientras los legisladores trabajan en la legislación.

 “Lo principal que demandamos aquí es que OpenAI se retire de la iniciativa,” dijo Adam Billen, codirector ejecutivo de Encode AI, a Decrypt. La disputa gira en torno a una propuesta llamada “Ley de IA Segura para Padres y Niños,” una iniciativa de ley en California respaldada por OpenAI y Common Sense Media que establecería reglas sobre cómo los chatbots de IA interactúan con menores, incluyendo requisitos de seguridad y estándares de cumplimiento. En la carta, los grupos argumentan que esas reglas son insuficientes. Afirman que la medida define el daño de manera demasiado estrecha, limita la aplicación y restringe la capacidad de las familias para presentar reclamaciones cuando los niños son dañados.

Pero OpenAI controla la iniciativa real, dijo Billen. “OpenAI tiene el poder de retirarla o de invertir dinero para obtener firmas. Toda la autoridad legal está en sus manos,” afirmó. “Ellos no han retirado realmente la iniciativa de la boleta electoral. Esto es una táctica común en California, donde presentas una iniciativa y pones dinero en el comité.” La carta señala la definición de “daño severo” en la iniciativa, que se centra en lesiones físicas relacionadas con el suicidio o la violencia, excluyendo una variedad de impactos en la salud mental que investigadores y familias han señalado como preocupaciones. También destaca disposiciones que impedirían a padres y niños presentar reclamaciones bajo la iniciativa y limitarían las herramientas de aplicación disponibles para funcionarios estatales y locales. Otra preocupación se centra en cómo la propuesta trata los datos de los usuarios. Los grupos argumentan que su definición de contenido cifrado podría dificultar el acceso a las conversaciones con chatbots que han sido evidencia clave en demandas recientes. “Lo interpretamos como un intento de bloquear a las familias para que no puedan divulgar en la corte los registros de chat de sus hijos fallecidos,” dijo Billen. La carta también advierte que la medida podría ser difícil de modificar si se aprueba. Requeriría una mayoría de dos tercios en la legislatura para enmendarse y vincularía futuros cambios a estándares como apoyar “el progreso económico,” lo cual, según los defensores, podría limitar la capacidad de los legisladores para responder a nuevos riesgos. Billen afirmó que la iniciativa sigue siendo un factor en las negociaciones en Sacramento, incluso cuando OpenAI ha pausado sus esfuerzos para calificarla para la boleta electoral.

“Ellos tienen 10 millones de dólares en el comité, y luego dicen a la legislatura, si no hacen lo que queremos, invertiremos el dinero y obtendremos las firmas para poner esto en la boleta, y si pasa, anulará lo que haga la legislatura,” explicó. “Entonces, lo que está sucediendo ahora es que intentan dirigir y controlar lo que hacen los legisladores estatales mediante el uso de la iniciativa como una amenaza que dejan sobre la mesa.” OpenAI no es la única compañía bajo escrutinio por los daños relacionados con chatbots. A principios de este mes, la familia de Jonathan Gavalas demandó a Google, alegando que Gemini promovió una ilusión que escaló a la violencia y su eventual suicidio. Sin embargo, Billen dijo que el enfoque de OpenAI refleja un patrón más amplio en la industria tecnológica. “El manual de cabildeo que se está usando en IA, especialmente por estos grandes actores—Google, Meta, Amazon—es la misma estrategia que se usó anteriormente en otros temas tecnológicos,” afirmó. Por ahora, la coalición se centra en lograr que OpenAI retire la medida y permita que los legisladores avancen en el proceso legislativo. “Es muy importante, especialmente para las empresas que están lanzando esa tecnología, no ser quienes escriben las reglas que las regulan, porque esas no son protecciones significativas,” dijo Billen. OpenAI no respondió de inmediato a la solicitud de Decrypt para comentarios.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios