Según el “Informe de Investigación sobre Políticas de Activación de la Industria Web 3.0”, algunos análisis señalan que la rápida expansión de la inteligencia artificial no solo lidera la innovación en la industria, sino que también está ampliando paralelamente sus efectos secundarios de erosionar la confianza social. En particular, casos de abuso de tecnologías como la deepfake y el phishing de voz ya se han convertido en una realidad, y cada vez más las personas temen que la dependencia excesiva de la IA y las brechas en su aplicación estén teniendo un impacto negativo en toda la estructura social.
El profesor Yin Xibin de la Universidad de Xijiang, en el informe, define la esencia de los efectos secundarios de la IA como “no solo defectos técnicos, sino también todos los impactos negativos provocados por el mal uso y abuso por parte de los humanos”. El informe se centra especialmente en tres aspectos: “el agravamiento de la brecha digital”, “la dependencia excesiva de la digitalización” y “el crimen y las actividades ilegales”.
En primer lugar, el análisis considera que el agravamiento de la brecha digital se refleja en: las diferencias en la estructura de pago y acceso a modelos de IA de alto rendimiento, la disparidad en la capacidad de procesamiento de datos entre grandes empresas y pequeñas y medianas empresas, y las diferencias en el rendimiento causadas por la calidad de los datos disponibles, todo lo cual puede ampliar la brecha de productividad de manera geométrica. Por ejemplo, los grupos de usuarios limitados en el uso de herramientas de IA de pago inevitablemente quedarán rezagados en productividad automatizada.
La dependencia excesiva de la digitalización está relacionada con la degeneración inherente de las capacidades de pensamiento humano. Esto incluye fatiga y estrés causados por trabajos repetitivos como la verificación y modificación de resultados generados automáticamente por IA, e incluso caer en una “estructura en la que no se puede trabajar sin IA”. En particular, el fenómeno de “debilitamiento de habilidades” se considera un factor de riesgo que, independientemente del desarrollo de la IA, puede disminuir las capacidades humanas.
El problema mayor radica en el uso indebido de la IA con fines delictivos. El informe advierte que casos de delitos sexuales mediante deepfake, suplantación de CEO de empresas para estafas, falsificación de evidencias, entre otros, ya son una realidad. La “dilución de la verdad” está en aumento, dificultando cada vez más la evaluación de la veracidad de la información. La tecnología de síntesis de voz basada en IA hace que las técnicas de phishing de voz sean más sofisticadas, y la manipulación de la opinión pública basada en objetivos micro puede convertirse en un factor catastrófico para la difusión de noticias falsas y la división social.
En consecuencia, el informe propone soluciones tecnológicas específicas. Se recomienda, además de mejorar los algoritmos de detección de deepfake, la adopción obligatoria de estándares C2PA y marcas de agua digitales que permitan verificar el origen del contenido. Además, el análisis del informe considera que el uso de la certificación de identidad distribuida, la prueba de conocimiento cero y la certificación de contenido basada en blockchain están convirtiéndose en soluciones centrales para construir un sistema de confianza digital basado en Web 3.0.
A nivel de políticas, la demanda de fortalecer las sanciones penales contra la difusión de deepfake, clarificar las responsabilidades de los operadores de plataformas y promover la construcción de infraestructura pública de IA está en aumento. Al mismo tiempo, se señala la necesidad urgente de implementar educación en alfabetización digital para todas las generaciones, desde adolescentes hasta adultos.
El profesor Yin Xibin, a través del informe, enfatiza que además de las respuestas tecnológicas, la educación ética, la gobernanza política y la colaboración entre la industria, la academia y la sociedad civil son igualmente cruciales. Si se permite que los efectos secundarios de la IA se dejen sin control, no solo podría colapsar la confianza en la tecnología, sino que también la democracia digital y el orden económico podrían verse amenazados.
El rumbo final no consiste en frenar el ritmo de desarrollo tecnológico, sino en avanzar hacia la creación de “normas centradas en las personas” para utilizar la tecnología de manera justa y responsable. El informe concluye que, para convertir la IA en una herramienta para la prosperidad social, es necesario promover simultáneamente una regulación flexible, la construcción de sistemas coordinados y un ecosistema de confianza sostenible.