根据《Web 3.0产业激活政策研究报告》,有分析指出,人工智能的快速扩散在引领产业界创新的同时,也正在并行扩大其侵蚀社会信任的副作用。特别是深度伪造、语音钓鱼等技术滥用案例已成为现实,人们越来越担心对AI的过度依赖以及应用差距正在对整个社会结构产生负面影响。
西江大学的尹锡彬教授在该报告中,将AI副作用的本质定义为“不仅是技术缺陷,还包括由人类误用及滥用引发的所有负面影响”。报告特别聚焦于其中三个方面,即“数字鸿沟加剧”、“数字过度依赖”以及“犯罪及非法行为”。
首先,分析认为数字鸿沟加剧体现在:使用高性能AI模型所需的付费结构与访问权限差异、大企业与中小企业之间的数据处理能力差距,以及是否拥有高质量数据所导致的性能差异,这些都可能使生产力差距呈几何级数扩大。例如,在使用付费AI工具方面受限的用户群体,在自动化生产力方面将不可避免地逐渐落后。
数字过度依赖则与人类固有思考能力的退化相关。这包括因反复验证和修改AI自动生成结果等重复性工作导致的疲劳和压力,乃至陷入“没有AI就无法工作的结构”。特别是“技能退化”现象被指为独立于AI发展之外、削弱人类能力的风险因素。
更大的问题在于为犯罪目的滥用AI。报告警告称,利用深度伪造技术实施的性犯罪、冒充企业CEO进行诈骗、证据伪造等案例已成为现实,“真相稀释现象”正在加剧,使得判断信息真伪变得愈发困难。基于AI的语音合成技术使得语音钓鱼手段更加高明,而基于微观目标定位的舆论操纵可能成为传播虚假新闻和引发社会分裂的灾难性因素。
据此,报告也具体提出了技术应对方案。《Web 3.0产业激活政策研究报告》建议,在提升深度伪造检测算法的同时,应强制引入可验证内容来源的C2PA标准及数字水印。此外,报告分析认为,利用分布式身份认证、零知识证明、基于区块链的内容认证来构建Web 3.0基础的数字信任体系,正成为核心替代方案。
在政策层面,要求强化对深度伪造传播的刑事处罚、明确平台运营者的责任、以及推进公共AI基础设施建设的呼声日益高涨。同时,有意见指出,迫切需要开展面向从青少年到成人所有世代的数字素养教育。
尹锡彬教授通过报告强调,除了技术应对,伦理教育、政策治理以及产业界、学术界和公民社会之间的协作也至关重要。若对AI的副作用放任不管,不仅可能导致技术信任的崩溃,甚至数字民主和经济秩序也可能受到威胁。
最终的方向并非抑制技术发展速度,而是朝着形成“以人为本的规范”以公平且负责任地利用技术前进。报告总结道,为了将AI作为社会繁荣的工具,必须并行推进灵活的监管与协调的制度构建,以及可持续的信任生态系统的营造。