人工智能,是創新還是危機…《Web 3.0產業激活政策研究》所聚焦的數字信任條件

Techub News

根据《Web 3.0產業激活政策研究報告》,有分析指出,人工智能的快速擴散在引領產業界創新同時,也正在並行擴大其侵蝕社會信任的副作用。特別是深度偽造、語音釣魚等技術濫用案例已成為現實,人們越來越擔心對AI的過度依賴以及應用差距正在對整個社會結構產生負面影響。

西江大學的尹錫彬教授在該報告中,將AI副作用的本質定義為“不僅是技術缺陷,還包括由人類誤用及濫用引發的所有負面影響”。報告特別聚焦於其中三個方面,即“數字鴻溝加劇”、“數字過度依賴”以及“犯罪及非法行為”。

首先,分析認為數字鴻溝加劇體現在:使用高性能AI模型所需的付費結構與訪問權限差異、大企業與中小企業之間的數據處理能力差距,以及是否擁有高品質數據所導致的性能差異,這些都可能使生產力差距呈幾何級數擴大。例如,在使用付費AI工具方面受限的用戶群體,在自動化生產力方面將不可避免地逐漸落後。

數字過度依賴則與人類固有思考能力的退化相關。這包括因反覆驗證和修改AI自動生成結果等重複性工作導致的疲勞和壓力,乃至陷入“沒有AI就無法工作的結構”。特別是“技能退化”現象被指為獨立於AI發展之外、削弱人類能力的風險因素。

更大的問題在於為犯罪目的濫用AI。報告警告稱,利用深度偽造技術實施的性犯罪、冒充企業CEO進行詐騙、證據偽造等案例已成為現實,“真相稀釋現象”正在加劇,使得判斷信息真偽變得愈發困難。基於AI的語音合成技術使得語音釣魚手段更加高明,而基於微觀目標定位的輿論操縱可能成為傳播虛假新聞和引發社會分裂的災難性因素。

據此,報告也具體提出了技術應對方案。《Web 3.0產業激活政策研究報告》建議,在提升深度偽造檢測算法的同時,應強制引入可驗證內容來源的C2PA標準及數字水印。此外,報告分析認為,利用分散式身份認證、零知識證明、基於區塊鏈的內容認證來構建Web 3.0基礎的數字信任體系,正成為核心替代方案。

在政策層面,要求強化對深度偽造傳播的刑事處罰、明確平台運營者的責任、以及推動公共AI基礎設施建設的呼聲日益高漲。同時,有意見指出,迫切需要開展面向從青少年到成人所有世代的數字素養教育。

尹錫彬教授通過報告強調,除了技術應對,倫理教育、政策治理以及產業界、學術界和公民社會之間的協作也至關重要。若對AI的副作用放任不管,不僅可能導致技術信任的崩潰,甚至數字民主和經濟秩序也可能受到威脅。

最終的方向並非抑制技術發展速度,而是朝著形成“以人為本的規範”以公平且負責任地利用技術前進。報告總結道,為了將AI作為社會繁榮的工具,必須並行推進彈性的監管與協調的制度建構,以及可持續的信任生態系統的營造。

查看原文
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言