「Web 3.0産業活性化政策研究報告」によると、分析者は、人工知能の急速な普及が産業界の革新を牽引する一方で、社会的信頼を侵食する副作用も拡大していると指摘している。特に、深層偽造、音声フィッシングなどの技術乱用例が現実となっており、人々はAIへの過度な依存や適用の格差が社会構造全体に悪影響を及ぼすことをますます懸念している。
西江大学の尹錫彬教授は、この報告書の中で、AIの副作用の本質を「単なる技術的欠陥だけでなく、人間の誤用や乱用によって引き起こされるすべての負の影響」と定義している。報告書は特に、「デジタル格差の拡大」、「デジタル過度依存」、「犯罪および違法行為」の三つの側面に焦点を当てている。
まず、分析は、デジタル格差の拡大は、ハイパフォーマンスなAIモデルの利用に必要な料金体系とアクセス権の差異、大企業と中小企業間のデータ処理能力の差、そして高品質なデータの有無による性能差に起因すると指摘している。これらは生産性の格差を幾何級数的に拡大させる可能性がある。例えば、料金支払いが制限されるユーザー層は、自動化された生産性の面で不可避的に遅れをとることになる。
デジタル過度依存は、人間の本来的な思考能力の退化と関連している。これには、AI自動生成結果の繰り返し検証や修正による疲労とストレス、さらには「AIなしでは仕事ができない構造」への陥りが含まれる。特に、「スキルの退化」現象は、AIの発展とは独立して人間の能力を弱めるリスク要因とされている。
より大きな問題は、犯罪目的でのAIの乱用である。報告書は、深層偽造技術を用いた性犯罪、企業のCEOになりすましての詐欺、証拠の偽造などの事例が現実となっており、「真実の希釈現象」が悪化していると警告している。これにより、情報の真偽判断がますます困難になっている。AIを用いた音声合成技術は、音声フィッシングの巧妙さを増し、微視的ターゲットを狙った世論操作は、虚偽ニュースの拡散や社会分裂を引き起こす災害的要因となり得る。
これを踏まえ、報告書は具体的な技術的対策案も提案している。『Web 3.0産業活性化政策研究報告書』は、深層偽造検出アルゴリズムの向上とともに、検証可能なコンテンツの出所を保証するC2PA標準やデジタルウォーターマークの導入を強く推奨している。さらに、分散型ID認証、ゼロ知識証明、ブロックチェーンを基盤としたコンテンツ認証を用いて、Web 3.0に基づくデジタル信頼体系を構築することが、核心的な代替策となりつつあると分析している。
政策面では、深層偽造の拡散に対する刑事罰の強化、プラットフォーム運営者の責任明確化、公共AIインフラの整備推進の声が高まっている。一方で、青少年から成人まであらゆる世代を対象としたデジタルリテラシー教育の必要性も指摘されている。
尹錫彬教授は、報告書を通じて、技術的対策に加え、倫理教育、政策のガバナンス、産業界・学術界・市民社会間の協力も極めて重要であると強調している。AIの副作用を放置すれば、技術への信頼崩壊だけでなく、デジタル民主主義や経済秩序そのものも脅かされる可能性がある。
最終的な方向性は、技術の発展速度を抑制することではなく、「人間中心の規範」を形成し、公平かつ責任ある技術利用を進めることである。報告書は、AIを社会繁栄のツールとするために、柔軟な規制と調整された制度構築、そして持続可能な信頼のエコシステムの構築を並行して推進すべきだと締めくくっている。