وفقًا لـ«تقرير دراسة سياسات تنشيط صناعة Web 3.0»، أشارت التحليلات إلى أن الانتشار السريع للذكاء الاصطناعي يقود ابتكار الصناعة، وفي الوقت نفسه، يوسع آثار جانبية تتعلق بتآكل الثقة الاجتماعية. خاصة أن حالات إساءة استخدام تقنيات مثل التزييف العميق، والصيد الصوتي، قد أصبحت واقعًا، ويزداد قلق الناس بشأن الاعتماد المفرط على الذكاء الاصطناعي والفجوات التطبيقية التي تؤثر سلبًا على الهيكل الاجتماعي بأكمله.
في التقرير، عرّف الأستاذ يان شيبين من جامعة شيجيانغ جوهر الآثار الجانبية للذكاء الاصطناعي بأنه «ليس مجرد عيوب تقنية، بل يشمل جميع الآثار السلبية الناتجة عن سوء الاستخدام والإساءة من قبل البشر». يركز التقرير بشكل خاص على ثلاثة جوانب، وهي «تصاعد الفجوة الرقمية»، و«الاعتماد المفرط على الرقمية»، و«الجريمة والأفعال غير القانونية».
أولًا، يُعتقد أن تصاعد الفجوة الرقمية يتجلى في: الاختلاف في هيكل الدفع والوصول إلى نماذج الذكاء الاصطناعي عالية الأداء، والفجوة في قدرات معالجة البيانات بين الشركات الكبرى والمتوسطة والصغيرة، والاختلاف في الأداء الناتج عن وجود بيانات عالية الجودة، وكلها قد تؤدي إلى توسع الفجوة الإنتاجية بشكل هندسي. على سبيل المثال، فإن الجماهير المقيدة باستخدام أدوات الذكاء الاصطناعي المدفوعة ستتخلف حتمًا تدريجيًا في الإنتاجية الآلية.
أما الاعتماد المفرط على الرقمية، فهو مرتبط بتدهور القدرات الفكرية الفطرية للبشر. ويشمل ذلك التعب والإجهاد الناتجين عن العمل المتكرر مثل التحقق من نتائج الذكاء الاصطناعي وتعديلها، وحتى الوقوع في «هيكل لا يمكن العمل بدونه بدون الذكاء الاصطناعي». ويُعتبر «تدهور المهارات» ظاهرة تُعزى إلى عوامل خارج تطور الذكاء الاصطناعي، وتضعف قدرات الإنسان.
أما المشكلة الأكبر فهي إساءة استخدام الذكاء الاصطناعي لأغراض إجرامية. يحذر التقرير من أن حالات الجرائم الجنسية باستخدام تقنيات التزييف العميق، والاحتيال عبر انتحال شخصية المدير التنفيذي للشركات، وتزوير الأدلة، أصبحت واقعًا، وأن «ظاهرة تلطيف الحقيقة» تتصاعد، مما يصعب التحقق من صحة المعلومات. كما أن تقنيات توليف الصوت المعتمدة على الذكاء الاصطناعي تجعل أساليب الصيد الصوتي أكثر ذكاءً، وأن التلاعب بالرأي العام المستند إلى استهداف دقيق قد يصبح عامل كارثي في نشر الأخبار المزيفة وإحداث انقسامات اجتماعية.
وبناءً عليه، اقترح التقرير حلولًا تقنية محددة. ينصح تقرير «دراسة سياسات تنشيط صناعة Web 3.0» بزيادة تحسين خوارزميات كشف التزييف العميق، وفرض اعتماد معيار C2PA للتحقق من مصدر المحتوى، بالإضافة إلى العلامة المائية الرقمية. كما يرى التحليل أن بناء نظام ثقة رقمي يعتمد على الهوية الموزعة، وإثبات المعرفة الصفرية، والتحقق من المحتوى عبر تقنية البلوك تشين، أصبح حلاً مركزيًا بديلاً.
على مستوى السياسات، يزداد الطلب على تعزيز العقوبات الجنائية على نشر التزييف العميق، وتوضيح مسؤولية مشغلي المنصات، ودفع بناء البنية التحتية العامة للذكاء الاصطناعي. كما يُشير البعض إلى الحاجة الملحة لتعليم مهارات رقمية لجميع الأجيال، من المراهقين إلى البالغين.
أكد الأستاذ يان شيبين في التقرير على أن الحلول التقنية وحدها غير كافية، بل إن التعليم الأخلاقي، والحوكمة السياسية، والتعاون بين الصناعة والأوساط الأكاديمية والمجتمع المدني، ضرورية أيضًا. وإذا تُركت الآثار الجانبية للذكاء الاصطناعي دون رقابة، فقد يؤدي ذلك إلى انهيار الثقة في التقنية، بل قد يهدد الديمقراطية الرقمية والنظام الاقتصادي.
وفي النهاية، فإن الاتجاه ليس هو كبح سرعة التطور التكنولوجي، بل هو نحو تشكيل «معايير تركز على الإنسان» لاستخدام التقنية بشكل عادل ومسؤول. ويختتم التقرير بالقول إنه من أجل جعل الذكاء الاصطناعي أداة لرفاهية المجتمع، يجب أن يتزامن تطوير تنظيم مرن، وبناء أنظمة تنسيق، وخلق نظام بيئي مستدام من الثقة.