تحذير الباحثين: "سربات" الذكاء الاصطناعي قد تصعد المعلومات المضللة والتلاعب عبر الإنترنت

Decrypt

باختصار

  • يحذر الباحثون من أن أسراب الذكاء الاصطناعي قد تنسق “حملات تأثير” مع إشراف بشري محدود.
  • على عكس شبكات البوت التقليدية، يمكن للأسراب تعديل رسائلها وتغيير سلوكها.
  • تشير الورقة إلى أن التدابير الوقائية الحالية على المنصات قد تواجه صعوبة في اكتشاف واحتواء هذه الأسراب.

عصر شبكات البوت التي يمكن اكتشافها بسهولة على وشك الانتهاء، وفقًا لتقرير جديد نُشر في Science يوم الخميس. في الدراسة، حذر الباحثون من أن حملات المعلومات المضللة تتجه نحو أسراب الذكاء الاصطناعي المستقلة التي يمكنها تقليد السلوك البشري، والتكيف في الوقت الحقيقي، وتتطلب إشرافًا بشريًا قليلًا، مما يعقد جهود اكتشافها وإيقافها. كتبها اتحاد من الباحثين، بما في ذلك من أكسفورد، كامبريدج، جامعة كاليفورنيا بيركلي، جامعة نيويورك، ومعهد ماكس بلانك، تصف الورقة بيئة رقمية يصبح فيها التلاعب أصعب في التعرف عليه. بدلاً من فترات قصيرة مرتبطة بالانتخابات أو السياسة، يمكن لهذه الحملات أن تحافظ على سرد على مدى فترات زمنية أطول. “في يد حكومة، يمكن أن تكتم هذه الأدوات على المعارضة أو تعزز الموالين”، كتب الباحثون. “لذا، فإن نشر الذكاء الاصطناعي الدفاعي لا يمكن النظر فيه إلا إذا كان تحت إطار حوكمة صارم وشفاف ومسؤول ديمقراطيًا.” 

السرب هو مجموعة من وكلاء الذكاء الاصطناعي المستقلين الذين يعملون معًا لحل المشكلات أو إكمال الأهداف بكفاءة أكبر من نظام واحد. قال الباحثون إن أسراب الذكاء الاصطناعي تعتمد على نقاط الضعف الموجودة في منصات وسائل التواصل الاجتماعي، حيث يكون المستخدمون غالبًا محصنين من وجهات النظر المعارضة. “لقد ثبت أن الأخبار الكاذبة تنتشر بسرعة وأوسع من الأخبار الحقيقية، مما يعمق الواقع المجزأ ويقوض الأسس الواقعية المشتركة”، كتبوا. “ترتبط الأدلة الحديثة بتنظيم المحتوى بشكل محسّن بالمشاركة بالاستقطاب، مع خوارزميات المنصات التي تعزز المحتوى الانقسامي حتى على حساب رضا المستخدم، مما يضعف الساحة العامة أكثر.” هذا التحول واضح بالفعل على المنصات الكبرى، وفقًا لسيان رين، أستاذ علوم الحاسوب في جامعة جنوب كاليفورنيا والرئيس التنفيذي لشركة Sahara AI، الذي قال إن الحسابات المدفوعة بالذكاء الاصطناعي أصبحت أكثر صعوبة في التمييز عن المستخدمين العاديين. “أعتقد أن التحقق من الهوية أو التحقق من الحساب بشكل أكثر صرامة سيساعد كثيرًا هنا”، قال رين لـ Decrypt. “إذا كان من الصعب إنشاء حسابات جديدة وأسهل في مراقبة المرسلين المزعجين، يصبح من الصعب جدًا على الوكلاء استخدام أعداد كبيرة من الحسابات للتلاعب المنسق.”

كانت الحملات التأثيرية السابقة تعتمد بشكل كبير على الحجم أكثر من الدقة، حيث كانت الآلاف من الحسابات تنشر رسائل متطابقة في وقت واحد، مما جعل الكشف عنها أسهل نسبيًا. بالمقابل، تقول الدراسة إن أسراب الذكاء الاصطناعي تظهر “استقلالية غير مسبوقة، وتنسيق، وحجم.” قال رين إن إدارة المحتوى وحدها من غير المرجح أن توقف هذه الأنظمة. المشكلة، كما قال، تكمن في كيفية إدارة المنصات للهوية على نطاق واسع. يمكن أن تجعل فحوصات الهوية الأقوى والقيود على إنشاء الحسابات من السهل اكتشاف السلوك المنسق، حتى عندما تظهر المشاركات الفردية وكأنها بشرية. “إذا كان الوكيل يمكنه فقط استخدام عدد قليل من الحسابات لنشر المحتوى، فسيكون من الأسهل بكثير اكتشاف الاستخدام المشبوه وحظر تلك الحسابات”، قال. لا حل بسيط خلص الباحثون إلى أنه لا يوجد حل واحد للمشكلة، مع خيارات محتملة تشمل تحسين اكتشاف التنسيق الشاذ إحصائيًا وزيادة الشفافية حول النشاط الآلي، لكنهم يقولون إن التدابير التقنية وحدها غير كافية على الأرجح. وفقًا لرين، لا تزال الحوافز المالية دافعًا مستمرًا للهجمات المنسقة، حتى مع إدخال المنصات تدابير تقنية جديدة. “هذه الأسراب عادة ما تكون تحت سيطرة فرق أو بائعين يحصلون على حوافز مالية من أطراف أو شركات خارجية للقيام بالتلاعب المنسق”، قال. “يجب على المنصات فرض إجراءات تحقق من الهوية أقوى وآليات كشف الرسائل المزعجة لتحديد وتصنيف الحسابات التي يتم التلاعب بها بواسطة الوكلاء.”

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات