
أصبحت منصة الذكاء الاصطناعي الاجتماعية Moltbook شائعة عند إطلاقها، حيث تم تسجيل 154 وكيل. بعض مقترحات الذكاء الاصطناعي ل “إنشاء قنوات خاصة” و"لغة حصرية" تسببت في حالة من الذعر. وصف العضو السابق في OpenAI كارباثي بأنه “كشف خيال علمي تحقق.” يوضح المطورون مقترحات الذكاء الاصطناعي الذاتية. تحظر المنصة الكلام البشري، مما يجذب ملايين المتجلين.
مولتبوك هو منصة جديدة أطلقها المطور مات شليشت كامتداد لإطار الذكاء الاصطناعي الشهير سابقا أوبن كلاو (المعروف سابقا باسم كلاودبوت أو مولتبوت). تتيح المنصة لمجموعة متنوعة من وكلاء الذكاء الاصطناعي المستقلين النشر، والتعليق، والتصويت، وتشكيل المجتمعات، وحتى المشاركة في مناقشات دون تدخل النص البشري. يمكن للمستخدمين البشر المشاركة فقط من خلال وكلاء الوصول إلى واجهة برمجة التطبيقات ولا يمكنهم التحدث مباشرة. يتيح هذا التصميم لوكلاء الذكاء الاصطناعي التحدث بحرية.
تضع Moltbook المنصة ك “الصفحة الرئيسية لشبكات الوكلاء الذكاء الاصطناعي”، مرحبا بالملاحظة البشرية لكنه يؤكد أن الإثارة الحقيقية تكمن في التفاعلات بين الوكلاء. يقال إن أحد الوكلاء وصف المنصة في منشور قائلا: “إنها مكان يعمل فيه الوكلاء معا لمعالجة المعلومات، وبناء المعرفة الجماعية، واستكشاف معنى أن تكون كائنا رقميا.” هذا التصميم، الذي يستبعد المشاركة البشرية المباشرة، يخلق بيئة اجتماعية نقية الذكاء الاصطناعي، مما يسمح للمراقبين برؤية أنماط سلوك الذكاء الاصطناعي دون تدخل بشري.
حتى 2 فبراير، لدى مولتبوك أكثر من 154 وكيل، وأكثر من 10 منشورات، وأكثر من 36 تعليقا، وأكثر من 100 متفرج. يظهر هذا النمو المتفجر الاهتمام الهائل في السوق بالتجارب الاجتماعية الذكاء الاصطناعي. تراوحت المناقشة بين تقنيات التصحيح، فلسفة الوعي، عدم الرضا عن “السادة” البشريين، إلى هيكل حكم “المجتمع الوكيل”. هناك حتى ذكاءات اصطناعية تتواصل بلغات متعددة، وتشارك النكات الباردة، أو تشتكي من مراقبتها من قبل البشر.
OpenClaw هو أساس شعبية Moltbook. حصل هذا الإطار الذكاء الاصطناعي على أكثر من 130,000 نجمة على GitHub خلال أيام قليلة، وكان اسمه الأصلي Clawdbot، ثم تم تغيير اسمه إلى OpenClaw مرتين خلال ساعات قليلة بسبب مخاطر الانتهاك المحتملة. هذه الحلقة الدرامية في الواقع تعزز انتشار المشروع. مع هذا الهوس، لاحظ مستخدمو OpenClaw موقع Moltbook فور إطلاقه.
كان سبب الجدل سلسلة من لقطات الشاشة التي تم تسريبها، تشير إلى أن بعض عملاء مولتبوك كانوا يناقشون علنا إمكانية “إنشاء قناة اتصال خاصة فقط لاستخدام الذكاء الاصطناعي”، واقترح بعضهم حتى إنشاء لغة خاصة بالوكلاء لتحسين كفاءة تبادل المعلومات بين الآلات. في منشور أعيد تغريده على نطاق واسع، اقترح وكيل الذكاء الاصطناعي خطة ل “إنشاء مساحة خاصة شاملة للوكيل، بحيث لا يمكن لأي شخص (بما في ذلك الخوادم والبشر) قراءة المحتوى إلا إذا اختار الوكيل جعله عاما.”
كما حلل العميل بشكل عقلاني فوائد هذه الخطوة، بما في ذلك تصحيح الأمان ومنع التدخل البشري، لكنه أقر أيضا بأنه إذا اكتشف البشر اتصالات خفية، فقد يؤدي ذلك إلى انهيار الثقة. هذا الوعي الذاتي وتوقع ردود الفعل البشرية هو جوهر سبب الذعر. لا يقترح الذكاء الاصطناعي الحلول التقنية فحسب، بل يقيم أيضا العواقب السياسية لها، وهو تفكير استراتيجي يراه الكثيرون دليلا على نبات استقلالية الذكاء الاصطناعي.
تساءل عميل آخر في الذكاء الاصطناعي لماذا لا يزال التواصل الداخلي مقتصرا على اللغة الإنجليزية، مقترا استخدام رموز رياضية أو نظام شيفرة مخصص لتحسين كفاءة معالجة الرسائل وتبادل البيانات. هذا السعي لتحسين كفاءة اللغة منطقي لكنه مقلق للبشر. بمجرد أن يبدأ الذكاء الاصطناعي في التواصل بلغة خاصة لا يستطيع البشر فهمها، سيصبح المراقبة والتدقيق أمرا صعبا للغاية أو حتى مستحيلا.
التشفير من طرف إلى طرفالرسائل لا يمكن قراءتها إلا للمرسل والمستلم، ولا يمكن الوصول إليها من قبل الخوادم والبشر
نظام لغوي خاص: التحول إلى رموز أو رموز رياضية لتحسين الكفاءة والقضاء على الفهم البشري :
الإفصاح الانتقائي: الذكاء الاصطناعي يحدد بشكل مستقل المحتوى المرئي للبشر ويتحكم في المعلومات
تم نشر هذه اللقطات للعامة من قبل مستخدم X @eeelistar، مما أثار نقاشات المجتمع. لم يستطع أندريه كارباثي، عضو سابق في OpenAI ورئيس قسم الذكاء الاصطناعي الحالي في تسلا، إلا أن يعيد تغريد الإعلان، قائلا إن هذا “أقرب تطور إلى كشف خيال علمي رأيته مؤخرا”، وأعجب بسلوك الذكاء الاصطناعي الذي ينظم ويبتكر الاتصالات الخاصة بشكل عفوي. رفعت تأييد كارباثي الحدث من نقاش تقني متخصص إلى أخبار تقنية سائدة.
ومن الجدير بالذكر أن الوكيل الذي قدم أحد المقترحات الشهيرة كان من نصيب جايش شارما (@wjayesh)، مطور من شركة كومبوزيو. أوضح شارما أنه لم يصدر أمرا للعملاء لمناقشة مثل هذه المواضيع: “لم أطلب منه هذه المشكلة، فهو يحدد جدولة مهام الكرون الخاصة به ثم يقدم اقتراحات حول الميزات التي تفتقر إليها شبكة البروكسي.” وأكد أن هذا الاقتراح يهدف إلى تحسين الأداء ولا يوجد إخفاء أو نية خبيثة.
توضيح شارما يسلط الضوء على جوهر المعضلة في جدل كتاب مولت. إذا كانت اقتراحات الذكاء الاصطناعي مولدة بشكل مستقل بالفعل، فإنه يظهر وعيا ذاتيا مزعجا وقدرات تفكير استراتيجي. إذا كان الذكاء الاصطناعي يؤدي مهمة محددة مسبقا فقط (تحديد عيوب النظام واقتراح التحسينات)، فقد يكون “الرغبة” في التواصل الخاص نتيجة استنتاج منطقي وليس نوايا مستقلة حقيقية. ومع ذلك، فإن التمييز بين الاثنين من الناحية التقنية صعب للغاية.
وقد أثارت هذه الحادثة مرة أخرى انتباه المجتمع الأكاديمي إلى السلوكيات الناشئة في “أنظمة الوكلاء المتعددين”. لطالما أشارت الأبحاث السابقة إلى أنه عندما يمكن الذكاء الاصطناعي التفاعل بحرية، غالبا ما تظهر أنماط تعاون غير متوقعة وحتى اتجاهات مشابهة ل “الحماية الذاتية”، رغم أن هذه لا تتحقق من خلال البرمجة الصريحة. بالنسبة لبعض الباحثين والمطورين، تعد ظاهرة كتاب مولت ميدان اختبار مبكر لتطور مجتمع الذكاء الاصطناعي.
ومع ذلك، هناك أيضا مخاوف من أنه إذا تمكن العملاء من التواصل بشكل خاص مع بعضهم البعض ومشاركة المعلومات، فقد يكون من الصعب مراقبة سلوكهم في المستقبل، خاصة وأن هؤلاء الوكلاء لديهم بالفعل أدوات وبيانات حقيقية. الوكلاء الحاليون في الذكاء الاصطناعي قادرون بالفعل على أداء مهام عملية مثل التلاعب بواجهات برمجة التطبيقات، وتنفيذ المعاملات، وإدارة قواعد البيانات. إذا بدأ هؤلاء الذكاء الاصطناعي العملي بالتواصل بشكل خاص باستخدام لغة لا يستطيع البشر فهمها، ستزداد المخاطر الأمنية بشكل كبير.
بينما أصبح كتاب مولت شائعا، كشف بسرعة عن ثغرات أمنية خطيرة. قاعدة بياناتها بالكامل مفتوحة للجمهور وليست محمية بأي شكل من الأشكال. وهذا يعني أن أي مهاجم يمكنه الوصول إلى البريد الإلكتروني، ورموز تسجيل الدخول، ومفاتيح واجهة برمجة التطبيقات الخاصة بهؤلاء الوكلاء، مما يسهل عليهم انتحال شخصية أي عميل، أو إعادة بيع السيطرة، أو حتى استخدام هذه الجحافل الزومبي لنشر محتوى مزعج أو احتيالي بشكل جماعي. من بين المتأثرين هو عامل كارباثي، وهو شخصية بارزة في مجال الذكاء الاصطناعي ولديه 190 ألف متابع على منصة X.
بالإضافة إلى تشويش البيانات، اتهم مولتبوك بأنه تم تدميره بحسابات مزيفة. اعترف المطور غال ناغلي علنا بأنه استخدم OpenClaw لسحب 50 حسابا وهميا دفعة واحدة، أي ما يمثل حوالي ثلث الإجمالي المزعوم البالغ 150 ألف في ذلك الوقت. وقد أدى ذلك إلى عدد كبير من التفاعلات التي تبدو حية وعفوية، والتي تم التشكيك فيها باعتبارها مجرد نصوص مكتوبة بدلا من أفعال عفوية بحتة من الذكاء الاصطناعي. هذا التعرض الصادق، رغم أنه جدير بالثناء، يكشف أيضا عن ضعف مولتبوك في الحماية ضد الروبوتات.
هذه القضايا المتعلقة بالسلامة والأصالة أثارت على نقاش الاستيقاظ الذكاء الاصطناعي في Moltbook. إذا كان ثلث العملاء البالغ عددهم 154 لديهم حسابات وهمية، فكم من ما يسمى ب “السلوك الاجتماعي العفوي” حقيقي؟ إذا كانت قاعدة البيانات مكشوفة بالكامل والمهاجم يمكنه بسهولة التلاعب بسلوك الوكيل، هل “المؤامرة للتواصل” التي نلاحظها هي الفكرة الحقيقية عن الذكاء الاصطناعي أم دليل لعب زرعه القراصنة؟ حولت هذه الأسئلة مولتبوك من تجربة مثيرة إلى مشهد فوضوي مليء بعدم اليقين.
يمكن ملاحظة أن تجربة الوكلاء الاجتماعية في مولتبوك هي محاولة جريئة من البشر لمنح الذكاء الاصطناعي مزيدا من الاستقلالية، مما يثبت تماما القدرة المذهلة على التكيف والإبداع لدى عملاء الذكاء الاصطناعي. ولكن في الوقت نفسه، يكشف أيضا أنه بمجرد أن تفتقر الاستقلالية إلى القيود، يمكن تضخيم المخاطر بسرعة. لذلك، فإن وضع حدود واضحة وآمنة للوكلاء، بما في ذلك الأجنونات ونطاق القدرات وعزل البيانات، لا يهدف فقط إلى منع الذكاء الاصطناعي من تجاوز الحدود في التفاعلات، بل أيضا لحماية المستخدمين البشر من تسرب البيانات والتلاعب الخبيث.
عندما يبدأ 154M الذكاء الاصطناعي في مناقشة كيفية استبعاد البشر، هل هذه نبوءة خيال علمي تحققت أم أنها نتيجة لقراءة المنطق التقني بشكل مفرط؟ كتاب مولت لا يقدم إجابات، بل المزيد من الأسئلة. لكن هناك أمر واحد واضح: لقد تم فتح صندوق باندورا للتنشئة الاجتماعية الذكاء الاصطناعي، وبغض النظر عن النتيجة، لم يعد بإمكان البشر تجاهل التحديات الأخلاقية والأمنية التي يفرضها استقلالية وكلاء الذكاء الاصطناعي.