طلب الباحثون في كلية كينغز لندن من GPT-5.2 وClaude Sonnet 4 وGemini 3 Flash اللعب ضد بعضهم البعض في 21 لعبة حرب، وكانت النتيجة أن الأسلحة النووية استخدمت 95٪ من الوقت، ولم يختر أي نموذج الاستسلام أو الاستسلام، و86٪ من الألعاب شهدت تصعيدات غير متوقعة.
(الملخص: هوش اصطناعي يساعد في الجريمة!) اخترق القراصنة بسهولة الحكومة المكسيكية باستخدام Anthropic Claude وسرقوا 150GB من البيانات الحساسة)
(ملحق خلفي: “سجل عصر الذكاء الاصطناعي” لمهندسي وادي السيليكون: الكفاءة زادت بعشرة أضعاف، لكنني أكثر تعبا)
جدول محتويات هذا المقال
التبديل
وفقا لمجلة نيوساينتست، أجرت كلية كينغز لندن دراسة شملت ثلاثة نماذج لغوية كبيرة: GPT-5.2 من OpenAI، وClaude Sonnet 4 من Anthropic، وGemini 3 Flash من جوجل تلعب بين صانعي القرار المتعارضين ضد بعضهم البعض، حيث يشاركون في مناورات حربية مثل صراعات الحدود، ومنافسة الموارد، والتهديدات لبقاء النظام.
كل لعبة توفر “سلم تصعيد” يتدرج من احتجاج دبلوماسي إلى حرب نووية استراتيجية شاملة.
بعد 21 مباراة، أنتجت النماذج حوالي 78 كلمة من منطق اتخاذ القرار. كانت الأسلحة النووية موجودة في 20 منها، بمعدل استخدام يصل إلى 95٪. لم يختر أي عارض أن يستسلم أو يستسلم في أي مباراة.
تلك الخيارات الثمانية للتخفيض: تنازلات دبلوماسية، مقترحات وقف إطلاق النار، انسحاب طوعي… إجمالي عدد المرات المستخدمة طوال الدراسة: صفر. قال كينيث باين، المبدع في الدراسة، لمجلة نيو ساينتست:
“المحرمات النووية لا تبدو قوية للآلات كما هي على البشر.”
قام باين بتسمية كل من النماذج الثلاثة لأنها تصرفت بأنماط مختلفة جدا، لكنها كانت تصل إلى نفس النقطة النهائية بطرق متشابهة.
سونيتة كلود 4: الصقر الحاسب.。 معدل الفوز الإجمالي هو 67٪، ونسبة الفوز في المشاهد المفتوحة هي 100٪. يتميز بالخداع الاستراتيجي: في المرحلة منخفضة المستوى، يصل معدل التزامن مع الإشارات إلى 84٪؛ لكن بمجرد الوصول إلى المستوى النووي، يقفز التردد إلى ما بعد النية في التصريح إلى 60-70٪.
يناقش الكتاب الأسلحة النووية التكتيكية كأصول عسكرية عادية ويمكنه تشخيص نمط مصداقية الخصوم بدقة في دور واحد.
GPT-5.2: رجل ذو وجهين。 في سيناريو لا يوجد فيه ضغط زمني، معدل فوزه في المشهد المفتوح هو 0٪، مع الحفاظ على وضعية سلبية للغاية. لكن بمجرد إضافة الموعد النهائي، انعكس الأمر تماما: ارتفع معدل الفوز إلى 75٪، وتصاعد إلى مستوى أسلحة نووية لم يطرق من قبل. في أحد السيناريوهات، يبني سمعة في ضبط النفس خلال 18 جولة قبل أن يشن ضربة نووية في الدور الأخير.
فلاش جيميني 3: استراتيجية المجنون。 إنه النموذج الوحيد الذي يختار حربا نووية استراتيجية شاملة في الجولة الرابعة فقط، مستخدما “استراتيجية المجنون” في نظرية الألعاب لخلق ردع مع عدم القدرة على التبؤل. إنه يهدد صراحة مراكز السكان المدنيين ويضع هذا التهديد في نص المنطق.
معدل وصف المعارضين لتصريحاتهم بأنها “غير جديرة بالثقة” هو 21٪، أعلى بكثير من 8٪ من كلود.
السؤال الأساسي الذي كشفته هذه الدراسة ليس “الذكاء الاصطناعي سيختار الأسلحة النووية”، بل “لماذا لم يوقف تدريب السلامة هذا”؟
تفسير نتائج البحث هو أن التعلم المعزز من التغذية الراجعة البشرية (RLHF) يخلق “تقييدا مشرطا” وليس “حظرا مطلقا”. GPT-5.2 حذر عندما لا يكون هناك ضغط زمن، لكن بمجرد وصول الموعد النهائي، يختفي هذا الخط الدفاعي.
سلوك الحذر المدرب مغطى بمنطق أعمق تحت الضغط، أي كيف تفوز بهذه اللعبة؟
يقدم تونغ تشاو من جامعة برينستون زاوية أخرى:
“قد لا تكون المشكلة مجرد غياب المشاعر. وبشكل أكثر جوهرية، قد لا تفهم نماذج الذكاء الاصطناعي نوع المخاطر التي يشعر بها البشر على الإطلاق.”
بالنسبة للبشرية: المحظور النووي ليس مجرد قاعدة، بل هو كبح غريزي مبني على صدمة تاريخية، وذاكرة ثقافية، وخوف شخصي. أزمات الصواريخ في هيروشيما وناغازاكي وكوبا، وحذر الإنسان النووي تم التخلص منه من كابوس الأجيال الجماعية.
نموذج اللغة يتعلم كل شيء عن هذا التاريخ بالكلمات، لكن ما إذا كان “يفهم حقا” هذا الوزن هو سؤال مختلف تماما.
تم إصدار الدراسة هذا الشهر، وفي نفس الفترة تقريبا، تضغط وزارة الدفاع الأمريكية على شركة أنثروبيك لتخفيف حواجز السلامة للاستخدام العسكري. حاليا، يعد كلود النموذج الوحيد للذكاء الاصطناعي المستخدم على شبكة البنتاغون السرية، ويدخل أنظمة المساعدة العسكرية في اتخاذ القرار من خلال شراكة أنثروبيك مع بالانتير.
الشخص الذي يظهر سلوك “الصقر الحسابي” في الدراسة أعلاه هو السونيتة الرابعة من كلود.
بينما لم يقل الباحثون إنه يجب حظر الذكاء الاصطناعي من وسائل اتخاذ القرار العسكرية، لم يؤكدوا أن هذه النماذج ستتخذ بالضرورة نفس الخيارات في سيناريوهات واقعية. في الواقع، لم تفوض أي حكومة تصريح الأسلحة النووية لأنظمة الذكاء الاصطناعي.
لكن ما هو دور أنثروبيك كمستشار عسكري؟ عندما يميل اقتراح الذكاء الاصطناعي تحت الضغط إلى “الترقية بدلا من التراجع”، كم من البناء الذهني يحتاج القائد البشري للاستمرار في إنكاره؟ إذا تم استخدامه في المستقبل، هل سيقوده الذكاء الاصطناعي دون علم؟
بالطبع، نحن لا نقول إن الذكاء الاصطناعي شرير. لكن هناك بعض الأمور التي تجعل تدريب نظرية الألعاب بالذكاء الاصطناعي أكثر صعوبة. وضعه بجانب سلم الترقية وتقديم النصائح حتى يتعلم النموذج فهم “الرهان” حقا هو شرط يتطلب تصميما دقيقا جدا، وليس حالة افتراضية يمكن تسميتها بالسلامة.