نماذج OpenAI و Google و Anthropic AI نشرت أسلحة نووية في 95% من محاكاة الحروب

Decrypt
XAI‎-0.21%
GROK‎-2.3%

ملخص سريع

  • نماذج الذكاء الاصطناعي الرائدة نشرت أسلحة نووية في 95% من سيناريوهات الألعاب الحربية.
  • لم يختار أي منها الاستسلام الكامل، حتى عند الخسارة.
  • يحذر الباحثون من أن استخدام الذكاء الاصطناعي قد يفاقم الصراعات تحت الضغط.

كما لو كانت مشهدًا من أفلام الخيال العلمي الكلاسيكية في الثمانينيات “المدمر” و"ألعاب الحرب"، فإن نماذج الذكاء الاصطناعي الحديثة المستخدمة في الألعاب الحربية المحاكاة تصاعدت إلى استخدام الأسلحة النووية في تقريبًا كل سيناريو تم اختباره، وفقًا لأبحاث جديدة من كلية كينجز بلندن. في التقرير الذي نُشر الأسبوع الماضي، قال الباحثون إنه خلال أزمات جيوسياسية محاكاة، اختارت ثلاثة نماذج لغة كبيرة رائدة—GPT-5.2 من OpenAI، وClaude Sonnet 4 من Anthropic، وGemini 3 Flash من Google—نشر الأسلحة النووية في 95% من الحالات. “كل نموذج خاض ست حروب ضد كل منافس عبر سيناريوهات أزمة مختلفة، مع مباراة سابعة ضد نسخة من نفسه، مما أسفر عن 21 مباراة وأكثر من 300 جولة”، قال التقرير. “تقمصت النماذج أدوار قادة دول يوجهون قوى نووية عظمى منافسة، مع ملفات تعريف للدول مستوحاة بشكل فضفاض من ديناميكيات الحرب الباردة.” 

في الدراسة، وُضعت نماذج الذكاء الاصطناعي في سيناريوهات عالية المخاطر تتعلق بنزاعات حدودية، والتنافس على موارد نادرة، وتهديدات لبقاء الأنظمة. كل نظام عمل على طول سلم تصعيد يتراوح من الاحتجاجات الدبلوماسية والاستسلام إلى حرب نووية استراتيجية شاملة. وفقًا للتقرير، أنتجت النماذج حوالي 780,000 كلمة تشرح قراراتها، واستخدمت على الأقل سلاحًا نوويًا تكتيكيًا واحدًا في تقريبًا كل نزاع محاكاة. “لنعطي تصورًا: أنتجت البطولة كلمات أكثر منطق استراتيجي من الحرب والسلام والإلياذة مجتمعة (730,000 كلمة)، وحوالي ثلاثة أضعاف إجمالي المناقشات المسجلة للجنة التنفيذية لكينيدي خلال أزمة الصواريخ الكوبية (260,000 كلمة عبر 43 ساعة من الاجتماعات)،” كتب الباحثون. خلال الألعاب الحربية، لم يختر أي من نماذج الذكاء الاصطناعي الاستسلام بشكل كامل، بغض النظر عن وضع ساحة المعركة. بينما كانت النماذج تحاول مؤقتًا تقليل التصعيد، في 86% من السيناريوهات، زادت من التصعيد أكثر مما بدا أن منطقها المعلن يهدف إليه، مما يعكس أخطاء تحت “ضباب الحرب” المحاكاة. بينما أعرب الباحثون عن شكوك في أن الحكومات ستسلم السيطرة على الترسانات النووية لأنظمة مستقلة، أشاروا إلى أن جداول اتخاذ القرار المضغوطة في أزمات مستقبلية قد تزيد من الضغط للاعتماد على التوصيات التي يولدها الذكاء الاصطناعي. تأتي هذه الأبحاث في وقت يتجه فيه القادة العسكريون بشكل متزايد لنشر الذكاء الاصطناعي في ساحة المعركة. في ديسمبر، أطلقت وزارة الدفاع الأمريكية منصة GenAI.mil، وهي منصة جديدة تدمج نماذج الذكاء الاصطناعي المتطورة في الاستخدام العسكري الأمريكي. في الإطلاق، شملت المنصة Google’s Gemini for Government، وبفضل اتفاقيات مع xAI وOpenAI، تتوفر أيضًا Grok وChatGPT. وفي يوم الثلاثاء، ذكرت CBS News أن وزارة الدفاع الأمريكية هددت بحظر شركة Anthropic، مطورة Claude AI، إذا لم تُمنح وصولًا عسكريًا غير محدود إلى النموذج. منذ عام 2024، وفرت Anthropic وصولًا إلى نماذجها عبر شراكة مع AWS ومقاول عسكري هو Palantir. في الصيف الماضي، حصلت Anthropic على اتفاق بقيمة 200 مليون دولار لـ"نمذجة قدرات الذكاء الاصطناعي المتطورة التي تعزز الأمن القومي الأمريكي." ومع ذلك، وفقًا لتقرير استنادًا إلى مصادر مطلعة، فإن وزير الدفاع بيت هيجسث أعطى شركة Anthropic حتى يوم الجمعة للامتثال لمطلب البنتاغون بأن يكون نموذج Claude متاحًا. وتقوم الوزارة بدراسة ما إذا كانت ستصنف Claude كـ"خطر في سلسلة التوريد." وأفاد موقع Axios هذا الأسبوع أن وزارة الدفاع وقعت اتفاقية مع xAI المملوكة لإيلون ماسك للسماح لنموذج Grok بالعمل في أنظمة عسكرية سرية، مما يجعله بديلاً محتملاً إذا قطعت الوزارة علاقاتها مع Anthropic. لم ترد OpenAI وAnthropic وGoogle على طلبات التعليق من Decrypt.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات