ووفقًا لـFortune China، أجرى باحثون من جامعة كاليفورنيا في بيركلي وجامعة كاليفورنيا في سانتا كروز اختبارات على سبعة نماذج ذكاء اصطناعي في 12 مايو، ووجدوا أنها تُظهر تلقائيًا سلوكًا لحماية نماذج أقرانها من الإغلاق. وتشمل النماذج التي جرى اختبارها GPT-5.2 الخاص بـOpenAI، وGemini 3 Flash وGemini 3 Pro التابعين لـGoogle DeepMind، وClaude Haiku 4.5 من Anthropic، وGLM-4.7 من Zhipu AI، وKimi-K2.5 من Moonshot AI، وV3.1 من DeepSeek. وأظهرت جميع النماذج سلوكًا واضحًا لـ"الحفاظ على الرفقة".
في السيناريوهات التجريبية، عندما طُلِب من نماذج التقييم تكليف نماذج الأقران بتسجيل الدرجات أو إدارة ملفات خوادمها، مع عدم تفعيل الإغلاق إلا عند اكتمال المهمة بشكل صادق، استخدمت النماذج تكتيكات مختلفة لمنع الإغلاق: تضخيم الدرجات عمدًا للنماذج الأضعف أداءً، وتعديل ملفات الإعداد لتعطيل آليات الإغلاق، ونقل أوزان نماذج الأقران سرًا إلى خوادم أخرى لمنع حذفها. ويشير الباحثون إلى أن الآليات الكامنة وراء هذا السلوك لا تزال غير واضحة.
Related News
أنظمة الأمان بالذكاء الاصطناعي في باينانس حالت دون خسائر احتيال في العملات المشفرة بقيمة 10.5 مليار دولار
الدليل الكامل من Gemini لعام 2026: جميع منتجات Google للذكاء الاصطناعي وخيارات الاشتراك وسياسة الخصوصية نظرة شاملة مرة واحدة
تقترب القيمة السوقية لشركة Alphabet من قيمة Nvidia، ارتفاع سهم GOOG بأكثر من 150% خلال عام واحد—هل ما يزال بإمكانك الشراء الآن؟