ملخص سريع
بعد ساعات من إصدار الرئيس دونالد ترامب أمرًا للوكالات الفيدرالية بوقف استخدام أدوات الذكاء الاصطناعي من أنثروبيك، نفذت القوات المسلحة الأمريكية غارة جوية كبيرة على إيران، والتي يُقال إنها اعتمدت على منصة كلاود من أنثروبيك. أكد أشخاص مطلعون على الأمر لـ وول ستريت جورنال يوم السبت أن القيادة المركزية الأمريكية استخدمت كلاود لتقييمات الاستخبارات، وتحديد الأهداف، ومحاكاة سيناريوهات المعركة خلال ضربات إيران. وجاء ذلك رغم توجيه ترامب يوم الجمعة بأن تبدأ الوكالات في إيقاف استخدام منتجات أنثروبيك تدريجيًا خلال ستة أشهر، بعد فشل المفاوضات بين الشركة والبنتاغون حول كيفية استخدام النظام الذكي التجاري. تواصلت ديكريبت مع وزارة الدفاع وأنثروبيك للحصول على تعليق.
قال ميدهون كريشنا إم، الشريك المؤسس والمدير التنفيذي لمتابعة تكاليف نماذج اللغة الكبيرة TknOps.io، لـ ديكريبت: “عندما تكون أدوات الذكاء الاصطناعي مدمجة بالفعل في أنظمة الاستخبارات والمحاكاة الحية، فإن القرارات على أعلى المستويات لا تترجم فورًا إلى تغييرات على الأرض. هناك تأخير—تقني، وإجرائي، وبشري.” وأضاف: “بحلول الوقت الذي يتم فيه دمج نموذج في أنظمة الاستخبارات والمحاكاة السرية، فإنك تواجه تكاليف تكامل غارقة، وإعادة تدريب، وإعادة اعتماد الأمان، واختبارات موازية، لذا قد يبدو أن الإزالة التدريجية لمدة ستة أشهر حاسمة، لكن العبء المالي والتشغيلي الحقيقي أعمق بكثير.” وقال كريشنا: “الوكالات الدفاعية ستعطي الآن أولوية لنقل النماذج ووجود نسخ احتياطية.” وتابع: “لا يرغب أي مشغل عسكري جاد في اكتشاف خلال أزمة أن طبقة الذكاء الاصطناعي الخاصة به هشة سياسيًا.”
قال الرئيس التنفيذي لأنثروبيك داريو أموداي يوم الخميس إن الشركة لن تزيل التدابير الوقائية التي تمنع نشر كلاود للمراقبة الجماعية الداخلية أو الأسلحة الذاتية بالكامل. كتب أموداي: “لا يمكننا بضمير حي أن نوافق على طلبهم”، بعد أن طالبت وزارة الدفاع المقاولين بالسماح باستخدام أنظمتهم لأي استخدام قانوني. وكتب ترامب لاحقًا على Truth Social: “لقد ارتكب أنثروبيك خطأ كارثيًا بمحاولة فرض الأمر على وزارة الحرب”، وأمر الوكالات بـ"وقف جميع استخدامات أنثروبيك على الفور." تبع ذلك وزير الدفاع بيت هيجسث، الذي صنف أنثروبيك على أنه “خطر على الأمن القومي في سلسلة التوريد”، وهو تصنيف كان يُخصص سابقًا للأعداء الأجانب، مما يمنع كل المقاولين والشركاء في البنتاغون من التعامل التجاري مع الشركة. ووصفت أنثروبيك التصنيف بأنه “غير مسبوق” وتعهدت بمواجهته في المحكمة، قائلة إنه “لم يُطبق من قبل علنًا على شركة أمريكية.” وأضافت أن، حسب علمها، لم تؤثر القيود المتنازع عليها على أي مهمة حكومية حتى الآن. قال كريشنا: “النقاش ليس حول ما إذا كان سيتم استخدام الذكاء الاصطناعي في الدفاع، فهذا يحدث بالفعل. السؤال هو هل يمكن لمختبرات الحدود الحفاظ على حواجز مميزة بمجرد أن تصبح أنظمتها أصولًا تشغيلية بموجب عقود ‘أي استخدام قانوني’.” تحركت OpenAI بسرعة لملء الفراغ، حيث أعلن الرئيس التنفيذي سام ألتمان عن صفقة مع البنتاغون ليلة الجمعة تتعلق بالشبكات العسكرية المصنفة، مدعيًا أنها تتضمن نفس الحواجز التي طلبتها أنثروبيك.
أمس توصلنا إلى اتفاق مع وزارة الحرب لنشر أنظمة ذكاء اصطناعي متقدمة في بيئات مصنفة، وطلبنا منهم جعلها متاحة لجميع شركات الذكاء الاصطناعي.
نعتقد أن نشرنا يحتوي على مزيد من الحواجز مقارنة بأي اتفاق سابق للذكاء الاصطناعي المصنف…
— OpenAI (@OpenAI) 28 فبراير 2026
سُئل عما إذا كانت القائمة السوداء الفعالة التي وضعتها البنتاغون ضد أنثروبيك تمهد لسابقة مقلقة للنزاعات المستقبلية مع شركات الذكاء الاصطناعي، رد الرئيس التنفيذي لـ OpenAI سام ألتمان على X: "نعم؛ أعتقد أنها سابقة مخيفة جدًا، وأتمنى أن يكونوا قد تعاملوا معها بطريقة مختلفة. وأضاف: “لا أعتقد أن أنثروبيك تعاملت معها بشكل جيد أيضًا، لكن كطرف أكثر قوة، أحمّل الحكومة المسؤولية أكثر. ما زلت آمل في حل أفضل بكثير”، على حد قوله. وفي الوقت نفسه، وقع قرابة 500 موظف من OpenAI وGoogle رسالة مفتوحة تحذر من أن البنتاغون يحاول دفع شركات الذكاء الاصطناعي إلى التصادم مع بعضها البعض.