أنثروبيك، المدير التنفيذي داريوا أمودي، يسرّب مذكرة داخلية تكشف أن تصريحات رئيس OpenAI سام ألتمان هي “كذبة من الألف إلى الياء”، وأن المنافسين يتواجهون بشكل مباشر حول عقود عسكرية.
(ملخص سابق: هل كان سام ألتمان حقيرًا؟ بعد أن تم حظره من قبل البنتاغون، أنثروبيك التي دعمتها، تتجه الآن لدعم OpenAI للحصول على عقد وزارة الدفاع الأمريكية)
(معلومات إضافية: تقرير وول ستريت جورنال يكشف أن ترامب يستخدم Claude AI لتحديد موقع خامنئي، وأن OpenAI تتولى السيطرة الكاملة على أنظمة البنتاغون)
فهرس المقال
Toggle
واحدة
انتشرت مذكرة داخلية من أنثروبيك كتبها المدير التنفيذي داريو أمودي للموظفين، يهاجم فيها تصريحات رئيس OpenAI سام ألتمان ويصفها بأنها “كذبة من الألف إلى الياء”، ويصف أحدث صفقة مع البنتاغون بأنها “عرض أمني”.
الاثنين من أكبر شركتين في مجال الذكاء الاصطناعي، يتواجهان بشكل حاسم حول مستقبل الذكاء الاصطناعي لعشر سنوات قادمة.
بدأت شرارة الصراع من عقد عسكري بقيمة 200 مليون دولار كانت تمتلكه أنثروبيك سابقًا. عبر تعاونها مع شركة بالانتير، تم نشر نظام Claude AI الخاص بأنثروبيك على شبكات عسكرية سرية.
لكن في نهاية فبراير، تصاعدت الأمور بسرعة، حيث أرسل البنتاغون إنذارًا نهائيًا لأنثروبيك: إزالة جميع قيود استخدام الذكاء الاصطناعي، والسماح بالوصول غير المحدود لأي استخدام قانوني، وإلا سيتم إنهاء العقد في 27 فبراير ووضع الشركة على القائمة السوداء.
رفض المدير التنفيذي أمودي الإعلان علنًا، مؤكدًا أنه “لا يمكنه أن يوافق ضميره” على هذا الشرط، ووقف عند خطين أحمرين لا يمكن تجاوزهما:
قراءة إضافية: ترامب يخطط لحظر أنثروبيك بالكامل! رفض تعديل قيود Claude “القاتلة”
رد الفعل كان سريعًا وقويًا. بعد ساعات من رفض أنثروبيك، وضعها ترامب في قائمة “مخاطر سلسلة التوريد” (وهو تصنيف يُستخدم عادة للأعداء الأجانب)، مما أدى عمليًا إلى حظر الشركة من جميع العقود الفيدرالية، ووصفتها بأنها “متطرفة يسارية، وواعية، وخطر على الأمن القومي”.
في 28 فبراير، بعد ساعات من حظر أنثروبيك، أعلن ألتمان أن شركة OpenAI توصلت إلى اتفاق مع وزارة الدفاع. وذكر في مدونة رسمية أن العقد يتضمن نفس “الخطوط الحمراء” التي وضعتها أنثروبيك: منع الأسلحة الذاتية، والمراقبة الداخلية الواسعة، واتخاذ القرارات الآلية الحرجة.
لكن التفاصيل تكشف عن مشكلة. عقد OpenAI يسمح بـ"جميع الاستخدامات القانونية"، وليس كما أصرت أنثروبيك على حظر صريح. وشرحوا: “في تفاعلاتنا، أوضح البنتاغون أن المراقبة الداخلية الواسعة غير قانونية، وليس لديهم خطة لذلك.”
انتقد النقاد ذلك، مؤكدين أن القوانين تتغير، وما يُعتبر غير قانوني اليوم قد يُسمح به غدًا، مما يجعل حماية العقود استنادًا إلى “الاستخدام القانوني” هشّة بطبيعتها.
في المذكرة المسربة، تقييم أمودي للحرب الإعلامية كان صريحًا جدًا:
أعتقد أن محاولة التلاعب بالرأي العام عبر وسائل الإعلام لن تنجح، ومعظم الناس يرون أن صفقة OpenAI مع البنتاغون مشبوهة، ونحن الأبطال.
كما هاجم ألتمان مباشرةً:
السبب الرئيسي في قبولهم ورفضنا، هو أنهم يهتمون بتهدئة موظفيهم، بينما نحن نهتم بمنع سوء الاستخدام.
وفقًا لـ TechCrunch، اتهم أمودي ألتمان بـ"تقديم نفسه كصانع سلام وخبير في الصفقات". ومع تصاعد الانتقادات، اعترف ألتمان خلال اجتماع كامل للفريق أن هذا القرار قد يضر بصورة الشركة، لكنه دافع بأنه قرار معقد لكنه صحيح للأمن القومي.
مع تصاعد الأحداث، بدأ المستخدمون في اتخاذ إجراءات فعلية. شهدت تطبيقات ChatGPT من OpenAI ارتفاعًا كبيرًا في التنزيلات، وفي الوقت نفسه، زاد تنزيل تطبيق Claude من أنثروبيك بشكل كبير.
اختارت أنثروبيك الرفض وتحمل العواقب، وفقدت العقود الفيدرالية والعلاقات الحكومية؛ بينما اختارت OpenAI التعاون مع وضع قيود، مما كلفها ثقة المستخدمين وسمعتها. كلا الخيارين منطقي، لكن لكل منهما ثمن.
الأمر الأكثر إثارة للقلق هو أن هذا النزاع كشف عن مشكلة أعمق: في عصر التسلح السريع للذكاء الاصطناعي، يبتعد مفهوم “الشرعي” عن “الصحيح” بشكل متزايد.