وفقًا لصحيفة وول ستريت جورنال، استخدم المركز العسكري الأمريكي (CENTCOM) نظام Claude AI من Anthropic في عمليات قصف إيران، لتوفير تحليل المعلومات، وتحديد الأهداف، ومحاكاة ساحة المعركة — ومع ذلك، لم تمر سوى ساعات قليلة على توقيع ترامب لأمر تنفيذي يمنع استخدام Anthropic. هذا الحدث يبرز أن الذكاء الاصطناعي قد تم دمجه بشكل عميق في البنية التحتية الدفاعية، مما يصعب فصله حتى مع إصدار أوامر من الرئيس. تم طرد Anthropic من قبل البنتاغون لرفضها رفع القيود على الأسلحة الذاتية وعمليات المراقبة الواسعة، وتولت OpenAI بسرعة المهمة.
(ملخص سابق: ترامب يخطط لحظر كامل لـ Anthropic! رفض تعديل قيود Claude على “القتل”، وOpenAI تتدخل بشكل غير متوقع لدعمها)
(معلومات إضافية: البنتاغون يواجه Anthropic! يطالب بفتح استخدام Claude للأغراض العسكرية “وإلا فسوف نلغي العقد”)
فهرس المقال
تبديل
عندما أصدر ترامب الأسبوع الماضي أمرًا بوقف استخدام تقنيات Anthropic بشكل كامل، ووزير الدفاع يدرجها ضمن “مخاطر سلسلة التوريد”، استمرت القوات الأمريكية في تنفيذ عملياتها في إيران باستخدام Claude AI. هذا المشهد المتناقض يكشف عن واقع مقلق: مدى تغلغل الذكاء الاصطناعي في النظام العسكري، الذي يتجاوز نطاق الأوامر التنفيذية التي يمكنها أن تؤثر عليه بسرعة.
وفقًا لمصادر لصحيفة وول ستريت جورنال، في عملية “غضب الملحمة” (Operation Epic Fury) لقصف إيران، استمر المركز العسكري الأمريكي في استخدام Claude لأداء مهام حيوية — بما في ذلك تحليل البيانات الاستخبارية، وتحديد الأهداف، ومحاكاة سيناريوهات ساحة المعركة.
وقعت Anthropic العام الماضي عقدًا أوليًا لمدة عامين بقيمة تصل إلى 200 مليون دولار مع البنتاغون، عبر شراكة مع Palantir وAmazon Web Services، ليصبح Claude أول نموذج ذكاء اصطناعي تجاري يُسمح له بالعمل على الشبكة السرية للبنتاغون، ويشمل استخدامه اختبار الأسلحة والتواصل الفوري في ساحة المعركة. وذكرت تقارير أن النظام ساعد أيضًا في تتبع تحركات الرئيس الفنزويلي مادورو في يناير من هذا العام.
جوهر النزاع هو أن البنتاغون طلب من Anthropic إزالة قيود الاستخدام في العقد، والسماح لـClaude بالاستخدام “للجميع الأغراض القانونية”؛ لكن الرئيس التنفيذي لـAnthropic، داريو أموديي، رفض التنازل، وأصر على خطين أخلاقيين:
أوضح أموديي أن الشركة تعارض استخدام الذكاء الاصطناعي في “المراقبة الداخلية الواسعة” و"الأسلحة الذاتية"، مؤكدًا أن القرارات العسكرية يجب أن يسيطر عليها البشر، وليس الخوارزميات. وكتب في بيان: “لا يمكننا أن نجيب على طلباتهم بضمير مرتاح.”
على الفور، أدرج وزير الدفاع بيت هيجسث، Anthropic ضمن “مخاطر سلسلة التوريد”، وأصدر ترامب أمرًا مباشرًا لجميع الوكالات الفيدرالية بـ"وقف استخدام" تقنيات Anthropic على الفور — مع منح فترة انتقالية مدتها 6 أشهر لوزارة الدفاع وغيرها من القطاعات الحيوية. أعلنت Anthropic أنها ستطعن في هذا التصنيف أمام القضاء، واصفة إياه بأنه “غير قائم على أساس قانوني”، وحذرت من أن هذا الإجراء قد يخلق سابقة خطيرة لأي شركة أمريكية تتفاوض مع الحكومة.
بعد ساعات قليلة من إعلان ترامب حظر Anthropic، أعلنت OpenAI عن اتفاق مع وزارة الدفاع لنشر تقنياتها في الشبكة العسكرية السرية.
ومن الجدير بالذكر أن الرئيس التنفيذي لـOpenAI، سام ألتمان، أبدى دعمًا علنيًا لـAnthropic خلال مقابلة مع CNBC، قائلًا إن الشركة “موثوقة في مجال الأمان” — رغم أن OpenAI اختارت في النهاية أن تتولى عقدًا عسكريًا كانت ستفقده Anthropic. هذا التفاعل الدقيق بين عمالقة الذكاء الاصطناعي يعكس الصراع بين المصالح التجارية والمبادئ الأخلاقية في وادي السيليكون.
الأمر الأكثر إثارة للتفكير في هذا الحدث ليس الصراع السياسي بين ترامب وAnthropic، بل حقيقة أعمق: أن أنظمة الذكاء الاصطناعي، التي تغلغلت في كل شيء من تحليل المعلومات إلى استهداف الأهداف، لا يمكن فصلها بسرعة عبر أوامر إدارية.
بالنسبة لمجتمع العملات المشفرة وWeb3، فإن هذا الحدث يسلط الضوء على درس مهم — سواء في الذكاء الاصطناعي أو في تقنية البلوكشين، عندما تدخل التكنولوجيا في قلب الحكومة والنظام الدفاعي، فإن “اللامركزية” ستواجه اختبار إرادة الدولة. وتجربة Anthropic تظهر أن التمسك بالأخلاق التقنية قد يكلف أكبر عملائها.