صحيفة وول ستريت جورنال تكشف أن ترامب استهدف اغتيال همني الإيراني باستخدام تقنية Claude AI، وأن شركة OpenAI تتولى السيطرة الكاملة على أنظمة البنتاغون

動區BlockTempo

وفقًا لصحيفة وول ستريت جورنال، استخدم المركز العسكري الأمريكي (CENTCOM) نظام Claude AI من Anthropic في عمليات قصف إيران، لتوفير تحليل المعلومات، وتحديد الأهداف، ومحاكاة ساحة المعركة — ومع ذلك، لم تمر سوى ساعات قليلة على توقيع ترامب لأمر تنفيذي يمنع استخدام Anthropic. هذا الحدث يبرز أن الذكاء الاصطناعي قد تم دمجه بشكل عميق في البنية التحتية الدفاعية، مما يصعب فصله حتى مع إصدار أوامر من الرئيس. تم طرد Anthropic من قبل البنتاغون لرفضها رفع القيود على الأسلحة الذاتية وعمليات المراقبة الواسعة، وتولت OpenAI بسرعة المهمة.

(ملخص سابق: ترامب يخطط لحظر كامل لـ Anthropic! رفض تعديل قيود Claude على “القتل”، وOpenAI تتدخل بشكل غير متوقع لدعمها)

(معلومات إضافية: البنتاغون يواجه Anthropic! يطالب بفتح استخدام Claude للأغراض العسكرية “وإلا فسوف نلغي العقد”)

فهرس المقال

تبديل

  • بعد توقيع الأمر، لا تزال Claude تعمل في الميدان
  • Anthropic تتمسك بخطين أحمرين، وتواجه طردًا إذا لم تلتزم
  • OpenAI تتولى بسرعة، وتغير مسار سباق التسلح بالذكاء الاصطناعي
  • لا يمكن العودة: التقنية تتجاوز الأوامر

عندما أصدر ترامب الأسبوع الماضي أمرًا بوقف استخدام تقنيات Anthropic بشكل كامل، ووزير الدفاع يدرجها ضمن “مخاطر سلسلة التوريد”، استمرت القوات الأمريكية في تنفيذ عملياتها في إيران باستخدام Claude AI. هذا المشهد المتناقض يكشف عن واقع مقلق: مدى تغلغل الذكاء الاصطناعي في النظام العسكري، الذي يتجاوز نطاق الأوامر التنفيذية التي يمكنها أن تؤثر عليه بسرعة.

بعد توقيع الأمر، لا تزال Claude تعمل في الميدان

وفقًا لمصادر لصحيفة وول ستريت جورنال، في عملية “غضب الملحمة” (Operation Epic Fury) لقصف إيران، استمر المركز العسكري الأمريكي في استخدام Claude لأداء مهام حيوية — بما في ذلك تحليل البيانات الاستخبارية، وتحديد الأهداف، ومحاكاة سيناريوهات ساحة المعركة.

وقعت Anthropic العام الماضي عقدًا أوليًا لمدة عامين بقيمة تصل إلى 200 مليون دولار مع البنتاغون، عبر شراكة مع Palantir وAmazon Web Services، ليصبح Claude أول نموذج ذكاء اصطناعي تجاري يُسمح له بالعمل على الشبكة السرية للبنتاغون، ويشمل استخدامه اختبار الأسلحة والتواصل الفوري في ساحة المعركة. وذكرت تقارير أن النظام ساعد أيضًا في تتبع تحركات الرئيس الفنزويلي مادورو في يناير من هذا العام.

Anthropic تتمسك بخطين أحمرين، وتواجه طردًا إذا لم تلتزم

جوهر النزاع هو أن البنتاغون طلب من Anthropic إزالة قيود الاستخدام في العقد، والسماح لـClaude بالاستخدام “للجميع الأغراض القانونية”؛ لكن الرئيس التنفيذي لـAnthropic، داريو أموديي، رفض التنازل، وأصر على خطين أخلاقيين:

  • عدم استخدام Claude للمراقبة الجماعية لمواطني الولايات المتحدة
  • عدم تشغيل أنظمة أسلحة ذاتية القيادة بالكامل

أوضح أموديي أن الشركة تعارض استخدام الذكاء الاصطناعي في “المراقبة الداخلية الواسعة” و"الأسلحة الذاتية"، مؤكدًا أن القرارات العسكرية يجب أن يسيطر عليها البشر، وليس الخوارزميات. وكتب في بيان: “لا يمكننا أن نجيب على طلباتهم بضمير مرتاح.”

على الفور، أدرج وزير الدفاع بيت هيجسث، Anthropic ضمن “مخاطر سلسلة التوريد”، وأصدر ترامب أمرًا مباشرًا لجميع الوكالات الفيدرالية بـ"وقف استخدام" تقنيات Anthropic على الفور — مع منح فترة انتقالية مدتها 6 أشهر لوزارة الدفاع وغيرها من القطاعات الحيوية. أعلنت Anthropic أنها ستطعن في هذا التصنيف أمام القضاء، واصفة إياه بأنه “غير قائم على أساس قانوني”، وحذرت من أن هذا الإجراء قد يخلق سابقة خطيرة لأي شركة أمريكية تتفاوض مع الحكومة.

OpenAI تتولى بسرعة، وتغير مسار سباق التسلح بالذكاء الاصطناعي

بعد ساعات قليلة من إعلان ترامب حظر Anthropic، أعلنت OpenAI عن اتفاق مع وزارة الدفاع لنشر تقنياتها في الشبكة العسكرية السرية.

ومن الجدير بالذكر أن الرئيس التنفيذي لـOpenAI، سام ألتمان، أبدى دعمًا علنيًا لـAnthropic خلال مقابلة مع CNBC، قائلًا إن الشركة “موثوقة في مجال الأمان” — رغم أن OpenAI اختارت في النهاية أن تتولى عقدًا عسكريًا كانت ستفقده Anthropic. هذا التفاعل الدقيق بين عمالقة الذكاء الاصطناعي يعكس الصراع بين المصالح التجارية والمبادئ الأخلاقية في وادي السيليكون.

لا يمكن العودة: التقنية تتجاوز الأوامر

الأمر الأكثر إثارة للتفكير في هذا الحدث ليس الصراع السياسي بين ترامب وAnthropic، بل حقيقة أعمق: أن أنظمة الذكاء الاصطناعي، التي تغلغلت في كل شيء من تحليل المعلومات إلى استهداف الأهداف، لا يمكن فصلها بسرعة عبر أوامر إدارية.

بالنسبة لمجتمع العملات المشفرة وWeb3، فإن هذا الحدث يسلط الضوء على درس مهم — سواء في الذكاء الاصطناعي أو في تقنية البلوكشين، عندما تدخل التكنولوجيا في قلب الحكومة والنظام الدفاعي، فإن “اللامركزية” ستواجه اختبار إرادة الدولة. وتجربة Anthropic تظهر أن التمسك بالأخلاق التقنية قد يكلف أكبر عملائها.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات