ألتمن يدافع عن أنثروبيك مع تزايد التدقيق في توقيت وشروط شراكة بين openai والبنتاغون

وسط تصاعد التوترات بشأن استخدام الذكاء الاصطناعي العسكري، أثار شراكة OpenAI مع البنتاغون جدلاً حادًا حول الأخلاق والتوقيت وضغوط الحكومة.

يعترف ألتمن بأن الإطلاق كان متسرعًا وسوء إطاره

اعترف سام ألتمن بأن شركة OpenAI أساءت إدارة الكشف العام عن تعاونها الجديد مع البنتاغون. في رسالة داخلية نُشرت على X، كتب أن الشركة “لم يكن ينبغي أن تسرع” في الإعلان عن صفقة وزارة الدفاع.

قال ألتمن إن القيادة حاولت تهدئة تصعيد المواجهة مع الحكومة الأمريكية. ومع ذلك، أقر بأن النتيجة “بدت انتهازية ومرتجلة” وفشلت في توصيل نية الشركة في الحد من الاستخدامات الضارة لتقنيتها.

تم الكشف عن الشراكة يوم الجمعة، بعد ساعات فقط من إصدار الرئيس دونالد ترامب أمرًا للوكالات الفيدرالية بوقف استخدام أنظمة الذكاء الاصطناعي من شركة أنثروبيك. علاوة على ذلك، جاء الإعلان قبل وقت قصير من العمليات العسكرية الأمريكية ضد إيران، مما زاد من حدة الانتقادات العامة للتوقيت.

انتشرت ردود الفعل بسرعة على وسائل التواصل الاجتماعي، حيث اتهم العديد من المستخدمين OpenAI باستغلال حملة قمع سياسية ضد منافس. وادعى العديد من المعلقين أنهم يقومون بحذف حسابات ChatGPT والتحول إلى نموذج كلود من أنثروبيك احتجاجًا.

تعديلات على العقود تركز على المراقبة الداخلية والحدود الاستخباراتية

ردًا على ذلك، تعمل OpenAI الآن مع مسؤولي وزارة الدفاع على تعديل الاتفاقية. الهدف، وفقًا لألتمن، هو دمج إرشادات أخلاقية OpenAI مباشرة في اللغة القانونية الملزمة بدلاً من الاعتماد على التزامات سياسة غير رسمية.

تنص بند جديد رئيسي على أن “نظام الذكاء الاصطناعي لن يُستخدم عمدًا للمراقبة الداخلية للأشخاص والأجانب الأمريكيين.” هذا الحظر الصريح على المراقبة الداخلية يهدف إلى معالجة مخاوف الحريات المدنية التي أثارها منتقدو نشرات الذكاء الاصطناعي العسكرية.

كما أكد مسؤولو الدفاع أن النظام المشمول بعقد وزارة الدفاع لن يُنشر من قبل وكالات الاستخبارات الأمريكية مثل NSA. ومع ذلك، أوضح ألتمن أن أي استخدام مستقبلي من قبل وكالات الاستخبارات يتطلب عقدًا منفصلًا ومفاوضات إضافية.

ومع ذلك، أصر ألتمن على أن شراكة OpenAI مع البنتاغون تهدف إلى تقييد الاستخدامات عالية المخاطر مع السماح بتطبيقات دفاعية ضيقة تتوافق مع القانون الأمريكي وقواعد السلامة الخاصة بالشركة.

نزاع أنثروبيك يحدد الخلفية السياسية الأوسع

نشأت اتفاقية OpenAI مباشرة من فشل المفاوضات بين أنثروبيك ووزارة الدفاع. كانت أنثروبيك قد ضغطت من أجل ضمانات مكتوبة بعدم دعم نماذجها للرقابة الداخلية أو تشغيل أنظمة أسلحة مستقلة بدون إشراف بشري فعّال.

في يوم الجمعة، أعلن وزير الدفاع بيت هيجسث أن أنثروبيك ستتلقى تصنيف تهديد سلسلة التوريد بعد انهيار المفاوضات. علاوة على ذلك، ورد أن المسؤولين الحكوميين قضوا شهورًا في انتقاد تركيز أنثروبيك القوي على سلامة الذكاء الاصطناعي، معتبرين أنه يقيد مرونة ساحة المعركة.

أصبح الانقسام علنيًا عندما كشفت تقارير أن نظام كلود من أنثروبيك قد تم استخدامه في عملية عسكرية في يناير استهدفت الرئيس الفنزويلي نيكولاس مادورو. لم تتحد أنثروبيك علنًا ذلك الاستخدام في حينه، مما زاد من التساؤلات حول اتساق سياساتها الداخلية.

على الرغم من الانفصال اللاحق، كانت أنثروبيك قد أصبحت أول شركة ذكاء اصطناعي تنشر نماذج داخل البنية التحتية السرية والمحمية للبنتاغون بموجب اتفاق تم إبرامه العام الماضي. يصف النقاد هذه التاريخية بأنها جعلت التحول المفاجئ إلى تصنيف تهديد سلسلة التوريد أكثر وضوحًا.

ألتمن يدافع عن تصنيف أنثروبيك للمخاطر

استخدم ألتمن بيانه الأخير للدفاع عن أنثروبيك رغم أن شركته الرسمية وضعت دورها مع البنتاغون. قال إنه قضى عطلة نهاية الأسبوع في محادثات مع كبار المسؤولين، محثًا إياهم على إعادة النظر في التصنيف الجديد.

“أعادت التأكيد على أن أنثروبيك لا ينبغي أن يُصنف كمخاطر سلسلة التوريد، وأننا نأمل أن يمنحهم وزارة الدفاع نفس الشروط التي وافقنا عليها،” كتب. ومع ذلك، لم يُظهر قادة البنتاغون أي استعداد حتى الآن لعكس التصنيف.

تأسست أنثروبيك في 2021 على يد باحثين سابقين في OpenAI تركوا الشركة بعد نزاعات داخلية حول الاتجاه الاستراتيجي والاستخدامات العسكرية المقبولة. منذ ذلك الحين، بنيت علامتها التجارية على تطوير الذكاء الاصطناعي المسؤول والتحكمات في التوافق بشكل أكثر صرامة.

ومع ذلك، لم تتحدث السلطات الأمريكية علنًا عن دعوة ألتمن للمساواة في الشروط، ولم تشرح بالتفصيل كيف سيؤثر تصنيف سلسلة التوريد الجديد على مشتريات الحكومة المستقبلية للذكاء الاصطناعي.

تداعيات العقود العسكرية المستقبلية للذكاء الاصطناعي

يبرز هذا الصراع تصاعد المخاطر السياسية المرتبطة بمنح عقود وزارة الدفاع في مجال الذكاء الاصطناعي. تواجه الشركات الآن ضغطًا لموازنة الفرص التجارية مع المخاطر السمعة والقلق من الأنظمة المستقلة القاتلة.

علاوة على ذلك، يسلط الحدث الضوء على كيف أصبح صياغة العقود حول المراقبة، والاستهداف، واستبعاد وكالات الاستخبارات محورًا رئيسيًا في المفاوضات. يشير تدخل ألتمن إلى أن المختبرات الكبرى للذكاء الاصطناعي قد تضغط بشكل متزايد ليس فقط من أجل صفقاتها الخاصة، ولكن أيضًا من أجل معاملة مماثلة للمنافسين.

مع تصاعد النقاشات حول معايير السلامة والأمن القومي، من المرجح أن يشكل حل هذه النزاعات كيفية تنظيم البنتاغون لفرص العقود في مجال الذكاء الاصطناعي المتقدم، والنماذج الحاكمة التي ستكتسب نفوذًا طويل الأمد في واشنطن.

باختصار، إن الإطلاق المتسرع لـ OpenAI، والحالة المثيرة للجدل لمخاطر أنثروبيك، والقيود المتطورة على المراقبة والاستخدام الاستخباراتي تشير إلى مرحلة جديدة في كيفية تعامل الجيش الأمريكي مع شراكات الذكاء الاصطناعي والمساءلة.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.38Kعدد الحائزين:0
    0.00%
  • القيمة السوقية:$2.43Kعدد الحائزين:2
    0.14%
  • القيمة السوقية:$2.43Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.38Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:0
    0.00%
  • تثبيت