OpenAI والتعاون مع وزارة الدفاع الأمريكية يثير الجدل، سام ألتمان يعترف بأن الاتفاق كان متسرعًا جدًا وتم تعديل الشروط بشكل عاجل

GateNews

في 3 مارس، وفقا لشبكة CNBC، اعترف الرئيس التنفيذي لشركة OpenAI سام ألتمان بأن اتفاقية التعاون السابقة للذكاء الاصطناعي مع وزارة الدفاع الأمريكية كانت متسرعة جدا وقال إن الشروط ذات الصلة ستعدل. يأتي هذا التصريح في وقت لا تزال فيه الرأي العام في حالة من الاضطراب، بعد إعلان OpenAI تعاونا مع البنتاغون، مما أثار نقاشات واسعة حول أخلاقيات الذكاء الاصطناعي والاستخدام العسكري وأمن البيانات.

وفقا للمعلومات العامة، تم الإعلان عن الاتفاقية يوم الجمعة الماضي، في الوقت الذي تدفع فيه الحكومة الأمريكية عددا من القرارات المتعلقة بالأمن القومي. بعد الكشف عن الخبر، أعرب بعض مجتمعات التكنولوجيا والمستخدمين عن قلقهم بشأن إمكانية استخدام تكنولوجيا الذكاء الاصطناعي لأغراض عسكرية. نشر سام ألتمان لاحقا على منصات التواصل الاجتماعي ردا على أن الشركة ستضيف قيودا جديدة إلى الاتفاقية، بما في ذلك النص الواضح على أنه لا يمكن استخدام أنظمة الذكاء الاصطناعي للمراقبة المحلية للمواطنين أو السكان الأمريكيين.

قال سام ألتمان أيضا إن وزارة الدفاع الأمريكية أكدت أن أدوات الذكاء الاصطناعي الخاصة ب OpenAI لن تستخدم مباشرة من قبل وكالات الاستخبارات مثل وكالة الأمن القومي (NSA) في مهام مراقبة الاستخبارات. وفي الوقت نفسه، تخطط OpenAI للعمل مع البنتاغون لتطوير ضمانات تقنية إضافية لتقليل خطر سوء استخدام الذكاء الاصطناعي في السيناريوهات الحساسة.

كما اعترف الرئيس التنفيذي بأن الشركة ارتكبت خطأ في حكمها عند المضي قدما في الاتفاقية. قال إنه في ذلك الوقت، كان الفريق يريد تهدئة الوضع بسرعة وتجنب صراعات سياسية أكثر خطورة، لكن عند النظر إلى الوراء، بدا القرار متسرعا جدا ويمكن تفسيره بسهولة على أنه تكهنات.

الجدل يرتبط أيضا بشركة Anthropic، وهي شركة ذكاء اصطناعي أخرى. في السابق، كانت أنثروبيك قد اختلفت مع الحكومة الأمريكية حول حدود استخدام نموذج الذكاء الاصطناعي كلود، وطلبت ضمانات واضحة بأن أنظمتها لن تستخدم للمراقبة المحلية أو تطوير الأسلحة الذاتية. أفادت التقارير أن المفاوضات بين الطرفين انهارت.

وفي الوقت نفسه، هناك تقلبات ملحوظة في مشاعر المستخدمين على الشبكة. قلل بعض المستخدمين من استخدامهم لشات جي بي تي على منصات التطبيقات واتجهوا إلى منتجات منافسة مثل كلود، مما زاد من توسيع الجدل الأخلاقي في صناعة الذكاء الاصطناعي.

وفي رده، قال سام ألتمان أيضا إنه لا يعتقد أن Anthropic يجب اعتبارها خطرا في سلسلة التوريد، ويأمل أن توفر وزارة الدفاع الأمريكية لها شروط تعاون مماثلة لOpenAI. سلط هذا الحادث الضوء مرة أخرى على أنه في ظل التطور السريع لتكنولوجيا الذكاء الاصطناعي، أصبحت قضية الحدود بين الذكاء الاصطناعي والأمن القومي والتطبيقات العسكرية والتنظيم الاجتماعي محور الاهتمام في صناعة التكنولوجيا العالمية.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات