سام ألتمن يرد على اختيار وزارة الحرب الأمريكية لـOpenAI بدلاً من Anthropic: قد يكون بسبب خلافات في مطالب السيطرة التشغيلية

أودايلي ستيلكو ديلي نيوز: أطلق مؤسس OpenAI سام ألتمان على منصة X جلسة أسئلة وأجوبة ردًا على التعاون الأخير مع وزارة الحرب الأمريكية، وكشف أن شركة أنثروبيك كانت على وشك التوصل إلى اتفاق مع وزارة الحرب الأمريكية، وأن الطرفين كانا يرغبان بشدة في التعاون خلال معظم فترات المفاوضات، لكن البيئة التفاوضية المشحونة قد تؤدي إلى تدهور سريع في الوضع، وهو أحد الأسباب الرئيسية لعدم إتمام الصفقة في النهاية. فيما يتعلق بمفهوم الأمان، تتبع OpenAI نهج “الأمان الطبقي”، بما في ذلك بناء تكنولوجيا الأمان، ونشر مهندسي النشر المتقدم (FDE)، ومشاركة الباحثين الأمنيين في المشاريع، وتقديم الحلول عبر السحابة والتعاون المباشر مع وزارة الحرب الأمريكية. بالمقابل، يبدو أن أنثروبيك تركز أكثر على تحديد القيود بشكل واضح في العقود، بينما تفضل OpenAI الاعتماد على الأطر القانونية السارية، مع استخدام تدابير أمنية تقنية كضمان أساسي. قد تتبنى شركات أخرى مواقف مختلفة، وربما ترغب أنثروبيك في الحصول على مزيد من السيطرة التشغيلية من خلال التعاون، وهو ما قد يكون أحد أسباب تباين المسارات بين الطرفين.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات