
أعلنت OpenAI في 15 مايو عن إطلاق ميزات أمان جديدة لتعزيز قدرة ChatGPT على تحديد إشارات التحذير المتعلقة بالانتحار، وإيذاء النفس، والعنف المحتمل؛ وتعتمد الميزة الجديدة على آلية مؤقتة تُسمى «ملخص الأمان»، عبر تحليل السياق الذي يتشكل مع مرور الوقت من خلال المحادثات، بدلًا من معالجة كل رسالة على حدة. وفي الوقت نفسه، تواجه OpenAI عدة دعاوى قضائية وتحقيقات.
وفقًا لمقال مدونة OpenAI، فإن مواصفات آلية «ملخص الأمان» الجديدة هي كالتالي:
تعريف الميزة: ملاحظات مؤقتة ذات نطاق أضيق تلتقط السياق الأمني ذي الصلة في المحادثات المبكرة
شرط التفعيل: يُستخدم فقط في الحالات الشديدة، وليس ذاكرة دائمة، ولا يُستخدم للدردشة المخصصة
محاور الكشف: الحالات المتعلقة بالانتحار وإيذاء النفس والعنف تجاه الآخرين
الاستخدامات الرئيسية: رصد العلامات الخطرة للمحادثة، وتجنب تقديم معلومات ضارة، وتخفيف التوتر، وتوجيه طلب المساعدة
أساس التطوير: تؤكد OpenAI أنها تعاونت مع خبراء في الصحة النفسية لتحديث سياسات النموذج وأساليب التدريب
تشرح OpenAI في المقال: «في الحوارات الحساسة، يكون السياق بنفس أهمية الرسالة الواحدة. فطلب يبدو عاديًا أو غامضًا، إذا ما نُظر إليه مع العلامات المؤلمة التي ظهرت سابقًا أو مع نوايا خبيثة محتملة، فقد يحمل معنى مختلفًا تمامًا».
استنادًا إلى ما أكدته تغطية Decrypt، تتمثل الإجراءات القانونية الثلاثة في:
1، التحقيق الذي يجريه المدعي العام لولاية فلوريدا (بدءًا من أبريل 2026): يشمل التحقيق سلامة الأطفال، وسلوك إيذاء النفس، وأيضًا مزاعم تتعلق بواقعة إطلاق نار جماعي واسعة النطاق في جامعة فلوريدا الحكومية في 2025.
2، دعوى قضائية اتحادية (قضية إطلاق النار في جامعة فلوريدا الحكومية): تواجه OpenAI دعوى اتحادية تتهم برنامجها ChatGPT بالمساعدة على تنفيذ الهجوم من قبل مطلق النار.
3، دعوى قضائية أمام محكمة ولاية كاليفورنيا (قدمت يوم الثلاثاء 13 مايو 2026): أقام أحد أفراد أسرة طالب يبلغ من العمر 19 عامًا وتوفي بسبب جرعة دواء زائدة بالخطأ دعوى أمام محكمة ولاية كاليفورنيا ضد OpenAI وضد الرئيس التنفيذي Sam Altman، متهمًا ChatGPT بتشجيع استخدام أدوية خطرة، وبالاقتراح بخلط الأدوية.
تؤكد OpenAI: «إن مساعدة ChatGPT على تحديد المخاطر التي لا تظهر إلا مع مرور الوقت ما تزال تحديًا مستمرًا». وتكتب OpenAI في المقال أيضًا أن تركيز العمل حاليًا ينصب على حالات إيذاء النفس وإلحاق الضرر بالآخرين، وتذكر أنه «قد يتم استكشاف» ما إذا كانت ستُطبق طرق مماثلة على مجالات أخرى عالية الخطورة مثل الأمن البيولوجي أو الأمن السيبراني (وهذا اتجاه استكشاف ذكرته OpenAI بنفسها، وليس خطة تطوير مؤكدة).
وفقًا لشرح OpenAI، فإن ملخص الأمان عبارة عن ملاحظات مؤقتة قصيرة المدى لا يتم تفعيلها إلا في الحالات الشديدة، ومحدد بوضوح على أنه ليس ذاكرة دائمة، كما أنه لا يُستخدم لميزة الدردشة المخصصة. ويقتصر نطاق استخدامه على سياقات الأمان ضمن المحادثات النشطة بهدف تحسين معالجة الحوارات وقت الأزمات.
وفقًا لتقرير Decrypt، يشمل تحقيق المدعي العام لولاية فلوريدا James Uthmeier الذي بدأ في أبريل 2026 مزاعم تتعلق بسلامة الأطفال، وسلوك إيذاء النفس، وأيضًا بالواقعة المرتبطة بإطلاق النار الجماعي واسع النطاق في جامعة فلوريدا الحكومية في 2025. وفي الوقت ذاته، تواجه OpenAI دعوى اتحادية منفصلة تتعلق بهذه واقعة إطلاق النار.
وفقًا لتقرير Decrypt، قُدمت الدعوى في كاليفورنيا في 13 مايو 2026، وتتضمن اتهامات بأن ChatGPT شجع على استخدام أدوية خطرة واقترح خلط الأدوية، مما أدى إلى وفاة طالب يبلغ من العمر 19 عامًا جراء جرعة دواء زائدة بالخطأ. وتشمل الدعوى OpenAI والرئيس التنفيذي Sam Altman. وحتى وقت نشر التقرير، لم تصدر OpenAI ردًا مباشرًا بشأن الاتهامات المحددة في هذه الدعوى.
Related News
عودة Pi Network عبر PiScan، وترقية KYC المعتمدة على الذكاء الاصطناعي تختصر قائمة الانتظار البشرية بنسبة 50%
دعاوى قانونية ضد ChatGPT تزداد قضية جديدة! يتم اتهام الشركة بالتسريب السري لمحتوى محادثات المستخدمين إلى Meta وGoogle
OpenAI: لا اختراق لبيانات المستخدمين في هجوم سلسلة الإمداد TanStack
واتساب وتُطلق ميتا آي محادثات بلا آثار، ما يؤدي إلى تزايد المخاوف من آليات المساءلة بسبب رسائل تختفي تلقائيًا
سام ألتمان يعلن: تقدم شركة OpenAI Codex للشركات شهرين من الاستخدام «المجاني»