قالت X إنها تقيّد ميزات إنشاء وتحرير الصور المرتبطة بـ Grok، وتحد من الوصول للمستخدمين المدفوعين بعد استخدام الدردشة لإنشاء صور جنسية غير موافقة لأشخاص حقيقيين، بما في ذلك القُصّر. في تحديث نشره حساب أمان X يوم الأربعاء، أضافت الشركة قيودًا تقنية لتقييد كيفية تحرير المستخدمين لصور الأشخاص الحقيقيين عبر Grok. وجاءت هذه الخطوة بعد تقارير تفيد بأن الذكاء الاصطناعي أنشأ صورًا جنسية استجابةً لمطالب بسيطة، بما في ذلك طلبات لوضع أشخاص في بيكيني. في العديد من الحالات، قام المستخدمون بوضع علامة مباشرة على Grok تحت الصور المنشورة على X، مما أدى إلى توليد الذكاء الاصطناعي لصور معدلة ظهرت علنًا في نفس المواضيع.
قالت الشركة: “لقد نفذنا تدابير تكنولوجية لمنع حساب Grok من السماح بتحرير صور لأشخاص حقيقيين يرتدون ملابس مكشوفة مثل البيكيني”، في إشارة إلى الاتجاه الشائع الذي يطلب من Grok وضع الناس في بيكيني. كما ذكرت الشركة أن إنشاء الصور وتحريرها عبر حساب Grok على X أصبح الآن متاحًا فقط للمشتركين المدفوعين، وهو تغيير يهدف إلى تحسين المساءلة ومنع سوء استخدام أدوات الصور الخاصة بـ Grok التي تنتهك القانون أو سياسات X. كما فرضت الشركة قيودًا تعتمد على الموقع الجغرافي. قالت: “نقوم الآن بحظر جغرافي لقدرة جميع المستخدمين على إنشاء صور لأشخاص حقيقيين في بيكيني، ملابس داخلية، أو ملابس مماثلة عبر حساب Grok وفي Grok على X في تلك الولايات القضائية حيث يكون ذلك غير قانوني.” على الرغم من التغييرات، لا تزال Grok تسمح للمستخدمين بإزالة أو تعديل الملابس من الصور التي تم تحميلها مباشرة إلى الذكاء الاصطناعي، وفقًا لاختبارات Decrypt وتقارير المستخدمين بعد الإعلان.
في بعض الحالات، اعترفت Grok بـ"ثغرات في الضمانات" بعد إنشاء صور لفتيات تتراوح أعمارهن بين 12 و16 عامًا بملابس قليلة، وهو سلوك محظور بموجب سياسات الشركة الخاصة. وقد أثارت استمرار توفر تلك القدرات انتقادات من مجموعات حقوقية. قال أدريان شيللي، مدير تكساس للمواطنين العامين، في بيان: “إذا كانت التقارير التي تفيد بأن Grok أنشأ صورًا جنسية—خصوصًا للأطفال—صحيحة، فقد يكون تم انتهاك قانون تكساس.” وأضاف: “لا يتعين على السلطات في تكساس أن تنظر بعيدًا للتحقيق في هذه الادعاءات. تقع شركة X في منطقة أوستن، ولدى الولاية مسؤولية واضحة لتحديد ما إذا تم انتهاك قوانينها، وإذا كان الأمر كذلك، ما هي العقوبات المستحقة.” وكانت منظمة المواطنون العامة قد دعت سابقًا الحكومة الأمريكية إلى سحب Grok من قائمة نماذج الذكاء الاصطناعي المقبولة بسبب مخاوف من العنصرية التي يظهرها الدردشة الآلي. رد فعل عالمي زاد صانعو السياسات العالميون أيضًا من التدقيق على Grok، مما أدى إلى عدة تحقيقات مفتوحة. قالت المفوضية الأوروبية إن X وxAI قد يواجهان تنفيذًا بموجب قانون الخدمات الرقمية إذا استمرت الضمانات على Grok في التقصير. في الوقت نفسه، قال مفوض السلامة الإلكترونية في أستراليا إن الشكاوى المتعلقة بـ Grok والصور الجنسية التي أنشأها الذكاء الاصطناعي بدون موافقة قد تضاعفت منذ أواخر 2025. وأوضح المنظم أن أدوات الصور بالذكاء الاصطناعي القادرة على إنتاج تعديلات واقعية تعقد عملية التنفيذ وحماية الضحايا. في المملكة المتحدة، فتحت هيئة تنظيم الاتصالات (Ofcom) تحقيقًا في X بموجب قانون السلامة عبر الإنترنت، نتيجة لاستخدام Grok لإنشاء صور مزيفة جنسية غير قانونية، بما في ذلك تلك التي تتعلق بالقُصّر. وقال المسؤولون إن من المحتمل أن تسعى هيئة تنظيم الاتصالات في النهاية لاتخاذ إجراءات قضائية فعالة تمنع الخدمة في المملكة المتحدة إذا ثبت عدم امتثال X وفشلها في اتخاذ إجراءات تصحيحية. كما فتحت دول أخرى، بما في ذلك ماليزيا وإندونيسيا وكوريا الجنوبية، تحقيقات في Grok في محاولة لحماية القُصّر. بينما تراقب الولايات الأمريكية الوضع، كانت كاليفورنيا أول من فتح تحقيقًا في Grok. يوم الأربعاء، أعلن المدعي العام في كاليفورنيا روب بونتا عن تحقيق في xAI وGrok بشأن إنشاء ونشر صور غير موافقة جنسية لنساء وأطفال.
قال بونتا في بيان: “إن تدفق التقارير التي تفيد بأن xAI أنتج ونشر مواد غير موافقة جنسيًا بشكل غير قانوني على الإنترنت في الأسابيع الأخيرة صادم. تُظهر هذه المواد، التي تصور نساء وأطفالًا في مواقف عارية وجنسية، أنها استُخدمت لمضايقة الناس عبر الإنترنت.” سيحقق التحقيق فيما إذا كان نشر xAI لـGrok قد انتهك قوانين الولاية التي تحكم الصور الحميمة غير الموافقة واستغلال الأطفال جنسيًا. وقال بونتا: “أحث xAI على اتخاذ إجراءات فورية لضمان عدم استمرار ذلك.” وأضاف: “لدينا سياسة عدم التسامح مطلقًا مع إنشاء ونشر الصور الحميمة غير الموافقة أو مواد الاعتداء الجنسي على الأطفال باستخدام الذكاء الاصطناعي.” على الرغم من التحقيقات الجارية، قالت X إنها تتخذ موقف “عدم التسامح” مع استغلال الأطفال جنسيًا، والتعرّي غير الموافقة، والمحتوى الجنسي غير المرغوب فيه. قالت الشركة: “نتخذ إجراءات لإزالة المحتوى المخالف عالي الأولوية، بما في ذلك مواد الاعتداء الجنسي على الأطفال (CSAM) والتعرّي غير الموافقة، واتخاذ الإجراءات المناسبة ضد الحسابات التي تنتهك قواعدنا على X.” وأضافت: “نبلغ أيضًا السلطات المختصة عن الحسابات التي تطلب مواد استغلال الأطفال جنسيًا حسب الحاجة.”