ملخص سريع
رفضت المحكمة العليا في كولومبيا استئنافًا بالنقض، زاعمة أنه تم توليده بواسطة الذكاء الاصطناعي. لكن نفس الأداة التي استخدمتها المحكمة لتحديد أصل الاستئناف المزعوم من الذكاء الاصطناعي قالت إن حكمها نفسه أيضًا تلقى مساعدة من الذكاء الاصطناعي. هل هو تمييز مزدوج من قبل المحكمة، أم أدوات معطوبة في اللعب؟ “واجهت المحكمة شكوكًا مبررة بأن المذكرة المقدمة من المحامي لم تكن من إعداد المحامي نفسه، فاختبرت النص بأداة Winston AI,” قالت المحكمة. “وأشارت تحليلاتها إلى أن المحتوى البشري يشكل فقط 7%، مما يدل على تأثير واضح للكتابة الآلية، ويؤدي إلى استنتاج أنه تم إنتاجه باستخدام الذكاء الاصطناعي.”
بعد تشغيل التحليل باستخدام أدوات أخرى أعطت نتائج مماثلة، حكمت المحكمة بأنه “نظرًا لعدم اعتبار الملف بمثابة مرافعة مقدمة بشكل صحيح، فإن رفضه كغير مقبول ضروري.” لكن عندما واجه حكم المحكمة تدقيقًا مماثلاً من قبل خبراء قانونيين، أظهرت النتائج ذاتها. “قدمت نص حكم Auto AP760/2026 من المحكمة العليا لنفس برنامج Winston AI الذي استشهدت به المحكمة,” كتب المحامي إيمانويل أليسيو فيلاسكيز على X يوم الثلاثاء. “النتيجة: يحتوي المستند على 93% من النص المولد بواسطة الذكاء الاصطناعي.”
أرسلت نص الحكم AP760/2026 من @CorteSupremaJ إلى نفس برنامج Winston AI الذي استشهدت به المحكمة. النتيجة أن المستند يحتوي على 93% من “نص مولد بالذكاء الاصطناعي”. https://t.co/xTm2jI4d70 pic.twitter.com/lpSHuRjEZ4
— إيمانويل أليسيو فيلاسكيز (@EmmanuVeZe) 3 مارس 2026
“إذا كانت المحكمة نفسها التي تدين استخدام الذكاء الاصطناعي تحصل على تلك النسبة، فإن هشاشة المنهجية في استخدام هذه الأدوات كدعم حججي تصبح واضحة بذاتها,” قال في تغريدة لاحقة. خلال ساعات من نشر المحكمة سلسلة تغريدات عن القرار على X، بدأ المحامون في إجراء تجاربهم الخاصة. انتشرت منشورات فيلاسكيز بشكل واسع في الأوساط القانونية، وحصدت عشرات الآلاف من المشاهدات. قمنا أيضًا باختبار حكم المحكمة، وفي البداية لم تكن النتائج جيدة. عندما قام GPTZero بمسح الكلمات الافتتاحية فقط من نص المحكمة، أعاد نتيجة 100% ذكاء اصطناعي.
عندما عالج نفس الأداة نسخة أطول تتضمن قسم الخلفية الواقعية، غيرت النتيجة تمامًا: 100% بشري. الأداة ببساطة غير موثوقة بما يكفي لتُعتمد في المحكمة أو في الحالات التي تتطلب درجة عالية من اليقين.
ردّ المحامون الكولومبيون بسرعة بإجراء تجاربهم الخاصة. قدم المحامي أندريس ف. أرانغو جي، محامي دفاع جنائي ومحاضر، ملفًا قضائيًا من عام 2019، قبل سنوات من وجود نماذج اللغة الكبيرة التي تم تدريب هذه الأدوات على اكتشافها، وظهرت النتيجة بأنها 95% من النص مولد بواسطة الذكاء الاصطناعي. “هذه الأدوات تدعوك بعد ذلك إلى ‘تطبيع’ المقالة من خلال خدماتها المدفوعة,” كتب على X، مشيرًا إلى دافع تجاري واضح في نموذج عمل الكشف. نُفذ اختبار نيكولاس بويلفاس على أطروحته الجامعية لعام 2020 حول مبدأ الثقة في القانون الجنائي. النتيجة؟ 100% ذكاء اصطناعي. وأشار داريه كابريرا مونتاليغري، محامٍ كولومبي آخر، إلى نفاق الاعتماد على التكنولوجيا لمحاولة مكافحتها. “المحكمة تستخدم الذكاء الاصطناعي لتحديد ما إذا كان هناك ذكاء اصطناعي,” قال. “شيء متناقض من وجهة نظري العملية.”
المحكمة تستخدم الذكاء الاصطناعي لتحديد ما إذا كان هناك ذكاء اصطناعي…؟ شيء متناقض من وجهة نظري العملية… إذا تم الرفض، فذلك لأنه كما البشر نكتشف ذلك.
— داريو كابريرا مونتاليغري (@dalcamont_daro) 2 مارس 2026
بعيدًا عن الأوساط القانونية، أشار أفراد تقنيون آخرون إلى مخاطر الاعتماد المفرط على أدوات تحديد الذكاء الاصطناعي. “حتى الآن، لا توجد أداة متاحة علنًا يمكنها تحديد نسبة استخدام الذكاء الاصطناعي بدقة عند صياغة نص,” قال كارلوس أليخاندرو توريس بينيدو. “وما هو أسوأ: لا أحد يمكنه التحقق علنًا من شفرة المصدر وراء هذه المنصات الكشفية. كيف يمكن استخدامها لنزع شرعية حق شخص ما في الوصول إلى العدالة؟” الأسباب التقنية وراء هذه الإخفاقات موثقة جيدًا. تقيس أدوات الكشف عن الذكاء الاصطناعي أنماطًا إحصائية: طول الجمل، توقع المفردات، وخصيصة يُطلق عليها الباحثون “الانفجارية” (burstiness)، والتي تشير إلى التغير الطبيعي في إيقاع الكتابة الذي يضيفه البشر. المشكلة أن اللغة القانونية الرسمية، والكتابة الأكاديمية، والنصوص التي يكتبها أشخاص يتحدثون لغة ثانية، تشترك في العديد من تلك العلامات الإحصائية ذاتها. دراسات حول كشف الذكاء الاصطناعي وجدت دراسة نُشرت في 2023 في Patterns أن أكثر من 61% من مقالات اختبار اللغة الإنجليزية كلغة أجنبية (TOEFL) التي كتبها غير الناطقين بها تم تصنيفها خطأً على أنها مولدة بواسطة الذكاء الاصطناعي. خلصت مراجعة منهجية بواسطة ويبر-ولف في نفس العام إلى أن لا أداة متاحة دقيقة أو موثوقة. وأقرّت شركة Turnitin في يونيو 2023 أن كاشفها الخاص أنتج معدلات إيجابية زائفة أعلى عندما كان مستوى محتوى الذكاء الاصطناعي في المستند أقل من 20%. حتى شركة OpenAI اضطرت إلى سحب أداتها الخاصة لكشف الذكاء الاصطناعي بعد استمرار الأخطاء وعدم قدرتها على أداء وظيفتها الحقيقية. تواجه الجامعات هذا الأمر منذ سنوات. أوقفت جامعة فاندربيلت أداة كشف الذكاء الاصطناعي في 2023 بعد تقدير أنها ستنتج حوالي 3000 نتيجة زائفة سنويًا. حذفت جامعة أريزونا ميزات الكشف عن الذكاء الاصطناعي من برنامج الانتحال الخاص بها بعد أن خسر طالب 20% من درجته بسبب نتيجة زائفة. وفي قضية عام 2024 في جامعة كاليفورنيا ديفيس، تم تصنيف 17 طالبًا من قسم اللغويات، منهم 15 غير ناطقين أصليين باللغة الإنجليزية. النمط ثابت. الأدوات تفرض العقوبات على الأشخاص الذين يكتبون بشكل رسمي أكثر، أو بشكل متكرر، أو بشكل دقيق، وهو تمامًا الملف الذي يناسب المحامين والأكاديميين والمتحدثين بلغات ثانية.
أما التداعيات الثقافية فاقت الحد، حيث بدأ الناس في مجالات الكتابة والصحافة يتجنبون استخدام الشرطة المائلة (em dash)، ليس بسبب دليل أسلوبي، بل لأن نماذج اللغة الاصطناعية تستخدمها بكثرة، وأدوات الكشف (والناس) لاحظت ذلك. يبدأ الكتاب في تعديل علامات الترقيم الطبيعية خوفًا من الشكوك الخوارزمية. وخارج عالم الكتابة، عانى الفنانون من غضب المشرفين والزملاء بسبب أعمال فنية تبدو وكأنها من إنتاج الذكاء الاصطناعي.
نحن في عالم يُعاقب فيه الفنانون الحقيقيون لأنهم ضحايا هؤلاء اللصوص المسمين فناني الذكاء الاصطناعي؟ #أنقذ_الفنان_البشري #لا_فن_بالذكاء_الاصطناعي #لا_للذكاء_الاصطناعي #أنقذ_الفن_المستقبلي pic.twitter.com/yTQAeyc8SR
— فنان بنموران (@benmoran_artist) 27 ديسمبر 2022
حكمتا كولومبيا—AC739-2026، التي فرضت فيها الدائرة المدنية غرامة على محامٍ لاقتباله 10 سوابق غير موجودة تم توليدها بواسطة الذكاء الاصطناعي في فبراير، وAP760-2026—تظهران كواحدة من أوائل القرارات القضائية في المنطقة التي تواجه بشكل مباشر سوء استخدام الذكاء الاصطناعي التوليدي في الملفات القانونية. تبنت السلطة القضائية في كولومبيا إرشادات رسمية في ديسمبر 2024 تنظم كيفية استخدام القضاة وموظفي المحكمة للذكاء الاصطناعي. تسمح القواعد باستخدام الذكاء الاصطناعي بحرية للمهام الإدارية والداعمة، مثل صياغة الرسائل الإلكترونية، وتنظيم الجداول، وترجمة المستندات، أو تلخيص النصوص، مع السماح باستخدامات أكثر حساسية، مثل البحث القانوني أو صياغة المستندات الإجرائية، فقط بعد مراجعة بشرية دقيقة. وتحظر الإرشادات بشكل صريح الاعتماد على الذكاء الاصطناعي لتقييم الأدلة، أو تفسير القانون، أو إصدار الأحكام القضائية، مع التأكيد على أن القضاة البشريين يظل مسؤولين بالكامل عن جميع الأحكام، ويجب عليهم الكشف عن استخدام أدوات الذكاء الاصطناعي أثناء إعداد المواد القضائية. يمكن استخدام هذه الإرشادات، التي جُمعت في اتفاقية “PCSJA24-12243”، للطعن في مثل هذا القرار.
لم تصدر المحكمة العليا بعد أي بيان إضافي ردًا على الانتقادات بشأن اختيار أدوات الكشف الخاصة بها. ولم يكن الحكم أيضًا يحتوي على الشرطة المائلة.