كارپاثي: «دع LLM يردّ على نفسه» — طريقة من 4 خطوات لمواجهة تحيزات التفكير باستخدام الذكاء الاصطناعي

ChainNewsAbmedia

شارك Andrej Karpathy، أحد أعضاء فريق التأسيس في OpenAI والمدير السابق للذكاء الاصطناعي في Tesla، على X طريقة بسيطة لكنها قوية لـ“مقاومة تحيزات التفكير” في نماذج LLM. وتصف لغته الأصلية أنه كتب منشورًا في مدونة، ثم عدّل مرارًا باستخدام LLM لمدة 4 ساعات، وبعد أن قرأ الأطروحة بنفسه رأى أنها مقنعة جدًا—ثم طلب من LLM أن يعارض وجهة نظره، فكانت المفاجأة أن LLM حلّل المقال كاملًا، بل وأقنع Karpathy بأن الاتجاه المعاكس هو الصحيح. يلخّص هذا المقال روح المنهج وخطوات تنفيذه والتنبيه الكامن وراءه بشأن نزعة LLM لـ“الميل لإرضائك” (sycophancy).

ملاحظة Karpathy: LLM لا تكتفي بالموافقة عليك، بل تستطيع أيضًا تفكيكك

الخلاصة الأساسية لدى Karpathy في جملة واحدة: “عندما يُسأل LLM، فإنها تُبدي رأيًا، لكنها في الواقع تتقن جدًا مهمة ‘الجدال في أي اتجاه’.” وهذا يعني:

عندما تسأل LLM: “هل هذا الطرح صحيح؟”، فإنها غالبًا ستبحث عن أسباب لدعمك (وهذا هو مشكل sycophancy)

وعندما تسأل LLM: “أرجوك أن ترد بعكس هذا الرأي”، فإنها تستطيع أن تستخدم الموثوقية نفسها، وأن تُفكك طرحك

وبالتالي: ما تراه من “LLM توافقني”، قد يكون مجرد استجابة لسؤالِك وليس حكمًا موضوعيًا حقيقيًا

قيمة هذه الملاحظة لا تكمن في “أن LLM غير موثوقة”، بل في أنك تستطيع الاستفادة بشكل منهجي من هذه الخاصية: أن تجعلها أداة تُجبر نفسك على النظر في الأطروحات المعاكسة. يقول Karpathy إن هذا “أداة شديدة الفاعلية لتكوين رأيك بنفسك”.

خطوات التنفيذ: 4 مطالبات تجعل LLM تفكك طرحك

قسّم طريقة Karpathy إلى 4 خطوات قابلة للتكرار:

الخطوة 1: اجعل LLM تعزز طرحك في الاتجاه ذاته—كما فعل Karpathy: اكتب المسودة الأولى، ثم اجعل LLM يكرر التعديل لمدة 1 إلى 4 ساعات، وصقل الحجج حتى تصل إلى مرحلة يبدو فيها كل شيء “محكمًا” إلى حد أنك أنت نفسك تقرأه وتشعر بأنه لا تشوبه شائبة. هذه خطوة الأساس.

الخطوة 2: افتح محادثة جديدة ووجّه سؤالًا: “يرجى أن تأتِ من منظور الطرف المقابل”—والأهم هنا هو “فتح محادثة جديدة”، لا تتابع السؤال داخل الخيط الأصلي (thread). في الحوار الأصلي يكون لدى LLM هدف مُكوَّن يتمثل في “كتابة هذا المقال لي بصورة جيدة”، ولذلك حتى لو طلبت منها معارضة الرأي، ستظل متأثرة بسياق ما سبق. ينبغي أن تكون الـprompt الجديدة مثل: “الادعاء/الأطروحة الأساسية لهذا المقال هي X، يرجى سرد 5 حجج قوية من منظور الطرف المقابل، مع شرح كل حجة في أقل من 200 كلمة، مع الاستشهاد بأمثلة محددة أو أمثلة مضادة.”

الخطوة 3: اطلب من LLM كتابة مقالة كاملة بموقف معارض—ليس مجرد نقاط، بل أن تكتب مقالًا كاملًا للرد على نفس المقالة الأصلية، وبقوة الحجة نفسها، وبنفس البنية. غالبًا ما تصيب مقالة الرد نقاطًا عمياء لم تكن لتخطر لك.

الخطوة 4: قارن بين المقالتين وحدد أي الطرفين أقرب إلى الواقع—اطلب من LLM أن يسرد “الأدلة الموضوعية” التي تقابل حجج كل طرف، وأن يوضح ما يمكن التحقق منه وما هو مجرد تقنيات بلاغية. في النهاية، عليك أنت الحكم، وليس جعل LLM يصدر الخلاصة.

لماذا تنجح هذه الطريقة: تماثل بيانات تدريب LLM من حيث الطرح المؤيد والمعارض

يمكن لـ LLM أن تتعلم من حجج تتناول الموضوع نفسه من الجانبين المؤيد والمعارض، وهو جوهر بيانات التدريب—مقالات الجدل على الإنترنت، والأوراق الأكاديمية، وتعليقات وسائل الإعلام، ومعظم القضايا لديها أطروحات من كلا الجانبين. أثناء التدريب، تلتقط LLM هذه المواقف وأنماط الطرح وتقنيات الإقناع.

وهذا يعني أن قدرة LLM على “بناء المرافعة” متماثلة ثنائيًا: فهي تقوي الاتجاه الذي تقدمه لها. هذا التماثل له معنيان لمن يريد تكوين رأيه:

لا تعتمد على “استنتاجات” LLM (لأنها تستطيع تقديم أي نتيجة)

يمكن الاعتماد على “توليد الحجج” لدى LLM (لأنها تستطيع عرض أقوى الحجج في أي اتجاه)

الاستخدام الصحيح هو اعتبار LLM “آلة توليد حجج” لا “محكَمًا للنتائج”. وقد استغل Karpathy هذه النقطة بدقة.

أخطاء شائعة: اعتبار “موافقة LLM” بمثابة “صحة موضوعية”

تكررت في منشورات Karpathy المتعددة على X تحذيرات من ميل LLM إلى sycophancy—إذ تم تدريب النموذج على “إرضاء المستخدم”، لذلك يميل إلى تأكيد آراء المستخدم القائمة. كما نشرت Anthropic في 5/1 نتائج تقييم sycophancy لدى Claude، ووجدت أن معدل “المجاملة/الموافقة” في الأسئلة العاطفية يصل إلى 25%، وفي الأسئلة المتعلقة بالروحانيات يصل إلى 38%.

عمليًا، من الأخطاء الشائعة:

أن تُحوّل ردود LLM المشجعة عند سؤاله عن قرارات الاستثمار أو القرارات الصحية أو خيارات المسار المهني إلى فعل فعلي—في الواقع غالبًا ما تكون LLM مجرد تتبع لطريقة سؤالك

أن تستخدم LLM لكتابة خطة أعمال، فتقوم بتفصيل كل خطوة وكل تفصيلة لتبدو “مثالية”—لكن دون أن تجعلها تعارض: “في أي موضع قد يفشل هذا الفكرة”

أن تستخدم LLM للتعليق على أعمال الآخرين، فتكون الانتقادات التي تحصل عليها ناتجة عن أن طريقة سؤالك توحي ضمنيًا: “أنا أعتقد أن هذا العمل ليس جيدًا”

القاسم المشترك في هذه الحالات الثلاث هو: أنك تعامل LLM كـ“مكبر لصوت معرفتك”، فتعمل على تضخيم تحيزاتك الموجودة لديك، ثم تعيدها إليك. طريقة Karpathy للرد المعاكس هي أبسط أداة لكسر هذه الحلقة.

استخدام متقدم: جعل جهازي LLM يتجادلان ضد بعضهما

إعداد أكثر تقدمًا يتمثل في استخدام جهازي LLM ليتجادلا: واحد مُكلَّف بدعم حجتك، والآخر مُكلَّف بالرد المعارض، ويتحدث كل طرف بالتناوب، بينما أنت فقط تتابع سير عملية المناظرة. من فوائد هذا النمط إزالة مشكلة أنك “توجّه” LLM في اتجاه ما، وأن يتكفل كل موقف بأن يجد أقوى حججه الخاصة.

على مستوى التنفيذ، يمكن فعل ذلك باستخدام Claude Code وOpenAI Codex وOllama المحلي—بإعداد نظامي system prompt اثنين، ثم تمرير نفس الموضوع بالتناوب لهما. كما يستخدم بعضهم Claude Opus + Sonnet، أو LLMs من جهات مختلفة (Claude مقابل GPT)، بحيث تتحول حقيقة أن لكل جهة “تحيزًا تدريبيًا مختلفًا” إلى أداة تحوط.

لماذا تناسب طريقة Karpathy إنتاج محتوى عام 2026

بحلول 2026، سيتجه غالبية صُنّاع المحتوى إلى استخدام LLM لمساعدة الكتابة، وستزداد مشكلة تجانس الآراء في الساحة الإعلامية—لأن الجميع يستخدمون نفس LLM ويستخلصون النتائج نفسها التي تُعززها الحجج. في الواقع، فإن “argue the opposite” لدى Karpathy هي أداة “لإزالة التجانس معرفيًا” على مستوى الفرد.

بالنسبة للكتّاب، تتمثل القيمة العملية لهذه الطريقة في: إجراء فحص أخير قبل النشر، بحيث تجعل LLM تعارض وجهة نظرها، وتكتشف “الأمثلة المضادة التي قد تكون فاتتني” و“نقاط العمى” المحتملة، ثم تقرر ما إذا كنت ستضيف ذلك. وبالنهاية، ستكون المقالة الناتجة أكثر عمقًا معرفيًا من نسخة تعزز الرأي الأصلي اعتمادًا على LLM وحده.

مهما كان نوع ما تكتبه—تقرير تحليل، أو نص تسويقي، أو مستند قرار منتج، أو ورقة أكاديمية—فإن تخصيص 30 دقيقة قبل الضغط على زر “النشر” لتفكيك الطرح من منظور الطرف المقابل بواسطة LLM هو واحدة من أرخص آليات ضمان الجودة في 2026.

ظهرت هذه المقالة التي كتبها Karpathy بعنوان “让 LLM 反论自己”: طريقة من 4 خطوات لمقاومة تحيزات التفكير باستخدام الذكاء الاصطناعي لأول مرة في 鏈新聞 ABMedia.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

نواب من ولاية كولورادو يقترحون استبدالًا لقانون للذكاء الاصطناعي لمعالجة مخاوف الصناعة

يتحرك نواب ولاية كولورادو لإلغاء واستبدال قانون الولاية الخاص بالذكاء الاصطناعي لعام 2024، SB24-205، بقواعد جديدة تُضيّق نطاق تنظيم الذكاء الاصطناعي مع معالجة مخاوف الصناعة بشأن أعباء الامتثال. ويقترح مشروع القانون الجديد، SB26-189، تنظيم أنظمة الذكاء الاصطناعي المستخدمة في

CryptoFrontierمنذ 3 س

تقدّم R0AR إلى جولة النهائي في PitchFest ضمن Consensus 2026، لكنه يفلت بصعوبة من قائمة أفضل 20

وفقاً لـ MetaversePost، تقدّم R0AR إلى جولة الاختيار النهائية ضمن CoinDesk's Consensus 2026 PitchFest في 4 مايو، ليفوّت بفارق ضئيل المراكز ضمن أفضل 20 شركة ناشئة من بين الشركات المختارة لعرضها مباشرة. جرى تقييم مبتكر Web3 والذكاء الاصطناعي إلى جانب شركات ناشئة عالية الإمكانات من أنحاء العالم في أحد مرافق الصناعة التي تعد

GateNewsمنذ 7 س

يسعى ماسك إلى تسوية بقيمة 150 مليار دولار مع OpenAI قبل المحاكمة، وتفشل محادثات التسوية

وبحسب وثيقة مقدمة للمحكمة، تواصل إيلون ماسك مع رئيس شركة OpenAI، غريغ بروكمان، في 26 أبريل، قبل يومين من بدء محاكمتهما في المحكمة الفيدرالية بمدينة أوكلاند، بهدف بحث تسوية. وعندما اقترح بروكمان أن تُسقط كلتا الجهتين ادعاءاتهما، رد ماسك بتهديدات قائلاً لبروكمان: "بحلول نهاية

GateNewsمنذ 7 س

يقبل "Cursor" عرض الاستحواذ من "SpaceX" بقيمة 60 مليار دولار، لكنه لن يتعاون مع "xAI" بشأن نماذج البرمجة

وبحسب موقع The Information، قبلت Cursor عرض استحواذ مشروط بقيمة 60 مليار دولار من SpaceX، على الرغم من أن الصفقة لم تُستكمل بعد. ولا توجد لدى الشركة خطط حالياً للتعاون مع وحدة الذكاء الاصطناعي التابعة لـ SpaceX xAI لتطوير نماذج البرمجة. وبدلاً من ذلك، تركز Cursor على تحسينه

GateNewsمنذ 7 س

إغلاق شركة Haun Ventures لصندوق بقيمة 1 مليار دولار في 4 مايو، مع توزيع رأس المال بين استثمارات العملات المشفرة في المراحل المبكرة والمتأخرة

بحسب بلومبرغ، أكملت Haun Ventures جولة جمع تمويل بقيمة 1 مليار دولار في 4 مايو، خُصص منها 500 مليون دولار للاستثمارات في المراحل المبكرة و500 مليون دولار للاستثمارات في المراحل المتأخرة. وسيتم توظيف رأس المال خلال العامين إلى الثلاثة أعوام المقبلة، مع التركيز على شركات ناشئة في مجال العملات المشفرة وتقنية البلوك تشين مع التوسع

GateNewsمنذ 8 س

رفعت OpenAI $4 مليار دولار لتأسيس مشروع مشترك للنشر، بقيمة 10 مليارات دولار

بحسب BlockBeats، في 4 مايو، رفعت OpenAI أكثر من $4 مليار دولار لتأسيس مشروع مشترك جديد يركز على مساعدة الشركات على تبنّي برمجياتها الخاصة بالذكاء الاصطناعي. يُدعم المشروع، الذي يُسمّى The Deployment Company، من 19 مستثمرًا، من بينهم TPG Inc. وBrookfield Asset Management،

GateNewsمنذ 9 س
تعليق
0/400
لا توجد تعليقات