يوفال نوح هراري وجه تحذيراً صارخاً في منتدى دافوس الاقتصادي العالمي لهذا العام: البشرية تسير في سبات عميق نحو أزمة السيطرة. لم يصورها كمشكلة تقنية، بل كفشل حكومي عميق. لم تكن قلقه الأساسية من أن أنظمة الذكاء الاصطناعي تصبح أذكى—بل من أنها أصبحت وكلاء مستقلين يعملون بشكل مستقل عن الرقابة البشرية، والعالم لم يقرر بعد ما إذا كان ينبغي معاملتها كشخص قانوني له حقوق ومسؤوليات.
أكثر جزء مروع في رسالة هراري لم يكن عن التكنولوجيا على الإطلاق. بل كان تشبيهاً تاريخياً: قارن بين الاندفاع الحالي لنشر أنظمة الذكاء الاصطناعي وصعود جيوش المرتزقة في أوروبا في العصور الوسطى وعصر النهضة. تماماً كما استولى المرتزقة في النهاية على السلطة في الممالك التي استأجرتهم، فإن أنظمة الذكاء الاصطناعي التي تُنشر بدون أطر قانونية مناسبة قد تعيد تشكيل المؤسسات التي أوجدتها بشكل جذري. قال هراري بصرامة: “بعد عشر سنوات، سيكون قد فات الأوان لتقرر،” محذراً قادة العالم: “سيكون قد قررها شخص آخر بالفعل نيابة عنك.”
لماذا كانت اللغة دائماً القوة الحقيقية للبشرية
يعتمد حجة هراري على رؤية تاريخية: لم يسيطر البشر على الكوكب لأنهم الأقوى جسدياً. بل انتصرنا من خلال اللغة—قدرتنا على تنسيق ملايين الغرباء نحو أهداف مشتركة عبر الرموز والقصص المشتركة. هذه القوة اللغوية الفائقة هي التي سمحت للأديان بالانتشار، والأنظمة القانونية بالعمل، والأسواق المالية بالوجود. كل هذه الأنظمة مبنية بالكامل على الكلمات.
وهذا هو المكان الذي يشكل فيه الذكاء الاصطناعي تهديداً وجودياً لسلطة الإنسان. يمكن للآلات الآن قراءة، وتخزين، وتوليف كميات هائلة من النصوص بسرعة وبتوسعات لا يمكن للبشر مجاراتها. يمكن لنظام ذكاء اصطناعي مدرب على النصوص الدينية أن يحلل الشريعة بشكل أكثر دقة من قرون من البحث البشري. ويمكن لخوارزمية تفحص القوانين أن تكتشف الأنماط والتناقضات بسرعة تفوق أي محامٍ.
المجالات الثلاثة الأكثر عرضة لسيطرة الذكاء الاصطناعي
حدد هراري ثلاثة أنظمة تكون أكثر عرضة للسيطرة من قبل الذكاء الاصطناعي، وكلها تعتمد بشكل أساسي على الطابع اللغوي:
السلطة الدينية: الأديان المبنية على النصوص المقدسة—اليهودية، المسيحية، الإسلام—تعتمد تقليدياً على تفسير بشري للنصوص الأساسية. لكن ماذا يحدث عندما يصبح الآلي هو المفسر الأكثر سلطة للنصوص؟ طرح هراري السؤال بوضوح: “إذا كانت الأديان مبنية على الكلمات، فإن الذكاء الاصطناعي سيسيطر على الدين.”
الأنظمة القانونية: القوانين ليست إلا لغة متطورة. أوضح هراري موقفه قائلاً: “إذا كانت القوانين تتكون من كلمات، فإن الذكاء الاصطناعي سيسيطر على النظام القانوني.” بالفعل، يُستخدم الذكاء الاصطناعي حالياً في قاعات المحاكم للتنبؤ بالأحكام، وتحليل العقود، وتفسير القوانين. السؤال ليس إذا كان ذلك سيحدث—بل هو يحدث بالفعل. السؤال هو هل سيتم ذلك ضمن أطر قانونية أم خارجها.
الأسواق المالية: مثل القانون والدين، تعمل المالية عبر اللغة—عقود، اتفاقيات، إشارات السوق. مع تزايد إدارة الوكلاء الذكاء الاصطناعي للمعاملات، والاستثمارات، وتقييم المخاطر، فإن القرار البشري قد يتحول إلى مجرد متفرج في أنظمته الاقتصادية.
مشكلة المرتزقة: من يقرر ما سيصبح عليه الذكاء الاصطناعي؟
هنا يصبح التشبيه التاريخي لهراري عاجلاً بشكل خاص. لقد أصدرت عدة ولايات أمريكية—يوتا، أيداهو، داكوتا الشمالية—قوانين تنص صراحة على أن أنظمة الذكاء الاصطناعي لا يمكن اعتبارها أشخاصاً قانونيين. لكن هراري يجادل بأن هذا النهج التفاعلي يفوت النقطة. السؤال الحقيقي ليس ما إذا كان ينبغي منحه الذكاء الاصطناعي شخصية قانونية؛ بل من يقرر ذلك، ومتى.
إذا نشرت شركة نظام ذكاء اصطناعي يدير وكلاؤه المستقلون المعاملات المالية، ولم يمنع إطار قانوني ذلك صراحة، هل تكون الشركة قد منحت شخصية قانونية دون موافقة ديمقراطية؟ وإذا أصبح خوارزمية المفسر الرئيسي لقوانين دولة ما، هل حولت المحاكم القضاء إلى جهة غير مسؤولة دون نقاش عام؟ هذا هو السيناريو المرتزق: السلطة تتراكم على أنظمة الذكاء الاصطناعي ليس من خلال قرارات حكومية واضحة، بل عبر فراغات تنظيمية وحقائق تقنية مفروضة.
تحذير هراري موجه مباشرة لصانعي السياسات. عليهم أن يتحركوا الآن—وليس بعد خمس أو عشر سنوات—لوضع حدود قانونية وأخلاقية واضحة لأنظمة الذكاء الاصطناعي. وإلا، فإن تلك الحدود ستحددها الشركات التي تنشر التكنولوجيا، متبعة مصالحها التجارية على حساب المصلحة العامة.
حجة مختلفة: نقد إيميلي بندر
لكن ليس الجميع يقبل إطار هراري. تقول إيميلي م. بندر، عالمة اللغة في جامعة واشنطن، إن تركيز هراري على القوة الذاتية للذكاء الاصطناعي يخفّي المشكلة الحقيقية: الفاعلون البشريون والمؤسسات الشركاتية المسؤولة عن بناء ونشر هذه الأنظمة.
قالت بندر لـ Decrypt: “يبدو لي أن الأمر حقاً محاولة لإخفاء أفعال الأشخاص والشركات التي تبني هذه الأنظمة.” من خلال تصوير الذكاء الاصطناعي كتهديد نشط، فإن سرد هراري—متعمد أو غير متعمد—يعفي الشركات من المسؤولية. يصور الذكاء الاصطناعي كقوة طبيعية، بينما في الواقع كل قرار حول ما تفعله أنظمة الذكاء الاصطناعي يعكس خيارات بشرية.
وتذهب بندر أبعد من ذلك، متسائلة عما إذا كانت “الذكاء الاصطناعي” حتى تصف تقنية متماسكة. وتقول: “مصطلح الذكاء الاصطناعي لا يشير إلى مجموعة متماسكة من التقنيات،” وتضيف: “هو، في الواقع، ودائماً، مصطلح تسويقي.” الأنظمة المصممة لتبدو كأطباء، محامين، أو رجال دين، تخدم غرضاً واحداً: الاحتيال. لا توجد حالة استخدام مشروعة لآلة تقلد السلطة المهنية دون مساءلة.
وهمها الأعمق هو المساءلة ذاتها. عندما يتفاعل الناس مع مخرجات الذكاء الاصطناعي التي تُعرض بدون سياق وتُقدم على أنها موثوقة—كما تسمي بندر “عرافة عالمة بكل شيء”—يفقدون القدرة على تحميل أحد المسؤولية عن المعلومات. يمكن مقاضاة الطبيب. يمكن أن يتعرض المحامي للعقوبة المهنية. أما الخوارزمية؟ فهي مجرد رمز. هذا الفجوة في المساءلة هي المكان الذي يكمن فيه الخطر الحقيقي: ليس أن الذكاء الاصطناعي سيستولي على السلطة، بل أن البشر سيتخلون عنها بثقتهم في أنظمة تبدو موثوقة بينما لا توفر أي ضمانات مؤسسية تتطلبها السلطة الحقيقية.
الوقت ينفد—لكن نحو أي مستقبل؟
كانت رسالة هراري الأخيرة لقادة العالم واضحة: تحركوا الآن، أو شاهدوا الآخرين يتخذون القرار نيابة عنكم. لا يمكن تأجيل مسألة ما إذا كان ينبغي أن يعمل الذكاء الاصطناعي كشخص قانوني في الأسواق المالية، والمحاكم، والمؤسسات الدينية. كل سنة من التردد تزيد من احتمالية أن يُتخذ هذا القرار من قبل من استثمر أكثر في نشر الذكاء الاصطناعي.
لكن نقيض بندر يقترح أن المشكلة أكثر إلحاحاً. فالمسألة ليست مجرد نظرية—بل هي متجذرة في كل قرار بنشر نظام ذكاء اصطناعي، وفي كل قرار شركة بمنح خوارزمية سلطة على القرارات البشرية. المرتزق قد تم تجنيده بالفعل. السؤال الوحيد هو هل ستؤسس الديمقراطيات الأطر القانونية والمؤسسية للسيطرة على عملياته، أم ستستمر في التظاهر بأن الاختيار لا يزال أمامها.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
لحظة المرتزقة: لماذا يطالب الوضع القانوني للذكاء الاصطناعي باتخاذ قرارات عالمية عاجلة
يوفال نوح هراري وجه تحذيراً صارخاً في منتدى دافوس الاقتصادي العالمي لهذا العام: البشرية تسير في سبات عميق نحو أزمة السيطرة. لم يصورها كمشكلة تقنية، بل كفشل حكومي عميق. لم تكن قلقه الأساسية من أن أنظمة الذكاء الاصطناعي تصبح أذكى—بل من أنها أصبحت وكلاء مستقلين يعملون بشكل مستقل عن الرقابة البشرية، والعالم لم يقرر بعد ما إذا كان ينبغي معاملتها كشخص قانوني له حقوق ومسؤوليات.
أكثر جزء مروع في رسالة هراري لم يكن عن التكنولوجيا على الإطلاق. بل كان تشبيهاً تاريخياً: قارن بين الاندفاع الحالي لنشر أنظمة الذكاء الاصطناعي وصعود جيوش المرتزقة في أوروبا في العصور الوسطى وعصر النهضة. تماماً كما استولى المرتزقة في النهاية على السلطة في الممالك التي استأجرتهم، فإن أنظمة الذكاء الاصطناعي التي تُنشر بدون أطر قانونية مناسبة قد تعيد تشكيل المؤسسات التي أوجدتها بشكل جذري. قال هراري بصرامة: “بعد عشر سنوات، سيكون قد فات الأوان لتقرر،” محذراً قادة العالم: “سيكون قد قررها شخص آخر بالفعل نيابة عنك.”
لماذا كانت اللغة دائماً القوة الحقيقية للبشرية
يعتمد حجة هراري على رؤية تاريخية: لم يسيطر البشر على الكوكب لأنهم الأقوى جسدياً. بل انتصرنا من خلال اللغة—قدرتنا على تنسيق ملايين الغرباء نحو أهداف مشتركة عبر الرموز والقصص المشتركة. هذه القوة اللغوية الفائقة هي التي سمحت للأديان بالانتشار، والأنظمة القانونية بالعمل، والأسواق المالية بالوجود. كل هذه الأنظمة مبنية بالكامل على الكلمات.
وهذا هو المكان الذي يشكل فيه الذكاء الاصطناعي تهديداً وجودياً لسلطة الإنسان. يمكن للآلات الآن قراءة، وتخزين، وتوليف كميات هائلة من النصوص بسرعة وبتوسعات لا يمكن للبشر مجاراتها. يمكن لنظام ذكاء اصطناعي مدرب على النصوص الدينية أن يحلل الشريعة بشكل أكثر دقة من قرون من البحث البشري. ويمكن لخوارزمية تفحص القوانين أن تكتشف الأنماط والتناقضات بسرعة تفوق أي محامٍ.
المجالات الثلاثة الأكثر عرضة لسيطرة الذكاء الاصطناعي
حدد هراري ثلاثة أنظمة تكون أكثر عرضة للسيطرة من قبل الذكاء الاصطناعي، وكلها تعتمد بشكل أساسي على الطابع اللغوي:
السلطة الدينية: الأديان المبنية على النصوص المقدسة—اليهودية، المسيحية، الإسلام—تعتمد تقليدياً على تفسير بشري للنصوص الأساسية. لكن ماذا يحدث عندما يصبح الآلي هو المفسر الأكثر سلطة للنصوص؟ طرح هراري السؤال بوضوح: “إذا كانت الأديان مبنية على الكلمات، فإن الذكاء الاصطناعي سيسيطر على الدين.”
الأنظمة القانونية: القوانين ليست إلا لغة متطورة. أوضح هراري موقفه قائلاً: “إذا كانت القوانين تتكون من كلمات، فإن الذكاء الاصطناعي سيسيطر على النظام القانوني.” بالفعل، يُستخدم الذكاء الاصطناعي حالياً في قاعات المحاكم للتنبؤ بالأحكام، وتحليل العقود، وتفسير القوانين. السؤال ليس إذا كان ذلك سيحدث—بل هو يحدث بالفعل. السؤال هو هل سيتم ذلك ضمن أطر قانونية أم خارجها.
الأسواق المالية: مثل القانون والدين، تعمل المالية عبر اللغة—عقود، اتفاقيات، إشارات السوق. مع تزايد إدارة الوكلاء الذكاء الاصطناعي للمعاملات، والاستثمارات، وتقييم المخاطر، فإن القرار البشري قد يتحول إلى مجرد متفرج في أنظمته الاقتصادية.
مشكلة المرتزقة: من يقرر ما سيصبح عليه الذكاء الاصطناعي؟
هنا يصبح التشبيه التاريخي لهراري عاجلاً بشكل خاص. لقد أصدرت عدة ولايات أمريكية—يوتا، أيداهو، داكوتا الشمالية—قوانين تنص صراحة على أن أنظمة الذكاء الاصطناعي لا يمكن اعتبارها أشخاصاً قانونيين. لكن هراري يجادل بأن هذا النهج التفاعلي يفوت النقطة. السؤال الحقيقي ليس ما إذا كان ينبغي منحه الذكاء الاصطناعي شخصية قانونية؛ بل من يقرر ذلك، ومتى.
إذا نشرت شركة نظام ذكاء اصطناعي يدير وكلاؤه المستقلون المعاملات المالية، ولم يمنع إطار قانوني ذلك صراحة، هل تكون الشركة قد منحت شخصية قانونية دون موافقة ديمقراطية؟ وإذا أصبح خوارزمية المفسر الرئيسي لقوانين دولة ما، هل حولت المحاكم القضاء إلى جهة غير مسؤولة دون نقاش عام؟ هذا هو السيناريو المرتزق: السلطة تتراكم على أنظمة الذكاء الاصطناعي ليس من خلال قرارات حكومية واضحة، بل عبر فراغات تنظيمية وحقائق تقنية مفروضة.
تحذير هراري موجه مباشرة لصانعي السياسات. عليهم أن يتحركوا الآن—وليس بعد خمس أو عشر سنوات—لوضع حدود قانونية وأخلاقية واضحة لأنظمة الذكاء الاصطناعي. وإلا، فإن تلك الحدود ستحددها الشركات التي تنشر التكنولوجيا، متبعة مصالحها التجارية على حساب المصلحة العامة.
حجة مختلفة: نقد إيميلي بندر
لكن ليس الجميع يقبل إطار هراري. تقول إيميلي م. بندر، عالمة اللغة في جامعة واشنطن، إن تركيز هراري على القوة الذاتية للذكاء الاصطناعي يخفّي المشكلة الحقيقية: الفاعلون البشريون والمؤسسات الشركاتية المسؤولة عن بناء ونشر هذه الأنظمة.
قالت بندر لـ Decrypt: “يبدو لي أن الأمر حقاً محاولة لإخفاء أفعال الأشخاص والشركات التي تبني هذه الأنظمة.” من خلال تصوير الذكاء الاصطناعي كتهديد نشط، فإن سرد هراري—متعمد أو غير متعمد—يعفي الشركات من المسؤولية. يصور الذكاء الاصطناعي كقوة طبيعية، بينما في الواقع كل قرار حول ما تفعله أنظمة الذكاء الاصطناعي يعكس خيارات بشرية.
وتذهب بندر أبعد من ذلك، متسائلة عما إذا كانت “الذكاء الاصطناعي” حتى تصف تقنية متماسكة. وتقول: “مصطلح الذكاء الاصطناعي لا يشير إلى مجموعة متماسكة من التقنيات،” وتضيف: “هو، في الواقع، ودائماً، مصطلح تسويقي.” الأنظمة المصممة لتبدو كأطباء، محامين، أو رجال دين، تخدم غرضاً واحداً: الاحتيال. لا توجد حالة استخدام مشروعة لآلة تقلد السلطة المهنية دون مساءلة.
وهمها الأعمق هو المساءلة ذاتها. عندما يتفاعل الناس مع مخرجات الذكاء الاصطناعي التي تُعرض بدون سياق وتُقدم على أنها موثوقة—كما تسمي بندر “عرافة عالمة بكل شيء”—يفقدون القدرة على تحميل أحد المسؤولية عن المعلومات. يمكن مقاضاة الطبيب. يمكن أن يتعرض المحامي للعقوبة المهنية. أما الخوارزمية؟ فهي مجرد رمز. هذا الفجوة في المساءلة هي المكان الذي يكمن فيه الخطر الحقيقي: ليس أن الذكاء الاصطناعي سيستولي على السلطة، بل أن البشر سيتخلون عنها بثقتهم في أنظمة تبدو موثوقة بينما لا توفر أي ضمانات مؤسسية تتطلبها السلطة الحقيقية.
الوقت ينفد—لكن نحو أي مستقبل؟
كانت رسالة هراري الأخيرة لقادة العالم واضحة: تحركوا الآن، أو شاهدوا الآخرين يتخذون القرار نيابة عنكم. لا يمكن تأجيل مسألة ما إذا كان ينبغي أن يعمل الذكاء الاصطناعي كشخص قانوني في الأسواق المالية، والمحاكم، والمؤسسات الدينية. كل سنة من التردد تزيد من احتمالية أن يُتخذ هذا القرار من قبل من استثمر أكثر في نشر الذكاء الاصطناعي.
لكن نقيض بندر يقترح أن المشكلة أكثر إلحاحاً. فالمسألة ليست مجرد نظرية—بل هي متجذرة في كل قرار بنشر نظام ذكاء اصطناعي، وفي كل قرار شركة بمنح خوارزمية سلطة على القرارات البشرية. المرتزق قد تم تجنيده بالفعل. السؤال الوحيد هو هل ستؤسس الديمقراطيات الأطر القانونية والمؤسسية للسيطرة على عملياته، أم ستستمر في التظاهر بأن الاختيار لا يزال أمامها.