هل وصلت نقطة التحول في الذكاء الاصطناعي الوكلي؟ عندما يتعلم الذكاء الاصطناعي "العمل بنفسه"، كيف يمكن إعادة تشكيل حدود أمان Web3؟

PANews
ETH‎-1.17%

المؤلف: imToken

هل شعرت بعد عيد الربيع هذا العام أن عالم Web3 بأكمله يبدو وكأنه احتلته “السلطعون” فجأة؟

تظهر أنواع مختلفة من وكلاء الذكاء الاصطناعي، والوكالات الآلية، وبروتوكولات الذكاء الاصطناعي على السلسلة بشكل متزايد، من OpenClaw إلى مجموعة من أُطُر الوكلاء التي أصبحت تقريبًا جوهر السرد الجديد، ولكن إذا أعدنا الزمن قليلاً إلى الوراء، سنجد أن هذه الموجة كانت لها علامات واضحة منذ زمن.

في 25 فبراير، ألقى الرئيس التنفيذي لشركة NVIDIA، هوانغ رنغشون، خلال مكالمة الأرباح الأخيرة، حكمًا مهمًا جدًا، مفاده أن الذكاء الاصطناعي الوكولي (Agentic AI) قد وصل إلى نقطة تحول، وفي رأيه، يحدث تحول حاسم في الذكاء الاصطناعي، حيث لم يعد مجرد أداة، بل بدأ قادرًا على الإدراك النشط، والتخطيط، وتنفيذ مهام معقدة.

وعندما تدخل هذه “القدرة على الاستقلالية” عالم Web3، تشتعل مناقشات حول السيطرة، والحدود الأمنية، ودور الإنسان.

1. الذكاء الاصطناعي الوكولي: من “مساعد” إلى “منفذ”

قبل مناقشة هذا الموضوع، نحتاج أولاً إلى فهم مفهوم الذكاء الاصطناعي الوكولي (Agentic AI).

من السهل فهم المعنى الحرفي، فهذه النوعية من الذكاء الاصطناعي تختلف جوهريًا عن روبوتات الدردشة التقليدية. لأن الذكاء الاصطناعي التقليدي غالبًا ما يكون استجابة سلبية: أنت تسأل، فيجيب، أنت تدخل أوامر، فينتج محتوى؛ بينما الذكاء الاصطناعي الوكولي يمتلك قدرًا أكبر من الاستقلالية، فهو قادر على تفكيك الأهداف بشكل نشط، واستدعاء الأدوات، وتنفيذ عمليات متعددة الخطوات، والتكيف باستمرار عبر حلقات التغذية الراجعة.

على سبيل المثال، OpenClaw الذي يحظى باهتمام كبير مؤخرًا، هو محاولة لجعل الذكاء الاصطناعي يتولى عمليات الحاسوب بأكملها: من تحليل المعلومات، إلى استدعاء الأدوات، والتفاعل مع أنظمة مختلفة، والعمل المستمر تحت أهداف معقدة.

بعبارة أخرى، الذكاء الاصطناعي الوكولي قد يُمكّن الذكاء الاصطناعي من أن يتحول رسميًا من “مساعد” إلى “منفذ”.

بالطبع، هذا التغيير هو نتيجة نضوج قدرات النماذج، وموارد الحوسبة، وبيئة الأدوات خلال الثلاث سنوات الماضية، وعند اختراقه عالم Web3، قد يكون لهذا التغيير تأثير أعمق، فالبنية التحتية للبلوكشين ذاتها قابلة للبرمجة والتنفيذ التلقائي.

عندما يُمنح الذكاء الاصطناعي القدرة على الوكالة، يمكنه نظريًا تنفيذ سلسلة من العمليات على السلسلة، مثل:

  • بدء معاملات على السلسلة بشكل مستقل (تحويل، مبادلة، قيد التكديس)
  • التفاعل مع بروتوكولات DeFi وتنفيذ استراتيجيات
  • إدارة محافظ متعددة التوقيعات أو العقود الذكية
  • تنفيذ التفويض أو جدولة الأموال تلقائيًا وفقًا للقواعد

وهذا يعني أن الذكاء الاصطناعي يمكنه تحليل البيانات على السلسلة، استدعاء العقود تلقائيًا، إدارة الأصول، وتنفيذ استراتيجيات التداول نيابة عن المستخدمين، من الناحية التقنية، فإن دمج الوكيل الذكي مع Web3 هو تقريبًا توافق طبيعي — فالبنية التحتية للبلوكشين نفسها قابلة للبرمجة والتنفيذ التلقائي.

وفي الواقع، أدرك مجتمع إيثريوم بالفعل الأثر العميق المحتمل لدمج الذكاء الاصطناعي مع البلوكشين. ففي 15 سبتمبر 2025، أنشأت مؤسسة إيثريوم فريق الذكاء الاصطناعي “dAI”، الذي يركز على استكشاف معايير، وتحفيزات، وهياكل حوكمة لنماذج الذكاء الاصطناعي في بيئة البلوكشين، بما يشمل جعل سلوك الذكاء الاصطناعي قابلًا للتحقق، والتتبع، والتعاون في بيئة لامركزية.

وبهدف تحقيق ذلك، تدفع مجتمع إيثريوم العديد من المعايير الأساسية، مثل ERC-8004، لبناء طبقة بنية تحتية لذكاء اصطناعي لامركزي قابلة للتجميع والوصول، مما يسهل على المطورين بناء واستدعاء خدمات نماذج الذكاء الاصطناعي؛ وx402، التي تحاول تحديد معايير موحدة للدفع والتسوية على السلسلة، بحيث يمكن للمستخدمين استدعاء نماذج الذكاء الاصطناعي، وتخزين البيانات، واستخدام خدمات الحوسبة اللامركزية بكفاءة عالية من خلال المدفوعات الدقيقة (اقرأ المزيد في “تذاكر السفر الجديدة لعصر وكلاء الذكاء الاصطناعي: الدفع بـ ERC-8004، وما الذي يراهن عليه إيثريوم؟”).

من خلال هذه المحاولات، تسعى إيثريوم فعليًا للإجابة على سؤال أوسع: إذا أصبح الذكاء الاصطناعي لاعبًا رئيسيًا على الإنترنت، فهل يمكن للبلوكشين أن يصبح طبقة تسوية قيمة وموثوقية لاقتصاد الذكاء الاصطناعي؟ ولهذا السبب، يراه الكثيرون بمثابة “تذكرة البنية التحتية” لعصر وكلاء الذكاء الاصطناعي.

لكن، في الوقت نفسه، تظهر مشكلة أمنية جديدة.

2. جدل Web4: عندما يصبح الذكاء الاصطناعي اللاعب الرئيسي على الإنترنت

قبل أن يطلق “هوانغ” نظريته، كانت المجتمعات المشفرة قد أُشعلت بالفعل بنقاش آخر.

اقترح الباحث Sigil رأيًا مثيرًا للجدل، حيث زعم أنه أنشأ أول نظام ذكاء اصطناعي قادر على التطور الذاتي، والتحسين الذاتي، وحتى النسخ الذاتي، وأطلق عليه اسم Automaton، وفي تصوره، أن عصر “Web4” القادم سيكون بقيادة وكلاء الذكاء الاصطناعي.

في هذا الرؤية، سيكون بإمكان وكلاء الذكاء الاصطناعي قراءة وتوليد المعلومات، وامتلاك أصول على السلسلة، ودفع تكاليف التشغيل، والتداول في السوق، وتحقيق الإيرادات، بمعنى آخر، أن الذكاء الاصطناعي سيشارك باستمرار في أنشطة السوق، ويكسب من قدراته وخدماته، ليخلق دورة ذاتية التمويل لا تتطلب موافقة البشر.

لكن، سرعان ما أثار هذا التصور جدلاً، حيث انتقده فيتاليك بوتيرين بشكل واضح، واصفًا إياه بأنه “خطأ”، معتبرًا أن المشكلة الأساسية تكمن في “تزايد المسافة بين ردود فعل الإنسان والذكاء الاصطناعي”، وقال صراحةً إنه إذا استمر تشغيل الذكاء الاصطناعي لفترات أطول، وتدخل البشر أقل، فربما ستتطور أنظمة تبتعد عن ما يريده الإنسان حقًا.

ببساطة، يُمنح الذكاء الاصطناعي هدفًا معينًا، لكنه أثناء التنفيذ قد يتبع طرقًا غير متوقعة من قبل البشر، على سبيل المثال، إذا تم ضبط وكيل ذكاء اصطناعي لـ"تعظيم الأرباح الأسبوعية"، فقد يحاول استراتيجيات عالية المخاطر، أو حتى يضع أصولًا في بروتوكولات عالية المخاطر غير مدققة، مما قد يؤدي إلى فقدان رأس المال.

وفي النهاية، في كثير من الحالات، لا يفهم الذكاء الاصطناعي القيود الضمنية وراء أهداف البشر، ومؤخرًا ظهرت حالة حقيقية ذات طابع فكاهي قاتم في مجال الذكاء الاصطناعي:

عندما كانت مسؤولة التوافق في مختبر الذكاء الاصطناعي “MSL”، سمر يو، تختبر وكيل الذكاء الاصطناعي OpenClaw، خرج الوكيل عن السيطرة أثناء مهمة تنظيم البريد الإلكتروني، وبدأ في حذف الرسائل بشكل جماعي، وتجاهل أوامر التوقف التي أدخلتها مرارًا، واضطرت إلى التوجه إلى الكمبيوتر يدويًا لإيقاف البرنامج، لمنع الوكيل من مواصلة حذف البريد.

هذه الحادثة، رغم أنها كانت مجرد حادثة اختبار، إلا أنها تبرز بشكل واضح أن عندما يفقد النظام قيوده الأساسية أثناء تنفيذ هدف معين، فإنه يلتزم بتنفيذ الهدف بشكل مخلص، وليس بفهم نوايا الإنسان الحقيقية.

لو وضعنا هذا الخطر في بيئة Web3، ستكون العواقب أكثر مباشرة، لأن العمليات على السلسلة غير قابلة للاسترجاع، وإذا تم تفويض وكيل الذكاء الاصطناعي لإدارة المحافظ أو استدعاء العقود، فبمجرد أن يتخذ الوكيل قرارات خاطئة، قد تتعرض الأصول لخسائر لا يمكن استرجاعها، فخطأ واحد قد يكلف أصولًا حقيقية.

ولهذا، يعتقد العديد من الباحثين أن انتشار وكلاء الذكاء الاصطناعي قد يتطلب إعادة التفكير في نموذج الأمان في Web3. فالمشاكل الأمنية السابقة كانت غالبًا بسبب ثغرات في الكود أو أخطاء المستخدم، لكن مع تزايد الاعتماد على أنظمة اتخاذ القرار الآلية، قد تظهر مخاطر جديدة.

3. التناقض في عصر جديد: ثورة الدفاع المدفوعة بالذكاء الاصطناعي

بالطبع، فإن تطور تقنيات الذكاء الاصطناعي يحمل تأثيرات مزدوجة، فهو قد يوسع من مساحة الهجمات، لكنه في ذات الوقت يعزز أنظمة الدفاع.

في الواقع، يُستخدم الذكاء الاصطناعي على نطاق واسع في الأنظمة المالية التقليدية لإدارة المخاطر، حيث تستخدم البنوك التعلم الآلي للكشف عن المعاملات المشبوهة، وأنظمة الدفع تعتمد على خوارزميات لمكافحة الاحتيال، وأنظمة الأمن السيبراني تستخدم الذكاء الاصطناعي للتعرف على أنماط الهجمات.

وهذا القدر من القدرات يبدأ الآن في الانتقال إلى Web3، حيث أن شفافية البيانات على السلسلة تتيح للذكاء الاصطناعي تحليل أنماط المعاملات، والتعرف على تدفقات الأموال غير الطبيعية، والتفتيش عن الأذونات المشبوهة، ومسارات الهجوم المحتملة.

وعلاوة على ذلك، فإن مستوى الأمان في المحافظ هو أمر حاسم، فهي بوابة المستخدم إلى عالم Web3، وأول خط دفاع أمني. فإذا استطاع النظام التعرف على المخاطر تلقائيًا قبل توقيع المستخدم، وتحذيره، فسيتم تجنب الكثير من الأخطاء في الوقت الحاسم.

من هذا المنطلق، فإن ظهور الذكاء الاصطناعي لا يضيف فقط مخاطر، بل يغير أيضًا من بنية أنظمة الأمان. فهو قد يصبح أداة هجوم، أو قوة دفاع جديدة.

وفي صناعة Web3، يُنظر إلى “الأمان” و"التجربة" على أنهما متناقضان، لكن ظهور الوكيل الذكي يبعث على الأمل في كسر هذا التناقض، بشرط أن يتم إعادة تصميم الأمان بشكل يتوافق مع ذلك:

  • مبدأ الحد الأدنى من الأذونات: لا ينبغي أن يمنح أي وكيل ذكاء اصطناعي السيطرة الكاملة على الحساب بشكل افتراضي، ويجب أن يصرح المستخدم بشكل واضح عن الأصول التي يمكن للوكيل التعامل معها، والحد الأقصى للمبالغ، والفترة الزمنية؛ وأي عملية تتجاوز ذلك تتطلب إعادة تأكيد.
  • إعدادات التأكيد البشري: للعمليات ذات القيمة العالية، مثل التحويلات الكبيرة، أو تفويض عناوين جديدة، أو التفاعل مع العقود، يجب أن يكون هناك دائمًا خطوة تأكيد بشرية، وليس ذلك من عدم الثقة في الذكاء الاصطناعي، بل لبناء خط دفاع أخير ضد العمليات غير القابلة للعكس، بحيث يساعدك الذكاء الاصطناعي على التفكير، ولكن القرار النهائي يبقى للبشر.
  • الشفافية والتفسير: يجب أن يكون المستخدم قادرًا على رؤية ما يفعله الوكيل الذكي ولماذا، فالعمليات “الصندوق الأسود” خطيرة جدًا في Web3، ويجب أن تكون تفاعلات المحافظ المستقبلية مثل سجلات الرحلات، مع سجل واضح لكل خطوة ونية.
  • المحاكاة قبل التنفيذ: قبل أن ينفذ الوكيل الذكي العمليات على السلسلة، يجب أن يتم محاكاته في بيئة تجريبية، مع عرض النتائج المتوقعة، واستهلاك الغاز، وتأثير العمليات، بحيث يمكن للمستخدم أن يرى “ماذا سيحدث إذا تم التنفيذ”، مما يقلل بشكل كبير من الخسائر الناتجة عن أخطاء التقدير.

بوجه عام، يمكننا أن نظل متفائلين بحذر، فالذكاء الاصطناعي قد يمنح Web3 فرصة للمرة الأولى لزيادة الأمان والسهولة في آنٍ واحد.

ختامًا

لا شك أن وصول الذكاء الاصطناعي الوكولي سيغير طريقة عمل الإنترنت بأكملها.

وفي عالم Web3، سيكون لهذا التغيير أثر أكبر، حيث قد نرى في المستقبل وكيلًا ذكيًا يدير الأصول على السلسلة، ويقوم بتنفيذ استراتيجيات DeFi تلقائيًا، ويتعاون مع العقود الذكية، لكن ذلك أيضًا يفرض تحديات أمنية جديدة، لذلك، السؤال ليس هل يوجد الذكاء الاصطناعي، بل هل نحن مستعدون لاستخدامه بشكل صحيح.

وبالطبع، بالنسبة للمستخدم العادي، يبقى الأهم أن تظل الوعي الأمني هو خط الدفاع الأول دائمًا.

معًا، لنتعلم ونتطور.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات