فيتاليك بوتيرين يحذر من مخاطر أمن الذكاء الاصطناعي، ويدعو إلى أنظمة تعتمد على المحلية أولاً

دعا فيتاليك بوتيرين إلى التحول إلى نهج “أسبقية محلية” للذكاء الاصطناعي. وقال إن أدوات الذكاء الاصطناعي الحديثة تطرح مخاطر جدية على الخصوصية والأمان.

الملخص

  • حث فيتاليك بوتيرين على التحول إلى ذكاء اصطناعي أسبقيته محلية، محذّرًا من أن الأنظمة المعتمدة على السحابة تُعرّض بيانات المستخدمين وتزيد مخاطر التلاعب والتسريبات والعمليات غير المصرح بها.
  • استشهد بأبحاث تُظهر أن نحو 15% من “مهارات” وكلاء الذكاء الاصطناعي تتضمن تعليمات خبيثة، وحذّر من أن النماذج قد تحتوي أبوابًا خلفية مخفية أو تفتقر إلى الشفافية الكاملة.
  • اقترح بوتيرين إعدادًا محليًا باستخدام نماذج تعمل على الجهاز، وعزلًا داخل بيئة اختبار (sandboxing)، وتأكيدًا من الإنسان والذكاء الاصطناعي للحد من المخاطر، مع استمرار توسع وكلاء الذكاء الاصطناعي المستقلين في قدراتهم ومساحات الهجوم.

في منشور مدونة حديث، قال إن الذكاء الاصطناعي يتجه إلى ما هو أبعد من أدوات الدردشة البسيطة. إذ تعمل الأنظمة الأحدث الآن كعملاء/وكلاء مستقلين يمكنهم “التفكير لوقت طويل واستخدام مئات الأدوات” لإنجاز المهام. وحذّر من أن هذا التحول يرفع مخاطر تعرّض البيانات الحساسة لوسائل الاستهداف ووقوع عمليات غير مصرح بها.

قال بوتيرين إنه أوقف بالفعل استخدام ذكاء اصطناعي معتمد على السحابة. ووصف إعداده بأنه “ذاتي السيادة، محلي، خاص، وآمن”.

“أنا أنطلق من موقف يخالطُه خوف عميق من تغذية حياتنا الشخصية بأكملها إلى ذكاء اصطناعي سحابي”، كما كتب. وأضاف أن التطورات الأخيرة قد تعني “التراجع عشر خطوات” في مجال الخصوصية، حتى مع ازدياد شيوع التشفير وأدوات أسبقية محلية.

أبرز فيتاليك بوتيرين مخاطر الخصوصية والأمان في الذكاء الاصطناعي

قال بوتيرين إن العديد من أنظمة الذكاء الاصطناعي تعتمد على البنية التحتية السحابية. وحذّر من أن المستخدمين يقومون فعليًا بـ“تغذية حياتنا الشخصية بأكملها إلى ذكاء اصطناعي سحابي”، مما يسمح للخوادم الخارجية بالوصول إلى بياناتهم وتخزينها.

أشار أيضًا إلى مخاطر مرتبطة بوكلاء الذكاء الاصطناعي. يمكن لبعض الأنظمة “تعديل إعدادات حاسمة” أو إدخال قنوات تواصل جديدة دون طلب إذن من المستخدم.

“حتى نماذج LLM تفشل أحيانًا أيضًا”، كما كتب. فهي “قد ترتكب أخطاء أو يتم خداعها”، ما يزيد الحاجة إلى وجود ضوابط أمان عندما يُمنح لها قدر أكبر من السيطرة.

وجدت الأبحاث التي استشهد بها في منشوره أن حوالي 15% من “مهارات” الوكيل تحتوي على تعليمات خبيثة. كما أظهرت بعض الأدوات أنها ترسل البيانات إلى خوادم خارجية “دون وعي المستخدم”.

حذّر من أن بعض النماذج قد تحتوي على أبواب خلفية مخفية. يمكن أن تُفعَّل هذه الأبواب في ظل ظروف محددة وتؤدي إلى أن يتصرف النظام بما يصبّ في مصلحة المطوّر.

أضاف بوتيرين أن كثيرًا من النماذج الموصوفة بأنها مفتوحة المصدر هي في الواقع مجرد “أوزان مفتوحة” (open-weights). إن بنيتها الداخلية ليست مرئية بالكامل، ما يترك مجالًا لمخاطر غير معروفة.

إعداد بوتيرين الشخصي لمعالجة المخاطر

لمعالجة هذه المخاوف، اقترح بوتيرين نظامًا مبنيًا حول الاستدلال المحلي، والتخزين المحلي، وعزلًا صارمًا داخل بيئة اختبار. وقال إن الفكرة هي “عزل كل شيء” والبقاء حذرًا إزاء التهديدات الخارجية.

اختبر عدة إعدادات عتادية باستخدام نموذج Qwen3.5:35B. كان الأداء أقل من 50 رمزًا في الثانية (tokens per second) “مزعجًا للغاية” للاستخدام المعتاد. بينما وفّر حوالي 90 رمزًا في الثانية تجربة أكثر سلاسة.

قدّم جهاز لابتوب مزودًا بمعالج رسومي NVIDIA 5090 أداءً قريبًا من 90 رمزًا في الثانية. ووصلت عتاد DGX Spark إلى حوالي 60 رمزًا في الثانية، وهو ما وصفه بأنه “مخيّب” مقارنةً بلابتوب عالي الفئة.

يعمل إعداده على NixOS مع قيام llama-server بإجراء الاستدلال المحلي. تساعد أدوات مثل llama-swap على إدارة النماذج، بينما تُستخدم bubblewrap لعزل العمليات والحد من الوصول إلى الملفات والشبكات.

قال إن الذكاء الاصطناعي ينبغي التعامل معه بحذر. يمكن أن يكون النظام مفيدًا، لكن لا ينبغي الوثوق به بالكامل، على نحو مشابه لكيف يتعامل المطورون مع العقود الذكية.

لتقليل المخاطر، يستخدم نموذج تأكيد “2-of-2”. فالإجراءات مثل إرسال الرسائل أو المعاملات تتطلب مخرجات الذكاء الاصطناعي وموافقة الإنسان معًا. وقال إن الجمع بين قرارات “الإنسان + LLM” أكثر أمانًا من الاعتماد على أي منهما وحده.

عند استخدام نماذج عن بُعد، تُمرَّر طلبات فيتاليك أولًا عبر نموذج محلي يساعد على إزالة المعلومات الحساسة قبل إرسال أي شيء.

بالنسبة لأولئك الذين لا يستطيعون تحمّل مثل هذه الإعدادات، اقترح أن “يجتمع المستخدمون ضمن مجموعة من الأصدقاء، ويشتروا حاسوبًا وبطاقة GPU على الأقل بمستوى هذه القدرة”، ثم يتصلون بها عن بُعد.

نمو وكلاء الذكاء الاصطناعي يثير مخاوف وفرصًا جديدة

يزداد استخدام وكلاء الذكاء الاصطناعي، مع اكتساب مشاريع مثل OpenClaw زخمًا. ويمكن لهذه الأنظمة أن تعمل من تلقاء نفسها وتنجز المهام باستخدام عدة أدوات.

كما تُدخل هذه القدرات مخاطر جديدة. إذ قد يؤدي التعامل مع محتوى خارجي، مثل صفحة ويب خبيثة، إلى “استيلاء سهل” على النظام.

يمكن لبعض الوكلاء تغيير التعليمات (prompts) أو إعدادات النظام دون موافقة. وتزيد هذه الإجراءات من احتمالات الوصول غير المصرح به وتسرب البيانات.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.21Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.27Kعدد الحائزين:2
    0.24%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.15%
  • تثبيت