جوجل: تُستخدم نماذج اللغات الكبيرة في هجمات فعلية، ويمكن للذكاء الاصطناعي تجاوز آليات الأمان الخاصة بالمصادقة الثنائية

大型語言模型攻擊

في 12 مايو، أفادت CoinEdition بأن فريق Google التهديدات/المخابرات (Threat Intelligence) أصدر تقريرًا يحذر من أن المهاجمين يستخدمون نماذج لغوية كبيرة في هجمات فعلية على الشبكات تؤثر على أنظمة على مستوى العالم، كما أكد أن قراصنة طوروا ثغرة يوم صفر مبنية على Python يمكنها تجاوز آليات الأمان الخاصة بالتحقق على مرحلتين (2FA). وتقول Google إن الأنشطة ذات الصلة ترتبط بإساءة استخدام أدوات الذكاء الاصطناعي في الهجمات السيبرانية على مستوى الدول، وكذلك في شبكات القراصنة تحت الأرض.

التطبيقات المحددة لأدوات الذكاء الاصطناعي في الهجمات السيبرانية

وفقًا لتقرير فريق Google التهديدات/المخابرات، تساعد أدوات الذكاء الاصطناعي المهاجمين على تعزيز قدراتهم في كل مرحلة تقريبًا من مراحل الهجوم السيبراني، بما في ذلك: اكتشاف ثغرات البرمجيات بشكل أسرع، وأتمتة أجزاء من إجراءات الهجوم، وتحسين أساليب مثل التصيد الاحتيالي (Phishing) وإنشاء البرمجيات الخبيثة.

يسجل التقرير حالة محددة: نجح مهاجمون في تجاوز التحقق على مرحلتين (2FA) باستخدام ثغرة يوم صفر مبنية على Python. وتوضح Google أن الهجوم ما زال يتطلب بيانات اعتماد دخول فعالة، ما يشير إلى أن مصدر الثغرة يعود إلى تصميم النظام نفسه، وليس إلى عيب تقني في البرامج.

ويشير التقرير كذلك إلى أن المهاجمين يدرّبون أساليب هجومهم عبر استخدام قواعد بيانات للثغرات الأمنية تتضمن آلاف الثغرات المعروفة وأمثلة على الاستغلال، من أجل تحديد الأنماط التي تساعد في اكتشاف نقاط ضعف جديدة؛ كما يستخدم القراصنة الذكاء الاصطناعي لإنشاء كود زائف، وتعديل الحمولة (payloads) بشكل غير مشروع، وكتابة سكربتات ديناميكية لتجنب الكشف، وفي بعض الحالات يمكن لأنظمة الذكاء الاصطناعي إرسال أوامر فورًا إلى الأجهزة المصابة.

منظمات مرتبطة بكوريا الشمالية والصين: التقرير يؤكد أنها أول من تبنّى أساليب هجوم مدعومة بالذكاء الاصطناعي

وفقًا لتقرير فريق Google التهديدات/المخابرات، فإن المنظمات المرتبطة بالصين وكوريا الشمالية تتصدر في تبني أساليب الهجوم المساعدة بالذكاء الاصطناعي المذكورة أعلاه. وتشمل الأساليب: صياغة رسائل مطالبات (prompts) بدقة لسرقة معلومات أمنية من النظام، والتنكر في هيئة خبراء أمن سيبراني لإجراء فحوصات محتملة للثغرات على البرامج الثابتة (firmware) والأجهزة المضمنة.

Google تنشر أنظمة دفاع بالذكاء الاصطناعي لمواجهة التهديدات

وفقًا لتقرير CoinEdition، قالت Google إنها تعمل على تعزيز إجراءاتها الدفاعية القائمة على الذكاء الاصطناعي: يستخدم نظام Big Sleep لتحديد الثغرات تلقائيًا؛ ويستخدم نظام CodeMender لإصلاح الثغرات تلقائيًا؛ كما تتضمن Gemini تدابير أمنية مضمنة لمنع الأنشطة المشبوهة داخل حسابات المستخدمين.

الأسئلة الشائعة

لماذا تتضمن تقرير فريق Google التهديدات/المخابرات حالة اختراق تتجاوز التحقق على مرحلتين باستخدام الذكاء الاصطناعي؟

وفقًا لتقرير CoinEdition بتاريخ 12 مايو 2026، يؤكد تقرير فريق Google التهديدات/المخابرات أن القراصنة نجحوا في تجاوز آلية أمان 2FA باستخدام ثغرة يوم صفر مبنية على Python. وتوضح Google أن مصدر الثغرة يعود إلى تصميم النظام نفسه، وأن تنفيذ الهجوم يتطلب بيانات اعتماد دخول صالحة.

ما المنظمات المرتبطة بدول محددة التي ذكرتها Google صراحةً بوصفها أول من يستخدم أساليب هجوم مدعومة بالذكاء الاصطناعي؟

وفقًا لتقرير فريق Google التهديدات/المخابرات، فإن المنظمات المرتبطة بالصين وكوريا الشمالية هي التي تبنت أدوات الذكاء الاصطناعي أولًا لتنفيذ هجمات سيبرانية؛ وتشمل الأساليب: صياغة رسائل مطالبات بدقة لسرقة معلومات أمنية، والتنكر في هيئة خبراء أمن سيبراني لمسح ثغرات البرامج الثابتة.

ما أنظمة الذكاء الاصطناعي الدفاعية المُسماة التي نشرتها Google لمواجهة التهديدات ذات الصلة؟

وفقًا لتقرير CoinEdition، قامت Google بنشر أنظمة دفاع بالذكاء الاصطناعي مثل Big Sleep (لتحديد الثغرات تلقائيًا)، وCodeMender (لإصلاح الثغرات تلقائيًا)، وGemini مع تدابير أمنية مضمنة (لمنع الأنشطة المشبوهة في الحسابات).

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات