ظهور أمان Codex من OpenAI كجزء من سباق الأمن السيبراني في مجال الذكاء الاصطناعي مع شركة Anthropic يشتد

Coinpedia

أطلقت شركة OpenAI نظام أمان Codex في 6 مارس، مقدمة وكيل أمان تطبيقات يعتمد على الذكاء الاصطناعي (AI) يقوم بمسح مستودعات Github للكشف عن الثغرات، وذلك بعد أسابيع قليلة من إطلاق شركة Anthropic أداة Claude Code Security المنافسة—محوّلة الدفاع عن الشفرات المدعوم بالذكاء الاصطناعي إلى ساحة التنافس الأحدث في صناعة التكنولوجيا.

OpenAI تطلق Codex Security لمواجهة Claude Code Security من Anthropic

يأتي هذا الإصدار وسط اهتمام متزايد بأدوات الذكاء الاصطناعي التي يمكنها فحص مشاريع برمجية ضخمة بسرعة تفوق قدرات فرق الأمان البشرية. تم تصميم Codex Security لتحليل المستودعات، وتحديد الثغرات، والتحقق منها في بيئات اختبار معزولة، واقتراح إصلاحات يمكن للمطورين مراجعتها قبل تطبيقها. يبني النظام سياقه تدريجيًا مع كل التزام، مما يسمح للذكاء الاصطناعي بفهم كيفية تطور الشفرة بدلاً من مجرد تحديد مقاطع معزولة.

قالت OpenAI:

“نقدم Codex Security، وهو وكيل أمان تطبيقات يساعدك على تأمين قاعدة الشفرة الخاصة بك من خلال اكتشاف الثغرات، والتحقق منها، واقتراح إصلاحات يمكنك مراجعتها وتصحيحها. الآن، يمكن الفرق التركيز على الثغرات التي تهمها وإصدار الشفرة بسرعة أكبر.”

ذكرت OpenAI أن الأداة تعتمد على نظام بيئي يسمى Codex، وهو مساعد هندسي يعتمد على السحابة تم تقديمه في مايو 2025 لمساعدة المطورين على كتابة الشفرة، وإصلاح الأخطاء، واقتراح طلبات السحب. بحلول مارس 2026، ارتفعت استخدامات Codex إلى حوالي 1.6 مليون مستخدم أسبوعيًا، وفقًا للشركة. تمتد قدرات Codex إلى أمان التطبيقات، وهو قطاع صناعي يُقدر أن يحقق حوالي 20 مليار دولار سنويًا.

تأتي إعلان OpenAI بعد إصدار GPT-5.3 Instant وGPT-5.4 أيضًا. كما يأتي هذا التحرك بعد إطلاق Anthropic في 20 فبراير أداة Claude Code Security، التي تفحص قواعد الشفرة بأكملها وتقترح تصحيحات للثغرات المكتشفة. مبنية على نموذج Claude Opus 4.6، تحاول الأداة التفكير في البرمجيات مثل باحث أمان بشري—تحليل منطق الأعمال، وتدفقات البيانات، وتفاعلات النظام بدلاً من الاعتماد فقط على قواعد الفحص الثابتة.

قالت شركة Anthropic إن Claude Code Security قد حدد أكثر من 500 ثغرة في مشاريع برمجية مفتوحة المصدر، بما في ذلك قضايا لم تُلاحظ لسنوات. وتوفر الشركة حاليًا الميزة في معاينة بحثية للعملاء من المؤسسات والفرق، بينما يمكن لمشرفي المصادر المفتوحة طلب وصول سريع مجانًا.

كلا الشركتين تراهن على أن أنظمة الذكاء الاصطناعي القادرة على التفكير في سياق الشفرة ستتفوق على أدوات الكشف التقليدية عن الثغرات، التي غالبًا ما تنتج كميات كبيرة من الإيجابيات الكاذبة. لمعالجة هذه المشكلة، تستخدم Claude Code Security نظام تحقق متعدد المراحل يعيد فحص النتائج ويعطي درجات خطورة وثقة.

تتبنى Codex Security نهجًا مختلفًا قليلاً. بدلاً من الاعتماد فقط على استنتاج النموذج، يتحقق الوكيل من الثغرات المشتبه بها داخل بيئات معزولة قبل عرض النتائج. قالت OpenAI إن العملية تقلل من الضوضاء وتسمح للذكاء الاصطناعي بترتيب النتائج بناءً على الأدلة التي تم جمعها أثناء الاختبار.

“بدأت Codex Security كـ Aardvark، وأطلقت العام الماضي في نسخة تجريبية خاصة،” كتبت OpenAI على X. وأضافت:

“منذ ذلك الحين، قمنا بتحسين جودة الإشارة بشكل كبير، وتقليل الضوضاء، وتحسين دقة الخطورة، وخفض الإيجابيات الكاذبة، بحيث تتوافق النتائج بشكل أفضل مع المخاطر الواقعية.”

يمكن للمطورين الذين يراجعون نتائج Codex Security فحص البيانات الداعمة، وعرض اختلافات الشفرة للتصحيحات المقترحة، ودمج الإصلاحات من خلال سير عمل Github. كما يتيح النظام للفرق تخصيص نماذج التهديدات عبر تعديل معلمات مثل سطح الهجوم، ونطاق المستودع، وتحمل المخاطر.

بينما أثار إطلاق Anthropic قلق بعض قطاعات الأمن السيبراني، فإن دخول OpenAI لم يسبب حتى الآن سوى حديث أكثر من ذعر السوق. عندما ظهرت Claude Code Security في فبراير، انخفضت أسهم بعض شركات الأمن السيبراني بين 5% و10% لفترة وجيزة، بما في ذلك شركات مثل Crowdstrike وPalo Alto Networks، قبل أن تتعافى بشكل كبير في جلسات التداول التالية.

وفي ذلك الوقت، قال المحللون إن البيع ربما يعكس قلقًا من إمكانية أن تحل أدوات الذكاء الاصطناعي محل أجزاء من سوق أمان التطبيقات. ومع ذلك، يجادل العديد من الباحثين بأن أدوات الذكاء الاصطناعي من المرجح أن تكمل المنصات الأمنية الحالية بدلاً من استبدالها تمامًا.

تطورت قدرات اكتشاف الثغرات المدعوم بالذكاء الاصطناعي بسرعة خلال العامين الماضيين، مع مشاركة نماذج اللغة الكبيرة (LLMs) بشكل متزايد في مهام أبحاث الأمن السيبراني مثل مسابقات Capture-the-Flag واكتشاف الثغرات الآلي. يمكن أن تساعد هذه القدرات المدافعين على تحديد نقاط الضعف في البرمجيات بشكل أسرع—لكنها تثير أيضًا مخاوف من أن المهاجمين قد يستغلون أنظمة مماثلة.

لمواجهة تلك المخاطر، أطلقت OpenAI مبادرة “الوصول الموثوق به للأمن السيبراني” في 5 فبراير، التي توفر للباحثين الأمنيين المعتمدين وصولًا محدودًا إلى نماذج متقدمة لأغراض البحث الدفاعي. اتبعت Anthropic نهجًا مماثلاً من خلال شراكات مع مؤسسات مثل المختبر الوطني لشمال غرب المحيط الهادئ وبرامج الفرق الحمراء الداخلية.

يُعد ظهور وكلاء الأمان بالذكاء الاصطناعي تحولًا نحو ما يسميه العديد من الباحثين “الأمن السيبراني الوكيل”، حيث تقوم الأنظمة الذاتية بتحليل، واختبار، ومعالجة ثغرات البرمجيات بشكل مستمر. إذا نجحت، يمكن لهذه الأدوات تقصير الوقت بين اكتشاف الثغرة ونشر التصحيح—وهو أحد أكبر نقاط الضعف في أمان البرمجيات الحديثة.

بالنسبة للمطورين وفرق الأمان، من الصعب تجاهل التوقيت. لم يعد الذكاء الاصطناعي يكتب الشفرة فقط—بل يراجعها، ويكسرها، ويصلحها، غالبًا في نفس سير العمل.

ومع تنافس OpenAI وAnthropic الآن مباشرة، قد تأتي موجة أدوات الأمن السيبراني التالية ليس كأدوات فحص تقليدية، بل كوكلاء ذكاء اصطناعي لا ينامون، ولا يشتكون، والأهم من ذلك، يكتشفون الأخطاء قبل أن يفعلها القراصنة.

الأسئلة الشائعة 🤖

  • ما هو Codex Security من OpenAI؟ هو وكيل أمان تطبيقات يعتمد على الذكاء الاصطناعي يفحص مستودعات Github، يتحقق من الثغرات ويقترح إصلاحات للشفرة.
  • كيف يختلف Codex Security عن أدوات الكشف التقليدية عن الثغرات؟ يستخدم التفكير بالذكاء الاصطناعي والتحقق داخل بيئات معزولة لتحليل سياق الشفرة وتقليل الإيجابيات الكاذبة.
  • ما هو Claude Code Security من Anthropic؟ هو أداة ذكاء اصطناعي منافسة تفحص قواعد الشفرة للثغرات وتقترح تصحيحات باستخدام نموذج Claude من Anthropic.
  • لماذا تبني شركات الذكاء الاصطناعي وكلاء أمن سيبراني؟ يمكن لوكلاء الذكاء الاصطناعي اكتشاف وإصلاح ثغرات البرمجيات بسرعة أكبر من الأدوات التقليدية، مما يساعد المطورين على تعزيز أمان الشفرة على نطاق واسع.
شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات