كشف تسريب البيانات أن "كلود" قد لا يكون ذكيًا بشكل كافٍ، وأن ذلك ليس مجرد قصة شائعة في المدينة، فالنماذج الذكية غير مستقرة وتشكل مخاطر على الشركات

ChainNewsAbmedia

بعد أن أصبح الذكاء الاصطناعي أداة قياسية في الشركات، فإن ظاهرة كان يُنظر إليها في الماضي على أنها «مسألة إحساس» تظهر بسرعة على السطح: إن نماذج اللغات الكبيرة LLM (Large Language Models) أصبحت «أغبى». أشار مستخدم الإنترنت Wisely Chen إلى أن ما يُسمى بـ «هبوط ذكاء LLM» ليس مجرد حكاية متداولة في المدينة، بل يمكن تتبعه باستمرار عبر البيانات، وهو ما يسبب بالفعل تأثيرًا ملموسًا على سير عمل الشركات.

واستخدم مثالًا من تجربته الشخصية، ففي 15 أبريل، حدثت عملية تدهور شاملة في خدمات سلسلة Claude التابعة لـ Anthropic، بما في ذلك claude.ai وAPI وClaude Code، حيث تظهر جميعها عبارة «Degraded Performance». ولا يتعلق الأمر بمجرد بطء أو أخطاء عارضة، بل إن جودة الاستجابة تنهار بوضوح، بل وحتى تظهر حالات لا يمكن فيها استخدام الخدمة بشكل طبيعي، ما أدى إلى تأجيل جميع مهام التطوير الثلاث في ذلك اليوم.

قد تكون هذه الظروف بالنسبة للمطورين الأفراد مجرد انخفاض في الكفاءة، لكن بالنسبة لفرق تكنولوجيا المعلومات في الشركات فإن الأثر يتضاعف. عندما يعتمد فريق يضم عدة مهندسين على أدوات الذكاء الاصطناعي لإجراء البرمجة وكتابة المستندات وأتمتة العمليات، فإن أي تدهور في النموذج يعني أن الإنتاجية الإجمالية تتراجع بشكل جماعي في الوقت نفسه، وهو ما يتحول إلى خسائر ملموسة في الوقت والتكلفة.

هل شعرت أن الذكاء الاصطناعي أصبح «أغبى»؟ تؤكد البيانات أنه تم «تدهوره» منذ وقت طويل

أشار Wisely Chen إلى أن مثل «GPT أصبح أغبى» و«Claude ليس كما كان من قبل» قد انتشرت في المجتمع منذ فترة طويلة، لكن ظلّت تفتقر إلى دعم بيانات موضوعية لفترة طويلة. وحتى ظهور منصات بدأت في الآونة الأخيرة بالمراقبة المستمرة لجودة النماذج، لم تتمكن هذه الظاهرة من أن تُقاس لأول مرة بشكل كمي.

ضمن ذلك، أجرى StupidMeter اختبارات آلية على مدار 24 ساعة على نماذج شائعة تشمل OpenAI وAnthropic وGoogle وغيرها، وتتبع مؤشرات مثل الدقة وقدرات الاستدلال والثبات. وبخلاف اختبارات benchmark التقليدية لمرة واحدة، فإن مثل هذه الأنظمة تكون أقرب إلى طريقة مراقبة واجهات برمجة التطبيقات أو قابلية خدمات التشغيل في الشركات، إذ تراقب تقلب أداء النموذج في بيئات الاستخدام الفعلية.

والنتائج واضحة جدًا: حاليًا، توجد أغلبية النماذج الرئيسية في حالة تحذير أو حالة تدهور، ولا تحافظ سوى قلة قليلة من النماذج على وضعها الطبيعي. وهذا يعني أن جودة النماذج غير مستقرة، وليست مشكلة تخص منتجًا واحدًا فقط، بل ظاهرة شائعة على مستوى الصناعة بأكملها.

LLM يهبط تدريجيًا في الذكاء، ويؤثر على استقرار سير عمل الذكاء الاصطناعي للشركات

بالنسبة للشركات، تعني هذه التغييرات أن الذكاء الاصطناعي انتقل من «أداة لتحسين الكفاءة» إلى «متغير يؤثر على الاستقرار». إذا كانت العمليات اليومية في الشركة، من كتابة البرامج إلى إجراء مراجعات الكود وصولًا إلى إنتاج المستندات وتقارير التحليل، تعتمد بالفعل بشكل كبير على LLM. ففي حال ظهرت في يومٍ ما تراجع في قدرات الاستدلال أو هبوط في جودة الإجابات لدى النموذج، فلن تظهر هذه المشكلات كما في عيوب البرمجيات التقليدية بشكل جزئي في مكان واحد، بل ستتسرب في الوقت نفسه إلى جميع مراحل استخدام الذكاء الاصطناعي.

والأكثر أهمية هو أن هذا النوع من التذبذب غالبًا ما يكون صعبًا على التنبؤ، وصعبًا أيضًا اكتشافه في الوقت المناسب. لا تمتلك معظم الشركات آليات لمراقبة جودة النماذج بشكل مستمر؛ وعادة ما يكتشفون المشكلة بعد أن تكون النتائج غير طبيعية، أو بعد أن تنخفض كفاءة الفريق، فيلاحظون أن السبب يعود إلى النموذج نفسه. في مثل هذا السياق، لم يعد «هبوط الذكاء» مجرد إحساس ذاتي لدى المستخدمين، بل أصبح خطرًا منهجيًا يؤثر مباشرة على إيقاع تشغيل الشركة.

عندما يصبح الذكاء الاصطناعي مثل الكهرباء والمياه، تصبح الاستقرارية مؤشرًا أساسيًا جديدًا

شبه Wisely Chen دور LLM بمقولة «كهرباء ومياه الشركات الحديثة». عندما يتغلغل الذكاء الاصطناعي في العمليات اليومية ويصبح قدرة أساسية لا غنى عنها، تزداد أهمية استقراريته تبعًا لذلك.

في الماضي، عند تقييم أدوات الذكاء الاصطناعي، كانت الشركات تركز على قدرات النموذج والسعر والوظائف. لكن مع بروز ظاهرة «هبوط الذكاء»، يظهر مؤشر أكثر أهمية، وهو الاستقرارية. عندما يمكن أن تتغير جودة النموذج دون إشعار، فإن الشركات لم تعد تقتصر على «استخدام الذكاء الاصطناعي»، بل يتعين عليها تحمل نوع جديد من مخاطر البنية التحتية. والأكثر يأسًا هو أنه إذا ركزت فقط على نماذج اللغات الكبيرة المتقدمة، ففي الأساس، ما دامت مشكلة القدرة الحاسوبية غير محلولة، فمن المحتمل أن يستمر حدوث ذلك.

هذه المقالة أُول مرة ظهرت في 鏈新聞 ABMedia.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

روبوت هونر Lightning يفوز بماراثون نصف الروبوتات البشرية في بكين 2026 بوقت 50:26

إن روبوت هونر البشري "Lightning" حقق رقمًا قياسيًا جديدًا في ماراثون نصف الروبوتات البشرية في بكين ييتوانغ لعام 2026، وأكمل السباق في 50 دقيقة و26 ثانية، متجاوزًا الرقم القياسي العالمي البشري.

GateNewsمنذ 1 س

سهم Meta يرتفع بنسبة 1.73% بينما تخطط الشركة لتسريح 8,000 وظيفة بدءًا من 20 مايو

تخطط Meta Platforms لخفض حوالي 8,000 وظيفة، أو 10% من قوتها العاملة، بدءًا من 20 مايو، رغم ارتفاع أسعار أسهمها. وتُركّز الشركة، التي تحقق أكثر من $200 billion في الإيرادات، على استثمارات الذكاء الاصطناعي في ظل إعادة هيكلة كبيرة، بما يتماشى مع اتجاهات الصناعة المرتبطة بعمليات التسريح.

GateNewsمنذ 9 س

يذكر تقرير Google السنوي أن Gemini يحقق اعتراضًا في أجزاء من الثانية، ويمنع 99% من إعلانات الاحتيال

ناقش المقال كيف يعزز Google أمان الإعلانات عبر نظامه الخاص بالذكاء الاصطناعي التوليدي Gemini، وأظهر التقرير أن سرعة اعتراض الإعلانات المخالفة قد انخفضت إلى أجزاء من الثانية (ملّيلِي ثانية)، مع معدل اعتراض بلغ 99%. في العام الماضي، قامت Google بإزالة 8.3 مليار إعلان، وأوقفت 24.9 مليون حساب، ما يشير إلى ارتفاع كبير في عدد إعلانات الاحتيال. وأشار خبراء إلى أن هذا صراع بين الذكاء الاصطناعي والذكاء الاصطناعي، وأنه سيتعين على المستقبل التعامل مع تحديات السلوكيات القانونية وغير القانونية التي يسببها الذكاء الاصطناعي.

ChainNewsAbmediaمنذ 11 س

以太坊联合创始人鲁宾:AI 将成为加密的关键转折点,但科技巨头的垄断带来系统性风险

强调以太坊联合创始人约瑟夫·鲁宾,AI 对加密货币行业的变革潜力具有重要意义,同时也警告科技巨头之间的中心化风险。他设想区块链上由 AI 驱动的自主交易,并指出传统金融与 DeFi 的融合正在加速。

GateNewsمنذ 13 س

إيلون ماسك يدفع نحو “شيكات الدخل المرتفع الشامل” باعتبارها الحل النهائي لبطالة وظائف الذكاء الاصطناعي

يدعو إيلون ماسك إلى دخل مرتفع عالمي لمكافحة البطالة الناجمة عن الذكاء الاصطناعي، متصورًا مستقبلًا تتوفر فيه السلع بكثرة وينعدم فيه التضخم. وفي المقابل، يثير خبراء مثل سام ألتمان مخاوف بشأن فقدان الوظائف ويقترحون تدابير لحماية العمال.

Coinpediaمنذ 13 س

يُقال إن DeepSeek يطلق أول جولة لجمع تمويل خارجي، ويستهدف تقييمًا بقيمة 10 مليارات دولار+ و300 مليون دولار+

تجري شركة DeepSeek، وهي شركة ناشئة صينية في مجال الذكاء الاصطناعي، مفاوضات لجولتها الأولى لجمع تمويل خارجي، بهدف تحقيق ما لا يقل عن $300 مليون دولار عند تقييم $10 مليار دولار. وعلى الرغم من الرفضات السابقة لعروض الاستثمار، تشير التقارير إلى أن محادثات جمع الأموال جارية حاليًا.

GateNewsمنذ 14 س
تعليق
0/400
لا توجد تعليقات