واجهة Gemini API تدعم Webhooks: تساعد Google في معالجة مشكلة الاستقصاء المتكرر للمهام الطويلة، ويمكن لـ Batch وVeo تقديم عمليات الدفع فوراً

ChainNewsAbmedia

أعلنت Google في 4 مايو عن إطلاق ميزة Webhooks على Gemini API، لمعالجة نقاط الألم لدى مطوري المهام طويلة الأمد (long-running jobs). أوضح مدونة Google الرسمية أن Webhooks هي آلية إشعارات دفع مدفوعة بالأحداث (event-driven)، ما يعني أن المطورين لم يعودوا بحاجة إلى استخدام أسلوب المراقبة المستمرة عبر الاستقصاء (polling) للاستعلام باستمرار عن حالة المهام داخل Gemini API. بعد اكتمال الـAPI، سيقوم بدفع النتائج تلقائيًا إلى نقطة النهاية (endpoint) التي يحددها المطور.

يصف مدير علاقات مطوري الذكاء الاصطناعي لدى Google Logan Kilpatrick (@OfficialLoganK) على منصة X ذلك بأنه «خطوة مهمة لخبرة مطوري (DevX) المهام طويلة الأمد».

ما المشكلة التي تُعالجها: تكلفة الاستقصاء لعمليات الدُفعات وتوليد الفيديو وعمليات التفكير الطويل (long reasoning)

في السابق، واجه مطورو Gemini API تحديات عند تنفيذ batch (المعالجة على دفعات) وتوليد الفيديو (Veo 2) ومهام long reasoning؛ إذ كانوا مضطرين إلى استدعاء endpoint الخاص بالحالة كل بضع ثوانٍ للتحقق من تقدم المهمة. هذه النمطية غير مثالية على مستويات ثلاث:

إهدار الموارد—عدد كبير من استدعاءات تحقق الحالة غير ذات معنى، واستهلاك API quota

تأخر غير قابل للتحكم—فواصل polling قصيرة تحرق quota، بينما يؤدي طولها إلى اكتشاف النتائج لاحقًا

تعقيد برمجي—الحاجة لكتابة منطق (state machine) لإدارة polling لمهام متوازية متعددة على جهة العميل

تقلب Webhooks هذا النمط: يقوم المطور بتسجيل عنوان URL لردّ الاستدعاء (callback URL)، ثم يرسل Gemini API النتيجة عبر POST إلى ذلك العنوان عند اكتمال المهمة، ليصبح دور العميل مقتصرًا على معالجة الإشعار الذي يصل.

حالات الاستخدام المناسبة: Batch API، وفيديو Veo 2، واستدلال (inference) بسياق طويل

تركز Webhooks التي تم طرحها هذه المرة على ثلاث فئات رئيسية من المهام غير المتزامنة:

Batch API—endpoint معالجة الدفعات في Gemini، المستخدم لعدد كبير من النصوص والمتجهات المضمنة (embeddings) ومهام التصنيف. توفر Google خصمًا رسميًا بنسبة 50%، وتهدف إلى تقديم رد خلال 24 ساعة، لكن غالبًا ما يتم الإنجاز خلال بضع ساعات

توليد الفيديو (Veo 2)—يتطلب توليد مقطع واحد وقتًا على مستوى الدقائق، وكان على المطورين في السابق إجراء polling باستمرار

استدلال السياق الطويل (long context reasoning)—تحليل مستندات طويلة تزيد عن 1M token، وقد تحتاج المعالجة الداخلية في Gemini إلى عشرات الثواني إلى عدة دقائق

من ناحية التنفيذ للمطورين، بعد تسجيل webhook، يمكن للعميل «إطلاق المهمة ونسيانها»، إذ يتم إخطار العميل تلقائيًا عند اكتمال النتيجة بواسطة Gemini. يناسب هذا النمط بشكل خاص بنى بلا خوادم (serverless)، حيث يتم تنبيه الخلفية فقط عند وصول الحدث، دون الحاجة إلى الحفاظ على عملية polling مستمرة.

مقارنة مع OpenAI وAnthropic: من يسبق ومن يتأخر

مستوى تقدم webhook للمهام طويلة الأمد عبر منصات AI الثلاث:

Google Gemini: أطلقت Webhooks في 4 مايو (هذا الطرح)، وتغطي بالكامل batch والفيديو وlong reasoning

OpenAI: تعتمد المهام طويلة الأمد مثل Codex وSora 2 حاليًا بشكل أساسي على SSE (Server-Sent Events) للبثّ المتدفق، بينما توجد endpoint مستقلة للمهام على دفعات لكنها تفتقر إلى webhook أصلي

Anthropic: لا يوجد webhook أصلي في Claude API حتى الآن، وتستخدم Claude Code آلية polling داخليًا للتعامل مع المهام طويلة الأمد

على خط DevX (developer experience)، يبدو أن Google عززت الاستثمار بشكل واضح خلال الـ12 شهرًا الماضية—من 1M context في Gemini 2.5 Pro، إلى التطوير البصري المُدمج في AI Studio، مرورًا بـAgent Designer وMemory Bank اللذين تم الإعلان عنهما ضمن Cloud Next 2026، وصولًا إلى Webhooks الحالية. وبالمقارنة مع أولوية Google تجاه «استهلاك المنتج على مستوى الطرف (client product)» مثل ChatGPT وOperator، تتجه Google إلى مسار «بنية تحتية للشركات/المطورين». وتُعد Webhooks جزءًا ملموسًا من هذا المسار.

المتابعة القادمة: آليات أمان webhook ونطاق النماذج المدعومة

تركز نقاط المراقبة للمرحلة التالية على:

آليات أمان Webhook—هل توفر Gemini تحققًا لتوقيعات HMAC لتجنب تعرض عنوان callback URL لطلبات مزيّفة على نحو قد يسبب هجمات أو «تجهيزا» (轟炸)

توسيع نطاق النماذج—حاليًا يغطي batch وVeo 2 وlong reasoning، فهل سيدعم ذلك أيضًا توليد الصور في Imagen مستقبلًا وSpeech-to-Speech وGemini Live

رد فعل OpenAI وAnthropic—عندما ترفع Google مستوى DevX إلى هذا الحد، هل سيتبع المنافسون خطوتها

بالنسبة لممارسات المطورين في تايوان، إذا كنت تستخدم Gemini API لإنجاز مهام batch (مثل تصنيف بيانات العملاء على دفعات أو تلخيص المستندات)، فإن Webhooks ميزة تستحق التكامل الفوري، إذ يمكن أن تخفض بشكل كبير استهلاك API quota وتعقيد النظام.

ظهرت هذه المقالة Gemini API تُطلق Webhooks: Google تعالج ألم polling للمهام طويلة، والـBatch/Veo مع الدفع الفوري، لأول مرة على موقع 鏈新聞 ABMedia.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

تُسرّع OpenAI هاتف وكلاء الذكاء الاصطناعي حتى النصف الأول من 2027، وMediaTek تؤمّن صفقة معالج حصرية

وبحسب أحدث مسحٍ صناعي للمحلل مينغ-تشي كو، فإن شركة OpenAI تُسرّع تطوير أول هاتف لها بعامل ذكاء اصطناعي، وتسعى إلى بدء الإنتاج على نطاق واسع في وقت مبكر من الربع الأول 2027. ومن المرجح الآن أن تتمكن MediaTek من تأمين طلب معالج حصري، على أن يكون المعالج مبنيًا على نسخة مخصصة من

GateNewsمنذ 2 د

سييرا تجمع 950 مليون دولار، وتقييمها 15.8 مليار: بريت تايلور يقتحم صدارة خدمات العملاء بالذكاء الاصطناعي بصفته رئيسًا لـ OpenAI

تأسست Sierra على يد Bret Taylor بالشراكة، وأعلنت اكتمال جولة التمويل Series E بقيمة 950 مليون دولار، بتقييم يبلغ 15.8 مليار دولار، استثمر فيها Tiger Global و GV. وصلت إلى 150 مليون دولار من ARR خلال 8 فصول، مع معدل اختراق Fortune 50 بما يتجاوز 40%. تتموضع كس منصة خدمات عملاء عمودية للشركات تتمحور حول وكلاء الذكاء الاصطناعي، وتوفر تدفقات عمل جاهزة للاستخدام. كما يشغل Taylor منصب رئيس مجلس إدارة OpenAI، وتُعد الحوكمة والإفصاحات المتعلقة بالمصالح محور التركيز.

ChainNewsAbmediaمنذ 1 س

كروتريم تتحول إلى خدمات سحابية للذكاء الاصطناعي في 5 مايو، وتنشر أول أرباح مع وصول إيرادات السنة المالية 26 إلى 31.6 مليون دولار

وبحسب وكالة برس ترست أوف الهند، أعادت شركة الذكاء الاصطناعي الهندية Krutrim تموضعها بوصفها مزود خدمات سحابية للذكاء الاصطناعي داخل البلاد في 5 مايو، مع إيقاف جهود تصميم الرقائق وتوجيه رأس المال والموهبة إلى البنية التحتية السحابية. وأفادت الشركة بأن إيرادات السنة المالية 2026 بلغت نحو 3 مليارات روبية (31.6 مليون دولار أمريكي

GateNewsمنذ 2 س

تجاوزت استثمارات أنثروبيك وأوبن إيه آي 1.1 مليار دولار في تداول العملات المشفرة بالتجزئة منذ بدء 2026

وفقاً لبلومبرغ، ضخ مستثمرون تجزئة ما يقارب 1.13 مليار دولار في التداول بالرافعة المالية على المشتقات الخاصة بشركات الذكاء الاصطناعي منذ بداية عام 2026. تتيح منصتا العملات المشفرة Ventuals وPreStocks التداول على مدار 24 ساعة على شركات تشمل Anthropic وOpenAI وSpaceX دون منح وصول مباشر

GateNewsمنذ 3 س
تعليق
0/400
لا توجد تعليقات