Google a lancé le 4 mai sur l’API Gemini la fonctionnalité Webhooks, qui vise à résoudre les douleurs des développeurs liées au développement de tâches longues (long-running jobs). Dans son billet officiel, Google explique que les Webhooks sont un mécanisme de notifications push pilotées par des événements : les développeurs n’ont plus besoin d’utiliser le polling pour interroger continuellement l’API Gemini afin de vérifier l’état des tâches. Une fois l’API terminée, elle enverra automatiquement le résultat vers l’endpoint spécifié par le développeur. Logan Kilpatrick (@OfficialLoganK), responsable des relations développeurs IA chez Google, a déclaré sur X qu’il s’agit d’une « étape importante pour le DevX des tâches longues ».
Résoudre quel problème : le coût du polling pour batch, génération vidéo et long reasoning
Par le passé, lorsque des développeurs de l’API Gemini faisaient face à des tâches batch (traitement par lots), à la génération de vidéos (Veo 2) et à des tâches de long reasoning, ils devaient appeler une fois toutes les quelques secondes l’endpoint de status pour vérifier la progression. Ce modèle n’est pas idéal sur trois plans : consommation de ressources, quota API et latence.
Gaspillage de ressources—de nombreux appels de status check sans intérêt, et occupation du quota API
Latence incontrôlable—intervalle de polling trop court qui brûle le quota, trop long qui retarde la découverte du résultat
Code complexe—nécessité d’écrire côté client une machine à états pour gérer le polling de plusieurs tâches en parallèle
Avec les Webhooks, le modèle s’inverse : les développeurs enregistrent une callback URL, puis l’API Gemini enverra activement (POST) le résultat vers cette URL lorsque la tâche est terminée. Le client n’a plus qu’à traiter la notification reçue.
Cas d’usage : Batch API, vidéos Veo 2, inférence long context
Le Webhooks lancé aujourd’hui s’applique principalement à trois types de tâches asynchrones :
Batch API—l’endpoint de traitement par lots de Gemini pour de grandes quantités de texte, d’embeddings vectoriels, de tâches de classification ; l’officiel propose une remise de 50% sur le prix, avec un objectif de réponse sous 24 heures, mais en pratique la plupart des cas finissent en quelques heures
Génération de vidéos (Veo 2)—la génération d’une seule vidéo prend quelques minutes ; auparavant, les développeurs devaient sans cesse polling
Inférence long context—l’analyse de documents longs de plus de 1M tokens peut nécessiter des dizaines de secondes à quelques minutes pour le traitement interne de Gemini
Du point de vue de l’implémentation pour les développeurs, après l’enregistrement d’un webhook, le client peut « lancer la tâche et l’oublier » : une fois le travail terminé, Gemini notifie naturellement le résultat. Ce modèle est particulièrement adapté aux architectures serverless : le backend n’est réveillé qu’à l’arrivée de l’événement, sans avoir à maintenir un processus de polling.
En face à face avec OpenAI et Anthropic : qui le fait en premier, qui le fait ensuite
Progression des webhooks pour tâches longues sur les trois grandes plateformes IA :
Google Gemini : Webhooks lancés le 4 mai (ce projet), avec couverture de batch, vidéo et long reasoning
OpenAI : des tâches longues comme Codex et Sora 2 reposent principalement sur le SSE (Server-Sent Events) en streaming ; les tâches batch ont un endpoint dédié, mais pas de webhook natif
Anthropic : pas de webhook natif pour l’instant côté Claude API ; Claude Code utilise en interne un mécanisme de polling pour gérer les tâches longues
Sur l’axe DevX (developer experience), Google a nettement renforcé ses investissements au cours des 12 derniers mois : de Gemini 2.5 Pro avec 1M context, au développement visuel via AI Studio, à l’Agent Designer et Memory Bank lancés avec Cloud Next 2026, jusqu’aux Webhooks d’aujourd’hui. Par rapport à la priorité d’OpenAI pour les « produits consommés directement côté client » (ChatGPT, Operator), Google suit une voie « infrastructure entreprise/développeurs ». Les Webhooks sont un élément concret de cette stratégie.
Prochaines observations : mécanismes de sécurité des webhooks, modèles concernés
Les points d’observation pour la prochaine étape :
Sécurité des Webhooks—est-ce que Gemini propose une vérification de signature HMAC pour éviter que des demandes contrefaites ne viennent bombarder la callback URL
Extension des modèles—pour l’instant, cela couvre batch, Veo 2, long reasoning ; qu’en est-il à l’avenir pour la génération d’images Imagen, Speech-to-Speech, et si Gemini Live sera aussi pris en charge
Réponse d’OpenAI et Anthropic—une fois que Google aura porté le DevX à ce niveau, les concurrents suivront-ils ?
Pour les développeurs à Taïwan, dans la pratique, si vous utilisez l’API Gemini pour des tâches batch (par exemple le traitement par lots de la classification de données clients, ou le résumé de documents), les Webhooks sont une fonctionnalité qui vaut la peine d’être intégrée immédiatement : elle peut réduire fortement la consommation de quota API et la complexité du système.
Cet article « Gemini API 推 Webhooks:Google 解決長任務輪詢痛點、Batch/Veo 可即時推送 » est paru pour la première fois sur 鏈新聞 ABMedia.
Articles similaires
OpenAI accélère le lancement du téléphone pour agents IA jusqu’à mi-2027, MediaTek pour obtenir un accord exclusif de processeur
Sierra lève 950 millions de dollars, valorisée à 15,8 milliards : Bret Taylor, en tant que président d'OpenAI, prend les commandes du leader du service client basé sur l'IA
Krutrim passe aux services cloud d’IA le 5 mai, publie ses premiers bénéfices alors que le chiffre d’affaires de l’exercice 26 atteint 31,6 millions de dollars
Les investissements d’Anthropic et d’OpenAI dépassent 1,1 milliard de dollars dans le trading crypto de détail depuis le début 2026