Gemini API додає webhooks: Google вирішив проблему довгих задач із циклічним опитуванням, Batch/Veo можуть надсилати оновлення миттєво

Google 5 травня запустив на Gemini API функцію Webhooks, яка вирішує болі розробників при розробці задач із тривалим виконанням (long-running jobs). У офіційному блозі Google пояснили, що Webhooks — це механізм подієво керованих push-повідомлень: розробникам більше не потрібно в режимі безперервного опитування (polling) постійно запитувати в Gemini API статус виконання задачі — після завершення API самостійно надішле результат за endpoint, вказаний розробником. Керівник з питань відносин із розробниками в галузі ШІ Google Logan Kilpatrick (@OfficialLoganK) у X назвав це «важливим кроком для DevX довготривалих задач».

Розв’язує яку проблему: витрати на polling для batch, генерації відео, довгих reasoning

Раніше розробники Gemini API під час роботи з batch (пакетною обробкою), генерацією відео (Veo 2) і задачами з довгим reasoning змушені були кожні кілька секунд викликати status endpoint, щоб перевіряти прогрес. Такий підхід був невдалим одразу в трьох площинах: витрати ресурсів, ліміти API quota і затримка. Розкладемо:

Ресурси марнуються — масові безглузді запити status check, які також з’їдають API quota

Затримка непередбачувана — якщо інтервал polling занадто короткий, згоряє quota; якщо занадто довгий — результат стає відомим із запізненням

Код складніший — потрібно на клієнті реалізовувати стан (state machine) для керування опитуванням кількох паралельних задач

Webhooks перевертають цю модель: розробник реєструє callback URL, а Gemini API після завершення задачі самостійно робить POST із результатом на цей URL — клієнту лишається лише обробити отримані push-повідомлення.

Де це застосувати: Batch API, Veo 2 відео, reasoning із довгим контекстом

Цей реліз Webhooks головно застосовний до трьох типів асинхронних задач:

Batch API — batch endpoint Gemini для великих обсягів тексту, векторних ембедингів, класифікаційних задач; офіційно пропонується знижка 50%, цільовий час відповіді — 24 години, але на практиці найчастіше це займає кілька годин

Генерація відео (Veo 2) — генерація одного відео потребує часу в хвилинах, раніше розробники постійно опитували статус

Reasoning із довгим контекстом — аналіз довгих документів від 1M токенів; внутрішня обробка в Gemini може тривати від десятків секунд до кількох хвилин

З погляду реалізації для розробників: після реєстрації webhook клієнт може «віддати задачу й забути про неї» — коли виконання завершиться, Gemini природно сама повідомить про результат. Такий підхід особливо добре лягає на серверлес (serverless) архітектури: бекенд вмикається лише тоді, коли приходить подія, і не потрібно тримати окремий polling-процес.

Порівняння з OpenAI та Anthropic: хто перший, хто — пізніше

Прогрес довготривалих webhook у трьох AI-платформах:

Google Gemini: 5 травня запустив Webhooks (цей матеріал), і це покриває batch, відео, довгий reasoning — усе

OpenAI: Codex, Sora 2 та інші довготривалі задачі наразі здебільшого спираються на SSE (Server-Sent Events) стримінг; для batch є окремий endpoint, але немає нативного webhook

Anthropic: у Claude API поки немає нативного webhook; Claude Code всередині використовує механізм polling для роботи з довгими задачами

Google на лінії DevX (developer experience) за останні 12 місяців помітно наростив інвестиції — від Gemini 2.5 Pro з 1M context, візуального розроблення в AI Studio, Agent Designer, Memory Bank, які були представлені в Cloud Next 2026, до Webhooks цього разу. На противагу OpenAI, яке має вищий пріоритет «безпосереднього споживання продуктів на клієнті» (ChatGPT, Operator), Google рухається в напрямку «корпоративної/розробницької інфраструктури». Webhooks — конкретна частина цієї лінії.

Подальші спостереження: механізми безпеки webhook, діапазон моделей

Фокус на наступному етапі:

Безпека webhook — чи Gemini надає HMAC-підпис для верифікації, щоб уникати підроблених запитів на callback URL і «бомбардування» запитами

Розширення покриття моделей — зараз охоплено batch, Veo 2, long reasoning; далі, ймовірно, це пошириться на генерацію зображень Imagen, Speech-to-Speech, а також чи підтримуватиметься Gemini Live разом із цим

Відповіді OpenAI та Anthropic — коли Google підніме DevX до цього рівня, чи підуть конкуренти за ним

Для практики розробників у Тайвані: якщо ви вже використовуєте Gemini API для batch задач (наприклад, пакетну класифікацію даних клієнтів чи підсумовування документів), Webhooks варто інтегрувати вже зараз — це суттєво зменшує споживання API quota і складність системи.

Ця стаття «Gemini API 推 Webhooks:Google 解決長任務輪詢痛點、Batch/Veo 可即時推送» вперше з’явилася на 鏈新聞 ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Хуан Женьмінь спростовує апокаліптичні прогнози про ШІ: у майбутньому створить великі можливості для нових робочих місць

Генеральний директор NVIDIA Дженсен Хуанг на глобальному панельному засіданні заявив, що ШІ не є «пророцтвом кінця світу», і вважає, що він сприятиме новій індустріалізації США та створенню робочих місць. Він прогнозує, що наступна хвиля «агентного ШІ» спричинить стрімке зростання попиту на GPU у тисячу разів, вимагаючи нової промислової інфраструктури та масштабного ринку праці. Він підкреслив, що ШІ підвищує продуктивність, а не замінює людей, і закликав до відповідального розроблення та міждержавних стандартів безпеки; вплив на зайнятість і економіку ще потрібно оцінити в довгостроковій перспективі.

ChainNewsAbmedia21хв. тому

OpenAI прискорює випуск телефонів для AI-агентів до H1 2027, MediaTek укладе ексклюзивну угоду щодо процесорів

Згідно з останнім галузевим опитуванням аналітика Мін-Чі Куо, OpenAI прискорює розробку свого першого AI-агентного телефона та планує вийти на масове виробництво вже в першому півріччі 2027 року. Нині імовірність отримати ексклюзивне замовлення на процесор для MediaTek зросла, а чип буде на основі кастомізованої версії

GateNews25хв. тому

Sierra залучила 9,5 мільярда доларів США, оцінка 158 мільярдів: Брет Тейлор приєднується до OpenAI як голова й націлюється на лідера AI-客服 обслуговування

Сiєрра, спiльно заснована Бретом Тейлором, оголосила про завершення раунду Series E на 950 мiльйонiв доларiв США, оцiнюючи компанiю в 15,8 мiльярда доларiв США, за участю Tiger Global та GV. За 8 сезонiв досягнуто 150 мiльйонiв ARR, а проникнення в Fortune 50 перевищує 40%. Позиціонується як вертикальна платформа для корпоративної підтримки з AI agent у центрi, що пропонує готовi робочi процеси. Тейлор також є головою ради директорів OpenAI, а питання управлiння та розкриття інтересів залишаються в центрi уваги.

ChainNewsAbmedia2год тому

Krutrim переходить до хмарних AI-послуг 5 травня, публікує перший прибуток: фінрік FY26 дає $31,6 млн доходу

За даними Press Trust of India, індійська AI-компанія Krutrim 5 травня переорієнтувалася на надання вітчизняних AI хмарних послуг, призупинивши розробку чипів і перенаправивши капітал та таланти на хмарну інфраструктуру. Компанія повідомила про дохід за FY26 на рівні приблизно 3 мільярди рупій (31,6 млн доларів США)

GateNews3год тому
Прокоментувати
0/400
Немає коментарів