Gemini API добавляет Webhooks: Google устраняет боль при длительных задачах с постоянным опросом, Batch/Veo теперь могут отправляться в реальном времени

Google 5 月 4 日 запустила функцию Webhooks в Gemini API, решив боль разработчиков при разработке долгих задач (long-running jobs). В официальном блоге Google объясняется, что Webhooks — это механизм событийных push-уведомлений: разработчикам больше не нужно в режиме постоянного опроса (polling) непрерывно запрашивать в Gemini API статус задачи. После завершения API результат сам отправится на endpoint, указанный разработчиком. Руководитель по отношениям с разработчиками в сфере ИИ Google Логан Килпатрик (Logan Kilpatrick, @OfficialLoganK) в X назвал это «важным шагом для DevX при долгих задачах».

Какая проблема решается: стоимость опроса для batch, генерации видео и long reasoning

Раньше разработчики Gemini API при работе с batch (пакетной обработкой), генерацией видео (Veo 2) и задачами долгого reasoning должны были каждые несколько секунд вызывать status endpoint, чтобы проверять прогресс задачи. Такая модель неудобна сразу в трёх аспектах: расход ресурсов, лимиты API quota и задержки.

Потери ресурсов — множество бессмысленных запросов status check, при этом тратится API quota

Непредсказуемые задержки — слишком короткий интервал polling сжигает quota, слишком длинный — результат узнаётся позже

Сложность кода — нужно писать на клиенте state machine и управлять polling для нескольких параллельных задач

Webhooks переворачивают эту модель: разработчик регистрирует callback URL, а Gemini API по завершении задачи сам делает POST результата на этот URL, после чего клиенту остаётся только обрабатывать полученные push-сообщения.

Сценарии применения: Batch API, видео Veo 2, вывод рассуждений на длинном контексте

Запущенные Webhooks в первую очередь подходят для трёх типов асинхронных задач:

Batch API — batch endpoint Gemini для больших объёмов текста, векторных эмбеддингов и классификационных задач; официальный предлагает скидку 50%, цель — ответ в течение 24 часов, на практике чаще занимает несколько часов

Генерация видео (Veo 2) — на генерацию одного видео уходит время в минутах; раньше разработчики были вынуждены постоянно делать polling

Long context reasoning — анализ длинных документов объёмом свыше 1M token; обработка внутри Gemini может занимать десятки секунд или несколько минут

С точки зрения реализации для разработчиков: после регистрации webhook клиент может «отправить задачу и забыть о ней», а когда результат будет готов — Gemini сам уведомит. Эта модель особенно подходит для серверлесса: бэкенд будят только при приходе события, не нужно поддерживать процесс polling.

Привязка к конкурентам: кто сделал первым, кто позже

Прогресс long task webhook на трёх AI-платформах:

Google Gemini: 4 мая выпустила Webhooks (в рамках этого релиза), при этом покрываются batch, видео, long reasoning целиком

OpenAI: Codex, Sora 2 и прочие long task сейчас в основном опираются на SSE (Server-Sent Events) стриминг; у batch-задач есть отдельный endpoint, но нативных webhook нет

Anthropic: в Claude API пока нет нативных webhook; в Claude Code долгие задачи обрабатываются механизмом polling

В DevX (developer experience) — по этой оси Google за последние 12 месяцев явно увеличила инвестиции: от Gemini 2.5 Pro с 1M context, визуальной разработки в AI Studio, до Agent Designer и Memory Bank, представленных на Cloud Next 2026, и вот до Webhooks. По сравнению с приоритетами OpenAI на «прямое потребление на стороне продукта» (ChatGPT, Operator), Google выбирает линию «корпоративная/разработческая инфраструктура». Webhooks — конкретная часть этой линии.

Что наблюдать дальше: механизмы безопасности webhook, диапазон поддерживаемых моделей

Следующие ключевые моменты наблюдения:

Механизмы безопасности webhook — предоставляет ли Gemini HMAC-подпись для верификации, чтобы избежать подделок запросов к callback URL и атак с «бомбардировкой» извне

Расширение поддержки моделей — сейчас покрываются batch, Veo 2, long reasoning; в будущем поддержка Imagen генерации изображений, Speech-to-Speech, Gemini Live — будет ли это всё включено

Ответы OpenAI и Anthropic — после того как Google выведет DevX на этот уровень, последуют ли конкуренты

Для практики тайваньских разработчиков: если вы уже используете Gemini API для batch-задач (например, пакетная обработка данных клиентов для классификации или суммаризации документов), Webhooks — функция, которую стоит интегрировать сразу: она может заметно снизить расход API quota и сложность системы.

Эта статья Gemini API 推 Webhooks:Google 解決長任務輪詢痛點、Batch/Veo 可即時推送 впервые появилась на 鏈新聞 ABMedia.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

OpenAI ускоряет выпуск AI-агентного телефона до H1 2027, MediaTek заключит эксклюзивную сделку на процессоры

Согласно последнему отраслевому опросу аналитика Минг-Чи Куо, OpenAI ускоряет разработку своего первого агентного AI-телефона и планирует выйти на массовое производство уже в I полугодии 2027 года. Теперь вероятность того, что MediaTek сможет заполучить эксклюзивный заказ на процессор, выше: чип будет основан на его кастомизированной версии

GateNews2м назад

Sierra привлекла 950 млн долларов, оценка — 15,8 млрд: Брет Тейлор во главе OpenAI в роли председателя борется за лидерство в сфере AI-обслуживания клиентов

Компания Sierra, сооснователем которой является Bret Taylor, объявила о завершении раунда Series E на 950 млн долларов при оценке в 15,8 млрд долларов; инвестиции возглавили Tiger Global и GV. За 8 сезонов компания достигла 150 млн ARR, а проникновение в Fortune 50 превысило 40%. Платформа позиционируется как вертикальный сервис корпоративной поддержки, основанный на AI-agent, и предлагает готовые рабочие процессы. Taylor также является председателем совета директоров OpenAI, а вопросы управления и раскрытия интересов находятся в центре внимания.

ChainNewsAbmedia1ч назад

Krutrim переходит к облачным AI-услугам 5 мая, публикует первый прибыльный результат, поскольку выручка за FY26 достигает 31,6 млн $

Согласно Press Trust of India, индийская компания в сфере ИИ Krutrim 5 мая переориентировалась на предоставление отечественных облачных AI-услуг, приостановив разработки чипов и перенаправив капитал и таланты на облачную инфраструктуру. Компания сообщила о выручке за FY26 на уровне примерно 3 миллиарда рупий (31,6 млн долларов США)

GateNews2ч назад

Anthropic и OpenAI инвестировали более 1,1 млрд долларов в розничную торговлю криптовалютами с начала 2026 года

По данным Bloomberg, розничные инвесторы вложили приблизительно 1,13 миллиарда долларов в маржинальную торговлю на деривативах частной AI-компании с начала 2026 года. Криптоплатформы Ventuals и PreStocks обеспечивают круглосуточную торговлю бумагами компаний, включая Anthropic, OpenAI и SpaceX, не предоставляя прямой доступ к инвестициям

GateNews3ч назад
комментарий
0/400
Нет комментариев