Google 4 de mayo lanzó la función Webhooks en la Gemini API, abordando el dolor de los desarrolladores al crear tareas de larga duración (long-running jobs). El blog oficial de Google explica que los Webhooks son un mecanismo de notificaciones push basado en eventos; los desarrolladores ya no necesitan consultar continuamente el estado de la tarea usando un esquema de sondeo (polling) constante a la Gemini API. Una vez que la API finaliza, enviará de forma proactiva el resultado al endpoint que el desarrollador haya especificado.
El responsable de relaciones con desarrolladores de IA de Google, Logan Kilpatrick (@OfficialLoganK), dijo en X que esto es un «paso importante para el DevX de tareas de larga duración».
Qué problema resuelve: el costo del polling para batch, generación de video y razonamiento prolongado
En el pasado, cuando los desarrolladores usaban la Gemini API para tareas de batch (procesamiento por lotes), generación de video (Veo 2) y tareas de razonamiento de larga duración, tenían que llamar al endpoint de status cada pocos segundos para comprobar el progreso. Este patrón es poco ideal en tres dimensiones: consumo de recursos, cuotas de API y latencia.
Desperdicio de recursos: muchas llamadas de status sin sentido que consumen la cuota de API.
Latencia incontrolable: si el intervalo del polling es demasiado corto, se quema la cuota; si es demasiado largo, se conoce el resultado con retraso.
Código más complejo: se necesita escribir en el cliente una máquina de estados para administrar el polling de múltiples tareas en paralelo.
Webhooks invierte este patrón: los desarrolladores registran una URL de callback y, cuando la Gemini API completa la tarea, envía de forma proactiva un POST con el resultado a esa URL; el cliente solo tiene que procesar la notificación.
Casos de uso: Batch API, videos Veo 2, inferencia de largo contexto
En este lanzamiento, los Webhooks se enfocan principalmente en tres tipos de tareas asíncronas:
Batch API: el endpoint de procesamiento por lotes de Gemini, para grandes volúmenes de texto, vectores de embeddings, tareas de clasificación; el precio con descuento oficial es del 50%; objetivo de respuesta en 24 horas; en la práctica se completa más a menudo en unas horas.
Generación de video (Veo 2): generar un solo video requiere tiempos de minutos y, antes, los desarrolladores tenían que hacer polling sin parar.
Inferencia de largo contexto: análisis de documentos largos de 1M token o más; el procesamiento interno de Gemini podría requerir entre decenas de segundos y varios minutos.
Desde el punto de vista de implementación para desarrolladores, después de registrar un webhook, el cliente puede «enviar la tarea y olvidarse de ella»; cuando el resultado esté listo, Gemini lo notificará de manera natural de forma proactiva. Este modelo es especialmente adecuado para arquitecturas serverless, donde el backend solo se activa cuando llega el evento y no necesita mantener un proceso de polling.
Correspondencia con OpenAI y Anthropic: quién lo hace primero, quién lo hace después
Progreso de los webhooks para tareas de larga duración en las tres grandes plataformas de IA:
Google Gemini: 4 de mayo lanzó Webhooks (este caso), cubriendo batch, video y razonamiento de larga duración.
OpenAI: tareas largas como Codex y Sora 2 actualmente dependen principalmente de SSE (Server-Sent Events) para streaming; las tareas batch tienen un endpoint independiente, pero no cuentan con un webhook nativo.
Anthropic: la API de Claude no tiene webhooks nativos; dentro de Claude Code se usa un mecanismo de polling para manejar tareas de larga duración.
En la línea de DevX (developer experience), Google ha aumentado claramente la inversión en los últimos 12 meses: desde el 1M context de Gemini 2.5 Pro, el desarrollo visual en AI Studio, hasta Agent Designer y Memory Bank lanzados en Cloud Next 2026, además de estos Webhooks. En comparación con la prioridad de OpenAI para «productos que consume directamente el usuario final» (ChatGPT, Operator), Google sigue una ruta de «infraestructura empresarial/desarrolladores». Los Webhooks son una pieza concreta de esa ruta.
Próximas observaciones: mecanismos de seguridad del webhook y rango de modelos aplicable
Los puntos clave a observar en la siguiente etapa:
Mecanismos de seguridad del Webhook: si Gemini ofrece verificación de firma HMAC para evitar que una URL de callback reciba una avalancha de solicitudes falsificadas.
Ampliación del soporte de modelos: actualmente incluye batch, Veo 2, razonamiento de larga duración; en el futuro, ver si también se incluyen generación de imágenes Imagen, Speech-to-Speech y si Gemini Live se soporta junto con esto.
Respuesta de OpenAI y Anthropic: cuando Google lleve el DevX a este nivel, si los competidores seguirán el ritmo.
Para la práctica de desarrolladores en Taiwán, si estás usando Gemini API para tareas batch (por ejemplo, clasificación de datos de clientes por lotes, resúmenes de documentos), los Webhooks son una función que vale la pena integrar de inmediato, ya que pueden reducir de forma importante el consumo de cuota de API y la complejidad del sistema.
Este artículo Gemini API 推 Webhooks:Google 解決長任務輪詢痛點、Batch/Veo 可即時推送 apareció por primera vez en 鏈新聞 ABMedia.
Artículos relacionados
El ARR de ElevenLabs se dispara a $500M en 4 meses, sube 43% desde fin de año; la ronda D cierra con BlackRock, NVentures y 30+ celebridades
Elastics cierra una ronda de presemilla de 2 millones de USD liderada por Frst
El exejecutivo de Qualcomm Alex Katouzian se incorpora a Intel como EVP de Client Computing y Physical AI el 4 de mayo
Medios K Wave cotizados en Nasdaq eliminan la tesorería de Bitcoin y redirigen $485M a la IA
Nova Intelligence completa una ronda Serie A de 31,5 millones de dólares liderada por Chemistry el 5 de mayo
Cipher Digital asegura una instalación crediticia de $200M para ampliar los centros de datos de IA y HPC