Google em 4 de maio lançou o recurso de Webhooks na API do Gemini, resolvendo a dor dos desenvolvedores com tarefas de longa duração (long-running jobs). O blog oficial da Google explica que Webhooks é um mecanismo de notificações push orientado a eventos; assim, os desenvolvedores não precisam mais usar polling (verificação contínua) para consultar o status das tarefas na API do Gemini — depois que a API concluir, ela envia proativamente o resultado para um endpoint indicado pelo desenvolvedor.
O diretor de relações com desenvolvedores de IA da Google, Logan Kilpatrick (@OfficialLoganK), no X, disse que isso é um “passo importante para o DevX de tarefas de longa duração”.
Resolvendo qual problema: o custo de polling para batch, geração de vídeos e long reasoning
No passado, ao usar a API do Gemini para batch (processamento em lote), geração de vídeos (Veo 2) e tarefas de long reasoning, os desenvolvedores precisavam chamar o endpoint de status a cada alguns segundos para verificar o progresso. Esse padrão não é ideal em três níveis: consumo de recursos, cota da API e latência.
Desperdício de recursos — muitas chamadas de status sem sentido, ocupando a cota da API
Latência imprevisível — intervalos de polling muito curtos gastam cota; muito longos fazem o resultado chegar com atraso
Código mais complexo — é preciso implementar no cliente uma máquina de estados para gerenciar polling de múltiplas tarefas em paralelo
Webhooks inverte esse modelo: o desenvolvedor registra uma callback URL; quando a API do Gemini concluir a tarefa, ela faz um POST proativo do resultado para essa URL; assim, o cliente só precisa tratar a notificação enviada.
Cenários de aplicação: Batch API, vídeos do Veo 2 e inferência de long context
Os Webhooks lançados agora se aplicam principalmente a três tipos de tarefas assíncronas:
Batch API — o endpoint de processamento em lote do Gemini, para grandes volumes de texto, vetores de embeddings e tarefas de classificação; a oferta oficial é de 50% de desconto; meta de resposta em 24 horas; na prática, geralmente termina em poucas horas
Geração de vídeos (Veo 2) — a geração de um único vídeo leva em nível de minutos; antes os desenvolvedores precisavam ficar fazendo polling
Inferência de long context — análise de documentos longos com mais de 1M de tokens; o processamento interno do Gemini pode levar de dezenas de segundos a alguns minutos
Para implementar, depois de registrar um webhook, os desenvolvedores podem “enviar a tarefa e esquecer dela”; quando o resultado estiver pronto, será o Gemini que notifica proativamente. Esse padrão é especialmente adequado para arquiteturas sem servidor (serverless): o backend é acordado apenas quando o evento chega e não precisa manter processos de polling.
Alinhamento com OpenAI, Anthropic: quem faz primeiro e quem depois
Progresso dos webhook de tarefas longas nas três principais plataformas de IA:
Google Gemini: em 4 de maio lançou Webhooks (este caso), com cobertura de batch, vídeos e long reasoning
OpenAI: Codex, Sora 2 e outras tarefas longas atualmente dependem principalmente de streaming via SSE (Server-Sent Events); tarefas em lote têm um endpoint independente, mas não há webhook nativo
Anthropic: a API do Claude ainda não tem webhook nativo; no Claude Code, mecanismos internos de polling são usados para lidar com tarefas de longa duração
Na linha de DevX (developer experience), a Google aumentou claramente os investimentos nos últimos 12 meses — do contexto de 1M da Gemini 2.5 Pro, ao desenvolvimento visual no AI Studio, ao Agent Designer e ao Memory Bank lançados no Cloud Next 2026, até os Webhooks desta vez. Em comparação com a prioridade da OpenAI em “consumir produtos diretamente no lado do cliente” (ChatGPT, Operator), a Google segue uma rota de “infraestrutura para empresas/desenvolvedores”. Webhooks é uma parte concreta dessa estratégia.
Próximas observações: mecanismos de segurança do webhook, faixa de modelos compatíveis
Os próximos pontos de observação:
Mecanismo de segurança do Webhook — se a Gemini oferece verificação de assinatura HMAC para evitar que uma callback URL seja falsificada e receba bombardeios de requisições
Expansão de modelos compatíveis — atualmente inclui batch, Veo 2 e long reasoning; no futuro, pode abranger geração de imagens (Imagen), Speech-to-Speech e se o Gemini Live também será suportado
Resposta de OpenAI e Anthropic — depois que a Google elevar o DevX a esse nível, os concorrentes vão acompanhar?
Para a prática de desenvolvimento em Taiwan, se você estiver usando a API do Gemini para tarefas batch (por exemplo, classificação de dados de clientes e resumo de documentos em lote), Webhooks é um recurso que vale a pena integrar imediatamente, pois pode reduzir bastante o consumo de cota da API e a complexidade do sistema.
Este artigo “Gemini API 推 Webhooks:Google 解決長任務輪詢痛點、Batch/Veo 可即時推送” apareceu pela primeira vez em 鏈新聞 ABMedia.
Related Articles
Forbes: o portfólio inicial de SBF agora vale até US$ 100 bilhões se ele não estiver preso
Startup de IA jurídica Jurisphere arrecada US$ 2,2 milhões da InfoEdge e da Flourish Ventures
A Autoridade de Promoção de Investimentos de Hong Kong lança o Nono programa de via rápida 2026, cobrindo 8 setores, incluindo blockchain
Mito da Anthropic é poderoso demais! A Casa Branca estaria considerando exigir que novos modelos de IA sejam aprovados por uma análise de segurança do governo antes de serem lançados
OpenClaw lança a versão 2026.5.4 em 5 de maio, otimizando a instalação de plugins e a inicialização do gateway
Vobiz.ai garante $1M rodada de investimento para a infraestrutura de Voice AI