Google brachte am 4. Mai die Webhooks-Funktion über die Gemini-API live, um die Entwickler-Probleme bei der Erstellung von Langaufgaben (long-running jobs) zu lösen. In einem offiziellen Google-Blogpost wird erläutert, dass Webhooks ein ereignisgesteuertes Push-Benachrichtigungsmechanismus sind: Entwickler müssen Aufgaben nicht mehr im Polling-Verfahren kontinuierlich bei der Gemini-API abfragen, um den Status zu prüfen. Sobald die API fertig ist, übermittelt sie die Ergebnisse proaktiv an einen von Entwicklern festgelegten Endpoint.
Logan Kilpatrick (@OfficialLoganK), Leiter der Beziehungen zu Entwicklern bei Google AI, sagte auf X, dass das „ein wichtiger Schritt für DevX bei Langaufgaben“ sei.
Löst welches Problem: Polling-Kosten bei batch, Videogenerierung und langem Reasoning
In der Vergangenheit standen Gemini-API-Entwickler bei batch (Batch-Verarbeitung), Videogenerierung (Veo 2) und Lang-Reasoning-Aufgaben vor dem Zwang, alle paar Sekunden eine status-Endpoint aufzurufen, um den Fortschritt der Aufgabe zu prüfen. Dieses Muster ist in drei Ebenen unvorteilhaft:
Ressourcenverschwendung—zahlreiche sinnlose status-check-Aufrufe, die API-Quota belasten
Nicht beherrschbare Latenz—zu kurze Polling-Intervalle verbrennen Quota, zu lange Intervalle führen dazu, dass Ergebnisse verzögert bekannt werden
Komplexerer Code—Auf Kundenebene muss ein Statusmaschinen-Management für mehrere parallele Langaufgaben beim Polling implementiert werden
Webhooks drehen dieses Muster um: Entwickler registrieren eine Callback-URL, und die Gemini-API führt die Aufgabe aus und postet das Ergebnis proaktiv an diese URL. Auf der Client-Seite muss dann nur noch die Push-Benachrichtigung verarbeitet werden.
Geeignete Szenarien: Batch API, Veo 2-Videos, Reasoning mit langem Kontext
Die neu eingeführten Webhooks richten sich hauptsächlich an drei Arten von asynchronen Aufgaben:
Batch API—Geminis Batch-Verarbeitungs-Endpoint, für große Mengen Text, Einbettungsvektoren, Klassifizierungsaufgaben; offiziell mit 50% Rabatt im Preis, Ziel: 24 Stunden für die Antwort, tatsächlich meist innerhalb weniger Stunden fertig
Videogenerierung (Veo 2)—für die Generierung eines einzelnen Videos werden Minuten benötigt; Entwickler mussten bisher ununterbrochen poll-en
Long-Context-Reasoning—Analyse langer Dokumente mit 1M Tokens oder mehr; Geminis interne Verarbeitung kann je nach Fall mehrere Dutzend Sekunden bis zu einigen Minuten dauern
Für Entwickler in der Umsetzung gilt: Nach der Registrierung eines Webhooks kann der Client „die Aufgabe abwerfen und vergessen“; wenn die Ergebnisse fertig sind, benachrichtigt Gemini den Client ganz natürlich proaktiv. Dieses Muster ist besonders passend für serverless Architekturen: Der Backend wird nur dann geweckt, wenn ein Ereignis eintrifft, und muss keinen Polling-Prozess aufrechterhalten.
Zu OpenAI, Anthropic im Vergleich: Wer macht zuerst, wer macht später
Der Stand der Langaufgaben-Webhooks bei drei großen KI-Plattformen:
Google Gemini: Am 4. Mai mit Webhooks live gegangen (dieses Projekt), batch, Videos und Lang-Reasoning alles abgedeckt
OpenAI: Langaufgaben wie Codex, Sora 2 basieren derzeit vor allem auf SSE (Server-Sent Events) Streaming; für Batch-Aufgaben gibt es zwar eigene Endpoints, aber keine nativen Webhooks
Anthropic: Claude API hat derzeit keine nativen Webhooks; Claude Code nutzt intern ein Polling-Verfahren zur Verarbeitung von Langaufgaben
Google investiert auf der Achse DevX (developer experience) in den vergangenen 12 Monaten deutlich stärker—von dem 1M-Context von Gemini 2.5 Pro, der visualisierten Entwicklung in AI Studio, dem Agent Designer und dem Memory Bank, die bei Cloud Next 2026 vorgestellt wurden, bis hin zu Webhooks—im Vergleich zu OpenAI, das bei „direkt auf Endverbraucher ausgerichteten Produkten“ (ChatGPT, Operator) Priorität hat, geht Google den Weg „Unternehmens-/Entwickler-Infrastruktur“. Webhooks sind ein konkreter Baustein dieser Roadmap.
Ausblick: Webhook-Sicherheitsmechanismen, Modellumfang der Unterstützung
Nächste Beobachtungsschwerpunkte:
Webhook-Sicherheitsmechanismen—bietet Gemini HMAC-Signaturverifizierung, um zu verhindern, dass Callback-URLs mit gefälschten Anfragen bombardiert werden
Erweiterung des Modellumfangs—derzeit abgedeckt sind batch, Veo 2, langes reasoning; künftig soll möglicherweise auch Imagen-Bildgenerierung, Speech-to-Speech und Gemini Live mit unterstützt werden
Reaktionen von OpenAI, Anthropic—wenn Google DevX auf dieses Niveau hebt, ob die Wettbewerber nachziehen
Für Entwicklerpraxis in Taiwan gilt: Wenn du Gemini API für Batch-Aufgaben nutzt (z. B. batch-Verarbeitung von Kundendatenklassifizierungen, Dokumentenzusammenfassungen), dann sind Webhooks eine Funktion, die du sofort integrieren solltest—sie kann den Verbrauch von API-Quota und die Systemkomplexität deutlich reduzieren.
Der Artikel Gemini API推 Webhooks:Google löst das Problem mit dem Polling bei Langaufgaben, Batch/Veo können sofort pushen erschien zuerst bei 鏈新聞 ABMedia.
Verwandte Artikel
OpenAI beschleunigt den AI-Agenten-Telefon-Plan bis ins Jahr 2027, MediaTek sichert sich einen exklusiven Prozessor-Deal
Sierra sichert 950 Millionen US-Dollar an Finanzierung, Bewertung: 15,8 Milliarden: Bret Taylor greift als OpenAI-Vorsitzender bei KI-Support-Großmarkt an
Krutrim wechselt am 5. Mai zu KI-Cloud-Diensten und veröffentlicht den ersten Gewinn, während die Umsätze im Geschäftsjahr 2026 bei 31,6 Millionen US-Dollar liegen
Anthropic und OpenAI Investments über 1,1 Milliarden US-Dollar in den Einzelhandel für Krypto-Handel seit dem Start im Jahr 2026