Gemini-API bringt Webhooks: Google löst das Problem des periodischen Abfragens bei Langzeitaufgaben, Batch/Veo können jetzt in Echtzeit gesendet werden

ChainNewsAbmedia

Google brachte am 4. Mai die Webhooks-Funktion über die Gemini-API live, um die Entwickler-Probleme bei der Erstellung von Langaufgaben (long-running jobs) zu lösen. In einem offiziellen Google-Blogpost wird erläutert, dass Webhooks ein ereignisgesteuertes Push-Benachrichtigungsmechanismus sind: Entwickler müssen Aufgaben nicht mehr im Polling-Verfahren kontinuierlich bei der Gemini-API abfragen, um den Status zu prüfen. Sobald die API fertig ist, übermittelt sie die Ergebnisse proaktiv an einen von Entwicklern festgelegten Endpoint.

Logan Kilpatrick (@OfficialLoganK), Leiter der Beziehungen zu Entwicklern bei Google AI, sagte auf X, dass das „ein wichtiger Schritt für DevX bei Langaufgaben“ sei.

Löst welches Problem: Polling-Kosten bei batch, Videogenerierung und langem Reasoning

In der Vergangenheit standen Gemini-API-Entwickler bei batch (Batch-Verarbeitung), Videogenerierung (Veo 2) und Lang-Reasoning-Aufgaben vor dem Zwang, alle paar Sekunden eine status-Endpoint aufzurufen, um den Fortschritt der Aufgabe zu prüfen. Dieses Muster ist in drei Ebenen unvorteilhaft:

Ressourcenverschwendung—zahlreiche sinnlose status-check-Aufrufe, die API-Quota belasten

Nicht beherrschbare Latenz—zu kurze Polling-Intervalle verbrennen Quota, zu lange Intervalle führen dazu, dass Ergebnisse verzögert bekannt werden

Komplexerer Code—Auf Kundenebene muss ein Statusmaschinen-Management für mehrere parallele Langaufgaben beim Polling implementiert werden

Webhooks drehen dieses Muster um: Entwickler registrieren eine Callback-URL, und die Gemini-API führt die Aufgabe aus und postet das Ergebnis proaktiv an diese URL. Auf der Client-Seite muss dann nur noch die Push-Benachrichtigung verarbeitet werden.

Geeignete Szenarien: Batch API, Veo 2-Videos, Reasoning mit langem Kontext

Die neu eingeführten Webhooks richten sich hauptsächlich an drei Arten von asynchronen Aufgaben:

Batch API—Geminis Batch-Verarbeitungs-Endpoint, für große Mengen Text, Einbettungsvektoren, Klassifizierungsaufgaben; offiziell mit 50% Rabatt im Preis, Ziel: 24 Stunden für die Antwort, tatsächlich meist innerhalb weniger Stunden fertig

Videogenerierung (Veo 2)—für die Generierung eines einzelnen Videos werden Minuten benötigt; Entwickler mussten bisher ununterbrochen poll-en

Long-Context-Reasoning—Analyse langer Dokumente mit 1M Tokens oder mehr; Geminis interne Verarbeitung kann je nach Fall mehrere Dutzend Sekunden bis zu einigen Minuten dauern

Für Entwickler in der Umsetzung gilt: Nach der Registrierung eines Webhooks kann der Client „die Aufgabe abwerfen und vergessen“; wenn die Ergebnisse fertig sind, benachrichtigt Gemini den Client ganz natürlich proaktiv. Dieses Muster ist besonders passend für serverless Architekturen: Der Backend wird nur dann geweckt, wenn ein Ereignis eintrifft, und muss keinen Polling-Prozess aufrechterhalten.

Zu OpenAI, Anthropic im Vergleich: Wer macht zuerst, wer macht später

Der Stand der Langaufgaben-Webhooks bei drei großen KI-Plattformen:

Google Gemini: Am 4. Mai mit Webhooks live gegangen (dieses Projekt), batch, Videos und Lang-Reasoning alles abgedeckt

OpenAI: Langaufgaben wie Codex, Sora 2 basieren derzeit vor allem auf SSE (Server-Sent Events) Streaming; für Batch-Aufgaben gibt es zwar eigene Endpoints, aber keine nativen Webhooks

Anthropic: Claude API hat derzeit keine nativen Webhooks; Claude Code nutzt intern ein Polling-Verfahren zur Verarbeitung von Langaufgaben

Google investiert auf der Achse DevX (developer experience) in den vergangenen 12 Monaten deutlich stärker—von dem 1M-Context von Gemini 2.5 Pro, der visualisierten Entwicklung in AI Studio, dem Agent Designer und dem Memory Bank, die bei Cloud Next 2026 vorgestellt wurden, bis hin zu Webhooks—im Vergleich zu OpenAI, das bei „direkt auf Endverbraucher ausgerichteten Produkten“ (ChatGPT, Operator) Priorität hat, geht Google den Weg „Unternehmens-/Entwickler-Infrastruktur“. Webhooks sind ein konkreter Baustein dieser Roadmap.

Ausblick: Webhook-Sicherheitsmechanismen, Modellumfang der Unterstützung

Nächste Beobachtungsschwerpunkte:

Webhook-Sicherheitsmechanismen—bietet Gemini HMAC-Signaturverifizierung, um zu verhindern, dass Callback-URLs mit gefälschten Anfragen bombardiert werden

Erweiterung des Modellumfangs—derzeit abgedeckt sind batch, Veo 2, langes reasoning; künftig soll möglicherweise auch Imagen-Bildgenerierung, Speech-to-Speech und Gemini Live mit unterstützt werden

Reaktionen von OpenAI, Anthropic—wenn Google DevX auf dieses Niveau hebt, ob die Wettbewerber nachziehen

Für Entwicklerpraxis in Taiwan gilt: Wenn du Gemini API für Batch-Aufgaben nutzt (z. B. batch-Verarbeitung von Kundendatenklassifizierungen, Dokumentenzusammenfassungen), dann sind Webhooks eine Funktion, die du sofort integrieren solltest—sie kann den Verbrauch von API-Quota und die Systemkomplexität deutlich reduzieren.

Der Artikel Gemini API推 Webhooks:Google löst das Problem mit dem Polling bei Langaufgaben, Batch/Veo können sofort pushen erschien zuerst bei 鏈新聞 ABMedia.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

OpenAI beschleunigt den AI-Agenten-Telefon-Plan bis ins Jahr 2027, MediaTek sichert sich einen exklusiven Prozessor-Deal

Laut der neuesten Branchenumfrage von Analyst Ming-Chi Kuo beschleunigt OpenAI die Entwicklung seines ersten KI-Agenten-Telefons und strebt eine Serienproduktion bereits im H1 2027 an. MediaTek ist nun eher in der Lage, einen exklusiven Prozessor-Auftrag zu sichern, wobei der Chip auf einer maßgeschneiderten Version von

GateNews2M her

Sierra sichert 950 Millionen US-Dollar an Finanzierung, Bewertung: 15,8 Milliarden: Bret Taylor greift als OpenAI-Vorsitzender bei KI-Support-Großmarkt an

Sierra, mitbegründet von Bret Taylor, gab bekannt, dass es eine Series-E-Finanzierung in Höhe von 95 Millionen US-Dollar abgeschlossen hat; die Bewertung liegt bei 15,8 Milliarden US-Dollar. Angeführt wurde die Runde von Tiger Global und GV. In 8 Quartalen erreichte das Unternehmen 150 Millionen US-Dollar ARR und eine Durchdringungsrate von über 40% bei Fortune 50. Das Unternehmen positioniert sich als vertikale Plattform für Unternehmens-Kundenservice, die auf KI-Agents setzt, und bietet sofort einsatzbereite Workflows. Taylor ist zugleich Vorsitzender von OpenAI; Governance und Offenlegung von Interessen stehen im Fokus.

ChainNewsAbmedia1Std her

Krutrim wechselt am 5. Mai zu KI-Cloud-Diensten und veröffentlicht den ersten Gewinn, während die Umsätze im Geschäftsjahr 2026 bei 31,6 Millionen US-Dollar liegen

Laut Press Trust of India hat sich das indische KI-Unternehmen Krutrim am 5. Mai als Anbieter von inländischen KI-Cloud-Diensten neu ausgerichtet, seine Chip-Design-Bemühungen pausiert und Kapital sowie Talent in die Cloud-Infrastruktur umgelenkt. Das Unternehmen meldete einen Umsatz für das Geschäftsjahr 26 von etwa 3 Milliarden Rupien (31,6 Mio. US-Dollar)

GateNews2Std her

Anthropic und OpenAI Investments über 1,1 Milliarden US-Dollar in den Einzelhandel für Krypto-Handel seit dem Start im Jahr 2026

Laut Bloomberg haben Privatanleger seit Beginn des Jahres 2026 rund 1,13 Milliarden US-Dollar in gehebelte Derivategeschäfte für private KI-Unternehmen investiert. Die Krypto-Plattformen Ventuals und PreStocks ermöglichen den 24-Stunden-Handel mit Unternehmen einschließlich Anthropic, OpenAI und SpaceX, ohne direkte Einblicke zu gewähren

GateNews3Std her
Kommentieren
0/400
Keine Kommentare