Gate News-Mitteilung, 28. April — IndiaAI hat die Benchmark-Preise für Nvidias B200-GPUs in der vierten Runde seines Compute-Ausschreibungsverfahrens um 10% gesenkt. Die neuen Sätze liegen bei 290,7 Rupien (ungefähr US$3.1) pro Stunde für eine einzelne Einheit und bei 2.325,6 Rupien (ungefähr US$25) pro Stunde für acht Einheiten.
Der Benchmark-Preis für den B200 liegt nahe an den Marktraten Indiens für ältere Hardware. Die H100-GPU kostet im Durchschnitt etwa 249 Rupien (US$2.6) pro Stunde, während die H200-Rechenleistungen für ungefähr 300,14 Rupien (US$3.2) pro Stunde gemietet werden. Einfuhrzölle schlagen in Indien eine 25-30%-Prämie auf die GPU-Kosten auf und erhöhen die Preise deutlich sowohl für neue als auch für bestehende Hardware.
Gemäß dem Letter of Intent (LoI) der Ausschreibung müssen qualifizierte Bieter die niedrigsten Sätze erfüllen und mindestens 1.000 Compute-Einheiten innerhalb von sechs Monaten bereitstellen. Mehrere Bieter wiesen darauf hin, dass die Preisgestaltung möglicherweise schwer aufrechtzuerhalten ist, angesichts steigender Speicherkosten und einer Schwäche der Rupie. Die Maßnahme ist Teil des staatlichen Plans Indiens, die heimische KI-Infrastruktur durch standardisierte Sätze und null Ein- und Ausstiegskosten auszubauen, wodurch ein Versorgungsmodell für die Preisgestaltung entsteht, das sich von den Preisstrukturen großer Cloud-Anbieter unterscheidet.
Die Ausschreibung schließt eine Lücke in der Verfügbarkeit von KI-Compute in Indien; AWS, Microsoft Azure und Google Cloud bieten derzeit keine neueren GPUs wie die H100 in ihren indischen Rechenzentrumsregionen an.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
Huang Renxun weist die KI-Endzeit-Theorie zurück: Die Zukunft wird groß angelegte neue Beschäftigungsmöglichkeiten schaffen
Nvidia-CEO Jensen Huang erklärte in einem globalen Panel, dass KI kein Untergangsszenario sei, und ist der Ansicht, dass KI die USA erneut industrialisieren und Arbeitsplätze schaffen werde. Er prognostiziert, dass die nächste Welle des „agentenbasierten KI“-Ansatzes die Nachfrage nach GPUs um das Tausendfache in die Höhe treiben wird und dafür neue industrielle Basisinfrastruktur sowie einen enormen Arbeitsmarkt nötig sind. Er betonte, dass KI die Produktivität steigere statt menschliche Arbeitskräfte zu ersetzen, und rief zu einer verantwortungsvollen Entwicklung sowie zu grenzüberschreitenden Sicherheitsstandards auf; die Auswirkungen auf Beschäftigung und Wirtschaft müssten dennoch langfristig beobachtet werden.
ChainNewsAbmedia1Std her
OpenAI beschleunigt den AI-Agenten-Telefon-Plan bis ins Jahr 2027, MediaTek sichert sich einen exklusiven Prozessor-Deal
Laut der neuesten Branchenumfrage von Analyst Ming-Chi Kuo beschleunigt OpenAI die Entwicklung seines ersten KI-Agenten-Telefons und strebt eine Serienproduktion bereits im H1 2027 an. MediaTek ist nun eher in der Lage, einen exklusiven Prozessor-Auftrag zu sichern, wobei der Chip auf einer maßgeschneiderten Version von
GateNews1Std her
Sierra sichert 950 Millionen US-Dollar an Finanzierung, Bewertung: 15,8 Milliarden: Bret Taylor greift als OpenAI-Vorsitzender bei KI-Support-Großmarkt an
Sierra, mitbegründet von Bret Taylor, gab bekannt, dass es eine Series-E-Finanzierung in Höhe von 95 Millionen US-Dollar abgeschlossen hat; die Bewertung liegt bei 15,8 Milliarden US-Dollar. Angeführt wurde die Runde von Tiger Global und GV. In 8 Quartalen erreichte das Unternehmen 150 Millionen US-Dollar ARR und eine Durchdringungsrate von über 40% bei Fortune 50. Das Unternehmen positioniert sich als vertikale Plattform für Unternehmens-Kundenservice, die auf KI-Agents setzt, und bietet sofort einsatzbereite Workflows. Taylor ist zugleich Vorsitzender von OpenAI; Governance und Offenlegung von Interessen stehen im Fokus.
ChainNewsAbmedia2Std her
Gemini-API bringt Webhooks: Google löst das Problem des periodischen Abfragens bei Langzeitaufgaben, Batch/Veo können jetzt in Echtzeit gesendet werden
Google Gemini API hat am 4. Mai Webhooks eingeführt: Bei langen Tasks wird das Ergebnis automatisch an die Callback-URL gesendet, sobald die Ausführung abgeschlossen ist. Das ersetzt das bisherige Polling, senkt Ressourcenverbrauch und Latenz und vereinfacht den Code. Die Funktion gilt für Batch API, Veo2 und Inferenz mit langem Kontext und ist besonders für serverless geeignet. Im Vergleich zu OpenAI, das eher auf SSE setzt, und Anthropic, das weiterhin auf Polling setzt, betont Google die Entwickler-Basisinfrastruktur. Zukünftig richtet sich der Fokus auf Sicherheitsmechanismen und die Skalierung der Modelle. Für Entwickler in Taiwan lohnt sich die sofortige Integration, da sie Quota und Systemlast deutlich reduzieren kann.
ChainNewsAbmedia2Std her
Krutrim wechselt am 5. Mai zu KI-Cloud-Diensten und veröffentlicht den ersten Gewinn, während die Umsätze im Geschäftsjahr 2026 bei 31,6 Millionen US-Dollar liegen
Laut Press Trust of India hat sich das indische KI-Unternehmen Krutrim am 5. Mai als Anbieter von inländischen KI-Cloud-Diensten neu ausgerichtet, seine Chip-Design-Bemühungen pausiert und Kapital sowie Talent in die Cloud-Infrastruktur umgelenkt.
Das Unternehmen meldete einen Umsatz für das Geschäftsjahr 26 von etwa 3 Milliarden Rupien (31,6 Mio. US-Dollar)
GateNews3Std her