Suchergebnisse für "OPENAI"
Heute
04:33

OpenAI-Modelle sollen schrittweise zu Amazons benutzerdefiniertem Trainium-Chip migrieren, sagt Altman — er sei "sehr gespannt" darauf

Gate-News-Mitteilung, 29. April — OpenAI-Modelle, die auf dem Amazon Web Services Bedrock laufen, werden schrittweise auf Trainium migrieren, Amazons eigens entwickelten KI-Chip, wie jüngste Aussagen von OpenAI-CEO Sam Altman und AWS-Führungskräften nahelegen. Aktuell arbeiten die Modelle in einer gemischten Umgebung, die sowohl GPUs als auch Trainium nutzt, wobei der Anteil mit der Zeit zunehmend auf Trainium übergeht. Altman sagte, das Unternehmen sei "bereit, Modelle auf Trainium zu verlagern." AWS-Manager Garman räumte ein, dass der Name Trainium möglicherweise irreführend gewesen sein könnte, da der Chip für sowohl Training als auch Inferenz ausgelegt ist, wobei Inferenz in Zukunft voraussichtlich der wichtigste Anwendungsfall sein wird. Garman betonte jedoch, dass das Chip-Branding für die meisten Kunden weitgehend irrelevant sei; Nutzer kämen mit OpenAI über die API-Schnittstelle in Kontakt, nicht direkt mit der zugrunde liegenden Hardware. Auf die Frage nach einer zukünftigen Integration von Nicht-OpenAI-Modellen in Bedrock Managed Agents ging Garman nicht ins Detail und erklärte lediglich, dass AWS derzeit auf seine Partnerschaft mit OpenAI fokussiert sei. Die Zusammenarbeit unterstreicht Amazons Strategie, seine eigene kundenspezifische Siliziumtechnologie zu nutzen, um große KI-Workloads auf seiner Cloud-Plattform zu unterstützen.
Mehr
04:29

Altman: Token-Based Pricing Becoming Obsolete as GPT-5.5 Shifts Focus to Task Completion Over Token Count

Gate News-Nachricht, 29. April — OpenAI-CEO Sam Altman sagte in einem Interview mit Ben Thompson auf Stratechery, dass tokenbasierte Preisgestaltung kein langfristig tragfähiges Modell für KI-Dienstleistungen ist. Unter Verwendung von GPT-5.5 als Beispiel merkte Altman an, dass zwar der Preis pro Token deutlich höher ist als bei GPT-5.4, das Modell jedoch für die gleiche Aufgabe viel weniger Tokens verwendet, was bedeutet, dass Kunden sich nicht für die Anzahl der Tokens interessieren — sondern nur dafür, ob die Aufgabe abgeschlossen wird und die Gesamtkosten. "Wir sind keine Token-Fabrik; wir sind eher eine Intelligenz-Fabrik", sagte Altman. "Kunden wollen die meiste Intelligenz für möglichst wenig Geld kaufen. Ob die zugrunde liegende Arbeit von einem großen Modell erledigt wird, das wenige Tokens ausführt, oder von einem kleinen Modell, das viele Tokens ausführt, ist für sie nicht relevant." Er fügte hinzu, dass die aktuelle Kundenbasis von OpenAI zunehmend mehr Kapazität fordert, anstatt über Preise zu verhandeln: Viel mehr Kunden sagen "gebt uns mehr Kapazität, egal was es kostet" als solche, die nach Rabatten fragen. Altman zog eine Parallele zu Versorgungsunternehmen und erklärte, dass sich die KI-Nachfrage anders skaliert als bei Wasser oder Strom — wo niedrigere Preise den Verbrauch nicht signifikant erhöhen. "Solange der Preis niedrig genug ist, werde ich weiter mehr verwenden. Keine andere öffentliche Versorgungsleistung funktioniert auf diese Weise", sagte er. AWS-CEO Matt Garman ergänzte, dass die Preise für Rechenleistung in den vergangenen 30 Jahren um mehrere Größenordnungen gefallen seien, während heute dennoch mehr Rechenleistung verkauft wird als jemals zuvor. Altman beschrieb außerdem ChatGPT als "das erste wirklich groß angelegte Konsumprodukt seit Facebook" und räumte ein, dass zwar erwartet wurde, dass KI die Suche stören würde, die eigentlichen Erfolge jedoch von ChatGPT selbst und der Codex-API kamen. Er merkte an, dass "Google in vielerlei Hinsicht noch immer unterschätzt wird."
Mehr
03:05

OpenAI-Codex startet Dual-Mode-Oberfläche: Excelmogging für Office-Arbeit, Codemaxxing für Programmierung

Gate News Nachricht, 29. April — OpenAI-CEO Sam Altman hat heute auf X eine neu gestaltete Codex-Oberfläche angekündigt und zwei unterschiedliche Modi für Nutzer eingeführt. „Excelmogging“ richtet sich an alltägliche Büroaufgaben mit einer vereinfachten Oberfläche und dem Slogan „Same tools, simpler interface,“ wobei Beispielaufgaben wie das Erstellen von Tabellenkalkulationen genannt werden.
Mehr
23:41

OpenAI prognostiziert, dass Millionen von ChatGPT-Plus-Nutzern auf den günstigeren werbefinanzierten Plan herabstufen

Gate News-Meldung, 28. April — OpenAI geht davon aus, dass sein günstigeres Abonnement mit werbefinanziertem Angebot nicht nur neue Nutzer anziehen wird, sondern auch dazu führen wird, dass Zehnmillionen bestehender zahlender Abonnenten herabstufen. Das Unternehmen rechnet damit, dass die Zahl der Abonnenten im Privatkundengeschäft in diesem Jahr mehr als verdoppelt wird auf 122 Millionen und
Mehr
18:52

Anthropic erreicht eine Bewertung von $1 Billionen und überholt OpenAI in Sekundärmärkten

Gate News-Meldung, 28. April — Anthropic hat OpenAI in der Bewertung für den privaten Markt überholt; mit seinem implizierten Wert, der bei jüngsten Sekundärtransaktionen $1 Billionen überschritten hat. Die Bewertung von OpenAI hat sich in ähnlichen Märkten bei rund $880 Milliarden eingependelt. Der Wechsel markiert eine dramatische Momentum-Änderung im KI-Sektor,
Mehr
JUP-6,08%
15:50

KI-Recruiting-Startup Dex holt 5,3 Mio. US-Dollar Seed-Finanzierung ein, angeführt von Notion Capital

Gate-News-Meldung, 28. April — Das KI-Recruiting-Startup Dex hat die Fertigstellung einer Seed-Finanzierungsrunde in Höhe von 5,3 Millionen US-Dollar bekannt gegeben, die von Notion Capital angeführt wurde, mit Beteiligung von a16z Speedrun, Concept Ventures sowie von Angel-Investoren von OpenAI und weiteren Unternehmen. Die Runde bringt Dex' gesamte Finanzierung auf 8,4 Mio.
Mehr
14:35

OpenAI-Microsoft-Vereinbarung schließt Technologie aus, die durch Akquisitionen erworben wurde

Gate News-Nachricht, 28. April — Laut The Information haben OpenAI und Microsoft eine neue Vereinbarung getroffen, die keine Technologie abdeckt, die OpenAI durch Akquisitionen erworben hat. Der Microsoft-CEO Satya Nadella und OpenAI-Gründer Sam Altman verhandelten das Kompromissangebot, nachdem sie sich darüber uneinig waren, wie OpenAI mit einem großen Cloud-Dienstanbieter umgeht.
Mehr