Laut der offiziellen Ankündigung von OpenAI, die von Beating überwacht wird, stellt das Unternehmen seine Self-Serve Fine-Tuning-API für Entwickler mit sofortiger Wirkung ein. Neue Nutzer können keine Fine-Tuning-Aufgaben mehr erstellen, während bestehende aktive Nutzer auf den Dienst bis zum 6. Januar 2027 zugreifen können. Die bereitgestellten Fine-Tuned-Modelle werden ihre Inferenzdienste an den Lebenszyklus ihrer Basismodelle gebunden haben und enden, wenn das Basismodell außer Dienst gestellt wird.
OpenAI erklärte, dass seine neuen Basismodelle, wie GPT-5.5, nun ausreichend leistungsfähig sind, um Anweisungen und Formatierungen zuverlässig zu befolgen. Das Unternehmen sagte, dass die Kombination aus Prompt Engineering und Retrieval-Augmented Generation (RAG) im Vergleich zum Fine-Tuning günstiger, schneller und für die meisten Anwendungsfälle ausreichend ist.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
Google testet die Einstellung mit Prüfungen, bei denen Ingenieure KI-Tools nutzen dürfen
Laut The Chosun Daily testet Google Einstellungstests, mit denen US-amerikanische Software-Engineer-Kandidaten KI-Tools in ausgewählten Einstiegs- und Mid-Level-Positionen nutzen können. Der Versuch umfasst Aufgaben zum Code-Verständnis, bei denen die Bewerber bestehenden Code durchsehen, Bugs beheben und die Performance verbessern. Die Interviewer werden bewerten, wie die Kandidaten KI anleiten, deren Ergebnisse prüfen, die Resultate überarbeiten und Code debuggen, statt nur ihre Fähigkeit zu b
GateNews21M her
Sakana AI und Nvidia erzielen mit dem Überspringen von 80% ungültiger Berechnungen 30% schnellere H100-Inferenz
Sakana AI und Nvidia haben TwELL Open Source veröffentlicht, ein sparsames Datenformat, das H100-GPUs ermöglicht, in großen Sprachmodellen 80% ungültiger Berechnungen zu überspringen, ohne die Genauigkeit zu beeinträchtigen. Die Lösung liefert bis zu 30% schnellere Inferenz und 24% schnellere Trainingsleistung auf H100s und senkt gleichzeitig den Spitzen-Speicherverbrauch. In Tests an einem Modell mit 1,5 Milliarden Parametern reduzierte der Ansatz die aktiven Neuronen durch eine leichte Regular
GateNews1Std her
Microsoft stellt Phi-Ground 4B Open-Source und übertrifft OpenAI Operator sowie Claude bei der Bildschirmklick-Genauigkeit
Laut Beating hat Microsoft kürzlich die Modellfamilie Phi-Ground Open Source gestellt. Sie wurde entwickelt, um das Problem zu lösen, wo eine KI auf dem Bildschirm eines Computers klicken soll. Die Version mit 4 Milliarden Parametern, kombiniert mit größeren Sprachmodellen zur Planungsanweisung, übertraf in dem Showdown-Benchmark die Klickgenauigkeit von OpenAI Operator und Claude Computer Use und belegte in fünf Auswertungen, darunter ScreenSpot-Pro, den ersten Platz unter allen Modellen mit we
GateNews2Std her
Tilde Research entdeckt: Muon Optimizer tötet 25% der Neuronen; Aurora Alternative erzielt einen 100-fachen Gewinn an Daten-Effizienz
Laut Tilde Research weist der von führenden KI-Modellen einschließlich DeepSeek V4 und Kimi K2.5 übernommene Muon-Optimizer einen versteckten Fehler auf: Er führt dazu, dass über 25% der Neuronen in den MLP-Layern während des frühen Trainings dauerhaft absterben. Das Team entwickelte Aurora, einen alternativen Optimizer, und stellte ihn als Open Source bereit. Ein Modell mit 1,1 Milliarden Parametern, das nur mit 100 Milliarden Tokens trainiert wurde, erreichte die Leistung von Qwen3-1,7B, das a
GateNews2Std her
Nvidia verpflichtet sich Anfang 2026 zu über 40 Milliarden US-Dollar für KI-Investitionen, darunter 30 Milliarden US-Dollar für OpenAI
Laut TechCrunch hat Nvidia in den ersten Monaten des Jahres 2026 mehr als 40 Milliarden US-Dollar für Eigenkapitalbeteiligungen an KI-Unternehmen zugesagt, wobei eine 30-Milliarden-US-Dollar-Investition in OpenAI die größte einzelne Zusage darstellt. Der Chiphersteller versprach außerdem bis zu 3,2 Milliarden US-Dollar für den Glashersteller Corning sowie bis zu 2,1 Milliarden US-Dollar für den Betreiber von Rechenzentren IREN. Dazu gehören eine Fünf-Jahres-Warrant sowie ein separater Vertrag üb
GateNews6Std her
NVIDIA öffnet langfristige KI-Partnerschaft: Deepinfra erhält 107 Millionen US-Dollar B-Runden-Finanzierung, um eine „Token-Fabrik“ aufzubauen
Die KI-Startup DeepInfra hat den Abschluss einer B-Runden-Finanzierung in Höhe von 107 Millionen US-Dollar bekannt gegeben. Die Runde wird von 500 Global und Georges Harik, einem frühen Google-Ingenieur, angeführt; strategische Investoren wie NVIDIA (NVIDIA), Samsung Next und Supermicro beteiligen sich ebenfalls. Laut offizieller Mitteilung soll das frische Kapital dazu genutzt werden, die Kapazitäten globaler Rechenzentren auszubauen und damit die derzeitigen Rechenkosten sowie Effizienz-Engpäs
ChainNewsAbmedia6Std her