Sakana AI und Nvidia haben TwELL Open Source veröffentlicht, ein sparsames Datenformat, das H100-GPUs ermöglicht, in großen Sprachmodellen 80% ungültiger Berechnungen zu überspringen, ohne die Genauigkeit zu beeinträchtigen. Die Lösung liefert bis zu 30% schnellere Inferenz und 24% schnellere Trainingsleistung auf H100s und senkt gleichzeitig den Spitzen-Speicherverbrauch. In Tests an einem Modell mit 1,5 Milliarden Parametern reduzierte der Ansatz die aktiven Neuronen durch eine leichte Regularisierung während des Trainings auf unter 2%, ohne dass es zu Leistungseinbußen über sieben nachgelagerte Aufgaben hinweg kam.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
Microsoft stellt Phi-Ground 4B Open-Source und übertrifft OpenAI Operator sowie Claude bei der Bildschirmklick-Genauigkeit
Laut Beating hat Microsoft kürzlich die Modellfamilie Phi-Ground Open Source gestellt. Sie wurde entwickelt, um das Problem zu lösen, wo eine KI auf dem Bildschirm eines Computers klicken soll. Die Version mit 4 Milliarden Parametern, kombiniert mit größeren Sprachmodellen zur Planungsanweisung, übertraf in dem Showdown-Benchmark die Klickgenauigkeit von OpenAI Operator und Claude Computer Use und belegte in fünf Auswertungen, darunter ScreenSpot-Pro, den ersten Platz unter allen Modellen mit we
GateNews1Std her
Tilde Research entdeckt: Muon Optimizer tötet 25% der Neuronen; Aurora Alternative erzielt einen 100-fachen Gewinn an Daten-Effizienz
Laut Tilde Research weist der von führenden KI-Modellen einschließlich DeepSeek V4 und Kimi K2.5 übernommene Muon-Optimizer einen versteckten Fehler auf: Er führt dazu, dass über 25% der Neuronen in den MLP-Layern während des frühen Trainings dauerhaft absterben. Das Team entwickelte Aurora, einen alternativen Optimizer, und stellte ihn als Open Source bereit. Ein Modell mit 1,1 Milliarden Parametern, das nur mit 100 Milliarden Tokens trainiert wurde, erreichte die Leistung von Qwen3-1,7B, das a
GateNews1Std her
Nvidia verpflichtet sich Anfang 2026 zu über 40 Milliarden US-Dollar für KI-Investitionen, darunter 30 Milliarden US-Dollar für OpenAI
Laut TechCrunch hat Nvidia in den ersten Monaten des Jahres 2026 mehr als 40 Milliarden US-Dollar für Eigenkapitalbeteiligungen an KI-Unternehmen zugesagt, wobei eine 30-Milliarden-US-Dollar-Investition in OpenAI die größte einzelne Zusage darstellt. Der Chiphersteller versprach außerdem bis zu 3,2 Milliarden US-Dollar für den Glashersteller Corning sowie bis zu 2,1 Milliarden US-Dollar für den Betreiber von Rechenzentren IREN. Dazu gehören eine Fünf-Jahres-Warrant sowie ein separater Vertrag üb
GateNews5Std her
NVIDIA öffnet langfristige KI-Partnerschaft: Deepinfra erhält 107 Millionen US-Dollar B-Runden-Finanzierung, um eine „Token-Fabrik“ aufzubauen
Die KI-Startup DeepInfra hat den Abschluss einer B-Runden-Finanzierung in Höhe von 107 Millionen US-Dollar bekannt gegeben. Die Runde wird von 500 Global und Georges Harik, einem frühen Google-Ingenieur, angeführt; strategische Investoren wie NVIDIA (NVIDIA), Samsung Next und Supermicro beteiligen sich ebenfalls. Laut offizieller Mitteilung soll das frische Kapital dazu genutzt werden, die Kapazitäten globaler Rechenzentren auszubauen und damit die derzeitigen Rechenkosten sowie Effizienz-Engpäs
ChainNewsAbmedia5Std her
EZB-Direktoriummitglied Escrivá warnt am 9. Mai vor KI-Risiken für die Finanzinfrastruktur
Ein Mitglied des EZB-Rats, Escrivá, erklärte am 9. Mai, dass die Zentralbanken die Widerstandsfähigkeit der Finanzinfrastruktur sowie die Robustheit der Cybersicherheit im Zuge der Entwicklungen im Bereich der künstlichen Intelligenz neu bewerten müssen. Laut seinen Ausführungen auf einer Veranstaltung zwingen jüngste Fortschritte bei KI zu einer Neubewertung der Fähigkeit der Finanzsysteme, neu entstehende Risiken zu verkraften.
GateNews5Std her
SpaceX benennt xAI in SpaceXAI um und reicht eine Trademark für Orbital Computing ein, kurz bevor ein IPO im Wert von 1,75 Billionen US-Dollar ansteht
Laut Markenanmeldungen beim United States Patent and Trademark Office wird Elons Musks künstliche-Intelligenz-Unternehmen xAI unter einer neuen Marke in SpaceX eingegliedert: SpaceXAI. Das Rebranding umfasst satellitengestützte Rechenzentren, Orbital-Computing, Cloud-Computing und das Management von KI-Workloads über raumgestützte Plattformen. Musk bestätigte, dass xAI sich als eigenständiges Unternehmen auflösen würde, wobei KI-Produkte unter SpaceXAI mit eigenem Logo betrieben werden. Die Maßn
GateNews7Std her