SoftBank prüft die Produktion von KI-Servern in Japan mit Nvidia und Foxconn

Laut Reuters hat SoftBank Group Gespräche mit Nvidia und Foxconn über den Bau von KI-Servern in Japan begonnen. Die japanische Telekommunikations- und Investmentgruppe prüft Partnerschaften, um ihr Geschäft mit KI-Infrastruktur auszubauen. Dabei ist geplant, bis zum Ende des Jahrzehnts mit dem Server-Design und der Montage der Komponenten zu beginnen.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

RLWRLD bringt das RLDX-1-KI-Modell für industrielle Robotergreifer heraus

RLWRLD, ein auf Robotik-KI spezialisiertes Startup, das von LG Electronics unterstützt wird, hat RLDX-1 vorgestellt: ein Foundation Model für Fünf-Finger-Roboterhände in industriellen Anwendungen, wie RLWRLD mitteilt. Das Unternehmen hat die Modell-Weights, den Code und technische Dokumente auf GitHub und Hugging Face veröffentlicht. Model

CryptoFrontier19M her

DeepMind AlphaEvolve bereichsübergreifende Bilanz: 4×4-Matrixmultiplikation bricht den Strassen-Rekord von 1969, Gemini trainiert 1% schneller

Google DeepMind hat am 7. Mai (US-Zeit) einen Bericht über die branchenübergreifenden Fortschritte von AlphaEvolve veröffentlicht. Im offiziellen DeepMind-Blog hat das Unternehmen die konkreten Entwicklungen von AlphaEvolve seit dem Start zusammengefasst: Es wurde eine bessere Methode für die Multiplikation komplexer 4×4-Matrizen gefunden als der Strassen-Algorithmus von 1969 (48 reine Skalar-Multiplikationen), es gab die Zusammenarbeit mit Mathematikern wie Terence Tao, um mehrere Erdős-Denkaufgaben zu lösen, es wurden für Googles Rechenzentren 0,7% der weltweiten Rechenressourcen eingespart, die Geschwindigkeit der für das Training von Gemini entscheidenden Kernel wurde um 23% gesteigert und die gesamte Trainingszeit für Gemini um 1% reduziert. Architektur: Gemini Flash Breitensuche + Gemini

ChainNewsAbmedia32M her

OpenAI Codex bringt eine Chrome-Erweiterung: Damit lassen sich Web-Apps im Browser testen, Context über Seiten hinweg abrufen und parallel ausführen

OpenAI veröffentlichte am 7. Mai (US-Zeit) eine Chrome-Erweiterung für Codex, die Codex-Coding-Agents direkt in den Chrome-Browsern auf macOS und Windows arbeiten lässt. In den offiziellen Codex-Dokumenten von OpenAI wird erläutert, dass die Erweiterung Codex Web-Apps testen lässt, ohne die Browsernutzung der Anwender zu übernehmen, Kontext über mehrere Tabs hinweg abrufen kann, Chrome DevTools nutzt und andere Aufgaben parallel ausführt. OpenAI gab außerdem bekannt, dass die wöchentlich aktiven Nutzer von Codex mehr als 4 Millionen betragen und sich seit Jahresanfang um das 8-Fache gesteigert haben. Im Browser kann man Folgendes tun: Web-Apps testen, über Tabs hinweg Kontext abrufen, mit DevTools Chrome-Erweiterung

ChainNewsAbmedia35M her

OpenAI bringt GPT-Realtime-2: GPT-5-Rechenlogik in Voice-Agenten, Context auf 128K angehoben

OpenAI gab am 7. Mai (US-Zeit) auf einer Entwicklerkonferenz drei neue Realtime-Sprachmodelle bekannt: GPT-Realtime-2, GPT-Realtime-Translate und GPT-Realtime-Whisper, die alle über die Realtime-API für Entwickler zugänglich sind. In der offiziellen OpenAI-Ankündigung heißt es, dass GPT-Realtime-2 das erste Modell von OpenAI ist, das über GPT-5

ChainNewsAbmedia37M her

Vor-Ort-Besuch in Chinas KI-Laboren: Forschende decken „Chip- und Datenlücken“ als Schlüssel für den Abstand zwischen China und den USA auf

Der Deep-Dive-Besuch mehrerer KI-Labore in China: Nathan Lambert betont, dass Chinas zentrale Stärken in Kultur, Talenten und einer pragmatischen Mentalität liegen. Forschung habe als Priorität, die Qualität der Modelle zu verbessern, wobei Studierende als zentrale Mitwirkende fungierten; zudem gebe es weniger interne Machtkämpfe bei der Zusammenarbeit in Organisationen. Allerdings klaffen Lücken bei Chips, Daten und Kreativität: Der externe Rechenaufwand wird durch US-Kontrollen eingeschränkt, und die Datenqualität ist eher niedrig, was zum Aufbau eigener Trainingsumgebungen führt. Unternehmen öffnen zwar Open-Source, behalten jedoch Kerntechnologien, um sie für eigene Feintunings zu nutzen. Wenn die USA die offenen Ökosysteme weiter strikter regulieren, könnte das Chinas führende globale Position beeinträchtigen.

ChainNewsAbmedia46M her
Kommentieren
0/400
Keine Kommentare