DeepSeek V4 startet mit einem 1M-Kontextfenster; Huawei Ascend- und Cambricon-Chips erreichen vollständige Kompatibilität

Gate News Nachricht, 24. April — DeepSeek V4-Pro und DeepSeek V4-Flash wurden am 24. April offiziell veröffentlicht und Open-Source gestellt; die Länge der Kontextverarbeitung wurde deutlich von 128K auf 1M erweitert, was einer nahezu 10-fachen Kapazitätserhöhung entspricht. Huawei Computing kündigte an, dass seine Ascend-Supernode-Produkte die DeepSeek-V4-Serienmodelle vollständig unterstützen, durch enge Zusammenarbeit zwischen Chip- und Modelltechnologien.

Huawei Ascend 950 erreicht ein Deployment für DeepSeek-V4-Modell-Inferenz mit hohem Durchsatz und geringer Latenz durch Techniken wie fusionierte Kernel und Multi-Stream-Parallelität, um den Overhead für Attention-Berechnungen und Speicherzugriffe zu reduzieren. Für DeepSeek V4-Pro mit 8K-Eingabe erreicht Ascend 950 ungefähr 20ms TPOT mit 4.700 TPS Single-Card-Decode-Durchsatz; für DeepSeek V4-Flash bei 8K-Eingabe erreicht es ungefähr 10ms TPOT mit 1.600 TPS-Durchsatz. Die Ascend-A3-Supernode-Serie erreicht ebenfalls eine vollständige Kompatibilität, wobei Trainings-Referenzimplementierungen für schnelles Fine-Tuning bereitgestellt werden. Basierend auf der Ascend-A3-64-Card-Supernode mit großem EP-Modus erreicht DeepSeek V4-Flash in Szenarien mit 8K/1K Input-Output über 2.000 TPS Single-Card-Decode-Durchsatz unter Verwendung der vLLM-Inferenz-Engine. Huawei unterstützt mit seiner kompletten Ascend-A2-, A3- und 950-Produktpalette sowohl DeepSeek V4-Flash als auch V4-Pro.

Huawei Cloud kündigte die Vorreiter-Kompatibilität mit DeepSeek V4 an und bietet Entwicklern über seine MaaS-Plattform Ein-Klick-API-Token-Services. Huawei Cloud optimierte Systemebenen-, Operator- und Cluster-Ebene-Fähigkeiten, um eine schnelle Modelladaption und ein leistungsstarkes Deployment sicherzustellen. Unternehmen einschließlich Kingsoft WPS und 360 haben DeepSeeks neues Modell bereits über Huawei Cloud integriert.

Cambricon kündigte ebenfalls die Day-0-Kompatibilität mit DeepSeek V4-Flash und V4-Pro auf Basis des vLLM-Inferenz-Frameworks an, wobei Anpassungscode Open-Source für die GitHub-Community bereitgestellt wurde. Cambricon hatte zuvor eine Vorreiter-Anpassung erreicht, als DeepSeek V3.2 im vergangenen Jahr veröffentlicht wurde; dabei wurde eine tiefgreifende Software-Hardware-kooperative Performance-Optimierung an DeepSeek-Serienmodellen durchgeführt.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

ChatGPT bringt Excel- und Google-Sheets-Integration an den Start: GPT-5,5 meldet sich direkt in der Tabelle an, Copilot und Gemini im direkten Vergleich

OpenAI bringt ChatGPT für Excel und ChatGPT für Google Sheets Erweiterungen heraus, die auf GPT-5,5 basieren. Das Kernprinzip: Erklären während der Arbeit. Die Funktionen decken Analysen ab, automatisch Formeln schreiben, Tabellen aktualisieren und schrittweise die Gedankengänge des Reasoning erklären, damit Nutzer direkt in der Tabellenkalkulation damit arbeiten und es verstehen können. Im Wettbewerb tritt es gemeinsam mit Copilot und Gemini in eine Dreierkonkurrenz und markiert damit eine neue Phase für KI in der Unternehmensproduktivität. Nutzer in Taiwan müssen die Add-ons über AppSource bzw. den Workspace Marketplace installieren und sollten dabei auf den Datenschutz sowie darauf achten, ob ChatGPT Plus erforderlich ist.

ChainNewsAbmedia7M her

Google Chrome lädt am 6. Mai still und heimlich ein 4 GB großes KI-Modell herunter – ohne Einwilligung der Nutzer

Laut Tom’s Hardware hat der Sicherheitsexperte Alexander Hanff offengelegt, dass Google Chrome am 6. Mai auf berechtigten Geräten stillschweigend etwa 4 GB der KI-Modell-Datei „weights.bin“ herunterlädt – ohne ausdrückliche Benutzerbenachrichtigung oder Zustimmung. Die Datei, die auf Gemini Nano basiert, ermöglicht lokale KI-Funktionen.

GateNews12M her

Der Ripple-CEO weist die Erzählung vom durch KI verursachten Stellenabbau zurück – trotz der Entlassungen bei Coinbase

Ripple-CEO treibt die KI-als-Wachstum-Story Ripple-CEO Brad Garlinghouse wies die Vorstellung zurück, dass künstliche Intelligenz in erster Linie ein Mittel sei, um Jobs abzubauen. Er sprach dazu gegenüber CoinDesk auf dem Consensus Miami 2026. „KI als Angstgegner darzustellen, ist ein Schlag ins Gesicht“, sagte Garlinghouse und rahmte die Technologie als

CryptoFrontier20M her

Stockcoin.ai schließt eine Seed-Funding-Runde ab, angeführt von Amber Group

Laut offizieller Ankündigung hat Stockcoin.ai, eine KI-getriebene Plattform für den Handel mit Aktien- und Krypto-Futures, eine Seed-Finanzierungsrunde abgeschlossen, die von Amber Group angeführt wurde, mit Beteiligung von Angel-Investoren aus dem Krypto- und dem traditionellen Finanzbereich. Die Plattform konzentriert sich darauf, On-Chain-Daten mit Aktien zu verbinden und dies weiter auszubauen.

GateNews1Std her

Claude App: Die monatlich aktiven Nutzer steigen um 658% auf 85,79 Mio. innerhalb eines Jahres, Downloads springen um 2321%

Laut Similarweb-Daten, die von Beating überwacht wurden, zeigten die April-Kennzahlen der Claude-App im Jahresvergleich ein deutliches Wachstum: Die monatlich aktiven Nutzer (MAU) stiegen von 11,31 Millionen vor einem Jahr auf 85,79 Millionen, ein Plus von 658%; die App-Store-Downloads stiegen von 920.000 auf 22,3 Millionen, ein Plus von 2321%.

GateNews1Std her

Der Präsident von OpenAI sagt aus, Musk habe am 5. Mai die volle Kontrolle und $800B für eine Marskolonie angestrebt

Laut Aussage von OpenAI-Präsident Greg Brokeman am 5. Mai in der zweiten Woche des Kalifornien-Prozesses hatte Elon Musk zuvor dafür plädiert, OpenAI in ein gewinnorientiertes Unternehmen umzuwandeln, und volle Kontrolle über die Organisation gefordert. Brokeman sagte, Musk habe den Bedarf genannt, 8 Milliarden US-Dollar aufzubringen für

GateNews1Std her
Kommentieren
0/400
Keine Kommentare