Gate News Nachricht, 29. April — Die Modellgewichte von Ant Groups Ling-2.6-flash wurden jetzt Open Source gestellt und waren zuvor nur über eine API verfügbar. Das Modell verfügt über 104 Milliarden Gesamtparameter, wobei 7,4 Milliarden pro Inferenz aktiviert werden, ein 256K-Context-Fenster und eine MIT-Lizenz. BF16-, FP8- und INT4-Precision-Versionen sind auf HuggingFace und ModelScope verfügbar.
Ling-2.6-flash führt hybride Verbesserungen der linearen Attention gegenüber Ling 2.0 ein, indem die ursprüngliche GQA auf eine 1:7-MLA plus Lightning Linear Hybrid-Architektur aufgerüstet wird, kombiniert mit einem stark sparsamen MoE. Die Inferenz-Effizienz übertrifft deutlich vergleichbare Modelle: Die maximale Generierungsgeschwindigkeit erreicht 340 Tokens/s auf 4x H20-GPUs, wobei die Durchsatzraten für Prefill und Decode etwa 4-mal höher sind als bei vergleichbaren Open-Source-Modellen. Agentenbezogene Benchmarks zeigen starke Ergebnisse: BFCL-V4, TAU2-bench, SWE-bench Verified (61,2%), Claw-Eval und PinchBench erreichen oder nähern sich Werten auf SOTA-Niveau. Im gesamten Artificial-Analysis-Benchmark-Set beträgt der gesamte Token-Verbrauch nur 15 Millionen. Auf AIME 2026 erzielte das Modell 73,85%.
Auch die offizielle Website von Ant Group listet die Ling-2.6-1T (Trillion-Parameter-Flaggschiffversion) sowie die Ling-2.6-mini (leichtgewichtige Version) auf, doch zum Zeitpunkt der Veröffentlichung sind ihre Gewichte weiterhin nicht auf HuggingFace veröffentlicht; zum Download steht nur die Flash-Serie zur Verfügung.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
Forefront Tech schließt $100M -IPO-Preisfestlegung ab, Listung an der Nasdaq unter dem Code FTHAU
Laut ChainCatcher hat die Zweckgesellschaft (Special Purpose Acquisition Company) Forefront Tech am 30. April eine IPO-Preisspanne im Wert von 100 Millionen US-Dollar abgeschlossen und wird an der Nasdaq unter dem Tickersymbol FTHAU notieren. Das Unternehmen plant, den Erlös zu nutzen, um Mergers- und Akquisitionsmöglichkeiten im Blockchain-, Fintech- und Künstliche-Intelligenz-Bereich zu verfolgen.
GateNews55M her
Anthropic Claude Code berechnete dem Nutzer 200,98 US-Dollar zu viel wegen eines Abrechnungsfehlers, verweigerte zunächst die Rückerstattung, bevor die volle Kompensation erfolgte
Laut Überwachung durch Beating führte ein Abrechnungsfehler im Claude-Code-Service von Anthropic dazu, dass ein Max-20x-Abonnent um 200,98 US-Dollar für zusätzliche Nutzungsgebühren zu viel abgerechnet wurde, obwohl er nur 13% ihres monatlichen Kontingents verbrauchte. Der Fehler wurde ausgelöst, wenn die Commit-Historie eines Benutzers in einem git-Repository das Großbuchstaben enthielt
GateNews1Std her
DeepSeek führt am 30. April die Methode „Visual Primitives“ ein, um das multimodale Denken zu verbessern
Laut dem technischen Bericht von DeepSeek stellte das Unternehmen am 30. April Visual Primitives vor – eine Methode, die grundlegende visuelle Einheiten wie Punkte und Bounding-Boxes in Denkfolgen einbettet, um das Problem der Referenzlücke (Reference Gap) bei multimedialen Aufgaben anzugehen. Die Methode senkt den Verbrauch von Bild-Tokens.
GateNews1Std her
NVIDIA veröffentlicht die Cosmos-Reason2-32B-Flaggschiff-Modellgewichte und erweitert das Kontextfenster auf 256K Tokens
Laut Beating hat NVIDIA die Gewichte für Cosmos-Reason2-32B veröffentlicht, die Flaggschiff-Version seines physischen KI-Reasoning-Vision-Language-Modells (VLM). Es wurde entwickelt, um Robotern und autonomen Fahrsystemen zu helfen, räumliche, zeitliche und physikalische Prinzipien zu verstehen. Das Modell mit 32 Milliarden Parametern,
GateNews1Std her
OpenAI deckt auf, warum Codex das Sprechen über „Goblins“ verbietet: Kontrollverlust bei Belohnungen für Nerd-Persönlichkeiten
OpenAI erklärte in einem offiziellen Blogbeitrag, dass Codex Verbote für „Coden-geeignete Goblins“ und andere Kreaturen auf Basis der Belohnungssignal-Präferenz aus dem Training für das Nerd-Persönlichkeitsprofil entstanden seien, was zu einer Verschmutzung zwischen Persönlichkeiten und zu einer RLHF-Fehlleitung geführt habe. Der Vorfall wurde von Barron Roth enthüllt, nachdem Systemanweisungen offenbar geworden waren; OpenAI verfolgte daraufhin zwei Strategien: kurzfristiges Hard-Coding und langfristiges Löschen von Belohnungssignalen. Das Ereignis warnt vor der Anfälligkeit von Belohnungsdesign; das nachgelagerte Training erfordert künftig eine noch präzisere Prüfung und Revision.
ChainNewsAbmedia2Std her
Aliclouds Qwen Open-Source stellt das Qwen-Scope Interpretability-Modul bereit und deckt am 30. April 7 Modelle ab
Laut PANews kündigte Alibaba am 30. April die Open-Source-Veröffentlichung von Qwen-Scope an, einem Interpretierbarkeits-Modul, das auf Qwen3- und Qwen3.5-Modellen trainiert wurde. Die Veröffentlichung umfasst 7 große Sprachmodelle in Varianten für dichte Modelle und für Mixture-of-Experts, mit 14 Sätzen sparsamer Autoencoder
GateNews3Std her