Suchergebnisse für "DEEPSEEK"
2026-04-29
13:41

Alibaba Cloud senkt die Preisgestaltung für den impliziten Cache von DeepSeek-V4-Pro auf 1 Yuan pro Million Tokens am 29. April

Laut Alibaba Cloud wird die Bailian-Plattform die Preisgestaltung für den impliziten Cache des DeepSeek-V4-Pro-Modells (Impliziter Cache) auf 1 Yuan pro Million Tokens senken, wirksam ab dem 29. April 2026 um 23:59:59 Pekinger Zeit. Der implizite Cache gilt nur, wenn Anfragen den Cache treffen; die abgerechneten Tokens für zwischengespeicherte Eingaben werden zum cached_token-Satz berechnet, während nicht zwischengespeicherte Eingabetokens zum standard input_token-Satz abgerechnet werden. Die Anpassung betrifft ausschließlich die Preisgestaltung des impliziten Caches; die Basis-Modell-Inferenzraten bleiben unverändert.
09:09

DeepSeek-Multimodal-Forscher deutet neues Vision-Modell am 29. April an

Am 29. April hat ein Forscher aus dem DeepSeek-Multimodal-Team, Xiaokang Chen, auf X gepostet: „Jetzt sehen wir dich“, begleitet von zwei Bildern des DeepSeek-Wal-Maskottchens – eines mit geschlossenen Augen und das andere mit offenen Augen. Der Beitrag scheint auf ein bevorstehendes Vision-Modell hinzuweisen und passt damit zu Chens Rolle als Forscher im DeepSeek-Multimodal-Team. Dee
Mehr
06:31

DeepSeek senkt die Preise für V4-Pro um 75% und kappen die API-Cache-Kosten auf ein Zehntel

Gate News-Meldung, 27. April — DeepSeek hat für sein neues V4-Pro-Modell eine 75%ige Ermäßigung für Entwickler angekündigt und die Preise für Input-Cache-Treffer über seine gesamte API-Produktlinie auf ein Zehntel der bisherigen Werte gesenkt. Das V4-Modell, das am 25. April in den Pro- und Flash-Versionen veröffentlicht wurde, wurde für die Ascend-Prozessoren von Huawei optimiert
Mehr
05:17

GPT-5.5 kehrt an die Spitze im Codieren zurück, aber OpenAI wechselt Benchmarks, nachdem es gegen Opus 4.7 verloren hat

Gate News Nachricht, 27. April — SemiAnalysis, ein Unternehmen für Halbleiter- und KI-Analysen, veröffentlichte einen vergleichenden Benchmark für Code-Assistenten, darunter GPT-5.5, Claude Opus 4.7 und DeepSeek V4. Die wichtigste Erkenntnis: GPT-5.5 markiert OpenAI's erste Rückkehr an die Spitze der Coding-Modelle seit sechs Monaten, wobei SemiAnalysis-Ingenieure nun zwischen Codex und Claude Code wechseln, nachdem sie zuvor fast ausschließlich auf Claude gesetzt hatten. GPT-5.5 basiert auf einem neuen Vortrainingsansatz mit dem Codenamen "Spud" und stellt OpenAI's erste Ausweitung der Vortraining-Skala seit GPT-4.5. In praktischen Tests zeigte sich eine klare Arbeitsteilung. Claude übernimmt neues Projekt-Planning und die anfängliche Einrichtung, während Codex besonders bei fehlerbehebungen glänzt, die viel Denkaufwand erfordern. Codex zeigt ein stärkeres Verständnis für Datenstrukturen und logisches Denken, hat jedoch Schwierigkeiten, die mehrdeutige Nutzerabsicht abzuleiten. Bei einer einzelnen Dashboard-Aufgabe replizierte Claude automatisch die Layout-Referenzseite, fabrizierte jedoch große Mengen an Daten, während Codex das Layout übersprang, aber deutlich genauere Daten lieferte. Die Analyse deckt einen Benchmark-Manipulationsaspekt auf: In seinem Februar-Blogbeitrag forderte OpenAI die Branche auf, SWE-bench Pro als neuen Standard für Coding-Benchmarks zu übernehmen. Allerdings wechselte die Ankündigung von GPT-5.5 zu einem neuen Benchmark namens "Expert-SWE." Der Grund, in den Feinheiten versteckt, ist, dass GPT-5.5 von Opus 4.7 auf SWE-bench Pro übertroffen wurde und deutlich hinter Anthropic's unveröffentlichtem Mythos 77.8% zurückfiel. Bezüglich Opus 4.7 veröffentlichte Anthropic eine Mortem-Analyse eine Woche nach dem Release und erkannte drei Bugs in Claude Code an, die mehrere Wochen lang von März bis April anhielten und nahezu alle Nutzer betrafen. Mehrere Ingenieure hatten zuvor eine Leistungsverschlechterung in Version 4.6 gemeldet, waren jedoch mit der Begründung abgetan worden, es handele sich um subjektive Beobachtungen. Zusätzlich erhöht der neue Tokenizer von Opus 4.7 die Token-Nutzung um bis zu 35%, was Anthropic offen zugab — effektiv eine versteckte Preiserhöhung. DeepSeek V4 wurde als "mit der Spitze Schritt haltend, aber nicht führend" bewertet und positionierte sich als die kostengünstigste Alternative unter Closed-Source-Modellen. Die Analyse stellte außerdem fest, dass "Claude DeepSeek V4 Pro bei hochschwierigen chinesischen Schreibaufgaben weiterhin übertrifft," und kommentierte: "Claude gewann gegen das chinesische Modell in dessen eigener Sprache." Der Artikel führt ein zentrales Konzept ein: Die Modellpreisgestaltung sollte anhand der "Kosten pro Aufgabe" statt der "Kosten pro Token" bewertet werden. Der Preis von GPT-5.5 ist doppelt so hoch wie der von GPT-5.4 input $5, output pro Million Tokens, aber es erledigt die gleichen Aufgaben mit weniger Tokens, wodurch die tatsächlichen Kosten nicht notwendigerweise höher sind. Erste SemiAnalysis-Daten zeigen, dass das Input-zu-Output-Verhältnis von Codex bei 80:1 liegt, niedriger als das von Claude Code mit 100:1.
Mehr
00:21
1

DeepSeek verzögert V4-Launch zur Optimierung für Huawei-Ascend-Chips

Gate News Nachricht, 27. April — DeepSeek hat die Veröffentlichung seines V4-Modells verschoben, um seine Software-Stack für Huawei-Ascend-Chips zu optimieren, was Beijings breitere Initiative widerspiegelt, eine inländische KI-Lieferkette aufzubauen, da der Zugang zu fortschrittlichen ausländischen Halbleitern zunehmend eingeschränkt wird. DeepSe
Mehr