PANews 27. Februar – Während die Branche sehnsüchtig auf das neue Flaggschiffmodell DeepSeek V4 wartet, hat das DeepSeek-Team still und leise eine neue wissenschaftliche Arbeit veröffentlicht. Die neue Studie stellt ein innovatives Schlussfolgerungssystem namens DualPath vor, das speziell für die Optimierung der Inferenzeleistung großer Modelle (LLMs) unter der Arbeitsbelastung von Agenten entwickelt wurde. Durch die Einführung eines Mechanismus namens „Dual-Path Lesen des KV-Caches“ (ähnlich einem Speicher-Cache) wird die Speicherbelastung des Netzwerks neu verteilt, was die Offline-Inferenzdurchsatzrate um bis zu 1,87-mal erhöht und die durchschnittliche Anzahl der Agentenläufe pro Sekunde im Online-Service um 1,96-mal steigert. Im Einleitungsteil der Arbeit wird erwähnt, dass große Modelle sich rasch von Einzelrunden-Chatbots und unabhängigen Inferenzmodellen zu Agentensystemen entwickeln — die in der Lage sind, eigenständig zu planen, Werkzeuge zu nutzen und durch Mehrfachinteraktionen praktische Aufgaben zu lösen. Dieser Paradigmenwechsel in der Anwendung treibt eine bedeutende Veränderung in der Arbeitsbelastung der großen Modelle voran: vom traditionellen Mensch-Modell-Interaktion hin zu Mensch-Modell-Umwelt-Interaktion, bei der die Interaktionsrunden auf Dutzende oder sogar Hunderte steigen können.