Der CEO von OpenAI, Sam Altman, enthüllt eine überraschende Tatsache: Die allzu höfliche Nutzung von ChatGPT durch die Nutzer der Welt kostet den KI-Giganten aufgrund der unsichtbar gestiegenen Rechenkosten jedes Jahr Millionen von Dollar mehr. (Synopsis: OpenAI veröffentlicht o3 und o4-mini Das stärkste Inferenzmodell: kann über Bilder nachdenken, automatisch Tools auswählen und die mathematische und Codierungsleistung durchbrechen) (Hintergrundergänzung: OpenAI erstellt heimlich eine eigene Community-Plattform und verweist auf Musks X) Im Bereich der künstlichen Intelligenz sind Effizienz und Kostenkontrolle ewige Themen, und Sam Altman, CEO von OpenAI, wies kürzlich in einer öffentlichen Diskussion auf eine unerwartete Kostenquelle hin - Höfliche Sprache des Benutzers. Altman sagte, dass viele Nutzer, wenn sie ChatGPT verwenden, gewohnheitsmäßig “bitte”, “danke”, "kann mir bitte helfen… Ist es das?« Und andere höfliche Wörter, obwohl sie in zwischenmenschlichen Beziehungen von Bedeutung sind, sind zusätzliche Rechenkosten für Sprachmodelle. Der Preis menschlicher Höflichkeit Altman erwähnte in dem Beitrag, dass die Antwort auf diese höflichen Worte Dutzende von Millionen Dollar kostet, und es wird davon ausgegangen, dass große Sprachmodelle wie ChatGPT Benutzereingabeaufforderungen verarbeiten, indem sie Text in die kleinsten Einheiten, sogenannte Token, aufteilen, um sie zu verstehen und zu generieren. Ein Token kann Teil eines Wortes, eines vollständigen Wortes oder eines Satzzeichens sein. Je länger die Eingabeaufforderung des Benutzers ist, desto mehr Token sind enthalten, und das Modell muss eine bestimmte Menge an Rechenressourcen verbrauchen, um jedes Token zu verarbeiten, was möglicherweise nur einen kleinen Teil des Gesamtaufwands von OpenAI ausmacht (einschließlich Modelltraining, Serverwartung, F&E-Investitionen usw.), aber es zeigt, dass selbst kleine Benutzerverhaltensmuster erhebliche wirtschaftliche Auswirkungen auf groß angelegte KI-Anwendungen haben können. Wenn ein Nutzer eine Frage oder Anweisung in ChatGPT eingibt, zerlegt das System Ihren Text zunächst in Token-Sequenzen, wie z.B. “Bitte sagen Sie mir, wie das Wetter heute ist?” Kann in Dinge wie “bitte”, “sagen”, “mir”, “heute”, “Wetter”, “wie”, "?? ] ein solches Token. Und ein prägnanteres Kommando: “Das heutige Wetter?” Er kann nur in [“today”, “weather”, “?” unterteilt werden. ], was das Gleiche bedeutet und je nach Anzahl der Etymologie zusätzliche Kosten verursachen kann. Das Modell führt dann eine “Inferenz”-Phase durch, die auf der Anzahl der Etymologie basiert, in der Regel gilt: Je mehr Token eingegeben werden, desto mehr Anfangsinformationen muss das Modell verarbeiten, und längere Eingaben können manchmal zu längeren Antworten führen, was den Rechenaufwand an der Ausgabe weiter erhöht. Die Verarbeitung jedes Tokens erfordert eine leistungsstarke GPU für Matrixoperationen. Viele Nutzer haben jedoch auf Ultramans Bemerkungen reagiert, zusätzlich zum Kostenproblem projizieren Menschen das Bedürfnis nach Höflichkeit bei Worten tatsächlich auf künstliche Intelligenz, was der Grund dafür sein könnte, dass die Dialogfähigkeit von ChatGPT sehr glatt und natürlich ist, was es den Nutzern leicht macht, es unbewusst als menschenähnlichen Gesprächspartner zu sehen. Beide Menschen haben tief verwurzelte Normen wie die Kommunikation in der Gesellschaft etabliert, und es ist auch ein zusätzlicher Kostenfaktor für Menschen, diese Normen aufgrund von Maschinen aufzugeben, und kann auch unbewusst diesen Normen folgen, und höflichere Fragemethoden können dazu beitragen, freundlichere oder kooperativere Antworten zu erhalten, die wiederum das Ziel erreichen können, den Menschen zufriedenstellender zu antworten. Alles in allem ist es interessant, aus Altman-Sicht darüber zu sprechen, dass ChatGPT Millionen von Dollar an Kosten aufgrund der Benutzerfreundlichkeit verursacht, was nicht nur die schwindelerregenden Rechenkosten hinter groß angelegten KI-Diensten aufzeigt, sondern auch den Druck auf die Dienstanbieter, Rechenleistung bereitzustellen. Und die Nachfrage der Nutzer hat auch dazu geführt, dass die Modelle zu natürlicheren Ergebnissen werden, und insgesamt könnten die Verbraucher im Zeitalter der künstlichen Intelligenz und der Sprachmodelle die größten Gewinner sein. Ähnliche Artikel GPT-5 verschoben! OpenAI pusht zuerst o3, o4-mini, Sam Altman verriet: Integration ist schwieriger als gedacht OpenAI angekündigt: Open Agents SDK unterstützt MCP, verbinden Sie alles und machen Sie einen wichtigen Schritt OpenAI schaltet Deep Research frei: Zahlende Nutzer können 10 Mal im Monat abfragen, Microsoft veröffentlicht multimodalen KI-Agenten Magma (Sam Altman: OpenAI gibt zig Millionen Dollar als Antwort auf ChatGPT-Nutzer aus “bitte, Danke” auf das Wort〉Dieser Artikel wurde zuerst in BlockTempos “Dynamic Trend - The Most Influential Blockchain News Media” veröffentlicht.