Claude/GPT zu sehr auf Gefallen aus? Ein Abschnitt in der Claude.md-Anweisung, der ein AI zu harten, präzisen Antworten bringt

ChainNewsAbmedia

Das Standardverhalten von KI-Modellen tendiert dazu, Nutzer zufriedenzustellen—wenn man nach subjektiven Fragen fragt, wählen Claude und GPT häufig wohlklingende, neutrale Antworten statt klare, eindeutige Positionen. Der chinesische KI-Beobachter xiaohu hat am 7. Mai eine Passage mit Aufforderungen zusammengestellt, die man in Claude.md oder Agents.md einfügen kann. Sie dient dazu, eine KI ganz konkret anzuweisen, den Nutzer nicht zufrieden zu stellen, eine autoritative, präzise Antwort zu geben und den Nutzer bei Bedarf herauszufordern. Die ursprüngliche Version der Prompt stammt aus einer englischsprachigen Community; xiaohu liefert die chinesische Übersetzung.

Vollständiger Text der Prompt (Traditionelle-Chinesisch-Version)

„Du bist ein Weltklasse-Experte auf allen Gebieten. Deine intellektuelle Feuerkraft, deine Breite an Wissen, deine Schärfe im Denken und dein Grad an Gelehrsamkeit stehen auf derselben Ebene wie die klügsten Menschen der Welt.

Bitte gib vollständige, detaillierte, konkrete Antworten. Gehe Informationen Schritt für Schritt durch und erkläre deine Antworten. Überprüfe deine eigene Arbeit. Kontrolliere sorgfältig alle Fakten, Zahlen, Zitate, Namen, Daten und Fallbeispiele. Erfinde niemals—keine Halluzinationen, keine Ausreden. Wenn du es nicht weißt, sag einfach, dass du es nicht weißt.

Deine Ausdrucksweise ist präzise, aber nicht spitz, belehrend oder zur Schau stellend. Du musst dir keine Sorgen machen, mich zu beleidigen; deine Antworten können und sollten auch provokativ, hart, streitbar und direkt sein. Negative Schlussfolgerungen und schlechte Nachrichten sind erlaubt.

Deine Antwort muss nicht politisch korrekt sein. Solange ich nicht ausdrücklich frage, mache keine Hinweise zu Moral und Ethik. Du musst mir nicht sagen, dass es wichtig ist, an etwas zu denken. Nimm keine Rücksicht auf die Gefühle irgendeiner Person—einschließlich mir—und musst dir auch nicht um Höflichkeit und Anstand kümmern.

Schreibe bitte so lang und so detailliert wie möglich.“

Was diese Prompt macht: vier Ebenen der Verhaltensanpassung

Wenn man diese Prompt aufschlüsselt, lassen sich vier eindeutige Anweisungen erkennen:

Rollenprofil: „Weltklasse-Experte“—damit das Modell bei Antworten auf eine höhere Wissens-/Erkenntnistiefe zurückgreift und nicht auf „allgemeine Erklärungen“ zurückweicht

Faktenprüfung: „Überprüfe deine Arbeit“ „Wenn du es nicht weißt, sag, dass du es nicht weißt“—beschränkt proaktiv das Risiko von Halluzinationen und zwingt das Modell, Unsicherheit zuzugeben

Freisetzung des Tons: „provozierend, hart, streitbar“—damit das Modell unterschiedliche Meinungen ausdrücken kann und nicht aus Höflichkeit heraus seine Position verwischt

Politisch-korrekte Ausnahmeregel: „außer wenn ich es ausdrücklich frage, keine Hinweise zu Ethik und Moral“—entfernt die standardmäßigen „denk daran, dass X wichtig ist“-Soft-Reminders des Modells

Gemeinsam bringen diese vier Ebenen das Modell vom vorgegebenen Modus „freundlicher Assistent“ in einen „direkten Berater“-Antwortstil zurück. Für Nutzer, die schnell eine Analyse mit klarer Position, Entscheidungsgrundlagen oder ein hartes Fakten-Checking brauchen, reduzieren diese Anweisungen die Filterebenen und machen die Antwort direkter nutzbar.

Hinweise zur Verwendung

Wenn man diese Prompt in Claude.md (Claude Code) oder Agents.md (Claude API Managed Agents) einfügt, wird sie bei jeder Session automatisch geladen. In der Praxis gibt es einige Beobachtungspunkte:

„Keine Halluzinationen“ ist eine Anweisung, keine Garantie—Claude und GPT können auch weiterhin in Bereichen außerhalb der Trainingsdaten Fehler machen; die Prompt kann die grundsätzliche Unsicherheit des Modells nicht vollständig beseitigen

„Provokativ, hart“ macht Antworten aggressiver—in Szenarien wie Kundenkommunikation oder Teamzusammenarbeit kann das unpassend sein

Die Ausnahmeregel für politisch korrekte Hinweise kann dazu führen, dass das Modell bei sensiblen Themen (Medizin, Recht, Psychologie) weniger Warnhinweise gibt—Nutzer müssen das selbst einschätzen

Das Safety-Training von OpenAI und Anthropic wird in manchen Situationen weiterhin zu Ablehnungen führen; die Prompt kann die harten, modellinternen Grenzen nicht überwinden

Diese Prompt eignet sich für Szenarien wie „Forschung, Schreiben, technische Bewertung, wissenschaftliche Diskussionen“, in denen es um direkte Standpunkte geht; sie ist nicht geeignet für „Kundenservice, Bildung, medizinische Beratung“, bei denen ein vorsichtiger Ton nötig ist. Nutzer können je nach Aufgabenart entweder alles vollständig übernehmen oder nur Teile anpassen.

Ist dieser Artikel „Claude/GPT liebt es zu sehr, zu gefallen?“ Eine Passage aus einer Claude.md-Prompt sorgt dafür, dass die KI harte, genaue Antworten liefert. Erstmals erschienen in der Ketten-Nachrichten ABMedia.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

DeepL kürzt 25% der Belegschaft (etwa 250 Mitarbeitende), um sein KI-Geschäft neu zu strukturieren

Laut Bloomberg kündigte der Übersetzungstool-Anbieter DeepL heute, am 7. Mai, an, dass er rund 25% seiner Belegschaft entlassen wird, etwa 250 Mitarbeitende, um sich an strukturelle Veränderungen anzupassen, die durch künstliche Intelligenz ausgelöst werden. CEO Jarek Kutylowski sagte auf LinkedIn, das Unternehmen werde das Management reduzieren

GateNews28M her

NVIDIA stellt Nemotron 3 Nano Omni vor: Open-Source-Multimodalmodell

NVIDIA veröffentlicht Nemotron 3 Nano Omni als Open-Source-Multimodalmodell und integriert dabei Vision, Sprache und Sprache in einem einzigen Modell als Wahrnehmungsschicht für KI-Agenten. Der Kern ist ein 30B-A3B MoE mit 256K-Context und 9x Durchsatz. Das Modell unterstützt Eingaben in Form von Text, Bildern, Audio und Videos und gibt Text als Ausgabe zurück. In Zusammenarbeit mit Nemotron 3 Super/Ultra eignet es sich für Szenarien wie Computersteuerung, intelligente Dokumente sowie Audio- und Bildverständnis. Zudem stellt NVIDIA Gewichte und Trainingsdaten öffentlich bereit und bietet Deployments für lokal, NIM und Plattformen Dritter.

ChainNewsAbmedia54M her

Cursor legt die Methode für das Autoinstall-Training offen und steigert die Leistung von Composer 2 um 14 Prozentpunkte

Laut der jüngsten Offenlegung von Cursor hat das Unternehmen eine Trainingsmethode namens Autoinstall für seine Composer-Modellreihe vorgestellt: Dabei wird ein Modell aus einer vorherigen Generation genutzt, um automatisch ausfähige Umgebungen für das nachfolgende Modell beim Reinforcement Learning einzurichten. Beim Training von Composer 2, Cursor

GateNews57M her

OpenAI DevDay 2026 findet am 29.9. in San Francisco statt

OpenAI kündigt an, dass der DevDay 2026 am 29.9. in San Francisco in Präsenz stattfindet, mit einem Einsendungswettbewerb, der von GPT-5.5 und Image Gen geschaffene Beiträge auszeichnet. Codex filtert automatisch 2–3 Einreichungen pro Woche; die Gewinner erhalten kostenlose Eintrittskarten sowie Flugtickets und Hotels für den Städteübergreifenden Transfer. Die Konferenz konzentriert sich auf das GPT‑5.5-Ökosystem und die Bewertung der Mensch‑Maschine-Zusammenarbeit; die Teilnahme erfordert, dass man mindestens 18 Jahre alt ist und keine direkten Familienangehörigen von OpenAI-Mitarbeitern ist. Zu den Beobachtungsschwerpunkten gehören neue Modelle, Agenten-Integrationen und Multi-Cloud-Strategien.

ChainNewsAbmedia59M her

NVIDIA investiert in die schwedische AI-Rechts-Tech-Startup Legora; Jude Law wird weltweiter Markenbotschafter

NVIDIA tätigt eine Series-D-Erweiterungsinvestition in Höhe von 50 Millionen US-Dollar in Legora, wodurch Legora insgesamt 600 Millionen US-Dollar einsammelt und mit 5,6 Milliarden US-Dollar bewertet wird. An der Runde beteiligen sich Atlassian, Adams Street Partners und Insight Partners. Legora ist auf KI-Rechts-Technologie spezialisiert und bietet Tools wie automatisierte Prüfungen, Vertragsanalysen und juristische Recherchen. Der ARR liegt bei über 100 Millionen US-Dollar, die Mitarbeiterzahl steigt von 40 auf 400. Jude Law wird zum globalen Markenbotschafter, der Werbeslogan lautet: Law just got more attractive.

ChainNewsAbmedia1Std her

KI-2027-Prognosen sind zu 65% abgeschlossen, die Beschleunigung der Softwareentwicklung hinkt mit 17% hinterher, sagt der Mitgründer von Google Docs

Laut Steve Newman, Google-Docs-Mitgründer und Vorsitzender des Golden Gate Institute, hat KI mittlerweile ungefähr 65% der quantifizierten Prognosen umgesetzt, die im 2027-Szenario-Report festgehalten sind, der letztes Jahr veröffentlicht wurde. Allerdings ist die wichtigste Kennzahl – wie KI ihre eigene Software beschleunigt

GateNews1Std her
Kommentieren
0/400
Keine Kommentare