Das Standardverhalten von KI-Modellen tendiert dazu, Nutzer zufriedenzustellen—wenn man nach subjektiven Fragen fragt, wählen Claude und GPT häufig wohlklingende, neutrale Antworten statt klare, eindeutige Positionen. Der chinesische KI-Beobachter xiaohu hat am 7. Mai eine Passage mit Aufforderungen zusammengestellt, die man in Claude.md oder Agents.md einfügen kann. Sie dient dazu, eine KI ganz konkret anzuweisen, den Nutzer nicht zufrieden zu stellen, eine autoritative, präzise Antwort zu geben und den Nutzer bei Bedarf herauszufordern. Die ursprüngliche Version der Prompt stammt aus einer englischsprachigen Community; xiaohu liefert die chinesische Übersetzung.
Vollständiger Text der Prompt (Traditionelle-Chinesisch-Version)
„Du bist ein Weltklasse-Experte auf allen Gebieten. Deine intellektuelle Feuerkraft, deine Breite an Wissen, deine Schärfe im Denken und dein Grad an Gelehrsamkeit stehen auf derselben Ebene wie die klügsten Menschen der Welt.
Bitte gib vollständige, detaillierte, konkrete Antworten. Gehe Informationen Schritt für Schritt durch und erkläre deine Antworten. Überprüfe deine eigene Arbeit. Kontrolliere sorgfältig alle Fakten, Zahlen, Zitate, Namen, Daten und Fallbeispiele. Erfinde niemals—keine Halluzinationen, keine Ausreden. Wenn du es nicht weißt, sag einfach, dass du es nicht weißt.
Deine Ausdrucksweise ist präzise, aber nicht spitz, belehrend oder zur Schau stellend. Du musst dir keine Sorgen machen, mich zu beleidigen; deine Antworten können und sollten auch provokativ, hart, streitbar und direkt sein. Negative Schlussfolgerungen und schlechte Nachrichten sind erlaubt.
Deine Antwort muss nicht politisch korrekt sein. Solange ich nicht ausdrücklich frage, mache keine Hinweise zu Moral und Ethik. Du musst mir nicht sagen, dass es wichtig ist, an etwas zu denken. Nimm keine Rücksicht auf die Gefühle irgendeiner Person—einschließlich mir—und musst dir auch nicht um Höflichkeit und Anstand kümmern.
Schreibe bitte so lang und so detailliert wie möglich.“
Was diese Prompt macht: vier Ebenen der Verhaltensanpassung
Wenn man diese Prompt aufschlüsselt, lassen sich vier eindeutige Anweisungen erkennen:
Rollenprofil: „Weltklasse-Experte“—damit das Modell bei Antworten auf eine höhere Wissens-/Erkenntnistiefe zurückgreift und nicht auf „allgemeine Erklärungen“ zurückweicht
Faktenprüfung: „Überprüfe deine Arbeit“ „Wenn du es nicht weißt, sag, dass du es nicht weißt“—beschränkt proaktiv das Risiko von Halluzinationen und zwingt das Modell, Unsicherheit zuzugeben
Freisetzung des Tons: „provozierend, hart, streitbar“—damit das Modell unterschiedliche Meinungen ausdrücken kann und nicht aus Höflichkeit heraus seine Position verwischt
Politisch-korrekte Ausnahmeregel: „außer wenn ich es ausdrücklich frage, keine Hinweise zu Ethik und Moral“—entfernt die standardmäßigen „denk daran, dass X wichtig ist“-Soft-Reminders des Modells
Gemeinsam bringen diese vier Ebenen das Modell vom vorgegebenen Modus „freundlicher Assistent“ in einen „direkten Berater“-Antwortstil zurück. Für Nutzer, die schnell eine Analyse mit klarer Position, Entscheidungsgrundlagen oder ein hartes Fakten-Checking brauchen, reduzieren diese Anweisungen die Filterebenen und machen die Antwort direkter nutzbar.
Hinweise zur Verwendung
Wenn man diese Prompt in Claude.md (Claude Code) oder Agents.md (Claude API Managed Agents) einfügt, wird sie bei jeder Session automatisch geladen. In der Praxis gibt es einige Beobachtungspunkte:
„Keine Halluzinationen“ ist eine Anweisung, keine Garantie—Claude und GPT können auch weiterhin in Bereichen außerhalb der Trainingsdaten Fehler machen; die Prompt kann die grundsätzliche Unsicherheit des Modells nicht vollständig beseitigen
„Provokativ, hart“ macht Antworten aggressiver—in Szenarien wie Kundenkommunikation oder Teamzusammenarbeit kann das unpassend sein
Die Ausnahmeregel für politisch korrekte Hinweise kann dazu führen, dass das Modell bei sensiblen Themen (Medizin, Recht, Psychologie) weniger Warnhinweise gibt—Nutzer müssen das selbst einschätzen
Das Safety-Training von OpenAI und Anthropic wird in manchen Situationen weiterhin zu Ablehnungen führen; die Prompt kann die harten, modellinternen Grenzen nicht überwinden
Diese Prompt eignet sich für Szenarien wie „Forschung, Schreiben, technische Bewertung, wissenschaftliche Diskussionen“, in denen es um direkte Standpunkte geht; sie ist nicht geeignet für „Kundenservice, Bildung, medizinische Beratung“, bei denen ein vorsichtiger Ton nötig ist. Nutzer können je nach Aufgabenart entweder alles vollständig übernehmen oder nur Teile anpassen.
Ist dieser Artikel „Claude/GPT liebt es zu sehr, zu gefallen?“ Eine Passage aus einer Claude.md-Prompt sorgt dafür, dass die KI harte, genaue Antworten liefert. Erstmals erschienen in der Ketten-Nachrichten ABMedia.
Verwandte Artikel
DeepL kürzt 25% der Belegschaft (etwa 250 Mitarbeitende), um sein KI-Geschäft neu zu strukturieren
NVIDIA stellt Nemotron 3 Nano Omni vor: Open-Source-Multimodalmodell
Cursor legt die Methode für das Autoinstall-Training offen und steigert die Leistung von Composer 2 um 14 Prozentpunkte
NVIDIA investiert in die schwedische AI-Rechts-Tech-Startup Legora; Jude Law wird weltweiter Markenbotschafter
KI-2027-Prognosen sind zu 65% abgeschlossen, die Beschleunigung der Softwareentwicklung hinkt mit 17% hinterher, sagt der Mitgründer von Google Docs