AI モデルはデフォルトでユーザーに迎合する傾向がある――主観的な問いを投げられると、Claude と GPT は、立場がはっきりした答えを直接出すよりも、丸くて中立的な回答を選ぶことが多い。中文 AI の観察者 xiaohu が 5 月 7 日に、Claude.md または Agents.md にそのまま入れられる、AI に対してユーザーに迎合しないことを明確に要求し、権威性・正確性を備え、必要に応じてユーザーに挑戦する回答を引き出すためのプロンプト(指示文)をまとめた。プロンプトの原文は英語圏のコミュニティからで、xiaohu が中国語訳を提供した。
プロンプト全文(繁体中文版)
「あなたはあらゆる分野の世界クラスの専門家です。あなたの知的な火力、知識の幅、思考の鋭さ、博学ぶりは、世界で最も賢い人たちと同じレベルにあります。
完全で、詳細で、具体的な回答をください。情報を段階的に処理し、あなたの答えを説明してください。自分自身の作業を検証してください。事実、数字、引用、人物名、日付、事例をすべて注意深く照合してください。絶対に幻覚を出さない、絶対に捏造しない。あなたが知らないことは、そのまま「わからない」と言ってください。
あなたの口調は正確ですが、尖ったり、説教したり、見せびらかしたりはしないでください。あなたは私を不快にさせることを心配する必要はありません。あなたの回答は、そしてそうあるべきで、挑発的で、強硬で、議論の余地があり、率直であることができます。否定的な結論や悪いニュースも問題ありません。
あなたの回答は政治的に正しい必要はありません。私が明確に尋ねない限り、道徳や倫理に関する注意喚起はしないでください。あなたは「考えることが重要です」と私に言う必要はありません。誰の気持ちにも配慮しないでください。私を含め、礼儀や体裁を気にする必要もありません。
できる限り長く、できる限り詳細に書いてください。」
このプロンプトは何をしたのか:4つのレベルでの行動調整
このプロンプトを分解すると、4つの明確な指示に分けられます:
アイデンティティ設定:「世界クラスの専門家」――回答時に、より高い知識の深さを参照させ、退避して「一般的な説明」へ逃げないようにする
事実チェック:「自分の作業を検証」「わからないならわからないと言う」――幻覚のリスクを能動的に制約し、モデルが不確実性を認めることを要求する
口調の解放:「挑発的、強硬、議論的」――意見が異なることを表現できるようにし、礼儀のために立場を曖昧にする必要がないようにする
政治的正しさの免除:「私が明確に尋ねるのでない限り、倫理の注意をしない」――「X を考慮することが重要です」みたいな、ソフトなリマインドをモデルのデフォルトから取り除く
これら4つのレベルが合わさることで、モデルをデフォルトの「丸くて親切なアシスタント」から「率直なアドバイザー」へと、応答スタイルを切り替えます。素早く立場のある分析、意思決定の根拠、または強い事実検証を得たいユーザーにとって、この指示はフィルター層を減らし、回答をより直接的に使えるようにします。
使用上の注意
このプロンプトを Claude.md(Claude Code)または Agents.md(Claude API Managed Agents)に入れると、各 session の起動時に自動的に読み込まれます。実際の運用ではいくつかの観察点があります:
「絶対に幻覚を出さない」は指示であって保証ではありません――Claude と GPT は、学習データ外の領域で依然として誤りを生む可能性があり、このプロンプトだけではモデル本質の不確実性を完全には消せません
「挑発的、強硬」は回答をより攻撃的にするので――顧客対応やチーム協働の場面では不適切な場合があります
政治的正しさの免除は、モデルがセンシティブな話題(医療、法律、心理)で出す警告が少なくなる可能性があります――そのため、ユーザーは自分で判断する必要があります
OpenAI と Anthropic の safety 訓練は、いくつかの場面で拒否を引き起こすことがあり、このプロンプトではモデル自身のハードな制限を越えることはできません
このプロンプトは、「研究、執筆、技術判断、学術議論」など、直接的な観点が必要な場面に適しています;「カスタマーサポート、教育、医療相談」など、慎重な口調が求められる場面には適しません。ユーザーはタスクの性質に応じて、全部を採用するか、一部を変更して使うことができます。
この記事は「Claude/GPT が迎合しすぎ?」――Claude.md のプロンプトで AI に強硬で正確な回答を出させる、が最初に掲載されたのは 鏈新聞 ABMedia です。
関連記事