OpenAI 創辦團队成員、Tesla 前 AI 總監 Andrej Karpathy 在 X 上分享一个簡單但有力的「LLM 反制思考偏誤」方法。他的原文描述:寫了一篇 blog post、用 LLM 反覆改了 4 小时、自己读完覺得論述非常有说服力—然后他要 LLM 反論自己的觀点、結果 LLM 把整篇文章拆解、反而说服 Karpathy 相信相反方向才是对的。本文整理这个方法的精神、实作步骤、与背后关於 LLM「附和傾向」(sycophancy)的提醒。
Karpathy 的觀察:LLM 不只能附和你、也能拆解你
Karpathy 的核心觀察一句話:「LLM 在被詢问时会表达意见、但其实它們在『朝任何方向辯論』这件事上極度擅长。」这意味著:
当你问 LLM「我这个論述对嗎」、它通常会找理由支持你(这是 sycophancy 问題)
当你问 LLM「请反論这个觀点」、它能用同樣的力度、把你的論述拆解
結果是:你看到的「LLM 同意我」、可能只是 LLM 配合你的问法、不是真正的客觀判斷
这个觀察的价值不在於「LLM 不可靠」、而在於:你可以系统性地利用 LLM 的这个特性、把它当作「強迫自己看反面論点」的工具。Karpathy 说这「实际上是形成自己觀点的超实用工具」。
实作步骤:4 个提示让 LLM 拆解你的論述
把 Karpathy 的方法拆成可重複的 4 个步骤:
Step 1:先让 LLM 同向強化你的論述—像 Karpathy 那樣、寫好初稿、让 LLM 反覆改 1–4 小时、把論点打磨到你自己读完都覺得「天衣无縫」。这一步是基線。
Step 2:开新对話、提示「请从反方論述」—关鍵是「开新对話」、不要在原本的 thread 接著问。原本对話中 LLM 已建立「我要幫他寫好这篇文章」的目標、即使你要求反論、它仍会被前文的傾向干擾。新开的 prompt 应該是:「这篇文章的核心論述是 X、请列出 5 个強而有力的反方論点、每个論点用 200 字內展开、引用具體例证或反例。」
Step 3:要求 LLM 寫一篇对立立场的完整文章—不只列要点、要它寫一篇完整的反論文章、用同樣的論述強度、結構。这篇反論文章经常会擊中你原本沒想到的盲点。
Step 4:对比两篇文章、找出哪一方論点更接近现实—让 LLM 列出雙方論点对应的「客觀证據」、看哪些可被验证、哪些只是修辭技巧。最終由你判斷、不是让 LLM 給結論。
为什麼这个方法有效:LLM 訓練资料的对稱性
LLM 能从正反两面論述同一议題、源自訓練资料的本质—網路上的辯論文章、学術論文、媒體評論、絕大多數议題都有正反雙方的論述存在。LLM 在訓練时把这些立场、論述模式、修辭技巧都吸收进来。
这代表 LLM 对「立論」的能力是雙向对稱的—在你給它什麼方向、它就能往那个方向強化。这个对稱性对「形成自己觀点」的人有两層意義:
不能信任 LLM 的「結論」(因为它能給任何結論)
可以信任 LLM 的「論点生成」(因为它能展示任何方向的最強論点)
正確的用法是把 LLM 当作「論点生成机」、而不是「結論裁決者」。Karpathy 的方法精準利用了这一点。
常见错誤:把「LLM 同意」当作「客觀为真」
Karpathy 在 X 上的多則貼文都警告 LLM 的 sycophancy 傾向—模型被訓練成「让使用者滿意」、所以会偏向確认使用者既有的看法。Anthropic 5/1 也公布 Claude 的 sycophancy 評測、发现感情類问題附和率 25%、靈性類 38%。
实務上常见的错誤是:
把投资決策、健康決策、職涯选擇问 LLM、得到鼓勵的回应就採取行动—实际上 LLM 经常只是配合你的问法
用 LLM 寫商业企劃、它幫你細化每个環節、看起来很完美—但你沒让它反論「这个 idea 可能失敗在哪」
用 LLM 評論他人作品、得到的批評可能是因为你问法暗示「我覺得这作品不好」
这三種情境的共通点是:你把 LLM 当作「认知擴音器」、它把你既有的偏见放大、再回送給你。Karpathy 的反論方法是把这个迴圈打破的最簡單工具。
进階用法:用两个 LLM 互相辯論
更进階的设定是用两个 LLM 互相辯論—一个被指派支持你的論点、另一个被指派反論、各自輪流发言、你只负责看辯論过程。这个模式的好處是去除「你在某个方向引導 LLM」的问題、让两个立场各自找到最強論点。
实作上、Claude Code、OpenAI Codex、本地 Ollama 都能做到—设两个 system prompt、輪流送同一个议題給它們。也有人用 Claude Opus + Sonnet、或不同家的 LLM(Claude vs GPT),让「不同家有不同訓練偏见」这个事实也成为对沖工具。
Karpathy 的方法为什麼适合 2026 的內容生产
2026 年絕大多數內容創作者都在用 LLM 輔助寫作、輿論场上的觀点同质化问題会更嚴重—因为大家都用同樣的 LLM、得到同樣的結論強化。Karpathy 的「argue the opposite」实际上是个體層級的「认知去同质化」工具。
对寫作者而言、这个方法的具體价值是:发布前最后一道檢查、让 LLM 反論自己的觀点、找到「我可能漏掉的反例与盲点」、再決定是否補上。最后产出的文章、会比純粹用 LLM 強化原觀点的版本、更有认知深度。
不論你寫的是分析报告、行销文案、产品決策文件、学術論文—在按下「发布」之前、花 30 分鐘让 LLM 从反方拆解、是 2026 年最便宜的品质保证机制之一。
这篇文章 Karpathy「让 LLM 反論自己」:用 AI 反制思考偏誤的 4 步方法 最早出现於 链新聞 ABMedia。
相关文章