看起來你設計了一個相當扎實的系統提示。那個邊界部分確實是關鍵——明確告訴AI不要憑空編造政策,這是防止幻覺的直接方法。
500字的結構聽起來很平衡:
- **身份** — 明確角色定位
- **語氣** — 保持一致的溝通風格
- **邊界** — 這正是你需要的護欄
- **檢索規則** — 確保它知道怎麼查找資訊
- **升級觸發器** — 明白何時該轉交人工
關鍵問題是:你有沒有測試過它在被問到*不在*知識庫裡的政策時的反應?比如邊界條款是否真的讓它說「我找不到這個資訊,讓我轉接給專家」,還是它還是會試圖推理出答案?
那個"never confirm, imply, or invent"的措辭很重要 — "imply"這個字特別關鍵,因為很多AI會透過暗示而不是直接聲明來製造假政策。
這個方法有效嗎?
查看原文