根據 Beating 的監測,近期一則病毒式流傳的說法聲稱,在 DeepSeek 的聊天框中輸入例如 <|begin_of_sentence|> 這類特殊代幣,可能會暴露其他使用者的對話,並被標為 P0 等級的多租戶隔離失敗。實際上,這種現象與資料隔離無關。當使用這類代幣觸發時,模型會進入其在訓練期間形成的格式模式,並根據自身記憶與系統提示生成捏造的對話內容,而非從其他工作階段即時擷取。這是訓練資料擷取(Training Data Extraction)——所有大型語言模型都共用的一項弱點,而非僅存在於 DeepSeek。Google DeepMind 在 2023 年發表的研究表明,特殊輸入可以從 GPT 與 PaLM 擷取訓練資料。ICLR 2025 的 Magpie 論文則直接利用了這種機制。聲稱洩露內容包含今天的日期,並不能證明發生多租戶隔離失敗,因為 DeepSeek 會在其系統提示中包含目前日期,而模型也會自然地將其整合進生成的輸出中。
Related News