Jeff Kaufman:AI 同時打破兩種資安漏洞文化、90 天禁運期變反效果

鏈新聞abmedia

軟體工程師 Jeff Kaufman(jefftk)5 月 8 日發表「AI is Breaking Two Vulnerability Cultures」一文、主張 AI 同時打破兩種長期並存的資安漏洞處理文化—協調揭露(coordinated disclosure)與「靜默修補」(bugs are bugs)—兩種策略所依賴的「攻擊者偵測速度緩慢」前提、都已被 AI 自動掃描技術突破。Kaufman 部落格原文並在 Hacker News 取得超過 200 分熱度、是本週開發者社群討論度最高的資安觀察文章之一。

兩種漏洞文化:協調揭露 vs 「靜默修補」

Kaufman 整理的兩種文化框架:

協調揭露(coordinated disclosure)—發現者私下通知維護者、給予典型 90 天修補窗口、再公開揭露。背後假設:攻擊者要花時間獨立發現同一漏洞

「Bugs are Bugs」靜默修補—Linux 等開源專案常見作法、修補時不特別標示為安全修復、靠提交流量「淹沒」資安修補、避免引起攻擊者注意

兩種文化過去能並存、是因為攻擊者沒有「快速、自動、低成本」的工具掃描所有提交記錄或同時尋找同一漏洞。AI 改變了這個前提。

AI 對「靜默修補」的衝擊:commit 掃描變便宜

AI 對 Linux 風格開源專案的具體衝擊:

過去:攻擊者要逐一審視提交、需要大量人力與時間、「淹沒在提交流量裡」是有效掩護

現在:AI 可低成本掃描提交歷史、自動辨識「看起來像安全修補」的 commit、即使作者沒有明說

影響:靜默修補的隱蔽性正在快速失效、「修補後等部署」的緩衝期被壓縮

Kaufman 引用具體案例:「審視提交(examining commits)越來越具吸引力」、因為 AI 對每一個變更的評估「越來越便宜、越來越有效」。這意味未來開源專案無法再依賴「修補速度比攻擊者注意速度快」的傳統優勢。

AI 對「協調揭露」的衝擊:90 天禁運期變得反效果

協調揭露文化的核心是「禁運期」(embargo)、發現者承諾在維護者修補前不公開—但 AI 讓多個團隊可同步掃描相同漏洞:

具體案例:研究者 Hyunwoo Kim 報告的某漏洞、9 小時後就被獨立發現

多個 AI 輔助掃描團隊同步運作、長禁運期反而給予「假性的不急迫感」

當其他人 9 小時就能找到、90 天禁運讓真正的攻擊者擁有 89 天 23 小時的攻擊窗口

Kaufman 的結論是:未來應採用「非常短的禁運期」(very short embargoes)、且隨 AI 能力提升越縮越短。重要的是、AI 加速並非單方面利於攻擊者—防守者也能用 AI 加速修補與部署、雙方在壓縮的時間窗內競速。

後續可追蹤的具體事件:Linux Kernel 與 Project Zero 等大型專案是否更新揭露時程指引、AI 自動漏洞掃描工具(Semgrep、CodeQL 等)的商業化進度、以及企業資安部門對「AI 加速雙刃」的具體應對策略。

這篇文章 Jeff Kaufman:AI 同時打破兩種資安漏洞文化、90 天禁運期變反效果 最早出現於 鏈新聞 ABMedia。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明

相關文章

阿里巴巴未與 DeepSeek 進行談判,市場消息人士於 5 月 9 日澄清

據《財新日報》在 5 月 9 日報導的市場消息,阿里巴巴並未就融資一事與深度求索(DeepSeek)進行磋商。這項澄清是在先前媒體報導指出兩家公司之間的談判已告破裂之後作出。深度求索在 4 月推出了一輪規模可觀的融資,吸引了騰訊與阿里巴巴的關注。

GateNews8分鐘前

OpenAI 發布 Codex 遷移工具,可匯入來自競爭型 AI 助手的設定檔

根據 OneMillionAI(Beating)報導,OpenAI 已在 Codex 內發布一款遷移工具,讓使用者可匯入其他 AI 編碼助理的設定與資料,包括 Claude Code。該工具透過 OpenAI 官方 Twitter 帳號宣布,能自動轉移系統提示詞、客製化技能、30 天的聊天歷史、MCP 伺服器設定、hooks 以及子代理設定。 OpenAI 表示,遷移工具可透過 Codex 設定中的「匯入其他代理設定」選項,對多數設定進行自動處理。對於不相容的設定,該工具會啟動引導式對話,協助使用者進行手動遷移。公司建議使用者在遷移後核實權限與驗證設定,因為不同平台之間的權限系統無法相互相容。

GateNews18分鐘前

字節跳動在 5 月 9 日將 AI 基礎設施支出提高 25% 至 2000 億人民幣

根據媒體報導,字節跳動將其原定的 AI 基礎設施支出在 2026 年提高 25%,至 2000 億人民幣,隨著記憶體晶片需求上升,公司加速部署人工智慧

GateNews1小時前

Anthropic 將 Claude 的越獄(Jailbreak)成功率降至 0%,並採用全新的對齊(Alignment)訓練方法

Anthropic 近期發布了對齊(alignment)的研究,詳述了訓練策略,成功消除了 Claude 4.5 及後續模型中的代理不對齊問題,使勒索般(extortion-like)行為在測試中降至 0%。團隊發現,僅靠傳統的行為示範並無法有效奏效,失敗率只從 22% 降至 15%。三種替代做法被證實顯著更有效:一個「困難建議」(difficult advice)資料集,讓 Claude 在倫理困境中扮演顧問,使測試結果提升至 3%,且資料效率提高 28 倍;使用具正向導向的 AI 虛構內容進行合成文件微調,以反制訓練資料中的科幻刻板印象,進一步將風險降低 1.3 到 3 倍;以及在安全訓練環境中提高多樣性,包含各種工具定義與系統提示(system prompts)。綜合這些方法,Claude 4.5 最終版本在測試中的勒索(extortion)比率達到 0%。

GateNews1小時前

MiniMax 掃描 20 萬個代幣,發現 M2 系列模型出現 4.9% 的退化

根據 MiniMax 的技術部落格,公司透過完整詞彙掃描,在其 M2 系列模型中發現顯著的代幣退化。約有 4.9% 的 200,000 個代幣顯示出明顯的效能下降,其中日文代幣受到的打擊最嚴重,為 29.7%,而韓文為 3.3%、俄文為 3.7%、中文為 3.9%、英文為 3.5%。這種退化源於在後訓練階段,低頻代幣被推向錯誤的向量空間方向;而像 toolcall 標記這類高頻代幣會持續更新周圍的參數。 MiniMax 使用簡單的代幣重複任務實作了合成資料修復,以穩定整個詞彙。結果立刻顯現:混入日文回覆中的俄文字元比例從 47% 降至 1%,而向量穩定性(餘弦相似度)也從最低的 0.329 提升到所有代幣皆超過 0.97。

GateNews1小時前

OpenAI 揭 CoT 評分意外影響:保留思路鏈監控是 AI Agent 對齊關鍵防線

OpenAI 5 月 8 日發表新研究、揭露公司在強化學習(RL)訓練過程中、部分模型的思路鏈(Chain of Thought, CoT)被「意外評分」、可能影響 AI Agent 對齊(alignment)監控能力。OpenAI Alignment 團隊報告說明:保留 CoT 的可監控性是當前防範 AI Agent 對齊失敗的關鍵防線;OpenAI 在 RL 訓練設計上、刻意避免懲罰模型的「對齊失敗推理」、以維持監控能力。 為什麼 CoT 監控是 AI Agent 對齊的關鍵防線 CoT(思路鏈)監控的核心邏輯: 當 AI Agent 執行任務時、模型會在內部產生「思考過程」、解釋自

鏈新聞abmedia2小時前
留言
0/400
暫無留言