Gate News 消息,OpenAI正式推出全新安全漏洞賞金計畫,重點從傳統技術漏洞轉向人工智慧濫用風險,標誌著AI安全治理進入新階段。該計畫通過引入外部研究力量,試圖提前識別模型在現實場景中的潛在危害。
此次計畫由OpenAI聯合Bugcrowd共同推動,面向道德黑客、研究人員及安全分析師開放。與以往漏洞賞金機制不同,新計畫不僅關注系統缺陷,還鼓勵提交提示注入、代理濫用等行為層面的風險案例。這類問題可能導致模型輸出偏離預期,甚至在複雜環境中產生不可控後果。
在規則設計上,OpenAI允許研究人員提交不涉及明確技術漏洞的安全報告,例如模型生成不當內容或存在潛在誤導的場景。但平台強調,提交內容需具備充分證據和實際風險價值,單純的越獄測試不會被採納。同時,對於涉及生物安全等敏感議題的發現,將通過私密渠道處理,以降低資訊擴散風險。
該舉措在科技行業內部引發不同聲音。一部分專家認為,這是推動AI透明度與安全協作的重要一步,有助於構建更開放的風險識別體系;但也有觀點質疑,該機制難以觸及更深層的倫理與責任問題,例如資料使用邊界與平台問責機制。
從行業趨勢來看,人工智慧安全正從單一技術維度擴展至社會影響層面。OpenAI通過開放測試機制,引導外部力量參與風險評估,有助於完善防護體系並增強用戶信任。不過,該計畫並非萬能方案,圍繞監管框架、長期治理及責任劃分的討論仍將持續。隨著AI能力不斷增強,類似主動防禦機制或將成為行業標準配置。