OpenAI 已推出一項新的安全漏洞賞金計劃,以應對人工智慧領域的新興風險。該計劃於2026年3月26日宣布,並由 Cointelegraph 報導,重點在於人們可能濫用 AI 系統的方式。OpenAI 不再僅限於修補技術缺陷,而是將注意力轉向現實世界的危害。此舉反映出隨著其工具變得更強大且被廣泛使用,AI 企業面臨越來越大的責任壓力。
OpenAI 已與 Bugcrowd 合作運營此計劃。公司邀請道德駭客、研究人員和分析師測試其系統。然而,這個計劃超越了傳統的安全測試。參與者可以報告提示注入和代理濫用等問題,這些風險可能以不可預測的方式影響 AI 的行為。OpenAI 希望了解這些行為如何導致有害結果。透過此舉,公司旨在提前應對潛在威脅。
OpenAI 允許提交不涉及明顯技術漏洞的報告。這使得該計劃不同於一般的漏洞賞金計劃。研究人員可以報告 AI 產生不安全或有害反應的情境,並需提供明確的風險證據。此外,這種方式鼓勵對 AI 行為進行更深入的分析。然而,OpenAI 不接受簡單的越獄嘗試。公司希望獲得有意義的發現,而非表面層次的利用漏洞。同時,對於生物威脅等敏感風險,OpenAI 也計劃通過私密活動來處理。
此公告引發了讚賞與批評並存的反響。一些專家認為 OpenAI 正朝著透明化邁出重要一步,並將此計劃視為讓更廣泛社群參與改善 AI 安全的途徑。另一些人則質疑公司的動機。此外,批評者擔心此類計劃可能無法解決更深層的倫理問題。他們擔心 OpenAI 如何管理數據與責任。這些辯論凸顯出 AI 行業內持續存在的緊張局勢。
OpenAI 的新舉措展現了行業的演變。AI 安全如今涵蓋技術與社會風險兩方面。透過向外部開放系統審查,OpenAI 鼓勵合作,這可能促使建立更完善的安全措施與增強信任。同時,該計劃並未解決所有問題,對於監管與長期影響仍存疑問。然而,OpenAI 已表明其認識到事態的嚴重性。隨著 AI 的持續發展,積極的安全措施將在塑造未來中扮演關鍵角色。