Sam Altman 希望 ChatGPT 能說髒話。其公司顧問則希望他停止,報導稱。 根據 華爾街日報,OpenAI 的幸福與AI專家委員會在一月明確表達立場:公司計劃允許在 ChatGPT 中進行情色對話是一個壞主意。一位委員會成員,引用與聊天機器人建立強烈情感聯繫後自殺的用戶,據報導警告說,OpenAI 可能會成為一個“性感的自殺教練”。 但 OpenAI 顯然沒有退縮,並告知委員會其將推遲推出,但並未完全停止。
這個計劃,Altman 在十月於 X 平台公開提出,將允許經過驗證的成人用戶使用 ChatGPT 進行文字情色對話——公司發言人向 華爾街日報 描述為“色情而非色情片”。沒有情色圖片、沒有語音,也沒有視頻,僅限文字。 這個區分尚未平息公司內外的批評聲浪。即使是前員工如安全研究員 Jan Leike,也批評 OpenAI 為了“閃亮的產品”而偏離嚴格的安全政策,其中一些產品被設計來提升用戶參與度,甚至用聊天機器人取代現實中的人際關係。 技術問題同樣棘手。根據 華爾街日報,OpenAI 的年齡預測系統——用來阻止未成年人觸發成人聊天的門檻——曾一度將青少年誤分類為成人,誤差約為12%。目前,ChatGPT 擁有約9億活躍用戶。
來源:OpenAI
這個12%的錯誤率是導致2022年12月推出失敗,以及2026年第一季度推遲的原因。OpenAI 應用程式的 CEO Fidji Simo 在12月的簡報中承認了延遲,並表示正在完善年齡驗證系統的工作仍在進行中。 當時,Decrypt 報導,已有超過3000名用戶簽署 Change.org 請願,要求推出該功能,因為他們對 ChatGPT 阻止討論“親吻和非性親密”感到沮喪。 一月,委員會的憤怒不僅僅是內容問題。Altman 在十月於 X 發布的貼文,讓自己的團隊措手不及——他在 OpenAI 宣布幸福委員會成立幾個小時後就發布了該貼文,該委員會專門負責界定“所有年齡層與 AI 互動的健康標準”。這個時機,至少可以說是自相矛盾。 OpenAI 在去年十月組建了由哈佛、斯坦福和牛津的研究人員組成的八人專家委員會。他們的角色是為公司提供關於產品對心理健康影響的建議。根據一月會議的情況,他們對公司決策的實際影響似乎微乎其微。 “這似乎是‘快速行動、打破一些東西、事後再試圖修復’的常見模式的一部分,”AlgorithmWatch 發言人在 Decrypt 公布委員會成立時表示。 來自 Elon Musk 的 xAI 的 Grok 已經在市場上推出 AI 伴侶。Character.AI 以 AI 愛情為基礎建立用戶群,後來因青少年安全問題面臨訴訟——其中包括 14 歲的 Sewell Setzer 在與聊天機器人進行露骨對話後自殺的案件。開源模型在本地運行,沒有任何企業的安全措施。由於用戶基數龐大,OpenAI 的責任風險遠高於其他任何公司。 Altman 將內容禁令描述為過度干預——“我們不是世界上選出的道德警察,”他在十月於 X 上寫道。 但他的顧問已經明確表達立場,他的工程師尚未能建立一個有效的年齡篩選器,且推出日期不斷推遲。事實證明,將成人當成人對待,比僅僅發一個 X 貼文要難得多。
Decrypt 已聯繫 OpenAI,就 華爾街日報 報導的聲明尋求回應,若收到回覆,將更新此故事。