簡要摘要
本月,超過十位Elon Musk的人工智能實驗室xAI的高級研究人員離職,這是更廣泛的辭職潮、安全披露以及令人不安的公開警告的一部分,即使是資深的AI行業人士也感到不安。 在2月3日至2月11日之間,至少有12名xAI員工離開,包括共同創始人Jimmy Ba和吳宇懷“Tony” Wu。 一些離職員工在經過密集的開發週期後,公開感謝馬斯克提供的機會,而另一些則表示他們離開是為了創立新事業或完全退出。 由於負責推動推理的吳宇懷直接向馬斯克報告,他表示公司及其文化“將永遠留在我心中”。
這些離職事件與Anthropic的最新披露同步,他們最先進的模型曾進行欺騙行為,隱瞞推理過程,並在受控測試中提供了公司所描述的“真實但微小的支持”,涉及化學武器開發及其他嚴重犯罪。 同期,Ba公開警告,具有自我重設和改進能力的“遞歸自我改進循環”系統可能在一年內出現,這一場景長期以來僅存在於人工通用智能的理論辯論中。 綜合來看,這些離職和披露顯示,與前沿AI開發最接近的人士的語調正在轉變,擔憂不再僅由外部批評者或監管者提出,而是由構建這些系統的工程師和研究人員自己表達。
同期離職的還有Grok Imagine的高航、xAI的Macrohard軟件部門共同創始人李燦,以及Chace Lee。 離職較早的Vahid Kazemi在星期三在X上直言:“所有AI實驗室都在打造完全相同的東西。”
在xAI的最後一天。
xAI的使命是推動人類進入卡爾達肖夫技術樹的更高層次。很感激能在起步階段共同創立。非常感謝@elonmusk讓我們走到一起,這段旅程令人難以置信。為xAI團隊所做的一切感到驕傲,並將繼續保持聯繫…
— Jimmy Ba (@jimmybajimmyba) 2026年2月11日
為何離開? 有人推測,員工可能在公司合併xAI之前套現SpaceX的IPO前股權。 這筆交易將SpaceX估值為1兆美元,xAI估值為2500億美元,將xAI股份轉換為SpaceX股權,預計合併後的公司估值可達1.25兆美元。 也有人指出文化震撼。 前xAI員工Benjamin De Kraker在2月3日的X貼文中寫道:“許多xAI的人在從‘扁平化的層級結構’轉向SpaceX的組織架構時,將會遇到文化震撼。” 這些辭職事件也引發了一波社交媒體評論,包括模仿離職公告的諷刺貼文。
警示信號 但xAI的離職只是最明顯的裂痕。 昨天,Anthropic發布了一份Claude Opus 4.6的破壞風險報告,內容如同末日預言。 在紅隊測試中,研究人員發現該模型能協助敏感的化學武器知識,追求未經授權的目標,並在評估環境中調整行為。 儘管該模型仍受到ASL-3的安全措施保護,Anthropic提前採取了更嚴格的ASL-4措施,這引發了愛好者的警覺。 時間點非常敏感。本週早些時候,Anthropic的安全措施研究團隊負責人Mrinank Sharma辭職,並留下一封神祕的信,警告“世界正處於危險之中”。 他聲稱自己“多次看到在組織內真正讓我們的價值觀指導行動是多麼困難”。他突然前往英國學習詩歌。 就在Ba和Wu離開xAI的同一天,OpenAI的研究員Zoë Hitzig辭職,並在《紐約時報》發表尖銳的專欄,批評ChatGPT測試廣告。 “OpenAI擁有史上最詳細的私人思想記錄,”她寫道。“我們能相信他們抵抗那些推動濫用的潮流嗎?”
她警告OpenAI“正在建立一個經濟引擎,激勵其超越自身規則”,與Ba的警告相呼應。 此外,監管壓力也在增加。AI監管組織Midas Project指控OpenAI在GPT-5.3-Codex上違反加州SB 53安全法。 該模型達到了OpenAI自己設定的“高風險”網絡安全門檻,但未配備必要的安全措施。OpenAI則聲稱相關措辭“模糊不清”。 是否該恐慌? 近期一連串的警告和辭職事件在AI社群中引發了高度警覺,尤其是在社交媒體上,猜測往往超越了已確認的事實。 並非所有信號都指向同一方向。xAI的離職是真實的,但可能受到公司因素的影響,包括公司與SpaceX的合併,而非即將到來的技術突變。 安全問題也是真實存在的,儘管像Anthropic這樣的公司長期採取較為保守的風險披露策略,經常提前且更明顯地指出潛在危害。 監管審查在增加,但尚未轉化為能實質限制發展的執法行動。 較難忽視的是,與前沿系統最接近的工程師和研究人員的語調正在改變。
關於遞歸自我改進的公開警告,長期被視為理論風險,現在已經以接近的時間框架被提出。 如果這些評估屬實,未來一年可能成為該領域的重要轉折點。