有人建立了一個開源的「理論神話」,用以逆向工程Anthropic最危險的人工智慧

簡要說明

  • OpenMythos 是一個從零開始重建的 Claude Mythos 架構,僅基於公開研究論文和推測建立。
  • Claude Mythos 是 Anthropic 最強大的模型,因自主發現271個Firefox漏洞和32步網絡攻擊而被鎖在 Project Glasswing 中。
  • 該倉庫是理論上的支架——沒有訓練權重的代碼。它反映了 Vidoc Security 的另一項努力,該努力使用現成模型重現了 Mythos 的漏洞發現。

如果 Anthropic 不願展示其最危險的 AI 內部,GitHub 上的人會猜測。 一位名叫 Kye Gomez 的開發者發布了 OpenMythos,一個他認為的 Claude Mythos 內部結構的開源重建。該倉庫在發布幾週內獲得了超過 10,000 顆 GitHub 星標,並附有一份詳盡的“readme”文件,內容充滿方程式、引用和禮貌的聲明,聲稱與 Anthropic 無關。 這是推測。但它是結構化的推測,以代碼形式呈現。 以下是 Mythos 的快速回顧: Mythos 在三月底泄露到公開視野,當時 Anthropic 不小心發布了描述其為公司迄今最強模型的草稿材料——高於 Opus 的層級。隨後的 Mythos 預覽證明在網絡安全方面極為出色,幾乎無法公開發布。

 根據 Anthropic,Mythos 在 Mozilla 測試中發現了271個漏洞。它成為第一個完成32步企業網絡攻擊模擬的 AI 模型。Anthropic 將其鎖在 Project Glasswing 內,這是一個由約40個合作夥伴組成的經過審核的聯盟,包括微軟、蘋果、亞馬遜和 NSA。 公開從未能觸及它。因此 Gomez 嘗試了解它的工作原理。 OpenMythos 的核心猜測是 Mythos 是一個循環深度變換器——也稱為循環變換器。標準模型堆疊數百層獨特層。循環模型則用較少的層,並在每次前向傳播中多次運行它。

換句話說,使用相同的權重進行多次迭代。在任何標記被輸出之前,在連續潛空間中進行更深層次的思考。 該倉庫認為這可以解釋 Mythos 的兩個最奇特的特性:它能推理出其他模型無法破解的新問題,但其原始記憶能力不均。這是循環架構的指紋——偏重組合而非存儲。 OpenMythos 引用 Parcae,一篇由加州大學聖地亞哥分校和 Together AI 於2026年4月發表的論文,該論文解決了循環模型長期存在的不穩定性問題——一個7.7億參數的 Parcae 模型在質量上與13億固定深度變換器相當,並有可預測的擴展規律,指示需要運行多少次循環。該倉庫還借用了 DeepSeek 的多潛在注意力來壓縮記憶,以及專家混合(Mixture-of-Experts)來處理跨領域的廣度。 它沒有權重,基本上是一個沒有執行者的技術。 OpenMythos 是理論性的。代碼定義了從10億到1兆參數的模型變體,但你必須自己訓練——readme 文件指向一個在 FineWeb-Edu 上訓練的3億參數腳本,以及一個經過 Chinchilla 調整的30億標記目標,這種計算成本在 H100 上可能高達數十萬美元。還沒有人完成。 那為什麼重要? 因為這是本月第二次有人在 Mythos 周圍挖掘。第一次是 Vidoc Security 的一項研究,該研究用 GPT-5.4 和 Claude Opus 4.6 在開源代理中重現了 Mythos 的幾個最令人擔憂的漏洞發現。沒有 Glasswing 訪問,成本低於每次掃描30美元。角度不同,結論相同: Mythos 周圍的護城河可能比宣傳所說的更薄。 OpenMythos 和 Vidoc 的重現工作是不同的。Vidoc 重現了 Mythos 的輸出——漏洞發現本身——使用現有模型。OpenMythos 則試圖重現架構——產生這些輸出的實際機器。一個說你不需要 Mythos 就能找到 Mythos 發現的漏洞。另一個則說,最終你可能能自己構建類似 Mythos 的東西。

Anthropic 幾乎可以肯定不會公開分享 Gomez 的架構猜測,而 OpenMythos 中的幾個設計選擇也是明確的保留——readme 文件特意模糊,讓用戶知道這只是一種方法。它反覆提到“可能”、“懷疑”以及“幾乎可以肯定”。真正的 Mythos 可能根本不是循環變換器,或者它可能是 Gomez 尚未反向工程的細節版本。 OpenMythos 展示的是,研究文獻中已經包含了大部分相關組件。循環變換器、專家混合、多潛在注意力、自適應計算時間、Parcae 的穩定性修復——這些都不是專有的。該倉庫更像是一份公開已知的建造 Mythos 類模型的資料庫。 該倉庫採用 MIT 授權,已經有 2700 個分支。訓練腳本就擺在那裡,等待擁有 GPU 集群和論文的研究者來驗證。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 回覆
  • 轉發
  • 分享
回覆
請輸入回覆內容
請輸入回覆內容
暫無回覆