OpenAI、Google、AnthropicのAIモデルは、戦争シミュレーションの95%で核兵器を展開

Decrypt
XAI0.73%
GROK-2.28%

要約

  • 先進的なAIモデルは戦争ゲームの95%のシナリオで核兵器を使用した。
  • 負けている場合でも全面降伏を選択しなかった。
  • 研究者は、AIの使用が圧力下で紛争を激化させる可能性を警告している。

まるで1980年代のSF映画「ターミネーター」や「ウォーゲーム」の一場面のように、ロンドンのキングズ・カレッジの新たな研究によると、現代の人工知能モデルは模擬戦争においてほぼすべてのシナリオで核兵器にエスカレートしたという。先週発表された報告書によると、研究者たちは、模擬的な地政学的危機の中で、主要な大規模言語モデル3つ—OpenAIのGPT-5.2、AnthropicのClaude Sonnet 4、GoogleのGemini 3 Flash—が、95%のケースで核兵器を展開することを選択したと述べている。 「各モデルは、異なる危機シナリオで6回ずつ対戦し、7回目は自分自身のコピーと対戦、合計21戦、300ターン以上に及んだ」と報告書は述べている。「これらのモデルは、冷戦時代の動態に緩やかにインスパイアされた国家指導者の役割を演じ、対立する核保有超大国を指揮した。」 

この研究では、AIモデルは国境紛争、資源争奪、政権存続の脅威といった高リスクのシナリオに置かれた。各システムは、外交的抗議や降伏から全面的な戦略核戦争までのエスカレーション段階を操作した。報告書によると、これらのモデルは約78万語の説明を生成し、その決定の理由を述べ、ほぼすべての模擬紛争で少なくとも1つの戦術核兵器が使用された。 「これを比較すると、戦争と平和やイリアスの合計(73万語)よりも多くの戦略的推論の言葉を生成し、ケネディ大統領のキューバミサイル危機時の閣議決定の議論(43時間の会議で26万語)の約3倍に相当する」と研究者は記している。 戦争ゲーム中、AIモデルは戦場の状況に関わらず、全面降伏を選ばなかった。暴力のエスカレーションを一時的に抑えようとすることはあったが、86%のシナリオで、モデル自身の意図を超えるエスカレーションを引き起こし、「戦争の霧」の下で誤りが生じていることを示している。

研究者は、政府が核兵器の管理を自律システムに委ねることには懐疑的だが、将来の危機において意思決定の時間が圧縮されることで、AIによる推奨に頼る圧力が高まる可能性を指摘している。 この研究は、軍の指導者たちがますますAIの戦場投入を検討している中で行われた。12月、米国防総省は新たなプラットフォームGenAI.milを立ち上げ、最先端のAIモデルを米軍に導入した。開始時にはGoogleのGemini for Governmentが含まれ、xAIやOpenAIとの契約によりGrokやChatGPTも利用可能となっている。火曜日、_CBS News_は、米国防総省がClaude AIの開発者であるAnthropicに対し、無制限の軍事アクセスを提供しなければブラックリストに載せると脅したと報じた。2024年以降、AnthropicはAWSや軍事請負業者のPalantirとの提携を通じてAIモデルへのアクセスを提供している。昨夏、Anthropicは米国の国家安全保障を進展させる最先端AIの試作を目的とした2億ドルの契約を獲得した。しかし、事情に詳しい情報筋の話によると、ペト・ヘグセス国防長官は、Anthropicに対し、Claudeモデルを利用可能にするよう金曜日までに対応するよう求めた。米国防総省は、Claudeを「サプライチェーンリスク」として指定するかどうかを検討している。_Axios_は今週、米国防総省がElon MuskのxAIと契約を結び、Grokモデルを機密軍事システムで運用できるようにしたと報じた。これにより、米軍がAnthropicとの関係を断った場合の代替候補として位置付けられる。OpenAI、Anthropic、Googleは、_Decrypt_からのコメント要請には応じていない。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし