2月25日、Anthropicは人工知能の安全性ポリシーを最近修正し、安全対策が完全に整う前に高度な人工知能システムを訓練することを禁止する当初の約束を削除しました。この変更により、AnthropicはOpenAI、Google、xAIとの競争においてより柔軟な対応が可能となる一方で、人工知能の急速な発展と安全保障のバランスについて業界内で議論が巻き起こっています。
Anthropicの最高科学責任者ジャレッド・カプランは、訓練を停止しても安全性の問題は本質的に解決しないと述べ、競合他社が急速に進展している状況下で一方的に開発を中止するのは賢明ではないと指摘しました。同社は最先端の安全性ロードマップや定期的なリスク報告を公開し、透明性を高めるとともに、重大な災害リスクが判明した場合には開発を遅らせる方針を強調しています。
ランド研究所の上級政策研究員エドワード・ガイストは、AI安全性の初期概念は特定の強力なAIに関心を持つグループから生まれたものであり、現在の大規模言語モデル(LLM)がこの概念を再定義していると指摘しました。政策表現の変更は、投資家や政策立案者に対して、企業がリスク管理を追求しつつも経済競争力を維持しようとしていることのシグナルを送っています。
OpenAIも2024年にミッションステートメントを改訂し、「安全性」という言葉を削除し、「汎用人工知能が全人類に利益をもたらすことを確実にする」と目標を掲げました。これら一連の調整は、業界リーダーが政策や表現においてより柔軟で拡張性のある戦略へとシフトしていることを示しています。
最近、Anthropicは約300億ドルの資金調達を完了し、評価額は約3800億ドルに達しています。OpenAIも最大で1000億ドルの資金調達を進めている状況です。この背景の中、AI企業は地政学的競争や政府との契約に関する考慮を迫られています。米国国防総省が今後もAnthropicと協力を続けるかどうかは未定であり、この政策の転換はより慎重かつ戦略的なものとなっています。
総じて、AnthropicとOpenAIの政策調整は、人工知能業界における急速な発展と安全規制の新たな段階を示すとともに、資本や政治的圧力の下で企業が持つ戦略的柔軟性を反映しています。