AI企業AnthropicのCEO、ダリオ・アモデイは、米国防総省とホワイトハウスに対して反応を示しました。米国防省と協力していた防衛請負業者がAnthropicの製品の使用停止を命じられたことに対してです。
土曜日のCBSニュースのインタビューで、アモデイは、国内での監視目的や完全自動武器の開発にAnthropicのAIモデルを使用することに反対すると述べました。これらは人間の介入なしに発射可能な武器の開発を含みます。
彼は、米国政府のAI利用提案のほとんどには賛成しているが、上記の二つの分野には反対だと強調しました。アモデイによると、これは米国民にとって根本的な問題であり、政府による監視の権利や、戦争に関する決定を軍の士官が自ら行う権利を守ることに関わると述べました。
以前、米国防総省はAnthropicを「サプライチェーンリスク」とラベル付けし、防衛契約において同社の製品の使用を禁じました。アモデイはこの措置を「前例のないものであり、制裁的だ」と呼びました。
しかし、アモデイは、将来的に自動武器の開発に完全に反対しているわけではなく、特に海外の軍隊がこの技術を導入し始めた場合にはそうではないと明言しました。彼によると、現状のAIは軍事環境で完全に自律的に運用できるほど信頼性が十分ではないと指摘しています。
アモデイは、AI産業の発展速度に法的枠組みが追いついていないと考え、米議会に対して国内の監視プログラムへのAI適用を防ぐための「保護壁」の設置を求めました。
関連して、米国防長官ピート・ヘグセットは金曜日に、Anthropicを「国家安全保障に対するサプライチェーンリスク」とし、すぐにすべての請負業者やサプライヤー、米軍と取引するパートナーに対して同社との商業活動を停止するよう命じました。
この発表から数時間後、Anthropicの競合企業であるOpenAIは、米国防総省と契約を結び、自社のAIモデルを軍事ネットワーク上で展開することを承認されました。