OpenAIは2023年3月6日にCodex Securityをリリースし、Githubリポジトリの脆弱性をスキャンするAI搭載のアプリケーションセキュリティエージェントを導入しました。これは、Anthropicが競合のClaude Code Securityツールを発表した数週間後のことで、AI駆動のコード防御を最新の競争の舞台に変えています。
このリリースは、人間のセキュリティチームよりもはるかに高速で大規模なソフトウェアプロジェクトを調査できるAIツールへの関心が高まる中で行われました。Codex Securityは、リポジトリを分析し、脆弱性を特定し、隔離されたテスト環境で検証し、開発者がレビューして適用できる修正案を提案するよう設計されています。システムはコミットごとにコンテキストを構築し、コードの進化を理解できるようにし、単に断片をフラグ付けするだけではありません。
OpenAIは次のように述べています:
「私たちはCodex Securityを導入します。これは、脆弱性を見つけて検証し、修正案を提案してレビューとパッチ適用を支援するアプリケーションセキュリティエージェントです。これにより、チームは重要な脆弱性に集中し、より早くコードを出荷できるようになります。」
OpenAIによると、このツールは2025年5月に導入されたクラウドベースのAIエンジニアリングアシスタントであるCodexエコシステムを基盤としています。これにより、開発者はコードの記述、バグ修正、プルリクエストの提案を行えます。2026年3月までに、Codexの利用者は週あたり約160万人に達したと同社は述べています。Codex Securityはこれらの機能をアプリケーションセキュリティの分野に拡張し、年間約200億ドルの市場規模と推定される業界セグメントに対応しています。
OpenAIの発表は、GPT-5.3インスタントとGPT-5.4も同時にリリースされたことと時期を合わせています。また、Anthropicが2月20日に発表したClaude Code Securityは、コード全体をスキャンし、検出された脆弱性に対してパッチを提案します。Claude Opus 4.6モデルを基盤とし、ビジネスロジックやデータフロー、システム間の相互作用を分析し、人間のセキュリティ研究者のようにソフトウェアを推論しようとします。静的スキャンルールだけに頼るのではなく、より高度な推論を行います。
Anthropicは、Claude Code Securityがすでにオープンソースソフトウェアプロジェクトで500以上の脆弱性を特定し、長年見過ごされていた問題も含まれていると述べています。同社は現在、企業やチーム向けのリサーチプレビューとしてこの機能を提供しており、オープンソースのメンテナは無料で優先アクセスをリクエストできます。
両社とも、コードのコンテキストを推論できるAIシステムが、誤検知の多い従来の脆弱性スキャナーよりも優れていると考えています。そのため、Claude Code Securityは複数段階の検証システムを採用し、結果を再確認し、重大度と信頼度のスコアを付与します。
Codex Securityはやや異なるアプローチを取っています。モデル推論だけに頼るのではなく、疑わしい脆弱性をサンドボックス環境内で検証し、その結果を提示します。OpenAIは、このプロセスによりノイズが減少し、テスト中に収集された証拠に基づいて結果をランク付けできると述べています。
「Codex Securityは、昨年プライベートベータで開始されたAardvarkとして始まりました」とOpenAIはXで書いています。同社は次のように付け加えています:
「それ以来、信号の質を大幅に向上させ、ノイズを減らし、重大度の正確性を高め、誤検知を減少させることで、結果が実世界のリスクとより一致するよう改善しています。」
開発者は、Codex Securityの結果をレビューし、サポートデータを確認したり、提案されたパッチのコード差分を閲覧したり、Githubのワークフローを通じて修正を統合したりできます。また、攻撃面やリポジトリの範囲、リスク許容度などのパラメータを調整して脅威モデルをカスタマイズすることも可能です。
Anthropicのリリースはサイバーセキュリティ業界の一部を揺るがせましたが、OpenAIの登場はこれまで市場のパニックよりも話題を呼んでいます。Claude Code Securityが2月に登場した際、CrowdstrikeやPalo Alto Networksなどの企業の株価は一時5%から10%下落しましたが、その後の取引セッションでほぼ回復しました。
当時、アナリストはこの売り浴びせがAIツールがアプリケーションセキュリティ市場の一部を置き換えるかどうかへの不安を反映していると指摘しました。しかし、多くの研究者は、AIツールは既存のセキュリティプラットフォームを補完するものであり、完全に置き換えるものではないと主張しています。
過去2年間で、AI支援の脆弱性検出は急速に進歩し、大規模言語モデル(LLMs)はCapture-the-Flagコンペや自動脆弱性発見などのサイバーセキュリティ研究にますます参加しています。これらの能力は、防御側がソフトウェアの弱点をより早く特定するのに役立ちますが、攻撃者が同様のシステムを悪用する可能性も懸念されています。
これらのリスクに対処するため、OpenAIは2月5日に「サイバー向け信頼アクセス」イニシアチブを開始し、検証済みのセキュリティ研究者に対して高度なモデルへの制御されたアクセスを提供しています。Anthropicも、Pacific Northwest National Laboratoryや内部のレッドチームプログラムなどのパートナーシップを通じて同様のアプローチを採用しています。
AIセキュリティエージェントの登場は、多くの研究者が「エージェント型サイバーセキュリティ」と呼ぶ方向への変化を示しています。これは、自律システムが継続的にソフトウェアの脆弱性を分析、テスト、修復するというものです。成功すれば、脆弱性の発見からパッチ展開までの時間を短縮でき、現代のソフトウェアセキュリティの最大の弱点の一つを克服できる可能性があります。
開発者やセキュリティチームにとって、そのタイミングは無視できません。AIはもはやコードを書くだけでなく、監査し、破壊し、修正も同じワークフロー内で行う時代になっています。
そして、OpenAIとAnthropicが直接競合する今、次世代のサイバーセキュリティツールは、従来のスキャナーではなく、眠ることなく文句も言わず、理想的にはハッカーよりも早くバグを捕まえるAIエージェントとして登場するかもしれません。