OpenAI が Aardvark を公表:GPT-5 をベースにしてセキュリティ専門家を模倣する

OpenAI Unveils Aardvark: GPT-5 Agent That Finds and Fixes Code Flaws Automatically

2025/10/31 TheHackerNews — OpenAI が発表したのは、自社の GPT-5 大規模言語モデル (LLM) を搭載し、人間の専門家を模倣するようにプログラムされ、コードのスキャン/理解/パッチ適用を可能にする “エージェント型セキュリティ研究者” である。人工知能 (AI) 企業である OpenAI によると、この自律型エージェントである Aardvark は、開発者やセキュリティのチームによる、セキュリティ脆弱性の大規模な検出/修正を支援するために設計されている。現時点において、プライベート・ベータ版として利用可能となっている。

OpenAI は、「Aardvark はソースコード・リポジトリを継続的に分析し、脆弱性を特定し、悪用される可能性を評価し、重大度を優先順位付けして、対象を絞ったパッチを提案する」と述べている。

Aardvark 自身をソフトウェア開発パイプラインに組み込むことで、コードベースへのコミットと変更を監視し、セキュリティ上の問題と悪用の方法を検出し、さらに LLM ベースの推論とツールを用いることで、問題に対処するための修正が提案されていく。

このエージェントは、OpenAI が 2025年8月に発表した GPT-5 をベースにしている。同社が説明する “Smart Efficient Model (モデル系列名)” は、GPT-5 思考による深い推論能力と承諾のモデルであり、”Real Time Router (推論経路選択機構)” が決定するモデルは、会話の種類/複雑さ/ユーザーの意図に基づくものだ。

OpenAI によると、Aardvark はプロジェクトのコードベースを分析し、セキュリティの目標と設計を適切に表現する脅威モデルを生成する。このコンテキスト・ベースの基盤に基づき、エージェントは履歴をスキャンして既存の問題を特定する。その一方で、リポジトリへの変更内容を精査して新たな問題を検出する。

潜在的なセキュリティ欠陥が発見されると、隔離されたサンドボックス環境で対象となる欠陥がトリガーされ、悪用の可能性が確認される。それに続いて、コーディング・エージェント OpenAI Codex を活用することで、人間のアナリストがレビューできるパッチを作成する。

OpenAI は、このエージェントを、社内のコードベースと一部の外部アルファ・パートナーで実行している。その結果として、オープンソース・プロジェクトで少なくとも 10 件の CVE の特定に貢献したと述べている。

自動化された脆弱性の発見とパッチ適用に取り組む AI エージェントを、試験導入しているのは OpenAI だけではない。今月の初めに Google が発表した CodeMender は、脆弱なコードの検出/パッチの適用により将来のエクスプロイトを防ぐものである。また、重要なオープンソース・プロジェクトのメンテナーと協力し、CodeMender が生成するパッチを統合し、プロジェクトのセキュリティ維持に役立てる意向も示している。

この視点で見ると、Aardvark/CodeMender/XBOW は、継続的なコード分析/エクスプロイトの検証/パッチ生成のためのツールとして位置付けられる。それに加えて、OpenAI は、安全性分類タスク向けに微調整した gpt-oss-safeguard モデルをリリースした直後に、このエージェントを公開している。

OpenAI は、「Aardvark は、防御者を重視する新しいモデルを体現している。つまり、コードの進化に合わせて継続的な保護を提供し、チームと連携するエージェント型の AI セキュリティ研究者である。脆弱性を早期に発見し、現実の世界での悪用の可能性を検証し、明確な修正を提供する Aardvark は、イノベーションを遅らせることなくセキュリティを強化できる。私たちは、セキュリティの専門知識へのアクセスを拡大することの重要性を信じている」と述べている。