Anthropic が Project Glasswing を公表:脆弱性を特定する強力な AI モデルを検証

Anthropic Unveils Restricted AI Cyber Model in Unprecedented Industry Alliance

2026/04/07 SecurityBoulevard — Anthropic が、AI を巡る期待と不安を反映する新たなサイバー・セキュリティ施策を発表した。この取り組みに名を連ねるのは、Amazon/Microsoft/Apple/Google/NVIDIA といった主要企業であり、さらにセキュリティ/インフラ分野のパートナーも連携している。このプログラムは Project Glasswing と呼ばれ、ソフトウェアの脆弱性が脅威アクターに悪用される前に特定するための、強力な AI モデルの検証を目的とする。

Glasswing の AI モデルである Claude Mythos Preview は、現時点では一般公開されていない。Anthropic は、このモデルが広範なシステムの弱点を発見し、場合によっては悪用が可能であるため、制限が必要であると説明している。

初期のテスト結果によると、このモデルは既存ツールを超えるスケールで動作する。Anthropic は、オペレーティングシステムやブラウザなどの基盤ソフトウェアにおいて、すでに数千件の深刻な脆弱性を特定したと報告している。

その中には、長年のテストを経ても検出されなかった欠陥も含まれており、その一部は責任ある開示を経て、すでに修正されている。

Microsoft の Global CISO である Igor Tsyganskiy は、「CTI-REALM ベンチマークにおいて、Claude Mythos Preview は従来モデルに比べ大幅な改善を示した」と述べている。

サイバー・セキュリティに対する AI の影響

現在のサイバー・セキュリティ環境では、脆弱性の発見から悪用までの時間が大幅に短縮されている。その背景にあるのは、自動化および AI 支援技術の進展であり、従来の防御手法では追いつかないという懸念が生じている。

Project Glasswing への参加企業は、このモデルを自社システムの検証に活用し、その結果を共有インフラ強化のために提供する。さらに Anthropic は、利用クレジットやオープンソース・セキュリティ・プロジェクトへの資金提供を通じて、発見された脆弱性への対応の支援も行っている。

競合関係にある企業同士が協調する点は特筆すべきであり、AI による新たな脅威に対する強い危機意識が、業界全体で共有されている状況を示している。つまり、単一企業では対応できないリスクが存在するという認識が、この協力体制の前提となっている。

防御側支援と運用上の課題

Glasswing には、実務的な課題も存在する。大量の脆弱性レポートを処理するには、検証および優先順位付けが不可欠であり、その中でも、リソースの限られたオープンソース・プロジェクトでの負担が大きい。Anthropic は、人によるレビューと協調的開示を含む、トリアージ・プロセスを導入している。

その一方で、このモデルを非公開とする判断自体が、AI 開発におけるジレンマを示している。防御強化に資する一方で、広く公開するなら、攻撃者の能力も加速させる可能性があるためである。Anthropic が示唆するのは、Claude Mythos Preview レベルの能力が、近い将来には一般化する可能性であり、防御側の対応に残された時間的な猶予は少ない。

CrowdStrike の CTO である Elia Zaitsev は、「この能力は防御側にとって有益であるが、攻撃者も同様に活用できる」と指摘している。

Anthropic の主導と今後の展望

Project Glasswing の開始は、Anthropic の急成長期と重なる。同社は収益およびエンタープライズ導入の拡大に加え、計算インフラへの投資も強化している。

本取り組みは商用利用を超えた技術活用の一例であると同時に、業界横断的な協調を主導することで企業としての存在感を高めている。

今後の成否は、AI の進化速度に対して協調体制が追随できるかに依存する。長期間見逃されていた脆弱性を発見できる点は防御上の優位性を示すが、同様の技術が他でも再現されれば攻防バランスに影響を与える可能性がある。

Anthropic は今後数ヶ月で本プロジェクトの成果を公開する予定である。本取り組みが AI リスク管理の持続的枠組みとなるのか、それとも一時的対応にとどまるのかが問われている。