White House Pushes Back Against Anthropic’s Mythos Expansion
2026/04/30 SecurityBoulevard — 最先端 AI モデルの配布方法を巡って、Anthropic Mythos へのアクセス拡大計画に反対するホワイトハウスと主要 AI ベンダーとの間で高リスクな対立が生じている。2026年4月7日に Mythos を公開した Anthropic は、Amazon/Microsoft/Google/NVIDIA などの限定的な企業に対してのみアクセスを許可した。このモデルは、ソフトウェア脆弱性の特定/悪用の能力が極めて高い。

その後の Anthropic は、約 70 の限定的なアクセスを提供し、そのユーザー基盤を拡大しようとしている。このような背景から、Mythos が一般に公開されると、重要インフラに対して深刻な影響が生じると懸念されている。
主要な 2 つの懸念
Mythos のアクセス拡大に対して、政府当局は 2 つの懸念を理由に反対している。すなわち、不正利用の可能性と、その拡張を支えるインフラ能力である。
不正利用の観点で Mythos は、重要インフラ保護を担う政府機関による強い警戒を引き起こしており、実際のセキュリティ・インシデントにおいて、その懸念は裏付けられている。
限定的な公開の直後に、非認可ユーザーが私的な経路を介してアクセスを取得した事例が確認された。この侵害が示すのは、特に攻撃的な用途が明確な AI システムにおいて、需要の高いモデルを制御する難しさである。
さらに 3月末には、Anthropic が Claude Code の内部ソースコードを誤って公開してしまった。この漏洩は人的ミスに起因するものだが、機密情報の管理能力に対する懸念を増大させた。Anthropic は、自社の技術に内在するリスクを認識しており、企業による需要が高まる中で、全面公開を躊躇せざるを得ない状況になっている。
さらに政府当局は、Anthropic がユーザー拡大を支えるだけの、十分なコンピューティング・リソースを確保していないと疑っている。十分なコンピューティング・リソースを持たずにアクセスを拡張すると、すでにセキュリティ用途で利用している政府系ユーザーの性能が低下する可能性がある。Anthropic はリソース確保のためのパートナーシップを構築しているが、完全に整備されているという状況には至っていない。
AI モデル・アクセスを巡る新たな課題
Anthropic と連邦政府の間には、不安定な関係が継続している。過去には、防衛用途に関する対立があり、同社が自律型致死兵器や大規模監視への利用を防ぐガードレールの削除を拒否したことで協力関係が崩れた。
これに対し、ピート・ヘグセス国防長官は、Anthropic を国家安全保障上のサプライチェーン・リスクと位置付けた。この経緯は、現在の交渉にも影響を与えていると考えられる。
その一方で政府は、外部アクセスを制限しながら内部利用を拡大する方向で、同社のモデルの活用方法を模索している。このアプローチは、高度な AI 能力へのアクセス維持が、いかに重要であるかを示している。
最先端 AI システムの能力が増大するにつれて、信頼関係/インフラ整備状況/国家安全保障との整合性といった要素により、条件付きのアクセスが広まると推測されている。
エンタープライズにとって、この対立は新たな不確実性の要因となる。AI システムの利用可能性は、技術的能力だけでなく規制にも左右されるようになっている。AI 導入は単なる技術選定ではなく、政策により統制されるプロセスへと移行しつつある。
訳者後書:脆弱性の発見や攻撃に転用できるほど強力な AI モデル Mythos の配布を巡り、Anthropic と政府当局の間に深刻な摩擦が生じています。問題の原因は、このモデルが持つ高度なサイバー攻撃能力と、それを安全に管理するためのインフラや信頼関係が十分に構築されていない点にあります。このモデルが一般公開された場合の、重要インフラに対して悪用されるリスクを、政府側は極めて高く見積もっています。また、過去に Anthropic がソースコードを誤って流出させた事例や、非認可ユーザーによる不正アクセスの発生が、管理体制への不信感を強める要因となりました。さらに、急激なユーザー拡大に耐えうるコンピューティング・リソースの不足も、既存の政府系ユーザーの性能を損なう懸念として挙げられています。よろしければ、Mythos での検索結果も、ご参照ください。
You must be logged in to post a comment.