Anthropic Sued the U.S. Government for Labelling Claude as ‘Supply Chain Risk’
2026/03/10 CyberSecurityNews — 人工知能分野の企業である Anthropic は、米国政府による “サプライチェーン・リスク指定” を受け、前例のない訴訟を提起した。この訴訟は、3月9日 (月) にカリフォルニア州連邦裁判所へ提出され、ドナルド・トランプ政権と、ピート・ヘグセス国防長官、そして 16 の連邦機関を相手取るものである。

この訴訟の争点は、米軍からの AI ツールへの無制限アクセス要求を、Anthropic が拒否したところにある。同社は、致死性自律兵器や国内大規模監視に対して、セーフ・ガードレールを維持する立場を取っている。
Anthropic は、政府の措置が憲法に違反し、保護された言論活動に対する違法な報復であると主張している。
国防総省は係争中であることを理由にコメントを控え、ホワイトハウスは「軍は AI 企業の利用規約ではなく憲法に従う」と述べ、Anthropic が軍事運用を統制しようとしていると批判した。
Anthropic による米政府への訴訟
Anthropic の AI アシスタント Claude は、2024年以降において、機密の政府環境で運用されてきた。この対立の激化は、防衛契約におけるすべての利用制限の撤廃を、ヘグセス国防長官が要求したところから始まっている。
Anthropic は、大規模監視および兵器化を防ぐ中核的ガードレールを維持しながら軍事要件を満たすという、妥協案について協議していたが、交渉は決裂した。
その後に、トランプ大統領は公に同社を批判し、全連邦機関に Anthropic 製品の使用停止を命じた。それと並行してヘグセスは、同社を “サプライチェーン・リスク” と正式に指定した。
この指定により、Claude は連邦用途において不安全と見なされ、政府契約業者による利用も禁止された。
Anthropic の主張は、この指定には法的根拠がなく、即時かつ回復不能な経済的な損害と、評判上の不利益をもたらし、数億ドル規模の民間契約に影響するというものだ。政府の強硬姿勢が浮き彫りにするのは、AI 安全性と国家防衛のあいだの緊張関係である。
連邦政府による禁止措置にもかかわらず、Microsoft/Google/Amazon は、防衛用途以外で Claude との統合を継続すると表明している。Google および OpenAI の従業員約 40名も、Anthropic 支持の法廷助言書を提出した。
彼らが強調するのは、最先端 AI システムには致死的用途での無制御展開を防ぐ、厳格な技術的ガードレールが必要であるという点だ。
しかし、その一方では、競合の動きも見え始めている。OpenAI の CEO である Sam Altman は、Anthropic が排除された後に、新たな国防総省契約を迅速に締結したと報じられている。Anthropic の主張は、”サプライチェーン・リスク” 指定の撤回だけであり、損害賠償を求めていない。ただし同社は、大統領権限の逸脱および憲法修正第 1 条違反を主張している。
法曹界では、長期化が予想されている。University of Richmond School of Law の Carl Tobias 教授は、政権が強硬な訴訟戦略を取る可能性が高いと指摘している。
連邦地裁で Anthropic が勝訴した場合であっても、政権が控訴し、最終的に最高裁へ持ち込まれる可能性があると見られている。
AI 大手 Anthropic が、米国政府から前例のない “サプライチェーン・リスク” 指定を受けたことに対し、ドナルド・トランプ大統領、ピート・ヘグセス国防長官、および連邦機関を相手取って訴訟を提起しました。この対立の背景には、AI 技術の軍事利用と、安全性の境界線を巡る、官民の激しい思想の衝突があります。よろしければ、以下の記事も、ご参照ください。
- 2026/03/02:イラン戦争と米軍:Claude の利用と OpenAI の動き
- 2026/02/28:米政府が Anthropic AI を BAN:無制限アクセスを巡り決裂
You must be logged in to post a comment.