Claude AI に3つのインシデント:サイバー犯罪者たちの巧妙な試みを Anthropic が阻止

Hackers Attempted to Misuse Claude AI to Launch Cyber Attacks

2025/08/28 CyberSecurityNews — 新たに発表された脅威インテリジェンス・レポートによると、Claude AI プラットフォームの悪用を狙うサイバー犯罪者たちの、複数の巧妙な試みを Anthropic が阻止したようだ。Claude の高度な機能を悪用する攻撃者たちは、有害な出力を防ぐための多層的な安全対策を回避しながら、このエージェント AI を武器化することで、大規模な恐喝/雇用詐欺/ランサムウェア攻撃を実行している。

1つ目のインシデントは “Vibe Hacking” と呼ばれるものであり、Claude Code を悪用する恐喝グループは、医療機関/救急サービス/宗教機関などの少なくとも 17 の組織に対して、偵察/認証情報収集/ネットワーク侵入を自動化している。

このグループは、侵害したデータをランサムウェアで暗号化するのではなく、そこに含まれる機密情報を公開すると脅迫し、$500,000 + の身代金を要求している。

この攻撃で Claude Code は、窃取対象データを自律的に選択し、財務記録の分析に基づく身代金額を算出し、被害者マシンに警告を発するためのビジュアライズされた身代金要求メモを生成している。

Anthropic のチームが採った措置は、研究目的としての犯罪ワークフローのシミュレーションと、違反アカウントの停止である。それと同時に、似たような悪意の振る舞いを、リアルタイムで警告する、新しい検出方式を開発したという。

2つ目のインシデントは、Claude を悪用する北朝鮮 IT 工作員が、身元と職歴を偽って技術評価に合格し、米国 Fortune 500 企業のリモートワーク職を獲得していたことである。

これまで、この種の計画を実現するには長年の訓練が必要だった。しかし、AI を悪用することで、スキルの低い工作員であっても、英語での専門的コミュニケーションを可能にし、高収入のコーディング職を維持できるようになっている。

Anthropic が取った措置は、関与が疑われるアカウントの停止と、IOC 収集ツールの改善、そして、法執行機関および制裁執行機関との情報の共有である。

3つ目のインシデントは、 AI 生成の RaaS (Ransomware-as-a-Service) を、ダークウェブ・フォーラムで販売していた脅威アクターの存在である。このサイバー犯罪者が$400〜$1,200 で販売するマルウェアは、検出回避/暗号化/回復防止のための高度な機能を備えているが、それらは Claude アシスタントにより開発されたものである。

Anthropic は、そのアカウントをブロックし、業界パートナーに警告を発し、疑わしいマルウェア・アップロードやコード生成試行を検出するための、プラットフォームとしての機能を強化した。

Anthropic のレポートには、「これらのインシデントは、AI に支援されるサイバー犯罪の進化を象徴している。エージェント型 AI ツールは、マルウェア検出システムなどの防御策にリアルタイムに適応できる」と指摘されている。

技術的な障壁を下げる AI により、これまでは専門チームが必要だった複雑な攻撃が、初心者であっても実行できるようになった。AI 支援コーディングの普及に伴い、この種の攻撃は、さらに一般化すると予測される。

Anthropic が保護策として提示するものには、物理/心理/経済/社会/自律などに対するポリシー策定を導くUnified Harm Framework がある。それにより、安全性/バイアス/高リスク領域に関する厳格テスト/有害プロンプトをブロックするリアルタイム分類器などが設計され、また、使用パターンと外部フォーラムに対する継続的な監視も実施される。

これらの安全策により、選挙の公正性に対する侵害から、化学/生物兵器研究に至るまでの、広範な分野における悪用を阻止し、新たな脅威に応じて進化を続けていくと、同社は述べている。

Anthropic は、アカウント禁止や検出強化を推進する一方で、技術指標やベスト・プラクティスを当局/業界関係者と共有している。

今後も同社は、AI 活用詐欺やサイバー犯罪の研究を優先し、脅威インテリジェンス・パートナーシップを拡大し、敵対的行為者を先行的に抑止するための、ガードレールを改良していく予定であるという。