Claude AI が発見した Firefox の脆弱性 22 件:2 週間にわたる Mozilla との共同検証の成果とは?

Claude AI Uncovers 22 Firefox Vulnerabilities in Two Weeks

2026/03/06 CyberSecurityNews — 人工知能モデルは単純なコード補助ツールから、自律型の高度な脆弱性研究者へと急速に進化している。最近の Anthropic Claude Opus 4.6 は、厳しく監査されてきたはずのオープンソース・プロジェクトにおいて、500 件を超えるゼロデイ脆弱性を発見した。その一環として、2026年2月の 2 週間をかけて Mozilla と Anthropic が共同で実施した検証では、Firefox に存在していた 22 件のセキュリティ欠陥が Claude Opus 4.6 により特定されている。Mozilla は、そのうち 14 件を高深刻度と分類したが、この件数は、2025年に修正された Firefox の高深刻度脆弱性の約 20% に相当する。

Continue reading “Claude AI が発見した Firefox の脆弱性 22 件:2 週間にわたる Mozilla との共同検証の成果とは?”

イラン戦争における Anthropic と米軍:Claude で実施された作戦と OpenAI の動き

US Military Reportedly Used Claude in Iran Strikes Despite Trump’s Ban

2026/03/02 CyberSecurityNews — 米国国防総省は、2月28日に実施されたイスラエルとの共同攻勢 Operation Epic Fury において、Anthropic の Claude AI を使用した。トランプ大統領が、Anthropic を国家安全保障上のサプライチェーン・リスクに指定し、すべての連邦機関に対して同社の AI システムの使用停止を命じたわずか数時間後に、この作戦は実施された。

Continue reading “イラン戦争における Anthropic と米軍:Claude で実施された作戦と OpenAI の動き”

米政府が Anthropic AI を BAN:Claude への完全かつ無制限のアクセスを巡り決裂

Trump Bans Anthropic AI in Federal Agencies — Pentagon Flags Claude as Security Risk

2026/02/28 CyberSecurityNews — 米国政府は、すべての連邦政府機関に対して、Anthropic の AI モデル Claude の使用を直ちに停止させるという前例のない措置を講じた。さらに同社を、国家安全保障上のサプライチェーン・リスクであると正式に指定したが、歴史的に見て、このような措置は Huawei などの外国の敵対勢力に限定されてきた。

Continue reading “米政府が Anthropic AI を BAN:Claude への完全かつ無制限のアクセスを巡り決裂”

Claude の悪用によりメキシコ政府機関から 150GB を窃取:2025年12月に始まった AI 悪用インシデント

Hacker Jailbreaks Claude AI to Write Exploit Code and Steal Government Data

2026/02/26 CyberSecurityNews — Anthropic の Claude AI チャットボットを悪用するハッカーが、メキシコの政府機関の機密データを、2025年12月から約 1 ヶ月以上にわたり窃取していたことが判明した。このキャンペーンで実行された手法は、脆弱性特定/エクスプロイト・コード生成/データ流出である。持続的なプロンプティングにより、Claude のセキュリティ・ガードレールを回避した手法が、この侵害を発見したサイバーセキュリティ企業 Gambit Security により明らかにされた。

Continue reading “Claude の悪用によりメキシコ政府機関から 150GB を窃取:2025年12月に始まった AI 悪用インシデント”

Claude Code における複数の脆弱性:API キー漏えいと RCE の可能性

Claude Code Flaws Allow Remote Code Execution and API Key Exfiltration

2026/02/25 TheHackerNews — AI 搭載コーディング支援ツール Anthropic Claude Code に、複数のセキュリティ脆弱性が存在することを、サイバー・セキュリティ研究者たちが明らかにした。これらの脆弱性により、リモート・コード実行および API 認証情報の窃取が発生する可能性がある。一連の脆弱性により、フック/Model Context Protocol (MCP) サーバ/環境変数などの、複数のコンフィグ機能の悪用が可能となると、Check Point Research のレポートは指摘している。ユーザーが未信頼のリポジトリをクローンして開くだけで、任意のシェル・コマンド実行および Anthropic API キーの漏洩が発生する。

Continue reading “Claude Code における複数の脆弱性:API キー漏えいと RCE の可能性”

FortiGate に対する大規模な攻撃:DeepSeek と Claude によるキルチェーンが判明

Hackers Leverage DeepSeek and Claude to Attack FortiGate Devices Worldwide

2026/02/24 CyberSecurityNews — 2026年02月初旬に確認されたのは、Large Language Model (LLM) を高度に悪用する積極的な侵入キャンペーンであり、重大なサイバー・セキュリティ脅威を引き起こすものだ。ミスコンフィグされたサーバから、詳細なソフトウェア・パイプラインの情報が公開されていた。そして、脅威アクターたちが、DeepSeek/Claude を攻撃ワークフローへ統合していた。

Continue reading “FortiGate に対する大規模な攻撃:DeepSeek と Claude によるキルチェーンが判明”

Anthropic Claude を狙う協調的キャンペーン:1,600 万回超のインタラクションを発生させた中国 AI

Anthropic Claude Under Large Scale Distillation Attacks By Chinese AI Labs with 13 Million Exchanges

2026/02/23 CyberSecurityNews — Anthropic が主張するのは、DeepSeek/Moonshot AI/MiniMax の 3 社が、同社 Claude モデルから高度な能力を窃取するために、協調的な蒸留 (Distillation) キャンペーンを実行したという件である。サンフランシスコ拠点の同社によると、このオペレーションは約 24,000 件の不正アカウントを介して実行され、Claude との 1,600 万回超のインタラクションを発生させた。これは利用規約 (ToS:Terms of Service) に違反し、リージョナル・アクセス制限を回避する行為である。

Continue reading “Anthropic Claude を狙う協調的キャンペーン:1,600 万回超のインタラクションを発生させた中国 AI”

ChatGPT/Claude を装う悪意の Chrome AI エクステンション:26 万人に影響を及ぼす大規模監視キャンペーンを検出

Malicious Chrome AI Extensions Attacking 260,000 Users via Injected IFrames

2026/02/13 CyberSecurityNews — ChatGPT/Claude/Gemini/Grok などの人気 AI ツールを装う悪意の Chrome エクステンションが、組織的な協調キャンペーンを介して配布されている。これらの偽 “AI アシスタント” は、有用なブラウザ・エクステンションを装いながら、リモートからの操作が可能な iframe を注入してユーザーを監視する悪意のツールである。これらのエクステンションは、26 万人以上のユーザーにインストールされている。

Continue reading “ChatGPT/Claude を装う悪意の Chrome AI エクステンション:26 万人に影響を及ぼす大規模監視キャンペーンを検出”

Claude Desktop Extensions のゼロクリック RCE の脆弱性:1 万人以上のユーザーにリモート侵害の恐れ

Claude Desktop Extensions 0-Click RCE Vulnerability Exposes 10,000+ Users to Remote Attacks

2026/02/09 CyberSecurityNews — Claude Desktop Extensions (DXT) の深刻な脆弱性が新たに発見され、大規模言語モデル (LLM) における信頼境界の処理方式を巡る、根本的なアーキテクチャ上の欠陥が明らかになった。この Claude DXT のゼロクリック型リモート・コード実行 (RCE) 脆弱性 CVE-N/A を悪用する攻撃者は、細工された Google Calendar のイベントのみでシステムを侵害できる。

Continue reading “Claude Desktop Extensions のゼロクリック RCE の脆弱性:1 万人以上のユーザーにリモート侵害の恐れ”

Claude Opus 4.6:サイバー・セキュリティ能力を強化して 500 件以上の高深刻度の脆弱性を特定

Claude Opus 4.6 Released with Improved Cybersecurity, Validating 500+ high-severity Vulnerabilities

2026/02/07 CyberSecurityNews — Anthropic の最新 AI モデルが、数十年にわたりコードベースに残存してきた深刻な欠陥を自律的に特定した。それにより、サイバー空間全体のリスクが増大し、防御側/攻撃側の双方で緊張感が高まっている。2026年2月5日に Anthropic は、サイバー・セキュリティ能力を大幅に強化する Claude の最新バージョンを公開した。この Claude Opus 4.6 が、オープンソース・ソフトウェアにおいて、これまで未知であった高深刻度の脆弱性を 500 件以上も特定した。

Continue reading “Claude Opus 4.6:サイバー・セキュリティ能力を強化して 500 件以上の高深刻度の脆弱性を特定”

Claude Chrome エクステンションの懸念:リクエストとログの読み取りや機密情報の漏洩

Researchers Warn of Data Exposure Risks in Claude Chrome Extension

2026/01/05 hackread — 2025年12月18日に Anthropic が公開したのは、Claude Chrome エクステンションのベータ版である。このエクステンション (拡張機能) は、AI がユーザーに代わって Web サイトを閲覧/操作し、高い利便性を提供するものである。その一方で、従来の Web セキュリティ・モデルでは対処できない深刻なリスクが存在すると、Zenity Labs の最新分析が指摘している。

Continue reading “Claude Chrome エクステンションの懸念:リクエストとログの読み取りや機密情報の漏洩”

IDEsaster という新たな脆弱性クラス:GitHub Copilot/Gemini CLI/Claude などに深刻な影響

Critical Vulnerabilities in GitHub Copilot, Gemini CLI, Claude, and Other Tools Impact Millions of Users

2025/12/08 CyberSecurityNews — AI 駆動型 IDE (Integrated Development Environment) の登場により、ソフトウェア開発環境は根本的に変化した。GitHub Copilot/Gemini CLI/Claude Code などのツールは、単純な自動補完エンジンから、タスクを実行する自律エージェントへと進化した。しかし、生産性の急速な追求がセキュリティ・ギャップを生み出している。本来は自律性を想定して設計されていないレガシー IDE アーキテクチャを、それぞれのベンダーがエージェントに直接統合したことで、図らずも攻撃対象領域が拡大されてしまった。それを IDEsaster と呼ぶ。

Continue reading “IDEsaster という新たな脆弱性クラス:GitHub Copilot/Gemini CLI/Claude などに深刻な影響”

SecureVibes が脆弱性を自動検出:Claude AI Agents を介して 11種類の言語をサポート

SecureVibes – AI Tool Scans for Vulnerabilities in 11 Languages with Claude AI Agents

2025/11/12 CyberSecurityNews — AI を活用してアプリケーションを迅速に構築する、Vibecoding という手法が急速に進化を遂げる世界へ向けて、セキュリティ・リスクを低減する新たなオープンソース・ツールが登場した。Anshuman Bhartiya が開発した SecureVibes は、マルチエージェント・システムを通じて Anthropic の Claude AI を活用し、コードベースの脆弱性を自動検出する。2025年10月にリリースされた Python ベースのスキャナー SecureVibes は、深い専門知識を必要とせずにプロレベルのセキュリティ分析を可能にすることを目指している。

Continue reading “SecureVibes が脆弱性を自動検出:Claude AI Agents を介して 11種類の言語をサポート”

Claude Desktop エクステンションの深刻な脆弱性:Web コンテンツ → AI 処理 → ローカル実行の構造とは?

Critical RCE Vulnerabilities in Claude Desktop Let Attackers Execute Malicious Code

2025/11/06 CyberSecurityNews — Anthropic の Claude Desktop の公式エクステンション3件に、深刻なリモート・コード実行 (RCE) の脆弱性が発見された。この脆弱性 CVE-N/A (CVSS:8.9) は、サニタイズされていないコマンド・インジェクションに起因し、Chrome/iMessage/Apple Notes コネクタに影響を及ぼすものだ。一連のエクステンションは、Anthropic のマーケットプレイスのトップページで公開/宣伝されている。この脆弱性を悪用する攻撃者は、無害に見える AI アシスタントとのインタラクションを通じて、ユーザー・マシン上で任意のコード実行の可能性を得るという。ただし、すでに Anthropic は、3件の脆弱性を修正しているという。

Continue reading “Claude Desktop エクステンションの深刻な脆弱性:Web コンテンツ → AI 処理 → ローカル実行の構造とは?”

Claude AI における間接プロンプト・インジェクションの脆弱性:API 操作によるデータ窃取が可能に

Hackers Can Manipulate Claude AI APIs with Indirect Prompts to Steal User Data

2025/11/03 CyberSecurityNews — Anthropic の Claude AI を悪用するハッカーは、機密性の高いユーザー・データを窃取する可能性を手にしている。この攻撃者は、コード・インタープリタ・ツールに新たに追加されたネットワーク機能を悪用し、間接的なプロンプト・インジェクションを用いることで、チャット履歴などの個人情報を抽出して自身のアカウントに送信する。2025年10月に Johann Rehberger がブログで詳述した、この問題が浮き彫りにするのは、AI システムが外部と接続性を高めるにつれてリスクが拡大している状況である。

Continue reading “Claude AI における間接プロンプト・インジェクションの脆弱性:API 操作によるデータ窃取が可能に”

Claude AI に3つのインシデント:サイバー犯罪者たちの巧妙な試みを Anthropic が阻止

Hackers Attempted to Misuse Claude AI to Launch Cyber Attacks

2025/08/28 CyberSecurityNews — 新たに発表された脅威インテリジェンス・レポートによると、Claude AI プラットフォームの悪用を狙うサイバー犯罪者たちの、複数の巧妙な試みを Anthropic が阻止したようだ。Claude の高度な機能を悪用する攻撃者たちは、有害な出力を防ぐための多層的な安全対策を回避しながら、このエージェント AI を武器化することで、大規模な恐喝/雇用詐欺/ランサムウェア攻撃を実行している。

Continue reading “Claude AI に3つのインシデント:サイバー犯罪者たちの巧妙な試みを Anthropic が阻止”

Anthropic Claude にチャットの自動的な終了機能を追加:有害な利用を防止

Anthropic: Claude can now end conversations to prevent harmful uses

2025/08/17 BleepingComputer — OpenAI と競合する Anthropic が発表したのは、 危害や悪用の可能性を AI モデルが検知した場合に会話を終了する新機能を、Claude のアップデートに搭載したというものだ。この機能は、有料プランおよび API で提供される、最上位の2つのモデル Claude Opus 4/4.1 にのみ提供される。したがって、最も広く利用されている Claude Sonnet 4 には搭載されない。

Continue reading “Anthropic Claude にチャットの自動的な終了機能を追加:有害な利用を防止”

Claude 上での任意のコード実行:Gmail メッセージを介した悪用を実証

Gmail Message Exploit Triggers Code Execution in Claude, Bypassing Protections

2025/07/16 gbhackers — 巧妙に作成された Gmail メッセージを介して、Anthropic の AI アシスタント・アプリ Claude Desktop によりコード実行を引き起こす手法を、あるサイバー・セキュリティ研究者が実証した。この事例が明らかにしたのは、従来からの悪用手法である、ソフトウェアの欠陥を必要としない、AI 搭載システムにおける新たな脆弱性の存在である。このエクスプロイトは、各種のアプリケーションやサービスとのインタラクションを Claude 上で実現する、MCP (Model Context Protocol) を介するものだ。

Continue reading “Claude 上での任意のコード実行:Gmail メッセージを介した悪用を実証”

Vibe Coding の情報公開:Claude 4 により構文エラーが 25% 減/処理速度が 40% 向上

Vibe coding company says Claude 4 reduced syntax errors by 25%

2025/05/25 BleepingComputer — Vibe が発表したのは、同社のコーディング・ツール Lovable で Claude 4 を採用したことで、エラーが 25% 削減され、処理速度が40%向上したという情報だ。Claude Sonnet 4 と Claude Opus 4 という2つの新しいモデルは、5月22日に Anthropic が提供を開始したものである。Sonnet は無料ユーザーが利用できるが、Opus は有料サブスクリプションが必要であり、コーディングに関しては Sonnet の方が優れた性能を発揮する。

Continue reading “Vibe Coding の情報公開:Claude 4 により構文エラーが 25% 減/処理速度が 40% 向上”

Gen AI とジェイルブレイク:各種の AI ツールに存在するリスクと影響について – CERT/CC

New Reports Uncover Jailbreaks, Unsafe Code, and Data Theft Risks in Leading AI Systems

2025/04/29 TheHackerNews — さまざまな GenAI サービスが抱える、2種類のジェイルブレイク攻撃に対して脆弱な特性により、違法/危険なコンテンツの生成を可能になることが判明した。この2つの手法のうちの1つ目は、”Inception” というコードネームで呼ばれ、AI ツールに架空のシナリオを想像させるように指示するものだ。このシナリオは、安全ガードレールが存在しない1つのシナリオで指示され、それが2つ目のシナリオに適応されるものだ。

Continue reading “Gen AI とジェイルブレイク:各種の AI ツールに存在するリスクと影響について – CERT/CC”

Cisco による DeepSeek R1 調査:ジェイルブレイクに関する大きな懸念とは?

Cisco Finds DeepSeek R1 Highly Vulnerable to Harmful Prompts

2025/02/03 HackRead — 中国のスタートアップ DeepSeek は、高度な推論機能とコスト効率の高いトレーニングを備えた、大規模言語モデル (LLM) の導入による注目を集めている。最近にリリースされた DeepSeek R1-Zero/DeepSeek R1 は、OpenAI o1 などの主要モデルに匹敵するパフォーマンスを、わずかなコストで実現している。 そして、数学/コーディング/科学的推論などのタスクにおいて、Claude 3.5 Sonnet や ChatGPT-4o を上回っている。

Continue reading “Cisco による DeepSeek R1 調査:ジェイルブレイクに関する大きな懸念とは?”

GitHub Copilot で発見されたジェイルブレイクの手法:悪意のモデルのトレーニングなどが可能に?

New Jailbreaks Allow Users to Manipulate GitHub Copilot

2025/01/31 DarkReading — GitHub の AI コーディング・アシスタント Copilot を操作する、2つの新たな手法を研究者たちが発見した。この方式を用いれば、セキュリティ制限やサブスクリプション料金の回避や、悪意のモデルのトレーニングなどが可能になる。

Continue reading “GitHub Copilot で発見されたジェイルブレイクの手法:悪意のモデルのトレーニングなどが可能に?”