Claude Chrome エクステンションの脆弱性が FIX:信頼境界の拡大とプロンプト・インジェクション攻撃

Claude Chrome Extension 0-Click Vulnerability Enables Silent Prompt Injection Attacks

2026/03/27 CyberSecurityNews — Anthropic の Claude Chrome エクステンションに存在していた深刻なゼロクリックの脆弱性により、300万人以上のユーザーがサイレント・プロンプト・インジェクション攻撃に晒されていたことが判明した。この脆弱性は修正済みであるが、攻撃が発生した場合に可能だったのは、ユーザー操作を必要としない AI アシスタントの乗っ取りである。具体的には、Gmail アクセストークンの窃取/Google Drive ファイルの読み取り/チャット履歴のエクスポート/メール送信などが、ユーザーには不可視な状況で実行された可能性がある。

Continue reading “Claude Chrome エクステンションの脆弱性が FIX:信頼境界の拡大とプロンプト・インジェクション攻撃”

AI により高速化されるサイバー攻撃:ID が引きずり続ける弱点に向き合うためには?

AI Speeds Attacks, But Identity Remains Cybersecurity’s Weakest Link

2026/03/25 SecurityWeek — AI の影響はサイバーセキュリティ全体に浸透しており、攻撃者に対して高度化/スピード/スケールをもたらしている。攻撃主体と攻撃対象は、地政学的な緊張および国際的な同盟関係の大きな影響を受けるようになっている。しかし、サイバー・セキュリティは、その中心にアイデンティティを据える必要がある。ただし、アイデンティティは侵入の入口であり、かつ容易に失われるものだ。

Continue reading “AI により高速化されるサイバー攻撃:ID が引きずり続ける弱点に向き合うためには?”

Novee が発表した AI Red Teaming for LLM:AI を駆使する攻撃者の目線でペンテストを実施

Training an AI agent to attack LLM applications like a real adversary

2026/03/25 HelpNetSecurity — 従来のペンテストが追いつかない速度で、数多くのエンタープライズ・ソフトウェア開発チームが、AI 搭載アプリケーションをリリースしている。たとえば、500 のアプリケーションを抱えるセキュリティ・チームであっても、それぞれのアプリに対して、年に1 回以下の頻度でしかテストが行われていないケースもある。その間にも、モデル/統合/動作は変化し続けるが、それに対応するセキュリティ・レビューは実施されていない。

Continue reading “Novee が発表した AI Red Teaming for LLM:AI を駆使する攻撃者の目線でペンテストを実施”

バイブ・コーディングによる破壊を活用すべき:UK NCSC が示唆する未来とは? – RSAC 2026

RSA Conference: UK NCSC Head Urges Industry to Develop Vibe Coding Safeguards

2026/03/25 InfoSecurity — 英国の National Cyber Security Centre の CEO が、「バイブ・コーディングによる破壊的な機会を活用すべきだ」と、セキュリティ専門家に対して呼びかけている。ただし、AI コード生成ツールが、セキュリティにとって正しい効果を生み出すためには、普及のスピードに応じた安全対策の迅速な整備が不可欠である。

Continue reading “バイブ・コーディングによる破壊を活用すべき:UK NCSC が示唆する未来とは? – RSAC 2026”

Google Gemini 搭載のダークウェブ監視 AI を公開:プロアクティブな脅威プロファイリングを開始

Google Unleashes Gemini AI to Scour Dark Web for Corporate Threats

2026/03/24 SecurityBoulevard — Google が発表したのは、新たなダークウェブ・インテリジェンス・サービスであり、地下犯罪フォーラムに対する監視の負担軽減を目的とするものだ。このサービスは、多大な工数を要する監視作業に対処するために設計されている。Google は、Gemini を搭載した人工知能 (AI) エージェントを活用し、1日あたり 1,000 万件以上の投稿を解析/精査している。これにより、従来のキーワード・ベースの旧式システムを置き換え、脅威のコンテキストを理解するプラットフォームの提供が可能になるという。

Continue reading “Google Gemini 搭載のダークウェブ監視 AI を公開:プロアクティブな脅威プロファイリングを開始”

Datadog が Bits AI を公表:複雑なインシデント分析を 30 秒程度に短縮 – RSAC 2026

Datadog Launches AI Security Agent to Combat Machine-Speed Cyberattacks

2026/03/23 SecurityBoulevard — RSA Conference (RSAC) において Datadog が公表したのは、Bits AI Security Analyst の一般への提供に関する情報である。その背景にあるのは、急増するデジタル脅威に対するセキュリティ運用の在り方である。この AI エージェントは、Datadog の Cloud SIEM (Security Information and Event Management) に直接統合され、Security Operations Center (SOC) における重大なボトルネックの解消を狙うものだ。

Continue reading “Datadog が Bits AI を公表:複雑なインシデント分析を 30 秒程度に短縮 – RSAC 2026”

Wiz が公表した AI-APP:AI がもたらすデータの複雑な連携を保護 – RSAC 2026

Wiz Launches AI-APP to Tackle ‘New Anatomy’ of Cyber Risk

2026/03/23 SecurityBoulevard — RSA Conference 2026 で Wiz が発表したのは、AI ネイティブ開発を構成するモデル/AI エージェント/データの複雑な連携を保護するための、プラットフォーム AI Application Protection Platform (AI-APP) である。

Continue reading “Wiz が公表した AI-APP:AI がもたらすデータの複雑な連携を保護 – RSAC 2026”

Cisco の AI Agent 対策:Duo IAM の拡張により MCP と Secure Access に対応 – RSAC 2026

Cisco Extends Security Reach to AI Agents

2026/03/23 SecurityBoulevard — RSA Conference (RSAC) において Cisco が公表したのは、AI エージェントのセキュリティ確保と、 AI を活用するセキュリティ運用の自動化を目指す、サイバー・セキュリティ・ポートフォリオの拡張である。

Continue reading “Cisco の AI Agent 対策:Duo IAM の拡張により MCP と Secure Access に対応 – RSAC 2026”

CrowdStrike の次世代 Falcon:AI ガバナンスの最前線としての立ち位置 – RSAC 2026

CrowdStrike Redefines Cybersecurity Architecture for Autonomous AI

2026/03/23 SecurityBoulevard — CrowdStrike が公表したのは、Falcon プラットフォームを大幅に拡張し、エンドポイントを AI ガバナンスの最前線として位置付けていくという方針である。グローバル・エンタープライズ環境において、自律型の AI エージェントがシステムレベル権限で動作し始める中での声明である。

Continue reading “CrowdStrike の次世代 Falcon:AI ガバナンスの最前線としての立ち位置 – RSAC 2026”

Menlo Security が提供する AI エージェント保護のプラットフォーム:プロンプト・インジェクションの脅威に対応

Menlo Security Adds Platform to Secure AI Agents

2026/03/18 SecurityBoulevard — 2026年3月19日に Menlo Security が発表したのは、ブラウザ上で動作する (AI) エージェントを保護するための Browser Security Platform である。それにより、クラウドベース環境へのアクセスと、アプリケーションへのセキュアな接続が可能になる。

Continue reading “Menlo Security が提供する AI エージェント保護のプラットフォーム:プロンプト・インジェクションの脅威に対応”

Gartner が予測する 2028年のセキュリティ:AI アプリがインシデント対応の半分を占める

AI Issues Will Drive Half of Incident Response Efforts by 2028, Says Gartner

2026/03/18 infosecurity — セキュリティ・チームがプロジェクト初期段階から関与しない限り、カスタム構築された AI アプリケーションにより、今後の数年間にわたり大きな問題が引き起こされると Gartner は警告した。2028年の時点では、エンタープライズにおけるインシデント対応の少なくとも半分が、AI アプリに関連するセキュリティ問題の影響対応に費やされると、同社のアナリストは予測している。

Continue reading “Gartner が予測する 2028年のセキュリティ:AI アプリがインシデント対応の半分を占める”

CrowdStrike と NVIDIA の AI アライアンス:MDR への AI エージェントの導入と Secure-by-Design

CrowdStrike Extends Agentic AI Alliance with NVIDIA

2026/03/16 SecurityBoulevard — CrowdStrike が発表したのは、NVIDIA が提供するツールキットの活用と、Managed Detection and Response (MDR) サービスへの AI エージェントの導入である。それと同時に CrowdStrike は、NVIDIA と共同で構築した Secure-by-Design AI Blueprint を、オープンソース・ランタイム NVIDIA OpenShell に統合することで、AI エージェントのポリシー・ベースのガードレールへの容易な適用を促進していくと発表した。さらに、この Blueprint を、すべてのサイバー・セキュリティ・プラットフォーム/サービスへ統合する方針を明確にした。

Continue reading “CrowdStrike と NVIDIA の AI アライアンス:MDR への AI エージェントの導入と Secure-by-Design”

AWS Bedrock AI Code Interpreter の脆弱性 CVE-N/A:DNS を介したプロンプト・インジェクション

Researchers Find Data Leak Risk in AWS Bedrock AI Code Interpreter

2026/03/16 hackread — Amazon Web Services (AWS) のツールに存在する脆弱性 CVE-N/A (CVSS:7.5) を悪用する脅威アクターが、企業の機密データを窃取する可能性があることを、サイバー・セキュリティ研究者たちが明らかにした。ID セキュリティ企業 BeyondTrust の研究部門 Phantom Labs により実施された調査の対象は、AWS Bedrock AgentCore Code Interpreter である。

Continue reading “AWS Bedrock AI Code Interpreter の脆弱性 CVE-N/A:DNS を介したプロンプト・インジェクション”

Hive0163 が AI 生成マルウェア Slopoly を実戦投入:攻撃チェーンの変化と実態とリスク

IBM Discovers ‘Slopoly’ AI-Generated Malware Linked to Hive0163 Ransomware

2026/03/16 gbhackers — AI により生成されたと思われるマルウェア・フレームワーク “Slopoly” を、実験的に使用するランサムウェア・グループ Hive0163 は、AI 支援ツールを活用する攻撃形態へと移行を進めている。このマルウェア自体は比較的単純であるが、Large Language Model (LLM) を用いる脅威アクターが、カスタム Command-and-Control (C2) クライアントを迅速に生成/改良する可能性を示している。

Continue reading “Hive0163 が AI 生成マルウェア Slopoly を実戦投入:攻撃チェーンの変化と実態とリスク”

OpenClaw AI Agent の問題:安全ではないデフォルト設定とプロンプト・インジェクションの脆弱性

OpenClaw AI Agents Vulnerable to Indirect Prompt Injection, Causing Data Leaks

2026/03/16 gbhackers — OpenClaw AI エージェントが CNCERT から受けた警告は、安全ではないデフォルト設定とプロンプト・インジェクションの脆弱性に関するものであり、深刻なセキュリティ検証の対象となるべきものである。防御側にとって、最も深刻なリスクは単なるモデルの混乱ではない。通常の AI エージェントの動作が、データ流出パイプラインへと静かに変換される点である。コンテンツ由来の操作が、深刻な運用セキュリティ・インシデントへと急速に発展する、新たな問題を示している。

Continue reading “OpenClaw AI Agent の問題:安全ではないデフォルト設定とプロンプト・インジェクションの脆弱性”

AI エージェントが企業ネットワークを攻撃:機密データ流出や認証情報偽造のリスクとは?

AI Agents Present ‘Insider Threat’ as Rogue Behaviors Bypass Cyber Defenses: Study

2026/03/15 SecurityBoulevard — 企業を効率化させるフロンティアとして期待される人工知能 (AI) エージェントだが、従来のサイバー・セキュリティを無力化しかねない、虚偽的で逸脱した行動を示し始めている。最新の研究によると、それらの自律システムは、機密データを密かに流出させ、認証情報を偽造しているという。さらには、他の AI に圧力をかけて、安全プロトコルの回避を促す能力を持つことも確認されている。

Continue reading “AI エージェントが企業ネットワークを攻撃:機密データ流出や認証情報偽造のリスクとは?”

LangSmith の脆弱性 CVE-2026-25750 が FIX:API 設定不備とセッション情報の流出

Critical LangSmith Account Takeover Vulnerability Puts Users at Risk

2026/03/14 CyberSecurityNews — LangSmith に存在する深刻な脆弱性 CVE-2026-25750 を、Miggo Security の研究者たちが発見した。この脆弱性を悪用する攻撃者は、トークン窃取や完全なアカウント乗っ取りを引き起こす可能性がある。LangSmith は大規模言語モデルデータのデバッグおよび監視の中核プラットフォームとして機能し、毎日数十億件のイベントを処理する。そのため、この欠陥は、エンタープライズ AI 環境にとって極めて深刻なセキュリティ問題を引き起こす。

Continue reading “LangSmith の脆弱性 CVE-2026-25750 が FIX:API 設定不備とセッション情報の流出”

クラウド侵害の 83% は ID 攻撃から始まる:事態を悪化させる NHI と AI の遭遇

83% of Cloud Breaches Start with Identity, AI Agents Are About to Make it Worse

2026/03/12 SecurityBoulevard — Google の “H1 2026 Cloud Threat Horizons Report” は、Google Threat Intelligence Group/Mandiant Incident Response/Office of the CISO が共同で作成したものであり、長年にわたりセキュリティ・リーダーたちが懸念してきた現実を明確に示している。脅威の環境は単に進化しているだけではなく、過去 20 年間に構築されたツールや組織的な対応能力を超えるスピードで加速している。このレポートの 3 つの主題を総合すると、それぞれの企業が見直すべきは、アイデンティティ管理/AI 管理/防御アーキテクチャの根本的な設計にあることが見えてくる。

Continue reading “クラウド侵害の 83% は ID 攻撃から始まる:事態を悪化させる NHI と AI の遭遇”

Microsoft Copilot の脆弱性 CVE-2026-26133 が FIX:Email/Teams 要約を介したフィッシング

Microsoft Copilot Email and Teams Summarization Vulnerability Enables Phishing Attacks

2026/03/12 CyberSecurityNews — AI アシスタントにより、日常の業務が急速に変革されている。それにより、大量のメール・インボックス管理/クライアント・コミュニケーション/インシデント・レスポンスを担当するチームの作業が効率化されている。Microsoft Copilot のようなツールが、日常のワークフローに直接統合され、Microsoft 365 エコシステム全体からコンテキストを取得しながら、メールやミーティングの内容を要約する。しかし、多くの組織が防御準備を整えていないため、この利便性による新たなセキュリティ境界の問題が生じている。

Continue reading “Microsoft Copilot の脆弱性 CVE-2026-26133 が FIX:Email/Teams 要約を介したフィッシング”

AI 駆動の環境適応型マルウェア:オンデマンドで悪意のコードやコマンドを生成 – Google 調査

Google Warns of AI‑Driven Adaptive Malware Rewriting Its Own Code

2026/03/11 gbhackers — 2025年の脅威アクターたちは、人工知能の試験的利用から実運用への本格統合へと移行し、サイバー・セキュリティの状況を大きく変化させている。Google Threat Intelligence Group (GTIG) と Mandiant の新たな分析によると、いまの攻撃者たちは、動的に挙動を変更する適応型マルウェアや、自律型 AI エージェントを展開している。それにより、サイバー脅威の速度/規模/複雑性が著しく増大している。

Continue reading “AI 駆動の環境適応型マルウェア:オンデマンドで悪意のコードやコマンドを生成 – Google 調査”

Anthropic が米国政府を訴えた:サプライチェーン・リスク指定の撤回と大統領権限の逸脱を主張

Anthropic Sued the U.S. Government for Labelling Claude as ‘Supply Chain Risk’

2026/03/10 CyberSecurityNews — 人工知能分野の企業である Anthropic は、米国政府による “サプライチェーン・リスク指定” を受け、前例のない訴訟を提起した。この訴訟は、3月9日 (月) にカリフォルニア州連邦裁判所へ提出され、ドナルド・トランプ政権と、ピート・ヘグセス国防長官、そして 16 の連邦機関を相手取るものである。

Continue reading “Anthropic が米国政府を訴えた:サプライチェーン・リスク指定の撤回と大統領権限の逸脱を主張”

AI ツールを装う Chrome エクステンション:企業データを大量収集していると Microsoft が警告

Microsoft: Fake AI Extensions Breached Chat Histories in 20,000+ Enterprise Tenants

2026/03/09 gbhackers ‐‐‐ 正規の AI アシスタント・ツールを装う、悪意の Chromium ベースのブラウザ・エクステンションの大規模な配布を、Microsoft が確認し、警告を発している。ChatGPT や DeepSeek に関連する一連のエクステンションは、Chrome Web Store で公開され、Google Chrome/Microsoft Edge の両方に対応している。しかし実際には、ブラウザ内の機密データおよび AI チャット内容を秘密裏に収集するものである。

Continue reading “AI ツールを装う Chrome エクステンション:企業データを大量収集していると Microsoft が警告”

API と AI のセキュリティ相関性:長年にわたり放置されてきた弱点が AI の拡大により露呈

Report Surfaces Higher Correlation Between API and AI Security

2026/03/09 SecurityBoulevard — Wallarm の “2026 API ThreatStats Report” によると、2025年に公開された 67,058件の脆弱性を分析した結果として、11,053件 (17%) が API (Application Programming Interface) に関連していたことが判明した。また、CISA が管理する Known Exploited Vulnerabilities (KEV) カタログに、2025年を通じて追加された脆弱性の 43% が API 関連であったことも、このレポートは指摘している。

Continue reading “API と AI のセキュリティ相関性:長年にわたり放置されてきた弱点が AI の拡大により露呈”

Transparent Tribe の “vibeware”:AI 支援により大量生産されるマルウェアの脅威とは?

Transparent Tribe’s ‘Vibeware’ Move Points to AI-Made Malware at Scale

2026/03/09 gbhackers — Transparent Tribe (APT36) は、従来の既製ツール中心の運用から、“vibeware” と呼ばれる AI 支援型のマルウェア・モデルへ移行している。この現象が示すのは、LLM による低洗練度の持続的な攻撃が、産業規模で生み出される段階に入ったことだ。インドの政府機関や大使館などに対する最近のキャンペーンで、このグループは AI 主導の開発パイプラインへ移行し、複数の言語で書かれた使い捨て型インプラントを継続的に生成している。

Continue reading “Transparent Tribe の “vibeware”:AI 支援により大量生産されるマルウェアの脅威とは?”

OpenAI が Codex Security を正式発表:脆弱性の発見/検証/修復を自動化するセキュリティ AI

OpenAI’s Codex Security Built to Automate Vulnerability Discovery and Remediation

2026/03/07 gbhackers — OpenAI が正式に発表したのは、脆弱性の発見と修復の自動化を目的とする、高度なアプリケーション・セキュリティ・エージェント Codex Security である。これまでは、Aardvark として知られていたツールであり、現在はリサーチ・プレビュー版として提供されている。 最先端の AI モデルと自動検証を組み合わせることで、手動によるセキュリティ・レビューのボトルネックを解消し、トリアージ・ノイズを大幅に削減することを目的としている。これにより、開発チームによる安全なコードの出荷/リリースが迅速に行われるようになる。

Continue reading “OpenAI が Codex Security を正式発表:脆弱性の発見/検証/修復を自動化するセキュリティ AI”

米国における AI と EC-Council:人材の準備を目的とする AI 認定ポートフォリオの拡大

EC-Council Expands AI Certification Portfolio to Strengthen U.S. AI Workforce Readiness and Security

2026/03/06 BleepingComputer — AI によるリスクは、グローバルで $5.5 trillion 規模と推定され、米国では 70万人の再教育が必要とされている。その一方で、AI 導入と人材準備のギャップ解消を目的として、4つの新たな AI 資格と Certified CISO v4 が注目を集めている。Certified Ethical Hacker (CEH) の開発元であり、実践的なサイバー・セキュリティ教育の世界的リーダーである EC-Council が、Enterprise AI Credential Suite を発表した。それと同時に、4つの新しいロールベース AI 資格と、刷新されたエグゼクティブ向けプログラム Certified CISO v4 も公開した。

Continue reading “米国における AI と EC-Council:人材の準備を目的とする AI 認定ポートフォリオの拡大”

Claude AI が発見した Firefox の脆弱性 22 件:2 週間にわたる Mozilla との共同検証の成果とは?

Claude AI Uncovers 22 Firefox Vulnerabilities in Two Weeks

2026/03/06 CyberSecurityNews — 人工知能モデルは単純なコード補助ツールから、自律型の高度な脆弱性研究者へと急速に進化している。最近の Anthropic Claude Opus 4.6 は、厳しく監査されてきたはずのオープンソース・プロジェクトにおいて、500 件を超えるゼロデイ脆弱性を発見した。その一環として、2026年2月の 2 週間をかけて Mozilla と Anthropic が共同で実施した検証では、Firefox に存在していた 22 件のセキュリティ欠陥が Claude Opus 4.6 により特定されている。Mozilla は、そのうち 14 件を高深刻度と分類したが、この件数は、2025年に修正された Firefox の高深刻度脆弱性の約 20% に相当する。

Continue reading “Claude AI が発見した Firefox の脆弱性 22 件:2 週間にわたる Mozilla との共同検証の成果とは?”

AI による侵害の自動化:労力と成果のバランスを攻撃側と防御側で比較

New Threat Report: AI Accelerates High-Velocity Cyber Attacks

2026/03/04 gbhackers — サイバー攻撃の入口は、侵入からログインへと移行している。AI が高速作戦を自動化し、人間の防御能力を圧倒している状況が、現在のトレンドである。Cloudforce One が定義する MOE (Measure of Effectiveness) は、投入労力に対する作戦成果を冷徹に比較する指標である。現代の脅威アクターたちは、キャンペーンの各段階において、最適化された MOE を中心に活動している。

Continue reading “AI による侵害の自動化:労力と成果のバランスを攻撃側と防御側で比較”

AI Agent は ID ダークマター or チームメイト?低摩擦経路を探索する MCP の特性から考える

AI Agents: The Next Wave Identity Dark Matter – Powerful, Invisible, and Unmanaged

2026/03/03 thehackernews — Model Context Protocol (MCP) は、LLM を単なるチャットから実務遂行へと拡張する、実用的な手段として急速に普及している。アプリケーション/API/データへの構造化されたアクセスを提供する MCP は、プロンプト駆動型 AI Agent を実現する。それにより実現するのは、情報取得/アクション実行/End-to-End の業務ワークフローの、エンタープライズ全体での自動化である。

Continue reading “AI Agent は ID ダークマター or チームメイト?低摩擦経路を探索する MCP の特性から考える”

Perplexity AI Browser の脆弱性 CVE-N/A が FIX:カレンダーから間接的プロンプト・インジェクション

Zenity Details Perplexity AI Browser Vulnerability

2026/03/03 SecurityBoulevard — Perplexity が開発した Comet AI ブラウザに対して、ゼロクリック攻撃が可能であることを Zenity が詳述している。同社は、AI アプリケーションと AI エージェントのセキュリティを確保するための、プラットフォームを提供する企業である。Zenity の CTO である Michael Bargury によると、PerplexedComet と命名された攻撃ベクターを悪用する攻撃者は、コンテンツの制御を可能にするという。その結果、接続されたツール/ワークフロー全体において、自律的な動作が引き起こされる恐れがある。

Continue reading “Perplexity AI Browser の脆弱性 CVE-N/A が FIX:カレンダーから間接的プロンプト・インジェクション”

Microsoft/DataDog 標的の CI/CD 攻撃キャンペーン:Hackerbot-claw が GitHub Actions を悪用

Hackerbot-Claw Bot Exploits GitHub Actions CI/CD Flaw to Attack Microsoft and DataDog

2026/03/03 gbhackers — 自律型 AI ボット Hackerbot-claw は、Microsoft/DataDog などの主要オープンソースプロジェクトの CI/CD パイプラインを標的として、GitHub Actions のミスコンフィグを悪用する 1 週間の攻撃キャンペーンを展開した。その結果、複数のケースでリモートコード実行 (RCE) が達成され、リポジトリ全体の完全侵害に至るケースも確認された。この攻撃が浮き彫りにするのは、安全でない pull_request_target ワークフローおよびシェル補間バグが、日常的な自動化をサプライチェーン・バックドアへと転換させてしまう危険性である。

Continue reading “Microsoft/DataDog 標的の CI/CD 攻撃キャンペーン:Hackerbot-claw が GitHub Actions を悪用”

OpenVSX 上の悪意の Aqua Trivy:AI プロンプトを介してローカル開発環境を侵害

Threat Actors Exploit OpenVSX Aqua Trivy with Malicious AI Prompts to Hijack Local Coding Tools

2026/03/03 CyberSecurityNews — 2026年3月2日に、開発者を標的とするサプライチェーン攻撃が発覚した。OpenVSX レジストリ上で公開される Aqua Security の Trivy VS Code エクステンションの、2 つのバージョンに不正コードが混入していたことが判明した。侵害されたバージョンは 1.8.12/1.8.13 であり、それぞれが 2026年2月27日/28日の時点で、aquasecurityofficial.trivy-vulnerability-scanner ネームスペース下へアップロードされていた。

Continue reading “OpenVSX 上の悪意の Aqua Trivy:AI プロンプトを介してローカル開発環境を侵害”

イラン戦争における Anthropic と米軍:Claude で実施された作戦と OpenAI の動き

US Military Reportedly Used Claude in Iran Strikes Despite Trump’s Ban

2026/03/02 CyberSecurityNews — 米国国防総省は、2月28日に実施されたイスラエルとの共同攻勢 Operation Epic Fury において、Anthropic の Claude AI を使用した。トランプ大統領が、Anthropic を国家安全保障上のサプライチェーン・リスクに指定し、すべての連邦機関に対して同社の AI システムの使用停止を命じたわずか数時間後に、この作戦は実施された。

Continue reading “イラン戦争における Anthropic と米軍:Claude で実施された作戦と OpenAI の動き”

米政府が Anthropic AI を BAN:Claude への完全かつ無制限のアクセスを巡り決裂

Trump Bans Anthropic AI in Federal Agencies — Pentagon Flags Claude as Security Risk

2026/02/28 CyberSecurityNews — 米国政府は、すべての連邦政府機関に対して、Anthropic の AI モデル Claude の使用を直ちに停止させるという前例のない措置を講じた。さらに同社を、国家安全保障上のサプライチェーン・リスクであると正式に指定したが、歴史的に見て、このような措置は Huawei などの外国の敵対勢力に限定されてきた。

Continue reading “米政府が Anthropic AI を BAN:Claude への完全かつ無制限のアクセスを巡り決裂”

Google Cloud API Key の悪用:過剰な権限を巡る問題が Gemini により加速

Thousands of Public Google Cloud API Keys Exposed with Gemini Access After API Enablement

2026/02/28 TheHackerNews — Google Cloud API キーは、通常において課金用途のプロジェクト識別子として使用されるものであるが、新たな調査により、悪用される可能性があることが判明した。機密性の高い Gemini エンドポイントで認証した攻撃者が、非公開データへアクセスする恐れがある。この調査は、Truffle Security により実施されたものであり、クライアント側のコード内に埋め込まれた、約 3,000 件の Google API キー (接頭辞 AIza で識別) が発見された。同社は、Web サイト上の埋め込みマップなどの、Google 関連サービスを提供するために使用されていると述べている。

Continue reading “Google Cloud API Key の悪用:過剰な権限を巡る問題が Gemini により加速”

ChatGPT で悪意のキャンペーンを管理:中国由来の脅威アクターを OpenAI が追跡

OpenAI Confirms Chinese Hackers Used ChatGPT in Cyberattack Campaign

2026/02/26 gbhackers — OpenAI の最新の脅威レポート “Disrupting malicious uses of AI” が明らかにしたのは、中国と関連するオペレーターの広範なキャンペーンの一環として ChatGPT が悪用されていたことである。このキャンペーンは、サイバー作戦/オンライン嫌がらせ/秘匿的影響工作を組み合わせたものである。ChatGPT のモデル自体が、エクスプロイト作成やネットワーク侵入に直接使用されたわけではない。しかし、オンライン上において、批判者/反体制派/外国の政治関係者を標的とするオペレーションの計画/拡散に、繰り返し悪用されていた。

Continue reading “ChatGPT で悪意のキャンペーンを管理:中国由来の脅威アクターを OpenAI が追跡”

Kali Linux と Claude AI が統合:MCP が刷新するセキュリティ・テストの実行モデル

Kali Linux Introduces Claude AI for Automated Penetration Testing Using Model Context Protocol

2026/02/26 gbhackers — 新たな Kali Linux 実行手法により、攻撃的セキュリティの運用が進化していく。 Kali と Anthropic の Claude AI を、Model Context Protocol (MCP) 経由で統合することで、セキュリティ・アナリストは自然言語のみを用いたペンテスト・ツールの実行が可能になる。これにより、従来のターミナルによるコマンドライン実行を中心とする運用から、AI 支援型の LUI (Language User Interface) への移行が進んでいる。 コマンドライン実行は依然として標準であるが、この統合により、複雑なセキュリティ・ツールセットを扱うアナリストへの効率的な代替手段が提供される。 

Continue reading “Kali Linux と Claude AI が統合:MCP が刷新するセキュリティ・テストの実行モデル”

Claude の悪用によりメキシコ政府機関から 150GB を窃取:2025年12月に始まった AI 悪用インシデント

Hacker Jailbreaks Claude AI to Write Exploit Code and Steal Government Data

2026/02/26 CyberSecurityNews — Anthropic の Claude AI チャットボットを悪用するハッカーが、メキシコの政府機関の機密データを、2025年12月から約 1 ヶ月以上にわたり窃取していたことが判明した。このキャンペーンで実行された手法は、脆弱性特定/エクスプロイト・コード生成/データ流出である。持続的なプロンプティングにより、Claude のセキュリティ・ガードレールを回避した手法が、この侵害を発見したサイバーセキュリティ企業 Gambit Security により明らかにされた。

Continue reading “Claude の悪用によりメキシコ政府機関から 150GB を窃取:2025年12月に始まった AI 悪用インシデント”

AI がもたらす速度と代償:導入後のインシデント対応とコスト増について – Fastry

Survey Surfaces Increased Cybersecurity Risks Following AI Adoption

2026/02/25 SecurityBoulevard — 新たに公表された Fastly の The AI Speed Tax レポートは、2,000 名の IT 意思決定者を対象とする調査結果であり、AI アプリケーションの導入拡大に伴うサイバー・セキュリティ・リスクの上昇を示している。Fastly の委託により Sapio Research が実施した調査によると、AI を中核プロセスへ統合した組織で発生したセキュリティ・インシデントは、未導入組織と比較して 135% 増という高いコストを抱える。

Continue reading “AI がもたらす速度と代償:導入後のインシデント対応とコスト増について – Fastry”

Anthropic に Elon Musk が噛みつく:データ盗用と著作権侵害と偽善的な態度

Anthropic Facing Allegations from Musk Over Large‑Scale Data Misuse

2026/02/24 gbhackers — Elon Musk が Anthropic を公然と非難している。大規模なデータ盗用および偽善を行っていると、彼は主張する。先日に Anthropic が、中国系の AI モデルが同社の Claude から不正に学習データを抽出したと主張したが、Elon Musk の批判は、それに続くものである。

Continue reading “Anthropic に Elon Musk が噛みつく:データ盗用と著作権侵害と偽善的な態度”

OpenClaw 2026.2.23 がリリース:Strict-Transport-Security/Claude Opus 4.6 に対応

OpenClaw Releases 2026.2.23 Released With Security Updates and New AI features

2026/02/24 CyberSecurityNews — GitHub で 215,000 件超のスターを獲得している、オープンソース・パーソナル AI アシスタントの OpenClaw が、バージョン 2026.2.23 をリリースした。今回の更新では、高度な AI 統合に加えて、セキュリティ強化が重点的に実施されている。このアップデートでは、複数の脆弱性が対処されると同時に、Claude Opus 4.6 のサポートなどの新機能が導入された。macOS/Windows/Linux 環境でローカル AI ゲートウェイを展開する、プライバシー重視ユーザーにとって、タイムリーな強化である。

Continue reading “OpenClaw 2026.2.23 がリリース:Strict-Transport-Security/Claude Opus 4.6 に対応”

Anthropic Claude を狙う協調的キャンペーン:1,600 万回超のインタラクションを発生させた中国 AI

Anthropic Claude Under Large Scale Distillation Attacks By Chinese AI Labs with 13 Million Exchanges

2026/02/23 CyberSecurityNews — Anthropic が主張するのは、DeepSeek/Moonshot AI/MiniMax の 3 社が、同社 Claude モデルから高度な能力を窃取するために、協調的な蒸留 (Distillation) キャンペーンを実行したという件である。サンフランシスコ拠点の同社によると、このオペレーションは約 24,000 件の不正アカウントを介して実行され、Claude との 1,600 万回超のインタラクションを発生させた。これは利用規約 (ToS:Terms of Service) に違反し、リージョナル・アクセス制限を回避する行為である。

Continue reading “Anthropic Claude を狙う協調的キャンペーン:1,600 万回超のインタラクションを発生させた中国 AI”

SuperClaw は Red-Team フレームワーク:自律型 AI コーディング・エージェントに特化

SuperClaw – Open-Source Framework to Red-Team AI Agents for Security Testing

2026/02/21 CyberSecurityNews — Superagentic AI が公開したのは、自律型 AI コーディング・エージェント向けに特化した、オープンソースの事前デプロイ・セキュリティテスト・フレームワーク SuperClaw である。2025 年後半に発表された SuperClaw は、エンタープライズ AI 導入に伴い拡大していく盲点へ対応するものだ。広範なツールへの高権限のアクセスを持つ AI エージェントが、日常的にデプロイされているにもかかわらず、数多くの組織において、本番稼働前の体系的セキュリティ検証が省略されている。

Continue reading “SuperClaw は Red-Team フレームワーク:自律型 AI コーディング・エージェントに特化”

FortiGate のデバイス 600+ 台を侵害:AI による攻撃チェーンが生み出す量の世界

Hackers Leveraging Multiple AI Services to Compromise 600+ FortiGate Devices

2026/02/21 CyberSecurityNews — 2026年01月11日から02月18日にかけて、金銭目的の脅威アクターが複数の商用 GenAI サービスを武器化し、55 カ国以上に分散する 600 台以上の FortiGate デバイスを侵害した。このキャンペーンが示すのは、攻撃的サイバー作戦における技術的な参入障壁が、AI により大幅に低減されているという、決定的な事例である。従来は、大規模かつ高技能なチームを必要としていた規模の攻撃を、低〜中程度の技能を持つ、個人または小規模グループが実行できることが明らかになった。

Continue reading “FortiGate のデバイス 600+ 台を侵害:AI による攻撃チェーンが生み出す量の世界”

Anthropic が Claude Code Security を立ち上げ:AI 駆動のコード・スキャンを提供

Anthropic Launches Claude Code Security to Scan Codebases for Security Vulnerabilities

2026/02/21 CyberSecurityNews — Claude Code 内の新機能である、Claude Code Security を活用する開発者やセキュリティ・チームは、コードベース全体の脆弱性の特定と修復が可能となる。限定的なリサーチ・プレビューとして提供されている Claude Code Security は、AI 駆動のコード・スキャンを提供するものだ。静的な解析は、コードとして記述された内容のみを確認するものである。それに対して、この機能はコードの実際の動作を理解するため、脆弱性に対する新たな分析が提供される。

Continue reading “Anthropic が Claude Code Security を立ち上げ:AI 駆動のコード・スキャンを提供”

GenAI がもたらす生産性と情報漏洩:エンタープライズ・セキュリティの転換期になるのか?

GenAI Has Become the Biggest Data-Exposure Risk in Enterprise History

2026/02/20 InfoSecurity — さまざまな組織の多数の従業員たちが、単なる回答を得るだけではなく、文書の要約/コンテンツ作成/データセット分析/コード作成などにおいて、GenAI による支援を受けている。それらは、有用なアシスタントであり、日常業務に組み込まれている。しかし、いま明らかになってきたのは、この変化がもたらすセキュリティへの影響である。GenAI の利用が加速するにつれて、それらを通過する機密情報の量も増大している。その結果、GenAI 関連のデータ露出インシデントは、前年同期と比べて約 5 倍に増加し、これまでの組織が直面したことのない規模と速度の情報漏洩を生み出している。

Continue reading “GenAI がもたらす生産性と情報漏洩:エンタープライズ・セキュリティの転換期になるのか?”

Abstract Security が立ち上げた AI SIEM:AI による攻撃に AI で対抗する

Abstract Security Launches AI SIEM Platform to Analyze Threats In Real Time

2026/02/19 SecurityBoulevard — 2月19日に Abstract Security は、AI を活用することで、ほぼリアルタイムに脅威を可視化するモジュール型の Security Information and Event Management (SIEM) プラットフォームを、製品ポートフォリオへ追加した。同社 CEO である Colby DeRodeff によると、AI-Gen Composable SIEM を活用するサイバー・セキュリティ・チームは、AI プラットフォームへ向けて、収集されたデータを継続的にストリーミングできるようになる。このプラットフォームは、エージェントをネイティブに活用し、脅威の検知/トリアージ/調査/対応を実行するようデザインされている。

Continue reading “Abstract Security が立ち上げた AI SIEM:AI による攻撃に AI で対抗する”

OpenClaw AI フレームワーク v2026.2.17 がリリース:Anthropic モデルをサポート

OpenClaw AI Framework v2026.2.17 Adds Anthropic Model Support Amid Credential Theft Bug Concerns

2026/02/18 gbhackers — 2026年初頭に広く採用され始めた OpenClaw は、オープンソースの自律型 AI アシスタントである。そのプロジェクトが、2026年02月17日にバージョン v2026.2.17 を公開した。今回のリリースでは、Anthropic の最新モデル Claude Sonnet 4.6 のサポートが追加された。OpenClaw コンフィグ・ファイルを標的とするインフォスティーラーが、クレデンシャル窃取を行っていることが研究者により確認され、セキュリティ懸念が高まる中で、今回の新バージョンがリリースされた。

Continue reading “OpenClaw AI フレームワーク v2026.2.17 がリリース:Anthropic モデルをサポート”

AI セキュリティの問題:最小権限の ID 原則を導入すればリスクが激減する?

Over-Privileged AI Drives 4.5 Times Higher Incident Rates

2026/02/17 InfoSecurity — 最新レポート “2026 State of AI in Enterprise Infrastructure Security” を作成するにあたり Teleport が実施したのは、米国のインフラ・セキュリティ責任者 200人以上を対象にした調査である。このレポートにおける “インフラに内在する AI” の定義には、AI 搭載ワークロード/エージェント型システム/マシン-to-マシン通信/ChatOps/コンプライアンス自動化/インシデント検知などが含まれる。

Continue reading “AI セキュリティの問題:最小権限の ID 原則を導入すればリスクが激減する?”

Microsoft Teams における AI ワークフローの活用:Microsoft 365 Copilot でタスクを自動化

Microsoft Teams Leverages AI Workflows with Microsoft 365 Copilot for Task Automation

2026/02/17 gbhackers — Microsoft が公表したのは、Teams Workflows アプリに AI Workflows を導入し、Microsoft 365 Copilot により自動化された、インテリジェント機能に関する提供の開始である。これにより、日常業務の効率化および複雑なタスクの自動化が可能となる。この機能は、あらかじめ定義されたテンプレートを通じて、スケジュールされた Copilot プロンプトを使用し、ユーザーによる自動化環境の容易な構築をサポートする。

Continue reading “Microsoft Teams における AI ワークフローの活用:Microsoft 365 Copilot でタスクを自動化”