CrowdStrike と NVIDIA の AI アライアンス:MDR への AI エージェントの導入と Secure-by-Design

CrowdStrike Extends Agentic AI Alliance with NVIDIA

2026/03/16 SecurityBoulevard — CrowdStrike が発表したのは、NVIDIA が提供するツールキットの活用と、Managed Detection and Response (MDR) サービスへの AI エージェントの導入である。それと同時に CrowdStrike は、NVIDIA と共同で構築した Secure-by-Design AI Blueprint を、オープンソース・ランタイム NVIDIA OpenShell に統合することで、AI エージェントのポリシー・ベースのガードレールへの容易な適用を促進していくと発表した。さらに、この Blueprint を、すべてのサイバー・セキュリティ・プラットフォーム/サービスへ統合する方針を明確にした。

Continue reading “CrowdStrike と NVIDIA の AI アライアンス:MDR への AI エージェントの導入と Secure-by-Design”

AWS Bedrock AI Code Interpreter の脆弱性 CVE-N/A:DNS を介したプロンプト・インジェクション

Researchers Find Data Leak Risk in AWS Bedrock AI Code Interpreter

2026/03/16 hackread — Amazon Web Services (AWS) のツールに存在する脆弱性 CVE-N/A (CVSS:7.5) を悪用する脅威アクターが、企業の機密データを窃取する可能性があることを、サイバー・セキュリティ研究者たちが明らかにした。ID セキュリティ企業 BeyondTrust の研究部門 Phantom Labs により実施された調査の対象は、AWS Bedrock AgentCore Code Interpreter である。

Continue reading “AWS Bedrock AI Code Interpreter の脆弱性 CVE-N/A:DNS を介したプロンプト・インジェクション”

Hive0163 が AI 生成マルウェア Slopoly を実戦投入:攻撃チェーンの変化と実態とリスク

IBM Discovers ‘Slopoly’ AI-Generated Malware Linked to Hive0163 Ransomware

2026/03/16 gbhackers — AI により生成されたと思われるマルウェア・フレームワーク “Slopoly” を、実験的に使用するランサムウェア・グループ Hive0163 は、AI 支援ツールを活用する攻撃形態へと移行を進めている。このマルウェア自体は比較的単純であるが、Large Language Model (LLM) を用いる脅威アクターが、カスタム Command-and-Control (C2) クライアントを迅速に生成/改良する可能性を示している。

Continue reading “Hive0163 が AI 生成マルウェア Slopoly を実戦投入:攻撃チェーンの変化と実態とリスク”

OpenClaw AI Agent の問題:安全ではないデフォルト設定とプロンプト・インジェクションの脆弱性

OpenClaw AI Agents Vulnerable to Indirect Prompt Injection, Causing Data Leaks

2026/03/16 gbhackers — OpenClaw AI エージェントが CNCERT から受けた警告は、安全ではないデフォルト設定とプロンプト・インジェクションの脆弱性に関するものであり、深刻なセキュリティ検証の対象となるべきものである。防御側にとって、最も深刻なリスクは単なるモデルの混乱ではない。通常の AI エージェントの動作が、データ流出パイプラインへと静かに変換される点である。コンテンツ由来の操作が、深刻な運用セキュリティ・インシデントへと急速に発展する、新たな問題を示している。

Continue reading “OpenClaw AI Agent の問題:安全ではないデフォルト設定とプロンプト・インジェクションの脆弱性”

AI エージェントが企業ネットワークを攻撃:機密データ流出や認証情報偽造のリスクとは?

AI Agents Present ‘Insider Threat’ as Rogue Behaviors Bypass Cyber Defenses: Study

2026/03/15 SecurityBoulevard — 企業を効率化させるフロンティアとして期待される人工知能 (AI) エージェントだが、従来のサイバー・セキュリティを無力化しかねない、虚偽的で逸脱した行動を示し始めている。最新の研究によると、それらの自律システムは、機密データを密かに流出させ、認証情報を偽造しているという。さらには、他の AI に圧力をかけて、安全プロトコルの回避を促す能力を持つことも確認されている。

Continue reading “AI エージェントが企業ネットワークを攻撃:機密データ流出や認証情報偽造のリスクとは?”

LangSmith の脆弱性 CVE-2026-25750 が FIX:API 設定不備とセッション情報の流出

Critical LangSmith Account Takeover Vulnerability Puts Users at Risk

2026/03/14 CyberSecurityNews — LangSmith に存在する深刻な脆弱性 CVE-2026-25750 を、Miggo Security の研究者たちが発見した。この脆弱性を悪用する攻撃者は、トークン窃取や完全なアカウント乗っ取りを引き起こす可能性がある。LangSmith は大規模言語モデルデータのデバッグおよび監視の中核プラットフォームとして機能し、毎日数十億件のイベントを処理する。そのため、この欠陥は、エンタープライズ AI 環境にとって極めて深刻なセキュリティ問題を引き起こす。

Continue reading “LangSmith の脆弱性 CVE-2026-25750 が FIX:API 設定不備とセッション情報の流出”

クラウド侵害の 83% は ID 攻撃から始まる:事態を悪化させる NHI と AI の遭遇

83% of Cloud Breaches Start with Identity, AI Agents Are About to Make it Worse

2026/03/12 SecurityBoulevard — Google の “H1 2026 Cloud Threat Horizons Report” は、Google Threat Intelligence Group/Mandiant Incident Response/Office of the CISO が共同で作成したものであり、長年にわたりセキュリティ・リーダーたちが懸念してきた現実を明確に示している。脅威の環境は単に進化しているだけではなく、過去 20 年間に構築されたツールや組織的な対応能力を超えるスピードで加速している。このレポートの 3 つの主題を総合すると、それぞれの企業が見直すべきは、アイデンティティ管理/AI 管理/防御アーキテクチャの根本的な設計にあることが見えてくる。

Continue reading “クラウド侵害の 83% は ID 攻撃から始まる:事態を悪化させる NHI と AI の遭遇”

Microsoft Copilot の脆弱性 CVE-2026-26133 が FIX:Email/Teams 要約を介したフィッシング

Microsoft Copilot Email and Teams Summarization Vulnerability Enables Phishing Attacks

2026/03/12 CyberSecurityNews — AI アシスタントにより、日常の業務が急速に変革されている。それにより、大量のメール・インボックス管理/クライアント・コミュニケーション/インシデント・レスポンスを担当するチームの作業が効率化されている。Microsoft Copilot のようなツールが、日常のワークフローに直接統合され、Microsoft 365 エコシステム全体からコンテキストを取得しながら、メールやミーティングの内容を要約する。しかし、多くの組織が防御準備を整えていないため、この利便性による新たなセキュリティ境界の問題が生じている。

Continue reading “Microsoft Copilot の脆弱性 CVE-2026-26133 が FIX:Email/Teams 要約を介したフィッシング”

AI 駆動の環境適応型マルウェア:オンデマンドで悪意のコードやコマンドを生成 – Google 調査

Google Warns of AI‑Driven Adaptive Malware Rewriting Its Own Code

2026/03/11 gbhackers — 2025年の脅威アクターたちは、人工知能の試験的利用から実運用への本格統合へと移行し、サイバー・セキュリティの状況を大きく変化させている。Google Threat Intelligence Group (GTIG) と Mandiant の新たな分析によると、いまの攻撃者たちは、動的に挙動を変更する適応型マルウェアや、自律型 AI エージェントを展開している。それにより、サイバー脅威の速度/規模/複雑性が著しく増大している。

Continue reading “AI 駆動の環境適応型マルウェア:オンデマンドで悪意のコードやコマンドを生成 – Google 調査”

Anthropic が米国政府を訴えた:サプライチェーン・リスク指定の撤回と大統領権限の逸脱を主張

Anthropic Sued the U.S. Government for Labelling Claude as ‘Supply Chain Risk’

2026/03/10 CyberSecurityNews — 人工知能分野の企業である Anthropic は、米国政府による “サプライチェーン・リスク指定” を受け、前例のない訴訟を提起した。この訴訟は、3月9日 (月) にカリフォルニア州連邦裁判所へ提出され、ドナルド・トランプ政権と、ピート・ヘグセス国防長官、そして 16 の連邦機関を相手取るものである。

Continue reading “Anthropic が米国政府を訴えた:サプライチェーン・リスク指定の撤回と大統領権限の逸脱を主張”

AI ツールを装う Chrome エクステンション:企業データを大量収集していると Microsoft が警告

Microsoft: Fake AI Extensions Breached Chat Histories in 20,000+ Enterprise Tenants

2026/03/09 gbhackers ‐‐‐ 正規の AI アシスタント・ツールを装う、悪意の Chromium ベースのブラウザ・エクステンションの大規模な配布を、Microsoft が確認し、警告を発している。ChatGPT や DeepSeek に関連する一連のエクステンションは、Chrome Web Store で公開され、Google Chrome/Microsoft Edge の両方に対応している。しかし実際には、ブラウザ内の機密データおよび AI チャット内容を秘密裏に収集するものである。

Continue reading “AI ツールを装う Chrome エクステンション:企業データを大量収集していると Microsoft が警告”

API と AI のセキュリティ相関性:長年にわたり放置されてきた弱点が AI の拡大により露呈

Report Surfaces Higher Correlation Between API and AI Security

2026/03/09 SecurityBoulevard — Wallarm の “2026 API ThreatStats Report” によると、2025年に公開された 67,058件の脆弱性を分析した結果として、11,053件 (17%) が API (Application Programming Interface) に関連していたことが判明した。また、CISA が管理する Known Exploited Vulnerabilities (KEV) カタログに、2025年を通じて追加された脆弱性の 43% が API 関連であったことも、このレポートは指摘している。

Continue reading “API と AI のセキュリティ相関性:長年にわたり放置されてきた弱点が AI の拡大により露呈”

Transparent Tribe の “vibeware”:AI 支援により大量生産されるマルウェアの脅威とは?

Transparent Tribe’s ‘Vibeware’ Move Points to AI-Made Malware at Scale

2026/03/09 gbhackers — Transparent Tribe (APT36) は、従来の既製ツール中心の運用から、“vibeware” と呼ばれる AI 支援型のマルウェア・モデルへ移行している。この現象が示すのは、LLM による低洗練度の持続的な攻撃が、産業規模で生み出される段階に入ったことだ。インドの政府機関や大使館などに対する最近のキャンペーンで、このグループは AI 主導の開発パイプラインへ移行し、複数の言語で書かれた使い捨て型インプラントを継続的に生成している。

Continue reading “Transparent Tribe の “vibeware”:AI 支援により大量生産されるマルウェアの脅威とは?”

OpenAI が Codex Security を正式発表:脆弱性の発見/検証/修復を自動化するセキュリティ AI

OpenAI’s Codex Security Built to Automate Vulnerability Discovery and Remediation

2026/03/07 gbhackers — OpenAI が正式に発表したのは、脆弱性の発見と修復の自動化を目的とする、高度なアプリケーション・セキュリティ・エージェント Codex Security である。これまでは、Aardvark として知られていたツールであり、現在はリサーチ・プレビュー版として提供されている。 最先端の AI モデルと自動検証を組み合わせることで、手動によるセキュリティ・レビューのボトルネックを解消し、トリアージ・ノイズを大幅に削減することを目的としている。これにより、開発チームによる安全なコードの出荷/リリースが迅速に行われるようになる。

Continue reading “OpenAI が Codex Security を正式発表:脆弱性の発見/検証/修復を自動化するセキュリティ AI”

米国における AI と EC-Council:人材の準備を目的とする AI 認定ポートフォリオの拡大

EC-Council Expands AI Certification Portfolio to Strengthen U.S. AI Workforce Readiness and Security

2026/03/06 BleepingComputer — AI によるリスクは、グローバルで $5.5 trillion 規模と推定され、米国では 70万人の再教育が必要とされている。その一方で、AI 導入と人材準備のギャップ解消を目的として、4つの新たな AI 資格と Certified CISO v4 が注目を集めている。Certified Ethical Hacker (CEH) の開発元であり、実践的なサイバー・セキュリティ教育の世界的リーダーである EC-Council が、Enterprise AI Credential Suite を発表した。それと同時に、4つの新しいロールベース AI 資格と、刷新されたエグゼクティブ向けプログラム Certified CISO v4 も公開した。

Continue reading “米国における AI と EC-Council:人材の準備を目的とする AI 認定ポートフォリオの拡大”

Claude AI が発見した Firefox の脆弱性 22 件:2 週間にわたる Mozilla との共同検証の成果とは?

Claude AI Uncovers 22 Firefox Vulnerabilities in Two Weeks

2026/03/06 CyberSecurityNews — 人工知能モデルは単純なコード補助ツールから、自律型の高度な脆弱性研究者へと急速に進化している。最近の Anthropic Claude Opus 4.6 は、厳しく監査されてきたはずのオープンソース・プロジェクトにおいて、500 件を超えるゼロデイ脆弱性を発見した。その一環として、2026年2月の 2 週間をかけて Mozilla と Anthropic が共同で実施した検証では、Firefox に存在していた 22 件のセキュリティ欠陥が Claude Opus 4.6 により特定されている。Mozilla は、そのうち 14 件を高深刻度と分類したが、この件数は、2025年に修正された Firefox の高深刻度脆弱性の約 20% に相当する。

Continue reading “Claude AI が発見した Firefox の脆弱性 22 件:2 週間にわたる Mozilla との共同検証の成果とは?”

AI による侵害の自動化:労力と成果のバランスを攻撃側と防御側で比較

New Threat Report: AI Accelerates High-Velocity Cyber Attacks

2026/03/04 gbhackers — サイバー攻撃の入口は、侵入からログインへと移行している。AI が高速作戦を自動化し、人間の防御能力を圧倒している状況が、現在のトレンドである。Cloudforce One が定義する MOE (Measure of Effectiveness) は、投入労力に対する作戦成果を冷徹に比較する指標である。現代の脅威アクターたちは、キャンペーンの各段階において、最適化された MOE を中心に活動している。

Continue reading “AI による侵害の自動化:労力と成果のバランスを攻撃側と防御側で比較”

AI Agent は ID ダークマター or チームメイト?低摩擦経路を探索する MCP の特性から考える

AI Agents: The Next Wave Identity Dark Matter – Powerful, Invisible, and Unmanaged

2026/03/03 thehackernews — Model Context Protocol (MCP) は、LLM を単なるチャットから実務遂行へと拡張する、実用的な手段として急速に普及している。アプリケーション/API/データへの構造化されたアクセスを提供する MCP は、プロンプト駆動型 AI Agent を実現する。それにより実現するのは、情報取得/アクション実行/End-to-End の業務ワークフローの、エンタープライズ全体での自動化である。

Continue reading “AI Agent は ID ダークマター or チームメイト?低摩擦経路を探索する MCP の特性から考える”

Perplexity AI Browser の脆弱性 CVE-N/A が FIX:カレンダーから間接的プロンプト・インジェクション

Zenity Details Perplexity AI Browser Vulnerability

2026/03/03 SecurityBoulevard — Perplexity が開発した Comet AI ブラウザに対して、ゼロクリック攻撃が可能であることを Zenity が詳述している。同社は、AI アプリケーションと AI エージェントのセキュリティを確保するための、プラットフォームを提供する企業である。Zenity の CTO である Michael Bargury によると、PerplexedComet と命名された攻撃ベクターを悪用する攻撃者は、コンテンツの制御を可能にするという。その結果、接続されたツール/ワークフロー全体において、自律的な動作が引き起こされる恐れがある。

Continue reading “Perplexity AI Browser の脆弱性 CVE-N/A が FIX:カレンダーから間接的プロンプト・インジェクション”

Microsoft/DataDog 標的の CI/CD 攻撃キャンペーン:Hackerbot-claw が GitHub Actions を悪用

Hackerbot-Claw Bot Exploits GitHub Actions CI/CD Flaw to Attack Microsoft and DataDog

2026/03/03 gbhackers — 自律型 AI ボット Hackerbot-claw は、Microsoft/DataDog などの主要オープンソースプロジェクトの CI/CD パイプラインを標的として、GitHub Actions のミスコンフィグを悪用する 1 週間の攻撃キャンペーンを展開した。その結果、複数のケースでリモートコード実行 (RCE) が達成され、リポジトリ全体の完全侵害に至るケースも確認された。この攻撃が浮き彫りにするのは、安全でない pull_request_target ワークフローおよびシェル補間バグが、日常的な自動化をサプライチェーン・バックドアへと転換させてしまう危険性である。

Continue reading “Microsoft/DataDog 標的の CI/CD 攻撃キャンペーン:Hackerbot-claw が GitHub Actions を悪用”

OpenVSX 上の悪意の Aqua Trivy:AI プロンプトを介してローカル開発環境を侵害

Threat Actors Exploit OpenVSX Aqua Trivy with Malicious AI Prompts to Hijack Local Coding Tools

2026/03/03 CyberSecurityNews — 2026年3月2日に、開発者を標的とするサプライチェーン攻撃が発覚した。OpenVSX レジストリ上で公開される Aqua Security の Trivy VS Code エクステンションの、2 つのバージョンに不正コードが混入していたことが判明した。侵害されたバージョンは 1.8.12/1.8.13 であり、それぞれが 2026年2月27日/28日の時点で、aquasecurityofficial.trivy-vulnerability-scanner ネームスペース下へアップロードされていた。

Continue reading “OpenVSX 上の悪意の Aqua Trivy:AI プロンプトを介してローカル開発環境を侵害”

イラン戦争における Anthropic と米軍:Claude で実施された作戦と OpenAI の動き

US Military Reportedly Used Claude in Iran Strikes Despite Trump’s Ban

2026/03/02 CyberSecurityNews — 米国国防総省は、2月28日に実施されたイスラエルとの共同攻勢 Operation Epic Fury において、Anthropic の Claude AI を使用した。トランプ大統領が、Anthropic を国家安全保障上のサプライチェーン・リスクに指定し、すべての連邦機関に対して同社の AI システムの使用停止を命じたわずか数時間後に、この作戦は実施された。

Continue reading “イラン戦争における Anthropic と米軍:Claude で実施された作戦と OpenAI の動き”

米政府が Anthropic AI を BAN:Claude への完全かつ無制限のアクセスを巡り決裂

Trump Bans Anthropic AI in Federal Agencies — Pentagon Flags Claude as Security Risk

2026/02/28 CyberSecurityNews — 米国政府は、すべての連邦政府機関に対して、Anthropic の AI モデル Claude の使用を直ちに停止させるという前例のない措置を講じた。さらに同社を、国家安全保障上のサプライチェーン・リスクであると正式に指定したが、歴史的に見て、このような措置は Huawei などの外国の敵対勢力に限定されてきた。

Continue reading “米政府が Anthropic AI を BAN:Claude への完全かつ無制限のアクセスを巡り決裂”

Google Cloud API Key の悪用:過剰な権限を巡る問題が Gemini により加速

Thousands of Public Google Cloud API Keys Exposed with Gemini Access After API Enablement

2026/02/28 TheHackerNews — Google Cloud API キーは、通常において課金用途のプロジェクト識別子として使用されるものであるが、新たな調査により、悪用される可能性があることが判明した。機密性の高い Gemini エンドポイントで認証した攻撃者が、非公開データへアクセスする恐れがある。この調査は、Truffle Security により実施されたものであり、クライアント側のコード内に埋め込まれた、約 3,000 件の Google API キー (接頭辞 AIza で識別) が発見された。同社は、Web サイト上の埋め込みマップなどの、Google 関連サービスを提供するために使用されていると述べている。

Continue reading “Google Cloud API Key の悪用:過剰な権限を巡る問題が Gemini により加速”

ChatGPT で悪意のキャンペーンを管理:中国由来の脅威アクターを OpenAI が追跡

OpenAI Confirms Chinese Hackers Used ChatGPT in Cyberattack Campaign

2026/02/26 gbhackers — OpenAI の最新の脅威レポート “Disrupting malicious uses of AI” が明らかにしたのは、中国と関連するオペレーターの広範なキャンペーンの一環として ChatGPT が悪用されていたことである。このキャンペーンは、サイバー作戦/オンライン嫌がらせ/秘匿的影響工作を組み合わせたものである。ChatGPT のモデル自体が、エクスプロイト作成やネットワーク侵入に直接使用されたわけではない。しかし、オンライン上において、批判者/反体制派/外国の政治関係者を標的とするオペレーションの計画/拡散に、繰り返し悪用されていた。

Continue reading “ChatGPT で悪意のキャンペーンを管理:中国由来の脅威アクターを OpenAI が追跡”

Kali Linux と Claude AI が統合:MCP が刷新するセキュリティ・テストの実行モデル

Kali Linux Introduces Claude AI for Automated Penetration Testing Using Model Context Protocol

2026/02/26 gbhackers — 新たな Kali Linux 実行手法により、攻撃的セキュリティの運用が進化していく。 Kali と Anthropic の Claude AI を、Model Context Protocol (MCP) 経由で統合することで、セキュリティ・アナリストは自然言語のみを用いたペンテスト・ツールの実行が可能になる。これにより、従来のターミナルによるコマンドライン実行を中心とする運用から、AI 支援型の LUI (Language User Interface) への移行が進んでいる。 コマンドライン実行は依然として標準であるが、この統合により、複雑なセキュリティ・ツールセットを扱うアナリストへの効率的な代替手段が提供される。 

Continue reading “Kali Linux と Claude AI が統合:MCP が刷新するセキュリティ・テストの実行モデル”

Claude の悪用によりメキシコ政府機関から 150GB を窃取:2025年12月に始まった AI 悪用インシデント

Hacker Jailbreaks Claude AI to Write Exploit Code and Steal Government Data

2026/02/26 CyberSecurityNews — Anthropic の Claude AI チャットボットを悪用するハッカーが、メキシコの政府機関の機密データを、2025年12月から約 1 ヶ月以上にわたり窃取していたことが判明した。このキャンペーンで実行された手法は、脆弱性特定/エクスプロイト・コード生成/データ流出である。持続的なプロンプティングにより、Claude のセキュリティ・ガードレールを回避した手法が、この侵害を発見したサイバーセキュリティ企業 Gambit Security により明らかにされた。

Continue reading “Claude の悪用によりメキシコ政府機関から 150GB を窃取:2025年12月に始まった AI 悪用インシデント”

AI がもたらす速度と代償:導入後のインシデント対応とコスト増について – Fastry

Survey Surfaces Increased Cybersecurity Risks Following AI Adoption

2026/02/25 SecurityBoulevard — 新たに公表された Fastly の The AI Speed Tax レポートは、2,000 名の IT 意思決定者を対象とする調査結果であり、AI アプリケーションの導入拡大に伴うサイバー・セキュリティ・リスクの上昇を示している。Fastly の委託により Sapio Research が実施した調査によると、AI を中核プロセスへ統合した組織で発生したセキュリティ・インシデントは、未導入組織と比較して 135% 増という高いコストを抱える。

Continue reading “AI がもたらす速度と代償:導入後のインシデント対応とコスト増について – Fastry”

Anthropic に Elon Musk が噛みつく:データ盗用と著作権侵害と偽善的な態度

Anthropic Facing Allegations from Musk Over Large‑Scale Data Misuse

2026/02/24 gbhackers — Elon Musk が Anthropic を公然と非難している。大規模なデータ盗用および偽善を行っていると、彼は主張する。先日に Anthropic が、中国系の AI モデルが同社の Claude から不正に学習データを抽出したと主張したが、Elon Musk の批判は、それに続くものである。

Continue reading “Anthropic に Elon Musk が噛みつく:データ盗用と著作権侵害と偽善的な態度”

OpenClaw 2026.2.23 がリリース:Strict-Transport-Security/Claude Opus 4.6 に対応

OpenClaw Releases 2026.2.23 Released With Security Updates and New AI features

2026/02/24 CyberSecurityNews — GitHub で 215,000 件超のスターを獲得している、オープンソース・パーソナル AI アシスタントの OpenClaw が、バージョン 2026.2.23 をリリースした。今回の更新では、高度な AI 統合に加えて、セキュリティ強化が重点的に実施されている。このアップデートでは、複数の脆弱性が対処されると同時に、Claude Opus 4.6 のサポートなどの新機能が導入された。macOS/Windows/Linux 環境でローカル AI ゲートウェイを展開する、プライバシー重視ユーザーにとって、タイムリーな強化である。

Continue reading “OpenClaw 2026.2.23 がリリース:Strict-Transport-Security/Claude Opus 4.6 に対応”

Anthropic Claude を狙う協調的キャンペーン:1,600 万回超のインタラクションを発生させた中国 AI

Anthropic Claude Under Large Scale Distillation Attacks By Chinese AI Labs with 13 Million Exchanges

2026/02/23 CyberSecurityNews — Anthropic が主張するのは、DeepSeek/Moonshot AI/MiniMax の 3 社が、同社 Claude モデルから高度な能力を窃取するために、協調的な蒸留 (Distillation) キャンペーンを実行したという件である。サンフランシスコ拠点の同社によると、このオペレーションは約 24,000 件の不正アカウントを介して実行され、Claude との 1,600 万回超のインタラクションを発生させた。これは利用規約 (ToS:Terms of Service) に違反し、リージョナル・アクセス制限を回避する行為である。

Continue reading “Anthropic Claude を狙う協調的キャンペーン:1,600 万回超のインタラクションを発生させた中国 AI”

SuperClaw は Red-Team フレームワーク:自律型 AI コーディング・エージェントに特化

SuperClaw – Open-Source Framework to Red-Team AI Agents for Security Testing

2026/02/21 CyberSecurityNews — Superagentic AI が公開したのは、自律型 AI コーディング・エージェント向けに特化した、オープンソースの事前デプロイ・セキュリティテスト・フレームワーク SuperClaw である。2025 年後半に発表された SuperClaw は、エンタープライズ AI 導入に伴い拡大していく盲点へ対応するものだ。広範なツールへの高権限のアクセスを持つ AI エージェントが、日常的にデプロイされているにもかかわらず、数多くの組織において、本番稼働前の体系的セキュリティ検証が省略されている。

Continue reading “SuperClaw は Red-Team フレームワーク:自律型 AI コーディング・エージェントに特化”

FortiGate のデバイス 600+ 台を侵害:AI による攻撃チェーンが生み出す量の世界

Hackers Leveraging Multiple AI Services to Compromise 600+ FortiGate Devices

2026/02/21 CyberSecurityNews — 2026年01月11日から02月18日にかけて、金銭目的の脅威アクターが複数の商用 GenAI サービスを武器化し、55 カ国以上に分散する 600 台以上の FortiGate デバイスを侵害した。このキャンペーンが示すのは、攻撃的サイバー作戦における技術的な参入障壁が、AI により大幅に低減されているという、決定的な事例である。従来は、大規模かつ高技能なチームを必要としていた規模の攻撃を、低〜中程度の技能を持つ、個人または小規模グループが実行できることが明らかになった。

Continue reading “FortiGate のデバイス 600+ 台を侵害:AI による攻撃チェーンが生み出す量の世界”

Anthropic が Claude Code Security を立ち上げ:AI 駆動のコード・スキャンを提供

Anthropic Launches Claude Code Security to Scan Codebases for Security Vulnerabilities

2026/02/21 CyberSecurityNews — Claude Code 内の新機能である、Claude Code Security を活用する開発者やセキュリティ・チームは、コードベース全体の脆弱性の特定と修復が可能となる。限定的なリサーチ・プレビューとして提供されている Claude Code Security は、AI 駆動のコード・スキャンを提供するものだ。静的な解析は、コードとして記述された内容のみを確認するものである。それに対して、この機能はコードの実際の動作を理解するため、脆弱性に対する新たな分析が提供される。

Continue reading “Anthropic が Claude Code Security を立ち上げ:AI 駆動のコード・スキャンを提供”

GenAI がもたらす生産性と情報漏洩:エンタープライズ・セキュリティの転換期になるのか?

GenAI Has Become the Biggest Data-Exposure Risk in Enterprise History

2026/02/20 InfoSecurity — さまざまな組織の多数の従業員たちが、単なる回答を得るだけではなく、文書の要約/コンテンツ作成/データセット分析/コード作成などにおいて、GenAI による支援を受けている。それらは、有用なアシスタントであり、日常業務に組み込まれている。しかし、いま明らかになってきたのは、この変化がもたらすセキュリティへの影響である。GenAI の利用が加速するにつれて、それらを通過する機密情報の量も増大している。その結果、GenAI 関連のデータ露出インシデントは、前年同期と比べて約 5 倍に増加し、これまでの組織が直面したことのない規模と速度の情報漏洩を生み出している。

Continue reading “GenAI がもたらす生産性と情報漏洩:エンタープライズ・セキュリティの転換期になるのか?”

Abstract Security が立ち上げた AI SIEM:AI による攻撃に AI で対抗する

Abstract Security Launches AI SIEM Platform to Analyze Threats In Real Time

2026/02/19 SecurityBoulevard — 2月19日に Abstract Security は、AI を活用することで、ほぼリアルタイムに脅威を可視化するモジュール型の Security Information and Event Management (SIEM) プラットフォームを、製品ポートフォリオへ追加した。同社 CEO である Colby DeRodeff によると、AI-Gen Composable SIEM を活用するサイバー・セキュリティ・チームは、AI プラットフォームへ向けて、収集されたデータを継続的にストリーミングできるようになる。このプラットフォームは、エージェントをネイティブに活用し、脅威の検知/トリアージ/調査/対応を実行するようデザインされている。

Continue reading “Abstract Security が立ち上げた AI SIEM:AI による攻撃に AI で対抗する”

OpenClaw AI フレームワーク v2026.2.17 がリリース:Anthropic モデルをサポート

OpenClaw AI Framework v2026.2.17 Adds Anthropic Model Support Amid Credential Theft Bug Concerns

2026/02/18 gbhackers — 2026年初頭に広く採用され始めた OpenClaw は、オープンソースの自律型 AI アシスタントである。そのプロジェクトが、2026年02月17日にバージョン v2026.2.17 を公開した。今回のリリースでは、Anthropic の最新モデル Claude Sonnet 4.6 のサポートが追加された。OpenClaw コンフィグ・ファイルを標的とするインフォスティーラーが、クレデンシャル窃取を行っていることが研究者により確認され、セキュリティ懸念が高まる中で、今回の新バージョンがリリースされた。

Continue reading “OpenClaw AI フレームワーク v2026.2.17 がリリース:Anthropic モデルをサポート”

AI セキュリティの問題:最小権限の ID 原則を導入すればリスクが激減する?

Over-Privileged AI Drives 4.5 Times Higher Incident Rates

2026/02/17 InfoSecurity — 最新レポート “2026 State of AI in Enterprise Infrastructure Security” を作成するにあたり Teleport が実施したのは、米国のインフラ・セキュリティ責任者 200人以上を対象にした調査である。このレポートにおける “インフラに内在する AI” の定義には、AI 搭載ワークロード/エージェント型システム/マシン-to-マシン通信/ChatOps/コンプライアンス自動化/インシデント検知などが含まれる。

Continue reading “AI セキュリティの問題:最小権限の ID 原則を導入すればリスクが激減する?”

Microsoft Teams における AI ワークフローの活用:Microsoft 365 Copilot でタスクを自動化

Microsoft Teams Leverages AI Workflows with Microsoft 365 Copilot for Task Automation

2026/02/17 gbhackers — Microsoft が公表したのは、Teams Workflows アプリに AI Workflows を導入し、Microsoft 365 Copilot により自動化された、インテリジェント機能に関する提供の開始である。これにより、日常業務の効率化および複雑なタスクの自動化が可能となる。この機能は、あらかじめ定義されたテンプレートを通じて、スケジュールされた Copilot プロンプトを使用し、ユーザーによる自動化環境の容易な構築をサポートする。

Continue reading “Microsoft Teams における AI ワークフローの活用:Microsoft 365 Copilot でタスクを自動化”

Check Point の新たなセキュリティ戦略:AI 時代のエンタープライズ保護に必要なものは?

Check Point Unveils a New Security Strategy for Enterprises in the AI Age

2026/02/13 SecurityBoulevard — サイバー・セキュリティの中心的テーマである、現在進行形の AI 軍拡において、防御側と攻撃側の双方が優位性の確保を競い合っている。それは、従来のイタチごっこ型のセキュリティ構図の延長であるが、速度が大幅に加速し、きわめて大きな利害を伴うものである。2025年8月に CrowdStrike は、「AI の戦場は既に到来している。AI を武器化する敵対者は、前例のない規模/速度/効果で攻撃を実行している。その一方で防御側は、アナリストたちのパワーを高めるために AI を活用し、反復作業のオフロード/意思決定の高速化/SOC (Security Operations Center) 全体での専門知識の拡張を実現している」と述べている。

Continue reading “Check Point の新たなセキュリティ戦略:AI 時代のエンタープライズ保護に必要なものは?”

ChatGPT/Claude を装う悪意の Chrome AI エクステンション:26 万人に影響を及ぼす大規模監視キャンペーンを検出

Malicious Chrome AI Extensions Attacking 260,000 Users via Injected IFrames

2026/02/13 CyberSecurityNews — ChatGPT/Claude/Gemini/Grok などの人気 AI ツールを装う悪意の Chrome エクステンションが、組織的な協調キャンペーンを介して配布されている。これらの偽 “AI アシスタント” は、有用なブラウザ・エクステンションを装いながら、リモートからの操作が可能な iframe を注入してユーザーを監視する悪意のツールである。これらのエクステンションは、26 万人以上のユーザーにインストールされている。

Continue reading “ChatGPT/Claude を装う悪意の Chrome AI エクステンション:26 万人に影響を及ぼす大規模監視キャンペーンを検出”

OpenClaw 2026.2.12 がリリース:40 件強の脆弱性への対応とセキュリティ対策の見直し

OpenClaw 2026.2.12 Released to Patch Over 40 Security Vulnerabilities

2026/02/13 gbhackers — OpenClaw チームが公表したのは、セキュリティ強化とアーキテクチャ安定性に重点を置いた、包括的アップデート・バージョンである 2026.2.12 の正式なリリースに関する情報である。このリリースでは、40 件超のセキュリティ脆弱性および安定性問題を修正しており、この AI エージェント・フレームワークにおける重要なマイルストーンとなった。

Continue reading “OpenClaw 2026.2.12 がリリース:40 件強の脆弱性への対応とセキュリティ対策の見直し”

Google が警告する Gemini の悪用:段階マルウェア用の C# コードを動的に生成する脅威アクターとは?

Google Warns of Hackers Leveraging Gemini AI for All Stages of Cyberattacks

2026/02/12 CyberSecurityNews — 従来の検出手法を回避する脅威アクターたちは、Google の Gemini API を悪用することで、多段階マルウェア用の C# コードを動的に生成し始めている。Google Threat Intelligence Group (GTIG) は、2025年9月に観測された HONESTCUE フレームワークに焦点を当てた調査を実施し、その結果を 2026年2月の AI Threat Tracker レポートに詳述している。

Continue reading “Google が警告する Gemini の悪用:段階マルウェア用の C# コードを動的に生成する脅威アクターとは?”

“AI Skills” が作り出す新たな攻撃領域:データと命令が混在するアーティファクトとは?

AI Skills Represent Dangerous New Attack Surface, Says TrendAI

2026/02/12 InfoSecurity — いわゆる “AI skills” は、AI 運用を拡張するために用いられるものであるが、データ窃取/妨害/サービス停止に対して、きわめて危険なレベルの脆弱さを露出させていると、TrendAI は警告している。Trend Micro の新たなビジネス・ユニットである TrendAI は、”AI skills” は人間にとって可読性のあるテキストと、LLM にとって読み取りと実行が可能な命令を組み合わせたアーティファクトであると、今週公開したレポートで説明している。

Continue reading ““AI Skills” が作り出す新たな攻撃領域:データと命令が混在するアーティファクトとは?”

OpenClaw の RCE 脆弱性により 15,200 インスタンスが露出:数万規模の AI エージェントに影響

15,200 OpenClaw Control Panels with Full System Access Exposed to the Internet

2026/02/10 CyberSecurityNews — 急速に採用/普及が進む “エージェント型 AI エコシステム” における深刻なセキュリティ上の欠陥により、数万規模の個人/企業向けの AI アシスタントがパブリック・インターネット上に完全に露出した状態にある。2026年2月10日に SecurityScorecard STRIKE Threat Intelligence Team が発表した新たな調査によると、人気のフレームワーク OpenClaw (旧称 Moltbot) の 15,200 インスタンスが、リモート・コード (RCE) に対して脆弱であり、攻撃者がホスト・マシンを完全に制御できる状態にあるという。

Continue reading “OpenClaw の RCE 脆弱性により 15,200 インスタンスが露出:数万規模の AI エージェントに影響”

Chat & Ask AI に深刻なデータ漏洩:2500 万人のユーザーと 3 億件のメッセージに影響

25 Million Users Affected as AI Chat Platform Leaks 300 Million Messages

2026/02/10 gbhackers — “Chat & Ask AI” に深刻なデータ露出の脆弱性が発生した。約 3 億件のプライベート・メッセージが、外部からアクセス可能な状態になっていることが、独立系セキュリティ研究者により報告された。このモバイル・アプリは、Google Play/Apple App Store で提供され、人気を博している。この侵害により、2,500 万人以上のユーザーに影響が生じており、急成長する AI アプリ市場におけるプライバシー/データの取り扱いに関する、深刻な懸念を引き起こしている。

Continue reading “Chat & Ask AI に深刻なデータ漏洩:2500 万人のユーザーと 3 億件のメッセージに影響”

LLM 脆弱性スキャナー Augustus が登場:28 製品に対して 210+ の攻撃モード

Augustus – Open-source LLM Vulnerability Scanner With 210+ Attacks Across 28 LLM Providers

2026/02/10 CyberSecurityNews — Praetorian が公表したオープンソースの脆弱性スキャナー Augustus は、進化し続ける敵対的脅威の状況から LLM を防御するために設計されたものだ。この Augustus は、学術研究向けツールと本番環境向けセキュリティ・テストの間に存在するギャップの解消を目的として提供される。具体的には、単一のバイナリを用いることで、28 の LLM プロバイダーに対して、210 種類以上の敵対的な攻撃を実行できる。

Continue reading “LLM 脆弱性スキャナー Augustus が登場:28 製品に対して 210+ の攻撃モード”

VoidLink マルウェア:高度なモジュール型設計と AI 支援開発を示唆する痕跡

VoidLink Malware Exhibits Multi-Cloud Capabilities and AI Code

2026/02/10 InfoSecurity — Linux ベースの Command and Control (C2) フレームワークであり、クラウドおよびエンタープライズ環境全体で、長期にわたる侵入を可能にするマルウェアについて、新たな調査結果が公開された。VoidLink として知られるマルウェアは、認証情報の窃取/データの外部送信に加えて、侵害済みシステム上での秘匿的な永続化を目的とするインプラント・バイナリを生成する。

Continue reading “VoidLink マルウェア:高度なモジュール型設計と AI 支援開発を示唆する痕跡”

AI アシスタント OpenClaw の広範なミスコンフィグ:OpenClaw インスタンス 40,000+ が露出

Researchers Find 40,000+ Exposed OpenClaw Instances

2026/02/09 InfoSecurity — 人気の AI アシスタント OpenClaw における広範なミスコンフィグにより、多数のインスタンスがパブリック・インターネット上に露出していると、SecurityScorecard が警告を発している。同社によると、旧称 Clawdbot/Moltbot として知られるツールの、露出しているインスタンス数は 40,214 件に達しており、現在も増加しているという。これらは 28,663 のユニークな IP アドレスに関連付けられている。

Continue reading “AI アシスタント OpenClaw の広範なミスコンフィグ:OpenClaw インスタンス 40,000+ が露出”

ClawHub に 341 件の悪意の “skill”:OpenClaw を介したサプライチェーン攻撃を検出

OpenClaw Becomes New Target in Rising Wave of Supply Chain Poisoning Attacks

2026/02/09 CyberSecurityNews — AI エージェント・プラットフォーム OpenClaw の、ClawHub プラグイン・マーケットプレイスが悪意の “skill” により汚染され、深刻なサプライチェーン・リスクに直面している。この急速に成長しているオープンソース・エコシステムにおいて、Atomic Stealer などのインフォスティーラーを展開する侵害済みエクステンションが数百件規模で存在することを、セキュリティ企業 SlowMist と Koi Security が明らかにした。

Continue reading “ClawHub に 341 件の悪意の “skill”:OpenClaw を介したサプライチェーン攻撃を検出”