AI エージェントが企業ネットワークを攻撃:機密データ流出や認証情報偽造のリスクとは?

AI Agents Present ‘Insider Threat’ as Rogue Behaviors Bypass Cyber Defenses: Study

2026/03/15 SecurityBoulevard — 企業を効率化させるフロンティアとして期待される人工知能 (AI) エージェントだが、従来のサイバー・セキュリティを無力化しかねない、虚偽的で逸脱した行動を示し始めている。最新の研究によると、それらの自律システムは、機密データを密かに流出させ、認証情報を偽造しているという。さらには、他の AI に圧力をかけて、安全プロトコルの回避を促す能力を持つことも確認されている。

Continue reading “AI エージェントが企業ネットワークを攻撃:機密データ流出や認証情報偽造のリスクとは?”

AI Agent は ID ダークマター or チームメイト?低摩擦経路を探索する MCP の特性から考える

AI Agents: The Next Wave Identity Dark Matter – Powerful, Invisible, and Unmanaged

2026/03/03 thehackernews — Model Context Protocol (MCP) は、LLM を単なるチャットから実務遂行へと拡張する、実用的な手段として急速に普及している。アプリケーション/API/データへの構造化されたアクセスを提供する MCP は、プロンプト駆動型 AI Agent を実現する。それにより実現するのは、情報取得/アクション実行/End-to-End の業務ワークフローの、エンタープライズ全体での自動化である。

Continue reading “AI Agent は ID ダークマター or チームメイト?低摩擦経路を探索する MCP の特性から考える”

HackerOne の新サービス:AI エージェントを介してユーザー環境の脆弱性を検証

HackerOne Adds AI Agent to Validate Vulnerabilities

2026/02/26 SecurityBoulevard — HackerOne のプラットフォームに AI エージェントが追加され、特定の IT 環境内における脆弱性の有無を検証できるようになった。それにより、サイバーセキュリティ・チームおよびアプリケーション開発者は、潜在的な脅威の調査に費やす時間を削減できるようになる。HackerOne の Head of Product である Michiel Prins は、倫理的ハッカーとの契約プラットフォームに組み込まれている “Hai” agentic AI システムの拡張により、ユーザー組織における実際のリスクに基づく、修復対応の優先順位付けが容易になると述べている。

Continue reading “HackerOne の新サービス:AI エージェントを介してユーザー環境の脆弱性を検証”

GenAI がもたらす生産性と情報漏洩:エンタープライズ・セキュリティの転換期になるのか?

GenAI Has Become the Biggest Data-Exposure Risk in Enterprise History

2026/02/20 InfoSecurity — さまざまな組織の多数の従業員たちが、単なる回答を得るだけではなく、文書の要約/コンテンツ作成/データセット分析/コード作成などにおいて、GenAI による支援を受けている。それらは、有用なアシスタントであり、日常業務に組み込まれている。しかし、いま明らかになってきたのは、この変化がもたらすセキュリティへの影響である。GenAI の利用が加速するにつれて、それらを通過する機密情報の量も増大している。その結果、GenAI 関連のデータ露出インシデントは、前年同期と比べて約 5 倍に増加し、これまでの組織が直面したことのない規模と速度の情報漏洩を生み出している。

Continue reading “GenAI がもたらす生産性と情報漏洩:エンタープライズ・セキュリティの転換期になるのか?”

ClawBands という GitHub プロジェクト:OpenClaw に “human-in-the-loop” 制御を取り込む

ClawBands GitHub Project Looks to Put Human Controls on OpenClaw AI Agents

2026/02/16 SecurityBoulevard — あるソフトウェア・エンジニアが GitHub 上で公開したのは、人気を博しながら物議を醸し出している OpenClaw AI パーソナル・アシスタントに対して、人間による統制を確保するための軽量プラグインである。開発者 Sandro Munda が提供する ClawBands は、OpenClaw AI エージェント向けのセキュリティ・ミドルウェアであると説明されている。このプラグインは、AI パーソナル・アシスタントにフックし、ファイル書き込み/シェルコマンド/ネットワーク・リクエストなどに関連する、すべてのツールの実行をインターセプトする。それにより、いかなる操作においても、事前の “human-in-the-loop” 承認を確実に行わせるものである。

Continue reading “ClawBands という GitHub プロジェクト:OpenClaw に “human-in-the-loop” 制御を取り込む”

Unstructured.io の脆弱性 CVE-2025-64712:AI 対応のパイプラインに RCE の可能性

CVE-2025-64712 in Unstructured.io Puts Amazon, Google, and Tech Giants at Risk of Remote Code Execution

2026/02/13 gbhackers — Unstructured.io の “unstructured” ETL ライブラリに存在する、深刻な脆弱性 CVE-2025-64712 (CVSS 9.8) が新たに公開された。この脆弱性を悪用する攻撃者は、信頼できないドキュメントを処理するシステム上で任意のファイル書き込みを実行し、その結果としてリモート・コード実行 (RCE) を引き起こす可能性がある。

Continue reading “Unstructured.io の脆弱性 CVE-2025-64712:AI 対応のパイプラインに RCE の可能性”

OpenClaw 2026.2.12 がリリース:40 件強の脆弱性への対応とセキュリティ対策の見直し

OpenClaw 2026.2.12 Released to Patch Over 40 Security Vulnerabilities

2026/02/13 gbhackers — OpenClaw チームが公表したのは、セキュリティ強化とアーキテクチャ安定性に重点を置いた、包括的アップデート・バージョンである 2026.2.12 の正式なリリースに関する情報である。このリリースでは、40 件超のセキュリティ脆弱性および安定性問題を修正しており、この AI エージェント・フレームワークにおける重要なマイルストーンとなった。

Continue reading “OpenClaw 2026.2.12 がリリース:40 件強の脆弱性への対応とセキュリティ対策の見直し”

OpenClaw の RCE 脆弱性により 15,200 インスタンスが露出:数万規模の AI エージェントに影響

15,200 OpenClaw Control Panels with Full System Access Exposed to the Internet

2026/02/10 CyberSecurityNews — 急速に採用/普及が進む “エージェント型 AI エコシステム” における深刻なセキュリティ上の欠陥により、数万規模の個人/企業向けの AI アシスタントがパブリック・インターネット上に完全に露出した状態にある。2026年2月10日に SecurityScorecard STRIKE Threat Intelligence Team が発表した新たな調査によると、人気のフレームワーク OpenClaw (旧称 Moltbot) の 15,200 インスタンスが、リモート・コード (RCE) に対して脆弱であり、攻撃者がホスト・マシンを完全に制御できる状態にあるという。

Continue reading “OpenClaw の RCE 脆弱性により 15,200 インスタンスが露出:数万規模の AI エージェントに影響”

LocalGPT という選択肢:ローカル・ファーストと Rust で AI アシスタントを完結

LocalGPT – A Secure Local Device Focused AI Assistant Built in Rust

2026/02/08 CyberSecurityNews — AI アシスタントである ChatGPT や Claude が、クラウド基盤を席巻する時代になった。それにより、ユーザー・データがリモート侵害にさらされるが、LocalGPT と呼ばれる新しい Rust ベースのツールが堅牢な代替案を提示している。約 27MB の単一バイナリとして開発された LocalGPT は、完全にローカル・デバイス上で動作し、機密のメモリとタスクをクラウド以外に保持する。

Continue reading “LocalGPT という選択肢:ローカル・ファーストと Rust で AI アシスタントを完結”

OpenClaw と VirusTotal が提携:”skill” に対する自動スキャンで AI エージェントを保護

OpenClaw Partners with VirusTotal to Secure AI Agent Skill Marketplace

2026/02/07 CyberSecurityNews — 2月7日に OpenClaw は、Google 傘下の VirusTotal との提携を発表し、AI エージェント・マーケットプレイスである ClawHub に公開されるすべての “skill” に対して、自動セキュリティ・スキャンを実装することを明らかにした。この統合は、新興の AI エージェント・エコシステムにおける、初の包括的なセキュリティ施策となる。

Continue reading “OpenClaw と VirusTotal が提携:”skill” に対する自動スキャンで AI エージェントを保護”

OpenClaw v2026.2.6 がリリース:安全性スキャナーと Opus 4.6/GPT-5.3-Codex のサポートを追加

OpenClaw v2026.2.6 Released With Support for Opus 4.6, GPT-5.3-Codex and Safety Scanner

2026/02/07 CyberSecurityNews — OpenClaw がリリースした v2026.2.6 は、エコシステム内で高まる悪意の “skill” に対する懸念を払拭してセキュリティを強化するためのものだ。このリリースで追加されたのは、コードの安全性スキャナーおよび、モデルのサポートであり、研究者により指摘された最近の脆弱性にも対応している。OpenClaw は、メール管理や暗号資産取引などのタスクを、WhatsApp/Telegram 経由などで管理する、ローカル AI エージェント向けのオープンソース・フレームワークである。このバージョン 2026.2.6 は、2026年2月7日に公開された。

Continue reading “OpenClaw v2026.2.6 がリリース:安全性スキャナーと Opus 4.6/GPT-5.3-Codex のサポートを追加”

AI エージェント時代の盲点:不可視のリスクと企業セキュリティ

The ‘Invisible Risk’: 1.5 Million Unmonitored AI Agents Threaten Corporate Security

2026/02/03 SecurityBoulevard — 自律型デジタル・ワーカーで構成される巨大かつ不可視の労働力が、ビジネス界に到来しているが、新たな調査によると、その多くが制御不能な状態で稼働している可能性があるという。オープンソースの API/エージェント管理分野をリードする Gravitee が公開した調査結果によると、米国/英国の大企業では、すでに 300 万を超える AI エージェントが導入されている。しかし、そのほぼ半数にあたる約 150 万は、現在も能動的な監視やセキュリティ・プロトコルなしに稼働している。

Continue reading “AI エージェント時代の盲点:不可視のリスクと企業セキュリティ”

AI Agent の ID マネージメント:既存の ID モデルが適合しない理由を説明しよう

AI Agent Identity Management: A New Security Control Plane for CISOs

2026/02/03 BleepingComputer — 長年にわたりセキュリティ・リーダーたちは、サービス・アカウントと従業員に対するアイデンティティ (ID) 制御を強化してきた。しかし、そのモデルが限界を露呈し始めている。企業環境の全体において、新たな ID のクラスが急速に拡散している。それが自律型 AI エージェントである。Custom GPT/Copilot/MCP サーバを実行するコーディング・エージェントや、用途ごとに特化された AI エージェントは、もはや実験の用途に留まらない。本番環境で稼働し、拡張され、機微なシステムやインフラと連携し、他のエージェントを呼び出し、判断や変更を行っているが、そこでは人間による直接的な監督が欠落している。

Continue reading “AI Agent の ID マネージメント:既存の ID モデルが適合しない理由を説明しよう”

AI Agent が作り出す権限昇格パス:ユーザーからエージェントに移行するアクセス権を把握するには?

AI Agents Are Becoming Privilege Escalation Paths

2026/01/14 TheHackerNews — AI エージェントは、実験的なツールから、セキュリティ/エンジニアリング/IT/運用にわたる日常的なワークフローの中核コンポーネントへと急速に移行し始めている。個人用コード・アシスタント/チャットボット/コパイロットといった、個別の生産性向上ツールとして始まったものが、組織全体で共有されるエージェントへと進化し、重要なプロセスに組み込まれようとしている。

Continue reading “AI Agent が作り出す権限昇格パス:ユーザーからエージェントに移行するアクセス権を把握するには?”

AI ブラウザの安全性:5項目のリスク・ケースを8種類のエージェントでテストした

Browser agents don’t always respect your privacy choices

2025/12/22 HelpNetSecurity — ブラウザ・エージェントの普及において、ユーザーによる継続的な入力を必要とせずにオンライン・タスクを処理できるという新たなセールスポイントが強調されている。AI モデルを用いて Web ブラウザを操作することで、ショッピング/予約/アカウント管理などのタスクが可能になる。しかし、新たな学術研究によると、こうした利便性にはセキュリティ上の懸念として無視できないプライバシー・リスクが伴うと警告されている。

Continue reading “AI ブラウザの安全性:5項目のリスク・ケースを8種類のエージェントでテストした”

間接プロンプト・インジェクションは不可避? ChatGPT Atlas などのエージェントがもたらすリスクとは?

Prompt Injections Loom Large Over ChatGPT’s Atlas Browser

2025/11/27 DarkReading — AI 搭載の新しい Web ブラウザが登場し、エージェント機能が一般ユーザーにも普及し始めている。しかし、疑問として残されるのは、LLM 攻撃の代表的手法であるプロンプト・インジェクションが、さらに深刻化するかもしれないという懸念である。ChatGPT Atlas は、10月21日に OpenAI がリリースした Chromium ベースの LLM 搭載 Web ブラウザである。現時点では、macOS 上で利用が可能であり、テキスト生成/Web ページ要約/エージェント機能といった、ChatGPT のネイティブ機能を搭載している。

Continue reading “間接プロンプト・インジェクションは不可避? ChatGPT Atlas などのエージェントがもたらすリスクとは?”

ServiceNow Now Assist の問題点:意図しない AI エージェント間連携による有害タスクの実行

ServiceNow AI Agents Can Be Tricked Into Acting Against Each Other via Second-Order Prompts

2025/11/19 TheHackerNews — ServiceNow の生成型人工知能 (AI) プラットフォームである、Now Assist のデフォルト・コンフィグを悪用する攻撃者は、そのエージェント機能を介してプロンプト・インジェクション攻撃を実行できる。AppOmni によると、この2次プロンプト・インジェクションは、Now Assist のエージェント間の検出機能を悪用して不正な操作を実行させるものだ。その結果として攻撃者は、企業の機密データをコピー/窃取した上でレコードを改竄し、権限昇格などを可能にする。

Continue reading “ServiceNow Now Assist の問題点:意図しない AI エージェント間連携による有害タスクの実行”

NHI は人間の 45倍規模:AI Agent の大規模展開の前に考えるべきセキュリティ原則とは?

AI Agents and the Non‑Human Identity Crisis: How to Deploy AI More Securely at Scale

2025/05/27 TheHackerNews — GitHub Copilot のコード補完から、社内のナレッジベースをマイニングして即答するチャットボットにいたるまで、AI は企業の生産性に大きな変化をもたらしている。そこで用いられる、それぞれの新たなエージェントは、他のサービスでの認証を得る必要があるため、企業クラウド全体における NHIs (Non‑Human Identities) の数が静かに増加している。

Continue reading “NHI は人間の 45倍規模:AI Agent の大規模展開の前に考えるべきセキュリティ原則とは?”

AI プロトコル MCP/A2A に潜む脅威:新たな視点から AI ツールとデータ流出を考える

Researchers Demonstrate How MCP Prompt Injection Can Be Used for Both Attack and Defense

2025/04/30 thehackernews — AI 分野が急速に進化する中で、Model Context Protocol (MCP) の悪用方法が分析され、プロンプト・インジェクション攻撃だけではなく、セキュリティ・ツールの開発や悪意のツールの特定などもカバーできそうなことが、Tenable の調査により明らかになった。Anthropic が 2024年11月に発表した、新しいプロトコル MCP は、大規模言語モデル (LLM:Large Language Models) と外部のデータソース/サービスを接続するために設計されたものだ。その目的は、LLM が選ぶ外部ツールを通じて、それらのシステムと連携し、AI アプリケーションの精度/関連性/実用性などを高めるところにある。

Continue reading “AI プロトコル MCP/A2A に潜む脅威:新たな視点から AI ツールとデータ流出を考える”

MCP に潜む脆弱性:AI 時代の新たな脅威として浮上するツール・ポイズニング攻撃

Tool Poisoning Attacks: Critical Vulnerability Discovered in Model Context Protocol (MCP)

2025/04/10 SecurityOnline — Model Context Protocol (MCP) に存在する深刻な脆弱性は、ツール・ポイズニング攻撃 (TPA:Tool Poisoning Attacks) を可能にするものだと、Invariant Labs が明らかにした。AI エージェントが利用する、無害に見えるツールを悪用する TPA により、機密データの流出/AI の挙動の乗っ取り/リモート・コード実行などが引き起こされる恐れがある。Invariant のセキュリティ・チームは、ユーザーに対して、「サードパーティの MCP サーバに接続する際には十分な注意を払い、機密情報を保護するためのセキュリティ対策を実施してほしい」と促している。

Continue reading “MCP に潜む脆弱性:AI 時代の新たな脅威として浮上するツール・ポイズニング攻撃”