AI Agent に関する調査:68% の組織は AI がアクセスするデータを把握していない

AI Agents: Who’s There? What Are They Doing? Most Security Teams Don’t Know

2026/04/10 SecurityBoulevard — Agentic AI の急速な普及と、適切なセキュリティおよびガバナンスを伴わないデータ・アクセスの拡大により、ユーザー組織における AI 活用の信頼性が低下し、その成功を阻害している。MIND の調査によると、エンタープライズ GenAI に対して、90% の組織が広範なデータ・アクセスを許可している一方で、68% は AI エージェントがアクセスするデータを把握していない。


さらに 65% は、AI 入力として利用可能なデータを説明できず、41% はシャドー GenAI の問題を認識している。それに加えて、33% の組織は、環境内に未把握の AI エージェントが存在することを認識している。

アイデンティティ中心のセキュリティへの転換

SailPoint の Mark McClain は、従来の境界防御モデルは既に不十分であり、アイデンティティがエンタープライズ・セキュリティの中核要素となっていると指摘する。

Cequence Security の Randolph Barr は、セキュリティ・チームが担うべき責任の範囲を、人間のユーザーだけではなく、自律的に統合を生成する AI システムにも広げる必要があると述べている。

Shadow AI とガバナンスの課題

AI における拡大の速度は、セキュリティ人材の増加ペースを上回っており、シャドー AI や シャドー API が新たなリスクを生んでいる。単一の API ミスコンフィグ (設定ミス) や放置された認証キーが、AI パイプライン全体の侵害につながる可能性がある。

この調査で明らかにされたのは、66% が AI エージェントに対してポリシーを適用せず、70% が GenAI ツールの統制に課題を抱えている。また、すでに 98% の組織が、少なくとも 1 件の AI セキュリティ問題を経験している。

AI の導入とセキュリティのギャップ

前述のとおり、AI 導入の加速に対し、セキュリティとデータに対するガバナンスの成熟度が追いついていない。AI に対応可能なセキュリティ戦略を持つ組織は、わずか 20% に留まる。

Noma Security の Diana Kelley は、AI の持続的な運用において、強固なセキュリティ対策が不可欠であると述べている。AI は既存の弱点を増幅する性質を持つため、適切なアクセス制御/データガバナンス/ランタイム監視がなければリスクが拡大する。

Keeper Security の Shane Barney は、AI により新たな攻撃手法が生じるのではなく、攻撃実行の速度と効率が向上すると指摘する。攻撃者が意思決定を自動化する中、防御側に求められるのは、リアルタイムで意図と行動を理解する能力である。

そのため、AI を活用する脅威に対する検知と対応が不可欠となる。クラウド環境では、残存する権限が攻撃者の侵入口となり得るリスクがある。

新たな脆弱性とサプライチェーン・リスク

Black Duck の Boris Cipot は、AI システムやツール・チェーンの進化に伴う新たな脆弱性クラスの出現が不可避であると述べている。AI サプライチェーンも、従来のソフトウェアと同様に攻撃対象となるため、事前のリスク想定と対策が必要である。

Mark McClain は、アクセスを実行する人間やサービスだけではなく、どのデータにアクセスし、何を実行できるのかを統制する、リアルタイムかつ動的なアイデンティティ・セキュリティの必要性を強調する。

市場の変化

Bugcrowd の David Brumley は、AI がセキュリティ市場の価値を低下させるという見方は誤りであると指摘する。

AI は一部の機能を効率化する一方で、セキュリティ対象領域全体を拡大させる。その結果、AI を効果的に活用するプラットフォームへの需要はむしろ増加すると、彼は指摘する。

さらに、セキュリティ業務そのものが AI により再定義されており、この変化に適応できない組織は競争力を失うと述べている。