Gartner が予測する 2028年のセキュリティ:AI アプリがインシデント対応の半分を占める

AI Issues Will Drive Half of Incident Response Efforts by 2028, Says Gartner

2026/03/18 infosecurity — セキュリティ・チームがプロジェクト初期段階から関与しない限り、カスタム構築された AI アプリケーションにより、今後の数年間にわたり大きな問題が引き起こされると Gartner は警告した。2028年の時点では、エンタープライズにおけるインシデント対応の少なくとも半分が、AI アプリに関連するセキュリティ問題の影響対応に費やされると、同社のアナリストは予測している。

Gartner の VP Analyst である Christopher Mixter は、「AI は急速に進化しているが、特にカスタム構築された AI アプリケーションについて言えば、十分なテストが完了する前に展開されている。これらのシステムは複雑かつ動的であり、長期的なセキュリティ確保が困難である。多くのセキュリティ・チームにおいて、AI 関連インシデントに対応する明確なプロセスが、依然として欠落している。その結果、問題解決において、いま以上の長い時間と多大な労力が費やされる」と警告している。

彼は、「シフトレフトを実践するセキュリティ・チームは、初期段階から適切なコントロールを組み込むことが可能になる」と付け加えている。

その一方で Gartner は、AI 駆動型セキュリティ・ツールの役割の拡大も予測している。これから 2年以内に、組織の半数がサードパーティ AI サービス利用およびカスタム構築 AI アプリの保護のために、AI セキュリティ・プラットフォームを利用するとしている。

これらのツールにより支援されるのは、許容される利用ポリシーの強制/アクティビティの監視/AI アプリ全体にわたる一貫したガードレールの適用である。それにより、プロンプト・インジェクション/データ悪用などの脅威に対する保護が実現されると、Christopher Mixter は述べている。

人間とマシンの ID に対する検出と改善を、ユーザー組織が推進していく中で、AI 駆動型の “Identity Visibility and Intelligence Platform” も急速に普及する見込みであると、Gartner は指摘している。

2025年の Sysdig レポートによると、マシン ID は 人間 ID の 4 万倍に達しており、7.5倍のリスクをもたらしているという。特に、過剰な権限を持つ AI エージェントは深刻な懸念事項になる。

データ主権が中心的な課題に

Gartner の予測は AI 領域にとどまらない。

2027年までに、ユーザー組織の 30% が、継続する地政学的リスクを低減するために、クラウド・セキュリティ・コントロールの包括的な主権を要求するとしている。地政学的な混乱と各国の規制要求により変化が促されており、主権要件を定義する重要な役割を CISO が担う必要があると、Gartner は指摘している。

その一方で、こうした要件が適切に管理されない場合には、イノベーションの阻害要因となる可能性があると、2026年2月に UK スタートアップ Arqit が実施した調査が示している。パブリック・クラウドを利用する AI プロジェクトが、スケジュール通りに進まない最大の要因として、回答した組織の 62% が データ主権およびプライバシー・リスクを挙げた。

Arqit の CEO である Andy Leaver は、「この調査では、6社に1社が、主権環境をまったく保証できないと回答している。現時点において、エッジ環境で主権を確保しているのは僅か 8% に留まる。データを転送する際の強固なコントロール/暗号技術への可視性の向上/クラウドとエッジをカバーする信頼構築といった、セキュリティ・リーダーが必要とする実用的な手段にギャップが生じている」と述べている。

Arqit をはじめとする企業は、セキュリティを損なうことなく主権を実現する手段としてコンフィデンシャル・コンピューティング (confidential computing) を推進している。これはプロセッサ・レベルで安全な境域 (secure enclaves) を形成し、使用中のデータを分離/保護する技術アプローチである。