AI in the Cloud:セキュリティとプライバシーの潮流に向き合うための方策は?

AI in the Cloud: The Rising Tide of Security and Privacy Risks

2025/05/16 SecurityAffairs — 企業における業務の効率化と意思決定の迅速化を図るために、人工知能 (AI) の導入が進むにつれて、Azure OpenAI/AWS Bedrock/Google Bard といったクラウド・ベースのプラットフォームを利用する企業が増えている。2024年だけでも、半数以上の組織がカスタム・アプリケーションの構築に AI を導入したという。これらのツールにより、明らかに生産性は向上するが、その一方において、特にデータのセキュリティとプライバシーに関する、複雑かつ新たなリスクが生じている。

GenAI の二面性

現代のエンタープライズ AI の中核を成すのは、文書の要約/質問への回答/コンテンツ生成などを行う、コパイロットやエージェントを支える生成プラットフォームである。これらのサービスの多くは、ナレッジベースやベクター・データベースから情報を動的に取得する AI モデルにおいて、適切な回答を提供する Retrieval-Augmented Generation (RAG) などの技術が採用されている。

しかし、RAG にはリスクも伴う。アクセス制御が緩すぎると、ユーザーによる誤用や悪意により、企業の機密データが取得されてしまう可能性がある。たとえば、AI エージェントのミス・コンフィグにより、機密性の高い販売レポートや顧客記録が、アクセス権限のない従業員に公開されてしまうというインシデントも考えられる。

設定ミスと過剰な公開

こうしたリスクは、多くの場合において、過度に緩いアクセス権限コンフィグに起因する。AI エージェントを、S3/SharePoint/Google Drive などのエンタープライズ・システムに統合する場合には、厳格なロールベースのポリシーにより、アクセスを制御することが不可欠となる。たとえば、緩い制限がかけられている、営業向けの AI コパイロットを使用する開発者が、意図せず個人情報 (PII) や財務データにアクセスしてしまうといったシナリオが考えられる。

カスタム AI モデルには独自の課題が伴う

サードパーティのサービスを利用する企業の多くは、信用スコアリング/不正行為検出/顧客パーソナライズなどのタスクのために、AI/ML モデルを社内で構築している。これらのモデルにより、競合における優位性が生じるだろうが、以下のケースにおいては、大きなリスクを伴うことになる。

  • 機密性の高いトレーニング・データがマスキング/最小化されていない
  • モデルのストレージ環境が適切に保護されていない
  • アクセス制御が適切に定義されていない、または、適用されていない
  • デプロイされたモデルが権限のないユーザーに公開されている
  • Shadow AI モデルが監視されず、盲点が生じている

たとえば、個人識別子によりトレーニングされたモデルには、トレーニング/デプロイ中の不適切な管理により、意図せず情報を漏洩する可能性がある。

従来の安全対策が不十分な理由

多くの企業は、従業員のトレーニングとデータ取扱いポリシーに頼ることで、これらのリスクに対処している。この取り組みは有益ではあるが、十分ではない。なぜなら、人為的ミスは避けられず、リアルタイムの監視と自動制御がなければ、機密データが漏れてしまう可能性があるからだ。

前進:AI の安全な利用のための原則

組織の運営方法を AI が変革し続けているが、データ・セキュリティに対する積極的かつ原則的なアプローチと組み合わせた上で、それらを導入する必要がある。そのためには、基本的な制御を超えたレベルでの、きめ細かなアクセス制御の適用や、トレーニング・パイプラインにおける機密データ露出の最小化などに加えて、不正使用やルールからの逸脱を検知するための、継続的な使用状況監視が必要となる。

いまなら、パワフルな AI データ・ガバナンスを実践することで、ユーザー組織におけるイノベーションの中核に、プライバシー/コンプライアンス/トラストを据えながら、AI の潜在能力を最大限に引き出すことも可能となっている。

著者について:Sentra のセキュリティ研究者 Veronica Marinov

最近は、AI とセキュリティに関する話題を目にする機会が増えてきましたね。生成 AI の可能性には心が躍りますが、同時にこうしたリスクについても目を向けておきたいです。よろしければ、以下の関連記事も、カテゴリ _AI/ML と併せて、ご参照ください。

2025/04/30:AI プロトコル MCP/A2A に潜む脅威
2025/04/29:Gen AI とジェイルブレイク:リスクと影響
2025/04/23:AI によるエクスプロイト開発の自動化
2025/04/10:MCP に潜む脆弱性:新たなポイズニング攻撃
2025/03/14:OpenAI Operator に悪意を植え付ける
2025/03/14:DeepSeek R1 とジェイルブレイク:マルウェア生成
2025/03/07:
LLM Model を調査:17 種類でジェイルブレイク