GenAI Has Become the Biggest Data-Exposure Risk in Enterprise History
2026/02/20 InfoSecurity — さまざまな組織の多数の従業員たちが、単なる回答を得るだけではなく、文書の要約/コンテンツ作成/データセット分析/コード作成などにおいて、GenAI による支援を受けている。それらは、有用なアシスタントであり、日常業務に組み込まれている。しかし、いま明らかになってきたのは、この変化がもたらすセキュリティへの影響である。GenAI の利用が加速するにつれて、それらを通過する機密情報の量も増大している。その結果、GenAI 関連のデータ露出インシデントは、前年同期と比べて約 5 倍に増加し、これまでの組織が直面したことのない規模と速度の情報漏洩を生み出している。
この種のデータ漏洩は、多くのセキュリティ・モデルが処理できる速度を超えて、データを取り込む技術を導入したことによる、当然の帰結である。GenAI が業務遂行のデフォルト手段となるにつれ、速度と利便性を重視して構築されたツールが、自社のリスク環境を根本的に変化させたことを、すべての企業が理解しなければならない。
GenAI 導入はガバナンスを上回る速度で進行している
これまでの 1 年間で、ChatGPT や Gemini などの SaaS ベースの GenAI アプリケーション利用者数は 3 倍に増加し、これらツールへ送信されるプロンプト数は 6 倍に増加した。組織によっては、1 ヶ月に数万〜数百万件のプロンプトを投げ込んでいる。
しかし、GenAI の利用形態は、従来のエンタープライズ・セキュリティ・モデルが前提としてきた想定に適合していない。これまでのコントロールは、ブラウザ・ベースのアクセス/明確に定義されたアプリケーション/既知の境界におけるポリシー適用を前提に設計されている。しかし GenAI は、これらの前提を崩す。
GenAI を有効に活用するためには、コンテキストの付与が必要である。そのため従業員たちは、日常業務の一環として社内コンテンツ/運用データ/顧客情報など内部資料をモデルへ入力する。この行為が意味するのは、従来の監視や保護コントロールが適用されない環境へと、機密データが日常的に移動することである。それにより、意図しない露出や下流での不正利用のリスクが高まっている。
さらに AI は、API を通じたアクセスと統合により、内部ツール/ワークフロー/自動化パイプラインへと直接組み込まれている。現在、約 70% の組織が、従来のブラウザ・セッションではなく、プログラム的なインターフェイス経由で GenAI サービスへ接続している。したがって、セキュリティ・チームが歴史的にコントロールしてきた領域の外側へと、AI 活動の大部分が移行している。
組織によるコントロールが AI 機能を制限して摩擦を生じさせると、ユーザーたちは業務を継続するために、ツール/アカウント/インターフェイスを切り替える。実際のところ、GenAI 利用者の 47% は、依然として個人用または未管理の AI アプリケーションに依存しており、それらの多くが、個人アカウントと企業アカウントを行き来している。
承認済みツールを提供している組織の場合においても、この切り替えが盲点を生み、一貫した監督を困難にする。これらの盲点の発見が遅れると、偶発的な漏洩が引き起こされ、また、容易な侵入経路を探す攻撃者に悪用されてしまう。
すでにセキュリティ・チームにとって、GenAI を巡る負荷が顕在化している。平均的な組織では、毎月約 223 件の GenAI データ・ポリシー違反インシデントが発生している。このデータが示唆するのは、ポリシー/プロセス/監視が追いつかない速度で拡大する新たな技術に対して、ガードレールの確立がきわめて困難な状況にあることだ。
組織にとっての課題は、防御を強化する方法を見出すことで、この技術による生産性の向上を実現することにある。
セキュリティはインターフェイスではなくユーザーに追従すべきだ
幸いなことに、GenAI 利用拡大に伴う露出の削減と可視性の回復のために、組織として採用できる明確な実践とソリューションが存在する。それは、どこから GenAI にアクセスするのかではなく、どの人物が、どのように利用し、どのデータが関与しているのかという部分に焦点を当てる、持続可能なセキュリティ・モデルである。
すなわち、GenAI との相互作用に対して、ゼロトラスト原則を適用することである。アイデンティティとコンテキストを検証し、ブラウザ内で発生する取引だけでなく、すべてのトランザクションに対して、一貫したコントロールを適用する。特に AI が内部ワークフローへ深く統合されるにつれて、アイデンティティ (人間またはシステム) と GenAI サービスとの相互作用の理解が重要となる。アイデンティティは、インターフェイスやアクセス方法に依存することのない、一貫したポリシー適用のアンカー・ポイントである。
同様に重要なのは、振る舞いである。GenAI リスクは静的ではなく、ツール利用頻度/共有データ種別/時間経過に伴うパターン変化により変動する。セキュリティ・チームとして必要なことは、単純な二値的コントロールに依存するのではなく、データ・アップロードの急増や機密情報を含む反復的な相互作用といった、露出増大を示す利用行動を可視化するための適切なソリューションの実装である。それが意味するのは、GenAI が単一のインターフェイス経由ではなく、ツールやワークフローへ組み込まれている現状に対応し、インライン通信および API ベース・アクセスの双方へ向けて、可視性を拡張することである。
この可視性は、データ自体を追従するデータ保護と組み合わせる必要がある。GenAI は情報取り込みに依存するため、AI システムへ向けて移動する機密情報を、組織的かつ継続的に識別/保護するコントロールが必要となる。ここでは、Data Loss Prevention (DLP) が不可欠となる。単なる遮断のための機構ではなく、コンテキスト・ベースで機密コンテンツを認識し、許容される利用と真のリスクを区別するための、ガードレールを適用する手段が DLP である。
それらは、強制が可能な明確なポリシーなしには機能しない。正当なビジネス目的を持たない GenAI ツールや、不均衡なリスクをもたらす GenAI の露出削減において、許可/遮断のポリシーは依然として重要な役割を果たす。その上で、機密データが関与する場合には、人間による監督と説明責任を確保しながら、正当な GenAI 利用を支援していく柔軟性が必要となる。
これらの実践は、GenAI セキュリティによるアイデンティティ/振る舞い/データ保護を整合させるものだ。どのような場所で、どのような方式で、GenAI が利用されようとも、ユーザーの意図とデータの移動に対してセキュリティが追従していく。
GenAI セキュリティの次の段階
すでに GenAI は存在し、業務遂行方法と企業内におけるデータ移動のあり方を再形成している。それを管理下の実験や限定的なリスクとして扱うと、人々の働き方とセキュリティ適用との乖離が拡大してしまう。
その乖離を埋めるために、セキュリティ・チームにとって必要なことは、長年の前提を再考することである。その結果を踏まえて、保護対象である労働力と同じ速度で機能するコントロールを構築すべきである。
GenAI が日常業務に浸透する一方で、その進化のスピードに追いつけないセキュリティという問題が生じ、データ漏洩のリスクが前年比で約 5 倍という驚異的なペースで増大しているとのことです。この問題の本質は、これまでの社内と社外を分ける境界防御という考え方が、AI の利用形態に対して通用しなくなっている点にあります。従業員たちが AI から良い回答を得ようとして、無意識に機密性の高い社内資料や顧客データをプロンプトに入力してしまうことで、データが企業の管理外へと流出しています。
さらに、API を通じたシステム連携により、AI がブラウザ以外の場所 (プログラム内部など) で直接データを処理する割合が 70% に達しており、従来の監視ツールでは “何が起きているか見えない” という盲点が急拡大しています。この問題については、さまざまな総論と各論がぶつかり合って、火花をちらしているという状況ですね。よろしければ、AI Agent での検索結果も、ご参照ください。

You must be logged in to post a comment.