生成 AI 導入の急増:その一方でセキュリティ意識の遅れが懸念される

AI Adoption Surges But Security Awareness Lags Behind

2023/10/20 infosecurity — ChatGPT や Google Bard のような生成 AI ツールの採用と管理に関する新たな洞察が、ExtraHop の新しい調査により得られた。この調査は、グローバルにおける、1,200人以上の Security/IT のリーダーを対象としたものだ。回答者たちが最も懸念しているのは、不正確な回答 (40%) であり、それに続くのが、顧客や従業員の個人を特定できる情報 (PII) の漏洩 (36%)/企業秘密の漏洩 (33%)/財務上の損失 (25%) などである。


その一方で、基本的なセキュリティ対策は不足しており、データ損失のリスクが高まっている。具体的にいうと、回答者の 82% は自社のセキュリティ・スタックに自信を持っているが、生成 AI の利用を監視する技術に投資しているのは半数以下である。また、データ共有のためのセキュリティ・ポリシーを確立しているのは 46% に過ぎない。

Ontinue の VP of Security Operations である Craig Jones は、「データ・プライバシーは極めて重要な懸念事項である。このようなモデルとのやり取りで生じる不注意が、機密情報の共有や暴露へとつながる可能性がある。そのため、データの漏洩を防ぎ、プライバシーを確保するために、堅牢なデータの取り扱いと処理のためのフレームワークが必要である」と、警告している。

彼は、「組織は、LLM (大規模言語モデル) がデータを扱う方法を厳密に評価/管理し、GDPR/HIPAA/CCPA などとの整合性を確保する必要がある。そのためには、強力な暗号化/同意の仕組み/データ匿名化などの技術の採用に加え、コンプライアンスを維持するためのデータの取り扱い方法を、定期的に監査/更新する必要がある」と付け加えている。

さらに、ExtraHop のレポートによると、32% の組織が生成 AI ツールの使用を禁止しているにもかかわらず、使用ゼロと報告しているのはわずか 5% であるという。つまり、データ取得を禁止する事項の回避方法を、従業員たちが見つけ出していることが示唆される。

回答者の 74% が、生成 AI 保護への投資を計画しており、60% が、政府による明確な AI 規制が設けられるべきだと考えている。つまり、外部からの指針の提供が、強く望まれている状況にある。

ExtraHop のレポートは、生成 AI ツールの利用が拡大していることを示している。安全で生産的な使用を保証するために、同社が推奨するのは、明確なポリシー/監視ツール/従業員トレーニングなどである。

Darktrace の VP of Cyber Risk & Compliance である John Allen は、「生成 AI ツールの使用は、結局のところ初期段階にある。組織において、データ・プライバシーが尊重され、コンプライアンスが維持されるためには、対処すべき多様な問題が残っている。潜在的なリスクを理解し、プライバシーを保護し、データを安全に保つためには、誰もが適切なガードレールとポリシーを確実に導入する役割を担っている」とコメントしている。