AI Adoption Surges But Security Awareness Lags Behind
2023/10/20 infosecurity — ChatGPT や Google Bard のような生成 AI ツールの採用と管理に関する新たな洞察が、ExtraHop の新しい調査により得られた。この調査は、グローバルにおける、1,200人以上の Security/IT のリーダーを対象としたものだ。回答者たちが最も懸念しているのは、不正確な回答 (40%) であり、それに続くのが、顧客や従業員の個人を特定できる情報 (PII) の漏洩 (36%)/企業秘密の漏洩 (33%)/財務上の損失 (25%) などである。

その一方で、基本的なセキュリティ対策は不足しており、データ損失のリスクが高まっている。具体的にいうと、回答者の 82% は自社のセキュリティ・スタックに自信を持っているが、生成 AI の利用を監視する技術に投資しているのは半数以下である。また、データ共有のためのセキュリティ・ポリシーを確立しているのは 46% に過ぎない。
Ontinue の VP of Security Operations である Craig Jones は、「データ・プライバシーは極めて重要な懸念事項である。このようなモデルとのやり取りで生じる不注意が、機密情報の共有や暴露へとつながる可能性がある。そのため、データの漏洩を防ぎ、プライバシーを確保するために、堅牢なデータの取り扱いと処理のためのフレームワークが必要である」と、警告している。
彼は、「組織は、LLM (大規模言語モデル) がデータを扱う方法を厳密に評価/管理し、GDPR/HIPAA/CCPA などとの整合性を確保する必要がある。そのためには、強力な暗号化/同意の仕組み/データ匿名化などの技術の採用に加え、コンプライアンスを維持するためのデータの取り扱い方法を、定期的に監査/更新する必要がある」と付け加えている。
さらに、ExtraHop のレポートによると、32% の組織が生成 AI ツールの使用を禁止しているにもかかわらず、使用ゼロと報告しているのはわずか 5% であるという。つまり、データ取得を禁止する事項の回避方法を、従業員たちが見つけ出していることが示唆される。
回答者の 74% が、生成 AI 保護への投資を計画しており、60% が、政府による明確な AI 規制が設けられるべきだと考えている。つまり、外部からの指針の提供が、強く望まれている状況にある。
ExtraHop のレポートは、生成 AI ツールの利用が拡大していることを示している。安全で生産的な使用を保証するために、同社が推奨するのは、明確なポリシー/監視ツール/従業員トレーニングなどである。
Darktrace の VP of Cyber Risk & Compliance である John Allen は、「生成 AI ツールの使用は、結局のところ初期段階にある。組織において、データ・プライバシーが尊重され、コンプライアンスが維持されるためには、対処すべき多様な問題が残っている。潜在的なリスクを理解し、プライバシーを保護し、データを安全に保つためには、誰もが適切なガードレールとポリシーを確実に導入する役割を担っている」とコメントしている。
この ExtraHop のレポートに記されているように、さまざまな分野における、さまざまな業態で、AI が使われ始めています。メアドなども要求されずに、簡単にダウンロードできますので、ぜひ、ご参照ください。よろしければ、カテゴリ AI/ML も、ご利用ください。

You must be logged in to post a comment.