OWASP Beefs Up GenAI Security Guidance Amid Growing Deepfakes
2024/11/05 DarkReading — いまでは、ディープフェイクや GenAI 攻撃は珍しいものではなく、今後においては、そのような攻撃が急増する兆候が見られる。すでに、AI が生成したテキストは、電子メールでは一般的なものとなり、人間が作成した可能性が低い電子メールを検出する方法を、セキュリティ企業は見つけ出そうとしている。mimecast の分析によると、人間が作成した電子メールは、すべての電子メールの約 88% に減少している。LLM が生成する電子メールの割合は、2022年後半の約 7% から、現在の約 12%へと上昇している。

10月31日に、Open Worldwide Application Security Project (OWASP) の Top 10 for LLM Applications & Generative AI グループは、セキュリティ・チーム向けの3つのガイダンスをリリースし、 AI ベースの攻撃に対抗する組織における、より強力な防御の開発を支援し始めた。
以前にリリースされた AI cybersecurity and governance checklist に加えて、このグループが追加するのは、deepfake events に備えるためのガイド、および、AI security centers of excellence を作成するためのフレームワーク、AI security solutions に対してキュレーションされたデータベースとなる。
以前の Top 10 Guide は、モデルを構築する組織や、独自の AI サービス開発する企業とって有益なものだが、この新しいガイダンスは、AI テクノロジーのユーザーを対象としていると、OWASP の共同プロジェクト・リーダーである Scott Clinton は述べている。
彼は、「それらの企業は、可能な限りの範囲で数多くのガイダンスを用いて、AI を安全に実行できるようにしたいと考えている。AI はビジネスにおける競争上の差別化要因であるため、いずれにしても AI を活用することにな。競合他社が AI を利用するなら、それに負けない方法を見つけだし、より適切に運用する必要がある。つまり、セキュリティが障壁となり、新たなビジネスを妨害してはならない」と、付け加えている。
あるセキュリティ・ベンダーに対する求職者ディープフェイク攻撃
いま発生している、実際の攻撃の例を紹介しよう。セキュリティ ベンダー Exabeam に求職し、最初の審査をすべて通過した人物が、最終面接ラウンドへと進んだ。そのとき、同社の GRC チーム・リーダーである Jodi Maas は、何かがおかしいと認識したという。
同社の人事グループによる、このシニア・セキュリティ・アナリストの最初の面接は、通常の挨拶から始まり、ある程度は予想通りとフラグ付けされた。しかし、何らかのデジタル・トリックが使用されていたことが、すぐに明らかになったという。このインタビューでは、背景にアーティファクトが現れ、口と音声と一致せず、感情も表さなかったと、Exabeam の SOC でアプリケーション・セキュリティと GRC を担当する Maas は述べている。
彼女は、「とても奇妙だった。笑顔もまったくなく、個性もまったくなかった。私たちは直ぐに、この人は合わないと分かったが、インタビューは続けられた。この経験は、きわめて興味深いものだった」と述べている。
このインタビューの後に Maas は、Exabeam の CISO である Kevin Kirkwood に連絡を取り、ディープ・フェイクであると結論付けた。この経験に、彼らは非常に動揺し、GenAI ベースの攻撃を捕捉するためには、より良い手順を導入する必要があると判断し、セキュリティ・スタッフとの会議と、従業員向けの社内プレゼンテーションを開始した。
Kevin Kirkwood は、「この求職者が人事グループをすり抜けたという事実は、とても興味深いものだった。彼らは、すべての質問に正しく答えたので、この求職者を通過させた」と述べている。
このディープフェイク・インタビューの後に、Exabeam の Kevin Kirkwood と Maas はプロセスを刷新した。将来的に、このような攻撃が増えることを知らせるために、人事グループに対してフォローアップした。現時点において同社は、ビデオ通話を疑ってかかるよう、従業員にアドバイスしている。Kirkwood は半ば冗談で、DarkReading によるインタビューの途中で、私が人間である証拠として、ビデオをオンにするように促した。そして、私はそうしました。
Kirkwood は、「これからは、この種のディープ・フェイクを。をもっと頻繁に目にするようになるだろう。それらに対するチェックは可能であり、ディープ・フェイクだと見破れるものである」と指摘している。
ディープフェイク対策の技術的な解決策が必要
ディープ・フェイク・インシデントが、IT 専門家たちの想像力と恐怖をかき立てる。電子メール・セキュリティ企業 Ironscales が実施した調査によると、現在では 48% の回答者が、ディープフェイクに対する強い懸念を示しており、74% の回答者は、将来におけるディープ・フェイクが大きな脅威となると考えている。
ディープ・フェイクが進化していく道筋は、きわめて簡単に予測できる。たとえ、現在では、ほとんどの人を騙すほど上手くなくても、将来は上手くなるだろう。Ironscales の創設者兼 CEO である Eyal Benishti は「つまり、人間によるトレーニングは、おそらく限界があるということだ。AI ビデオは不気味なほどリアルになり、攻撃者がリアルタイムで操作する別の人物による完全なデジタル・ツインが、つまり真の「ソックパペット」が登場するのも、そう遠くないだろう」と指摘している。
彼は、「あらゆる企業が、ディープ・フェイクに対する備えを考えようとしている。今後において、この種のコミュニケーションは、完全に信頼できないものであると、それぞれの企業が気付き始めている」と締め括った。
OWASP の GenAI セキュリティ・ガイダンスが主役という感じですが、記事の内容は、その背景にある、Gen AI 攻撃の現状を伝えるものになっています。こうして、数字で示されると、現実感が増してきます。よろしければ、AI/ML カテゴリと、OWASP で検索を、併せて ご参照ください。
You must be logged in to post a comment.