エッジにおけるセキュリティ AI/ML:自身が標的とされるリスクと期待される貢献

Securing AI and ML at the Edge

2021/09/08 SecurityBoulevard — いくつかの組織においては、サイバー・セキュリティ運用を強化するために、AI/ML が利用されるようになってきた。最も面倒であっても必要な作業を、アルゴリズムに任せることで、過労気味のセキュリティ・チームのストレスが大幅に軽減される。しかし、組織内の多様なエリアに AI/ML が遍在するようになると、そのテクノロジー自体が攻撃を受けるという危険性が生じる。

最近のことだが、Harvard Kennedy Center の Belfer Center for Science and International Affairs が、人工知能攻撃と呼ばれる新しいタイプのサイバー・セキュリティ攻撃について警告する、レポートを発表した。このレポートでは、「これらの攻撃は、他のタイプのサイバー攻撃とは異なる。AI 攻撃は、現在では修正できない、基礎的な AI アルゴリズム固有の限界により引き起こされる。それらの攻撃は、AI/MLに依存するデータや、物理的なオブジェクトを武器にすることで、より大きな攻撃対象が前提となっていく」と述べている。

AI/MLのセキュリティ問題

nVisium の Senior Application Security Consultant である Ben Pick によると、企業がAI/MLに依存するのは、きわめて高速な処理を可能にする点にあるが、一方では、巨大な盲点を生み出すことも証明されている。Ben Pick はメール・インタビューで、「AI/MLが使用する Decision Tree アルゴリズムは仮定に基づいており、深刻な障害や見落としがあることが頻繁に示されている」と語っている。

AI/ML に加えられるユースケースと機能は複雑であり、必ずしもセキュリティと重複するわけではない。 その分野の専門家であるAI/ML開発者は、一般的なチームやプロジェクトに貢献しているが、AI/MLへのセキュリティ・コンポーネントの追加は困難である。

このように、デバイスの AI/ML 機能へのセキュリティ実装に苦労するということは、攻撃の対象となる脆弱性を探し続ける、脅威アクターたちの願望と完全に一致する。なぜなら、AI/ML はアプリケーションのセキュリティ支援が可能であっても、すべてのリスクを取り除くことはできないからだ。

Ben Pick は、「ハッカーの主な目的は、意思決定アルゴリズムを混乱させるために、入力を破損させることだろう。それは、制限速度の標識にガムテープを貼るようなもので、自動運転車が危険な速度までスピードを上げてしまったり、顔認証で人物を誤って認識してしまったりという可能性を生み出す」と述べている。

エッジへの移行

多くのケースにおいて、AI/MLは、脅威に対する最初の防衛線として機能することで、セキュリティを補強するために使われる。しかし、最前線にいる AI/ML 自身が最初に攻撃される場合にはどうなるだろう。AI/ML をエッジで保護することで、テクノロジーとデバイスへのリスクを軽減するための、ソリューションが生まれる可能性がある。

Sequitur Labs の VP of Marketing である Larry O’Connell は、「エッジでセキュリティを追加することで、モデルから導き出される結果/推論に対する信頼性が高まる。また、エッジで高度なセキュリティを確保することで、OEM メーカーは侵害のリスクを軽減し、より機密性の高い独自モデルを使用できる。明確に定義された適切なベースラインがあれば、異常や脅威をより簡単に特定することが可能となり、デバイス保護に用いるセキュリティやアルゴリズムを構築し、適応させることができる」と、メール・インタビューで語っている。

エッジを利用した AI/ML のセキュリティ

デバイスとエッジからの膨大な量の入力があるため、各デバイスのセキュリティを確保するだけではなく、膨大なインベントリとメンテナンスのシステムが必要になると、Ben Pick は指摘している。つまり、AI/ML を微調整するためには、環境を十分に理解し、AI のトレーニング用入力に適応させるための、多くの人間のアナリストが必要になる。

また、組込機器のセキュリティを確保するには、AI を適切に使用するのと同様に、専門的な知識が必要だと、Connell は付け加えている。つまり、企業は、最初からセキュリティを考慮してプロジェクトを開始する必要がある。彼は、「セキュリティの計画とは、脅威モデルなどの要件を定義し、リスクを定量化することだ。セキュリティの範囲は、製品のライフサイクルを前提とした、製造/供給/展開/更新の各段階にまでおよぶ。特に AI に関しては、モデルを安全に更新するプロセスを、更新プロセスの一部として含める必要がある」と述べている。

AI/ML の監視対象領域は大きくなる。そのため、組織は AI/ML をエッジで安全に保つなら、より大きな責任を負う必要がある。しかし、それをコントロールできるなら、潜在的な攻撃への応答が速くなり、また、AI 自身が標的になるにつれて、迅速な応答と軽減が重要になっていく。

なかなか難しい文章でしたが、とりあえず最後まで訳せました。以前に、「AI / ML はサイバー・セキュリティにとって諸刃の刃」という記事をポストしましたが、今回の記事でも「諸刃の刃」だと言っていますね。その一方で、「Microsoft Azure Sentinel の Fusion 機械学習モデルでランサムウェアを検出」という、ワクワク感満載の記事もあります。よろしければ ど〜ぞ。

%d bloggers like this: