機械学習モデルから学習データを漏えいさせる推論攻撃とは

Inference attacks: How much information can machine learning models leak?

2021/04/14 PortSwigger — さまざまなアプリケーションにおいて、機械学習モデルが広く採用されるようになったことで、プライバシーやセキュリティに関する新たな問題が生じている。その中には、攻撃者が対象となる機械学習モデルの学習データを漏えいさせる、推論攻撃というものがある。

しかし、これらの攻撃は、あまりよく理解されておらず、どのような影響をプライバシーに与えるのかについて、定義や可能性について再調整する必要がある。オーストラリアとインドの学術機関の研究者たちは、9月に開催される IEEE European Symposium on Security and Privacyで採択された新しい論文の中で、上記のような警告を発している。この論文は、University of New South Wales、Birla Institute of Technology and Science、Pilani Macquarie University および、オーストラリアの Cyber & Electronic Warfare Division, Defence Science and Technology Group の研究者たちが、共同で執筆したものである。

機械学習のモデルは、何千ものデータ・レコードに照準を合わせます。これらのデータ・セットには、名前、生年月日、住所、パスワード、クレジットカード番号、健康データなどの個人情報などが含まれる可能性があります。推論攻撃とは、こうした機械学習モデルで多様なデータを徹底的に解析し、その出力を計量することで、それらの機密情報を明らかにするものだと、この記事は指摘しています。Membership inference (MI メンバーシップ推論) はモデルの学習に用いた記録を、再構築しようとする攻撃の一種とのことです。推論攻撃には、さまざまな種類があるようですが、この手の新種は困りもので、頭痛のタネ、またひとつ増えてしまいますね。

%d bloggers like this: