Your voice could be your biggest vulnerability
2023/05/08 HelpNetSecurity — McAfee によると、オンライン音声詐欺の増加に AI 技術が拍車をかけており、人の声を複製するのに必要な音声は、わずか3秒であることが判明している。7カ国の 7,054人を対象に McAfee が調査したところ、成人の 4分の1 が何らかの AI 音声詐欺を経験したことがあり、10人に 1人が個人的に狙われ、15% が知人に起こったと回答している。結果として、被害者の 77% が騙され、金銭を失ったと回答している。McAfee Labs のセキュリティ研究者たちは、AI 音声クローニング技術と、サイバー犯罪者による悪用に関する、徹底的な調査から得た知見と分析を明らかにした。

詐欺師たちは AI 技術を使って声をクローニングしている
人の声は、生体指紋に相当するユニークなものである。だからこそ、人の声を聞くことは、信頼を確立する方法として広く受け入れられている。
現状を分析すると、ソーシャル・メディアやボイス・メモなどを通じて、成人の 53% が週に1回以上、49% が週に 10回以上、自分の音声データをオンラインで共有している。したがって、誰かの声をコピーすることは、いまやサイバー犯罪者の強力なツールとなっている。
AI ツールの普及/導入により、画像や動画に加えて、おそらく最も気になるであろう友人や家族の声を操作することが、かつてないほど簡単にできるようになっている。
McAfee の調査によると、詐欺師たちは AI 技術を使って声のクローンを作り、偽のボイス・メールを送るだけではなく、被害者の知人に詐欺電話をかけたりしている。
回答者の 45% は、お金が必要な友人や恋人を装う、ボイス・メールやボイス・メモに返信すると答えている。また、その要求がパートナーや配偶者 (40%) 、親 (31%) 、子供 (20%) から届いたと判断した場合には、返信すると答えています。
AI ボイス詐欺に引っかかった場合の被害額
50歳以上の保護者の場合、子供に反応する傾向が 41% であり、最も高くなっている。最も騙されやすいメッセージは、交通事故に巻き込まれた (48%)、強盗にあった (47%)、携帯電話や財布をなくした (43%)、海外旅行中に助けが必要 (41%) といったメッセージである。
そして、AI 音声詐欺に引っかかった場合の代償は大きく、被害に遭った人々の 3分の1以上が $1,000 以上を騙し取られたと回答し、7% が $5,000~$15,000 を騙し取られたとしている。
また、本調査では、ディープ・フェイクや偽情報の増加により、人々がオンラインで目にするものに対して、より警戒心を持つようになったことも明らかにされている。成人の 32% は、ソーシャル・メディアに対する信頼度が、以前よりも下がったと答えている。
McAfee の CTO である Steve Grobman は、「人工知能は素晴らしい機会をもたらすが、どのようなテクノロジーにも、悪用される可能性が常にある。AI ツールへのアクセスや使い勝手の良さにより、サイバー犯罪者は説得力のある方法で、活動を拡大できるようになっているのが、今日の状況だ」と述べている。
音声クローンの作成が容易に
McAfee の研究者たちは、この新しいトレンドのレビュー/評価の一環として、AI ボイス・クローニング・ツールのアクセシビリティ/使いやすさ/有効性を3週間にわたり調査し、インターネット上で自由に利用できる 10種類以上のツールがあることを発見した。
それらのツールには無料/有料があるが、その多くは基本的なレベルの知識などで使用できるものだった。ある例では、たった3秒の音声で 85% の一致が得られたが、より多くの投資と努力をすれば、精度を上げることが可能だと思われる。
McAfee の研究者たちは、データ・モデルをトレーニングすることで、わずかな数の音声ファイルをベースにして、95% の音声一致を達成することができたとしている。
クローンの精度が高ければ高いほど、サイバー犯罪の成功率が高まる。親しい間柄にありがちな、この種の感情的な揺さぶりをかけることで、詐欺師はわずか数時間で数千ドルを手にすることが可能となる。
ボイスクローニング技術の進化
Steve Grobman は、「高度な AI ツールが、サイバー犯罪者たちのゲームを変えている。今では、ほんの少しの努力で、人の声を複製し、親しい人を騙し取れるようになっている。自分自身と大切な人の安全を守るために、常に警戒し、ときには積極的に行動することが重要だ。万が一、配偶者や家族から電話があり、金銭を要求された場合は、事前に合意した暗号を使用したり、本人しか知らない質問をするなど、発信者を確認するようにすべきだ。また、アイデンティティとプライバシーを保護するサービスは、犯罪者が説得力のあるシナリオを作成するために使用できる、個人情報のデジタル・フットプリントを制限するのに役立つ」」と述べている。
McAfee の研究者たちは、発見したクローン作成ツールを用いることで、米国/英国/インド/オーストラリアなどの人々の、発音やアクセントを再現するのに問題はなかったが、より特徴的な声は、コピーするのが困難になることを発見した。
たとえば、いつもと違うペース/リズム/スタイルで話す人の声は、正確にコピーするためにより多くの努力を必要とし、結果としてターゲットにされ難くなる。
しかし、研究チームが感じたのは、すでに人工知能がサイバー犯罪者のゲームを変えてしまったということだ。参入障壁は、かつてないほど低く、サイバー犯罪は容易になっている。
AI ボイスクローニング・プロテクション
子供や家族、そして、信頼できる親しい友人と、合言葉を設定する。特に年寄りや子供などの弱い立場の人が助けを求める電話やメールなどでは、必ずそれを聞くようにすべきだ。
常に発信元を疑うことが必要だ。差出人不明の電話やメール、あるいは見覚えのある番号からであったとしても、立ち止まって、一呼吸おいて考えてみてほしい。それは、本者に聞こえるだろうか?彼らはあなたに、このようなことを要求するだろうか?返事をする前に、また、お金を送る前に、電話を切って、その人に直接に電話をかけるなどして、確認してほしい。
クリック/共有する前に、よく考えてほしい。あなたのソーシャル・メディア・ネットワークには、誰がいいるだろう?あなたは、その人たちを本当に知っていて、信頼しているだろうか? オンライン上の友人やつながりについて、よく考えてほしい。つながりが広ければ広いほど、また共有する量が多ければ多いほど、悪意を持ってあなたの ID がクローン化されるリスクが高まる。
ID モニタリング・サービスを利用すれば、個人を特定できる情報にアクセスできないようにし、個人情報がダークウェブに流出した場合に通知を受け取ることが可能になる。サイバー犯罪者が、あなたを装うことができないよう、個人情報を管理するようにしてほしい。
新たな心配のタネとして、AI ボイスクローニングというものが浮上してきたようです。数秒の音声データで、それが出来上がってしまうとしたら、たいへんな驚異になり得ますね。いちばん心配なのは、大半の電話サービスで、オペレータとの会話内容が記録されていることです。電話番号はもちろんのこと、オペレータが検索した顧客情報との紐付けが行われているはずなので、このデータが盗まれると、深刻な事態となります。データを預かることとのリスクに対して、スポットライトが当たる時代になりそうです。

You must be logged in to post a comment.