ChatGPT に対するユーロポールの評価:近い将来に起こり得る問題の可能性

Europol details ChatGPT’s potential for criminal abuse

2023/03/28 HelpNetSecurity — ChatGPT に対する社会の関心が高まる中、この問題に真剣に取り組んでいる Europol Innovation Lab は、さまざまな部門の専門家が参加する、一連のワークショップを実施した。これらのワークショップは、ChatGPT のような LLM (Large Language Models) が犯罪者に悪用される可能性や、捜査官の日常業務を支援する可能性の、調査を目的としている。

ChatGPT と法執行機関

このレポートは、ChatGPT の潜在的な悪用について概観し、近い将来に起こり得る問題の可能性について展望を述べている。

MyCena Security Solutions の CEO である Julia O’Toole は、「犯罪者が ChatGPT を使用する場合おいて、そこには言語や文化の障壁は存在しない。ChatGPT を利用すれば、言語や文化の壁は無くなり、組織/取引先企業/参加イベントなどに関する情報を、驚異的なスピードでアプリケーション内に収集させることが可能だ。それらの情報をもとにして、ChatGPT で信憑性の高い詐欺メールを作成することができる。そしてターゲットが、銀行/CEO/サプライヤーなどから詐欺メールを受け取ったとき、そのメールが偽物であることを示す言葉は見当たらない。たとえば、銀行振込を促すメールであっても、口調/文脈/理由などにおいて、詐欺メールが詐欺であることを示唆する証拠は見当たらない。そのため、ChatGPT が生成したフィッシング・メールを見破るのは非常に難しい。とても危険だ」と述べている。

潜在的な犯罪における ChatGPT の悪用

ChatGPT のような LLM の能力が向上するにつれて、この種の AI システムが犯罪者に悪用される可能性が高くなるという、厳しい見通しが示されている。Europol の専門家たちが指摘する、数多くの懸念事項の中には、次の3つの犯罪分野が含まれている:

詐欺とソーシャルエンジニアリング:ChatGPT は、きわめてリアルなテキストを作成できるため、フィッシング目的のツールとして有用である。LLM が言語パターンを再現する能力は、特定の個人/集団の発話スタイルになりすますために利用できる。この機能を大規模に悪用することで、犯罪者を信頼させ、被害者を欺くことがきる。

偽情報: ChatGPT は、本物そっくりのテキストを、高速かつ大規模に作成することに優れている。そのため、特定のシナリオを反映したメッセージを、比較的少ない労力で作成/拡散することが可能であるという、プロパガンダや偽情報の発信に最適なモデルとなる。

サイバー犯罪:ChatGPT は、人間のような言語を生成するだけでなく、多種多様なプログラミング言語のコードを生成することも可能だ。技術的な知識のない犯罪予備軍にとって、悪意のコードを作成するための貴重なリソースとなる。

技術の進歩に応じて、また、新しいモデルが利用可能になるにつれて、その最前線に法執行機関は立ち、悪用を予測/防止していくことが、さらに重要になるだろう。

以下のリストは、これまでの ChatGPT に関する記事のリストです。今日の記事に記されている内容は、これまでに議論されていることですが、ついに Europol までが乗り出してくる社会問題になってきたようです。AI がもたらす社会の変化という観点ではありますが、目の前にある犯罪組織との戦いのために必要な分析だと、当局は考えているようです。

2023/03/13:ChatGPT に企業データを投げ込むというリスク
2023/02/16:ChatGPT とセキュリティの関係:判断は時期尚早?
2023/02/10:ChatGPT がフィッシングをプッシュ
2023/02/03:ChatGPT はサイバー攻撃の中核になる?
2023/01/31:書いたのは ChatGPT なのか? 人間なのか?
2023/01/28:ChatGPT でセキュリティを強化
2023/01/25:ChatGPT:Prompt エンジニアリングへ
2023/01/24:ChatGPT 問題: AI を騙して悪用するのは簡単だ
2023/01/18:マルウェア開発:継続的な変異により検出が困難になる
2023/01/13:人工知能の倫理をバイパスするロシアのハッカーたち
2023/01/06:フィッシング/BEC/マルウェア開発に利用できる?


%d bloggers like this: