ChatGPT の悪用が始まる:人工知能の倫理をバイパスするロシアのハッカーたち

Russian Hackers Try to Bypass ChatGPT’s Restrictions For Malicious Purposes

2023/01/13 InfoSecurity — ロシアのサイバー犯罪者たちが、OpenAI の API 制限をバイパスして ChatGPT チャットボット にアクセスし、不正なアクションを試みる様子が、ダークウェブ・フォーラムで確認されている。ある脅威アクターたちは、OpenAI の無料アカウント制限を回避するために、アップグレード・ユーザーとして支払いに盗んだカードを使用する方法を議論していた。また、OpenAI の地理的なコントロールを回避する方法についてブログを投稿した者や、半合法的なオンライン SMS サービスを使って ChatGPT に登録するチュートリアルを作成した者もいる。

Check Point Research (CPR) は情報公開に先立ち、InfoSecurity と調査結果を共有し、「一般的に、ロシアの準合法的なオンライン SMS サービスには、同サービスを使用して ChatGPT に登録するためのチュートリアルが多数あり、既に使用された事例もある」と述べている。

Check Point Software Technologies の Threat Intelligence Group Manager である Sergey Shykevich は、「OpenAI に設定されている、特定の国々からのアクセス制限をバイパスして ChatGPT にアクセスすることは、それほど難しくはない。現時点においてロシアのハッカーたちは、ジオフェンシングを突破して ChatGPT を悪用する方法について議論/検証している」と述べている。

彼は、「それらのハッカーたちは、日々の犯罪行為に ChatGPT を導入し、テストしようとしている可能性が高いと考えている。サイバー犯罪者たちは、ChatGPT の背後にある AI 技術が、費用対効果を向上させると認識しているため、ChatGPT への関心が高まっている」と述べている。

CPR が先週に発表したアドバイザリでは、すでに脅威アクターたちが ChatGPT を使用して、悪意のツールを作成しているという事例が示されている。それらのツールには、情報窃取ツール/多層暗号化ツール/ダークウェブ・マーケットプレイス・スクリプトなどが含まれている。

ChatGPT が、サイバー犯罪のコモディティ化を推進すると考えているのは、サイバー・セキュリティ企業だけではない。さまざまな専門家たちが、サイバー犯罪に関心を持つ人々に対して、攻撃の作成方法/ランサムウェアの書き方を教えるために、AI ボットが悪用される可能性があると警告している。

2023/01/06 の 「ChatGPT という人工知能:フィッシング/BEC/マルウェア開発に利用できてしまう?」で、この ChatGPT 悪用の可能性についてお伝えしました。その背景では、今日の記事に記されているような悪用の試みが、すでに検知されていたのでしょう。前回の記事では、フィッシング・メールの文章作成に、ChatGPT が有用なことが証明されています。よろしければ、カテゴリ AI/ML も、ご利用ください。

%d bloggers like this: