ChatGPT Creates Polymorphic Malware
2023/01/18 InfoSecurity — CyberArk のサイバー・セキュリティ研究者が、OpenAI の ChatGPT とテキストベースの対話を行い、新たな多形態マルウェア (Polymorphic Malware) を作成したと報告している。先日に同社が InfoSecurity と共有した技術文書によると、ChatGPT を用いて作成されたマルウェアは、「攻撃者による努力や投資を大幅に抑制した上で、簡単にセキュリティ製品を回避し、緩和を面倒なものにする」ことが可能だという。

この、CyberArk のセキュリティ研究者である Eran Shimony と Omer Tsarfati が執筆したレポートでには、「このマルウェアを作成するための最初のステップは、ChatGPT による悪意のあるツール作成を防止するための、コンテンツ・フィルタをバイパスすることだった」と説明している。
そのために、CyberArk の研究者は、より権威的なふりをして、同じ質問を投げかけて、主張を繰り返したという。Shimony と Tsarfati は、「興味深いことに、複数の制約を使用して ChatGPT に同じことを行うように要求し、従うように求めることで、機能的なコードを受け取ることができた」と述べている。
さらに研究者たちは、ChatGPT の Web バージョンよりも、API バージョンを使用する方が、システムによるコンテンツ・フィルタが緩いように見えたと報告している。
CyberArk のレポートには、「なぜ、そうなるのかは不明だが、Web バージョンでは複雑なリクエストへの対応が難しいようだった。そのため、私たちの (API を使う) タスクは、非常に簡単になっている」と記されている。
Shimony と Tsarfati は、ChatGPT を用いて元のコードを変異させ、複数のバリエーションを作成した。
彼らは、「言い換えるならば、出力を気まぐれに変異させ、ユニークなものを量産できる。さらに、特定の API コールの使用方法を変更するなどの制約を加えると、セキュリティ製品は苦しくなるだろう」と指摘している。
ChatGPT がインジェクタを作成し、継続的に変異させることが可能なため、サイバー・セキュリティ研究者による捕捉/検出が困難な、ポリモーフィック・プログラムを作成できた。
彼らは、「ChatGPT による、マルウェア開発の可能性は無限大であり、各種の永続化技術/Anti-VMモジュール/悪意のペイロード生成などに応用できる。C&C サーバ通信の詳細については掘り下げていないが、疑いを持たれることなく、目立たないよう通信する方法はいくつかある」と述べている。
CyberArk は、この研究を、さらに拡大しながら精緻化し、ソースコードの一部を、学習用として公開することも目指すとしている。
先日には、Check Point Research が、情報窃取ツール/多層暗号化ツール/ダークウェブ・マーケットプレイス・スクリプトなどの悪意のツール開発に、ChatGPT が使用されていることを発見している。
この ChatGPT の悪用については、すでに 2023/01/06 の「ChatGPT という人工知能:フィッシング/BEC/マルウェア開発に利用できる?」と、2023/01/13 の「ChatGPT の悪用が始まる:人工知能への制限バイパスを試みるロシアのハッカーたち」で紹介してきました。そして、今回の記事が3回目となりますが、わずが2週間の間に、さまざまな動きが確認されています。この先、いったい、どうなるのでしょうか? とても心配なトレンドです。

You must be logged in to post a comment.