Hackers Use LLM to Create React2Shell Malware, the Latest Example of AI-Generated Threat
2026/02/11 SecurityBoulevard — Darktrace の CloudyPots ハニーポット・ネットワークで、先日に捕捉されたマルウェアサンプルは、完全に AI により生成されたものである。2ヶ月前に公開され、現在も脅威であり続ける React2Shell 脆弱性を悪用するために、このマルウェアは構築されている。システムへの初期侵入を達成したマルウェアは、その後に暗号通貨マイニングを実行する。この名称が与えられていないマルウェアは、Large Language Model (LLM) などの AI ツールを用いて、その大部分を作成するという。

この発見は新たな脅威における最新事例であると、Darktrace の Malware Research Engineer である Nathaniel Bill と、VP of Security and AI Strategy Field CISO の Nathaniel Jones は述べている。
彼らは、「AI 支援によるソフトウェア開発 “vibecoding” が広く普及するにつれ、攻撃者たちは LLM を悪用することで、機能的なツールを迅速に生成している。この件は、より広範な変化を示している。つまり、低スキルのオペレーターであっても、AI を悪用することで、効果的なエクスプロイト・フレームワークを高速に生成できる段階に到達している」と指摘している。
さらに、「AI を悪用する攻撃者たちは、機能するエクスプロイト・フレームワークを生成し、すでに 90 を超えるホストを侵害した。敵対者にとっての AI の実用価値の恩恵は、過小評価されるべきではない」と付け加えている。
このマルウェアは、”python-metrics-collector” というコンテナを生成していた。つまり、フィッシング・メールや、ディープフェイク生成、プロンプト・インジェクションによる AI モデル侵害などのレベルを超えた攻撃者たちは、悪意のコード自体を迅速に生成する段階へと移行している。それを示す新たな事例が、明らかにされた。
GenAI マルウェアの台頭
2025年11月に Anthropic が公表したのは、中国の国家支援アクターが同社の Claude Code 開発者向け AI ツールを用いて、サイバースパイ活動の 80%〜90% を自動化していたことだ。
その一方で、2025年12月に Check Point の研究者たちは、AI を用いる単独の脅威アクターが設計/構築してきた、マルウェア VoidLink 開発の初期段階について報告した。
さらに、2026年2月に Sysdig の研究者が報告したのは、2025年11月に LLM を全面的に活用する攻撃者が、Amazon Web Services (AWS) 環境への初期侵入から管理者権限取得までを、約 8 分で達成したという事例である。
Bill と Jones は、「CISO と SOC リーダーは、近未来の予兆として、これらの件を受け止めるべきである。今や脅威アクターたちは、オンデマンドでカスタム・マルウェアを生成し、エクスプロイトを即時に改変し、侵害の全段階を自動化できるようになった。防御側が優先すべきは、迅速なパッチ適用/継続的なアタック・サーフェス監視/振る舞い検知アプローチの徹底である。GenAI マルウェアは、もはや理論レベルのものではない。すでに運用可能であり、スケーラブルであり、誰でも利用可能である」と、記している。
Docker ハニーポットで捕捉
Darktrace の研究者は、Docker デーモンをインターネット公開し、認証を無効化した Darktrace Docker ハニーポットを介して、このマルウェアを捕捉した。
侵入後のマルウェアは、Python パッケージ一覧をダウンロードし、その後に Python スクリプトを取得/実行した。そのためのリンクは “hackedyoulol” というハンドル名のユーザーがホストする GitHub Gist にリダイレクトされていたが、このユーザーは既に GitHub から締め出されている。
Bill と Jones は、「注目すべき点として、このスクリプトに Docker スプレッダーが含まれていなかったことが挙げられる。Docker を標的とする通常のマルウェアで見られる要素であるため、この件では、中央スプレッダー・サーバで伝播が処理されていた可能性が高い」と指摘している。
難読化された Python ペイロードには、次のような複数行のコメントが含まれていた。
“Network Scanner with Exploitation Framework, Educational/Research Purpose Only, Docker-compatible: No external dependencies except requests.”
AI 悪用の痕跡
Bill と Jones が指摘するのは、この記述自体が AI 悪用を示唆する重要な手掛かりであるという点だ。通常において、解析を困難にするマルウェアの設計において、このような詳細なコメントが含まれることはない。
人間のオペレーターが急いで書いたスクリプトは、明確性よりも速度と機能性を優先する。その一方で、LLM で設計されたものは、きわめて詳細なコメントがコードに付与される傾向があり、このサンプル全体で、そのパターンが繰り返されている。さらに、本来の AI は、マルウェア生成を拒否する機能がセーフガードによりもたらされる。
上記のコメントにおける “Educational/Research Purpose Only” という表現は、ジェイルブレイク目的とする悪意のリクエストを、攻撃者が提示した可能性を示唆するという。スクリプトの一部を AI 検出ツールにかけた結果、LLM 生成の可能性が高いことが示された。
2 人の研究者は、「このスクリプトは、React2Shell エクスプロイト・ツールキットとして適切に構築されており、リモートコード実行を獲得し、XMRig (Monero) マイナーの展開を目的としている。IP 生成ループを用いて標的候補を探索し、細工されたリクエストを実行する」と述べている。
サイバー犯罪が手軽に
研究者たちによると、これまでの攻撃者が得ていた収益は、1 日あたり約 $1.81 に過ぎなかったという。
Bill と Jones は、「収益は少額であり、暗号通貨マイニング自体も新しい手法ではない。しかし、このキャンペーンは、AI ベースの LLM により、これまで以上にサイバー犯罪が手軽になったことを示す証拠である」と述べている。
Black Duck の Senior R&D Manager である Christopher Jess は、攻撃手法や脆弱性自体には新規性がないと指摘する。重要なことは、End-to-End 侵入チェーンの構築に必要な労力が、大幅に削減される点である。
彼は、「コーディング・エージェントや LLM は、攻撃者によるツール化までの時間を圧縮し、低スキルのオペレーターであっても、機能的かつ適応可能なエクスプロイト・フレームワークを高速に生成できるようにしている。単純なプロンプト入力により、適切に機能するエクスプロイト・コードが生成される可能性がある。それに対処するユーザー組織が想定すべきは、カスタマイズされた機会主義的な攻撃が、より頻繁に引き起こされる状況である」、と指摘している。
新たな現実は冷厳なものとなる
Acalvio の CEO Ram Varadarajan は、「我々が直面している、この冷厳な現実は、すべてのサイバー・ハッカーを、AI がスーパーヴィラン (映画 Batman の悪役たち) へと変貌させるものだ」と述べている。
この種の攻撃は今後も継続し、さらに検知困難になるという。
彼は、「率直に言うなら、オペレーターたちにとって、”breach as baseline” を前提とする以外に選択肢はない。すなわち、攻撃者は常にファイアウォール内部に存在すると仮定すべきである。最善の防御は、ハニーポットからゲーム理論に至るまで、あらゆる領域に AI で最適化された検知網を配置することだ。攻撃側 AI モデルのアルゴリズム的な振る舞いを、逆手に取る欺瞞技術を用いることで、侵入者を罠へと誘導する必要がある。それが我々の未来である」と締め括っている。
この記事が指摘するように、2026年の脅威動向は、AI の悪用による攻撃の高速化とインフラの信頼性悪用が大きな軸となっています。この問題の原因は、LLM などの GenAI を駆使する攻撃者が、React2Shell (CVE-2025-55182) のような新しい脆弱性を悪用する武器を即座に作成し、広範囲に展開できるようにしていることにあります。また、Google Firebase や正規の管理ツールを隠れ蓑にする手口は、従来の怪しいドメインをブロックするという防御策の前提を揺るがしています。脆弱性の観点では、今回の React2Shell などの、認証を必要としないリモートコード実行 (RCE) が、依然として最大の脅威です。よろしければ、React2Shell での検索結果も、ご参照ください。
You must be logged in to post a comment.