サイバー攻撃に悪用される ChatGPT:防御側も LLM を活用すべき

Bad Actors Will Use Large Language Models — but Defenders Can, Too

2023/04/07 DarkReading — 各種の AI がヘッドラインを席巻しているが、その中でも ChatGPT は最新のトピックであり、その斬新さに誰もが心を奪われている。しかし、 LLM (Large Language Models) が兵器化される方法などについては、誰も触れていない。インターネットは信じられないほど巨大で複雑になり、数多くの機密情報が露呈されるようになった。10年前には1つの Web サイトしか持たなかった企業が、今日では数十の Web サイトを持ち、未知の資産や子会社を抱えている。それらを悪用する攻撃者が、ネットワーク/システムへの侵入や知的財産の流出を活性化している。

我々の最近の調査では、以下のような事実が判明した:

  • 企業の攻撃対象は毎月9%ずつ変動しており、セキュリティ・ギャップの発見が難しくなっている。
  • 企業には平均 104 の子会社 (事業部/ブランド/独立した会社などの事業体) があり、中核となるセキュリティ・チームは、そのうちの 10~31 社に関して認識できていない。
  • 不可視の下部組織あるいは、検出が困難な子会社などの 53% には、顧客資産に影響を及ぼす重要かつ危険度の高い脆弱性が内在している。

つまり、企業の攻撃対象は、かつてないほど広大になり、また、脆弱になっているということだ。セキュリティ・リーダーたちは、Log4j のような問題が再発し、自社のビジネスが麻痺することを常に恐れている。

さらに、ChatGPT のような LLM が主流になり、セキュリティ上の脅威を増大させるものとして、また、サイバー攻撃の潜在的な武器として、Language AI がスポットライトを浴びている。我々は懸念すべきだろうか?端的に言えば、答えは「イエス」だ。しかし後述するように、明るい側面もある。

サイバー攻撃への LLM の悪用

サイバー攻撃に LLM を用いることで、規模/範囲/到達性/スピードなどの面で大きな優位性を得られる高い場面がいくつかあるだろう。以下は、その一部だ:

  • 偵察の自動化:組織/子会社が所有する資産/子会社/ブランド/サービスなどを、デバイスやファイルをマッピングして発見する。AWS のディレクトリで公開された、認証情報などの機密情報を検索する。
  • 脆弱性の発見:対象となるネットワークの脆弱性を発見する。
  • 侵入と侵害:イニシャル・エクスプロイトとは、フィッシングのような手口でネットワークに不正アクセスすることだ。標的型攻撃では、ネットワークへの侵入後に、ウォーターリング・ホール攻撃を使用して、ネットワーク内の脆弱性を悪用することがある。
  • データの窃取:ネットワークから機密データや重要なデータをコピーしたり、流出させたりする。

また、ChatGPT に代表される、LLM をベースにしたコンシューマ向けアプリケーションは、従業員が意図的/非意図的にかかわらず、無料のパブリック・バージョンを使用するだけで、会社の IP が漏洩してしまう。JP Morgan などの企業は、このことにいち早く気づき、ChatGPT の企業利用を素早く禁止している。

もう一つのユース・ケースは、フィッシング・キャンペーンだ。大量のデータを高速に処理し、メッセージを効果的にカスタマイズする LLM は、この種の用途に最適である。LLM により作成されたEメールは、上司/同僚/友人などに加えて、信頼できる組織になりすますことが可能であり、その精度と信憑性は更に高まっている。データ漏洩の 82% には、フィッシングが関与することもあれば、盗まれた認証情報が悪用されることもある。つまり、人的な要素が関連するため、LLM を悪用するハッカーたちが、このような攻撃を強化する可能性が極めて高い。

セキュリティ・チームが形勢を逆転させるには

セキュリティ・チームは、機械学習と LLM を利用して自社を監視し、攻撃者が手を出す前に脆弱性を修正することが可能だ。機械学習と LLM を使えば、自社の攻撃対象領域を迅速にスキャン/マッピングし、露出した機密資産/個人情報 (PII:Personal Identifiable Information) /ファイルなどを、効率よく発見できる。もし、それらを手作業で行うと、数ヶ月の時間と、数十万ドルのコストが掛かるかもしれない。

セキュリティ・チームが、リスクに対して効果的に優先順位をつける場合には、前提となる資産のビジネス・コンテキストを知ることが唯一の方法であり、機械学習が助けになる。たとえば、機械学習は、PII を保有するデータベースが、収益取引に関与していることを認識できる。

また、機械学習は、決済メカニズム/重要データベース/ランダムなデバイスなどを区別して、資産のビジネス目的を決定し、そのリスク・プロファイルを分類できる。このようなコンテキストにより、リスクの優先順位付けが飛躍的に向上し、より高度な脅威インテリジェンスが得られる。適切な優先順位付けが行われないと、セキュリティ・チームは、緊急や重要といったラベルが貼られた脆弱性のリストに直面することになるが、実際には誤っていることも少なくない。

新時代の攻撃への対策

攻撃者が LLM を最大限に活用して偵察を自動化し、攻撃対象領域をマッピングするという予測には、十分な根拠がある。セキュリティ・チームにも、新たな学習曲線に着手する時が来たのだ。LLM を防御目的で使用する際の、最も効果的で最適な方法を見つけることだ。いま、まさに、どこかの誰かが、あなたの組織の脆弱性を探している。この新しいツールを悪用する脅威アクターたちが、脆弱性を見つけ出すのは、時間の問題なのだ。

この記事を読んでいると、LLM の脅威もさることながら、内在する攻撃対象領域を把握できない組織が、あらゆる分野に遍在しているのだと感じてしまいます。資本の統合とサプライチェーンの推進により、1つのインシデントが組織全体に、大きな影響を及ぼすようになっています。それを加速する LLM に対して、セキュリティ・チームも逆転の発想で立ち向かう必要があるのでしょう。よろしければ、ChatGPT で検索も、ご利用ください。