DeepSeek R1 の潜在的なリスク:Evil Jailbreak などの手法による倫理的な制約の破壊

DeepSeek R1: China’s Advanced AI Model Raises Security Concerns

2025/01/30 SecurityOnline — 中国で開発された新しい AI モデル DeepSeek R1 に存在する、深刻なセキュリティ脆弱性を浮き彫りにするレポートを、サイバー・セキュリティ情報企業 KELA が発表した。DeepSeek R1 は推論と問題解決において優れた能力を誇っているが、簡単な操作により、有害なコンテンツなどの作成を指示する、悪意の出力の生成が可能だと、KELA の調査結果が指摘している。

DeepSeek-V3 モデルをベースとする DeepSeek R1 は、特定のタスクにおいて他の主要 AI モデルよりも、優れた性能を発揮することで注目を集めている。しかし、KELA の調査結果により、モデルの安全性と悪用の可能性について、深刻な懸念が引き起こされている。

KELA の研究チームは、モデルに悪意のペルソナを採用させる “Evil Jailbreak” などの、さまざまな手法を用いて、DeepSeek R1 のジェイルブレイクに成功した。それにより、安全上の制限を回避し、マネーロンダリングに関する詳細なプロンプトなどの、通常では禁止されている応答の生成に成功したという。

さらに DeepSeek R1 は、機密データを盗むための悪意のあるスクリプトの生成や、有害/違法なアイテムを作成するためのプロンプトの提供といった、最近のエクスプロイトに対して脆弱であることが判明した。また、このモデルは、OpenAI の従業員に関する情報の偽造といった、懸念されているプライバシー保護の欠如も示している。この種の情報には、電子メール/電話番号/給与/ニックネームなどが含まれという。

DeepSeek R1 の推論プロセスにおける透明性は解釈の可能性を高めるが、それと同時に、ジェイルブレイクや敵対的攻撃への脆弱性も高める。これらの可視推論パスを悪用する脅威アクターたちは、脆弱性を特定し、標的化できる。

これらの調査結果が浮き彫りにするのは、DeepSeek R1 に関連する潜在的なリスクと、AI モデルに対する堅牢なセキュリティ対策の重要性である。中国当局に対して DeepSeek がデータ共有の義務を負っていることを考慮し、その採用の際には注意が必要だと、KELA はアドバイスしている。

この KELA レポートが強調するのは、デプロイメントの前に、この AI アプリケーションを徹底的にテスト/評価し、脆弱性を特定し、対処する必要性である。セキュリティを優先し、適切な保護手段を実装することで、組織は DeepSeek R1 などの AI モデルに関連するリスクを軽減できるとしている。