Ollama の脆弱性 CVE-2026-5757: GGUF ファイル処理とメモリ破壊

Hackers Exploit Ollama Model Uploads to Leak Server Data

2026/04/24 gbhackers — ローカル環境で LLM を実行するオープンソース・プラットフォーム Ollama の、量子化エンジン・モデルに存在する深刻な脆弱性 CVE-2026-5757 が、セキュリティ研究者により発見された。悪意を持って細工された AI モデル・ファイルをアップロードする攻撃者は、認証を必要とせず、サーバ上の機密データの窃取を可能にする。

エクスプロイトの仕組み

そのためのエンジンが、GPT-Generated Unified Format (GGUF) ファイルを処理する際に out-of-bounds メモリ破壊が発生することを、研究者たちが発見した。攻撃者が特別に細工した GGUF ファイルをアップロードし、サーバに対して量子化処理をトリガーすると、安全なメモリ範囲を超えた読み取りが可能になってしまう。

このエクスプロイトは、以下 3 つの要因の組み合わせにより成立する:

  • ユーザーが提供するファイルのメタデータを、エンジンが検証することなく信頼するため、実際のデータサイズとの整合性に問題が生じる。
  • このソフトウェアは、Go 言語の実装において “unsafe” メモリ操作を使用しているため、アプリケーション・ヒープ領域において巨大なデータ・スライスが生じる。
  • システムにおける新規のモデル・レイヤーに漏洩したメモリが書き込まれ、Ollama のレジストリ API を通じて外部サーバへ送信される。

この脆弱性は、サーバのコアヒープ領域への不正アクセスを可能とするため、モデルをホストする組織にとって、きわめて深刻な影響が生じる。その結果として、処理中にメモリへ一時保存される高機密データが、攻撃者により抽出されてしまう。

この情報の露出により、API キー/ユーザーデータ/知的財産の窃取へ直結する可能性がある。

さらに攻撃者は、このアクセスを利用して、サーバ制御の拡大や基盤ネットワークへの侵害に加えて、ステルス性の高い永続化を確立する可能性がある。

この脆弱性は、AI 支援型の調査手法を用いる、セキュリティ研究者 Jeremy Brown により発見された。

2026年04月の下旬時点で CERT Coordination Center は、Ollama との連絡が取れておらず、公式パッチは未提供である。

対策

Ollama を運用する組織および開発者は、直ちに手動での防御対策を実施する必要がある。

リスク低減のため、以下を実施する:

  • 公開サーバにおけるモデル・アップロード機能の、制限または無効化。
  • すべての Ollama 展開を、ローカル/隔離環境/高信頼ネットワークに限定。
  • 検証済みかつ信頼できるソースからのみの、AI モデルの取得および実行。
  • 不正な外部接続およびデータ流出を防止するための、厳格なネットワーク検証制御の適用。