25 Million Users Affected as AI Chat Platform Leaks 300 Million Messages
2026/02/10 gbhackers — “Chat & Ask AI” に深刻なデータ露出の脆弱性が発生した。約 3 億件のプライベート・メッセージが、外部からアクセス可能な状態になっていることが、独立系セキュリティ研究者により報告された。このモバイル・アプリは、Google Play/Apple App Store で提供され、人気を博している。この侵害により、2,500 万人以上のユーザーに影響が生じており、急成長する AI アプリ市場におけるプライバシー/データの取り扱いに関する、深刻な懸念を引き起こしている。

この露出は、Harry と名乗るセキュリティ研究者により特定され、その調査結果が 404 Media で報告された。
彼の分析によると、漏洩の根本原因は高度なサイバー攻撃ではなく、単純なミスコンフィグであったという。
Chat & Ask AI は、モバイル・アプリ開発で広く利用されている Google Firebase を用いて構築されている。Firebase のデータベースは、デフォルトでセキュアに設計されているが、データを非公開に保つためには、開発者による特定のルール・コンフィグが必要になる。
今回のケースでは、その設定が開放された状態となっており、基本的な技術知識を持つ者であれば誰でも “任意の認証済みユーザー” となり、バックエンド・ストレージへのアクセスが可能になっていた。
漏洩したデータの規模は、きわめて大きい。数百万ユーザー分の完全なチャット履歴を含むデータベースにアクセスできたと、Harry は報告している。
露出していたファイルに含まれていたのは、タイムスタンプ/ユーザー設定/選択された AI モデル (ChatGPT/Claude/Gemini など)/ユーザーがチャットボットに付けた名前である。
アプリ側は、5,000 万人以上のユーザーを擁すると謳っている。6 万ユーザーおよび 100 万メッセージを対象に実施したサンプル分析により、Harry が確認したのは、少なくとも約半数がこの脆弱性の影響を受けていたことだ。
漏洩したメッセージ内容が浮き彫りにするのは、AI との対話がいかに機微なものであるかという点だ。この AI チャットボットを、私的な相談相手として扱うユーザーが多く、極めて個人的あるいは危険な質問を AI と共有している。
流出したログに含まれていたものには、自殺メモの書き方を尋ねる内容/苦痛の少ない自傷方法についての質問/メタンフェタミンの製造/ソフトウェアのハッキングといった違法行為の手順を求めるものもある。
このインシデントが示すのは、OpenAI や Google といった主要 AI モデルに対するユーザー・インターフェイスを提供する、いわゆる “ラッパー” アプリが、モデルの提供元と比べて堅牢なセキュリティ基盤を備えていないケースが多いことだ。
この問題は、開発者とユーザーの双方にとって重要な教訓になる。開発者にとっては、クラウド・ストレージ権限を厳格にロックダウンする必要がある。特に個人データを扱う場合には、定期的なセキュリティ監査を実施すべきである。
ユーザーに示されたのは、サードパーティ製 AI ラッパーに機微な情報を共有することのリスクである。これらのアプリは、強力な AI ツールの利便性に対して、利便性の高いアクセスを提供する一方で、データの安全性は、そのアプリにおける最も弱いセキュリティ設定に依存する。
AI チャットアプリ Chat & Ask AI で発生した、約 3 億件もの非公開メッセージの露出について解説する記事です。この問題の原因は、アプリのバックエンドとして使用される Google Firebase のデータベースにおける権限設定ミス (ミスコンフィグ) にあります。Firebase において適切な設定が行われないと、基本的な知識を持つ第三者が認証済みユーザーになりすまし、保存されているデータに直接アクセスできてしまう性質があります。このアプリの開発元が、ユーザーのチャット履歴を保護するためのアクセス制御ルールを正しく設定していなかったことで、誰もが覗き見できる鍵のかかっていない金庫のような状態になっていました。ご利用のユーザーは、ご注意ください。
You must be logged in to post a comment.