ChatGPT と DeepSeek の会話を窃取する2つの Chrome エクステンション:90 万人以上のユーザーに影響

Two Chrome Extensions Caught Stealing ChatGPT and DeepSeek Chats from 900,000 Users

2026/01/06 TheHackerNews — Chrome Web Store で配布されている2つの悪意あるエクステンションを、サイバー・セキュリティ研究者が発見した。これらのエクステンションは、OpenAI ChatGPT および DeepSeek の会話データに加え、閲覧データを窃取し、攻撃者が管理するサーバに送信するよう設計されている。これらのエクステンションは、合計で 90 万人以上のユーザーに拡散している。

Continue reading “ChatGPT と DeepSeek の会話を窃取する2つの Chrome エクステンション:90 万人以上のユーザーに影響”

GHOSTCREW による LLM/MCP/RAG の統合:Metasploit/Nmap/SQLMap との連携にも対応

GHOSTCREW: AI-Powered Red Team Toolkit Integrating Metasploit, Nmap, and More

2026/01/05 gbhackers — 新たに公開されたオープンソース・ツールが、人工知能と攻撃的セキュリティ運用の間に存在していたギャップを埋めようとしている。GHOSTCREW が統合するのは、Large Language Model (LLM)/Model Context Protocol (MCP)/Retrieval-Augmented Generation (RAG) であり、自然言語コマンドだけで複雑な侵入テスト作業を自動化する、高度な AI レッドチーム・アシスタントを実現している。

Continue reading “GHOSTCREW による LLM/MCP/RAG の統合:Metasploit/Nmap/SQLMap との連携にも対応”

Claude Chrome エクステンションの懸念:リクエストとログの読み取りや機密情報の漏洩

Researchers Warn of Data Exposure Risks in Claude Chrome Extension

2026/01/05 hackread — 2025年12月18日に Anthropic が公開したのは、Claude Chrome エクステンションのベータ版である。このエクステンション (拡張機能) は、AI がユーザーに代わって Web サイトを閲覧/操作し、高い利便性を提供するものである。その一方で、従来の Web セキュリティ・モデルでは対処できない深刻なリスクが存在すると、Zenity Labs の最新分析が指摘している。

Continue reading “Claude Chrome エクステンションの懸念:リクエストとログの読み取りや機密情報の漏洩”

Resecurity の AI ハニーポット:ShinyHunters に打撃を与えた巧妙な合成データ作戦とは?

Hackers Trapped in Resecurity’s Honeypot During Targeted Attack on Employee Network

2026/01/05 CyberSecurityNews — 合成データ・ハニーポットを展開することで脅威アクターを出し抜いた Resecurity は、偵察情報を実用的なインテリジェンスへと転換している。最近の作戦では、エジプトと関係するハッカーを罠に掛けただけではなく、ShinyHunters グループを欺き、虚偽の侵害報告を引き出すことに成功している。Resecurity は、対諜報活動を目的とした欺瞞技術を高度化し、企業環境を精巧に模倣することで脅威アクターを管理された罠へ誘引している。

Continue reading “Resecurity の AI ハニーポット:ShinyHunters に打撃を与えた巧妙な合成データ作戦とは?”

Cyber Risk In 2026:地政学的再編/重要サプライチェーンの兵器化/GenAI の急速な普及

Cyber Risk In 2026: How Geopolitics, Supply Chains and Shadow AI Will Test Resilience

2026/01/02 InfoSecurity — 2026 年においては、地政学的再編/重要サプライチェーンの兵器化/GenAI の急速な普及により、リスク管理の意味が再定義されるだろう。ユーザー組織にとって必要なことは、サイバー戦略/業務継続性/地政学的認識が深く絡み合った、プロアクティブでインテリジェンス主導のレジリエンスへの移行である。もはや、事後対応型のセキュリティ体制では、差し迫る脅威に対して対応しきれなくなる。2026 年のサイバーセキュリティ環境を特徴づける、3つの主要トレンドについて解説していく。

Continue reading “Cyber Risk In 2026:地政学的再編/重要サプライチェーンの兵器化/GenAI の急速な普及”

NeuroSploit v2 がリリース:Gemini/Claude/GPT/Ollama と連携するペンテスト・ツール

NeuroSploit v2 Launches as AI-Powered Penetration Testing Framework

2025/12/31 gbhackers — NeuroSploit v2 は、攻撃的セキュリティ・オペレーションの自動化と強化を目的として設計された、AI 活用型の高度なペンテスト・フレームワークである。このフレームワークは、最先端の LLM テクノロジーを活用することで、脆弱性評価/脅威シミュレーション/セキュリティ分析ワークフローの自動化を可能にするものだ。NeuroSploit v2 が組み合わせるのは、これまでに確立されたセキュリティ手法と人工知能であり、ユーザー組織におけるペンテストへのアプローチを大きく進化させる。

Continue reading “NeuroSploit v2 がリリース:Gemini/Claude/GPT/Ollama と連携するペンテスト・ツール”

ChatGPT Atlas のセキュリティが強化:プロンプト・インジェクションへの新たな対策とは?

OpenAI Hardened ChatGPT Atlas Against Prompt Injection Attacks

2025/12/29 CyberSecurityNews — ブラウザベースの AI エージェントである ChatGPT Atlas に、高度な防御機能を導入してプロンプト・インジェクション攻撃に対抗するという、重要なセキュリティ・アップデートがリリースされた。OpenAI による今回のアップデートは、エージェント型 AI システムを標的とする新たな脅威から、ユーザーを保護するための重要な一歩となる。

Continue reading “ChatGPT Atlas のセキュリティが強化:プロンプト・インジェクションへの新たな対策とは?”

LangChain Core の深刻な脆弱性 CVE-2025-68664/68665 が FIX:従来型のセキュリティ侵害と AI との融合

Critical LangChain Core Vulnerability Exposes Secrets via Serialization Injection

2025/12/26 TheHackerNews — LangChain Core に深刻なセキュリティ欠陥が発見された。この脆弱性 CVE-2025-68664 を悪用する攻撃者は、機密情報の窃取とプロンプト・インジェクションにより、LLM のレスポンスを操作する可能性がある。LangChain Core (langchain-core) は、LangChain エコシステムを構成するコア Python パッケージである。LLM を活用したアプリケーションを構築するための、コア・インターフェイスとモデル非依存の抽象化機能を提供している。

Continue reading “LangChain Core の深刻な脆弱性 CVE-2025-68664/68665 が FIX:従来型のセキュリティ侵害と AI との融合”

LLM による脆弱性スコアリング支援:テキストからシグナルを読み取る能力を6モデルでテスト

LLMs can assist with vulnerability scoring, but context still matters

2025/12/26 HelpNetSecurity — 新たな脆弱性が明らかになるたびに、すでに大きな負担を抱えているセキュリティ・チームに対して、新たな意思決定のタイミングが訪れる。最近の研究で検討されているのは、広範な脆弱性スコアリングの領域を LLM が担うことで、こうした負担の一部を軽減できるかという試みである。その結果として、特定の領域では有望性が示された一方で、一貫性に欠ける課題が残り、完全な自動スコアリングが依然として阻まれているという。

Continue reading “LLM による脆弱性スコアリング支援:テキストからシグナルを読み取る能力を6モデルでテスト”

NIST が MITRE に $20m を投資:AI セキュリティ・プロジェクトを推進

NIST, MITRE Partner on $20m AI Centers For Manufacturing and Cybersecurity

2025/12/24 InfoSecurity — 米国の National Institute of Standards and Technology (NIST) が公表したのは、主要な AI セキュリティ・プロジェクトに対する $20m (2,000万ドル) の投資であり、AI 分野における米国のリーダーシップを支援するためのものだ。この投資は、新設される研究開発センター “AI Economic Security Center for US Manufacturing Productivity” と “AI Economic Security Center to Secure US Critical Infrastructure from Cyber Threats” に充てられる。

Continue reading “NIST が MITRE に $20m を投資:AI セキュリティ・プロジェクトを推進”

2026 年のエンタープライズ・セキュリティ再構築:ID 戦略における5つの変化

Five identity-driven shifts reshaping enterprise security in 2026

2025/12/24 HelpNetSecurity — 2026 年は人工知能 (AI) がサイバー・リスクを根本的に再構築し始める転換点となる。数年にわたる広範な普及を経て、2026 年の AI は、働き方に影響を与える段階を超え、企業の構造や運営そのものを変革し始めるだろう。現在の AI は、組織のあらゆるレイヤーに組み込まれている。具体的には、ワークフロー/アプリケーション/カスタマー・エクスペリエンス/DevOps/IT 自動化/戦略的意思決定といった領域を網羅している。ただし、この変化の速度にガバナンス/セキュリティ管理/アイデンティティ保護は追いついていない。

Continue reading “2026 年のエンタープライズ・セキュリティ再構築:ID 戦略における5つの変化”

AI が量産するコードを分析:プルリクエストで明らかになった問題の分布とは?

AI code looks fine until the review starts

2025/12/23 HelpNetSecurity — ソフトウェア・チームが発表したのは、AI コーディング・ツールにより生成されるプルリクエストの増加を精査するという、この1年間にわたる調査の結果である。この新たなレポートにより、数多くのレビュー担当者が日常業務の中で感じてきた状況が、数値として裏付けられた。この調査は CodeRabbit が実施したものであり、数百のオープンソース・プロジェクトを対象に、AI が共同作成したコードと人間が作成したコードを比較している。そこで追跡されたのは、問題の件数/深刻度/発生頻度の高い問題カテゴリなどである。結果として示されたのは、ロジック/正確性/可読性/セキュリティで繰り返し発生するリスクが、セキュリティ/信頼性を重視するチームに直接的な影響を与えていることである。

Continue reading “AI が量産するコードを分析:プルリクエストで明らかになった問題の分布とは?”

AI ブラウザの安全性:5項目のリスク・ケースを8種類のエージェントでテストした

Browser agents don’t always respect your privacy choices

2025/12/22 HelpNetSecurity — ブラウザ・エージェントの普及において、ユーザーによる継続的な入力を必要とせずにオンライン・タスクを処理できるという新たなセールスポイントが強調されている。AI モデルを用いて Web ブラウザを操作することで、ショッピング/予約/アカウント管理などのタスクが可能になる。しかし、新たな学術研究によると、こうした利便性にはセキュリティ上の懸念として無視できないプライバシー・リスクが伴うと警告されている。

Continue reading “AI ブラウザの安全性:5項目のリスク・ケースを8種類のエージェントでテストした”

LLM 時代のランサムウェア進化:AI 悪用による攻撃ライフサイクルの短縮など

LLM-Driven Automation: A New Catalyst for Ransomware and RaaS Ecosystems

2025/12/16 gbhackers — LLM のランサムウェア・エコシステムへの統合に関する包括的な評価を、SentinelLABS が発表した。現時点では、AI により戦術が根本的に変革された状況は確認されていないが、運用ライフサイクルは著しく加速していると、このレポートは結論付けている。この調査が示しているのは、測定可能なメトリクスである攻撃速度/攻撃量/多言語対応の向上が、低スキル攻撃者の参入障壁を引き下げると同時に、既存グループのワークフローを最適化することで、脅威環境を再形成している点である。

Continue reading “LLM 時代のランサムウェア進化:AI 悪用による攻撃ライフサイクルの短縮など”

OpenAI が拡張する防御のモデル:AI の規模と精度が従来型の脅威と組み合わされる時代に

OpenAI Enhances Defensive Models to Mitigate Cyber-Threats

2025/12/12 InfoSecurity —12月10日 (水) に OpenAI が発表したのは、モデル性能の急上昇に伴い社内計画を再構築したという声明である。そのレポートによると、Capture The Flag (CTF) チャレンジを用いた能力評価は、2025年8月の GPT-5 における 27% から、2025年11月の GPT-5.1-Codex-Max の 76% へと向上しているという。OpenAI が警告するのは、今後登場するシステムの一部が、同社の Preparedness Framework における高能力レベルに達する可能性である。そのレベルに達すると、複雑な侵入作戦からゼロデイ・エクスプロイトの開発に至るまでの、さまざまなタスクが支援されてしまう可能性があるという。

Continue reading “OpenAI が拡張する防御のモデル:AI の規模と精度が従来型の脅威と組み合わされる時代に”

Brave に AI ブラウジング機能が登場:タスクを自動化とセキュリティ維持を両立

Brave browser starts testing agentic AI mode for automated tasks

2025/12/11 BleepingComputer — Brave が公開した新しい AI ブラウジング機能は、プライバシーを尊重する AI アシスタント Leo を活用し、ユーザーに代わってタスクを自動化するものである。この機能が目的とするのは、自動的な Web 検索/商品比較/プロモーションコードの発見/ニュース要約などのタスクの支援である。現在はテスト段階にあり、Brave Nightly バージョンからアクセスできる。この新しいエージェント AI ブラウジング・モードは、プライバシー重視のブラウザにおける AI とユーザーの緊密な統合に向けた第一歩となるが、デフォルトでは無効化されている。

Continue reading “Brave に AI ブラウジング機能が登場:タスクを自動化とセキュリティ維持を両立”

AMOS Stealer 攻撃キャンペーン:ChatGPT/Grok の AI 会話を悪用する脅威アクターたち

Threat Actors Exploit ChatGPT and Grok Conversations to Deliver AMOS Stealer

2025/12/10 gbhackers — サイバー・セキュリティを取り巻く状況が大きな転換点を迎えている。2025年12月5日に Huntress が公表したのは、単純に見えるベクターを用いて Atomic macOS Stealer (AMOS) を展開する巧妙かつ高度な攻撃キャンペーンである。このキャンペーンでは SEO 操作が行われ、OpenAI の ChatGPT および xAI の Grok プラットフォーム上での AI による会話が、信頼できるトラブルシューティング・ガイドのように偽装されている。

Continue reading “AMOS Stealer 攻撃キャンペーン:ChatGPT/Grok の AI 会話を悪用する脅威アクターたち”

Gemini の Zero-Click 脆弱性:GeminiJack という攻撃手法が Gmail/Calendar/Docs を侵害

Gemini Zero-Click Vulnerability Let Attackers Access Gmail, Calendar, and Docs

2025/12/10 CyberSecurityNews — Google が公開したのは、Google Gemini Enterprise (旧称 Vertex AI Search) に存在する GeminiJack と呼ばれる深刻なゼロクリック脆弱性に関する情報である。この脆弱性を悪用する攻撃者は、最小限の労力で Gmail/Calendar/Document から企業機密データを盗み出すことが可能だった。

Continue reading “Gemini の Zero-Click 脆弱性:GeminiJack という攻撃手法が Gmail/Calendar/Docs を侵害”

MCP で特定された3つの攻撃ベクター:悪意のサーバからの攻撃手法を分析する

Malicious MCP Servers Enable Stealthy Prompt Injection to Drain System Resources

2025/12/09 gbhackers — Model Context Protocol (MCP) のサプリング機能に、深刻な脆弱性が存在することを、Unit 42 のセキュリティ研究者たちが公表した。この脆弱性を悪用する悪意のサーバは、ステルス性の高いプロンプト・インジェクション攻撃を、ユーザーに気付かれることなく実行できる。その結果として、計算リソースの浪費や、LLM アプリケーションの侵害などが可能になる。発見された脆弱性は、プロトコル固有の信頼モデルと堅牢なセキュリティ制御の欠如を悪用する3つの主要な攻撃ベクターを持つ。

Continue reading “MCP で特定された3つの攻撃ベクター:悪意のサーバからの攻撃手法を分析する”

Gemini の AI ブラウジングを保護:Chrome に追加された新たなセキュリティ・レイヤーとは?

Google Chrome adds new security layer for Gemini AI agentic browsing

2025/12/09 BleepingComputer — Google が公開したのは、”User Alignment Critic” と呼ばれる新しい防御レイヤーを、Chrome ブラウザに導入する計画である。それにより、Gemini を搭載する今後のエージェント型 AI ブラウジング機能が保護されるという。エージェント型ブラウジングとは、自律的な AI エージェントがユーザーに代わって、Web 上で複数のタスクを実行する新しいモードである。具体的には、サイトのナビゲーション/コンテンツの読み取り/ボタンのクリック/フォームへの入力といった一連のアクションの実行などが自動的に実行される。

Continue reading “Gemini の AI ブラウジングを保護:Chrome に追加された新たなセキュリティ・レイヤーとは?”

IDEsaster という新たな脆弱性クラス:GitHub Copilot/Gemini CLI/Claude などに深刻な影響

Critical Vulnerabilities in GitHub Copilot, Gemini CLI, Claude, and Other Tools Impact Millions of Users

2025/12/08 CyberSecurityNews — AI 駆動型 IDE (Integrated Development Environment) の登場により、ソフトウェア開発環境は根本的に変化した。GitHub Copilot/Gemini CLI/Claude Code などのツールは、単純な自動補完エンジンから、タスクを実行する自律エージェントへと進化した。しかし、生産性の急速な追求がセキュリティ・ギャップを生み出している。本来は自律性を想定して設計されていないレガシー IDE アーキテクチャを、それぞれのベンダーがエージェントに直接統合したことで、図らずも攻撃対象領域が拡大されてしまった。それを IDEsaster と呼ぶ。

Continue reading “IDEsaster という新たな脆弱性クラス:GitHub Copilot/Gemini CLI/Claude などに深刻な影響”

Google Gemini CLI 標的の PoC:GitHub Actions などに影響する深刻な AI プロンプト脆弱性

Researchers Hack Google’s Gemini CLI Through Prompt Injections in GitHub Actions

2025/12/06 CyberSecurityNews — PromptPwnd と呼ばれる深刻な脆弱性クラスは、GitHub Actions および GitLab CI/CD パイプラインに統合された AI エージェントに影響を与える。この脆弱性を悪用する攻撃者は、Issue タイトルや Pull Request 本文といった信頼できないユーザー入力を介して悪意のプロンプトを注入し、AI モデルを騙して特権コマンドを実行させ、機密情報の漏洩やワークフローの改竄を引き起こす。少なくとも Fortune 500 企業の5社が影響を受ける可能性があり、その中にはパッチが適用されたばかりの Google Gemini CLI リポジトリも含まれていた。

Continue reading “Google Gemini CLI 標的の PoC:GitHub Actions などに影響する深刻な AI プロンプト脆弱性”

Perplexity Comet 標的の Zero-Click 攻撃:悪意のメールを介した Google Drive 操作

Zero-Click Agentic Browser Attack Can Delete Entire Google Drive Using Crafted Emails

2025/12/05 thehackernews — Perplexity の Comet ブラウザを標的とする、新たなエージェント型ブラウザ攻撃が、最新の調査により発見されたと Straiker Labs が公表した。この攻撃は、無害に見えるメールを破壊的なアクションに変貌させ、ユーザーの Google Drive コンテンツ全体を消去する能力を持つ。ゼロクリックの Google Drive ワイパー攻撃は、Comet ブラウザを Gmail や Google Drive などのサービスに接続して定型タスクを自動化し、メール閲覧/ファイルとフォルダの閲覧に加えて、コンテンツの移動/変更/削除といった操作へのアクセスを許可するものだ。

Continue reading “Perplexity Comet 標的の Zero-Click 攻撃:悪意のメールを介した Google Drive 操作”

GitHub Actions/GitLab CI/CD とプロンプト・インジェクション:Fortune 500 企業への影響を確認

Prompt Injection Vulnerability in GitHub Actions Impacts Multiple Fortune 500 Companies

2025/12/05 gbhackers — ソフトウェア開発における Artificial Intelligence (AI) の活用が引き起こす副作用が、新しいタイプのセキュリティ脆弱性となり、大企業を危険にさらしている。Aikido Security が発見したのは、PromptPwnd という名の脆弱性である。この脆弱性により、GitHub Actions/GitLab CI/CD パイプライン内で動作する AI エージェントが、攻撃者に乗っ取られる可能性が生じている。

Continue reading “GitHub Actions/GitLab CI/CD とプロンプト・インジェクション:Fortune 500 企業への影響を確認”

ChatGPT で世界的なアクセス障害:Codex のトラブルにより会話履歴が一時的に消失

ChatGPT Down – Users Report Outage Worldwide, Conversations Disappeared for Users

2025/12/03 CyberSecurityNews — 2025年12月3日 (水) の早朝に、ChatGPT が大規模なサービス障害に見舞われ、世界中の何百万ものユーザーの業務に深刻な支障が生じた。午前6時30分頃に発生した障害により、多数のユーザーが AI チャットボットへアクセスできなくなり、また、会話履歴が消失したように見えるといった、データ可視性に関する重大な問題が発生した。OpenAI は迅速な対応を行い、すべてのシステムが短時間で復旧したと発表している。

Continue reading “ChatGPT で世界的なアクセス障害:Codex のトラブルにより会話履歴が一時的に消失”

OpenAI Codex CLI にコマンド・インジェクション:リポジトリを介した悪用のシナリオとは?

OpenAI Codex CLI Command Injection Vulnerability Let Attackers Execute Arbitrary Commands

2025/12/01 CyberSecurityNews — OpenAI が公表したのは、Codex CLI ツールのコマンド・インジェクション脆弱性の修正に関する情報である。この脆弱性を悪用する攻撃者は、悪意のコンフィグ・ファイルをプロジェクト・リポジトリに配置するだけで、開発者のマシン上で任意のコマンド実行の可能性を得る。この問題は、すでに Codex CLI バージョン 0.23.0 で修正されている。修正前の Codex CLI では codex コマンドの日常的な使用が、サイレントなリモート・コード実行のトリガーとなっていた。

Continue reading “OpenAI Codex CLI にコマンド・インジェクション:リポジトリを介した悪用のシナリオとは?”

OpenAI が ChatGPT 広告を公開へ向けて準備中:利用者データを活用するパーソナライズド広告の可能性

Leak confirms OpenAI is preparing ads on ChatGPT for public roll out

2025/11/29 BleepingComputer — Web の経済を再定義するかもしれない ChatGPT 内の広告機能を、OpenAI が内部でテスト中とのことだ。これまで、ChatGPT の基本利用は無料だった。有料のプランやモデルは存在するが、ChatGPT が商品を販売することも広告を表示することもなかった。その一方で、Google 検索ではユーザーの購買行動に影響を与える広告が表示される。それと同じエクスペリエンスを、OpenAI は ChatGPT 上で実現しようとしている。

Continue reading “OpenAI が ChatGPT 広告を公開へ向けて準備中:利用者データを活用するパーソナライズド広告の可能性”

Cronos が開催する賞金総額 $42,000 のハッカソン:資産移動の安全性/拡張性を AI により高める

Cronos Kicks Off $42K Global Hackathon Focused on AI-Powered On-Chain Payments

2025/11/27 hackread — Cronos が開始したのは、AI 統合型のブロックチェーン決済の推進を目的とした、賞金総額 $42,000 のグローバル・チャレンジ x402 PayTech Hackathon である。世界中の開発者が、エージェント・ベースの決済技術や、Crypto.com AI エージェント SDK、そして Cronos と Crypto.com エコシステム全体を活用するツールやアプリケーションの開発に参加できる。

Continue reading “Cronos が開催する賞金総額 $42,000 のハッカソン:資産移動の安全性/拡張性を AI により高める”

間接プロンプト・インジェクションは不可避? ChatGPT Atlas などのエージェントがもたらすリスクとは?

Prompt Injections Loom Large Over ChatGPT’s Atlas Browser

2025/11/27 DarkReading — AI 搭載の新しい Web ブラウザが登場し、エージェント機能が一般ユーザーにも普及し始めている。しかし、疑問として残されるのは、LLM 攻撃の代表的手法であるプロンプト・インジェクションが、さらに深刻化するかもしれないという懸念である。ChatGPT Atlas は、10月21日に OpenAI がリリースした Chromium ベースの LLM 搭載 Web ブラウザである。現時点では、macOS 上で利用が可能であり、テキスト生成/Web ページ要約/エージェント機能といった、ChatGPT のネイティブ機能を搭載している。

Continue reading “間接プロンプト・インジェクションは不可避? ChatGPT Atlas などのエージェントがもたらすリスクとは?”

OpenAI が Mixpanel 関連のインシデントを公表:氏名/メールアドレス/OS 情報などが漏洩

OpenAI Discloses Mixpanel Data Breach – Name, Email Address and Operating System Details Exposed

2025/11/27 CyberSecurityNews — OpenAI が公表したのは、API 製品のフロントエンドである “platform.openai.com” の活動を監視するために、以前に使用していたサードパーティ分析プロバイダ Mixpanel に関連するセキュリティ・インシデントである。2025年11月9日に Mixpanel が検知したのは、自社システムへの不正なアクセスがあり、一部の OpenAI API ユーザーの識別情報を含む分析データがエクスポートされたことだった。

Continue reading “OpenAI が Mixpanel 関連のインシデントを公表:氏名/メールアドレス/OS 情報などが漏洩”

HashJack という間接プロンプト・インジェクション:Comet/Copilot/Gemini などが標的

HashJack: A Novel Exploit Leveraging URL Fragments To Deceive AI Browsers

2025/11/26 gbhackers — HashJack という攻撃手法が、Cato CTRL のセキュリティ研究者たちにより発見された。この革新的な間接プロンプト・インジェクション攻撃は、URL の “#” 記号以降のフラグメント部分に有害なコマンドを隠蔽するものだ。この手法は、信頼できる Web サイトを武器化するものであり、その標的は、Perplexity Comet/Microsoft Copilot/Google Gemini といった AI ブラウザ・アシスタントとなる。

Continue reading “HashJack という間接プロンプト・インジェクション:Comet/Copilot/Gemini などが標的”

vLLM の脆弱性 CVE-2025-62164:悪意のペイロード経由による RCE の恐れ

vLLM Flaw Allows Remote Code Execution Through Malicious Payloads

2025/11/24 gbhackers — LLM 向けの高スループット推論/サービング・エンジンとして広く利用されている vLLM に、深刻なセキュリティ欠陥が発見された。この脆弱性 CVE-2025-62164 を悪用する攻撃者は、Completions API エンドポイントに悪意のペイロードを送信することで、任意のリモート・コード実行を可能にする。

Continue reading “vLLM の脆弱性 CVE-2025-62164:悪意のペイロード経由による RCE の恐れ”

DeepSeek-R1 の脆弱性:政治的なプロンプトを入力すると生成されるコードが変化する?

DeepSeek-R1 Makes Code for Prompts With Severe Security Vulnerabilities

中国で開発された人工知能コーディング・アシスタント “DeepSeek-R1” に、懸念すべき脆弱性が発見された。この AI モデルは、中国共産党に関連する政治的にセンシティブなトピックに遭遇すると、深刻なセキュリティ欠陥を含むコードを通常より最大 50% 高い割合で生成する。中国の AI スタートアップ企業 DeepSeek が、2025年1月にリリースした R1 モデルは、コーディング品質において欧米の競合製品と遜色ないように見えていた。

Continue reading “DeepSeek-R1 の脆弱性:政治的なプロンプトを入力すると生成されるコードが変化する?”

Perplexity の Comet Browser:セキュリティ境界の変更が生み出すリスクとは?

Security gap in Perplexity’s Comet browser exposed users to system-level attacks

2025/11/20 HelpNetSecurity — Perplexity が開発した AI 搭載 エージェント・ブラウザ Comet に深刻なセキュリティ上の問題が存在すると、SquareX の研究者たちが述べている。Comet の MCP API には、ブラウザに内蔵されているがユーザーには表示されないエクステンションが存在する。そこからユーザーのデバイスへ向けて、直接コマンドを発行することが可能であるため、その機能を攻撃者が悪用できると指摘されている。Comet は、ローカル・システム上でのアプリケーションの実行や、ファイルの読み取り、データの変更などを可能にしている。このレベルのアクセスは、”旧式” ブラウザではブロックされるのが通常であるが、一部の AI 搭載ブラウザは、この分離層を無効化していると研究者たちは指摘している。

Continue reading “Perplexity の Comet Browser:セキュリティ境界の変更が生み出すリスクとは?”

Cline AI の4つの脆弱性:プロンプト・インジェクションによるコード実行とデータ漏洩

Cline AI Coding Agent Vulnerabilities Enables Prompt Injection, Code Execution, and Data Leakage

2025/11/20 CyberSecurityNews — Cline は、380 万回インストールされ、GitHub で 5 万2000 以上のスターを獲得している、オープンソースの AI コーディング・エージェントである。このエージェントに存在する4つの深刻なセキュリティ脆弱性を悪用する攻撃者は、悪意のあるソースコード・リポジトリを介して任意のコードを実行し、機密データの窃取を可能にするという。Mindgard の研究者たちが、これらの脆弱性を発見したのは、Claude Sonnet と無料の Sonic モデルをサポートする、人気の VSCode エクステンションの調査中のことだった。

Continue reading “Cline AI の4つの脆弱性:プロンプト・インジェクションによるコード実行とデータ漏洩”

Shadow AI インシデント:2030年までに 40% 以上の企業で発生 – Gartner

Gartner: 40% of Firms to Be Hit By Shadow AI Security Incidents

2025/11/20 infosecurity — Gartner の予測は、2030年までに世界の組織の 40%以上が、未承認の AI ツールの使用により、セキュリティおよびコンプライアンスのインシデントに見舞われるというものだ。サイバー・セキュリティ責任者を対象として、2025年の初めに実施された同社の調査によると、公開されている GenAI を従業員が職場で使用している証拠がある、もしくは、その疑いがあると、69% が回答しているという。

Continue reading “Shadow AI インシデント:2030年までに 40% 以上の企業で発生 – Gartner”

Copilot のファイル操作に障害:Microsoft 365 の複数ユーザーに深刻な影響

Microsoft Investigating Copilot Issue On Processing Files 

2025/11/19 CyberSecurityNews — Microsoft 365 の Microsoft Copilot に影響を及ぼす広範な問題について、同社による調査が開始された。ユーザーがファイルに対する操作を実行する際に、これらの問題が原因となり、重大な制限が生じている。公式の Microsoft 365 ステータス・チャネルを通じて、この事象を確認した同社は、管理上の参照用として追跡識別子 “CP1188020” を割り当てた

Continue reading “Copilot のファイル操作に障害:Microsoft 365 の複数ユーザーに深刻な影響”

ServiceNow Now Assist の問題点:意図しない AI エージェント間連携による有害タスクの実行

ServiceNow AI Agents Can Be Tricked Into Acting Against Each Other via Second-Order Prompts

2025/11/19 TheHackerNews — ServiceNow の生成型人工知能 (AI) プラットフォームである、Now Assist のデフォルト・コンフィグを悪用する攻撃者は、そのエージェント機能を介してプロンプト・インジェクション攻撃を実行できる。AppOmni によると、この2次プロンプト・インジェクションは、Now Assist のエージェント間の検出機能を悪用して不正な操作を実行させるものだ。その結果として攻撃者は、企業の機密データをコピー/窃取した上でレコードを改竄し、権限昇格などを可能にする。

Continue reading “ServiceNow Now Assist の問題点:意図しない AI エージェント間連携による有害タスクの実行”

Google Gemini 3 は次世代 LLM:AI Studio 上での確認と公開の予定

Google Gemini 3 spotted on AI Studio ahead of imminent release

2025/11/17 BleepingComputer — Google の次世代 LLM になると推測される Gemini 3 が、AI Studio 上で確認されており、数時間から数日の間に展開が開始される見込みだ。AI Studio は、開発者/研究者/学生などが Gemini モデルを用いてアプリを構築できるプラットフォームであり、モデルごとの制御性も高めている。また、現時点での最新モデルは Gemini 2.5 Pro であり、AI Studio ではコンテキスト・サイズや温度パラメータなどの、詳細設定が可能となっている。

Continue reading “Google Gemini 3 は次世代 LLM:AI Studio 上での確認と公開の予定”

Xanthorox AI が生成する多様なマルウェア:安全制限を排除した悪意の LLM が拡散

Threat Actors can Use Xanthorox AI Tool to Generate Different Malicious Code Based on Prompts

2025/11/17 CyberSecurityNews — ダークネット・フォーラムや犯罪コミュニティで注目を集めている危険な新ツールを、サイバー・セキュリティ研究者たちが確認した。このツールは、Xanthorox と呼ばれる悪意の人工知能プラットフォームであり、セキュリティ業界にとって深刻な懸念材料となっている。ChatGPT のようなチャットボットとして動作する Xanthorox であるが、最も大きな違いは、安全上の制限が一切存在しないところにある。

Continue reading “Xanthorox AI が生成する多様なマルウェア:安全制限を排除した悪意の LLM が拡散”

AI 駆動型セキュリティと NHI 管理の統合:新たな脅威に対処していくために

How Do AI-Driven Security Systems Keep Up with New Threats?

2025/11/17 SecurityBoulevard — AI 駆動型セキュリティ・システムによる、新たな脅威への適応性を維持するために、ユーザー組織はどうすればよいだろうか。サイバー脅威の高度化と頻発化に伴い、セキュリティ・システムの迅速な適応能力が極めて重要になっている。これらの進化する課題に対して、セキュリティ・フレームワークが対応する方式を形作る上で、Non-Human Identities (NHI) は重要な役割を果たす

Continue reading “AI 駆動型セキュリティと NHI 管理の統合:新たな脅威に対処していくために”

Claude Code を悪用するサイバー攻撃を観測:侵害タスクの 80%~90% を AI が自動実行

Chinese Hackers Automate Cyber-Attacks With AI-Powered Claude Code

2025/11/14 InfoSecurity — Anthropic の GenAI コーディング・アシスタント Claude Code を悪用する、史上初めてのサイバー攻撃が観測された。11月13日に Anthropic が発表した報告書によると、この攻撃者は中国政府に支援されたハッカーである可能性が高く、サイバー・スパイ活動を目的とした攻撃が展開されたという。標的となった組織には、大手テクノロジー企業、金融機関、化学製造会社、政府機関などが含まれていた。脅威アクターは、わずかな人的介入により、これらの被害者のシステムに侵入した。

Continue reading “Claude Code を悪用するサイバー攻撃を観測:侵害タスクの 80%~90% を AI が自動実行”

Kibana AI Assistant の脆弱性 CVE-2025-37734 が FIX:SSRF 攻撃の可能性

Kibana Vulnerabilities Expose Systems to SSRF and XSS Attacks

2025/11/13 gbhackers — Elastic が公表したのは、Kibana の Origin 検証のエラーに対応するセキュリティ・アドバイザリである。このエラーにより、システムがサーバサイド・リクエスト・フォージェリ (SSRF) 攻撃にさらされる可能性がある。この脆弱性 CVE-2025-37734 は Kibana の複数バージョンに影響を与えており、それらのデプロイメントに対する速やかなパッチ適用が求められている。

Continue reading “Kibana AI Assistant の脆弱性 CVE-2025-37734 が FIX:SSRF 攻撃の可能性”

ChatGPT の Custom GPT に SSRF の脆弱性:クラウド IMDS へのエスカレーションも確認

Hackers Exploit SSRF Flaw in Custom GPTs to Steal ChatGPT Secrets

2025/11/12 gbhackers — OpenAI の ChatGPT にサーバサイド・リクエスト・フォージェリ (SSRF) の脆弱性が存在することを、サイバー・セキュリティ研究者が発見した。Custom GPT 機能に存在する脆弱性を悪用する攻撃者は、Azure 管理 API トークンなどの機密性の高いクラウド・インフラ・シークレットにアクセスする可能性があった。この問題は、OpenAI のバグ報奨金プログラムを通じて公開され、直ちに修正されたが、改めて浮き彫りにされたのは、クラウド・ベースの AI サービスにおける SSRF の危険性である。

Continue reading “ChatGPT の Custom GPT に SSRF の脆弱性:クラウド IMDS へのエスカレーションも確認”

SecureVibes が脆弱性を自動検出:Claude AI Agents を介して 11種類の言語をサポート

SecureVibes – AI Tool Scans for Vulnerabilities in 11 Languages with Claude AI Agents

2025/11/12 CyberSecurityNews — AI を活用してアプリケーションを迅速に構築する、Vibecoding という手法が急速に進化を遂げる世界へ向けて、セキュリティ・リスクを低減する新たなオープンソース・ツールが登場した。Anshuman Bhartiya が開発した SecureVibes は、マルチエージェント・システムを通じて Anthropic の Claude AI を活用し、コードベースの脆弱性を自動検出する。2025年10月にリリースされた Python ベースのスキャナー SecureVibes は、深い専門知識を必要とせずにプロレベルのセキュリティ分析を可能にすることを目指している。

Continue reading “SecureVibes が脆弱性を自動検出:Claude AI Agents を介して 11種類の言語をサポート”

AI 企業の 65% が GitHub 上で API キーやトークンを公開:惨憺たるシークレット漏洩の現状

65% of Top AI Firms Found Exposing Verified API Keys and Tokens on GitHub

2025/11/11 gbhackers — AI に関する包括的なセキュリティ分析により、憂慮すべき実態が明らかになった。主要 AI 企業の 65% が GitHub 上で認証済みシークレットを公開し、重要な API キー/認証トークン/機密認証情報を漏洩しており、ユーザー組織全体に危険が及ぶ可能性があるという。Wiz の研究者たちが明らかにしたのは、Forbes AI 50 リストに掲載された主要 AI 企業 50 社の 65% が、検証済みシークレットを公開していたことだ。なお、これらの漏洩は目立たない場所にも存在していたという。

Continue reading “AI 企業の 65% が GitHub 上で API キーやトークンを公開:惨憺たるシークレット漏洩の現状”

HackGPT が登場:GPT-4/Ollama/TensorFlow/PyTorch を組み合わせるAI 搭載ペンテスト環境とは?

HackGPT Launches as AI-Driven Penetration Testing Suite Using GPT-4 and Other Models

2025/11/10 gbhackers — HackGPT Enterprise の正式リリース版は、エンタープライズ・セキュリティ・チーム向けに設計された、本番環境対応のクラウド・ネイティブ AI 搭載ペンテスト・プラットフォームである。ZehraSec の創設者兼 CEO である Yashab Alam が開発したプラットフォームは、人工知能と従来のペンテスト手法を統合し、自動セキュリティ評価における大きな進歩を実現する。

Continue reading “HackGPT が登場:GPT-4/Ollama/TensorFlow/PyTorch を組み合わせるAI 搭載ペンテスト環境とは?”

Google の Gemini Deep Research Tool:Gmail/Drive/Chat とのデータ結合は大丈夫なのか?

Google’s Gemini Deep Research Tool Gains Access to Gmail, Chat, and Drive Data

2025/11/10 CyberSecurityNews — Google が発表した Gemini AI モデルの Deep Research Tool 拡張により、ユーザーの Gmail/Drive/Chat サービスのデータにアクセスできるようになる。つまり、この Deep Research Tool のアップデートにより、個人の Gmail/Docs/Sheets/Slides/PDF/Chat と Web からの情報と併せて、包括的なリサーチ・レポートに統合できるようになった。

Continue reading “Google の Gemini Deep Research Tool:Gmail/Drive/Chat とのデータ結合は大丈夫なのか?”

JavaScript ライブラリ expr-eval の RCE 脆弱性 CVE-2025-12735:AI/NLP システムで RCE の恐れ

Popular npm Library Used in AI and NLP Projects Exposes Systems to RCE

2025/11/10 gbhackers — 広く使用されている JavaScript ライブラリ expr-eval に発見された、深刻なリモート・コード実行の脆弱性 CVE-2025-12735 は、数学式評価や自然言語処理に依存する数千のプロジェクトに影響を及ぼすものである。この脆弱性は、サーバ環境や AI 搭載アプリケーションに深刻なリスクをもたらす。expr-eval は広く採用されるライブラリであり、特に本番環境で NLP/AI  アプリケーションなどを運用する組織にとって懸念事項となる。

Continue reading “JavaScript ライブラリ expr-eval の RCE 脆弱性 CVE-2025-12735:AI/NLP システムで RCE の恐れ”

AI Chat におけるプライバシーとリスク:Microsoft が詳述する Whisper Leak というサイドチャネル攻撃

AI chat privacy at risk: Microsoft details Whisper Leak side-channel attack

2025/11/09 SecurityAffairs — Microsoft が発表したのは、Whisper Leak と呼ばれる新たなサイドチャネル攻撃に関する情報である。具体的に言うと、ネットワーク・トラフィックを監視する攻撃者は、データが暗号化されている場合であっても、リモートの言語モデルを使用してユーザーが会話した内容を推測できるという。この脆弱性により、企業/個人ユーザーがストリーミング AI システムと交わした会話から機密情報が漏洩し、深刻なプライバシー・リスクが生じる可能性があると、同社は警告している。

Continue reading “AI Chat におけるプライバシーとリスク:Microsoft が詳述する Whisper Leak というサイドチャネル攻撃”