2026 年のエンタープライズ・セキュリティ再構築:ID 戦略における5つの変化

Five identity-driven shifts reshaping enterprise security in 2026

2025/12/24 HelpNetSecurity — 2026 年は人工知能 (AI) がサイバー・リスクを根本的に再構築し始める転換点となる。数年にわたる広範な普及を経て、2026 年の AI は、働き方に影響を与える段階を超え、企業の構造や運営そのものを変革し始めるだろう。現在の AI は、組織のあらゆるレイヤーに組み込まれている。具体的には、ワークフロー/アプリケーション/カスタマー・エクスペリエンス/DevOps/IT 自動化/戦略的意思決定といった領域を網羅している。ただし、この変化の速度にガバナンス/セキュリティ管理/アイデンティティ保護は追いついていない。

Continue reading “2026 年のエンタープライズ・セキュリティ再構築:ID 戦略における5つの変化”

AI が量産するコードを分析:プルリクエストで明らかになった問題の分布とは?

AI code looks fine until the review starts

2025/12/23 HelpNetSecurity — ソフトウェア・チームが発表したのは、AI コーディング・ツールにより生成されるプルリクエストの増加を精査するという、この1年間にわたる調査の結果である。この新たなレポートにより、数多くのレビュー担当者が日常業務の中で感じてきた状況が、数値として裏付けられた。この調査は CodeRabbit が実施したものであり、数百のオープンソース・プロジェクトを対象に、AI が共同作成したコードと人間が作成したコードを比較している。そこで追跡されたのは、問題の件数/深刻度/発生頻度の高い問題カテゴリなどである。結果として示されたのは、ロジック/正確性/可読性/セキュリティで繰り返し発生するリスクが、セキュリティ/信頼性を重視するチームに直接的な影響を与えていることである。

Continue reading “AI が量産するコードを分析:プルリクエストで明らかになった問題の分布とは?”

AI ブラウザの安全性:5項目のリスク・ケースを8種類のエージェントでテストした

Browser agents don’t always respect your privacy choices

2025/12/22 HelpNetSecurity — ブラウザ・エージェントの普及において、ユーザーによる継続的な入力を必要とせずにオンライン・タスクを処理できるという新たなセールスポイントが強調されている。AI モデルを用いて Web ブラウザを操作することで、ショッピング/予約/アカウント管理などのタスクが可能になる。しかし、新たな学術研究によると、こうした利便性にはセキュリティ上の懸念として無視できないプライバシー・リスクが伴うと警告されている。

Continue reading “AI ブラウザの安全性:5項目のリスク・ケースを8種類のエージェントでテストした”

LLM 時代のランサムウェア進化:AI 悪用による攻撃ライフサイクルの短縮など

LLM-Driven Automation: A New Catalyst for Ransomware and RaaS Ecosystems

2025/12/16 gbhackers — LLM のランサムウェア・エコシステムへの統合に関する包括的な評価を、SentinelLABS が発表した。現時点では、AI により戦術が根本的に変革された状況は確認されていないが、運用ライフサイクルは著しく加速していると、このレポートは結論付けている。この調査が示しているのは、測定可能なメトリクスである攻撃速度/攻撃量/多言語対応の向上が、低スキル攻撃者の参入障壁を引き下げると同時に、既存グループのワークフローを最適化することで、脅威環境を再形成している点である。

Continue reading “LLM 時代のランサムウェア進化:AI 悪用による攻撃ライフサイクルの短縮など”

OpenAI が拡張する防御のモデル:AI の規模と精度が従来型の脅威と組み合わされる時代に

OpenAI Enhances Defensive Models to Mitigate Cyber-Threats

2025/12/12 InfoSecurity —12月10日 (水) に OpenAI が発表したのは、モデル性能の急上昇に伴い社内計画を再構築したという声明である。そのレポートによると、Capture The Flag (CTF) チャレンジを用いた能力評価は、2025年8月の GPT-5 における 27% から、2025年11月の GPT-5.1-Codex-Max の 76% へと向上しているという。OpenAI が警告するのは、今後登場するシステムの一部が、同社の Preparedness Framework における高能力レベルに達する可能性である。そのレベルに達すると、複雑な侵入作戦からゼロデイ・エクスプロイトの開発に至るまでの、さまざまなタスクが支援されてしまう可能性があるという。

Continue reading “OpenAI が拡張する防御のモデル:AI の規模と精度が従来型の脅威と組み合わされる時代に”

Brave に AI ブラウジング機能が登場:タスクを自動化とセキュリティ維持を両立

Brave browser starts testing agentic AI mode for automated tasks

2025/12/11 BleepingComputer — Brave が公開した新しい AI ブラウジング機能は、プライバシーを尊重する AI アシスタント Leo を活用し、ユーザーに代わってタスクを自動化するものである。この機能が目的とするのは、自動的な Web 検索/商品比較/プロモーションコードの発見/ニュース要約などのタスクの支援である。現在はテスト段階にあり、Brave Nightly バージョンからアクセスできる。この新しいエージェント AI ブラウジング・モードは、プライバシー重視のブラウザにおける AI とユーザーの緊密な統合に向けた第一歩となるが、デフォルトでは無効化されている。

Continue reading “Brave に AI ブラウジング機能が登場:タスクを自動化とセキュリティ維持を両立”

AMOS Stealer 攻撃キャンペーン:ChatGPT/Grok の AI 会話を悪用する脅威アクターたち

Threat Actors Exploit ChatGPT and Grok Conversations to Deliver AMOS Stealer

2025/12/10 gbhackers — サイバー・セキュリティを取り巻く状況が大きな転換点を迎えている。2025年12月5日に Huntress が公表したのは、単純に見えるベクターを用いて Atomic macOS Stealer (AMOS) を展開する巧妙かつ高度な攻撃キャンペーンである。このキャンペーンでは SEO 操作が行われ、OpenAI の ChatGPT および xAI の Grok プラットフォーム上での AI による会話が、信頼できるトラブルシューティング・ガイドのように偽装されている。

Continue reading “AMOS Stealer 攻撃キャンペーン:ChatGPT/Grok の AI 会話を悪用する脅威アクターたち”

Gemini の Zero-Click 脆弱性:GeminiJack という攻撃手法が Gmail/Calendar/Docs を侵害

Gemini Zero-Click Vulnerability Let Attackers Access Gmail, Calendar, and Docs

2025/12/10 CyberSecurityNews — Google が公開したのは、Google Gemini Enterprise (旧称 Vertex AI Search) に存在する GeminiJack と呼ばれる深刻なゼロクリック脆弱性に関する情報である。この脆弱性を悪用する攻撃者は、最小限の労力で Gmail/Calendar/Document から企業機密データを盗み出すことが可能だった。

Continue reading “Gemini の Zero-Click 脆弱性:GeminiJack という攻撃手法が Gmail/Calendar/Docs を侵害”

MCP で特定された3つの攻撃ベクター:悪意のサーバからの攻撃手法を分析する

Malicious MCP Servers Enable Stealthy Prompt Injection to Drain System Resources

2025/12/09 gbhackers — Model Context Protocol (MCP) のサプリング機能に、深刻な脆弱性が存在することを、Unit 42 のセキュリティ研究者たちが公表した。この脆弱性を悪用する悪意のサーバは、ステルス性の高いプロンプト・インジェクション攻撃を、ユーザーに気付かれることなく実行できる。その結果として、計算リソースの浪費や、LLM アプリケーションの侵害などが可能になる。発見された脆弱性は、プロトコル固有の信頼モデルと堅牢なセキュリティ制御の欠如を悪用する3つの主要な攻撃ベクターを持つ。

Continue reading “MCP で特定された3つの攻撃ベクター:悪意のサーバからの攻撃手法を分析する”

Gemini の AI ブラウジングを保護:Chrome に追加された新たなセキュリティ・レイヤーとは?

Google Chrome adds new security layer for Gemini AI agentic browsing

2025/12/09 BleepingComputer — Google が公開したのは、”User Alignment Critic” と呼ばれる新しい防御レイヤーを、Chrome ブラウザに導入する計画である。それにより、Gemini を搭載する今後のエージェント型 AI ブラウジング機能が保護されるという。エージェント型ブラウジングとは、自律的な AI エージェントがユーザーに代わって、Web 上で複数のタスクを実行する新しいモードである。具体的には、サイトのナビゲーション/コンテンツの読み取り/ボタンのクリック/フォームへの入力といった一連のアクションの実行などが自動的に実行される。

Continue reading “Gemini の AI ブラウジングを保護:Chrome に追加された新たなセキュリティ・レイヤーとは?”

IDEsaster という新たな脆弱性クラス:GitHub Copilot/Gemini CLI/Claude などに深刻な影響

Critical Vulnerabilities in GitHub Copilot, Gemini CLI, Claude, and Other Tools Impact Millions of Users

2025/12/08 CyberSecurityNews — AI 駆動型 IDE (Integrated Development Environment) の登場により、ソフトウェア開発環境は根本的に変化した。GitHub Copilot/Gemini CLI/Claude Code などのツールは、単純な自動補完エンジンから、タスクを実行する自律エージェントへと進化した。しかし、生産性の急速な追求がセキュリティ・ギャップを生み出している。本来は自律性を想定して設計されていないレガシー IDE アーキテクチャを、それぞれのベンダーがエージェントに直接統合したことで、図らずも攻撃対象領域が拡大されてしまった。それを IDEsaster と呼ぶ。

Continue reading “IDEsaster という新たな脆弱性クラス:GitHub Copilot/Gemini CLI/Claude などに深刻な影響”

Google Gemini CLI 標的の PoC:GitHub Actions などに影響する深刻な AI プロンプト脆弱性

Researchers Hack Google’s Gemini CLI Through Prompt Injections in GitHub Actions

2025/12/06 CyberSecurityNews — PromptPwnd と呼ばれる深刻な脆弱性クラスは、GitHub Actions および GitLab CI/CD パイプラインに統合された AI エージェントに影響を与える。この脆弱性を悪用する攻撃者は、Issue タイトルや Pull Request 本文といった信頼できないユーザー入力を介して悪意のプロンプトを注入し、AI モデルを騙して特権コマンドを実行させ、機密情報の漏洩やワークフローの改竄を引き起こす。少なくとも Fortune 500 企業の5社が影響を受ける可能性があり、その中にはパッチが適用されたばかりの Google Gemini CLI リポジトリも含まれていた。

Continue reading “Google Gemini CLI 標的の PoC:GitHub Actions などに影響する深刻な AI プロンプト脆弱性”

Perplexity Comet 標的の Zero-Click 攻撃:悪意のメールを介した Google Drive 操作

Zero-Click Agentic Browser Attack Can Delete Entire Google Drive Using Crafted Emails

2025/12/05 thehackernews — Perplexity の Comet ブラウザを標的とする、新たなエージェント型ブラウザ攻撃が、最新の調査により発見されたと Straiker Labs が公表した。この攻撃は、無害に見えるメールを破壊的なアクションに変貌させ、ユーザーの Google Drive コンテンツ全体を消去する能力を持つ。ゼロクリックの Google Drive ワイパー攻撃は、Comet ブラウザを Gmail や Google Drive などのサービスに接続して定型タスクを自動化し、メール閲覧/ファイルとフォルダの閲覧に加えて、コンテンツの移動/変更/削除といった操作へのアクセスを許可するものだ。

Continue reading “Perplexity Comet 標的の Zero-Click 攻撃:悪意のメールを介した Google Drive 操作”

GitHub Actions/GitLab CI/CD とプロンプト・インジェクション:Fortune 500 企業への影響を確認

Prompt Injection Vulnerability in GitHub Actions Impacts Multiple Fortune 500 Companies

2025/12/05 gbhackers — ソフトウェア開発における Artificial Intelligence (AI) の活用が引き起こす副作用が、新しいタイプのセキュリティ脆弱性となり、大企業を危険にさらしている。Aikido Security が発見したのは、PromptPwnd という名の脆弱性である。この脆弱性により、GitHub Actions/GitLab CI/CD パイプライン内で動作する AI エージェントが、攻撃者に乗っ取られる可能性が生じている。

Continue reading “GitHub Actions/GitLab CI/CD とプロンプト・インジェクション:Fortune 500 企業への影響を確認”

ChatGPT で世界的なアクセス障害:Codex のトラブルにより会話履歴が一時的に消失

ChatGPT Down – Users Report Outage Worldwide, Conversations Disappeared for Users

2025/12/03 CyberSecurityNews — 2025年12月3日 (水) の早朝に、ChatGPT が大規模なサービス障害に見舞われ、世界中の何百万ものユーザーの業務に深刻な支障が生じた。午前6時30分頃に発生した障害により、多数のユーザーが AI チャットボットへアクセスできなくなり、また、会話履歴が消失したように見えるといった、データ可視性に関する重大な問題が発生した。OpenAI は迅速な対応を行い、すべてのシステムが短時間で復旧したと発表している。

Continue reading “ChatGPT で世界的なアクセス障害:Codex のトラブルにより会話履歴が一時的に消失”

OpenAI Codex CLI にコマンド・インジェクション:リポジトリを介した悪用のシナリオとは?

OpenAI Codex CLI Command Injection Vulnerability Let Attackers Execute Arbitrary Commands

2025/12/01 CyberSecurityNews — OpenAI が公表したのは、Codex CLI ツールのコマンド・インジェクション脆弱性の修正に関する情報である。この脆弱性を悪用する攻撃者は、悪意のコンフィグ・ファイルをプロジェクト・リポジトリに配置するだけで、開発者のマシン上で任意のコマンド実行の可能性を得る。この問題は、すでに Codex CLI バージョン 0.23.0 で修正されている。修正前の Codex CLI では codex コマンドの日常的な使用が、サイレントなリモート・コード実行のトリガーとなっていた。

Continue reading “OpenAI Codex CLI にコマンド・インジェクション:リポジトリを介した悪用のシナリオとは?”

OpenAI が ChatGPT 広告を公開へ向けて準備中:利用者データを活用するパーソナライズド広告の可能性

Leak confirms OpenAI is preparing ads on ChatGPT for public roll out

2025/11/29 BleepingComputer — Web の経済を再定義するかもしれない ChatGPT 内の広告機能を、OpenAI が内部でテスト中とのことだ。これまで、ChatGPT の基本利用は無料だった。有料のプランやモデルは存在するが、ChatGPT が商品を販売することも広告を表示することもなかった。その一方で、Google 検索ではユーザーの購買行動に影響を与える広告が表示される。それと同じエクスペリエンスを、OpenAI は ChatGPT 上で実現しようとしている。

Continue reading “OpenAI が ChatGPT 広告を公開へ向けて準備中:利用者データを活用するパーソナライズド広告の可能性”

Cronos が開催する賞金総額 $42,000 のハッカソン:資産移動の安全性/拡張性を AI により高める

Cronos Kicks Off $42K Global Hackathon Focused on AI-Powered On-Chain Payments

2025/11/27 hackread — Cronos が開始したのは、AI 統合型のブロックチェーン決済の推進を目的とした、賞金総額 $42,000 のグローバル・チャレンジ x402 PayTech Hackathon である。世界中の開発者が、エージェント・ベースの決済技術や、Crypto.com AI エージェント SDK、そして Cronos と Crypto.com エコシステム全体を活用するツールやアプリケーションの開発に参加できる。

Continue reading “Cronos が開催する賞金総額 $42,000 のハッカソン:資産移動の安全性/拡張性を AI により高める”

間接プロンプト・インジェクションは不可避? ChatGPT Atlas などのエージェントがもたらすリスクとは?

Prompt Injections Loom Large Over ChatGPT’s Atlas Browser

2025/11/27 DarkReading — AI 搭載の新しい Web ブラウザが登場し、エージェント機能が一般ユーザーにも普及し始めている。しかし、疑問として残されるのは、LLM 攻撃の代表的手法であるプロンプト・インジェクションが、さらに深刻化するかもしれないという懸念である。ChatGPT Atlas は、10月21日に OpenAI がリリースした Chromium ベースの LLM 搭載 Web ブラウザである。現時点では、macOS 上で利用が可能であり、テキスト生成/Web ページ要約/エージェント機能といった、ChatGPT のネイティブ機能を搭載している。

Continue reading “間接プロンプト・インジェクションは不可避? ChatGPT Atlas などのエージェントがもたらすリスクとは?”

OpenAI が Mixpanel 関連のインシデントを公表:氏名/メールアドレス/OS 情報などが漏洩

OpenAI Discloses Mixpanel Data Breach – Name, Email Address and Operating System Details Exposed

2025/11/27 CyberSecurityNews — OpenAI が公表したのは、API 製品のフロントエンドである “platform.openai.com” の活動を監視するために、以前に使用していたサードパーティ分析プロバイダ Mixpanel に関連するセキュリティ・インシデントである。2025年11月9日に Mixpanel が検知したのは、自社システムへの不正なアクセスがあり、一部の OpenAI API ユーザーの識別情報を含む分析データがエクスポートされたことだった。

Continue reading “OpenAI が Mixpanel 関連のインシデントを公表:氏名/メールアドレス/OS 情報などが漏洩”

HashJack という間接プロンプト・インジェクション:Comet/Copilot/Gemini などが標的

HashJack: A Novel Exploit Leveraging URL Fragments To Deceive AI Browsers

2025/11/26 gbhackers — HashJack という攻撃手法が、Cato CTRL のセキュリティ研究者たちにより発見された。この革新的な間接プロンプト・インジェクション攻撃は、URL の “#” 記号以降のフラグメント部分に有害なコマンドを隠蔽するものだ。この手法は、信頼できる Web サイトを武器化するものであり、その標的は、Perplexity Comet/Microsoft Copilot/Google Gemini といった AI ブラウザ・アシスタントとなる。

Continue reading “HashJack という間接プロンプト・インジェクション:Comet/Copilot/Gemini などが標的”

vLLM の脆弱性 CVE-2025-62164:悪意のペイロード経由による RCE の恐れ

vLLM Flaw Allows Remote Code Execution Through Malicious Payloads

2025/11/24 gbhackers — LLM 向けの高スループット推論/サービング・エンジンとして広く利用されている vLLM に、深刻なセキュリティ欠陥が発見された。この脆弱性 CVE-2025-62164 を悪用する攻撃者は、Completions API エンドポイントに悪意のペイロードを送信することで、任意のリモート・コード実行を可能にする。

Continue reading “vLLM の脆弱性 CVE-2025-62164:悪意のペイロード経由による RCE の恐れ”

DeepSeek-R1 の脆弱性:政治的なプロンプトを入力すると生成されるコードが変化する?

DeepSeek-R1 Makes Code for Prompts With Severe Security Vulnerabilities

中国で開発された人工知能コーディング・アシスタント “DeepSeek-R1” に、懸念すべき脆弱性が発見された。この AI モデルは、中国共産党に関連する政治的にセンシティブなトピックに遭遇すると、深刻なセキュリティ欠陥を含むコードを通常より最大 50% 高い割合で生成する。中国の AI スタートアップ企業 DeepSeek が、2025年1月にリリースした R1 モデルは、コーディング品質において欧米の競合製品と遜色ないように見えていた。

Continue reading “DeepSeek-R1 の脆弱性:政治的なプロンプトを入力すると生成されるコードが変化する?”

Perplexity の Comet Browser:セキュリティ境界の変更が生み出すリスクとは?

Security gap in Perplexity’s Comet browser exposed users to system-level attacks

2025/11/20 HelpNetSecurity — Perplexity が開発した AI 搭載 エージェント・ブラウザ Comet に深刻なセキュリティ上の問題が存在すると、SquareX の研究者たちが述べている。Comet の MCP API には、ブラウザに内蔵されているがユーザーには表示されないエクステンションが存在する。そこからユーザーのデバイスへ向けて、直接コマンドを発行することが可能であるため、その機能を攻撃者が悪用できると指摘されている。Comet は、ローカル・システム上でのアプリケーションの実行や、ファイルの読み取り、データの変更などを可能にしている。このレベルのアクセスは、”旧式” ブラウザではブロックされるのが通常であるが、一部の AI 搭載ブラウザは、この分離層を無効化していると研究者たちは指摘している。

Continue reading “Perplexity の Comet Browser:セキュリティ境界の変更が生み出すリスクとは?”

Cline AI の4つの脆弱性:プロンプト・インジェクションによるコード実行とデータ漏洩

Cline AI Coding Agent Vulnerabilities Enables Prompt Injection, Code Execution, and Data Leakage

2025/11/20 CyberSecurityNews — Cline は、380 万回インストールされ、GitHub で 5 万2000 以上のスターを獲得している、オープンソースの AI コーディング・エージェントである。このエージェントに存在する4つの深刻なセキュリティ脆弱性を悪用する攻撃者は、悪意のあるソースコード・リポジトリを介して任意のコードを実行し、機密データの窃取を可能にするという。Mindgard の研究者たちが、これらの脆弱性を発見したのは、Claude Sonnet と無料の Sonic モデルをサポートする、人気の VSCode エクステンションの調査中のことだった。

Continue reading “Cline AI の4つの脆弱性:プロンプト・インジェクションによるコード実行とデータ漏洩”

Shadow AI インシデント:2030年までに 40% 以上の企業で発生 – Gartner

Gartner: 40% of Firms to Be Hit By Shadow AI Security Incidents

2025/11/20 infosecurity — Gartner の予測は、2030年までに世界の組織の 40%以上が、未承認の AI ツールの使用により、セキュリティおよびコンプライアンスのインシデントに見舞われるというものだ。サイバー・セキュリティ責任者を対象として、2025年の初めに実施された同社の調査によると、公開されている GenAI を従業員が職場で使用している証拠がある、もしくは、その疑いがあると、69% が回答しているという。

Continue reading “Shadow AI インシデント:2030年までに 40% 以上の企業で発生 – Gartner”

Copilot のファイル操作に障害:Microsoft 365 の複数ユーザーに深刻な影響

Microsoft Investigating Copilot Issue On Processing Files 

2025/11/19 CyberSecurityNews — Microsoft 365 の Microsoft Copilot に影響を及ぼす広範な問題について、同社による調査が開始された。ユーザーがファイルに対する操作を実行する際に、これらの問題が原因となり、重大な制限が生じている。公式の Microsoft 365 ステータス・チャネルを通じて、この事象を確認した同社は、管理上の参照用として追跡識別子 “CP1188020” を割り当てた

Continue reading “Copilot のファイル操作に障害:Microsoft 365 の複数ユーザーに深刻な影響”

ServiceNow Now Assist の問題点:意図しない AI エージェント間連携による有害タスクの実行

ServiceNow AI Agents Can Be Tricked Into Acting Against Each Other via Second-Order Prompts

2025/11/19 TheHackerNews — ServiceNow の生成型人工知能 (AI) プラットフォームである、Now Assist のデフォルト・コンフィグを悪用する攻撃者は、そのエージェント機能を介してプロンプト・インジェクション攻撃を実行できる。AppOmni によると、この2次プロンプト・インジェクションは、Now Assist のエージェント間の検出機能を悪用して不正な操作を実行させるものだ。その結果として攻撃者は、企業の機密データをコピー/窃取した上でレコードを改竄し、権限昇格などを可能にする。

Continue reading “ServiceNow Now Assist の問題点:意図しない AI エージェント間連携による有害タスクの実行”

Degital デバイドから AI デバイドへ:インフラへの投資と言語人口がカギになる – Microsoft

The next tech divide is written in AI diffusion

2025/11/17 HelpNetSecurity — Microsoft のレポートによると、あらゆる主要技術の歴史において、AI は最も速いペースで普及しているという。最初の主流リリースから3年以内に、12 億人以上が AI ツールを使用している。この成長は著しいものであるが、政府/産業界/セキュリティ・チームにおける負担は不均等である。

Continue reading “Degital デバイドから AI デバイドへ:インフラへの投資と言語人口がカギになる – Microsoft”

Google Gemini 3 は次世代 LLM:AI Studio 上での確認と公開の予定

Google Gemini 3 spotted on AI Studio ahead of imminent release

2025/11/17 BleepingComputer — Google の次世代 LLM になると推測される Gemini 3 が、AI Studio 上で確認されており、数時間から数日の間に展開が開始される見込みだ。AI Studio は、開発者/研究者/学生などが Gemini モデルを用いてアプリを構築できるプラットフォームであり、モデルごとの制御性も高めている。また、現時点での最新モデルは Gemini 2.5 Pro であり、AI Studio ではコンテキスト・サイズや温度パラメータなどの、詳細設定が可能となっている。

Continue reading “Google Gemini 3 は次世代 LLM:AI Studio 上での確認と公開の予定”

Xanthorox AI が生成する多様なマルウェア:安全制限を排除した悪意の LLM が拡散

Threat Actors can Use Xanthorox AI Tool to Generate Different Malicious Code Based on Prompts

2025/11/17 CyberSecurityNews — ダークネット・フォーラムや犯罪コミュニティで注目を集めている危険な新ツールを、サイバー・セキュリティ研究者たちが確認した。このツールは、Xanthorox と呼ばれる悪意の人工知能プラットフォームであり、セキュリティ業界にとって深刻な懸念材料となっている。ChatGPT のようなチャットボットとして動作する Xanthorox であるが、最も大きな違いは、安全上の制限が一切存在しないところにある。

Continue reading “Xanthorox AI が生成する多様なマルウェア:安全制限を排除した悪意の LLM が拡散”

AI 駆動型セキュリティと NHI 管理の統合:新たな脅威に対処していくために

How Do AI-Driven Security Systems Keep Up with New Threats?

2025/11/17 SecurityBoulevard — AI 駆動型セキュリティ・システムによる、新たな脅威への適応性を維持するために、ユーザー組織はどうすればよいだろうか。サイバー脅威の高度化と頻発化に伴い、セキュリティ・システムの迅速な適応能力が極めて重要になっている。これらの進化する課題に対して、セキュリティ・フレームワークが対応する方式を形作る上で、Non-Human Identities (NHI) は重要な役割を果たす

Continue reading “AI 駆動型セキュリティと NHI 管理の統合:新たな脅威に対処していくために”

Claude Code を悪用するサイバー攻撃を観測:侵害タスクの 80%~90% を AI が自動実行

Chinese Hackers Automate Cyber-Attacks With AI-Powered Claude Code

2025/11/14 InfoSecurity — Anthropic の GenAI コーディング・アシスタント Claude Code を悪用する、史上初めてのサイバー攻撃が観測された。11月13日に Anthropic が発表した報告書によると、この攻撃者は中国政府に支援されたハッカーである可能性が高く、サイバー・スパイ活動を目的とした攻撃が展開されたという。標的となった組織には、大手テクノロジー企業、金融機関、化学製造会社、政府機関などが含まれていた。脅威アクターは、わずかな人的介入により、これらの被害者のシステムに侵入した。

Continue reading “Claude Code を悪用するサイバー攻撃を観測:侵害タスクの 80%~90% を AI が自動実行”

Kibana AI Assistant の脆弱性 CVE-2025-37734 が FIX:SSRF 攻撃の可能性

Kibana Vulnerabilities Expose Systems to SSRF and XSS Attacks

2025/11/13 gbhackers — Elastic が公表したのは、Kibana の Origin 検証のエラーに対応するセキュリティ・アドバイザリである。このエラーにより、システムがサーバサイド・リクエスト・フォージェリ (SSRF) 攻撃にさらされる可能性がある。この脆弱性 CVE-2025-37734 は Kibana の複数バージョンに影響を与えており、それらのデプロイメントに対する速やかなパッチ適用が求められている。

Continue reading “Kibana AI Assistant の脆弱性 CVE-2025-37734 が FIX:SSRF 攻撃の可能性”

ChatGPT の Custom GPT に SSRF の脆弱性:クラウド IMDS へのエスカレーションも確認

Hackers Exploit SSRF Flaw in Custom GPTs to Steal ChatGPT Secrets

2025/11/12 gbhackers — OpenAI の ChatGPT にサーバサイド・リクエスト・フォージェリ (SSRF) の脆弱性が存在することを、サイバー・セキュリティ研究者が発見した。Custom GPT 機能に存在する脆弱性を悪用する攻撃者は、Azure 管理 API トークンなどの機密性の高いクラウド・インフラ・シークレットにアクセスする可能性があった。この問題は、OpenAI のバグ報奨金プログラムを通じて公開され、直ちに修正されたが、改めて浮き彫りにされたのは、クラウド・ベースの AI サービスにおける SSRF の危険性である。

Continue reading “ChatGPT の Custom GPT に SSRF の脆弱性:クラウド IMDS へのエスカレーションも確認”

SecureVibes が脆弱性を自動検出:Claude AI Agents を介して 11種類の言語をサポート

SecureVibes – AI Tool Scans for Vulnerabilities in 11 Languages with Claude AI Agents

2025/11/12 CyberSecurityNews — AI を活用してアプリケーションを迅速に構築する、Vibecoding という手法が急速に進化を遂げる世界へ向けて、セキュリティ・リスクを低減する新たなオープンソース・ツールが登場した。Anshuman Bhartiya が開発した SecureVibes は、マルチエージェント・システムを通じて Anthropic の Claude AI を活用し、コードベースの脆弱性を自動検出する。2025年10月にリリースされた Python ベースのスキャナー SecureVibes は、深い専門知識を必要とせずにプロレベルのセキュリティ分析を可能にすることを目指している。

Continue reading “SecureVibes が脆弱性を自動検出:Claude AI Agents を介して 11種類の言語をサポート”

AI 企業の 65% が GitHub 上で API キーやトークンを公開:惨憺たるシークレット漏洩の現状

65% of Top AI Firms Found Exposing Verified API Keys and Tokens on GitHub

2025/11/11 gbhackers — AI に関する包括的なセキュリティ分析により、憂慮すべき実態が明らかになった。主要 AI 企業の 65% が GitHub 上で認証済みシークレットを公開し、重要な API キー/認証トークン/機密認証情報を漏洩しており、ユーザー組織全体に危険が及ぶ可能性があるという。Wiz の研究者たちが明らかにしたのは、Forbes AI 50 リストに掲載された主要 AI 企業 50 社の 65% が、検証済みシークレットを公開していたことだ。なお、これらの漏洩は目立たない場所にも存在していたという。

Continue reading “AI 企業の 65% が GitHub 上で API キーやトークンを公開:惨憺たるシークレット漏洩の現状”

HackGPT が登場:GPT-4/Ollama/TensorFlow/PyTorch を組み合わせるAI 搭載ペンテスト環境とは?

HackGPT Launches as AI-Driven Penetration Testing Suite Using GPT-4 and Other Models

2025/11/10 gbhackers — HackGPT Enterprise の正式リリース版は、エンタープライズ・セキュリティ・チーム向けに設計された、本番環境対応のクラウド・ネイティブ AI 搭載ペンテスト・プラットフォームである。ZehraSec の創設者兼 CEO である Yashab Alam が開発したプラットフォームは、人工知能と従来のペンテスト手法を統合し、自動セキュリティ評価における大きな進歩を実現する。

Continue reading “HackGPT が登場:GPT-4/Ollama/TensorFlow/PyTorch を組み合わせるAI 搭載ペンテスト環境とは?”

Google の Gemini Deep Research Tool:Gmail/Drive/Chat とのデータ結合は大丈夫なのか?

Google’s Gemini Deep Research Tool Gains Access to Gmail, Chat, and Drive Data

2025/11/10 CyberSecurityNews — Google が発表した Gemini AI モデルの Deep Research Tool 拡張により、ユーザーの Gmail/Drive/Chat サービスのデータにアクセスできるようになる。つまり、この Deep Research Tool のアップデートにより、個人の Gmail/Docs/Sheets/Slides/PDF/Chat と Web からの情報と併せて、包括的なリサーチ・レポートに統合できるようになった。

Continue reading “Google の Gemini Deep Research Tool:Gmail/Drive/Chat とのデータ結合は大丈夫なのか?”

JavaScript ライブラリ expr-eval の RCE 脆弱性 CVE-2025-12735:AI/NLP システムで RCE の恐れ

Popular npm Library Used in AI and NLP Projects Exposes Systems to RCE

2025/11/10 gbhackers — 広く使用されている JavaScript ライブラリ expr-eval に発見された、深刻なリモート・コード実行の脆弱性 CVE-2025-12735 は、数学式評価や自然言語処理に依存する数千のプロジェクトに影響を及ぼすものである。この脆弱性は、サーバ環境や AI 搭載アプリケーションに深刻なリスクをもたらす。expr-eval は広く採用されるライブラリであり、特に本番環境で NLP/AI  アプリケーションなどを運用する組織にとって懸念事項となる。

Continue reading “JavaScript ライブラリ expr-eval の RCE 脆弱性 CVE-2025-12735:AI/NLP システムで RCE の恐れ”

AI Chat におけるプライバシーとリスク:Microsoft が詳述する Whisper Leak というサイドチャネル攻撃

AI chat privacy at risk: Microsoft details Whisper Leak side-channel attack

2025/11/09 SecurityAffairs — Microsoft が発表したのは、Whisper Leak と呼ばれる新たなサイドチャネル攻撃に関する情報である。具体的に言うと、ネットワーク・トラフィックを監視する攻撃者は、データが暗号化されている場合であっても、リモートの言語モデルを使用してユーザーが会話した内容を推測できるという。この脆弱性により、企業/個人ユーザーがストリーミング AI システムと交わした会話から機密情報が漏洩し、深刻なプライバシー・リスクが生じる可能性があると、同社は警告している。

Continue reading “AI Chat におけるプライバシーとリスク:Microsoft が詳述する Whisper Leak というサイドチャネル攻撃”

GenAI を悪用するサイバー脅威の増加:製造業が対象の調査結果とは?  

AI-Powered Cyber Threats Rise: Attackers Target Manufacturing Sector

2025/11/08 gbhackers — 最新の包括的なレポート Threat Labs Report: Manufacturing 2025 によると、製造業は二重の課題に直面している。GenAI 技術の急速な導入を進める一方で、そのプラットフォームや信頼できるクラウド・サービスを悪用する、高度な攻撃からの防御に対応しなければならない。この調査が浮き彫りにするのは、イノベーションとデータ保護のバランスを取る製造業において、セキュリティ対策の強化が喫緊の課題であることだ。

Continue reading “GenAI を悪用するサイバー脅威の増加:製造業が対象の調査結果とは?  ”

mal-AI Tool を列挙する:アンダーグラウンドで進化する悪意のエコシステムとは?

List of AI Tools Promoted by Threat Actors in Underground Forums and Their Capabilities

2025/11/06 CyberSecurityNews — サイバー・セキュリティを取り巻く状況は 2025年に劇的な変貌を遂げ、アンダーグラウンド・フォーラムで活動する脅威アクターにとって、人工知能 (AI) が基盤技術として台頭している。Google Threat Intelligence Group (GTIG) によると、違法 AI ツールのアンダーグラウンド市場は今年になって大きく成熟し、攻撃ライフサイクルの各ステップに対応するよう設計された、数多くの多機能ツールが提供されている。

Continue reading “mal-AI Tool を列挙する:アンダーグラウンドで進化する悪意のエコシステムとは?”

Claude Desktop エクステンションの深刻な脆弱性:Web コンテンツ → AI 処理 → ローカル実行の構造とは?

Critical RCE Vulnerabilities in Claude Desktop Let Attackers Execute Malicious Code

2025/11/06 CyberSecurityNews — Anthropic の Claude Desktop の公式エクステンション3件に、深刻なリモート・コード実行 (RCE) の脆弱性が発見された。この脆弱性 CVE-N/A (CVSS:8.9) は、サニタイズされていないコマンド・インジェクションに起因し、Chrome/iMessage/Apple Notes コネクタに影響を及ぼすものだ。一連のエクステンションは、Anthropic のマーケットプレイスのトップページで公開/宣伝されている。この脆弱性を悪用する攻撃者は、無害に見える AI アシスタントとのインタラクションを通じて、ユーザー・マシン上で任意のコード実行の可能性を得るという。ただし、すでに Anthropic は、3件の脆弱性を修正しているという。

Continue reading “Claude Desktop エクステンションの深刻な脆弱性:Web コンテンツ → AI 処理 → ローカル実行の構造とは?”

PROMPTFLUX という新型マルウェア:Gemini API を悪用して自身のコードを動的に書き換える

Google Warns of New PROMPTFLUX Malware Using Gemini API to Rewrite Its Own Source Code

2025/11/06 CyberSecurityNews — Google Threat Intelligence Group (GTIG) が公開したのは、Gemini API を悪用して自身のコードを動的に書き換える実験的なマルウェア・ファミリー PROMPTFLUX の詳細である。2025年11月4日に GTIG が発表した最新の AI Threat Tracker レポートによると、このマルウェアの形態が示すのは、単なる生産性向上ツールとして LLM の利用から、リアルタイムでの適応と検知回避のための LLM の直接統合へと、その手法が移行していることだ。

Continue reading “PROMPTFLUX という新型マルウェア:Gemini API を悪用して自身のコードを動的に書き換える”

OpenAI の Assistants API を悪用する SesameOp:AI 侵害のためのバックドアをステルス C2 で確立

SesameOp: Using the OpenAI Assistants API for Covert C2 Communication

2025/11/04 gbhackers — OpenAI Assistants API を悪用する高度なバックドア型マルウェア SesameOp が、従来とは異なる Command-and-Control (C2) 通信経路を用いていることを、Microsoft の Detection and Response Team (DART) が明らかにした。この種の脅威は、正規のクラウド・サービスを悪用して通信を隠蔽する手法へ急速に適応しており、既存のセキュリティ対策による検知を著しく困難にしている。

Continue reading “OpenAI の Assistants API を悪用する SesameOp:AI 侵害のためのバックドアをステルス C2 で確立”

Claude AI における間接プロンプト・インジェクションの脆弱性:API 操作によるデータ窃取が可能に

Hackers Can Manipulate Claude AI APIs with Indirect Prompts to Steal User Data

2025/11/03 CyberSecurityNews — Anthropic の Claude AI を悪用するハッカーは、機密性の高いユーザー・データを窃取する可能性を手にしている。この攻撃者は、コード・インタープリタ・ツールに新たに追加されたネットワーク機能を悪用し、間接的なプロンプト・インジェクションを用いることで、チャット履歴などの個人情報を抽出して自身のアカウントに送信する。2025年10月に Johann Rehberger がブログで詳述した、この問題が浮き彫りにするのは、AI システムが外部と接続性を高めるにつれてリスクが拡大している状況である。

Continue reading “Claude AI における間接プロンプト・インジェクションの脆弱性:API 操作によるデータ窃取が可能に”

Google の広告ビジネスは AI で変化する:検索にも導入される AI Mode とは?

Google confirms AI search will have ads, but they may look different

2025/11/01 BleepingComputer — Google の広告利益は高水準にあり、今後も存続するとみられる。最終的には、Google の AI 検索結果などのサービスにも広告が表示される可能性が高い。その裏付けとして、先日に Google が報告したのは、検索および YouTube における広告収益が $56.57 billion に達したことであり、検索事業から広告が消えるとは考えられないとしている。

Continue reading “Google の広告ビジネスは AI で変化する:検索にも導入される AI Mode とは?”

OpenAI が Aardvark を公表:GPT-5 をベースにしてセキュリティ専門家を模倣する

OpenAI Unveils Aardvark: GPT-5 Agent That Finds and Fixes Code Flaws Automatically

2025/10/31 TheHackerNews — OpenAI が発表したのは、自社の GPT-5 大規模言語モデル (LLM) を搭載し、人間の専門家を模倣するようにプログラムされ、コードのスキャン/理解/パッチ適用を可能にする “エージェント型セキュリティ研究者” である。人工知能 (AI) 企業である OpenAI によると、この自律型エージェントである Aardvark は、開発者やセキュリティのチームによる、セキュリティ脆弱性の大規模な検出/修正を支援するために設計されている。現時点において、プライベート・ベータ版として利用可能となっている。

Continue reading “OpenAI が Aardvark を公表:GPT-5 をベースにしてセキュリティ専門家を模倣する”

PhantomRaven の攻撃手法:依存関係隠蔽/AI 標的/自動スクリプトを持つ 126 の悪意の npm パッケージ

PhantomRaven Attack Discovered in 126 Malicious npm Packages, Exceeding 86,000 Downloads

2025/10/30 gbhackers — PhantomRaven の出現は、世界中の開発者コミュニティを揺るがすものだ。この大規模キャンペーンには、126 個の悪意のある npm パッケージが関与し、86,000 回以上のダウンロードを記録した。これらの悪意のパッケージは水面下に潜み、世界中の無防備な開発者から npm トークン/GitHub の認証情報/CI/CD のシークレットを積極的に盗んでいる。この攻撃者はオープンソース・エコシステムの盲点を突くことで、セキュリティ分析から悪意のコードを隠蔽する新しい手法を駆使し、大きな影響を生み出している。

Continue reading “PhantomRaven の攻撃手法:依存関係隠蔽/AI 標的/自動スクリプトを持つ 126 の悪意の npm パッケージ”