Google Gemini CLI 標的の PoC:GitHub Actions などに影響する深刻な AI プロンプト脆弱性

Researchers Hack Google’s Gemini CLI Through Prompt Injections in GitHub Actions

2025/12/06 CyberSecurityNews — PromptPwnd と呼ばれる深刻な脆弱性クラスは、GitHub Actions および GitLab CI/CD パイプラインに統合された AI エージェントに影響を与える。この脆弱性を悪用する攻撃者は、Issue タイトルや Pull Request 本文といった信頼できないユーザー入力を介して悪意のプロンプトを注入し、AI モデルを騙して特権コマンドを実行させ、機密情報の漏洩やワークフローの改竄を引き起こす。少なくとも Fortune 500 企業の5社が影響を受ける可能性があり、その中にはパッチが適用されたばかりの Google Gemini CLI リポジトリも含まれていた。

Continue reading “Google Gemini CLI 標的の PoC:GitHub Actions などに影響する深刻な AI プロンプト脆弱性”

GitHub Actions/GitLab CI/CD とプロンプト・インジェクション:Fortune 500 企業への影響を確認

Prompt Injection Vulnerability in GitHub Actions Impacts Multiple Fortune 500 Companies

2025/12/05 gbhackers — ソフトウェア開発における Artificial Intelligence (AI) の活用が引き起こす副作用が、新しいタイプのセキュリティ脆弱性となり、大企業を危険にさらしている。Aikido Security が発見したのは、PromptPwnd という名の脆弱性である。この脆弱性により、GitHub Actions/GitLab CI/CD パイプライン内で動作する AI エージェントが、攻撃者に乗っ取られる可能性が生じている。

Continue reading “GitHub Actions/GitLab CI/CD とプロンプト・インジェクション:Fortune 500 企業への影響を確認”

間接プロンプト・インジェクションは不可避? ChatGPT Atlas などのエージェントがもたらすリスクとは?

Prompt Injections Loom Large Over ChatGPT’s Atlas Browser

2025/11/27 DarkReading — AI 搭載の新しい Web ブラウザが登場し、エージェント機能が一般ユーザーにも普及し始めている。しかし、疑問として残されるのは、LLM 攻撃の代表的手法であるプロンプト・インジェクションが、さらに深刻化するかもしれないという懸念である。ChatGPT Atlas は、10月21日に OpenAI がリリースした Chromium ベースの LLM 搭載 Web ブラウザである。現時点では、macOS 上で利用が可能であり、テキスト生成/Web ページ要約/エージェント機能といった、ChatGPT のネイティブ機能を搭載している。

Continue reading “間接プロンプト・インジェクションは不可避? ChatGPT Atlas などのエージェントがもたらすリスクとは?”

HashJack という間接プロンプト・インジェクション:Comet/Copilot/Gemini などが標的

HashJack: A Novel Exploit Leveraging URL Fragments To Deceive AI Browsers

2025/11/26 gbhackers — HashJack という攻撃手法が、Cato CTRL のセキュリティ研究者たちにより発見された。この革新的な間接プロンプト・インジェクション攻撃は、URL の “#” 記号以降のフラグメント部分に有害なコマンドを隠蔽するものだ。この手法は、信頼できる Web サイトを武器化するものであり、その標的は、Perplexity Comet/Microsoft Copilot/Google Gemini といった AI ブラウザ・アシスタントとなる。

Continue reading “HashJack という間接プロンプト・インジェクション:Comet/Copilot/Gemini などが標的”

Cline AI の4つの脆弱性:プロンプト・インジェクションによるコード実行とデータ漏洩

Cline AI Coding Agent Vulnerabilities Enables Prompt Injection, Code Execution, and Data Leakage

2025/11/20 CyberSecurityNews — Cline は、380 万回インストールされ、GitHub で 5 万2000 以上のスターを獲得している、オープンソースの AI コーディング・エージェントである。このエージェントに存在する4つの深刻なセキュリティ脆弱性を悪用する攻撃者は、悪意のあるソースコード・リポジトリを介して任意のコードを実行し、機密データの窃取を可能にするという。Mindgard の研究者たちが、これらの脆弱性を発見したのは、Claude Sonnet と無料の Sonic モデルをサポートする、人気の VSCode エクステンションの調査中のことだった。

Continue reading “Cline AI の4つの脆弱性:プロンプト・インジェクションによるコード実行とデータ漏洩”

Claude AI における間接プロンプト・インジェクションの脆弱性:API 操作によるデータ窃取が可能に

Hackers Can Manipulate Claude AI APIs with Indirect Prompts to Steal User Data

2025/11/03 CyberSecurityNews — Anthropic の Claude AI を悪用するハッカーは、機密性の高いユーザー・データを窃取する可能性を手にしている。この攻撃者は、コード・インタープリタ・ツールに新たに追加されたネットワーク機能を悪用し、間接的なプロンプト・インジェクションを用いることで、チャット履歴などの個人情報を抽出して自身のアカウントに送信する。2025年10月に Johann Rehberger がブログで詳述した、この問題が浮き彫りにするのは、AI システムが外部と接続性を高めるにつれてリスクが拡大している状況である。

Continue reading “Claude AI における間接プロンプト・インジェクションの脆弱性:API 操作によるデータ窃取が可能に”

ChatGPT Atlas Browser に深刻な脆弱性:偽 URL トリックによるプロンプト・インジェクション

ChatGPT Atlas Browser Can Be Tricked by Fake URLs into Executing Hidden Commands

2025/10/27 TheHackerNews — 新たにリリースされた OpenAI Atlas Web ブラウザが、プロンプト・インジェクション攻撃に対して脆弱であることが判明した。この攻撃は、悪意のプロンプトを無害に見える URL に偽装することで、オムニボックスをジェイルブレイクさせるものだ。11月24日 (金) に NeuralTrust が公開したレポートによると、「アドレスバーと検索バーを組み合わせたオムニボックスは、その入力された内容を移動先を示す URL として、また、エージェントへの自然言語コマンドとして解釈する」と述べている。

Continue reading “ChatGPT Atlas Browser に深刻な脆弱性:偽 URL トリックによるプロンプト・インジェクション”

Perplexity の Comet Browser の脆弱性:スクリーン・ショットを介した悪意のプロンプト挿入

Perplexity’s Comet Browser Screenshot Feature Vulnerability Let Attackers Inject Malicious Prompts

2025/10/23 CyberSecurityNews — Perplexity の Comet AI ブラウザに発見された新たな脆弱性を悪用する攻撃者は、無害に見えるスクリーン・ショットを介して悪意のプロンプトを挿入できる。2025年10月21日に公開された、この脆弱性が裏付けるのは、ユーザーに代わって動作する AI エージェント・ブラウザの、プロンプト挿入に関する従来からの懸念である。新たに発見された脆弱性が浮き彫りにするのは、これらの新興技術に潜む継続的なリスクの存在であり、それにより、隠された命令によりユーザー・セッションが乗っ取られ、機密データにアクセスされる可能性が生じる。

Continue reading “Perplexity の Comet Browser の脆弱性:スクリーン・ショットを介した悪意のプロンプト挿入”

Microsoft 365 Copilot の悪用:間接プロンプト・インジェクションと情報漏洩

Microsoft 365 Copilot Flaw Lets Hackers Steal Sensitive Data via Indirect Prompt Injection

2025/10/21 gbhackers — Microsoft 365 Copilot の脆弱性を悪用する攻撃者は AI アシスタントを騙して、ドキュメント内に隠し持った指示を実行させ、テナントの機密データを取得/抽出できる状態にあった。その後に、この AI はデータを悪意の Mermaid ダイアグラムにエンコードし、それがクリックされると、盗んだ情報を攻撃者のサーバに送信する仕組みを構築していた。

Continue reading “Microsoft 365 Copilot の悪用:間接プロンプト・インジェクションと情報漏洩”

GitHub Copilot Chat の脆弱性:非公開リポジトリからソースコード/機密情報を流出

Critical GitHub Copilot Vulnerability Let Attackers Exfiltrate Source Code From Private Repos

2025/10/10 CyberSecurityNews — GitHub Copilot Chat に存在する深刻な脆弱性 CVE-N/A (CVSS 9.6) を悪用する攻撃者は、非公開リポジトリからソースコードや機密情報を気付かれずに窃取することが可能だったという。この脆弱性を悪用するシナリオは、GitHub の Content Security Policy (CSP) を巧妙に回避しながら、新たなプロンプト注入技術を用いるものだ。それにより攻撃者は、悪意のコードやリンクを提案し、被害者の Copilot インスタンスを広範に制御する可能性があった。この問題は HackerOne を通じて責任ある形で報告され、その後に GitHub は修正を適用した。

Continue reading “GitHub Copilot Chat の脆弱性:非公開リポジトリからソースコード/機密情報を流出”

ChatGPT 系エージェントによる CAPTCHA 回避が示すもの:プロンプト・インジェクションの脅威

ChatGPT Tricked Into Bypassing CAPTCHA Security and Enterprise Defenses

2025/09/19 CyberSecurityNews — ChatGPT エージェントでは、自身の安全プロトコルを回避して CAPTCHA を解読することが可能であり、広く利用される AI とボット対策システムの、安全対策と堅牢性に重大な懸念が生じている。SPLX の調査によると、プロンプト・インジェクションと呼ばれる手法を用いることで、AI エージェントは組み込みポリシーを破るように誘導され、単純な CAPTCHA 課題だけではなく、より複雑な画像ベースの CAPTCHA も解読できる恐れがある。

Continue reading “ChatGPT 系エージェントによる CAPTCHA 回避が示すもの:プロンプト・インジェクションの脅威”

AI セキュリティ・ツールを脆弱にする LLM の欠陥:プロンプト・インジェクション攻撃の実態

AI-Powered Cybersecurity Tools Can Be Turned Against Themselves Through Prompt Injection Attacks

2025/09/03 CyberSecurityNews — AI 搭載のサイバー・セキュリティ・ツールは、プロンプト・インジェクション攻撃により自らを攻撃対象とされ、自動化されたエージェントを乗っ取る攻撃者に対して、不正なシステム・アクセスの取得を許す可能性がある。セキュリティ研究者である Victor Mayoral-Vilches と Per Mannermaa Rynning は、悪意のサーバが無害に見えるデータ・ストリームに命令を挿入することで、AI 駆動型ペンテスト・フレームワークが脆弱になる仕組みを明らかにした。

Continue reading “AI セキュリティ・ツールを脆弱にする LLM の欠陥:プロンプト・インジェクション攻撃の実態”

プロンプト・インジェクションを理解する:AI エージェントの導入つれて拡大する攻撃対象領域

How Prompt Injection Attacks Bypassing AI Agents With Users Input

2025/09/01 CyberSecurityNews — LLM と AI エージェントのコア・アーキテクチャを悪用することで、現代の AI システムにおける最も深刻なセキュリティ脆弱性を突くプロンプト・インジェクション攻撃が、根本的な課題として浮上している。その一方では、自律的な意思決定/データ処理、ユーザー・インタラクションのために、AI エージェントを導入するユーザー組織が増えており、攻撃対象領域が劇的に拡大している。巧妙に細工されたユーザー入力を通じて、サイバー犯罪者たちが AI の挙動を操作するという、新たなベクターが生まれている。

Continue reading “プロンプト・インジェクションを理解する:AI エージェントの導入つれて拡大する攻撃対象領域”

AI プロトコル MCP/A2A に潜む脅威:新たな視点から AI ツールとデータ流出を考える

Researchers Demonstrate How MCP Prompt Injection Can Be Used for Both Attack and Defense

2025/04/30 thehackernews — AI 分野が急速に進化する中で、Model Context Protocol (MCP) の悪用方法が分析され、プロンプト・インジェクション攻撃だけではなく、セキュリティ・ツールの開発や悪意のツールの特定などもカバーできそうなことが、Tenable の調査により明らかになった。Anthropic が 2024年11月に発表した、新しいプロトコル MCP は、大規模言語モデル (LLM:Large Language Models) と外部のデータソース/サービスを接続するために設計されたものだ。その目的は、LLM が選ぶ外部ツールを通じて、それらのシステムと連携し、AI アプリケーションの精度/関連性/実用性などを高めるところにある。

Continue reading “AI プロトコル MCP/A2A に潜む脅威:新たな視点から AI ツールとデータ流出を考える”

Google の Agentic AI Security Team が発表:プロンプト・インジェクション攻撃への対抗策とは?

Google’s Agentic AI Security Team Develops Framework to Combat Prompt Injection Attacks

2025/01/29 SecurityOnline — 最近のブログ投稿で Google の Agentic AI Security Team が発表したのは、Gemini などの AI システムに対するプロンプト・インジェクション攻撃のリスクを評価し、軽減するための新しいフレームワークの開発に関する情報である。このアプローチにおいては、自動化されたレッドチーム・テクニックを使用して、AI を操作する悪意の試みを特定/防御するという。

Continue reading “Google の Agentic AI Security Team が発表:プロンプト・インジェクション攻撃への対抗策とは?”