北朝鮮系 Konni の最新スピアフィッシング・キャンペーン:AI 支援 PowerShell バックドアで日本も標的

Konni Hackers Deploy AI-Generated PowerShell Backdoor Against Blockchain Developers

2026/01/26 TheHackerNews — Konni として知られる北朝鮮系脅威アクターが、人工知能 (AI) ツールにより生成された PowerShell マルウェアを使用し、ブロックチェーン分野の開発者/エンジニア/開発チームを標的としていることが確認された。先週、Check Point Research が公開した技術レポートによると、このフィッシング・キャンペーンが標的とするのは日本/オーストラリア/インドであり、これまでの主要な標的であった韓国/ロシア/ウクライナ/欧州諸国を超えて、攻撃対象範囲を拡大していることが示されている。

Continue reading “北朝鮮系 Konni の最新スピアフィッシング・キャンペーン:AI 支援 PowerShell バックドアで日本も標的”

Curl がバグバウンティ・プログラムを終了:AI が生成する低品質レポートへの対応

Curl to End Bug Bounty Following Low-Quality AI-Generated Vulnerability Reports

2026/01/26 CyberSecurityNews — curl プロジェクトは、2026年1月をもってバグ・バウンティ・プログラムを終了した。その理由は、低品質かつ有用性のないバグ報告が過剰に寄せられたことにあるという。この決定が反映するのは、金銭的インセンティブの構造が、脆弱性情報の開示と実務にもたらす副作用への、オープンソース・セキュリティ・コミュニティ内の不満の高まりである。

Continue reading “Curl がバグバウンティ・プログラムを終了:AI が生成する低品質レポートへの対応”

AI で書いたハニーポット:Vibe Coding がもたらす脆弱性のケース・スタディとは?

What an AI-Written Honeypot Taught Us About Trusting Machines

2026/01/23 BleepingComputer — AI モデルを用いてコード作成を支援する Vibe Coding 手法が、多くのチームにとって日常的な開発プロセスの一部となっている。それにより、大きな時間短縮効果がもたらされるが、その一方では、AI が生成したコードを過度に信頼してしまうことで、セキュリティ脆弱性が入り込む余地を生み出す。AI 生成コードがセキュリティに及ぼす影響について、Intruder の経験は現実のケース・スタディとなっている。以下に示すのは、実際に起こったこと、そして、他の組織が注意すべき点である。

Continue reading “AI で書いたハニーポット:Vibe Coding がもたらす脆弱性のケース・スタディとは?”

ZEST の AI Sweeper Agents:過剰なパッチ要求を削減してセキュリティ・チームの負荷を軽減

ZEST Security Adds AI Agents to Identify Vulnerabilities That Pose No Actual Risk

2026/01/22 SecurityBoulevard — 今日 ZEST Security は、特定の脆弱性がアプリケーション環境に対して実際の脅威となるかどうかを識別する、人工知能 (AI) エージェント群を追加した。同社 CEO の Snir Ben Shimol によると、実際には悪用不可能な脆弱性の修正要求を AI Sweeper Agents が排除することで、作成すべきパッチ数を削減できるという。

Continue reading “ZEST の AI Sweeper Agents:過剰なパッチ要求を削減してセキュリティ・チームの負荷を軽減”

VoidLink が示す AI 生成マルウェア時代の到来:Check Point が警告

VoidLink Represents the Future of AI-Developed Malware: Check Point

2026/01/20 SecurityBoulevard — 1 人の個人と推測される脅威アクターが、AI を用いて単独で開発したとみられる高度なマルウェアが、Check Point の研究者たちにより発見された。このインシデントが示すのは、急速に進化する技術がサイバー脅威の生成方法を変化させる、先駆的な事例である。VoidLink と名付けられたマルウェアは、開発の初期段階で検出され、実際の攻撃で使用された形跡は確認されていない。しかし、異例のスピードで進められた設計と構築は、高度にモジュール化された構造を備えるものであり、迅速な進化を可能にする仕組みを持っている。そのため、発見当初は、大規模かつ潤沢な資金を有する攻撃者グループによるものと見られていた。

Continue reading “VoidLink が示す AI 生成マルウェア時代の到来:Check Point が警告”

Google Gemini の深刻な欠陥:間接プロンプト・インジェクションによる Calendar データ漏洩

Google Gemini AI Tricked Into Leaking Calendar Data via Meeting Invites

2026/01/19 hackread — 生活を便利にするために設計された AI アシスタントであるが、新たな調査により明らかになったのは、単純なミーティングの招待でさえトロイの木馬として悪用されるリスクである。Google Gemini が Google Calendar と連携する仕組みに存在する深刻な欠陥が、Miggo Security の研究者により判明した。この欠陥を悪用する攻撃者は、通常に見える招待を送信するだけで AI を巧妙に欺き、ユーザーの個人データを窃取することが可能となる。

Continue reading “Google Gemini の深刻な欠陥:間接プロンプト・インジェクションによる Calendar データ漏洩”

Google Vertex AI デフォルト・コンフィグによるセキュリティ・リスク:Service Agent ロールの不正取得

Google’s Vertex AI Vulnerability Enables Low-Privileged Users to Gain Service Agent Roles

2026/01/17 CyberSecurityNews — Google Vertex AI のデフォルト・コンフィグには、低権限ユーザーが Service Agent ロールを乗っ取ることで権限昇格を可能にしてしまう問題が存在する。XM Cyber の研究者により、Vertex AI Agent Engine/Ray on Vertex AI における 2 つの攻撃ベクターが特定されているが、Google はこれらを「想定された動作 (Working as Intended)」と位置付けており、防御責任はユーザー側にあるとの見解を示している。

Continue reading “Google Vertex AI デフォルト・コンフィグによるセキュリティ・リスク:Service Agent ロールの不正取得”

AI Agent が作り出す権限昇格パス:ユーザーからエージェントに移行するアクセス権を把握するには?

AI Agents Are Becoming Privilege Escalation Paths

2026/01/14 TheHackerNews — AI エージェントは、実験的なツールから、セキュリティ/エンジニアリング/IT/運用にわたる日常的なワークフローの中核コンポーネントへと急速に移行し始めている。個人用コード・アシスタント/チャットボット/コパイロットといった、個別の生産性向上ツールとして始まったものが、組織全体で共有されるエージェントへと進化し、重要なプロセスに組み込まれようとしている。

Continue reading “AI Agent が作り出す権限昇格パス:ユーザーからエージェントに移行するアクセス権を把握するには?”

バイブ・コーディングのための SHIELD Governance Framework:Palo Alto Networks が提供

Palo Alto Networks Introduces New Vibe Coding Security Governance Framework

2026/01/13 InfoSecurity — バイブ・コーディングとは、自然言語による AI プロンプトを介してコードを記述し、アプリケーションを開発する手法である。この手法の一般化により、すでに深刻なセキュリティ・インシデントが生じていると、Palo Alto Networks が警鐘を鳴らしている。その背景として挙げられるのは、一般ユーザーから経験が豊富な開発者に至るまで、この手法が幅広く採用されているという現実である。

Continue reading “バイブ・コーディングのための SHIELD Governance Framework:Palo Alto Networks が提供”

ServiceNow AI プラットフォームの脆弱性 CVE-2025-12420 が FIX:認証不要の権限昇格

ServiceNow Vulnerability Enables Privilege Escalation Without Authentication

2026/01/13 gbhackers — ServiceNow の AI プラットフォームで発見された、深刻な権限昇格の脆弱性 CVE-2025-12420 が、世界中の企業ユーザーに深刻なリスクをもたらしている。この脆弱性を悪用する未認証の攻撃者は、他のユーザーになりすますことでアカウントを侵害し、その権限を用いて不正な操作を実行できる。重要なビジネス・オペレーションに ServiceNow の AI 機能を利用している組織にとって、この脆弱性は深刻な脅威となる。

Continue reading “ServiceNow AI プラットフォームの脆弱性 CVE-2025-12420 が FIX:認証不要の権限昇格”

エンタープライズにおける GenAI:セキュリティ・リスクを可視化できているだろうか?

Generative AI in Enterprises: Security Risks Most Companies Are Not Measuring

2026/01/11 SecurityBoulevard — GenAI は、実験段階から企業環境全体への広範な導入段階へと急速に移行している。社内コパイロットやカスタマーサポート・チャットボットから、コード生成やデータ分析に至るまで、組織は重要なビジネス・ワークフローに LLM を組み込んでいる。生産性向上は比較的定量化しやすい。その一方で、導入に伴うセキュリティ・リスクの測定は遥かに困難である。現時点で GenAI を導入している多くの組織は、これらのテクノロジーから生じる新たな攻撃対象領域を、特定/評価/軽減するための体系的フレームワークを整備していない。その結果、セキュリティ・インシデントが発生するまで、深刻なリスクが顕在化しないというケースも少なくない。

Continue reading “エンタープライズにおける GenAI:セキュリティ・リスクを可視化できているだろうか?”

Fortinet VPN の偽サイトに要注意:AI 検索サマリーなどを介したフィッシング攻撃が横行

Fake Fortinet Sites Steal VPN Credentials in Sophisticated Phishing Attack

2026/01/09 CyberSecurityNews — Fortinet VPN の公式ダウンロード・ポータルを偽装し、リモートワーカーや IT 管理者を標的とする、巧妙なフィッシング攻撃キャンペーンが出現した。この攻撃の特徴は、検索エンジン最適化 (SEO:Search Engine Optimization) と、AI が生成した検索サマリーを悪用して被害者を誘導する点にあり、きわめて危険性が高い。この攻撃キャンペーンは、信頼できるドメインから始まる多段階のリダイレクト・メカニズムも採用しており、初期フェーズにおけるセキュリティ・フィルターを回避する。その結果として、VPN 認証情報の窃取とマルウェアの配布に至るという。

Continue reading “Fortinet VPN の偽サイトに要注意:AI 検索サマリーなどを介したフィッシング攻撃が横行”

ChatGPT の新たな脆弱性が FIX:Gmail/Outlook/GitHub などからのデータ窃取の恐れ

New ChatGPT Vulnerabilities Enable Data Exfiltration from Gmail, Outlook, and GitHub

2026/01/09 gbhackers — ChatGPT が、外部サービスや自身のメモリ・システムと連携する方法に、複数の深刻な脆弱性が存在することが新たな調査により明らかになった。これにより生じるのは、クロスプラットフォームでのデータ窃盗や長期的なアカウント侵害につながる、新たな攻撃経路である。これらの脆弱性は、侵害された1回のチャット・セッションが、メール/クラウド・ストレージ/コード・リポジトリや、他ユーザーへの侵入経路となり得ることを示している。

Continue reading “ChatGPT の新たな脆弱性が FIX:Gmail/Outlook/GitHub などからのデータ窃取の恐れ”

Gmail に搭載される AI 受信トレイ:Gemini によるメールの抽出や要約の機能とは?

Gmail’s new AI Inbox uses Gemini, but Google says it won’t train AI on user emails

2026/01/09 BleepingComputer — 1月8日 (木) に Google が発表したのは、すべてのメールを要約する “AI 受信トレイ” という新機能である。この機能を展開するにあたり、Google が約束しているのは、ユーザーのメール内容に基づいてモデルをトレーニングしないことである。Google が目指すのは Gmail の新たなステップであり、デフォルトの受信トレイ画面で主役となるのは Gemini であるという。Google によると、Gmail が登場した 2004 年以降においてメールは変化し続けており、ユーザーは毎週のように配信される何百通ものメールに圧倒されており、その量は増加し続けている。

Continue reading “Gmail に搭載される AI 受信トレイ:Gemini によるメールの抽出や要約の機能とは?”

ChatGPT のマーケット・シェアが低下:Google Gemini ユーザーが急速に拡大

ChatGPT is losing market share as Google Gemini gains ground

2026/01/08 BleepingComputer — 新たなデータが示すのは、Web 上において ChatGPT のマーケット・シェアが Gemini に奪われ始めている状況である。ただし、モバイル分野でも Gemini がシェアを拡大しているかどうかは不明である。Web サイト分析会社 SimilarWeb の最新レポートによると、ChatGPT の市場シェアは 2026年1月に 65% まで低下した。この数値が示すのは、2025年1月の 86% と比べて約 20% の低下である。

Continue reading “ChatGPT のマーケット・シェアが低下:Google Gemini ユーザーが急速に拡大”

ChatGPT と DeepSeek の会話を窃取する2つの Chrome エクステンション:90 万人以上のユーザーに影響

Two Chrome Extensions Caught Stealing ChatGPT and DeepSeek Chats from 900,000 Users

2026/01/06 TheHackerNews — Chrome Web Store で配布されている2つの悪意あるエクステンションを、サイバー・セキュリティ研究者が発見した。これらのエクステンションは、OpenAI ChatGPT および DeepSeek の会話データに加え、閲覧データを窃取し、攻撃者が管理するサーバに送信するよう設計されている。これらのエクステンションは、合計で 90 万人以上のユーザーに拡散している。

Continue reading “ChatGPT と DeepSeek の会話を窃取する2つの Chrome エクステンション:90 万人以上のユーザーに影響”

GHOSTCREW による LLM/MCP/RAG の統合:Metasploit/Nmap/SQLMap との連携にも対応

GHOSTCREW: AI-Powered Red Team Toolkit Integrating Metasploit, Nmap, and More

2026/01/05 gbhackers — 新たに公開されたオープンソース・ツールが、人工知能と攻撃的セキュリティ運用の間に存在していたギャップを埋めようとしている。GHOSTCREW が統合するのは、Large Language Model (LLM)/Model Context Protocol (MCP)/Retrieval-Augmented Generation (RAG) であり、自然言語コマンドだけで複雑な侵入テスト作業を自動化する、高度な AI レッドチーム・アシスタントを実現している。

Continue reading “GHOSTCREW による LLM/MCP/RAG の統合:Metasploit/Nmap/SQLMap との連携にも対応”

Claude Chrome エクステンションの懸念:リクエストとログの読み取りや機密情報の漏洩

Researchers Warn of Data Exposure Risks in Claude Chrome Extension

2026/01/05 hackread — 2025年12月18日に Anthropic が公開したのは、Claude Chrome エクステンションのベータ版である。このエクステンション (拡張機能) は、AI がユーザーに代わって Web サイトを閲覧/操作し、高い利便性を提供するものである。その一方で、従来の Web セキュリティ・モデルでは対処できない深刻なリスクが存在すると、Zenity Labs の最新分析が指摘している。

Continue reading “Claude Chrome エクステンションの懸念:リクエストとログの読み取りや機密情報の漏洩”

Resecurity の AI ハニーポット:ShinyHunters に打撃を与えた巧妙な合成データ作戦とは?

Hackers Trapped in Resecurity’s Honeypot During Targeted Attack on Employee Network

2026/01/05 CyberSecurityNews — 合成データ・ハニーポットを展開することで脅威アクターを出し抜いた Resecurity は、偵察情報を実用的なインテリジェンスへと転換している。最近の作戦では、エジプトと関係するハッカーを罠に掛けただけではなく、ShinyHunters グループを欺き、虚偽の侵害報告を引き出すことに成功している。Resecurity は、対諜報活動を目的とした欺瞞技術を高度化し、企業環境を精巧に模倣することで脅威アクターを管理された罠へ誘引している。

Continue reading “Resecurity の AI ハニーポット:ShinyHunters に打撃を与えた巧妙な合成データ作戦とは?”

Cyber Risk In 2026:地政学的再編/重要サプライチェーンの兵器化/GenAI の急速な普及

Cyber Risk In 2026: How Geopolitics, Supply Chains and Shadow AI Will Test Resilience

2026/01/02 InfoSecurity — 2026 年においては、地政学的再編/重要サプライチェーンの兵器化/GenAI の急速な普及により、リスク管理の意味が再定義されるだろう。ユーザー組織にとって必要なことは、サイバー戦略/業務継続性/地政学的認識が深く絡み合った、プロアクティブでインテリジェンス主導のレジリエンスへの移行である。もはや、事後対応型のセキュリティ体制では、差し迫る脅威に対して対応しきれなくなる。2026 年のサイバーセキュリティ環境を特徴づける、3つの主要トレンドについて解説していく。

Continue reading “Cyber Risk In 2026:地政学的再編/重要サプライチェーンの兵器化/GenAI の急速な普及”

NeuroSploit v2 がリリース:Gemini/Claude/GPT/Ollama と連携するペンテスト・ツール

NeuroSploit v2 Launches as AI-Powered Penetration Testing Framework

2025/12/31 gbhackers — NeuroSploit v2 は、攻撃的セキュリティ・オペレーションの自動化と強化を目的として設計された、AI 活用型の高度なペンテスト・フレームワークである。このフレームワークは、最先端の LLM テクノロジーを活用することで、脆弱性評価/脅威シミュレーション/セキュリティ分析ワークフローの自動化を可能にするものだ。NeuroSploit v2 が組み合わせるのは、これまでに確立されたセキュリティ手法と人工知能であり、ユーザー組織におけるペンテストへのアプローチを大きく進化させる。

Continue reading “NeuroSploit v2 がリリース:Gemini/Claude/GPT/Ollama と連携するペンテスト・ツール”

ChatGPT Atlas のセキュリティが強化:プロンプト・インジェクションへの新たな対策とは?

OpenAI Hardened ChatGPT Atlas Against Prompt Injection Attacks

2025/12/29 CyberSecurityNews — ブラウザベースの AI エージェントである ChatGPT Atlas に、高度な防御機能を導入してプロンプト・インジェクション攻撃に対抗するという、重要なセキュリティ・アップデートがリリースされた。OpenAI による今回のアップデートは、エージェント型 AI システムを標的とする新たな脅威から、ユーザーを保護するための重要な一歩となる。

Continue reading “ChatGPT Atlas のセキュリティが強化:プロンプト・インジェクションへの新たな対策とは?”

LangChain Core の深刻な脆弱性 CVE-2025-68664/68665 が FIX:従来型のセキュリティ侵害と AI との融合

Critical LangChain Core Vulnerability Exposes Secrets via Serialization Injection

2025/12/26 TheHackerNews — LangChain Core に深刻なセキュリティ欠陥が発見された。この脆弱性 CVE-2025-68664 を悪用する攻撃者は、機密情報の窃取とプロンプト・インジェクションにより、LLM のレスポンスを操作する可能性がある。LangChain Core (langchain-core) は、LangChain エコシステムを構成するコア Python パッケージである。LLM を活用したアプリケーションを構築するための、コア・インターフェイスとモデル非依存の抽象化機能を提供している。

Continue reading “LangChain Core の深刻な脆弱性 CVE-2025-68664/68665 が FIX:従来型のセキュリティ侵害と AI との融合”

LLM による脆弱性スコアリング支援:テキストからシグナルを読み取る能力を6モデルでテスト

LLMs can assist with vulnerability scoring, but context still matters

2025/12/26 HelpNetSecurity — 新たな脆弱性が明らかになるたびに、すでに大きな負担を抱えているセキュリティ・チームに対して、新たな意思決定のタイミングが訪れる。最近の研究で検討されているのは、広範な脆弱性スコアリングの領域を LLM が担うことで、こうした負担の一部を軽減できるかという試みである。その結果として、特定の領域では有望性が示された一方で、一貫性に欠ける課題が残り、完全な自動スコアリングが依然として阻まれているという。

Continue reading “LLM による脆弱性スコアリング支援:テキストからシグナルを読み取る能力を6モデルでテスト”

NIST が MITRE に $20m を投資:AI セキュリティ・プロジェクトを推進

NIST, MITRE Partner on $20m AI Centers For Manufacturing and Cybersecurity

2025/12/24 InfoSecurity — 米国の National Institute of Standards and Technology (NIST) が公表したのは、主要な AI セキュリティ・プロジェクトに対する $20m (2,000万ドル) の投資であり、AI 分野における米国のリーダーシップを支援するためのものだ。この投資は、新設される研究開発センター “AI Economic Security Center for US Manufacturing Productivity” と “AI Economic Security Center to Secure US Critical Infrastructure from Cyber Threats” に充てられる。

Continue reading “NIST が MITRE に $20m を投資:AI セキュリティ・プロジェクトを推進”

2026 年のエンタープライズ・セキュリティ再構築:ID 戦略における5つの変化

Five identity-driven shifts reshaping enterprise security in 2026

2025/12/24 HelpNetSecurity — 2026 年は人工知能 (AI) がサイバー・リスクを根本的に再構築し始める転換点となる。数年にわたる広範な普及を経て、2026 年の AI は、働き方に影響を与える段階を超え、企業の構造や運営そのものを変革し始めるだろう。現在の AI は、組織のあらゆるレイヤーに組み込まれている。具体的には、ワークフロー/アプリケーション/カスタマー・エクスペリエンス/DevOps/IT 自動化/戦略的意思決定といった領域を網羅している。ただし、この変化の速度にガバナンス/セキュリティ管理/アイデンティティ保護は追いついていない。

Continue reading “2026 年のエンタープライズ・セキュリティ再構築:ID 戦略における5つの変化”

AI が量産するコードを分析:プルリクエストで明らかになった問題の分布とは?

AI code looks fine until the review starts

2025/12/23 HelpNetSecurity — ソフトウェア・チームが発表したのは、AI コーディング・ツールにより生成されるプルリクエストの増加を精査するという、この1年間にわたる調査の結果である。この新たなレポートにより、数多くのレビュー担当者が日常業務の中で感じてきた状況が、数値として裏付けられた。この調査は CodeRabbit が実施したものであり、数百のオープンソース・プロジェクトを対象に、AI が共同作成したコードと人間が作成したコードを比較している。そこで追跡されたのは、問題の件数/深刻度/発生頻度の高い問題カテゴリなどである。結果として示されたのは、ロジック/正確性/可読性/セキュリティで繰り返し発生するリスクが、セキュリティ/信頼性を重視するチームに直接的な影響を与えていることである。

Continue reading “AI が量産するコードを分析:プルリクエストで明らかになった問題の分布とは?”

AI ブラウザの安全性:5項目のリスク・ケースを8種類のエージェントでテストした

Browser agents don’t always respect your privacy choices

2025/12/22 HelpNetSecurity — ブラウザ・エージェントの普及において、ユーザーによる継続的な入力を必要とせずにオンライン・タスクを処理できるという新たなセールスポイントが強調されている。AI モデルを用いて Web ブラウザを操作することで、ショッピング/予約/アカウント管理などのタスクが可能になる。しかし、新たな学術研究によると、こうした利便性にはセキュリティ上の懸念として無視できないプライバシー・リスクが伴うと警告されている。

Continue reading “AI ブラウザの安全性:5項目のリスク・ケースを8種類のエージェントでテストした”

LLM 時代のランサムウェア進化:AI 悪用による攻撃ライフサイクルの短縮など

LLM-Driven Automation: A New Catalyst for Ransomware and RaaS Ecosystems

2025/12/16 gbhackers — LLM のランサムウェア・エコシステムへの統合に関する包括的な評価を、SentinelLABS が発表した。現時点では、AI により戦術が根本的に変革された状況は確認されていないが、運用ライフサイクルは著しく加速していると、このレポートは結論付けている。この調査が示しているのは、測定可能なメトリクスである攻撃速度/攻撃量/多言語対応の向上が、低スキル攻撃者の参入障壁を引き下げると同時に、既存グループのワークフローを最適化することで、脅威環境を再形成している点である。

Continue reading “LLM 時代のランサムウェア進化:AI 悪用による攻撃ライフサイクルの短縮など”

OpenAI が拡張する防御のモデル:AI の規模と精度が従来型の脅威と組み合わされる時代に

OpenAI Enhances Defensive Models to Mitigate Cyber-Threats

2025/12/12 InfoSecurity —12月10日 (水) に OpenAI が発表したのは、モデル性能の急上昇に伴い社内計画を再構築したという声明である。そのレポートによると、Capture The Flag (CTF) チャレンジを用いた能力評価は、2025年8月の GPT-5 における 27% から、2025年11月の GPT-5.1-Codex-Max の 76% へと向上しているという。OpenAI が警告するのは、今後登場するシステムの一部が、同社の Preparedness Framework における高能力レベルに達する可能性である。そのレベルに達すると、複雑な侵入作戦からゼロデイ・エクスプロイトの開発に至るまでの、さまざまなタスクが支援されてしまう可能性があるという。

Continue reading “OpenAI が拡張する防御のモデル:AI の規模と精度が従来型の脅威と組み合わされる時代に”

Brave に AI ブラウジング機能が登場:タスクを自動化とセキュリティ維持を両立

Brave browser starts testing agentic AI mode for automated tasks

2025/12/11 BleepingComputer — Brave が公開した新しい AI ブラウジング機能は、プライバシーを尊重する AI アシスタント Leo を活用し、ユーザーに代わってタスクを自動化するものである。この機能が目的とするのは、自動的な Web 検索/商品比較/プロモーションコードの発見/ニュース要約などのタスクの支援である。現在はテスト段階にあり、Brave Nightly バージョンからアクセスできる。この新しいエージェント AI ブラウジング・モードは、プライバシー重視のブラウザにおける AI とユーザーの緊密な統合に向けた第一歩となるが、デフォルトでは無効化されている。

Continue reading “Brave に AI ブラウジング機能が登場:タスクを自動化とセキュリティ維持を両立”

AMOS Stealer 攻撃キャンペーン:ChatGPT/Grok の AI 会話を悪用する脅威アクターたち

Threat Actors Exploit ChatGPT and Grok Conversations to Deliver AMOS Stealer

2025/12/10 gbhackers — サイバー・セキュリティを取り巻く状況が大きな転換点を迎えている。2025年12月5日に Huntress が公表したのは、単純に見えるベクターを用いて Atomic macOS Stealer (AMOS) を展開する巧妙かつ高度な攻撃キャンペーンである。このキャンペーンでは SEO 操作が行われ、OpenAI の ChatGPT および xAI の Grok プラットフォーム上での AI による会話が、信頼できるトラブルシューティング・ガイドのように偽装されている。

Continue reading “AMOS Stealer 攻撃キャンペーン:ChatGPT/Grok の AI 会話を悪用する脅威アクターたち”

Gemini の Zero-Click 脆弱性:GeminiJack という攻撃手法が Gmail/Calendar/Docs を侵害

Gemini Zero-Click Vulnerability Let Attackers Access Gmail, Calendar, and Docs

2025/12/10 CyberSecurityNews — Google が公開したのは、Google Gemini Enterprise (旧称 Vertex AI Search) に存在する GeminiJack と呼ばれる深刻なゼロクリック脆弱性に関する情報である。この脆弱性を悪用する攻撃者は、最小限の労力で Gmail/Calendar/Document から企業機密データを盗み出すことが可能だった。

Continue reading “Gemini の Zero-Click 脆弱性:GeminiJack という攻撃手法が Gmail/Calendar/Docs を侵害”

MCP で特定された3つの攻撃ベクター:悪意のサーバからの攻撃手法を分析する

Malicious MCP Servers Enable Stealthy Prompt Injection to Drain System Resources

2025/12/09 gbhackers — Model Context Protocol (MCP) のサプリング機能に、深刻な脆弱性が存在することを、Unit 42 のセキュリティ研究者たちが公表した。この脆弱性を悪用する悪意のサーバは、ステルス性の高いプロンプト・インジェクション攻撃を、ユーザーに気付かれることなく実行できる。その結果として、計算リソースの浪費や、LLM アプリケーションの侵害などが可能になる。発見された脆弱性は、プロトコル固有の信頼モデルと堅牢なセキュリティ制御の欠如を悪用する3つの主要な攻撃ベクターを持つ。

Continue reading “MCP で特定された3つの攻撃ベクター:悪意のサーバからの攻撃手法を分析する”

Gemini の AI ブラウジングを保護:Chrome に追加された新たなセキュリティ・レイヤーとは?

Google Chrome adds new security layer for Gemini AI agentic browsing

2025/12/09 BleepingComputer — Google が公開したのは、”User Alignment Critic” と呼ばれる新しい防御レイヤーを、Chrome ブラウザに導入する計画である。それにより、Gemini を搭載する今後のエージェント型 AI ブラウジング機能が保護されるという。エージェント型ブラウジングとは、自律的な AI エージェントがユーザーに代わって、Web 上で複数のタスクを実行する新しいモードである。具体的には、サイトのナビゲーション/コンテンツの読み取り/ボタンのクリック/フォームへの入力といった一連のアクションの実行などが自動的に実行される。

Continue reading “Gemini の AI ブラウジングを保護:Chrome に追加された新たなセキュリティ・レイヤーとは?”

IDEsaster という新たな脆弱性クラス:GitHub Copilot/Gemini CLI/Claude などに深刻な影響

Critical Vulnerabilities in GitHub Copilot, Gemini CLI, Claude, and Other Tools Impact Millions of Users

2025/12/08 CyberSecurityNews — AI 駆動型 IDE (Integrated Development Environment) の登場により、ソフトウェア開発環境は根本的に変化した。GitHub Copilot/Gemini CLI/Claude Code などのツールは、単純な自動補完エンジンから、タスクを実行する自律エージェントへと進化した。しかし、生産性の急速な追求がセキュリティ・ギャップを生み出している。本来は自律性を想定して設計されていないレガシー IDE アーキテクチャを、それぞれのベンダーがエージェントに直接統合したことで、図らずも攻撃対象領域が拡大されてしまった。それを IDEsaster と呼ぶ。

Continue reading “IDEsaster という新たな脆弱性クラス:GitHub Copilot/Gemini CLI/Claude などに深刻な影響”

Google Gemini CLI 標的の PoC:GitHub Actions などに影響する深刻な AI プロンプト脆弱性

Researchers Hack Google’s Gemini CLI Through Prompt Injections in GitHub Actions

2025/12/06 CyberSecurityNews — PromptPwnd と呼ばれる深刻な脆弱性クラスは、GitHub Actions および GitLab CI/CD パイプラインに統合された AI エージェントに影響を与える。この脆弱性を悪用する攻撃者は、Issue タイトルや Pull Request 本文といった信頼できないユーザー入力を介して悪意のプロンプトを注入し、AI モデルを騙して特権コマンドを実行させ、機密情報の漏洩やワークフローの改竄を引き起こす。少なくとも Fortune 500 企業の5社が影響を受ける可能性があり、その中にはパッチが適用されたばかりの Google Gemini CLI リポジトリも含まれていた。

Continue reading “Google Gemini CLI 標的の PoC:GitHub Actions などに影響する深刻な AI プロンプト脆弱性”

Perplexity Comet 標的の Zero-Click 攻撃:悪意のメールを介した Google Drive 操作

Zero-Click Agentic Browser Attack Can Delete Entire Google Drive Using Crafted Emails

2025/12/05 thehackernews — Perplexity の Comet ブラウザを標的とする、新たなエージェント型ブラウザ攻撃が、最新の調査により発見されたと Straiker Labs が公表した。この攻撃は、無害に見えるメールを破壊的なアクションに変貌させ、ユーザーの Google Drive コンテンツ全体を消去する能力を持つ。ゼロクリックの Google Drive ワイパー攻撃は、Comet ブラウザを Gmail や Google Drive などのサービスに接続して定型タスクを自動化し、メール閲覧/ファイルとフォルダの閲覧に加えて、コンテンツの移動/変更/削除といった操作へのアクセスを許可するものだ。

Continue reading “Perplexity Comet 標的の Zero-Click 攻撃:悪意のメールを介した Google Drive 操作”

GitHub Actions/GitLab CI/CD とプロンプト・インジェクション:Fortune 500 企業への影響を確認

Prompt Injection Vulnerability in GitHub Actions Impacts Multiple Fortune 500 Companies

2025/12/05 gbhackers — ソフトウェア開発における Artificial Intelligence (AI) の活用が引き起こす副作用が、新しいタイプのセキュリティ脆弱性となり、大企業を危険にさらしている。Aikido Security が発見したのは、PromptPwnd という名の脆弱性である。この脆弱性により、GitHub Actions/GitLab CI/CD パイプライン内で動作する AI エージェントが、攻撃者に乗っ取られる可能性が生じている。

Continue reading “GitHub Actions/GitLab CI/CD とプロンプト・インジェクション:Fortune 500 企業への影響を確認”

ChatGPT で世界的なアクセス障害:Codex のトラブルにより会話履歴が一時的に消失

ChatGPT Down – Users Report Outage Worldwide, Conversations Disappeared for Users

2025/12/03 CyberSecurityNews — 2025年12月3日 (水) の早朝に、ChatGPT が大規模なサービス障害に見舞われ、世界中の何百万ものユーザーの業務に深刻な支障が生じた。午前6時30分頃に発生した障害により、多数のユーザーが AI チャットボットへアクセスできなくなり、また、会話履歴が消失したように見えるといった、データ可視性に関する重大な問題が発生した。OpenAI は迅速な対応を行い、すべてのシステムが短時間で復旧したと発表している。

Continue reading “ChatGPT で世界的なアクセス障害:Codex のトラブルにより会話履歴が一時的に消失”

OpenAI Codex CLI にコマンド・インジェクション:リポジトリを介した悪用のシナリオとは?

OpenAI Codex CLI Command Injection Vulnerability Let Attackers Execute Arbitrary Commands

2025/12/01 CyberSecurityNews — OpenAI が公表したのは、Codex CLI ツールのコマンド・インジェクション脆弱性の修正に関する情報である。この脆弱性を悪用する攻撃者は、悪意のコンフィグ・ファイルをプロジェクト・リポジトリに配置するだけで、開発者のマシン上で任意のコマンド実行の可能性を得る。この問題は、すでに Codex CLI バージョン 0.23.0 で修正されている。修正前の Codex CLI では codex コマンドの日常的な使用が、サイレントなリモート・コード実行のトリガーとなっていた。

Continue reading “OpenAI Codex CLI にコマンド・インジェクション:リポジトリを介した悪用のシナリオとは?”

OpenAI が ChatGPT 広告を公開へ向けて準備中:利用者データを活用するパーソナライズド広告の可能性

Leak confirms OpenAI is preparing ads on ChatGPT for public roll out

2025/11/29 BleepingComputer — Web の経済を再定義するかもしれない ChatGPT 内の広告機能を、OpenAI が内部でテスト中とのことだ。これまで、ChatGPT の基本利用は無料だった。有料のプランやモデルは存在するが、ChatGPT が商品を販売することも広告を表示することもなかった。その一方で、Google 検索ではユーザーの購買行動に影響を与える広告が表示される。それと同じエクスペリエンスを、OpenAI は ChatGPT 上で実現しようとしている。

Continue reading “OpenAI が ChatGPT 広告を公開へ向けて準備中:利用者データを活用するパーソナライズド広告の可能性”

Cronos が開催する賞金総額 $42,000 のハッカソン:資産移動の安全性/拡張性を AI により高める

Cronos Kicks Off $42K Global Hackathon Focused on AI-Powered On-Chain Payments

2025/11/27 hackread — Cronos が開始したのは、AI 統合型のブロックチェーン決済の推進を目的とした、賞金総額 $42,000 のグローバル・チャレンジ x402 PayTech Hackathon である。世界中の開発者が、エージェント・ベースの決済技術や、Crypto.com AI エージェント SDK、そして Cronos と Crypto.com エコシステム全体を活用するツールやアプリケーションの開発に参加できる。

Continue reading “Cronos が開催する賞金総額 $42,000 のハッカソン:資産移動の安全性/拡張性を AI により高める”

間接プロンプト・インジェクションは不可避? ChatGPT Atlas などのエージェントがもたらすリスクとは?

Prompt Injections Loom Large Over ChatGPT’s Atlas Browser

2025/11/27 DarkReading — AI 搭載の新しい Web ブラウザが登場し、エージェント機能が一般ユーザーにも普及し始めている。しかし、疑問として残されるのは、LLM 攻撃の代表的手法であるプロンプト・インジェクションが、さらに深刻化するかもしれないという懸念である。ChatGPT Atlas は、10月21日に OpenAI がリリースした Chromium ベースの LLM 搭載 Web ブラウザである。現時点では、macOS 上で利用が可能であり、テキスト生成/Web ページ要約/エージェント機能といった、ChatGPT のネイティブ機能を搭載している。

Continue reading “間接プロンプト・インジェクションは不可避? ChatGPT Atlas などのエージェントがもたらすリスクとは?”

OpenAI が Mixpanel 関連のインシデントを公表:氏名/メールアドレス/OS 情報などが漏洩

OpenAI Discloses Mixpanel Data Breach – Name, Email Address and Operating System Details Exposed

2025/11/27 CyberSecurityNews — OpenAI が公表したのは、API 製品のフロントエンドである “platform.openai.com” の活動を監視するために、以前に使用していたサードパーティ分析プロバイダ Mixpanel に関連するセキュリティ・インシデントである。2025年11月9日に Mixpanel が検知したのは、自社システムへの不正なアクセスがあり、一部の OpenAI API ユーザーの識別情報を含む分析データがエクスポートされたことだった。

Continue reading “OpenAI が Mixpanel 関連のインシデントを公表:氏名/メールアドレス/OS 情報などが漏洩”

HashJack という間接プロンプト・インジェクション:Comet/Copilot/Gemini などが標的

HashJack: A Novel Exploit Leveraging URL Fragments To Deceive AI Browsers

2025/11/26 gbhackers — HashJack という攻撃手法が、Cato CTRL のセキュリティ研究者たちにより発見された。この革新的な間接プロンプト・インジェクション攻撃は、URL の “#” 記号以降のフラグメント部分に有害なコマンドを隠蔽するものだ。この手法は、信頼できる Web サイトを武器化するものであり、その標的は、Perplexity Comet/Microsoft Copilot/Google Gemini といった AI ブラウザ・アシスタントとなる。

Continue reading “HashJack という間接プロンプト・インジェクション:Comet/Copilot/Gemini などが標的”

vLLM の脆弱性 CVE-2025-62164:悪意のペイロード経由による RCE の恐れ

vLLM Flaw Allows Remote Code Execution Through Malicious Payloads

2025/11/24 gbhackers — LLM 向けの高スループット推論/サービング・エンジンとして広く利用されている vLLM に、深刻なセキュリティ欠陥が発見された。この脆弱性 CVE-2025-62164 を悪用する攻撃者は、Completions API エンドポイントに悪意のペイロードを送信することで、任意のリモート・コード実行を可能にする。

Continue reading “vLLM の脆弱性 CVE-2025-62164:悪意のペイロード経由による RCE の恐れ”

DeepSeek-R1 の脆弱性:政治的なプロンプトを入力すると生成されるコードが変化する?

DeepSeek-R1 Makes Code for Prompts With Severe Security Vulnerabilities

中国で開発された人工知能コーディング・アシスタント “DeepSeek-R1” に、懸念すべき脆弱性が発見された。この AI モデルは、中国共産党に関連する政治的にセンシティブなトピックに遭遇すると、深刻なセキュリティ欠陥を含むコードを通常より最大 50% 高い割合で生成する。中国の AI スタートアップ企業 DeepSeek が、2025年1月にリリースした R1 モデルは、コーディング品質において欧米の競合製品と遜色ないように見えていた。

Continue reading “DeepSeek-R1 の脆弱性:政治的なプロンプトを入力すると生成されるコードが変化する?”

Perplexity の Comet Browser:セキュリティ境界の変更が生み出すリスクとは?

Security gap in Perplexity’s Comet browser exposed users to system-level attacks

2025/11/20 HelpNetSecurity — Perplexity が開発した AI 搭載 エージェント・ブラウザ Comet に深刻なセキュリティ上の問題が存在すると、SquareX の研究者たちが述べている。Comet の MCP API には、ブラウザに内蔵されているがユーザーには表示されないエクステンションが存在する。そこからユーザーのデバイスへ向けて、直接コマンドを発行することが可能であるため、その機能を攻撃者が悪用できると指摘されている。Comet は、ローカル・システム上でのアプリケーションの実行や、ファイルの読み取り、データの変更などを可能にしている。このレベルのアクセスは、”旧式” ブラウザではブロックされるのが通常であるが、一部の AI 搭載ブラウザは、この分離層を無効化していると研究者たちは指摘している。

Continue reading “Perplexity の Comet Browser:セキュリティ境界の変更が生み出すリスクとは?”

Cline AI の4つの脆弱性:プロンプト・インジェクションによるコード実行とデータ漏洩

Cline AI Coding Agent Vulnerabilities Enables Prompt Injection, Code Execution, and Data Leakage

2025/11/20 CyberSecurityNews — Cline は、380 万回インストールされ、GitHub で 5 万2000 以上のスターを獲得している、オープンソースの AI コーディング・エージェントである。このエージェントに存在する4つの深刻なセキュリティ脆弱性を悪用する攻撃者は、悪意のあるソースコード・リポジトリを介して任意のコードを実行し、機密データの窃取を可能にするという。Mindgard の研究者たちが、これらの脆弱性を発見したのは、Claude Sonnet と無料の Sonic モデルをサポートする、人気の VSCode エクステンションの調査中のことだった。

Continue reading “Cline AI の4つの脆弱性:プロンプト・インジェクションによるコード実行とデータ漏洩”