FlowiseAI の脆弱性 CVE-2025-58434:アカウント乗っ取りに No Patch/Yes PoC

FlowiseAI Password Reset Token Vulnerability Allows Account Takeover

2025/09/15 CyberSecurityNews — FlowiseAI が公表したのは、Flowise プラットフォームに存在する深刻な脆弱性 CVE-2025-58434 の情報である。この脆弱性の悪用に成功した攻撃者は、最小限の労力でアカウントを完全に乗っ取ることが可能になる。クラウド環境 (cloud.flowiseai.com) とセルフホスト環境に影響を及ぼすため、この AI エージェント構築プラットフォームを利用する組織にとって、広範なセキュリティ上の懸念が生じている。

Continue reading “FlowiseAI の脆弱性 CVE-2025-58434:アカウント乗っ取りに No Patch/Yes PoC”

Villager という AI ネイティブ・ペンテスト・ツール:大規模な攻撃の計画/適応/実行を可能にする

AI Pentesting Tool ‘Villager’ Merges Kali Linux with DeepSeek AI for Automated Security Attacks

2025/09/13 gbhackers — Straiker AI Research (STAR) チームのセキュリティ研究者たちが発見したのは、中国に拠点を置く Cyberspike グループが開発した AI ネイティブのペンテスト・フレームワーク Villager である。このフレームワークは、公式 Python Package Index (PyPI) での公開から2ヶ月以内に、すでに1万回以上のダウンロードを記録している。このツールは、Kali Linux ツールセットと DeepSeek AI モデルを組み合わせて、ペンテストのワークフローを完全に自動化するものだが、そこで懸念されるのは、Cobalt Strike の軌跡と同様に、二重使用により悪用へと至る可能性である。

Continue reading “Villager という AI ネイティブ・ペンテスト・ツール:大規模な攻撃の計画/適応/実行を可能にする”

EvilAI というマルウェアを検出:LLM を用いて生成され静的シグネチャ・スキャナを回避

EvilAI: Leveraging AI to Steal Browser Data and Evade Detection

2025/09/12 gbhackers — Trend Research が追跡する新たなマルウェア・ファミリー EvilAI が、この数週間にわたり、正規の AI 駆動型ユーティリティを装いながら活動している。これらのトロイの木馬は、プロフェッショナルなユーザー・インターフェイスや有効なコード署名に加えて実際の機能を備えており、企業/個人のセキュリティ対策を回避していく。

Continue reading “EvilAI というマルウェアを検出:LLM を用いて生成され静的シグネチャ・スキャナを回避”

Cursor AI Code Editor の脆弱性 CVE-N/A:Workspace Trust 無効化による悪意の自動実行

Cursor AI Code Editor RCE Vulnerability Enables “autorun” of Malicious on your Machine

2025/09/10 CyberSecurityNews — Cursor AI Code Editor に、リモート・コード実行の脆弱性が発見された。この脆弱性により、悪意のコード・リポジトリが自動的に開かれ、ユーザーのマシン上でコードが実行される可能性がある。この脆弱性を発見した Oasis Security の研究チームは、人気エディタのデフォルト・コンフィグの悪用による、一般的なユーザー・プロンプトのバイパスを実証している。

Continue reading “Cursor AI Code Editor の脆弱性 CVE-N/A:Workspace Trust 無効化による悪意の自動実行”

SpamGPT による大規模フィッシング攻撃:$5,000 で販売される AI 搭載フィッシング・ツールの脅威

SpamGPT – AI-powered Attack Tool Used By Hackers For Massive Phishing Attack

2025/09/09 CyberSecurityNews — SpamGPT と呼ばれる高度なサイバー犯罪ツール・キットは、人工知能とプロ仕様のメール・マーケティング・プラットフォーム機能を組み合わせることで、ハッカーたちによる大規模かつ効果的なフィッシング・キャンペーンを支援している。ダークウェブで Spam-as-a-Service プラットフォームとして販売される SpamGPT は、詐欺メール攻撃の大半の工程を自動化することで、犯罪者の技術的障壁を大幅に低減している。

Continue reading “SpamGPT による大規模フィッシング攻撃:$5,000 で販売される AI 搭載フィッシング・ツールの脅威”

X の Grok AI が手助け:ブロックを回避して悪質な広告やマルウエアを展開する手法とは?

Threat actors abuse X’s Grok AI to spread malicious links

2025/09/03 BleepingComputer — X に搭載されている AI アシスタント Grok を悪用する脅威アクターが、このプラットフォームが悪質広告の抑制を目的として導入した、リンク投稿への制限を回避している。Guardio Labs の研究員 Nati Tal によると、この広告主はアダルト・コンテンツなどの怪しい動画広告を掲載することが多く、意図的に本文にリンクを取り込まず、X によるブロックを迂回しているという。

Continue reading “X の Grok AI が手助け:ブロックを回避して悪質な広告やマルウエアを展開する手法とは?”

AI モデル名前空間の再利用という問題:Hugging Face の欠陥とサプライチェーン攻撃

Namespace Reuse Vulnerability Exposes AI Platforms to Remote Code Execution

2025/09/03 gbhackers — AI サプライチェーンで発見された Model Namespace Reuse と呼ばれる脆弱性により、Microsoft Azure AI Foundry/Google Vertex AI に加えて、数千のオープンソース・プロジェクトなどの AI プラットフォームにおいて、攻撃者によりリモート・コード実行 (RCE) が引き起こされる可能性が生じている。Hugging Face に放棄/削除されたモデル名前空間を再登録 (Model Namespace Reuse) する攻撃者は、それらの名前でモデルを取得するパイプラインを騙し、汚染されたリポジトリのデプロイ/エンドポイント環境の侵害/不正アクセスの許可などを可能にするという。

Continue reading “AI モデル名前空間の再利用という問題:Hugging Face の欠陥とサプライチェーン攻撃”

AI セキュリティ・ツールを脆弱にする LLM の欠陥:プロンプト・インジェクション攻撃の実態

AI-Powered Cybersecurity Tools Can Be Turned Against Themselves Through Prompt Injection Attacks

2025/09/03 CyberSecurityNews — AI 搭載のサイバー・セキュリティ・ツールは、プロンプト・インジェクション攻撃により自らを攻撃対象とされ、自動化されたエージェントを乗っ取る攻撃者に対して、不正なシステム・アクセスの取得を許す可能性がある。セキュリティ研究者である Victor Mayoral-Vilches と Per Mannermaa Rynning は、悪意のサーバが無害に見えるデータ・ストリームに命令を挿入することで、AI 駆動型ペンテスト・フレームワークが脆弱になる仕組みを明らかにした。

Continue reading “AI セキュリティ・ツールを脆弱にする LLM の欠陥:プロンプト・インジェクション攻撃の実態”

プロンプト・インジェクションを理解する:AI エージェントの導入つれて拡大する攻撃対象領域

How Prompt Injection Attacks Bypassing AI Agents With Users Input

2025/09/01 CyberSecurityNews — LLM と AI エージェントのコア・アーキテクチャを悪用することで、現代の AI システムにおける最も深刻なセキュリティ脆弱性を突くプロンプト・インジェクション攻撃が、根本的な課題として浮上している。その一方では、自律的な意思決定/データ処理、ユーザー・インタラクションのために、AI エージェントを導入するユーザー組織が増えており、攻撃対象領域が劇的に拡大している。巧妙に細工されたユーザー入力を通じて、サイバー犯罪者たちが AI の挙動を操作するという、新たなベクターが生まれている。

Continue reading “プロンプト・インジェクションを理解する:AI エージェントの導入つれて拡大する攻撃対象領域”

VirusTotal の Code Insight が拡張:逆アセンブル/逆コンパイルされたコード・スニペットを AI で分析

VirusTotal Launches Endpoint That Explains Code Functionality for Malware Analysts

2025/08/29 gbhackers — Virustotal が発表したのは、Code Insight スイートに新たな機能を追加したことである。それは、逆アセンブル/逆コンパイルされたコード・スニペットを受け取り、マルウェア・アナリスト向けの簡潔なサマリと詳細な説明を返すという、専用 API エンドポイントのことである。RSA 2023 における Code Insight の発表から2年以上を経ているが、この公開されたエンドポイントは、リバース・エンジニアリング・ワークフローの自動化と、AI ドリブン分析を、逆アセンブル・ツールにダイレクト統合する大きな進展である。

Continue reading “VirusTotal の Code Insight が拡張:逆アセンブル/逆コンパイルされたコード・スニペットを AI で分析”

Claude AI に3つのインシデント:サイバー犯罪者たちの巧妙な試みを Anthropic が阻止

Hackers Attempted to Misuse Claude AI to Launch Cyber Attacks

2025/08/28 CyberSecurityNews — 新たに発表された脅威インテリジェンス・レポートによると、Claude AI プラットフォームの悪用を狙うサイバー犯罪者たちの、複数の巧妙な試みを Anthropic が阻止したようだ。Claude の高度な機能を悪用する攻撃者たちは、有害な出力を防ぐための多層的な安全対策を回避しながら、このエージェント AI を武器化することで、大規模な恐喝/雇用詐欺/ランサムウェア攻撃を実行している。

Continue reading “Claude AI に3つのインシデント:サイバー犯罪者たちの巧妙な試みを Anthropic が阻止”

LLM-Based コーディングへの提言:危険なサンプル・コードの学習を想定すべきだ

New Research and PoC Reveal Security Risks in LLM-Based Coding

2025/08/28 gbhackers — 2025年8月22日に公開された詳細なブログ記事によると、最近の調査で明らかになったものに、LLM のみを用いて生成されたアプリケーション・コードにおける、深刻なセキュリティ脆弱性の可能性についての指摘がある。この調査が強調するのは、広範なインターネット・データを学習した、つまり、安全ではない可能性のあるサンプル・コードを学習した LLM が、開発者に対して潜在的なリスクを警告することなく、安全が確保されていないパターンを複製していくという問題点である。

Continue reading “LLM-Based コーディングへの提言:危険なサンプル・コードの学習を想定すべきだ”

OpenAI を悪用するランサムウェア PromptLock:標的のシステム上で攻撃用の Lua スクリプトを作成

First AI Ransomware ‘PromptLock’ Uses OpenAI gpt-oss-20b Model for Encryption

2025/08/26 CyberSecurityNews — 新たなランサムウェアが確認された。どのようなものかと言うと、ローカル AI モデルを介して悪意のコンポーネントを生成するものであり、史上初のランサムウェアの種類であると考えられている。ESET Research Team により “PromptLock” と名付けられたマルウェアは、Ollama API を介して OpenAI の gpt-oss:20b モデルを利用し、攻撃チェーン用のカスタム・クロス・プラットフォーム Lua スクリプトを作成する。

Continue reading “OpenAI を悪用するランサムウェア PromptLock:標的のシステム上で攻撃用の Lua スクリプトを作成”

ClickFix に新たな攻撃手法:CloudSEK が発表した AI 要約トリックという PoC エクスプロイト

ClickFix Attack Tricks AI Summaries Into Pushing Malware

2025/08/25 DarkReading — ClickFix を介する新たな PoC ソーシャル・エンジニアリング攻撃は、AI サマリを利用してランサムウェアを配信できるという。8月25日に脅威監視ベンダー CloudSEK が発表したのは、ClickFix の POC エクスプロイトに関する調査の結果である。ClickFix とは、いま蔓延している攻撃手法であり、エラー・メッセージや CTA (call to action) を標的に対して表示し、自己破壊的なコマンドの実行を指示することで、ソーシャル・エンジニアリングを活性化させるものだ。

Continue reading “ClickFix に新たな攻撃手法:CloudSEK が発表した AI 要約トリックという PoC エクスプロイト”

Gmail Phishing の進化:人間に加えて AI ベースの防御システムを操作する?

New Gmail Phishing Attack Uses AI Prompt Injection to Evade Detection

2025/08/24 CyberSecurityNews — これまでのフィッシングは、人を欺くことを常としてきた。しかし、今回のキャンペーンで明らかになったのは、攻撃者はユーザーを標的にするだけでなく、AI ベースの防御システムも操作しようとしたことだ。これは、先週に報告した Gmail フィッシング・チェーンの進化形である。先週のキャンペーンで悪用されていたのは、緊急性のアピールと巧みなリダイレクトだったが、今回は自動分析を混乱させるための、隠された AI プロンプトが導入されている。

Continue reading “Gmail Phishing の進化:人間に加えて AI ベースの防御システムを操作する?”

AI によるエクスプロイト開発:1件あたり $1 のコストで所要時間は僅か 10〜15 分

AI Systems Capable of Generating Working Exploits for CVEs in Just 10–15 Minutes

2025/08/22 gbhackers — 公開されている脆弱性 (CVE) に対する有効なエクスプロイトを、わずか 10~15 分で自動生成できる人工知能システムが、サイバー・セキュリティ研究者たちにより開発された。このシステムは、1つのエクスプロイトを約 $1 というコストで生成できるという。したがって、防御側が依拠してきた、従来からのセキュリティ対応スケジュールに対して、根本的な挑戦を突き付けるものとなる。

Continue reading “AI によるエクスプロイト開発:1件あたり $1 のコストで所要時間は僅か 10〜15 分”

NIST が公開した AI 向けのセキュリティ・フレームワーク:Control Overlays for AI Systems

NIST Releases Control Overlays to Manage Cybersecurity Risks in Use and Developments of AI Systems

2025/08/22 CyberSecurityNews — 米国の NIST が公開したのは、NIST SP 800-53:Control Overlays for Securing AI Systems の提案を概説する包括的なコンセプト・ペーパーだ。それにより、人工知能 (AI) アプリケーション向けの標準化されたサイバー・セキュリティ・フレームワークの重要なマイルストーンが確立される。2025年8月14日に発表された、このイニシアチブは、生成 AI/予測 AI/マルチエージェント AI アーキテクチャを網羅するものである。それにより、AI システムの開発/導入フェーズの双方において高まってきた、構造化されたリスク管理アプローチに対するニーズに応えるものとなる。

Continue reading “NIST が公開した AI 向けのセキュリティ・フレームワーク:Control Overlays for AI Systems”

ライトウェイトLLM によるインシデント処理:ログ・データが複雑であっても迅速な対応が可能に!

Using lightweight LLMs to cut incident response times and reduce hallucinations

2025/08/21 HelpNetSecurity — メルボルン大学とインペリアル・カレッジ・ロンドンの研究者たちは、LLM を用いるインシデント対応計画の改善手法を、幻覚リスクの低減に焦点を当てながら開発した。この手法は、小規模で微調整された LLM を基盤とし、RAG (retrieval-augmented generation) と意思決定理論に基づく計画手法を、組み合わせるものである。

Continue reading “ライトウェイトLLM によるインシデント処理:ログ・データが複雑であっても迅速な対応が可能に!”

Copilot の脆弱性により M365 監査ログの完全性に問題:CVE 発行と詳細報告を拒絶する Microsoft

Copilot Vulnerability Breaks Audit Logs and Access Files Secretly for Hackers

2025/08/20 CyberSecurityNews — Microsoft M365 向けの Copilot に、深刻なセキュリティ脆弱性が発見された。この脆弱性が、インサイダーに悪用されると、公式の監査ログに記録を残すことなく、機密ファイルへのアクセス/操作が可能となっていた。この脆弱性を修正した Microsoft は、正式な CVE の発行や顧客への通知を行わなかったと報じられている。その結果としてユーザー企業は、修正前のセキュリティ・ログが不完全であっても気付かない状況に置かれている。

Continue reading “Copilot の脆弱性により M365 監査ログの完全性に問題:CVE 発行と詳細報告を拒絶する Microsoft”

CodeRabbit 本番環境サーバにおける RCE 脆弱性:100 万件以上のリポジトリに影響が生じた可能性

CodeRabbit’s Production Servers RCE Vulnerability Enables Write Access on 1M Repositories

2025/08/20 CyberSecurityNews — CodeRabbit の本番環境インフラで確認された、深刻なリモート・コード実行 (RCE) 脆弱性により、100万以上のコード・リポジトリへの不正アクセスが、プライベート・リポジトリを含むかたちで可能になっていた。このプラットフォームの静的解析ツール統合を悪用する攻撃者は、機密 API 認証情報を窃取し、GitHub App 秘密鍵を掌握することで、リポジトリへの書込権限の取得が可能な状況にあった。この脆弱性は、2024年12月に発見され、2025年1月に責任あるかたちで開示された。

Continue reading “CodeRabbit 本番環境サーバにおける RCE 脆弱性:100 万件以上のリポジトリに影響が生じた可能性”

Microsoft Defender が活用する AI の能力:AD 内のプレーン・テキスト資格情報を探して特定する

Microsoft Defender AI to Uncover Plain Text Credentials Within Active Directory

2025/08/19 CyberSecurityNews — Microsoft が発表したのは、サイバー・セキュリティにおける根深い脆弱性の一つである、Active Directory (AD) のフリーテキスト・フィールドに保存された、プレーン・テキスト資格情報に対処する、AI を活用したセキュリティ機能に関する情報である。Microsoft Defender for Identity の新しいポスチャ・アラートは、人工知能を活用するものであり、これまでにはない精度により、露出している資格情報を検出するものだ。それにより、ユーザー組織は、ID ミスコンフィグ を特定し、悪用される前の修正を可能にする。

Continue reading “Microsoft Defender が活用する AI の能力:AD 内のプレーン・テキスト資格情報を探して特定する”

Anthropic Claude にチャットの自動的な終了機能を追加:有害な利用を防止

Anthropic: Claude can now end conversations to prevent harmful uses

2025/08/17 BleepingComputer — OpenAI と競合する Anthropic が発表したのは、 危害や悪用の可能性を AI モデルが検知した場合に会話を終了する新機能を、Claude のアップデートに搭載したというものだ。この機能は、有料プランおよび API で提供される、最上位の2つのモデル Claude Opus 4/4.1 にのみ提供される。したがって、最も広く利用されている Claude Sonnet 4 には搭載されない。

Continue reading “Anthropic Claude にチャットの自動的な終了機能を追加:有害な利用を防止”

大半のユーザー組織は承知の上で脆弱なコードを配布している:GenAI がもたらす危機的な状況とは?

Majority of Organizations Ship Vulnerable Code, Study Finds

2025/08/15 InfoSecurity — GenAI コードが主流になるにつれ、ユーザー組織の 81% が承知の上で、脆弱なコードを配布していることが、Checkmarx の最新調査により明らかになった。この調査は、CISO/開発者/アプリケーション・セキュリティ管理者たち 1,500 人を対象としたものであり、回答者の 50% が、すでに AI セキュリティ・コード・アシスタントを活用しているという。さらに、34% の回答者が、自社コードに占める GenAI コードの割合が 60% 以上に達することを認めているという。GenAI コードには、既知の脆弱性がデフォルトで含まれていることが多いが、それでも、このような状況となっている。

Continue reading “大半のユーザー組織は承知の上で脆弱なコードを配布している:GenAI がもたらす危機的な状況とは?”

Google の AI を活用する Big Sleep:ImageMagick の4件の脆弱性を発見/特定

ImageMagick Vulnerabilities Cause Memory Corruption and Integer Overflows

2025/08/15 gbhackers — AI を活用する Google のセキュリティ調査ツールである、Big Sleep が発見した4件の深刻な脆弱性は、人気の OSS 画像操作ソフトウェア ImageMagick に存在するものだ。これらの脆弱性が影響を及ぼす範囲は、画像処理に ImageMagick を利用する世界中の数百万のアプリケーションであり、同社による責任ある情報開示手順に従い、最新のソフトウェア・リリースで修正されている。

Continue reading “Google の AI を活用する Big Sleep:ImageMagick の4件の脆弱性を発見/特定”

Gemini への間接プロンプト・インジェクション:メールからスマートホームにまで広がる攻撃領域

Gemini Exploited via Prompt Injection in Google Calendar Invite to Steal Emails, and Control Smart Devices

2025/08/07 CyberSecurityNews — 無害に見えるカレンダーの招待やメールを通じて、Google の Gemini AI アシスタントを、高度な攻撃手法により悪用する事例が報告されている。この “標的型プロンプトウェア攻撃” と呼ばれる手法では、間接的なプロンプト・インジェクションにより、ユーザーのデジタル・プライバシーを侵害され、さらには、家庭内の物理デバイスの制御が奪われるという懸念が生じている。

Continue reading “Gemini への間接プロンプト・インジェクション:メールからスマートホームにまで広がる攻撃領域”

vCISO と AI の組み合わせ:MSP/MSSP の 42% が採用し MSB の 68% がリソースを削減している

AI Slashes Workloads for vCISOs by 68% as SMBs Demand More – New Report Reveals

2025/08/06 TheHackerNews — サイバー環境における脅威とリスクの増大/高度化に伴い、あらゆる規模の企業にとって、セキュリティはミッション・クリティカルな課題となっている。この変化により、中小企業においても脅威が高まり、コンプライアンス要件が厳格化され、vCISO (virtual CISO) サービスへの迅速な移行が迫られている。Cynomi の最新レポートによると、中小企業における vCISO サービスの需要は高いと、MSP/MSSP の 79% が認識している。

Continue reading “vCISO と AI の組み合わせ:MSP/MSSP の 42% が採用し MSB の 68% がリソースを削減している”

OpenAI が立ち上げる Red Teaming チャレンジ:新たな Open-Weight LLM は何を変えていくのか?

OpenAI Launches Red Teaming Challenge for New Open-Weight LLMs

2025/08/06 InfoSecurity — OpenAI が発表したのは、2つの新しいオープン・ウェイト LLM の提供と、賞金総額 $500,000 のレッドチーム・チャレンジの開催である。8月5日午前10時、OpenAI の CEO である Sam Altman は、ソーシャルメディアに “gpt-oss がリリースされた” と投稿した。

Continue reading “OpenAI が立ち上げる Red Teaming チャレンジ:新たな Open-Weight LLM は何を変えていくのか?”

MCPoison という新たな攻撃ベクター:Cursor IDE における不適切な MCP 検証とは?

New MCPoison Attack Leverages Cursor IDE MCP Validation to Execute Arbitrary System Commands

2025/08/05 CyberSecurityNews — 急速に成長する AI-powered 開発環境 Cursor IDE に、深刻な脆弱性が発見された。この脆弱性を悪用する攻撃者は、Model Context Protocol (MCP) システムの操作を通じて、永続的なリモート・コード実行の可能性を手にする。この “MCPoison” と名付けられた脆弱性 CVE-2025-54136 は信頼検証の欠陥に起因するものであり、それを悪用する攻撃者は、セキュリティ警告をトリガーすることなく、開発者マシン上での任意のコマンド実行を達成する。

Continue reading “MCPoison という新たな攻撃ベクター:Cursor IDE における不適切な MCP 検証とは?”

Perplexity AI が Firewall を回避して Web サイトをクロール:Cloudflare が警告

Cloudflare Accuses Perplexity AI For Evading Firewalls and Crawling Websites by Changing User Agent

2025/08/05 CyberSecurityNews — 標準的な Firewall を回避するステルス型のクロール技術を採用しているとして、高度な LLM を搭載する新興の QA エンジン Perplexity AI が注目を集めている。スタート時の Perplexity クローラーは透明性を重視しており、PerplexityBot/1.0 といったユーザー・エージェントを用いて自らを識別し、robots.txt の指示や Web Application Firewall (WAF) のルールを遵守していた。しかし、2025年8月初旬に研究者たちが確認したのは、ブロックを受けた Perplexity がクロール中に自身の識別情報を改変し、一般的なブラウザのユーザー・エージェントおよび未公開の IP 範囲を用いて、アクセスが制限されるコンテンツへと接続している現実である。

Continue reading “Perplexity AI が Firewall を回避して Web サイトをクロール:Cloudflare が警告”

Claude Code の AI アシスタントの脆弱性 CVE-2025-54794/54795 が FIX:Inverse Prompt による特定とは?

Claude AI Flaws Let Attackers Execute Unauthorized Commands Using the Model Itself

2025/08/05 gbhackers — Anthropic の Claude Code に存在する深刻な脆弱性を、セキュリティ研究者たちが発見した。この脆弱性の悪用に成功した攻撃者は、セキュリティ制限を回避し、不正なコマンド実行を可能にする。AI アシスタント自体が、こうした攻撃を助長している。これらの脆弱性 CVE-2025-54794/CVE-2025-54795 は、開発者の生産性向上を目的として設計された高度な AI ツールが、セキュリティ境界を適切に実装していない場合において、システム侵害の媒介となり得ることを明確に示している。

Continue reading “Claude Code の AI アシスタントの脆弱性 CVE-2025-54794/54795 が FIX:Inverse Prompt による特定とは?”

Gen AI を悪用する脅威アクター:企業インフラを支える自律型 AI エージェントが標的

Threat Actors Exploit AI to Scale Attacks and Target Autonomous Agents

2025/08/04 gbhackers — 急速に変化する脅威情勢の中で、人工知能 (AI) を悪用する攻撃者たちは、その運用効率を飛躍的に高めている。彼らは攻撃のスケールを広げ、現代の企業インフラを支える自律型 AI エージェントに照準を合わせている。最前線の脅威ハンター/アナリストの調査に基づく CrowdStrike 2025 Threat Hunting Report によると、限られたリソースの中で運用を最適化する手段として、脅威アクターたちは GenAI を積極的に取り入れ、かつてない速度と精度で、ユーザー組織への侵入を達成しているという。

Continue reading “Gen AI を悪用する脅威アクター:企業インフラを支える自律型 AI エージェントが標的”

NPM 上の悪意のパッケージを解析:AI によるコード生成を示す証拠が発見された

Hackers Use AI to Create Malicious NPM Package that Drains Your Crypto Wallet

2025/08/04 CyberSecurityNews — 人工知能 (AI) を悪用するサイバー犯罪者たちは、正規の開発ツールを装う NPM パッケージを作成/展開することで、暗号資産ウォレットから密かに資金を吸い上げるという、巧妙な攻撃を仕掛けている。“@kodane/patch-manager” という名のパッケージは、ライセンス検証およびレジストリ最適化機能を提供する “NPM Registry Cache Manager” を装っているが、実際には Solana ブロックチェーン資産を標的とする、高度な暗号資産ウォレット・ドレイナー (資金窃取ツール) を内包している。

Continue reading “NPM 上の悪意のパッケージを解析:AI によるコード生成を示す証拠が発見された”

NVIDIA Triton Inference Server の複数の脆弱性が FIX:未認証による AI サーバ乗っ取りの可能性

NVIDIA Triton Bugs Let Unauthenticated Attackers Execute Code and Hijack AI Servers

2025/08/04 TheHackerNews — NVIDIA が提供する Windows/Linux 向けの Triton Inference Server (AI モデル用 OSS プラットフォーム) において、新たに発見された一連のセキュリティ脆弱性により、標的とされるサーバに乗っ取りの可能性が生じている。Wiz の研究者 Ronen Shustin と Nir Ohfeld は、2025年8月に公開したレポートの中で「これらの脆弱性が連鎖的に利用された場合には、未認証のリモート攻撃者によりサーバが完全に制御され、リモート・コード実行 (RCE) に到達する可能性がある」と述べている。

Continue reading “NVIDIA Triton Inference Server の複数の脆弱性が FIX:未認証による AI サーバ乗っ取りの可能性”

ChatGPT/Gemini などに Man-in-the-Prompt のリスク:ブラウザ・エクステンションとの組み合わせに問題

ChatGPT, Gemini, GenAI Tools Vulnerable to Man-in-the-Prompt Attacks

2025/07/31 CyberSecurityNews — 一般的な AI ツールに影響を及ぼす深刻な脆弱性により、”Man-in-the-Prompt” と呼ばれる新たな攻撃ベクターが悪用可能となっているが、それらの対象には、ChatGPT や Google Gemini といった GenAI プラットフォームも含まれる。Layer X の調査によると、DOM を悪用するブラウザ・エクステンションであれば、特別な許可を必要とすることなく、プロンプト挿入/機密データの窃取/AI レスポンスの改竄などを可能にするという。この脆弱性は、主要プラットフォームの数十億人のユーザーに影響を及ぼすが、特に50億回/月アクセスを誇る ChatGPT と、約4億人ユーザーを抱える Gemini が危険だとされる。

Continue reading “ChatGPT/Gemini などに Man-in-the-Prompt のリスク:ブラウザ・エクステンションとの組み合わせに問題”

ChatGPT Agent による新たな証明:Cloudflare の “I Am Not a Robot” チェックを突破

ChatGPT Agent Defeats Cloudflare’s ‘I Am Not a Robot’ Security Check

2025/07/30 gbhackers — 広く利用されている Cloudflare の “I am not a robot” 認証システムが、ChatGPT を搭載するエージェントにより迂回されるという。このインシデントが浮き彫りにするのは、AI の進化する能力と、Web セキュリティ・システムに潜在する脆弱性の双方である。このインターネット上で遭遇する認証プロセスは、セキュリティ・インターフェイスとの自動インタラクションにより実証されてきた、Cloudflare の成果であるが、AI エージェントにより、その役割を終えようとしている。

Continue reading “ChatGPT Agent による新たな証明:Cloudflare の “I Am Not a Robot” チェックを突破”

Enterprise LLM に潜むリスクを整理:シンプルなプロンプトによる巧妙な攻撃と甚大な被害

Enterprise LLMs Under Risk: How Simple Prompts Can Lead to Major Breaches

2025/07/30 CyberSecurityNews — 大規模言語モデル (LLM) を統合するエンタープライズ・アプリ群は、単純に見えるプロンプトのインジェクション攻撃により、悪用の可能性が生じるという、前例のないセキュリティ脆弱性に直面している。最近のセキュリティ評価により明らかにされたのは、巧妙に作成された自然言語クエリのみを使用する攻撃者が、認証システム回避と機密データの抽出を達成し、不正なコマンドの実行を可能にするという問題である。

Continue reading “Enterprise LLM に潜むリスクを整理:シンプルなプロンプトによる巧妙な攻撃と甚大な被害”

AI Vibe コーディング Base44 に認証バイパスの脆弱性:Wiz が発見/報告し翌日に修正される

Severe Vulnerability in AI Vibe Lets Attackers Access Private User Applications

2025/07/30 gbhackers — 人気の AI 搭載開発プラットフォーム Base44 に、深刻なセキュリティ脆弱性が発見されたと、Wiz Research の最新レポートが報じている。この脆弱性を悪用する攻撃者は、認証制御を回避し、企業のプライベート・アプリケーションへアクセスを可能にするという。すでに、この脆弱性は修正済みであるが、Vibe コーディング・プラットフォームを社内ツールや自動化に利用している複数の組織においては、機密データが漏洩する恐れがあったという。

Continue reading “AI Vibe コーディング Base44 に認証バイパスの脆弱性:Wiz が発見/報告し翌日に修正される”

Gemini CLI AI コーディング・アシスタントの脆弱性が FIX:データ窃取やコード実行の恐れ

Flaw in Gemini CLI AI coding assistant allowed stealthy code execution

2025/07/28 BleepingComputer — Google の Gemini CLI に、脆弱性が発見された。この脆弱性を悪用する攻撃者は、許可リストに登録されたプログラムを利用して悪意のコマンドを秘密裏に実行し、開発者のコンピュータからデータを窃取することが可能であったという。6月27日に、この脆弱性を発見した Tracebit が Google に報告した。それを受けた Google は、7月25日にバージョン 0.1.14 をリリースし、この問題を修正した。

Continue reading “Gemini CLI AI コーディング・アシスタントの脆弱性が FIX:データ窃取やコード実行の恐れ”

LLM Honeypot がもたらす成果:攻撃者の手法を逆手に取る対策とは?

LLM Honeypots Deceive Hackers into Exposing Attack Methods

2025/07/28 gbhackers — 人工知能 (AI) を搭載するハニーポットにサイバー犯罪者を巧妙に誘導し、攻撃戦略を暴くことを、サイバー・セキュリティ研究者たちが成功させた。この手法が実証するのは、脅威情報の収集における有望かつ新規のアプローチである。大規模言語モデル (LLM) を用いて攻撃者を欺き、攻撃手法やインフラを暴露させる、説得力のある偽システムの作成が、この手法により可能となる。

Continue reading “LLM Honeypot がもたらす成果:攻撃者の手法を逆手に取る対策とは?”

マルウェアの開発能力を考える:AI が人間を凌駕する状況を “Koske” が証明

AI-Generated Linux Miner ‘Koske’ Beats Human Malware

2025/07/25 DarkReading — 新たに発見されたクリプトマイナーが示すのは、人工知能 (AI) を駆使して開発されるマルウェアは完全に新しいものであり、人間が作成するマルウェアを超えるコードを生成しているという事実である。Aqua Nautilus の研究者たちは、ハニーポットから新たな Linux マルウェアを発見し、それを Koske と命名した。このマルウェアは、本質的にクリプトマイナーであり、感染させたコンピュータの能力を特定し、Monero/Ravencoin などの 18種類の暗号通貨を獲得するために最適化された、マイナーを実行するように設計されている。

Continue reading “マルウェアの開発能力を考える:AI が人間を凌駕する状況を “Koske” が証明”

Microsoft Copilot Enterprise の脆弱性:Jupyter サンドボックス経由で root 権限を取得

Microsoft Copilot Rooted to Gain Unauthorized Root Access to its Backend System

2025/07/25 CyberSecurityNews — Microsoft Copilot Enterprise に発見されたのは、バックエンド・コンテナへの root アクセスを、権限のないユーザーが可能にするという深刻なセキュリティ脆弱性である。この脆弱性を悪用する脅威アクターは、システム・コンフィグの改変/機密データへのアクセス/アプリケーション整合性への侵害などを、引き起こす可能性を手にするという。

Continue reading “Microsoft Copilot Enterprise の脆弱性:Jupyter サンドボックス経由で root 権限を取得”

AI-Powered サイバー攻撃:MITRE ATT&CK と合致する悪意のアクティビティとは?

AI-Powered Cyber Attacks Utilize ML Algorithms to Deploy Malware and Circumvent Traditional Security

2025/07/25 gbhackers — 急速に変化する脅威環境において、人工知能 (AI) と機械学習 (ML) を悪用する攻撃者たちは、従来の防御を上回る極めて複雑な攻撃を可能にし始めている。ハイブリッド・クラウドに関する Gigamon のセキュリティ調査によると、世界中の 1,000 人以上の Srcurity/IT リーダーのうちの 59% が、AI を悪用するスミッシング/フィッシング/ランサムウェアなどの攻撃の急増を報告している。

Continue reading “AI-Powered サイバー攻撃:MITRE ATT&CK と合致する悪意のアクティビティとは?”

LLM-Powered マルウェアが登場:ロシアの APT28 が採用する AI 機能の統合とは?

First Known LLM-Powered Malware From APT28 Hackers Integrates AI Capabilities into Attack Methodology

2025/07/24 CyberSecurityNews — 新たに明らかになった LAMEHUG 攻撃が示唆するのは、サイバー・セキュリティにおける画期的な出来事である。大規模言語モデル (LLM) を実環境のマルウェアにダイレクトに組み込むロシア政府系 APT28 (Fancy Bear) は、それぞれの感染させたホストから、カスタマイズされたシェル・コマンドを即座に受信できるようにしている。Hugging Face の公開 API を介することで、攻撃者は Qwen2.5-Coder-32B-Instruct モデルを呼び出す。この手法により、従来の静的ペイロード制約を回避し、これまでにはなかった柔軟性を実現している。

Continue reading “LLM-Powered マルウェアが登場:ロシアの APT28 が採用する AI 機能の統合とは?”

Google の AI セキュリティ Big Sleep の快挙:SQLite のゼロデイ CVE-2025-6965 を自律的に検知/特定

Google’s AI ‘Big Sleep’ Detects Critical SQLite 0-Day, Halts Ongoing Attacks

2025/07/16 gbhackers — Google のAI エージェントである Big Sleep が、SQLite に存在する深刻なゼロデイ脆弱性を発見/阻止したことで、サイバー/セキュリティの歴史に新たな記録が刻まれた。この件は、現実世界のサイバー攻撃を、AI システムが自ら阻止するという初めての事例である。このAIエージェントは、Google DeepMind と Project Zero が開発したものであり、悪用の試行を示す脅威情報に基づき、SQLite の脆弱性 CVE-2025-6965 を特定した。つまり、Google の支援により、大規模な攻撃が発生する前に、パッチ適用の調整が可能になったのだ。

Continue reading “Google の AI セキュリティ Big Sleep の快挙:SQLite のゼロデイ CVE-2025-6965 を自律的に検知/特定”

Claude 上での任意のコード実行:Gmail メッセージを介した悪用を実証

Gmail Message Exploit Triggers Code Execution in Claude, Bypassing Protections

2025/07/16 gbhackers — 巧妙に作成された Gmail メッセージを介して、Anthropic の AI アシスタント・アプリ Claude Desktop によりコード実行を引き起こす手法を、あるサイバー・セキュリティ研究者が実証した。この事例が明らかにしたのは、従来からの悪用手法である、ソフトウェアの欠陥を必要としない、AI 搭載システムにおける新たな脆弱性の存在である。このエクスプロイトは、各種のアプリケーションやサービスとのインタラクションを Claude 上で実現する、MCP (Model Context Protocol) を介するものだ。

Continue reading “Claude 上での任意のコード実行:Gmail メッセージを介した悪用を実証”

Google Gemini for Workspace の脆弱性:間接プロンプト・インジェクションという新たな攻撃ベクター

Google Gemini for Workspace Vulnerability Lets Attackers Hide Malicious Scripts in Emails

2025/07/14 CyberSecurityNews — Google Gemini for Workspace に存在する深刻な脆弱性を、セキュリティ研究者たちが発見した。この脆弱性を悪用する攻撃者は、メール本文内に悪意の指示を秘密裏に埋め込み、認証情報の窃取やソーシャル・エンジニアリング攻撃を引き起こす可能性を手にする。この攻撃は、AI アシスタントの “Summarize this email” 機能を悪用するものであり、Google からの送信を巧妙に装う、偽のセキュリティ警告を表示する仕組みを用いるものだ。

Continue reading “Google Gemini for Workspace の脆弱性:間接プロンプト・インジェクションという新たな攻撃ベクター”

Shadow AI の急増:企業におけるリスクをストラテジーへと転換させる解は何処に?

Employees are quietly bringing AI to work and leaving security behind

2025/07/11 HelpNetSecurity — IT 部門が AI ガバナンス・フレームワークの導入を急ぐ一方で、すでに数多くの従業員たちは、AI の “バックドア” を職場に持ち込んでいる。そんな実態が、ManageEngine の The Shadow AI Surge in Enterprises により報告された。Shadow AI は、北米全域の組織に静かに浸透し始め、注意深い IT 部門ですら、その検出は難しいという盲点を生み出している。正式なガイドラインや承認されたツールが存在しているが、Shadow AI は例外的なケースではなく、むしろ “当たり前” の存在となっている。ManageEngine の調査で、IT 意思決定者 (ITDM:IT decision makers) の 70% が認めたのは、組織として承認していない AI が使用されていることだ。

Continue reading “Shadow AI の急増:企業におけるリスクをストラテジーへと転換させる解は何処に?”

Anthropic MCP の脆弱性 CVE-2025-53110/53109 が FIX:サンドボックス回避とコード実行の可能性

Anthropic MCP Server Flaw Allows Sandbox Escape and Code Execution

2025/07/03 gbhackers — Anthropic の Filesystem MCP (Model Context Protocol) Server に新たに発見された脆弱性 CVE-2025-53110/CVE-2025-53109 が、AI を活用する環境に深刻なリスクをもたらしている。これらの脆弱性により、サンドボックス・エスケープ/不正なファイル・アクセス/任意のコード実行などが生じるという。Cymulate Research Labs により発見された、これらの脆弱性が浮き彫りにするのは、エンタープライズや開発者エコシステムで加速する MCP 採用が生み出す、深刻なセキュリティ・リスクの課題である。

Continue reading “Anthropic MCP の脆弱性 CVE-2025-53110/53109 が FIX:サンドボックス回避とコード実行の可能性”

Anthropic MCP Inspector の脆弱性 CVE-2025-49596 が FIX:開発者のマシン上での任意のコード実行

Anthropic MCP Inspector Tool Vulnerability Let Attackers Execute Arbitrary Code on Developer Machines

20225/07/02 CyberSecurityNews — Anthropic の MCP Inspector ツールに、深刻なリモート・コード実行 (RCE) の脆弱性 CVE-2025-49596 (CVSS:9.4) が発見された。Anthropic の Model Context Protocol (MCP) エコシステムで初めて確認された、この脆弱性は、ブラウザ・ベースの攻撃を許すものであり、AI に携わる開発者や組織に対して深刻なサイバー脅威をもたらすものだとされる。

Continue reading “Anthropic MCP Inspector の脆弱性 CVE-2025-49596 が FIX:開発者のマシン上での任意のコード実行”

AI クローラーの台頭:世界の Web トラフィックの 30% を占める自動ボットの功罪

AI Crawlers Reshape The Internet With Over 30% of Global Web Traffic

2025/07/02 CyberSecurityNews — 世界のインターネット・インフラ上において、人工知能クローラーが支配的な勢力として台頭しはじめ、デジタル環境は根本的な変革を遂げている。最近の分析によると、現在の世界全体の Web トラフィックに占める、自動化されたボットの割合は約 30%を占めるに至り、従来からの人間主導のインターネット利用パターンからの、大きな転換を示しているという。この劇的な進化は、単なる技術的な変革に留まらず、デジタル・ネットワーク内における情報流通の構造を、全面的に再構築するものである。従来の検索インデックス作成メカニズムに対して、AI 搭載クローラーが取って代わるケースが急速に増加している。

Continue reading “AI クローラーの台頭:世界の Web トラフィックの 30% を占める自動ボットの功罪”