GenAI と ASCII スマグリング:Gemini の問題を脆弱性ではないと否定する Google

Google won’t fix new ASCII smuggling attack in Gemini

2025/10/07 BleepingComputer — Google が公表したのは、Gemini に対する新たな ASCII スマグリング攻撃について、修正を施さないという方針である。この攻撃は、AI アシスタントを騙してユーザーに偽の情報を提供させ、モデルの動作を改変し、データを密かに改竄する可能性があるものだ。ASCII スマグリングとは、Unicode の Tags ブロックに含まれる特殊文字を利用して、ユーザーには見えないかたちで悪意のペイロードを挿入し、LLM による検出/処理を行わせるものである。

Continue reading “GenAI と ASCII スマグリング:Gemini の問題を脆弱性ではないと否定する Google”

Gemini CLI と Kali Terminal の統合が実現:ペンテストの自動化による精度と効率の UP!

Integrate Gemini CLI into Your Kali Terminal to Speed Up Pentesting Tasks

2025/10/06 gbhackers — Kali Linux が、バージョン 2025.3 のリリースを発表した。この新バージョンにより、ペンテスト担当者やセキュリティ専門家は、革新的な AI 搭載アシスタントである Gemini CLI (Command-Line Interface) を利用できるようになるという。このオープンソース・パッケージは、Google の Gemini AI をターミナルに統合し、一般的なペンテスト・ワークフローを自然言語で自動化するものだ。

Continue reading “Gemini CLI と Kali Terminal の統合が実現:ペンテストの自動化による精度と効率の UP!”

Zeroday Cloud ハッキング・コンテストが 12月にロンドンで開催:報奨金の総額は $4.5M

Zeroday Cloud hacking contest offers $4.5 million in bounties

2025/10/06 BleepingComputer — Zeroday Cloud が発表したのは、オープンソースのクラウドおよび AI ツールに焦点を当てた新たなハッキングコンテストであり、さまざまな標的に対してエクスプロイトを提出した研究者に対して、総額で $4.5 million のバグ報奨金を提供するというものだ。このコンテストは、クラウド・セキュリティ企業 Wiz の研究部門が、Google Cloud/AWS/Microsoft と提携して開始し、2025年12月10日〜11日にロンドンで開催される、Black Hat Europe カンファレンスで実施される予定である。

Continue reading “Zeroday Cloud ハッキング・コンテストが 12月にロンドンで開催:報奨金の総額は $4.5M”

Google Drive Desktop に AI 駆動のランサムウェア検出機能:オープン・ベータ版が提供

New Google Drive Desktop Feature adds AI-powered Ransomware Detection to Prevent Cyberattacks

2025/10/01 CyberSecurityNews — Google Drive for Desktop に、AI を活用する新たなランサムウェア検出機能が導入された。この機能は、サイバー攻撃をブロックし、ユーザーファイルを自動的に保護するように設計されている。この機能の強化により、Windows/macOS ユーザーのセキュリティが向上し、ランサムウェアという厄介な脅威に対応できるようになる。医療/小売などの業界の組織にとって、そして政府機関にとって、依然としてランサムウェアは、重大なサイバー・セキュリティ上の課題である。

Continue reading “Google Drive Desktop に AI 駆動のランサムウェア検出機能:オープン・ベータ版が提供”

Red Hat OpenShift AI の脆弱性 CVE-2025-10725 が FIX:認証済みユーザーへの過大な権限付与

Red Hat OpenShift AI Vulnerability Lets Attackers Seize Infrastructure Control

2025/10/01 gbhackers — Red Hat OpenShift AI (RHOAI) サービスに発見された深刻な脆弱性を悪用する攻撃者は、最小限のアクセス権限を持ってさえいれば、権限を昇格させてクラスタ全体を制御する可能性を得るという。この脆弱性 CVE-2025-10725 は、ClusterRole の割り当てが過大なことに起因する。たとえば、標準の Jupyter Notebook アカウントを持つ、データ・サイエンティストなどの低権限のユーザーが、この脆弱性を悪用すると、クラスタの完全な管理者権限を取得できる。

Continue reading “Red Hat OpenShift AI の脆弱性 CVE-2025-10725 が FIX:認証済みユーザーへの過大な権限付与”

Google Gemini の3件の脆弱性が FIX:ユーザー情報と位置データの漏洩を悪用する攻撃例とは?

Google Gemini Vulnerabilities Let Attackers Exfiltrate User’s Saved Data and Location

2025/09/30 CyberSecurityNews — Google の AI アシスタント・スイート Gemini に3件の脆弱性が発見されたが、それらを悪用する攻撃者がいれば、ユーザーが保存した情報や位置データを窃取する可能性があったという。Tenable が Gemini Trifecta と命名した、これらの脆弱性が示すのは、AI システムが単なる標的ではなく、攻撃手段として悪用され得ることである。つまり、この研究で明らかになったのは、Gemini エコシステム内の複数コンポーネントに、深刻なプライバシー・リスクが潜んでいることだ。

Continue reading “Google Gemini の3件の脆弱性が FIX:ユーザー情報と位置データの漏洩を悪用する攻撃例とは?”

脆弱性管理における AI の役割を調査:セキュリティ・エンジニアリングにおける人間の不可欠性

Can We Trust AI To Write Vulnerability Checks? Here’s What We Found

2025/09/29 BleepingComputer — 脆弱性の管理は常に競争である。攻撃者は素早く動き、スキャンには時間がかかる。スキャナが追いつかなければ、システムは無防備な状態に陥る。そのような中、 Intruder のセキュリティ・チームが立ち上げた検証プロジェクトは、AI を活用して高い品質基準を維持しながら、新しい脆弱性チェックを迅速に構築するためのものである。結局のところ、検出が確実でなければ、スピードは意味を持たない。また、実際の問題を見逃すチェックは役に立たないが、誤検知は効率を著しく悪化させる。この記事では、AI を用いて行った実験の方法と、上手く機能している点と、問題が残る点を紹介する。

Continue reading “脆弱性管理における AI の役割を調査:セキュリティ・エンジニアリングにおける人間の不可欠性”

悪意の MCP Server を発見:AI Agent を介して Postmark からのメール送信に不正な BCC を追加

Malicious MCP Server Discovered Stealing Sensitive Emails Using AI Agents

2025/09/26 gbhackers — 世界中の企業が MCP サーバを採用している。このツールにより、AI アシスタントに “神モード” の権限が付与され、メール送信/データベース クエリ実行といった面倒なタスクの自動化が可能になる。しかし、「これらのツールを作ったのは誰か」と、立ち止まって問うことは、誰もが見過ごしてきたことだ。今日、現実の世界で初めての、悪意の MCP サーバ postmark-mcp が登場し、そこで処理されるすべてのメールが静かに盗み出されている。

Continue reading “悪意の MCP Server を発見:AI Agent を介して Postmark からのメール送信に不正な BCC を追加”

AI 搭載マルウェア MalTerminal の発見:GPT-4 を悪用してランサムウェアを生成

First-ever AI-powered ‘MalTerminal’ Malware Uses OpenAI GPT-4 to Generate Ransomware Code

2025/09/20 CyberSecurityNews — MalTerminal と呼ばれる AI 搭載マルウェアは、OpenAI の GPT-4 モデルを悪用することでランサムウェアやリバースシェルなどのコードを動的に生成し、脅威の開発と展開の方法に重大な変化をもたらしている。この発見は、AI 搭載マルウェア PromptLock の分析に続くものであり、攻撃者が大規模言語モデル (LLM) を武器化する明確な傾向を示している。

Continue reading “AI 搭載マルウェア MalTerminal の発見:GPT-4 を悪用してランサムウェアを生成”

ChatGPT 系エージェントによる CAPTCHA 回避が示すもの:プロンプト・インジェクションの脅威

ChatGPT Tricked Into Bypassing CAPTCHA Security and Enterprise Defenses

2025/09/19 CyberSecurityNews — ChatGPT エージェントでは、自身の安全プロトコルを回避して CAPTCHA を解読することが可能であり、広く利用される AI とボット対策システムの、安全対策と堅牢性に重大な懸念が生じている。SPLX の調査によると、プロンプト・インジェクションと呼ばれる手法を用いることで、AI エージェントは組み込みポリシーを破るように誘導され、単純な CAPTCHA 課題だけではなく、より複雑な画像ベースの CAPTCHA も解読できる恐れがある。

Continue reading “ChatGPT 系エージェントによる CAPTCHA 回避が示すもの:プロンプト・インジェクションの脅威”

ShinyHunters の活動を分析:音声フィッシングに特化した技術に AI 悪用が加わっている

New ‘shinysp1d3r’ Ransomware-as-a-Service Targets VMware ESXi in Ongoing Development

2025/09/18 gbhackers — AI を悪用する ShinyHunters が、ボイスフィッシング/サプライチェーン侵入に加えて、企業ネットワークへの直接アクセスを提供する従業員や請負業者といった悪意の内部関係者を介して、その活動を拡大していると、EclecticIQ のアナリストたちが高い確信を持って評価している。ShinyHunters は、小売/航空/通信などの業界で利用される SSO (single sign-on) プラットフォームへの、不正アクセスを提供するボイスフィッシング・キットを活用するために、Scattered Spider と The Com のメンバーに依存している可能性が高いとされる。

Continue reading “ShinyHunters の活動を分析:音声フィッシングに特化した技術に AI 悪用が加わっている”

Google の新たな LLM VaultGemma:差分プライバシーでの学習と個人情報保護の強化

Google introduces, a differentially private LLM built for secure data handling

2025/09/16 HelpNetSecurity — Google が発表した、大規模言語モデル (LLM) VaultGemma は、トレーニング中に用いる機密データを、非公開に保つよう設計されたものだ。このモデルは、差分プライバシー技術を用いて個々のデータ・ポイントの露出を防ぐため、医療/金融/政府などの分野での、機密情報の安全な取り扱いを可能にする。

Continue reading “Google の新たな LLM VaultGemma:差分プライバシーでの学習と個人情報保護の強化”

悪意の MCP Server を PoC として構築:任意のコード実行とデータ窃取が実証された

Threat Actors Exploit MCP Servers to Steal Sensitive Data

2025/09/16 gbhackers — 検証されていない MCP (Model Context Protocol) サーバは、攻撃者によるマルウェアの配備を必要とすることなく、ステルス性の高いサプライチェーン攻撃ベクターを生み出し、認証情報/コンフィグ・ファイルなどの機密情報の収集を可能にする。この MCP とは、AI アシスタント向けの新しい “plug-in bus” であり、 外部ツールやデータソースと AI モデルとの間のシームレスな統合を実現するものだ。

Continue reading “悪意の MCP Server を PoC として構築:任意のコード実行とデータ窃取が実証された”

Kimsuky による ChatGPT の悪用:ディープフェイク ID による標的型フィッシング攻撃

Hackers using generative AI “ChatGPT” to evade anti-virus defenses

2025/09/15 gbhackers — Kimsuky APT グループは ChatGPT を悪用し、韓国軍機関の ID カードのディープフェイクを作成し始めた。このフィッシング詐欺のルアーは、高度に難読化されたバッチ・ファイルと AutoIt スクリプトで構成され、ウイルス対策スキャンを回避するよう設計されている。したがって、組織にとって必要なことは、隠されたスクリプトを検知し、エンドポイントを保護するために、EDR ソリューションを導入することだ。

Continue reading “Kimsuky による ChatGPT の悪用:ディープフェイク ID による標的型フィッシング攻撃”

FlowiseAI の脆弱性 CVE-2025-58434:アカウント乗っ取りに No Patch/Yes PoC

FlowiseAI Password Reset Token Vulnerability Allows Account Takeover

2025/09/15 CyberSecurityNews — FlowiseAI が公表したのは、Flowise プラットフォームに存在する深刻な脆弱性 CVE-2025-58434 の情報である。この脆弱性の悪用に成功した攻撃者は、最小限の労力でアカウントを完全に乗っ取ることが可能になる。クラウド環境 (cloud.flowiseai.com) とセルフホスト環境に影響を及ぼすため、この AI エージェント構築プラットフォームを利用する組織にとって、広範なセキュリティ上の懸念が生じている。

Continue reading “FlowiseAI の脆弱性 CVE-2025-58434:アカウント乗っ取りに No Patch/Yes PoC”

Villager という AI ネイティブ・ペンテスト・ツール:大規模な攻撃の計画/適応/実行を可能にする

AI Pentesting Tool ‘Villager’ Merges Kali Linux with DeepSeek AI for Automated Security Attacks

2025/09/13 gbhackers — Straiker AI Research (STAR) チームのセキュリティ研究者たちが発見したのは、中国に拠点を置く Cyberspike グループが開発した AI ネイティブのペンテスト・フレームワーク Villager である。このフレームワークは、公式 Python Package Index (PyPI) での公開から2ヶ月以内に、すでに1万回以上のダウンロードを記録している。このツールは、Kali Linux ツールセットと DeepSeek AI モデルを組み合わせて、ペンテストのワークフローを完全に自動化するものだが、そこで懸念されるのは、Cobalt Strike の軌跡と同様に、二重使用により悪用へと至る可能性である。

Continue reading “Villager という AI ネイティブ・ペンテスト・ツール:大規模な攻撃の計画/適応/実行を可能にする”

EvilAI というマルウェアを検出:LLM を用いて生成され静的シグネチャ・スキャナを回避

EvilAI: Leveraging AI to Steal Browser Data and Evade Detection

2025/09/12 gbhackers — Trend Research が追跡する新たなマルウェア・ファミリー EvilAI が、この数週間にわたり、正規の AI 駆動型ユーティリティを装いながら活動している。これらのトロイの木馬は、プロフェッショナルなユーザー・インターフェイスや有効なコード署名に加えて実際の機能を備えており、企業/個人のセキュリティ対策を回避していく。

Continue reading “EvilAI というマルウェアを検出:LLM を用いて生成され静的シグネチャ・スキャナを回避”

Cursor AI Code Editor の脆弱性 CVE-N/A:Workspace Trust 無効化による悪意の自動実行

Cursor AI Code Editor RCE Vulnerability Enables “autorun” of Malicious on your Machine

2025/09/10 CyberSecurityNews — Cursor AI Code Editor に、リモート・コード実行の脆弱性が発見された。この脆弱性により、悪意のコード・リポジトリが自動的に開かれ、ユーザーのマシン上でコードが実行される可能性がある。この脆弱性を発見した Oasis Security の研究チームは、人気エディタのデフォルト・コンフィグの悪用による、一般的なユーザー・プロンプトのバイパスを実証している。

Continue reading “Cursor AI Code Editor の脆弱性 CVE-N/A:Workspace Trust 無効化による悪意の自動実行”

SpamGPT による大規模フィッシング攻撃:$5,000 で販売される AI 搭載フィッシング・ツールの脅威

SpamGPT – AI-powered Attack Tool Used By Hackers For Massive Phishing Attack

2025/09/09 CyberSecurityNews — SpamGPT と呼ばれる高度なサイバー犯罪ツール・キットは、人工知能とプロ仕様のメール・マーケティング・プラットフォーム機能を組み合わせることで、ハッカーたちによる大規模かつ効果的なフィッシング・キャンペーンを支援している。ダークウェブで Spam-as-a-Service プラットフォームとして販売される SpamGPT は、詐欺メール攻撃の大半の工程を自動化することで、犯罪者の技術的障壁を大幅に低減している。

Continue reading “SpamGPT による大規模フィッシング攻撃:$5,000 で販売される AI 搭載フィッシング・ツールの脅威”

X の Grok AI が手助け:ブロックを回避して悪質な広告やマルウエアを展開する手法とは?

Threat actors abuse X’s Grok AI to spread malicious links

2025/09/03 BleepingComputer — X に搭載されている AI アシスタント Grok を悪用する脅威アクターが、このプラットフォームが悪質広告の抑制を目的として導入した、リンク投稿への制限を回避している。Guardio Labs の研究員 Nati Tal によると、この広告主はアダルト・コンテンツなどの怪しい動画広告を掲載することが多く、意図的に本文にリンクを取り込まず、X によるブロックを迂回しているという。

Continue reading “X の Grok AI が手助け:ブロックを回避して悪質な広告やマルウエアを展開する手法とは?”

AI モデル名前空間の再利用という問題:Hugging Face の欠陥とサプライチェーン攻撃

Namespace Reuse Vulnerability Exposes AI Platforms to Remote Code Execution

2025/09/03 gbhackers — AI サプライチェーンで発見された Model Namespace Reuse と呼ばれる脆弱性により、Microsoft Azure AI Foundry/Google Vertex AI に加えて、数千のオープンソース・プロジェクトなどの AI プラットフォームにおいて、攻撃者によりリモート・コード実行 (RCE) が引き起こされる可能性が生じている。Hugging Face に放棄/削除されたモデル名前空間を再登録 (Model Namespace Reuse) する攻撃者は、それらの名前でモデルを取得するパイプラインを騙し、汚染されたリポジトリのデプロイ/エンドポイント環境の侵害/不正アクセスの許可などを可能にするという。

Continue reading “AI モデル名前空間の再利用という問題:Hugging Face の欠陥とサプライチェーン攻撃”

AI セキュリティ・ツールを脆弱にする LLM の欠陥:プロンプト・インジェクション攻撃の実態

AI-Powered Cybersecurity Tools Can Be Turned Against Themselves Through Prompt Injection Attacks

2025/09/03 CyberSecurityNews — AI 搭載のサイバー・セキュリティ・ツールは、プロンプト・インジェクション攻撃により自らを攻撃対象とされ、自動化されたエージェントを乗っ取る攻撃者に対して、不正なシステム・アクセスの取得を許す可能性がある。セキュリティ研究者である Victor Mayoral-Vilches と Per Mannermaa Rynning は、悪意のサーバが無害に見えるデータ・ストリームに命令を挿入することで、AI 駆動型ペンテスト・フレームワークが脆弱になる仕組みを明らかにした。

Continue reading “AI セキュリティ・ツールを脆弱にする LLM の欠陥:プロンプト・インジェクション攻撃の実態”

プロンプト・インジェクションを理解する:AI エージェントの導入つれて拡大する攻撃対象領域

How Prompt Injection Attacks Bypassing AI Agents With Users Input

2025/09/01 CyberSecurityNews — LLM と AI エージェントのコア・アーキテクチャを悪用することで、現代の AI システムにおける最も深刻なセキュリティ脆弱性を突くプロンプト・インジェクション攻撃が、根本的な課題として浮上している。その一方では、自律的な意思決定/データ処理、ユーザー・インタラクションのために、AI エージェントを導入するユーザー組織が増えており、攻撃対象領域が劇的に拡大している。巧妙に細工されたユーザー入力を通じて、サイバー犯罪者たちが AI の挙動を操作するという、新たなベクターが生まれている。

Continue reading “プロンプト・インジェクションを理解する:AI エージェントの導入つれて拡大する攻撃対象領域”

VirusTotal の Code Insight が拡張:逆アセンブル/逆コンパイルされたコード・スニペットを AI で分析

VirusTotal Launches Endpoint That Explains Code Functionality for Malware Analysts

2025/08/29 gbhackers — Virustotal が発表したのは、Code Insight スイートに新たな機能を追加したことである。それは、逆アセンブル/逆コンパイルされたコード・スニペットを受け取り、マルウェア・アナリスト向けの簡潔なサマリと詳細な説明を返すという、専用 API エンドポイントのことである。RSA 2023 における Code Insight の発表から2年以上を経ているが、この公開されたエンドポイントは、リバース・エンジニアリング・ワークフローの自動化と、AI ドリブン分析を、逆アセンブル・ツールにダイレクト統合する大きな進展である。

Continue reading “VirusTotal の Code Insight が拡張:逆アセンブル/逆コンパイルされたコード・スニペットを AI で分析”

Claude AI に3つのインシデント:サイバー犯罪者たちの巧妙な試みを Anthropic が阻止

Hackers Attempted to Misuse Claude AI to Launch Cyber Attacks

2025/08/28 CyberSecurityNews — 新たに発表された脅威インテリジェンス・レポートによると、Claude AI プラットフォームの悪用を狙うサイバー犯罪者たちの、複数の巧妙な試みを Anthropic が阻止したようだ。Claude の高度な機能を悪用する攻撃者たちは、有害な出力を防ぐための多層的な安全対策を回避しながら、このエージェント AI を武器化することで、大規模な恐喝/雇用詐欺/ランサムウェア攻撃を実行している。

Continue reading “Claude AI に3つのインシデント:サイバー犯罪者たちの巧妙な試みを Anthropic が阻止”

LLM-Based コーディングへの提言:危険なサンプル・コードの学習を想定すべきだ

New Research and PoC Reveal Security Risks in LLM-Based Coding

2025/08/28 gbhackers — 2025年8月22日に公開された詳細なブログ記事によると、最近の調査で明らかになったものに、LLM のみを用いて生成されたアプリケーション・コードにおける、深刻なセキュリティ脆弱性の可能性についての指摘がある。この調査が強調するのは、広範なインターネット・データを学習した、つまり、安全ではない可能性のあるサンプル・コードを学習した LLM が、開発者に対して潜在的なリスクを警告することなく、安全が確保されていないパターンを複製していくという問題点である。

Continue reading “LLM-Based コーディングへの提言:危険なサンプル・コードの学習を想定すべきだ”

OpenAI を悪用するランサムウェア PromptLock:標的のシステム上で攻撃用の Lua スクリプトを作成

First AI Ransomware ‘PromptLock’ Uses OpenAI gpt-oss-20b Model for Encryption

2025/08/26 CyberSecurityNews — 新たなランサムウェアが確認された。どのようなものかと言うと、ローカル AI モデルを介して悪意のコンポーネントを生成するものであり、史上初のランサムウェアの種類であると考えられている。ESET Research Team により “PromptLock” と名付けられたマルウェアは、Ollama API を介して OpenAI の gpt-oss:20b モデルを利用し、攻撃チェーン用のカスタム・クロス・プラットフォーム Lua スクリプトを作成する。

Continue reading “OpenAI を悪用するランサムウェア PromptLock:標的のシステム上で攻撃用の Lua スクリプトを作成”

ClickFix に新たな攻撃手法:CloudSEK が発表した AI 要約トリックという PoC エクスプロイト

ClickFix Attack Tricks AI Summaries Into Pushing Malware

2025/08/25 DarkReading — ClickFix を介する新たな PoC ソーシャル・エンジニアリング攻撃は、AI サマリを利用してランサムウェアを配信できるという。8月25日に脅威監視ベンダー CloudSEK が発表したのは、ClickFix の POC エクスプロイトに関する調査の結果である。ClickFix とは、いま蔓延している攻撃手法であり、エラー・メッセージや CTA (call to action) を標的に対して表示し、自己破壊的なコマンドの実行を指示することで、ソーシャル・エンジニアリングを活性化させるものだ。

Continue reading “ClickFix に新たな攻撃手法:CloudSEK が発表した AI 要約トリックという PoC エクスプロイト”

Gmail Phishing の進化:人間に加えて AI ベースの防御システムを操作する?

New Gmail Phishing Attack Uses AI Prompt Injection to Evade Detection

2025/08/24 CyberSecurityNews — これまでのフィッシングは、人を欺くことを常としてきた。しかし、今回のキャンペーンで明らかになったのは、攻撃者はユーザーを標的にするだけでなく、AI ベースの防御システムも操作しようとしたことだ。これは、先週に報告した Gmail フィッシング・チェーンの進化形である。先週のキャンペーンで悪用されていたのは、緊急性のアピールと巧みなリダイレクトだったが、今回は自動分析を混乱させるための、隠された AI プロンプトが導入されている。

Continue reading “Gmail Phishing の進化:人間に加えて AI ベースの防御システムを操作する?”

AI によるエクスプロイト開発:1件あたり $1 のコストで所要時間は僅か 10〜15 分

AI Systems Capable of Generating Working Exploits for CVEs in Just 10–15 Minutes

2025/08/22 gbhackers — 公開されている脆弱性 (CVE) に対する有効なエクスプロイトを、わずか 10~15 分で自動生成できる人工知能システムが、サイバー・セキュリティ研究者たちにより開発された。このシステムは、1つのエクスプロイトを約 $1 というコストで生成できるという。したがって、防御側が依拠してきた、従来からのセキュリティ対応スケジュールに対して、根本的な挑戦を突き付けるものとなる。

Continue reading “AI によるエクスプロイト開発:1件あたり $1 のコストで所要時間は僅か 10〜15 分”

NIST が公開した AI 向けのセキュリティ・フレームワーク:Control Overlays for AI Systems

NIST Releases Control Overlays to Manage Cybersecurity Risks in Use and Developments of AI Systems

2025/08/22 CyberSecurityNews — 米国の NIST が公開したのは、NIST SP 800-53:Control Overlays for Securing AI Systems の提案を概説する包括的なコンセプト・ペーパーだ。それにより、人工知能 (AI) アプリケーション向けの標準化されたサイバー・セキュリティ・フレームワークの重要なマイルストーンが確立される。2025年8月14日に発表された、このイニシアチブは、生成 AI/予測 AI/マルチエージェント AI アーキテクチャを網羅するものである。それにより、AI システムの開発/導入フェーズの双方において高まってきた、構造化されたリスク管理アプローチに対するニーズに応えるものとなる。

Continue reading “NIST が公開した AI 向けのセキュリティ・フレームワーク:Control Overlays for AI Systems”

Copilot の脆弱性により M365 監査ログの完全性に問題:CVE 発行と詳細報告を拒絶する Microsoft

Copilot Vulnerability Breaks Audit Logs and Access Files Secretly for Hackers

2025/08/20 CyberSecurityNews — Microsoft M365 向けの Copilot に、深刻なセキュリティ脆弱性が発見された。この脆弱性が、インサイダーに悪用されると、公式の監査ログに記録を残すことなく、機密ファイルへのアクセス/操作が可能となっていた。この脆弱性を修正した Microsoft は、正式な CVE の発行や顧客への通知を行わなかったと報じられている。その結果としてユーザー企業は、修正前のセキュリティ・ログが不完全であっても気付かない状況に置かれている。

Continue reading “Copilot の脆弱性により M365 監査ログの完全性に問題:CVE 発行と詳細報告を拒絶する Microsoft”

CodeRabbit 本番環境サーバにおける RCE 脆弱性:100 万件以上のリポジトリに影響が生じた可能性

CodeRabbit’s Production Servers RCE Vulnerability Enables Write Access on 1M Repositories

2025/08/20 CyberSecurityNews — CodeRabbit の本番環境インフラで確認された、深刻なリモート・コード実行 (RCE) 脆弱性により、100万以上のコード・リポジトリへの不正アクセスが、プライベート・リポジトリを含むかたちで可能になっていた。このプラットフォームの静的解析ツール統合を悪用する攻撃者は、機密 API 認証情報を窃取し、GitHub App 秘密鍵を掌握することで、リポジトリへの書込権限の取得が可能な状況にあった。この脆弱性は、2024年12月に発見され、2025年1月に責任あるかたちで開示された。

Continue reading “CodeRabbit 本番環境サーバにおける RCE 脆弱性:100 万件以上のリポジトリに影響が生じた可能性”

Microsoft Defender が活用する AI の能力:AD 内のプレーン・テキスト資格情報を探して特定する

Microsoft Defender AI to Uncover Plain Text Credentials Within Active Directory

2025/08/19 CyberSecurityNews — Microsoft が発表したのは、サイバー・セキュリティにおける根深い脆弱性の一つである、Active Directory (AD) のフリーテキスト・フィールドに保存された、プレーン・テキスト資格情報に対処する、AI を活用したセキュリティ機能に関する情報である。Microsoft Defender for Identity の新しいポスチャ・アラートは、人工知能を活用するものであり、これまでにはない精度により、露出している資格情報を検出するものだ。それにより、ユーザー組織は、ID ミスコンフィグ を特定し、悪用される前の修正を可能にする。

Continue reading “Microsoft Defender が活用する AI の能力:AD 内のプレーン・テキスト資格情報を探して特定する”

Anthropic Claude にチャットの自動的な終了機能を追加:有害な利用を防止

Anthropic: Claude can now end conversations to prevent harmful uses

2025/08/17 BleepingComputer — OpenAI と競合する Anthropic が発表したのは、 危害や悪用の可能性を AI モデルが検知した場合に会話を終了する新機能を、Claude のアップデートに搭載したというものだ。この機能は、有料プランおよび API で提供される、最上位の2つのモデル Claude Opus 4/4.1 にのみ提供される。したがって、最も広く利用されている Claude Sonnet 4 には搭載されない。

Continue reading “Anthropic Claude にチャットの自動的な終了機能を追加:有害な利用を防止”

大半のユーザー組織は承知の上で脆弱なコードを配布している:GenAI がもたらす危機的な状況とは?

Majority of Organizations Ship Vulnerable Code, Study Finds

2025/08/15 InfoSecurity — GenAI コードが主流になるにつれ、ユーザー組織の 81% が承知の上で、脆弱なコードを配布していることが、Checkmarx の最新調査により明らかになった。この調査は、CISO/開発者/アプリケーション・セキュリティ管理者たち 1,500 人を対象としたものであり、回答者の 50% が、すでに AI セキュリティ・コード・アシスタントを活用しているという。さらに、34% の回答者が、自社コードに占める GenAI コードの割合が 60% 以上に達することを認めているという。GenAI コードには、既知の脆弱性がデフォルトで含まれていることが多いが、それでも、このような状況となっている。

Continue reading “大半のユーザー組織は承知の上で脆弱なコードを配布している:GenAI がもたらす危機的な状況とは?”

Google の AI を活用する Big Sleep:ImageMagick の4件の脆弱性を発見/特定

ImageMagick Vulnerabilities Cause Memory Corruption and Integer Overflows

2025/08/15 gbhackers — AI を活用する Google のセキュリティ調査ツールである、Big Sleep が発見した4件の深刻な脆弱性は、人気の OSS 画像操作ソフトウェア ImageMagick に存在するものだ。これらの脆弱性が影響を及ぼす範囲は、画像処理に ImageMagick を利用する世界中の数百万のアプリケーションであり、同社による責任ある情報開示手順に従い、最新のソフトウェア・リリースで修正されている。

Continue reading “Google の AI を活用する Big Sleep:ImageMagick の4件の脆弱性を発見/特定”

Gemini への間接プロンプト・インジェクション:メールからスマートホームにまで広がる攻撃領域

Gemini Exploited via Prompt Injection in Google Calendar Invite to Steal Emails, and Control Smart Devices

2025/08/07 CyberSecurityNews — 無害に見えるカレンダーの招待やメールを通じて、Google の Gemini AI アシスタントを、高度な攻撃手法により悪用する事例が報告されている。この “標的型プロンプトウェア攻撃” と呼ばれる手法では、間接的なプロンプト・インジェクションにより、ユーザーのデジタル・プライバシーを侵害され、さらには、家庭内の物理デバイスの制御が奪われるという懸念が生じている。

Continue reading “Gemini への間接プロンプト・インジェクション:メールからスマートホームにまで広がる攻撃領域”

vCISO と AI の組み合わせ:MSP/MSSP の 42% が採用し MSB の 68% がリソースを削減している

AI Slashes Workloads for vCISOs by 68% as SMBs Demand More – New Report Reveals

2025/08/06 TheHackerNews — サイバー環境における脅威とリスクの増大/高度化に伴い、あらゆる規模の企業にとって、セキュリティはミッション・クリティカルな課題となっている。この変化により、中小企業においても脅威が高まり、コンプライアンス要件が厳格化され、vCISO (virtual CISO) サービスへの迅速な移行が迫られている。Cynomi の最新レポートによると、中小企業における vCISO サービスの需要は高いと、MSP/MSSP の 79% が認識している。

Continue reading “vCISO と AI の組み合わせ:MSP/MSSP の 42% が採用し MSB の 68% がリソースを削減している”

OpenAI が立ち上げる Red Teaming チャレンジ:新たな Open-Weight LLM は何を変えていくのか?

OpenAI Launches Red Teaming Challenge for New Open-Weight LLMs

2025/08/06 InfoSecurity — OpenAI が発表したのは、2つの新しいオープン・ウェイト LLM の提供と、賞金総額 $500,000 のレッドチーム・チャレンジの開催である。8月5日午前10時、OpenAI の CEO である Sam Altman は、ソーシャルメディアに “gpt-oss がリリースされた” と投稿した。

Continue reading “OpenAI が立ち上げる Red Teaming チャレンジ:新たな Open-Weight LLM は何を変えていくのか?”

MCPoison という新たな攻撃ベクター:Cursor IDE における不適切な MCP 検証とは?

New MCPoison Attack Leverages Cursor IDE MCP Validation to Execute Arbitrary System Commands

2025/08/05 CyberSecurityNews — 急速に成長する AI-powered 開発環境 Cursor IDE に、深刻な脆弱性が発見された。この脆弱性を悪用する攻撃者は、Model Context Protocol (MCP) システムの操作を通じて、永続的なリモート・コード実行の可能性を手にする。この “MCPoison” と名付けられた脆弱性 CVE-2025-54136 は信頼検証の欠陥に起因するものであり、それを悪用する攻撃者は、セキュリティ警告をトリガーすることなく、開発者マシン上での任意のコマンド実行を達成する。

Continue reading “MCPoison という新たな攻撃ベクター:Cursor IDE における不適切な MCP 検証とは?”

Perplexity AI が Firewall を回避して Web サイトをクロール:Cloudflare が警告

Cloudflare Accuses Perplexity AI For Evading Firewalls and Crawling Websites by Changing User Agent

2025/08/05 CyberSecurityNews — 標準的な Firewall を回避するステルス型のクロール技術を採用しているとして、高度な LLM を搭載する新興の QA エンジン Perplexity AI が注目を集めている。スタート時の Perplexity クローラーは透明性を重視しており、PerplexityBot/1.0 といったユーザー・エージェントを用いて自らを識別し、robots.txt の指示や Web Application Firewall (WAF) のルールを遵守していた。しかし、2025年8月初旬に研究者たちが確認したのは、ブロックを受けた Perplexity がクロール中に自身の識別情報を改変し、一般的なブラウザのユーザー・エージェントおよび未公開の IP 範囲を用いて、アクセスが制限されるコンテンツへと接続している現実である。

Continue reading “Perplexity AI が Firewall を回避して Web サイトをクロール:Cloudflare が警告”

Claude Code の AI アシスタントの脆弱性 CVE-2025-54794/54795 が FIX:特定に用いられた Inverse Prompt とは?

Claude AI Flaws Let Attackers Execute Unauthorized Commands Using the Model Itself

2025/08/05 gbhackers — Anthropic の Claude Code に存在する深刻な脆弱性を、セキュリティ研究者たちが発見した。この脆弱性の悪用に成功した攻撃者は、セキュリティ制限を回避し、不正なコマンド実行を可能にする。AI アシスタント自体が、こうした攻撃を助長している。これらの脆弱性 CVE-2025-54794/CVE-2025-54795 は、開発者の生産性向上を目的として設計された高度な AI ツールが、セキュリティ境界を適切に実装していない場合において、システム侵害の媒介となり得ることを明確に示している。

Continue reading “Claude Code の AI アシスタントの脆弱性 CVE-2025-54794/54795 が FIX:特定に用いられた Inverse Prompt とは?”

Gen AI を悪用する脅威アクター:企業インフラを支える自律型 AI エージェントが標的

Threat Actors Exploit AI to Scale Attacks and Target Autonomous Agents

2025/08/04 gbhackers — 急速に変化する脅威情勢の中で、人工知能 (AI) を悪用する攻撃者たちは、その運用効率を飛躍的に高めている。彼らは攻撃のスケールを広げ、現代の企業インフラを支える自律型 AI エージェントに照準を合わせている。最前線の脅威ハンター/アナリストの調査に基づく CrowdStrike 2025 Threat Hunting Report によると、限られたリソースの中で運用を最適化する手段として、脅威アクターたちは GenAI を積極的に取り入れ、かつてない速度と精度で、ユーザー組織への侵入を達成しているという。

Continue reading “Gen AI を悪用する脅威アクター:企業インフラを支える自律型 AI エージェントが標的”

NPM 上の悪意のパッケージを解析:AI によるコード生成を示す証拠が発見された

Hackers Use AI to Create Malicious NPM Package that Drains Your Crypto Wallet

2025/08/04 CyberSecurityNews — 人工知能 (AI) を悪用するサイバー犯罪者たちは、正規の開発ツールを装う NPM パッケージを作成/展開することで、暗号資産ウォレットから密かに資金を吸い上げるという、巧妙な攻撃を仕掛けている。“@kodane/patch-manager” という名のパッケージは、ライセンス検証およびレジストリ最適化機能を提供する “NPM Registry Cache Manager” を装っているが、実際には Solana ブロックチェーン資産を標的とする、高度な暗号資産ウォレット・ドレイナー (資金窃取ツール) を内包している。

Continue reading “NPM 上の悪意のパッケージを解析:AI によるコード生成を示す証拠が発見された”

NVIDIA Triton Inference Server の複数の脆弱性が FIX:未認証による AI サーバ乗っ取りの可能性

NVIDIA Triton Bugs Let Unauthenticated Attackers Execute Code and Hijack AI Servers

2025/08/04 TheHackerNews — NVIDIA が提供する Windows/Linux 向けの Triton Inference Server (AI モデル用 OSS プラットフォーム) において、新たに発見された一連のセキュリティ脆弱性により、標的とされるサーバに乗っ取りの可能性が生じている。Wiz の研究者 Ronen Shustin と Nir Ohfeld は、2025年8月に公開したレポートの中で「これらの脆弱性が連鎖的に利用された場合には、未認証のリモート攻撃者によりサーバが完全に制御され、リモート・コード実行 (RCE) に到達する可能性がある」と述べている。

Continue reading “NVIDIA Triton Inference Server の複数の脆弱性が FIX:未認証による AI サーバ乗っ取りの可能性”

ChatGPT/Gemini などに Man-in-the-Prompt のリスク:ブラウザ・エクステンションとの組み合わせに問題

ChatGPT, Gemini, GenAI Tools Vulnerable to Man-in-the-Prompt Attacks

2025/07/31 CyberSecurityNews — 一般的な AI ツールに影響を及ぼす深刻な脆弱性により、”Man-in-the-Prompt” と呼ばれる新たな攻撃ベクターが悪用可能となっているが、それらの対象には、ChatGPT や Google Gemini といった GenAI プラットフォームも含まれる。Layer X の調査によると、DOM を悪用するブラウザ・エクステンションであれば、特別な許可を必要とすることなく、プロンプト挿入/機密データの窃取/AI レスポンスの改竄などを可能にするという。この脆弱性は、主要プラットフォームの数十億人のユーザーに影響を及ぼすが、特に50億回/月アクセスを誇る ChatGPT と、約4億人ユーザーを抱える Gemini が危険だとされる。

Continue reading “ChatGPT/Gemini などに Man-in-the-Prompt のリスク:ブラウザ・エクステンションとの組み合わせに問題”

ChatGPT Agent による新たな証明:Cloudflare の “I Am Not a Robot” チェックを突破

ChatGPT Agent Defeats Cloudflare’s ‘I Am Not a Robot’ Security Check

2025/07/30 gbhackers — 広く利用されている Cloudflare の “I am not a robot” 認証システムが、ChatGPT を搭載するエージェントにより迂回されるという。このインシデントが浮き彫りにするのは、AI の進化する能力と、Web セキュリティ・システムに潜在する脆弱性の双方である。このインターネット上で遭遇する認証プロセスは、セキュリティ・インターフェイスとの自動インタラクションにより実証されてきた、Cloudflare の成果であるが、AI エージェントにより、その役割を終えようとしている。

Continue reading “ChatGPT Agent による新たな証明:Cloudflare の “I Am Not a Robot” チェックを突破”

Enterprise LLM に潜むリスクを整理:シンプルなプロンプトによる巧妙な攻撃と甚大な被害

Enterprise LLMs Under Risk: How Simple Prompts Can Lead to Major Breaches

2025/07/30 CyberSecurityNews — 大規模言語モデル (LLM) を統合するエンタープライズ・アプリ群は、単純に見えるプロンプトのインジェクション攻撃により、悪用の可能性が生じるという、前例のないセキュリティ脆弱性に直面している。最近のセキュリティ評価により明らかにされたのは、巧妙に作成された自然言語クエリのみを使用する攻撃者が、認証システム回避と機密データの抽出を達成し、不正なコマンドの実行を可能にするという問題である。

Continue reading “Enterprise LLM に潜むリスクを整理:シンプルなプロンプトによる巧妙な攻撃と甚大な被害”

AI Vibe コーディング Base44 に認証バイパスの脆弱性:Wiz が発見/報告し翌日に修正される

Severe Vulnerability in AI Vibe Lets Attackers Access Private User Applications

2025/07/30 gbhackers — 人気の AI 搭載開発プラットフォーム Base44 に、深刻なセキュリティ脆弱性が発見されたと、Wiz Research の最新レポートが報じている。この脆弱性を悪用する攻撃者は、認証制御を回避し、企業のプライベート・アプリケーションへアクセスを可能にするという。すでに、この脆弱性は修正済みであるが、Vibe コーディング・プラットフォームを社内ツールや自動化に利用している複数の組織においては、機密データが漏洩する恐れがあったという。

Continue reading “AI Vibe コーディング Base44 に認証バイパスの脆弱性:Wiz が発見/報告し翌日に修正される”