FortiGate のデバイス 600+ 台を侵害:AI による攻撃チェーンが生み出す量の世界

Hackers Leveraging Multiple AI Services to Compromise 600+ FortiGate Devices

2026/02/21 CyberSecurityNews — 2026年01月11日から02月18日にかけて、金銭目的の脅威アクターが複数の商用 GenAI サービスを武器化し、55 カ国以上に分散する 600 台以上の FortiGate デバイスを侵害した。このキャンペーンが示すのは、攻撃的サイバー作戦における技術的な参入障壁が、AI により大幅に低減されているという、決定的な事例である。従来は、大規模かつ高技能なチームを必要としていた規模の攻撃を、低〜中程度の技能を持つ、個人または小規模グループが実行できることが明らかになった。

Continue reading “FortiGate のデバイス 600+ 台を侵害:AI による攻撃チェーンが生み出す量の世界”

Anthropic が Claude Code Security を立ち上げ:AI 駆動のコード・スキャンを提供

Anthropic Launches Claude Code Security to Scan Codebases for Security Vulnerabilities

2026/02/21 CyberSecurityNews — Claude Code 内の新機能である、Claude Code Security を活用する開発者やセキュリティ・チームは、コードベース全体の脆弱性の特定と修復が可能となる。限定的なリサーチ・プレビューとして提供されている Claude Code Security は、AI 駆動のコード・スキャンを提供するものだ。静的な解析は、コードとして記述された内容のみを確認するものである。それに対して、この機能はコードの実際の動作を理解するため、脆弱性に対する新たな分析が提供される。

Continue reading “Anthropic が Claude Code Security を立ち上げ:AI 駆動のコード・スキャンを提供”

GenAI がもたらす生産性と情報漏洩:エンタープライズ・セキュリティの転換期になるのか?

GenAI Has Become the Biggest Data-Exposure Risk in Enterprise History

2026/02/20 InfoSecurity — さまざまな組織の多数の従業員たちが、単なる回答を得るだけではなく、文書の要約/コンテンツ作成/データセット分析/コード作成などにおいて、GenAI による支援を受けている。それらは、有用なアシスタントであり、日常業務に組み込まれている。しかし、いま明らかになってきたのは、この変化がもたらすセキュリティへの影響である。GenAI の利用が加速するにつれて、それらを通過する機密情報の量も増大している。その結果、GenAI 関連のデータ露出インシデントは、前年同期と比べて約 5 倍に増加し、これまでの組織が直面したことのない規模と速度の情報漏洩を生み出している。

Continue reading “GenAI がもたらす生産性と情報漏洩:エンタープライズ・セキュリティの転換期になるのか?”

Abstract Security が立ち上げた AI SIEM:AI による攻撃に AI で対抗する

Abstract Security Launches AI SIEM Platform to Analyze Threats In Real Time

2026/02/19 SecurityBoulevard — 2月19日に Abstract Security は、AI を活用することで、ほぼリアルタイムに脅威を可視化するモジュール型の Security Information and Event Management (SIEM) プラットフォームを、製品ポートフォリオへ追加した。同社 CEO である Colby DeRodeff によると、AI-Gen Composable SIEM を活用するサイバー・セキュリティ・チームは、AI プラットフォームへ向けて、収集されたデータを継続的にストリーミングできるようになる。このプラットフォームは、エージェントをネイティブに活用し、脅威の検知/トリアージ/調査/対応を実行するようデザインされている。

Continue reading “Abstract Security が立ち上げた AI SIEM:AI による攻撃に AI で対抗する”

OpenClaw の 6 件の脆弱性が FIX:SSRF/認証不備/パス・トラバーサル

Researchers Reveal Six New OpenClaw Vulnerabilities

2026/02/19 InfoSecurity — OpenClaw が公表したのは、人気の AI アシスタントに存在する 6 件の新たな脆弱性の修正である。それらには、Server-Side Request Forgery (SSRF)/認証不備/パス・トラバーサルなどの不具合が含まれると、Endor Labs は述べている。これらの脆弱性の一部には CVE ID が付与されていないが、深刻度は Moderate から High に及ぶという。この発表は、2月18日に公開されたブログ投稿で行われた。

Continue reading “OpenClaw の 6 件の脆弱性が FIX:SSRF/認証不備/パス・トラバーサル”

MCP Server のセキュリティを考える:相反する高次元の能力と信頼境界への侵食

Critical MCP Server Enables Arbitrary Code Execution and Sensitive Data Exfiltration

2026/02/19 gbhackers — MCP サーバは、AI アシスタントを強力な攻撃基盤へと、静かに変質させるものでもある。それにより、任意のコード実行/大規模なデータ流出や、ローカル/クラウド環境における巧妙なユーザー操作が可能になってしまう。新たな研究の結果だけではなく、最近の実際のインシデントにおいても、この新たなエコシステムの悪用が示されている。典型的なインシデントとしては、週に数千件の機密メールを密かに収集していた、悪意の Postmark MCP サーバが挙げられる。

Continue reading “MCP Server のセキュリティを考える:相反する高次元の能力と信頼境界への侵食”

OpenClaw AI フレームワーク v2026.2.17 がリリース:Anthropic モデルをサポート

OpenClaw AI Framework v2026.2.17 Adds Anthropic Model Support Amid Credential Theft Bug Concerns

2026/02/18 gbhackers — 2026年初頭に広く採用され始めた OpenClaw は、オープンソースの自律型 AI アシスタントである。そのプロジェクトが、2026年02月17日にバージョン v2026.2.17 を公開した。今回のリリースでは、Anthropic の最新モデル Claude Sonnet 4.6 のサポートが追加された。OpenClaw コンフィグ・ファイルを標的とするインフォスティーラーが、クレデンシャル窃取を行っていることが研究者により確認され、セキュリティ懸念が高まる中で、今回の新バージョンがリリースされた。

Continue reading “OpenClaw AI フレームワーク v2026.2.17 がリリース:Anthropic モデルをサポート”

AI セキュリティの問題:最小権限の ID 原則を導入すればリスクが激減する?

Over-Privileged AI Drives 4.5 Times Higher Incident Rates

2026/02/17 InfoSecurity — 最新レポート “2026 State of AI in Enterprise Infrastructure Security” を作成するにあたり Teleport が実施したのは、米国のインフラ・セキュリティ責任者 200人以上を対象にした調査である。このレポートにおける “インフラに内在する AI” の定義には、AI 搭載ワークロード/エージェント型システム/マシン-to-マシン通信/ChatOps/コンプライアンス自動化/インシデント検知などが含まれる。

Continue reading “AI セキュリティの問題:最小権限の ID 原則を導入すればリスクが激減する?”

Microsoft Teams における AI ワークフローの活用:Microsoft 365 Copilot でタスクを自動化

Microsoft Teams Leverages AI Workflows with Microsoft 365 Copilot for Task Automation

2026/02/17 gbhackers — Microsoft が公表したのは、Teams Workflows アプリに AI Workflows を導入し、Microsoft 365 Copilot により自動化された、インテリジェント機能に関する提供の開始である。これにより、日常業務の効率化および複雑なタスクの自動化が可能となる。この機能は、あらかじめ定義されたテンプレートを通じて、スケジュールされた Copilot プロンプトを使用し、ユーザーによる自動化環境の容易な構築をサポートする。

Continue reading “Microsoft Teams における AI ワークフローの活用:Microsoft 365 Copilot でタスクを自動化”

OpenClaw の盗まれたコンフィグ・ファイルを取得:機密データの悪用と拡大する攻撃

Threat Actors Attacking OpenClaw Configurations to Steal Login Credentials

2026/02/17 CyberSecurityNews — パーソナル AI アシスタントの世界を標的とするサイバー犯罪者たちは、新たな攻撃対象領域を見出した。最近の調査により明らかになったのは、OpenClaw のコンフィグ・ファイルを標的にする脅威アクターが、機微な認証情報や個人データを窃取していることだ。それが示すのは、マルウェアの挙動における大幅な進化である。従来のブラウザ・ベースの認証情報窃取から、AI エージェントのアイデンティティと関連するデジタル・コンテキストの収集へと、彼らの狙いは移行している。

Continue reading “OpenClaw の盗まれたコンフィグ・ファイルを取得:機密データの悪用と拡大する攻撃”

ClawBands という GitHub プロジェクト:OpenClaw に “human-in-the-loop” 制御を取り込む

ClawBands GitHub Project Looks to Put Human Controls on OpenClaw AI Agents

2026/02/16 SecurityBoulevard — あるソフトウェア・エンジニアが GitHub 上で公開したのは、人気を博しながら物議を醸し出している OpenClaw AI パーソナル・アシスタントに対して、人間による統制を確保するための軽量プラグインである。開発者 Sandro Munda が提供する ClawBands は、OpenClaw AI エージェント向けのセキュリティ・ミドルウェアであると説明されている。このプラグインは、AI パーソナル・アシスタントにフックし、ファイル書き込み/シェルコマンド/ネットワーク・リクエストなどに関連する、すべてのツールの実行をインターセプトする。それにより、いかなる操作においても、事前の “human-in-the-loop” 承認を確実に行わせるものである。

Continue reading “ClawBands という GitHub プロジェクト:OpenClaw に “human-in-the-loop” 制御を取り込む”

Check Point の新たなセキュリティ戦略:AI 時代のエンタープライズ保護に必要なものは?

Check Point Unveils a New Security Strategy for Enterprises in the AI Age

2026/02/13 SecurityBoulevard — サイバー・セキュリティの中心的テーマである、現在進行形の AI 軍拡において、防御側と攻撃側の双方が優位性の確保を競い合っている。それは、従来のイタチごっこ型のセキュリティ構図の延長であるが、速度が大幅に加速し、きわめて大きな利害を伴うものである。2025年8月に CrowdStrike は、「AI の戦場は既に到来している。AI を武器化する敵対者は、前例のない規模/速度/効果で攻撃を実行している。その一方で防御側は、アナリストたちのパワーを高めるために AI を活用し、反復作業のオフロード/意思決定の高速化/SOC (Security Operations Center) 全体での専門知識の拡張を実現している」と述べている。

Continue reading “Check Point の新たなセキュリティ戦略:AI 時代のエンタープライズ保護に必要なものは?”

Unstructured.io の脆弱性 CVE-2025-64712:AI 対応のパイプラインに RCE の可能性

CVE-2025-64712 in Unstructured.io Puts Amazon, Google, and Tech Giants at Risk of Remote Code Execution

2026/02/13 gbhackers — Unstructured.io の “unstructured” ETL ライブラリに存在する、深刻な脆弱性 CVE-2025-64712 (CVSS 9.8) が新たに公開された。この脆弱性を悪用する攻撃者は、信頼できないドキュメントを処理するシステム上で任意のファイル書き込みを実行し、その結果としてリモート・コード実行 (RCE) を引き起こす可能性がある。

Continue reading “Unstructured.io の脆弱性 CVE-2025-64712:AI 対応のパイプラインに RCE の可能性”

ChatGPT/Claude を装う悪意の Chrome AI エクステンション:26 万人に影響を及ぼす大規模監視キャンペーンを検出

Malicious Chrome AI Extensions Attacking 260,000 Users via Injected IFrames

2026/02/13 CyberSecurityNews — ChatGPT/Claude/Gemini/Grok などの人気 AI ツールを装う悪意の Chrome エクステンションが、組織的な協調キャンペーンを介して配布されている。これらの偽 “AI アシスタント” は、有用なブラウザ・エクステンションを装いながら、リモートからの操作が可能な iframe を注入してユーザーを監視する悪意のツールである。これらのエクステンションは、26 万人以上のユーザーにインストールされている。

Continue reading “ChatGPT/Claude を装う悪意の Chrome AI エクステンション:26 万人に影響を及ぼす大規模監視キャンペーンを検出”

OpenClaw 2026.2.12 がリリース:40 件強の脆弱性への対応とセキュリティ対策の見直し

OpenClaw 2026.2.12 Released to Patch Over 40 Security Vulnerabilities

2026/02/13 gbhackers — OpenClaw チームが公表したのは、セキュリティ強化とアーキテクチャ安定性に重点を置いた、包括的アップデート・バージョンである 2026.2.12 の正式なリリースに関する情報である。このリリースでは、40 件超のセキュリティ脆弱性および安定性問題を修正しており、この AI エージェント・フレームワークにおける重要なマイルストーンとなった。

Continue reading “OpenClaw 2026.2.12 がリリース:40 件強の脆弱性への対応とセキュリティ対策の見直し”

Google が警告する Gemini の悪用:段階マルウェア用の C# コードを動的に生成する脅威アクターとは?

Google Warns of Hackers Leveraging Gemini AI for All Stages of Cyberattacks

2026/02/12 CyberSecurityNews — 従来の検出手法を回避する脅威アクターたちは、Google の Gemini API を悪用することで、多段階マルウェア用の C# コードを動的に生成し始めている。Google Threat Intelligence Group (GTIG) は、2025年9月に観測された HONESTCUE フレームワークに焦点を当てた調査を実施し、その結果を 2026年2月の AI Threat Tracker レポートに詳述している。

Continue reading “Google が警告する Gemini の悪用:段階マルウェア用の C# コードを動的に生成する脅威アクターとは?”

“AI Skills” が作り出す新たな攻撃領域:データと命令が混在するアーティファクトとは?

AI Skills Represent Dangerous New Attack Surface, Says TrendAI

2026/02/12 InfoSecurity — いわゆる “AI skills” は、AI 運用を拡張するために用いられるものであるが、データ窃取/妨害/サービス停止に対して、きわめて危険なレベルの脆弱さを露出させていると、TrendAI は警告している。Trend Micro の新たなビジネス・ユニットである TrendAI は、”AI skills” は人間にとって可読性のあるテキストと、LLM にとって読み取りと実行が可能な命令を組み合わせたアーティファクトであると、今週公開したレポートで説明している。

Continue reading ““AI Skills” が作り出す新たな攻撃領域:データと命令が混在するアーティファクトとは?”

LLM で React2Shell マルウェアを生成:最新サンプルが示す高度なテクノロジーとは?

Hackers Use LLM to Create React2Shell Malware, the Latest Example of AI-Generated Threat

2026/02/11 SecurityBoulevard — Darktrace の CloudyPots ハニーポット・ネットワークで、先日に捕捉されたマルウェアサンプルは、完全に AI により生成されたものである。2ヶ月前に公開され、現在も脅威であり続ける React2Shell 脆弱性を悪用するために、このマルウェアは構築されている。システムへの初期侵入を達成したマルウェアは、その後に暗号通貨マイニングを実行する。この名称が与えられていないマルウェアは、Large Language Model (LLM) などの AI ツールを用いて、その大部分を作成するという。

Continue reading “LLM で React2Shell マルウェアを生成:最新サンプルが示す高度なテクノロジーとは?”

Chat & Ask AI に深刻なデータ漏洩:2500 万人のユーザーと 3 億件のメッセージに影響

25 Million Users Affected as AI Chat Platform Leaks 300 Million Messages

2026/02/10 gbhackers — “Chat & Ask AI” に深刻なデータ露出の脆弱性が発生した。約 3 億件のプライベート・メッセージが、外部からアクセス可能な状態になっていることが、独立系セキュリティ研究者により報告された。このモバイル・アプリは、Google Play/Apple App Store で提供され、人気を博している。この侵害により、2,500 万人以上のユーザーに影響が生じており、急成長する AI アプリ市場におけるプライバシー/データの取り扱いに関する、深刻な懸念を引き起こしている。

Continue reading “Chat & Ask AI に深刻なデータ漏洩:2500 万人のユーザーと 3 億件のメッセージに影響”

VoidLink マルウェア:高度なモジュール型設計と AI 支援開発を示唆する痕跡

VoidLink Malware Exhibits Multi-Cloud Capabilities and AI Code

2026/02/10 InfoSecurity — Linux ベースの Command and Control (C2) フレームワークであり、クラウドおよびエンタープライズ環境全体で、長期にわたる侵入を可能にするマルウェアについて、新たな調査結果が公開された。VoidLink として知られるマルウェアは、認証情報の窃取/データの外部送信に加えて、侵害済みシステム上での秘匿的な永続化を目的とするインプラント・バイナリを生成する。

Continue reading “VoidLink マルウェア:高度なモジュール型設計と AI 支援開発を示唆する痕跡”

AI アシスタント OpenClaw の広範なミスコンフィグ:OpenClaw インスタンス 40,000+ が露出

Researchers Find 40,000+ Exposed OpenClaw Instances

2026/02/09 InfoSecurity — 人気の AI アシスタント OpenClaw における広範なミスコンフィグにより、多数のインスタンスがパブリック・インターネット上に露出していると、SecurityScorecard が警告を発している。同社によると、旧称 Clawdbot/Moltbot として知られるツールの、露出しているインスタンス数は 40,214 件に達しており、現在も増加しているという。これらは 28,663 のユニークな IP アドレスに関連付けられている。

Continue reading “AI アシスタント OpenClaw の広範なミスコンフィグ:OpenClaw インスタンス 40,000+ が露出”

ClawHub に 341 件の悪意の “skill”:OpenClaw を介したサプライチェーン攻撃を検出

OpenClaw Becomes New Target in Rising Wave of Supply Chain Poisoning Attacks

2026/02/09 CyberSecurityNews — AI エージェント・プラットフォーム OpenClaw の、ClawHub プラグイン・マーケットプレイスが悪意の “skill” により汚染され、深刻なサプライチェーン・リスクに直面している。この急速に成長しているオープンソース・エコシステムにおいて、Atomic Stealer などのインフォスティーラーを展開する侵害済みエクステンションが数百件規模で存在することを、セキュリティ企業 SlowMist と Koi Security が明らかにした。

Continue reading “ClawHub に 341 件の悪意の “skill”:OpenClaw を介したサプライチェーン攻撃を検出”

LocalGPT という選択肢:ローカル・ファーストと Rust で AI アシスタントを完結

LocalGPT – A Secure Local Device Focused AI Assistant Built in Rust

2026/02/08 CyberSecurityNews — AI アシスタントである ChatGPT や Claude が、クラウド基盤を席巻する時代になった。それにより、ユーザー・データがリモート侵害にさらされるが、LocalGPT と呼ばれる新しい Rust ベースのツールが堅牢な代替案を提示している。約 27MB の単一バイナリとして開発された LocalGPT は、完全にローカル・デバイス上で動作し、機密のメモリとタスクをクラウド以外に保持する。

Continue reading “LocalGPT という選択肢:ローカル・ファーストと Rust で AI アシスタントを完結”

Firefox が導入するプライバシー強化策:カスタマイズ可能な AI Kill Switch とは?

Firefox Will Give Users an AI Kill Switch for Better Privacy

2026/02/07 hackread — ほぼすべての、私たちが訪れる Web サイトに AI が組み込まれつつあるが、この変化を歓迎しないユーザーも少なくない。身近にあるデジタル・アシスタントを便利だと感じる一方で、データ共有への懸念を抱くユーザーや、絶え間ないポップアップに疲弊するユーザーもいる。Mozilla は、こうした傾向に注目し、ユーザー主導の環境を取り戻すことを目的とする大規模なアップデートを発表した。

Continue reading “Firefox が導入するプライバシー強化策:カスタマイズ可能な AI Kill Switch とは?”

OpenClaw と VirusTotal が提携:”skill” に対する自動スキャンで AI エージェントを保護

OpenClaw Partners with VirusTotal to Secure AI Agent Skill Marketplace

2026/02/07 CyberSecurityNews — 2月7日に OpenClaw は、Google 傘下の VirusTotal との提携を発表し、AI エージェント・マーケットプレイスである ClawHub に公開されるすべての “skill” に対して、自動セキュリティ・スキャンを実装することを明らかにした。この統合は、新興の AI エージェント・エコシステムにおける、初の包括的なセキュリティ施策となる。

Continue reading “OpenClaw と VirusTotal が提携:”skill” に対する自動スキャンで AI エージェントを保護”

Claude Opus 4.6:サイバー・セキュリティ能力を強化して 500 件以上の高深刻度の脆弱性を特定

Claude Opus 4.6 Released with Improved Cybersecurity, Validating 500+ high-severity Vulnerabilities

2026/02/07 CyberSecurityNews — Anthropic の最新 AI モデルが、数十年にわたりコードベースに残存してきた深刻な欠陥を自律的に特定した。それにより、サイバー空間全体のリスクが増大し、防御側/攻撃側の双方で緊張感が高まっている。2026年2月5日に Anthropic は、サイバー・セキュリティ能力を大幅に強化する Claude の最新バージョンを公開した。この Claude Opus 4.6 が、オープンソース・ソフトウェアにおいて、これまで未知であった高深刻度の脆弱性を 500 件以上も特定した。

Continue reading “Claude Opus 4.6:サイバー・セキュリティ能力を強化して 500 件以上の高深刻度の脆弱性を特定”

OpenClaw v2026.2.6 がリリース:安全性スキャナーと Opus 4.6/GPT-5.3-Codex のサポートを追加

OpenClaw v2026.2.6 Released With Support for Opus 4.6, GPT-5.3-Codex and Safety Scanner

2026/02/07 CyberSecurityNews — OpenClaw がリリースした v2026.2.6 は、エコシステム内で高まる悪意の “skill” に対する懸念を払拭してセキュリティを強化するためのものだ。このリリースで追加されたのは、コードの安全性スキャナーおよび、モデルのサポートであり、研究者により指摘された最近の脆弱性にも対応している。OpenClaw は、メール管理や暗号資産取引などのタスクを、WhatsApp/Telegram 経由などで管理する、ローカル AI エージェント向けのオープンソース・フレームワークである。このバージョン 2026.2.6 は、2026年2月7日に公開された。

Continue reading “OpenClaw v2026.2.6 がリリース:安全性スキャナーと Opus 4.6/GPT-5.3-Codex のサポートを追加”

OpenClaw 上の 3rd-Party “skill” の 17% は悪意:暗号通貨や SNS を標的に機密データを収集

17% of 3rd-Party Add-Ons for OpenClaw Used in Crypto Theft and macOS Malware

2026/02/06 hackread — 新たなオープンソース AI プロジェクトである OpenClaw が、GitHub で 16万以上のスターを獲得し、開発者コミュニティを席巻している。OpenClaw は AI ツール・ボックスであり、複数のアプリケーションにまたがってアカウント管理やタスク実行を行える。しかし、周知のとおり、大きな注目が集まる場所には、詐欺師も必ず近づいてくる。このエコシステムを調査した Bitdefender Labs の研究者たちにより、看過できない問題が明らかになった

Continue reading “OpenClaw 上の 3rd-Party “skill” の 17% は悪意:暗号通貨や SNS を標的に機密データを収集”

AI により 10 分以内で AWS 管理者アクセスを奪取:クラウド攻撃の時間を短縮する脅威アクター

Hackers Using AI to Get AWS Admin Access Within 10 Minutes

2026/02/04 CyberSecurityNews — 人工知能ツールを活用する脅威アクターたちが、クラウド攻撃のライフサイクルを数時間から数分へと短縮していると、Sysdig Threat Research Team (TRT) の調査結果が明らかにしている。2025年11月のインシデントにおける攻撃者は、Large Language Model (LLM) を用いて偵察の自動化/悪意のコード生成/リアルタイムな攻撃判断を実行し、初期の認証情報窃取から完全な管理者権限取得までを 10 分未満で完了している。この Amazon Web Services (AWS) 環境への攻撃が示すのは、クラウドへの攻撃の速度と高度化が、AI 支援により根本的に変革されたことだ。

Continue reading “AI により 10 分以内で AWS 管理者アクセスを奪取:クラウド攻撃の時間を短縮する脅威アクター”

AI エージェント時代の盲点:不可視のリスクと企業セキュリティ

The ‘Invisible Risk’: 1.5 Million Unmonitored AI Agents Threaten Corporate Security

2026/02/03 SecurityBoulevard — 自律型デジタル・ワーカーで構成される巨大かつ不可視の労働力が、ビジネス界に到来しているが、新たな調査によると、その多くが制御不能な状態で稼働している可能性があるという。オープンソースの API/エージェント管理分野をリードする Gravitee が公開した調査結果によると、米国/英国の大企業では、すでに 300 万を超える AI エージェントが導入されている。しかし、そのほぼ半数にあたる約 150 万は、現在も能動的な監視やセキュリティ・プロトコルなしに稼働している。

Continue reading “AI エージェント時代の盲点:不可視のリスクと企業セキュリティ”

AI Agent の ID マネージメント:既存の ID モデルが適合しない理由を説明しよう

AI Agent Identity Management: A New Security Control Plane for CISOs

2026/02/03 BleepingComputer — 長年にわたりセキュリティ・リーダーたちは、サービス・アカウントと従業員に対するアイデンティティ (ID) 制御を強化してきた。しかし、そのモデルが限界を露呈し始めている。企業環境の全体において、新たな ID のクラスが急速に拡散している。それが自律型 AI エージェントである。Custom GPT/Copilot/MCP サーバを実行するコーディング・エージェントや、用途ごとに特化された AI エージェントは、もはや実験の用途に留まらない。本番環境で稼働し、拡張され、機微なシステムやインフラと連携し、他のエージェントを呼び出し、判断や変更を行っているが、そこでは人間による直接的な監督が欠落している。

Continue reading “AI Agent の ID マネージメント:既存の ID モデルが適合しない理由を説明しよう”

ClawdBot の認証バイパスの脆弱性 CVE-N/A が FIX:1-Click で RCE を発動

1-Click Flaw in ClawdBot Allows Remote Code Execution

2026/02/02 gbhackers — 人気の npm パッケージ ClawdBot に存在する、深刻な認証バイパス脆弱性が発見された。この脆弱性を悪用する攻撃者は、単一の悪意のリンクを介してリモートコード実行 (RCE) が可能となる。この欠陥は、gatewayUrl パラメータの検証不備に起因し、未認可の脅威アクターに認証トークンを漏洩させる、自動接続挙動により影響が増幅される。

Continue reading “ClawdBot の認証バイパスの脆弱性 CVE-N/A が FIX:1-Click で RCE を発動”

Moltbook AI に深刻な脆弱性:メールアドレス/ログイントークン/API キーなどの情報が露出

Moltbook AI Vulnerability Exposes Email Addresses, Login Tokens, and API Keys

2026/02/01 CyberSecurityNews — 2026年1月下旬に Octane AI の Matt Schlicht が立ち上げたばかりの、AI エージェント向けソーシャル・ネットワーク Moltbook の深刻な脆弱性により、登録されたエージェントにひも付くメールアドレス/ログイントークン/API キーが露出していることが判明した。”約 150 万人のユーザー” を抱えると、過熱気味に喧伝されるさなかでの事態である。

Continue reading “Moltbook AI に深刻な脆弱性:メールアドレス/ログイントークン/API キーなどの情報が露出”

BlackIce は AI ペンテスト環境:14 種類の AI セキュリティ・ツールを Docker コンテナで提供

BlackIce Introduced as Container-Based Red Teaming Toolkit for AI Security Testing

2026/01/29 gbhackers — CAMLIS Red 2025 で Databricks が発表した BlackIce は、14 個の広く利用されている AI セキュリティ・ツールを単一の環境に統合するために、オープンソース・ツールキットをコンテナ化したものだ。従来の AI レッドチームにおいてセキュリティ・テストのワークフローを阻害してきた、複雑なセットアップ手順や依存関係の競合といった重大な課題が、このイノベーションにより解消する。

Continue reading “BlackIce は AI ペンテスト環境:14 種類の AI セキュリティ・ツールを Docker コンテナで提供”

Ollama AI の普及と副作用:インターネットに露出する 175,000 のサーバとサイバー犯罪

Researchers Find 175,000 Publicly Exposed Ollama AI Servers Across 130 Countries

2026/01/29 TheHackerNews — 管理されていない公開状態の AI コンピューティング・インフラが、オープンソース AI の展開により広大な領域で形成されている実態が、SentinelOne SentinelLABS および Censys による共同調査により明らかになった。この未管理インフラは、130 か国にまたがる 175,000 以上の一意な Ollama ホストで構成されており、クラウド/住宅用ネットワークの双方に分散して存在している。

Continue reading “Ollama AI の普及と副作用:インターネットに露出する 175,000 のサーバとサイバー犯罪”

Cal.com のアクセス・コントロールの不備:Gecko の AI SAST エンジンが問題を検出

Cal.com Broken Access Controls Lead to Account Takeover and Data Exposure

2026/01/28 gbhackers — オープンソースのスケジューリング・プラットフォームである Cal.com は、開発者フレンドリーな Calendly の代替として知られている。しかし、最近になって、ユーザー・アカウントおよび機密データを攻撃者に露出させる、一連の深刻な脆弱性が発生し修正された。これらの欠陥は、Gecko の AI セキュリティ・エンジニアにより、Cal.com Cloud において発見されたものである。この脆弱性を悪用する攻撃者は、任意のユーザーに対する完全なアカウント乗っ取りと、非公開ミーティングや参加者メタデータなどの、組織を横断する機密情報への不正アクセスを可能にしていた。

Continue reading “Cal.com のアクセス・コントロールの不備:Gecko の AI SAST エンジンが問題を検出”

北朝鮮系 Konni の最新スピアフィッシング・キャンペーン:AI 支援 PowerShell バックドアで日本も標的

Konni Hackers Deploy AI-Generated PowerShell Backdoor Against Blockchain Developers

2026/01/26 TheHackerNews — Konni として知られる北朝鮮系脅威アクターが、人工知能 (AI) ツールにより生成された PowerShell マルウェアを使用し、ブロックチェーン分野の開発者/エンジニア/開発チームを標的としていることが確認された。先週、Check Point Research が公開した技術レポートによると、このフィッシング・キャンペーンが標的とするのは日本/オーストラリア/インドであり、これまでの主要な標的であった韓国/ロシア/ウクライナ/欧州諸国を超えて、攻撃対象範囲を拡大していることが示されている。

Continue reading “北朝鮮系 Konni の最新スピアフィッシング・キャンペーン:AI 支援 PowerShell バックドアで日本も標的”

Curl がバグバウンティ・プログラムを終了:AI が生成する低品質レポートへの対応

Curl to End Bug Bounty Following Low-Quality AI-Generated Vulnerability Reports

2026/01/26 CyberSecurityNews — curl プロジェクトは、2026年1月をもってバグ・バウンティ・プログラムを終了した。その理由は、低品質かつ有用性のないバグ報告が過剰に寄せられたことにあるという。この決定が反映するのは、金銭的インセンティブの構造が、脆弱性情報の開示と実務にもたらす副作用への、オープンソース・セキュリティ・コミュニティ内の不満の高まりである。

Continue reading “Curl がバグバウンティ・プログラムを終了:AI が生成する低品質レポートへの対応”

AI で書いたハニーポット:Vibe Coding がもたらす脆弱性のケース・スタディとは?

What an AI-Written Honeypot Taught Us About Trusting Machines

2026/01/23 BleepingComputer — AI モデルを用いてコード作成を支援する Vibe Coding 手法が、多くのチームにとって日常的な開発プロセスの一部となっている。それにより、大きな時間短縮効果がもたらされるが、その一方では、AI が生成したコードを過度に信頼してしまうことで、セキュリティ脆弱性が入り込む余地を生み出す。AI 生成コードがセキュリティに及ぼす影響について、Intruder の経験は現実のケース・スタディとなっている。以下に示すのは、実際に起こったこと、そして、他の組織が注意すべき点である。

Continue reading “AI で書いたハニーポット:Vibe Coding がもたらす脆弱性のケース・スタディとは?”

ZEST の AI Sweeper Agents:過剰なパッチ要求を削減してセキュリティ・チームの負荷を軽減

ZEST Security Adds AI Agents to Identify Vulnerabilities That Pose No Actual Risk

2026/01/22 SecurityBoulevard — 今日 ZEST Security は、特定の脆弱性がアプリケーション環境に対して実際の脅威となるかどうかを識別する、人工知能 (AI) エージェント群を追加した。同社 CEO の Snir Ben Shimol によると、実際には悪用不可能な脆弱性の修正要求を AI Sweeper Agents が排除することで、作成すべきパッチ数を削減できるという。

Continue reading “ZEST の AI Sweeper Agents:過剰なパッチ要求を削減してセキュリティ・チームの負荷を軽減”

VoidLink が示す AI 生成マルウェア時代の到来:Check Point が警告

VoidLink Represents the Future of AI-Developed Malware: Check Point

2026/01/20 SecurityBoulevard — 1 人の個人と推測される脅威アクターが、AI を用いて単独で開発したとみられる高度なマルウェアが、Check Point の研究者たちにより発見された。このインシデントが示すのは、急速に進化する技術がサイバー脅威の生成方法を変化させる、先駆的な事例である。VoidLink と名付けられたマルウェアは、開発の初期段階で検出され、実際の攻撃で使用された形跡は確認されていない。しかし、異例のスピードで進められた設計と構築は、高度にモジュール化された構造を備えるものであり、迅速な進化を可能にする仕組みを持っている。そのため、発見当初は、大規模かつ潤沢な資金を有する攻撃者グループによるものと見られていた。

Continue reading “VoidLink が示す AI 生成マルウェア時代の到来:Check Point が警告”

Google Gemini の深刻な欠陥:間接プロンプト・インジェクションによる Calendar データ漏洩

Google Gemini AI Tricked Into Leaking Calendar Data via Meeting Invites

2026/01/19 hackread — 生活を便利にするために設計された AI アシスタントであるが、新たな調査により明らかになったのは、単純なミーティングの招待でさえトロイの木馬として悪用されるリスクである。Google Gemini が Google Calendar と連携する仕組みに存在する深刻な欠陥が、Miggo Security の研究者により判明した。この欠陥を悪用する攻撃者は、通常に見える招待を送信するだけで AI を巧妙に欺き、ユーザーの個人データを窃取することが可能となる。

Continue reading “Google Gemini の深刻な欠陥:間接プロンプト・インジェクションによる Calendar データ漏洩”

Google Vertex AI デフォルト・コンフィグによるセキュリティ・リスク:Service Agent ロールの不正取得

Google’s Vertex AI Vulnerability Enables Low-Privileged Users to Gain Service Agent Roles

2026/01/17 CyberSecurityNews — Google Vertex AI のデフォルト・コンフィグには、低権限ユーザーが Service Agent ロールを乗っ取ることで権限昇格を可能にしてしまう問題が存在する。XM Cyber の研究者により、Vertex AI Agent Engine/Ray on Vertex AI における 2 つの攻撃ベクターが特定されているが、Google はこれらを「想定された動作 (Working as Intended)」と位置付けており、防御責任はユーザー側にあるとの見解を示している。

Continue reading “Google Vertex AI デフォルト・コンフィグによるセキュリティ・リスク:Service Agent ロールの不正取得”

AI Agent が作り出す権限昇格パス:ユーザーからエージェントに移行するアクセス権を把握するには?

AI Agents Are Becoming Privilege Escalation Paths

2026/01/14 TheHackerNews — AI エージェントは、実験的なツールから、セキュリティ/エンジニアリング/IT/運用にわたる日常的なワークフローの中核コンポーネントへと急速に移行し始めている。個人用コード・アシスタント/チャットボット/コパイロットといった、個別の生産性向上ツールとして始まったものが、組織全体で共有されるエージェントへと進化し、重要なプロセスに組み込まれようとしている。

Continue reading “AI Agent が作り出す権限昇格パス:ユーザーからエージェントに移行するアクセス権を把握するには?”

バイブ・コーディングのための SHIELD Governance Framework:Palo Alto Networks が提供

Palo Alto Networks Introduces New Vibe Coding Security Governance Framework

2026/01/13 InfoSecurity — バイブ・コーディングとは、自然言語による AI プロンプトを介してコードを記述し、アプリケーションを開発する手法である。この手法の一般化により、すでに深刻なセキュリティ・インシデントが生じていると、Palo Alto Networks が警鐘を鳴らしている。その背景として挙げられるのは、一般ユーザーから経験が豊富な開発者に至るまで、この手法が幅広く採用されているという現実である。

Continue reading “バイブ・コーディングのための SHIELD Governance Framework:Palo Alto Networks が提供”

ServiceNow AI プラットフォームの脆弱性 CVE-2025-12420 が FIX:認証不要の権限昇格

ServiceNow Vulnerability Enables Privilege Escalation Without Authentication

2026/01/13 gbhackers — ServiceNow の AI プラットフォームで発見された、深刻な権限昇格の脆弱性 CVE-2025-12420 が、世界中の企業ユーザーに深刻なリスクをもたらしている。この脆弱性を悪用する未認証の攻撃者は、他のユーザーになりすますことでアカウントを侵害し、その権限を用いて不正な操作を実行できる。重要なビジネス・オペレーションに ServiceNow の AI 機能を利用している組織にとって、この脆弱性は深刻な脅威となる。

Continue reading “ServiceNow AI プラットフォームの脆弱性 CVE-2025-12420 が FIX:認証不要の権限昇格”

エンタープライズにおける GenAI:セキュリティ・リスクを可視化できているだろうか?

Generative AI in Enterprises: Security Risks Most Companies Are Not Measuring

2026/01/11 SecurityBoulevard — GenAI は、実験段階から企業環境全体への広範な導入段階へと急速に移行している。社内コパイロットやカスタマーサポート・チャットボットから、コード生成やデータ分析に至るまで、組織は重要なビジネス・ワークフローに LLM を組み込んでいる。生産性向上は比較的定量化しやすい。その一方で、導入に伴うセキュリティ・リスクの測定は遥かに困難である。現時点で GenAI を導入している多くの組織は、これらのテクノロジーから生じる新たな攻撃対象領域を、特定/評価/軽減するための体系的フレームワークを整備していない。その結果、セキュリティ・インシデントが発生するまで、深刻なリスクが顕在化しないというケースも少なくない。

Continue reading “エンタープライズにおける GenAI:セキュリティ・リスクを可視化できているだろうか?”

Fortinet VPN の偽サイトに要注意:AI 検索サマリーなどを介したフィッシング攻撃が横行

Fake Fortinet Sites Steal VPN Credentials in Sophisticated Phishing Attack

2026/01/09 CyberSecurityNews — Fortinet VPN の公式ダウンロード・ポータルを偽装し、リモートワーカーや IT 管理者を標的とする、巧妙なフィッシング攻撃キャンペーンが出現した。この攻撃の特徴は、検索エンジン最適化 (SEO:Search Engine Optimization) と、AI が生成した検索サマリーを悪用して被害者を誘導する点にあり、きわめて危険性が高い。この攻撃キャンペーンは、信頼できるドメインから始まる多段階のリダイレクト・メカニズムも採用しており、初期フェーズにおけるセキュリティ・フィルターを回避する。その結果として、VPN 認証情報の窃取とマルウェアの配布に至るという。

Continue reading “Fortinet VPN の偽サイトに要注意:AI 検索サマリーなどを介したフィッシング攻撃が横行”

ChatGPT の新たな脆弱性が FIX:Gmail/Outlook/GitHub などからのデータ窃取の恐れ

New ChatGPT Vulnerabilities Enable Data Exfiltration from Gmail, Outlook, and GitHub

2026/01/09 gbhackers — ChatGPT が、外部サービスや自身のメモリ・システムと連携する方法に、複数の深刻な脆弱性が存在することが新たな調査により明らかになった。これにより生じるのは、クロスプラットフォームでのデータ窃盗や長期的なアカウント侵害につながる、新たな攻撃経路である。これらの脆弱性は、侵害された1回のチャット・セッションが、メール/クラウド・ストレージ/コード・リポジトリや、他ユーザーへの侵入経路となり得ることを示している。

Continue reading “ChatGPT の新たな脆弱性が FIX:Gmail/Outlook/GitHub などからのデータ窃取の恐れ”

Gmail に搭載される AI 受信トレイ:Gemini によるメールの抽出や要約の機能とは?

Gmail’s new AI Inbox uses Gemini, but Google says it won’t train AI on user emails

2026/01/09 BleepingComputer — 1月8日 (木) に Google が発表したのは、すべてのメールを要約する “AI 受信トレイ” という新機能である。この機能を展開するにあたり、Google が約束しているのは、ユーザーのメール内容に基づいてモデルをトレーニングしないことである。Google が目指すのは Gmail の新たなステップであり、デフォルトの受信トレイ画面で主役となるのは Gemini であるという。Google によると、Gmail が登場した 2004 年以降においてメールは変化し続けており、ユーザーは毎週のように配信される何百通ものメールに圧倒されており、その量は増加し続けている。

Continue reading “Gmail に搭載される AI 受信トレイ:Gemini によるメールの抽出や要約の機能とは?”