Fortinet FortiGate を攻撃する CyberStrikeAI:AI ツールの活用と中国政府との関係は?

Hackers Leveraged CyberStrikeAI Tool to Breach Fortinet FortiGate Devices

2026/03/03 CyberSecurityNews — CyberStrikeAI と呼ばれる、新たな AI 型の攻撃ツールの存在が確認された。このツールは、Fortinet FortiGate アプライアンスを中心とするエッジ・デバイスを標的とする攻撃で、脅威アクターたちに積極的に使用されている。このオープンソース・プラットフォームは、中国拠点の個人により開発されており、国家支援型のオペレーションとの関連が疑われている。AI サイバー攻撃の兵器化における、重大なエスカレーションと位置付けられる。

Continue reading “Fortinet FortiGate を攻撃する CyberStrikeAI:AI ツールの活用と中国政府との関係は?”

イラン戦争における Anthropic と米軍:Claude で実施された作戦と OpenAI の動き

US Military Reportedly Used Claude in Iran Strikes Despite Trump’s Ban

2026/03/02 CyberSecurityNews — 米国国防総省は、2月28日に実施されたイスラエルとの共同攻勢 Operation Epic Fury において、Anthropic の Claude AI を使用した。トランプ大統領が、Anthropic を国家安全保障上のサプライチェーン・リスクに指定し、すべての連邦機関に対して同社の AI システムの使用停止を命じたわずか数時間後に、この作戦は実施された。

Continue reading “イラン戦争における Anthropic と米軍:Claude で実施された作戦と OpenAI の動き”

Langflow CSV Agent の脆弱性 CVE-2026-27966 が FIX:プロンプト・インジェクションによる RCE

Langflow CSV Agent Flaw Could Let Attackers Execute Arbitrary Code

2026/03/02 gbhackers — Large Language Models (LLM) を用いたアプリケーション構築に広く利用される、ローコードツールの Langflow に深刻な脆弱性 CVE-2026-27966 (CVSS:9.8) が発見された。 この脆弱性は CSV Agent ノードに存在する欠陥であり、影響を受けるサーバ上での不正なコード実行を、攻撃者に許す可能性がある。リモート・コード実行 (RCE) の脆弱性であり、バージョン 1.6.9 未満を使用している開発者/管理者に対して、早急な対応が求められている。

Continue reading “Langflow CSV Agent の脆弱性 CVE-2026-27966 が FIX:プロンプト・インジェクションによる RCE”

米政府が Anthropic AI を BAN:Claude への完全かつ無制限のアクセスを巡り決裂

Trump Bans Anthropic AI in Federal Agencies — Pentagon Flags Claude as Security Risk

2026/02/28 CyberSecurityNews — 米国政府は、すべての連邦政府機関に対して、Anthropic の AI モデル Claude の使用を直ちに停止させるという前例のない措置を講じた。さらに同社を、国家安全保障上のサプライチェーン・リスクであると正式に指定したが、歴史的に見て、このような措置は Huawei などの外国の敵対勢力に限定されてきた。

Continue reading “米政府が Anthropic AI を BAN:Claude への完全かつ無制限のアクセスを巡り決裂”

Google Cloud API Key の悪用:過剰な権限を巡る問題が Gemini により加速

Thousands of Public Google Cloud API Keys Exposed with Gemini Access After API Enablement

2026/02/28 TheHackerNews — Google Cloud API キーは、通常において課金用途のプロジェクト識別子として使用されるものであるが、新たな調査により、悪用される可能性があることが判明した。機密性の高い Gemini エンドポイントで認証した攻撃者が、非公開データへアクセスする恐れがある。この調査は、Truffle Security により実施されたものであり、クライアント側のコード内に埋め込まれた、約 3,000 件の Google API キー (接頭辞 AIza で識別) が発見された。同社は、Web サイト上の埋め込みマップなどの、Google 関連サービスを提供するために使用されていると述べている。

Continue reading “Google Cloud API Key の悪用:過剰な権限を巡る問題が Gemini により加速”

HackerOne の新サービス:AI エージェントを介してユーザー環境の脆弱性を検証

HackerOne Adds AI Agent to Validate Vulnerabilities

2026/02/26 SecurityBoulevard — HackerOne のプラットフォームに AI エージェントが追加され、特定の IT 環境内における脆弱性の有無を検証できるようになった。それにより、サイバーセキュリティ・チームおよびアプリケーション開発者は、潜在的な脅威の調査に費やす時間を削減できるようになる。HackerOne の Head of Product である Michiel Prins は、倫理的ハッカーとの契約プラットフォームに組み込まれている “Hai” agentic AI システムの拡張により、ユーザー組織における実際のリスクに基づく、修復対応の優先順位付けが容易になると述べている。

Continue reading “HackerOne の新サービス:AI エージェントを介してユーザー環境の脆弱性を検証”

ChatGPT で悪意のキャンペーンを管理:中国由来の脅威アクターを OpenAI が追跡

OpenAI Confirms Chinese Hackers Used ChatGPT in Cyberattack Campaign

2026/02/26 gbhackers — OpenAI の最新の脅威レポート “Disrupting malicious uses of AI” が明らかにしたのは、中国と関連するオペレーターの広範なキャンペーンの一環として ChatGPT が悪用されていたことである。このキャンペーンは、サイバー作戦/オンライン嫌がらせ/秘匿的影響工作を組み合わせたものである。ChatGPT のモデル自体が、エクスプロイト作成やネットワーク侵入に直接使用されたわけではない。しかし、オンライン上において、批判者/反体制派/外国の政治関係者を標的とするオペレーションの計画/拡散に、繰り返し悪用されていた。

Continue reading “ChatGPT で悪意のキャンペーンを管理:中国由来の脅威アクターを OpenAI が追跡”

Kali Linux と Claude AI が統合:MCP が刷新するセキュリティ・テストの実行モデル

Kali Linux Introduces Claude AI for Automated Penetration Testing Using Model Context Protocol

2026/02/26 gbhackers — 新たな Kali Linux 実行手法により、攻撃的セキュリティの運用が進化していく。 Kali と Anthropic の Claude AI を、Model Context Protocol (MCP) 経由で統合することで、セキュリティ・アナリストは自然言語のみを用いたペンテスト・ツールの実行が可能になる。これにより、従来のターミナルによるコマンドライン実行を中心とする運用から、AI 支援型の LUI (Language User Interface) への移行が進んでいる。 コマンドライン実行は依然として標準であるが、この統合により、複雑なセキュリティ・ツールセットを扱うアナリストへの効率的な代替手段が提供される。 

Continue reading “Kali Linux と Claude AI が統合:MCP が刷新するセキュリティ・テストの実行モデル”

Claude の悪用によりメキシコ政府機関から 150GB を窃取:2025年12月に始まった AI 悪用インシデント

Hacker Jailbreaks Claude AI to Write Exploit Code and Steal Government Data

2026/02/26 CyberSecurityNews — Anthropic の Claude AI チャットボットを悪用するハッカーが、メキシコの政府機関の機密データを、2025年12月から約 1 ヶ月以上にわたり窃取していたことが判明した。このキャンペーンで実行された手法は、脆弱性特定/エクスプロイト・コード生成/データ流出である。持続的なプロンプティングにより、Claude のセキュリティ・ガードレールを回避した手法が、この侵害を発見したサイバーセキュリティ企業 Gambit Security により明らかにされた。

Continue reading “Claude の悪用によりメキシコ政府機関から 150GB を窃取:2025年12月に始まった AI 悪用インシデント”

Claude Code における複数の脆弱性:API キー漏えいと RCE の可能性

Claude Code Flaws Allow Remote Code Execution and API Key Exfiltration

2026/02/25 TheHackerNews — AI 搭載コーディング支援ツール Anthropic Claude Code に、複数のセキュリティ脆弱性が存在することを、サイバー・セキュリティ研究者たちが明らかにした。これらの脆弱性により、リモート・コード実行および API 認証情報の窃取が発生する可能性がある。一連の脆弱性により、フック/Model Context Protocol (MCP) サーバ/環境変数などの、複数のコンフィグ機能の悪用が可能となると、Check Point Research のレポートは指摘している。ユーザーが未信頼のリポジトリをクローンして開くだけで、任意のシェル・コマンド実行および Anthropic API キーの漏洩が発生する。

Continue reading “Claude Code における複数の脆弱性:API キー漏えいと RCE の可能性”

AI がもたらす速度と代償:導入後のインシデント対応とコスト増について – Fastry

Survey Surfaces Increased Cybersecurity Risks Following AI Adoption

2026/02/25 SecurityBoulevard — 新たに公表された Fastly の The AI Speed Tax レポートは、2,000 名の IT 意思決定者を対象とする調査結果であり、AI アプリケーションの導入拡大に伴うサイバー・セキュリティ・リスクの上昇を示している。Fastly の委託により Sapio Research が実施した調査によると、AI を中核プロセスへ統合した組織で発生したセキュリティ・インシデントは、未導入組織と比較して 135% 増という高いコストを抱える。

Continue reading “AI がもたらす速度と代償:導入後のインシデント対応とコスト増について – Fastry”

Anthropic に Elon Musk が噛みつく:データ盗用と著作権侵害と偽善的な態度

Anthropic Facing Allegations from Musk Over Large‑Scale Data Misuse

2026/02/24 gbhackers — Elon Musk が Anthropic を公然と非難している。大規模なデータ盗用および偽善を行っていると、彼は主張する。先日に Anthropic が、中国系の AI モデルが同社の Claude から不正に学習データを抽出したと主張したが、Elon Musk の批判は、それに続くものである。

Continue reading “Anthropic に Elon Musk が噛みつく:データ盗用と著作権侵害と偽善的な態度”

OpenClaw 2026.2.23 がリリース:Strict-Transport-Security/Claude Opus 4.6 に対応

OpenClaw Releases 2026.2.23 Released With Security Updates and New AI features

2026/02/24 CyberSecurityNews — GitHub で 215,000 件超のスターを獲得している、オープンソース・パーソナル AI アシスタントの OpenClaw が、バージョン 2026.2.23 をリリースした。今回の更新では、高度な AI 統合に加えて、セキュリティ強化が重点的に実施されている。このアップデートでは、複数の脆弱性が対処されると同時に、Claude Opus 4.6 のサポートなどの新機能が導入された。macOS/Windows/Linux 環境でローカル AI ゲートウェイを展開する、プライバシー重視ユーザーにとって、タイムリーな強化である。

Continue reading “OpenClaw 2026.2.23 がリリース:Strict-Transport-Security/Claude Opus 4.6 に対応”

Anthropic Claude を狙う協調的キャンペーン:1,600 万回超のインタラクションを発生させた中国 AI

Anthropic Claude Under Large Scale Distillation Attacks By Chinese AI Labs with 13 Million Exchanges

2026/02/23 CyberSecurityNews — Anthropic が主張するのは、DeepSeek/Moonshot AI/MiniMax の 3 社が、同社 Claude モデルから高度な能力を窃取するために、協調的な蒸留 (Distillation) キャンペーンを実行したという件である。サンフランシスコ拠点の同社によると、このオペレーションは約 24,000 件の不正アカウントを介して実行され、Claude との 1,600 万回超のインタラクションを発生させた。これは利用規約 (ToS:Terms of Service) に違反し、リージョナル・アクセス制限を回避する行為である。

Continue reading “Anthropic Claude を狙う協調的キャンペーン:1,600 万回超のインタラクションを発生させた中国 AI”

Google Antigravity AI が OpenClaw ユーザーを排除:OAuth プラグインと異常トラフィック

Google Suspends OpenClaw Users from Antigravity AI After OAuth Token Abuse

2026/02/23 CyberSecurityNews — Google はオープンソース・ツール OpenClaw のユーザーに対して、同社の Antigravity AI プラットフォームへのアクセスを停止した。この措置に対して、利用規約 (ToS:Terms of Service) の強硬な適用だとする反発が高まっている。対象となったのは、OpenClaw の OAuth プラグインを利用して、補助付きの (subsidized) Gemini モデル・トークンへアクセスしていた開発者たちである。それにより、バックエンドの負荷急増とサービス劣化が引き起こされていた。

Continue reading “Google Antigravity AI が OpenClaw ユーザーを排除:OAuth プラグインと異常トラフィック”

SuperClaw は Red-Team フレームワーク:自律型 AI コーディング・エージェントに特化

SuperClaw – Open-Source Framework to Red-Team AI Agents for Security Testing

2026/02/21 CyberSecurityNews — Superagentic AI が公開したのは、自律型 AI コーディング・エージェント向けに特化した、オープンソースの事前デプロイ・セキュリティテスト・フレームワーク SuperClaw である。2025 年後半に発表された SuperClaw は、エンタープライズ AI 導入に伴い拡大していく盲点へ対応するものだ。広範なツールへの高権限のアクセスを持つ AI エージェントが、日常的にデプロイされているにもかかわらず、数多くの組織において、本番稼働前の体系的セキュリティ検証が省略されている。

Continue reading “SuperClaw は Red-Team フレームワーク:自律型 AI コーディング・エージェントに特化”

FortiGate のデバイス 600+ 台を侵害:AI による攻撃チェーンが生み出す量の世界

Hackers Leveraging Multiple AI Services to Compromise 600+ FortiGate Devices

2026/02/21 CyberSecurityNews — 2026年01月11日から02月18日にかけて、金銭目的の脅威アクターが複数の商用 GenAI サービスを武器化し、55 カ国以上に分散する 600 台以上の FortiGate デバイスを侵害した。このキャンペーンが示すのは、攻撃的サイバー作戦における技術的な参入障壁が、AI により大幅に低減されているという、決定的な事例である。従来は、大規模かつ高技能なチームを必要としていた規模の攻撃を、低〜中程度の技能を持つ、個人または小規模グループが実行できることが明らかになった。

Continue reading “FortiGate のデバイス 600+ 台を侵害:AI による攻撃チェーンが生み出す量の世界”

Anthropic が Claude Code Security を立ち上げ:AI 駆動のコード・スキャンを提供

Anthropic Launches Claude Code Security to Scan Codebases for Security Vulnerabilities

2026/02/21 CyberSecurityNews — Claude Code 内の新機能である、Claude Code Security を活用する開発者やセキュリティ・チームは、コードベース全体の脆弱性の特定と修復が可能となる。限定的なリサーチ・プレビューとして提供されている Claude Code Security は、AI 駆動のコード・スキャンを提供するものだ。静的な解析は、コードとして記述された内容のみを確認するものである。それに対して、この機能はコードの実際の動作を理解するため、脆弱性に対する新たな分析が提供される。

Continue reading “Anthropic が Claude Code Security を立ち上げ:AI 駆動のコード・スキャンを提供”

GenAI がもたらす生産性と情報漏洩:エンタープライズ・セキュリティの転換期になるのか?

GenAI Has Become the Biggest Data-Exposure Risk in Enterprise History

2026/02/20 InfoSecurity — さまざまな組織の多数の従業員たちが、単なる回答を得るだけではなく、文書の要約/コンテンツ作成/データセット分析/コード作成などにおいて、GenAI による支援を受けている。それらは、有用なアシスタントであり、日常業務に組み込まれている。しかし、いま明らかになってきたのは、この変化がもたらすセキュリティへの影響である。GenAI の利用が加速するにつれて、それらを通過する機密情報の量も増大している。その結果、GenAI 関連のデータ露出インシデントは、前年同期と比べて約 5 倍に増加し、これまでの組織が直面したことのない規模と速度の情報漏洩を生み出している。

Continue reading “GenAI がもたらす生産性と情報漏洩:エンタープライズ・セキュリティの転換期になるのか?”

Abstract Security が立ち上げた AI SIEM:AI による攻撃に AI で対抗する

Abstract Security Launches AI SIEM Platform to Analyze Threats In Real Time

2026/02/19 SecurityBoulevard — 2月19日に Abstract Security は、AI を活用することで、ほぼリアルタイムに脅威を可視化するモジュール型の Security Information and Event Management (SIEM) プラットフォームを、製品ポートフォリオへ追加した。同社 CEO である Colby DeRodeff によると、AI-Gen Composable SIEM を活用するサイバー・セキュリティ・チームは、AI プラットフォームへ向けて、収集されたデータを継続的にストリーミングできるようになる。このプラットフォームは、エージェントをネイティブに活用し、脅威の検知/トリアージ/調査/対応を実行するようデザインされている。

Continue reading “Abstract Security が立ち上げた AI SIEM:AI による攻撃に AI で対抗する”

OpenClaw の 6 件の脆弱性が FIX:SSRF/認証不備/パス・トラバーサル

Researchers Reveal Six New OpenClaw Vulnerabilities

2026/02/19 InfoSecurity — OpenClaw が公表したのは、人気の AI アシスタントに存在する 6 件の新たな脆弱性の修正である。それらには、Server-Side Request Forgery (SSRF)/認証不備/パス・トラバーサルなどの不具合が含まれると、Endor Labs は述べている。これらの脆弱性の一部には CVE ID が付与されていないが、深刻度は Moderate から High に及ぶという。この発表は、2月18日に公開されたブログ投稿で行われた。

Continue reading “OpenClaw の 6 件の脆弱性が FIX:SSRF/認証不備/パス・トラバーサル”

MCP Server のセキュリティを考える:相反する高次元の能力と信頼境界への侵食

Critical MCP Server Enables Arbitrary Code Execution and Sensitive Data Exfiltration

2026/02/19 gbhackers — MCP サーバは、AI アシスタントを強力な攻撃基盤へと、静かに変質させるものでもある。それにより、任意のコード実行/大規模なデータ流出や、ローカル/クラウド環境における巧妙なユーザー操作が可能になってしまう。新たな研究の結果だけではなく、最近の実際のインシデントにおいても、この新たなエコシステムの悪用が示されている。典型的なインシデントとしては、週に数千件の機密メールを密かに収集していた、悪意の Postmark MCP サーバが挙げられる。

Continue reading “MCP Server のセキュリティを考える:相反する高次元の能力と信頼境界への侵食”

OpenClaw AI フレームワーク v2026.2.17 がリリース:Anthropic モデルをサポート

OpenClaw AI Framework v2026.2.17 Adds Anthropic Model Support Amid Credential Theft Bug Concerns

2026/02/18 gbhackers — 2026年初頭に広く採用され始めた OpenClaw は、オープンソースの自律型 AI アシスタントである。そのプロジェクトが、2026年02月17日にバージョン v2026.2.17 を公開した。今回のリリースでは、Anthropic の最新モデル Claude Sonnet 4.6 のサポートが追加された。OpenClaw コンフィグ・ファイルを標的とするインフォスティーラーが、クレデンシャル窃取を行っていることが研究者により確認され、セキュリティ懸念が高まる中で、今回の新バージョンがリリースされた。

Continue reading “OpenClaw AI フレームワーク v2026.2.17 がリリース:Anthropic モデルをサポート”

AI セキュリティの問題:最小権限の ID 原則を導入すればリスクが激減する?

Over-Privileged AI Drives 4.5 Times Higher Incident Rates

2026/02/17 InfoSecurity — 最新レポート “2026 State of AI in Enterprise Infrastructure Security” を作成するにあたり Teleport が実施したのは、米国のインフラ・セキュリティ責任者 200人以上を対象にした調査である。このレポートにおける “インフラに内在する AI” の定義には、AI 搭載ワークロード/エージェント型システム/マシン-to-マシン通信/ChatOps/コンプライアンス自動化/インシデント検知などが含まれる。

Continue reading “AI セキュリティの問題:最小権限の ID 原則を導入すればリスクが激減する?”

Microsoft Teams における AI ワークフローの活用:Microsoft 365 Copilot でタスクを自動化

Microsoft Teams Leverages AI Workflows with Microsoft 365 Copilot for Task Automation

2026/02/17 gbhackers — Microsoft が公表したのは、Teams Workflows アプリに AI Workflows を導入し、Microsoft 365 Copilot により自動化された、インテリジェント機能に関する提供の開始である。これにより、日常業務の効率化および複雑なタスクの自動化が可能となる。この機能は、あらかじめ定義されたテンプレートを通じて、スケジュールされた Copilot プロンプトを使用し、ユーザーによる自動化環境の容易な構築をサポートする。

Continue reading “Microsoft Teams における AI ワークフローの活用:Microsoft 365 Copilot でタスクを自動化”

OpenClaw の盗まれたコンフィグ・ファイルを取得:機密データの悪用と拡大する攻撃

Threat Actors Attacking OpenClaw Configurations to Steal Login Credentials

2026/02/17 CyberSecurityNews — パーソナル AI アシスタントの世界を標的とするサイバー犯罪者たちは、新たな攻撃対象領域を見出した。最近の調査により明らかになったのは、OpenClaw のコンフィグ・ファイルを標的にする脅威アクターが、機微な認証情報や個人データを窃取していることだ。それが示すのは、マルウェアの挙動における大幅な進化である。従来のブラウザ・ベースの認証情報窃取から、AI エージェントのアイデンティティと関連するデジタル・コンテキストの収集へと、彼らの狙いは移行している。

Continue reading “OpenClaw の盗まれたコンフィグ・ファイルを取得:機密データの悪用と拡大する攻撃”

ClawBands という GitHub プロジェクト:OpenClaw に “human-in-the-loop” 制御を取り込む

ClawBands GitHub Project Looks to Put Human Controls on OpenClaw AI Agents

2026/02/16 SecurityBoulevard — あるソフトウェア・エンジニアが GitHub 上で公開したのは、人気を博しながら物議を醸し出している OpenClaw AI パーソナル・アシスタントに対して、人間による統制を確保するための軽量プラグインである。開発者 Sandro Munda が提供する ClawBands は、OpenClaw AI エージェント向けのセキュリティ・ミドルウェアであると説明されている。このプラグインは、AI パーソナル・アシスタントにフックし、ファイル書き込み/シェルコマンド/ネットワーク・リクエストなどに関連する、すべてのツールの実行をインターセプトする。それにより、いかなる操作においても、事前の “human-in-the-loop” 承認を確実に行わせるものである。

Continue reading “ClawBands という GitHub プロジェクト:OpenClaw に “human-in-the-loop” 制御を取り込む”

Check Point の新たなセキュリティ戦略:AI 時代のエンタープライズ保護に必要なものは?

Check Point Unveils a New Security Strategy for Enterprises in the AI Age

2026/02/13 SecurityBoulevard — サイバー・セキュリティの中心的テーマである、現在進行形の AI 軍拡において、防御側と攻撃側の双方が優位性の確保を競い合っている。それは、従来のイタチごっこ型のセキュリティ構図の延長であるが、速度が大幅に加速し、きわめて大きな利害を伴うものである。2025年8月に CrowdStrike は、「AI の戦場は既に到来している。AI を武器化する敵対者は、前例のない規模/速度/効果で攻撃を実行している。その一方で防御側は、アナリストたちのパワーを高めるために AI を活用し、反復作業のオフロード/意思決定の高速化/SOC (Security Operations Center) 全体での専門知識の拡張を実現している」と述べている。

Continue reading “Check Point の新たなセキュリティ戦略:AI 時代のエンタープライズ保護に必要なものは?”

Unstructured.io の脆弱性 CVE-2025-64712:AI 対応のパイプラインに RCE の可能性

CVE-2025-64712 in Unstructured.io Puts Amazon, Google, and Tech Giants at Risk of Remote Code Execution

2026/02/13 gbhackers — Unstructured.io の “unstructured” ETL ライブラリに存在する、深刻な脆弱性 CVE-2025-64712 (CVSS 9.8) が新たに公開された。この脆弱性を悪用する攻撃者は、信頼できないドキュメントを処理するシステム上で任意のファイル書き込みを実行し、その結果としてリモート・コード実行 (RCE) を引き起こす可能性がある。

Continue reading “Unstructured.io の脆弱性 CVE-2025-64712:AI 対応のパイプラインに RCE の可能性”

ChatGPT/Claude を装う悪意の Chrome AI エクステンション:26 万人に影響を及ぼす大規模監視キャンペーンを検出

Malicious Chrome AI Extensions Attacking 260,000 Users via Injected IFrames

2026/02/13 CyberSecurityNews — ChatGPT/Claude/Gemini/Grok などの人気 AI ツールを装う悪意の Chrome エクステンションが、組織的な協調キャンペーンを介して配布されている。これらの偽 “AI アシスタント” は、有用なブラウザ・エクステンションを装いながら、リモートからの操作が可能な iframe を注入してユーザーを監視する悪意のツールである。これらのエクステンションは、26 万人以上のユーザーにインストールされている。

Continue reading “ChatGPT/Claude を装う悪意の Chrome AI エクステンション:26 万人に影響を及ぼす大規模監視キャンペーンを検出”

OpenClaw 2026.2.12 がリリース:40 件強の脆弱性への対応とセキュリティ対策の見直し

OpenClaw 2026.2.12 Released to Patch Over 40 Security Vulnerabilities

2026/02/13 gbhackers — OpenClaw チームが公表したのは、セキュリティ強化とアーキテクチャ安定性に重点を置いた、包括的アップデート・バージョンである 2026.2.12 の正式なリリースに関する情報である。このリリースでは、40 件超のセキュリティ脆弱性および安定性問題を修正しており、この AI エージェント・フレームワークにおける重要なマイルストーンとなった。

Continue reading “OpenClaw 2026.2.12 がリリース:40 件強の脆弱性への対応とセキュリティ対策の見直し”

Google が警告する Gemini の悪用:段階マルウェア用の C# コードを動的に生成する脅威アクターとは?

Google Warns of Hackers Leveraging Gemini AI for All Stages of Cyberattacks

2026/02/12 CyberSecurityNews — 従来の検出手法を回避する脅威アクターたちは、Google の Gemini API を悪用することで、多段階マルウェア用の C# コードを動的に生成し始めている。Google Threat Intelligence Group (GTIG) は、2025年9月に観測された HONESTCUE フレームワークに焦点を当てた調査を実施し、その結果を 2026年2月の AI Threat Tracker レポートに詳述している。

Continue reading “Google が警告する Gemini の悪用:段階マルウェア用の C# コードを動的に生成する脅威アクターとは?”

“AI Skills” が作り出す新たな攻撃領域:データと命令が混在するアーティファクトとは?

AI Skills Represent Dangerous New Attack Surface, Says TrendAI

2026/02/12 InfoSecurity — いわゆる “AI skills” は、AI 運用を拡張するために用いられるものであるが、データ窃取/妨害/サービス停止に対して、きわめて危険なレベルの脆弱さを露出させていると、TrendAI は警告している。Trend Micro の新たなビジネス・ユニットである TrendAI は、”AI skills” は人間にとって可読性のあるテキストと、LLM にとって読み取りと実行が可能な命令を組み合わせたアーティファクトであると、今週公開したレポートで説明している。

Continue reading ““AI Skills” が作り出す新たな攻撃領域:データと命令が混在するアーティファクトとは?”

LLM で React2Shell マルウェアを生成:最新サンプルが示す高度なテクノロジーとは?

Hackers Use LLM to Create React2Shell Malware, the Latest Example of AI-Generated Threat

2026/02/11 SecurityBoulevard — Darktrace の CloudyPots ハニーポット・ネットワークで、先日に捕捉されたマルウェアサンプルは、完全に AI により生成されたものである。2ヶ月前に公開され、現在も脅威であり続ける React2Shell 脆弱性を悪用するために、このマルウェアは構築されている。システムへの初期侵入を達成したマルウェアは、その後に暗号通貨マイニングを実行する。この名称が与えられていないマルウェアは、Large Language Model (LLM) などの AI ツールを用いて、その大部分を作成するという。

Continue reading “LLM で React2Shell マルウェアを生成:最新サンプルが示す高度なテクノロジーとは?”

Chat & Ask AI に深刻なデータ漏洩:2500 万人のユーザーと 3 億件のメッセージに影響

25 Million Users Affected as AI Chat Platform Leaks 300 Million Messages

2026/02/10 gbhackers — “Chat & Ask AI” に深刻なデータ露出の脆弱性が発生した。約 3 億件のプライベート・メッセージが、外部からアクセス可能な状態になっていることが、独立系セキュリティ研究者により報告された。このモバイル・アプリは、Google Play/Apple App Store で提供され、人気を博している。この侵害により、2,500 万人以上のユーザーに影響が生じており、急成長する AI アプリ市場におけるプライバシー/データの取り扱いに関する、深刻な懸念を引き起こしている。

Continue reading “Chat & Ask AI に深刻なデータ漏洩:2500 万人のユーザーと 3 億件のメッセージに影響”

VoidLink マルウェア:高度なモジュール型設計と AI 支援開発を示唆する痕跡

VoidLink Malware Exhibits Multi-Cloud Capabilities and AI Code

2026/02/10 InfoSecurity — Linux ベースの Command and Control (C2) フレームワークであり、クラウドおよびエンタープライズ環境全体で、長期にわたる侵入を可能にするマルウェアについて、新たな調査結果が公開された。VoidLink として知られるマルウェアは、認証情報の窃取/データの外部送信に加えて、侵害済みシステム上での秘匿的な永続化を目的とするインプラント・バイナリを生成する。

Continue reading “VoidLink マルウェア:高度なモジュール型設計と AI 支援開発を示唆する痕跡”

AI アシスタント OpenClaw の広範なミスコンフィグ:OpenClaw インスタンス 40,000+ が露出

Researchers Find 40,000+ Exposed OpenClaw Instances

2026/02/09 InfoSecurity — 人気の AI アシスタント OpenClaw における広範なミスコンフィグにより、多数のインスタンスがパブリック・インターネット上に露出していると、SecurityScorecard が警告を発している。同社によると、旧称 Clawdbot/Moltbot として知られるツールの、露出しているインスタンス数は 40,214 件に達しており、現在も増加しているという。これらは 28,663 のユニークな IP アドレスに関連付けられている。

Continue reading “AI アシスタント OpenClaw の広範なミスコンフィグ:OpenClaw インスタンス 40,000+ が露出”

ClawHub に 341 件の悪意の “skill”:OpenClaw を介したサプライチェーン攻撃を検出

OpenClaw Becomes New Target in Rising Wave of Supply Chain Poisoning Attacks

2026/02/09 CyberSecurityNews — AI エージェント・プラットフォーム OpenClaw の、ClawHub プラグイン・マーケットプレイスが悪意の “skill” により汚染され、深刻なサプライチェーン・リスクに直面している。この急速に成長しているオープンソース・エコシステムにおいて、Atomic Stealer などのインフォスティーラーを展開する侵害済みエクステンションが数百件規模で存在することを、セキュリティ企業 SlowMist と Koi Security が明らかにした。

Continue reading “ClawHub に 341 件の悪意の “skill”:OpenClaw を介したサプライチェーン攻撃を検出”

LocalGPT という選択肢:ローカル・ファーストと Rust で AI アシスタントを完結

LocalGPT – A Secure Local Device Focused AI Assistant Built in Rust

2026/02/08 CyberSecurityNews — AI アシスタントである ChatGPT や Claude が、クラウド基盤を席巻する時代になった。それにより、ユーザー・データがリモート侵害にさらされるが、LocalGPT と呼ばれる新しい Rust ベースのツールが堅牢な代替案を提示している。約 27MB の単一バイナリとして開発された LocalGPT は、完全にローカル・デバイス上で動作し、機密のメモリとタスクをクラウド以外に保持する。

Continue reading “LocalGPT という選択肢:ローカル・ファーストと Rust で AI アシスタントを完結”

Firefox が導入するプライバシー強化策:カスタマイズ可能な AI Kill Switch とは?

Firefox Will Give Users an AI Kill Switch for Better Privacy

2026/02/07 hackread — ほぼすべての、私たちが訪れる Web サイトに AI が組み込まれつつあるが、この変化を歓迎しないユーザーも少なくない。身近にあるデジタル・アシスタントを便利だと感じる一方で、データ共有への懸念を抱くユーザーや、絶え間ないポップアップに疲弊するユーザーもいる。Mozilla は、こうした傾向に注目し、ユーザー主導の環境を取り戻すことを目的とする大規模なアップデートを発表した。

Continue reading “Firefox が導入するプライバシー強化策:カスタマイズ可能な AI Kill Switch とは?”

OpenClaw と VirusTotal が提携:”skill” に対する自動スキャンで AI エージェントを保護

OpenClaw Partners with VirusTotal to Secure AI Agent Skill Marketplace

2026/02/07 CyberSecurityNews — 2月7日に OpenClaw は、Google 傘下の VirusTotal との提携を発表し、AI エージェント・マーケットプレイスである ClawHub に公開されるすべての “skill” に対して、自動セキュリティ・スキャンを実装することを明らかにした。この統合は、新興の AI エージェント・エコシステムにおける、初の包括的なセキュリティ施策となる。

Continue reading “OpenClaw と VirusTotal が提携:”skill” に対する自動スキャンで AI エージェントを保護”

Claude Opus 4.6:サイバー・セキュリティ能力を強化して 500 件以上の高深刻度の脆弱性を特定

Claude Opus 4.6 Released with Improved Cybersecurity, Validating 500+ high-severity Vulnerabilities

2026/02/07 CyberSecurityNews — Anthropic の最新 AI モデルが、数十年にわたりコードベースに残存してきた深刻な欠陥を自律的に特定した。それにより、サイバー空間全体のリスクが増大し、防御側/攻撃側の双方で緊張感が高まっている。2026年2月5日に Anthropic は、サイバー・セキュリティ能力を大幅に強化する Claude の最新バージョンを公開した。この Claude Opus 4.6 が、オープンソース・ソフトウェアにおいて、これまで未知であった高深刻度の脆弱性を 500 件以上も特定した。

Continue reading “Claude Opus 4.6:サイバー・セキュリティ能力を強化して 500 件以上の高深刻度の脆弱性を特定”

OpenClaw v2026.2.6 がリリース:安全性スキャナーと Opus 4.6/GPT-5.3-Codex のサポートを追加

OpenClaw v2026.2.6 Released With Support for Opus 4.6, GPT-5.3-Codex and Safety Scanner

2026/02/07 CyberSecurityNews — OpenClaw がリリースした v2026.2.6 は、エコシステム内で高まる悪意の “skill” に対する懸念を払拭してセキュリティを強化するためのものだ。このリリースで追加されたのは、コードの安全性スキャナーおよび、モデルのサポートであり、研究者により指摘された最近の脆弱性にも対応している。OpenClaw は、メール管理や暗号資産取引などのタスクを、WhatsApp/Telegram 経由などで管理する、ローカル AI エージェント向けのオープンソース・フレームワークである。このバージョン 2026.2.6 は、2026年2月7日に公開された。

Continue reading “OpenClaw v2026.2.6 がリリース:安全性スキャナーと Opus 4.6/GPT-5.3-Codex のサポートを追加”

OpenClaw 上の 3rd-Party “skill” の 17% は悪意:暗号通貨や SNS を標的に機密データを収集

17% of 3rd-Party Add-Ons for OpenClaw Used in Crypto Theft and macOS Malware

2026/02/06 hackread — 新たなオープンソース AI プロジェクトである OpenClaw が、GitHub で 16万以上のスターを獲得し、開発者コミュニティを席巻している。OpenClaw は AI ツール・ボックスであり、複数のアプリケーションにまたがってアカウント管理やタスク実行を行える。しかし、周知のとおり、大きな注目が集まる場所には、詐欺師も必ず近づいてくる。このエコシステムを調査した Bitdefender Labs の研究者たちにより、看過できない問題が明らかになった

Continue reading “OpenClaw 上の 3rd-Party “skill” の 17% は悪意:暗号通貨や SNS を標的に機密データを収集”

AI により 10 分以内で AWS 管理者アクセスを奪取:クラウド攻撃の時間を短縮する脅威アクター

Hackers Using AI to Get AWS Admin Access Within 10 Minutes

2026/02/04 CyberSecurityNews — 人工知能ツールを活用する脅威アクターたちが、クラウド攻撃のライフサイクルを数時間から数分へと短縮していると、Sysdig Threat Research Team (TRT) の調査結果が明らかにしている。2025年11月のインシデントにおける攻撃者は、Large Language Model (LLM) を用いて偵察の自動化/悪意のコード生成/リアルタイムな攻撃判断を実行し、初期の認証情報窃取から完全な管理者権限取得までを 10 分未満で完了している。この Amazon Web Services (AWS) 環境への攻撃が示すのは、クラウドへの攻撃の速度と高度化が、AI 支援により根本的に変革されたことだ。

Continue reading “AI により 10 分以内で AWS 管理者アクセスを奪取:クラウド攻撃の時間を短縮する脅威アクター”

AI エージェント時代の盲点:不可視のリスクと企業セキュリティ

The ‘Invisible Risk’: 1.5 Million Unmonitored AI Agents Threaten Corporate Security

2026/02/03 SecurityBoulevard — 自律型デジタル・ワーカーで構成される巨大かつ不可視の労働力が、ビジネス界に到来しているが、新たな調査によると、その多くが制御不能な状態で稼働している可能性があるという。オープンソースの API/エージェント管理分野をリードする Gravitee が公開した調査結果によると、米国/英国の大企業では、すでに 300 万を超える AI エージェントが導入されている。しかし、そのほぼ半数にあたる約 150 万は、現在も能動的な監視やセキュリティ・プロトコルなしに稼働している。

Continue reading “AI エージェント時代の盲点:不可視のリスクと企業セキュリティ”

AI Agent の ID マネージメント:既存の ID モデルが適合しない理由を説明しよう

AI Agent Identity Management: A New Security Control Plane for CISOs

2026/02/03 BleepingComputer — 長年にわたりセキュリティ・リーダーたちは、サービス・アカウントと従業員に対するアイデンティティ (ID) 制御を強化してきた。しかし、そのモデルが限界を露呈し始めている。企業環境の全体において、新たな ID のクラスが急速に拡散している。それが自律型 AI エージェントである。Custom GPT/Copilot/MCP サーバを実行するコーディング・エージェントや、用途ごとに特化された AI エージェントは、もはや実験の用途に留まらない。本番環境で稼働し、拡張され、機微なシステムやインフラと連携し、他のエージェントを呼び出し、判断や変更を行っているが、そこでは人間による直接的な監督が欠落している。

Continue reading “AI Agent の ID マネージメント:既存の ID モデルが適合しない理由を説明しよう”

ClawdBot の認証バイパスの脆弱性 CVE-N/A が FIX:1-Click で RCE を発動

1-Click Flaw in ClawdBot Allows Remote Code Execution

2026/02/02 gbhackers — 人気の npm パッケージ ClawdBot に存在する、深刻な認証バイパス脆弱性が発見された。この脆弱性を悪用する攻撃者は、単一の悪意のリンクを介してリモートコード実行 (RCE) が可能となる。この欠陥は、gatewayUrl パラメータの検証不備に起因し、未認可の脅威アクターに認証トークンを漏洩させる、自動接続挙動により影響が増幅される。

Continue reading “ClawdBot の認証バイパスの脆弱性 CVE-N/A が FIX:1-Click で RCE を発動”

Moltbook AI に深刻な脆弱性:メールアドレス/ログイントークン/API キーなどの情報が露出

Moltbook AI Vulnerability Exposes Email Addresses, Login Tokens, and API Keys

2026/02/01 CyberSecurityNews — 2026年1月下旬に Octane AI の Matt Schlicht が立ち上げたばかりの、AI エージェント向けソーシャル・ネットワーク Moltbook の深刻な脆弱性により、登録されたエージェントにひも付くメールアドレス/ログイントークン/API キーが露出していることが判明した。”約 150 万人のユーザー” を抱えると、過熱気味に喧伝されるさなかでの事態である。

Continue reading “Moltbook AI に深刻な脆弱性:メールアドレス/ログイントークン/API キーなどの情報が露出”

BlackIce は AI ペンテスト環境:14 種類の AI セキュリティ・ツールを Docker コンテナで提供

BlackIce Introduced as Container-Based Red Teaming Toolkit for AI Security Testing

2026/01/29 gbhackers — CAMLIS Red 2025 で Databricks が発表した BlackIce は、14 個の広く利用されている AI セキュリティ・ツールを単一の環境に統合するために、オープンソース・ツールキットをコンテナ化したものだ。従来の AI レッドチームにおいてセキュリティ・テストのワークフローを阻害してきた、複雑なセットアップ手順や依存関係の競合といった重大な課題が、このイノベーションにより解消する。

Continue reading “BlackIce は AI ペンテスト環境:14 種類の AI セキュリティ・ツールを Docker コンテナで提供”