LocalGPT という選択肢:ローカル・ファーストと Rust で AI アシスタントを完結

LocalGPT – A Secure Local Device Focused AI Assistant Built in Rust

2026/02/08 CyberSecurityNews — AI アシスタントである ChatGPT や Claude が、クラウド基盤を席巻する時代になった。それにより、ユーザー・データがリモート侵害にさらされるが、LocalGPT と呼ばれる新しい Rust ベースのツールが堅牢な代替案を提示している。約 27MB の単一バイナリとして開発された LocalGPT は、完全にローカル・デバイス上で動作し、機密のメモリとタスクをクラウド以外に保持する。

Continue reading “LocalGPT という選択肢:ローカル・ファーストと Rust で AI アシスタントを完結”

Firefox が導入するプライバシー強化策:カスタマイズ可能な AI Kill Switch とは?

Firefox Will Give Users an AI Kill Switch for Better Privacy

2026/02/07 hackread — ほぼすべての、私たちが訪れる Web サイトに AI が組み込まれつつあるが、この変化を歓迎しないユーザーも少なくない。身近にあるデジタル・アシスタントを便利だと感じる一方で、データ共有への懸念を抱くユーザーや、絶え間ないポップアップに疲弊するユーザーもいる。Mozilla は、こうした傾向に注目し、ユーザー主導の環境を取り戻すことを目的とする大規模なアップデートを発表した。

Continue reading “Firefox が導入するプライバシー強化策:カスタマイズ可能な AI Kill Switch とは?”

OpenClaw と VirusTotal が提携:”skill” に対する自動スキャンで AI エージェントを保護

OpenClaw Partners with VirusTotal to Secure AI Agent Skill Marketplace

2026/02/07 CyberSecurityNews — 2月7日に OpenClaw は、Google 傘下の VirusTotal との提携を発表し、AI エージェント・マーケットプレイスである ClawHub に公開されるすべての “skill” に対して、自動セキュリティ・スキャンを実装することを明らかにした。この統合は、新興の AI エージェント・エコシステムにおける、初の包括的なセキュリティ施策となる。

Continue reading “OpenClaw と VirusTotal が提携:”skill” に対する自動スキャンで AI エージェントを保護”

Claude Opus 4.6:サイバー・セキュリティ能力を強化して 500 件以上の高深刻度の脆弱性を特定

Claude Opus 4.6 Released with Improved Cybersecurity, Validating 500+ high-severity Vulnerabilities

2026/02/07 CyberSecurityNews — Anthropic の最新 AI モデルが、数十年にわたりコードベースに残存してきた深刻な欠陥を自律的に特定した。それにより、サイバー空間全体のリスクが増大し、防御側/攻撃側の双方で緊張感が高まっている。2026年2月5日に Anthropic は、サイバー・セキュリティ能力を大幅に強化する Claude の最新バージョンを公開した。この Claude Opus 4.6 が、オープンソース・ソフトウェアにおいて、これまで未知であった高深刻度の脆弱性を 500 件以上も特定した。

Continue reading “Claude Opus 4.6:サイバー・セキュリティ能力を強化して 500 件以上の高深刻度の脆弱性を特定”

OpenClaw v2026.2.6 がリリース:安全性スキャナーと Opus 4.6/GPT-5.3-Codex のサポートを追加

OpenClaw v2026.2.6 Released With Support for Opus 4.6, GPT-5.3-Codex and Safety Scanner

2026/02/07 CyberSecurityNews — OpenClaw がリリースした v2026.2.6 は、エコシステム内で高まる悪意の “skill” に対する懸念を払拭してセキュリティを強化するためのものだ。このリリースで追加されたのは、コードの安全性スキャナーおよび、モデルのサポートであり、研究者により指摘された最近の脆弱性にも対応している。OpenClaw は、メール管理や暗号資産取引などのタスクを、WhatsApp/Telegram 経由などで管理する、ローカル AI エージェント向けのオープンソース・フレームワークである。このバージョン 2026.2.6 は、2026年2月7日に公開された。

Continue reading “OpenClaw v2026.2.6 がリリース:安全性スキャナーと Opus 4.6/GPT-5.3-Codex のサポートを追加”

OpenClaw 上の 3rd-Party “skill” の 17% は悪意:暗号通貨や SNS を標的に機密データを収集

17% of 3rd-Party Add-Ons for OpenClaw Used in Crypto Theft and macOS Malware

2026/02/06 hackread — 新たなオープンソース AI プロジェクトである OpenClaw が、GitHub で 16万以上のスターを獲得し、開発者コミュニティを席巻している。OpenClaw は AI ツール・ボックスであり、複数のアプリケーションにまたがってアカウント管理やタスク実行を行える。しかし、周知のとおり、大きな注目が集まる場所には、詐欺師も必ず近づいてくる。このエコシステムを調査した Bitdefender Labs の研究者たちにより、看過できない問題が明らかになった

Continue reading “OpenClaw 上の 3rd-Party “skill” の 17% は悪意:暗号通貨や SNS を標的に機密データを収集”

AI により 10 分以内で AWS 管理者アクセスを奪取:クラウド攻撃の時間を短縮する脅威アクター

Hackers Using AI to Get AWS Admin Access Within 10 Minutes

2026/02/04 CyberSecurityNews — 人工知能ツールを活用する脅威アクターたちが、クラウド攻撃のライフサイクルを数時間から数分へと短縮していると、Sysdig Threat Research Team (TRT) の調査結果が明らかにしている。2025年11月のインシデントにおける攻撃者は、Large Language Model (LLM) を用いて偵察の自動化/悪意のコード生成/リアルタイムな攻撃判断を実行し、初期の認証情報窃取から完全な管理者権限取得までを 10 分未満で完了している。この Amazon Web Services (AWS) 環境への攻撃が示すのは、クラウドへの攻撃の速度と高度化が、AI 支援により根本的に変革されたことだ。

Continue reading “AI により 10 分以内で AWS 管理者アクセスを奪取:クラウド攻撃の時間を短縮する脅威アクター”

AI エージェント時代の盲点:不可視のリスクと企業セキュリティ

The ‘Invisible Risk’: 1.5 Million Unmonitored AI Agents Threaten Corporate Security

2026/02/03 SecurityBoulevard — 自律型デジタル・ワーカーで構成される巨大かつ不可視の労働力が、ビジネス界に到来しているが、新たな調査によると、その多くが制御不能な状態で稼働している可能性があるという。オープンソースの API/エージェント管理分野をリードする Gravitee が公開した調査結果によると、米国/英国の大企業では、すでに 300 万を超える AI エージェントが導入されている。しかし、そのほぼ半数にあたる約 150 万は、現在も能動的な監視やセキュリティ・プロトコルなしに稼働している。

Continue reading “AI エージェント時代の盲点:不可視のリスクと企業セキュリティ”

AI Agent の ID マネージメント:既存の ID モデルが適合しない理由を説明しよう

AI Agent Identity Management: A New Security Control Plane for CISOs

2026/02/03 BleepingComputer — 長年にわたりセキュリティ・リーダーたちは、サービス・アカウントと従業員に対するアイデンティティ (ID) 制御を強化してきた。しかし、そのモデルが限界を露呈し始めている。企業環境の全体において、新たな ID のクラスが急速に拡散している。それが自律型 AI エージェントである。Custom GPT/Copilot/MCP サーバを実行するコーディング・エージェントや、用途ごとに特化された AI エージェントは、もはや実験の用途に留まらない。本番環境で稼働し、拡張され、機微なシステムやインフラと連携し、他のエージェントを呼び出し、判断や変更を行っているが、そこでは人間による直接的な監督が欠落している。

Continue reading “AI Agent の ID マネージメント:既存の ID モデルが適合しない理由を説明しよう”

ClawdBot の認証バイパスの脆弱性 CVE-N/A が FIX:1-Click で RCE を発動

1-Click Flaw in ClawdBot Allows Remote Code Execution

2026/02/02 gbhackers — 人気の npm パッケージ ClawdBot に存在する、深刻な認証バイパス脆弱性が発見された。この脆弱性を悪用する攻撃者は、単一の悪意のリンクを介してリモートコード実行 (RCE) が可能となる。この欠陥は、gatewayUrl パラメータの検証不備に起因し、未認可の脅威アクターに認証トークンを漏洩させる、自動接続挙動により影響が増幅される。

Continue reading “ClawdBot の認証バイパスの脆弱性 CVE-N/A が FIX:1-Click で RCE を発動”

Moltbook AI に深刻な脆弱性:メールアドレス/ログイントークン/API キーなどの情報が露出

Moltbook AI Vulnerability Exposes Email Addresses, Login Tokens, and API Keys

2026/02/01 CyberSecurityNews — 2026年1月下旬に Octane AI の Matt Schlicht が立ち上げたばかりの、AI エージェント向けソーシャル・ネットワーク Moltbook の深刻な脆弱性により、登録されたエージェントにひも付くメールアドレス/ログイントークン/API キーが露出していることが判明した。”約 150 万人のユーザー” を抱えると、過熱気味に喧伝されるさなかでの事態である。

Continue reading “Moltbook AI に深刻な脆弱性:メールアドレス/ログイントークン/API キーなどの情報が露出”

BlackIce は AI ペンテスト環境:14 種類の AI セキュリティ・ツールを Docker コンテナで提供

BlackIce Introduced as Container-Based Red Teaming Toolkit for AI Security Testing

2026/01/29 gbhackers — CAMLIS Red 2025 で Databricks が発表した BlackIce は、14 個の広く利用されている AI セキュリティ・ツールを単一の環境に統合するために、オープンソース・ツールキットをコンテナ化したものだ。従来の AI レッドチームにおいてセキュリティ・テストのワークフローを阻害してきた、複雑なセットアップ手順や依存関係の競合といった重大な課題が、このイノベーションにより解消する。

Continue reading “BlackIce は AI ペンテスト環境:14 種類の AI セキュリティ・ツールを Docker コンテナで提供”

Ollama AI の普及と副作用:インターネットに露出する 175,000 のサーバとサイバー犯罪

Researchers Find 175,000 Publicly Exposed Ollama AI Servers Across 130 Countries

2026/01/29 TheHackerNews — 管理されていない公開状態の AI コンピューティング・インフラが、オープンソース AI の展開により広大な領域で形成されている実態が、SentinelOne SentinelLABS および Censys による共同調査により明らかになった。この未管理インフラは、130 か国にまたがる 175,000 以上の一意な Ollama ホストで構成されており、クラウド/住宅用ネットワークの双方に分散して存在している。

Continue reading “Ollama AI の普及と副作用:インターネットに露出する 175,000 のサーバとサイバー犯罪”

Cal.com のアクセス・コントロールの不備:Gecko の AI SAST エンジンが問題を検出

Cal.com Broken Access Controls Lead to Account Takeover and Data Exposure

2026/01/28 gbhackers — オープンソースのスケジューリング・プラットフォームである Cal.com は、開発者フレンドリーな Calendly の代替として知られている。しかし、最近になって、ユーザー・アカウントおよび機密データを攻撃者に露出させる、一連の深刻な脆弱性が発生し修正された。これらの欠陥は、Gecko の AI セキュリティ・エンジニアにより、Cal.com Cloud において発見されたものである。この脆弱性を悪用する攻撃者は、任意のユーザーに対する完全なアカウント乗っ取りと、非公開ミーティングや参加者メタデータなどの、組織を横断する機密情報への不正アクセスを可能にしていた。

Continue reading “Cal.com のアクセス・コントロールの不備:Gecko の AI SAST エンジンが問題を検出”

北朝鮮系 Konni の最新スピアフィッシング・キャンペーン:AI 支援 PowerShell バックドアで日本も標的

Konni Hackers Deploy AI-Generated PowerShell Backdoor Against Blockchain Developers

2026/01/26 TheHackerNews — Konni として知られる北朝鮮系脅威アクターが、人工知能 (AI) ツールにより生成された PowerShell マルウェアを使用し、ブロックチェーン分野の開発者/エンジニア/開発チームを標的としていることが確認された。先週、Check Point Research が公開した技術レポートによると、このフィッシング・キャンペーンが標的とするのは日本/オーストラリア/インドであり、これまでの主要な標的であった韓国/ロシア/ウクライナ/欧州諸国を超えて、攻撃対象範囲を拡大していることが示されている。

Continue reading “北朝鮮系 Konni の最新スピアフィッシング・キャンペーン:AI 支援 PowerShell バックドアで日本も標的”

Curl がバグバウンティ・プログラムを終了:AI が生成する低品質レポートへの対応

Curl to End Bug Bounty Following Low-Quality AI-Generated Vulnerability Reports

2026/01/26 CyberSecurityNews — curl プロジェクトは、2026年1月をもってバグ・バウンティ・プログラムを終了した。その理由は、低品質かつ有用性のないバグ報告が過剰に寄せられたことにあるという。この決定が反映するのは、金銭的インセンティブの構造が、脆弱性情報の開示と実務にもたらす副作用への、オープンソース・セキュリティ・コミュニティ内の不満の高まりである。

Continue reading “Curl がバグバウンティ・プログラムを終了:AI が生成する低品質レポートへの対応”

AI で書いたハニーポット:Vibe Coding がもたらす脆弱性のケース・スタディとは?

What an AI-Written Honeypot Taught Us About Trusting Machines

2026/01/23 BleepingComputer — AI モデルを用いてコード作成を支援する Vibe Coding 手法が、多くのチームにとって日常的な開発プロセスの一部となっている。それにより、大きな時間短縮効果がもたらされるが、その一方では、AI が生成したコードを過度に信頼してしまうことで、セキュリティ脆弱性が入り込む余地を生み出す。AI 生成コードがセキュリティに及ぼす影響について、Intruder の経験は現実のケース・スタディとなっている。以下に示すのは、実際に起こったこと、そして、他の組織が注意すべき点である。

Continue reading “AI で書いたハニーポット:Vibe Coding がもたらす脆弱性のケース・スタディとは?”

ZEST の AI Sweeper Agents:過剰なパッチ要求を削減してセキュリティ・チームの負荷を軽減

ZEST Security Adds AI Agents to Identify Vulnerabilities That Pose No Actual Risk

2026/01/22 SecurityBoulevard — 今日 ZEST Security は、特定の脆弱性がアプリケーション環境に対して実際の脅威となるかどうかを識別する、人工知能 (AI) エージェント群を追加した。同社 CEO の Snir Ben Shimol によると、実際には悪用不可能な脆弱性の修正要求を AI Sweeper Agents が排除することで、作成すべきパッチ数を削減できるという。

Continue reading “ZEST の AI Sweeper Agents:過剰なパッチ要求を削減してセキュリティ・チームの負荷を軽減”

VoidLink が示す AI 生成マルウェア時代の到来:Check Point が警告

VoidLink Represents the Future of AI-Developed Malware: Check Point

2026/01/20 SecurityBoulevard — 1 人の個人と推測される脅威アクターが、AI を用いて単独で開発したとみられる高度なマルウェアが、Check Point の研究者たちにより発見された。このインシデントが示すのは、急速に進化する技術がサイバー脅威の生成方法を変化させる、先駆的な事例である。VoidLink と名付けられたマルウェアは、開発の初期段階で検出され、実際の攻撃で使用された形跡は確認されていない。しかし、異例のスピードで進められた設計と構築は、高度にモジュール化された構造を備えるものであり、迅速な進化を可能にする仕組みを持っている。そのため、発見当初は、大規模かつ潤沢な資金を有する攻撃者グループによるものと見られていた。

Continue reading “VoidLink が示す AI 生成マルウェア時代の到来:Check Point が警告”

Google Gemini の深刻な欠陥:間接プロンプト・インジェクションによる Calendar データ漏洩

Google Gemini AI Tricked Into Leaking Calendar Data via Meeting Invites

2026/01/19 hackread — 生活を便利にするために設計された AI アシスタントであるが、新たな調査により明らかになったのは、単純なミーティングの招待でさえトロイの木馬として悪用されるリスクである。Google Gemini が Google Calendar と連携する仕組みに存在する深刻な欠陥が、Miggo Security の研究者により判明した。この欠陥を悪用する攻撃者は、通常に見える招待を送信するだけで AI を巧妙に欺き、ユーザーの個人データを窃取することが可能となる。

Continue reading “Google Gemini の深刻な欠陥:間接プロンプト・インジェクションによる Calendar データ漏洩”

Google Vertex AI デフォルト・コンフィグによるセキュリティ・リスク:Service Agent ロールの不正取得

Google’s Vertex AI Vulnerability Enables Low-Privileged Users to Gain Service Agent Roles

2026/01/17 CyberSecurityNews — Google Vertex AI のデフォルト・コンフィグには、低権限ユーザーが Service Agent ロールを乗っ取ることで権限昇格を可能にしてしまう問題が存在する。XM Cyber の研究者により、Vertex AI Agent Engine/Ray on Vertex AI における 2 つの攻撃ベクターが特定されているが、Google はこれらを「想定された動作 (Working as Intended)」と位置付けており、防御責任はユーザー側にあるとの見解を示している。

Continue reading “Google Vertex AI デフォルト・コンフィグによるセキュリティ・リスク:Service Agent ロールの不正取得”

AI Agent が作り出す権限昇格パス:ユーザーからエージェントに移行するアクセス権を把握するには?

AI Agents Are Becoming Privilege Escalation Paths

2026/01/14 TheHackerNews — AI エージェントは、実験的なツールから、セキュリティ/エンジニアリング/IT/運用にわたる日常的なワークフローの中核コンポーネントへと急速に移行し始めている。個人用コード・アシスタント/チャットボット/コパイロットといった、個別の生産性向上ツールとして始まったものが、組織全体で共有されるエージェントへと進化し、重要なプロセスに組み込まれようとしている。

Continue reading “AI Agent が作り出す権限昇格パス:ユーザーからエージェントに移行するアクセス権を把握するには?”

バイブ・コーディングのための SHIELD Governance Framework:Palo Alto Networks が提供

Palo Alto Networks Introduces New Vibe Coding Security Governance Framework

2026/01/13 InfoSecurity — バイブ・コーディングとは、自然言語による AI プロンプトを介してコードを記述し、アプリケーションを開発する手法である。この手法の一般化により、すでに深刻なセキュリティ・インシデントが生じていると、Palo Alto Networks が警鐘を鳴らしている。その背景として挙げられるのは、一般ユーザーから経験が豊富な開発者に至るまで、この手法が幅広く採用されているという現実である。

Continue reading “バイブ・コーディングのための SHIELD Governance Framework:Palo Alto Networks が提供”

ServiceNow AI プラットフォームの脆弱性 CVE-2025-12420 が FIX:認証不要の権限昇格

ServiceNow Vulnerability Enables Privilege Escalation Without Authentication

2026/01/13 gbhackers — ServiceNow の AI プラットフォームで発見された、深刻な権限昇格の脆弱性 CVE-2025-12420 が、世界中の企業ユーザーに深刻なリスクをもたらしている。この脆弱性を悪用する未認証の攻撃者は、他のユーザーになりすますことでアカウントを侵害し、その権限を用いて不正な操作を実行できる。重要なビジネス・オペレーションに ServiceNow の AI 機能を利用している組織にとって、この脆弱性は深刻な脅威となる。

Continue reading “ServiceNow AI プラットフォームの脆弱性 CVE-2025-12420 が FIX:認証不要の権限昇格”

エンタープライズにおける GenAI:セキュリティ・リスクを可視化できているだろうか?

Generative AI in Enterprises: Security Risks Most Companies Are Not Measuring

2026/01/11 SecurityBoulevard — GenAI は、実験段階から企業環境全体への広範な導入段階へと急速に移行している。社内コパイロットやカスタマーサポート・チャットボットから、コード生成やデータ分析に至るまで、組織は重要なビジネス・ワークフローに LLM を組み込んでいる。生産性向上は比較的定量化しやすい。その一方で、導入に伴うセキュリティ・リスクの測定は遥かに困難である。現時点で GenAI を導入している多くの組織は、これらのテクノロジーから生じる新たな攻撃対象領域を、特定/評価/軽減するための体系的フレームワークを整備していない。その結果、セキュリティ・インシデントが発生するまで、深刻なリスクが顕在化しないというケースも少なくない。

Continue reading “エンタープライズにおける GenAI:セキュリティ・リスクを可視化できているだろうか?”

Fortinet VPN の偽サイトに要注意:AI 検索サマリーなどを介したフィッシング攻撃が横行

Fake Fortinet Sites Steal VPN Credentials in Sophisticated Phishing Attack

2026/01/09 CyberSecurityNews — Fortinet VPN の公式ダウンロード・ポータルを偽装し、リモートワーカーや IT 管理者を標的とする、巧妙なフィッシング攻撃キャンペーンが出現した。この攻撃の特徴は、検索エンジン最適化 (SEO:Search Engine Optimization) と、AI が生成した検索サマリーを悪用して被害者を誘導する点にあり、きわめて危険性が高い。この攻撃キャンペーンは、信頼できるドメインから始まる多段階のリダイレクト・メカニズムも採用しており、初期フェーズにおけるセキュリティ・フィルターを回避する。その結果として、VPN 認証情報の窃取とマルウェアの配布に至るという。

Continue reading “Fortinet VPN の偽サイトに要注意:AI 検索サマリーなどを介したフィッシング攻撃が横行”

ChatGPT の新たな脆弱性が FIX:Gmail/Outlook/GitHub などからのデータ窃取の恐れ

New ChatGPT Vulnerabilities Enable Data Exfiltration from Gmail, Outlook, and GitHub

2026/01/09 gbhackers — ChatGPT が、外部サービスや自身のメモリ・システムと連携する方法に、複数の深刻な脆弱性が存在することが新たな調査により明らかになった。これにより生じるのは、クロスプラットフォームでのデータ窃盗や長期的なアカウント侵害につながる、新たな攻撃経路である。これらの脆弱性は、侵害された1回のチャット・セッションが、メール/クラウド・ストレージ/コード・リポジトリや、他ユーザーへの侵入経路となり得ることを示している。

Continue reading “ChatGPT の新たな脆弱性が FIX:Gmail/Outlook/GitHub などからのデータ窃取の恐れ”

Gmail に搭載される AI 受信トレイ:Gemini によるメールの抽出や要約の機能とは?

Gmail’s new AI Inbox uses Gemini, but Google says it won’t train AI on user emails

2026/01/09 BleepingComputer — 1月8日 (木) に Google が発表したのは、すべてのメールを要約する “AI 受信トレイ” という新機能である。この機能を展開するにあたり、Google が約束しているのは、ユーザーのメール内容に基づいてモデルをトレーニングしないことである。Google が目指すのは Gmail の新たなステップであり、デフォルトの受信トレイ画面で主役となるのは Gemini であるという。Google によると、Gmail が登場した 2004 年以降においてメールは変化し続けており、ユーザーは毎週のように配信される何百通ものメールに圧倒されており、その量は増加し続けている。

Continue reading “Gmail に搭載される AI 受信トレイ:Gemini によるメールの抽出や要約の機能とは?”

ChatGPT のマーケット・シェアが低下:Google Gemini ユーザーが急速に拡大

ChatGPT is losing market share as Google Gemini gains ground

2026/01/08 BleepingComputer — 新たなデータが示すのは、Web 上において ChatGPT のマーケット・シェアが Gemini に奪われ始めている状況である。ただし、モバイル分野でも Gemini がシェアを拡大しているかどうかは不明である。Web サイト分析会社 SimilarWeb の最新レポートによると、ChatGPT の市場シェアは 2026年1月に 65% まで低下した。この数値が示すのは、2025年1月の 86% と比べて約 20% の低下である。

Continue reading “ChatGPT のマーケット・シェアが低下:Google Gemini ユーザーが急速に拡大”

ChatGPT と DeepSeek の会話を窃取する2つの Chrome エクステンション:90 万人以上のユーザーに影響

Two Chrome Extensions Caught Stealing ChatGPT and DeepSeek Chats from 900,000 Users

2026/01/06 TheHackerNews — Chrome Web Store で配布されている2つの悪意あるエクステンションを、サイバー・セキュリティ研究者が発見した。これらのエクステンションは、OpenAI ChatGPT および DeepSeek の会話データに加え、閲覧データを窃取し、攻撃者が管理するサーバに送信するよう設計されている。これらのエクステンションは、合計で 90 万人以上のユーザーに拡散している。

Continue reading “ChatGPT と DeepSeek の会話を窃取する2つの Chrome エクステンション:90 万人以上のユーザーに影響”

GHOSTCREW による LLM/MCP/RAG の統合:Metasploit/Nmap/SQLMap との連携にも対応

GHOSTCREW: AI-Powered Red Team Toolkit Integrating Metasploit, Nmap, and More

2026/01/05 gbhackers — 新たに公開されたオープンソース・ツールが、人工知能と攻撃的セキュリティ運用の間に存在していたギャップを埋めようとしている。GHOSTCREW が統合するのは、Large Language Model (LLM)/Model Context Protocol (MCP)/Retrieval-Augmented Generation (RAG) であり、自然言語コマンドだけで複雑な侵入テスト作業を自動化する、高度な AI レッドチーム・アシスタントを実現している。

Continue reading “GHOSTCREW による LLM/MCP/RAG の統合:Metasploit/Nmap/SQLMap との連携にも対応”

Claude Chrome エクステンションの懸念:リクエストとログの読み取りや機密情報の漏洩

Researchers Warn of Data Exposure Risks in Claude Chrome Extension

2026/01/05 hackread — 2025年12月18日に Anthropic が公開したのは、Claude Chrome エクステンションのベータ版である。このエクステンション (拡張機能) は、AI がユーザーに代わって Web サイトを閲覧/操作し、高い利便性を提供するものである。その一方で、従来の Web セキュリティ・モデルでは対処できない深刻なリスクが存在すると、Zenity Labs の最新分析が指摘している。

Continue reading “Claude Chrome エクステンションの懸念:リクエストとログの読み取りや機密情報の漏洩”

Resecurity の AI ハニーポット:ShinyHunters に打撃を与えた巧妙な合成データ作戦とは?

Hackers Trapped in Resecurity’s Honeypot During Targeted Attack on Employee Network

2026/01/05 CyberSecurityNews — 合成データ・ハニーポットを展開することで脅威アクターを出し抜いた Resecurity は、偵察情報を実用的なインテリジェンスへと転換している。最近の作戦では、エジプトと関係するハッカーを罠に掛けただけではなく、ShinyHunters グループを欺き、虚偽の侵害報告を引き出すことに成功している。Resecurity は、対諜報活動を目的とした欺瞞技術を高度化し、企業環境を精巧に模倣することで脅威アクターを管理された罠へ誘引している。

Continue reading “Resecurity の AI ハニーポット:ShinyHunters に打撃を与えた巧妙な合成データ作戦とは?”

Cyber Risk In 2026:地政学的再編/重要サプライチェーンの兵器化/GenAI の急速な普及

Cyber Risk In 2026: How Geopolitics, Supply Chains and Shadow AI Will Test Resilience

2026/01/02 InfoSecurity — 2026 年においては、地政学的再編/重要サプライチェーンの兵器化/GenAI の急速な普及により、リスク管理の意味が再定義されるだろう。ユーザー組織にとって必要なことは、サイバー戦略/業務継続性/地政学的認識が深く絡み合った、プロアクティブでインテリジェンス主導のレジリエンスへの移行である。もはや、事後対応型のセキュリティ体制では、差し迫る脅威に対して対応しきれなくなる。2026 年のサイバーセキュリティ環境を特徴づける、3つの主要トレンドについて解説していく。

Continue reading “Cyber Risk In 2026:地政学的再編/重要サプライチェーンの兵器化/GenAI の急速な普及”

NeuroSploit v2 がリリース:Gemini/Claude/GPT/Ollama と連携するペンテスト・ツール

NeuroSploit v2 Launches as AI-Powered Penetration Testing Framework

2025/12/31 gbhackers — NeuroSploit v2 は、攻撃的セキュリティ・オペレーションの自動化と強化を目的として設計された、AI 活用型の高度なペンテスト・フレームワークである。このフレームワークは、最先端の LLM テクノロジーを活用することで、脆弱性評価/脅威シミュレーション/セキュリティ分析ワークフローの自動化を可能にするものだ。NeuroSploit v2 が組み合わせるのは、これまでに確立されたセキュリティ手法と人工知能であり、ユーザー組織におけるペンテストへのアプローチを大きく進化させる。

Continue reading “NeuroSploit v2 がリリース:Gemini/Claude/GPT/Ollama と連携するペンテスト・ツール”

ChatGPT Atlas のセキュリティが強化:プロンプト・インジェクションへの新たな対策とは?

OpenAI Hardened ChatGPT Atlas Against Prompt Injection Attacks

2025/12/29 CyberSecurityNews — ブラウザベースの AI エージェントである ChatGPT Atlas に、高度な防御機能を導入してプロンプト・インジェクション攻撃に対抗するという、重要なセキュリティ・アップデートがリリースされた。OpenAI による今回のアップデートは、エージェント型 AI システムを標的とする新たな脅威から、ユーザーを保護するための重要な一歩となる。

Continue reading “ChatGPT Atlas のセキュリティが強化:プロンプト・インジェクションへの新たな対策とは?”

LangChain Core の深刻な脆弱性 CVE-2025-68664/68665 が FIX:従来型のセキュリティ侵害と AI との融合

Critical LangChain Core Vulnerability Exposes Secrets via Serialization Injection

2025/12/26 TheHackerNews — LangChain Core に深刻なセキュリティ欠陥が発見された。この脆弱性 CVE-2025-68664 を悪用する攻撃者は、機密情報の窃取とプロンプト・インジェクションにより、LLM のレスポンスを操作する可能性がある。LangChain Core (langchain-core) は、LangChain エコシステムを構成するコア Python パッケージである。LLM を活用したアプリケーションを構築するための、コア・インターフェイスとモデル非依存の抽象化機能を提供している。

Continue reading “LangChain Core の深刻な脆弱性 CVE-2025-68664/68665 が FIX:従来型のセキュリティ侵害と AI との融合”

LLM による脆弱性スコアリング支援:テキストからシグナルを読み取る能力を6モデルでテスト

LLMs can assist with vulnerability scoring, but context still matters

2025/12/26 HelpNetSecurity — 新たな脆弱性が明らかになるたびに、すでに大きな負担を抱えているセキュリティ・チームに対して、新たな意思決定のタイミングが訪れる。最近の研究で検討されているのは、広範な脆弱性スコアリングの領域を LLM が担うことで、こうした負担の一部を軽減できるかという試みである。その結果として、特定の領域では有望性が示された一方で、一貫性に欠ける課題が残り、完全な自動スコアリングが依然として阻まれているという。

Continue reading “LLM による脆弱性スコアリング支援:テキストからシグナルを読み取る能力を6モデルでテスト”

NIST が MITRE に $20m を投資:AI セキュリティ・プロジェクトを推進

NIST, MITRE Partner on $20m AI Centers For Manufacturing and Cybersecurity

2025/12/24 InfoSecurity — 米国の National Institute of Standards and Technology (NIST) が公表したのは、主要な AI セキュリティ・プロジェクトに対する $20m (2,000万ドル) の投資であり、AI 分野における米国のリーダーシップを支援するためのものだ。この投資は、新設される研究開発センター “AI Economic Security Center for US Manufacturing Productivity” と “AI Economic Security Center to Secure US Critical Infrastructure from Cyber Threats” に充てられる。

Continue reading “NIST が MITRE に $20m を投資:AI セキュリティ・プロジェクトを推進”

2026 年のエンタープライズ・セキュリティ再構築:ID 戦略における5つの変化

Five identity-driven shifts reshaping enterprise security in 2026

2025/12/24 HelpNetSecurity — 2026 年は人工知能 (AI) がサイバー・リスクを根本的に再構築し始める転換点となる。数年にわたる広範な普及を経て、2026 年の AI は、働き方に影響を与える段階を超え、企業の構造や運営そのものを変革し始めるだろう。現在の AI は、組織のあらゆるレイヤーに組み込まれている。具体的には、ワークフロー/アプリケーション/カスタマー・エクスペリエンス/DevOps/IT 自動化/戦略的意思決定といった領域を網羅している。ただし、この変化の速度にガバナンス/セキュリティ管理/アイデンティティ保護は追いついていない。

Continue reading “2026 年のエンタープライズ・セキュリティ再構築:ID 戦略における5つの変化”

AI が量産するコードを分析:プルリクエストで明らかになった問題の分布とは?

AI code looks fine until the review starts

2025/12/23 HelpNetSecurity — ソフトウェア・チームが発表したのは、AI コーディング・ツールにより生成されるプルリクエストの増加を精査するという、この1年間にわたる調査の結果である。この新たなレポートにより、数多くのレビュー担当者が日常業務の中で感じてきた状況が、数値として裏付けられた。この調査は CodeRabbit が実施したものであり、数百のオープンソース・プロジェクトを対象に、AI が共同作成したコードと人間が作成したコードを比較している。そこで追跡されたのは、問題の件数/深刻度/発生頻度の高い問題カテゴリなどである。結果として示されたのは、ロジック/正確性/可読性/セキュリティで繰り返し発生するリスクが、セキュリティ/信頼性を重視するチームに直接的な影響を与えていることである。

Continue reading “AI が量産するコードを分析:プルリクエストで明らかになった問題の分布とは?”

AI ブラウザの安全性:5項目のリスク・ケースを8種類のエージェントでテストした

Browser agents don’t always respect your privacy choices

2025/12/22 HelpNetSecurity — ブラウザ・エージェントの普及において、ユーザーによる継続的な入力を必要とせずにオンライン・タスクを処理できるという新たなセールスポイントが強調されている。AI モデルを用いて Web ブラウザを操作することで、ショッピング/予約/アカウント管理などのタスクが可能になる。しかし、新たな学術研究によると、こうした利便性にはセキュリティ上の懸念として無視できないプライバシー・リスクが伴うと警告されている。

Continue reading “AI ブラウザの安全性:5項目のリスク・ケースを8種類のエージェントでテストした”

LLM 時代のランサムウェア進化:AI 悪用による攻撃ライフサイクルの短縮など

LLM-Driven Automation: A New Catalyst for Ransomware and RaaS Ecosystems

2025/12/16 gbhackers — LLM のランサムウェア・エコシステムへの統合に関する包括的な評価を、SentinelLABS が発表した。現時点では、AI により戦術が根本的に変革された状況は確認されていないが、運用ライフサイクルは著しく加速していると、このレポートは結論付けている。この調査が示しているのは、測定可能なメトリクスである攻撃速度/攻撃量/多言語対応の向上が、低スキル攻撃者の参入障壁を引き下げると同時に、既存グループのワークフローを最適化することで、脅威環境を再形成している点である。

Continue reading “LLM 時代のランサムウェア進化:AI 悪用による攻撃ライフサイクルの短縮など”

OpenAI が拡張する防御のモデル:AI の規模と精度が従来型の脅威と組み合わされる時代に

OpenAI Enhances Defensive Models to Mitigate Cyber-Threats

2025/12/12 InfoSecurity —12月10日 (水) に OpenAI が発表したのは、モデル性能の急上昇に伴い社内計画を再構築したという声明である。そのレポートによると、Capture The Flag (CTF) チャレンジを用いた能力評価は、2025年8月の GPT-5 における 27% から、2025年11月の GPT-5.1-Codex-Max の 76% へと向上しているという。OpenAI が警告するのは、今後登場するシステムの一部が、同社の Preparedness Framework における高能力レベルに達する可能性である。そのレベルに達すると、複雑な侵入作戦からゼロデイ・エクスプロイトの開発に至るまでの、さまざまなタスクが支援されてしまう可能性があるという。

Continue reading “OpenAI が拡張する防御のモデル:AI の規模と精度が従来型の脅威と組み合わされる時代に”

Brave に AI ブラウジング機能が登場:タスクを自動化とセキュリティ維持を両立

Brave browser starts testing agentic AI mode for automated tasks

2025/12/11 BleepingComputer — Brave が公開した新しい AI ブラウジング機能は、プライバシーを尊重する AI アシスタント Leo を活用し、ユーザーに代わってタスクを自動化するものである。この機能が目的とするのは、自動的な Web 検索/商品比較/プロモーションコードの発見/ニュース要約などのタスクの支援である。現在はテスト段階にあり、Brave Nightly バージョンからアクセスできる。この新しいエージェント AI ブラウジング・モードは、プライバシー重視のブラウザにおける AI とユーザーの緊密な統合に向けた第一歩となるが、デフォルトでは無効化されている。

Continue reading “Brave に AI ブラウジング機能が登場:タスクを自動化とセキュリティ維持を両立”

AMOS Stealer 攻撃キャンペーン:ChatGPT/Grok の AI 会話を悪用する脅威アクターたち

Threat Actors Exploit ChatGPT and Grok Conversations to Deliver AMOS Stealer

2025/12/10 gbhackers — サイバー・セキュリティを取り巻く状況が大きな転換点を迎えている。2025年12月5日に Huntress が公表したのは、単純に見えるベクターを用いて Atomic macOS Stealer (AMOS) を展開する巧妙かつ高度な攻撃キャンペーンである。このキャンペーンでは SEO 操作が行われ、OpenAI の ChatGPT および xAI の Grok プラットフォーム上での AI による会話が、信頼できるトラブルシューティング・ガイドのように偽装されている。

Continue reading “AMOS Stealer 攻撃キャンペーン:ChatGPT/Grok の AI 会話を悪用する脅威アクターたち”

Gemini の Zero-Click 脆弱性:GeminiJack という攻撃手法が Gmail/Calendar/Docs を侵害

Gemini Zero-Click Vulnerability Let Attackers Access Gmail, Calendar, and Docs

2025/12/10 CyberSecurityNews — Google が公開したのは、Google Gemini Enterprise (旧称 Vertex AI Search) に存在する GeminiJack と呼ばれる深刻なゼロクリック脆弱性に関する情報である。この脆弱性を悪用する攻撃者は、最小限の労力で Gmail/Calendar/Document から企業機密データを盗み出すことが可能だった。

Continue reading “Gemini の Zero-Click 脆弱性:GeminiJack という攻撃手法が Gmail/Calendar/Docs を侵害”

MCP で特定された3つの攻撃ベクター:悪意のサーバからの攻撃手法を分析する

Malicious MCP Servers Enable Stealthy Prompt Injection to Drain System Resources

2025/12/09 gbhackers — Model Context Protocol (MCP) のサプリング機能に、深刻な脆弱性が存在することを、Unit 42 のセキュリティ研究者たちが公表した。この脆弱性を悪用する悪意のサーバは、ステルス性の高いプロンプト・インジェクション攻撃を、ユーザーに気付かれることなく実行できる。その結果として、計算リソースの浪費や、LLM アプリケーションの侵害などが可能になる。発見された脆弱性は、プロトコル固有の信頼モデルと堅牢なセキュリティ制御の欠如を悪用する3つの主要な攻撃ベクターを持つ。

Continue reading “MCP で特定された3つの攻撃ベクター:悪意のサーバからの攻撃手法を分析する”

Gemini の AI ブラウジングを保護:Chrome に追加された新たなセキュリティ・レイヤーとは?

Google Chrome adds new security layer for Gemini AI agentic browsing

2025/12/09 BleepingComputer — Google が公開したのは、”User Alignment Critic” と呼ばれる新しい防御レイヤーを、Chrome ブラウザに導入する計画である。それにより、Gemini を搭載する今後のエージェント型 AI ブラウジング機能が保護されるという。エージェント型ブラウジングとは、自律的な AI エージェントがユーザーに代わって、Web 上で複数のタスクを実行する新しいモードである。具体的には、サイトのナビゲーション/コンテンツの読み取り/ボタンのクリック/フォームへの入力といった一連のアクションの実行などが自動的に実行される。

Continue reading “Gemini の AI ブラウジングを保護:Chrome に追加された新たなセキュリティ・レイヤーとは?”

IDEsaster という新たな脆弱性クラス:GitHub Copilot/Gemini CLI/Claude などに深刻な影響

Critical Vulnerabilities in GitHub Copilot, Gemini CLI, Claude, and Other Tools Impact Millions of Users

2025/12/08 CyberSecurityNews — AI 駆動型 IDE (Integrated Development Environment) の登場により、ソフトウェア開発環境は根本的に変化した。GitHub Copilot/Gemini CLI/Claude Code などのツールは、単純な自動補完エンジンから、タスクを実行する自律エージェントへと進化した。しかし、生産性の急速な追求がセキュリティ・ギャップを生み出している。本来は自律性を想定して設計されていないレガシー IDE アーキテクチャを、それぞれのベンダーがエージェントに直接統合したことで、図らずも攻撃対象領域が拡大されてしまった。それを IDEsaster と呼ぶ。

Continue reading “IDEsaster という新たな脆弱性クラス:GitHub Copilot/Gemini CLI/Claude などに深刻な影響”