Amazon と Anthropic が締結した契約:Claude のための 5GW コンピューティング容量と AWS への統合

Amazon, Anthropic Expand Alliance With 5GW Compute Push to Power Claude

2026/04/22 gbhackers — Amazon と Anthropic が発表したのは、戦略的な提携の大幅な拡張である。そこで締結された契約の内容は、Claude AI モデルの学習および展開のために、最大 5 ギガワット (GW) のコンピューティング容量を新たに確保するというものだ。この積極的な取り組みは、急速に進化する GenAI テクノロジーを安全かつ効率的に支えるために必要とされる、インフラの規模の大きさを示している。需要の急増に対応するために、Anthropic は今後の 10 年間で、AWS テクノロジーに対して $100 billion 以上を投資する方針であるという。

Continue reading “Amazon と Anthropic が締結した契約:Claude のための 5GW コンピューティング容量と AWS への統合”

Anthropic Claude Mythos Preview への不正アクセス:未承認のユーザー・グループが制限を突破

Unauthorized Group Gains Access to Anthropic’s Exclusive Cyber Tool Mythos

2026/04/22 CyberSecurityNews — 未承認のユーザー・グループが、厳重管理される Anthropic の強力な AI 駆動サイバー・セキュリティ・ツール Claude Mythos Preview の、アクセス制御を突破したと報告されている。それにより、サードパーティに与えられている高度な攻撃型 AI 能力が、脅威アクターたちの手に渡るという懸念が生じている。

Continue reading “Anthropic Claude Mythos Preview への不正アクセス:未承認のユーザー・グループが制限を突破”

米国の NSA が Anthropic Mythos を運用:法廷で争うペンタゴンの姿勢と裏腹の展開

NSA Reportedly Using Anthropic’s Mythos Despite Pentagon Blacklist

2026/04/20 CyberSecurityNews — 米国の国家安全保障局 (NSA:National Security Agency) が、Anthropic の高度 AI モデル Mythos Preview を導入していると報じられている。その一方で、国防総省 (DoD:Department of Defense) は、Anthropic に対してサプライチェーン・リスク指定 (ブラックリスト) しており、内部における矛盾が浮き彫りとなっている。Anthropic とペンタゴンの対立は、2026年の初頭に遡る。

Continue reading “米国の NSA が Anthropic Mythos を運用:法廷で争うペンタゴンの姿勢と裏腹の展開”

Flowise の深刻な脆弱性:Anthropic MCP アダプタ経由でのコマンド実行の恐れ

Critical Vulnerability In Flowise Allows Remote Command Execution Via MCP Adapters

2026/04/20 CyberSecurityNews — Flowise などの AI フレームワークに存在する深刻な脆弱性が発見され、数百万ユーザーがリモート・コード実行 (RCE) の危険にさらされている。この欠陥を発見した OX Security は、Anthropic が開発した AI エージェント向け通信規格 Model Context Protocol (MCP) に起因するとし、広く使用されている標準に内在する問題であると指摘している。

Continue reading “Flowise の深刻な脆弱性:Anthropic MCP アダプタ経由でのコマンド実行の恐れ”

Anthropic MCP の複数の脆弱性:最大 20万台サーバに大規模な RCE リスク

Anthropic MCP Hit by Critical Vulnerability Enabling Remote Code Execution

2026/04/20 gbhackers — Anthropic の Model Context Protocol (MCP) において、深刻かつ広範で構造的な脆弱性が発見された。2026年4月15日に OX Security Research チームが公開した調査により、1億 5,000万件以上のダウンロードと最大で 20万台のサーバが、完全な乗っ取りのリスクに直面していることが明らかになった。この脆弱性により、脆弱な MCP 実装を運用するシステム上で任意のリモート・コード実行 (RCE) が可能となり、機密ユーザーデータ/内部データベース/API キー/チャット履歴へのアクセスなどが引き起こされる。

Continue reading “Anthropic MCP の複数の脆弱性:最大 20万台サーバに大規模な RCE リスク”

Claude Opus 4.7:開発者のための問題解決能力の強化と dual-use リスクへの対応

Anthropic Introduces Claude Opus 4.7 for Advanced Problem-Solving

2026/04/17 gbhackers — Anthropic は、Claude Opus 4.7 を正式にリリースした。大規模なアップグレードは、複雑なソフトウェア・エンジニアリングへの対応を目的とするものであり、それと同時に厳格なサイバー・セキュリティ保護機構を導入している。2026年04月16日に公開された新モデルは、開発者のための問題解決能力の強化と、AI に伴う dual-use リスクに対して積極的に対処するものだ。

Continue reading “Claude Opus 4.7:開発者のための問題解決能力の強化と dual-use リスクへの対応”

Anthropic Claude for Word を公開:Microsoft のドキュメント環境に AI 編集機能を導入

Anthropic Launches Claude Beta for Word, Bringing AI-Powered Editing to Microsoft Docs

2026/04/11 CyberSecurityNews — Anthropic は、Claude for Word をパブリック・ベータとして正式に公開した。これにより、Mac/Windows プラットフォーム上の Team/Enterprise ユーザー向けに、Microsoft Word のネイティブなサイドバー・アドインとして、AI アシスタントが直接統合される。この統合は、日常的な生産性ワークフローへの Claude の組み込みという重要な進展を示している。

Continue reading “Anthropic Claude for Word を公開:Microsoft のドキュメント環境に AI 編集機能を導入”

Anthropic が Project Glasswing を公表:脆弱性を特定する強力な AI モデルを検証

Anthropic Unveils Restricted AI Cyber Model in Unprecedented Industry Alliance

2026/04/07 SecurityBoulevard — Anthropic が、AI を巡る期待と不安を反映する新たなサイバー・セキュリティ施策を発表した。この取り組みに名を連ねるのは、Amazon/Microsoft/Apple/Google/NVIDIA といった主要企業であり、さらにセキュリティ/インフラ分野のパートナーも連携している。このプログラムは Project Glasswing と呼ばれ、ソフトウェアの脆弱性が脅威アクターに悪用される前に特定するための、強力な AI モデルの検証を目的とする。

Continue reading “Anthropic が Project Glasswing を公表:脆弱性を特定する強力な AI モデルを検証”

Anthropic Claude Code の脆弱性 CVE-N/A が FIX:ユーザー定義セキュリティ制御の密かな回避

Critical Claude Code Flaw Silently Bypasses User-Configured Security Rules

2026/04/06 gbhackers — Anthropic の主力 AI コーディング・エージェントである Claude Code に存在し、開発者が設定したセキュリティ・ルールを密かにバイパスする、深刻な脆弱性が明らかになった。この脆弱性を悪用する攻撃者は、50 個を超える無害なサブ・コマンドを付加するだけで、本来ブロックされるべきデータ流出スクリプトなどを実行できるようになる。

Continue reading “Anthropic Claude Code の脆弱性 CVE-N/A が FIX:ユーザー定義セキュリティ制御の密かな回避”

Anthropic の方針転換:OpenClaw などの外部ツールによるClaude サブスク利用を停止

Anthropic Ends Claude Subscription Access for Third-Party Tools Like OpenClaw

2026/04/04 gbhackers — Anthropic は、サードパーティ製アプリを介した Claude サブスクリプション・サービスへのアクセスを正式に停止し、未認可の外部連携を遮断した。開発者やパワー・ユーザーが、公式エコシステム外で Claude のフロンティア・モデルとインタラクトする方法において、この措置は大きな転換点となる。Anthropic の Boris Cherny によると、この制限は 2026年4月4日の午後12時 (PT) に発効した。

Continue reading “Anthropic の方針転換:OpenClaw などの外部ツールによるClaude サブスク利用を停止”

Anthropic からリークした 512,000 行のClaude AI コード:技術的な先進性が X 上で拡散

Anthropic Leaks 512,000 Lines of Claude AI Code in Major Blunder

2026/04/01 hackread — 高収益のコード生成ツール Claude Code の機密情報を誤って流出させた Anthropic は、戦略に影響を及ぼす重大な打撃を被っている。通常のアップデート時の単純なミスにより、同社の最重要テクノロジーの内部動作を示す設計図が競合他社へ流出した。この問題は 2026年3月31日に発生した。公開 npm レジストリにおけるバージョン 2.1.88 の通常リリース時、59.8MB のソースマップファイルが誤って含まれていた。このファイルは、開発者が理解可能な平易な形式へと、複雑なコードを変換するものである。

Continue reading “Anthropic からリークした 512,000 行のClaude AI コード:技術的な先進性が X 上で拡散”

Anthropic Mythos の衝撃:サイバー・セキュリティ関連株が軒並み急落

Cybersecurity Companies’ Stocks Fall as Anthropic Tests Powerful New Model

2026/03/28 CyberSecurityNews — 3月27日 (金) に、サイバー・セキュリティ関連株が急落した。その背景にあるのは、Anthropic が明らかにした、高度な脆弱性発見能力を持つ新たな AI モデル Mythos のテストの開始である。現時点の Anthropic は、Capybara というコードネームを持つ新世代 AI モデル群を試験運用しているが、その中の主力モデルが Mythos である。

Continue reading “Anthropic Mythos の衝撃:サイバー・セキュリティ関連株が軒並み急落”

Anthropic が米国政府を訴えた:サプライチェーン・リスク指定の撤回と大統領権限の逸脱を主張

Anthropic Sued the U.S. Government for Labelling Claude as ‘Supply Chain Risk’

2026/03/10 CyberSecurityNews — 人工知能分野の企業である Anthropic は、米国政府による “サプライチェーン・リスク指定” を受け、前例のない訴訟を提起した。この訴訟は、3月9日 (月) にカリフォルニア州連邦裁判所へ提出され、ドナルド・トランプ政権と、ピート・ヘグセス国防長官、そして 16 の連邦機関を相手取るものである。

Continue reading “Anthropic が米国政府を訴えた:サプライチェーン・リスク指定の撤回と大統領権限の逸脱を主張”

イラン戦争における Anthropic と米軍:Claude で実施された作戦と OpenAI の動き

US Military Reportedly Used Claude in Iran Strikes Despite Trump’s Ban

2026/03/02 CyberSecurityNews — 米国国防総省は、2月28日に実施されたイスラエルとの共同攻勢 Operation Epic Fury において、Anthropic の Claude AI を使用した。トランプ大統領が、Anthropic を国家安全保障上のサプライチェーン・リスクに指定し、すべての連邦機関に対して同社の AI システムの使用停止を命じたわずか数時間後に、この作戦は実施された。

Continue reading “イラン戦争における Anthropic と米軍:Claude で実施された作戦と OpenAI の動き”

米政府が Anthropic AI を BAN:Claude への完全かつ無制限のアクセスを巡り決裂

Trump Bans Anthropic AI in Federal Agencies — Pentagon Flags Claude as Security Risk

2026/02/28 CyberSecurityNews — 米国政府は、すべての連邦政府機関に対して、Anthropic の AI モデル Claude の使用を直ちに停止させるという前例のない措置を講じた。さらに同社を、国家安全保障上のサプライチェーン・リスクであると正式に指定したが、歴史的に見て、このような措置は Huawei などの外国の敵対勢力に限定されてきた。

Continue reading “米政府が Anthropic AI を BAN:Claude への完全かつ無制限のアクセスを巡り決裂”

Anthropic に Elon Musk が噛みつく:データ盗用と著作権侵害と偽善的な態度

Anthropic Facing Allegations from Musk Over Large‑Scale Data Misuse

2026/02/24 gbhackers — Elon Musk が Anthropic を公然と非難している。大規模なデータ盗用および偽善を行っていると、彼は主張する。先日に Anthropic が、中国系の AI モデルが同社の Claude から不正に学習データを抽出したと主張したが、Elon Musk の批判は、それに続くものである。

Continue reading “Anthropic に Elon Musk が噛みつく:データ盗用と著作権侵害と偽善的な態度”

Anthropic Claude を狙う協調的キャンペーン:1,600 万回超のインタラクションを発生させた中国 AI

Anthropic Claude Under Large Scale Distillation Attacks By Chinese AI Labs with 13 Million Exchanges

2026/02/23 CyberSecurityNews — Anthropic が主張するのは、DeepSeek/Moonshot AI/MiniMax の 3 社が、同社 Claude モデルから高度な能力を窃取するために、協調的な蒸留 (Distillation) キャンペーンを実行したという件である。サンフランシスコ拠点の同社によると、このオペレーションは約 24,000 件の不正アカウントを介して実行され、Claude との 1,600 万回超のインタラクションを発生させた。これは利用規約 (ToS:Terms of Service) に違反し、リージョナル・アクセス制限を回避する行為である。

Continue reading “Anthropic Claude を狙う協調的キャンペーン:1,600 万回超のインタラクションを発生させた中国 AI”

Anthropic Git MCP Server における複数の脆弱性:プロンプト・インジェクションによるコード実行の可能性

Multiple 0-day Vulnerabilities in Anthropic Git MCP Server Enables Code Execution

2026/01/21 CyberSecurityNews — Model Context Protocol (MCP) 向け Git 連携のリファレンス実装である mcp-server-git において、3 件のゼロデイ脆弱性 CVE-2025-68143/CVE-2025-68144/CVE-2025-68145 が確認されている。これらの脆弱性は、Git のコア操作における入力検証および引数サニタイズの不備に起因するものであり、間接的なプロンプト・インジェクションを通じて、攻撃者はシステムへの直接アクセスを必要とせずに、コード実行/ファイル削除/機微情報の流出を実現できる。修正はバージョン 2025.12.18 以降で提供されている。

Continue reading “Anthropic Git MCP Server における複数の脆弱性:プロンプト・インジェクションによるコード実行の可能性”

Anthropic Claude にチャットの自動的な終了機能を追加:有害な利用を防止

Anthropic: Claude can now end conversations to prevent harmful uses

2025/08/17 BleepingComputer — OpenAI と競合する Anthropic が発表したのは、 危害や悪用の可能性を AI モデルが検知した場合に会話を終了する新機能を、Claude のアップデートに搭載したというものだ。この機能は、有料プランおよび API で提供される、最上位の2つのモデル Claude Opus 4/4.1 にのみ提供される。したがって、最も広く利用されている Claude Sonnet 4 には搭載されない。

Continue reading “Anthropic Claude にチャットの自動的な終了機能を追加:有害な利用を防止”

Anthropic MCP の脆弱性 CVE-2025-53110/53109 が FIX:サンドボックス回避とコード実行の可能性

Anthropic MCP Server Flaw Allows Sandbox Escape and Code Execution

2025/07/03 gbhackers — Anthropic の Filesystem MCP (Model Context Protocol) Server に新たに発見された脆弱性 CVE-2025-53110/CVE-2025-53109 が、AI を活用する環境に深刻なリスクをもたらしている。これらの脆弱性により、サンドボックス・エスケープ/不正なファイル・アクセス/任意のコード実行などが生じるという。Cymulate Research Labs により発見された、これらの脆弱性が浮き彫りにするのは、エンタープライズや開発者エコシステムで加速する MCP 採用が生み出す、深刻なセキュリティ・リスクの課題である。

Continue reading “Anthropic MCP の脆弱性 CVE-2025-53110/53109 が FIX:サンドボックス回避とコード実行の可能性”

Anthropic MCP Inspector の脆弱性 CVE-2025-49596 が FIX:開発者のマシン上での任意のコード実行

Anthropic MCP Inspector Tool Vulnerability Let Attackers Execute Arbitrary Code on Developer Machines

20225/07/02 CyberSecurityNews — Anthropic の MCP Inspector ツールに、深刻なリモート・コード実行 (RCE) の脆弱性 CVE-2025-49596 (CVSS:9.4) が発見された。Anthropic の Model Context Protocol (MCP) エコシステムで初めて確認された、この脆弱性は、ブラウザ・ベースの攻撃を許すものであり、AI に携わる開発者や組織に対して深刻なサイバー脅威をもたらすものだとされる。

Continue reading “Anthropic MCP Inspector の脆弱性 CVE-2025-49596 が FIX:開発者のマシン上での任意のコード実行”

AI プロトコル MCP/A2A に潜む脅威:新たな視点から AI ツールとデータ流出を考える

Researchers Demonstrate How MCP Prompt Injection Can Be Used for Both Attack and Defense

2025/04/30 thehackernews — AI 分野が急速に進化する中で、Model Context Protocol (MCP) の悪用方法が分析され、プロンプト・インジェクション攻撃だけではなく、セキュリティ・ツールの開発や悪意のツールの特定などもカバーできそうなことが、Tenable の調査により明らかになった。Anthropic が 2024年11月に発表した、新しいプロトコル MCP は、大規模言語モデル (LLM:Large Language Models) と外部のデータソース/サービスを接続するために設計されたものだ。その目的は、LLM が選ぶ外部ツールを通じて、それらのシステムと連携し、AI アプリケーションの精度/関連性/実用性などを高めるところにある。

Continue reading “AI プロトコル MCP/A2A に潜む脅威:新たな視点から AI ツールとデータ流出を考える”

MCP に潜む脆弱性:AI 時代の新たな脅威として浮上するツール・ポイズニング攻撃

Tool Poisoning Attacks: Critical Vulnerability Discovered in Model Context Protocol (MCP)

2025/04/10 SecurityOnline — Model Context Protocol (MCP) に存在する深刻な脆弱性は、ツール・ポイズニング攻撃 (TPA:Tool Poisoning Attacks) を可能にするものだと、Invariant Labs が明らかにした。AI エージェントが利用する、無害に見えるツールを悪用する TPA により、機密データの流出/AI の挙動の乗っ取り/リモート・コード実行などが引き起こされる恐れがある。Invariant のセキュリティ・チームは、ユーザーに対して、「サードパーティの MCP サーバに接続する際には十分な注意を払い、機密情報を保護するためのセキュリティ対策を実施してほしい」と促している。

Continue reading “MCP に潜む脆弱性:AI 時代の新たな脅威として浮上するツール・ポイズニング攻撃”

Google Magika がオープンソース化:AI でファイルの安全性を識別

Google Open Sources Magika: AI-Powered File Identification Tool

2024/02/17 TheHackerNews — Google は、人工知能 (AI) を搭載したファイル識別ツールである Magika をオープンソース化することを発表した。同社は、「Magika は、従来のファイル識別方法を凌駕するものであり、VBA/JavaScript/Powershell などの、従来は識別が困難であったが潜在的に問題のあるコンテンツに対して、全体として 30%の精度向上と、最大で 95%の高精度を提供する」と述べている。

Continue reading “Google Magika がオープンソース化:AI でファイルの安全性を識別”

UK AI Safety Institute が設立: AI の未来への青写真とは?

UK AI Safety Institute: A Blueprint for the Future of AI?

2023/11/03 InfoSecurity — 英国の Frontier AI Taskforce は、2023年4月にファウンデーション・モデル・タスクフォースとして発足した政府出資のイニシアチブである。しかし同機関は、英国 AI Safety Institute へと進化しつつある。Rishi Sunak 英国首相は、2023年11月2日に英国ブレッチリー・パークで開催された AI Safety Summit の閉会スピーチで、同研究所の設立を発表した。この新組織における英国政府の目的は、新たなタイプのAI の安全性テストを任務とする世界的なハブにすることだと、Sunak 首相は述べている。

Continue reading “UK AI Safety Institute が設立: AI の未来への青写真とは?”