Windows Recall は一時停止:内部告発ダメージを回避する Microsoft の選択とは?

Microsoft delays Windows Recall rollout, more security testing needed

2024/06/14 HelpNetSecurity — Windows 11 の機能として物議を醸している Recall のリリースを、Microsoft は延期している。Microsoft の Copilot+ PC がリリースされる予定の 6月18日から、Recall のプレビューは広く利用できるはずだった。しかし、現時点においては、Windows Insider Program (WIP) の参加者のみによる利用が、今後の数週間のうちに開始される計画に変更されている。

Continue reading “Windows Recall は一時停止:内部告発ダメージを回避する Microsoft の選択とは?”

PyTorch 分散 RPC フレームワークの脆弱性 CVE-2024-5480 が FIX:ただちにパッチを!

CVE-2024-5480 (CVSS 10): Critical RCE Vulnerability in PyTorch Distributed RPC Framework

2024/06/07 SecurityOnline — PyTorch の分散 RPC (Remote Procedure Call) フレームワークに、深刻な脆弱性 CVE-2024-5480 が発見され、機械学習モデルや機密データに対するリモートコード実行 (RCE) 攻撃の可能性が生じている。この脆弱性は、セキュリティ研究者の xbalien により特定されたものであり、CVSS 値は最大の 10.0 と評価されている。分散トレーニング環境において PyTorch を利用している、ユーザーにとって急務なのは、速やかなパッチ適用である。

Continue reading “PyTorch 分散 RPC フレームワークの脆弱性 CVE-2024-5480 が FIX:ただちにパッチを!”

Windows 11 の新機能 Recall:深刻なデータ漏えいを証明する TotalRecall という PoC

TotalRecall shows how easily data collected by Windows Recall can be stolen

2024/06/04 HelpNetSecurity — 新たに発表された Windows Recall 機能を悪用して、機密情報を盗み出す方法を示すツール TotalRecall が、エシカル・ハッカー Alexander Hagenah により作成された。5月20日に Microsoftは、Windows 11 が搭載される PC 用の、新たなラインナップとして、”Copilot+” を発表した。そのプレビュー機能の中ある Recall だが、セキュリティの専門家やプライバシーを重視するユーザーから、すぐに疑いの目で見られることになった。

Continue reading “Windows 11 の新機能 Recall:深刻なデータ漏えいを証明する TotalRecall という PoC”

Qdrant の脆弱性 CVE-2024-3584 (CVSS 9.8) が FIX: PoC エクスプロイトも公開

CVE-2024-3584: Critical Path Traversal Flaw Exposes Qdrant Vector Database to Remote Takeover

2024/06/03 SecurityOnline — ニューラル・ネットワーク・ベースのマッチングや、セマンティック検索アプリケーションで広く使用されている、オープンソースのベンター類似検索エンジン Qdrant に、深刻な脆弱性 CVE-2024-3584 (CVSS:9.8) が発見された。

Continue reading “Qdrant の脆弱性 CVE-2024-3584 (CVSS 9.8) が FIX: PoC エクスプロイトも公開”

PyPI の新たな悪意のパッケージ Pytoileur:巧妙な手口で検知を回避

New PyPI Malware “Pytoileur” Steals Crypto and Evades Detection

2024/05/29 InfoSecurity — Python Package Index (PyPI) 上に、悪意のパッケージ pytoileur が存在していたことが、サイバーセキュリティ研究者たちにより明らかになった。その、Python で書かれた API 管理ツールと謳うパッケージには、トロイの木馬化された Windows バイナリを、ダウンロードしてインストールするコードが仕込まれていた。それらのバイナリは、監視の機能/永続化の確立/暗号通貨の窃取などを可能にするおのであり、ダウンローダーとして機能するパッケージは、Sonatype の自動マルウェア検出システムにより発見された後に、ただちに削除された。

Continue reading “PyPI の新たな悪意のパッケージ Pytoileur:巧妙な手口で検知を回避”

Python の AI パッケージの脆弱性 CVE-2024-34359 が FIX

Critical Flaw in AI Python Package Can Lead to System and Data Compromise

2024/05/17 SecurityWeek — AI アプリケーション開発者が使用する Python パッケージにおいて、先日に発見された重大な脆弱性により、任意のコード実行が可能となり、システムやデータが危険にさらす可能性があるという。 その脆弱性 CVE-2024-34359 は、研究者 Patrick Peng (別名 retr0reg) により発見され、Llama Dramaと呼ばれている。5月16日 (木) に、サイバーセキュリティ企業 Checkmarks が発表したのは、この脆弱性と影響について説明するブログ記事である。

Continue reading “Python の AI パッケージの脆弱性 CVE-2024-34359 が FIX”

Intel の深刻な脆弱性 CVE-2024-22476 (CVSS 10) などが FIX:全体で 90件を超える欠陥に対応

CVE-2024-22476 (CVSS 10): Intel’s Critical AI Flaw Leaves Systems Open to Attack

2024/05/16 SecurityOnline — Intel は、5月14日に 41件のセキュリティ情報を発表し、同社の製品ライン全体で 90を超える脆弱性に対処した。これらのセキュリティ欠陥の主なポイントはソフトウェアの領域にあり、その中には重要な AI ツールの脆弱性も含まれている。

Continue reading “Intel の深刻な脆弱性 CVE-2024-22476 (CVSS 10) などが FIX:全体で 90件を超える欠陥に対応”

攻撃対象の拡大/ID ベースの攻撃/AI の新たな利用がテーマ – RSA Con 2024

RSAC: Experts Highlight Novel Cyber Threats and Tactics

2024/05/10 InfoSecurity — サイバー犯罪者や脅威アクターたちが、ツールの性能を向上させるにつれて、洗練された新たな攻撃手法が出現している。防御者たちにとっては、この進化を常に把握することが不可欠となる。Proofpoint の Senior Manager of Threat Research である Daniel Blackford は、「攻撃者たちは大きな成功を収め、多くの資金を手にし、活動範囲を拡大している」と説明している。

Continue reading “攻撃対象の拡大/ID ベースの攻撃/AI の新たな利用がテーマ – RSA Con 2024”

OSS セキュリティを加速:レギュレーション整備/Security-by-Design/AI の活用 – RSA Con

RSAC: Three Strategies to Boost Open-Source Security

2024/05/08 InfoSecurity — OSS におけるセキュリティ強化は、この種のコミュニティが非公式かつユビキタスであるため、政府にとって重要な課題となっている。ソフトウェア全般にわたって Security-by-Design を推進し、脆弱性の悪用やサプライチェーン・インシデントを減らすという米国政府の取り組みにおいて、OSS は極めて重要な要素になっている。RSA Conference 2024 が、政府関係者と OSS の関係者たちが、このユニークなエコシステムで Security-by-Design の原則を推進する方法について、議論する機会を提供した。

Continue reading “OSS セキュリティを加速:レギュレーション整備/Security-by-Design/AI の活用 – RSA Con”

ビジネスにおける生成 AI の実態:企業幹部の 70% がセキュリティよりもイノベーションを優先 – IBM

#RSAC: 70% of Businesses Prioritize Innovation Over Security in Generative AI Projects

2024/05/06 InfoSecurity — 生成 AI プロジェクトに関する IBM の最新レポート “Securing Generative AI” によると、企業幹部の 70% がセキュリティよりもイノベーションを優先しているため、サイバー・セキュリティやプライバシーの各種のリスクに企業がさらされているという。この調査では、セキュリティが確保される生成 AI プロジェクトが、僅か 24% であることも判明している。その一方で、安全で信頼できる AI が、ビジネスの成功に不可欠であると、回答者の 82% が認めている。

Continue reading “ビジネスにおける生成 AI の実態:企業幹部の 70% がセキュリティよりもイノベーションを優先 – IBM”

Google の最新セキュリティ製品:AI とMandiant のノウハウをプッシュ – RSA Con 2024

Google Debuts New Security Products, Hyping AI and Mandiant Expertise

2024/05/06 SecurityWeek — Mandiant を $5.6 billion で買収した Google だが、それから僅か2年足らずで、野心的なエンタープライズ・セキュリティ戦略を具体化し始めている。具体的に言うと、脅威インテリジェンスとセキュリティ・オペレーションの新製品を発表し、AI の魔法を使って急成長するサイバー・セキュリティ市場への参入を宣言している。

Continue reading “Google の最新セキュリティ製品:AI とMandiant のノウハウをプッシュ – RSA Con 2024”

BentoML の脆弱性 CVE-2024-2912 と PoC エクスプロイト:ただちにパッチを!

CVE-2024-2912: Critical ‘BentoML’ Flaw Opens AI Systems to Remote Takeover

2024/04/30 SecurityOnline — AI アプリケーションのビルド/デプロイに用いられる、人気の Python ベース・フレームワークである BentoML に、深刻なセキュリティ上の欠陥があることが明らかになった。この脆弱性 CVE-2024-2912 は、ソフトウェアがデータを処理する方法に起因し、BentoML を実行しているサーバ上で、攻撃者に任意のコード実行を許すものになる。

Continue reading “BentoML の脆弱性 CVE-2024-2912 と PoC エクスプロイト:ただちにパッチを!”

GPT-4 調査:脅威アドバイザリを読むだけで多くの脆弱性を悪用できる – University of Illinois

GPT-4 Can Exploit Most Vulns Just by Reading Threat Advisories

2024/04/19 DarkReading — GPT-4 を搭載した AI エージェントは、現実の世界のシステムに影響を及ぼしている、公開されている脆弱性の大半を、オンラインで読み込むだけで悪用できることが判明した。イリノイ大学アーバナ・シャンペーン校 (UIUC) が公開した最新の研究は、AI を悪用するサイバー脅威において、これまで 18ヶ月の間は停滞気味だった状況が、根本的に活性化する恐れがあるとしている。

Continue reading “GPT-4 調査:脅威アドバイザリを読むだけで多くの脆弱性を悪用できる – University of Illinois”

NetOps/SecOps のコラボレーション促進戦略:たまには会食も – Netscout

Strategies to cultivate collaboration between NetOps and SecOps

2024/04/12 HelpNetSecurity — Netscout の CISO である Debby Briggs が、NetOps と SecOps を隔てるサイロの打破について、Help Net Security のインタビューで論じている。実践的なステップとして挙げられるのは、戦略会議のスケジュール/コミュニケーション嗜好の理解/チーム・コラボレーションの促進などだ。進化するクラウド・モデルでは、明確なコラボレーションと役割分担が重要になる。自動化と AI はインシデント対応を強化し、予算配分はチームの効率性に影響を与える。適切なツールを選択するには、問題解決能力/相互運用性/費用対効果などを考慮する必要がある。

Continue reading “NetOps/SecOps のコラボレーション促進戦略:たまには会食も – Netscout”

LastPass の CEO になりすました音声フィシング:従業員の機転により被害には至らず

LastPass: Hackers targeted employee in failed deepfake CEO call

2024/04/11 BleepingComputer — 今週に LastPass が明らかにしたのは、ディープフェイク音声を使って同社の CEO Karim Toubba になりすますという、音声フィッシング攻撃を受けたことだ。しかし、McAfee による最近のグローバル調査によると、25% の人々が AI 音声を用いるなりすまし詐欺の被害にあった、もしくは、知り合いが被害にあったと回答している。ただし、その LastPass の従業員は、攻撃者が WhatsApp を使用していたことを、つまり、きわめて珍しいビジネス・チャネルを使っていたことを不審に思い、被害には至らなかったとのことだ。

Continue reading “LastPass の CEO になりすました音声フィシング:従業員の機転により被害には至らず”

マルウェアの増大が懸念される 2024年:脅威の拡大と複雑化する運用に向き合う – Thales 調査

Malware stands out as the fastest-growing threat of 2024

2024/03/21 HelpNetSecurity —セキュリティ脅威の量や深刻度が増加していると、IT 専門家の 93% が考えており、この数値は昨年の 47% から大幅に増加していると、Thales は述べている。ランサムウェア攻撃を受けた企業数は、この1年間で 27% 以上も急増した。このように脅威が高まっている一方で、ランサムウェア対策を適切に実施している企業は 50% に満たず、身代金を支払う企業は 8% となっている。

Continue reading “マルウェアの増大が懸念される 2024年:脅威の拡大と複雑化する運用に向き合う – Thales 調査”

GitHub Advanced Security の新機能がリリース:AI を活用した脆弱性のパッチ適用支援

GitHub Launches AI-Powered Autofix Tool to Assist Devs in Patching Security Flaws

2024/03/21 TheHackerNews — 3月20日に GitHub が発表したのは 、Advanced Security の全顧客を対象に、コードスキャン自動修正と呼ばれる機能を、パブリック・ベータ版として公開することである。GitHub の Pierre Tempel と Eric Tooley によると、「GitHub Copilot と CodeQL を搭載したコードスキャン自動修正機能は、JavaScript/TypeScript/Java/Python のアラート・タイプの 90%以上をカバーし、見つかった脆弱性の3分の2以上を、ほとんど編集せずに修正できるコード案を提供する」という。

Continue reading “GitHub Advanced Security の新機能がリリース:AI を活用した脆弱性のパッチ適用支援”

Google Drive 上での機密データ管理:緩い共有がもたらす危険性を排除するには?

How to Find and Fix Risky Sharing in Google Drive

2024/03/06 TheHackerNews — Google Workspace の管理者なら誰でも、Google Drive 上で緩く共有された機密情報が、あっという間に乱雑な状態になることを知っている。それは、誰のせいでもない。組織の内外でのリアルタイム・コラボレーションを実現するための、生産性向上スイートとして設計されている以上、避けられないことなのだ。

Continue reading “Google Drive 上での機密データ管理:緩い共有がもたらす危険性を排除するには?”

増加するヴィッシング/スミッシング/フィッシング攻撃:ChatGPT 登場から 1,265%急増

Vishing, smishing, and phishing attacks skyrocket 1,265% post-ChatGPT

2024/02/29 HelpNetSecurity — 企業の 76% においては、ボイス/メッセージング詐欺対策が不十分である、その一方では、ChatGPT がリリースされた以降において、AI を利用するヴィッシング/スミッシングが急増していることが、Enea の調査により明らかになった。

Continue reading “増加するヴィッシング/スミッシング/フィッシング攻撃:ChatGPT 登場から 1,265%急増”

IBM 2023 調査:企業における最大の脅威は、依然として基礎的なセキュリティ対策

The old, not the new: Basic security issues still biggest threat to enterprises

2024/02/23 HelpNetSecurity — IBM の 2024 X-Force Index によると、2023年に増加したのは、サイバー犯罪者が不正ログインを行い、有効なアカウントを通じて企業ネットワークに侵入するインデントであるという。

Continue reading “IBM 2023 調査:企業における最大の脅威は、依然として基礎的なセキュリティ対策”

脆弱性へのパッチ適用:どうする優先順位? どうする AI 活用?

Toward Better Patching — A New Approach with a Dose of AI

2023/02/23 securityweek —2024年を通じて毎月ごとの発表が予測される、2,900件の新しい脆弱性を分析/トリアージすることを、セキュリティ・チームに期待するのは無理である。1ヶ月に 20件でも十分な成果なのである。効果的なパッチを当てることは、侵入を減らす方法として認められている。しかし、それを達成するのは、ほとんど不可能だ。なにが問題かというと、既知の脆弱性の数が非常に多いこと、そして、それぞれのセキュリティ・チームにおいて、優先的にパッチを当てるべき脆弱性の選別が難しいことに集約される。

Continue reading “脆弱性へのパッチ適用:どうする優先順位? どうする AI 活用?”

Google Magika がオープンソース化:AI でファイルの安全性を識別

Google Open Sources Magika: AI-Powered File Identification Tool

2024/02/17 TheHackerNews — Google は、人工知能 (AI) を搭載したファイル識別ツールである Magika をオープンソース化することを発表した。同社は、「Magika は、従来のファイル識別方法を凌駕するものであり、VBA/JavaScript/Powershell などの、従来は識別が困難であったが潜在的に問題のあるコンテンツに対して、全体として 30%の精度向上と、最大で 95%の高精度を提供する」と述べている。

Continue reading “Google Magika がオープンソース化:AI でファイルの安全性を識別”

TensorFlow CI/CD のミスコンフィグへの対応:サプライチェーン攻撃の要因になり得る

TensorFlow CI/CD Flaw Exposed Supply Chain to Poisoning Attacks

2024/01/18 TheHackerNews — オープンソースの機械学習フレームワーク TensorFlow で発見された CI/CD (integration and continuous delivery ) のミスコンフィグが、サプライチェーン攻撃の組織化のために悪用された可能性があるという。今週のレポートで Praetorian の研究者である Adnan Khan と John Stawinski は、「このミスコンフィグを悪用する攻撃者が、悪意のプルリクエストを通じて TensorFlow のビルド・エージェントを侵害し、GitHub/PyPi 上の TensorFlow リリースのサプライチェーンを侵害した可能性がある」と述べている。

Continue reading “TensorFlow CI/CD のミスコンフィグへの対応:サプライチェーン攻撃の要因になり得る”

Email の悪夢 2023:ユーザー組織の 94% がメール・フィッシング攻撃に悩まされている

Email Nightmare: 94% of Firms Hit by Phishing Attacks in 2023

2024/01/16 InfoSecurity — セキュリティ・プロバイダ Egress によると、2023年のサイバー・セキュリティの意思決定者の 94% が、フィッシング攻撃への対処が必要であったことで、E メール・セキュリティはセキュリティ専門家にとって最重要課題であったという。Egress の Email Security Risk Report 2024 によると、この数値は前年と比べて 2% 増加しているようだ。2023年を通して使用されたフィッシング手法の Top-3 は、悪意の URL/マルウェアやランサムウェアの添付ファイル/侵害されたアカウントから発信される攻撃である。

Continue reading “Email の悪夢 2023:ユーザー組織の 94% がメール・フィッシング攻撃に悩まされている”

ランサムウェア 2023年のトレンドは暴露恐喝:1週間の平均攻撃回数は 1158 回

Ransomware Surge: 1 in 10 Organizations Targeted Globally in 2023

2024/01/16 SecurityOnline — 2023 年において、この世界は、かつてないほどのサイバー脅威の急増に直面した。この年のサイバー攻撃件数は、前年比で1% 増という最高記録に達し、世界全体における平均攻撃回数 (週) は 1158 回に達した。

Continue reading “ランサムウェア 2023年のトレンドは暴露恐喝:1週間の平均攻撃回数は 1158 回”

WordPress AI Engine プラグインの脆弱性 CVE-2023-51409 が FIX:RCE にいたる恐れ

CVE-2023-51409: The Severe Vulnerability Threatening 50,000 WordPress Sites

2024/01/09 SecurityOnline — AI Engine プラグインは、50,000 以上のアクティブなインストールを持つ人気の WordPress プラグインだが、先日に深刻なセキュリティ脆弱性が発見された。この、認証を必要としない任意のファイル・アップロードを許してしまう、脆弱性 CVE-2023-51409 により、このプラグインを使用している Web サイトに深刻なリスクが生じている。

Continue reading “WordPress AI Engine プラグインの脆弱性 CVE-2023-51409 が FIX:RCE にいたる恐れ”

Hugging Face/GitHub で API トークンが流出:AI を活用する企業が危険にさらされる

Major Organizations Using ‘Hugging Face’ AI Tools Put at Risk by Leaked API Tokens

2023/12/05 SecurityWeek — Hugging Face/GitHub などのコード・リポジトリに、誤って公開されている 1,600以上の有効な Hugging Face API トークンを、AI サイバー・セキュリティ・スタートアップである Lasso が発見した。トークンなどの機密情報が流出し悪用されると、きわめて高いリスクにいたることから、コードホスティング・プラットフォームやセキュリティ研究者たちかは、以前から注視し続けている。LLM (Large Language Models) を統合する開発者や企業は、Hugging Face API トークンにより、Hugging Face リポジトリの管理を可能にする。

Continue reading “Hugging Face/GitHub で API トークンが流出:AI を活用する企業が危険にさらされる”

VirusTotal における AI の活用:マルウェア検出が 70% も向上している

AI Boosts Malware Detection Rates by 70%

2023/11/29 InfoSecurity — 脅威インテリジェンス共有プラットフォーム VirusTotal が発表したのは、マルウェア分析を強化するサイバー防御者たちが、AI を活用する方法を示す新たな調査結果である。VirusTotal が、この調査を通じて明らかにしたのは、AI が悪意のコードの解析に対して極めて有効であり、従来の手法と比較して 70% も多くの、悪意のスクリプトを特定する能力を持っていることだ。

Continue reading “VirusTotal における AI の活用:マルウェア検出が 70% も向上している”

IT 予算の調査:セキュリティ対策に充てられているのは僅か9% – Vanta

Only 9% of IT budgets are dedicated to security

2023/11/20 HelpNetSecurity — Vanta の調査によると、最善の努力を尽くしているにもかかわらず、企業の 67%がセキュリティとコンプライアンス対策を改善する必要があると回答しており、24%が後手に回っていると評価しているという。ポスト・パンデミックのハイブリッド世界における攻撃対象の拡大/チームや予算の縮小/生産系 AI の急速な台頭などが相まって、企業にとって急務となっているのは、セキュリティ態勢の改善と証明である。

Continue reading “IT 予算の調査:セキュリティ対策に充てられているのは僅か9% – Vanta”

Apache Submarine の脆弱性 CVE-2023-46302 が FIX:RCE にいたる可能性

CVE-2023-46302: Critical Apache Submarine RCE Vulnerability

2023/11/19 SecurityOnline — Apache Submarine で発見された脆弱性 CVE-2023-46302 は、深刻なリモートコード実行 (RCE) を引き起こす可能性のあるものだ。この、End-to-End 機械学習 (ML) プラットフォームの脆弱性は、snakeyaml (CVE-2022-1471) のセキュリティ欠陥に起因しており、脆弱なシステム上での任意のコードを実行するものであり、 Apache Submarine ユーザーに深刻な脅威をもたらす。

Continue reading “Apache Submarine の脆弱性 CVE-2023-46302 が FIX:RCE にいたる可能性”

CISA による AI セキュリティの取り組み:5つの項目で構成されるフレームワーク

CISA Outlines AI-Related Cybersecurity Efforts

2023/11/15 SecurityWeek — 11月14日に米国の CISA (Cybersecurity and Infrastructure Security Agency) は、セキュリティ向上のための人工知能 (AI) の利用促進や、重要インフラ組織への AI 導入支援に関する取り組みを詳述する、新たなドキュメントを発表した。国家 AI 戦略に沿った CISA の Roadmap to AI (PDF) は、サイバー・セキュリティ能力の強化における AI の有効利用を促進し、AI システムを脅威から守ることに加えて、AI を悪用する脅威アクターから重要インフラを保護する取り組みについても詳述している。

Continue reading “CISA による AI セキュリティの取り組み:5つの項目で構成されるフレームワーク”

ChatGPT の停止:OpenAI が DDoS 攻撃を認め Anonymous Sudan が犯行を主張

OpenAI confirms DDoS attacks behind ongoing ChatGPT outages

2023/11/09 BleepingComputer — OpenAI の “周期的な停止” だが、この 24時間で発生した API と ChatGPT サービスを標的とする DDoS 攻撃が原因のようだ。このインシデントの根本的な原因について、OpenAI は詳細を提供しなかったが、今日の未明になって、進行中の分散型サービス拒否 (DDoS) 攻撃に関連していることを認めた。OpenAI のインシデント・レポートには、「DDoS 攻撃と思われる異常なトラフィック・パターンによる周期的な停止に対処している。私たちは、この問題を軽減するための作業を続けている」と述べている。

Continue reading “ChatGPT の停止:OpenAI が DDoS 攻撃を認め Anonymous Sudan が犯行を主張”

GitHub の AI 拡張:3つの機能のパブリック・プレビューを発表

GitHub Enhances Security Capabilities With AI

2023/11/08 SecurityWeek —

今日、Microsoft 傘下の GitHub が、GitHub Advanced Security の AI を活用しする、3つの機能のパブリック・プレビューを発表した。GitHub Enterprise Cloud および Enterprise Server の顧客向けに提供される Advanced Security により、コードの品質を維持/向上するための一連の機能が提供される。Dependabot などの機能の一部は、公開リポジトリでも利用できる。

Continue reading “GitHub の AI 拡張:3つの機能のパブリック・プレビューを発表”

UK AI Safety Institute が設立: AI の未来への青写真とは?

UK AI Safety Institute: A Blueprint for the Future of AI?

2023/11/03 InfoSecurity — 英国の Frontier AI Taskforce は、2023年4月にファウンデーション・モデル・タスクフォースとして発足した政府出資のイニシアチブである。しかし同機関は、英国 AI Safety Institute へと進化しつつある。Rishi Sunak 英国首相は、2023年11月2日に英国ブレッチリー・パークで開催された AI Safety Summit の閉会スピーチで、同研究所の設立を発表した。この新組織における英国政府の目的は、新たなタイプのAI の安全性テストを任務とする世界的なハブにすることだと、Sunak 首相は述べている。

Continue reading “UK AI Safety Institute が設立: AI の未来への青写真とは?”

AI Safety Summit:OWASP が各国政府に対して AI セキュリティ基準の採用を要求

AI Safety Summit: OWASP Urges Governments to Agree on AI Security Standards

2023/11/02 InfoSecurity — OWASP (Open Worldwide Application Security Project) によると、AI の急速な普及がもたらす危険を軽減するためには、AI を搭載するツールがもたらすセキュリティと倫理的リスクに関する、トップレベルの議論だけでは、もはや不十分だという。2023年11月1日~2日にイギリスのブレッチリー・パークで開催された AI Safety Summit に先立ち、この非営利団体はサミット参加者に対して、実用的な AI セキュリティ標準に合意し採用することを、迅速に推進すべきという行動喚起を促している。

Continue reading “AI Safety Summit:OWASP が各国政府に対して AI セキュリティ基準の採用を要求”

フィッシングと生成 AI:メールを介した攻撃が前年比で 1265% 増

Report Links ChatGPT to 1265% Rise in Phishing Emails

2023/10/30 InfoSecurity —2022年 Q4 以降において、悪質なフィッシングメールが 1265% も急増しているという、サイバー・セキュリティにおける懸念すべき傾向が、SlashNext State of Phishing Report 2023 により明らかにされた。この年次レポートは、2022年Q4〜2023年Q3 の12カ月間において、メール/モバイル/ブラウザなどのチャネルで観測された、脅威の分析を網羅するものだ。そして、このレポートでは、クレデンシャル・フィッシング攻撃が 967% も増加したことが強調されている。

Continue reading “フィッシングと生成 AI:メールを介した攻撃が前年比で 1265% 増”

HackerOne の報奨金は累計で $300 million:2023年のレポートからトレンドを探る

HackerOne paid ethical hackers over $300 million in bug bounties

2023/10/28 BleepingComputer — HackerOne が発表したのは、同社のバグバウンティ・プログラムにおいて、倫理的ハッカーや脆弱性研究者に対して提供された報奨金が、累計で $300 million に達したことだ。これまでに、30人のハッカーが $1 million 以上の報酬金を獲得し、その中には $4 million 以上の報酬金を受け取った人もいるという。HackerOne は 10年以上前に設立されたバグバウンティ・プラットフォームであり、脆弱性や弱点を特定/報告する倫理的ハッカーたちに報酬を支払うことで、ソフトウェア・ベンダーとの関係を構築している。

Continue reading “HackerOne の報奨金は累計で $300 million:2023年のレポートからトレンドを探る”

生成 AI とフィッシング・メール:作成時間を 16時間も短縮するが内容に人間バージョンに劣る

Generative AI Can Save Phishers Two Days of Work

2023/10/24 InfoSecurity — IBM の最新研究によると、生成 AI ツールはフィッシングにおける詐欺メール・デザインを 16時間ほど短縮するが、より説得力のあるメッセージの作成に関しては、まだ人間のコツには及ばないという。今日、ソーシャル・エンジニアリングの専門家である Stephanie Carruthers は明らかにした研究プロジェクトの詳細は、人間の心と同じ欺瞞的な力を、生成 AI モデルが理解できるかどうかというものである。

Continue reading “生成 AI とフィッシング・メール:作成時間を 16時間も短縮するが内容に人間バージョンに劣る”

Microsoft の最新 AI アシスタント Security Copilot:スピードを向上させてセキュリティ脅威に対抗

Microsoft announces Security Copilot early access program

2023/10/22 BleepingComputer — 今週に Microsoft が発表したのは、ChatGPT に似た AI アシスタント Security Copilot が、一部の顧客へ向けて早期利用が可能になったことだ。同社の AI 主導型セキュリティ分析ツールである Security Copilot は、Microsoft のグローバルな脅威インテリジェンスの専門知識と、最新の大規模言語モデルを用いることで、セキュリティ・チームが脅威に対抗するスピードを向上させる。

Continue reading “Microsoft の最新 AI アシスタント Security Copilot:スピードを向上させてセキュリティ脅威に対抗”

生成 AI 導入の急増:その一方でセキュリティ意識の遅れが懸念される

AI Adoption Surges But Security Awareness Lags Behind

2023/10/20 infosecurity — ChatGPT や Google Bard のような生成 AI ツールの採用と管理に関する新たな洞察が、ExtraHop の新しい調査により得られた。この調査は、グローバルにおける、1,200人以上の Security/IT のリーダーを対象としたものだ。回答者たちが最も懸念しているのは、不正確な回答 (40%) であり、それに続くのが、顧客や従業員の個人を特定できる情報 (PII) の漏洩 (36%)/企業秘密の漏洩 (33%)/財務上の損失 (25%) などである。

Continue reading “生成 AI 導入の急増:その一方でセキュリティ意識の遅れが懸念される”

Google Play Protect による保護:悪意のアプリに対するスキャンと排除

Google Play Protect Bolsters Security Against Malicious Apps

2023/10/18 InfoSecurity — Google Play Protect の大幅なアップデートにより、Android 端末のセキュリティが強化される。Google によると、今回のアップデートは、モバイル端末を狙ったサイバー脅威の増加に対応するものだという。この Google Play Protect は、約 1250億個のアプリを毎日スキャンし、マルウェアや不要なソフトウェアを検出するために、すでに存在しているセキュリティ機能である。今日のブログ投稿で発表された新たな機能の強化は、コード・レベルのリアルタイム・スキャンを導入するものであり、進化する不正アプリへの対抗を目的とした事前の対策である。

Continue reading “Google Play Protect による保護:悪意のアプリに対するスキャンと排除”

AI ボットの脅威:すでに人間よりも素早く CAPTCHA を解読している

AI-enabled bots can solve CAPTCHAs faster than humans

2023/10/13 HelpNetSecurity — Kasada の調査によると、悪質なボット攻撃との戦いで、多くの企業が収益を失っているという。多くの企業が数百万ドルを費やし、従来からのボット管理ソリューションに取り組んでいるが、ボット攻撃による財務的な影響を受けている。回答者の 38% は、1回のボット攻撃で組織は $500,000 以上の損害を被っていると見積もっており、その数値は昨年の 25% から増加している。さらに、ボットによるアカウント詐欺により、昨年中に 10% 以上の収益を失った組織は 50% に上り、昨年の40%から増加している。

Continue reading “AI ボットの脅威:すでに人間よりも素早く CAPTCHA を解読している”

PyTorch Model モデルの脆弱性 ShellTorch が FIX:リモートコード実行の可能性

Warning: PyTorch Models Vulnerable to Remote Code Execution via ShellTorch

2023/10/03 TheHackerNews — PyTorch モデルを提供しスケーリングするための TorchServe ツールに、複数の深刻なセキュリティ上の欠陥があることを、サイバー・セキュリティ研究者たちが公表した。この問題を発見したイスラエルのランタイム・アプリケーション・セキュリティ企業 Oligo は、この脆弱性を ShellTorch と呼んでいる。

Continue reading “PyTorch Model モデルの脆弱性 ShellTorch が FIX:リモートコード実行の可能性”

AI が作り出すフィッシング・メール:それを見分けることは不可能だ

AI-Generated Phishing Emails Almost Impossible to Detect, Report Finds

2023/10/02 InfoSecurity — AI チャットボットを悪用するサイバー犯罪者たちが、フィッシング・キャンペーンを展開する可能性が懸念されているが、メール・セキュリティ・プロバイダーの Egress によると、AI が作成したフィッシング・メールを検知することは、ほぼ不可能だとのことだ。10月2日に発表された Egress の Phishing Threat Trends Report によると、フィッシング・メールを AI 検知器で分析しても、71.4% の確率で、チャットボットと人間の見分けができないという。

Continue reading “AI が作り出すフィッシング・メール:それを見分けることは不可能だ”

Bing Chat チャットに御用心:マルウェアのダウンロードを推奨されることもある

Bing Chat responses infiltrated by ads pushing malware

2023/09/28 BleepingComputer — OpenAI の GPT-4 エンジンを搭載した Bing Chat が、検索業界における Google の優位性に挑戦するために、2023年2月から Microsoft により展開されている。従来の検索クエリや検索結果の形式ではなく、インタラクティブなチャット・ベースのエクスペリエンスをユーザーに提供することで、オンライン検索をより直感的でユーザー・フレンドリーにすることを、Bing Chat は目指している。そして Microsoft は、この新しいプラットフォームから収入を得るために、2023年3月から Bing Chat に広告を挿入し始めた。

Continue reading “Bing Chat チャットに御用心:マルウェアのダウンロードを推奨されることもある”

Microsoft AI 研究部門の失敗:38TB のプライベート・データを誤って SAS 共有

Microsoft leaks 38TB of private data via unsecured Azure storage

2023/09/18 BleepingComputer — 2020年7月以降において Microsoft の AI 研究部門は、GitHub パブリック・リポジトリに、オープンソースの AI 学習モデルをコントリビュートする際に、誤って 38TB の機密データを流出させていた。それから約3年後に、クラウド・セキュリティ企業である Wiz が発見したのは、流出した情報を含む Azure Blob ストレージ・バケットの、ミスコンフィグレーションされた URL が、Microsoft の従業員により不用意に共有されていたことだった。

Continue reading “Microsoft AI 研究部門の失敗:38TB のプライベート・データを誤って SAS 共有”

FraudGPT という悪意の生成 AI ツール:月額 $200 で ChatGPT の代替品

New AI Tool ‘FraudGPT’ Emerges, Tailored for Sophisticated Attacks

2023/07/26 TheHackerNews — WormGPT の足跡をたどる脅威アクターたちは、さまざまなダークウェブ・マーケットプレイスや Telegram チャンネルで、FraudGPT と名付けたサイバー犯罪生成 AI ツールを宣伝している。7月25日 (火) に発表されたレポートの中で、Netenrich の Security Researcher である Rakesh Krishnan は、「これは AI ボットであり、スピアフィッシング・メールの作成/クラッキングツールの作成/カーディングなどの攻撃に特化したものだ」と述べている。Netenrich によると、このサービスは遅くとも 2023年7月22日以降において、月額 $200 (半年 $1,000/1年 $1,700) で提供されているという。

Continue reading “FraudGPT という悪意の生成 AI ツール:月額 $200 で ChatGPT の代替品”

AI を悪用する6つの攻撃パターン:Google による分類と解説とは?

Google Categorizes 6 Real-World AI Attacks to Prepare for Now

2023/07/21 DarkReading — Google の研究者たちは、現実の AI システムに対して起こり得る6つの攻撃スタイルを特定し、それらの一般的な攻撃ベクターが独特の複雑性を示すことを発見した。今週に発表した報告書の中で、Google の AI 専門レッドチームは、この急成長するテクノロジーに対する各種の脅威を、すでに発見していることを明らかにした。その内容は、ChatGPT や Google Bard などの、生成 AI 製品を駆動する LLM (large language models) を、攻撃者が悪用する方法が主体となっている。

Continue reading “AI を悪用する6つの攻撃パターン:Google による分類と解説とは?”

AI と Open Source の関係:半数以上のプロジェクトで脆弱なパッケージが使用されている

Half of AI Open Source Projects Reference Buggy Packages

2023/07/20 InfoSecurity — AI テクノロジー・スタック全体で、オープンソースが役割を拡大しているが、大半のプロジェクト (52%) ではマニフェスト・ファイルを用いて、既知の脆弱な依存関係が参照されていると、Endor Labs は指摘している。セキュリティ・ベンダーである Endor Labs の最新レポート State of Dependency Management によると、ChatGPT の API はリリースから僅か5ヶ月で、”多様な問題領域”にまたがる 900件の npm/PyPI パッケージで使用されており、これらのパッケージの 70% は真新しいものだという。しかし、あらゆるオープンソース・プロジェクトと同様に、脆弱な依存関係に伴うセキュリティ・リスクは管理される必要があると、Endor Labs は警告している。

Continue reading “AI と Open Source の関係:半数以上のプロジェクトで脆弱なパッケージが使用されている”