GPT-4 調査:脅威アドバイザリを読むだけで多くの脆弱性を悪用できる – University of Illinois

GPT-4 Can Exploit Most Vulns Just by Reading Threat Advisories

2024/04/19 DarkReading — GPT-4 を搭載した AI エージェントは、現実の世界のシステムに影響を及ぼしている、公開されている脆弱性の大半を、オンラインで読み込むだけで悪用できることが判明した。イリノイ大学アーバナ・シャンペーン校 (UIUC) が公開した最新の研究は、AI を悪用するサイバー脅威において、これまで 18ヶ月の間は停滞気味だった状況が、根本的に活性化する恐れがあるとしている。

Continue reading “GPT-4 調査:脅威アドバイザリを読むだけで多くの脆弱性を悪用できる – University of Illinois”

NetOps/SecOps のコラボレーション促進戦略:たまには会食も – Netscout

Strategies to cultivate collaboration between NetOps and SecOps

2024/04/12 HelpNetSecurity — Netscout の CISO である Debby Briggs が、NetOps と SecOps を隔てるサイロの打破について、Help Net Security のインタビューで論じている。実践的なステップとして挙げられるのは、戦略会議のスケジュール/コミュニケーション嗜好の理解/チーム・コラボレーションの促進などだ。進化するクラウド・モデルでは、明確なコラボレーションと役割分担が重要になる。自動化と AI はインシデント対応を強化し、予算配分はチームの効率性に影響を与える。適切なツールを選択するには、問題解決能力/相互運用性/費用対効果などを考慮する必要がある。

Continue reading “NetOps/SecOps のコラボレーション促進戦略:たまには会食も – Netscout”

LastPass の CEO になりすました音声フィシング:従業員の機転により被害には至らず

LastPass: Hackers targeted employee in failed deepfake CEO call

2024/04/11 BleepingComputer — 今週に LastPass が明らかにしたのは、ディープフェイク音声を使って同社の CEO Karim Toubba になりすますという、音声フィッシング攻撃を受けたことだ。しかし、McAfee による最近のグローバル調査によると、25% の人々が AI 音声を用いるなりすまし詐欺の被害にあった、もしくは、知り合いが被害にあったと回答している。ただし、その LastPass の従業員は、攻撃者が WhatsApp を使用していたことを、つまり、きわめて珍しいビジネス・チャネルを使っていたことを不審に思い、被害には至らなかったとのことだ。

Continue reading “LastPass の CEO になりすました音声フィシング:従業員の機転により被害には至らず”

マルウェアの増大が懸念される 2024年:脅威の拡大と複雑化する運用に向き合う – Thales 調査

Malware stands out as the fastest-growing threat of 2024

2024/03/21 HelpNetSecurity —セキュリティ脅威の量や深刻度が増加していると、IT 専門家の 93% が考えており、この数値は昨年の 47% から大幅に増加していると、Thales は述べている。ランサムウェア攻撃を受けた企業数は、この1年間で 27% 以上も急増した。このように脅威が高まっている一方で、ランサムウェア対策を適切に実施している企業は 50% に満たず、身代金を支払う企業は 8% となっている。

Continue reading “マルウェアの増大が懸念される 2024年:脅威の拡大と複雑化する運用に向き合う – Thales 調査”

GitHub Advanced Security の新機能がリリース:AI を活用した脆弱性のパッチ適用支援

GitHub Launches AI-Powered Autofix Tool to Assist Devs in Patching Security Flaws

2024/03/21 TheHackerNews — 3月20日に GitHub が発表したのは 、Advanced Security の全顧客を対象に、コードスキャン自動修正と呼ばれる機能を、パブリック・ベータ版として公開することである。GitHub の Pierre Tempel と Eric Tooley によると、「GitHub Copilot と CodeQL を搭載したコードスキャン自動修正機能は、JavaScript/TypeScript/Java/Python のアラート・タイプの 90%以上をカバーし、見つかった脆弱性の3分の2以上を、ほとんど編集せずに修正できるコード案を提供する」という。

Continue reading “GitHub Advanced Security の新機能がリリース:AI を活用した脆弱性のパッチ適用支援”

Google Drive 上での機密データ管理:緩い共有がもたらす危険性を排除するには?

How to Find and Fix Risky Sharing in Google Drive

2024/03/06 TheHackerNews — Google Workspace の管理者なら誰でも、Google Drive 上で緩く共有された機密情報が、あっという間に乱雑な状態になることを知っている。それは、誰のせいでもない。組織の内外でのリアルタイム・コラボレーションを実現するための、生産性向上スイートとして設計されている以上、避けられないことなのだ。

Continue reading “Google Drive 上での機密データ管理:緩い共有がもたらす危険性を排除するには?”

増加するヴィッシング/スミッシング/フィッシング攻撃:ChatGPT 登場から 1,265%急増

Vishing, smishing, and phishing attacks skyrocket 1,265% post-ChatGPT

2024/02/29 HelpNetSecurity — 企業の 76% においては、ボイス/メッセージング詐欺対策が不十分である、その一方では、ChatGPT がリリースされた以降において、AI を利用するヴィッシング/スミッシングが急増していることが、Enea の調査により明らかになった。

Continue reading “増加するヴィッシング/スミッシング/フィッシング攻撃:ChatGPT 登場から 1,265%急増”

IBM 2023 調査:企業における最大の脅威は、依然として基礎的なセキュリティ対策

The old, not the new: Basic security issues still biggest threat to enterprises

2024/02/23 HelpNetSecurity — IBM の 2024 X-Force Index によると、2023年に増加したのは、サイバー犯罪者が不正ログインを行い、有効なアカウントを通じて企業ネットワークに侵入するインデントであるという。

Continue reading “IBM 2023 調査:企業における最大の脅威は、依然として基礎的なセキュリティ対策”

脆弱性へのパッチ適用:どうする優先順位? どうする AI 活用?

Toward Better Patching — A New Approach with a Dose of AI

2023/02/23 securityweek —2024年を通じて毎月ごとの発表が予測される、2,900件の新しい脆弱性を分析/トリアージすることを、セキュリティ・チームに期待するのは無理である。1ヶ月に 20件でも十分な成果なのである。効果的なパッチを当てることは、侵入を減らす方法として認められている。しかし、それを達成するのは、ほとんど不可能だ。なにが問題かというと、既知の脆弱性の数が非常に多いこと、そして、それぞれのセキュリティ・チームにおいて、優先的にパッチを当てるべき脆弱性の選別が難しいことに集約される。

Continue reading “脆弱性へのパッチ適用:どうする優先順位? どうする AI 活用?”

Google Magika がオープンソース化:AI でファイルの安全性を識別

Google Open Sources Magika: AI-Powered File Identification Tool

2024/02/17 TheHackerNews — Google は、人工知能 (AI) を搭載したファイル識別ツールである Magika をオープンソース化することを発表した。同社は、「Magika は、従来のファイル識別方法を凌駕するものであり、VBA/JavaScript/Powershell などの、従来は識別が困難であったが潜在的に問題のあるコンテンツに対して、全体として 30%の精度向上と、最大で 95%の高精度を提供する」と述べている。

Continue reading “Google Magika がオープンソース化:AI でファイルの安全性を識別”

TensorFlow CI/CD のミスコンフィグへの対応:サプライチェーン攻撃の要因になり得る

TensorFlow CI/CD Flaw Exposed Supply Chain to Poisoning Attacks

2024/01/18 TheHackerNews — オープンソースの機械学習フレームワーク TensorFlow で発見された CI/CD (integration and continuous delivery ) のミスコンフィグが、サプライチェーン攻撃の組織化のために悪用された可能性があるという。今週のレポートで Praetorian の研究者である Adnan Khan と John Stawinski は、「このミスコンフィグを悪用する攻撃者が、悪意のプルリクエストを通じて TensorFlow のビルド・エージェントを侵害し、GitHub/PyPi 上の TensorFlow リリースのサプライチェーンを侵害した可能性がある」と述べている。

Continue reading “TensorFlow CI/CD のミスコンフィグへの対応:サプライチェーン攻撃の要因になり得る”

Email の悪夢 2023:ユーザー組織の 94% がメール・フィッシング攻撃に悩まされている

Email Nightmare: 94% of Firms Hit by Phishing Attacks in 2023

2024/01/16 InfoSecurity — セキュリティ・プロバイダ Egress によると、2023年のサイバー・セキュリティの意思決定者の 94% が、フィッシング攻撃への対処が必要であったことで、E メール・セキュリティはセキュリティ専門家にとって最重要課題であったという。Egress の Email Security Risk Report 2024 によると、この数値は前年と比べて 2% 増加しているようだ。2023年を通して使用されたフィッシング手法の Top-3 は、悪意の URL/マルウェアやランサムウェアの添付ファイル/侵害されたアカウントから発信される攻撃である。

Continue reading “Email の悪夢 2023:ユーザー組織の 94% がメール・フィッシング攻撃に悩まされている”

ランサムウェア 2023年のトレンドは暴露恐喝:1週間の平均攻撃回数は 1158 回

Ransomware Surge: 1 in 10 Organizations Targeted Globally in 2023

2024/01/16 SecurityOnline — 2023 年において、この世界は、かつてないほどのサイバー脅威の急増に直面した。この年のサイバー攻撃件数は、前年比で1% 増という最高記録に達し、世界全体における平均攻撃回数 (週) は 1158 回に達した。

Continue reading “ランサムウェア 2023年のトレンドは暴露恐喝:1週間の平均攻撃回数は 1158 回”

WordPress AI Engine プラグインの脆弱性 CVE-2023-51409 が FIX:RCE にいたる恐れ

CVE-2023-51409: The Severe Vulnerability Threatening 50,000 WordPress Sites

2024/01/09 SecurityOnline — AI Engine プラグインは、50,000 以上のアクティブなインストールを持つ人気の WordPress プラグインだが、先日に深刻なセキュリティ脆弱性が発見された。この、認証を必要としない任意のファイル・アップロードを許してしまう、脆弱性 CVE-2023-51409 により、このプラグインを使用している Web サイトに深刻なリスクが生じている。

Continue reading “WordPress AI Engine プラグインの脆弱性 CVE-2023-51409 が FIX:RCE にいたる恐れ”

Hugging Face/GitHub で API トークンが流出:AI を活用する企業が危険にさらされる

Major Organizations Using ‘Hugging Face’ AI Tools Put at Risk by Leaked API Tokens

2023/12/05 SecurityWeek — Hugging Face/GitHub などのコード・リポジトリに、誤って公開されている 1,600以上の有効な Hugging Face API トークンを、AI サイバー・セキュリティ・スタートアップである Lasso が発見した。トークンなどの機密情報が流出し悪用されると、きわめて高いリスクにいたることから、コードホスティング・プラットフォームやセキュリティ研究者たちかは、以前から注視し続けている。LLM (Large Language Models) を統合する開発者や企業は、Hugging Face API トークンにより、Hugging Face リポジトリの管理を可能にする。

Continue reading “Hugging Face/GitHub で API トークンが流出:AI を活用する企業が危険にさらされる”

VirusTotal における AI の活用:マルウェア検出が 70% も向上している

AI Boosts Malware Detection Rates by 70%

2023/11/29 InfoSecurity — 脅威インテリジェンス共有プラットフォーム VirusTotal が発表したのは、マルウェア分析を強化するサイバー防御者たちが、AI を活用する方法を示す新たな調査結果である。VirusTotal が、この調査を通じて明らかにしたのは、AI が悪意のコードの解析に対して極めて有効であり、従来の手法と比較して 70% も多くの、悪意のスクリプトを特定する能力を持っていることだ。

Continue reading “VirusTotal における AI の活用:マルウェア検出が 70% も向上している”

IT 予算の調査:セキュリティ対策に充てられているのは僅か9% – Vanta

Only 9% of IT budgets are dedicated to security

2023/11/20 HelpNetSecurity — Vanta の調査によると、最善の努力を尽くしているにもかかわらず、企業の 67%がセキュリティとコンプライアンス対策を改善する必要があると回答しており、24%が後手に回っていると評価しているという。ポスト・パンデミックのハイブリッド世界における攻撃対象の拡大/チームや予算の縮小/生産系 AI の急速な台頭などが相まって、企業にとって急務となっているのは、セキュリティ態勢の改善と証明である。

Continue reading “IT 予算の調査:セキュリティ対策に充てられているのは僅か9% – Vanta”

Apache Submarine の脆弱性 CVE-2023-46302 が FIX:RCE にいたる可能性

CVE-2023-46302: Critical Apache Submarine RCE Vulnerability

2023/11/19 SecurityOnline — Apache Submarine で発見された脆弱性 CVE-2023-46302 は、深刻なリモートコード実行 (RCE) を引き起こす可能性のあるものだ。この、End-to-End 機械学習 (ML) プラットフォームの脆弱性は、snakeyaml (CVE-2022-1471) のセキュリティ欠陥に起因しており、脆弱なシステム上での任意のコードを実行するものであり、 Apache Submarine ユーザーに深刻な脅威をもたらす。

Continue reading “Apache Submarine の脆弱性 CVE-2023-46302 が FIX:RCE にいたる可能性”

CISA による AI セキュリティの取り組み:5つの項目で構成されるフレームワーク

CISA Outlines AI-Related Cybersecurity Efforts

2023/11/15 SecurityWeek — 11月14日に米国の CISA (Cybersecurity and Infrastructure Security Agency) は、セキュリティ向上のための人工知能 (AI) の利用促進や、重要インフラ組織への AI 導入支援に関する取り組みを詳述する、新たなドキュメントを発表した。国家 AI 戦略に沿った CISA の Roadmap to AI (PDF) は、サイバー・セキュリティ能力の強化における AI の有効利用を促進し、AI システムを脅威から守ることに加えて、AI を悪用する脅威アクターから重要インフラを保護する取り組みについても詳述している。

Continue reading “CISA による AI セキュリティの取り組み:5つの項目で構成されるフレームワーク”

ChatGPT の停止:OpenAI が DDoS 攻撃を認め Anonymous Sudan が犯行を主張

OpenAI confirms DDoS attacks behind ongoing ChatGPT outages

2023/11/09 BleepingComputer — OpenAI の “周期的な停止” だが、この 24時間で発生した API と ChatGPT サービスを標的とする DDoS 攻撃が原因のようだ。このインシデントの根本的な原因について、OpenAI は詳細を提供しなかったが、今日の未明になって、進行中の分散型サービス拒否 (DDoS) 攻撃に関連していることを認めた。OpenAI のインシデント・レポートには、「DDoS 攻撃と思われる異常なトラフィック・パターンによる周期的な停止に対処している。私たちは、この問題を軽減するための作業を続けている」と述べている。

Continue reading “ChatGPT の停止:OpenAI が DDoS 攻撃を認め Anonymous Sudan が犯行を主張”

GitHub の AI 拡張:3つの機能のパブリック・プレビューを発表

GitHub Enhances Security Capabilities With AI

2023/11/08 SecurityWeek —

今日、Microsoft 傘下の GitHub が、GitHub Advanced Security の AI を活用しする、3つの機能のパブリック・プレビューを発表した。GitHub Enterprise Cloud および Enterprise Server の顧客向けに提供される Advanced Security により、コードの品質を維持/向上するための一連の機能が提供される。Dependabot などの機能の一部は、公開リポジトリでも利用できる。

Continue reading “GitHub の AI 拡張:3つの機能のパブリック・プレビューを発表”

UK AI Safety Institute が設立: AI の未来への青写真とは?

UK AI Safety Institute: A Blueprint for the Future of AI?

2023/11/03 InfoSecurity — 英国の Frontier AI Taskforce は、2023年4月にファウンデーション・モデル・タスクフォースとして発足した政府出資のイニシアチブである。しかし同機関は、英国 AI Safety Institute へと進化しつつある。Rishi Sunak 英国首相は、2023年11月2日に英国ブレッチリー・パークで開催された AI Safety Summit の閉会スピーチで、同研究所の設立を発表した。この新組織における英国政府の目的は、新たなタイプのAI の安全性テストを任務とする世界的なハブにすることだと、Sunak 首相は述べている。

Continue reading “UK AI Safety Institute が設立: AI の未来への青写真とは?”

AI Safety Summit:OWASP が各国政府に対して AI セキュリティ基準の採用を要求

AI Safety Summit: OWASP Urges Governments to Agree on AI Security Standards

2023/11/02 InfoSecurity — OWASP (Open Worldwide Application Security Project) によると、AI の急速な普及がもたらす危険を軽減するためには、AI を搭載するツールがもたらすセキュリティと倫理的リスクに関する、トップレベルの議論だけでは、もはや不十分だという。2023年11月1日~2日にイギリスのブレッチリー・パークで開催された AI Safety Summit に先立ち、この非営利団体はサミット参加者に対して、実用的な AI セキュリティ標準に合意し採用することを、迅速に推進すべきという行動喚起を促している。

Continue reading “AI Safety Summit:OWASP が各国政府に対して AI セキュリティ基準の採用を要求”

フィッシングと生成 AI:メールを介した攻撃が前年比で 1265% 増

Report Links ChatGPT to 1265% Rise in Phishing Emails

2023/10/30 InfoSecurity —2022年 Q4 以降において、悪質なフィッシングメールが 1265% も急増しているという、サイバー・セキュリティにおける懸念すべき傾向が、SlashNext State of Phishing Report 2023 により明らかにされた。この年次レポートは、2022年Q4〜2023年Q3 の12カ月間において、メール/モバイル/ブラウザなどのチャネルで観測された、脅威の分析を網羅するものだ。そして、このレポートでは、クレデンシャル・フィッシング攻撃が 967% も増加したことが強調されている。

Continue reading “フィッシングと生成 AI:メールを介した攻撃が前年比で 1265% 増”

HackerOne の報奨金は累計で $300 million:2023年のレポートからトレンドを探る

HackerOne paid ethical hackers over $300 million in bug bounties

2023/10/28 BleepingComputer — HackerOne が発表したのは、同社のバグバウンティ・プログラムにおいて、倫理的ハッカーや脆弱性研究者に対して提供された報奨金が、累計で $300 million に達したことだ。これまでに、30人のハッカーが $1 million 以上の報酬金を獲得し、その中には $4 million 以上の報酬金を受け取った人もいるという。HackerOne は 10年以上前に設立されたバグバウンティ・プラットフォームであり、脆弱性や弱点を特定/報告する倫理的ハッカーたちに報酬を支払うことで、ソフトウェア・ベンダーとの関係を構築している。

Continue reading “HackerOne の報奨金は累計で $300 million:2023年のレポートからトレンドを探る”

生成 AI とフィッシング・メール:作成時間を 16時間も短縮するが内容に人間バージョンに劣る

Generative AI Can Save Phishers Two Days of Work

2023/10/24 InfoSecurity — IBM の最新研究によると、生成 AI ツールはフィッシングにおける詐欺メール・デザインを 16時間ほど短縮するが、より説得力のあるメッセージの作成に関しては、まだ人間のコツには及ばないという。今日、ソーシャル・エンジニアリングの専門家である Stephanie Carruthers は明らかにした研究プロジェクトの詳細は、人間の心と同じ欺瞞的な力を、生成 AI モデルが理解できるかどうかというものである。

Continue reading “生成 AI とフィッシング・メール:作成時間を 16時間も短縮するが内容に人間バージョンに劣る”

Microsoft の最新 AI アシスタント Security Copilot:スピードを向上させてセキュリティ脅威に対抗

Microsoft announces Security Copilot early access program

2023/10/22 BleepingComputer — 今週に Microsoft が発表したのは、ChatGPT に似た AI アシスタント Security Copilot が、一部の顧客へ向けて早期利用が可能になったことだ。同社の AI 主導型セキュリティ分析ツールである Security Copilot は、Microsoft のグローバルな脅威インテリジェンスの専門知識と、最新の大規模言語モデルを用いることで、セキュリティ・チームが脅威に対抗するスピードを向上させる。

Continue reading “Microsoft の最新 AI アシスタント Security Copilot:スピードを向上させてセキュリティ脅威に対抗”

生成 AI 導入の急増:その一方でセキュリティ意識の遅れが懸念される

AI Adoption Surges But Security Awareness Lags Behind

2023/10/20 infosecurity — ChatGPT や Google Bard のような生成 AI ツールの採用と管理に関する新たな洞察が、ExtraHop の新しい調査により得られた。この調査は、グローバルにおける、1,200人以上の Security/IT のリーダーを対象としたものだ。回答者たちが最も懸念しているのは、不正確な回答 (40%) であり、それに続くのが、顧客や従業員の個人を特定できる情報 (PII) の漏洩 (36%)/企業秘密の漏洩 (33%)/財務上の損失 (25%) などである。

Continue reading “生成 AI 導入の急増:その一方でセキュリティ意識の遅れが懸念される”

Google Play Protect による保護:悪意のアプリに対するスキャンと排除

Google Play Protect Bolsters Security Against Malicious Apps

2023/10/18 InfoSecurity — Google Play Protect の大幅なアップデートにより、Android 端末のセキュリティが強化される。Google によると、今回のアップデートは、モバイル端末を狙ったサイバー脅威の増加に対応するものだという。この Google Play Protect は、約 1250億個のアプリを毎日スキャンし、マルウェアや不要なソフトウェアを検出するために、すでに存在しているセキュリティ機能である。今日のブログ投稿で発表された新たな機能の強化は、コード・レベルのリアルタイム・スキャンを導入するものであり、進化する不正アプリへの対抗を目的とした事前の対策である。

Continue reading “Google Play Protect による保護:悪意のアプリに対するスキャンと排除”

AI ボットの脅威:すでに人間よりも素早く CAPTCHA を解読している

AI-enabled bots can solve CAPTCHAs faster than humans

2023/10/13 HelpNetSecurity — Kasada の調査によると、悪質なボット攻撃との戦いで、多くの企業が収益を失っているという。多くの企業が数百万ドルを費やし、従来からのボット管理ソリューションに取り組んでいるが、ボット攻撃による財務的な影響を受けている。回答者の 38% は、1回のボット攻撃で組織は $500,000 以上の損害を被っていると見積もっており、その数値は昨年の 25% から増加している。さらに、ボットによるアカウント詐欺により、昨年中に 10% 以上の収益を失った組織は 50% に上り、昨年の40%から増加している。

Continue reading “AI ボットの脅威:すでに人間よりも素早く CAPTCHA を解読している”

PyTorch Model モデルの脆弱性 ShellTorch が FIX:リモートコード実行の可能性

Warning: PyTorch Models Vulnerable to Remote Code Execution via ShellTorch

2023/10/03 TheHackerNews — PyTorch モデルを提供しスケーリングするための TorchServe ツールに、複数の深刻なセキュリティ上の欠陥があることを、サイバー・セキュリティ研究者たちが公表した。この問題を発見したイスラエルのランタイム・アプリケーション・セキュリティ企業 Oligo は、この脆弱性を ShellTorch と呼んでいる。

Continue reading “PyTorch Model モデルの脆弱性 ShellTorch が FIX:リモートコード実行の可能性”

AI が作り出すフィッシング・メール:それを見分けることは不可能だ

AI-Generated Phishing Emails Almost Impossible to Detect, Report Finds

2023/10/02 InfoSecurity — AI チャットボットを悪用するサイバー犯罪者たちが、フィッシング・キャンペーンを展開する可能性が懸念されているが、メール・セキュリティ・プロバイダーの Egress によると、AI が作成したフィッシング・メールを検知することは、ほぼ不可能だとのことだ。10月2日に発表された Egress の Phishing Threat Trends Report によると、フィッシング・メールを AI 検知器で分析しても、71.4% の確率で、チャットボットと人間の見分けができないという。

Continue reading “AI が作り出すフィッシング・メール:それを見分けることは不可能だ”

Bing Chat チャットに御用心:マルウェアのダウンロードを推奨されることもある

Bing Chat responses infiltrated by ads pushing malware

2023/09/28 BleepingComputer — OpenAI の GPT-4 エンジンを搭載した Bing Chat が、検索業界における Google の優位性に挑戦するために、2023年2月から Microsoft により展開されている。従来の検索クエリや検索結果の形式ではなく、インタラクティブなチャット・ベースのエクスペリエンスをユーザーに提供することで、オンライン検索をより直感的でユーザー・フレンドリーにすることを、Bing Chat は目指している。そして Microsoft は、この新しいプラットフォームから収入を得るために、2023年3月から Bing Chat に広告を挿入し始めた。

Continue reading “Bing Chat チャットに御用心:マルウェアのダウンロードを推奨されることもある”

Microsoft AI 研究部門の失敗:38TB のプライベート・データを誤って SAS 共有

Microsoft leaks 38TB of private data via unsecured Azure storage

2023/09/18 BleepingComputer — 2020年7月以降において Microsoft の AI 研究部門は、GitHub パブリック・リポジトリに、オープンソースの AI 学習モデルをコントリビュートする際に、誤って 38TB の機密データを流出させていた。それから約3年後に、クラウド・セキュリティ企業である Wiz が発見したのは、流出した情報を含む Azure Blob ストレージ・バケットの、ミスコンフィグレーションされた URL が、Microsoft の従業員により不用意に共有されていたことだった。

Continue reading “Microsoft AI 研究部門の失敗:38TB のプライベート・データを誤って SAS 共有”

FraudGPT という悪意の生成 AI ツール:月額 $200 で ChatGPT の代替品

New AI Tool ‘FraudGPT’ Emerges, Tailored for Sophisticated Attacks

2023/07/26 TheHackerNews — WormGPT の足跡をたどる脅威アクターたちは、さまざまなダークウェブ・マーケットプレイスや Telegram チャンネルで、FraudGPT と名付けたサイバー犯罪生成 AI ツールを宣伝している。7月25日 (火) に発表されたレポートの中で、Netenrich の Security Researcher である Rakesh Krishnan は、「これは AI ボットであり、スピアフィッシング・メールの作成/クラッキングツールの作成/カーディングなどの攻撃に特化したものだ」と述べている。Netenrich によると、このサービスは遅くとも 2023年7月22日以降において、月額 $200 (半年 $1,000/1年 $1,700) で提供されているという。

Continue reading “FraudGPT という悪意の生成 AI ツール:月額 $200 で ChatGPT の代替品”

AI を悪用する6つの攻撃パターン:Google による分類と解説とは?

Google Categorizes 6 Real-World AI Attacks to Prepare for Now

2023/07/21 DarkReading — Google の研究者たちは、現実の AI システムに対して起こり得る6つの攻撃スタイルを特定し、それらの一般的な攻撃ベクターが独特の複雑性を示すことを発見した。今週に発表した報告書の中で、Google の AI 専門レッドチームは、この急成長するテクノロジーに対する各種の脅威を、すでに発見していることを明らかにした。その内容は、ChatGPT や Google Bard などの、生成 AI 製品を駆動する LLM (large language models) を、攻撃者が悪用する方法が主体となっている。

Continue reading “AI を悪用する6つの攻撃パターン:Google による分類と解説とは?”

AI と Open Source の関係:半数以上のプロジェクトで脆弱なパッケージが使用されている

Half of AI Open Source Projects Reference Buggy Packages

2023/07/20 InfoSecurity — AI テクノロジー・スタック全体で、オープンソースが役割を拡大しているが、大半のプロジェクト (52%) ではマニフェスト・ファイルを用いて、既知の脆弱な依存関係が参照されていると、Endor Labs は指摘している。セキュリティ・ベンダーである Endor Labs の最新レポート State of Dependency Management によると、ChatGPT の API はリリースから僅か5ヶ月で、”多様な問題領域”にまたがる 900件の npm/PyPI パッケージで使用されており、これらのパッケージの 70% は真新しいものだという。しかし、あらゆるオープンソース・プロジェクトと同様に、脆弱な依存関係に伴うセキュリティ・リスクは管理される必要があると、Endor Labs は警告している。

Continue reading “AI と Open Source の関係:半数以上のプロジェクトで脆弱なパッケージが使用されている”

エンタープライズ・セキュリティにおけるマクロ・シフトを探る – Scale 調査

Exploring the macro shifts in enterprise security

2023/07/20 HelpNetSecurity — Scale の 2023 Cybersecurity Perspectives Survey によると、ランサムウェア攻撃とデータ侵害の成功件数は昨年1年間で 30%減少したが、ユーザー組織から報告されたセキュリティ・インシデントの種類は増加した。実際のところ、71% の組織が3種類以上のセキュリティ・インシデントを経験しており、前年比で 51%増となっている。特にクラウドの状況が急速に進化し、人手不足が続いている中で、ネットワークを保護するための困難な戦いに、セキュリティ・チームは直面し続けている。

Continue reading “エンタープライズ・セキュリティにおけるマクロ・シフトを探る – Scale 調査”

E コマース調査:59% の決済詐欺の増加を経験し、51% がアカウント乗っ取りを経験

E-commerce Fraud Surges By Over 50% Annually

2023/07/11 InfoSecurity — Ravelin によると、世界の大半の eコマース業者は、過去12ヶ月間において詐欺に悩まされた後に、今年に入ってからは詐欺対策のスペシャリストを雇う予定だという。不正対策ベンダーである同社は、年間売上高 $50m の企業に勤務する世界の不正対策専門家 1,900人を対象に、Global Fraud Trends 2023 調査を実施した。その結果として、59% の回答者がオンライン決済詐欺の増加を経験し、51% がアカウント乗っ取りについても、同様の回答をしていることが明らかになった。

Continue reading “E コマース調査:59% の決済詐欺の増加を経験し、51% がアカウント乗っ取りを経験”

SaaS ポートフォリオ合理化の必要性:企業内の SaaS アプリの 51% がシャドー IT

53% of SaaS licenses remain unused

2023/07/04 HelpNetSecurity — 早急な対策を講じるべきだと Productiv が指摘しているのは、企業における調達/IT/財務部門のリーダーに対するものであり、支出とガバナンスの問題が制御不能に陥るのを防ぐための、SaaS (Software as a Service) ポートフォリオの合理化である。同社は、過去3年間に約1億の SaaS ライセンスが、どのように使用されたかを分析し、1,000億以上のアプリ使用データ・ポイントを含む、SaaS の成長/支出/統合/使用に関する、きわめて重要な SaaS の統計/洞察に関するレポートを提供している。

Continue reading “SaaS ポートフォリオ合理化の必要性:企業内の SaaS アプリの 51% がシャドー IT”

CISO の最大の懸念:サプライチェーンと API のセキュリティ – Salt Security

Supply Chain and APIs Top Security Concerns, CISO Survey Shows

2023/06/21 InfoSecurity — 最近の CISO (Chief Information Security Officers) 調査により、主要なセキュリティ懸念事項として、サプライチェーンと API が浮上していることが分かった。この調査は、API セキュリティ企業の Salt Security が委託し、Global Surveyz が実施したものであり、グローバルにおける 300人の CISO/CSO からの意見がまとめられている。この調査結果によると、CISO の 89% が、デジタル・サービスの急速な展開から生じ、重要なビジネス・データのセキュリティを脅かす、予期せぬリスクに取り組んでいるという。

Continue reading “CISO の最大の懸念:サプライチェーンと API のセキュリティ – Salt Security”

ChatGPT のアカウント 10万件がダークウェブで販売されている:侵害されると何が起こる?

Over 100,000 ChatGPT Accounts Found in Dark Web Marketplaces

2023/06/20 InfoSecurity — OpenAI の LLM (Large Language Models) である ChatGPT の、10万件以上の侵害されたアカウントが、ダークウェブ・マーケットプレイスで発見された。それを発見した、シンガポール拠点のサイバー・セキュリティ企業 Group-IB が、6月20日のブログ記事で説明している。Group-IB の Head of Threat Intelligence である Dmitry Shestakov は、「多くの企業が、ChatGPT を業務フローに組み込んでいる。具体的なアクティビティとしては、従業員による機密通信の入力や、ボットを用いたコードを最適化などが挙げられる」とコメントしている。

Continue reading “ChatGPT のアカウント 10万件がダークウェブで販売されている:侵害されると何が起こる?”

Google の人工知能フレームワーク SAIF:生成 AI の開発/運用を保護するために

Google Launches Framework to Secure Generative AI

2023/06/09 InfoSecurity — 生成 AI が急速に進歩しているが、その悪意に関する創造的な方法を、人々が見つけることもある。数多くの政府は、AI 悪用のリスクを軽減するための、規制の計画を加速させようとしている。その一方では、一部の生成 AI の開発者たちは、自社のモデルやサービスの安全性を確保するために、どのような方法があるかを検討している。生成 AI チャットボット Bard の所有者であり、AI 研究機関 DeepMind の親会社である Google は、2023年6月8日に Secure AI Framework (SAIF) を発表した。

Continue reading “Google の人工知能フレームワーク SAIF:生成 AI の開発/運用を保護するために”

ChatGPT が推奨する OSS パッケージは安全なのか? LLM に悪意を埋め込む PoC が公開

New ChatGPT Attack Technique Spreads Malicious Packages

2023/06/06 InfoSecurity — OpenAI の LLM である ChatGPT を悪用し、開発者たちの環境に悪意のパッケージを拡散させるという、新たなサイバー攻撃手法が登場した。Vulcan Cyber の Voyager18 research team は、先ほど発表したアドバイザリで、この問題について述べている。同社の研究者である Bar Lanyado と、コントリビュータである Ortal Keizman と Yair Divinsky は、「実際には存在しない URL やリファレンスを、さらにはコード・ライブラリや関数を、ChatGPT が生成することが確認されている。このような LLM (Large Language Model) モデルがもたらす幻覚は以前にも報告されていたが、古い学習データの結果として生じている可能性もある」と、技術文書で説明している。

Continue reading “ChatGPT が推奨する OSS パッケージは安全なのか? LLM に悪意を埋め込む PoC が公開”

高度なフィッシング攻撃が 356% も急増:2023 Annual Report – Perception Point 調査

Advanced Phishing Attacks Surge 356% in 2022

2023/05/25 InfoSecurity — Perception Point の調査により、高度なフィッシング攻撃の件数が、2022年は 356 %増加したことが判明した。同社の 2023 Annual Report: Cybersecurity Trends & Insights に記されているのは、脅威アクターによる攻撃の総数は 87%増加したという最新データである。この成長の背景には、悪意のアクターが人工知能 (AI) や機械学習 (ML) を搭載した、新たなツールへのアクセスを、広く獲得し続けているという現実がある。

Continue reading “高度なフィッシング攻撃が 356% も急増:2023 Annual Report – Perception Point 調査”

ChatGPT で作成されたポリモーフィックなマルウェア・サンプルを検出 – WithSecure 報告

AI Used to Create Malware, WithSecure Observes

2023/05/25 InfoSecurity — サイバー・セキュリティの世界では、脅威アクターの手に渡った AI がもたらす潜在的な脅威について、警鐘が鳴り続けている。その中でも、ChatGPT で作成されるマルウェアは、現実のものとなっているようだ。WithSecure の CEO である Juhani Hintikka は、ChatGPT により生成されたマルウェアのサンプルを、同社が発見したことを認めている。

Continue reading “ChatGPT で作成されたポリモーフィックなマルウェア・サンプルを検出 – WithSecure 報告”

GDPR は消費者の信頼を低下させた:IT リーダーの 66% が回答 – Macro 4 調査

Two-Thirds of IT Leaders Say GDPR Has Reduced Consumer Trust

2023/05/22 InfoSecurity — GDPR (General Data Protection Regulation) のあり方により、それぞれの企業に対する消費者の信頼が低下したという、IT リーダーの3分の2 (66%) の捉え方を、Macro 4 の最新調査が示している。2018年5月25日に、GDPR が欧州で施行されてから5年が経過し、個人データ保護の必要性に対する意識が高まった結果が、この調査に現れている。

Continue reading “GDPR は消費者の信頼を低下させた:IT リーダーの 66% が回答 – Macro 4 調査”

AI による音声クローン作成:3秒間のデータがあれば詐欺の成功率は 85% というレベル – McAfee

Your voice could be your biggest vulnerability

2023/05/08 HelpNetSecurity — McAfee によると、オンライン音声詐欺の増加に AI 技術が拍車をかけており、人の声を複製するのに必要な音声は、わずか3秒であることが判明している。7カ国の 7,054人を対象に McAfee が調査したところ、成人の 4分の1 が何らかの AI 音声詐欺を経験したことがあり、10人に 1人が個人的に狙われ、15% が知人に起こったと回答している。結果として、被害者の 77% が騙され、金銭を失ったと回答している。McAfee Labs のセキュリティ研究者たちは、AI 音声クローニング技術と、サイバー犯罪者による悪用に関する、徹底的な調査から得た知見と分析を明らかにした。

Continue reading “AI による音声クローン作成:3秒間のデータがあれば詐欺の成功率は 85% というレベル – McAfee”

BlackBerry 脅威レポート:1位 米国/2位 ブラジル/3位 日本という攻撃頻度が判明

BlackBerry Report Surfaces Increasing Rate of Cyberattacks

2023/05/05 SecurityBoulevard — BlackBerry が発表した脅威インテリジェンス・レポートによると、同社のサイバー・セキュリティ・ソフトウェア/サービスを利用している組織に対して、2022年12月〜2023年2月には1分あたり12件のサイバー攻撃が行われ、そのうち 1.5件は新しいマルウェア・サンプルに基づく攻撃であることが判明した。BlackBerry のレポートでは、これらの攻撃が行われているロケーションの変化についても指摘されている。1位の米国に次いで、2位はブラジル、3位は日本、4位はカナダとなり、シンガポールが初めて Top-10 にランクインしたとのことだ。

Continue reading “BlackBerry 脅威レポート:1位 米国/2位 ブラジル/3位 日本という攻撃頻度が判明”