AI による音声クローン作成:3秒間のデータがあれば詐欺の成功率は 85% というレベル – McAfee

Your voice could be your biggest vulnerability

2023/05/08 HelpNetSecurity — McAfee によると、オンライン音声詐欺の増加に AI 技術が拍車をかけており、人の声を複製するのに必要な音声は、わずか3秒であることが判明している。7カ国の 7,054人を対象に McAfee が調査したところ、成人の 4分の1 が何らかの AI 音声詐欺を経験したことがあり、10人に 1人が個人的に狙われ、15% が知人に起こったと回答している。結果として、被害者の 77% が騙され、金銭を失ったと回答している。McAfee Labs のセキュリティ研究者たちは、AI 音声クローニング技術と、サイバー犯罪者による悪用に関する、徹底的な調査から得た知見と分析を明らかにした。

Continue reading “AI による音声クローン作成:3秒間のデータがあれば詐欺の成功率は 85% というレベル – McAfee”

BlackBerry 脅威レポート:1位 米国/2位 ブラジル/3位 日本という攻撃頻度が判明

BlackBerry Report Surfaces Increasing Rate of Cyberattacks

2023/05/05 SecurityBoulevard — BlackBerry が発表した脅威インテリジェンス・レポートによると、同社のサイバー・セキュリティ・ソフトウェア/サービスを利用している組織に対して、2022年12月〜2023年2月には1分あたり12件のサイバー攻撃が行われ、そのうち 1.5件は新しいマルウェア・サンプルに基づく攻撃であることが判明した。BlackBerry のレポートでは、これらの攻撃が行われているロケーションの変化についても指摘されている。1位の米国に次いで、2位はブラジル、3位は日本、4位はカナダとなり、シンガポールが初めて Top-10 にランクインしたとのことだ。

Continue reading “BlackBerry 脅威レポート:1位 米国/2位 ブラジル/3位 日本という攻撃頻度が判明”

フィッシングの 2022年を総括:AI ツールにより高度化/急増しているキャンペーン – Zscaler

AI tools help attackers develop sophisticated phishing campaigns

2023/04/25 HelpNetSecurity — Zscaler のレポートによると、フィッシング詐欺の手法が洗練され、検知やブロックが困難になっていることで、サイバー犯罪の脅威が増大しているとのことだ。このレポートでは、現代のフィッシング攻撃の大半が、盗まれた認証情報に依存していることも明らかにされている。さらに、最近トレンドとして、中間者攻撃 (AitM) や、InterPlanetary File System (IPFS) の利用増加、ブラックマーケットから調達したフィッシング・キット、ChatGPT などの AI ツールへの依存についても概説している。

Continue reading “フィッシングの 2022年を総括:AI ツールにより高度化/急増しているキャンペーン – Zscaler”

VirusTotal の 新機能 Code Insight:AI を活用してマルウェアを解析する

VirusTotal now has an AI-powered malware analysis feature

2023/04/24 BleepingComputer — 4月24日 (月) に VirusTotal は、Code Insight と命名された AI ベースの新しいコード解析機能の提供について発表した。この新機能は、RSA Conference 2023 で紹介された Google Cloud Security AI Workbench を搭載しており、特にセキュリティのユースケース向けに細かく調整された Sec-PaLM LLM (Large Language Model) を使用している。VirusTotal Code Insight は、潜在的に有害なファイルを解析して、その悪意の挙動を説明し、実際の脅威をもたらすものを特定する能力を向上させるという。

Continue reading “VirusTotal の 新機能 Code Insight:AI を活用してマルウェアを解析する”

Facebook 上の ChatGPT/Google Bard 偽広告:RedLine スティラーを配布している

Attackers Hide RedLine Stealer Behind ChatGPT, Google Bard Facebook Ads

2023/04/12 DarkReading — サイバー犯罪者たちは、Facebook のビジネスページやコミュニティページを乗っ取り、ChatGPT や Google Bard などの正規のスポンサーを装い、AI チャットボットの無料ダウンロードを宣伝する広告を展開している。それらの広告に誘導されたユーザーは、AI チャットボットではなく、RedLine Stealer と呼ばれる有名な情報スティーラー・マルウェアをダウンロードしていることが、研究者たちの調査により判明した。RedLine Stealer とは、オンライン・ハッカー・フォーラムを通じて販売されている Malware-as-a-Service (MaaS) プラットフォームだ。Web ブラウザを標的にして、認証情報や支払いカードの詳細などの、様々なユーザー情報を収集する。さらに、次の攻撃にむけて攻撃対象領域を評価するために、システムのインベントリを取得する。

Continue reading “Facebook 上の ChatGPT/Google Bard 偽広告:RedLine スティラーを配布している”

NTT の新たな MDR サービス:Microsoft Sentinel をベースに展開される

NTT Taps Microsoft to Provide MDR Service

3023/04/03 SecurityBoulevard — NTT Ltd が提供を開始した MDR (Managed Detection and Response) セキュリティ・サービスは、Azure クラウド・サービスにホストされている SIEM (Security Information Event Management) プラットフォーム Microsoft Sentinel をベースにしたものとなる。この NTT MDR サービスは、オンプレミス/クラウド環境における、あらゆるユーザー/デバイス/アプリケーション/インフラ・プラットフォームからデータを収集する。そして、このアプローチにより、NTT は高度な分析と機械学習アルゴリズムを適用して、効果的に攻撃を特定し阻止することが可能になるという。

Continue reading “NTT の新たな MDR サービス:Microsoft Sentinel をベースに展開される”

ChatGPT/GPT-4 を止めろ:Musk/Wozniak などの著名人グループが申し立て

Musk, Scientists Call for Halt to AI Race Sparked by ChatGPT

2023/03/29 SecurityWeek — いつかは人間を凌駕するかもしれない、パワフルなな人工知能技術の展開において、テック企業の動きは速すぎるのだろうか。著名なコンピューター科学者や、Elon Musk、Apple の創業者 Steve Wozniak といったテック業界の著名人たちのグループは、リスクを考慮するために、6ヶ月間の一時停止を要求している。この申立は、サンフランシスコのスタートアップ OpenAI が、先日に発表した GPT-4 に対するものだ。広く使われている AI チャットボット ChatGPT を、さらに進化させた GPT-4 は、ビッグテックである Microsoft と Google のアプリケーション開発競争に火をつけるきっかけにもなっている。

Continue reading “ChatGPT/GPT-4 を止めろ:Musk/Wozniak などの著名人グループが申し立て”

Microsoft の AI セキュリティ:GPT-4 を搭載する Copilot のプレビューが始まった

Microsoft Introduces GPT-4 AI-Powered Security Copilot Tool to Empower Defenders

2023/03/28 TheHackerNews — 2023年3月28日 (火) に Microsoft は、Security Copilot のプレビュー版を発表した。それは、マシンのスピードとスケールで End−to-End 防御を提供するために、AI 指向の機能を組み込むことを、継続的に推進していくことを示すものだ。この、OpenAI の GPT-4 AI と、独自のセキュリティ専用モデルを搭載した製品は、サイバー・セキュリティ・アナリストによる、脅威への迅速な対応/シグナルの処理/リスク露出の評価を可能にする、セキュリティ分析ツールだとされている。

Continue reading “Microsoft の AI セキュリティ:GPT-4 を搭載する Copilot のプレビューが始まった”

ChatGPT に企業データを投げ込むという行為:潜在的なリスクについて考えよう

The risk of pasting confidential company data into ChatGPT

2023/03/13 SecurityAffairs — Cyberhaven Labs の研究者たちが、各企業で働く 160万人の従業員による ChatGPT の利用状況を分析した。その結果として、発売以来人気のチャットボット・モデルを、彼らの 5.6% が職場で使用し、4.9% が企業データを提供していることが判明した。この種のデータを用いて、ChatGPT のナレッジベースは構築され、さらに、構築された情報は一般に公開されていく。

Continue reading “ChatGPT に企業データを投げ込むという行為:潜在的なリスクについて考えよう”

Brave Search が Summarizer を搭載:検索結果を AI で処理/表示するサービスを開始

Brave Search launches AI-powered summarizer in search results

2023/03/03 BleepingComputer — ユーザーが入力した質問に対して、要約された回答を検索結果よりも優先して提供する、新しい AI 搭載のツール Summarizer が、Brave Search に導入された。Brave Search は、ユーザーを追跡することなく匿名で Web 検索ができる、急成長中のプライバシー重視のインターネット検索エンジンである。いま、検索機能に AI 革命が起こっている。すでに Microsoft は、ChatGPT のアップグレード版を Bing 検索エンジンに組み込み、近い将来には Google も、Bard という独自の AI モデルで同様の機能を実装する予定だという。

Continue reading “Brave Search が Summarizer を搭載:検索結果を AI で処理/表示するサービスを開始”

ChatGPT とセキュリティの関係:ポジティブ? ネガティブ? 判断は時期尚早?

ChatGPT Subs In as Security Analyst, Hallucinates Only Occasionally

2023/02/16 DarkReading — 今週に発表された調査結果によると、人気の Large Language Model (LLM) である ChatGPT は、その AI モデルが特定のアクティビティのために訓練されていなくても、潜在的なセキュリティ・インシデントのトリアージや、コード内のセキュリティ脆弱性を見つける防御者にとって、有益であると示唆される。

Continue reading “ChatGPT とセキュリティの関係:ポジティブ? ネガティブ? 判断は時期尚早?”

GitHub CoPilot への評価:AI モデルのトレーニングに開発者を利用して良いのか?

GitHub Copilot update stops AI model from revealing secrets

2023/02/15 BleepingComputer — GitHub の発表は、Visual Studio 上でソースコードや関数のレコメンドをリアルタイムに生成する、プログラミング・アシスタント Copilot の AI モデルを更新し、より安全で強力になったというものだ。今週からユーザーに展開される新しい AI モデルは、より質の高い提案を短時間で提供し、受け入れ率を高めることで、ソフトウェア開発者の効率をさらに向上させるという。

Continue reading “GitHub CoPilot への評価:AI モデルのトレーニングに開発者を利用して良いのか?”

ChatGPT がフィッシングをプッシュ:2022年下半期の 61% 増が さらに加速する?

Phishing Surges Ahead, as ChatGPT & AI Loom

2023/02/10 DarkReading — 2022年後半にキャンペーン量が大幅に増加するなど、フィッシングが勢いを増している。今週に発表された分析では、フィッシング・メールの総量は下半期に 61% も増加していたという。また、ChatGPT などの新しいツールの台頭により、この分野の勢いも加速する可能性がある。メール・セキュリティ企業である Vade が 2月9日に発表した Q4 2022 Phishing and Malware Report によると、フィッシング攻撃の量は 2022 Q3〜Q4 で 36% 増加しており、研究者たちは 2022年10月〜12月の3月間で、2億7830万件のユニークなフィッシング・メールを調査したとのことだ。

Continue reading “ChatGPT がフィッシングをプッシュ:2022年下半期の 61% 増が さらに加速する?”

Microsoft の AI Chat:Bing と Edge を強化する OpenAI 言語モデルとは?

Microsoft launches new AI chat-powered Bing and Edge browser

2023/02/07 BleepingComputer — 火曜日に Microsoft は、ChatGPT よりもパワフルであり、Web 検索用に訓練された次世代 OpenAI 言語モデルを搭載する、Bing 検索エンジンの新バージョンを発表した。Microsoft の CEO である Satya Nadella は、「AI は、すべてのソフトウェア・カテゴリを根本的に変革するが、その中でも最たるカテゴリは検索であり、そこから始まる。今日、私たちは、AI 操作とチャットを搭載した Bing と Edge を発表し、人々が検索と Web から、より多くのものが得られる」と、今日のプレスイベントで述べている。

Continue reading “Microsoft の AI Chat:Bing と Edge を強化する OpenAI 言語モデルとは?”

ChatGPT に関する調査:IT リーダーの 51% がサイバー攻撃の中核になると回答

IT Leaders Reveal Cyber Fears Around ChatGPT

2023/02/03 InfoSecurity — BlackBerry の最新調査によると、ChatGPT が1年以内にサイバー攻撃の中核として成功すると、セキュリティ・リーダーたちの過半数 (51%) が予想していることが明らかになった。この、北米/英国/オーストラリアの IT 意思決定者 1500人を対象にした調査では、すでに ChatGPT が他国への悪意の目的で使用されている可能性が高いと、71% が推定していることも判明した。ChatGPT とは OpenAI が開発した人工知能 (AI) 言語モデルをチャットボット形式で展開し、ユーザーの質問に対して迅速かつ詳細な回答を提供するものであり、2022年末に製品化されている。

Continue reading “ChatGPT に関する調査:IT リーダーの 51% がサイバー攻撃の中核になると回答”

OpenAI がリリースした AI Text Classifier:書いたのは ChatGPT なのか? 人間なのか?

OpenAI releases tool to detect AI-written text

2023/01/31 BleepingComputer — OpenAI が新たに公開したのは、ChatGPT のような人工知能ツールが生成したコンテンツを検出するための、AI Text Classifier である。OpenAI のブログポストには、「この AI Text Classifier は、テキストの各パートが、ChatGPT のような AI により生成された可能性を予測する、微調整された GPT モデル」と記されている。

Continue reading “OpenAI がリリースした AI Text Classifier:書いたのは ChatGPT なのか? 人間なのか?”

ChatGPT でセキュリティを強化:2023年を変えていく3つの視点とは?

3 Ways ChatGPT Will Change Infosec in 2023

2023/01/28 DarkReading — 2022年11月30日に OpenAI が、ChatGPT をテスト用に公開した直後から、世界中に嵐を巻き起こった。AI や ML の「革新」に満足できなかった業界にとって、この反応は非常に重要なものだった。情報セキュリティにとって AI が、まさに革命的なものであることが、ようやく明らかになった瞬間だと、私は捉えているが、その可能性に期待してきた多くの人々も同様だと思う。

Continue reading “ChatGPT でセキュリティを強化:2023年を変えていく3つの視点とは?”

ChatGPT がもたらす変化:Social エンジニアリング から Prompt エンジニアリングへ

Malicious Prompt Engineering With ChatGPT

2023/01/25 SecurityWeek — 2022年末に、誰もが OpenAI の ChatGPT を利用できるようになったことで、AI の可能性が良くも悪くも実証された。ChatGPT は、大規模な AI ベースの自然言語生成器であり、LLM (Large Language Model) と呼ばれるものである。そして、プロンプト・エンジニアリングという概念を、一般に知らしめたものでもある。ChatGPT は、2022年11月に OpenAI がリリースしたチャットボットであり、OpenAI の LLM である GPT-3 ファミリーの上に構築されている。

Continue reading “ChatGPT がもたらす変化:Social エンジニアリング から Prompt エンジニアリングへ”

ChatGPT が明らかにした問題点: AI を騙して悪用するのは簡単だ

Learning to Lie: AI Tools Adept at Creating Disinformation

2023/01/24 SecurityWeek — 人工知能は小説を書き、ゴッホにインスパイアされた画像を作り、山火事の消火活動を支援するにまでいたった。そして今、人工知能は、かつて人間に限られていた活動において、つまりプロパガンダや偽情報の作成において競争を始めた。オンライン AI チャットボット ChatGPT に、広く否定されている主張 (たとえば COVID-19 ワクチンは危険だという主張) を支持する、ブログ記事/ニュース記事/エッセイを作成するよう、研究者たちは依頼してみた。すると、このサイトは応じることがあり、オンライン・コンテンツのモデレーターを長年にわたり悩ませてきた、同様の主張と見分けがつかないほどの出来栄えで、それらを作文したという。

Continue reading “ChatGPT が明らかにした問題点: AI を騙して悪用するのは簡単だ”

ChatGPT でマルウェア開発:継続的な変異により捕捉/検出が困難になる

ChatGPT Creates Polymorphic Malware

2023/01/18 InfoSecurity — CyberArk のサイバー・セキュリティ研究者が、OpenAI の ChatGPT とテキストベースの対話を行い、新たな多形態マルウェア (Polymorphic Malware) を作成したと報告している。先日に同社が InfoSecurity と共有した技術文書によると、ChatGPT を用いて作成されたマルウェアは、「攻撃者による努力や投資を大幅に抑制した上で、簡単にセキュリティ製品を回避し、緩和を面倒なものにする」ことが可能だという。

Continue reading “ChatGPT でマルウェア開発:継続的な変異により捕捉/検出が困難になる”

ChatGPT の悪用が始まる:人工知能の倫理をバイパスするロシアのハッカーたち

Russian Hackers Try to Bypass ChatGPT’s Restrictions For Malicious Purposes

2023/01/13 InfoSecurity — ロシアのサイバー犯罪者たちが、OpenAI の API 制限をバイパスして ChatGPT チャットボット にアクセスし、不正なアクションを試みる様子が、ダークウェブ・フォーラムで確認されている。ある脅威アクターたちは、OpenAI の無料アカウント制限を回避するために、アップグレード・ユーザーとして支払いに盗んだカードを使用する方法を議論していた。また、OpenAI の地理的なコントロールを回避する方法についてブログを投稿した者や、半合法的なオンライン SMS サービスを使って ChatGPT に登録するチュートリアルを作成した者もいる。

Continue reading “ChatGPT の悪用が始まる:人工知能の倫理をバイパスするロシアのハッカーたち”

ChatGPT という人工知能:フィッシング/BEC/マルウェア開発に利用できる?

ChatGPT Artificial Intelligence: An Upcoming Cybersecurity Threat?

2023/01/06 DarkReading — 人工知能 (AI) に秘められる可能性は、サイバー・セキュリティへの取り組み方を含めて、私たちの生活の多くの側面に革命をもたらす。しかし、それは、慎重に管理する必要がある、新たなリスクと課題も提示している。AI をサイバー・セキュリティに活用する方法の1つは、サイバー脅威を検知して対応できる、インテリジェントなシステムの開発を通じてとなる。これは、ある AI チャット・ボットからの返答であり、私が AI とサイバー脅威について書いてほしいと頼んだときのものだ。もうお分かりだと思うが、この世で一番人気の ChatGPT である。

Continue reading “ChatGPT という人工知能:フィッシング/BEC/マルウェア開発に利用できる?”

Black Hat 2022:自社育成の Machine Learning で SOC の手法を転換

SOC Turns to Homegrown Machine Learning to Catch Cyber-Intruders

2022/12/03 DarkReading — フランスの銀行に所属する情報セキュリティ・チームが、ログデータを学習させた自社開発の機械学習モデルを用いて、ルールベースのセキュリティ・アプライアンスでは捕捉できなかった。3種類の新しいデータ流出パターンを検出できることを発見した。

Continue reading “Black Hat 2022:自社育成の Machine Learning で SOC の手法を転換”

Microsoft Defender for Endpoint に AI 駆動型のランサムウェア検知機能が追加

Microsoft adds AI-driven ransomware protection to Defender

2021/11/16 BleepingComputer — Microsoft は Defender for Endpoint の顧客に対して、AI によるランサムウェア攻撃検知システムを提供し、境界でリスクを評価して脅威アクターをブロックすることで、既存のクラウド保護を補完すると発表した。人間により操作されるランサムウェア攻撃は、特定の手法や行動を特徴としているため、データ駆動型の AI アプローチを用いて、この種の攻撃を検知できると、同社は考えている。

Continue reading “Microsoft Defender for Endpoint に AI 駆動型のランサムウェア検知機能が追加”

エッジにおけるセキュリティ AI/ML:自身が標的とされるリスクと期待される貢献

Securing AI and ML at the Edge

2021/09/08 SecurityBoulevard — いくつかの組織においては、サイバー・セキュリティ運用を強化するために、AI/ML が利用されるようになってきた。最も面倒であっても必要な作業を、アルゴリズムに任せることで、過労気味のセキュリティ・チームのストレスが大幅に軽減される。しかし、組織内の多様なエリアに AI/ML が遍在するようになると、そのテクノロジー自体が攻撃を受けるという危険性が生じる。

Continue reading “エッジにおけるセキュリティ AI/ML:自身が標的とされるリスクと期待される貢献”

Microsoft Azure Sentinel の Fusion 機械学習モデルでランサムウェアを検出

Microsoft Azure Sentinel uses Fusion ML to detect ransomware attacks

2021/08/10 SecurityAffairs — Microsoft Azure Sentinel cloud-native SIEM は、Fusion の機械学習モデルを使用して、企業環境全体のデータを分析し、ランサムウェア攻撃などの潜在的な脅威に関連するアクティビティを検出するものだ。Fusion 機械学習モデルによりランサムウェア攻撃の疑いが検出されると、「Multiple alerts possibly related to Ransomware activity detected:ランサムウェアの活動に関連する疑いのある複数のアラートが検出された」というタイトルの、重大度の高いインシデントが Azure Sentinel ワークスペースでトリガーされる。Microsoft のアナウンスメントには、「Microsoft Threat Intelligence Center (MSTIC) との協力により、Fusion によるランサムウェア検出機能の提供開始を発表する。

Continue reading “Microsoft Azure Sentinel の Fusion 機械学習モデルでランサムウェアを検出”

ニューラル・ネットワークに埋め込まれたマルウェアは検出を回避する

Hiding Malware inside a model of a neural network

2021/07/26 SecurityAffairs — 3人の研究者、Zhi Wang と Chaoge Liu と Xiang Cui は、ニューラル・ネットワーク・モデルを介してマルウェアを配信し、ネットワークの性能に影響を与えることなく、また、検出を回避するテクノロジーを発表した。178MB の AlexNet モデルに 36.9MB のマルウェアを、1%以内の精度で埋め込むことに成功し、アンチ・ウイルス・エンジンに対して完全な透過性を持つ、脅威が可能になるという。この専門家たちは、人工知能の大規模な導入に伴い、マルウェアの作者はニューラル・ネットワークの悪用に関心を持つようになると考えている。

Continue reading “ニューラル・ネットワークに埋め込まれたマルウェアは検出を回避する”

AI / ML はサイバー・セキュリティにとって諸刃の刃

7 Ways AI and ML Are Helping and Hurting Cybersecurity

2021/07/19 DarkReading — 人工知能 (AI: Artificial Intelligence) と機械学習 (ML: Machine Learning) は、いまでは日常生活の一部となっており、それにはサイバー・セキュリティへの応用も含まれる。適切な人の手にかかれば、AI/ML により脆弱性を特定し、インシデントへの対応時間を短縮することが可能だ。しかし、サイバー犯罪者の手にかかれば、大きな被害を生み出す可能性もある。ここでは、AI/ML がサイバー・セキュリティに与える、7つのポジティブな影響と、7つのネガティブな影響を紹介していく。

Continue reading “AI / ML はサイバー・セキュリティにとって諸刃の刃”