コネクテッドカーとレガシー OT の接点:セキュリティを提供する新たな動きとは?

Mix of legacy OT and connected technologies creates security gaps

2023/02/01 HelpNetSecurity — ISG の調査レポートによると、自動車などの各種産業における Operational Technology (OT) への脅威が高まり、資産の安全性を向上させるためのテクノロジーやサービスに投資する企業が増加しているとのことだ。このレポートでは、製造施設やコネクテッド・ビークルに対する最近のサイバー攻撃を受け、製造業/自動車/ライフサイエンスなどの企業にとって、サイバー・セキュリティの優先度が高まっている状況が示されている。レガシー・システムに対する近代化や置き換えが急務であることに加え、熟練したサイバー・セキュリティ・エンジニアの不足が、ソリューション/アウトソーシング・プロバイダーの成長に拍車をかけている。

Continue reading “コネクテッドカーとレガシー OT の接点:セキュリティを提供する新たな動きとは?”

Google の進化する機械学習:Android の PCC 機能によりプライバシーを保護

Google: How Android’s Private Compute Core protects your data

2022/12/08 BleepingComputer — Google は、Android 上のPrivate Compute Core (PCC) 機能のフローと、保護されたデバイス上でローカルに処理される機密ユーザー・データの保持について、より詳細な技術情報を開示した。Android 12で導入されたPCC は、GPS/センサー/マイク/カメラ/スクリーンからのデータを保存/処理し、ユーザーに機械学習機能を提供する、オペレーティング・システム内の安全で分離された信頼できる環境である。

Continue reading “Google の進化する機械学習:Android の PCC 機能によりプライバシーを保護”

Black Hat 2022:自社育成の Machine Learning で SOC の手法を転換

SOC Turns to Homegrown Machine Learning to Catch Cyber-Intruders

2022/12/03 DarkReading — フランスの銀行に所属する情報セキュリティ・チームが、ログデータを学習させた自社開発の機械学習モデルを用いて、ルールベースのセキュリティ・アプライアンスでは捕捉できなかった。3種類の新しいデータ流出パターンを検出できることを発見した。

Continue reading “Black Hat 2022:自社育成の Machine Learning で SOC の手法を転換”

Microsoft と GitHub に対する提訴:Copilot を通じてオープンソースの著作権を侵害した疑い

Microsoft sued for open-source piracy through GitHub Copilot

2022/11/05 BleepingComputer — プログラマーで弁護士の Matthew Butterick が、GitHub の Copilot がオープンソースのライセンス条項に違反し、プログラマーの権利を侵害しているとして、Microsoft/GitHub/OpenAI を提訴している。2022年6月にリリースされた GitHub Copilot は、Visual Studio でソースコードや関数の推奨値を、OpenAI Codex を利用してリアルタイムに生成する、AI ベースのプログラミング支援ツールだ。公開リポジトリの数十億行のコードを使用して、機械学習によりトレーニングされた GitHub Copilot は、自然言語を、数十のプログラミング言語のコード・スニペットに変換できるとされる。

Continue reading “Microsoft と GitHub に対する提訴:Copilot を通じてオープンソースの著作権を侵害した疑い”

エッジにおけるセキュリティ AI/ML:自身が標的とされるリスクと期待される貢献

Securing AI and ML at the Edge

2021/09/08 SecurityBoulevard — いくつかの組織においては、サイバー・セキュリティ運用を強化するために、AI/ML が利用されるようになってきた。最も面倒であっても必要な作業を、アルゴリズムに任せることで、過労気味のセキュリティ・チームのストレスが大幅に軽減される。しかし、組織内の多様なエリアに AI/ML が遍在するようになると、そのテクノロジー自体が攻撃を受けるという危険性が生じる。

Continue reading “エッジにおけるセキュリティ AI/ML:自身が標的とされるリスクと期待される貢献”

ニューラル・ネットワークに埋め込まれたマルウェアは検出を回避する

Hiding Malware inside a model of a neural network

2021/07/26 SecurityAffairs — 3人の研究者、Zhi Wang と Chaoge Liu と Xiang Cui は、ニューラル・ネットワーク・モデルを介してマルウェアを配信し、ネットワークの性能に影響を与えることなく、また、検出を回避するテクノロジーを発表した。178MB の AlexNet モデルに 36.9MB のマルウェアを、1%以内の精度で埋め込むことに成功し、アンチ・ウイルス・エンジンに対して完全な透過性を持つ、脅威が可能になるという。この専門家たちは、人工知能の大規模な導入に伴い、マルウェアの作者はニューラル・ネットワークの悪用に関心を持つようになると考えている。

Continue reading “ニューラル・ネットワークに埋め込まれたマルウェアは検出を回避する”

AI / ML はサイバー・セキュリティにとって諸刃の刃

7 Ways AI and ML Are Helping and Hurting Cybersecurity

2021/07/19 DarkReading — 人工知能 (AI: Artificial Intelligence) と機械学習 (ML: Machine Learning) は、いまでは日常生活の一部となっており、それにはサイバー・セキュリティへの応用も含まれる。適切な人の手にかかれば、AI/ML により脆弱性を特定し、インシデントへの対応時間を短縮することが可能だ。しかし、サイバー犯罪者の手にかかれば、大きな被害を生み出す可能性もある。ここでは、AI/ML がサイバー・セキュリティに与える、7つのポジティブな影響と、7つのネガティブな影響を紹介していく。

Continue reading “AI / ML はサイバー・セキュリティにとって諸刃の刃”

機械学習モデルから学習データを漏えいさせる推論攻撃とは

Inference attacks: How much information can machine learning models leak?

2021/04/14 PortSwigger — さまざまなアプリケーションにおいて、機械学習モデルが広く採用されるようになったことで、プライバシーやセキュリティに関する新たな問題が生じている。その中には、攻撃者が対象となる機械学習モデルの学習データを漏えいさせる、推論攻撃というものがある。

Continue reading “機械学習モデルから学習データを漏えいさせる推論攻撃とは”