フェイク Discord パッケージと RAT:PyPI から 11,500+ のダウンロード

Researchers Uncover Malware in Fake Discord PyPI Package Downloaded 11,500+ Times

2025/05/07 TheHackerNews — Python Package Index (PyPI) リポジトリ上で、無害な Discord 関連ユーティリティを装いながら、リモートアクセス型トロイの木馬 (RAT) を取り込んでいる悪意のパッケージを、サイバー・セキュリティ研究者たちが発見した。この問題のパッケージは “discordpydebug” であり、2022年3月21日に PyPI にアップロードされている。すでに、このパッケージは 11,574回もダウンロードされており、PyPI レジストリ上で引き続き提供されている。興味深いことに、このパッケージは、それ以降において更新されていない。

Continue reading “フェイク Discord パッケージと RAT:PyPI から 11,500+ のダウンロード”

Gartner が考えるセキュリティと人工知能:2024 Hype Cycle から現状を読み解く

Gartner Spotlights AI, Security in 2024 Hype Cycle for Emerging Tech

2024/08/22 DarkReading — 企業は新興テクノロジーに注意を払う必要があるが、実証されていないテクノロジーを扱う能力に加えて、これらのテクノロジーを活用する方法についても、戦略を立てる必要があると、Gartner は述べている。今週にリリースされた Gartner の 2024 Hype Cycle for Emerging Technologies では、自律型 AI/開発者の生産性/トータル・エクスペリエンス/人間中心のセキュリティとプライバシーが取り上げられている。これらのテクノロジーを企業に組み込む方法を決定する前に、サイバー・セキュリティのリーダーたちは自社と状況を確かめた上で、それらのテクノロジーの長所と短所を知ることで、最大のメリットを得られるようになる。

Continue reading “Gartner が考えるセキュリティと人工知能:2024 Hype Cycle から現状を読み解く”

ビジネスにおける生成 AI の実態:企業幹部の 70% がセキュリティよりもイノベーションを優先 – IBM

#RSAC: 70% of Businesses Prioritize Innovation Over Security in Generative AI Projects

2024/05/06 InfoSecurity — 生成 AI プロジェクトに関する IBM の最新レポート “Securing Generative AI” によると、企業幹部の 70% がセキュリティよりもイノベーションを優先しているため、サイバー・セキュリティやプライバシーの各種のリスクに企業がさらされているという。この調査では、セキュリティが確保される生成 AI プロジェクトが、僅か 24% であることも判明している。その一方で、安全で信頼できる AI が、ビジネスの成功に不可欠であると、回答者の 82% が認めている。

Continue reading “ビジネスにおける生成 AI の実態:企業幹部の 70% がセキュリティよりもイノベーションを優先 – IBM”

生成 AI 導入の急増:その一方でセキュリティ意識の遅れが懸念される

AI Adoption Surges But Security Awareness Lags Behind

2023/10/20 infosecurity — ChatGPT や Google Bard のような生成 AI ツールの採用と管理に関する新たな洞察が、ExtraHop の新しい調査により得られた。この調査は、グローバルにおける、1,200人以上の Security/IT のリーダーを対象としたものだ。回答者たちが最も懸念しているのは、不正確な回答 (40%) であり、それに続くのが、顧客や従業員の個人を特定できる情報 (PII) の漏洩 (36%)/企業秘密の漏洩 (33%)/財務上の損失 (25%) などである。

Continue reading “生成 AI 導入の急増:その一方でセキュリティ意識の遅れが懸念される”

AI を悪用する6つの攻撃パターン:Google による分類と解説とは?

Google Categorizes 6 Real-World AI Attacks to Prepare for Now

2023/07/21 DarkReading — Google の研究者たちは、現実の AI システムに対して起こり得る6つの攻撃スタイルを特定し、それらの一般的な攻撃ベクターが独特の複雑性を示すことを発見した。今週に発表した報告書の中で、Google の AI 専門レッドチームは、この急成長するテクノロジーに対する各種の脅威を、すでに発見していることを明らかにした。その内容は、ChatGPT や Google Bard などの、生成 AI 製品を駆動する LLM (large language models) を、攻撃者が悪用する方法が主体となっている。

Continue reading “AI を悪用する6つの攻撃パターン:Google による分類と解説とは?”

Google の人工知能フレームワーク SAIF:生成 AI の開発/運用を保護するために

Google Launches Framework to Secure Generative AI

2023/06/09 InfoSecurity — 生成 AI が急速に進歩しているが、その悪意に関する創造的な方法を、人々が見つけることもある。数多くの政府は、AI 悪用のリスクを軽減するための、規制の計画を加速させようとしている。その一方では、一部の生成 AI の開発者たちは、自社のモデルやサービスの安全性を確保するために、どのような方法があるかを検討している。生成 AI チャットボット Bard の所有者であり、AI 研究機関 DeepMind の親会社である Google は、2023年6月8日に Secure AI Framework (SAIF) を発表した。

Continue reading “Google の人工知能フレームワーク SAIF:生成 AI の開発/運用を保護するために”