Half of AI Open Source Projects Reference Buggy Packages
2023/07/20 InfoSecurity — AI テクノロジー・スタック全体で、オープンソースが役割を拡大しているが、大半のプロジェクト (52%) ではマニフェスト・ファイルを用いて、既知の脆弱な依存関係が参照されていると、Endor Labs は指摘している。セキュリティ・ベンダーである Endor Labs の最新レポート State of Dependency Management によると、ChatGPT の API はリリースから僅か5ヶ月で、”多様な問題領域”にまたがる 900件の npm/PyPI パッケージで使用されており、これらのパッケージの 70% は真新しいものだという。しかし、あらゆるオープンソース・プロジェクトと同様に、脆弱な依存関係に伴うセキュリティ・リスクは管理される必要があると、Endor Labs は警告している。

Osterman Research の Principal Analyst である Michael Sampson は、「最新世代の人工知能 API やプラットフォームが、人々の想像力をかきたてるのは素晴らしいことだが、この Endor Labs のレポートは、セキュリティが追いついていないことを鮮明に証明している」と述べている。
彼は、「潜在的な弱点の迅速な特定と、自動的な修復を提供する技術の採用拡大が、この重要な分野に大きな変化をもたらすだろう。しかし、残念なことに、組織はオープンソース依存の AI API だけでなく、セキュリティに敏感な API 全般のリスクを過小評価しているようだ」と続けている。
アプリケーションの半数以上 (55%) は、セキュリティに敏感な API をコードベースから呼び出しているが、依存関係を含めると、その数値は 95% に上昇すると、このレポートは主張している。
さらに Endor Labs は、ChatGPT のような LLM (large language model) 技術は、疑わしいコード・スニペットに含まれるマルウェアの可能性を、スコアリングするには適していないと警告している。OpenAI GPT 3.5 の精度は、わずか 3.4% であり、Vertex AI text-bison の精度は 7.9% である。
同社は、「どちらのモデルも、かなりの数の偽陽性を生み出し、手作業によるレビュー作業が必要となり、パッケージ削除のトリガーとなるパッケージ・リポジトリへの自動通知を妨げている。とはいえ、それらのモデルは改善されつつあるようだ。こうした発見は、セキュリティに敏感なユースケースに LLM を使用することの難しさを例証している。LLM が手作業のレビュアーを助けることは確かだが、評価精度を 95% あるいは 99% まで高めることができたとしても、自律的な意思決定を可能にするには十分ではないだろう」と述べている。
その他にも、このレポートは、アプリケーションで使われてもいないコードの脆弱性を修正することに、開発者が時間を浪費している可能性があると指摘している。典型的な Java アプリケーション・コードの 71% は、オープンソース・コンポーネントによるものであるが、アプリケーションはインポートされたコードの 12% しか使用されていないと主張している。
このレポートには、「未使用のコードに存在する脆弱性が、悪用されることは稀である。したがって、ユーザー組織は、アプリケーション全体のコードにおいて、攻撃が到達可能な範囲を確実に把握することで、修復作業を最大で 60% を排除することが、また、優先順位を下げることが可能となる」と記されている。
AI テクノロジー・スタックが新しいというわけではありませんが、ChatGPT などが台頭する中で、それらと API 接続するサービスが、ものすごい勢いで増えているのだろうと思います。そして、それらのオープンソース・プロジェクトの 52% では、マニフェスト・ファイルを用いて、既知の脆弱な依存関係が参照されているとのことです。しかし、最近になって、マニフェスト・ファイルを信用して良いのかという問題が、npm で発生しています。そして、これは、npm に限った問題でないのでしょう。
2023/07/04:Manifest Confusion :チェック・ツールがリリース
2023/06/28:NPM の根幹を揺るがす Manifest Confusion

You must be logged in to post a comment.