F5 Strengthens, Scales & Sustains AI Security With Integrated Runtime Protection
2026/01/26 SecurityBoulevard — エンタープライズ・テクノロジーは、より深い融合を模索する流動的な状態へと移行している。突如として、データ統合が重要になったわけではない (確かに重要ではあるが、依然として十分ではない)。また、情報ガバナンスにおける新たな世界秩序へ対応するために、破綻したデータ主権の問題を修正しているからでもない (ほぼその通りではあるが、本質ではない)。さらに言えば、Kubernetes やクラウドというコンテナ化された世界において、簡素な API が 事実上の新たな受容フェーズへと到達したからでもない。

実のところ、これらすべての要因が融合を後押ししているのは事実だが、それに加えて、AI モデルとデータ/API/データ・リポジトリ/他のアプリケーションやコンポーネント、そして当然ながらユーザー自身との交点において、新たな結合が同時に生じている点に本質がある。
こうした潮流を十分に認識している F5 は、コンピューティング・エンティティ同士の相互作用の様式変化に対応するため、中核となる技術提案を拡張している。F5 Application Delivery and Security Platform (ADSP) は、オンプレミス/クラウド/エッジ、さらにはハイブリッド/マルチクラウド環境全体にわたり、あらゆるアプリケーションと API を提供/保護することを目的として設計されたプラットフォームである。これを受けて同社は、F5 AI Guardrails と F5 AI Red Team を発表した。
Guardrails:既製か、カスタムか
これらのサービスは、ミッションクリティカルなエンタープライズ AI システムを保護するために設計されており、F5 が「AI ランタイム・セキュリティに対する包括的なエンドツーエンドのライフサイクル・アプローチ」と呼ぶ、新たなフレームを実現するものである。そこでは、既製品およびカスタム構築のガードレールが活用され、AI エージェントを接続/保護する能力が強化される。
なぜ 2 つとも必要なのか?
一部のケースでは、標準化されたクラウド・プラットフォーム技術が、十分に限定されたユースケースで運用されているため、類似するコードベース/データセット/ワークフローへ の適用可能な制御を、そのまま展開できる。しがたって、既製品のガードレールで十分である。
しかし、より一般的なユースケースでは、柔軟なデプロイメントを求める顧客要件に対応するために、より高度なセキュリティ機能が必要となる。すなわち、デプロイメント自体の複雑なコンフィグにより、モデル非依存の保護が求められる。セキュリティ・チームにとって必要ことは、AI セキュリティ・ポリシーをリアルタイムで調整/適用する能力と環境である。このレベルにおいて重要なことは、AI の相互作用が発生するアプリケーション層で制御を、ソフトウェア・エンジニアリング部門が適用する能力を持つ点であり、これこそが冒頭で述べた融合と流動性の本質である。
F5 AI Guardrails と F5 AI Red Team は、金融サービス/ヘルスケアといった高度に規制された業界を含め、世界中の複数業種にわたる Fortune 500 企業ですでに導入されている。
データ漏洩と予測不能なモデル
F5 の Chief Product Officer である Kunal Anand は「従来のエンタープライズ・ガバナンスでは、AI の速度に追いついていけない。ポリシー導入に遅れると、データ漏洩や予測不能なモデル挙動が発生する。組織には、それらのモデルと同等の、動的な防御が必要になる。F5 AI Guardrails はトラフィックをリアルタイムで保護し、ブラックボックスを可視化されたシステムへと変換する。その一方で、F5 AI Red Team は、本番環境へ到達する前に脆弱性を積極的に発見する。これにより、組織はリスクを恐れることなく、自信を持ってアプリケーションや機能を提供できるようになる」と述べている。
エンタープライズにおける AI の導入が、内部ワークフローやミッション・クリティカルな意思決定へと急速に展開される中で、リスク環境は急激に変化している。Kunal Anand によると、組織が直面するのは外部の攻撃者だけでなく、モデルへの敵対的操作/データ漏えい/予測不能なユーザー相互作用/厳格化するコンプライアンスにも対処する必要がある。
F5 AI Guardrails と F5 AI Red Team を、API セキュリティ/WAF/DDoS 防御といった従来型のインフラ保護と組み合わせることで、企業は既存アプリケーションと並行して AI システムを保護し、断片化したポイント・ソリューションに依存することなく、可視性とポリシーの一貫性を向上させられる。
リスクを自信ある AI 展開へ転換する
Anand は「AI の運用化を急ぐ中で、多くのセキュリティ・ツールは、急速に拡大する攻撃対象領域の一部にしか対処できていない。F5 は、リアルタイムのランタイム防御と、攻撃的セキュリティ・テストおよび、事前構築された攻撃パターンを組み合わせ、包括的な AI セキュリティ・ソリューションを提供する、最先端のベンダーの一つである。これにより、ユーザー組織は自信を持って AI を展開できる」と述べている。
モデルごとに能力や挙動が大きく異なり、機密データ/ユーザー/API/他システムなどと相互作用するが、それらを従来ツールでは管理することは不可能だ。したがって、この種のアプローチを実現するためには、AI システムの実運用に内在するリスクに対処する必要がある。
F5 AI Guardrails は、”モデル非依存のランタイム・セキュリティ層” を提供し、あらゆるクラウドおよびデプロイメント環境において、すべての AI モデル/アプリケーション/エージェントを、一貫したポリシー強制で保護するよう設計されている。
モデル数が膨大な規模へと増加する中で、AI Guardrails は、プロンプト・インジェクションやジェイル・ブレイク攻撃といった脅威からの一貫した保護を提供し、機密データ漏洩を防止するとともに、GDPR/EU AI Act などの規制要件への準拠を強制する。特筆すべき点として、AI Guardrails は、AI による入出力への可観測性と監査性を提供し、モデルが何を行ったかだけでなく、なぜそうしたかを可視化する。これは、規制産業におけるガバナンスおよびコンプライアンスの中核要件である。
継続的かつ持続的な保証
ランタイム保護を補完する F5 AI Red Team は、一般的な脅威ベクターから稀な脅威ベクターまでを模擬する、スケーラブルかつ自動化された敵対的テストを提供する。実環境における脅威の進化に対応するため、毎月 10,000 件以上の新たな攻撃手法が追加される、主要な AI 脆弱性データベースを基盤としている。
AI Red Team は、モデルが危険または予測不能な出力を生成し得る箇所を明らかにし、その知見は直接 AI Guardrails のポリシーへとフィードバックされる。これにより、脅威およびモデル自体の変化に応じて、防御の方式は継続的に進化していく。
AI Guardrails と AI Red Team が、積極的な保証/適応的ランタイム強制/集中型ガバナンス/継続的改善から成る、継続的な AI セキュリティ・フィードバック・ループを確立すると、F5 は説明している。
現代のビジネス環境において AI が急速に普及する中、企業は従来のガバナンスでは対処できない新たなセキュリティ・リスクに直面しています。この問題の原因は、AIモデルがデータや API 、さらにはユーザーと複雑に絡み合う “融合” が進んだことで、データの漏洩や予測不能なモデルの挙動、そして敵対的な操作といった動的な脅威が、従来の防御策をすり抜けてしまう点にあります。
F5 が発表した AI Guardrails と AI Red Team は、こうした課題に対してライフサイクル全体でアプローチするものです。AI Guardrailsは、プロンプトインジェクションや機密データの流出をリアルタイムで防ぐ “盾” として機能し、モデルに依存しない一貫したポリシーを適用します。その一方で AI Red Teamは、最新の脆弱性データベースに基づき、本番環境に潜む弱点を攻撃者目線で事前に洗い出す “矛” の役割を担います。
F5 に限らず、さまざまなセキュリティ・ベンダーが、AI の時代に対応する新たなソリューションを提示していくるのでしょう。よろしければ、カテゴリー SecTools を、ご参照ください。
You must be logged in to post a comment.