Zscalerのブログ

Zscalerの最新ブログ情報を受信

Partner

Zscaler AI GuardとNVIDIA NeMo Guardrailsによる生成AIアプリケーションの保護

image
JASON SMITH
March 16, 2026 - 6 分で読了

組織が生成AIや大規模言語モデルの導入を加速させるにつれ、セキュリティ部門は、大きな影響力を持つこれらのシステムを急速に進化する脅威から保護するという、前例のない課題に直面しています。プロンプト インジェクション攻撃やデータの持ち出しから、悪意のあるコンテンツの生成やジェイルブレイクの試みまで、AI導入に関わるセキュリティ リスクは多岐にわたり、複雑です。組織には、イノベーションやユーザー エクスペリエンスを損なうことなくAIと同じ速度で動作する、堅牢なエンタープライズグレードのセキュリティ制御が必要です。

ZscalerとNVIDIAは、協力してこれらのセキュリティ制御の課題に対処するため、Zscaler AI GuardとNVIDIA NeMo Guardrailsとの統合を通して、生成AIアプリケーションを保護する強力な多層防御アプローチを提供します。この統合により、セキュリティ部門とAIアプリケーション開発者は、設定負荷を最小限に抑え、運用効率を最大限に高めながら、LLMを活用したシステムに包括的な多層保護を展開できるようになります。

生成AIの保護における課題の増大

AIの急速な普及により、組織は運用面、セキュリティ面、コンプライアンス面において全く新しいタイプの課題を抱えています。プロンプト インジェクション攻撃は、AIを操ることで、意図していない動きをさせたり、機密情報を漏洩させたりします。AIとのやり取りを介してデータが漏洩すると、企業秘密、顧客データ、営業秘密がリスクにさらされます。ジェイルブレイクの試みは安全制御の回避を狙うものです。一方、有害な応答や不適切な応答は、ブランドの評判を損ない、顧客の信頼を低下させる恐れがあります。

従来のセキュリティ アプローチは、AIワークロード特有の特性に対応できる設計ではありません。LLMのやり取りは動的で対話的な性質を持つため、低遅延を維持しながら状況に応じて適応できるリアルタイムの検査とポリシー施行が求められます。組織に必要なのは、許容範囲を超えたレイテンシーを発生させたり、ユーザー エクスペリエンスの低下させたりすることなく、AIのコミュニケーション パターンの微妙な違いを理解し、プロンプトと応答をリアルタイムで検査し、セキュリティ ポリシーを施行する、専用のソリューションです。

NVIDIA NeMo Guardrails:プログラム可能なAI安全性確保の基盤

NVIDIA NeMo Guardrailsは、開発者がLLMベースのアプリケーションにプログラム可能なガードレールを追加できるようにする、オープンソースのツールキットです。このフレームワークは、アプリケーション コードと言語モデル間のAIガードレールを定義、調整、施行するための、柔軟で拡張可能なアーキテクチャーを提供します。NeMo Guardrailsを使用すると、開発者は会話の流れの制御、トピックの境界の適用、不適切な脱線の防止といった機能を、外部のセキュリティ サービスと共にAIアプリケーション パイプラインに直接統合することができます。

NeMo Guardrailsは、ユーザー プロンプトがLLMに到達する前に処理する入力レールと、ユーザーに返される前にモデルの応答を分析する出力レールの両方をサポートします。こうした双方向の制御により、AIとのやり取りのライフサイクル全体にわたる包括的な保護が可能になります。フレームワークの拡張可能なアクション システムにより、カスタムPythonアクションを介して外部セキュリティ サービスとシームレスに統合できるようになります。これにより、単一のツールだけでは提供できないエンタープライズグレードの保護を実現する機会が生まれます。

Zscaler AI Guard:エンタープライズグレードのAIランタイム保護

Zscaler AI Guardは、エンド ユーザーとLLMとの間でやり取りされるプロンプトおよび応答に対して組織のAIポリシーを施行することで、AIユーザーとAIアプリケーションに包括的なランタイム保護を提供します。業界で最も実績のあるインライン検査プラットフォーム上に構築されており、生成AIのワークロード専用に設計されたリアルタイムの脅威検出、情報漏洩防止、コンテンツ管理機能を提供します。

AI Guardは、多言語サポートを備えた18を超える特殊な検出機能を備えており、プロンプト インジェクション、ジェイルブレイクの試み、悪意のあるURL、機密漏洩、PII検出、有害性、ブランドや評判のリスク、競合他社への言及などに対応します。このプラットフォームは、AIを活用したエンジンを活用することで、誤検知率を低く抑えつつ高い精度を実現します。これにより、真の脅威をブロックしながら、AIとの正当なやり取りを不必要な摩擦なく進行させることが可能となります。重大度を設定できるため、組織は検出のしきい値を、それぞれのリスク許容度やユース ケースの要件に合わせて微調整できます。

技術の連携:LLMアプリケーションのための多層防御

Zscaler AI GuardとNVIDIA NeMo Guardrailsを組み合わせることで、強力な多層防御戦略を構築できます。NeMo Guardrailsがオーケストレーション フレームワークとパターンベースの防御機能を提供し、そこにAI GuardがZscalerのクラウド型セキュリティ サービスを活用した動的かつリアルタイムな脅威分析機能を加えます。2つのソリューションの組み合わせにより、AIアプリケーション ビルダーは攻撃や悪用のあらゆるシナリオに対する保護を容易に追加できるようになります。

この統合は、NeMo Guardrails内にZscaler AI Guard APIを呼び出すカスタム アクションを実装することで実現できます。ユーザーがプロンプトを送信すると、まずNeMo Guardrailsが、設定済みのガードレールに基づいて入力内容を評価します。プロンプトが初期チェックを通過すると、AI Guardアクションがコンテンツを検査し、脅威、ポリシー違反、機密データの有無を確認します。LLMの応答にも同様のプロセスが適用され、あらゆるAIとのやり取りの両側面を網羅する包括的な検査パイプラインが構築されます。

Image

主なユース ケースとメリット

多層防御セキュリティ:セマンティック ガードレールと独立した脅威検出サービスの組み合わせにより、開発者はプロンプト インジェクション、データ漏洩、悪意のある入力に対する、極めて重要な第2段階の防御線を得ることができます。この多層的なアプローチにより、たとえ1つの制御が回避されたとしても、追加の保護機能が維持され、脅威を捕捉することが保証されます。

シンプルな展開:AI GuardをNeMo Guardrails内のカスタム アクションとして挿入すると、アプリケーション部門とセキュリティ部門がAIセキュリティ ポリシーの施行を一元化できるようになります。このアプローチにより、アプリケーション コードのすべてのインスタンスで制御を実装する必要がなくなり、複雑さが軽減され、すべてのAIアプリケーションにわたって一貫した保護が確保されます。

プロンプト インジェクションの防止:AI Guardの検出機能は、8つの言語にわたる複数のタイプのプロンプト インジェクション攻撃を識別し、NeMo Guardrailsの設定可能なガードレール定義と連携して、悪意のある操作の試みがLLMに到達する前にブロックします。

データ プライバシーの強化:組織は、AI Guardの強力な情報漏洩防止機能を活用して、AIとのやり取りの最中に機密データの漏洩をブロックできます。PII、秘密情報、APIキー、機密情報を識別するための100種類以上の定義済み辞書を備えているため、組織はAIの生産的な活用を実現しながら、GDPRやCCPAなどの規制を順守できます。

コンテンツ モデレーションとブランド保護:AI Guardは、ブランドの評判を損なう恐れのある、有害な内容や不適切な内容、または悪質なコンテンツを監視し、防止します。専用の検出機能により、不適切な応答、競合他社への言及、組織のポリシーに違反するコンテンツが特定されるため、顧客向けAIアプリケーションを安全に展開できるようになります。

必要なステップ

この統合には、NVIDIA NeMo Guardrails 0.18.0以降と、Zscaler AI GuardのサブスクリプションおよびAPIアクセスの有効化が必要です。この実装では、NeMo GuardrailsとAI Guard APIを連携させるカスタム アクションを設定することで、既存のガードレール構成内でプロンプトと応答の両方をシームレスに検査できるようになります。付属のドキュメントとサンプル設定を使用すれば、数分でセットアップを完了できます。

この統合機能は現在、GitHub (github.com/zscaler/aiguard-nemo-guardrails)で利用可能です。このリポジトリーには、NeMo Guardrails環境にAI Guard保護を導入する際に役立つ、ソース コード、設定例、詳細なセットアップ手順が含まれています。

AI導入に対する信頼の構築

組織が、大規模言語モデル、AIアプリケーション、エージェント型ワークフローを活用する新たなイノベーションにより業務効率の向上を模索するなか、堅牢なセキュリティ制御の必要性が最重要になっています。Zscaler AI GuardとNVIDIA NeMo Guardrailsの統合により、開発者とセキュリティ部門は、本番環境にLLMを安心して導入するために必要な多層防御メカニズムを利用できるようになります。

Zscalerは、アプリケーションの構築方法に関係なく、開発者にとって、利用しやすく、柔軟で、簡単なAIセキュリティの提供に取り組んでいます。AI GuardとNeMo Guardrailsの統合により、LLM、エージェント型ワークフロー、その他さまざまなAI活用型ユース ケースを保護するための、高度にカスタマイズ可能で堅牢なセキュリティ ソリューションが実現します。先を見越したパターンベースの防御と動的なリアルタイム分析を組み合わせることで、既知の攻撃を阻止しつつ、AIのランタイム動作を標的とする新たな脅威を軽減する、強力なセキュリティ戦略を確立できます。

生成AIによる変革に取り組む組織が直面する、AIセキュリティの課題を解決するため、今後もNVIDIAとの連携を深めていくことを期待しています。Zscaler AI Guardの詳細や統合については、Zscalerの製品ページをご覧いただくか、GitHubリポジトリーにアクセスして導入方法をご確認ください。

リソース

form submtited
お読みいただきありがとうございました

このブログは役に立ちましたか?

免責事項:このブログは、Zscalerが情報提供のみを目的として作成したものであり、「現状のまま」提供されています。記載された内容の正確性、完全性、信頼性については一切保証されません。Zscalerは、ブログ内の情報の誤りや欠如、またはその情報に基づいて行われるいかなる行為に関して一切の責任を負いません。また、ブログ内でリンクされているサードパーティーのWebサイトおよびリソースは、利便性のみを目的として提供されており、その内容や運用についても一切の責任を負いません。すべての内容は予告なく変更される場合があります。このブログにアクセスすることで、これらの条件に同意し、情報の確認および使用は自己責任で行うことを理解したものとみなされます。

Zscalerの最新ブログ情報を受信

このフォームを送信することで、Zscalerのプライバシー ポリシーに同意したものとみなされます。