Zscalerのブログ

Zscalerの最新ブログ情報を受信

製品およびソリューション

アプリに潜むAIのリスクとは

image

AI導入を保護して加速させるZscalerの最先端AIイノベーションの詳細は、特別リリース イベントに今すぐ登録してご確認ください:ゼロトラストによるAI導入の加速

AIは事業運営を変革し、これまで以上の生産性、迅速な意思決定、新たな競争優位性をもたらしています。Gartnerによると、2028年までに組織の95%以上が生成AIのAPIやモデルを使用したり、生成AI対応アプリケーションを本番環境に導入したりすると予測されています。ZscalerはAIトランザクションが前年比36倍と急増していることを確認しており、組織におけるAI導入の爆発的な拡大が明らかになっています。この急増はChatGPT、Microsoft Copilot、Grammarly、その他の生成AIツールによって推進されており、これらは既知のアプリケーションからのAI関連トラフィックの大部分を占めています。

しかし、AI導入と日常的なワークフローへの統合は、セキュリティ、データ プライバシー、コンプライアンスに関する新たなリスクを招きます。過去2年間、セキュリティ リーダーはシャドーAI (従業員によるChatGPTなどのパブリックAIツールの未承認の使用)への対応に苦慮してきました。当初の対応は多くの場合、ドメインをブロックして事態の収拾を待つといった事後対応でした。しかし、状況は劇的に変化しています。AIはもはや単なるAIを使用する目的でのツールやWebサイトではなく、日常的に使用する承認済みのビジネス アプリケーションに直接組み込まれた統合機能となっています。

2025年のGartner Cybersecurity Innovations in AI Risk Management and Use Surveyによると、サイバーセキュリティ リーダーの71%は、従業員が必要なサイバーセキュリティ リスク管理プロセスを経ずに組み込み型AI機能を使用していると疑っているか、その証拠を持っています。

スタンドアロンのシャドーAIから組み込まれて普及したAIへの進化は、はるかに複雑で多層的なセキュリティの課題を生み出します。AIが主なコラボレーション スイートの一部である場合、ブロックはもはや有効な戦略ではありません。AIによる生産性向上のメリットを安全に活用するには、組織に新しいセキュリティ戦略が必要です。これは、単にシャドーAIをブロックするだけでなく、可視性、コンテキスト、意図に重点を置いたゼロトラスト+AIのセキュリティ アプローチを採用するものです。この記事では、AIセキュリティの最前線にある新たな課題やリスクを探り、保護のための最新フレームワークを概説します。

Image

図:Zscaler ThreatLabzレポート:主に使用されているAIアプリケーション

AIセキュリティに関する新たな課題

私たちの調査によると、組織はAIをさらに深く業務に統合するなかで、増大する次の2つの課題に直面しています。

  1. 自社環境内で避けられない急速なAI導入の保護。
  2. それに伴い増大する脆弱性の認識と軽減。

以下では、AIエコシステムをどのように保護するかに影響を与える、5つの最大のAIセキュリティ課題とその対応方法を紹介します。

1. シャドーAI:密かな内部脅威

シャドーAIはイノベーションを促進できる一方で、データ損失や侵害の可能性をはじめとする重大なリスクに組織をさらします。BCGの最新の「AI at Work」調査によると、従業員の54%が自社の許可を得ていなくてもAIツールを使用すると公言しています。では、この事実を見逃し続けることの弊害は何でしょうか?最近のIBMのレポートによると、組織の20%が未承認AIの使用に関連する侵害を受けており、侵害コストは平均67万ドル増加しています。さらに、シャドーAIのインシデントはセキュリティ上の懸念にとどまらず、深刻な影響を及ぼしています。

  • 44%がデータ侵害を経験
  • 41%がセキュリティ コストの増加を報告
  • 39%が運用の中断を経験
  • 23%がイメージの低下に直面

これらの影響は、シャドーAIが単なるセキュリティ上の懸念ではなく、業務、財務、評判にまで影響を及ぼすビジネス リスクであることを示しています。

2. ワークフローを簡素化する一方でセキュリティは複雑化する組み込み型AI

AIセキュリティの新たな最前線は、スタンドアロンのWebサイトではなく従業員が毎日使用するツール内の「AI」ボタンにあります。CRMやデザイン ツールなど多数のSaaSアプリケーションに生成AI機能が組み込まれています。

組織は、組み込み型AIが招くセキュリティ リスクを大幅に過小評価しています。組み込み型AIは、AI使用全体の40%以上を占め、不透明な動作が多く見受けられます。現在のAI TRISM (人工知能の信頼性、リスク、セキュリティ管理)ソリューションやベンダーが提供するセキュリティの保証は、シャドーAIとして潜むことが多い組み込み型AIに対してはほとんど効果がありません。その結果、組織は脆弱なままとなり、これらの組み込みシステムの複雑なオーケストレーションやインターフェイスに対応できない、時代遅れの監査や不適切なクリックラップ契約に依存することになります。

Image

 

図:GartnerのITシンポジウム基調講演調査、2024年


組み込み型AIのセキュリティ課題の典型例を次に紹介します。

  1. 担当部門はJiraとConfluenceを使用し、機密性の高いプロジェクトの管理、重大なソフトウェア バグの追跡、社内プロセスの文書化を行っています。一部のインテリジェンス モデルでは、ユーザーが機密性の高いプロジェクトやデータをAIに入力して処理させることができるようになりました。セキュリティ部門は使用されているモデルを把握できないことが多く、モデルがどこでホストされているのか、機密データがトレーニングに使用されているのか、公開されていないかといった疑問を抱えています。Microsoft Copilotは、AIを組織のワークフローに完全に統合するものあり、ユーザーのM365 Graph全体、つまりメール、チャット、カレンダー、ドキュメントにアクセスできます。たった1回のプロンプトで機密性の高いデータが漏洩する可能性があります。やり取りは信頼されたMicrosoftエコシステム内で行われるため、従来のDLPCASBのソリューションでは、AIクエリー自体の内容やコンテキストを把握できません。

各AI統合は、データが環境から出るための新しい未検証のチャネルを表します。組織が20種類の承認済みSaaSアプリを使用している場合、それぞれ独自のAIが組み込まれており、異なるデータ プライバシー条件に基づいて異なる大規模言語モデル(LLM)と通信している可能性があります。この隠れたAIの相互作用を手動で追跡および管理することは困難な作業です。セキュリティ部門は、これらのやり取りで交換されるデータを把握できないことが多く、大きな死角が生じます。


3. AIのプロンプトと出力:情報漏洩を引き起こすリスク領域

AIプロンプトには、ソース コード、未公開の財務データ、顧客の個人識別情報(PII)、医療記録、戦略計画などの機密データが含まれる場合があります。Zscaler ThreatLabz AIセキュリティ レポートによると、AIトランザクションの59.9%がブロックされており、データ セキュリティと管理外でのAIアプリケーションの使用に対する懸念が示されています。

リスクは入力だけではありません。AIモデルからの出力にも、次のような独自の危険が伴います。

  • ハルシネーション:AIモデルは、事実、統計、コード スニペットを堂々と捏造することがあります。従業員がこうした捏造された情報をレポート、財務モデル、ソフトウェア開発に無意識のうちに組み込むと、業務のミスやリスクを招きます。
  • IPや著作権の問題:公開データでトレーニングされたモデルは、著作権で保護された素材や他の組織の独自コードを含む出力を生成する可能性があり、重大な法的リスクとIPリスクが生じます。
  • 機密データの漏洩:AIモデルはトレーニングに使用された機密データをそのまま吐き出したり、別のユーザーのセッションからデータを露出させたりする可能性があり、予期しないデータ漏洩を引き起こします。

セキュリティ部門はAIの入出力を定期的にサニタイズおよび検証し、包括的なプロンプト監視戦略を実装する必要があります。

4. 進化するデータ プライバシーとコンプライアンス リスク

AIが大規模なデータセットに依存すると、GDPR、CCPA、HIPAAなどの規制に縛られる組織にコンプライアンス リスクが生じます。AIモデル内で機密データを不適切に扱うと、規制違反、罰金、信用の失墜につながる恐れがあります。最大の課題の1つは、AIの不透明性です。多くの場合、AIシステムがデータをどのように処理および保存し、インサイトを生成しているかを完全に把握できません。そのため、コンプライアンスの証明、効果的なガバナンスの実装、AIアプリケーションによる意図しないPIIの公開防止が難しくなります。

AIに対する規制の監視が強化されるなかで、法的リスクとコンプライアンス リスクを軽減するには、AI固有のセキュリティ ポリシーとガバナンス フレームワークを優先する必要があります。


5. 戦略的なAIガバナンスのギャップ

効果的なAIガバナンスは、ほとんどの組織で実現されていません。その理由は次の点が機能していないためです。

  • 包括的な可視化:どのAIツールが誰によって使用されているのか、ユーザー プロンプトやセッションでどの機密データが公開されているのかを確認できません。
  • 最小特権アクセスの施行:AI機能に不要な社内の過剰な権限を特定し、取り消します。
  • ユーザーの意図の理解:AIプロンプトの背後にある目的を分析できず、高リスクのアクティビティーを防止するインテリジェントな意図に基づくポリシーではなく、古いキーワード ブロックを使用せざるを得ない状況となっています。
  • ドリフトの防止:侵害や罰金につながる前に、リスクの高い設定ミスやコンプライアンス違反を一貫して検出し、修正します。

ゼロトラストでAI推進を加速

AIは従来のセキュリティとガバナンス ポリシーよりも速く進化しており、まさにそこでリスクが増加します。組織は次の基本的な手順に従うことで、AIを安全に使用できます。

  • シャドーAIの特定:組織向けアプリケーションに組み込まれたAIも含めて、組織内で使用されているすべてのAIをエンドツーエンドで可視化します。AIがどのように使用され、どのデータが活用され、関連するリスクは何かを把握します。
  • 最小特権アクセスの施行:適切なポリシーとユーザーのリスク プロファイルに基づいて、AIシステムへのアクセスの特定、制限、取り消しを行います。危険なアプリへのユーザー セッションは隔離します。
  • データの制御:ラベル付けと制御を活用することで、Microsoft CopilotなどのAIアプリケーションのトレーニングに不適切なデータが使用されないようにします。また、高度なDLPポリシーを施行し、AIプロンプト/応答に含まれる機密データの使用を保護します。
  • 責任あるAIの使用の確保:AIガバナンスのベスト プラクティスとガードレールを施行し、AIの設計、開発、展開、使用を安全に保護します。意図に基づく制御により、有害またはリスクの高いプロンプトを防止します。

これらの手順により、ゼロトラスト アーキテクチャーの原則をAIアプリケーションの使用に適用し、AIが超高速で進化しても組織の回復力を維持できるようにします。AI導入を保護して加速させるためのZscalerの最新イノベーションについは、特別リリース イベントのゼロトラストによるAI導入の加速でご覧いただけます。





 

免責事項:このブログは、Zscalerが情報提供のみを目的として作成したものであり、「現状のまま」提供されています。記載された内容の正確性、完全性、信頼性については一切保証されません。Zscalerは、ブログ内の情報の誤りや欠如、またはその情報に基づいて行われるいかなる行為に関して一切の責任を負いません。また、ブログ内でリンクされているサードパーティーのWebサイトおよびリソースは、利便性のみを目的として提供されており、その内容や運用についても一切の責任を負いません。すべての内容は予告なく変更される場合があります。このブログにアクセスすることで、これらの条件に同意し、情報の確認および使用は自己責任で行うことを理解したものとみなされます。

form submtited
お読みいただきありがとうございました

このブログは役に立ちましたか?

免責事項:このブログは、Zscalerが情報提供のみを目的として作成したものであり、「現状のまま」提供されています。記載された内容の正確性、完全性、信頼性については一切保証されません。Zscalerは、ブログ内の情報の誤りや欠如、またはその情報に基づいて行われるいかなる行為に関して一切の責任を負いません。また、ブログ内でリンクされているサードパーティーのWebサイトおよびリソースは、利便性のみを目的として提供されており、その内容や運用についても一切の責任を負いません。すべての内容は予告なく変更される場合があります。このブログにアクセスすることで、これらの条件に同意し、情報の確認および使用は自己責任で行うことを理解したものとみなされます。

Zscalerの最新ブログ情報を受信

このフォームを送信することで、Zscalerのプライバシー ポリシーに同意したものとみなされます。