Zscalerのブログ
Zscalerの最新ブログ情報を受信
組織の標準的な推進力となったAI:2026年ThreatLabz AIセキュリティレポートの要点
人工知能と機械学習(AI/ML)は、もはや組織環境内の新たな機能ではありません。2025年には、業務を遂行する際の持続的な運用レイヤーとなりました。開発者はより速くリリースし、マーケターはより多くのコンテンツを生成し、アナリストは調査を自動化し、IT部門はAIを活用してトラブルシューティングと運用を合理化しています。生産性向上が実感できる一方、代償も存在します。
AI導入が加速するなかで、機密データは増え続けるAIアプリケーションを通じてますます流れています。これらのシステムは、従来の組織向けソフトウェアよりも可視性が低く、ガードレールも少ない状態です。同時に、脅威アクターもデータを監視しています。AIをよりアクセスしやすくし、自動化を高速化して、より現実的な出力を可能にするのと同じ要因が、攻撃のタイムラインを圧縮し、攻撃の検知を困難にしているのです。
新たに公開された2026年Zscaler ThreatLabz AIセキュリティレポートでは、組織がどのようにこの変化に対応しているかを解説します。このレポートは、2025年を通してZscaler Zero Trust Exchange™で確認された約1兆件のAI/MLトランザクションの分析に基づいています。このアクティビティーは1社の1日あたり数十万件のAIトランザクションに相当し、世界中の組織でAIが実際にどのように利用されているかについての根拠のある見解を示しています。
この調査結果は、多くのセキュリティ部門がすでに感じていることを裏付けるものです。AIは日々のワークフロー全体に組み込まれるようになり、ガバナンスは不均一なままで、組織の攻撃対象領域はリアルタイムに拡大しています。
このブログでは、セキュリティ部門にとって最も重要な調査結果と示唆の一部を紹介します。レポート全文では、リスクパターンの詳細な分析と、AIを大規模かつ安全に運用する組織のリーダー向けの実践的なガイダンスを提供しています。
2025年のセキュリティ部門にとって重要な5つの要点
組織におけるAI導入は急速に加速し、攻撃対象領域が拡大している
2025年、企業向けAI/MLのトランザクションは前年比83%増となりました。ThreatLabzの分析によると、現在3,400以上のアプリケーションがAI/MLトラフィックを生成しており、前年比のほぼ4倍に達しています。この増加は、AI機能がどれだけ速く日々のワークフローに組み込まれているかを反映しています。
個々のアプリケーションが生成するトラフィック量はそれほど多くなくても、エコシステム全体の影響は重要です。リスクは拡大とともに増大します。AI機能がさまざまなベンダーやプラットフォームに登場するなかで、セキュリティ部門は少数のスタンドアロンツールではなく、数千のアプリケーションにわたるガバナンス責任を引き継ぐことになります。かつては限定されたカテゴリーであったものが、現在では分散されたシステムになっているのです。
最も利用されるAIツールは、業務フローやデータフローに直接組み込まれている
組織におけるAI導入の状況は進化を続けており、最近ではGoogle GeminiやAnthropicなどのモデルが注目を集めていますが、2025年の組織での利用は依然として、ごく少数の生産性向上レイヤーツールに集中していました。1年を通したAI/MLアクティビティーを分析したところ、最も広く利用されたアプリケーションはGrammarly、ChatGPT、Microsoft Copilotであり、AIが日常業務に深く組み込まれていることを示しています。Codeiumもトランザクション量で上位のアプリケーションに入っており、独自のコードが絶えず動く開発ワークフローにおけるAIの役割が拡大していることを強調しています。
ThreatLabzは、組織とAIアプリケーション間のデータ転送量も調査しました。2025年には、AIツールへのデータ転送量は前年比で93%増加し、合計で数万テラバイトに達しました。執筆/編集から翻訳/コーディングまで生産性向上を推進するアプリケーションは多くの場合、最も大量の機密性の高い組織データを処理するアプリケーションでもあり、AI導入とデータリスクがいかに密接に関連しているかを改めて示しています。
多くの組織は依然としてAIを完全にブロックしている
すべての組織が、社内全体で広範なAIアクセスを可能にする準備ができているわけではありません。全体的なAIのブロック件数は前年比で減少しており、よりポリシー主導のAIガバナンスへの進歩を示唆していますが、2025年に組織は依然としてAI/MLアクセス試行全体の39%をブロックしました。
このパターンは、AI自体に対する抵抗ではなく、未解決のリスクを反映しています。ブロックは、組織が可視性や内部ガードレール、大規模に展開されたAIシステムの動作に自信が持てない場合に頻繁に用いられます。ThreatLabzのレッドチームテストでも、この慎重さが裏付けられています。テストされたすべての組織のAIシステムは、現実的な敵対的圧力下で少なくとも1回は失敗し、失敗はすぐに表面化しました。
ブロックすると露出は減るかもしれませんが、AIを活用した業務を止めることはできません。ユーザーは、未承認の代替手段や個人アカウント、承認されたSaaSプラットフォーム内の組み込み型AI機能に移行することが多く、その場合は可視性が低下し、制御も弱まる傾向があります。長期的な目標は、安全な利用を可能にすることであり、組織がリスクを一貫して管理しながらAIの利用をサポートできるようにすることです。
AI導入状況は業界によって大きく異なり、リスクの集中も不均一である
2025年にはあらゆる業界でAI/MLの利用が増加したものの、導入状況は均一ではありませんでした。業界ごとに異なるペースで動いており、監視レベルも異なります。金融/保険業界は、今回も組織のAI/MLアクティビティーで最大の割合(23.3%)を占めました。製造業も、自動化、分析、運用ワークフローの推進によって活発であり、19.5%と高い割合を占めました。
業界の状況は重要です。AIが規制対象データや運用技術、サプライチェーンシステムと交わる業界では、データ保護やアクセス制御に対するリスクが高まります。ブロックのパターンも多岐にわたり、AIガバナンスが万能ではないことが示されています。制御は、業界のリスクプロファイル、コンプライアンス要件、運用上の依存関係に合わせる必要があります。
脅威アクターはすでに攻撃チェーン全体でAIを悪用している
ThreatLabzの事例調査によると、生成AIは既存の手口を置き換えるのではなく、手口を加速させるために攻撃者によって積極的に悪用されています。攻撃者はAIを悪用した初期アクセス、ソーシャル エンジニアリング、回避、マルウェア開発に対応しています。そのため、悪意のあるアクティビティーと正当な利用を区別しづらくなっています。
レポートで分析されたキャンペーンには、AIを悪用したソーシャルエンジニアリング、偽の人物、AIを悪用したコード生成の兆候が含まれます。防御側にとっては、AIを保護するうえで、従業員によるAIの利用だけでなく、攻撃者がAIを悪用してアクセスを取得してからより速く移動し、紛れ込む方法も考慮する必要があることを意味します。
AIの利用増加に伴う「隠れた」ストーリー:予想外の領域でリスクを拡大する組み込み型AI
すべての組織のAIが、スタンドアロンの生成AIの利用として現れるわけではありません。AIはますます、日常的なSaaSアプリケーションに組み込まれた機能を通じて動作するようになっています。これらの機能は多くの場合、デフォルトで有効化され、バックグラウンドで継続的に実行され、AIとしてラベル付けや管理されることなく、組織データとやり取りします。
組み込み型AIは単なる機能強化のように思えるかもしれませんが、新しいデータ経路を生み出すことが少なくありません。その結果、セキュリティ部門が積極的に監視していない領域やAIの利用として分類していない領域でも、AIが機密性の高い組織のコンテンツを操作できるようになります。これは拡大しつつある死角であり、セキュリティ部門と業界全体において継続的な監視と十分な注意が求められます。
AI導入を保護してAI戦略を加速させるZscalerの仕組み
AIが組織全体に組み込まれるようになるなかで、パブリック生成AIツールからプライベートモデル、パイプライン、エージェント、そしてそれをサポートするインフラに至るまで、セキュリティ部門は従来のアプリのセキュリティにとどまらない制御が求められています。システム全体でAIがどのように動作するかを可視化する必要があるのです。
Zscalerは、AIセキュリティライフサイクル全体にわたる保護により、組織がAIの利用を保護できるよう支援します。
AI資産管理
アプリケーション、モデル、パイプライン、それをサポートするインフラ(MCPパイプラインなど)全体にわたるAIの利用状況、露出、依存関係を完全に可視化します。これにはAI部品表(AI-BOM)も含まれます。これにより、フットプリント全体を検出し、リスクを特定します。
AIへの安全なアクセス
AIアプリケーションとユーザーに対して、きめ細かなアクセス制御を施行します。プロンプトと応答をインラインで検査し、機密データが外部モデルに送信されたり、安全でない出力で返されたりすることを防ぎ、AIアプリの安全で責任ある利用を確保します。
AIアプリケーションとインフラの保護
従業員が利用するツールだけでなく、組織が構築および展開しているAIシステムを保護します。これには、モデルやパイプライン全体にわたる脆弱性検出によるシステム強化、ランタイム保護の施行、敵対的なレッドチームテスト、プロンプトインジェクション、データポイズニング、機密データの安全でない利用などの一般的かつ進化する脅威に対する保護が含まれます。
組織のAIリスクに対応するためのレポート
2026年ThreatLabz AIセキュリティレポートは、組織環境全体でAIがどのように利用されているか、セキュリティ部門がどこで境界線を引いているか、そしてどこでリスクが発生しているかについてデータに基づいた見解を提供しています。今回紹介した調査結果以外にも、レポート全文では、主要なAIアプリケーションとベンダー、地域別の利用パターンを解説するとともに、2026年のAIセキュリティに関するThreatLabz専門家の予測、さらに追加の洞察やガイダンスも紹介しています。
レポート全文をダウンロードして、組織におけるAIセキュリティの次の段階を形づくるデータ、洞察、推奨をご確認ください。
このブログは役に立ちましたか?
免責事項:このブログは、Zscalerが情報提供のみを目的として作成したものであり、「現状のまま」提供されています。記載された内容の正確性、完全性、信頼性については一切保証されません。Zscalerは、ブログ内の情報の誤りや欠如、またはその情報に基づいて行われるいかなる行為に関して一切の責任を負いません。また、ブログ内でリンクされているサードパーティーのWebサイトおよびリソースは、利便性のみを目的として提供されており、その内容や運用についても一切の責任を負いません。すべての内容は予告なく変更される場合があります。このブログにアクセスすることで、これらの条件に同意し、情報の確認および使用は自己責任で行うことを理解したものとみなされます。



