Blog Zscaler

Recevez les dernières mises à jour du blog de Zscaler dans votre boîte de réception

Recherche sur la sécurité

L’IA est désormais l’accélérateur par défaut des entreprises : principaux enseignements du rapport ThreatLabz 2026 sur la sécurité de l’IA

DEEPEN DESAI, HEATHER BATES, DEEPAK SHANKER
janvier 27, 2026 - 7 Min de lecture

L’intelligence artificielle et l’apprentissage automatique (AI/AA) ne sont plus des technologies émergentes au sein des environnements d’entreprise. En 2025, elles sont devenues une couche opérationnelle permanente au cœur des activités quotidiennes. Les développeurs déploient plus rapidement, les équipes marketing produisent davantage de contenu, les analystes automatisent leurs recherches et les équipes IT s’appuient sur l’IA pour simplifier le dépannage et les opérations. Les gains de productivité sont réels, mais les compromis le sont tout autant.

À mesure que l’adoption de l’IA s’accélère, un volume croissant de données sensibles passe par des applications pilotées par l’IA. Ces systèmes fonctionnent souvent avec moins de visibilité et moins de garde-fous que les logiciels d’entreprise traditionnels. Dans le même temps, les acteurs malveillants suivent ces flux de données. Les mêmes forces qui rendent l’IA plus accessible, avec une automatisation plus rapide et des résultats plus réalistes, raccourcissent le cycle des attaques et compliquent leur détection.

Le dernier rapport Zscaler ThreatLabz 2026 sur la sécurité de l’IA, analyse la manière dont les entreprises s’adaptent à cette évolution. Le rapport s’appuie sur l’analyse de près de mille milliards de transactions d’IA et d’AA observées sur la plateforme Zscaler Zero Trust Exchange™ tout au long de l’année 2025. Cela représente des centaines de milliers de transactions d’IA par entreprise et par jour, et offre une vision précise de l’usage réel de l’IA au sein des entreprises à l’échelle mondiale.

Ces résultats confirment ce que de nombreuses équipes de sécurité observent déjà sur le terrain. L’IA est désormais intégrée aux workflows quotidiens, la gouvernance reste hétérogène et la surface d’attaque des entreprises s’étend en temps réel.

Cet article met en avant une sélection des conclusions les plus marquantes ainsi que leurs implications pour les équipes de sécurité. Le rapport complet propose une analyse approfondie des schémas de risque ainsi que des recommandations concrètes pour les dirigeants d’entreprise chargés de déployer l’IA à grande échelle en toute sécurité.

5 enseignements clés pour les équipes de sécurité en 2025

  1. L’adoption de l’IA en entreprise s’accélère rapidement et élargit la surface d’attaque.

    L’activité IA/AA en entreprise a progressé de plus de 90 % sur un an en 2025. L’analyse ThreatLabz couvre désormais plus de 3 400 applicationsgénérant du trafic IA/AA, soit près de quatre fois plus que l’année précédente. Cette croissance témoigne de la rapidité avec laquelle les capacités de l’IA s’intègrent aux workflows quotidiens.

    Même si chaque application génère un volume limité de trafic, l’effet cumulé à l’échelle de l’écosystème devient significatif. Le risque augmente avec la prolifération des applications. À mesure que les fonctionnalités d’IA apparaissent chez différents fournisseurs et plateformes, les équipes de sécurité doivent assurer la gouvernance de milliers d’applications plutôt que d’un nombre limité d’outils isolés. Ce qui relevait autrefois d’une catégorie restreinte est désormais devenu un système distribué.

  2. Les outils d’IA les plus utilisés s’intègrent directement au flux de travail et au flux de données.

    Si l’adoption de l’IA en entreprise continue d’évoluer, avec des modèles comme Google Gemini ou Anthropic qui ont récemment gagné du terrain, l’usage en 2025 est resté concentré sur un nombre restreint d’outils de productivité. Sur l’ensemble de l’année, l’analyse de l’activité IA/AA révèle que les applications les plus utilisées étaient Grammarly, ChatGPT et Microsoft Copilot, illustrant à quel point l’IA est désormais ancrée dans le travail quotidien. Codeium figure également parmi les applications générant le plus fort volume de transactions, ce qui confirme le rôle croissant de l’IA dans les workflows de développement, où le code propriétaire circule en permanence.

    ThreatLabz a également analysé les volumes de transfert de données entre les entreprises et les applications d’IA. En 2025, les transferts de données vers les outils d’IA ont progressé de 93 % sur un an, atteignant au total des dizaines de milliers de téraoctets. Les mêmes applications qui génèrent des gains de productivité — rédaction, édition, traduction ou développement — sont aussi celles qui traitent les volumes les plus élevés de données sensibles d’entreprise, ce qui illustre à quel point l’adoption de l’IA et les risques liés aux données sont désormais étroitement liés.

  3. De nombreuses entreprises bloquent encore totalement l’IA.

    Toutes les entreprises ne sont pas encore prêtes à ouvrir largement l’accès à l’IA à l’ensemble des équipes. Si le blocage global a reculé sur un an, signe d’une gouvernance de l’IA davantage pilotée par des politiques, les entreprises ont néanmoins bloqué 39 % des tentatives d’accès aux applications IA/AA en 2025.

    Cette tendance traduit des risques non maîtrisés plutôt qu’une véritable résistance à l’IA elle-même. Le blocage est souvent un choix par défaut lorsque les entreprises manquent de visibilité, de garde-fous internes ou de maîtrise du comportement des systèmes d’IA une fois déployés à grande échelle. Les tests de l’équipe Red Team de ThreatLabz confirment cette prudence. Tous les systèmes d’IA d’entreprise testés ont échoué au moins une fois face à des scénarios d’attaque réalistes, et les défaillances se manifestaient rapidement.

    Le blocage peut réduire l’exposition, mais il ne met pas fin à l’usage de l’IA. Les utilisateurs se tournent souvent vers des alternatives non autorisées, des comptes personnels ou des fonctionnalités d’IA intégrées aux plateformes SaaS approuvées, souvent avec moins de visibilité et moins de contrôles. L’objectif à long terme est de permettre un usage sécurisé de l’IA, afin que les entreprises puissent en tirer parti tout en maîtrisant les risques de manière cohérente.

  4. L’adoption de l’IA varie fortement selon les secteurs d’activité, ce qui concentre les risques de manière inégale.

    L’usage de l’IA/AA a progressé dans tous les secteurs en 2025, mais l’adoption n’a pas été uniforme. Chaque secteur évolue à un rythme différent à son propre rythme et avec des niveaux de supervision différents. Le secteur de la finance et des assurances a, une fois de plus, généré la plus grande part de l’activité IA/AA en entreprise (23,3 %). Le secteur de la production industrielle est resté très actif (19,5 %), porté par l’automatisation, l’analytique et les workflows opérationnels.

    Le contexte sectoriel fait toute la différence. Dans les secteurs où l’IA touche à des données réglementées, aux technologies opérationnelles (OT) ou aux systèmes de chaîne d’approvisionnement, les enjeux de protection des données et de contrôle d’accès sont plus élevés. Les pratiques de blocage variaient elles aussi fortement, démontrant qu’une gouvernance de l’IA ne peut pas être uniforme. Les contrôles doivent s’adapter aux profils de risque sectoriels, aux exigences de conformité et aux dépendances opérationnelles.

  5. Les acteurs malveillants utilisent déjà l’IA à chaque étape de la chaîne d’attaque.

    Les études de cas de ThreatLabz révèlent que les hackers utilisent déjà l’IA générative pour accélérer leurs tactiques existantes plutôt que pour les remplacer. Ils utilisent l’IA pour faciliter l’accès initial, mener des campagnes d’ingénierie sociale, contourner les défenses et développer des malwares, rendant les activités malveillantes plus difficiles à distinguer des usages légitimes.

    Les campagnes analysées dans le rapport comprennent de l’ingénierie sociale assistée par l’IA, la création de fausses identitéset des traces de génération automatique de code. Pour les défenseurs, cela signifie que la sécurité de l’IA doit couvrir non seulement les usages des collaborateurs, mais aussi la manière dont les hackers l’exploitent pour agir plus vite et se fondre dans les environnements une fois qu’ils y ont accès.

La croissance « invisible » : l’IA embarquée accroît les risques là où on s’y attend le moins.

Toute l’IA en entreprise ne se présente pas sous la forme d’outils génératifs autonomes. De plus en plus, l’IA s’intègre directement via des fonctionnalités embarquées dans les applications SaaS du quotidien. Ces fonctionnalités s’activent souvent par défaut, fonctionnent en continu en arrière-plan et interagissent avec les données de l’entreprise sans être clairement identifiées ni gouvernées comme de l’IA.

L’IA embarquée peut sembler n’être qu’une simple amélioration fonctionnelle, mais elle ouvre souvent de nouveaux canaux d’accès aux données. En conséquence, l’IA peut accéder à des contenus sensibles de l’entreprise dans des zones que les équipes de sécurité ne surveillent pas activement, voire qu’elles ne considèrent même pas comme des usages d’IA. Il s’agit d’un angle mort de plus en plus critique qui exige une surveillance continue et une attention soutenue des équipes de sécurité et du secteur dans son ensemble.

Comment Zscaler sécurise l’adoption de l’IA et accélère les initiatives IA

À mesure que l’IA s’intègre davantage dans l’entreprise, des outils publics d’IA générative aux modèles privés, pipelines, agents et infrastructures associées, les équipes de sécurité ont besoin de contrôles qui vont au-delà de la sécurité traditionnelle des applications. Elles ont besoin d’une visibilité complète sur le comportement de l’IA à l’échelle du système.

Zscaler aide les organisations à sécuriser l’usage de l’IA grâce à des protections qui couvrent l’ensemble du cycle de vie de la sécurité de l’IA :

Gestion des actifs IA
Bénéficiez d’une visibilité complète sur l’usage, l’exposition et les dépendances de l’IA à travers les applications, modèles, pipelines et infrastructures associées (ex. : pipelines MCP), y compris les nomenclatures IA (AI-BOM), afin de cartographier l’ensemble de votre empreinte et d’identifier les risques.

Sécuriser l’accès à l’IA
Appliquer des contrôles d’accès granulaires aux applications et aux utilisateurs d’IA. Analysez les invites et les réponses inline afin de garantir une utilisation sûre et responsable des applications d’IA en empêchant toute transmission de données sensibles vers des modèles externes ou leur exposition dans des réponses non sécurisées.

Sécuriser les applications et l’infrastructure d’IA
Protégez les systèmes d’IA que votre entreprise conçoit et déploie, et pas seulement les outils utilisés par les collaborateurs. Cela inclut le renforcement des systèmes et la mise en œuvre de protections à l’exécution, avec détection des vulnérabilités sur les modèles et pipelines, tests d’intrusion de type red team, et protection contre des menaces courantes ou émergentes telles que l’injection de requête, l’empoisonnement des données et l’utilisation non sécurisée d’informations sensibles.

Téléchargez le rapport et gardez une longueur d’avance sur les risques liés à l’IA en entreprise

Le rapport ThreatLabz 2026 sur la sécurité de l’IA propose une analyse fondée sur des données concrètes de l’usage réel de l’IA dans les environnements d’entreprise, des limites fixées par les équipes de sécurité et des zones où émergent les risques. Au-delà des enseignements présentés ici, le rapport complet analyse les principales applications et fournisseurs d’IA, les tendances d’usage régionales et présente les prévisions des experts de ThreatLabz pour la sécurité de l’IA en 2026, assorties d’analyses et de recommandations complémentaires.
  
Téléchargez le rapport complet pour accéder aux données, analyses et recommandations qui façonnent la prochaine étape de la sécurité de l’IA en entreprise.

form submtited
Merci d'avoir lu l'article

Cet article a-t-il été utile ?

Clause de non-responsabilité : Cet article de blog a été créé par Zscaler à des fins d’information uniquement et est fourni « en l’état » sans aucune garantie d’exactitude, d’exhaustivité ou de fiabilité. Zscaler n’assume aucune responsabilité pour toute erreur ou omission ou pour toute action prise sur la base des informations fournies. Tous les sites Web ou ressources de tiers liés à cet artcile de blog sont fournis pour des raisons de commodité uniquement, et Zscaler n’est pas responsable de leur contenu ni de leurs pratiques. Tout le contenu peut être modifié sans préavis. En accédant à ce blog, vous acceptez ces conditions et reconnaissez qu’il est de votre responsabilité de vérifier et d’utiliser les informations en fonction de vos besoins.

Recevez les dernières mises à jour du blog de Zscaler dans votre boîte de réception

En envoyant le formulaire, vous acceptez notre politique de confidentialité.