Blog Zscaler
Ricevi gli ultimi aggiornamenti dal blog di Zscaler nella tua casella di posta
Oggi l'IA è il principale acceleratore del business: conclusioni dal report sulla sicurezza dell'IA di ThreatLabz del 2026
Intelligenza artificiale e machine learning (IA/ML) non sono più delle funzionalità emergenti all'interno degli ambienti aziendali. Nel 2025, sono diventati un livello operativo persistente e integrato nello svolgimento del lavoro. Gli sviluppatori consegnano più velocemente, gli addetti al marketing generano più contenuti, gli analisti automatizzano la ricerca e i team IT si affidano all'IA per semplificare la risoluzione dei problemi e le operazioni. Gli incrementi di produttività sono concreti, ma lo è anche il prezzo da pagare.
Con l'accelerazione dell'adozione dell'IA, i dati sensibili passano sempre più frequentemente attraverso un numero crescente di applicazioni basate sull'IA. Questi sistemi spesso operano essendo soggetti a una minore visibilità e con meno protezioni, rispetto ai software aziendali tradizionali. Questo scenario è aggravato dal fatto che gli aggressori monitorano costantemente i dati. Le stesse forze che rendono l'IA più accessibile, con un'automazione più rapida e risultati più realistici, stanno anche accorciando le tempistiche per lanciare gli attacchi e rendendoli più difficili da rilevare.
L'ultimo Report del 2026 di Zscaler ThreatLabz sulla sicurezza dell'IA analizza il modo in cui le aziende stanno affrontando questo cambiamento. Il report si basa sull'analisi di quasi mille miliardi di transazioni IA ed ML osservate su Zscaler Zero Trust Exchange™ nel corso del 2025. Questa attività si traduce in centinaia di migliaia di transazioni IA per organizzazione ogni giorno, offrendo una visione concreta di come l'IA viene effettivamente utilizzata nelle aziende globali.
I risultati confermano quanto già pensano molti team responsabili della sicurezza, ovvero che l'IA è ormai integrata nei flussi di lavoro di tutti i giorni, la governance è ancora disomogenea e la superficie di attacco aziendale si sta espandendo in tempo reale.
Questo articolo del blog prende in esame un sottoinsieme delle scoperte e delle implicazioni più rilevanti che interessano da vicino i team addetti alla sicurezza. Il report completo fornisce un'analisi più approfondita dei modelli di rischio, oltre a una guida pratica per i leader aziendali chiamati a rendere operativa l'IA su larga scala e in modo sicuro.
5 punti chiave per i team addetti alla sicurezza nel 2025
L'adozione dell'IA in ambito aziendale sta accelerando rapidamente e ampliando la superficie di attacco
Nel 2025, l'operatività basata su IA/ML in azienda è aumentata di oltre il 90% su base annua. L'analisi di ThreatLabz ora include oltre 3.400 applicazioni che generano traffico IA/ML, un numero quasi quattro volte superiore rispetto all'anno precedente. Questa crescita riflette la rapidità con cui le funzionalità dell'IA vengono integrate nei flussi di lavoro quotidiani.
Anche quando le singole applicazioni generano volumi di traffico modesti, l'effetto complessivo sull'ecosistema è comunque importante. Il rischio però è proporzionale a questa espansione. Con la diffusione delle funzionalità IA in tutti i fornitori e le piattaforme, i team addetti alla sicurezza ereditano la responsabilità della gestione della governance per migliaia di applicazioni, anziché un piccolo set di strumenti dedicati. Quella che un tempo era una categoria limitata ora è diventata un sistema distribuito.
Gli strumenti IA più utilizzati si inseriscono direttamente nel flusso di lavoro e nel flusso di dati
Mentre il panorama dell'adozione dell'IA nelle aziende continua a evolversi, con modelli come Google Gemini e Anthropic che di recente hanno guadagnato sempre più terreno, l'utilizzo aziendale nel 2025 è rimasto concentrato su un piccolo set di strumenti per la produttività. Quando si analizza l'operatività di IA/ML nel corso dell'intero anno, le applicazioni più utilizzate sono state Grammarly, ChatGPT e Microsoft Copilot, a dimostrazione di quanto l'IA sia ormai profondamente integrata nel lavoro quotidiano. Anche Codeium si è classificata tra le applicazioni più diffuse in termini di volume di transazioni, sottolineando il ruolo crescente dell'IA nei flussi di lavoro di sviluppo in cui il codice proprietario è in costante movimento.
ThreatLabz ha inoltre esaminato i volumi del trasferimento di dati tra aziende e applicazioni IA. Nel 2025, il trasferimento di dati verso gli strumenti IA è aumentato del 93% su base annua, raggiungendo decine di migliaia di terabyte in totale. Le applicazioni che determinano incrementi di produttività, per attività che vanno dalla scrittura/editing alla traduzione/codifica, sono spesso anche quelle che gestiscono i volumi più elevati di dati aziendali sensibili, il che rafforza il legame stretto che esiste tra l'adozione dell'IA e il rischio per i dati.
Molte organizzazioni aziendali continuano a bloccare completamente l'IA
Non tutte le organizzazioni sono pronte ad abilitare un accesso esteso all'IA in tutta l'azienda. Sebbene il blocco complessivo sia diminuito di anno in anno, suggerendo dei progressi verso una governance dell'IA sempre più basata sulle policy, nel 2025, le aziende hanno comunque bloccato il 39% di tutti i tentativi di accesso a IA/ML.
Questo schema riflette un rischio irrisolto anziché una resistenza all'IA stessa. Il blocco viene spesso utilizzato quando le organizzazioni non hanno fiducia nella visibilità, nei sistemi di protezione interni o nel comportamento dei sistemi IA una volta implementati su larga scala. I test di red teaming di ThreatLabz corroborano questo approccio prudente. Tutti i sistemi IA aziendali che sono stati testati hanno ceduto almeno una volta sotto la pressione di un test antagonistico realistico, con falle che sono emerse molto rapidamente.
Il blocco può ridurre l'esposizione, ma non interrompe il lavoro guidato dall'IA. Gli utenti spesso passano ad alternative non autorizzate, account personali o funzionalità IA integrate all'interno di piattaforme SaaS approvate, spesso soggette a una minore visibilità e a meno controlli. L'obiettivo a lungo termine è un'abilitazione sicura, che consenta alle organizzazioni di supportare l'uso dell'IA gestendo al contempo i rischi in modo coerente.
L'adozione dell'IA varia notevolmente a seconda del settore, concentrando il rischio in modo non uniforme
Nel 2025, l'utilizzo di IA/ML è aumentato in tutti i settori, ma l'adozione non è stata uniforme. Ogni settore si muove a un ritmo diverso e con diversi livelli di controllo. Finanza e assicurazioni hanno generato ancora una volta la quota maggiore (23,3%) di operatività basata su IA/ML in ambito aziendale. Il settore manifatturiero è rimasto molto attivo, registrando il 19,5%, una percentuale guidata da automazione, analisi e flussi di lavoro operativi.
Il contesto attorno a un dato settore fa la differenza. Nei settori in cui l'IA interagisce con dati regolamentati, tecnologie operative o sistemi della catena di approvvigionamento, la posta in gioco per la protezione dei dati e il controllo degli accessi è più alta. Anche gli schemi di blocco variavano notevolmente, evidenziando che la governance dell'IA non può essere uguale per tutti. I controlli devono essere in linea con i profili di rischio, i requisiti di conformità e le dipendenze operative del settore.
Gli aggressori stanno già utilizzando l'IA in tutta la catena di attacco
I casi di studio di ThreatLabz dimostrano che l'IA generativa viene utilizzata attivamente dagli utenti malintenzionati per accelerare le tattiche esistenti, anziché sostituirle. Gli aggressori utilizzano l'IA per supportare l'accesso iniziale, l'ingegneria sociale, l'elusione e lo sviluppo di malware, rendendo più difficile distinguere l'attività dannosa dall'uso legittimo.
Le campagne analizzate nel report includono l'ingegneria sociale assistita dall'IA, la creazione di utenti fittizi e i segnali che rivelano quando la generazione di codice è assistita dall'IA. Per chi si occupa della difesa, ciò significa che la sicurezza dell'IA deve tenere conto non solo del modo in cui i dipendenti la utilizzano, ma anche di come viene sfruttata dagli aggressori per muoversi più velocemente e mimetizzarsi una volta ottenuto l'accesso.
La storia della crescita "nascosta": l'IA integrata sta espandendo il rischio dove meno ce lo aspettiamo
Non tutti gli utilizzi dell'IA in ambito aziendale avvengono attraverso strumenti di IA generativa dedicati. L'IA opera sempre più attraverso funzionalità integrate nelle applicazioni SaaS di uso quotidiano. Queste funzionalità spesso si attivano per impostazione predefinita, vengono eseguite continuamente in background e interagiscono con i dati aziendali, senza essere etichettate o gestite come le soluzioni IA indipendenti.
L'IA integrata può sembrare un semplice miglioramento delle funzionalità, ma spesso introduce nuovi percorsi per i dati. Di conseguenza, l'IA può interagire con contenuti aziendali sensibili in luoghi che i team di sicurezza non monitorano attivamente o non classificano come utilizzo dell'IA. Si tratta di un punto cieco sempre più critico, che richiede un monitoraggio continuo e una notevole attenzione da parte dei team responsabili della sicurezza e del settore.
Il metodo di Zscaler per proteggere l'adozione dell'IA e accelerare le iniziative IA
Man mano che l'IA diventa sempre più integrata in tutte le aziende, dagli strumenti di GenAI pubblici ai modelli privati, fino alle pipeline, agli agenti e alle infrastrutture di supporto, i team di sicurezza necessitano di controlli che vadano oltre la tradizionale sicurezza delle app. Hanno bisogno di visibilità sul comportamento dell'IA nel sistema.
Zscaler aiuta le organizzazioni a salvaguardare l'utilizzo dell'IA con protezioni che coprono l'intero ciclo di vita della sicurezza dell'IA:
Gestione delle risorse IA
Ottieni la massima visibilità sull'utilizzo, l'esposizione e le dipendenze dell'AI in tutte le applicazioni, i modelli, le pipeline e l'infrastruttura di supporto (ad esempio: pipeline MCP), comprese le distinte base dell'IA (AI Bills of Material, AI-BOM), per rilevare l'intero ecosistema IA e identificare i rischi.
Accesso sicuro all'IA
Applica controlli granulari dell'accesso per le applicazioni IA e gli utenti. Ispeziona i prompt e le risposte inline per garantire un utilizzo sicuro e responsabile delle app IA, impedendo che dati sensibili vengano inviati a modelli esterni o restituiti in output non sicuri.
Applicazioni e infrastrutture IA più sicure
Proteggi i sistemi IA che le aziende stanno sviluppando e implementando, non solo gli strumenti che vengono utilizzati dai dipendenti. Ciò include il rafforzamento dei sistemi e l'applicazione di protezioni durante la fase di runtime, con rilevamento delle vulnerabilità nei modelli e nelle pipeline, test antagonostici e di red teaming, oltre che la protezione dalle minacce più comuni e in continua evoluzione, come l'iniezione dei prompt, l'avvelenamento dei dati e l'uso non sicuro delle informazioni sensibili.
Richiedi il report: resta al passo con i rischi dell'IA in ambito aziendale
Il Report di ThreatLabz del 2026 sulla sicurezza dell'IA offre una panoramica basata sui dati di come l'IA viene utilizzata negli ambienti aziendali, quali limiti vengono imposti dai team di sicurezza e dove stanno emergendo nuovi rischi. Oltre ai risultati evidenziati in questo articolo, il report completo prende in esame le principali applicazioni e i fornitori di soluzioni IA, i modelli di utilizzo per area geografica, nonché rivela le previsioni degli esperti di ThreatLabz sulla sicurezza dell'IA nel 2026, insieme a ulteriori approfondimenti utili e linee guida.
Scarica il report completo per saperne di più sui dati, le informazioni strategiche e le raccomandazioni che daranno forma alla prossima fase della sicurezza dell'IA in ambito aziendale.
Questo post è stato utile?
Esclusione di responsabilità: questo articolo del blog è stato creato da Zscaler esclusivamente a scopo informativo ed è fornito "così com'è", senza alcuna garanzia circa l'accuratezza, la completezza o l'affidabilità dei contenuti. Zscaler declina ogni responsabilità per eventuali errori o omissioni, così come per le eventuali azioni intraprese sulla base delle informazioni fornite. Eventuali link a siti web o risorse di terze parti sono offerti unicamente per praticità, e Zscaler non è responsabile del relativo contenuto, né delle pratiche adottate. Tutti i contenuti sono soggetti a modifiche senza preavviso. Accedendo a questo blog, l'utente accetta le presenti condizioni e riconosce di essere l'unico responsabile della verifica e dell'uso delle informazioni secondo quanto appropriato per rispondere alle proprie esigenze.
Ricevi gli ultimi aggiornamenti dal blog di Zscaler nella tua casella di posta
Inviando il modulo, si accetta la nostra Informativa sulla privacy.



