L’intelligenza artificiale è diventata una nuova superficie di attacco, probabilmente una delle meno protette.

intelligenza artificiale agentica Agenti AI- AI ultra-compressa Agentic AI - Private AI

L’ultimo anno è stato particolarmente complesso in ambito cybersecurity, soprattutto perché molte organizzazioni non hanno ancora consolidato alcune strategie di base fondamentali, come la visibilità e le capacità di Detection. Si assiste anche all’aumento degli attacchi che sfruttano sistemi di Agentic AI. Inoltre la mancanza di tempo, risorse economiche e competenze specializzate lascia ampi spazi di manovra agli attaccanti. Un esempio evidente è quello del cloud: in Europa, e in particolare in Italia, la migrazione verso architetture cloud native è ancora in ritardo rispetto ad altri mercati come quello statunitense. Senza strumenti adeguati di visibilità e rilevamento, risulta estremamente difficile capire quando un attacco è in corso, da dove proviene e come si sta propagando.

Un’altra criticità importante riguarda la gestione delle vulnerabilità, sempre più numerose e complesse da affrontare. Negli ambienti cloud, tuttavia, sono oggi disponibili soluzioni in grado non solo di identificare le vulnerabilità, ma anche di stabilirne le priorità, consentendo alle aziende di intervenire prima su quelle realmente critiche. Accanto a queste problematiche consolidate, stanno poi emergendo con forza due grandi trend.

Il primo è l’uso massivo dell’AI negli attacchi. Oltre all’impiego dell’Agentic AI per aumentare velocità e sofisticazione, si è assistito recentemente a un primo esempio di attacco “Agentic” su scala globale, dove l’intelligenza artificiale è stata utilizzata come vero e proprio strumento offensivo. Sebbene l’impatto sia stato limitato, l’evento ha segnato il superamento di una soglia importante e indica che questo tipo di attacchi è destinato a evolvere rapidamente nel 2026.

Il secondo trend riguarda il fatto che l’intelligenza artificiale è diventata una nuova superficie di attacco, probabilmente una delle meno protette. Le aziende hanno adottato l’AI per migliorare produttività, sviluppo del business e supporto ai clienti, senza però considerare adeguatamente i rischi legati alla sicurezza. Tecniche come jailbreaking, prompt injection e manipolazione dei modelli dimostrano quanto l’AI possa essere sfruttata dagli hacker.

Un aspetto critico è la condivisione inconsapevole di dati sensibili tramite strumenti di AI generativa: sintesi di meeting, informazioni confidenziali o codice proprietario possono essere esposti senza che l’utente ne percepisca il rischio. Le aziende oggi oscillano tra due approcci estremi: bloccare completamente l’uso dell’AI, scelta inefficace e facilmente aggirabile tramite lo Shadow IT, oppure lasciare tutto libero senza controlli. La direzione corretta è una terza via basata su consapevolezza, governance e coinvolgimento del board, perché l’AI impatta l’organizzazione a 360 gradi.

Un ulteriore elemento centrale è l’esplosione significativa dei dati. Digitalizzazione, smart working, OT, l’adozione di tecnologie 5G e cloud stanno facendo crescere i volumi dei dati a un ritmo stimato del 35% annuo. Se in passato il problema dei responsabili della sicurezza informatica era legato alla mancanza di dati, oggi il rischio è l’eccesso: troppe informazioni, difficili da gestire e costose da trasferire e analizzare.

Cresce inoltre l’attenzione sul luogo dove risiedono i dati, spinta sia dalla compliance normativa sia dalle tensioni geopolitiche e dal rischio di cyber spionaggio da parte di gruppi sponsorizzati dagli Stati.

A cura di Paolo Cecchi, Senior Sales Director della Mediterranean Region di SentinelOne