Inoltre, il 61% delle imprese italiane non è completamente sicuro che i propri controlli per l’AI riuscirebbero a identificarne una compromessa.

PMI italiane - Aziende italiane

Proofpoint ha pubblicato il report “AI and Human Risk Landscape 2026”, che esamina il divario crescente tra la velocità con cui le aziende stanno rendendo operativa lAI e il loro livello di preparazione per proteggere e analizzare i rischi che ne derivano. Lo studio globale, che ha coinvolto oltre 1.400 professionisti della sicurezza in 12 paesi, tra cui lItalia, esamina come la rapida adozione dellAI stia trasformando la collaborazione aziendale e mettendo in luce punti deboli strutturali nei controlli di sicurezza e nella risposta agli incidenti.

LAI si sta diffondendo sempre più nelle aziende ed è ormai operativa nella maggior parte delle funzioni, con implementazioni che spaziano dallassistenza clienti alla messaggistica interna, ai flussi di lavoro via email e alla collaborazione con terze parti. L87% delle imprese a livello globale ha già implementato assistenti AI oltre la fase pilota, e il 76% sta attivamente testando in fase pilota o implementando agenti autonomi. Tuttavia, mentre stanno investendo in strumenti e controlli AI, molte non sono in grado di confermare che siano efficaci: il 52% non è pienamente fiducioso che i propri controlli di sicurezza AI rilevino unintelligenza artificiale compromessa, e la metà di chi ha controlli in atto ha già subìto un incidente legato allAI, confermato o sospetto.

Inoltre, la maggior parte delle aziende dichiara di non essere completamente preparata a investigare incidenti legati allAI che si estendono su più sistemi e canali (solo un terzo afferma di esserlo).

“I risultati di questanno evidenziano un crescente divario tra adozione dellAI e preparazione di sicurezza,” commenta Ryan Kalember, Chief Strategy Officer di Proofpoint. “Le aziende stanno estendendo lutilizzo di assistenti AI e agenti autonomi nei principali flussi di lavoro, eppure molte non riescono a confermare lefficacia dei propri controlli o ad analizzare a fondo incidenti che si propagano attraverso canali di collaborazione. Mentre lAI si integra nel modo di operare, i responsabili della sicurezza devono ripensare come proteggere le interazioni affidabili tra persone, dati e sistemi di AI.

I principali risultati italiani del report “AI and Human Risk Landscape 2026” di Proofpoint evidenziano che:

  • Limplementazione dellAI supera la preparazione di sicurezza. Ladozione dellintelligenza artificiale è passata in produzione più velocemente di quanto siano maturati i framework di governance. Mentre l82% delle aziende ha implementato assistenti AI oltre la fase pilota e l83% sta sviluppando agenti autonomi, il 38% descrive ancora la sicurezza come in fase di recupero, incoerente o reattiva. Il 31% riferisce di aver subìto un incidente sospetto o confermato legato allAI, indicando esposizione già presente negli ambienti operativi.
  • I canali di collaborazione sono la principale superficie di attacco dellAI. Lintelligenza artificiale sta ampliando la superficie di attacco, permettendo alle minacce di diffondersi a velocità macchina e avere impatto sui flussi di lavoro connessi. Sebbene lemail rimanga il vettore di minaccia più comune con il 58%, lesposizione si estende ora a piattaforme di condivisione file (38%), applicazioni SaaS e cloud di terze parti (35%) e piattaforme social e di messaggistica (30%). Tra le aziende in Italia che hanno subìto un incidente legato allAI, lesposizione aumenta su ogni canale, inclusi il 71% nelle email e il 52% nelle piattaforme di condivisione file.
  • La fiducia supera lefficacia dei controlli. Sebbene molte aziende abbiano implementato controlli di sicurezza, manca loro la certezza della loro efficacia. Il 67% dichiara di avere una copertura di sicurezza AI in atto, eppure il 61% non è pienamente fiducioso che tali controlli ne rilevino una compromessa. Inoltre, il 31% delle aziende dotata di controlli ha comunque segnalato un incidente legato allAI e persistono lacune nellallineamento della governance tra i team (48%), nella visibilità delle attività di AI o degli agenti (39%) e nella formazione (31%).
  • La preparazione alle indagini è in ritardo rispetto alla realtà degli incidenti. Quando si verificano incidenti legati allAI, molte aziende faticano ad analizzarli efficacemente. Solo il 38% dichiara di essere pienamente preparato a indagare un incidente legato allAI o agli agenti, e il 34% segnala difficoltà nel correlare le minacce tra i vari canali. Poiché lattività legata allAI si estende a email, piattaforme di collaborazione e sistemi cloud, la capacità di ricostruire gli eventi dipende dalla visibilità su tutti gli ambienti connessi, componente che molte aziende ancora non possiedono.
  • La proliferazione di strumenti è una barriera strutturale. La frammentazione degli stack di sicurezza sta aggravando la sfida, limitando la visibilità e rallentando la risposta quando gli incidenti si spostano tra i sistemi a velocità macchina. Il 100% delle aziende afferma che gestire molteplici tool di sicurezza è almeno moderatamente impegnativo, e l86% lo descrive come molto o estremamente difficile. Gli intervistati citano pressioni sui costi operativi (51%), difficoltà a correlare le minacce (34%) e sfide di integrazione (31%).
  • Larchitettura di sicurezza diventa una priorità strategica con la crescita dellAI. Il 52% delle aziende sta attivamente perseguendo il consolidamento di fornitori e strumenti, e il 48% ritiene che una piattaforma unificata sia più efficace di soluzioni puntuali. Nei prossimi 12 mesi, il 60% prevede di ampliare le protezioni AI, il 46% intende estendere la copertura dei canali di collaborazione e il 33% si aspetta di migrare verso un approccio di piattaforma unificata.

“Sebbene lAI abbia introdotto nuovi rischi, come il prompt engineering, il suo impatto maggiore è stato nellamplificare rischi affrontati da sempre, afferma Kalember. “Esecuzione di codice non affidabile, gestione impropria di dati sensibili e perdita di controllo delle credenziali sono le stesse sfide create dalle persone da decenni, lAI le amplifica, eseguendole con velocità e portata di macchina. Quando le aziende affidano allAI le chiavi per agire per loro conto con clienti, partner e sistemi interni il raggio dazione dellimpatto di ciascuno di questi erroriaumenta drasticamente. La risposta non è trattare lAI come una nuova categoria di minacce, ma applicare controlli rigorosi e collaudati a ciò che lAI tocca ed esegue e ai metodi di autenticazione concessi. Le aziende che impostano correttamente queste basi fin dallinizio scaleranno lAI con fiducia, chi non lo farà sta solo automatizzando la propria esposizione.