
Sempre più utilizzata, anche da utenti meno esperti, dietro la GenAI si nascondono molti rischi, come truffe invisibili, sofisticate e difficili da riconoscere
Email scritte in modo ineccepibile, tono aziendale impeccabile, zero refusi: il phishing ha cambiato pelle. A renderlo più credibile che mai è l’intelligenza artificiale generativa, ormai sempre più utilizzata anche dai criminali informatici. La capacità della GenAI di produrre testi sempre più simili al linguaggio umano, curati nel lessico e nella terminologia settoriale, la rende uno strumento perfetto per simulare email il cui mittente è un’organizzazione autorevole.
Gli hacker perfezionano le tattiche con l’ausilio della GenAI
Secondo il Data Breach Investigations Report 2025 (DBIR) – rapporto internazionale sulle violazioni informatiche stilato da Verizon Business – la percentuale di messaggi di phishing scritti con l’ausilio dell’AI è più che raddoppiata negli ultimi due anni. Nel 2023 si stimava un’incidenza compresa tra il 5% e il 10%, registrando un salto di qualità allarmante.
Gli hacker stanno sperimentando i large language model per perfezionare grammatica, tono e localizzazione dei testi, adattandoli al contesto culturale e linguistico delle vittime e rendendoli praticamente indistinguibili da una comunicazione autentica. È proprio questa verosimiglianza a rendere i messaggi ingannevoli più difficili da individuare, aumentando il rischio che utenti inconsapevoli cedano dati sensibili, credenziali di accesso o informazioni riservate convinti di interagire con una autorità.
Ma il rischio non riguarda solo gli attori esterni. Cresce anche l’esposizione involontaria di dati aziendali causata dall’utilizzo poco consapevole di strumenti di intelligenza artificiale da parte dei dipendenti. La 18 esima edizione del DBIR rileva che il 15% dei lavoratori accede regolarmente (almeno una volta ogni due settimane) a piattaforme di GenAI dai dispositivi aziendali. Nella maggior parte dei casi, questo avviene tramite account personali non autorizzati, eludendo così le policy di sicurezza IT delle proprie organizzazioni.
I pericoli connessi all’uso aziendale dell’AI
Una pratica tanto diffusa quanto pericolosa: oltre alle funzionalità più comuni – come la creazione di testi, la traduzione o la scrittura di codice – si annovera anche l’upload di contenuti potenzialmente sensibili, quali documenti riservati, dati di clienti, email interne o report strategici. Una volta caricati, questi testi potrebbero essere utilizzati per l’addestramento dei modelli, archiviati su server esterni o persino esposti in caso di vulnerabilità delle piattaforme.
A rendere ancora più complesso lo scenario è la crescente integrazione dell’AI nei sistemi operativi mobili: funzionalità come assistenti vocali, sintesi automatica dei contenuti o suggerimenti basati sul contesto sono spesso attive di default e difficili da controllare. Nei contesti BYOD (Bring Your Own Device), dove dispositivi personali e dati aziendali convivono sullo stesso smartphone o laptop, questi automatismi possono creare nuovi rischi. Ogni interazione tra applicazioni che integrano l’AI e contenuti aziendali può rappresentare un punto di ingresso per violazioni o fughe di informazioni.
E non è un rischio solo teorico. Nel 2025 una violazione ha rilevato una fuga di insight che ha reso accessibili conversazioni sensibili, incluse domande e documenti caricati dagli utenti. Una dimostrazione concreta che anche le piattaforme di GenAI possono diventare bersagli appetibili, e di conseguenza potenziali veicoli in grado di amplificare la superficie d’attacco. Il rischio, dunque, non si limita più all’uso scorretto da parte delle persone, ma coinvolge anche l’infrastruttura stessa dell’intelligenza artificiale.