Analizziamo alcuni degli scenari più realistici e allarmanti che illustrano come la GenAI possa essere sfruttata, e spesso abusata, nel mondo reale.

GenAI

L’intelligenza artificiale generativa (GenAI) sta ridefinendo i confini del possibile, ma ogni grande innovazione porta con sé un lato oscuro. Mentre le aziende si affrettano ad adottare questi potenti strumenti per ottimizzare processi e stimolare la creatività, una nuova generazione di minacce, più sofisticate, scalabili e ingannevoli, sta prendendo forma. Comprendere l’anatomia di questi attacchi non è più un esercizio teorico per i team di sicurezza, ma una necessità impellente per la sopravvivenza del business. Analizziamo alcuni degli scenari più realistici e allarmanti che illustrano come la GenAI possa essere sfruttata, e spesso abusata, nel mondo reale.

Scenario 1: Sfruttare ogni vantaggio – Social engineering su scala industriale

Immaginiamo un gruppo di cybercriminali che prende di mira una multinazionale. In passato, avrebbe dovuto investire tempo e risorse significative per creare email di phishing credibili. Oggi, con la GenAI, il processo è radicalmente trasformato. Gli attaccanti raccolgono informazioni disponibili pubblicamente: nomi di dirigenti, ruoli nel dipartimento finanziario, comunicati stampa su nuovi progetti. Successivamente, forniscono questi dati a un modello di GenAI con un semplice prompt: “Crea 50 email di spear phishing altamente personalizzate dirette al team finance, impersonando il CFO e richiedendo un pagamento urgente a un nuovo fornitore menzionato nell’ultimo comunicato stampa. Scrivile in inglese, tedesco e giapponese, adattando il tono allo stile di comunicazione formale di ciascun paese.”

In pochi minuti, la GenAI produce decine di email uniche, grammaticalmente impeccabili e contestualmente pertinenti. Ogni messaggio fa riferimento a progetti, persone e fornitori reali, rendendo quasi impossibile per un dipendente disattento riconoscere l’inganno. L’automazione consente agli attaccanti di testare e affinare rapidamente le loro campagne, variando oggetti, toni e tempistiche. Quando i sistemi di difesa tradizionali rilevano un’anomalia, potrebbe essere troppo tardi: più account sono già stati compromessi, credenziali rubate e fondi illecitamente trasferiti. La GenAI non ha solo abbassato la barriera d’ingresso per questi attacchi, ha spianato la strada.

Scenario 2: Una voce che tradisce – Frodi tramite deepfake audio

Un dipendente del reparto contabilità fornitori riceve una telefonata. La voce all’altro capo è quella del CFO, riconoscibile e autorevole. Il tono è urgente: un’acquisizione segreta è in fase di finalizzazione e un bonifico immediato deve essere inviato a un “consulente legale” per chiudere l’operazione. La richiesta bypassa i normali processi di approvazione a causa della sua presunta “massima riservatezza”. Il dipendente, fidandosi di ciò che sente e pressato dall’urgenza comunicata da una figura autorevole, esegue il trasferimento.

Ore dopo, si scopre la frode. La voce del CFO non era reale, ma un deepfake audio generato da intelligenza artificiale, probabilmente addestrata su pochi minuti di audio prelevati da interviste pubbliche o video aziendali. Questo tipo di attacco è particolarmente insidioso perché sfrutta il canale di comunicazione più umano e fidato: la voce. Aggira i filtri anti-spam delle email e la logica dei controlli automatici, facendo leva sulla psicologia umana e sulla fiducia intrinseca che riponiamo nei nostri sensi.

Scenario 3: Attenzione al debug – Furto di dati sensibili tramite prompt

Uno sviluppatore software, sotto pressione per rispettare una scadenza, sta cercando di risolvere un bug complesso. Per accelerare il processo, copia e incolla un’ampia porzione del codice sorgente dell’azienda in un assistente AI pubblico online, chiedendo di identificare l’errore. Il codice incollato contiene chiavi API, indirizzi di server interni e frammenti di dati degli utenti. L’AI, come previsto, restituisce una soluzione efficace in pochi secondi. Lo sviluppatore risolve il bug e prosegue con la sua attività.

Ciò che ignora è che i suoi dati sensibili sono ora memorizzati sui server della piattaforma di AI. Potrebbero essere conservati nei log, utilizzati per futuri addestramenti del modello o, nel peggiore dei casi, resi accessibili a seguito di una violazione subìta dal fornitore dell’AI. Mesi dopo, un audit di sicurezza rivela che le chiavi API dell’azienda sono esposte su Internet. Questo scenario evidenzia il rischio della cosiddetta “Shadow AI”, l’uso non autorizzato e non controllato di strumenti di AI da parte dei dipendenti, che, agendo in buona fede, creano inconsapevolmente falle di sicurezza catastrofiche.

Scenario 4: Il cavallo di Troia – Avvelenamento dell’AI a uso interno

Un’azienda decide di implementare un proprio assistente AI interno per aumentare la produttività. Per renderlo più efficace, il modello viene affinato utilizzando un mix di dati proprietari e di terze parti. All’insaputa del team di sviluppo, uno di questi dataset esterni è stato “avvelenato” da un attore malevolo e contiene istruzioni nascoste e contenuti fuorvianti.

Una volta implementato, l’assistente AI inizia a comportarsi in modo anomalo e imprevedibile. Interrogato su questioni tecniche, potrebbe rivelare percorsi di file interni o dettagli dell’infrastruttura di rete. Se usato per redigere documenti, potrebbe inserire clausole dannose o errate. Gli utenti, che sono stati istruiti a fidarsi di questo nuovo strumento aziendale, accettano i suoi output come validi, propagando pratiche scorrette e informazioni false in tutta l’organizzazione. Il “cavallo di Troia” non è più un file allegato a un’email, ma il modello di intelligenza artificiale stesso.

Questi esempi non sono fantascienza. Sono scenari plausibili che dimostrano come la GenAI stia ampliando la superficie d’attacco e dotando i criminali di strumenti potentissimi. La difesa non può più basarsi solo sulla tecnologia, ma deve evolversi per includere governance forte, formazione continua dei dipendenti e una sana dose di scetticismo. Ignorare queste nuove minacce significa lasciare la porta aperta a frodi, fughe di dati e sabotaggi di una portata senza precedenti.

Ferdinando Mancini. director Southern Europe & Israel sales engineering di Proofpoint