L’intelligenza artificiale generativa (GenAI) è emersa come uno dei trend tecnologici più caldi dell’ultimo anno, ottenendo attenzione significativa. Il rapido sviluppo di modelli linguistici di grandi dimensioni (LLM) e di strumenti come ChatGPT ha spinto le aziende a esplorare i potenziali vantaggi dell’AI generativa. Anche se forse stiamo raggiungendo il picco delle aspettative che la circondano, è fondamentale che i responsabili della sicurezza riconoscano che l’AI offre una gamma molto più ampia di applicazioni.
Molti vendor di sicurezza incorporano da anni nelle loro soluzioni l’intelligenza artificiale, in particolare sotto forma di machine learning (ML), con l’obiettivo di migliorarne l’efficacia e potenziarne le capacità. L’intelligenza artificiale ha un potenziale immenso per rafforzare la sicurezza e consentire ai difensori di essere all’avanguardia rispetto alle minacce. Tuttavia, è essenziale riconoscere che l’AI ha casi d’uso molto più ampi. Ad esempio, le funzionalità basate su AI/ML sono valide solo quanto i dati e i processi utilizzati per addestrare i modelli, tra cui la dimensione e la qualità dei set di informazioni, il monitoraggio dei cambiamenti nella loro distribuzione, ecc. La complessità della tecnologia crea ulteriori ostacoli e limitazioni e, nonostante la capacità dell’AI di superare gli esseri umani in alcuni compiti complessi, non è sempre l’approccio più efficace.
In sostanza, l’AI non è l’unica soluzione a tutti i problemi di sicurezza. Con l’obiettivo di migliorare le difese aziendali, è consigliabile prendere in considerazione tutta l’ampiezza dei suoi casi d’uso, ponendo ai vendor di sicurezza domande dettagliate per capire quali casi e soluzioni siano più adatti a una specifica azienda.
Difese abilitate dall’AI, promessa e funzionalità
I sistemi di intelligenza artificiale sono particolarmente abili nell’identificare modelli in enormi quantità di dati e nel fare previsioni sulla loro base. Prendiamo ad esempio le truffe di payroll diversion come esempio dei vantaggi dell’AI: questi tipi di attacchi BEC (Business Email Compromise) sono sempre più frequenti e sfuggono costantemente al rilevamento della sicurezza delle email. Le valutazioni delle minacce condotte da Proofpoint lo scorso ottobre, ad esempio, hanno rilevato che più di 400 minacce di deviazione delle buste paga hanno eluso 12 strumenti di sicurezza email.
Gli attacchi sono difficili da rilevare perché in genere non hanno payload come link o allegati. Inoltre, le soluzioni di sicurezza email tradizionali basate su API analizzano le minacce dopo la consegna, il che richiede un impegno molto lungo da parte dei team IT o di security per popolare lo strumento con i dati. Poiché questo approccio non è scalabile, molti team scelgono di implementare i controlli solo per un gruppo selezionato, come i dirigenti. Gli attori delle minacce, tuttavia, prendono di mira una categoria molto più ampia di persone in azienda quando effettuano attacchi di deviazione delle retribuzioni.
È qui che gli strumenti basati su AI/ML, compresa la GenAI, offrono un enorme vantaggio. Il rilevamento delle minacce basato su AI/ML, insieme a quello pre-delivery basato su LLM, può essere utilizzato per interpretare il tono e l’intento contestuale di un’email. Questo approccio protegge l’azienda bloccando le email fraudolente e dannose prima che raggiungano i dipendenti, riducendo notevolmente la loro esposizione a minacce come quelle BEC.
Non tutti gli strumenti alimentati dall’AI sono uguali
Per operare in modo efficace, le soluzioni di AI e ML hanno bisogno di enormi quantità di dati di alta qualità, perché i modelli imparano da esempi, non da regole. Proofpoint addestra i propri con milioni di email giornaliere provenienti da un ecosistema di threat intelligence mondiale. Questo garantisce maggiore fedeltà di rilevamento e dà ai team di sicurezza o IT la fiducia nell’efficacia della loro sicurezza.
Pertanto, prima di adottare nuove soluzioni basate su AI e ML, è bene porre ai vendor di security domande quali:
- Dove ottengono i dati per l’addestramento degli algoritmi? È facile recuperare dati per applicazioni AI generiche, ma quelli di intelligence sulle minacce non sono altrettanto frequenti. I dati di addestramento utilizzati dal vendor devono riflettere non solo gli scenari del mondo reale, ma anche le minacce specifiche che interessano una determinata azienda e il suo staff.
- Come integrano AI/ML con i loro stack di rilevamento? La tecnologia intelligente non è altrettanto efficiente, efficace o affidabile per tutti i tipi di minacce. È fondamentale che una soluzione di sicurezza integri altre tecniche, come ad esempio regole e firme, o processi “human-in-the-loop”.
Prima ancora di addentrarci in questi dettagli, è necessario valutare se l’AI sia ottimale per le proprie sfide specifiche. I modelli di AI sono complessi e ad alta intensità di calcolo e possono richiedere più tempo per essere eseguiti rispetto a funzionalità meno complicate. A volte le tecniche basate su regole sono più efficaci, soprattutto quando la rapidità di risposta è fondamentale. È necessario comprendere chiaramente gli obiettivi di sicurezza e il percorso ideale per raggiungerli.
GenAI, ancora in attesa di giudizio
Molti vendor di sicurezza hanno integrato senza problemi l’AI nei loro stack già da anni, ma ci aspettiamo molta più visibilità sugli sforzi di GenAI.
In primo luogo, l’intelligenza artificiale generativa sta attraversando cicli di hype molto più rapidi rispetto a qualsiasi altra tecnologia precedente. Persino i governi, che di solito sono lenti a reagire, hanno già lanciato l’allarme, come dimostra il recente ordine esecutivo del presidente degli Stati Uniti volto ad affrontare i rischi di questa tecnologia in rapida ascesa.
Mentre la community di sicurezza cerca di comprendere le implicazioni dell’AI, non possiamo trascurare il fatto che anche i malintenzionati possano usarla a loro vantaggio. Ecco un’altra arma a doppio taglio.
La GenAI, in particolare, è diventata l’area di preoccupazione in più rapida crescita per le aziende, con team IT e di sicurezza che stanno prendendo sul serio questa minaccia e i responsabili aziendali sono d’accordo. Secondo un’indagine condotta da Proofpoint lo scorso anno sui componenti dei consigli di amministrazione, il 59% riteneva che le tecnologie emergenti come la GenAI rappresentassero un rischio per la sicurezza della propria azienda.
I cybercriminali stanno già abusando di questa tecnologia, utilizzando modelli linguistici di grandi dimensioni open-source per sviluppare strumenti dannosi come WormGPT, FraudGPT e DarkBERT che consentono di creare email di phishing migliori e tradurle in molte lingue.
Non c’è dubbio che l’intelligenza artificiale generativa offra nuove possibilità agli avversari e molte delle preoccupazioni potrebbero essere eccessive, almeno per ora. I cybercriminali non rinunceranno alle tattiche esistenti né reinventeranno la ruota finché i loro modelli attuali rimarranno redditizi. I difensori devono concentrarsi sulle minacce più immediate e assicurarsi di disporre di una protezione robusta.
Daniel Rapp, Group Vice President, AI/ML, Proofpoint