
Nell’articolo di seguito, David Higgins, Senior Director, Field Technology Office, CyberArk condivide un’analisi sulle minacce legate all’Intelligenza Artificiale, definita dall’ultima ricerca di CyberArk, una complessa “triplice minaccia”. Scopriamo che cosa vuol dire e cosa devono fare le aziende per costruire una solida resilienza.
Buona lettura!
La triplice minaccia dell’AI: mitigare i rischi della sua adozione con la sicurezza delle identità
Recenti violazioni di alto profilo hanno dimostrato che l’Italia è ancora vulnerabile a minacce cyber sempre più avanzate. La crescente integrazione dell’intelligenza artificiale nelle attività quotidiane sta intensificando questa esposizione. Infatti, se da un lato è diventata essenziale per le aziende che cercano di offrire valore mantenendo il proprio vantaggio competitivo, dall’altro comporta dei rischi che troppe imprese devono ancora mitigare completamente.
L’ultima ricerca di CyberArk identifica l’AI come una complessa “triplice minaccia”: viene sfruttata come vettore di attacco, utilizzata a scopo difensivo ma, fattore forse più preoccupante, dà luogo a nuove e significative lacune nella sicurezza. Alla luce di questo panorama di minacce in evoluzione, le aziende devono porre l’identity security al centro delle loro strategie di AI se desiderano costruire una resilienza futura.
AI: stesse minacce, nuovi problemi
L’intelligenza artificiale ha alzato il livello dei metodi di attacco tradizionali. Il phishing, che rimane il punto di ingresso più comune per le violazioni delle identità, si è evoluto oltre le e-mail fino ad arrivare a truffe sofisticate che utilizzano deepfake, voci clonate e messaggi dall’aspetto autentico.
Quasi il 70% delle aziende italiane è stato vittima di attacchi di phishing l’anno scorso, e il 49% ha segnalato più incidenti; a dimostrazione che anche una solida formazione e una protezione avanzata possono essere aggirate quando gli aggressori si avvalgono dell’IA per imitare contatti fidati e sfruttare la psicologia umana.
Non è più sufficiente pensare che le difese perimetrali convenzionali possano fermare queste minacce. Le aziende devono introdurre processi di verifica delle identità più rigorosi e creare una cultura in cui le attività sospette vengono segnalate e indagate senza esitazione.
Utilizzo dell’Intelligenza Artificiale nella difesa
Se da un lato l’intelligenza artificiale sta potenziando le capacità degli attaccanti, dall’altro sta trasformando il modo di operare dei difensori. Il 39% delle aziende italiane utilizza AI e modelli linguistici di grandi dimensioni per effettuare analisi comportamentali e rilevare anomalie, e in molti SOC, è diventata un moltiplicatore di forze essenziale che consente a team di piccole dimensioni di gestire un carico di lavoro in aumento.
Il 63% delle organizzazioni italiane prevede che l’intelligenza artificiale sarà il principale fattore di spesa per la cybersecurity nel prossimo anno, percentuale che riflette la crescente consapevolezza che gli analisti umani, da soli, non possono tenere il passo con la portata e la velocità degli attacchi moderni. Tuttavia, la difesa basata su AI deve essere implementata in modo responsabile. Un’eccessiva dipendenza senza una sufficiente supervisione umana può portare a punti ciechi e una falsa fiducia. I team di sicurezza devono essere certi che gli strumenti di AI siano addestrati su dati di alta qualità, testati rigorosamente e aggiornati regolarmente per evitare derive o errori imprevisti.
L’intelligenza artificiale sta ampliando la portata degli attacchi
Il terzo elemento della triplice minaccia è la rapida crescita delle identità macchina e degli agenti AI. Man mano che i dipendenti adottano nuovi strumenti di AI per aumentare la produttività, il numero di account non umani in Italia che accedono ai dati critici è cresciuto, superando ora quelli umani con un rapporto di 85 a uno. Molte di queste identità macchina hanno privilegi elevati, ma operano con una governance minima. Credenziali deboli, secret condivisi e gestione inconsistente del ciclo di vita creano opportunità per gli attaccanti di compromettere i sistemi con poca resistenza.
La Shadow AI sta aggravando questa sfida. La ricerca indica che il 42% delle realtà italiane non è in grado di proteggere il suo utilizzo e, secondo il 51% degli intervistati, insieme alle applicazioni di intelligenza artificiale non autorizzate gioca un ruolo significativo nella creazione di silos di identità.
Gli strumenti non approvati possono elaborare dati riservati senza le dovute protezioni, lasciando le organizzazioni esposte a fughe di dati, non conformità e danni alla reputazione.
Per affrontare questo rischio i soli controlli tecnici non sono sufficienti e le aziende devono stabilire policy chiare sull’uso accettabile dell’intelligenza artificiale, educare il personale sui rischi legati a comportamenti che mirano ad aggirare la sicurezza e fornire alternative sicure e approvate che soddisfino le esigenze aziendali senza creare vulnerabilità nascoste.
La sicurezza delle identità al centro della strategia digitale
Per garantire la protezione delle imprese guidate dall’AI è necessario incorporare la sicurezza delle identità in ogni livello della strategia digitale. Ciò significa garantire visibilità in tempo reale di tutte le identità – umane, macchina o agenti AI – applicando il minimo privilegio in modo coerente e monitorando continuamente i comportamenti di accesso insoliti che potrebbero segnalare una violazione.
Le aziende orientate al futuro stanno già aggiornando le loro strutture di gestione di identità e accessi per soddisfare le esigenze specifiche dell’AI attraverso l’adozione dell’accesso just-in-time per le identità macchina, il monitoraggio dell’escalation dei privilegi e il trattamento di tutti gli agenti AI con lo stesso scrutinio degli account umani.
L’intelligenza artificiale offre un valore enorme alle aziende che la adottano in modo responsabile, ma senza una solida sicurezza delle identità, questo valore può rapidamente diventare una passività. Le aziende che prospereranno saranno quelle che riconosceranno che la resilienza non è un optional, ma la base per una crescita a lungo termine.
In un’epoca in cui le aziende e i loro avversari sono entrambi potenziati dall’AI, un principio rimane saldo: la sicurezza inizia e finisce con le identità.
di David Higgins, Senior Director, Field Technology Office, CyberArk