Nella ricerca di McKinsey “The state of AI in 2023: Generative AI’s breakout year”, il 79% degli intervistati ha dichiarato di aver assistito all’uso di AI generativa per lavoro o al di fuori di esso e il 22% ha affermato di utilizzarla regolarmente nel proprio lavoro. Sebbene l’adozione e gli investimenti nell’AI generativa siano in aumento, il rapporto di McKinsey ha dimostrato che molte organizzazioni non stanno affrontando i potenziali rischi connessi all’uso della Generative AI. Meno di un terzo degli intervistati ha dichiarato di aver adottato misure per ridurre l’uso di tecnologie avanzate di AI al fine di mitigare i rischi di cybersecurity.
L’ascesa della Generative AI nelle aziende e nella cybersecurity
L’AI generativa svolgerà nel 2024 un ruolo ancora più centrale nelle aziende e nella società. Secondo studi recenti, la sua adozione è destinata a crescere in modo esponenziale, con una previsione di aumento del 30% in vari settori. Man mano che i sistemi intelligenti basati sull’AI e sul Machine Learning diventano sempre più radicati nella nostra vita quotidiana, il panorama della cybersecurity è destinato a dover affrontare nuove sfide e innovazioni. Gli esperti di Vectra AI hanno raccolto le loro previsioni per il 2024 relative alla Generative AI in materia di cybersecurity, sottolineando gli aspetti che tutti i team di sicurezza, i CISO e i responsabili dei SOC dovrebbero tenere bene a mente in vista del nuovo anno.
Generative AI: uno strumento per l’innovazione e una sfida per la cybersecurity
- Prepararsi al futuro: Strategie di sicurezza informatica nell’era dell’IA
Oliver Tavakoli, Chief Technology Officer, prevede che l’AI generativa ridurrà l’efficacia della cybersecurity delle e-mail. “Inoltre, l’utilizzo della Generative AI negli attacchi di social engineering servirà a far capire che le attuali linee di difesa sono inadeguate. Di conseguenza, prevedo che le organizzazioni si orienteranno verso approcci di sicurezza ‘a valle’, come Zero Trust, micro-segmentazione e meccanismi di rilevamento e risposta”.
- Implicazioni politiche: Il ruolo dell’AI nelle elezioni e l’integrità delle informazioni
Sohrob Kazerounian, ricercatore di AI, ritiene che in vista delle elezioni del 2024 l’AI generativa influenzerà la sfiducia e la disinformazione elettorale. “L’ampia disponibilità di modelli di Generative AI e la relativa facilità d’uso degli stessi avranno effetti di vasta portata, dato che gli Stati Uniti si trovano attualmente in un anno elettorale. La disinformazione su scala, con contenuti di qualità (ad esempio, audio e video di candidati falsificati, fake news di massa mascherate da notizie, ecc) diventerà più facile che mai. L’incapacità di fidarci dei nostri sensi potrebbe portare a sfiducia e paranoia, incrinando ulteriormente le relazioni sociali e politiche tra le persone”.
- Nuovi trend di AI: Calano gli LLM, aumentano i deep fake
Christian Borst, CTO EMEA, ritiene che l’uso diffuso degli LLM (Large Language Models) sia destinato a diminuire, mentre i deep fake aumenteranno. “Molte organizzazioni stanno esplorando modi nuovi per utilizzare i Large Language Models dopo l’ondata iniziale di entusiasmo di quest’anno. Ma se si va a scavare sotto la superficie, è chiaro che il fattore novità si esaurirà presto. Gli LLM sono in genere piuttosto difficili da usare, perché non sono in grado di comprendere il contesto o di fornire risultati affidabili e di conseguenza un loro uso pratico più ampio è limitato. L’anno prossimo vedremo, quindi, le aziende ridurre l’uso degli LLM, in attesa che questi strumenti diventino più funzionali e facili da usare”.
“Gli autori delle minacce informatiche dovranno affrontare gli stessi problemi nell’utilizzo degli LLM, quindi probabilmente non vedremo molte attività complesse come la generazione di codice maligno da parte dell’AI. Tuttavia, possiamo aspettarci che i criminali informatici sfruttino la Generative AI per creare deep fake più realistici e sofisticati. In questo modo avranno maggiori possibilità di ingannare gli utenti e indurli a fornire dati sensibili o a cliccare su qualcosa di dannoso utilizzando esche di phishing audio o visive più convincenti”.
- Scenario normativo: equilibrio tra innovazione e controllo dell’AI
Quando si parla di Generativa AI e di cybersecurity, la regolamentazione e la politica giocheranno un ruolo importante nel 2024. Secondo Hitesh Sheth, CEO di Vectra AI, il futuro dell’AI dipenderà dalle decisioni normative. “Nel 2024, prevedo che assisteremo a progressi enormi nella regolamentazione e nella politica dell’AI. Sulla spinta dell’ordine esecutivo in materia di intelligenza artificiale emanato dal presidente degli Stati Uniti Joe Biden, i legislatori valuteranno e metteranno in atto normative più concrete per contenere i rischi dell’AI e sfruttarne i vantaggi. Poiché l’AI continua ad evolversi, sarà importante che queste norme in via di sviluppo trovino un equilibrio tra la difesa della trasparenza e la promozione della continua innovazione che sta avvenendo a ritmo sostenuto”.
Sohrob Kazerounian, ricercatore nel campo dell’AI, è d’accordo e prevede che i dilemmi etici, legali e politici dell’AI saranno oggetto di numerose controversie. “Le questioni etiche, legali e socio-politiche riguardanti l’AI non potranno che diventare più spinose. Data la paralisi politica generale negli Stati Uniti, è improbabile che emergano quadri normativi e legali solidi per la regolamentazione dell’AI con la stessa rapidità con cui sono necessari. E le cause legali riguardanti materiale protetto da copyright utilizzato per addestrare modelli generativi di AI aumenteranno di numero”.
Conclusione: Abbracciare l’AI con cautela e responsabilità
La Generative AI trasformerà indubbiamente il panorama della cybersecurity in modo significativo. Ha il potenziale per far progredire gli strumenti di sicurezza, migliorare la threat intelligence e trasformare i security operation center. Mentre esploriamo queste opportunità, procediamo con cautela, dotati di conoscenza, resilienza e impegno per stare un passo avanti agli attaccanti investendo in cybersecurity.