Non solo Deep Fake: evoluzione delle minacce basate su AI

Non solo Deep Fake: evoluzione delle minacce basate su AI

Secondo il report Malicious Uses and Abuses of Artificial Intelligence, realizzato da Europol, United Nations Interregional Crime and Justice Research Institute (UNICRI) e Trend Micro, l’intelligenza artificiale può essere sfruttata sia come vettore che come superficie di attacco e le minacce che si basano su questa tecnologia si stanno evolvendo, da “semplici” Deep Fake ad attacchi sempre più complessi.

Lo studio approfondisce il presente e i possibili scenari futuri dell’utilizzo dell’intelligenza artificiale in ambito cybercriminale e si propone come uno strumento per aiutare le organizzazioni pubbliche, private e le Forze dell’Ordine a mitigare i rischi.

“La promessa dell’intelligenza artificiale è quella di una grande efficienza, automazione e autonomia. Nel momento in cui il grande pubblico è sempre più preoccupato sull’utilizzo di questa tecnologia, però, dobbiamo essere completamente trasparenti circa le possibili minacce, non focalizzarci solo sui benefici che ci può portare – ha affermato Edvardas Šileris, Head of Europol’s Cybercrime Centre. Questo studio ci aiuterà ad anticipare i possibili utilizzi malevoli dell’intelligenza artificiale ma anche a prevenire e mitigare le minacce in maniera proattiva. In questo modo possiamo sfruttare il potenziale dell’intelligenza artificiale e trarre benefici”.

I cybercriminali utilizzeranno l’intelligenza artificiale sia come vettore che come superficie di attacco. I Deep Fake sono al momento l’esempio più famoso dell’utilizzo dell’IA come vettore di attacco, e presto, sempre basate su questa tecnologia, verranno progettate nuove campagne di disinformazione ed estorsione che renderanno necessari nuovi strumenti di screening.

L’intelligenza artificiale, oltre che per minacce di tipo Deep Fake, potrebbe essere utilizzata per:

  • Realizzare attacchi di ingegneria sociale su larga scala
  • Progettare malware per il furto di documenti con lo scopo di rendere gli attacchi più efficaci
  • Evitare il riconoscimento facciale o biometrico
  • Lanciare attacchi ransomware che sfruttano una profilazione intelligente
  • Inquinare i dati, identificando falle nelle regole di rilevamento

“Nel momento in cui le applicazioni dell’intelligenza artificiale iniziano ad avere un impatto maggiore nel mondo reale, appare chiaro come questa sarà una tecnologia fondamentale per il futuro – ha dichiarato Irakli Beridze, Head of the Centre for AI and Robotics at UNICRI. Ma non sono solo i benefici dell’IA ad essere reali, purtroppo lo sono anche i rischi. Siamo orgogliosi di essere partner di Europol e Trend Micro nel portare un po’ di luce nel lato oscuro dell’IA, stimolando ulteriori discussioni sull’argomento”.

Lo studio avverte anche che i sistemi di intelligenza artificiale sono sviluppati per migliorare l’efficacia dei malware e per bloccare i sistemi anti-malware o di riconoscimento facciale.

“I cybercriminali sono sempre stati early adopter di tecnologie e l’intelligenza artificiale è una di queste. Come sottolinea lo studio è già utilizzata per indovinare password, rompere CAPTCHA e clonare le voci, ma altri utilizzi sono in via di definizione – ha affermato Vincenzo Ciancaglini, Senior Threat Researcher di Trend Micro. Siamo molto soddisfatti di fare squadra con Europol e UNICRI per aumentare il livello di consapevolezza su queste minacce, creando un futuro digitale più sicuro per tutti”.

Alcune raccomandazioni per approcciarsi al meglio all’intelligenza artificiale:

  • Utilizzare il potenziale dell’intelligenza artificiale come uno strumento per combattere il crimine e per rendere la cybersecurity e le Forze dell’Ordine a prova di futuro
  • Investire nella ricerca per sviluppare tecnologie di difesa
  • Promuovere e sviluppare framework di progettazione IA sicuri
  • Ridurre la retorica politica dell’utilizzo dell’intelligenza artificiale per scopi di cybersecurity
  • Sfruttare partnership pubblico-privato e creare gruppi di lavoro multidisciplinari

Ulteriori informazioni sono disponibili a questo link.