CybergON spiega come i cybercriminali usano l’AI per attaccare ma anche come essa possa essere uno strumento potente per la sicurezza informatica.

sicurezza-informatica

L’Intelligenza Artificiale è una di quelle invenzioni che se usata nel modo giusto offre infiniti benefici, soprattutto nel settore della sicurezza informatica ma, se finisce nelle mani sbagliate, rappresenta un grande pericolo. Quando a novembre OpenAI ha lanciato il rivoluzionario modello linguistico di intelligenza artificiale ChatGPT milioni di utenti sono rimasti affascinati dalle sue capacità. I modelli Generative Pre-trained Transformer (GPT) hanno portato alla ribalta l’AI generativa, raggiungendo 1 milione di utenti in cinque giorni e OpenAI si classifica tra i primi 150 siti e app più visitati in Italia.

Tuttavia, sebbene OpenAI si sia impegnata a garantire che la propria tecnologia sia usata adeguatamente, le capacità dell’intelligenza artificiale sono aumentate anche in modo negativo diventando uno strumento usato per facilitare la conduzione di attacchi informatici.

Le principali tecniche di attacco dei cybercriminali

CybergON, la business unit di Elmec Informatica che si occupa di cybersecurity, ha messo in luce le principali tecniche di attacco condotte tramite AI e modelli Generative Pre-trained Transformer (GPT) che offrono più velocità e automazione ai cybercriminali e, al contempo, una maggiore accessibilità anche a persone senza competenze tecniche.

Stando alle evidenze riscontrate da CybergON, l’intelligenza artificiale – e più nello specifico ChatGPT – può essere utilizzata per 3 principali scopi malevoli: per migliorare le tecniche di ingegneria sociale e rendere gli attacchi di phishing più mirati, per installare malware e per creare delle campagne DeepFake.

Partendo dalla sua funzione principale, ovvero quella di chatbot, aggiungendo un’interfaccia testuale avanzata e la registrazione di immagini, video e audio, la tecnologia può creare un output video che rappresenta la persona mentre recita frasi che non ha mai realmente detto. In questo caso, i DeepFake possono essere impiegati in campagne diffamatorie, frodi, furti e personificazioni del tutto illegali.

AI e sicurezza informatica

Tuttavia, se da un lato vi sono dei rischi, l’intelligenza artificiale può essere adoperata anche per far progredire la sicurezza informatica. Ad esempio, i vendor possono individuare e risolvere le vulnerabilità più velocemente, in modo da rendere più sicuro l’utilizzo dei software ed evitare di lasciare porte aperte a potenziali attaccanti. Inoltre, può essere integrata nella formazione anti-phishing di un’azienda per aumentare la consapevolezza dei dipendenti.

sicurezza-informatica
La superficie di attacco nei moderni ambienti aziendali è sempre in aumento, così come i volumi di dati che devono essere monitorati ed analizzati per individuare potenziali rischi”, afferma Elisa Ballerio, Marketing Director di CybergON. “È necessario un nuovo livello di soluzioni per contrastare le minacce informatiche: l’AI è lo strumento che, se combinato con il fattore umano ed altre tecnologie di sicurezza informatica, può fornire la massima protezione. Al momento la sola AI non è sufficiente, per questo, per verificare il grado della minaccia, oltre che per determinare l’impatto sociale ed economico deve entrare in gioco l’esperienza umana”.