Nonostante gli sforzi di OpenAI sull’uso improprio di ChatGPT attraverso misure di sicurezza e blocchi, gli hacker sono riusciti ad aggirarli senza troppe difficoltà.

ChatGPT

Paolo Arcagni, Solutions Engineering Director di F5 riflette su quanto gli strumenti di Intelligenza Artificiale come ChatGPT siano d’aiuto per i cybercriminali e invita i responsabili della sicurezza a prepararsi ai possibili rischi rappresentati dall’uso improprio di questi strumenti, rispondendo con la stessa tecnologia per la propria protezione.

Introduzione a ChatGPT

La superstar del settore AI oggi si chiama ChatGPT. Lo strumento open-source che ha creato testi per milioni di persone ma – e questo purtroppo non sorprende – è già stato utilizzato dai criminali informatici per esaminare codice alla ricerca di vulnerabilità e creare exploit. Per i responsabili della sicurezza è giunto il momento di affrontare i pericoli correlati a questa popolarissima piattaforma e prendere in considerazione le misure di protezione.

Ma partiamo dall’inizio: ChatGPT (Chat Generative Pre-trained Transformer) è stato rilasciato da OpenAI nel novembre dello scorso anno. Il suo scopo principale è imitare l’interlocutore umano, ma il tool è oggi anche in grado di comporre musica, scrivere saggi, rispondere a domande, giocare o scrivere programmi informatici.

Nel farlo, mostra le tipiche debolezze che caratterizzano tutti gli strumenti di IA: i risultati sono una riproduzione di contenuti già esistenti, anche se spesso modificati. Non contengono né creatività né opinioni proprie e spesso sono poco precisi, affermando con assoluta certezza cose del tutto insensate o presentando le proprie invenzioni come fatti.

L’intelligenza artificiale si sta perfezionando con estrema velocità

Dal canto suo, OpenAI intende fare tutto il possibile per correggere questi problemi, con la versione successiva del motore GPT-4 che dovrebbe essere rilasciata quest’anno. Stando alle ultime notizie, oltre ai miglioramenti tecnici, OpenAI prevede di assumere altre 1.000 persone per addestrare l’AI, con 400 sviluppatori software che aiuteranno a programmare il codice (non a scriverlo), migliorando in modo significativo le capacità di programmazione della piattaforma.

OpenAI si impegna a prevenire l’uso improprio della piattaforma attraverso misure di sicurezza e blocchi, ma gli hacker sono riusciti ad aggirarli senza troppe difficoltà. Ad esempio, lo scorso dicembre, alcuni criminali sono riusciti a crackare ChatGPT utilizzando varie tecniche di prompt engineering in modo che il bot fornisse istruzioni per realizzare una molotov o una bomba nucleare.

ChatGPT è il nuovo aiutante degli hacker

ChatGPT facilita davvero il lavoro dei criminali informatici. Esattamente come Google, ChatGPT offre un risultato per una domanda specifica. Tuttavia, a differenza del motore di ricerca, la risposta fornita è molto più precisa e arricchita da esempi contestuali che possono essere utilizzati senza la minima rielaborazione. Questo rende l'”hacking” un gioco da ragazzi, ottimizzando l’autoapprendimento della stessa AI e portando le minacce alle applicazioni web a un livello completamente nuovo: con ChatGPT, anche i non addetti ai lavori possono condurre attacchi più complessi.

Il modello di linguaggio GPT-3 può essere già oggi utilizzato per esaminare il codice esistente – anche offuscato e decompilato – alla ricerca di vulnerabilità e per la creazione di exploit. Anche gli hacker più impreparati nello sviluppo possono utilizzare ChatGPT per portare a termine con successo un processo di infezione completo, dalla creazione di un’e-mail di spear phishing all’esecuzione di una reverse shell.

Qualche esempio di attacco tramite ChatGPT

Come dicevamo, ChatGPT viene già utilizzato a supporto di numerose tecniche di attacco. Un hacker, ad esempio, lo ha utilizzato per ricreare ceppi e tecniche di malware, come Infostealer basato su Python. Lo script creato ricerca i tipi di file più comuni, li copia in una cartella, li comprime in un formato ZIP e li carica su un server FTP codificato.

ChatGPT ha anche aiutato un hacker a creare uno script Python con funzioni di firma, crittografia e decrittografia generando una chiave crittografica per firmare i file e utilizzando una password fissa per crittografare i file nel sistema. Tutte le funzioni di decrittografia sono state implementate nello script così che il codice potesse essere trasformato rapidamente in ransomware.

Oltre a creare malware, ChatGPT è perfettamente in grado di scrivere e-mail di phishing e ben si presta a sviluppare sistemi di pagamento per le criptovalute sui mercati del dark web o creare opere d’arte NFT che vengono vendute illegalmente su Etsy e altre piattaforme online.

I pericoli aumentano

I rischi di attacco e di frode sono destinati ad aumentare e diventare sempre più pericolosi. Alcuni esperti di sicurezza, ad esempio, sono stati in grado di aggirare completamente i filtri di contenuto integrati in ChatGPT utilizzando l’API anziché la versione web, ma non solo. Hanno infatti anche scoperto che ChatGPT può modificare ripetutamente il codice generato e creare più versioni dello stesso malware. Questo tipo di malware polimorfico è difficile da rilevare a causa della sua elevata mutabilità.

Inoltre, l’API di ChatGPT può essere utilizzata all’interno del malware stesso per fornire moduli per azioni diverse a seconda delle necessità. Poiché il malware non mostra alcun comportamento dannoso finché viene memorizzato solo sul disco rigido e spesso non contiene alcuna logica sospetta, gli strumenti di sicurezza basati sulle firme non sono in grado di rilevarlo.

E non è tutto: l’intelligenza artificiale può essere utilizzata anche come servizio (Artificial Intelligence as-a-Service, AIaaS). Ciò significa che i criminali informatici non devono più addestrare i modelli da soli o affidarsi a open-source prefabbricati. Riducendo in modo significativo le barriere all’ingresso, l’AIaaS offre anche agli hacker senza alcuna esperienza di programmazione l’accesso a funzioni di AI decisamente innovative tramite API di facile utilizzo, senza costi elevati.

Come contrattaccare? Ecco le possibili misure di difesa

A causa del rapido aumento del livello di rischio derivante dall’uso malevolo dei modelli di IA, le aziende devono necessariamente adottare misure di protezione proattive. Devono quindi fare investimenti nella ricerca e nello sviluppo di tecnologie di rilevamento e difesa, implementare strategie come i framework di governance AI, adottare un approccio globale alla sicurezza ed eseguire regolari test di penetrazione.

È proprio qui che gli strumenti stessi di AI possono fornire – allo stesso modo – un aiuto essenziale. Ad esempio, l’AIaaS può essere utilizzata per migliorare le prestazioni dei Red Team Test, in particolare per le e-mail di phishing. Inoltre, non dimentichiamo che l’intelligenza artificiale è in grado di personalizzare automaticamente i contenuti in base al background e alla personalità dell’obiettivo alla quale si rivolge, con risultati straordinariamente migliori rispetto a quelli manuali dei Red Team. A loro volta, i Red Team possono così concentrarsi su attività di maggior valore, come la raccolta e l’analisi delle informazioni.

Inoltre, i sistemi basati sull’AIaaS possono essere utilizzati non solo nelle simulazioni, ma anche per rilevare e difendersi dagli attacchi di phishing veri e propri. Rispetto ai filtri e-mail tradizionali, i modelli di linguaggio come GPT-3 sono in grado di distinguere più accuratamente tra testi creati automaticamente o manualmente. Per utilizzare questi modelli sono sufficienti conoscenze di base di AI e poche risorse.

Anche gli strumenti esistenti e già attualmente a disposizione possono difendere efficacemente dagli attacchi basati sull’intelligenza artificiale.

Conclusioni

È chiaro che i risultati messi a segno da ChatGPT siano ad oggi per la maggior parte abbastanza solidi – o comunque possano essere utilizzati immediatamente o solo dopo alcune piccole messe a punto. Con il rapido perfezionamento dei modelli di linguaggio, è molto probabile che nel prossimo futuro il panorama IT sarà notevolmente diverso. Chi ignora questo aspetto agisce a proprio rischio e pericolo. I responsabili della sicurezza devono quindi prepararsi fin da ora ai possibili rischi rappresentati dall’uso improprio degli strumenti di intelligenza artificiale, rispondendo con la stessa tecnologia per la propria protezione.

di Paolo Arcagni, Solutions Engineering Director di F5