• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Attacchi web a +33% e API obiettivo numero uno. L’analisi di Akamai
    • Infrastrutture critiche: la sicurezza è un imperativo
    • IA e Cybersecurity governano le strategie di investimento aziendali
    • Twin4Cyber e Maticmind alla Camera per parlare di cybercrime
    • Cybersecurity: ecco perché affidarsi a operatori italiani
    • Secure Workload Access di CyberArk protegge le identità a 360°
    • NIS2 e infrastrutture critiche: 4 passaggi da fare per essere pronti
    • Attacchi informatici: un 2024 all’insegna di ransomware e IA
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    BitMAT | Speciale Sicurezza 360×365
    • Attualità
    • Opinioni
    • Ricerche
    • Soluzioni
    BitMAT | Speciale Sicurezza 360×365
    Sei qui:Home»Speciale Sicurezza»Opinioni»ChatGPT: strumento AI ancora troppo vulnerabile
    Opinioni

    ChatGPT: strumento AI ancora troppo vulnerabile

    By Redazione BitMAT6 Marzo 20237 Mins Read
    Facebook Twitter LinkedIn Tumblr Reddit Telegram WhatsApp Email

    Paolo Arcagni, Solutions Engineering Director di F5, spiega perché ChatGPT è un nuovo strumento nelle mani dei criminali informatici

    Nel contributo che vi proponiamo qui di seguito, Paolo Arcagni, Solutions Engineering Director di F5, spiega cos’è ChatGPT e cosa fa, ma ne rileva anche il lato oscuro utilizzato dai criminali informatici per esaminare codice alla ricerca di vulnerabilità e creare exploit.
    Buona lettura.

    La superstar del settore AI oggi si chiama ChatGPT. Lo strumento open-source che ha creato testi per milioni di persone ma – e questo purtroppo non sorprende – è già stato utilizzato dai criminali informatici per esaminare codice alla ricerca di vulnerabilità e creare exploit. Per i responsabili della sicurezza è giunto il momento di affrontare i pericoli correlati a questa popolarissima piattaforma e prendere in considerazione le misure di protezione.

    Ma partiamo dall’inizio: ChatGPT (Chat Generative Pre-trained Transformer) è stato rilasciato da OpenAI nel novembre dello scorso anno. Il suo scopo principale è imitare l’interlocutore umano, ma il tool è oggi anche in grado di comporre musica, scrivere saggi, rispondere a domande, giocare o scrivere programmi informatici.

    Nel farlo, mostra le tipiche debolezze che caratterizzano tutti gli strumenti di IA: i risultati sono una riproduzione di contenuti già esistenti, anche se spesso modificati. Non contengono né creatività né opinioni proprie e spesso sono poco precisi, affermando con assoluta certezza cose del tutto insensate o presentando le proprie invenzioni come fatti.

    L’intelligenza artificiale si sta perfezionando con estrema velocità

    Dal canto suo, OpenAI intende fare tutto il possibile per correggere questi problemi, con la versione successiva del motore GPT-4 che dovrebbe essere rilasciata quest’anno. Stando alle ultime notizie, oltre ai miglioramenti tecnici, OpenAI prevede di assumere altre 1.000 persone per addestrare l’AI, con 400 sviluppatori software che aiuteranno a programmare il codice (non a scriverlo), migliorando in modo significativo le capacità di programmazione della piattaforma.

    OpenAI si impegna a prevenire l’uso improprio della piattaforma attraverso misure di sicurezza e blocchi, ma gli hacker sono riusciti ad aggirarli senza troppe difficoltà. Ad esempio, lo scorso dicembre, alcuni criminali sono riusciti a crackare ChatGPT utilizzando varie tecniche di prompt engineering in modo che il bot fornisse istruzioni per realizzare una molotov o una bomba nucleare.

    ChatGPT, un nuovo aiutante per gli hacker

    ChatGPT facilita davvero il lavoro dei criminali informatici. Esattamente come Google, ChatGPT offre un risultato per una domanda specifica. Tuttavia, a differenza del motore di ricerca, la risposta fornita è molto più precisa e arricchita da esempi contestuali che possono essere utilizzati senza la minima rielaborazione. Questo rende l'”hacking” un gioco da ragazzi, ottimizzando l’autoapprendimento della stessa AI e portando le minacce alle applicazioni web a un livello completamente nuovo: con ChatGPT, anche i non addetti ai lavori possono condurre attacchi più complessi.

    Il modello di linguaggio GPT-3 può essere già oggi utilizzato per esaminare il codice esistente – anche offuscato e decompilato – alla ricerca di vulnerabilità e per la creazione di exploit. Anche gli hacker più impreparati nello sviluppo possono utilizzare ChatGPT per portare a termine con successo un processo di infezione completo, dalla creazione di un’e-mail di spear phishing all’esecuzione di una reverse shell.

    Qualche esempio di attacco

    Come dicevamo, ChatGPT viene già utilizzato a supporto di numerose tecniche di attacco. Un hacker, ad esempio, lo ha utilizzato per ricreare ceppi e tecniche di malware, come Infostealer basato su Python. Lo script creato ricerca i tipi di file più comuni, li copia in una cartella, li comprime in un formato ZIP e li carica su un server FTP codificato.

    ChatGPT ha anche aiutato un hacker a creare uno script Python con funzioni di firma, crittografia e decrittografia generando una chiave crittografica per firmare i file e utilizzando una password fissa per crittografare i file nel sistema. Tutte le funzioni di decrittografia sono state implementate nello script così che il codice potesse essere trasformato rapidamente in ransomware.

    Oltre a creare malware, ChatGPT è perfettamente in grado di scrivere e-mail di phishing e ben si presta a sviluppare sistemi di pagamento per le criptovalute sui mercati del dark web o creare opere d’arte NFT che vengono vendute illegalmente su Etsy e altre piattaforme online.

    Con ChatGPT i pericoli aumentano

    I rischi di attacco e di frode sono destinati ad aumentare e diventare sempre più pericolosi. Alcuni esperti di sicurezza, ad esempio, sono stati in grado di aggirare completamente i filtri di contenuto integrati in ChatGPT utilizzando l’API anziché la versione web, ma non solo. Hanno infatti anche scoperto che ChatGPT può modificare ripetutamente il codice generato e creare più versioni dello stesso malware. Questo tipo di malware polimorfico è difficile da rilevare a causa della sua elevata mutabilità.

    Inoltre, l’API di ChatGPT può essere utilizzata all’interno del malware stesso per fornire moduli per azioni diverse a seconda delle necessità. Poiché il malware non mostra alcun comportamento dannoso finché viene memorizzato solo sul disco rigido e spesso non contiene alcuna logica sospetta, gli strumenti di sicurezza basati sulle firme non sono in grado di rilevarlo.

    E non è tutto: l’intelligenza artificiale può essere utilizzata anche come servizio (Artificial Intelligence as-a-Service, AIaaS). Ciò significa che i criminali informatici non devono più addestrare i modelli da soli o affidarsi a open-source prefabbricati. Riducendo in modo significativo le barriere all’ingresso, l’AIaaS offre anche agli hacker senza alcuna esperienza di programmazione l’accesso a funzioni di AI decisamente innovative tramite API di facile utilizzo, senza costi elevati.

    Come contrattaccare? Ecco le possibili misure di difesa

    A causa del rapido aumento del livello di rischio derivante dall’uso malevolo dei modelli di IA, le aziende devono necessariamente adottare misure di protezione proattive. Devono quindi fare investimenti nella ricerca e nello sviluppo di tecnologie di rilevamento e difesa, implementare strategie come i framework di governance AI, adottare un approccio globale alla sicurezza ed eseguire regolari test di penetrazione.

    È proprio qui che gli strumenti stessi di AI possono fornire – allo stesso modo – un aiuto essenziale. Ad esempio, l’AIaaS può essere utilizzata per migliorare le prestazioni dei Red Team Test, in particolare per le e-mail di phishing. Inoltre, non dimentichiamo che l’intelligenza artificiale è in grado di personalizzare automaticamente i contenuti in base al background e alla personalità dell’obiettivo alla quale si rivolge, con risultati straordinariamente migliori rispetto a quelli manuali dei Red Team. A loro volta, i Red Team possono così concentrarsi su attività di maggior valore, come la raccolta e l’analisi delle informazioni.

    Inoltre, i sistemi basati sull’AIaaS possono essere utilizzati non solo nelle simulazioni, ma anche per rilevare e difendersi dagli attacchi di phishing veri e propri. Rispetto ai filtri e-mail tradizionali, i modelli di linguaggio come GPT-3 sono in grado di distinguere più accuratamente tra testi creati automaticamente o manualmente. Per utilizzare questi modelli sono sufficienti conoscenze di base di AI e poche risorse.

    Anche gli strumenti esistenti e già attualmente a disposizione possono difendere efficacemente dagli attacchi basati sull’intelligenza artificiale. Ad esempio, F5 ha testato la qualità del suo Advanced Web Application Firewall (AWAF) con un tentativo di SQL injection generato da ChatGPT. Il tentativo è stato rilevato e bloccato automaticamente, anche dopo l’URL encryption.

    Conclusioni

    È chiaro che i risultati messi a segno da ChatGPT siano ad oggi per la maggior parte abbastanza solidi – o comunque possano essere utilizzati immediatamente o solo dopo alcune piccole messe a punto. Con il rapido perfezionamento dei modelli di linguaggio, è molto probabile che nel prossimo futuro il panorama IT sarà notevolmente diverso. Chi ignora questo aspetto agisce a proprio rischio e pericolo. I responsabili della sicurezza devono quindi prepararsi fin da ora ai possibili rischi rappresentati dall’uso improprio degli strumenti di intelligenza artificiale, rispondendo con la stessa tecnologia per la propria protezione.

    ChatGPT f5 Hacker Paolo Arcagni
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione BitMAT
    • Website
    • Facebook
    • X (Twitter)

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Infrastrutture critiche: la sicurezza è un imperativo

    18 Aprile 2025

    Cybersecurity: ecco perché affidarsi a operatori italiani

    17 Aprile 2025

    Approccio Zero Trust e Cybersecurity Proattiva i “must” del 2025

    8 Aprile 2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Tag Cloud
    Acronis Akamai attacchi informatici Axitea Barracuda Networks Bitdefender Check Point Research Check Point Software Technologies CISO cloud Commvault CyberArk cybercrime Cybersecurity cyber security DDoS ESET F-Secure F5 Networks FireEye Fortinet Hacker Identity Security infrastrutture critiche intelligenza artificiale (AI) Iot Kaspersky malware minacce informatiche palo alto networks phishing Proofpoint ransomware Security SentinelOne sicurezza sicurezza informatica Sicurezza It SOC Stormshield Trend Micro Vectra AI WatchGuard Technologies Zero Trust Zscaler
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    Navigazione
    • Attualità
    • Opinioni
    • Ricerche
    • Soluzioni
    Ultime

    Attacchi web a +33% e API obiettivo numero uno. L’analisi di Akamai

    23 Aprile 2025

    Infrastrutture critiche: la sicurezza è un imperativo

    18 Aprile 2025

    IA e Cybersecurity governano le strategie di investimento aziendali

    18 Aprile 2025
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 - BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 295 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.