{"id":6417,"date":"2023-03-06T08:16:58","date_gmt":"2023-03-06T07:16:58","guid":{"rendered":"https:\/\/www.bitmat.it\/specialesicurezza\/?p=6417"},"modified":"2023-03-04T18:28:11","modified_gmt":"2023-03-04T17:28:11","slug":"chatgpt-strumento-ai-ancora-troppo-vulnerabile","status":"publish","type":"post","link":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile","title":{"rendered":"ChatGPT: strumento AI ancora troppo vulnerabile"},"content":{"rendered":"<p>Nel contributo che vi proponiamo qui di seguito, <a href=\"https:\/\/www.linkedin.com\/in\/paoloarcagni\/\" target=\"_blank\" rel=\"noopener\">Paolo Arcagni<\/a>, Solutions Engineering Director di F5, spiega cos\u2019\u00e8 ChatGPT e cosa fa, ma ne rileva anche il lato oscuro utilizzato dai criminali informatici per esaminare codice alla ricerca di vulnerabilit\u00e0 e creare exploit.<br \/>\nBuona lettura.<\/p>\n<p>La superstar del settore AI oggi si chiama ChatGPT. Lo strumento open-source che ha creato testi per milioni di persone ma \u2013 e questo purtroppo non sorprende &#8211; \u00e8 gi\u00e0 stato utilizzato dai criminali informatici per esaminare codice alla ricerca di vulnerabilit\u00e0 e creare exploit. Per i responsabili della sicurezza \u00e8 giunto il momento di affrontare i pericoli correlati a questa popolarissima piattaforma e prendere in considerazione le misure di protezione.<\/p>\n<p>Ma partiamo dall\u2019inizio: ChatGPT (Chat Generative Pre-trained Transformer) \u00e8 stato rilasciato da OpenAI nel novembre dello scorso anno. Il suo scopo principale \u00e8 imitare l\u2019interlocutore umano, ma il tool \u00e8 oggi anche in grado di comporre musica, scrivere saggi, rispondere a domande, giocare o scrivere programmi informatici.<\/p>\n<p>Nel farlo, mostra le tipiche debolezze che caratterizzano tutti gli strumenti di IA: i risultati sono una riproduzione di contenuti gi\u00e0 esistenti, anche se spesso modificati. Non contengono n\u00e9 creativit\u00e0 n\u00e9 opinioni proprie e spesso sono poco precisi, affermando con assoluta certezza cose del tutto insensate o presentando le proprie invenzioni come fatti.<\/p>\n<h2><strong>L&#8217;intelligenza artificiale si sta perfezionando con estrema velocit\u00e0 <\/strong><\/h2>\n<p>Dal canto suo, OpenAI intende fare tutto il possibile per correggere questi problemi, con la versione successiva del motore GPT-4 che dovrebbe essere rilasciata quest&#8217;anno. Stando alle ultime notizie, oltre ai miglioramenti tecnici, OpenAI prevede di assumere altre 1.000 persone per addestrare l&#8217;AI, con 400 sviluppatori software che aiuteranno a programmare il codice (non a scriverlo), migliorando in modo significativo le capacit\u00e0 di programmazione della piattaforma.<\/p>\n<p>OpenAI si impegna a prevenire l&#8217;uso improprio della piattaforma attraverso misure di sicurezza e blocchi, ma gli hacker sono riusciti ad aggirarli senza troppe difficolt\u00e0. Ad esempio, lo scorso dicembre, alcuni criminali sono riusciti a crackare ChatGPT utilizzando varie tecniche di prompt engineering in modo che il bot fornisse istruzioni per realizzare una molotov o una bomba nucleare.<\/p>\n<h2><strong>ChatGPT, un nuovo aiutante per gli hacker <\/strong><\/h2>\n<p>ChatGPT facilita davvero il lavoro dei criminali informatici. Esattamente come Google, ChatGPT offre un risultato per una domanda specifica. Tuttavia, a differenza del motore di ricerca, la risposta fornita \u00e8 molto pi\u00f9 precisa e arricchita da esempi contestuali che possono essere utilizzati senza la minima rielaborazione. Questo rende l'&#8221;hacking&#8221; un gioco da ragazzi, ottimizzando l&#8217;autoapprendimento della stessa AI e portando le minacce alle applicazioni web a un livello completamente nuovo: con ChatGPT, anche i non addetti ai lavori possono condurre attacchi pi\u00f9 complessi.<\/p>\n<p>Il modello di linguaggio GPT-3 pu\u00f2 essere gi\u00e0 oggi utilizzato per esaminare il codice esistente &#8211; anche offuscato e decompilato &#8211; alla ricerca di vulnerabilit\u00e0 e per la creazione di exploit. Anche gli hacker pi\u00f9 impreparati nello sviluppo possono utilizzare ChatGPT per portare a termine con successo un processo di infezione completo, dalla creazione di un&#8217;e-mail di spear phishing all&#8217;esecuzione di una reverse shell.<\/p>\n<h2><strong>Qualche esempio di attacco<\/strong><\/h2>\n<p>Come dicevamo, ChatGPT viene gi\u00e0 utilizzato a supporto di numerose tecniche di attacco. Un hacker, ad esempio, lo ha utilizzato per ricreare ceppi e tecniche di malware, come Infostealer basato su Python. Lo script creato ricerca i tipi di file pi\u00f9 comuni, li copia in una cartella, li comprime in un formato ZIP e li carica su un server FTP codificato.<\/p>\n<p>ChatGPT ha anche aiutato un hacker a creare uno script Python con funzioni di firma, crittografia e decrittografia generando una chiave crittografica per firmare i file e utilizzando una password fissa per crittografare i file nel sistema. Tutte le funzioni di decrittografia sono state implementate nello script cos\u00ec che il codice potesse essere trasformato rapidamente in ransomware.<\/p>\n<p>Oltre a creare malware, ChatGPT \u00e8 perfettamente in grado di scrivere e-mail di phishing e ben si presta a sviluppare sistemi di pagamento per le criptovalute sui mercati del dark web o creare opere d&#8217;arte NFT che vengono vendute illegalmente su Etsy e altre piattaforme online.<\/p>\n<h2><strong>Con ChatGPT i pericoli aumentano<\/strong><\/h2>\n<p>I rischi di attacco e di frode sono destinati ad aumentare e diventare sempre pi\u00f9 pericolosi. Alcuni esperti di sicurezza, ad esempio, sono stati in grado di aggirare completamente i filtri di contenuto integrati in ChatGPT utilizzando l&#8217;API anzich\u00e9 la versione web, ma non solo. Hanno infatti anche scoperto che ChatGPT pu\u00f2 modificare ripetutamente il codice generato e creare pi\u00f9 versioni dello stesso malware. Questo tipo di malware polimorfico \u00e8 difficile da rilevare a causa della sua elevata mutabilit\u00e0.<\/p>\n<p>Inoltre, l&#8217;API di ChatGPT pu\u00f2 essere utilizzata all&#8217;interno del malware stesso per fornire moduli per azioni diverse a seconda delle necessit\u00e0. Poich\u00e9 il malware non mostra alcun comportamento dannoso finch\u00e9 viene memorizzato solo sul disco rigido e spesso non contiene alcuna logica sospetta, gli strumenti di sicurezza basati sulle firme non sono in grado di rilevarlo.<\/p>\n<p>E non \u00e8 tutto: l&#8217;intelligenza artificiale pu\u00f2 essere utilizzata anche come servizio (Artificial Intelligence as-a-Service, AIaaS). Ci\u00f2 significa che i criminali informatici non devono pi\u00f9 addestrare i modelli da soli o affidarsi a open-source prefabbricati. Riducendo in modo significativo le barriere all&#8217;ingresso, l\u2019AIaaS offre anche agli hacker senza alcuna esperienza di programmazione l&#8217;accesso a funzioni di AI decisamente innovative tramite API di facile utilizzo, senza costi elevati.<\/p>\n<h2><strong>Come contrattaccare? Ecco le possibili misure di difesa <\/strong><\/h2>\n<p>A causa del rapido aumento del livello di rischio derivante dall&#8217;uso malevolo dei modelli di IA, le aziende devono necessariamente adottare misure di protezione proattive. Devono quindi fare investimenti nella ricerca e nello sviluppo di tecnologie di rilevamento e difesa, implementare strategie come i framework di governance AI, adottare un approccio globale alla sicurezza ed eseguire regolari test di penetrazione.<\/p>\n<p>\u00c8 proprio qui che gli strumenti stessi di AI possono fornire &#8211; allo stesso modo &#8211; un aiuto essenziale. Ad esempio, l&#8217;AIaaS pu\u00f2 essere utilizzata per migliorare le prestazioni dei Red Team Test, in particolare per le e-mail di phishing. Inoltre, non dimentichiamo che l\u2019intelligenza artificiale \u00e8 in grado di personalizzare automaticamente i contenuti in base al background e alla personalit\u00e0 dell&#8217;obiettivo alla quale si rivolge, con risultati straordinariamente migliori rispetto a quelli manuali dei Red Team. A loro volta, i Red Team possono cos\u00ec concentrarsi su attivit\u00e0 di maggior valore, come la raccolta e l\u2019analisi delle informazioni.<\/p>\n<p>Inoltre, i sistemi basati sull&#8217;AIaaS possono essere utilizzati non solo nelle simulazioni, ma anche per rilevare e difendersi dagli attacchi di phishing veri e propri. Rispetto ai filtri e-mail tradizionali, i modelli di linguaggio come GPT-3 sono in grado di distinguere pi\u00f9 accuratamente tra testi creati automaticamente o manualmente. Per utilizzare questi modelli sono sufficienti conoscenze di base di AI e poche risorse.<\/p>\n<p>Anche gli strumenti esistenti e gi\u00e0 attualmente a disposizione possono difendere efficacemente dagli attacchi basati sull&#8217;intelligenza artificiale. Ad esempio, F5 ha testato la qualit\u00e0 del suo Advanced Web Application Firewall (AWAF) con un tentativo di SQL injection generato da ChatGPT. Il tentativo \u00e8 stato rilevato e bloccato automaticamente, anche dopo l\u2019URL encryption.<\/p>\n<h2><strong>Conclusioni <\/strong><\/h2>\n<p>\u00c8 chiaro che i risultati messi a segno da ChatGPT siano ad oggi per la maggior parte abbastanza solidi &#8211; o comunque possano essere utilizzati immediatamente o solo dopo alcune piccole messe a punto. Con il rapido perfezionamento dei modelli di linguaggio, \u00e8 molto probabile che nel prossimo futuro il panorama IT sar\u00e0 notevolmente diverso. Chi ignora questo aspetto agisce a proprio rischio e pericolo. I responsabili della sicurezza devono quindi prepararsi fin da ora ai possibili rischi rappresentati dall&#8217;uso improprio degli strumenti di intelligenza artificiale, rispondendo con la stessa tecnologia per la propria protezione.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Paolo Arcagni, Solutions Engineering Director di F5, spiega perch\u00e9 ChatGPT \u00e8 un nuovo strumento nelle mani dei criminali informatici<\/p>\n","protected":false},"author":1,"featured_media":6418,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"footnotes":""},"categories":[8],"tags":[5135,4022,4092,4076],"class_list":{"0":"post-6417","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-opinioni","8":"tag-chatgpt","9":"tag-f5","10":"tag-hacker","11":"tag-paolo-arcagni"},"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v26.3 (Yoast SEO v27.4) - https:\/\/yoast.com\/product\/yoast-seo-premium-wordpress\/ -->\n<title>ChatGPT: strumento AI ancora troppo vulnerabile - BitMAT | Speciale Sicurezza 360x365<\/title>\n<meta name=\"description\" content=\"Paolo Arcagni, Solutions Engineering Director di F5, spiega perch\u00e9 ChatGPT \u00e8 un nuovo strumento nelle mani dei criminali informatici\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"ChatGPT: strumento AI ancora troppo vulnerabile\" \/>\n<meta property=\"og:description\" content=\"Paolo Arcagni, Solutions Engineering Director di F5, spiega perch\u00e9 ChatGPT \u00e8 un nuovo strumento nelle mani dei criminali informatici\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile\" \/>\n<meta property=\"og:site_name\" content=\"BitMAT | Speciale Sicurezza 360x365\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/BitMATnews\" \/>\n<meta property=\"article:published_time\" content=\"2023-03-06T07:16:58+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.bitmat.it\/specialesicurezza\/files\/2023\/03\/ChatGPT.png\" \/>\n\t<meta property=\"og:image:width\" content=\"485\" \/>\n\t<meta property=\"og:image:height\" content=\"420\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Redazione BitMAT\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@https:\/\/twitter.com\/BitMATnews\" \/>\n<meta name=\"twitter:label1\" content=\"Scritto da\" \/>\n\t<meta name=\"twitter:data1\" content=\"Redazione BitMAT\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo di lettura stimato\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/news\\\/6417\\\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/news\\\/6417\\\/chatgpt-strumento-ai-ancora-troppo-vulnerabile\"},\"author\":{\"name\":\"Redazione BitMAT\",\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/#\\\/schema\\\/person\\\/4cd1e4627f78f4fbed810748dc1a20d4\"},\"headline\":\"ChatGPT: strumento AI ancora troppo vulnerabile\",\"datePublished\":\"2023-03-06T07:16:58+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/news\\\/6417\\\/chatgpt-strumento-ai-ancora-troppo-vulnerabile\"},\"wordCount\":1269,\"image\":{\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/news\\\/6417\\\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/files\\\/2023\\\/03\\\/ChatGPT.png\",\"keywords\":[\"ChatGPT\",\"f5\",\"Hacker\",\"Paolo Arcagni\"],\"articleSection\":[\"Opinioni\"],\"inLanguage\":\"it-IT\",\"copyrightYear\":\"2023\",\"copyrightHolder\":{\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/#organization\"}},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/news\\\/6417\\\/chatgpt-strumento-ai-ancora-troppo-vulnerabile\",\"url\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/news\\\/6417\\\/chatgpt-strumento-ai-ancora-troppo-vulnerabile\",\"name\":\"ChatGPT: strumento AI ancora troppo vulnerabile - BitMAT | Speciale Sicurezza 360x365\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/news\\\/6417\\\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/news\\\/6417\\\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/files\\\/2023\\\/03\\\/ChatGPT.png\",\"datePublished\":\"2023-03-06T07:16:58+00:00\",\"author\":{\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/#\\\/schema\\\/person\\\/4cd1e4627f78f4fbed810748dc1a20d4\"},\"description\":\"Paolo Arcagni, Solutions Engineering Director di F5, spiega perch\u00e9 ChatGPT \u00e8 un nuovo strumento nelle mani dei criminali informatici\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/news\\\/6417\\\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/news\\\/6417\\\/chatgpt-strumento-ai-ancora-troppo-vulnerabile\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/news\\\/6417\\\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#primaryimage\",\"url\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/files\\\/2023\\\/03\\\/ChatGPT.png\",\"contentUrl\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/files\\\/2023\\\/03\\\/ChatGPT.png\",\"width\":485,\"height\":420},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/news\\\/6417\\\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"ChatGPT: strumento AI ancora troppo vulnerabile\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/#website\",\"url\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/\",\"name\":\"BitMAT | Speciale Sicurezza 360x365\",\"description\":\"Un intero speciale dedicato esclusivamente alla sicurezza, in tutte le sue accezioni: dalla protezione dei singoli device a quella delle infrastrutture critiche, senza trascurare gli attacchi terroristici e la violazione alla privacy.\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/#\\\/schema\\\/person\\\/4cd1e4627f78f4fbed810748dc1a20d4\",\"name\":\"Redazione BitMAT\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/cc68cb64f5606ebc4c95ec5b02440c57fc7d268268e5dd8c1cac7ec09ec07ac9?s=96&d=mm&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/cc68cb64f5606ebc4c95ec5b02440c57fc7d268268e5dd8c1cac7ec09ec07ac9?s=96&d=mm&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/cc68cb64f5606ebc4c95ec5b02440c57fc7d268268e5dd8c1cac7ec09ec07ac9?s=96&d=mm&r=g\",\"caption\":\"Redazione BitMAT\"},\"description\":\"BitMAT Edizioni \u00e8 una casa editrice che ha sede a Milano con una copertura a 360\u00b0 per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation &amp; Communication Technology.\",\"sameAs\":[\"https:\\\/\\\/www.bitmat.it\\\/\",\"https:\\\/\\\/www.facebook.com\\\/BitMATnews\",\"https:\\\/\\\/x.com\\\/https:\\\/\\\/twitter.com\\\/BitMATnews\"],\"url\":\"https:\\\/\\\/www.bitmat.it\\\/specialesicurezza\\\/news\\\/author\\\/bitmat\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"ChatGPT: strumento AI ancora troppo vulnerabile - BitMAT | Speciale Sicurezza 360x365","description":"Paolo Arcagni, Solutions Engineering Director di F5, spiega perch\u00e9 ChatGPT \u00e8 un nuovo strumento nelle mani dei criminali informatici","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile","og_locale":"it_IT","og_type":"article","og_title":"ChatGPT: strumento AI ancora troppo vulnerabile","og_description":"Paolo Arcagni, Solutions Engineering Director di F5, spiega perch\u00e9 ChatGPT \u00e8 un nuovo strumento nelle mani dei criminali informatici","og_url":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile","og_site_name":"BitMAT | Speciale Sicurezza 360x365","article_author":"https:\/\/www.facebook.com\/BitMATnews","article_published_time":"2023-03-06T07:16:58+00:00","og_image":[{"width":485,"height":420,"url":"https:\/\/www.bitmat.it\/specialesicurezza\/files\/2023\/03\/ChatGPT.png","type":"image\/png"}],"author":"Redazione BitMAT","twitter_card":"summary_large_image","twitter_creator":"@https:\/\/twitter.com\/BitMATnews","twitter_misc":{"Scritto da":"Redazione BitMAT","Tempo di lettura stimato":"7 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#article","isPartOf":{"@id":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile"},"author":{"name":"Redazione BitMAT","@id":"https:\/\/www.bitmat.it\/specialesicurezza\/#\/schema\/person\/4cd1e4627f78f4fbed810748dc1a20d4"},"headline":"ChatGPT: strumento AI ancora troppo vulnerabile","datePublished":"2023-03-06T07:16:58+00:00","mainEntityOfPage":{"@id":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile"},"wordCount":1269,"image":{"@id":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#primaryimage"},"thumbnailUrl":"https:\/\/www.bitmat.it\/specialesicurezza\/files\/2023\/03\/ChatGPT.png","keywords":["ChatGPT","f5","Hacker","Paolo Arcagni"],"articleSection":["Opinioni"],"inLanguage":"it-IT","copyrightYear":"2023","copyrightHolder":{"@id":"https:\/\/www.bitmat.it\/#organization"}},{"@type":"WebPage","@id":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile","url":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile","name":"ChatGPT: strumento AI ancora troppo vulnerabile - BitMAT | Speciale Sicurezza 360x365","isPartOf":{"@id":"https:\/\/www.bitmat.it\/specialesicurezza\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#primaryimage"},"image":{"@id":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#primaryimage"},"thumbnailUrl":"https:\/\/www.bitmat.it\/specialesicurezza\/files\/2023\/03\/ChatGPT.png","datePublished":"2023-03-06T07:16:58+00:00","author":{"@id":"https:\/\/www.bitmat.it\/specialesicurezza\/#\/schema\/person\/4cd1e4627f78f4fbed810748dc1a20d4"},"description":"Paolo Arcagni, Solutions Engineering Director di F5, spiega perch\u00e9 ChatGPT \u00e8 un nuovo strumento nelle mani dei criminali informatici","breadcrumb":{"@id":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#primaryimage","url":"https:\/\/www.bitmat.it\/specialesicurezza\/files\/2023\/03\/ChatGPT.png","contentUrl":"https:\/\/www.bitmat.it\/specialesicurezza\/files\/2023\/03\/ChatGPT.png","width":485,"height":420},{"@type":"BreadcrumbList","@id":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/6417\/chatgpt-strumento-ai-ancora-troppo-vulnerabile#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.bitmat.it\/specialesicurezza\/"},{"@type":"ListItem","position":2,"name":"ChatGPT: strumento AI ancora troppo vulnerabile"}]},{"@type":"WebSite","@id":"https:\/\/www.bitmat.it\/specialesicurezza\/#website","url":"https:\/\/www.bitmat.it\/specialesicurezza\/","name":"BitMAT | Speciale Sicurezza 360x365","description":"Un intero speciale dedicato esclusivamente alla sicurezza, in tutte le sue accezioni: dalla protezione dei singoli device a quella delle infrastrutture critiche, senza trascurare gli attacchi terroristici e la violazione alla privacy.","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.bitmat.it\/specialesicurezza\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":"Person","@id":"https:\/\/www.bitmat.it\/specialesicurezza\/#\/schema\/person\/4cd1e4627f78f4fbed810748dc1a20d4","name":"Redazione BitMAT","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/secure.gravatar.com\/avatar\/cc68cb64f5606ebc4c95ec5b02440c57fc7d268268e5dd8c1cac7ec09ec07ac9?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/cc68cb64f5606ebc4c95ec5b02440c57fc7d268268e5dd8c1cac7ec09ec07ac9?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/cc68cb64f5606ebc4c95ec5b02440c57fc7d268268e5dd8c1cac7ec09ec07ac9?s=96&d=mm&r=g","caption":"Redazione BitMAT"},"description":"BitMAT Edizioni \u00e8 una casa editrice che ha sede a Milano con una copertura a 360\u00b0 per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation &amp; Communication Technology.","sameAs":["https:\/\/www.bitmat.it\/","https:\/\/www.facebook.com\/BitMATnews","https:\/\/x.com\/https:\/\/twitter.com\/BitMATnews"],"url":"https:\/\/www.bitmat.it\/specialesicurezza\/news\/author\/bitmat"}]}},"_links":{"self":[{"href":"https:\/\/www.bitmat.it\/specialesicurezza\/wp-json\/wp\/v2\/posts\/6417","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.bitmat.it\/specialesicurezza\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.bitmat.it\/specialesicurezza\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.bitmat.it\/specialesicurezza\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.bitmat.it\/specialesicurezza\/wp-json\/wp\/v2\/comments?post=6417"}],"version-history":[{"count":2,"href":"https:\/\/www.bitmat.it\/specialesicurezza\/wp-json\/wp\/v2\/posts\/6417\/revisions"}],"predecessor-version":[{"id":6420,"href":"https:\/\/www.bitmat.it\/specialesicurezza\/wp-json\/wp\/v2\/posts\/6417\/revisions\/6420"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.bitmat.it\/specialesicurezza\/wp-json\/wp\/v2\/media\/6418"}],"wp:attachment":[{"href":"https:\/\/www.bitmat.it\/specialesicurezza\/wp-json\/wp\/v2\/media?parent=6417"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.bitmat.it\/specialesicurezza\/wp-json\/wp\/v2\/categories?post=6417"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.bitmat.it\/specialesicurezza\/wp-json\/wp\/v2\/tags?post=6417"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}