“L’UE rischia di restare isolata, mentre nel resto del mondo regolamenti eterogenei possono mettere a rischio vita politica e diritti fondamentali”, dichiara Matteo Lucchetti, direttore di Cyber 4.0 alla Cyber Crime Conference di Roma

Matteo Lucchetti

“Il mondo è sempre più diviso su blocchi opposti, anche sulla tecnologia, tra chi cerca di promuoverne uno sviluppo fortemente ancorato al rispetto dei diritti dell’uomo e chi spinge sull’acceleratore dei nuovi paradigmi tecnologici senza valutarne gli impatti di natura etica e regolamentare: in un anno in cui il 40% della popolazione mondiale andrà al voto, senza un’efficace regolamentazione internazionale e con lo sviluppo incessante dell’innovazione, l’utilizzo malevolo dell’AI per nuove forme di cyber criminalità rischia di diventare una minaccia alla vita politica e democratica, capace di influenzare le elezioni e le decisioni dei singoli paesi. I diritti fondamentali sono ovunque a rischio e bisogna lavorare affinché l’UE non resti isolata nel difenderli”.

Il monito del direttore di Cyber 4.0

È questo il monito che Matteo Lucchetti, direttore di Cyber 4.0, il Centro di competenza nazionale ad alta specializzazione per la cybersecurity, ha lanciato in apertura della Cyber Crime Conference, in corso oggi e domani all’Auditorium della Tecnica a Roma. L’evento, organizzato da ICT Security Magazine e giunto alla 12esima edizione, rappresenta un’occasione di aggiornamento sui panorami di rischio cyber e un luogo di confronto tra i relatori dei convegni, l’area espositiva e un pubblico qualificato di aziende ICT, professionisti del settore legale e della cyber diplomazia, forze dell’ordine, autorità giudiziarie, università e centri di ricerca.

Il 2023 si è chiuso con dati allarmanti circa la sicurezza informatica e tutte le principali autorità sul campo confermano i trend in crescita degli attacchi cyber. Secondo l’ultimo rapporto Clusit, con 2.779 incidenti gravi analizzati a livello globale la tendenza è stata del +12% sul 2022. E il nostro Paese appare sempre più nel mirino: lo scorso anno in Italia è andato a segno l’11% degli attacchi gravi globali mappati (era il 7,6% nel 2022), dato in crescita del 65% rispetto al 2022. Il 47% degli attacchi totali censiti in Italia sin dal 2019 si è verificato nel 2023.

L’AI consente di sviluppare nuove forme di cybercrime

In questo scenario, l’Intelligenza Artificiale offre ulteriore varietà e complessità alle modalità di attacco cyber che è lecito aspettarsi dalla “fantasia” di hacker e altri “black hats”, magari al servizio di organizzazioni criminali. “L’AI consente di sviluppare nuove forme di cybercrime sempre più personalizzata ed efficaci, sofisticati algoritmi per fare coding e per diffondere malware sempre più adattativi, abbattere i tempi per lanciare attacchi ‘0-day’, fino all’utilizzo dei deepfake multimediali, dalla frode basata sul furto di identità ai danni di singoli o di aziende, fino alle campagne di disinformazione in occasione delle elezioni nazionali, di cui già abbiamo visto esempi clamorosi”.

Il dibattito internazionale in materia è sempre più acceso, come dimostrano le novità regolamentari tese a proteggere dalle nuove minacce i dati personali e le infrastrutture strategiche digitali, nonché a gestire il ruolo centrale assunto dall’Intelligenza Artificiale tanto sul fronte degli attacchi quanto degli strumenti di difesa. Il Parlamento europeo, per esempio, ha approvato lo scorso marzo il regolamento AI Act, che entrerà pienamente in vigore tra due anni, portando adeguamenti sulle analisi di rischio e sulle tecnologie ammesse o vietate di Intelligenza Artificiale.

“Tuttavia, l’Ue rischia di restare un player minore e isolato tra attori statali con ambizioni spregiudicate nella competizione tecnologica, capaci di intralciare un’adozione ampia, efficace e cogente dei contenuti condivisi in seno a trattative internazionali lunghe e complesse – spiega Lucchetti -. Quanto sta accadendo al Consiglio d’Europa offre il leitmotiv: da una parte molti paesi hanno trovato un accordo su una Convenzione quadro internazionale sull’Intelligenza Artificiale, i diritti umani e lo Stato di diritto, ma dall’altro l’accordo lascia ampio margine ai singoli paesi di decidere come e in che misura imporre obblighi al settore privato che ne sviluppa algoritmi e applicazioni. Il testo, nato per essere giuridicamente vincolante sui diritti umani senza danneggiare l’innovazione, rischia pertanto di essere sottoutilizzato anche in quei contesti che decideranno di adottarlo, al di là dell’importante azione di sensibilizzazione sui temi etici”.

L’evoluzione inarrestabile dell’AI

L’Intelligenza Artificiale sembra ormai un ospite destinato a restare nelle vite, nei lavori e nelle case di ognuno grazie a una infrastruttura digitale ormai matura in termini di connettività, capacità computazionale e base informativa, con tutte le opportunità e i rischi connessi. Il progresso tecnologico e commerciale promette applicazioni trasversali a qualsiasi ambito economico e sociale.

La dimensione del mercato stimata per il 2024 è di 184 miliardi di dollari e, con un tasso aggregato annuale di crescita del 28,26%, il volume di mercato previsto per il 2030 è di 826,7 miliardi di dollari, considerati tutti i comparti del settore: robotica, computer vision, machine learning, sensoristica e automazione, natural language processing. Il segmento dell’AI generativa, in particolare, dovrebbe quasi decuplicare, dagli attuali 36 miliardi ai 356,1 miliardi di dollari per la fine del decennio (dati Statista).

“E la contrapposizione sui diritti fondamentali è alla base anche delle negoziazioni non ancora concluse alle Nazioni Unite sul trattato internazionale sul cyber crime – osserva Lucchetti – Si cerca da anni un punto di accordo che consenta di superare le criticità che parte del mondo esprime sulla Convenzione di Budapest, ma la sensazione è che non si riescano a identificare posizioni comuni che portino a una regolamentazione globale realmente efficace: anche se – come previsto – a Luglio di quest’anno si riuscisse a definire un testo finale del Trattato, il rischio di una sua scarsa adozione è alto e potremmo trovarci ancora per anni di fronte a una divisione tra paesi, in cui continueranno ad esserci nazioni che offriranno ‘safe haven’ ai cybercriminali e in cui lo spazio dei diritti di privacy e libertà di espressione sarà inevitabilmente sempre più compresso, in favore – anche, ma non solo – di un presunto vantaggio nell’evoluzione tecnologica”.