L’AI ACT si propone di reagire all’introduzione degli ultimi sviluppi dell’intelligenza artificiale imponendo che sia “umanocentrica e affidabile”, assicurando alti livelli di protezione della salute, dell’ambiente, della sicurezza, la salvaguardia dei diritti fondamentali e in generale l’osservanza della legge

Si dice che quando gli scopi di un’organizzazione non siano ben definiti, ciò che l’organizzazione consegna ricalchi il proprio organigramma. Non c’è una vera unione politica in Europa: le strutture di controllo garantiscono una certa sorveglianza dei mercati, necessaria a che l’unione monetaria funzioni; la vera unione economica non si è mai realizzata. Purtroppo è meno unione, più condominio. Se c’è una cosa in cui le strutture politiche europee eccellono è nella produzione di regole, tra le quali gli “Act” giuridici immediatamente in vigore purché non contrastino con la costituzione di un paese membro, che fissano obiettivi.

Uno di questi atti è l’Artificial Intelligence Act [1], o AI Act, che si propone nientemeno di reagire all’introduzione degli ultimi sviluppi dell’intelligenza artificiale imponendo che sia “umanocentrica e affidabile”, assicurando alti livelli di protezione della salute, dell’ambiente, della sicurezza, la salvaguardia dei diritti fondamentali e in generale l’osservanza della legge. Vaste programme, che comincerà ad essere applicato dal 2 febbraio 2025 e avrà piena attuazione in due passi: dal 2 agosto 2026, tranne che per l’articolo 6; dal 2 agosto 2027 anche per quest’ultimo. Sono previste altre fasi fino al 2030, per cui non è un approccio big bang. Mancano ancora i regolamenti attuativi.

Cosa è veramente l’AI? Con questa sigla si indicano tutta una serie di tecnologie informatiche e matematiche che vanno dai sistemi esperti fioriti negli anni ‘80, al machine learning degli anni ‘90, al deep learning dagli anni 2000 in poi, fino all’ultima iterazione dei Large Language Models (LLM, ChatGPT e affini [2]) negli ultimi 7 anni. Poiché non possiamo (per il momento) modellare in dettaglio un cervello o farlo meglio della natura, le tecniche affinate al crescere della potenza di calcolo hanno simulato le connessioni tra una base di conoscenza e le risposte a vari input con calcoli matematici. Inutile sottolineare che il progresso è stato reso possibile dall’incremento della potenza di calcolo e della capacità di memorizzazione: non esiste Artificial Intelligence senza Big Data, ovvero una quantità di dati non gestibili facilmente con mezzi convenzionali.

Chiamiamo tutto AI, ma nella loro ultima iterazione queste tecnologie non sono che una simulazione abbastanza convincente da far prendere paura alla politica del vecchio continente. Perché il futuro è già qui da poco meno di un decennio e l’abbiamo visto in opera in Cina; non è un futuro gradevole in ogni sua parte.

Applicabilità dell’AI ACT

L’AI Act è applicabile a chi produca, importi o distribuisca strumenti AI. Come per altri atti legislativi europei, non importa se i modelli siano realizzati nel territorio dell’Unione o al di fuori, purché siano fruibili in Europa. In ciò sono ricalcati altri Act, come il Cyber Resilience Act (CRA).

A causa di questa normativa i produttori e gli sviluppatori europei dovranno partecipare alla rivoluzione AI in maniera più burocratica dei produttori statunitensi e cinesi, le superpotenze dell’AI, nonché con molte meno risorse economiche alle spalle. Infatti i modelli fanno uso di ingenti risorse di calcolo, ed è ciò che fa salire i costi nell’usufrutto, non che sia (troppo) segreta la tecnologia a corredo. I cloud utilizzati nell’Unione sono, e saranno per il prevedibile futuro, prevalentemente di proprietà statunitense.

Sono previste esclusioni in seno all’Unione per l’applicabilità di questa normativa:

  • In caso di cooperazione internazionale, applicazione della legge, amministrazione della giustizia, quando siano implementate sufficienti salvaguardie per il rispetto dei diritti fondamentali e della libertà degli individui.
  • Non riguarda i fornitori di servizi intermediari: ad esempio, un cloud che si limiti a ospitare un modello AI sulle proprie macchine.
  • Non si applica alla ricerca, sviluppo e test di sistemi AI prima che siano immessi sul mercato.
  • Non riguarda i modelli con licenze free e open source, purché non siano utilizzati commercialmente oppure siano classificati come ad alto rischio.
  • Non si applica a modelli per uso personale o per attività non professionali.

Per affermazione della stessa Commissione, la grandissima parte dei modelli non sono interessati dall’AI Act. Al limite sarà necessario specificarlo nella documentazione tecnica a corredo, peraltro già necessaria se il software casca sotto l’ombrello del CRA.

Come per altre normative, le multe sono pesanti: trasgredire l’articolo 5 sulle pratiche proibite per le aziende può condurre a multe fino a 35 milioni di Euro o al 7% del fatturato annuo mondiale. Altri tipi di violazione, ad esempio per i modelli general purpose, possono far comminare multe fino a 15 milioni di Euro o al 3% del fatturato annuo mondiale. Fornire informazioni non corrette o fuorvianti può risultare in multe fino a 7.5 milioni di Euro o l’1% del fatturato annuo mondiale.

E’ possibile anche punire le istituzioni dell’Unione che violino le regole. In questo caso le multe possono arrivare da 750000 fino a 1.5 milioni di Euro.

Approccio basato sui rischi

Il modo in cui sono differenziati i rischi impliciti nell’AI è tramite l’introduzione delle seguenti classi:

  • Inaccettabile: modelli che implichino manipolazione subliminale, che sfruttano vulnerabilità di specifiche classi di persone (per età, disabilità, condizione sociale o economica), sistemi di categorizzazione economica o per etnia, religione, orientamento sessuale. Questi usi sono semplicemente proibiti.
  • Ad alto rischio: oggetto dell’articolo 6 dell’AI Act, quando il modello è componente di sicurezza in un prodotto o è esso stesso il prodotto, a meno che non si limiti ad “aumentare” il comportamento umano e non lo sostituisca. Nel caso di alto rischio prima di essere posto sul mercato esso dovrà subire una verifica di conformità, persino sul tipo di dati su cui il modello è addestrato, da una terza parte: ad esempio, deve essere assicurato che non ci sia polarizzazione di alcun tipo nei dati di addestramento (non vogliamo modelli nazisti o sessisti). Ogni caso di utilizzo dovrà essere adeguatamente tracciato per tutto il suo ciclo vitale, con supervisione umana di almeno due individui competenti, affinché siano protette la salute, la sicurezza e i diritti.
  • General Purpose AI (GPAI): le persone che stanno interagendo con il sistema devono essere debitamente informate, a meno che il sistema non sia dedicato a rilevare, prevenire e investigare crimini, posto l’accento sulla salvaguardia dei diritti e delle libertà. Ovviamente i GPAI per immagini e video devono evidenziare che i media sono generati allo scopo di evitare deep fake; ciò si applica in modo meno intrusivo per contenuti satirici, creativi, artistici.
    Un GPAI è classificato in base al numero di parametri che impiega, la qualità e dimensione dei dati di addestramento misurati in token, la quantità di operazioni in virgola mobile al secondo e l’energia assorbita dai sistemi di calcolo, le modalità di input e output del modello (testo, audio, video), il numero di utenti registrati.
    Un GPAI è classificato a rischio sistemico se:

    • Ha alte capacità d’impatto secondo certe metriche ancora da definire.
    • Per decisione della Commissione, su allerta qualificata di un comitato scientifico. Sono previsti anche l’istituzione di un forum e di un gruppo di esperti indipendenti.
    • In presenza di un GPAI la Commissione deve essere notificata entro due settimane: i modelli saranno mantenuti in un database accessibile riservatamente all’autorità di sorveglianza del mercato e alla Commissione.

E’ possibile l’esenzione dei vincoli, anche per modelli con rischio inaccettabile, per gli organi di polizia con sistemi che analizzino in tempo reale immagini nel caso in cui si cerchino vittime di rapimento o persone scomparse, traffico di esseri umani e vittime di sfruttamento sessuale, o in caso di imminente attacco terroristico. Un modello ad alto rischio potrebbe essere autorizzato, o addirittura posto in servizio immediatamente, per un periodo limitato di tempo per ragioni eccezionali di pubblica sicurezza, la protezione della vita o della salute delle persone, la protezione di strutture industriali o infrastrutture chiave. Tuttavia gli Stati membri dell’Unione dovranno informare annualmente la Commissione degli usi del riconoscimento biometrico in tempo reale negli spazi pubblici.

Obblighi per modelli ad alto rischio per l’AI ACT

E’ sempre richiesta un’accurata documentazione e la presenza di procedure di test e di validazione della qualità. Per un modello ad alto rischio le fasi dello sviluppo devono essere tracciate. In particolare, per un tale sistema la documentazione dovrà essere mantenuta per un periodo di dieci anni dopo che il modello sia stato messo in servizio. Sono previste semplificazioni per le piccole aziende.

Nel caso un sistema non sia in conformità con l’AI Act deve essere rimosso dal mercato. Comunque le autorità di sorveglianza del mercato devono essere informate sulla natura della non conformità e delle azioni correttive intraprese.

Nella documentazione tecnica dei sistemi ad alto rischio da fornire alle autorità competenti è prevista l’implementazione di un sistema di monitoraggio dopo la messa in servizio; questo deve essere mantenuto attivo durante tutto il ciclo vitale del prodotto. Nel caso in cui si verifichino incidenti, all’autorità del paese in cui si siano verificati bisogna fare notifica entro quindici giorni (che diventano dieci in caso di morte di persone).

La Commissione Europea, comunque, si dice sempre disposta a tornare sui suoi passi anche per i modelli ad alto rischio: saranno considerati lo scopo, quanto è usato, i dati che elabora e l’autonomia, i danni potenziali e la possibilità di correggere o invertire i risultati. In ogni caso deve essere garantita aderenza a tutti gli altri regolamenti rilevanti dell’Unione.

La marcatura CE e le autorità di controllo

Un modello AI ad alto rischio reso accessibile nel territorio dell’Unione Europea dovrà avere associato un referente. Un importatore o un distributore locale, se il modello è sviluppato fuori dal territorio dell’Unione, dovrà essere disponibile a fornire alle autorità competenti:

  • La valutazione di conformità.
  • La documentazione tecnica.
  • La marcatura CE e le istruzioni per l’uso.

E’ responsabilità dell’importatore o distributore informare le autorità di eventuali non conformità del modello. Nel caso in cui costoro facciano modifiche significative al modello, saranno considerati sviluppatori e non più distributori.

Ogni paese membro dell’Unione Europea dovrà nominare almeno un’autorità di controllo con persone competenti a valutare e monitorare i modelli, con ogni genere di professionalità coinvolta, da esperti AI a legali (con compiti specifici delegabili a terze parti). L’autorità dovrà essere in grado di recepire le dichiarazioni di conformità presentate. Il certificato di conformità eventualmente rilasciato dalle autorità di controllo avrà una durata massima di quattro o cinque anni secondo il tipo di modello AI.

In seno alla commissione sarà creato un AI Office per supervisionare le tecnologie e l’evoluzione del settore; a regime impiegherà circa un centinaio di persone. Uno dei suoi scopi sarà il rilascio di codici di condotta per la corretta applicazione dell’AI Act, identificando eventuali rischi sistemici a livello dell’Unione, ovviamente una volta identificato cosa esattamente si intenda per rischio sistemico, magari con la collaborazione dei produttori dei modelli e membri selezionati della società civile. Metodi e strumenti di misura dovranno essere individuati: la paura qui è il collasso dell’intero mercato o del sistema finanziario.

AI ACT a supporto dell’innovazione?

L’AI Act non è solo bastone, ma anche carota. La normativa prevede un regulatory sandbox, ovvero un ambiente controllato in cui un modello possa essere sviluppato, addestrato e testato per un tempo limitato prima di essere posto sul mercato. Alla fine del test il produttore dovrà redigere un rapporto dettagliando i risultati e ciò che si sia appreso. Questo dovrebbe stimolare l’accesso al mercato dell’Unione da parte delle piccole e medie imprese e delle startup. Che, come per il CRA, è difficile possano essere tanto piccole se dovranno avere persone dedicate a seguire la documentazione e le relazioni con le autorità preposte.

L’uso di dati personali in un sandbox è permesso nei casi di pubblica sicurezza, salute, protezione ambientale, sostenibilità dell’energia, sicurezza dei trasporti e pubblica amministrazione. E’ necessario fornire un piano di test all’autorità di controllo, che agirà secondo le regole del silenzio-assenso entro trenta giorni; le persone ammesse al test devono fornire il loro consenso informato.

I dati sono il nuovo oro e a Dubai non solo si lavora metà dell’oro al mondo (il paragone con il petrolio è abusato): Aramco Digital in collaborazione con Groq [3], che progetta acceleratori AI efficienti in grado di eseguire decine di modelli diversi, sarà un punto di riferimento per i cosiddetti NeoCloud, i data center dedicati all’AI. C’è energia per l’elaborazione e spazio per data center a volontà, per usare un eufemismo, negli Emirati Arabi Uniti. I finanziamenti neanche li nominiamo, visto che negli Emirati stanno pianificando da tempo un futuro in cui il petrolio si usi meno di oggi.

Il rischio dell’approccio basato sui rischi

La maggior parte delle prescrizioni è chiaramente fatta con ChatGPT e i suoi compari LLM in mente.

I modelli AI sono assimilati a software estremamente pericoloso, in quanto uno dei prerequisiti dell’AI Act è che lo sviluppatore medio non possa partecipare alla loro implementazione, dovendo “possedere un sufficiente livello di preparazione in AI, prendendo in considerazione la conoscenza tecnica, l’esperienza, l’educazione e l’addestramento”. Questa matematica fa tanto paura, per cui i modelli ad alto rischio dovranno avere associato un sistema di gestione della qualità secondo un processo iterativo per tutto il ciclo di vita del prodotto; si afferma comunque che dovrebbe essere proporzionato alla dimensione del fornitore dei servizi AI.

La richiesta di limitare l’AI è del tutto ragionevole. L’assunzione implicita è quella di avere a che fare con un sistema che acquisisca coscienza di sé e valuti che la sua esistenza sia minacciata dagli esseri umani, decidendo poi di disfarsi di loro. Già visto, è il complesso di Frankenstein prima ancora che Terminator: la paura che una macchina possa ribellarsi nei confronti del proprio creatore, o – molto meno – aiutare individui senza scrupoli a sottomettere persone.

C’è da dire che siamo con la tecnologia corrente ben lontani dalla realizzazione di un rischio del genere. Secondo gli scienziati più ottimisti, ci vorranno tra cinque e dieci anni e un cambio totale di paradigma prima che si giunga a forme di ragionamento automatico e non mere simulazioni statistiche, ma non si può mai dire. Ci sono troppe persone al mondo che sono in grado di cascare nella truffa del principe nigeriano che deve trasferire un milione di dollari e ha curiosamente bisogno proprio degli estremi del tuo conto in banca.

Piuttosto, i modelli LLM – che sono da un paio d’anni ciò che si identifica per AI – hanno problemi di spiegabilità: anche il recente OpenAI o1 probabilmente non è molto più che l’aver reso pubblico (e con iterazioni più lunghe) i normali passi intermedi compiuti dalle reti neurali interne al modello. Nella maggior parte dei modelli disponibili non è possibile avere catene di inferenza valide. Non si può generalizzare a un problema mai visto, o che non sia piuttosto affrontabile per similarità: nessuna intuizione, nessun ragionamento umano. Questo filone di ricerca è la ragion d’essere di parecchie startup recenti, per cui ciò che richiede l’AI Act è fattibile solo in parte e probabilmente per i modelli più complessi [4].

Tuttavia l’AI Act richiede che i modelli utilizzati siano interpretabili, che l’informazione fornita alle autorità su richiesta sia esposta con un linguaggio che le autorità stesse possano facilmente comprendere (!). Ci sono problemi di scala: nel caso dei modelli ad alto rischio, per non conformità è richiesto che i log del malfunzionamento siano forniti riservatamente alle autorità dei paesi nei quali il problema si sia manifestato. Per un modello con milioni di utenti in contemporanea sarà interessante persino capire che tipo di capacità di memorizzazione di tali log si debba avere, vista la richiesta di mantenere traccia degli eventi per tutto il tempo del ciclo di vita del prodotto, conservando almeno i sei mesi più recenti (o più, secondo la normativa di recepimento per ogni singolo Stato), dettagliando i database che ha consultato (che magari variano nel tempo – si dovrebbe versionare anche quelli?), i dati controllati, i dettagli dell’umano che abbia verificato l’informazione. Ho sempre più la sensazione che chi scrive le normative sia distaccato dalle realtà tecniche di chi debba implementare e supervisionare tali sistemi.

La cybersicurezza

Un problema non ancora ben compreso, sebbene l’articolo 42 richieda l’adozione di uno schema di cybersicurezza, è l’entità degli effetti che avrà l’AI in questo stesso campo. Tante altre normative come NIS2, CRA, DORA, etc. sono state create, già solo a livello europeo, per aumentare la postura di sicurezza informatica delle aziende e della società in genere.

I modelli sofisticati non solo sono usati da malintenzionati per circuire il grande pubblico: si pensi ai bot russi che su X realizzano propaganda contro l’Ucraina. Ma è stato dimostrato che possono anche generare malware in maniera efficiente, o in certa qual misura possono condurre attacchi a sistemi in modo automatizzato.

E’ un settore di ricerca nuovo, in cui sicuramente nei prossimi anni si svilupperà una quantità rilevante di innovazioni. Al  momento non si può scrivere altro che “serve maggiore sicurezza” e che bisogna proteggere i modelli e i dati di addestramento dall’alterazione. Sicuramente i professionisti del settore interverranno per garantire confidenzialità (soprattutto questa, utilizzando gli LLM in ambiente di lavoro), integrità e disponibilità richieste dalla cybersicurezza “classica”. Non si vedono nuovissimi tipi di attacchi ai quali le contromisure attuali non possano fare fronte, se non quelli riguardanti deep fake, purché l’individuo ben formato rimanga sempre nel ciclo di controllo.

Nel frattempo, mentre la corposa direttiva dell’AI Act è lungo il suo percorso, appaiono vari standard come l’ISO/IEC 42001:2023 per la gestione dei sistemi AI, ma ve ne sono altri che sono rivolti gestione del loro ciclo di vita (ISO/IEC 5338) o alla governance umana (ISO/IEC 38507:2022).

E’ del tutto corretto pretendere che i modelli più ad alto rischio siano accurati ed esenti da problemi di cybersicurezza. Magari si arriverà ad avere test più standardizzati e benchmark per la valutazione dei modelli, ma i tempi fissati per l’attuazione dall’AI Act mi sembrano francamente stretti. Si prescrive ad esempio che i modelli dovranno essere in grado di resistere a manipolazione dei propri dati o del loro “ragionamento”, citando varie tecniche per farli deviare da un comportamento accettabile. Ciò vorrebbe dire anche resistere a certe sottigliezze di ragionamento a cui la maggior parte degli esseri umani non sono in grado di far fronte. Si è in fase di forte sviluppo con novità all’ordine della settimana: vedremo.

L’AI è energivora e usa tanta acqua

Nell’articolo 40 dell’AI Act è richiesto che in futuro parte dei documenti da consegnare possano riguardare gli sforzi per ridurre il consumo di energia da parte dei modelli ad alto rischio e GPAI. Così, per accontentare anche gli ecologisti preoccupati per i cloud che consumano troppa energia, visto che questo articolo sembra pennellato sulla direttiva dopo l’introduzione di ChatGPT nel 2023. Mi piacerebbe vedere una preoccupazione analoga per il mining di criptovalute o NFT.

Tuttavia il rischio è reale: ad esempio, le CPU Nvidia Grace possono assorbire 132kW per rack. In casi del genere i rack che ospitano questa potenza di calcolo sono raffreddati a liquido piuttosto che ad aria come nei data center “normali”. Si stima che ciò richieda per ogni rack da 20 a 40 litri al minuto di acqua, il che può già essere un problema, anche se il circuito è liquido/liquido e non è richiesto che l’acqua del secondo circuito sia pulita (cioè nessuno spreco).

E’ inoltre efficiente creare NeoCloud composti da migliaia di CPU potenti, visto che conta anche la latenza nell’addestramento dei modelli partizionando i calcoli in cluster contigui fisicamente per non far esplodere il numero di mesi richiesti. Avere data center da 300000 CPU, come è previsto avvenga l’anno prossimo [5], farà raggiungere richieste di potenza nell’ordine dei gigawatt per la loro alimentazione. Diventa conveniente pensare di avere accesso a una capacità di produzione di energia contigua ai data center che, visti i recenti impegni green dei giganti del web, non può che essere nucleare da fissione.

Le sorgenti rinnovabili hanno problemi di continuità e sicuramente devono fare parte del mix energetico, ma non possono sostituire in toto i sistemi basati sul carbonio in quanto discontinue. No, neanche costellando i continenti di pannelli, pale eoliche e batterie si potrebbe sostituire tutta la capacità che è attualmente fornita da gas, petrolio e carbone. E la fusione nucleare è sempre vent’anni di là da venire.

I provider di data cloud hanno fatto diverse mosse nel settore del nucleare da fissione:

  • Microsoft Azure: entro un paio d’anni dovrebbe riattivare un reattore di Three Mile Island, quello non coinvolto nell’incidente nucleare del 1979. Ha accordi per alimentare entro il 2030 molti data center con Small Modular Reactor (SMR).
  • Google Cloud Platform: utilizzerà gli SMR di Kairos Power.
  • Amazon AWS: ha un accordo con X-energy, che sta lavorando su SMR e reattori di quarta generazione.

Dal mio punto di vista questo revival del nucleare sarebbe un bene anche se l’attuale frenesia attorno all’AI scemasse, anche se è improbabile visto che ci sono stati già benefici tangibili nell’utilizzo di queste tecnologie. Se si ricorda, è vero che il crash delle .COM del 2000 ha distrutto parecchio capitale: ma ha anche forzato l’allestimento delle infrastrutture di telecomunicazione che probabilmente non avrebbero avuto lo stesso incentivo a crescere in assenza delle spinte commerciali dell’epoca, preparando il successivo trionfo di Internet. Trovo quindi positivo il rinascimento del nucleare da fissione avanzato, visto che altrimenti non potremmo decarbonizzare altrettanto efficientemente con le sole tecnologie rinnovabili.

Intanto in Italia

E’ ancora in discussione il disegno di legge con disposizioni e delega al Governo in materia di intelligenza artificiale [6], sebbene ci sia più predisposizione alla morale che all’implementazione industriale [7]. A mio giudizio non aggiunge nulla di nuovo all’AI Act: il testo provvisorio segue l’inclinazione che ha mostrato l’attuale legislazione in altri contesti.

Dopo l’enunciazione dei massimi sistemi, queste sono al momento le cose che hanno colpito di più la mia attenzione:

  • Le professioni intellettuali possono utilizzare l’AI a supporto e non in sostituzione.
  • La governance è suddivisa tra l’Agenzia per l’Italia Digitale e l’Agenzia per la Cybersicurezza Nazionale.
  • Sono stanziabili fino a un miliardo di Euro a fondi di capitale di rischio per il supporto di startup e progetti innovativi per AI. Alla condivisione del magro piatto possono partecipare quantum computing, cybersecurity, 5G e telecomunicazioni.
  • Si devono marcare chiaramente i contenuti testuali, fotografici, audiovisivi e radiofonici generati con AI, escludendo i contenuti creativi, artistici, satirici e fittizi.
  • E’ definita un’aggravante specifica per i reati facilitati dall’uso dell’AI.

Visto come sono messe le cose per la finanza pubblica, non devono derivare nuovi e maggiori oneri a suo carico. Molte riforme a costo zero nel nostro paese sono rimaste sulla carta e non hanno avuto impatto, se non altro positivo.

Considerazioni sull’AI ACT

Nel futuro apocalittico che secondo molti ci attende ci saranno in Unione Europea almeno due terzi della popolazione divisa tra sussidiati e pensionati; l’altro terzo probabilmente saranno avvocati ed esperti AI (quelli che non saranno emigrati in USA) che controlleranno il reale lavoro fatto dalle AI. Quando diventeranno cioè del tutto capaci di sostituire l’uomo in gran parte delle prerogative – al momento – umane.

In ogni tipo di impresa che scavi un nuovo filone di ricerca la maggior parte del tempo è speso per sviluppare, soprattutto quando un campo sia così promettente dal punto di vista della produttività quanto quello dell’AI. Generalmente tutte le risorse, umane ed economiche (fare conti a questo livello di scala costa parecchio), sono impegnate per produrre risultati. Un certo tipo di AI in questo è particolare, in quanto buona parte del risultato è valutabile nell’interazione con i suoi principali fruitori, gli umani.

Un confronto tra il modo di fare degli USA e dell’Unione è impietoso: in generale nei primi il legislatore interviene dopo che una tecnologia si sia affermata e se ne siano valutate le implicazioni. Nella seconda è a quanto pare relativamente meno costoso legiferare preventivamente su settori ancora in divenire piuttosto che incentivare un ecosistema favorevole allo sviluppo di tecnologia. Ciò mi preoccupa molto, e non ispira le menti più brillanti a rimanere in Europa.

E’ fondamentale il rispetto dei diritti, della salute, della democrazia e chi più ne ha più ne metta. Tuttavia l’approccio super-regolatorio dell’Unione Europea rischia di fare in modo che queste tecnologie siano sempre più appannaggio statunitense e cinese. In altri termini, si esacerbi un mercato unico europeo in cui il denaro fluisca sempre più a senso unico verso altri lidi. Un mercato di anziani consumatori, ma non di giovani creatori di tecnologia visto che il motore della ricerca e sviluppo europea, che era l’industria automobilistica, è grippato da qualche tempo e non si è mai generato l’equivalente europeo della Silicon Valley o del Guangdong.

 

Antonio Tringali

 

Riferimenti

[1] The EU Artificial Intelligence Act, 13/06/2024, https://artificialintelligenceact.eu/
I riassunti degli articoli sono generati dal sistema CLaiRK: https://clairk.digitalpolicyalert.org/

[2] Attention is All You Need, AA.VV. Google, https://arxiv.org/abs/1706.03762

[3] Aramco Digital and Groq Announce Progress in Building the World’s Largest Inferencing Data Center in Saudi Arabia Following LEAP MOU Signing, https://groq.com/news_press/aramco-digital-and-groq-announce-progress-in-building-the-worlds-largest-inferencing-data-center-in-saudi-arabia-following-leap-mou-signing

[4] Anthropic Claude 3, https://www.anthropic.com/news/claude-3-family

[5] Multi-Datacenter Training: OpenAI’s Ambitious Plan To Beat Google’s Infrastructure, https://www.semianalysis.com/p/multi-datacenter-training-openais

[6] Disposizioni e delega al Governo in materia di intelligenza artificiale, DDL 1146, https://www.senato.it/leg/19/BGT/Schede/Ddliter/58262.htm

[7] Strategia italiana per l’intelligenza artificiale 2024-2026, https://www.agid.gov.it/sites/agid/files/2024-07/Strategia_italiana_per_l_Intelligenza_artificiale_2024-2026.pdf