
In Europa quasi 9 persone su 10 si dichiarano preoccupate per la propria privacy digitale e sarebbero disposte ad adottare tecnologie basate su intelligenza artificiale solo se avessero garanzie solide sulla protezione dei propri dati (fonte: Samsung Newsroom). Non si tratta di una diffidenza astratta, infatti negli ultimi anni le autorità garanti europee hanno più volte richiamato le imprese tecnologiche alla trasparenza nell’uso dei dati.
Un caso emblematico arriva dall’Italia, dove nel 2024 il Garante per la protezione dei dati personali ha sanzionato OpenAI con una multa da 15 milioni di euro per violazioni legate al trattamento dei dati degli utenti europei. L’indagine ha evidenziato una scarsa trasparenza sulle modalità di utilizzo e conservazione dei dati, oltre ad una mancanza di adeguate tutele per i minori, ribadendo che la complessità dei sistemi di intelligenza artificiale non può giustificare la mancata conformità normativa.
Il timore verso un uso poco trasparente dei dati non riguarda solo i privati ma anche le imprese. Secondo un’indagine OCSE, oltre la metà delle aziende europee ha rallentato o sospeso i propri progetti di intelligenza artificiale proprio per le incertezze legate alla gestione dei dati e ai rischi regolatori e reputazionali che ne derivano.
Le soluzioni di AI generativa infatti, se utilizzate nella loro forma standard, possono archiviare o riutilizzare i dati inseriti dagli utenti per migliorare i propri modelli. Caricare documenti interni o informazioni sensibili su piattaforme pubbliche espone così le organizzazioni a rischi di data leakage, violazioni di compliance e perdita di controllo sui dati proprietari.
Governance e fiducia: “privacy by design” come nuova frontiera dell’AI aziendale
Di fronte a questi rischi, il nodo centrale non è tanto se utilizzare l’intelligenza artificiale ma come farlo senza perdere il controllo sui propri dati. Deloitte infatti riporta che nei mercati europei la fiducia nelle soluzioni di AI cresce solo quando le aziende che la adottano operano in contesti di governance robusta, trasparenza nelle fonti e uso responsabile dei dati.
In questa direzione si stanno muovendo le soluzioni di intelligenza artificiale “a circuito chiuso”, progettate per coniugare innovazione e tutela della privacy. Tra i modelli più promettenti figurano i sistemi di Retrieval-Augmented Generation (RAG) interni, in cui l’assistente AI interroga esclusivamente documenti aziendali indicizzati in motori di ricerca privati, e i dati non lasciano mai l’infrastruttura aziendale. L’intelligenza artificiale diventa così uno strumento di accesso e valorizzazione del patrimonio informativo interno, non una minaccia per la riservatezza.
Un approccio simile si sta diffondendo anche nella formazione aziendale, dove modelli linguistici privati analizzano e generano contenuti a partire da documentazione proprietaria. Questi sistemi non condividono alcuna informazione con servizi esterni, operano solo su materiali interni e garantiscono la tracciabilità delle risposte alle fonti originali. Oltre a ridurre i rischi di dispersione dei dati, questi modelli permettono alle imprese di personalizzare i processi di conoscenza e aggiornamento, mantenendo il pieno controllo sui propri dati.
Questo cambio di paradigma sta dando forma a un nuovo approccio progettuale, che considera la privacy come un requisito ingegneristico, non come un vincolo a posteriori. Un orientamento condiviso da diversi centri di ricerca e realtà tecnologiche europee, tra cui Grid+, startup della Sapienza Università di Roma, che applica questi principi nello sviluppo di modelli e architetture di intelligenza artificiale, ponendo la protezione dei dati al cuore del processo progettuale.
“La soluzione non è rinunciare all’AI, ma progettarla diversamente. Unendo soluzioni tecniche avanzate con un approccio rigoroso alla governance dei dati, è possibile offrire alle imprese strumenti realmente utili senza compromettere la sicurezza e la conformità normativa. Non si tratta di rallentare l’innovazione ma di orientarla verso modelli proprietari e affidabili. In questo modo, le aziende possono davvero possedere la propria AI, controllando i dati e l’innovazione in modo sicuro e responsabile” conclude Andrea Ceschini, CEO e co-founder di Grid+.




























































