Marco Bavazzano di Axitea spiega come gestire lo Shadow AI in azienda per sfruttare l’Intelligenza Artificiale in sicurezza

Shadow-AI

Un fenomeno sempre più diffuso, legato alla diffusione dell’AI Generativa nelle aziende, è lo Shadow AI ovvero, l’uso diffuso, non gestito e non monitorato di strumenti AI terzi da parte dei dipendenti.

Nell’articolo che condividiamo di seguito, Marco Bavazzano, CEO di Axitea condivide tre best practice per gestire in modo proattivo lo Shadow AI.

Buona lettura!

3 consigli pratici per gestire lo Shadow AI in azienda

Per i manager italiani, il 2025 si sta rivelando un paradosso. Un recente sondaggio di KPMG ha rilevato che il 70% dei CEO sta investendo significativamente nell’AI Generativa per assicurarsi un vantaggio competitivo, ma allo stesso tempo identificano la cybersecurity come il più grande rischio per la crescita della loro azienda. Quella che potrebbe sembrare una contraddizione è in realtà lo specchio di un processo di causa-effetto che sta investendo tutte le imprese. Lo stesso strumento su cui contiamo per innovare ha il potenziale per creare nuove, potenti vulnerabilità.

Questo rischio non proviene solo da aggressori esterni ma matura anche all’interno delle aziende stesse, alimentato dal fenomeno dello “Shadow AI”.

La scala di adozione dell’AI in Italia è impressionante. Secondo i dati dell’Osservatorio Artificial Intelligence del Politecnico di Milano, il mercato italiano dell’AI è cresciuto del 52% nel 2023, raggiungendo i 760 milioni di euro, e il 61% delle grandi aziende italiane ha già avviato almeno un progetto di intelligenza artificiale. La direttiva è chiara: innovare ed essere più produttivi.

Tuttavia, questa spinta dall’alto si scontra con una realtà diversa. Un’indagine di Confindustria conferma che la prima barriera all’adozione dell’AI per le aziende italiane è la mancanza di competenze interne (citata dal 55%). Quando ai dipendenti vengono richiesti risultati basati sull’AI senza fornire strumenti o formazione adeguati, i più intraprendenti cercano soluzioni in autonomia, spesso ricorrendo a piattaforme pubbliche di AI generativa.

È questa la Shadow AI: l’uso diffuso, non gestito e non monitorato di strumenti AI terzi da parte dei dipendenti. Ed è proprio ciò che genera preoccupazione per i responsabili della sicurezza del nostro Paese.

Il Cost of a Data Breach Report 2025 di IBM rivela infatti che il 77% dei CISO identifica la fuga di dati come la loro principale preoccupazione, e il 63% è esplicitamente impensierito per “l’uso improprio dell’AI da parte del personale”. Ogni volta che un dipendente, per quanto benintenzionato, fornisce un elenco di clienti, una bozza di un report finanziario o un segmento di codice proprietario a uno strumento di AI pubblico, sta di fatto esfiltrando dati sensibili su un server di terze parti, ubicato al di fuori del perimetro di sicurezza aziendale.

La reazione istintiva di molte organizzazioni è quella di vietare questi strumenti, ma si tratta di una strategia inutile e controproducente: soffoca l’innovazione stessa che il CEO sta richiedendo, frustra i dipendenti e, soprattutto, non funziona, poiché questi ultimi inizieranno ad agire ancora di più nell’ombra, ad esempio utilizzando dispositivi personali che sfuggono alla visibilità o controllo dei team di sicurezza.

L’unica via percorribile è un framework in grado di incanalare l’immenso potenziale di produttività dell’AI, gestendone al contempo i rischi in modo proattivo. Ciò richiede un approccio pragmatico articolato su tre fronti:

  1. Policy: stabilire paletti chiari per i dati. Invece di un divieto generalizzato, è necessario fornire chiarezza attraverso due azioni chiave. Primo, classificare i dati, creare un sistema semplice a tre livelli (ad esempio, Pubblico, Interno, Riservato) e rendere inequivocabilmente chiaro che i dati “Riservati” non devono mai essere inseriti in uno strumento di AI pubblico. Inoltre, è fondamentale fornire strumenti di AI di livello enterprise approvati dai team di sicurezza interna per offrire ai dipendenti un ambiente sicuro e potente in cui lavorare.
  2. Persone: formare per la consapevolezza, non solo per le regole. Una formazione efficace in tema di AI deve spiegare i rischi e le conseguenze. Invece di dire solo “Non usare l’AI pubblica”, bisogna spiegare perché incollare i dati dei clienti in un modello pubblico è una violazione della fiducia e un rischio per la competitività. È necessario concentrarsi sul “come”: insegnare ai dipendenti ad anonimizzare i dati, a scrivere prompt efficaci senza rivelare contesti sensibili e a riconoscere i rischi legati alla residenza delle informazioni e alla perdita di proprietà intellettuale.
  3. Tecnologia: monitorare il rischio, non le infrazioni. Questa è il nodo critico della sicurezza. Integrando capacità avanzate di Data Loss Prevention (DLP), un moderno Security Operation Center (SOC) può identificare in tempo reale quando dati riservati vengono inviati a domini di AI pubblici. L’obiettivo di questo monitoraggio non è spiare il dipendente, ma generare un alert automatico e contestualizzato che consenta al team di sicurezza di intervenire e prevenire violazioni dei dati prima che si verifichino.

La rivoluzione dell’AI è qui, ed è guidata dall’ambizione dei leader aziendali e dall’intraprendenza dei loro dipendenti. Gestire la Shadow AI non significa limitare questo potenziale, ma fornire il framework necessario per liberarlo in sicurezza. Il ruolo del CISO moderno non è più solo quello di guardiano della tecnologia, ma di abilitatore di innovazione sicura. Le aziende che padroneggeranno questo equilibrio – valorizzando le persone senza compromettere i propri dati – saranno quelle che coglieranno veramente il vantaggio competitivo dell’AI.

di Marco Bavazzano, CEO Axitea