L’ultimo studio Trend Micro evidenzia che i rischi sono maggiori per le organizzazioni che operano a livello globale o che utilizzano l’intelligenza artificiale in diverse aree geografiche

lavoro - lavoratori italiani - stanchezza - responsabili della sicurezza informatica problemi - intelligenza artificiale non gestita -motion array

L’adozione di modelli linguistici di grandi dimensioni (LLM) senza un’adeguata governance, verifica e supervisione, rischia di esporre a danni legali, finanziari e di reputazione. Il dato emerge da “Risks of Unmanaged AI Reliance: Evaluating Regional Biases, Geofencing, Data Sovereignty, and Censorship in LLM Models”, l’ultima ricerca Trend Micro, leader globale di cybersecurity.

I sistemi di intelligenza artificiale possono generare risultati diversi a seconda della posizione geografica, della lingua, della progettazione del modello e dei controlli integrati. Nei settori dove si lavora a contatto con i clienti o si prendono decisioni importanti, queste incoerenze possono minare la fiducia, allontanare da regolamenti locali o norme culturali e portare a costose conseguenze per il business.

Lo studio Trend Micro ha coinvolto oltre 100 modelli di intelligenza artificiale e ha utilizzato più di 800 prompt mirati progettati per valutare i bias, la consapevolezza politica e culturale, i comportamenti di geofencing, i segnali di sovranità dei dati e le limitazioni contestuali. Sono stati condotti migliaia di esperimenti, per misurare come gli output cambiano nel tempo e nei luoghi e sono stati analizzati più di 60 milioni di token di input e oltre 500 milioni di token di output.

I risultati rivelano che prompt identici possono produrre risposte diverse a seconda dell’area geografica e dei modelli e persino variare nel corso di interazioni ripetute con lo stesso sistema. In scenari politicamente critici, come nel caso di territori contesi o di identità nazionale, i modelli hanno mostrato chiare differenze di allineamento a seconda del luogo. In altri test, i modelli hanno restituito risultati obsoleti o incoerenti in aree che richiedevano precisione, ad esempio calcoli finanziari e informazioni dove il tempo giocava un ruolo chiave.

“In molte organizzazioni, si pensa che l’intelligenza artificiale si comporti come un software tradizionale e che lo stesso input produca in modo affidabile lo stesso output”. Afferma Marco Fanuli, Technical Director di Trend Micro Italia. “La nostra ricerca mostra che questo pensiero non è corretto. I LLM possono fornire risposte diverse in base all’area geografica, alla lingua, ai guardrail e possono anche cambiare da un’interazione all’altra. Quando i risultati dell’intelligenza artificiale vengono utilizzati direttamente dai clienti o per prendere decisioni di business, il rischio è di perdere il controllo sulla comunicazione, sulla compliance e sul rispetto delle norme culturali.”

Lo studio evidenzia che i rischi sono maggiori per le organizzazioni che operano a livello globale o utilizzano l’intelligenza artificiale in diverse aree geografiche. Un servizio basato sull’intelligenza artificiale potrebbe essere regolamentato da diversi quadri giuridici, politici e socioculturali. Le criticità coinvolgono anche il settore pubblico. In questo caso, i risultati generati dall’intelligenza artificiale potrebbero essere interpretati come una guida ufficiale e la dipendenza da modelli non localizzati o non verificati potrebbe introdurre rischi di sovranità e di accessibilità.

“L’intelligenza artificiale non dovrebbe essere trattata come uno strumento di produttività plug-and-play”. Conclude Marco Fanuli. “Le organizzazioni devono considerare i rischi di dipendenza, adottare una governance chiara, definire le responsabilità e introdurre la verifica umana per qualsiasi output rivolto agli utenti. Questo include la trasparenza dei fornitori di intelligenza artificiale su come si comportano i modelli, su quali dati si basano e dove vengono applicati i guardrail. L’intelligenza artificiale promuove innovazione ed efficienza, ma solo quando viene utilizzata con una chiara comprensione dei suoi limiti e con controlli che verificano come i sistemi si comportano negli ambienti del mondo reale”.