L’AI come identità propria all’interno dell’organizzazione: Raghav Iyer S, Senior IT Security Analyst di ManageEngine, ce ne spiega i vantaggi e i rischi

rsz_1rsz_raghav_iyer_s

L’intelligenza artificiale ha avuto un impatto significativo sulle attività di ogni settore, offrendo risultati migliori e maggiore produttività. Oggi il mondo del business si affida a modelli di AI per ottenere un vantaggio competitivo, prendere decisioni consapevoli e analizzare e definire strategie per le proprie attività aziendali. Dalla gestione dei prodotti alle vendite, le aziende stanno implementando modelli di intelligenza artificiale in ogni reparto, personalizzandoli fino a divenire identità AI autonome, per raggiungere obiettivi specifici.

Tuttavia, con la sua crescente adozione emerge una nuova sfida: come gestire l’AI nel contesto delle operazioni aziendali?

 

L’Intelligenza artificiale come identità AI propria all’interno dell’organizzazione

L’idea che i modelli di Intelligenza Artificiale abbiano identità AI univoche all’interno di un’organizzazione si è evoluta da concetto teorico a necessità. Le aziende stanno iniziando ad assegnare all’AI ruoli e responsabilità specifici, assegnando loro permessi, proprio come avviene per i dipendenti umani. Questi modelli possono accedere a dati sensibili, eseguire attività e prendere decisioni in autonomia.

Con l’integrazione dei modelli di AI come identità distinte, questi diventano le controparti digitali dei dipendenti. Proprio come i dipendenti dispongono di un controllo degli accessi basato sui ruoli, all’AI possono essere assegnate autorizzazioni per interagire con diversi sistemi. Tuttavia, questa espansione dei ruoli dell’AI introduce una nuova categoria di minacce alla sicurezza.

 

I rischi associati alle identità AI autonome in azienda

Benché le identità AI abbiano apportato benefici alle organizzazioni, queste comportano anche rischi quali:

  • Avvelenamento dei modelli: gli autori di malware possono manipolare i modelli di AI inserendo dati distorti o casuali, causando la produzione di risultati imprecisi. Ciò ha un impatto significativo sulle applicazioni in ambito finanziario, di sicurezza e sanitario.
  • Minacce interne derivanti dall’AI: se un sistema di AI viene compromesso, può agire come una minaccia interna, a causa di vulnerabilità involontarie o di manipolazione da parte di terzi. A differenza delle tradizionali minacce interne che coinvolgono dipendenti umani, le minacce interne basate su AI sono più difficili da rilevare, poiché potrebbero operare nell’ambito delle autorizzazioni assegnate.
  • Lo sviluppo di “personalità AI” individuali: i modelli di AI, addestrati su diversi data set e framework, possono evolversi in modo imprevedibile. Pur non essendo dotati di una vera e propria consapevolezza, i loro processi decisionali potrebbero discostarsi dai comportamenti attesi. Ad esempio, un modello di sicurezza basato su AI può iniziare a contrassegnare erroneamente transazioni legittime come fraudolente o viceversa, se esposto a dati di addestramento fuorvianti.
  • Compromissione e furto di identità: proprio come le credenziali rubate possono garantire accessi non autorizzati, un’identità AI rubata può essere utilizzata per aggirare le misure di sicurezza. Quando un sistema AI con accesso privilegiato viene compromesso, un aggressore ottiene uno strumento incredibilmente potente in grado di operare con credenziali legittime.

 

Gestire le identità AI applicando i principi di governance delle identità umane

Per mitigare questi rischi, le organizzazioni devono riconsiderare il modo in cui gestiscono le identità dei modelli di AI. Le seguenti strategie possono essere d’aiuto:

  • Gestione role-based delle identità AI: trattare i modelli di AI come dipendenti, stabilendo rigidi controlli di accesso, assicurandosi che dispongano solo delle autorizzazioni necessarie per svolgere attività specifiche.
  • Monitoraggio comportamentale: implementare strumenti di monitoraggio basati su AI per tracciarne le attività. Se un modello inizia a mostrare un comportamento al di fuori dei parametri previsti, è necessario attivare degli avvisi.
  • Architettura Zero Trust per l’AI: proprio come gli utenti umani richiedono l’autenticazione in ogni fase, i modelli di AI devono essere costantemente verificati per garantire che operino nell’ambito autorizzato.
  • Revoca e auditing dell’identità AI: le organizzazioni devono stabilire procedure per revocare o modificare dinamicamente le autorizzazioni di accesso dell’AI, soprattutto in risposta a comportamenti sospetti.

 

“L’effetto cobra”

A volte, la soluzione a un problema non fa che peggiorarlo, una situazione storicamente descritta come “effetto cobra”, noto anche come “incentivo perverso”. In questo caso, se da un lato l’integrazione delle identità AI nel sistema di directory affronta la sfida di gestirne le identità, dall’altro potrebbe anche portare i modelli AI a comprendere i sistemi di directory e le loro funzioni.

Nel lungo termine, i modelli di intelligenza artificiale potrebbero mostrare un comportamento non dannoso, pur rimanendo vulnerabili ad attacchi o persino all’esfiltrazione di dati in risposta a richieste malevole. Questo crea un effetto cobra, in cui il tentativo di stabilire il controllo sulle identità dell’AI consente loro di apprendere i controlli delle directory, portando infine a una situazione in cui tali identità diventano incontrollabili.

 

Il futuro: un’AI con autonomia limitata?

Dato il loro crescente affidamento a soluzioni di AI, le organizzazioni devono imporre restrizioni alla sua autonomia. Sebbene la piena indipendenza delle entità di AI rimanga improbabile nel prossimo futuro, un’autonomia controllata, in cui i modelli operano entro un ambito predefinito, potrebbe diventare lo standard. Questo approccio assicura che l’AI possa migliorare l’efficienza, minimizzando al contempo i rischi imprevisti per la sicurezza.

Anche se questi scenari possono apparire ipotetici, sono tutt’altro che irrealistici. Le organizzazioni devono affrontare proattivamente queste sfide prima che l’AI si trasformi in una risorsa che un ostacolo nei loro ecosistemi digitali. Con l’evolversi dell’AI in un’identità operativa, proteggerla deve essere una priorità assoluta.

Di Raghav Iyer S, Senior IT Security Analyst, ManageEngine