
L’AI è ormai una parte fondamentale delle operazioni aziendali e i leader sono sempre più sotto pressione per agire rapidamente rimanendo allo stesso tempo conformi, sicuri e in controllo. Ad esempio, normative come il Digital Operational Resilience Act (DORA) dell’UE, stanno già cambiando le regole. Allo stesso tempo, le organizzazioni passano a modelli completamente digitali e affrontano un aumento degli attacchi informatici. Ce ne parla in questo articolo Anna Mazzone, Vice President – EMEA – Operational Resilience, Risk and Security Business Strategy Leader in ServiceNow.
Buona lettura!
Gestire proattivamente il rischio legato all’AI e costruire fiducia: una sfida per il C-level
Oggi quando si parla di rischio, la posta in gioco è molto più alta rispetto a pochi anni fa. Man mano che l’AI diventa una parte fondamentale delle operazioni aziendali, i leader sono sempre più sotto pressione per agire rapidamente rimanendo allo stesso tempo conformi, sicuri e in controllo. Normative come il Digital Operational Resilience Act (DORA) dell’UE stanno già cambiando le regole. Allo stesso tempo, le organizzazioni stanno passando a modelli completamente digitali e affrontano un aumento degli attacchi informatici. Con l’uso dell’AI generativa e agentica, la gestione del rischio e la creazione di fiducia non sono mai state così urgenti.
Il rischio legato all’AI supera le competenze del CIO: è ormai un tema da Consiglio di amministrazione
Con l’AI integrata in tutta l’azienda, i rischi relativi alla privacy dei dati, alla fiducia, alla sicurezza e alla conformità toccano ogni angolo dell’organizzazione. Secondo Forrester, il rischio legato all’AI e alla privacy dei dati è ora al secondo posto tra le minacce aziendali più pericolose. Tuttavia, la gestione non è affatto semplice: il 29% dei dipendenti indica la mancanza di fiducia nei sistemi di AI come il principale ostacolo all’adozione. Per questo motivo, è fondamentale che i C-level guidino in prima persona il cambiamento: costruendo fiducia, coinvolgendo i team e affrontando la resistenza in modo diretto.
Orientarsi tra normative e governance dell’AI
Con la comparsa di regolamenti sull’AI in diverse regioni, le organizzazioni devono garantire la conformità e sfruttare gli stessi strumenti AI per gestire il panorama di governance in evoluzione. È un vantaggio circolare: la tecnologia giusta può aiutare le imprese a restare un passo avanti rispetto ai sistemi che le regolano. La governance dell’AI sta diventando sempre più critica e una gestione efficace del cambiamento sarà essenziale per aiutare i dipendenti ad abbracciare la tecnologia.
I leader aziendali non devono, inoltre, perdere di vista i rischi legati a terzi, che risultano spesso più complessi quando è coinvolta l’AI. Altrettanto importante è garantire che l’uso dell’intelligenza artificiale sia allineato ai valori, all’etica e agli obiettivi strategici dell’organizzazione.
Una struttura di governance chiara è fondamentale. Deve esserci un responsabile ben definito della governance dell’AI all’interno dell’organizzazione. Questo ruolo può essere ricoperto dal responsabile legale, dal responsabile della conformità, dal Chief Data Officer o dal Chief AI Officer. Con l’introduzione di strumenti di AI di terze parti, è indispensabile implementare framework coerenti per valutare e gestire i rischi associati e garantire la conformità normativa.
La fiducia nasce dalla trasparenza e dai dati
La fiducia è alla base di un’adozione efficace dell’intelligenza artificiale. Una comunicazione chiara con clienti e utenti su come viene utilizzata l’AI aiuta a favorire l’accettazione e la fiducia nella tecnologia. La trasparenza deve essere al centro di ogni iniziativa legata all’AI.
È opportuno adottare un approccio cauto e graduale, iniziando con casi d’uso a basso rischio e ampliando il campo di applicazione man mano che l’organizzazione acquisisce competenze interne e la fiducia degli stakeholder. La conformità normativa, come quella prevista dall’AI Act, non dovrebbe essere vista solo come un obbligo, ma come una opportunità per costruire fiducia.
Fondamentalmente, la fiducia comincia dai dati stessi. I leader devono affrontare le sfide poste dai sistemi disaggregati e dare priorità alla creazione di una tassonomia dei dati unificata. Dati di qualità, visibilità e pratiche solide costituiscono la base per un’AI affidabile, etica e spiegabile.
Una visione aziendale
Le piattaforme software centralizzate stanno assumendo un ruolo sempre più importante per ottenere una visione aziendale in tempo reale dei rischi interconnessi. Queste piattaforme offrono una visione d’insieme della postura di rischio operativo attraverso le principali risorse che fanno funzionare un’organizzazione: persone, tecnologia, strutture, terze parti e dati. Inoltre, permettono di gestire i rischi in modo non invasivo.
I controlli possono essere integrati nei workflow, in modo che i dipendenti non si rendano nemmeno conto di mitigare un rischio. Per loro, si tratta semplicemente di cambiare una password o completare un modulo di formazione, azioni che rispondono ai controlli integrati nella piattaforma. Programmi solidi e continui di formazione dei dipendenti e alfabetizzazione all’AI saranno fondamentali per un’implementazione sicura e conforme della tecnologia.
Le piattaforme software end-to-end possono inoltre aiutare a gestire i modelli di AI, soprattutto nei settori regolamentati. Per esempio, nei servizi finanziari, i modelli di AI sono soggetti a rigide normative e devono spesso ottenere l’approvazione degli enti regolatori prima di essere messi in produzione. Con una piattaforma integrata, i modelli possono essere monitorati e gestiti internamente, assicurando che restino in linea con le policy, entro i livelli di tolleranza al rischio definiti e conformi agli standard normativi richiesti.
Un approccio proattivo
In passato, i dirigenti si concentravano sulla resilienza operativa, reagendo a condizioni avverse. Oggi, invece, è necessario evolvere verso una nuova forma di resilienza: la resilienza proattiva. Questa prevede un ambiente di gestione predittiva, in cui le organizzazioni cercano di “vedere oltre” per anticipare e mitigare i rischi, inclusi quelli legati all’AI. Ecco perché l’integrazione di strumenti di governance nei workflow, combinata con i dati, sta diventando sempre più importante.
Le minacce possono assumere molte forme. Alcune sono semplici da prevedere, come la scadenza di licenze software che può interrompere un servizio critico. Altre sono molto più imprevedibili, come nel caso di un aggiornamento software di terze parti che può causare un’interruzione. In passato, prevedere simili minacce era difficile a causa di sistemi isolati e della mancanza di una visione unificata dell’organizzazione.
Implementare piattaforme software integrate consente ai responsabili operativi e tecnologici di comprendere l’intero quadro e adottare un approccio proattivo. Per esempio, sapere quale membro del team è responsabile della manutenzione e della riparazione di determinati sistemi. Questa visibilità è cruciale per una gestione efficace del rischio e per garantire la continuità dei servizi.
Padroneggiare il rischio
Per i C-level, padroneggiare il rischio legato all’AI è imperativo, tanto quanto promuovere l’adozione dell’intelligenza artificiale per migliorare la produttività e la qualità del servizio ai clienti. L’AI è già ampiamente integrata nelle operazioni quotidiane e i leader aziendali devono ora dare priorità alla costruzione della fiducia, assicurandosi che il suo utilizzo sia coerente con i valori organizzativi e gestendo in modo proattivo i rischi emergenti.
La conformità anticipata alle normative rappresenta un’opportunità preziosa. Consente alle aziende di restare avanti rispetto ai requisiti normativi, rafforzare la fiducia degli stakeholder, consolidare la governance e rendere le operazioni a prova di futuro. Le piattaforme software integrate forniscono una visione completa e in tempo reale del rischio e della resilienza aziendale e sono strumenti fondamentali per raggiungere questo obiettivo.
In definitiva, i C-level devono guidare la trasformazione, integrando la governance dell’AI, promuovendo la trasparenza e investendo negli strumenti e processi necessari per sostenere un futuro dell’AI sicuro, scalabile e affidabile.
di Anna Mazzone, Vice President – EMEA – Operational Resilience, Risk and Security Business Strategy Leader, ServiceNow






























































