Le aziende che utilizzano un’AI affidabile e governata hanno il 60% in più di probabilità di raddoppiare il ritorno dell’investimento (ROI). A svelarlo una nuova ricerca SAS e IDC

Tutela-dei-dati-personali-e-intelligenza-artificiale-intelligenza artificiale potrebbe sostituire le persone-servicenow - gruppi di agenti di intelligenza artificiale - intelligenze artificiali - lavoro -Implementazione dell’AI

Intelligenza artificiale generativa, agenti AI e quantum computing: le tecnologie più dirompenti del momento stanno ridisegnando le strategie aziendali e aprendo nuove prospettive di crescita.
Ma per tradurre l’innovazione in valore servono fiducia, trasparenza e responsabilità.

Questi i temi al centro dell’evento “Executive Perspectives: Navigating Innovation”, organizzato da SAS a Milano insieme a clienti e partner. L’incontro ha offerto una visione d’insieme sull’evoluzione dell’AI e sui fattori che ne guidano l’adozione nel mondo enterprise, presentando anche i risultati di un’ampia ricerca condotta con IDC.

AI e fiducia: una relazione da costruire

Lo studio internazionale condotto su 2.500 dirigenti d’azienda di 27 Paesi offre uno spaccato dettagliato sullo stato dell’intelligenza artificiale nelle imprese e, in particolare, sul ruolo centrale della fiducia come leva di adozione e di ritorno sugli investimenti.

E’ emerso come l’81% delle aziende intervistate utilizzi già strumenti di AI, soprattutto in relazione alla crescita dei modelli linguistici di grandi dimensioni (LLM), che hanno contribuito a democratizzare l’accesso alle tecnologie cognitive negli ultimi anni.

Uno dei dati più sorprendenti riguarda la percezione di affidabilità: le imprese ritengono l’AI generativa due volte più affidabile e comprensibile rispetto al machine learning tradizionale.

Secondo Angelo Tenconi, Senior Director Customer Advisory di SAS, questa differenza è legata a un fattore umano: “Tendiamo a fidarci di più di tecnologie che comunicano con noi in modo naturale, piuttosto che di modelli numerici opachi e poco interpretabili”.
Non solo: la fiducia rappresenta «la condizione indispensabile perché l’AI possa esprimere tutto il suo potenziale».

Tuttavia, accanto all’entusiasmo emergono anche preoccupazioni concrete, che si concentrano su tre ambiti principali:

  1. Privacy e protezione dei dati condivisi con i sistemi generativi;
  2. Tracciabilità e spiegabilità dei risultati, soprattutto nei settori regolamentati;
  3. Etica e trasparenza nell’utilizzo dei modelli, per garantire decisioni giuste e verificabili.

Le tre sfide dell’adozione: dati, governance e competenze

Dallo studio emergono quindi tre aree di criticità che accomunano i diversi settori industriali e che frenano l’adozione efficace dell’intelligenza artificiale:

  1. Ottimizzazione dei dati e delle piattaforme – molte aziende non dispongono ancora di piattaforme dati ottimizzate o di architetture cloud adeguate a gestire modelli complessi.
  2. Governance – manca in diversi casi un sistema di controllo, regole chiare e responsabilità definite su come l’AI viene addestrata, utilizzata e monitorata.
  3. Competenze – oltre alle skill tecniche, servono conoscenze di business per comprendere quando e come implementare l’AI, e con quali limiti etici.

E in Italia?

Nel contesto italiano, le sfide sono simili, ma con alcune sfumature significative.
La governance rimane un tema centrale, mentre l’attenzione alla qualità dei dati risulta meno prioritaria rispetto ad altri Paesi europei.
Il vero punto dolente per l’Italia, però, è quello delle competenze: due aziende su tre indicano la carenza di figure professionali adeguate come principale barriera all’adozione dell’intelligenza artificiale.

Dalla fiducia al ritorno sull’investimento

La ricerca conferma un legame diretto tra fiducia e performance economica.
Le imprese che hanno investito per rendere l’AI affidabile e governata – attraverso processi di controllo, trasparenza e gestione del rischio – hanno il 60% in più di probabilità di raddoppiare il ritorno dell’investimento (ROI) rispetto a quelle che non lo fanno.
Eppure, solo il 40% delle aziende dispone oggi di un framework strutturato per la governance dell’intelligenza artificiale.
Una “zona verde” ancora da esplorare, che rappresenta una delle principali opportunità di crescita per il prossimo futuro.

Come viene utilizzata l’AI: ci sono differenze tra early adopter e realtà mature?

Un altro dato interessante emerso dalla ricerca riguarda le diverse fasi di maturità dell’adozione dell’AI.
Le aziende che si trovano nelle prime fasi utilizzano queste tecnologie soprattutto per cercare di ridurre i costi e aumentare la produttività individuale — tramite strumenti di co-pilot o automazioni.
Le organizzazioni più mature, invece, integrano l’intelligenza artificiale nei processi decisionali, passando da un approccio difensivo a uno strategico e orientato al valore.
In questi casi, la riduzione dei costi non è più la priorità: passa dal terzo al settimo posto tra gli obiettivi, superata da temi come innovazione, customer experience e sviluppo di nuovi servizi.

Gli agenti AI: la nuova frontiera della decision intelligence, ma con dei limiti

L’evoluzione della Generative AI si è tradotta nell’ultimo periodo con l’arrivo degli Agenti AI. Si è osservato il passaggio dagli LLM (Large Language Models) — strumenti “passivi” eccellenti nella generazione di testi ma incapaci di agire — agli agenti AI, sistemi attivi e dinamici che possono intraprendere azioni concrete, adattarsi al contesto e gestire task complessi.

Tuttavia, nel mondo enterprise, l’idea dell’agente completamente autonomo incontra dei limiti: come visto precedentemente, anche in questo caso, servono tracciabilità, spiegabilità e controllo delle decisioni, elementi fondamentali per garantire sicurezza e conformità normativa.

Per superare queste sfide, SAS propone un modello di agente ibrido, in cui l’autonomia dell’intelligenza artificiale si combina con la supervisione umana. Questo equilibrio è sostenuto da tre pilastri fondamentali:

  1. Decisioni affidabili e spiegabili, integrate in un sistema decisionale trasparente.
  2. Bilanciamento tra automazione e controllo umano, per mantenere fiducia e precisione.
  3. Governance e tracciabilità, indispensabili per garantire coerenza con le normative e gli obiettivi aziendali.

Al fine di favorire uno sviluppo dell’agente ibrido SAS ha presentato due nuove tecnologie:

  • Retriever Agent Manager, che fornisce contesto agli agenti attraverso architetture RAG (Retrieval-Augmented Generation), permettendo di rispondere solo in base alle informazioni aziendali.
  • Agentic Accelerator, che coordina i flussi decisionali complessi integrando dati, regole di business e modelli di machine learning.

Entrambi gli strumenti si inseriscono in un framework aperto, che permette l’interazione con altri sistemi tramite API, mantenendo sempre la supervisione e la trasparenza delle decisioni.

Conclusione: innovare con fiducia

Tra agenti AI, quantum computing e governance etica, il messaggio di SAS è chiaro:

“Innovare non significa solo adottare nuove tecnologie, ma farlo con fiducia, trasparenza e responsabilità”.