Nonostante la maggiore consapevolezza delle organizzazioni, i progressi sono insufficienti

Intelligenza artificiale etica: a che punto siamo?

Al fine di poter sfruttare al massimo la capacità dell’intelligenza artificiale (AI) di trasformare positivamente società e ambiente, le organizzazioni devono concentrarsi su come affrontare le sfide di carattere etico. È quanto emerge da un nuovo report del Capgemini Research Institute, AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust, secondo cui la percentuale di clienti che credono che le organizzazioni siano completamente trasparenti riguardo a come usano i loro dati personali è scesa dal 76% del 2019 al 62% di oggi. Lo studio rileva inoltre che solo il 53% delle organizzazioni ha un leader a cui è affidata la responsabilità di garantire un’intelligenza artificiale etica. Inoltre, sia la governance e la responsabilità per l’AI, sia l’implementazione di strumenti e strutture concrete per lo sviluppo e l’utilizzo dei sistemi di AI, comportano costi elevati per le organizzazioni.

Il report rivela che, nonostante le organizzazioni abbiano una maggiore consapevolezza per quanto riguarda i temi etici, i progressi nell’implementazione di un’intelligenza artificiale etica sono stati inconsistenti. Ad esempio, nelle indagini degli ultimi due anni, quasi la stessa percentuale di dirigenti ha dichiarato di aver adottato misure per la costruzione delle dimensioni di “fairness” (imparzialità, 65% nel 2020 e 66% nel 2019) e “auditability” (verificabilità, 45% nel 2020 e 46% nel 2019) dei loro sistemi di AI, mentre la trasparenza è scesa dal 73% al 59%, sebbene il 58% delle aziende dichiari di aver sensibilizzato i dipendenti sui problemi che possono derivare dall’utilizzo dell’AI.

Dalla ricerca emerge inoltre che il 70% dei clienti desidera una chiara spiegazione dei risultati e si aspetta che le organizzazioni forniscano interazioni di AI che siano trasparenti ed eque.

I bias dei sistemi AI e un’esperienza negativa con gli stessi penalizzano le organizzazioni

Dal momento che le organizzazioni pubbliche e private continuano a incrementare l’utilizzo di tecnologie di intelligenza artificiale, è fondamentale il loro impegno per mantenere elevata la fiducia dei clienti, promuovendo relazioni positive tra l’AI e i consumatori. Tuttavia, il report dimostra come i set di dati raccolti in ambito sanitario e pubblico siano soggetti a bias sociali e culturali.

Questa situazione non è limitata al solo settore pubblico. Dalla ricerca di Capgemini emerge che il 65% dei dirigenti dichiara di essere a conoscenza del problema dei bias discriminatori relativi ai sistemi di intelligenza artificiale. Inoltre, quasi il 60% delle organizzazioni è finito sotto esame dal punto di vista giuridico, mentre il 22% ha dovuto far fronte a un calo di clienti negli ultimi due o tre anni a causa delle decisioni prese dai sistemi di AI. Infatti, il 45% dei clienti ha affermato di voler condividere le proprie esperienze negative con familiari e amici e consigliare loro di non rivolgersi a una data organizzazione, il 39% ha sostenuto che condividerà le proprie preoccupazioni con l’azienda in questione esigendo una spiegazione, e un altro 39% ha ribadito che lascerà il canale di intelligenza artificiale a favore di una più costosa interazione umana. Più di un quarto dei consumatori (27%) ha affermato di essere disposto a interrompere completamente i rapporti con una data organizzazione.

Stabilire la responsabilità delle questioni etiche

Solo il 53% delle organizzazioni presenta una figura dedicata alle questioni etiche relative ai sistemi di intelligenza artificiale, come ad esempio il Chief Ethics Officer. È fondamentale istituire figure apicali che si occupino di questi temi, per garantire che vengano considerati una priorità assoluta del top management e per creare sistemi di AI solidi dal punto di vista etico.

Inoltre, sia i leader delle funzioni di business che di quelle tecnologiche devono essere pienamente responsabili dei risultati etici delle applicazioni dell’AI. Dalla ricerca si evince che solo la metà dei leader dichiara di avere un canale dedicato o una persona di riferimento che consenta a clienti e dipendenti di sollevare questioni etiche relative ai sistemi di intelligenza artificiale.

La governance etica è diventata un requisito fondamentale

La necessità per le organizzazioni di implementare un codice etico è dettata anche da un quadro regolamentare più stringente. Ad esempio, la Commissione Europea ha emanato delle linee guida sui principi etici chiave che dovrebbero essere utilizzati per lo sviluppo delle applicazioni di AI. Nel frattempo, le linee guida emesse negli Stati Uniti dalla Federal Trade Commission (FTC) a inizio 2020 impongono sistemi di AI trasparenti, affermando che quando un sistema abilitato dall’intelligenza artificiale prende una decisione negativa (ad esempio la riduzione del credito per un cliente), allora l’organizzazione dovrebbe mostrare al cliente interessato i principali data point utilizzati per arrivare alla decisione in questione e concedere il diritto di modificare qualsiasi informazione errata. Tuttavia, mentre nel 2019 il 73% delle organizzazioni globali aveva informato gli utenti sui diversi modi in cui le decisioni supportate dall’AI possono avere un impatto sui clienti, oggi questa percentuale è scesa al 59%.

Secondo il report, questi risultati sono indicativi delle attuali circostanze causate dal COVID-19, nonché delle esigenze della società e dell’ambiente, della crescente complessità dei modelli di intelligenza artificiale, e di un cambiamento nel comportamento dei consumatori, tutti fattori che hanno alterato le funzionalità dei modelli di AI esistenti. Inoltre, nuovi fattori come una maggiore attenzione per la sicurezza, l’acquisto di prodotti in grandi quantità e la mancanza di dati relativi a situazioni simili nel passato stanno spingendo le organizzazioni a riprogettare i propri sistemi per adattarsi a una nuova normalità, aspetto che si è tuttavia tradotto in una minore trasparenza.

Lo studio evidenzia sette azioni chiave che le organizzazioni possono implementare per costruire un sistema di AI eticamente solido, ognuna delle quali deve essere sostenuta a livello di leadership, governance e pratiche interne:

  • Delineare chiaramente lo scopo dei sistemi di AI e valutarne l’impatto potenziale complessivo
  • Implementare in modo proattivo l’AI a beneficio della società e dell’ambiente
  • Incorporare proattivamente la diversità e i principi di inclusione nel ciclo di vita dei sistemi di AI
  • Aumentare la trasparenza con l’aiuto di strumenti tecnologici
  • Umanizzare l’esperienza di AI e garantire la supervisione umana dei sistemi di AI
  • Garantire la robustezza tecnologica dei sistemi di AI
  • Proteggere la privacy individuale delle persone, responsabilizzandole e incaricandole delle interazioni con l’AI

Andrea Falleni, AD di Capgemini in Italia, ha affermato: “Dato il suo potenziale, l’uso etico dell’AI dovrebbe chiaramente garantire l’assenza di danni alle persone e la piena responsabilità individuale nel caso in cui le cose non funzionassero come previsto. C’è inoltre la concreta opportunità di perseguire in modo proattivo il benessere ambientale e sociale. L’AI è una tecnologia innovativa che ha il potere di determinare progressi di vasta portata in tutti i settori di attività, così come nella società e nell’ambiente. Invece di temere l’impatto dell’AI sugli esseri umani e sulla società, è possibile indirizzarla verso la lotta attiva ai pregiudizi contro le minoranze, anche correggendo i bias umani presenti oggi nelle nostre società. Ciò significa che le organizzazioni governative e non che possiedono competenze in termini di AI, ricchezza di dati e che si impegnano a garantire il benessere della società e dell’ambiente devono farsi carico di una maggiore responsabilità nell’affrontare queste tematiche a beneficio delle società attuali e future, il tutto nel rispetto della trasparenza e dell’accountability”.