Consumatori, dipendenti e cittadini premieranno le organizzazioni che mostrano di avere un approccio etico, equo e trasparente nell’adozione dell’IA

IA e mercato del lavoro: i freni al potenziale dell'Europa

Un approccio etico all’AI è ormai fondamentale per conquistare la fiducia delle persone: lo dimostra un nuovo studio del Capgemini Research InstituteWhy addressing ethical questions in AI will benefit organizations – realizzato coinvolgendo 1.580 dirigenti di grandi aziende in 10 paesi e oltre 4.400 consumatori in sei paesi. Mentre le organizzazioni fanno progressi nello sfruttare i benefici dell’IA, consumatori, dipendenti e cittadini guardano con attenzione alla tecnologia e sono pronti a favorire o penalizzare aziende che adottano determinati comportamenti. Gli intervistati hanno affermato che sarebbero più fedeli, disposti ad aumentare gli acquisti, o a sostenere le aziende che dimostrano di fare un uso etico dell’IA.

Tra le principali evidenze troviamo:

  • Le aziende che utilizzano eticamente l’IA saranno premiate: Il 62% dei consumatori intervistati ha dichiarato di riporre una maggiore fiducia in un’azienda le cui interazioni con i sistemi di IA vengono percepite come etiche, il 61% ha affermato di essere disposto a condividere esperienze positive con amici e familiari, il 59% che l’uso etico dell’IA incrementerebbe il proprio grado di fidelizzazione con un’azienda e il 55% che questo si tradurrebbe in un aumento dei prodotti acquistati e in un incremento dei feedback positivi sui social media. Al contrario, quando le interazioni tra i sistemi di IA e i consumatori generano problemi di natura etica, questi minacciano sia la reputazione che i profitti: il 41% degli intervistati ha dichiarato che si lamenterebbe qualora un’interazione con i sistemi di IA portasse a problemi etici, il 36% richiederebbe una spiegazione e il 34% smetterebbe di rivolgersi a tale azienda.
  • Sono stati osservati e sperimentati problemi etici derivanti dai sistemi di IA: I dirigenti di 9 aziende su 10 ritengono che l’utilizzo dell’IA abbia generato problemi etici negli ultimi 2-3 anni, ad esempio nel settore sanitario per quanto riguarda la raccolta di dati personali dei pazienti senza il loro consenso, oppure in quello bancario e assicurativo, per via dell’eccessivo utilizzo di decisioni machine-led senza aver avvisato prima il cliente. La cause riscontrate da un lato evidenziano le pressioni per l’implementazione dell’IA, dall’altro l’assenza di un approccio e di risorse dedicate all’aspetto etico dell’implementazione dei sistemi di IA.
  • Consumatori, dipendenti e cittadini sono preoccupati per le questioni etiche legate all’IA e richiedono l’attuazione di forme di regolamentazione: Quasi la metà degli intervistati (47%) ritiene di aver sperimentato almeno due tipi di utilizzo dell’IA che, negli ultimi 2-3 anni, hanno dato luogo a problemi etici. La maggior parte (74%) ha dichiarato di volere maggiore trasparenza quando si trova a usufruire di un servizio erogato tramite l’IA, mentre il 72% vuole sapere se la tecnologia li stia trattando in modo equo. Più di tre quarti dei consumatori (76%) ritiene che ci dovrebbe essere una regolamentazione aggiuntiva sull’utilizzo dell’IA da parte delle aziende.
  • Le organizzazioni stanno iniziando a rendersi conto dell’importanza dell’etica nell’IA: Il 51% dei dirigenti ritiene che sia importante garantire l’etica e la trasparenza dei sistemi di IA. Le organizzazioni stanno anche adottando azioni concrete quando vengono poste loro questioni etiche. La ricerca ha rilevato che il 41% dei dirigenti senior riferisce di aver abbandonato completamente i sistemi di IA che sollevavano problemi etici.

“Le organizzazioni oggi si trovano a un bivio nell’adozione dell’IA. Consumatori, dipendenti e cittadini sono sempre più disposti a interagire con questa tecnologia, ma allo stesso tempo sono consapevoli delle potenziali implicazioni etiche. Per conquistare la fiducia dei consumatori, le organizzazioni sono chiamate ad attuare sistemi e politiche etiche per l’utilizzo dell’IA. Non si tratta solo di un tema di compliance, ma di un’opportunità per generare benefici significativi in termini di fidelizzazione, engagement e riconoscimento, ha affermato Andrea Falleni, Managing Director, Capgemini Business Unit Italy. Per raggiungere questi obiettivi, le organizzazioni devono dotarsi di una governance adeguata. Questo significa non solo definire un codice di condotta basato sui valori aziendali, ma anche adottare un approccio etico fin dalla fase strategica e soprattutto informare e supportare le persone nell’interazione con servizi e sistemi che utilizzano l’IA.”

La priorità è definire un approccio etico nella strategia di adozione dell’IA: Per indirizzare le preoccupazioni dei consumatori e guadagnare un vantaggio competitivo nell’utilizzo etico dell’IA, è necessario progettare i sistemi fin dal principio per rispondere a queste esigenze. Capgemini raccomanda un approccio strategico che tenga in considerazione tutti i principali stakeholder dell’ecosistema:

  1. CxO, business leader e responsabili per la fiducia e l’etica aziendale devono stabilire una strategia e un codice di condotta per l’utilizzo etico dell’IA, sviluppare adeguate procedure di adozione per i dipendenti e per le applicazioni basate sull’IA, creare strutture di governance etica e garantire responsabilità per i sistemi di IA e costruire team eterogenei per assicurare un’elevata sensibilità su tutto lo spettro delle questioni etiche;
  2. Le funzioni che hanno un contatto diretto con il pubblico, come risorse umane, marketing, comunicazione e servizio clienti devono garantire un uso etico nell’applicazione dell’IA, informare ed educare gli utenti per costruire fiducia nei sistemi di IA, fornire supporto e assistenza nell’interazione con l’IA e comunicare tempestivamente eventuali criticità correlate all’IA sia all’interno dell’azienda che verso il consumatore;
  3. I responsabili in ambito IA, dati e IT devono cercare di garantire il più possibile trasparenza e comprensione dei sistemi, una corretta gestione dei dati per mitigare i potenziali rischi, il monitoraggio continuo per verificarne precisione e accuratezza e l’utilizzo di strumenti tecnologici che assicurino l’etica nell’IA.

Luciano Floridi, Director del Digital Ethics Lab, Oxford Internet Institute, ha dichiarato: “Per le organizzazioni guadagnarsi la fiducia del pubblico in relazione all’utilizzo dell’IA significa garantire trasparenza, ovvero permettere agli utenti di vedere cosa si sta facendo, assumersi la responsabilità delle proprie azioni e permettere alle persone di segnalare eventuali criticità.”