Il potenziale economico dell’intelligenza artificiale, stimato in 15,7 trilioni di dollari, potrà realizzarsi solo se le aziende sapranno integrare al proprio interno principi etici e pratiche eticamente responsabili. PwC ha pubblicato un nuovo toolkit, in occasione del World Economic Forum di Dalian in Cina, secondo il quale le aziende, per contrastare l’approccio frammentario allo sviluppo e all’integrazione dell’IA – che le sta esponendo a rischi potenziali – devono imparare a comprendere, sviluppare e integrare etica e IA.
PwC ha individuato cinque aree sulle quali le aziende devono concentrarsi, personalizzandole in base alle proprie esigenze in termini di strategia, progettazione, sviluppo e impiego dell’IA:
- Governance
- Etica e normative
- Interpretabilità e capacità esplicativa dei sistemi di IA
- Solidità e sicurezza dei sistemi di IA
- Pregiudizi ed equità dei sistemi di IA
Solo concentrandosi di queste aree infatti è possibile considerare i possibili impatti etici dell’IA a partire dalla pianificazione strategica e incorporarli quindi in un processo di governance efficace, contribuendo così a contrastare la crescente preoccupazione pubblica rispetto a temi quali equità, fiducia e affidabilità.
All’inizio dell’anno, l’85% dei CEO affermava che nei prossimi 5 anni l’IA avrebbe modificato sensibilmente il proprio modo di lavorare, mentre l’84% sosteneva che le decisioni basate su AI, al fine di essere credibili, avrebbero dovuto essere spiegabili.
Massimo Pellegrino, Partner PwC e New Ventures Lead e responsabile globale delle aree di Etica e Governance dell’IA, afferma: “Anche in Italia la sensibilità delle aziende rispetto al tema dell’etica dell’Intelligenza Artificiale è cresciuta significativamente. Banche, assicurazioni, società di telecomunicazioni e retailers stanno – anche sotto la spinta del GDPR – iniziando a definire un possibile approccio che da un lato garantisca il rispetto dei principi etici di tutti gli stakeholder dell’ecosistema in cui operano e dall’altro permetta di cogliere tutte le opportunità connesse all’utilizzo di una tecnologia così potente e pervasiva come l’Intelligenza Artificiale.”
Come parte del Toolkit di PwC per una IA eticamente responsabile, grazie a un sondaggio diagnostico le aziende possono valutare la propria comprensione e applicazione di pratiche IA etiche e responsabili.
Tra maggio e giugno del 2019, circa 250 persone coinvolte nello sviluppo e nell’impiego dell’IA hanno completato il processo di valutazione.
I risultati dimostrano immaturità e incoerenza nella comprensione e nell’applicazione di pratiche IA responsabili ed etiche:
- Solo il 25% degli intervistati dichiara di considerare in via prioritaria le implicazioni etiche di una soluzione di IA prima di metterla in atto.
- Uno su cinque (20%) ha processi chiaramente definiti per l’identificazione dei rischi associati all’IA.
- Oltre il 60% si affida a processi informali di sviluppo o non dispone di alcuna procedura documentata.
- Esistono già parametri o considerazioni rispetto ad un’intelligenza artificiale etica, tuttavia la loro applicazione non è stata costante.
- Il 56% avrebbe difficoltà a spiegare le motivazioni nel caso in cui l’Intelligenza Artificiale della propria azienda facesse qualcosa di scorretto.
- Oltre la metà degli intervistati non ha formalizzato l’approccio alla valutazione dell’IA rispetto ai rischi di discriminazione, adducendo come motivazioni mancanza di conoscenza, strumenti e valutazioni ad hoc.
- Il 39% (di chi applica l’IA su larga scala) dichiara di essere “abbastanza” sicuro di sapere come arrestare il proprio processo di IA se qualcosa andasse storto.
Il Toolkit di PwC per una IA eticamente responsabile consiste in un pacchetto flessibile e scalabile di competenze globali ed è concepito per consentire e supportare la valutazione e lo sviluppo dell’intelligenza artificiale all’interno delle aziende, personalizzato in base alle esigenze specifiche e al livello dell’IA implementato.