Dalila Barone, Responsabile HR in Italia di Minsait riflette sulle tematiche legate alla parità di genere e al contributo che l’Intelligenza Artificiale può o non può dare nel combattere il gender gap.
L’Italia è al 63° posto in termini di parità di genere, in fondo alla classifica dei Paesi sviluppati della regione. Una dolorosa realtà certificata dal Global Gender Gap Report del World Economic Forum, che basa la sua classifica sulla presenza delle donne in settori chiave come l’economia, la politica, l’istruzione e la salute. Uno di questi è, ovviamente il settore tecnologico, forse quello che sta avendo il maggiore impatto nel plasmare il nostro presente e futuro. Nel nostro Paese, la presenza femminile nel settore IT si è storicamente aggirata intorno al 15%, perpetuando (e aggravando) un problema sistemico di disuguaglianza.
La logica è semplice: un mondo plasmato da un settore – quello tecnologico – in gran parte maschile sarà un mondo plasmato da una prospettiva prevalentemente maschile.
Parità di genere: l’Intelligenza Artificiale è influenzata da pregiudizi
Prendiamo ad esempio una delle aree tecnologiche in più rapida crescita e di maggiore impatto: l’intelligenza artificiale. Il potenziale trasformativo di questa tecnologia ci impone di garantire che il suo sviluppo avvenga nel quadro di un impegno etico e di una vocazione al bene comune. Non è possibile avere un’IA etica senza un’IA egualitaria.
Negli ultimi anni le principali obiezioni ai sistemi di IA sono state legate a casi di discriminazione causati da algoritmi biased. Qualche anno fa, Amazon ha dovuto ritirare il sistema di IA incaricato di supportare le assunzioni perché favoriva gli uomini rispetto alle donne. Se oggi chiediamo a ChatGPT se abbia pregiudizi di genere, il sistema stesso ammette che le sue risposte possono essere influenzate da pregiudizi se i dati contengono pregiudizi o se vengono poste domande che sono di parte o basate su informazioni di parte.
Il ruolo chiave dei dati
Indubbiamente, per parlare di parità di genere è urgente riflettere sui dati che alimentano e addestrano i nostri sistemi. Un recente studio di The Guardian ha mostrato come i sistemi di intelligenza artificiale addestrati con le immagini presenti sui social network tendano all’“oggettificazione” dei corpi e a identificare i corpi delle donne più di quelli degli uomini come contenuti con connotazioni o esplicitamente sessuali.
Parità di genere: lavorare su un’IA egualitaria
Lavorare per un’IA egualitaria richiede quindi di analizzare i dati e di correggere i pregiudizi alla fonte. Ma non solo. È importante non dimenticare altre due chiavi fondamentali, legate al controllo e alla progettazione degli algoritmi.
Primo: l’Intelligenza Artificiale etica richiede un controllo democratico, sia da parte della società civile che delle istituzioni, che a sua volta richiede sistemi trasparenti nella loro progettazione e che siano spiegabili. Oggi, la maggior parte degli algoritmi di Intelligenza Artificiale sono per noi “scatole nere” che soffrono di una mancanza di “esplicabilità” (per utilizzare il termine di Luciano Floridi) nella loro logica e nel loro funzionamento, il che limita drasticamente il loro controllo effettivo.
In secondo luogo, oltre ai dati, dobbiamo anche porci delle domande relative alla progettazione dei sistemi di intelligenza artificiale, ossia lo scopo per cui i sistemi sono stati ideati e i possibili impieghi (usi e abusi) a cui possono essere destinati.
Quali dati hanno alimentato il sistema di intelligenza artificiale? I dati sono completi, affidabili e imparziali? L’algoritmo compensa eventuali pregiudizi di genere nei dati che lo alimentano? Per quale scopo e in quale contesto è stato sviluppato l’algoritmo? Il sistema è orientato al bene comune? Quali possono essere gli usi del sistema? Sono tutte domande pertinenti che dobbiamo porci come società e che puntano a una questione cruciale: l’intelligenza artificiale sta aiutando a combattere la disuguaglianza di genere o la sta perpetuando?
di Dalila Barone, Responsabile HR in Italia presso Minsait