Huawei ha pubblicato un white paper che definisce punto di vista, pratiche dell’azienda e relative soluzioni, per un approccio aperto alla condivisione di responsabilità

AI e discriminazione sociale: come sconfiggere il bias?

Prepararsi al futuro della sicurezza dell’Intelligenza Artificiale e della protezione della Privacy: è il titolo del white paper pubblicato da Huawei in occasione di HUAWEI CONNECT 2019. Il documento definisce il punto di vista, le pratiche dell’azienda e le relative soluzioni in materia, proponendo un approccio aperto alla condivisione di responsabilità per la gestione di queste tematiche. Sean Yang, direttore del Global Cyber Security and Privacy Office di Huawei, ha presentato il white paper intervenendo in un summit incentrato sul tema della costruzione di un sistema completo di sicurezza AI e protezione della privacy.

Yang ha dichiarato: “L’Intelligenza Artificiale rappresenta un grande valore aggiunto in numerosi scenari quotidiani, come la realizzazione di trasporti intelligenti, l’ottimizzazione delle reti di telecomunicazioni, il miglioramento dell’automazione industriale, la logistica e molti altri. Le persone stanno gradualmente iniziando a beneficiare dei notevoli vantaggi offerti dallo sviluppo di questa tecnologia, che ha un impatto positivo sulla vita delle persone indipendentemente dal loro livello di consapevolezza. Tuttavia, sebbene l’Intelligenza Artificiale offra grandi opportunità e vantaggi, essa porta con sé anche sfide in termini di sicurezza e protezione della privacy, come l’affidabilità tecnica, l’impatto sociale, l’aggiornamento tempestivo degli aspetti legislativi.”

Huawei ha quindi definito sette obiettivi di governance in materia di sicurezza e privacy: sicurezza e controllo del sistema, trasparenza e tracciabilità, protezione della privacy, correttezza, gestione dei dati, competenza e garanzia della realizzazione degli obiettivi. Inoltre il white paper illustra le pratiche di Huawei relative a queste materie. I prodotti e le applicazioni di intelligenza artificiale fanno parte di un ecosistema completo e fanno riferimento a una vasta gamma di player di questo mercato. A causa della difficoltà di affrontare le complesse criticità e i rischi per la sicurezza e la privacy dell’IA, Huawei propone un modello di responsabilità condivisa per la governance della sicurezza e della protezione della privacy. Il modello è suddiviso in cinque punti che identificano le figure che devono coillaborare al fine di realizzare un corretto sviluppo dell’Intelligenza Artificiale: consumatori/clienti, sviluppatori di applicazioni, implementatori, fornitori di soluzioni full-stack e sistemi di raccolta dati.

In occasione dell’evento, numerosi esperti hanno condiviso le loro opinioni sulle soluzioni e le pratiche di governance della sicurezza in aree quali la tecnologia, il management, gli ambiti accademici e molti altri. Hanno partecipato al summit Wu Shenkuo, segretario generale del Centro ricerche dell’Internet Society of China; Bao Feng, direttore di Huawei Shield Lab; Christoph Luetge, filosofo ed economista tedesco; Denzel Song, presidente del Huawei Security Product Domain; e Benson Ng, Partner di Greater China Digital di Ernst & Young e AI advisor. Gli esperti hanno inoltre esplorato il valore che la completa governance della sicurezza aziendale può apportare all’intero settore.

Huawei è impegnata a promuovere congiuntamente l’istituzione, l’implementazione e il miglioramento degli standard di sicurezza e privacy nell’era digitale. L’azienda guida l’affidabilità e lo sviluppo dell’IA, fornisce prodotti e servizi in grado di garantire sicurezza e privacy, e invita tutti i player del mercato dell’Intelligenza Artificiale a riesaminare il proprio ruolo e le responsabilità da assumere in materia.

Ulteriori informazioni qui.