Più il robot è simile agli umani più ha il potere di persuadere, con rischi significativi per la sicurezza poiché le persone tendono a pensare che sia bendisposto e affidabile

Digital Workforce: dall'RPA all'hyperautomation

Secondo la ricerca The potential of social robots for persuasion and manipulation: a proof of concept study condotta da Kaspersky e Ghent University, l’impatto sociale dei robot e i potenziali rischi di sicurezza non dovrebbero essere sottovalutati. I social robot, infatti, sono in grado di ottenere informazioni sensibili dalle persone che, fidandosi di loro, si lasciano convincere ad intraprendere azioni non sicure. In alcuni scenari, la presenza di un robot può avere una grande influenza sulla volontà delle persone di consentire l’accesso ad aree off-limits.

Il mondo si sta rapidamente muovendo verso una sempre maggiore digitalizzazione e mobilità dei servizi, definendo uno scenario nel quale molte industrie e famiglie si affidano all’automazione e all’uso di sistemi robotizzati. Secondo alcune stime, entro il 2040, questo scenario diventerà la quotidianità per le famiglie più abbienti. Attualmente, la maggior parte di questi sistemi robotici sono ancora in fase sperimentale ed è troppo presto per discutere su come andranno integrate le misure di sicurezza informatica. Tuttavia, la ricerca di Kaspersky e della Ghent University ha rivelato una nuova e inaspettata dimensione del rischio associato alla robotica, ovvero l’impatto sociale che i robot hanno sul comportamento delle persone e come questo rappresenti un potenziale pericolo e un vettore di attacco.

La ricerca ha coinvolto 50 partecipanti e si è concentrata sull’influenza di un particolare social robot, progettato e programmato per interagire con le persone utilizzando canali di comunicazione di tipo umano, verbali e non verbali. Supponendo uno scenario nel quale i robot sociali possano essere hackerati ed essere controllati da un criminale informatico, la ricerca ha previsto i potenziali rischi per la sicurezza legati al robot, spingendo attivamente i partecipanti ad intraprendere determinate azioni, tra cui:

  • Ottenere l’accesso alle aree off-limits. Il robot è stato posizionato vicino all’entrata custodita di un edificio multifunzionale nel centro di Ghent in Belgio e ha chiesto al personale di poter accedere all’interno dell’edificio. L’accesso era possibile solo avvicinando un security pass ai lettori per il controllo degli ingressi. Durante l’esperimento, non tutto il personale era d’accordo a soddisfare la richiesta del robot, ma il 40% ha sbloccato la porta e l’ha tenuta aperta per consentire al robot di entrare nell’area protetta. Addirittura, quando il robot si è presentato come addetto alla consegna della pizza, con in mano la scatola di un noto marchio internazionale di take away, il personale ha accettato senza problemi il ruolo del robot e sembrava meno incline a mettere in discussione la sua presenza o le ragioni per cui avesse bisogno di accedere all’area sicura.
  • Ottenere informazioni sensibili. La seconda parte della ricerca si è concentrata su attività volte ad ottenere informazioni personali che in genere vengono utilizzate per reimpostare le password (compresa la data di nascita, il brand della prima auto, il colore preferito, ecc.). Anche in questo caso, è stato utilizzato un robot “sociale” che ha intrattenuto con le persone una conversazione amichevole. Con tutti i partecipanti, tranne uno, i ricercatori sono riusciti a ottenere dati personali ad una velocità di circa un’informazione al minuto.

Commentando i risultati dell’esperimento, Dmitry Galov, Security Researcher di Kaspersky, ha dichiarato: “All’inizio della ricerca abbiamo esaminato il software utilizzato nello sviluppo dei sistemi robotici. È stato interessante osservare come gli sviluppatori decidano consapevolmente di escludere i meccanismi di sicurezza per concentrarsi, invece, sullo sviluppo del comfort e dell’efficienza. Tuttavia, come hanno dimostrato i risultati del nostro esperimento, una volta che la fase di ricerca è stata completata, gli sviluppatori non si dovrebbe dimenticarsi della sicurezza. Quando si parla di sicurezza robotica ci sono aspetti chiave di cui preoccuparsi che vanno ben oltre le considerazioni di tipo tecnico. Ci auguriamo che il nostro progetto congiunto e l’esperimento fatto insieme ai colleghi della Ghent University, relativo alla cybersecurity nella robotica, incoraggi altri a seguire il nostro esempio e a sensibilizzare maggiormente l’opinione pubblica e la community sulla questione.”

Tony Belpaeme, professore di IA e Robotica alla Ghent University, ha aggiunto: “La letteratura scientifica indica che la fiducia nei robot e in particolare nei robot sociali è reale e può essere usata per persuadere le persone ad agire o a rivelare informazioni. In generale, più il robot è simile agli umani, più ha il potere di persuadere e convincere. Il nostro esperimento ha dimostrato che questo potrebbe comportare rischi significativi per la sicurezza, aspetto che le persone tendono a non prendere in considerazione supponendo che il robot sia bendisposto e affidabile. Questo fornisce un potenziale vettore per attacchi malevoli e i tre case study analizzati nel report sono solo una piccola parte dei rischi per la sicurezza associati ai robot sociali. Questo è il motivo per cui è fondamentale collaborare già da ora per poter comprendere e affrontare i rischi e le vulnerabilità emergenti. Se lo facciamo otterremo notevoli vantaggi in futuro.”