Due ricercatori della National University of Singapore (NUS), membri della Intel Neuromorphic Research Community (INRC), hanno presentato nuovi studi che dimostrano come l’introduzione nella robotica del senso del tatto, consenta di migliorare significativamente le capacità e la funzionalità rispetto agli attuali sistemi basati solamente sulla visione.

senso del tatto
senso del tatto

La maggior parte dei robot odierni opera unicamente sulla base dell’elaborazione visiva, essendo sprovvisti del senso del tatto, peculiare, fino ad ora, proprio solo degli esseri umani.  I ricercatori di NUS ritengono, tuttavia, di poter cambiare questo stato di cose utilizzando la pelle artificiale,  in grado di percepire stimoli tattili con una velocità di 1.000 volte superiore rispetto al sistema nervoso umano e  di identificare la forma, la consistenza e la durezza di un oggetto 10 volte più rapidamente di un battito di ciglia.

Un robot dotato della sensazione tattile ha sicuramente funzionalità innovative: un braccio robotico dotato di pelle artificiale può, ad esempio, afferrare oggetti non familiari con la giusta pressione per evitare che sfuggano alla presa. La capacità di sentire e percepire l’ambiente circostante potrebbe, inoltre, consentire un’interazione più ravvicinata e sicura fra robot e persone nelle cure mediche o nell’automatizzazione delle operazioni chirurgiche.

Appare, tuttavia, necessario aggiungere un processore che sia in grado di trarre conclusioni, in tempo reale, dai dati che arrivano dai sensori della pelle, mantenendo un livello di consumo energetico abbastanza efficiente da consentirne l’uso direttamente nel robot.

A proposito della ricerca

Per aprire la nuova strada, il team di NUS ha utilizzato il chip di ricerca neuromorfica Loihi di Intel. Nell’esperimento iniziale, i ricercatori hanno usato una mano robotica, dotata di pelle artificiale, per leggere il Braille, passando i dati di percezione tattile a Loihi attraverso il cloud, in modo da convertire i microrilievi percepiti in un significato semantico. Loihi ha raggiunto un’accuratezza superiore al 92% nel classificare le lettere Braille, utilizzando al contempo 20 volte meno energia rispetto ad un processore Von Neumann standard.

Il team di NUS ha, poi, combinato i dati visivi a quelli tattili nella rete neurale incaricando un robot di classificare vari contenitori opachi con diverse quantità di liquido. Utilizzando gli stessi sensori tattili e di visione, è stata anche testata la capacità del sistema di identificare lo slittamento rotazionale, importante per una presa stabile.

Una volta acquisiti, i dati sono stati inviati ad una GPU e al chip di ricerca neuromorfica Loihi per confrontare le capacità di elaborazione. I risultati della ricerca, presentati questa settimana a Robotics: Science and Systems, evidenziano che la combinazione di visione e tatto, basata su una rete neurale spiking, ha consentito una precisione migliore del 10% nella classificazione degli oggetti rispetto ad un sistema basato sulla sola visione. E’stato, inoltre, dimostrato che la tecnologia neuromorfica è in grado di elaborare i dati sensoriali il 21% più rapidamente rispetto alle più potenti GPU, utilizzando 45 volte meno energia.