Uno studio del Politecnico di Torino apre la strada a nuove implementazioni tecnologiche e offre nuovi spunti per la comprensione dei meccanismi della memoria

Intelligenza Artificiale

Gli studi sull’Intelligenza Artificiale stanno progredendo molto rapidamente e le prestazioni sono sempre più sorprendenti: la codifica di immagini complesse, la guida automatica di autoveicoli sono esempi di azioni che possono apparire semplici ma nella realtà richiedono operazioni molto articolate.

Per costruire macchine sempre più “intelligenti” sinora uno dei campi di ricerca più attivi è quello delle deep networks, che studia reti neurali artificiali molto complesse dotate di centinaia di milioni di  connessioni tra neuroni, in grado di processare milioni di esempi e imparare da essi – in modo del tutto autonomo – a svolgere compiti elaborati come ad esempio il riconoscimento vocale. La struttura di queste reti ricorda in qualche modo quella del cervello umano, dove miliardi di neuroni sono interconnessi  tramite migliaia di miliardi di sinapsi. Sono proprio tali connessioni che vengono modificate quando le reti imparano dagli esempi e, nel cervello umano, lo stesso meccanismo è anche alla base della memorizzazione delle informazioni. Lo stesso avviene con le reti artificiali.

La più prestigiosa rivista scientifica di fisica, la “Physical Review Letters” dell’American Physical Society, ha appena pubblicato lo studio di un gruppo di ricerca del Politecnico di Torino e della Human Genetics Foundation, coordinato dal prof. Riccardo Zecchina e composto da Carlo Baldassi, Alessandro Ingrosso, Carlo Lucibello e Luca Saglietti, che getta le basi per aprire la strada a nuove implementazioni tecnologiche nel campo delle reti neurali artificiali e al contempo per aiutare la comprensione dei meccanismi biologici della memoria.

Lo studio ha infatti preso spunto da considerazioni biologiche e dalle più recenti evidenze sperimentali, che indicano che durante i processi di apprendimento e memorizzazione le sinapsi non vengono modificate in modo graduale (come presupposto attualmente nelle deep networks), ma “a scatti”, ovvero usando un numero molto più piccolo di possibili stati, o bit di precisione. Come precisamente ciò avvenga non è per nulla chiaro; per di più, non era finora chiaro nemmeno in linea di principio come fosse possibile che il sistema potesse funzionare con così pochi bit.

In questo studio i ricercatori hanno usato un approccio nuovo rispetto ai precedenti, e dimostrato come sinapsi “elementari” (al limite con un singolo bit) possono essere utilizzate in modo sorprendentemente efficace. Il loro utilizzo comporta vantaggi tecnologici in termini di semplicità di implementazione e di velocità di esecuzione, e di conseguenza potrebbe portare anche alla realizzazione di reti più grandi e architetture più complesse. Inoltre l’innovazione metodologica – che suggerisce anche come sviluppare nuovi schemi algoritmici – è stata sviluppata nell’ambito della Fisica Statistica dei sistemi complessi, che trova applicazione anche in molti  altri contesti (apparentemente) molto diversi tra loro, dai problemi di ottimizzazione di risorse su larga scala allo studio della struttura delle proteine, allo studio delle dinamiche dei social network o dello sviluppo delle epidemie. Tutti questi campi potrebbero dunque beneficiare dalle novità evidenziate in questo studio.