Guida autonoma: l’auto percepisce l’ambiente che la circonda

72

La nuova piattaforma Nvidia Drive PX 2 basata sull’intelligenza artificiale, consente al veicolo di guidare autonomamente

Nvidia presenta Drive PX 2, motore di bordo per l’intelligenza artificiale. La nuova piattaforma permetterà all’industria automobilistica di utilizzare l’intelligenza artificiale per affrontare le difficili sfide della guida autonoma. Sfruttando le GPU Nvidia per il deep learning, sarà possibile avere una comprensione a 360 gradi di ciò che si trova intorno al veicolo, determinare con precisione la posizione dell’auto e calcolare le traiettorie più sicure e confortevoli.

24 miliardi di operazioni di deep learning al secondo

Creata per rispondere alle esigenze dei partner di Nvidia del settore automobilistico, Drive PX 2 offre una potenza di calcolo per il deep learning, equivalente a quella di 150 MacBook Pro. Due processori Tegra di prossima generazione e due GPU basate su architettura Pascal, consentono di eseguire fino a 24 miliardi di operazioni al secondo specifiche per l’elaborazione delle reti neurali tipiche del deep learning, ossia una potenza di calcolo 10 volte maggiore rispetto alle soluzioni di precedente generazione.

Le capacità di deep learning di Drive PX 2 consentono di imparare rapidamente a gestire le quotidiane sfide che si affrontano nella guida, come, ad esempio, detriti stradali inaspettati, guidatori distratti o interruzioni impreviste della strada. Il deep learning è in grado anche di risolvere problematiche ambientali che le tradizionali tecniche di computing non sono in grado di gestire, come, ad esempio, in caso di pioggia, neve, nebbia, e condizioni di luce difficili, come al tramonto, all’alba e nell’oscurità totale.

Per operazioni in virgola mobile di carattere generale, l’architettura GPU a precisione multipla di Drive PX 2 è capace di gestire fino a 8 miliardi di operazioni al secondo, quindi, oltre quattro volte di più rispetto alle soluzioni della precedente generazione. Ciò consente ai partner di poter gestire tutti gli algoritmi della guida autonoma, tra cui la sensor fusion, la localizzazione e la pianificazione dei percorsi.

Deep Learning nelle auto a guida autonoma

Le auto a guida autonoma utilizzano numerosi sensori per comprendere l’ambiente circostante. Drive PX 2 può processare gli imput di 12 videocamere, oltre al Lidar (light detection & ranging), ai radar e ai sensori a ultrasuoni. Combina poi tutte queste informazioni per individuare accuratamente gli oggetti, capire cosa sono, determinare la posizione dell’auto rispetto ad essi e, infine, calcolare il percorso migliore.

Questo complesso lavoro viene facilitato da Nvidia DriveWorks, una suite di strumenti software, librerie e moduli che accelerano lo sviluppo e le fasi di test dei veicoli autonomi. DriveWorks, infatti, consente la calibrazione dei sensori, l’acquisizione dei dati, la sincronizzazione, la registrazione e infine l’elaborazione dei flussi di dati provenienti dai sensori attraverso una complessa serie di algoritmi, il tutto sfruttando sia i processori specializzati sia quelli general-purpose di Drive PX 2. I moduli software riguardano tutti gli aspetti, dal riconoscimento degli oggetti fino alla classificazione e alla segmentazione, dalla localizzazione sulla mappa fino alla pianificazione del percorso.

Soluzione end-to-end per il Deep Learning

Nvidia dispone anche di una soluzione completa, composta da Nvidia Digits e Drive PX 2 insieme. Digits è uno strumento per lo sviluppo, l’addestramento e la visualizzazione di reti neurali profonde che può essere utilizzato su qualsiasi sistema basato su GPU Nvidia, dai PC e supercomputer, agli Amazon Web Service e a Big Sur, l’hardware “open rack compatibile” più recente di Facebook. Il modello di rete neurale utilizzato è quello impiegato in auto da Nvidia Drive PX 2.

Drive PX 2 sarà disponibile per i primi partner a partire dal secondo trimestre del 2016 e per tutti nel quarto trimestre dell’anno.