The Machine, il computer costruito per l’era dei Big Data

1477

Il nuovo computer targato HPE rimette completamente in discussione 60 anni di innovazioni dimostrando le potenzialità del Memory- Driven Computing

Hewlett Packard Enterprise ha presentato il più grande computer single-memory del mondo, ultimo traguardo in ordine di tempo raggiunto dal progetto di ricerca The Machine. La più grande iniziativa di ricerca e sviluppo nella storia della società, The Machine punta a realizzare un nuovo paradigma denominato Memory-Driven Computing, un’architettura appositamente creata per l’era dei Big Data.

“I segreti della prossima grande scoperta scientifica, innovazioni rivoluzionarie o tecnologie capaci di cambiarci la vita, si nascondono in piena vista dietro le montagne di dati che creiamo ogni giorno”, ha dichiarato Meg Whitman, CEO di Hewlett Packard Enterprise. “Per concretizzare questa promessa non possiamo affidarci alle tecnologie del passato, bensì abbiamo bisogno di un computer costruito per l’era dei Big Data”.

Il prototipo dispone di 160 terabyte (TB) di memoria, sufficienti per lavorare simultaneamente con otto volte i dati contenuti in tutti i volumi conservati presso la Libreria del Congresso statunitense, ovvero circa 160 milioni di libri. Finora non era mai stato possibile memorizzare e manipolare data set di queste dimensioni all’interno di un sistema single-memory, e questa non è altro che un’anteprima delle immense potenzialità offerte dal Memory-Driven Computing.1

Scalabilità e implicazioni sociali

Sulla base del prototipo attuale, HPE prevede che l’architettura possa facilmente scalare fino a sistemi single-memory di scala exabyte e, andando oltre, fino a un pool di memoria pressoché infinito – 4.096 yottabyte. Per dare un riferimento, si tratta di 1.000 volte l’intero universo digitale odierno.

Con una tale quantità di memoria sarà possibile lavorare simultaneamente con tutte le cartelle cliniche digitali di ogni persona sulla Terra; ogni dato presente all’interno di Facebook; ogni spostamento dei veicoli a guida autonoma di Google; e ogni data set prodotto dalle esplorazioni spaziali – e tutto nello stesso momento, ottenendo risposte e scoprendo nuove opportunità a velocità senza precedenti.

Il Memory-Driven Computing mette al centro dell’architettura informatica la memoria, non il processore. Eliminando le inefficienze dell’attuale modo in cui memoria, storage e processori interagiscono oggi tra loro, il Memory-Driven Computing riduce il tempo necessario a risolvere problemi complessi da giorni a ore, da ore a minuti, da minuti a secondi – per produrre intelligence in tempo reale.

Specifiche tecniche

Il nuovo prototipo fa leva sui risultati ottenuti dal progetto di ricerca The Machine come:

  • 160 TB di memoria condivisa distribuita tra 40 nodi fisici interconnessi mediante protocollo in fibra ad alte prestazioni
  • Un sistema operativo ottimizzato basato su Linux che gira su ThunderX2, un dual socket di seconda generazione prodotto da Cavium, in grado di gestire System on a Chip (SoC) ottimizzati per carichi di lavoro ARMv8-A
  • Link di comunicazione ottici/fotonici, compreso il nuovo modulo fotonico X1, online e operativi;
  • Tool di programmazione software progettati per sfruttare l’abbondante memoria persistente disponibile.