L’Università degli Studi di Torino (UniTO), fondata nel 1404, è tra i più antichi e prestigiosi atenei italiani. UniTO ha 27 dipartimenti ed è tra i primi 3 atenei italiani come numero di dipartimenti di eccellenza (10 dipartimenti), oltre 2.000 professori, 80.000 studenti, 150 corsi di laurea, 80 master e 38 dottorati di ricerca.
UniTO ha anche diversi centri multidisciplinari e laboratori finalizzati a promuovere la ricerca e il trasferimento tecnologico su specifici temi. Fra questi, il laboratorio “open access” HPC4AI@UniTO, ospitato dal dipartimento di informatica, è attivo sui temi legati alla progettazione dei metodi e degli strumenti per il cloud e high-performance computing (HPC), con uno specifico interesse per le applicazioni legate all’intelligenza artificiale (AI).
HPC4AI@UniTO
Il laboratorio HPC4AI@UniTO nasce nel 2018 all’interno del progetto HPC4AI, un’iniziativa congiunta tra i due atenei torinesi per la realizzazione di una federazione di infrastrutture di calcolo per scopi di ricerca. Il progetto HPC4AI, coordinato da UniTO, è stato finanziato con 4.5 Milioni di Euro nel 2018 grazie al bando competitivo grandi infrastrutture EU POR-FESR 2014-2020 (primo classificato) con il cofinanziamento dei due atenei.
HPC4AI@UniTO è pensato come un grande e moderno laboratorio “open access” dove i ricercatori di varie discipline possono sperimentare la progettazione e l’uso di sistemi di calcolo e servizi cloud ad alte prestazioni e sistemi prototipali di prossima generazione; dove gli studenti possono sperimentare la complessità dei sistemi di grande scala e imparare a dominarla; dove le imprese del territorio possono co-progettare nuove applicazioni insieme agli esperti di dominio di UniTO. Il laboratorio offre servizi di calcolo e di progettazione che ne garantiscono la sostenibilità economica.
“La soluzione di Vertiv ci ha consentito di ottenere una sostanziale riduzione della complessità relativa all’impianto di raffreddamento e innumerevoli vantaggi quali: assenza di tubazioni e acqua all’interno del locale data center con conseguente aumento della sicurezza; riduzione del rumore; riduzione dei tempi di implementazione; aumento dello spazio per i Rack (quindi molto più spazio per l’installazione dei Server dedicati a HPC, AI e BDA) all’interno dello stesso perimetro del data center; maggiore sicurezza dell’infrastruttura IT”, ha dichiarato il Professor Marco Aldinucci, Dip. Informatica Università di Torino.
La sfida
Nell’era dei servizi ICT managed, la sfida più grande per ogni ateneo è mantenere e possibilmente accrescere le competenze e la capacità progettuale nella realizzazione di sistemi hardware e software in ambito ICT. Competenze che sono cruciali per la catena del valore di molte filiere produttive la cui capacità di innovazione è indissolubilmente legata alla padronanza di competenze tecnologiche. Per questo i ricercatori di UniTO hanno progettato per intero, insieme ai partner tecnologici come Vertiv, sia l’infrastruttura tecnologica “data center” che i sistemi.
Una progettazione condotta come un esercizio di ricerca sulla base di parametri estremamente sfidanti in termini di prestazioni, continuità operativa, affidabilità, efficienza energetica. Sfida nella sfida è la progettazione di un data center abbastanza modulare per essere collocato in spazi preesistenti nel mezzo del dipartimento di informatica di UniTO, dentro il Centro Piero della Francesca situato in Corso Svizzera 185 a Torino e realizzato come un oggetto di design: un silenzioso e metafisico “paesaggio elettronico”, fonte di ispirazione per studenti e ricercatori, come immaginato da Ettore Sottsass per i calcolatori Olivetti serie Elea (Compasso D’Oro 1960).
Le esigenze di HPC4AI@UniTO
Il dipartimento di Informatica di UniTO intendeva realizzare un data center TIER III (con replicazione N+1) in grado di supportare fino a 250kW di apparecchiature ICT organizzate in 16 armadi da almeno 20kVA e di ospitare anche server ad alta densità (1,5 kW per unità). Il data center doveva essere realizzato dentro una teca di vetro blindata e insonorizzata, ben visibile da studenti e ricercatori di passaggio all’interno del dipartimento di Informatica. Doveva inoltre raggiungere livelli di efficienza energetica allo stato dell’arte per i data center di questa categoria (pPUE<1.06 per il raffrescamento).
Soluzioni
Per la creazione del data center, Vertiv si è confrontata con il personale tecnico dell’Università di Torino e con lo studio di ingegneria incaricato della progettazione definitiva, condividendo una soluzione che consentisse sia di raggiungere gli obiettivi di modularità che di risparmiare dal punto di vista economico ed energetico. Inoltre, Vertiv ha collaborato alla stesura del progetto definitivo e si è occupata della sua realizzazione.
L’Università ha poi individuato il locale adatto nell’ultimo piano dello stabile, precedentemente adibito a uffici e posto immediatamente sotto il lastrico solare. Questo ha permesso a Vertiv di implementare un sistema di raffreddamento a tutt’aria innovativo e con massima efficienza energetica e di usufruire della vicinanza della cabina elettrica per implementare la parte di alimentazione in continuità.
Nel dettaglio, la soluzione tecnologica relativa alla parte di infrastruttura elettrica realizzata dall’installatore Euroimpianti, comprende: l’allestimento del cablaggio strutturato per utenze tecnologiche; l’impianto di illuminazione normale e di sicurezza; la predisposizione di prese forza motrice e prese dati RJ45; l’impianto di protezione contro i contatti indiretti; il sistema di rilevazione e segnalazione incendio per locali tecnici e l’impianto di estinzione del fuoco; nonchè l’impianto di controllo accessi con diverse tipologie di token (smartcard, qrcode, pin). Inoltre, sono state previste la fornitura e posa di apparecchi illuminanti per diffondere luce normale e sicura e la fornitura e posa in opera di pulsanti di sgancio di sicurezza.
Per quanto riguarda la parte di Thermal Management, il data center è stato dotato di un impianto di raffrescamento esterno a tutt’aria ad altissima efficienza, innovativo nel suo insieme in quanto comprende free cooling indiretto, integrazione di raffreddamento evaporativo e sistema ad espansione diretta. È inoltre presente un impianto di trattamento acqua per il reintegro del sistema di raffreddamento evaporativo implementato dall’installatore. Infine, ci sono reti di scarico per i nuovi impianti e, altresì, un impianto di condizionamento per il locale UPS realizzato con unità perimetrale ad espansione diretta e condensatore esterno in copertura.
L’impianto antincendio per il data center è basato su tecnologia Novec che consente la salvaguardia del materiale IT e la maggior sicurezza del personale. All’interno del data center è stato installato un impianto automatico a gas inerte che, in caso di incendio, riverserà il gas nella sala IT, abbassando la concentrazione di ossigeno ed estinguendo così le fiamme. L’impianto è stato accoppiato a un sistema di ventilatori e serrande, azionabile manualmente una volta estinto l’incendio per permettere il lavaggio del locale. Negli spazi in cui sono previste apparecchiature elettroniche sono stati installati almeno 2 estintori a CO2.
Le soluzioni Vertiv implementate:
- 2 UPS Vertiv Liebert APM da 150kW espandibili fino a 250kW di capacità;
- 1 UPS Vertiv Liebert GXT5 al servizio della cabina elettrica;
- 1 gruppo elettrogeno insonorizzato a diesel da 415kVA;
- 16 Rack Vertiv DCM per data center;
- 1 Rack Vertiv Knürr Miracel 2 per locale tecnico;
- 28 Vertiv Liebert Geist PDU (GS30019L) da 22,2kVA;
- 4 Vertiv Liebert Geist PDU (GS30015L) da 7,3kVA;
- 1 (+1 predisposizione) Vertiv Liebert EFC 220 DX, Free Cooling indiretto ad alta efficienza con raffreddamento evaporativo;
- Servizi di diagnostica remota e monitoraggio preventivo Vertiv LIFE Services.
Risultati
- Ottenimento di una climatizzazione efficace e altamente efficiente dal punto di vista energetico grazie alla combinazione di tre modalità di raffreddamento.
- Realizzazione di uno scambio in tempo zero tra l’alimentazione da rete e il gruppo elettrogeno che garantisce la continuità di funzionamento del data center.
- Alimentazione di tutto il carico elettrico del data center per 12 ore che protegge l’infrastruttura di calcolo da sostanziali interruzioni dell’alimentazione elettrica da rete.
- Modularità realizzata attraverso l’espansione dell’UPS fino a 250kW di capacità.
- Ottenimento di una ridondanza N+1, grazie all’installazione in parallelo di un secondo UPS con le medesime caratteristiche del primo.
- Monitoraggio remoto preventivo 24/7 e assistenza in loco garantita entro le 4 ore in caso di necessità
“Il nuovo data center doveva essere progettato secondo i più innovativi sistemi, sia per il raffreddamento che per l’alimentazione in continuità e rispondere ai parametri più stringenti in fatto di consumo energetico e impatto ambientale”, ha affermato il Prof. Marco Aldinucci, Dip. Informatica Università di Torino. “I criteri sui quali ci siamo concentrati sono stati: predisporre un sistema TIER III con un basso impatto strutturale interno al data center; garantire la riduzione dei consumi energetici per l’infrastruttura di raffreddamento e alimentazione in continuità; predisporre un’infrastruttura smart e ampliabile; assicurare un valore pPUE per il raffreddamento del data center inferiore al valore 1,1. Le soluzioni e i servizi di Vertiv hanno risposto perfettamente a ogni requisito”.
“Uno degli elementi distintivi che è stato riconosciuto nella soluzione proposta è l’estrema silenziosità nei locali adiacenti: le pareti vetrate trasparenti mantengono un livello di impatto sonoro molto basso e, allo stesso tempo, delimitano il CED pur permettendo a docenti e studenti di vederlo“, ha sottolineato Stefano Mozzato, Country Manager di Vertiv Italia. “Anche sul tetto si registra un impatto sonoro molto basso: essendo l’edificio situato a Torino in un centro molto affollato, l’Università ha ritenuto fondamentale scegliere una soluzione innovativa come Vertiv Liebert EFC per non impattare sull’inquinamento acustico. Quindi CED con awareness di impatto ambientale contenuto, ma senza ridurre le necessità di progetto: HPC4AI e silenziosità sono rette parallele che abbiamo fatto incontrare”.