Prevalenza del cloud-native, paradigma edge-first, 5G, AI nell’edge, data center grid-positive

L’edge computing semplifica la vita? Quattro casi d’uso

Predire le tendenze tecnologiche è un compito impegnativo, tanto più se si considera che il mondo è stato sconvolto da cambiamenti imprevisti. Nel 2020, un anno tutt’altro che tipico, le circostanze hanno accelerato la trasformazione digitale in pochi mesi, portando un impatto profondo e duraturo sul nostro modo di vivere e lavorare. Il COVID-19 ha accelerato l’adozione del digitale in ogni azienda e in ogni settore. Ha anche evidenziato il ruolo critico che le tecnologie e le infrastrutture digitali svolgono per il successo del business.

I tecnologi di Equinix si sono recentemente riuniti per discutere quelle che riteniamo le più grandi previsioni tecnologiche e le principali tendenze in materia di infrastrutture digitali per il prossimo anno e oltre. Ecco cosa accadrà secondo noi:

L’’infrastruttura “cloud-native” dominerà

Non è un segreto che le infrastrutture tradizionali non sono state progettate per soddisfare le esigenze del business digitale di oggi.

Il business digitale è sempre più alimentato da moderni stack di software e da un ampio uso di tecnologie open-source e cloud-native. In parole semplici, il termine cloud-native indica un approccio di sviluppo software che promuove l’uso di tecnologie di cloud computing e di principi come microservizi, API-first, container e DevOps, oltre a capacità correlate come l’orchestrazione dei container (ad esempio, Kubernetes), service mesh (ad esempio, Istio) e infrastrutture immutabili.

Queste tecnologie, insieme, consentono alle organizzazioni di costruire, eseguire e orchestrare rapidamente applicazioni scalabili che possono essere implementate e distribuite a livello globale, sfruttando di solito un’architettura ibrida multicloud. Queste implementazioni distribuite hanno requisiti sempre più rigorosi in termini di latenza, disponibilità, prestazioni e agilità, e si affidano fortemente a infrastrutture che offrono capacità di autoproduzione, autoscalabilità e autoguarigione attraverso software.

L’infrastruttura digitale è più importante che mai. Anni di trasformazione digitale hanno avuto luogo essenzialmente in pochi mesi, e la tendenza non farà che accelerare. IDC prevede che “entro la fine del 2021, sulla base delle lezioni apprese, l’80% delle imprese metterà in atto un meccanismo per passare a infrastrutture e applicazioni cloud-centriche con una velocità doppia rispetto a prima della pandemia”.

Questo rappresenta un cambiamento fondamentale nel modo in cui sono state progettate le infrastrutture tradizionali.

Le moderne infrastrutture digitali (data center, rete e hardware) dovrebbero essere completamente astratte attraverso API e orchestrate attraverso software. Questo approccio consente agli sviluppatori di applicazioni di implementare e gestire l’infrastruttura distribuita alla velocità del software, in modo da potersi concentrare su ciò che è importante per l’innovazione e la costruzione di grandi applicazioni. Tali astrazioni richiedono la costruzione di un monitoraggio in tempo reale dello stato dell’infrastruttura e lo sviluppo di interfacce programmatiche attraverso le quali è possibile definire lo stato desiderato per qualsiasi componente, o qualsiasi combinazione di componenti, end-to-end, dall’edge al multicloud.

In un contesto di questo tipo, l’implementazione e la gestione di infrastrutture distribuite si riduce alla costruzione di un sistema distribuito adattivo e a ciclo chiuso. L’unico modo in cui può essere realizzato (in modo efficace, su scala reale) è attraverso software e tecnologie aperte.

La posizione che manteniamo in materia di infrastrutture definite dal software è la seguente: tutto ciò che può essere automatizzato, deve essere automatizzato attraverso software. La capacità di virtualizzare e/o containerizzare e di astrarre i carichi di lavoro dai dispositivi fisici sottostanti ha dato origine a paradigmi mutevoli come l’“infrastructure-as-code” e a infrastrutture immutabili, permettendo un veloce dispiegamento delle risorse infrastrutturali e tempi di implementazione più rapidi, specialmente in un ambiente ibrido multicloud.

Il 2021 porterà una proliferazione e un’adozione accelerata delle tecnologie cloud-native su quasi tutti gli strati dello stack infrastrutturale, così come un’orchestrazione dell’infrastruttura digitale dall’edge al multicloud.

Il paradigma “edge-first” alimenterà l’innovazione

Secondo Nick Jones e David Cearle, illustri analisti e vicepresidenti di Gartner, “entro il 2023, oltre 50% dei dati generati dalle imprese saranno creati ed elaborati al di fuori del data center o del cloud, mentre erano meno del 10% nel 2019”. In un mondo che vive e lavora sempre più all’edge, l’informatica continua a spostarsi – a un ritmo senza precedenti – dai data center centralizzati a un’infrastruttura distribuita e interconnessa posizionata in prossimità delle fonti di creazione e consumo dei dati.

Che si tratti di servizi di videoconferenza, strumenti di collaborazione, streaming, giochi o carpooling, le applicazioni odierne sono sempre più architettate per garantire un’implementazione automatica ed elastica all’edge. Lì, grandi quantità di dati provenienti da più fonti devono essere elaborate rapidamente. L’edge è anche il luogo in cui molte applicazioni e microservizi devono interconnettersi con bassa latenza per offrire la migliore esperienza utente possibile. L’implementazione di applicazioni distribuite su più sedi e livelli infrastrutturali, dall’edge al multicloud, richiede una comprensione e una valutazione approfondita dei vincoli architettonici, tra cui la progettazione di zone di disponibilità, reti di servizi distribuiti, gestione del traffico, pipeline di dati, sicurezza, caching e gestione degli stati (architetture “stateless” o “stateful”), per citarne solo alcuni.

Inoltre, man mano che i calcoli e i dati si spostano verso l’edge, sorgeranno nuovi vincoli infrastrutturali specifici all’edge. Questi includono i requisiti di capacità e disponibilità relativi a presenza, potenza, rete, hardware di calcolo e storage, oltre alle esigenze di modularità ed estensibilità, multi-tenancy, operazioni completamente automatizzate (NoOps) e zone di disponibilità che si estendono su diversi data center. Tali vincoli, e altri ancora, dovranno essere ben compresi e contemporaneamente ottimizzati.

Nel 2021, osserveremo un continuo slancio nelle implementazioni edge-first e un’ondata di innovazioni tecnologiche in tutto lo stack di infrastrutture, che serviranno per affrontare la crescente complessità di scalare e orchestrare in modo affidabile le infrastrutture distribuite all’edge.

Il 5G sarà alimentato da un’infrastruttura all’edge posizionata in modo ottimale

Il 5G rappresenta un importante punto di inflessione tecnologica. Prevediamo che, nel corso degli anni, il 5G diventerà per il wireless ciò che la banda larga è stata per il wireline.

Il 2021 sarà l’anno in cui le imprese considereranno il 5G nella pianificazione della realizzazione della loro infrastruttura. Le capacità ad alte prestazioni del 5G richiedono un’infrastruttura fisica che si estenda in modo ottimale verso l’edge. Posizionando le applicazioni e gli ambienti IT “fissi” in prossimità dell’accesso al 5G e delle funzioni principali in data center adiacenti al cloud – riccamente interconnessi – le aziende possono sfruttare i vantaggi di questa potente tecnologia inedita. La combinazione della nuova infrastruttura digitale e dei data center macro-edge esistenti, formerà un potente modello architettonico caratterizzato da enormi quantità di dati e risorse di calcolo distribuite disponibili a latenze inferiori. Ciò consente nuovi paradigmi computazionali per nuovi casi d’uso che in precedenza non potevano trarre vantaggio da tali progressi.

Come tecnologia di rete di accesso, il 5G fornirà una copertura più ampia, una maggiore affidabilità, una più grande larghezza di banda e una migliore sicurezza. Offrirà un’esperienza sempre attiva e onnipresente, con miglioramenti significativi in termini di capacità e prestazioni, tra cui una velocità di trasmissione dati 100 volte superiore (multi-Gbps), una latenza di rete di accesso radio molto bassa (fino a 1 ms) e un’elevata densità di dispositivi. Tali capacità apriranno nuove opportunità e nuove possibilità per la robotica, i droni, i veicoli autonomi, la telemedicina e l’internet tattile, per citare solo alcuni campi di applicazione.

Realizzare il potenziale e le promesse del 5G non sarà facile. In un contesto di crescente slancio globale in favore del 5G, il successo dipenderà sempre più dalla creazione di un ricco ecosistema digitale di produttori e consumatori, così come dall’ottimizzazione della funzione multivariabile del substrato infrastrutturale sottostante, inclusi lo spettro, la rete di accesso radio, i data center all’edge, le reti di trasporto, l’hardware e l’interconnessione.

Oggi, circa l’80% della popolazione urbana/metropolitana statunitense può essere collegata ai data center Equinix entro un tempo di andata e ritorno della rete di 10 millisecondi. Questi campus di data center macro-edge sono ampiamente interconnessi con i cloud pubblici, i provider di rete, i fornitori di contenuti e le imprese, producendo un quadro che permette al traffico 5G di esplodere direttamente e localmente. Ciò consente all’ecosistema “fixed-side” di connettersi in modo efficiente alla rete 5G.

Una funzionalità 5G particolarmente interessante – che può consentire nuovi modelli di business e casi d’uso – è il network slicing, che permette agli architetti di creare e gestire l’interconnessione tra vari componenti sulla stessa rete fisica per requisiti specifici come la latenza, il throughput o la sicurezza. Le applicazioni abilitate al 5G dovranno interconnettersi a risorse che abbracciano internet, cloud pubblici o privati, e calcolare i carichi di lavoro all’edge, preferibilmente collocate in prossimità della funzione di piano utente (UPF).

I casi d’uso avanzati 5G richiederanno un cambiamento fondamentale nell’infrastruttura sottostante prima di poter scalare. Per Equinix, rendere il 5G una realtà inizia con lo sfruttamento della presenza e delle capacità dell’infrastruttura esistente, identificando e pianificando al contempo i casi d’uso futuri che possono beneficiare in modo significativo della potenziale espansione di implementazioni di infrastrutture fisiche neutre e multi-tenant più lontane all’edge. Siamo del parere che il data center e l’infrastruttura fisica per il 5G debbano essere moderni, scalabili, flessibili, interconnessi, neutri e multi-tenant.

L’IA sarà distribuita e si sposterà verso l’edge

L’IA non è certamente un concetto nuovo, ma con i progressi registrati sia nel campo del machine learning che in quello del deep learning, l’IA è pronta a trasformare praticamente ogni settore, proprio come l’elettricità fece circa un secolo fa. Secondo IDC, entro il 2022, l’80% delle organizzazioni che passeranno a un modello di business ibrido spenderanno 4 volte di più per infrastrutture edge sicure e abilitate all’IA per fornire agilità aziendale e informazioni in tempo reale.

La quantità di calcoli utilizzati nei più grandi training di IA è aumentata in modo esponenziale; infatti, raddoppia quasi ogni tre mesi e mezzo e l’efficienza algoritmica dell’IA raddoppia ogni 16 mesi. Questi valori eclissano drasticamente il periodo di raddoppio biennale della Legge di Moore. I significativi tassi di miglioramento – sia dell’hardware che dell’efficienza algoritmica – consentono di eseguire più carichi di lavoro di IA con meno hardware e meno risorse di elaborazione. Questo tasso di cambiamento aumenterà solo nel 2021 e oltre, poiché l’adozione e la pervasività dell’IA si espande in ogni settore e organizzazione.

In un tipico flusso di lavoro di IA, grandi quantità di dati vengono raccolti e pre-processati per la modellazione. I modelli di training vengono poi utilizzati per effettuare previsioni o inferenze e possono essere messi a punto in modo iterativo. I cloud pubblici sono tradizionalmente un luogo ideale per l’implementazione dell’IA, poiché gli algoritmi e i training di IA funzionano al meglio con grandi insiemi di dati e con cluster di calcolo in grado di auto-scalare. Tuttavia, per un numero crescente di casi d’uso, esiste la necessità di implementare l’IA in modo distribuito e all’edge.

In questi casi, un’ulteriore serie di requisiti rigorosi relativi alla latenza, alle prestazioni, alla privacy e alla sicurezza richiedono che alcuni dati di IA e la loro elaborazione, sia per l’inferenza che per il training, siano vicini agli utenti e alle fonti di creazione nonché di consumo dei dati.

Quando si tratta di gestire carichi di lavoro dei training di IA all’edge, ci sono considerazioni e vincoli di cui è necessario tenere conto. Questi includono la potenza, le prestazioni, la privacy dei dati, la sicurezza dei dati, la gravità e l’aggregazione dei dati, nonché la semplicità. Allo stesso modo, per l’inferenza all’edge, le considerazioni di cui tenere conto comprendono: latenza, disponibilità, risorse dei dispositivi, privacy dei dati, sicurezza e aggregazione dei dati.

Nel 2021, verrà registrato un ritmo accelerato delle implementazioni di IA all’edge sia per il training che per l’inferenza dell’IA, insieme a funzionalità “as-a-service” avanzate per l’automazione della distribuzione dell’infrastruttura e l’orchestrazione di ambienti di IA ibridi multicloud.

I data center diventeranno “grid-positive”

Con l’aggravarsi della crisi climatica globale, le organizzazioni leader stanno rivedendo gli obiettivi di sostenibilità aziendale, passando da un approccio volto semplicemente a evitare un impatto negativo ad un metodo volto alla creazione di un cambiamento positivo. Le aziende, perlomeno, stanno elaborando strategie in linea con gli obiettivi dell’Accordo di Parigi e riconoscono l’urgente necessità di decarbonizzare le economie globali.

IDC prevede che “entro il 2025, il 90% delle aziende del G2000 imporrà l’impiego di materiali riutilizzabili nelle catene di fornitura di hardware IT, obiettivi di neutralità del carbonio per le strutture dei provider e un minor consumo di energia come prerequisiti della propria attività”.1

Ad oggi, molte società di data center gestiscono il loro consumo energetico e le corrispondenti emissioni di carbonio attraverso innovazioni progettuali e misure di efficienza energetica. Diversi operatori hanno fatto un passo avanti impegnandosi a utilizzare il 100% di energia rinnovabile e a garantire la neutralità delle emissioni di carbonio, mentre alcuni si sono allineati al Green Deal dell’Unione Europea (UE) che richiede la completa neutralità delle emissioni di carbonio nei data center entro il 2030.1 Nel 2021, l’economia digitale dovrebbe continuare a espandersi e ad accelerare, ponendo i data center in una posizione chiave, consci della responsabilità di ottenere un impatto ambientale positivo.

Nel 2021, osserveremo i primi grandi progetti di data center positivi in termini di “smart grid e sostenibilità”.

Ci sono diversi modi in cui i data center possono avere un impatto positivo sull’ambiente: dalle opportunità indirette di influenzare lo sviluppo di piattaforme di hosting in grado di combinare con precisione previsioni meteorologiche, modelli di utilizzo e domanda (e capacità come la riduzione del carico), ad azioni specifiche che includono lo sfruttamento di grandi soluzioni di immagazzinamento dell’energia in loco (che forniscono fonti di energia flessibili e istantanee), o anche l’utilizzo dell’energia di scarto sotto forma di calore per spostare la domanda locale di energia.

Il passaggio dalla neutralità all’impatto positivo vedrà la necessità di sviluppare un approccio basato sulla tecnologia. Richiederà anche la costruzione di ecosistemi – sia globali che locali – di parti altamente interessate. A lungo termine, la convergenza di questa tendenza e l’emergere di applicazioni di prossima generazione che richiedono latenze di andata e ritorno ultra-basse, comporterà un cambiamento nella localizzazione dei data center. I data center di prossima generazione saranno decentralizzati e integrati nelle comunità, fungendo da ecosistemi resilienti per il calcolo, la connettività, l’energia e il calore.

Con una maggiore attenzione alla sostenibilità, si assiste a un mutamento verso standard di infrastrutture di data center aperti, dalla progettazione e dal funzionamento alla gestione dell’energia, fino alle celle a combustibile e al raffreddamento di futura generazione. Questa tendenza produrrà un acceleramento dell’innovazione dei data center e giocherà un ruolo di primaria importanza rispetto alla positività della rete, riducendo così le notevoli barriere che i provider di apparecchiature devono superare mentre sviluppano piattaforme che servano le strutture dei data center mission-critical.

Una confluenza di fattori – tra cui il progresso delle tecnologie abilitanti (in parte attraverso piattaforme hardware più aperte e una migliore interoperabilità tra i fornitori), la crescente urgenza di risolvere il problema del cambiamento climatico attraverso lo sviluppo di fonti di energia rinnovabile e l’integrazione nei mercati dell’energia all’ingrosso, le sfide associate allo storage e alle nuove piattaforme che richiedono una latenza end-to-end sempre più bassa e la necessità di portare le risorse di calcolo e di rete più vicino all’edge – daranno vita a una nuova generazione di progetti di data center “grid positive”.

Dare forma all’infrastruttura digitale per il futuro

Se da un lato speriamo che il 2021 sia più prevedibile e meno sorprendente del 2020, dall’altro è chiaro che non si può tornare indietro nel tempo. La crescita e l’accelerazione digitale sono destinate a continuare, e da questa presa di coscienza nasce la necessità per i leader digitali di far proprie le tecnologie e le tendenze che daranno alle loro organizzazioni un chiaro vantaggio. I leader aziendali e tecnologici che comprendono e abbracciano queste macro tendenze, saranno adeguatamente preparati a contribuire al nostro futuro in continua evoluzione.

Noi di Equinix guidiamo i leader digitali a riunire e interconnettere la loro infrastruttura digitale sfruttando al meglio le tecnologie trasformative in ogni strato della Platform Equinix – data center, interconnessione e metallo nudo – e li aiutiamo a farlo in modo sostenibile. Ciò include l’abilitazione di un’orchestrazione end-to-end delle funzionalità alla velocità del software, sfruttando API, strumenti open-source e tecnologie cloud-native che equipaggiano i nostri clienti per essere competitivi e all’avanguardia, sia per l’oggi che per il “domani”.

Per saperne di più riguardo a queste e altre tendenze che guidano la crescita digitale – e su come trasformarle a proprio vantaggio – scarica subito l’Indice di interconnessione globale (GXI) volume 4.

A cura di Justin Dustzadeh, Chief Technology Officer, Equinix