Anche se sono ormai molti gli aspetti dell’edge computing che non rappresentano più una novità, il quadro generale continua a evolvere in modo rapido.
E, sebbene in alcune implementazioni di edge computing siano rinvenibili echi di vecchie architetture, lo sviluppo di tendenze edge veramente innovative è tangibile, e supporta le aziende di tutti i settori dal telco all’automotive.
Come sta evolvendo l’edge computing
Gli esperti Red Hat hanno identificato alcune tendenze su cui i leader IT dovrebbero concentrarsi nel 2022:
1. I workload edge sono in aumento
La grande rivoluzione a cui stiamo assistendo è l’aumento delle attività di calcolo e storage in periferia. In passato i sistemi decentralizzati esistevano più per ridurre la dipendenza dai collegamenti di rete che per eseguire task. Ma questo sta cambiando.
L’IoT, per definizione, ha sempre comportato almeno la raccolta di dati, ma questi ultimi sono in costante e rapida crescita poiché le informazioni necessarie per le applicazioni di machine learning (ML) arrivano da una moltitudine di sensori e, anche se i modelli di ML vengono spesso sviluppati nel data center, la loro applicazione avviene alla periferia della rete, riducendo i requisiti di banda e accelerando il task, come lo spegnimento di una macchina in caso di letture anomale dei sensori, e fornendo insight e possibilità di intervento in tempo reale.
2. RISC-V guadagna terreno
I workload, che sono sia data-intensive sia compute-intensive, hanno bisogno di hardware su cui essere eseguiti. Le specifiche variano a seconda dell’applicazione e dei compromessi richiesti tra prestazioni, potenza e costi, e tradizionalmente la scelta è caduta su qualcosa di personalizzato come ARM o x86. Nessuna delle due architetture è però completamente aperta, anche se ARM e x86 hanno sviluppato nel tempo un esteso ecosistema di hardware e software di supporto. Ma RISC-V è una nuova e intrigante architettura aperta. Il motivo lo spiega bene Yan Fisher, Red Hat Global Emerging Technology Evangelist: “L’unicità di RISC-V è che il suo processo di progettazione e specifiche sono realmente aperte. Il design riflette le decisioni della comunità, basate sull’esperienza collettiva e la ricerca”.
Questo approccio aperto, nonché accompagnato da un ecosistema attivo, sta già aiutando a introdurre il design RISC-V in una vasta gamma di settori.
3. I Virtual Radio Access Network (vRAN) diventano un caso d’uso sempre più importante
Un radio access network è responsabile dell’abilitazione e della connessione di dispositivi come gli smartphone o i dispositivi internet delle cose (IoT) a una rete mobile. I carrier, come parte delle implementazioni 5G, stanno passando a un approccio vRAN più flessibile in cui i componenti logici di alto livello della RAN vengono disaggregati disaccoppiando hardware e software, oltre a utilizzare la tecnologia cloud per l’implementazione e lo scaling automatici e il posizionamento del workload.
Hanen Garcia, Red Hat Telco Solutions Manager, e Ishu Verma, Red Hat Emerging Technology Evangelist, notano che, secondo uno studio, “l’implementazione di soluzioni RAN virtuali (vRAN)/Open RAN (oRAN) assicura fino al 44% di risparmi sul TCO rispetto alle tradizionali configurazioni RAN distribuite/centralizzate”, aggiungendo: “Attraverso questa modernizzazione, i communication service provider (CSP) possono semplificare le operazioni di rete e migliorare flessibilità, disponibilità ed efficienza, il tutto mentre abilitano un numero crescente di casi d’uso. Le soluzioni RAN cloud-native basate su container forniscono così costi più bassi, maggiore facilità di aggiornamento e modifica e capacità di scalare orizzontalmente evitando il vendor lock-in”.
4. La scalabilità spinge gli approcci operativi
Molti aspetti di un’architettura edge computing possono essere diversi da quelle implementate tra “le mura” di un data center: i dispositivi e i computer possono dover fare i conti con una scarsa sicurezza fisica e con la totale assenza di staff IT in loco, la connettività di rete può essere inaffidabile, larghezza di banda e basse latenze non sono scontate e ancora, molte delle sfide più pressanti riguardano la scalabilità perché ci possono essere migliaia (o più) di endpoint di rete.
Kris Murphy, Senior Principal Software Engineer di Red Hat, identifica quattro passi principali per affrontare la scalabilità: “Standardizzare, ridurre al minimo la ‘superficie’ operativa, utilizzare dove possibile un approccio pull rispetto al push, e automatizzare le piccole cose”.
Per esempio, raccomanda di fare aggiornamenti transazionali, cioè atomici, di modo che un sistema non possa risultare solo parzialmente aggiornato e quindi finire in uno stato mal definito, inoltre – durante l’aggiornamento -, evidenzia come buona pratica che siano gli endpoint a fare pull sugli update perché “la connettività in uscita, probabilmente, è più disponibile”. Infine, si dovrebbe anche fare attenzione a limitare i picchi di carico, evitando di svolgere tutti gli aggiornamenti allo stesso tempo.
5. L’edge computing ha bisogno di verifica
Data la ristrettezza di risorse presenti nell’edge, le funzionalità che richiedono un esiguo numero di risorse locali sono le opzioni più pragmatiche da considerare e, ancora una volta, qualsiasi approccio deve essere altamente scalabile, altrimenti gli usi e i benefici diventano estremamente limitati. In quest’ottica, un’opzione che spicca è il progetto Keylime, descritto da Ben Fischer, Red Hat Emerging Technology Evangelist, come una serie di “tecnologie che possono verificare che i dispositivi informatici si avviino e rimangano in uno stato di funzionamento affidabile su scala, e che pertanto dovrebbero essere considerate per un’ampia distribuzione, specialmente in ambienti con risorse limitate”.
Keylime fornisce l’avvio remoto e l’attestazione runtime utilizzando l’Integrity Measurement Architecture (IMA) e sfrutta i Trusted Platform Module (TPM) comuni alla maggior parte delle schede madri di laptop, desktop e server. Se non è disponibile un TPM hardware, è possibile caricare un TPM virtuale, o vTPM, per fornire la funzionalità TPM richiesta. L’attestazione di avvio ed esecuzione è un mezzo per verificare che il dispositivo periferico si avvii in uno stato di fiducia noto e mantenga tale stato durante l’esecuzione. In altre parole, se accade qualcosa di inaspettato, come un processo malevolo, lo stato previsto cambia portando il dispositivo edge offline, per essere poi indagato, ripulito e rimesso nuovamente in servizio.
6. La crescente importanza del confidential computing
Quando si parla di edge computing, la security richiede una preparazione estesa. La disponibilità di risorse, come la connettività di rete, l’elettricità, il personale, le attrezzature e le funzionalità variano, ma sono certamente molte meno di quelle disponibili in un data center e tale limitazione mina le capacità di garantire disponibilità e sicurezza. In questo campo, oltre a crittografare lo storage locale e le connessioni ai sistemi centrali, il confidential computing offre la possibilità di cifrare i dati mentre vengono utilizzati dal dispositivo edge, proteggendo sia i dati che il software che li elabora.
Ben Fischer sostiene che “il confidential computing su device edge computing diventerà una tecnologia di sicurezza fondamentale, proprio a causa delle limitate risorse dell’edge”. Secondo il report del Confidential Computing Consortium (CCC) del gruppo Everest, Confidential Computing – The Next Frontier in Data Security, “il confidential computing in una rete edge distribuita può anche aiutare a realizzare nuove efficienze senza intaccare i dati o la privacy IP, costruendo una base sicura per scalare l’analisi edge senza compromettere la sicurezza dei dati”. Inoltre, il confidential computing “assicura che solo i comandi e il codice autorizzati siano eseguiti dai dispositivi edge e IOT. L’uso dell’informatica confidenziale nei dispositivi IOT ed edge e nel back end aiuta così a controllare le infrastrutture critiche impedendo la manomissione del codice dei dati che vengono comunicati attraverso le interfacce”.
Tra le applicazioni di confidential computing nell’edge possiamo includere i veicoli autonomi, e in generale la raccolta di informazioni sensibili.
Settori differenti richiedono applicazioni diverse
La diversità di queste tendenze edge computing riflette sia la differenziazione che la scala dei workload. Ci sono alcuni trend comuni come le impronte fisiche multiple, l’uso di tecnologie cloud-native e container, il machine learning, anche se le applicazioni spesso differiscono da settore a settore. Eppure, qualsiasi ambito si guardi, nel 2022 l’edge sarà capace di riservare delle sorprese.