La gestione di asset di dati distribuiti su più cloud sta introducendo nuovi requisiti di data governance, ed è utile e istruttivo avere da parte del TM Forum indicazioni che possano aiutare a orientarsi tra le modifiche.
Cosa c’è di nuovo nella Data Governance per le telco?
In passato, con il termine infrastruttura si indicava semplicemente un’infrastruttura. Che provenisse da un fornitore o da un altro, da un data center o da un altro, e anche nel caso fosse virtuale si trattava semplicemente un insieme di risorse con caratteristiche prestazionali generalmente omogenee. Quando si avvertiva la necessità di maggiori risorse, l’infrastruttura veniva aggiornata o integrata. Oggi, invece, le sue caratteristiche non sono più solo legate alle prestazioni: quando valutano le diverse opzioni infrastrutturali per i differenti carichi di lavoro, le telco devono occuparsi anche di giurisdizione dei dati, profili di costo ed ecosistemi applicativi
Inoltre, è ormai chiaro che per la progettazione dei carichi di lavoro non si considera più un’infrastruttura statica: per una migliore gestione futura è essenziale considerare la portabilità, in modo che i carichi di lavoro possano essere ritrasferiti tra cloud pubblici, da un cloud pubblico al data center, o addirittura spinti verso il cloud pubblico da macchine on-premise ormai obsolete. Si tratta di opzioni che consentono maggiore controllo sulle trattative in sede di rinnovo dei contratti per cloud e data center, oltre che massima flessibilità nell’implementazione degli asset vicino alle applicazioni e ad altri componenti dell’ecosistema dati. Poiché le norme di conformità cambiano nel tempo, nuovi requisiti possono influenzare la scelta dell’infrastruttura: ad esempio, può essere necessario che informazioni di identificazione personale (PII) o dati governativi debbano rimanere nel Paese.
La gestione dei rapporti con i vendor diventerà sempre più impegnativa nel corso del tempo, poiché i fornitori di servizi di telecomunicazione dipendono sempre più dagli investimenti OpEx su data capacity e AI. La negoziazione di contratti a lungo termine per l’attuale fase di migrazione in cui si trova la maggior parte dei service provider (dall’infrastruttura on-premise al cloud pubblico) si è rivelata difficile e costosa. La creazione di un portfolio di fornitori a medio e lungo termine richiederà la capacità di gestire le preziose risorse di dati in più ambienti cloud – e on-premise – per mantenere il controllo su di essi ed evitare il lock-in.
Il ruolo dei Data Fabric
La progettazione del Data Fabric deve tenere conto di requisiti mutevoli e dinamici per l’infrastruttura dei carichi di lavoro. Alle caratteristiche della stessa (ubicazione, costo, prestazioni) si devono aggiungere profili specifici dei carichi di lavoro, compresi controlli degli accessi e la collaborazione, funzioni di ottimizzazione (ad esempio per il machine learning) e altre policy aziendali. Con la crescita rapida e costante dei volumi di dati nelle telco dovuta alla diffusione di 5G e IoT, è giunto il momento di modernizzarne l’architettura.
Questo però comporta la necessità che le principali funzionalità di gestione dati in tema di responsabilità e verificabilità, ma anche esigenze emergenti, come la AI Explainability, siano implementate e disponibili in tutto il data portfolio. I carichi di lavoro dei dati devono avere un accesso costante a funzionalità quali masking e lineage, indipendentemente dall’infrastruttura su cui il carico di lavoro viene eseguito. Questo non significa però che debbano essere agnostici rispetto all’infrastruttura; come già detto in precedenza, le sue caratteristiche (pubblica/on-premise; locale/remota, ecc.) possono influenzare l’adeguatezza del carico di lavoro. Un Data Fabric integrato dovrebbe inoltre ridurre al minimo la possibilità di una ridondanza dei dati e, laddove fosse necessaria, dovrebbe essere in grado di tenerne traccia.
Con i dati che diventano sempre più centrali nel business delle telecomunicazioni, in particolare in ambito B2B, un approccio data mesh può contribuire ad accelerare la trasformazione. La sua adozione – che dipende da un Data Fabric aperto e onnicomprensivo – vede i dati come prodotti, coinvolgendo l’azienda nella progettazione di nuove offerte dati che possono essere gestite sotto forma di prodotto e monetizzate, contribuendo direttamente al successo dell’impresa.
di Andrea Fantini, Responsabile Commerciale Mercato Telco – Italia&Grecia di Cloudera