Cinque sono le aree chiave: visibilità, immediatezza, accuratezza, scalabilità, consapevolezza

Trasformazione della rete: l'importanza dei servizi professionali

Una mappa è uno strumento utile. Può aiutarci a capire dove siamo, dove potremmo arrivare e come giungere a destinazione. Il tutto è comunque vincolato dalla nostra praticità a girare il mondo. La Mappa Mundi di Hereford dipinta su un singolo foglio, era certamente uno strumento all’avanguardia nel periodo medioevale e riproduceva immagini di aree geografiche, episodi di storia cristiana e miti Greco-Romani. Se pensiamo però alle immagini che oggi ci arrivano dai satelliti, a Google Earth e alle mappe 3D disponibili sullo smartphone, la mappa risulta alquanto anacronistica.

Per i responsabili informatici, oggi la visibilità delle risorse IT può dimostrarsi altrettanto critica. Quando tutti i dispositivi IT erano distribuiti attraverso un’unica rete aziendale e gestiti da un singolo data center, avere il quadro generale di tutti questi elementi da un unico punto era semplice. La diffusione di risorse in cloud combinata con l’elevata mobilità degli endpoint ha reso inutile quello che un tempo era efficace. Tutto ciò che non permette una visibilità dinamica e globale del panorama IT diventa inefficace per la gestione delle risorse.

Visualizzazione dell’IT nel contesto on-premise

Per i data center e le reti tradizionali, serve ottenere visibilità sull’intero volume delle risorse IT coinvolte. In passato, il rapporto di ogni responsabile Enterprise era 1 ogni 1.000 dispositivi gestiti, mentre oggi deve coordinare almeno 10.000 dispositivi, un numero destinato ad attestarsi oltre i 100.000 apparati, vista la crescita esplosiva prevista con l’IoT. In questa situazione, la visibilità è indispensabile per tutti i server, i client e i dispositivi di rete e di sicurezza. A complicare ulteriormente il quadro l’informazione che queste nuove genie di apparati funzionano su piattaforme diverse, ognuna con il proprio sistema operativo ed i relativi aggiornamenti. Parallelamente, la virtualizzazione rimane uno standard di fatto nella maggior parte dei data center, perché offre maggiore agilità e flessibilità nella creazione di istanze di nuovi server e assicura la miglior risposta alle esigenze aziendali. Inoltre, la virtualizzazione può essere estesa anche ai desktop, rendendo i client disponibili per un accesso rapido.

Ottenere una visibilità centralizzata dinamica è sfidante, gestire tutti gli asset che compongono tale panorama lo è ancora di più. Ma ottenere una visibilità continua e globale su un numero eterogeneo e in rapida crescita di dispositivi e risorse è estremamente importante. Proprio come una mappa è un requisito per tanti compiti, come ad esempio navigare dal punto A al punto B oppure per delineare territori, la visibilità diventa una capacità fondamentale per molteplici processi ed iniziative IT.

La visibilità facilita la vera comprensione del rischio, favorisce l’efficienza e la riduzione dei costi e garantisce compliance. In effetti, la maggior parte dei framework di sicurezza e compliance richiedono un inventario completo e aggiornato come primo requisito.

Ogni piattaforma ha bisogno di evitare vulnerabilità e problemi di sviluppo nel tempo degli apparati. Ciò implica la comprensione dei processi che devono mantenere costantemente aggiornati ogni set di risorse. Contestualmente, le mappe delle piattaforme devono fornire dettagli su indicazioni stradali e satelliti, mentre sono necessari nuovi dettagli legati ai dati di business o informazioni sulle trasmissioni dei dati, per riflettere un mondo in costante cambiamento.

Allo stesso modo, gli elenchi degli apparati IT di oggi devono tenere il passo con la continua e rapida evoluzione dell’ambiente digitale. Ad esempio, come si identifica un software a fine vita o che non viene più commercializzato? Analogamente, come si fa a sapere se le installazioni software sono state disattivate perché erano troppo vulnerabili e sono state rimosse da alcuni apparati? Come privilegiare le attività di remediation in base alla reale esposizione sfruttabile della superficie vulnerabile? Infine, quanto tempo è necessario per rendersi conto della situazione?

Tutte queste domande possono essere abbinate ad ogni risorsa implementata – dai desktop e altri dispositivi, fino ai server e alle macchine virtuali – perché ognuna di queste avrà il proprio modello di implementazione ed un set di immagini standard che richiederanno gestione e aggiornamento con le nuove release. Questi dispositivi dovranno poi essere esaminati per valutare nuovi problemi o variazioni nel tempo e servirà raggruppare tutti i dettagli per rendere il processo il più semplice possibile.

Cloud, container e contesto

Tuttavia, proprio come le mappe che devono cambiare in base a nuovi modi di impostare o gestire i dati, anche il modello IT si sta evolvendo rapidamente. Quest’anno, IDC ha riferito che gli investimenti nell’infrastruttura cloud ha superato per la prima volta quello dell’hardware IT tradizionale, segnalando che nel terzo trimestre 2018 i ricavi dei fornitori di prodotti IT in cloud hanno superato le vendite degli ambienti IT tradizionali, un comparto che solo un anno fa pesava per il 43,6% sul fatturato globale.

L’adozione del cloud è una sottile espansione del modo in cui oggi le aziende si stanno avvicinando ad un’infrastruttura potente, flessibile e disponibile su richiesta. Non si può tuttavia semplicemente pensare di trasferire l’approccio tradizionale di gestione del computing nel cloud e sperare che tutto vada bene. Anche solo lo spostamento di applicazioni esistenti nel cloud comporterà l’utilizzo di alcune piattaforme differenti e nuovi strumenti implementati per gestire i nuovi servizi.

Oltre alle più semplici implementazioni “Lift and Shift”, ci saranno nuove applicazioni basate sul cloud che sfruttano i nuovi servizi. Le applicazioni sono spesso distribuite in base ai microservizi; ciò implica lo smontaggio delle applicazioni tradizionali nei loro componenti fondamentali: storage, logica dell’applicazione, funzioni, networking, logica di bilanciamento del carico, database, gestione identità e accesso e così via.

Ciascuno di questi elementi dovrà essere gestito e mantenuto aggiornato. Oltre a questa visibilità, ci sono altre domande che richiedono un’adeguata risposta. Ad esempio, come si può sapere dove e quando verranno eseguite le nuove istanze? Come gestire la loro sicurezza e come si possono integrare questi apparati nel modello esistente? Mentre l’IT on-premise potrebbe essere mappato tramite l’implementazione di agenti tradizionali e la scansione passiva della rete su base regolare per tenere traccia delle modifiche, queste tecniche devono evolversi per tenere il passo con le implementazioni di cloud computing che possono cambiare con maggiore frequenza.

Accanto al cloud, c’è un altro approccio che diventa più popolare per le nuove implementazioni, parliamo dello sviluppo via container che prevede l’utilizzo di software altamente specializzati e confezionati per funzione, che vengono poi assemblati con tutti gli altri elementi necessari all’applicazione finale. Piuttosto che includere sistemi operativi completi, i container prevedono solo quanto è indispensabile per rendere eseguibile la singola applicazione e nulla di più. Limitando il container, si rende l’applicazione più piccola ed efficiente, pur ricordando che la possibilità di eseguire più container insieme, consente la massima scalabilità delle applicazioni, quando necessario.

I container possono soddisfare le esigenze aziendali di agilità, maggiore flessibilità e potenza. Ma contribuiscono a diminuire la visibilità di quanto viene distribuito.

Ad esempio, la capacità di rispondere rapidamente a picchi di domanda può aiutare enormemente quando si hanno molti clienti che utilizzano le applicazioni nello stesso momento.

Per contro, questa tipologia di infrastruttura può essere difficile da tracciare e tenere sotto controllo. Le immagini devono essere aggiornate e tutte le correzioni gestite nel tempo.

Il tracciamento diventa anche parecchio problematico, considerando che le istanze sono temporanee, effimere e legate essenzialmente al picco di domanda del momento.

Per le implementazioni di servizi cloud e container in esecuzione continua, fornire informazioni di gestione sulle installazioni è un processo costante e continuativo.

Raccogliendo dati sulle attività in esecuzione in ogni momento, il team IT può mantenere sotto controllo ogni risorsa e capire se sia aggiornata. E questo tipo di dati deve essere unito a a quelli sugli endpoint tradizionali ed a quelli delle risorse IT on-premise, producendo un quadro completo e aggiornato di tutti gli apparati IT in uso. In questo modo si ottiene il contesto per gestire ogni eventuale problema e soprattutto si possono definire le tempistiche degli aggiornamenti sulla base dell’impatto degli strumenti IT sulle priorità di business.

Gestire l’IT nell’era del cloud

Per riuscire a mappare l’IT in questa era distribuita, è importante esaminare cinque aree chiave:

  • Visibilità: sei in grado di controllare l’ambiente architetturale IT completo, ottenendo i dati sulle applicazioni in esecuzione, includendo sede, cloud e data center?
  • Immediatezza: oltre a sapere cosa è in esecuzione, riesci ad avere l’aggiornamento in tempo reale?
  • Accuratezza: sei in grado di ottenere i dati normalizzati con la certezza di quanto è realmente installato? Con che livello di accuratezza?
  • Scalabilità: riesci a rispondere alle esigenze dei diversi ambienti, rispettando le continue richieste di crescita e contrazione di ambienti fisici, geografici e informatici?
  • Consapevolezza: puoi monitorare i dati in tempo reale e capire cosa sta succedendo nel panorama digitale? Ancora più importante, puoi modificare le tue priorità e i tuoi requisiti per rispondere in modo appropriato ai problemi più urgenti?

Focalizzandosi su queste cinque priorità, è possibile migliorare la gestione delle risorse IT nel tempo, indipendentemente dalle piattaforme distribuite o dalle modifiche in corso. Ottenendo questi dati accurati, puoi migliorare il tuo approccio a qualsiasi nuova sfida in materia di sicurezza, compliance o rischio.

La mappatura degli apparati IT si basa su dati accurati e di buona qualità che devono essere aggiornati continuamente. Centralizzare questi dati in un unico luogo è essenziale se si vuole essere in grado di intraprendere la strada giusta in futuro.

A cura di Marco Rottigni, Chief Technical Security Officer EMEA di Qualys