Ipswitch analizza i trend che queste figure devono affrontare nei moderni data center

Data center

Le sfide che i professionisti IT devono affrontare nei moderni data center virtualizzati saranno sempre più gravose poiché coinvolgono l’elemento umano e non riguardano solo la tecnologia. Di seguito, Ipswitch analizza i 10 trend che influenzeranno l’operato dei professionisti IT nel prossimo futuro.

1.      Dov’è veramente il collo di bottiglia?

Sono assai pochi gli strumenti in grado di fornire visibilità completa su un sistema, dal punto di vista dell’utente finale fino ai sistemi di back end che offrono il servizio. Il problema fondamentale con il monitoraggio nei silo è che è possibile vedere solo i problemi ai margini dello stack. Il problema spesso si nasconde più in profondità, gli amministratori dei server contro gli amministratori di rete, in un gioco di accuse reciproche. Stiamo ancora aspettando uno strumento in grado di monitorare tutto, dal punto di vista dell’utente finale fino all’ultima rotella di un hard disk all’interno di una risorsa di storage.

2.      SDDC (Software Defined Data Centre) in tutte le sue forme

Il VMworld di San Francisco quest’anno è stato interamente dedicato al networking software-defined. La virtualizzazione non è un fenomeno passeggero e offre molti vantaggi in termini di riduzione dei costi, maggiore flessibilità nel deployment e re-deployment, opzioni di disaster recovery e, globalmente, continuità dei servizi IT. Tutte le aziende virtualizzeranno prima o poi, non c’è dubbio. L’intero concetto di SDDC ha molti player sul mercato e la battaglia è appena iniziata

3.      Lo storage resta indietro rispetto alla mobilità virtuale e alle reti software-defined

Esattamente come la mobilità virtuale può avere un impatto sulle reti, se sia i computer sia le reti divengono più flessibili e “software-defined”, lo storage rischia di rimanere indietro. Saranno necessari un’attenta pianificazione e investimenti tecnologici nello storage per garantire che i sistemi possano gestire la mobilità resa possibile dalla virtualizzazione dei server e dal networking software-defined.

4.      L’I/O (Input/Output) virtuale diventa mission critical

Per quanto riguarda lo storage, l’I/O è stato un fattore limitante per la virtualizzazione di molte applicazioni ad alta intensità di I/O, come ad esempio i database. Eventuali problemi a livello della gestione di performance e capacità avranno un impatto ancora maggiore sull’organizzazione e sull’utente finale. Inoltre, la richiesta di IOPS (Input/Output per secondo), determinata dalla virtualizzazione desktop, potrà essere significativamente diversa da quella creata dalla virtualizzazione server, e richiederà hardware a più bassa latenza e generalmente più costoso.

5.      L’impatto della Virtual Mobility sull’ottimizzazione della rete

La virtualizzazione ha finora tipicamente interessato solo una porzione della rete, con la conseguenza che cambiamenti nell’ambiente di virtualizzazione non hanno generalmente impatto sulla rete in senso lato. Con il miglioramento e la maggiore adozione delle tecnologie di workload mobility, che rendono più semplice lo spostamento dei carichi geograficamente, il rapido spostamento di tali carichi può determinare nuovi tipi di problemi a carico della rete aziendale.

6.      Complessità del sistema e ruolo dell’IT

Il team IT manca spesso di personale ed è troppo impegnato a far funzionare tutto il sistema per avere tempo di fare cross training, che rappresenta una protezione per l’azienda, ma spesso non è la realtà all’interno della divisione IT. La situazione non è cambiata molto negli ultimi anni e probabilmente non cambierà in un prossimo futuro.

7.      Sempre operativi

Il 99,999% di uptime, significa 5,26 minuti di fermo all’anno. Poche persone si rendono conto che cosa avvenga oltre quella presa nel muro per permettere loro di postare su Facebook o su Pinterest. Ci siamo abituati a una rete “sempre disponibile”, come l’elettricità. E’ lo staff IT che si fa carico di questa disponibilità totale e continua a vivere con ansia il downtime. Non sono gli upgrade il problema, ma i problemi che sempre compaiono quando gli utenti iniziano a lavorare con gli upgrade.

8.      L’inafferrabile singola console per la gestione IT

Questo concetto è  in circolazione da anni. In realtà, nessuno ce l’ha e probabilmente non ce l’avremo almeno fino a quando qualcuno non inventerà qualcosa capace di rendere le nostre vite più semplici. Ci saranno sempre altri strumenti per eseguire specifiche operazioni durante la giornata a causa di specifiche tecnologie o specifici hardware, ma è necessario trovare, in base al ruolo nell’IT, una console capace di fare il lavoro pesante.

9.      Il controllo applicativo incontra l’automazione in real time

Molti guasti sono causati da qualcosa che sta cambiando. Di conseguenza, i team applicativi hanno sempre esercitato un controllo molto stretto sui cambiamenti ai sistemi applicativi mission critical. La virtualizzazione e l’automazione, d’altro canto, rendono più semplice e rapida la creazione di nuovi sistemi o le modifiche a quelli esistenti, ma anche la creazione di interi cluster di sistemi e di stack applicativi. Queste due culture dovranno trovare il modo di sfruttare la potenza e la flessibilità della virtualizzazione senza introdurre instabilità nelle applicazioni critiche virtualizzate. 

10.  Lo staff IT dedicato alla virtualizzazione deve agire come collante per gli altri team

Rete, storage, applicazioni tutti convergono al livello della virtualizzazione. Mentre la virtualizzazione dei server è di gran lunga la componente più matura di un data center software defined, la prossima sfida consisterà nel guardare oltre i confini dell’elaborazione per capire come gestire e coordinare al meglio cambiamenti e azioni con altre aree tecnologiche. Aumentando la velocità del cambiamento in tutte le tecnologie tra loro collegate, i professionisti IT che gestiscono il livello della virtualizzazione dovranno sempre di più essere il collante che mantiene tutti gli altri team allineati.