Mentre in passato veniva considerata un’alternativa di backup ad alte prestazioni, oggi è in fase calante. Rodolfo Falcone ci offre una riflessione sul tema

tramonto

A cura di Rodolfo Falcone, Country Manager CommVault Italia

Gli analisti stimano che la quantità di dati prodotti globalmente raddoppi ogni due anni — 1,8 trilioni di gigabyte in 500 quadrilioni di file . Un’elevata percentuale di organizzazioni considera la crescita esponenziale e la crescente complessità dei dati quale una delle principali sfide da affrontare . Questi numeri hanno infatti portato a cambiamenti rivoluzionari nel mercato negli ultimi 10 anni – con incrementi nella capacità delle piattaforme storage per esempio – nati dall’esigenza di archiviare e ripristinare questi crescenti pool di dati in maniera semplice. Il dibattito sulla soluzione migliore per effettuare il backup – disco o nastro – di questa enorme quantità di dati complessi è in essere da diverso tempo, con le Virtual Tape Library ormai percepite come tecnologia obsoleta, mentre i dischi sembrano essere più affidabili.

L’evoluzione dello storage
La protezione dei dati esiste dall’alba dei tempi. La necessità di effettuare il backup dei dati è divenuta evidente non appena sono stati accesi i primi PC, e il mercato ha messo a punto un media storage a basso costo come mezzo per proteggere le copie sotto forma di nastro.

Il concetto originale di protezione si basava su una semplice relazione 1:1 tra i dati sorgente e il nastro target. Metodo efficace ed economico quando il volume di dati erano ridotto, ma l’esplosione delle informazioni ha richiesto tecnologie più innovative e performanti.

Nel tempo ne sono state sviluppate altre che includevano l’abilitazione di relazioni many to one tra i server e le infrastrutture di nastri (multi-streaming) e relazioni one to many tra server e i lettori di nastri (multiplexing).

Nonostante queste tecnologie indirizzassero i problemi legati alle finestre di backup che iniziavano a verificarsi, questi avanzamenti non offrivano un aspetto fondamentale della protezione dei dati – il ripristino in tempi rapidi.

Ecco ricomparire le VTL che, per circa 15 anni, hanno risolto questo problema consentendo all’amministratore di gestire il disco come un nastro, mantenendo la compatibilità con schemi di protezione dati legacy.

Affrontare le attuali aspettative di backup
I costi di storage primario sono diminuiti drasticamente negli ultimi anni e il mercato è alquanto affollato. Le VTL permettono ai vendor di tenere alti i margini sottolineandone il valore grazie alla funzionalità di deduplica che offrono. Mentre lo storage primario si sta muovendo verso il disc tiering – per ridurre il TCO – il marketing delle VTL suggerisce di rimuoverli dallo storage secondario (backup) e di affidarsi alla deduplica. La realtà è che le VTL rappresentano una strategia di lungo termine costosa che blinda il cliente e conviene solo allo storage vendor.

La realtà tecnica
Nonostante vi sia ancora un potenziale vantaggio tecnico con l’adozione di VTL in ambienti fibre channel per obsolete sistemi mid range, questo beneficio continuerà a diminuire a mano a mano che queste piattaforme vengono sostituite con quelle moderne open system.

Oggi, in un mondo che genera dati in maniera esponenziale, le aziende non solo devono garantire che i loro asset principali siano protetti con efficaci policy di data management, ma devono anche essere in grado di ripristinare qualunque dato in modo semplice e rapido. Questo significa avvalersi di una combinazione di capacità di snapshot SAN e backup block level su disco primari. L’era dei big data è arrivata ed è ora di mandare in pensione le vecchie VTL.