Quasi tre quarti dei CIO afferma che l’esplosione di dati prodotta dalle architetture cloud-native va oltre le capacità umane di gestione.

Architetture cloud-native

La software intelligence company Dynatrace ha annunciato i risultati di un’indagine globale indipendente condotta su 1.303 CIO e senior manager responsabili di cloud e IT operation in grandi organizzazioni. I risultati dimostrano che, con l’accelerazione del passaggio ad architetture cloud-native, i dati generati da questi ambienti superano la capacità delle soluzioni attuali di produrre analisi significative. I CIO hanno osservato che i propri team si affidano a soluzioni di monitoraggio e analisi dei dati multiple e differenti per gestire osservabilità e sicurezza, rendendo difficile estrarre rapidamente le risposte e indirizzare la trasformazione digitale. Il Global CIO Report 2022, “How to Tame the Data Explosion and Overcome the Complexity of the Cloud”, rivela che:

  • Il 71% dei CIO afferma che l’esplosione di dati prodotta dalle architetture cloud-native va oltre le capacità umane di gestione.
  • Oltre tre quarti (77%) dei CIO afferma che il loro ambiente IT cambia una volta ogni minuto o anche meno.
  • I CIO affermano che i loro team utilizzano in media 10 strumenti di monitoraggio per i propri stack tecnologici, ma hanno la possibilità di osservare solo il 9% del loro ambiente.
  • Il 59% dei CIO dichiara che senza un approccio più automatizzato alle IT operation, i loro team potrebbero presto essere sovraccaricati dalla crescente complessità del proprio stack tecnologico.
  • Il 64% dei CIO sostiene che è diventato più difficile attrarre e trattenere un numero sufficiente di professionisti IT ops e DevOps qualificati per gestire e mantenere uno stack cloud-native.

Le architetture multicloud e cloud-native sono fondamentali per aiutare le organizzazioni a raggiungere i loro obiettivi di trasformazione digitale”, ha dichiarato Bernd Greifeneder, Fondatore e Chief Technology Officer di Dynatrace. “Se da un lato le organizzazioni traggono vantaggio dalla flessibilità e dalla scalabilità che queste tecnologie portano, dall’altro l’esplosione di dati di osservabilità e sicurezza che producono è sempre più difficile da gestire e analizzare. Gli strumenti esistenti – e possono essere decine – conservano i dati in silos, rendendo difficile e costoso sbloccare gli insights quando le aziende ne hanno bisogno. Di conseguenza, le aziende faticano a raggiungere i più alti standard di sicurezza e di prestazioni nei loro servizi digitali”.

Ulteriori risultati dell’indagine includono:

  • Il 45% dei CIO afferma che è troppo costoso gestire il grande volume di dati di osservabilità e sicurezza utilizzando le soluzioni analitiche esistenti, quindi conserva solo i dati più critici.
  • In media, le organizzazioni catturano solo il 10% dei dati di osservabilità per successive interrogazioni e analisi.
  • Quasi due terzi (63%) dei CIO afferma che i costi e i ritardi causati dalla reindicizzazione e dalla decompressione rendono difficile sbloccare il valore derivante dalla crescente quantità di dati acquisiti.
  • Il 43% dei CIO afferma che gli attuali approcci all’acquisizione e archiviazione dei dati di osservabilità non saranno in grado di soddisfare le loro esigenze future.
  • Il 93% dei CIO afferma che AIOps e automazione sono sempre più fondamentali per mitigare la carenza di professionisti qualificati in ambito IT, sviluppo e sicurezza e per ridurre il rischio che i team si esauriscano a causa della complessità dei moderni ambienti cloud e di sviluppo.

In un mare di dati, i singoli data point sono molto più preziosi quando mantengono un contesto, ed è per questo che i team investono così tanto nel tentativo di correlare flussi diversi”, ha continuato Bernd Greifeneder. “Ma gli approcci manuali di oggi sono troppo reattivi e lenti, e perdono le informazioni più importanti. I team hanno urgentemente bisogno di un nuovo approccio all’osservabilità e all’analisi e gestione dei dati di sicurezza. Intelligenza artificiale e automazione devono essere alla base di questo approccio, che deve essere in grado di unificare tutti i dati e di mantenere intatte le loro relazioni e dipendenze. Questo consentirà alle organizzazioni di massimizzare il valore dei propri dati e delle proprie persone, riducendo il tempo dedicato a banali attività manuali e consentendo un’innovazione più rapida e sicura”.