
Quali sono le implicazioni di una data quality non affidabile nell’era dell’intelligenza artificiale (IA) e della data-driven economy?
È da questa domanda che prende avvio la riflessione di Michele Crescenzi, Head of Data & AI di Kirey, nell’articolo che condividiamo di seguito.
L’autore evidenzia come gli effetti di una scarsa qualità dei dati non siano sempre immediati, ma si manifestino nel tempo sotto forma di errori, inefficienze e una customer experience non all’altezza, con impatti significativi sulle performance aziendali.
Dal monitoraggio automatico all’intelligenza umana, ecco come preparare la propria azienda a liberare il vero potenziale dell’IA attraverso la data quality.
Buona lettura!
Data Quality by Design: il segreto per un futuro data-driven e AI-ready
Quali sono le implicazioni di una data quality non affidabile nell’era dell’IA e della data-driven economy? Spesso, gli effetti non sono immediatamente visibili, ma nel tempo si traducono in errori, inefficienze e una customer experience non all’altezza, influenzando in modo significativo le performance aziendali.
Già nel 2021, Gartner stimava che un approccio farraginoso alla qualità dei dati potesse condurre a un costo (medio) di 12,9 milioni di dollari all’anno per singola azienda. Oggi, mentre le applicazioni di intelligenza artificiale si diffondono rapidamente in ambiti sempre più eterogenei, una gestione superficiale della dimensione qualitativa dei dati può compromettere e condannare al fallimento qualsiasi progetto di IA.
A causa dell’enorme volume di dati richiesti, errori relativamente piccoli nei dataset di addestramento possono portare a errori su larga scala nell’output del sistema. Anche per questo, come rilevato da Boston Consulting Group, nonostante l’ampia diffusione dei programmi di intelligenza artificiale in tutti i settori industriali, solo il 26% delle aziende ha sviluppato le competenze necessarie per andare oltre la fase di prova e generare valore tangibile.
La sfida che oggi le imprese devono affrontare è quella di garantire che i dati siano realmente AI-ready, in grado di sostenere use case sempre più complessi e strategici e di rispondere, quindi, a un approccio evoluto alla data quality. Quest’ultimo, in particolare, dovrà fondarsi su tre pilastri fondamentali.
1. Non guardare ai sintomi, ma alle cause: la qualità dei dati deve essere by design
Concettualmente, quando si parla di data quality le organizzazioni tendono ad adottare un approccio che si concentra sui sintomi piuttosto che sulle cause.
La data quality viene spesso affrontata ex post, ovvero dopo che i dati sono stati raccolti, elaborati e utilizzati, quando, invece, dovrebbe essere parte integrante della progettazione dei sistemi IT fin dalle fasi iniziali. Solo in questo modo è possibile garantire che i dati siano coerenti, completi e precisi in ogni fase del ciclo di vita, evitando costosi interventi successivi.
È necessario assicurare la correttezza dei dati sin dall’inizio. Questo significa che, nelle organizzazioni che tradizionalmente hanno gruppi separati di creatori e consumatori di dati, le persone devono arrivare a considerarsi sia creatori che consumatori.
In quest’ottica sarà pertanto fondamentale implementare processi di data governance che definiscono responsabilità, procedure e policy, chi può compiere determinate azioni e in quali condizioni, garantendo accuratezza, integrità, coerenza, accessibilità, riservatezza, conservazione e sicurezza delle informazioni aziendali.
Parallelamente, da un punto di vista più tecnologico, sarà anche necessario ragionare nell’ottica della migliore data architecture possibile, che prepari il terreno per governance, strumenti di qualità e analisi, riducendo la complessità a valle.
Ancora prima, si dovrà però considerare l’idoneità dei dati rispetto al loro scopo.
2. Scegliere la qualità che abilita il risultato
In contesti ampi e distribuiti non è per nulla immediato valutare la qualità dei propri dati.
Completezza, accuratezza, consistenza, aggiornamento e conformità sono tutte dimensioni che concorrono alla data quality, ma non tutte sono ugualmente rilevanti in ogni contesto, e bisogna fare delle scelte senza compromettere tempi e budget.
In altre parole, la data quality deve essere “fit for purpose”, e non necessariamente assoluta. Senza una definizione condivisa di cosa significhi “buona qualità”, le soluzioni tecniche rischiano di risultare sempre insufficienti. Proprio per questo, la data quality è prima di tutto una questione di collaborazione e chiarezza nelle responsabilità, che richiede di definire le aspettative in materia di struttura, semantica e qualità dei dati e oltrepassare il data literacy gap che intercorre tra team IT e di business, adottando una prospettiva orientata agli stakeholder del dato.
Solo dopo aver definito questi aspetti sarà possibile identificare i KPI con cui misurare effettivamente la qualità del dato, attraverso il processo di data profiling.
3. L’AI come leva per innalzare la data quality e renderla augmented
La data quality comprende pratiche quali la profilazione, la pulizia, la convalida, il monitoraggio della qualità dei dati e la gestione dei metadati. Questi processi non solo favoriscono l’efficacia dell’IA, ma sono anche oggetto di innovazione proprio grazie all’intelligenza artificiale e al machine learning.
Dal monitoraggio automatico delle anomalie all’arricchimento e all’analisi degli impatti, queste tecnologie riducono l’intervento umano e intercettano criticità spesso invisibili. I nuovi strumenti basati sull’AI sono in grado di rilevare e correggere automaticamente gli errori, prevedere problemi e suggerire soluzioni in tempo reale, monitorando grandi flussi di dati senza interruzioni. Inoltre, automatizzano la tracciabilità delle modifiche, accelerando le indagini sulle cause e riducendo i rischi normativi. L’AI trasforma così la gestione della qualità dei dati rendendola augmented: da ostacolo a servizio strategico, scalabile e trasparente per le aziende.
Tuttavia, come visto poco fa, non bisogna mai dimenticare che garantire la data quality va oltre la semplice automazione.
La sfida alla base della data quality resta umana e affonda le radici in problemi organizzativi e di processo che si risolvono quando i leader d’impresa iniziano a collaborare per migliorare la qualità dei dati all’interno delle proprie sfere d’influenza.
Come? In primis identificando le persone in grado di comprendere la problematica e di mettere a disposizione l’expertise necessaria per superarla, nelle modalità viste precedentemente, e in secondo luogo fornendo supporto a tutti gli stakeholder del dato attraverso formazione utile a creare data literacy e una comunicazione chiara sulle responsabilità di ciascuno in quanto user e creator.
Solo a partire da queste condizioni il patrimonio documentale può trasformarsi in un asset data-driven, permettendo all’AI di tradurre la qualità dei dati in valore misurabile per l’azienda.
di Michele Crescenzi, Head of Data & AI di Kirey
































































