L’unico vero problema della data quality è che molte aziende continuano a considerarla secondaria. Eppure, è la base di qualsiasi decisione strategica, processo data-driven o progetto innovativo basato sull’intelligenza artificiale. Talvolta, le conseguenze non si vedono subito, ma si pagano comunque nel corso tempo, e a caro prezzo: errori nelle analisi, inefficienze operative, customer experience incoerenti portano a un costo (medio) di 12,9 milioni di dollari all’anno per singola azienda (Gartner). Un costo nascosto, ma molto reale.
Data quality, un requisito tecnico e culturale
Se la qualità dei dati è così centrale per la competitività d’impresa nell’era data-driven, perché tante organizzazioni continuano a pagare (inconsapevolmente) il prezzo di errori e decisioni sbagliate? La risposta sta in un mix di fattori tecnici e culturali; nel 2025, la consapevolezza dell’importanza della data quality c’è, ma troppo spesso non è accompagnata da una reale capacità di affrontare il problema in modo strutturato, trasversale e continuo. Le cause sono molteplici, per cui riportiamo solo le più comuni.
I silos generano incoerenze
La frammentazione dei dati tra reparti, team, piattaforme e sedi geografiche, ognuna con le sue esigenze peculiari e – soprattutto – con le sue regole genera sovrapposizioni, lacune e incoerenze. La strada è la standardizzazione, che però non può avvenire senza l’avvio di un programma di data management moderno e sistemico.
La data quality non è by design
La qualità dei dati viene affrontata ex post, ovvero dopo che i dati sono stati raccolti, elaborati e utilizzati. In realtà, la data quality - con i suoi controlli, validazioni e processi di monitoraggio - dovrebbe essere parte integrante della progettazione dei sistemi IT fin dalle fasi iniziali. Solo in questo modo è possibile garantire che i dati siano coerenti, completi e precisi in ogni fase del ciclo di vita, evitando costosi interventi successivi.
Nessuno è davvero responsabile
Oltre ai temi di natura tecnica, trovano spazio anche quelli organizzativi afferenti al macrocosmo della data governance. Uno dei problemi più sottovalutati è la mancanza di ownership chiara: chi è responsabile della qualità dei dati, o di una specifica tipologia di dato? L’IT? Il business? Il data team?
Cultura aziendale (ancora) poco orientata ai dati
In molte aziende, i dati sono ancora percepiti come uno strumento con cui fare i report, non come un asset strategico da curare e valorizzare. La mancanza di una vera e propria cultura del dato limita l’efficacia delle iniziative, nonostante lo sviluppo di architetture complesse e l’implementazione di tool di ultima generazione.
Data Quality 2.0: riprogettare la gestione dei dati aziendali
Un programma di data quality moderno è un approccio strategico, integrato e continuo il cui fine è garantire l'affidabilità, la coerenza e la completezza dei dati aziendali.
In un contesto in cui le aziende stanno sempre più implementando l’AI nei loro processi, non è possibile prescindere da un programma di data quality che supporti non solo i singoli progetti, ma anche l’evoluzione sistemica verso un’azienda data-driven. Abbiamo quindi identificato alcuni elementi chiave di un ipotetico programma.
Definizioni dell'estensione del programma
Le aziende "non possono e non dovrebbero puntare alla qualità dei dati ovunque, poiché non tutti sono parimenti importanti." In questo modo, gli analisti di Gartner introducono quello che dovrebbe essere il primo passo nella creazione di un programma di qualità del dato nel 2025: la definizione dell'estensione del programma, ovvero quanto e dove investire.
Per farlo, è necessario un processo di modellizzazione in cui, dato un certo business case, la qualità dei dati viene messa in relazione alle due dimensioni fondamentali del valore e del rischio. L’obiettivo è prioritizzare gli interventi sui dati che sono in grado di fornire il maggior valore per l'organizzazione, e che al contempo permettono di mitigare i principali rischi, come quelli legati alla compliance o alle decisioni errate.
Un altro aspetto fondamentale, secondo gli analisti, riguarda la distinzione tra dati che devono essere centralizzati e quelli che possono rimanere confinati in ambiti più locali. I dati centralizzati, come i master data, sono quelli più critici, e per questo la responsabilità della loro qualità dovrebbe essere condivisa e basarsi su una stretta collaborazione tra diversi stakeholder aziendali.
Valutazione della qualità del dato
Se è vero che il 59% delle aziende non misura la qualità dei propri dati (Gartner), chi raggiunge questa fase si pone già in una posizione di vantaggio. Tuttavia, è chiaro che in contesti ampi e distribuiti non sia per nulla banale valutare la qualità dei propri dati, anche perché ciò può essere fatto solo in funzione di alcune dimensioni, tra cui:
- Completezza: i dati sono completi o mancano informazioni essenziali?
- Accuratezza: i dati riflettono la realtà in modo corretto?
- Consistency: i dati sono coerenti in tutti i sistemi e dipartimenti?
- Aggiornamento: i dati sono aggiornati e disponibili nel momento giusto?
- Conformità: i dati rispettano gli standard e le normative applicabili?
Non tutte le dimensioni sono ugualmente rilevanti in ogni contesto, e anche in questo caso bisogna fare delle scelte per non incidere negativamente sui tempi e sui budget. Per questo motivo, è fondamentale coinvolgere gli stakeholder di riferimento, così da identificare con loro gli use case di maggior valore e capire a quali dimensioni di analisi (completezza, accuratezza…) dare la priorità. Fatto questo, dovrebbe essere più agevole identificare i KPI con cui misurare effettivamente la qualità del dato mediante un processo noto come data profiling.
Data governance: chi è responsabile della qualità del dato?
Quando i processi di qualità dei dati (profiling, cleaning, enrichment…) sono lasciati a iniziative isolate e senza una visione condivisa, il rischio di duplicazioni, inefficienze e incoerenze aumenta in modo esponenziale. La governance dei dati definisce chi debba prendersene cura lungo tutto il ciclo di vita, garantendo che siano accurati, completi, aggiornati e conformi agli standard aziendali. La data quality non può prescindere da una governance puntuale e precisa, la cui complessità dipende dalla struttura organizzativa. Vanno nominate e chiaramente posizionate all'interno dell'organizzazione alcune figure chiave della data governance, come:
- Data steward, responsabili della qualità dei dati a livello operativo;
- Data owner, che gestiscono i dati a livello strategico;
- Data quality engineer, che progettano e implementano i processi di qualità.
Processi, architetture e tool avanzati a supporto della qualità dei dati
Un programma di data quality moderno si basa su competenze, tool e processi. Questi ultimi sono essenziali per garantire che ogni dato raccolto, elaborato e utilizzato rispetti gli standard qualitativi aziendali. Tutti i macro-processi della data quality, inclusi profiling, data cleaning ed enrichment devono essere definiti e gestiti in modo coerente con gli obiettivi aziendali.
Per mettere in pratica questi processi, le aziende di una certa dimensione devono dotarsi di architetture dati moderne, che vadano oltre il tradizionale modello a silos e puntino fortemente sull’automazione; non possono mancare, poi, tool avanzati di data management che permettano di ottimizzare tutti i processi e le pipeline che dal data producer conducono al data consumer.
La tecnologia odierna è in grado di supportare attività complesse come la rilevazione automatica degli errori nei dati, il data profiling avanzato e la validazione in tempo reale. L'integrazione di questi strumenti con i sistemi aziendali preesistenti, come ERP, CRM e piattaforme di analisi, consente di gestire i dati in modo fluido e senza interruzioni, riducendo significativamente la necessità di interventi manuali e garantendo una gestione dei dati più efficace. Inoltre, l’integrazione accelera il time to value, che rappresenta uno degli indicatori chiave per il successo di qualsiasi progetto legato ai dati e fa comprendere quanto l’azienda stia procedendo nella direzione della data-driven company.