Le nuove tendenze dell’analytics puntano su velocità di elaborazione e qualità del risultato
Le nuove tendenze dell’analytics puntano su una ancora maggiore velocità di elaborazione e soprattutto sulla qualità del risultato, inoltre devono prima di tutto poter contare su dati che siano corretti e controllati fin dall’origine.
Avere a disposizione una grande quantità di informazioni non offre di per sé la sicurezza di ottenere la risposta che si cerca nei tempi attesi. La sfida in atto è quella di mettere in campo i migliori strumenti tecnologici con le migliori competenze per poter governare in modo quanto più ampio ed efficace i dati che già oggi sono a disposizione delle aziende e presenti all’interno dei data warehouse con quelli che la rete raccoglie dagli oggetti collegati.
Queste enormi mole di dati, ovvero Big Data, possono essere definiti come un’importante quantità di risorse informative raccolte, immagazzinate e gestite da tecnologie differenti, che richiedono modalità di elaborazione veloci ed economiche e che permettono di ottenere informazioni dettagliate utili ai processi decisionali e all’automazione delle attività.
Diventa così essenziale la gestione del ciclo di vita del dato per poter rispondere alle esigenze del business e dare un significato a quelli che costituiscono il patrimonio informativo di un’azienda, senza dimenticare gli adempimenti normativi in tema di presidio della qualità dei dati e di privacy ai quali oggi tutte le aziende sono chiamate a rispondere.
Ad ogni richiesta il dato giusto
Gartner offre una sintesi di come dovrebbe essere un sistema di Big Data, ovvero quelle che in gergo vengono chiamate le 5 V: Volume, Velocità, Varietà (asset tradizionali), Valore, e Veridicità (asset nuovi).
Intorno a questi asset si costruisce la visione dei big data di Kirey Group, che ha implementato una struttura per gestire e monitorare il ciclo di vita dei dati, dalla nascita sui sistemi sorgente fino all’arrivo sul database e all’elaborazione delle informazioni.
“Il termine utilizzato per indicare la massa diversificata dei dati non strutturati che vengono raccolti è datalake”, spiega Valter Cavallino, Senior Manager Information Management, Application Analytics, BI tools di Kirey Group, “un’immagine che concretizza il concetto di un contenitore che raccoglie tutte le informazioni delle aziende in un silos di dati disgregati, ancora senza forma, liquidi. Servono competenze specialistiche per disegnare quest’area di dati destrutturati e poi per far affiorare le informazioni e portarle in un datawarehouse”. Proprio come la sabbia in un lago, i dati si depositano e rimangono in attesa di essere fatti emergere. Il compito dei data engineer di Kirey Group è di identificare i dati utili a fornire delle risposte a specifiche domande e di dare loro una forma organizzata: “facciamo affiorare le informazioni rilevanti per gli utenti dell’azienda a seconda dell’interesse, il livello di strutturazione del dato viene definito in base alle esigenze dei vari settori e livelli aziendali e le informazioni vengono aggregate in layer utilizzabili dall’operatore dell’impresa”.
La virtualizzazione e il cloud
Le tradizionali tecnologie di big data possono trovare ulteriore vigore, minimizzando ulteriormente il time-to-market delle soluzioni, attraverso l’adozione di tecnologie di data virtualization che consentono di modellare uno o più layer dati della soluzione di big data in maniera più snella rispetto alle tecnologie tradizionali. Il dato risiede in un unico punto e resta di fatto certificato. Da non trascurare, infine, l’opportunità dei servizi in cloud che garantiscono al cliente elevati standard di sicurezza e disaster recovery, oltre ad un’altissima scalabilità che diventa a portata di click.
Competenze per leggere gli Advanced analytics
La grande mole di dati presente all’interno di un datalake, la loro complessità e la velocità richiesta per processare ed estrapolare informazioni e fenomeni all’interno di esso, richiede sempre di più l’intervento di figure professionali con competenze specialistiche diverse dalle tradizionali figure che si possono trovare all’interno di un dipartimento IT.
Le società che offrono servizi di information management si trovano oggi ad ampliare la propria offerta anche a forme di servizio che favoriscano la capacità dell’impresa cliente di utilizzare quanto meglio possibile le informazioni raccolte: “ci siamo accorti dell’esigenza dei nostri interlocutori di poter contare su un partner in grado di gestire innanzitutto strategicamente un sistema di informazioni, attraverso l’analisi della situazione e l’implementazione di un’architettura tecnologicamente innovativa in grado di fornire un pieno controllo del dato. Abbiamo iniziato, con il nostro centro di innovazione Kubris, a formare persone con background matematico e statistico, e ad utilizzare nei nostri progetti tecnologie innovative come quella del machine learning”. Figure come il data scientist o l’esperto di machine learning lavorano in collaborazione con chi all’interno dell’impresa conosce le logiche aziendali di business per ricercare nel datalake le informazioni utili all’obiettivo e dare loro la forma corretta e facilmente leggibile.
L’informazione deve essere vera
Il cerchio dei big data si chiude con la veridicità e il valore del dato. Garantire la data quality è una sfida complessa: utilizzare il dato non porta ad una soluzione se l’informazione di cui è costituito non è corretta. Il dato, quindi, prima di essere utilizzato deve essere assoggettato ad un “sistema di controllo che fornisce degli indici per verificare la robustezza di tutto il processo”, spiega Cavallino, una modalità di analisi che è in grado di ricostruire la storia di quel dato e delle sue componenti.
Grazie all’esperienza maturata, il team di Information Management di Kirey Group ha sviluppato una suite di prodotti, DG Suite, al fine di fornire un unico prodotto che supporti l’utente nei processi di monitoraggio, gestione e reportistica dei dati. Basata sulle metriche di IQF, la suite permette di progettare i controlli necessari al monitoraggio dei dati e raccogliere gli esiti delle analisi per calcolare la robustezza di un impianto di controllo; permette inoltre di attuare azioni di miglioramento ai processi di gestione dei dati e di produrre una reportistica compliant alle normative e regolamenti vigenti.