Get your daily dose of tech!

We Shape Your Knowledge

Le sfide del monitoraggio nell’era della digital transformation: la customer experience, l’observability e la correlazione dei dati

Kirey Group

  
    L’attenzione alla customer experience, il ruolo dell’observability e la capacità di correlare e avere una visione completa dei sistemi guidano la trasformazione dei sistemi di controllo e monitoraggio.

    A cura di Elena Fasolo, Senior Manager - IT Data Analytics di Kirey Group

    La Digital Transformation comporta un profondo cambiamento degli ambienti legati all’erogazione di servizi digitali e, di conseguenza, implica una riorganizzazione significativa anche delle modalità con cui tali servizi vengono gestiti e monitorati.

    Molte aziende oggi sono impegnate nello sviluppare applicazioni basate sui micro-servizi che utilizzando le piattaforme container on premises o in cloud. L’impatto di tale cambiamento infrastrutturale sui sistemi di monitoraggio è estremamente consistente perché queste nuove architetture sono dinamiche, distribuite e interconnesse e rendono il monitoraggio molto più complicato che in passato. È quindi necessario dotarsi di strumenti nuovi, in grado di gestire questa complessità, in particolare quando la scelta futura verso cui si indirizza l’azienda è spostare tutto il deployment applicativo in cloud o utilizzare strumenti SaaS.

    Le sfide del monitoraggio moderno

    I tool di monitoraggio oggi devono quindi avere caratteristiche nuove per essere in grado di approcciare i servizi distribuiti, una delle principali è la granularità con la quale devo riuscire a monitorare tutte le componenti delle applicazioni, perché un contesto altamente dinamico impone la necessità di avere a disposizione in tempo reale dati sempre freschi.

    I sistemi di monitoraggio moderni, inoltre, devono essere in grado di auto-configurarsi. Se, infatti, le applicazioni sono composte da migliaia di micro-servizi distribuiti in un contesto ibrido non è più pensabile che si vada a monitorare, uno per uno, tali servizi. Infine, in uno scenario basato sui container che presenta tra i principali vantaggi la maggiore scalabilità si impone la sfida di monitorare micro-servizi che nascono e muoiono nell’arco di poche ore garantendo sempre una visibilità completa sul sistema.

    Anche l’impatto dei cambiamenti dalla prospettiva degli utenti finali non è da sottovalutare, anzi rappresenta un fattore trainante per la trasformazione digitale, con utenti sempre più esigenti che si aspettano applicazioni user friendly, performanti, veloci e intuitive. È proprio a partire da queste loro richieste, infatti, che oggi si impone il cambiamento più radicale per i sistemi di monitoraggio: fare fronte alla domanda di poter monitorare e analizzare le performance degli utenti e la user experience, spesso non solo rispetto ad applicazioni rivolte a clienti finali ma anche per applicazioni interne dell’azienda, utilizzate da dipendenti, collaboratori e partner che hanno un impatto sui risultati di business. Non si tratta più quindi di monitorare solo gli aspetti tecnici, anche sempre più complessi, ma anche di comprendere “cosa vede l’utente”, lo stato delle performance e delle esperienze da lui vissute.

    In sostanza, i sistemi di monitoraggio oggi devono evolvere da tutti i punti di vista, diventando sempre più interconnessi, tenendo conto delle diverse architetture, delle esperienze degli utenti, e anche di utilizzatori sempre più eterogeni, in uno scenario che vede tutti gli attori in azienda coinvolti nella erogazione dei servizi digitali e desiderosi di avere una maggiore visibilità per poterlo fare al meglio.

    🎙️ Ascolta il nostro Podcast sullo S.M.A.R.T. Monitoring in Spotify

    Nuove e vecchie architetture: il principio di observability

    Il cambio di paradigma architetturale a livello applicativo e infrastrutturale ha quindi modificato profondamente le esigenze di monitoraggio e rende necessario dotarsi di strumenti di nuovi, capaci di stare al passo con le applicazioni e con un’infrastruttura che deve essere dinamica, configurabile e gestibile in modo centralizzato. Si tratta di strumenti che consentono di avere una visione complessiva e, allo stesso tempo, sono anche capaci di “tenere insieme” il vecchio e il nuovo, cioè adattarsi ai nuovi ambienti multi-cloud e ibridi e alle applicazioni su essi basati ma anche ad applicazioni baste su architetture più datate, legacy e mainframe, ed essere in grado di supportare le scelte di trasformazione future dell’azienda.

    Recentemente, ad esempio, Kirey Group ha supportato un’organizzazione in ambito PA che ha fatto da pioniere nell’affrontare la migrazione di tutte le sue infrastrutture da legacy on premise al cloud Microsoft Azure; Kirey Group è riuscita a garantire al cliente un perfetto controllo e monitoraggio di tale passaggio con la possibilità di osservare durante questo passaggio delicato tutto quello che stava accadendo in tempo reale, dal punto di vista della disponibilità dei servizi e del controllo di tutte le prestazioni.

    I rischi legati alla proliferazione dei dati

    Avremo sempre più bisogno di integrazione tra applicazioni, dati e sistemi per rispondere alle esigenze del business ma di fronte a noi si pone una sfida ancora più complessa: affrontare il volume di dati che crescerà esponenzialmente insieme alle nostre architetture e, di conseguenza, anche quanto prodotto dalle piattaforme di monitoraggio. Uno degli aspetti da non sottovalutare, infatti, è il rischio di avere troppe informazioni inutili, collezionare dati che non servono.

    Molti vendor oggi offrono strumenti di analisi automatica basati sul machine learning e algoritmi di intelligenza artificiale per portare all’attenzione degli specialisti solo le esigenze più importanti. Quello che però chiedono le aziende è qualcosa di diverso: le loro esigenze sono di correlare queste informazioni e analizzarle e rappresentarle tramite cruscotti e dashboard cross area. Per questo motivo ci troviamo spesso ad affrontare progetti di consolidamento dei dati di monitoraggio su piattaforme di data lake o big data.

    In conclusione, l’attenzione alla customer experience, il ruolo dell’observability e capacità di correlare e avere una visione completa dei nostri sistemi stanno guidando la trasformazione dei sistemi di controllo e monitoraggio.

    Anche se potremo continuare a utilizzare strumenti specifici per area particolati, dovremo necessariamente adottare un sistema che ci offra una visione complessiva, interconnesso, e capace di fare correlazioni, collegando in modo automatico le informazioni raccolte e offrendo una visibilità a 360 gradi di quello che accade e di ciò che l’utente ha richiesto. Solo così potremo fornire risposte a team sempre più eterogenei che possano collaborare insieme in azienda nel risolvere eventuali problematiche di business, inerenti ad esempio all’ambito operations, sviluppo e sicurezza (DevSecOps) per supportare l’azienda nella sua trasformazione e crescita futura.

     

    Scopri il nostro modello

    Post correlati:

    Application Performance Monitoring: la gestione co...

    Oggi, in qualsiasi settore, le performance del business sono strettamente correlate alle performance...

    Il Database Monitoring aumenta il successo delle a...

    Il Database Monitoring Report 2020 di Redgate ha rivelato che il settore dei servizi finanziari è in...

    Digital Transformation: ecco le figure più ricerca...

    La pandemia ha costretto molte aziende a digitalizzarsi da un giorno all'altro. Superando il  proces...