Il real user monitoring al tempo del cloud

Ovvero, come migliorare la produttività in azienda con il monitoraggio delle prestazioni dal lato dell’utente finale. L’opinione di Georg Kostner di Würth Phoenix.

Nell’era del cloud computing il real user monitoring, ovvero il controllo delle prestazioni riscontrate sul versante dell’utente finale, sta diventando sempre più importante in fatto di monitoraggio It.

Ma cosa accade quando i disservizi influenzano le prestazioni dei sistemi informativi con impatto sulla produttività lavorativa? E come deve intervenire la divisione informatica?

Questione di tempestività
Secondo Georg Kostner, Product manager della soluzione di monitoraggio Open Source NetEye presso Würth Phoenix «la divisione informatica deve intervenire tempestivamente», soprattutto perché le aziende spesso investono somme elevate per adattare i propri software applicativi ad esigenze specifiche per supportare al meglio i loro processi di business.

Nei sistemi tradizionali di monitoraggio le aree più analizzate erano le infrastrutture informatiche a livello di rete, sistemi e applicativi, e spesso trascuravano le reali prestazioni riscontrate sul lato utente.

Recentemente il monitoraggio It si sta spostando dai settori di controllo standard per spingersi sempre di più verso la verifica della disponibilità, affidabilità e tempi di risposta dei servizi rilevati dall’utente finale.

Cos’è il real user monitoring

Secondo Kostner il cosiddetto real user monitoring è il modello che risponde a questa necessità:
«da una parte l’obiettivo è fornire dati per verificare la conformità con i contratti di Service level agreement, dall’altra mantenere un livello elevato di produttività».

Una maggior efficienza dei processi di business, per esempio, può essere garantita evitando rallentamenti o inaccessibilità dei sistemi gestionali, che possono portare al mancato inserimento di ordini o fatture, generando perdite economiche per le aziende.

«Il reparto informatico – per Kostner – può determinare esattamente in quale momento quale servizio non funzioni correttamente. Questo approccio, soprattutto con la diffusione dei servizi cloud, riveste un ruolo sempre più strategico per ogni responsabile informatico».

I disservizi nell’era del cloud

Nell’era del cloud può essere difficile stabilire la causa del disservizio.
«Anche se le conseguenze non sono disastrose – sottolinea Kostner – rappresentano comunque delle inefficienze, ad esempio nel caso in cui singoli dipendenti di una grande organizzazione non dovessero essere operativi per un certo periodo di tempo».

In ogni caso, secondo il manager di Würth Phoenix «occorre individuare immediatamente la causa del disservizio».
Purtroppo non è così semplice. Secondo Kostner «è necessario stabile se il disservizio è imputabile alla propria azienda o ai fornitori. Successivamente definire con precisione se deriva dalla rete o dalle applicazioni, e da quali sistemi applicativi».

Dimostrare che il disservizio dipende dal gestore del servizio è complesso e lo sarà sempre di più nei prossimi anni.
«Poche aziende si affideranno esclusivamente a un unico gestore, esattamente come oggi avviene per le piattaforme hardware, che vengono acquistate da diversi fornitori, così sarà in futuro per i servizi cloud».

Inserire il controllo di servizi cloud nei sistemi tradizionali Kostner, allora, suggerisce di integrare l’end user monitoring nei processi di monitoraggio standard.

«In questo contesto l’end user monitoring può essere introdotto attraverso l’adozione di plugin e agenti. Per gli amministratori di sistema questo approccio però si presenta piuttosto difficoltoso nella sua realizzazione, poiché prevede l’installazione dei vari agenti su ogni singolo client».

Un metodo più semplice, che può essere integrato in modo passivo nella comunicazione di rete e che interpreta i vari protocolli applicativi, è l’identificazione dei diversi indici di prestazione, i cosiddetti Key Performance Counter.

«Oltre alla facilità di implementazione – spiega Kostner – questo approccio non influenza l’ambiente produttivo e può essere installato in modo indipendente nelle infrastrutture esistenti. In tal modo viene garantita l’archiviazione di ogni comunicazione e, oltre a una implementazione trasparente, non vi è alcun impatto sulle singole applicazioni».

Alternative in ambiente opensource

Molti fornitori offrono soluzioni open source ma, evidenzia Kostner «i costi di acquisto spesso superano le aspettative, spingendosi di gran lunga sopra gli investimenti per i tradizionali sistemi di monitoraggio. Per le medie aziende diventa sempre più importante una implementazione dell’end user monitoring, facilmente gestibile e dai costi contenuti».

Per il manager una delle alternative competitive, anche in termini economici, è rappresentata dalla combinazione di NetEye, soluzione di monitoraggio basata su Nagios, con la funzionalità per l’analisi di rete integrata in ntop.
I dati sulle prestazioni vengono archiviati in un sistema di monitoraggio centralizzato.
Grazie all’aggregazione dei dati viene svolto un confronto per controllare se le prestazioni dei servizi It, riscontrate dal lato utente, sono accettabili o se presentano dei rallentamenti. Le informazioni rilevate non sono associate solo al servizio, ma anche alle postazioni di lavoro affette da problemi di prestazioni. Inoltre, vengono visualizzati il servizio di cloud, la comunicazione di rete e l’esatto tempo di risposta delle varie applicazioni.

Secondo Kostner l’approccio di controllo con NetEye si distingue per la facilità con cui viene implementato attraverso l’utilizzo di nBox, un dispositivo indipendente preinstallato con ntop, che si occupa del monitoraggio del traffico di rete attraverso l’analisi passiva dei dati.

Inoltre, l’integrazione con NetEye permette di controllare come viene sfruttata la rete, di identificare quali applicativi consumano banda e di rispondere in maniera mirata ad eventuali anomalie e riduzioni delle prestazioni.

Per ottenere questi risultati viene eseguito un monitoraggio periodico sulla rete lato client, server e applicazione per ogni richiesta utente, identificando in questo modo eventuali rallentamenti.

I disservizi, spiega il manager, vengono rilevati grazie alla definizione automatica di livelli minimi aggiornati ad intervalli regolari. Nel caso di deviazioni da questi valori vengono generati degli allarmi di sistema per accertare se la causa è attribuibile alla rete o all’applicazione».

Una deviazione dallo standard, inoltre, può essere espressa in percentuale per ridurre l’invio ridondante dei messaggi di notifica.

Se consideriamo lo sviluppo del cloud per gli anni a venire, secondo Kostner «l’end user monitoring acquisisce un’importanza fondamentale per il monitoraggio informatico. Le aziende, infatti, avranno bisogno di dati concreti per capire e dimostrare la causa di eventuali disservizi».

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome