Home Digitale Diversità digitale: come osservarla, comprenderla, sfruttarla

Diversità digitale: come osservarla, comprenderla, sfruttarla

La biodiversità è un concetto importante per l’ecologia ormai noto: definisce la complessità come una diversità di vita che rappresenta al tempo stesso un enorme potenziale risorsa per l’umanità e una sfida da gestire.

Facendo un parallelo con il mondo IT, Marco Rottigni, Chief Technical Security Officer Emea di Qualys si spinge a dire che la complessità dei nuovi ambienti digitali ha creato in molte organizzazioni una sorta di bio diversità digitale.

La gamma di piattaforme, ecosistemi software e differenti approcci per fornire servizi all’azienda ha infatti portato a una maggiore varietà nell’IT.

Ognuna di queste piattaforme si sviluppa e cresce in modo indipendente, evolvendo per far fronte alle nuove esigenze di business.

Tuttavia, per i responsabili della gestione dell’ambiente IT, questa diversità crea un grande problema quando si tratta di avere completa visibilità dell’infrastruttura IT.

Se, per esempiom nel Borneo, vengono scoperrte tre nuove specie al mese, a livello IT la vera sfida è monitorare i nuovi dispositivi che entrano ed escono continuamente dalla rete aziendale. Ma questa visibilità è essenziale, in quanto non è possibile valutare ciò che non si vede; non si può difendere e tutelare ciò che non si conosce e di cui non si ha piena consapevolezza.

La diversità dei dispositivi nell’IT

Il problema che l’IT deve affrontare, spiega Rottigni, è sistemico: ogni nuova tendenza può creare nuovi potenziali problemi.

Ad esempio, le metodologie di sviluppo software tradizionali basate su un modello Waterfall si sono evolute nella distribuzione di software Agile e quindi nel paradigma DevOps.

Questo ha portato un’accelerazione nella distribuzione del codice difficilmente concepibile prima; implementare software in produzione più velocemente attraverso una pipeline di integrazione e deployment continuo.

Tale velocità di realizzazione introduce un altro problema: come parte del processo di sviluppo applicativo si è allargato il ruolo dei certificati digitali, che sono adottati universalmente per proteggere l’integrità e la fedeltà delle applicazioni aziendali.

Tuttavia, la responsabilità del monitoraggio e della gestione di tali certificati non è cresciuta insieme a questo aumento della velocità. Le scadenze dei certificati rappresentano quindi una grave minaccia per la continuità aziendale e la disponibilità delle applicazioni.

Analogamente, gli ambienti cloud hanno creato un nuovo modo di utilizzare le tradizionali implementazioni IT con infrastrutture, piattaforme e Software as a Service.

Ognuna di queste opzioni promette una consegna più rapida e agile, ma apre nuove problematiche in merito a di chi sia la responsabilità di tali progetti. Senza la giusta comprensione di questi asset, le aziende dovranno affrontare nuovi rischi.

Accanto a questi cambiamenti, anche le nuove tecnologie continuano a complicare il contesto di riferimento.

Container software come Docker vengono definiti come standard e parole come agile, velocità e time-to-market assumono nuovi significati.

Quello che una volta si chiamava Bring Your Own Device si è evoluto in un approccio informatico complesso, pervasivo e onnipresente che ora si chiama Enterprise Mobility, in cui il device dell’utente e le macchine di proprietà dell’azienda sono utilizzati in modo intercambiabile dai dipendenti.

I datacenter tradizionali e le reti aziendali sono stati arricchiti con una nuova gamma di dispositivi, dall’hardware e tablet specializzati ai distributori automatici intelligenti e tecnologie automatizzate per controllare le luci o la temperatura dell’ambiente. Potrebbe sembrare che tutto abbia un indirizzo IP, una connessione e sia presente in rete. Eppure, tracciare e monitorare tutti questi dispositivi non è facile.

Visibilità, un problema di Big Data

Avere la visibilità di tutto l’IT è una sfida degna della definizione originale di Gartner di big data, inizialmente basata sul  lavoro di Doug Laney nei primi anni 2000, ricorda Rottigni. In questo senso il concetto di visibilità si associa alle tre V:

  • La prima V sta per Volume, perché la trasformazione digitale ha creato un numero enorme di risorse e risorse che precedentemente erano invisibili.
  • La seconda V indica Velocità, il ritmo con cui queste risorse stanno cambiando.
  • La terza e più sottile V sta per Varianza, che indica il numero di attributi in costante cambiamento di tutti gli asset nei diversi ambienti; tale cambiamento deve essere tracciato e mantenuto sotto controllo.

Ottenere visibilità su tutte queste risorse significa pertanto comprendere le diverse sfide distinte che esistono nell’IT: pensare all’IT come a un mix di diversi ecosistemi con la propria diversità digitale.

Per cominciare, è necessario avere occhi specializzati per raccogliere dati relativi ad ogni parte che compone il panorama IT, non importa quanto sia diversificato.

Analogamente, non è possibile trattare un progetto che ha portato in cloud un set di macchine virtuali allo stesso modo di una nuova applicazione basata su cloud in esecuzione su microservizi e container.

Una volta implementata la capacità di osservare, è necessario avere un cervello in grado di raccogliere dati provenienti dalla biodiversità digitale. Questo sistema centrale dovrebbe fornire un’unica fonte di verità  per tutte le implementazioni IT e garantire che siano aggiornate e accurate. In pratica, ciò significa prendere i dati relativi alle risorse IT, ovvero normalizzare e classificare questi dati da più sistemi, e utilizzare intelligenza e contesto per aiutare a trasformare questi dati grezzi in informazioni utilizzabili e fruibili.

È anche importante comprendere la velocità di modifica di questi dati. Per le infrastrutture IT tradizionali, come i datacenter, il ritmo di cambiamento potrebbe essere basso in quanto raramente si realizzano nuovi progetti applicativi e qualsiasi modifica potrebbe essere facilmente acquisita. Tuttavia, le proprietà desktop cambiano molto più frequentemente quando vengono installati nuovi PC in sostituzione delle macchine esistenti, o perché obsolete o danneggiate.

Nel mondo del software, i servizi e le applicazioni cloud possono cambiare ancora più rapidamente, con nuovi aggiornamenti che vengono implementati continuamente. Tenere il passo con questi cambiamenti – indipendentemente dalle fonti di dati utilizzate – è quindi essenziale.

Una volta messe a punto, queste informazioni possono supportare più processi all’interno dell’organizzazione, armonizzando IT, sicurezza, compliance, procurement, SecOps, risposta agli incidenti e innumerevoli altri processi. Allo stesso modo, questi dati dovrebbero essere messi insieme per tenere il passo con il tasso di espansione dell’ambiente IT, piuttosto che avere costantemente bisogno di aggiornamenti o di un altro terabyte di spazio per archiviare questi dati. Dal momento che così tante risorse IT si stanno spostando sul cloud, un approccio basato sul cloud avrebbe più senso.

Una volta realizzata la visibilità attraverso il panorama IT, osserva Rottingni, i dati diventano uno strumento da utilizzare piuttosto che un onere. Per i team che devono mantenere il passo dell’evoluzione IT – come quelli che si occupano di sicurezza e di gestione asset digitali –  questi dati diventano un punto di collaborazione chiave per rendere tutti più produttivi. Queste informazioni possono anche essere automatizzate per fluire verso altre piattaforme e tecnologie circostanti, sfruttando API standard per garantire l’interoperabilità, minimizzare gli errori umani attraverso l’automazione e consentire un’orchestrazione trasparente dei flussi di lavoro.

La diversità digitale ha bisogno di dati

È importante, in conclusione per Rottigni, riconoscere il valore che la diversità digitale rappresenta. Ogni nuova piattaforma supporta il business in modi nuovi, per raggiungere nuovi obiettivi.

Per l’IT, interrompere questo cambiamento equivale a tagliare la foresta pluviale: se a breve termine potrebbe consentire di raggiungere obiettivi di riduzione costi, alla lunga rappresenterebbe un’enorme perdita.

Lavorando su ciascuna piattaforma e facendo un uso migliore dei dati è possibile invece ottenere risultati decisamente migliori.

Tenere il passo con le nuove implementazioni IT e i cambiamenti di comportamento significa comprendere l’intero ecosistema esistente.

Con così tanti nuovi approcci e nuovi cambiamenti in corso, è impossibile per gli individui gestire tutto questo manualmente. L’utilizzo dei dati relativi a tutti gli asset IT e all’automazione può contribuire a migliorare questo processo.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php