Home Digitale Trasformazione digitale in tempo reale con le tecnologie software defined

Trasformazione digitale in tempo reale con le tecnologie software defined

Il mondo si sposta sempre più verso operazioni aziendali eseguite in tempo reale, guidate per lo più dall’esigenza di migliorare l’esperienza del cliente e allinearsi alle sue necessità. Mettere in grado l’azienda di operare in tempo reale e migliorare l’esperienza del cliente sono gli obiettivi che per molti si sono rivelati il vero motore della trasformazione digitale.

Negli attuali ambienti aziendali che operano 24×7, la risposta in tempo reale è fondamentale per l’esperienza del cliente, e la capacità di un’organizzazione di rimanere competitiva risiede nella sua abilità di reagire e allinearsi alle aspettative del cliente. Se le aziende non sono in grado di estrarre e gestire in modo efficiente i dati, e il cliente non può quindi accedere alle informazioni desiderate con rapidità, sono destinate a fallire.

George Teixeira, ceo Datacore

Secondo il ceo di Datacore Software, George Teixeira, la trasformazione digitale, però, non deve significare essere costretti a vivere in un mondo dove i sistemi sono “usa e getta” o dove è obbligatorio accettare innovazioni che portano problemi di ogni tipo.

Le imprese di oggi hanno bisogno di semplicità e di agilità software-defined; vogliono rendere invisibile l’infrastruttura, spostarsi verso un maggior numero di servizi di tipo cloud e gestire l’azienda e le sue applicazioni di base senza impantanarsi nella complessità della sottostante infrastruttura, senza mettersi a collegare fisicamente i sistemi e senza affogare tra i troppi dettagli legati al funzionamento delle attività IT.

A cosa punta la digital transformation

Le aziende non sono più disposte a imbarcarsi in nuovi progetti IT semplicemente per risparmiare sui costi. La tecnologia, invece, è diventata il motore dell’esperienza del cliente e fondamenta su cui costruire l’innovazione aziendale. Per le imprese è ora imperativo diventare sempre più digitali per rimanere competitivi e importanti.

Questo spostamento verso l’integrazione di tecnologia digitale in tutte le aree aziendali, specialmente in quelle che migliorano l’esperienza del cliente, sta trasformando i processi, le funzionalità e i modelli organizzativi. La mossa di sfruttare completamente la tecnologia in modo strategico e prioritario è stata collettivamente definita “digital transformation”. E questa trasformazione ha la capacità di cambiare fondamentalmente il modo in cui un’azienda opera e offre valore ai clienti.

Esiste un approccio più pratico alla trasformazione digitale. Un’azienda non deve necessariamente gettare via tutto per raggiungere i suoi obiettivi, e nel salvaguardare gli investimenti già effettuati ci sono ovvi vantaggi sia economici sia di efficienza. Questa “reinternalizzazione dell’IT” apre la via a un approccio ibrido che consente di massimizzare gli investimenti IT già realizzati e contemporaneamente permette di evolvere e sviluppare con successo le iniziative di trasformazione digitale.

Caso tipico: con le aziende che operano sempre più in tempo reale, i carichi di lavoro applicativi basati sui database critici hanno bisogno di essere più reattivi; reattività e prestazioni migliorano infatti l’esperienza del cliente. Cambiamenti e ottimizzazioni ai database, e specialmente ai loro carichi applicativi legacy, possono rivelarsi molto problematici. Le soluzioni come quelle che DataCore offre con il suo software “plug-and-play” MaxParallel™ con funzioni di auto-tuning non richiedono programmazione né modifiche hardware. Questo semplice approccio va senz’altro considerato, visto che è possibile scaricare il software e metterlo alla prova per scoprire come sia in grado di migliorare l’esperienza complessiva del cliente velocizzando i tempi di risposta, aumentando la produttività e accelerando la ricerca delle informazioni.

Allo stesso modo, in aree più legate all’infrastruttura come lo storage dei dati, dove la complessità e il livello dell’integrazione IT sono maggiori, la potenza degli approcci storage software-defined e iperconvergenti può semplificare enormemente e automatizzare il provisioning, la gestione e l’orchestrazione dell’accesso a risorse e dati. Un approccio software-defined “smart” evita il ricorso al modello orientato all’hardware “usa e getta” del passato per supportare meglio la trasformazione digitale, rendendo meno visibile ad applicazioni e utenti l’infrastruttura. In più, queste nuove e più potenti tecnologie software-defined saranno di supporto a interfacce di tipo cloud e a tecnologie come i container, il che le renderà particolarmente adatte a questo modello di trasformazione digitale.

In quest’epoca di digital transformation, dobbiamo pensare alla modernizzazione dell’infrastruttura come a un viaggio. Al contrario di altre soluzioni di ripiego “usa e getta”, l’approccio corretto è quello di aggiungere software che permetta alle tecnologie esistenti e a quelle innovative di convivere senza problemi, offrendo una gestione globale capace di abbattere i silo. DataCore, per esempio, offri ai clienti la scelta tra diverse soluzioni d’ingresso e servizi di gestione comuni che si occupano dell’intero spettro dello storage dei dati: batterie all-flash, SAN server, storage software-defined, iper-convergenza e modelli di implementazione di cloud ibrido già esistenti. Il tutto salvaguardando il valore degli investimenti già effettuati nell’infrastruttura dati.

Ottimizzare i system of record

Per sopravvivere in un mondo completamente digitalizzato e connesso, le aziende devono trasformare il modo in cui operano. Questo imperativo digitale sta spingendo le imprese, preoccupate di rimanere indietro, ad agire. Molte organizzazioni stanno quindi rendendosi conto che l’impatto è significativo, e che un cambiamento totale del modo in cui viene gestita l’azienda è sostanzialmente obbligato.

La modernizzazione dovrebbe seguire un approccio per gradi, e per raggiungere il risultato finale desiderato richiede una trasformazione che passa attraverso diverse iniziative. Ciò implica spesso l’utilizzo di sistemi, database e set di dati (system of record) esistenti, mentre si gestisce la transizione verso nuove modalità di interazione con le persone, i processi e la tecnologia (system of engagement) per modernizzare e raggiungere più efficacemente gli obiettivi di soddisfazione del cliente.

I “system of record” gestiscono i dati di riferimento critici dell’organizzazione e supportano i processi transazionali fondamentali. Secondo Gartner, per offrire valore aziendale, qualsiasi funzionalità differenziante o innovativa finirà a un certo punto per basarsi su transazioni system-of-record. Tuttavia, per offrire servizi critici che abilitino le funzionalità legate alla digital transformation potrebbe essere necessario un rinnovamento di molti “system of record” e processi IT esistenti.

Questo accade perché i “system of record” costituiscono le fondamenta dell’infrastruttura tecnologica aziendale e non possono subire interruzioni o ritardi. Senza stabili fondamenta dei “system of record” e dei processi fondamentali, che devono essere affidabili ed economici, diventa difficile portare innovazione.

Lo sfruttamento dei “system of record” esistenti aiuta gli sforzi per la digital transformation, oltre a consentire l’utilizzo dei nuovi “system of engagement” che migliorano l’esperienza del cliente. I risultati aziendali sono però condizionati da eredità multiple e da nuovi set di dati che possono causare ritardi. Tecnologie come MaxParallel possono aiutare a ottimizzare i vari “system of record”. L’utilizzo di questo software “plug and play” per ottimizzare i carichi di lavoro del database, capace di inserirsi nell’infrastruttura senza causare problemi, aumenterà in definitiva erogazione e produttività dei dati destinati ai “system of engagement”.

Ma non è tutto. I “system of engagement” hanno spesso bisogno di compilare i dati e i risultati raccolti dai “system of record”. Sfruttando la tecnologia di ottimizzazione dei database sul “system of engagement”, il tempo necessario a compilare i risultati e produrre le risposte scende drasticamente, offrendo un rapido “time-to-value” alla risposta cercata. Il tempo è denaro, e il tempo necessario a raccogliere le informazioni è fondamentale: nel mondo attuale, in cui le aziende operano ventiquattrore su ventiquattro e in tempo reale, significa la capacità di sopravvivere.

Siamo in un mondo di cloud ibridi

Nelle aziende tecnologiche non ci sono molte conversazioni in cui il cloud non venga menzionato almeno una volta. Allo stesso tempo, il mondo intero non sta comunque spostando tutto sul cloud e ci sarà quindi sempre la necessità di soluzioni on-premise. Le iniziative di trasformazione digitale si allineano ai modelli di business esistenti, andando spesso da ambienti on-premise ad ambienti cloud per offrire un’esperienza cliente tempestiva e ottimale. Ovviamente alcune applicazioni devono affrontare ostacoli maggiori nello spostamento sul cloud; tra i principali esempi di questi ostacoli ci sono latenza, connettività intermittente e necessità di normative. Il risultato è che nel 2018, e anche oltre, l’importanza delle tecnologie di cloud ibrido continuerà a crescere.

DataCore, per esempio, ha abbracciato il cloud ibrido, offrendo una suite di soluzioni ora disponibile sia on-premise sia nella cloud. Le offerte di software per l’ottimizzazione dei database e di software-defined storage sono “pacchettizzate” e disponibili sui marketplace cloud, in modo da semplificarne e renderne conveniente l’implementazione. Gli utenti, per esempio, possono velocemente provare e verificare con mano i risultati del database con MaxParallel ‘prima e dopo’ avere adottato queste soluzioni, utilizzandole per accelerare e migliorare la produttività delle loro applicazioni e delle loro iniziative.

Un esempio di applicazione del software-defined storage che contribuirà significativamente alla crescita del cloud ibrido è la semplicità di accesso a dati e applicazioni business-critical che esso garantisce. Questa è la chiave per il disaster recovery, considerando che per un’impresa il costo medio per una singola ora di downtime è pari a 300.000 dollari statunitensi. In questo caso una soluzione cloud ibrida ottimale può fare la differenza tra uscire molto velocemente da una crisi a costi contenuti e compromettere la reputazione aziendale. Tuttavia, replicare le operazioni su un sito fisico remoto può rivelarsi difficile e costoso, per cui molte imprese per la loro strategia di disaster recovery stanno rivolgendosi al cloud.

Le soluzioni software cloud sono ampiamente disponibili in posti come l’Azure Marketplace di Microsoft o quello di AWS. Nel 2017, per esempio, DataCore ha iniziato a offrire una serie di soluzioni di storage basate su cloud e iper-convergenti. E nel 2018 ne arriveranno altre. Gli utenti DataCore che hanno implementazioni on-premise di soluzioni di storage software-defined e iper-convergenti possono utilizzare DataCore Cloud Replication per sfruttare il cloud come luogo di replica aggiuntivo proteggendo i sistemi a elevata disponibilità e realizzando il disaster recovery. Questo rende molto più semplice per le imprese trarre vantaggio da scalabilità, agilità e convenienza del cloud per installare rapidamente un sito sicuro di replica remota, approfittando della gestione unificata dello storage tra l’infrastruttura on-premise e il cloud. Nel 2018, DataCore vede il cloud ibrido come opportunità di crescita.

Fondamentalmente, le applicazioni cloud ibride possono aiutare le imprese a raggiungere più efficacemente gli obiettivi aziendali mission critical, come l’accelerazione dei tempi di risposta e la disponibilità di un disaster recovery più efficiente. Questi si possono ottenere grazie alla replica continua dei dati critici all’interno di una configurazione di cloud ibrido che può essere implementata con grande rapidità.

Con gli utenti che sempre più valuteranno e implementeranno soluzioni basate sul cloud, vedremo una grande crescita delle tecnologie di cloud ibrido. Sarà fondamentale per le nuove generazioni delle soluzioni di cloud ibrido offrire una modalità coerente di gestione sia on-premise sia nel cloud. L’infrastruttura, ovunque sia collocata, deve diventare invisibile. I dati possono trovarsi ovunque, ma quello che conta saranno accessibilità e reattività adeguati alle aspettative dei clienti. Attraverso un set di soluzioni di cloud privato e pubblico, le organizzazioni potranno prendere serenamente decisioni tecnologiche in base alle esigenze aziendali, invece che decisioni aziendali in base alle complicazioni tecnologiche.

L’infrastruttura invisibile

Il software-defined è il veicolo della modernizzazione e il ponte per la trasformazione digitale che riunisce tecnologie vecchie e nuove, rendendo invisibili alle applicazioni da cui dipendono le organizzazioni i sottostanti cambiamenti.

Le soluzioni di storage software-defined di nuova generazione rimarranno sulla cresta dell’onda, colmando il divario tra le necessità di una complicata infrastruttura legacy e quelle di una moderna infrastruttura di storage “invisibile”.

In larga parte dovuta alla trasformazione digitale, l’esigenza di velocità spingerà molti a implementare un’infrastruttura software-defined. IDC prevede che il mercato del software-defined storage crescerà a un tasso del 13,5% dal 2017 al 2021, arrivando a valere 16,2 miliardi di dollari statunitensi. Secondo il report Predictions 2018 di Forrester, l’infrastruttura software-defined dovrebbe conquistare nel 2018 il predominio. Forrester raccomanda quindi che i carichi di lavoro di produzione vengano gestiti su piattaforme di elaborazione e su storage software-defined.

Un segmento caldo del mercato del software-defined storage (SDS) negli ultimi anni è stato quello dello storage iper-convergente. La stessa DataCore ha registrato nell’ultimo anno un tasso di crescita ben superiore al 50% per le sue soluzioni iper-convergenti. Nel 2018, la divisione tra iper-convergenza e SDS sarà più sfumata, con la prima destinata a diventare un sotto-segmento in un modello completamente software-defined dove i clienti avranno la flessibilità di scegliere l’implementazione più adatta, sia essa su hardware fisico, macchine virtuali, appliance o cloud. Il risultato finale sarà ancora una volta l’ottimizzazione di produttività e agilità aziendali.

I due metodi continueranno a confondersi in più di un modello “ibrido-convergente” che è parte di un più ampio continuum di modernizzazione e convergenza dell’infrastruttura. Qui gli utenti potranno facilmente spostarsi tra diverse opzioni di implementazione, dalla virtualizzazione dello storage, attraverso SAN convergenti/server, all’iper-convergenza, dal cloud all’ibrido-convergente. Tutto sotto il controllo di un pannello di gestione unificato in grado di occuparsi, grazie alla capacità del software-defined di assorbire tecnologie future, sia dell’esistente infrastruttura legacy sia della nuova infrastruttura ibrido-convergente.

Tuttavia, il passaggio a un maggiore grado di virtualizzazione ha reso il data center più agile e più semplice da implementare, ma a prezzo di una superiore complessità. In DataCore, dove abbiamo avuto un vantaggio esclusivo rispetto ai concorrenti grazie al quale abbiamo visto oltre vent’anni di evoluzione del software-defined storage, ciò che è ovvio è che i team IT non possono più fare i conti con silo differenti per gestire le loro risorse, fronteggiandone la complessità e i dettagli che ne derivano. L’architettura software-defined è il ponte fondamentale, non solo tra modelli alternativi di implementazione, ma anche tra infrastrutture on-premise e cloud. Per portare il software-defined storage a un nuovo livello, l’IT avrà però bisogno dell’aiuto di tecnologie come l’automazione e il machine learning.

La nuova generazione di software-defined storage, con la sua enfasi su analytics, automazione e prestazioni a bassa latenza per supportare i modelli che vedono i dati sparsi ovunque, avrà il compito fondamentale di mettere sotto controllo la complessità, spezzando le catene per permettere una maggiore libertà di movimento, dal cloud privato al cloud multi-sito fino al cloud pubblico. Il 2018 sarà un anno chiave per vedere come il software-defined storage evolverà nella nuova generazione.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php