Sostiene Teixeira: flash e virtualizzazione muteranno i datacenter

Secondo il ceo di DataCore lo storage definito dal software cambierà definitivamente gli ambienti enterprise.

Forse questo sarà l’anno in cui lo storage definito dal software trasformerà definitivamente il datacenter.
Secondo il ceo di DataCore Software, George Teixeira, infatti, lo spostamento verso un modello basato sulla virtualizzazione definito dal software invece che dall’hardware, a supporto delle applicazioni aziendali critiche, ha cambiato le fondamenta delle architetture a livello di elaborazione, di rete e di storage trasformandole da statiche a dinamiche.

«Il software definisce le basi dell’agilità e delle interazioni con l’utente – sostiene Teixeira – oltre a permettere di realizzare un’infrastruttura virtuale di lunga durata capace di adattarsi ai cambiamenti. L’obiettivo finale è quello di incrementare la produttività dell’utente e di migliorare l’esperienza applicativa».

Applicazioni core più virtuali

Gli sforzi per virtualizzare sempre di più il datacenter, per Teixeira, continueranno e vedremo una tendenza ancora più marcata a spostare le applicazioni di primo livello (Erp, database, sistemi di posta, Oltp) su piattaforme di virtualizzazione.
Le ragioni principali sono la convenienza economica e una maggiore produttività.
Gli ostacoli principali alla virtualizzazione delle applicazioni di primo livello sono però in gran parte legati allo storage.

Lo spostamento dei carichi di lavoro che fanno un uso intensivo dello storage su macchine virtuali (Vm) può avere un enorme impatto su prestazioni e disponibilità. Lo storage deve essere di conseguenza sovradimensionato e reso disponibile in maggiore quantità.
Inoltre, mano a mano che le aziende si consolidano sulle piattaforme virtuali si trovano a dover spendere di più per raggiungere elevati livelli di ridondanza, assicurando continuità operativa ed evitando fermi macchina, oltre a cercare di superare i colli di bottiglia che affliggono le prestazioni.

I costi elevati e le complessità causati dal sovradimensionamento annullano buona parte dei benefici.
Per questo, le aziende e dipartimenti It sono alla ricerca di un approccio più intelligente e più conveniente (per esempio software intelligente), rendendosi conto che la tradizionale tattica di utilizzare più hardware per risolvere il problema non è più praticabile.

Ssd ovunque

Un’altra grande tendenza, legata alla virtualizzazione delle applicazioni di primo livello, è il proliferare delle tecnologie Ssd basate su memoria flash.
La ragione, per Teixeira, è semplice: i dischi fissi sono dispositivi con meccanismi rotanti che non sono veloci come quelli basati su tecnologia di memoria elettronica ad alta velocità.

La memoria flash esiste da diversi anni, anche se fino a qualche tempo fa era troppo costosa per essere adottata in modo massiccio.
Pur restando più cara della tecnologia utilizzata nei dischi fissi con supporto rotante, il suo utilizzo nei tablet e nei telefoni cellulari sta portando a un abbassamento dei prezzi.
Tuttavia, la tecnologia flash è soggetta a deterioramento, e l’utilizzo di applicazioni che richiedono un numero elevato di cicli di scrittura può avere un impatto sulla sua durata nel tempo.

Nonostante ciò, i dispositivi flash sono una parte inevitabile del nostro futuro e devono essere integrati nella nostra filosofia architetturale.
La convenienza economica ci sta già spingendo verso un mondo che richiede livelli diversi di storage basato su memorie veloci o su meno costosi, ma più lenti, dischi fissi. Questo, a propria volta, incrementa la richiesta di software di auto-tiering in grado di operare su tutta l’azienda per ottimizzare le prestazioni e raggiungere il migliore compromesso sui costi, posizionando e spostando i dati sul livello più conveniente che sia in grado di offrire prestazioni accettabili.

Automazione storage

Per Teixeira siamo dunque di fronte a una costante domanda di spazio di archiviazione: la crescita sta continuando con un tasso superiore al 50% all’anno.
Ovviamente, la necessità non è solo quella di avere più dischi hardware per aumentare la capienza. Gli utenti richiedono invece uno storage automatico e autogestito, scalabile, dal rapido provisioning, con prestazioni veloci e in grado di garantire un livello elevatissimo di continuità operativa.

Anche in questo caso è necessario un software intelligente per semplificare e automatizzare la gestione dello storage.

Architetture definite dal software

Tutte queste tendenze avranno un enorme impatto sul modo in cui valutiamo, compriamo e utilizziamo lo storage.
Da ora in avanti per Teixeira l’It dovrà necessariamente considerare lo storage definito dal software come un elemento essenziale dei datacenter.

Oggi gli utenti si trovano di fronte a nuove dinamiche e veloci cambiamenti, e quindi non possono rimanere intrappolati nelle rigide architetture cablate di ieri.
Le infrastrutture poggiano su tre pilastri (elaborazione, rete e storage) e in ognuno di essi, in un mondo basato sul software e guidato dalle applicazioni, le decisioni sull’hardware passeranno in secondo piano.

Per il ceo di DataCore il grande successo di Vmware e di Microsoft Hyper-V dimostra che la virtualizzazione dei server porta un enorme valore.
Allo stesso modo, l’hypervisor storage e la virtualizzazione a livello di storage sono fondamentali per sbloccare le catene hardware che costituiscono un’àncora per i data center di nuova generazione.

La stessa riflessione che ha cambiato il modo di guardare i server va fatta sul mondo dello storage, e il software intelligente è il catalizzatore che lo permette. In effetti, il ruolo primario di un hypervisor storage è quello di virtualizzare le risorse di storage per ottenere gli stessi benefici (agilità, efficienza e flessibilità) che la tecnologia dell’hypervisor server ha portato a processori e memoria.

Quest’anno, dunque, il software comincerà trasformare il modo in cui pensiamo allo storage.

3 COMMENTI

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome