Una volta diffuso il know how fondamentale sulla nuova tecnologia, i player di mercato hanno cominciato a proporre la virtualizzazione per scopi molto diversi dalla server consolidation. La flessibilità che gli hypervisor introducono nel mondo dei serv …
Una volta diffuso il know how fondamentale sulla nuova tecnologia, i player di mercato hanno cominciato a proporre la virtualizzazione per scopi molto diversi dalla server consolidation.
La flessibilità che gli hypervisor introducono nel mondo dei server aziendali può essere utilizzata anche in altre aree, spesso lontanissime tra di loro.
Andiamo ad analizzare come la virtualizzazione può essere usata per innovare o addirittura rivoluzionare il mondo dell’accesso alle postazioni aziendali, dello sviluppo software, della sicurezza dell’infrastruttura informatica e il mondo in cui il business reagisce alle sollecitazioni impreviste del mercato.
L’applicazione su cui oggi i virtualization vendor puntano di più in assoluto, anche se non è necessariamente quella che il mercato abbraccerà più volentieri, è la cosiddetta “Virtual desktop infrastructure” (anche detta “Hosted desktop infrastructure”) o Vdi.
Il concetto è semplice: anziché consolidare un certo numero di server fisici in un singolo virtualization host, si consolidano un certo numero di workstation aziendali, a cui i dipendenti accedono attraverso l’uso dei ben noti “thin client” e dei protocolli di remoting come Rdp di Microsoft. L’idea di centralizzare le postazioni di lavoro fornendo all’utente solo le periferiche di base come il monitor, la tastiera e il mouse, è vecchia quanto i computer e si concretizza da sempre nelle realtà dove ci sono mainframe e terminali.
Con l’avvento dei sistemi operativi moderni come Windows, questa architettura centralizzata è stata ribattezzata “server-based computing” (Sbc) o “thin computing”, ed è diventata dipendente da un prodotto fondamentale: Microsoft Terminal Server.
Il thin computing ha una serie di vantaggi notevoli, soprattutto se a Terminal Server vengono aggiunte soluzioni che ne estendono le capacità come Citrix XenApp (una volta noto come Metaframe e poi Presentation Server).
Putroppo, però, questo approccio ha anche una serie di problematiche da non sottovalutare tra cui la necessità di ospitare tutte le applicazioni accedute remotamente sullo stesso sistema operativo.
Tale configurazione implica che, se un software tra quelli in esecuzione diventa instabile, tutti gli altri sono a rischio e possono fermare una larga fetta della forza lavoro. Inoltre, versioni diverse della stessa applicazione raramente possono coesistere sulla stessa piattaforma, costringendo le aziende a suddividere le applicazioni incompatibili tra di loro in molteplici terminal server.
L’arrivo della virtualizzazione, con le sue virtual machine totalmente isolate tra di loro, permette di risolvere questi problemi. Ogni utente può avere la sua Vm personale con i suoi programmi specifici, come se la workstation fosse sotto la sua scrivania, e non importa cosa succede di terribile dentro quel sistema operativo: tutte le altre Vm nello stesso virtualization host continueranno a funzionare indisturbate.
A coordinare l’accesso degli utenti alle Vm ci pensa un nuovo componente chiamato “connection broker”, che interagisce con l’hypervisor e la sua interfaccia di amministrazione. Più il connection broker è evoluto e più la gestione dei desktop aziendali diventa efficiente: alcuni prodotti accendono le Vm, e le configurano in tempo reale, solo quando sono effettivamente richieste dagli utenti per risparmiare le preziose risorse fisiche del virtualization host.
Ovviamente, l’approccio Vdi non risolve tutte le problematiche del server-based computing: i protocolli di remoting sono ancora molto lenti e spesso inadeguati per veicolare le nuove applicazioni multimediali che oggi sono parte dell’attività lavorativa quotidiana, l’architettura è ancora totalmente dipendente dalla rete e qualunque malfunzionamento comporta un blocco totale della produzione, il costo dei thin client è ancora molto alto comparato a una normale workstation, e via dicendo.
In più il Vdi, in quanto nuova tecnologia, si porta dietro una classe completamente nuova di problematiche: le Vm occupano quantità di spazio enorme (soprattutto se l’azienda non implementa una rigida politica di controllo su cosa può essere scaricato da Internet) ma essendo salvate nelle unità di storage centralizzate (come Nas e San) anziché su dischi locali, il cosidetto “costo per megabyte” è enormemente più alto; la quantità di prodotti necessari per realizzare una soluzione Vdi è molto maggiore di quella necessaria per realizzare una soluzione basata su Terminal Services e ciò comporta un costo più alto e un aumento della complessità non indifferente; ci sono delle difficoltà oggettive nel conteggiare le licenze software per le Vm che sono spente; e via di questo passo.
Nonostante tutte queste limitazioni, i vendor sono assolutamente convinti che il Vdi sia la nuova frontiera della virtualizzazione e stanno investendo massicciamente già dal 2006, tanto che questo segmento di mercato, in termini di competizione, è il più affollato.





