Le sei incognite della virtualizzazione

Nel 60% dei casi, il passaggio dai server fisici a quelli virtuali va a scapito della sicurezza. Da Gartner le linee guida per ridurre i rischi più diffusi.

Attirate dai vantaggi legati alla virtualizzazione, un numero sempre più rilevante di aziende sta sostituendo i server fisici con server virtuali. Tanto che la stessa Gartner stima che entro il 2012 verrà virtualizzata oltre la metà dei carichi di lavoro dei data center aziendali per i quali questa opzione è praticabile, con un significativo balzo in avanti rispetto al 18% di queste attività che risultava virtualizzato al dicembre del 2009.

Il problema, osservano gli analisti di Gartner, sta nel fatto che, nella maggior parte dei casi, i progetti di virtualizzazione non prevedono il coinvolgimento degli specialisti in sicurezza informatica nelle fasi preliminari di definizione dell’architettura e di pianificazione. Col risultato che oltre il 60% dei server virtualizzati risulta più vulnerabile sul piano della sicurezza rispetto a quelli fisici che è andato a sostituire.

Benché la virtualizzazione non sia intrinsecamente insicura, come ha sottolineato la stessa Gartner, nell’immediato la situazione è destinata a mantenersi critica a causa del diffondersi del ricorso a workload virtualizzati e, in particolare, alla combinazione di workload con differenti livelli di fiducia. Forse anche per questo gli analisti Gartner ritengono che occorrerà attendere il 2012 per cominciare a registrare un’inversione di tendenza. Entro il 2015 la percentuale dei server insicuri dovrebbe scendere al 30%.

Ma quali sono i rischi che vengono comunemente trascurati?
Gartner ha individuato i sei più comuni e per ciascuno di loro ha proposto le adeguate misure di protezione.

  • Mancato coinvolgimento della funzione Sicurezza Informatica nella fase iniziale del progetto.
    Questa situazione si è verificata nel 40% dei casi. Nasce da un’errata percezione del rischio da parte dei team operativi che non hanno consapevolezza delle nuove vulnerabilità create dallo strato di software nella forma di hypervisor e Virtual Machine Monitor (Vmm) utilizzato per la virtualizzazione. Per questo ritengono di essere già in possesso delle conoscenze e degli strumenti operativi per garantire la protezione di workload, sistemi operativi e hardware. Per Gartner solo un’attenta valutazione dei rischi porta all’implementazione di adeguati processi di sicurezza.
  • La compromissione del layer di virtualizzazione può portare al danneggiamento di tutti i workload ospitati. Trattandosi di una nuova piattaforma, l’hypervisor può presentare vulnerabilità che ancora non si sono evidenziate, ma che potrebbero essere individuate e sfruttate dagli hacker. Per questo motivo, è buona norma trattare il layer come la piattaforma x86 più critica nel data center aziendale e mantenerlo il più leggero possibile andando a rafforzare la configurazione per le modifiche non autorizzate. Inoltre, ai vendor di virtualizzazione dovrebbe essere richiesto di supportare la valutazione del layer hypervisor/Vmm al boot-up per assicurarsi che non sia compromesso. E, soprattutto, le organizzazioni non dovrebbero fare affidamento su controlli di sicurezza basati su host per individuare una violazione o proteggere qualsiasi cosa eseguita al di sotto.
  • Le comunicazioni tra macchine virtuali all’interno di un singolo Host sfuggono ai dispositivi di sicurezza basati su rete. Nell’intento di rendere quanto più efficienti possibile le comunicazioni tra le virtual machine molte piattaforme di virtualizzazione consentono di creare nell’host fisico un software basato su reti virtuali e switch per consentire alle macchine virtuali di comunicare direttamente. Il problema nasce dal fatto che questo traffico di dati sfugge compltamente ai dispositivi di protezione presenti. Per mantenere livelli di visibilità e di controllo adeguati, occorre almeno prevedere lo stesso tipo di monitoraggio normalmente utilizzato per i network fisici. Oltre, naturalmente, a privilegiare quei vendor di sicurezza che applicano ai sistemi fisici e a quelli virtuali una coerente policy di sicurezza.
  • Manca una separazione sufficiente dei Workload con differenti livello di fiducia consolidati su un unico host.
    La scelta di virtualizzare anche i workload più critici diventa un problema quando, in presenza sullo stesso server fisico di workload con livelli di fiducia diversi, non si provvede a garantire un’adeguata separazione. Garantirsi la visibilità dei workload meno affidabili in modo è il requisito minimo per provvedere ad isolarli adeguatamente.
  • Manca un adeguato controllo adeguato dell’accesso amministrativo al layer hypervisor e alla macchina virtuale. Molte piattaforme di virtualizzazione prevedono percorsi multipli di amministrazione rendendo di fatto oltremodo difficile un rigoroso controllo dell’accesso amministrativo al layer. Per questo Gartner raccomanda di preferire le piattaforme di virtualizzazione che consentono di definire livelli di responsabilità amministrativa differenziati.
  • Possibilità di accessi non autorizzati in presenza di server fisici combinati in una sola macchina.
    In questo caso diventa più facile per amministratore e utenti aggirare i propri livelli di autorizzazione per avere accesso ai dati. Un rischio che si evita affidando allo stesso team la responsabilità della configurazione della topologia di rete sia in ambiente fisico che in ambiente virtuale.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome