Appunti di Big Data Center economy

Google ed Amazon rivelano alcuni cardini del successo nel grande cloud dei big data center. Non sempre sono prevedibili: bring your own hardware, dicono entrambi; e l’efficienza può essere troppa.

La gestione dei data center più grandi del mondo sembra essere unica e seguire schemi non applicabili in condizioni normali, ed è interessante sapere quali ne siano i punti chiave.
Meno evidente è che altri elementi possono invece essere applicati anche ai data center di dimensioni inferiori, condensando esperienza altrimenti non assommabile. Un po’ come parlare di big data center, insomma.
Nelle ultime settimane in diverse conferenze tenutesi sul suolo statunitense sono trapelate alcune informazioni di questo tipo. Google ed Amazon sono solitamente gelosissimi delle loro competenze, ma di tanto in tanto offrono qualche spunto, come ha riferito Joab Jackson su Itworld.


Make it cheap

“Molto di quello che Google fa è indirizzato alla super economia”, ha detto Todd Underwood di Google alla conferenza Usenix Lisa (Large Installation System Administration) di inizio novembre (l’audio e video della sua presentazione sono disponibili qui).
Il punto di vista di Underwood è dato dalla sua qualifica: egli è site reliability engineer.
Non si può immaginare a priori il successo di un servizio proposto, dice, quindi bisogna progettarlo fin dall’inizio in modo che i suoi costi crescano in modo sub-lineare, ovvero molto meno del numero di utenti: “tutto ciò che scala a richiesta è un disastro se non hai costi bassissimi”, ha completato. E i costi possono essere in denaro, risorse, uomini o altre unità di misura.
Il principale avversario di Google è la spasmodica ricerca di affidabilità dei suoi ingegneri, ha insistito Underwood: andare oltre un’affidabilità del 99,999% vuol dire buttare denaro. Con buona pace degli efficientisti ad oltranza.


Bring your own hardware

La settimana successiva al Lisa si è tenuto l’Amazon Web Services re:Invent. Parlando in questa occasione, James Hamilton di Aws ha spiegato altri punti fondamentali della gestione di big data center. La fortuna di Aws è stata di aver pensato ad un’architettura che si è rivelata corretta per la maggior parte. “Se ci sono errori o se gli utenti decidono di farne un grande uso, il servizio è messo a dura prova con interruzioni e problemi”. Hamilton può ben osservarlo, dalla sua posizione di vicepresidente di Aws.
Il costo d’un servizio Aws, scavando fino in fondo, dipende dai costi infrastrutturali. Questa è una differenza tra Aws e l’Ict delle altre aziende anche grandi. Se in genere l’infrastruttura Ict non è il core business aziendale, Amazon si è invece concentrata solo su quello. Per fare un esempio ha sviluppato i propri server, così come Google ha i suoi switch. Questa ottimizzazione “ha senso economico sia immediato sia in prospettiva”, ha detto Hamilton, “in quanto ci permette di parlare direttamente con i produttori di componenti, raccontando loro cosa ci servirà in futuro”.


Infrastruttura supercomputing?

E parlando di futuro, oltre il cloud potrebbe esserci il supercomputing prossimo venturo. La tremenda crescita di prestazioni registrata in questo comparto sta chiedendo l’aggiornamento dei benchmark. Si tratta d’un punto di flesso che ben conosciamo da predecenti situazioni verificatesi nella storia del compunting power, dal transazionale ai microprocessori. Forse questa circostanza è indice del progressivo ingresso del supercomputing nel mainstream dei big data center.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome