Nove terabyte validati in venti minuti

Messo a punto da Ibm un metodo per analizzare velocemente grandi quantità di dati.

Sono fattori critici della business analytic la qualità e il livello di affidabilità dei dati utilizzati e generati dal modello computazionbale seguito, che varia a seconda degli ambiti di calcolo (finanza, modellazione climatica, geologia, astrofisica).

Con la comparsa di sistemi come reti intelligenti e sistemi di monitoraggio, che si collegano a sensori, attuatori, tag Rfid, dispositivi di tracciamento Gps, la quantità di dati digitali aumenta di continuo ma le informazioni prodotte dai dispositivi devono essere analizzate rapidamente per far prendere le decisioni. In più, la velocità a cui vengono archiviati i dati supera la capacità di calcolo delle tecniche di analitica computazionale standard.

Alla prossima conferenza della Siam (Society for Industrial and Applied Mathematics), i ricercatori Ibm presenteranno un nuovo metodo, basato su un algoritmo matematico, che riduce di due ordini di grandezza la complessità computazionale, i costi e il consumo energetico necessari per analizzare enormi quantità di dati.

In un esperimento, riporta una nota di Ibm, i ricercatori della società hanno utilizzato un supercomputer, un sistema Blue Gene/P sito presso il Forschungszentrum Jülich, di Jülich, (Germania) per validare nove terabyte di dati in meno di 20 minuti, senza implicazioni sul fronte della accuratezza dell’analisi. Il sistema utilizzato per l’esperimento dispone di 72 rack, 294.912 processori e ha picchi prestazionali di un petaflop.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome