A fine 2007 le informazioni digitali generate saranno superiori alla capacità storage disponibile. Lo dice Idc, in un’indagine commissionata da Emc
Se provassimo a contare tutti i contenuti digitali che produciamo o consumiamo ogni giorno, forse perderemmo il sonno. Tonnellate di e-mail con allegati sempre più “pesanti”, quali foto, filmati, presentazioni elaborate e file audio, attraversano ogni giorno la grande Rete e finiscono per essere immagazzinate e duplicate (quando va bene), se non replicate, a più riprese. Si tratta di contenuti multimediali dei quali ormai non possiamo più fare a meno, come dimostrano i successi di siti quali YouTube o iTunes. Proprio per sondare questo “universo digitale”, lo specialista di gestione delle informazioni Emc ha incaricato Idc di valutarne l’evoluzione nel futuro più prossimo. «Nel 2006 a livello mondiale – esordisce Nino D’Auria, amministratore delegato di Emc Italia – sono stati creati o replicati 161 exabyte, ovvero miliardi di gigabyte di informazioni digitali. A fine 2007 saranno circa 250 superando la capacità storage disponibile. Entro il 2010, questo volume aumenterà di sei volte, superando i 988 exabyte. E se è vero che il 70% delle informazioni è generata da singoli individui, è parimenti vero che l’85% di queste sarà gestito da organizzazioni o enti per motivi di privacy, conformità, sicurezza, disponibilità o reperibilità». I dati forniti da Idc, sulla base delle proiezioni dell’utilizzo sempre più massiccio di telefoni di ultima generazione e Mms, fotocamere e telecamere digitali, lasciano sbalorditi. «Nel 1996 c’erano 48 milioni di navigatori su Internet – prosegue il manager -, nel 2006 erano 1,1 miliardi e nel 2010 saranno 1,6. Ma è l’esplosione della posta elettronica che lascia stupefatti. Dai 253 milioni di caselle e-mail del 1998 si è passati all’1,6 miliardi nel 2006 che diventeranno 2 miliardi nel 2010».
Ovviamente, trattandosi di un’indagine condotta a livello globale, i dati sono pesantemente influenzati dai comportamenti degli utenti nelle economie emergenti, come India e Cina, che crescono in maniera esponenziale. Ma anche nel nostro paese l’evoluzione dell’universo digitale corre più che nel resto del mondo: le informazioni prodotte in Italia nel 2006, infatti, sono state pari a 4.700 petabyte, ma le proiezioni per il 2010 sono di circa 32.000 Pb, con una crescita media annua del 59%, di 2 punti percentuali superiore alla media mondiale. «Circa l’80% delle informazioni che transitano sul sistema informativo delle organizzazioni – tiene a sottolineare Renato Simone, direttore marketing di Emc Italia – è di tipo non strutturato e questo ha pesanti ripercussioni sulle loro strutture It. Immagini digitali, pacchetti voce e file Mp3 sono scambiati sempre più di frequente anche in azienda. Oggi, inoltre, solo il 30% delle informazioni prodotte è soggetto a procedure di sicurezza, mentre per il 2010 questa percentuale salirà al 40%».
Gestire tutta questa mole di dati non è affatto semplice: Idc stima, infatti, che un’azienda che impieghi 1.000 persone spenda annualmente 5,7 milioni di dollari in tempo perso nel riformattare le informazioni che devono essere prese in carico da applicazioni differenti. Il mancato reperimento dei dati costa, invece, alla stessa azienda, 5,3 milioni di dollari l’anno. «Ecco perché – conclude Simone – la necessità di adottare un approccio strutturato alla corretta gestione dei dati si fa sempre più pressante. Si sente tanto parlare di deduplicazione delle informazioni, che sono immagazzinate, identiche, all’interno di una pluralità di server, pc e database, ma pochi hanno ben in mente quali implicazioni questi dati ridondati abbiano sull’It delle organizzazioni». La deduplicazione consiste nell’identificazione e rimozione dei dati replicati all’interno dei sistemi informativi. Questa “pulitura” avviene sfruttando la creazione di link tra i record che fanno riferimento a uno stesso dato, in modo che, per ogni informazione, siano immagazzinati di volta in volta solo gli elementi modificati. A detta di Idc, questo nuovo approccio potrà garantire un’impennata nell’efficienza complessiva dei sistemi di storage delle informazioni, con un peso di 20:1 rispetto ai tradizionali sistemi di backup.





