Home Big Data Data gravity in aumento? Passate al cognitive computing

Data gravity in aumento? Passate al cognitive computing

I ricercatori di tutto il mondo individuano nei dati il maggior potenziale per trasformare le industrie, le imprese e la società nel corso dei prossimi anni. Dai dati bisogna quindi partire per sviluppare nuovi modelli di business, all’interno di un paradigma Ict completamente nuovo. Si tratta di dati con caratteristiche diverse da quelli tradizionali: cambiano in fretta, non sono strutturati e vanno compresi nel loro contesto; hanno un valore molto elevato, per chi sappia estrarne pattern utili.

Se finora la figura professionale sviluppatasi per individuare i pattern è stata umana, ovvero il data scientist, è arrivato il momento di passare ad una figura automatica, il software cognitivo. L’uomo spiega al software come migliorarsi da solo, sia nel raccogliere i dati, sia nel cercare pattern da proporre a chi deve decidere il da farsi.

Mauden e Ibm partnership per il cognitve computing

E’ questa l’era del cognitive computing, presentata da Mauden insieme ad Ibm, con alcuni progetti già esistenti nel machine learning  e nel cognitive computing, anche rivolti alla comunicazione in linguaggio naturale.

Per lavorare in quest’ambito servono partner affidabili. Mauden si propone, forte della sua lunga militanza nell’informatica e della sua adesione alle piattaforme Ibm, sia BlueMix sia Watson.

Oggi l’analisi dei dati parte dalla loro analisi. “Gli analytics possono essere descrittivi, diagnostici, predittivi, prescrittivi e cognitivi”, spiega Cesare D’Angelo, Direttore della Business Unit Evo di Mauden; “via via ci chiediamo cosa è successo, perché è successo, cosa succederà, come posso farlo succedere e come contestualizzarli, interpretandoli per renderli utilizzabili”. Ma l’uomo non riesce a manipolare grandi quantità di dati in modo efficaci, mente l’elaboratore lo fa con modalità particolarmente efficaci. Ecco perché serve un software che impari via via che ci si addentra in analitiche più profonde: al succedersi delle categorie sopra elencate, infatti, l’intervento umano via via diminuisce, passando da descrittivo a cognitivo.

Watson come antigravitazione dei dati

Quantità e qualità dei dati in circolazione oggi e nel futuro vanno correttamente valutati. Se oggi ci sono 4 zettabyte di dati prevalentemente strutturati, già nel 2020 la mole aumenterà a 44 zettabyte, al 90% non strutturati e per lo più intrasportabili. E’ questo l’ambiente nel quale dovremo muoverci nei prossimi anni, la landing zone al cui interno troviamo i data lake, i data reservoirs ed altri mostri estremamente difficili da trattare.

La gravità dei dati, intesa come freno alla loro trasportabilità, sta cambiando radicalmente”, anticipa Jean-Michel Rodriguez, Cto Ibm Client Center Montpellier; “serve una nuova architettura informativa, nella quale la latenza, i costi e i rischi dello spostamento di dati siano considerate correttamente perché i dati restino sfruttabili”. Anziché avere dal software certezze quasi assolute da pochi dati, si troveranno soluzioni approssimate, euristiche, proposte dall’analisi di grandi moli di dati.

Watson è uno strumento particolarmente efficace per proporre soluzioni che sfuggono all’occhio umano. Oggi ha bisogno di essere istruito dall’uomo ed affiancato da un esperto per scegliere i pattern più idonei al contesto di analisi. Domani, chissà.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php