Movidius vede 16 milioni di dollari

Nuovi chip mobili vanno oltre le possibilità della visione umana. Il mobile imaging computazionale a bassissimo consumo va su auto, occhiali, robot.

Quando apriamo gli occhi possiamo immediatamente riconoscere e classificare oggetti e strutture.
La visione umana è immediata e richiede enormi capacità di calcolo.
Oggi enormi potenze sono disponibili e permettono di simulare la visione umana e in certi casi anche di migliorarla, partendo da un sensore d’immagine.

Quasi tutti gli oggetti tecnologici d’oggi integrano una o più fotocamere. Questi device non sono buoni come l’occhio umano, ma sono stati sviluppati algoritmi di miglioramento. Finora la loro esecuzione era relegata a elaboratori potenti sia nel calcolo, sia nel consumo energetico: nuovi approcci di progetto, però, permettono di portare questa enorme capacità di calcolo anche in tasca, su dispositivi a basso consumo.
E’ di questo che si occupa Movidius, la start-up californiana che in luglio ha annunciato di aver ottenuto un robusto finanziamento di 16 milioni di dollari per lo sviluppo di chip dedicati al computational mobile imaging.
La soluzione di Movidius scaricherà il processore centrale da acquisizione, elaborazione e analisi di immagini, video e metadati dei sensori, permettendogli di eseguire l’interfaccia, la grafica e il sistema operativo ed occupandosi di estrarre nuove informazioni dai big data presenti nelle immagini e finora sottoutilizzati.


Nuovi chip per nuovi sensori

Parlando della fotocamera, negli ultimi anni sono emerse due nuove configurazioni della telecamera, che vanno oltre il paradigma classico: a campo luminoso e a matrice. Queste fotocamere richiedono molta potenza di calcolo; inoltre i nuovi sensori di luce visibile stanno reimpostando l’elaborazione d’immagine.
I nuovi chip realizzano un sistema complessivo denominato fotocamera computazionale, che rivela ed utilizza le informazioni presenti in un’immagine singola o in una sequenza ma che non siamo abituati a considerare né con gli occhi, né con altre elaborazioni. Alcune di queste possibilità sono già adottate sui device d’oggi, ma limitatamente ad algoritmi ed hardware disponibile, non specializzato.
Questi chip permettono risultati eccezionali avendo a disposizione correnti estremamente ridotte come quelle disponibili dai device portatili. Ma attenzione: anche le automobili e in generale tutti i veicoli si affidano oggi ad una potente elettronica embedded per imaging e localizzazione, anche al fine di prendere decisioni autonome (freni, Abs, allarme).


Chip per robot, auto ed occhiali

Alcune applicazioni sono già note anche se non disponibili sul segmento mobile, mentre altre sono assolutamente innovative. E’ in fase di boom lo sviluppo di nuove aree di applicazione e casi d’uso.
Tra le principali applicazioni per categoria troviamo High Dynamic Range (Hdr), fotografia e video, immagini multispettrali (spettro visibile ed infrarosso), Gesture Recognition, realtà virtuale (Vr), Augmented Reality (Ar) e localizzazione + mapping simultanei (Slam).
Lo Stereo 3D Imaging è essenziale per augmented reality, robot e veicoli in tempo reale o quasi. Le frontiere del riconoscimento dei gesti sono state aperte da poco e già promettono moltissimo (Kinect, Prime, Leap…). Uno straordinario futuro attende il simultaneous localization and mapping (Slam): già oggi è ampiamente utilizzato dai robot autonomi che operano in ambienti sconosciuti ma applicabile a qualsiasi oggetto in movimento, dallo smartphone all’automobile, passando per i nuovi device quali i Google Glass e simili.


L’umanità aumentata di Eulero

L’esempio più fantascientifico, e anche più inquietante, è dato dall’algoritmo di ingrandimento euleriano. Si tratta di un algoritmo che rivela informazioni nascoste. Applicata al volto, per esempio, amplifica le microespressioni facciali, permettendo di decodificare situazioni fisiologiche (flusso sanguigno) o psicologiche (difficoltà, menzogna) non visibili ad occhio nudo. Un vero esempio di umanità aumentata.
Un white paper con maggiori informazioni può essere richiesto a questo indirizzo.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome