Google offre l’accesso ai chip di intelligenza artificiale

Qualche anno fa Google ha creato un nuovo tipo di chip, il tensor processing unit, o Tpu, per alimentare i suoi sistemi di intelligenza artificiale.

Questi chip sono stati progettati per gestire i processi complessi che saranno una chiave per il futuro dell'industria.

In questo momento, il nuovo servizio di Google è focalizzato su un modo per insegnare ai computer a riconoscere gli oggetti, la computer vision technology.

Ma con il passare del tempo, i nuovi chip aiuteranno anche le imprese a costruire una più ampia gamma di servizi.

Tensor processor unit per tutti

Ora Google ha deciso di fare un passo in avanti mettendo in vendita l'accesso ai chip attraverso il suo servizio di cloud con la speranza di aprire una nuova area di business.

A Mountain View infatti sono all’avanguardia nella progettazione di chip per l'intelligenza artificiale, ma sono anche sono grandi produttori di hardware.

Le unità di elaborazione Tensor sono quindi disponibili in versione beta pubblica per chiunque voglia provarle.

Google le ha testate utilizzandone 64 per addestrare ResNet-50 (una rete neurale per l'identificazione di immagini che serve anche come strumento di benchmarking per la velocità di formazione Ia) in soli 30 minuti.

Il nuovo hardware potrebbe aiutare ad attrarre i clienti verso la piattaforma cloud di Google con la promessa di una più rapida elaborazione ed esecuzione dell'apprendimento delle macchine.

Accelerare l'addestramento di nuovi sistemi di intelligenza artificiale può essere di grande aiuto per i data scientist che possono quindi utilizzare i risultati di tali esperimenti per apportare miglioramenti alle future iterazioni del modello.

Per ridurre i costi e migliorare l'efficienza dei suoi data center, Google progetta gran parte dell'hardware all'interno dai server alle apparecchiature di rete. Altri giganti del mondo Internet fanno lo stesso.

Uno dei primi utilizzatori dei chip di Google è stata Lyft, la rivale di Uber. Nella speranza di accelerare il lavoro sulle auto senza conducente, Lyft ha infatti iniziato a testare i Tpu. Utilizzando i chip, Lyft ha voluto accelerare lo sviluppo di sistemi che consentono alle auto senza conducente di identificare, ad esempio, i segnali stradali o i pedoni. Il training di questi sistemi può richiedere giorni, ma con i nuovi chip, la speranza è che questo lasso di tempo si riduca di molto.

I Tpu fino a oggi hanno svolto un lavoro importante contribuendo ad accelerare lo sviluppo di tutto, dall'Assistente di Google, il servizio che riconosce i comandi vocali sui telefoni Android, a Google Translate, l'applicazione che traduce una lingua in un' altra.

Grazie a loro la società sta anche riducendo la dipendenza da produttori di chip come Nvidia e Intel. Con questo obiettivo ha progettato anche i propri server e hardware di rete, riducendo la sua dipendenza da produttori di hardware come Dell, HP e Cisco.

Google non è l'unico a spingere sulla strada dell’hardware specializzato. Microsoft sta utilizzando field-programmable gate arrays (Fpga) sul campo per velocizzare le operazioni di machine learning interne e fornire ai clienti della piattaforma cloud Azure un collegamento in rete accelerato. Redmond sta lavorando anche per fornire ai clienti un modo per eseguire i loro modelli di apprendimento macchina in cima alle Fpga, proprio come il codice proprietario della società.

Amazon, nel frattempo, sta fornendo ai propri clienti istanze di calcolo che hanno il proprio Fpga dedicato. L'azienda sta inoltre lavorando allo sviluppo di un chip Ia specializzato che accelererà il calcolo dell'apprendimento automatico dei dispositivi Alexa.

 

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here