Home Cloud OctoML: machine learning accelerato su Aws, Azure e Google Cloud

OctoML: machine learning accelerato su Aws, Azure e Google Cloud

OctoML ha annunciato l’ultima release della sua Machine Learning Deployment Platform per consentire alle imprese di scalare le loro machine learning operations, MLOps.

Lanciata alla TVMcon 2021, la conferenza open source per la ML Acceleration, la nuova versione consente alle imprese di automatizzare l’ottimizzazione, il benchmarking delle prestazioni e la distribuzione di modelli di machine learning pronti per la produzione.

Tutto ciò – sottolinea OctoML – attraverso la più ampia gamma di cloud, dispositivi hardware e motori di accelerazione del machine learning.

La nuova piattaforma supporta infatti i tre principali cloud: Aws, Microsoft Azure e Google Cloud Platform. Nonché un’ampia scelta di opzioni hardware, tra cui GPU Nvidia, CPU Intel e Amd. Oltre a piattaforme all’avanguardia come Nvidia Jetson e Arm Cortex-A.

Un certo numero di clienti OctoML – ha messo in evidenza l’azienda – sta già utilizzando la nuova piattaforma per alimentare le proprie ML model “factories”.

L’input della piattaforma è rappresentato da un modello di machine learning addestrato, e l’output è un package contenente quello stesso modello, accelerato sui target di deployment scelti dagli utenti.

OctoML machine learning

I clienti di OctoML sono ora in grado di completare decine di accelerazioni alla settimana attraverso flussi di lavoro guidati da UI o API.

Le imprese saranno anche in grado di sfruttare gli insight del benchmarking delle prestazioni per migliorare drasticamente il loro time to market e ridurre il costo del servizio di inferenza attraverso l’accelerazione del modello.

La principale caratteristica della nuova piattaforma per il machine learning di OctoML è, come detto, la scelta ampliata di target di deployment.

Il supporto per Microsoft Azure offre una scelta su tutti e tre i principali cloud, compresi Aws e Google Cloud Platform. Inoltre, le CPU Amd e Intel e le GPU Nvidia sono opzioni target in ogni cloud.

Oltre a questo, c’è anche un ampio supporto edge, con Nvidia Jetson AGX Xavier e Jetson Xavier NX, con Cpu Arm A-72 e OS a 32 e 64 bit.

Un altro vantaggio della nuova piattaforma è un Model Zoo pre-accelerato che comprende un set di Computer Vision che include ResNet, YOLO, Mobilenet, Inception e altro. E un set di elaborazione del linguaggio naturale (NLP) che include BERT, GPT-2 e altri.

Inoltre, la nuova piattaforma introduce potenziamenti della performance e miglioramenti del benchmarking per consentire un rapido processo decisionale.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php