Home HPE lancia l'AI Cloud per il deployment dell'intelligenza artificiale su larga scala

HPE lancia l’AI Cloud per il deployment dell’intelligenza artificiale su larga scala

Alla conferenza HPE Discover 2023, Hewlett Packard Enterprise (HPE) ha annunciato il suo ingresso nel mercato dell’intelligenza artificiale in cloud attraverso l’espansione del suo portafoglio HPE GreenLake per offrire modelli linguistici di grandi dimensioni a qualsiasi azienda, dalle startup alle società Fortune 500, per l’accesso on-demand in un servizio cloud di supercomputing multi-tenant.

Con l’introduzione di HPE GreenLake for Large Language Models (LLMs), le aziende possono addestrare, mettere a punto e distribuire privatamente l’IA su larga scala utilizzando una piattaforma di supercomputing sostenibile che combina il software IA di HPE e i supercomputer leader di mercato. HPE GreenLake for LLMs sarà fornito in collaborazione con il partner di HPE Aleph Alpha, una startup tedesca impegnata nell’ambito AI, per garantire agli utenti un LLM collaudato sul campo e pronto all’uso, così da realizzare casi d’uso che richiedono l’elaborazione e l’analisi di testi e immagini.

HPE GreenLake for LLMs è la prima di una serie di applicazioni IA specifiche che HPE prevede di lanciare in futuro. Queste applicazioni includeranno il supporto per la modellazione climatica, la sanità e le life science, i servizi finanziari, la produzione e i trasporti.

Siamo a un punto di svolta, un mutamento generazionale nel mercato dell’IA che cambierà in maniera altrettanto radicale il web, il mobile e il cloud“, ha dichiarato Antonio Neri, presidente e CEO di HPE. “HPE sta rendendo l’IA, un tempo appannaggio esclusivo dei laboratori governativi ben finanziati e dei giganti del cloud globale, accessibile a tutti, offrendo una gamma di applicazioni di IA, a partire da modelli linguistici di grandi dimensioni, che girano sui supercomputer collaudati e sostenibili di HPE. Ora le aziende possono adottare l’IA per sostenere l’innovazione, conquistare i mercati e raggiungere risultati straordinari con un servizio cloud on-demand che addestra, perfeziona e distribuisce i modelli su vasta scala e in modo responsabile“.

HPE – sottolinea l’azienda – è tra i leader mondiali del supercomputing, in grado di abilitare livelli di performance e di ampiezza di applicazione senza precedenti per l’IA, tra cui l’abbattimento della barriera della velocità exascale con il supercomputer più veloce del mondo, Frontier.

A differenza delle offerte cloud generiche che eseguono più carichi di lavoro in parallelo, evidenzia Hewlett Packard Enterprise, HPE GreenLake per LLMs si basa su un’architettura AI-native progettata in modo esclusivo per eseguire un singolo carico di lavoro di training e simulazione AI su larga scala e alla massima capacità di calcolo. L’offerta supporterà attività di AI e HPC su centinaia o migliaia di CPU o GPU contemporaneamente. Questa capacità è significativamente più efficace, affidabile ed efficiente per addestrare l’IA e creare modelli più accurati, consentendo alle aziende di accelerare il loro percorso dal Proof of Concept alla produzione, così da risolvere i problemi più rapidamente.

HPE GreenLake per LLMs, la prima di una serie di applicazioni AI

HPE GreenLake per LLMs includerà l’accesso a Luminous, un modello linguistico pre-addestrato di Aleph Alpha, offerto in diverse lingue, tra cui inglese, francese, tedesco, italiano e spagnolo. LLMs consente ai clienti di sfruttare i propri dati, addestrare e mettere a punto un modello personalizzato, per ottenere insight in tempo reale basati sulle proprie conoscenze.

Questo servizio consente alle aziende di realizzare e commercializzare diverse applicazioni di IA per integrarle nei loro flussi di lavoro e creare valore sia in termini di ricerca sia di business.

Utilizzando i supercomputer e il software IA di HPE abbiamo addestrato in modo efficiente e rapido Luminous, un modello linguistico di grandi dimensioni per organizzazioni che operano in settori critici come banche, ospedali e studi legali, da utilizzare come assistente digitale per accelerare il processo decisionale e risparmiare tempo e risorse“, ha dichiarato Jonas Andrulis, fondatore e CEO di Aleph Alpha. “Siamo orgogliosi di essere partner di lancio di HPE GreenLake for Large Language Models e siamo impazienti di espandere la nostra collaborazione con HPE per portare Luminous in cloud e offrirlo come servizio ai nostri clienti finali e alimentare nuove applicazioni per le iniziative di business e di ricerca”.

HPE GreenLake per LLMs sarà disponibile on-demand e funzionerà sui supercomputer più potenti e sostenibili al mondo, i supercomputer HPE Cray XD, eliminando la necessità per i clienti di acquistare e gestire un proprio supercomputer, solitamente molto costoso, complesso e che necessita di competenze specifiche. L’offerta si avvale di HPE Cray Programming Environment, una suite software completamente integrata disegnata per ottimizzare le applicazioni HPC e AI, con una serie completa di strumenti per lo sviluppo, il porting, il debug e la messa a punto del codice.

Inoltre, questa piattaforma di supercomputing fornisce il supporto per il software AI/ML di HPE, che comprende HPE Machine Learning Development Environment per addestrare rapidamente modelli su larga scala e HPE Machine Learning Data Management Software per integrare, tracciare e verificare i dati con funzionalità AI riproducibili per generare modelli affidabili e accurati.

HPE – sottolinea inoltre l’azienda – si impegna a fornire ai propri clienti un IT sostenibile: HPE GreenLake per LLMs funzionerà in strutture di colocation, come QScale in Nord America, la prima infrastruttura a sfruttare un design appositamente studiato per supportare le esigenze di supercomputing, alimentato quasi per il 100% da energia rinnovabile. 

HPE accetta già ora ordini riguardo a HPE GreenLake per LMMs e prevede una disponibilità aggiuntiva entro la fine del 2023, a partire dal Nord America, mentre la disponibilità in Europa è prevista per l’inizio del prossimo anno.

HPE ha inoltre annunciato un’espansione delle sue soluzioni di calcolo per l’inferencing dell’AI. I nuovi server HPE ProLiant Gen11 sono ottimizzati per i workload AI, attraverso l’utilizzo di GPU avanzate. I server HPE ProLiant DL380a e DL320 Gen11 aumentano le prestazioni di inferenza AI di oltre 5 volte rispetto ai modelli precedenti, afferma l’azienda. Per ulteriori informazioni è possibile visitare la pagina dedicata HPE ProLiant Servers for AI.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php