Home Aziende HPE HPE svela un portfolio end-to-end per l'AI generativa

HPE svela un portfolio end-to-end per l’AI generativa

In occasione della conferenza GTC, in cui NVIDIA ha annunciato la nuova piattaforma Blackwell, Hewlett Packard Enterprise (HPE) ha annunciato l’aggiornamento di quello che l’azienda descrive come uno dei portafogli AI-nativi più completi del settore, per favorire l’operatività delle applicazioni di AI generativa (GenAI), deep learning e machine learning (ML). Gli aggiornamenti includono: la disponibilità di due soluzioni GenAI full-stack co-ingegnerizzate da HPE e NVIDIA; un’anteprima del software di inferenza per l’apprendimento automatico di HPE; un’architettura di riferimento per la retrieval-augmented generation (RAG) a livello aziendale; supporto per lo sviluppo di prodotti futuri basati sulla nuova piattaforma NVIDIA Blackwell.

Per mantenere le promesse della GenAI e affrontare efficacemente l’intero ciclo di vita dell’IA, le soluzioni devono essere ibride“, ha dichiarato Antonio Neri, presidente e CEO di HPE. “Dall’addestramento e dalla messa a punto dei modelli on-premises, in una struttura di colocation o nel cloud pubblico, fino all’inferenza all’edge, l’AI è un carico di lavoro in cloud ibrido. HPE e NVIDIA vantano una lunga storia di collaborazione nell’innovazione e continueremo a offrire soluzioni software e hardware per l’intelligenza artificiale progettate congiuntamente, per aiutare i nostri clienti ad accelerare lo sviluppo e l’implementazione di GenAI dalla fase di ideazione a quella di produzione“.

L’IA generativa è in grado di trasformare i dati provenienti dai dispositivi connessi, dai data center e dai cloud in intuizioni che possono portare a innovazioni in tutti i settori“, ha dichiarato Jensen Huang, fondatore e CEO di NVIDIA. “La nostra crescente collaborazione con HPE consentirà alle imprese di ottenere una produttività senza precedenti sfruttando i propri dati per sviluppare e distribuire nuove applicazioni di IA in grado di trasformare le loro aziende“.

HPEAnnunciata alla SC23, la soluzione di supercomputing di HPE per l’IA generativa è ora disponibile su ordinazione per le organizzazioni che cercano una soluzione full-stack preconfigurata e pretestata per lo sviluppo e l’addestramento di modelli di IA di grandi dimensioni. Realizzata per aiutare i clienti ad accelerare i progetti di GenAI e deep learning, la soluzione chiavi in mano è alimentata da NVIDIA e può supportare fino a 168 Superchip NVIDIA GH200 Grace Hopper.

La soluzione consente alle grandi imprese, agli istituti di ricerca e agli enti governativi di semplificare il processo di sviluppo dei modelli con uno stack di software AI/ML che aiuta i clienti ad accelerare i progetti GenAI e di deep learning, fra cui LLM, sistemi di raccomandazione e database vettoriali. Fornita con servizi di installazione e configurazione, questa soluzione chiavi in mano è progettata per essere utilizzata nei centri di ricerca sull’IA e nelle grandi aziende per migliorare il time-to-value e accelerare il training di 2-3 volte. Per ulteriori informazioni o per ordinarla, è possibile visitare la pagina dedicata alla soluzione di supercomputing di HPE per l’IA generativa.

Presentata in anteprima a Discover Barcelona 2023, la soluzione di enterprise computing di HPE per l’IA generativa è ora disponibile per i clienti direttamente o tramite HPE GreenLake con un modello pay-per-use flessibile e scalabile. Progettata in collaborazione con NVIDIA, la soluzione di fine-tuning e inferenza preconfigurata è progettata per ridurre i tempi e i costi di ramp-up offrendo i giusti servizi di calcolo, storage, software, networking e consulenza di cui le aziende hanno bisogno per produrre applicazioni di IA generativa. La soluzione AI nativa full-stack offre alle aziende la velocità, la scala e il controllo necessari per personalizzare i modelli foundational utilizzando dati privati e distribuire applicazioni GenAI in un modello di cloud ibrido.

Grazie a un cluster di calcolo AI ad alte prestazioni e al software di HPE e NVIDIA, la soluzione è ideale per la messa a punto leggera dei modelli, la RAG e l’inferenza su scala. Il tempo di messa a punto per un modello Llama 2 da 70 miliardi di parametri eseguito con questa soluzione diminuisce linearmente con il numero di nodi, impiegando sei minuti su un sistema a 16 nodi, afferma l’azienda. La velocità e le prestazioni consentono ai clienti di realizzare un time-to-value più rapido, migliorando la produttività aziendale con applicazioni AI come assistenti virtuali, chatbot intelligenti e ricerca aziendale.

Basata sui server HPE ProLiant DL380a Gen11, la soluzione è preconfigurata con le GPU NVIDIA, la piattaforma di networking Ethernet NVIDIA Spectrum-X e le DPU NVIDIA BlueField-3. La soluzione è arricchita dalla piattaforma di machine learning e dal software di analisi di HPE, il software NVIDIA AI Enterprise 5.0 con il nuovo microservizio NVIDIA NIM per l’inferenza ottimizzata di modelli generativi di intelligenza artificiale, nonché NVIDIA NeMo Retriever e altre librerie di data science e AI.

Per colmare il divario di competenze in materia di IA, gli esperti di HPE Services aiuteranno le aziende a progettare, implementare e gestire la soluzione, che include l’applicazione di appropriate tecniche di messa a punto dei modelli. Per maggiori informazioni o per ordinarla, è possibile visitare la pagina della soluzione di enterprise computing di HPE per l’IA generativa.

Inoltre, HPE e NVIDIA stanno collaborando a soluzioni software che aiuteranno le aziende a compiere il passo successivo, trasformando le proof-of-concept di AI e ML in applicazioni di produzione. Disponibile per i clienti HPE come anteprima tecnologica, HPE Machine Learning Inference Software consentirà alle aziende di implementare rapidamente e in modo sicuro i modelli di ML su scala. La nuova offerta si integrerà con NVIDIA NIM per fornire modelli foundation ottimizzati per NVIDIA utilizzando container precostituiti.

Per aiutare le aziende che hanno bisogno di costruire e distribuire rapidamente applicazioni GenAI che utilizzano dati privati, HPE ha sviluppato un’architettura di riferimento per l’enterprise RAG, già disponibile, che si basa sull’architettura di microservizi NVIDIA NeMo Retriever. L’offerta è costituita da una base di dati completa, fornita dal software HPE Ezmeral Data Fabric e da HPE GreenLake per l’archiviazione dei file. La nuova architettura di riferimento offrirà alle aziende un progetto per creare chatbot, generatori o copiloti personalizzati.

Per facilitare la preparazione dei dati, il training e l’inferenza dell’intelligenza artificiale, la soluzione fonde l’intera gamma di strumenti e soluzioni open-source di HPE Ezmeral Unified Analytics Software e il software HPE per l’intelligenza artificiale, che comprende HPE Machine Learning Data Management Software, HPE Machine Learning Development Environment Software e il nuovo HPE Machine Learning Inference Software. Il software HPE per l’intelligenza artificiale è disponibile su entrambe le soluzioni di supercomputing e di enterprise computing di HPE per l’intelligenza artificiale generativa, in modo da fornire ai clienti un ambiente coerente per la gestione dei carichi di lavoro GenAI.

Infine, HPE ha comunicato che svilupperà prodotti futuri basati sulla piattaforma NVIDIA Blackwell recentemente annunciata, che incorpora un Transformer Engine di seconda generazione per accelerare i carichi di lavoro GenAI. Ulteriori dettagli e disponibilità per i prossimi prodotti HPE con NVIDIA GB200 Grace Blackwell Superchip, HGX B200 e HGXB100 saranno annunciati in seguito.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php