Negli ultimi tre anni, a partire dal rilascio dei primi modelli linguistici di grandi dimensioni (LLM), si è innescata un’ondata senza precedenti di interesse e innovazione, con l’obiettivo di portare nuove soluzioni ai clienti. Per la prima volta, gli LLM hanno reso possibile la generazione di risultati basati sulla previsione dei token, consentendo la creazione di testi, immagini, sintesi, traduzioni e migliaia di altri casi d’uso, a beneficio sia delle persone sia delle aziende.
L’infrastruttura IA avanzata di NVIDIA rappresenta oggi la piattaforma di riferimento per l’elaborazione dei token alla base dell’IA generativa. Allo stesso tempo, i modelli continuano a crescere ed evolversi, richiedendo nuove soluzioni capaci di rispondere all’aumento delle richieste di risorse e alla crescente complessità delle infrastrutture necessarie a supportarli. I clienti chiedono prestazioni elevate, scalabilità ed efficienza energetica.
Nutanix ha risposto rapidamente a tali esigenze, creando un ambiente operativo AI integrato, progettato per consentire ai clienti enterprise di creare, in modo semplice ed efficiente, infrastrutture software in grado di supportare un’ampia gamma di applicazioni di AI generativa. Basandosi sulla pluripremiata piattaforma di storage Acropolis Operating System (AOS) e sulla soluzione di virtualizzazione AHV Hypervisor, Nutanix offre inoltre le soluzioni Nutanix Kubernetes Platform (NKP), Nutanix Enterprise AI (NAI), Nutanix Unified Storage (NUS) e Nutanix Database (NDB). Nutanix collabora inoltre con Canonical per includere il sistema operativo Ubuntu Pro nelle implementazioni bare metal di NKP, offrendo ai clienti una proposta end-to-end completa, con compatibilità NVIDIA all’interno dell’ecosistema.
L’ambiente operativo AI integrato di Nutanix è una soluzione chiavi in mano e completa per rendere operative le AI factory basate su infrastruttura NVIDIA AI e sul software NVIDIA AI Enterprise, inclusi i microservizi NVIDIA NIM. Nutanix semplifica l’attivazione di investimenti in infrastrutture AI, riducendo al minimo i tempi dal momento della consegna alla produzione effettiva di token, il tutto attraverso un unico fornitore di sistemi operativi e in piena integrazione con l’ecosistema NVIDIA AI Enterprise
Per supportare l’introduzione delle piattaforme NVIDIA Rubin, Nutanix sta collaborando con NVIDIA per progettare e potenziare il proprio ambiente operativo per l’AI integrato, ottimizzandolo per le loro più recenti tecnologie di accelerazione. Nutanix prevede di supportare le CPU basate su architettura NVIDIA Vera Arm e le GPU NVIDIA Rubin, sia per ambienti NKP bare metal che per ambienti virtualizzati basati su AHV e NKP. Nutanix supporterà inoltre la piattaforma NVIDIA Inference Context Memory Storage con il processore di storage NVIDIA BlueField-4.
Nutanix da molto tempo supporta l’open source e continuerà a integrare i più recenti modelli NVIDIA open-permissible e i microservizi NIM. L’obiettivo è offrire i vantaggi dei più evoluti modelli linguistici di grandi dimensioni (LLM) ai casi d’uso e alle soluzioni dei clienti
Ciò garantisce il supporto per le più recenti infrastrutture IA di NVIDIA. Nutanix aggiungerà inoltre il supporto per i sistemi di switch NVIDIA Spectrum-X Ethernet Photonics, al fine di consentire un’accelerazione completa del datacenter all’interno dell’ambiente operativo AI integrato di Nutanix.
“La rivoluzione industriale trainata dall’AI richiede un approccio che elimini la complessità per offrire alle aziende tempi rapidi di generazione del valore”, ha dichiarato Justin Boitano, vice president, Enterprise AI Products di NVIDIA. “Integrando la piattaforma NVIDIA Rubin con l’ambiente operativo per l’AI di Nutanix, le aziende ottengono una base per la ‘Sovereign AI’ che consente loro di creare le proprie AI Factory e trasformare i dati proprietari in un vantaggio competitivo determinante”.
L’AI generativa si basa sui token, e Nutanix e NVIDIA offrono soluzioni infrastrutturali progettate per garantire una generazione di token ottimizzata, accelerata e semplice da utilizzare, a supporto di tutte le applicazioni di intelligenza artificiale.






