Meta rilancia una visione precisa: l’infrastruttura dei data center per l’intelligenza artificiale dovrà essere costruita su hardware aperto, interoperabile e sostenibile. Il messaggio arriva dall’Open Compute Project Global Summit, dove l’azienda ha presentato innovazioni di rete, un nuovo form factor di rack e un quadro di design per ridurre le emissioni dell’IT.
Dall’OCP alle specifiche aperte: perché serve uno “strato comune” di data center
Secondo Meta, la crescita dei carichi AI richiede una collaborazione più profonda tra operatori e fornitori, con standard condivisi per alimentazione, raffreddamento, meccanica e telemetria. L’adesione all’Open Data Center Initiative dell’OCP va in questa direzione, con l’obiettivo di massimizzare l’interoperabilità senza frenare l’innovazione di prodotto.
La nuova stoffa delle reti AI: fabric aperti e switch con NVIDIA Spectrum
Per i cluster di training di nuova generazione, Meta annuncia un’evoluzione dei fabric di rete basata su design aperti, inclusa l’integrazione di switch con NVIDIA Spectrum Ethernet all’interno dell’architettura. Nel contempo, l’azienda figura tra i membri promotori di ESUN, il nuovo filone OCP dedicato all’ethernet “scale-up”, pensato per le esigenze di connettività dei sistemi AI su larga scala.
Open Rack Wide: largo ai rack nei data center per l’AI di prossima generazione
Arrivano le specifiche dell’Open Rack Wide (ORW), un form factor open source progettato per erogare più potenza, migliore raffreddamento ed efficienza complessiva. Sulla base di questi standard, AMD ha presentato Helios, il suo rack AI più avanzato, segnando un passo verso un hardware data center più standardizzato e scalabile. ORW e Helios rappresentano un cambio di passo verso design interoperabili e pronti per l’AI su scala industriale.
Sostenibilità by design: principi tecnici e tracciabilità delle emissioni
Meta introduce “Design for Sustainability”, un insieme di principi per ridurre le emissioni dell’hardware IT agendo su modularità, riuso, retrofit, dematerializzazione ed estensione dei cicli di vita. L’azienda, inoltre, descrive una metodologia per tracciare le emissioni di milioni di componenti nei propri data center, ottimizzata con modelli Llama per rendere più efficiente il database di monitoraggio.
Il punto: apertura come acceleratore dell’AI enterprise
L’assunto è chiaro: per stare al passo con la complessità crescente dell’AI servono fondamenta comuni e aperte su cui ciascun attore possa differenziare. Standard condivisi per rack, rete e sostenibilità promettono catene di fornitura più agili, time-to-deploy più rapido e una migliore gestibilità operativa, a beneficio di tutto l’ecosistema. L’hardware aperto è la leva per scalare l’AI senza sacrificare efficienza e responsabilità ambientale.







