Come afferma AMD, la rapida espansione dell’intelligenza artificiale e delle applicazioni ad alta intensità di dati sta determinando un consumo energetico senza precedenti, costringendo il settore tecnologico a privilegiare soluzioni efficienti dal punto di vista dell’energia.
Secondo una ricerca dell’Agenzia Internazionale dell’Energia (AIE), il fabbisogno elettrico dei data center a livello globale è destinato a raddoppiare entro il 2030, raggiungendo circa 945 terawattora (TWh). Questo incremento comporterà una crescente richiesta di potenza computazionale, un’impronta carbonica più estesa, alterazioni nei modelli di consumo elettrico e un rapido esaurimento delle risorse naturali.
Per questo motivo, AMD privilegia l’efficienza energetica come cardine della propria filosofia progettuale, in linea con la roadmap aziendale e la strategia di prodotto. Nel 2021, l’azienda ha definito l’ambizioso obiettivo a lungo termine “30×25” che prevede un miglioramento dell’efficienza energetica delle unità di addestramento AI e dei nodi di calcolo ad alte prestazioni (HPC) fino a 30 volte entro il 2025rispetto ai livelli del 2020.
L’obiettivo è stato non solo superato, con un incremento pari a 38 volte, ma AMD ha assunto un impegno ancora più audace: migliorare di 20 volte l’efficienza energetica su scala rack per l’addestramento e l’inferenza dell’AI entro il 2030, assumendo il 2024 come anno di riferimento. Questo traguardo include la possibilità di addestrare un tipico modello di AI, che oggi richiede oltre 275 rack – utilizzando un singolo rack entro il 2030, con una riduzione del consumo elettrico pari al 95%.
Mentre la domanda di potenza di calcolo continua ad aumentare, i processori AMD EPYC e gli acceleratori AMD Instinct consentono alle aziende di investire nell’AI minimizzando l’impatto ambientale. Questo approccio, combinato con i progressi nel campo del software e degli algoritmi, potrebbe consentire un miglioramento fino a 100 volte in termini di efficienza energetica complessiva, afferma l’azienda.
L’obiettivo di un miglioramento 20x – sottolinea AMD – riflette ciò che l’azienda controlla direttamente: la progettazione a livello di hardware e di sistema. Ma il produttore di chip è convinto che sarà possibile ottenere incrementi di efficienza dei modelli di intelligenza artificiale ancora maggiori, fino a 5 volte nel periodo dell’obiettivo, poiché gli sviluppatori di software scopriranno algoritmi più intelligenti e continueranno a innovare con approcci a bassa precisione ai ritmi attuali.
Ed è se si tiene conto di questi fattori, che l’efficienza energetica complessiva per l’addestramento di un tipico modello di intelligenza artificiale potrebbe migliorare fino a 100 volte entro il 2030.
Per saperne di più, è possibile consultare il blog di AMD.









