L’uso etico e sostenibile dell’intelligenza artificiale è diventato un tema cruciale nelle agende politiche ed economiche globali. La crescente intensità di risorse necessarie per gestire i carichi di lavoro legati all’AI ha riportato al centro dell’attenzione i limiti dei modelli di sviluppo attuali. A quasi tre anni dall’esplosione del fenomeno Gen AI, l’attenzione si concentra spesso sui data center alimentati da fonti rinnovabili e ottimizzati per ridurre i consumi. Una soluzione importante, ma che rappresenta soltanto una parte del quadro.
Secondo Monica Batchelder, Chief Sustainability Officer di HPE, per affrontare davvero la sfida della sostenibilità dell’AI è necessario un approccio più ampio, capace di integrare l’efficienza dei dati, l’ottimizzazione del software e la gestione mirata delle risorse hardware. Solo così sarà possibile ridurre l’impatto ambientale e garantire un futuro sostenibile per l’innovazione tecnologica.
Oltre il data center

Le innovazioni in ambito di raffreddamento a liquido, conversione energetica e ottimizzazione dei rack hanno reso i moderni data center essenziali per supportare la crescita dei carichi computazionali dell’AI. Tuttavia, anche le infrastrutture più avanzate mostrano limiti strutturali. Le proiezioni stimano che il solo processo di inferenza dei modelli, cioè la fase in cui vengono generati output a partire da dati già addestrati, potrebbe arrivare a consumare fino al 20% dell’energia globale entro il 2030.
Batchelder avverte che concentrarsi esclusivamente sui data center rischia di essere riduttivo. È come migliorare la propria routine in palestra continuando però a mantenere un’alimentazione poco sana: il risultato migliora, ma non quanto potrebbe.
L’efficienza parte dai dati
La qualità dei dati non incide solo sulla bontà dei risultati prodotti da un modello, ma anche sulla quantità di energia necessaria per addestrarlo e farlo funzionare. Senza una strategia chiara, molte aziende finiscono per addestrare sistemi su dati irrilevanti o di scarsa qualità, con conseguente spreco di risorse.
Batchelder sottolinea come un approccio basato su raccolta, cura, pulizia e verifica dei dataset permetta di ridurre tempi e costi energetici, migliorando allo stesso tempo l’accuratezza dei modelli. Eliminare ridondanze e bias non solo aumenta le prestazioni, ma contribuisce a un uso più razionale delle risorse disponibili.
Il ruolo del software
Se i dati rappresentano la base, il software è spesso la variabile nascosta. Per troppo tempo si è dato per scontato che le risorse fossero illimitate, spiega Batchelder, e di conseguenza lo sviluppo si è concentrato quasi esclusivamente sulla funzionalità e sulla velocità. Oggi, invece, si impone un cambio di paradigma: non sempre “più grande” equivale a “migliore”.
Tecniche come la quantizzazione, che riduce la precisione dei calcoli senza compromettere i risultati nei casi in cui l’accuratezza estrema non è necessaria, consentono un abbattimento significativo dei consumi. Anche l’uso di guardrail, che indirizzano le richieste più semplici verso modelli leggeri, rappresenta una strategia efficace. Sempre più spesso vengono adottati Small Language Models o versioni più snelle e verticali dei Large Language Models, capaci di offrire efficienza senza sacrificare la qualità.
Hardware e carichi di lavoro
L’efficienza non si gioca solo sul fronte dei dati e del software, ma anche nella capacità di abbinare correttamente i carichi di lavoro alle piattaforme hardware. Sovradimensionare le infrastrutture “per sicurezza” porta a tassi di utilizzo ridotti e a consumi inutili. Al contrario, assegnare ogni attività al sistema più adatto consente di ottenere il massimo rendimento con il minimo dispendio energetico.
L’obiettivo deve essere quello di fare di più con meno, sfruttando ogni risorsa tecnologica nel modo più intelligente possibile, evidenzia Batchelder.
Una visione sistemica per l’AI sostenibile
Per affrontare davvero la sfida della sostenibilità, i leader aziendali devono promuovere un approccio culturale e organizzativo diverso. Non basta ottimizzare singoli elementi, ma serve una visione d’insieme che tenga conto dell’intero ciclo di vita dell’AI, dall’ideazione al monitoraggio dei sistemi.
Questo implica la necessità di investire in formazione, promuovere la collaborazione tra funzioni aziendali e integrare principi di sostenibilità nella governance dell’AI. Solo così sarà possibile coniugare innovazione tecnologica e responsabilità ambientale, trasformando l’AI da potenziale rischio a strumento di crescita sostenibile.
Conclusione
Guardare oltre i data center e valutare l’intero ecosistema AI è l’unica strada per contenere il suo impatto ambientale e garantire un futuro sostenibile. L’efficienza dei dati, la progettazione di software più attento alle risorse, l’uso mirato dell’hardware e strategie energetiche coerenti con gli obiettivi di business sono elementi fondamentali per costruire sistemi potenti e al tempo stesso responsabili.
Come conclude Batchelder, solo ampliando lo sguardo oltre l’infrastruttura e abbracciando un approccio sistemico sarà possibile vincere la sfida della sostenibilità dell’AI.






