
La rapida espansione dell’intelligenza artificiale e delle applicazioni ad alta intensità di dati sta determinando un consumo energetico senza precedenti, costringendo il settore tecnologico a privilegiare soluzioni efficienti dal punto di vista dell’energia. Secondo una ricerca dell’Agenzia Internazionale dell’Energia (AIE), il fabbisogno elettrico dei data center a livello globale è destinato a raddoppiare entro il 2030, raggiungendo circa 945 terawattora (TWh). Questo incremento comporterà una crescente richiesta di potenza computazionale, un’impronta carbonica più estesa, alterazioni nei modelli di consumo elettrico e un rapido esaurimento delle risorse naturali.
Per questo motivo, AMD privilegia l’efficienza energetica e la riduzione del consumo energetico come cardine della propria filosofia progettuale, in linea con la roadmap aziendale e la strategia di prodotto. Nel 2021, l’azienda ha definito l’ambizioso obiettivo a lungo termine “30×25” che prevede un miglioramento dell’efficienza energetica delle unità di addestramento AI e dei nodi di calcolo ad alte prestazioni (HPC) fino a 30 volte entro il 2025 rispetto ai livelli del 2020.
L’obiettivo è stato non solo superato, con un incremento pari a 38 volte, ma AMD ha assunto un impegno ancora più audace: migliorare di 20 volte l’efficienza energetica su scala rack per l’addestramento e l’inferenza dell’AI entro il 2030, assumendo il 2024 come anno di riferimento. Questo traguardo include la possibilità di addestrare un tipico modello di AI, che oggi richiede oltre 275 rack – utilizzando un singolo rack entro il 2030, con una riduzione del consumo elettrico pari al 95%.
Mentre la domanda di potenza di calcolo continua ad aumentare, i processori AMD EPYC e gli acceleratori AMD Instinct consentono alle aziende di investire nell’AI minimizzando l’impatto ambientale. Questo approccio, combinato con i progressi nel campo del software e degli algoritmi, potrebbe consentire un miglioramento fino a 100 volte in termini di efficienza energetica complessiva.