AI e data center: la nuova frontiera della sostenibilità energetica

Come l’intelligenza artificiale sta trasformando la gestione termica ed energetica delle infrastrutture digitali, riducendo consumi e impatti ambientali
IA e datacenter: come interagiscono e come si aiutano?

Nel 2024 i data center hanno assorbito circa l’1,5% dell’elettricità mondiale, pari a oltre 415 terawattora, e secondo l’Agenzia Internazionale dell’Energia (IEA) questo valore è destinato a crescere rapidamente, con proiezioni che stimano un consumo compreso fra 620 e oltre 1.000 TWh entro il 2030. A trainare questa accelerazione sono l’espansione dei servizi cloud e soprattutto l’avvento dell’intelligenza artificiale generativa, che richiede enormi capacità di calcolo.

Negli Stati Uniti, il Dipartimento dell’Energia prevede addirittura un raddoppio — se non una triplicazione — dei consumi già entro il 2028, con conseguenze sulla stabilità delle reti in aree a forte concentrazione di data center, come Virginia e Texas. Anche in Europa e in Italia gli investimenti seguono la stessa tendenza: secondo Terna, nel nostro Paese le richieste di connessione legate ai data center hanno toccato i 30 GW a fine 2024, un valore ben 24 volte superiore rispetto al 2021.

Il tema non riguarda più soltanto quanto” si consuma, ma soprattutto “come” viene gestita l’energia. È qui che l’intelligenza artificiale può diventare un alleato strategico per conciliare le esigenze di calcolo con gli obiettivi di sostenibilità.

Densità e calore: perché l’aria non basta più

La trasformazione delle architetture IT ha reso evidente il limite dei sistemi di raffreddamento tradizionali. I server basati su CPU (Central Processing Unit) sono stati in gran parte affiancati da configurazioni multi-GPU (Graphics Processing Unit), molto più efficienti nell’elaborazione simultanea di grandi volumi di dati, come richiesto dalle applicazioni di AI. Questa evoluzione ha fatto esplodere la densità energetica dei rack: quelli dedicati ad applicazioni AI e HPC (High Performance Computing) possono arrivare oltre i 100 kW, con casi che superano i 130 kW e proiezioni fino a 240 kW.

Questi valori sono ordini di grandezza superiori ai rack standard e generano quantità di calore che l’aria, da sola, non è più in grado di smaltire in modo efficiente. Raffreddare con grandi volumi d’aria comporterebbe impianti ingombranti e costosi, con consumi insostenibili. Per questo motivo stanno emergendo soluzioni a liquidodirect-to-chip e immersion cooling — che consentono un trasferimento termico più efficace, oltre a strategie complementari come il free cooling.

Anche l’acqua è un parametro critico: metriche come WUE (Water Usage Effectiveness), insieme a PUE (Power Usage Effectiveness) e CUE (Carbon Usage Effectiveness), misurano ormai l’impatto complessivo di un data center. L’obiettivo è minimizzare sia i kWh sia i litri consumati.

La sfida, tuttavia, non è solo introdurre nuove tecnologie, ma gestirle in modo dinamico e integrato. Ed è qui che l’intelligenza artificiale entra in gioco.

Raffreddamento intelligente: l’AI come “regista” termico

Negli ultimi anni si è diffuso un nuovo approccio alla climatizzazione dei data center, conosciuto come AI-augmented cooling. L’idea di fondo è semplice ma rivoluzionaria: affidare agli algoritmi non solo il controllo di base degli impianti, ma la capacità di apprendere dai dati operativi e di ottimizzare in tempo reale tutti i parametri di funzionamento.

Nei siti più avanzati, l’AI diventa il vero “regista” della catena termica. Governa

  • il chiller plant (l’impianto frigorifero centrale),
  • le UTA (Unità di Trattamento Aria),
  • i CRAH (Computer Room Air Handler),
  • i CRAC (Computer Room Air Conditioner).

Attraverso tecniche di controllo predittivo — come il Model Predictive Control (MPC) — e di apprendimento per rinforzo (Reinforcement Learning, RL), gli algoritmi sono in grado di regolare in maniera dinamica i setpoint di temperatura, le portate dei fluidi, la velocità dei ventilatori, così come l’attivazione di torri evaporative e pompe.

L’AI, inoltre, non si limita a migliorare le prestazioni dei singoli componenti: consente una vera e propria orchestrazione ibrida. Nei data center che combinano diverse tecnologie — dal free cooling all’immersion cooling, passando per compressori, scambiatori di calore e circuiti direct-to-chip — gli algoritmi valutano in ogni momento quale mix sia più conveniente.

L’obiettivo è duplice: contenere i consumi e garantire che CPU e GPU operino sempre all’interno dell’envelope ASHRAE definito dalle linee guida TC 9.9, cioè l’intervallo di temperatura e umidità raccomandato dall’American Society of Heating, Refrigerating and Air-Conditioning Engineers per preservare affidabilità e durata delle apparecchiature.

L’esempio di Google e DeepMind

Un caso emblematico è quello del progetto sviluppato da Google insieme a DeepMind. Applicando modelli di reinforcement learning agli impianti, l’azienda è riuscita a ridurre fino al 40% i consumi energetici destinati al raffreddamento, mantenendo al tempo stesso la stabilità operativa dei server. È importante chiarire che questo risparmio non riguarda l’intero consumo del data center, ma la sola quota legata al cooling. Ciononostante, parliamo di percentuali significative, in un settore dove anche pochi punti di efficienza si traducono in milioni di dollari e tonnellate di CO₂ risparmiate.

Data center: gestione di energia, sicurezza e algoritmi di apprendimento

Analisi termica e contenimento delle perdite

Oltre al controllo degli impianti di raffreddamento veri e propri, l’intelligenza artificiale viene impiegata per ottimizzare la distribuzione dell’aria e individuare inefficienze invisibili a occhio nudo. Questo è possibile grazie alla combinazione di digital twin e modelli di fluidodinamica computazionale (CFD), che simulano in tempo reale il comportamento aerodinamico e termico del data center.

Attraverso queste repliche digitali, l’AI individua fenomeni indesiderati come bypass d’aria, cortocircuiti termici o zone di pressione anomala che riducono l’efficacia del raffreddamento. Ma il vero valore aggiunto sta nella fase successiva: gli algoritmi suggeriscono azioni correttive mirate, spesso a basso costo. L’installazione di blanking panel nei rack vuoti, la sostituzione di piastrelle forate, o la riorganizzazione dei corridoi caldi e freddi sono interventi relativamente semplici che però aumentano il differenziale di temperatura (ΔT) tra ingresso e uscita e riducono la portata complessiva d’aria necessaria.

In pratica, meno aria da muovere significa meno potenza assorbita dai ventilatori e un PUE sensibilmente migliorato. È un esempio concreto di come l’AI non si limiti a “gestire” l’impianto, ma lo renda progressivamente più efficiente attraverso un processo di ottimizzazione continua.

Acqua sotto controllo: l’AI verso il “zero-water cooling

Il raffreddamento non riguarda solo l’energia, ma anche l’acqua. Nei sistemi evaporativi tradizionali, la quantità necessaria può essere enorme, soprattutto nei data center di grandi dimensioni. Per questo il parametro WUE (Water Usage Effectiveness) è ormai entrato a far parte dei KPI ambientali, accanto a PUE e CUE.

Anche in questo caso l’AI si rivela decisiva. Gli algoritmi confrontano in tempo reale i benefici energetici ottenuti con l’evaporazione con il “costo marginale” dell’acqua consumata, tenendo conto di fattori ambientali come temperatura, umidità relativa e disponibilità idrica. In questo modo possono decidere se e quando attivare i circuiti evaporativi, risparmiando acqua senza compromettere la stabilità termica.

Alcuni hyperscaler, come Microsoft, stanno spingendo ancora oltre questa logica con soluzioni zero-water for cooling. Qui l’acqua viene esclusa dal processo di climatizzazione per la maggior parte dell’anno, grazie a sistemi liquid-to-chip e scambiatori a secco. L’obiettivo è ridurre il WUE a valori prossimi allo zero, liberando la risorsa idrica per usi civili e agricoli e rendendo i data center più sostenibili nei contesti geograficamente più sensibili.

Recupero del calore: da scarto a risorsa

Il calore generato dai server non è necessariamente uno scarto: può diventare una risorsa. In diversi Paesi del Nord Europa, dove le reti di teleriscaldamento sono diffuse, l’energia termica in eccesso viene recuperata e reimmessa nelle abitazioni.

Progetti come quello di Odense (Meta) in Danimarca o di Tallaght (AWS) in Irlanda dimostrano che è possibile restituire decine di migliaia di MWh all’anno alle comunità locali. Naturalmente, questi modelli sono geograficamente circoscritti: funzionano bene in climi freddi e in aree urbanizzate dotate di reti di distribuzione termica. Tuttavia, rappresentano una frontiera importante di sostenibilità.

L’AI può giocare un ruolo chiave anche qui: integrata con pompe di calore e scambiatori, consente di modulare la quantità di calore recuperata in funzione della domanda locale, massimizzando l’efficienza del processo e garantendo continuità di servizio.

AI e gestione elettrica: efficienza e resilienza

Il contributo dell’intelligenza artificiale non si esaurisce nella climatizzazione. Sempre più spesso viene applicata anche alla gestione dei flussi elettrici dei data center, trasformandoli in sistemi capaci di adattarsi ai segnali della rete.

Attraverso strategie di power-aware e carbon-aware scheduling, l’AI è in grado di programmare i carichi non urgenti — come gli addestramenti di modelli di machine learning — nelle fasce orarie in cui l’energia è più economica o la rete è maggiormente alimentata da fonti rinnovabili. Google ha già sperimentato con successo lo spostamento temporale e geografico delle elaborazioni per allinearle alle finestre di energia più pulita, ottenendo al contempo riduzioni in bolletta e nelle emissioni di CO₂.

In condizioni di congestione di rete, l’AI abilita anche logiche di power capping: strumenti come RAPL (Running Average Power Limit) o DCGM (Data Center GPU Manager) consentono di limitare temporaneamente la potenza assorbita da CPU e GPU senza intaccare i servizi critici. In questo modo i data center possono persino partecipare ai programmi di demand response delle utility, contribuendo alla stabilità del sistema elettrico.

Un innovativo data center

Verso i data center interattivi con la rete

Il passo successivo è quello dei grid-interactive data center, strutture capaci non solo di modulare i propri consumi ma anche di interagire attivamente con la rete elettrica. Integrati con sistemi di accumulo (BESS, Battery Energy Storage Systems), possono assorbire energia nei momenti di surplus rinnovabile e restituirla nei picchi di domanda.

Studi e test condotti dal National Renewable Energy Laboratory (NREL) negli Stati Uniti e alcuni progetti pilota con operatori di rete come ERCOT e PJM  dimostrano la fattibilità tecnica ed economica di questo modello. In prospettiva, i data center non saranno più solo grandi consumatori, ma veri nodi di flessibilità della transizione energetica.

Monitoraggio, manutenzione e sicurezza: il ruolo dell’AI

Un ulteriore contributo dell’intelligenza artificiale riguarda la gestione quotidiana delle infrastrutture attraverso i sistemi di Data Center Infrastructure Management (DCIM). Qui l’AI integra e analizza migliaia di dati in tempo reale, generando report ESG automatici e aggiornati su PUE, WUE, CUE e persino sulle emissioni Scope 2 e 3, rendendo la rendicontazione ambientale molto più rapida e affidabile.

L’analisi predittiva dei dati permette inoltre di attuare politiche di manutenzione predittiva:

  • vibrazioni anomale,
  • aumenti di temperatura,
  • variazioni nei cicli di carica delle batterie

vengono identificati prima che diventino un guasto, riducendo i fermi imprevisti e aumentando l’affidabilità complessiva.

Anche la sicurezza fisica trae beneficio dall’AI. I modelli possono valutare in anticipo la “postura di rischio” di un sito, segnalando vulnerabilità legate a possibili:

  • allagamenti,
  • surriscaldamenti,
  • guasti elettrici,
  • principi d’incendio,

e suggerendo azioni preventive come compartimentazioni ignifughe o rafforzamento delle protezioni per UPS e cablaggi.

AI in progettazione: efficienza fin dal concept

L’intelligenza artificiale non è utile solo nella gestione quotidiana, ma sempre più spesso entra anche nella fase di progettazione dei nuovi data center. Algoritmi generativi sono in grado di creare layout integrati che considerano simultaneamente aspetti energetici, termici, idrici e logistici, riducendo tempi e complessità rispetto ai metodi tradizionali.

In alcuni progetti pilota, questo approccio ha permesso di sviluppare configurazioni ottimizzate in tempi molto ridotti e con risultati significativi sul piano dell’efficienza: simulazioni di sistemi HVAC, distribuzione elettrica e assetti strutturali hanno consentito di raggiungere valori di PUE prossimi a 1,2, a conferma del potenziale dell’AI nel migliorare prestazioni e sostenibilità già in fase di concept design. Si tratta di risultati ancora sperimentali, ma che mostrano come l’intelligenza artificiale possa diventare una leva concreta per ridurre consumi ed emissioni sin dalla nascita delle infrastrutture digitali.

Strumenti come i digital twin e le simulazioni fisico-informate consentono inoltre di prevedere con precisione i profili termici, con margini di errore inferiori a 0,2 °C, fornendo ai progettisti informazioni preziose per anticipare criticità e bilanciare al meglio le diverse esigenze operative, come dimostrato anche dal recente studio ‘Fusion Intelligence for Digital Twinning AI Data Centers’che evidenzia come l’integrazione dell’AI nei gemelli digitali possa migliorare ulteriormente il PUE già in fase di concept design. Il vantaggio non è solo tecnico: anticipare le ottimizzazioni riduce i rischi di modifiche in corso d’opera, accelera i tempi di realizzazione e garantisce una maggiore coerenza con gli obiettivi di sostenibilità fin dalle fondamenta del progetto.

Verso ecosistemi digitali adattivi

Il futuro dei data center non si misura più soltanto in termini di potenza installata o di efficienza dei sistemi di raffreddamento: la loro sfida è diventare infrastrutture proattive e resilienti, capaci di integrarsi con le reti elettriche, dialogare con i territori e restituire valore alle comunità che li ospitano.

In questo scenario, l’intelligenza artificiale agisce da catalizzatore: non è semplicemente uno strumento di controllo, ma la leva che trasforma i data center da centri energivori e passivi a pilastri della transizione digitale ed energetica. È grazie all’AI che diventa possibile ridurre consumi e impatti ambientali, recuperare calore, gestire in modo intelligente acqua ed elettricità, fino a contribuire alla stabilità delle reti a cui si connettono.

Così, ciò che per anni è stato percepito come un costo ambientale si sta progressivamente trasformando in un abilitatore di valore: non solo digitale, ma anche economico, sociale e territoriale. I data center del futuro non saranno più soltanto contenitori di calcolo, ma veri ecosistemi adattivi, in grado di bilanciare crescita tecnologica e sostenibilità, innovazione e responsabilità.

Vuoi rimanere aggiornato sui contenuti di ElettricoMagazine?
Iscriviti alla nostra newsletter!



Accetto il trattamento dei miei dati personali per la ricezione di newsletter in conformità con la privacy policy del sito

Patrizia Ricci

Ingegnere civile e redattrice di articoli e approfondimenti tecnici per riviste e portali dedicati all’ingegneria, all’architettura, all’efficienza energetica, al comfort abitativo, alla meccanica, all’automazione e all’industria 4.0. Appassionata di trasformazione digitale, innovazione sostenibile e imprenditoriale.
menu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram