Skip to main content
credits: Università di Pisa
Si parla di: università calcolo GN33

Data centre: la sostenibilità passa dall’acqua

| Marta Mieli | Caffè scientifico

Articolo letto 38 volte

Liquid cooling nei moderni data centre: tecnologie, sfide e l’esperienza dell’Università di Pisa

La crescente diffusione di tecnologie ad alta intensità di calcolo, dall’intelligenza artificiale al supercalcolo scientifico, passando per big data e realtà virtuale, ha fatto aumentare in modo significativo la potenza dei server e, di conseguenza, la quantità di calore da dissipare. I tradizionali sistemi di raffreddamento ad aria stanno raggiungendo i propri limiti tecnici e non riescono più a sostenere le densità richieste dai nodi di nuova generazione.

Per rispondere a questa sfida, i data centre stanno adottando architetture di liquid cooling che permettono di migliorare l’efficienza energetica, aumentare la densità installabile e garantire continuità di servizio. Un esempio emblematico è il Green Data Center (GDC) dell’Università di Pisa, recentemente ampliato e oggi il più grande data centre universitario d’Italia, che si sta affermando come laboratorio avanzato per la sperimentazione e la messa in produzione di soluzioni innovative per il raffreddamento.

L’evoluzione verso nodi HPC e AI rende inevitabile l’adozione di sistemi a liquido, in grado di aumentare la densità computazionale mantenendo sotto controllo l'efficenza energetica e i costi operativi

Per approfondire questo argomento abbiamo incontrato Maurizio Davini, CTO Green Data Center e Stefano Suin, dirigente della Direzione Infrastrutture Digitali dell’Università di Pisa. Con loro analizziamo i limiti delle soluzioni tradizionali, i vantaggi del liquid cooling e le lezioni operative apprese in oltre dieci anni di esperienza sul campo.

Il vostro data centre è il più grande a livello universitario oggi in Italia, quali sono le sue caratteristiche principali?

È vero, siamo all’avanguardia in Europa e l’investimento per realizzarlo è stato davvero strategico per l’Ateneo. Lo scorso anno abbiamo raddoppiato la struttura che si trova a San Piero a Grado: oggi possiamo contare su 104 rack e su un incremento notevole della potenza di calcolo a disposizione della ricerca scientifica dell’università con circa 700 nodi per un totale di circa 30.000 core di calcolo e più di 100 GPU di varie generazioni. Siamo anche l’unico data centre universitario ad aver ottenuto la classificazione “A” da parte di AgID.

L’obiettivo principale è stato quello di integrare nuovi elementi tecnologici senza snaturare il progetto originale, pensato per avere l’impatto ambientale minore possibile. Grazie alle nuove soluzioni adottate il GDC è in grado di supportare infrastrutture di High Performance Computing (HPC) e di intelligenza artificiale per i prossimi anni, limitando i consumi energetici.

Quali sono i settori che avranno maggior beneficio dal data centre?

L’ampliamento ci ha permesso di compiere un salto di qualità in progetti competitivi di elevato livello e in contesti di frontiera, come il 5G, l’intelligenza artificiale, il quantum computing o il tema dell’High Performance Computing nel contesto del Centro Nazionale finanziato nel PNRR.

Sistemi di così elevata potenza non possono prescindere da una connettività adeguata. È così?

Assolutamente. Abbiamo potenziato la connettività interna ed esterna ad alta velocità ed elevata affidabilità della struttura. Grazie all'attivazione di un secondo nodo di collegamento alla rete GARR la potenza di calcolo scientifico è aumentata enormemente. Oggi, infatti, questa struttura può contare su una connettività che consente di sfruttare appieno le sue potenzialità in termini di accesso ai sistemi di HPC e AI e di erogabilità in base alle necessità di ogni progetto; senza dimenticare la doverosa attenzione alla protezione dei dati e dei risultati della ricerca.

GDC di Pisa - credit foto: Università di Pisa

Il raffreddamento direct-to-chip (DTC)

Un sistema DTC trasferisce il calore direttamente dal package al circuito idraulico tramite cold plate dedicati, spesso basati su microcanali. Ogni server integra un loop locale con tubazioni flessibili e raccordi quick-disconnect dripless, collegato a una Cooling Distribution Unit (CDU) che gestisce pompaggio, filtrazione, sensoristica e scambio termico verso il circuito facility. Il Facility Water Loop alimenta le CDU ed è connesso a chiller, dry-cooler e sistemi di free cooling.
Tra i parametri operativi più critici figurano: temperatura del fluido in ingresso (da mantenere sopra il punto di rugiada), portata e ΔT tipici di 5–10 °C per nodo, resistenza termica die–TIM–cold plate, pressione differenziale disponibile e qualità chimico-fisica del fluido.
Al GDC di Pisa, CDU industriali come Vertiv XDU centralizzano controllo, ridondanza e integrazione con il sistema di supervisione dell’impianto.

Che scelte avete fatto per raggiungere gli obiettivi di sostenibilità?

Abbiamo adottato soluzioni tecnologiche innovative che permettono l’implementazione del liquid cooling anche in data centre come il nostro che erano già esistenti e che utilizzavano il raffreddamento ad aria.

Abbiamo introdotto, inoltre, sistemi di calcolo di ultima generazione come il Lenovo Neptune e i Dell XE, che garantiscono un abbattimento fino al 40% dei consumi di energia senza dover sacrificare le prestazioni. L’Università di Pisa, è stata tra le prime in Europa a adottare queste scelte tecnologiche, facendo del suo Green Data Center una struttura all’avanguardia anche dal punto di vista della sostenibilità ambientale.

Perché è così importante, per la sostenibilità, passare ad una architettura liquid cooling?

Il raffreddamento ad aria è limitato dalla bassa capacità termica e dalla modesta conducibilità dell’aria, che rendono difficile smaltire i carichi crescenti di CPU, GPU e acceleratori. Per mantenere le temperature di giunzione entro le specifiche occorrerebbe aumentare in modo eccessivo portata d’aria, dimensioni dei dissipatori e velocità delle ventole, con impatti negativi su rumore, consumi e affidabilità. In pratica, per i singoli chip oltre 250–300 W per CPU e 400–600 W per GPU/acceleratore il raffreddamento ad aria richiede soluzioni sempre più estreme e poco scalabili. A livello di rack, gli impianti solo ad aria arrivano fino a 30–40 kW/rack con contenimento dei corridoi o rear-door ad aria.

Dalla nostra esperienza un elemento chiave è l’integrazione operativa tra team IT e facility. È una condizione indispensabile per gestire in modo affidabile il liquid cooling su larga scala

L’evoluzione verso nodi HPC e AI che superano 100–300 kW/rack rende quindi inevitabile l’adozione di sistemi a liquido, in grado di aumentare la densità computazionale mantenendo sotto controllo l'efficienza energetica (PUE, Power Usage Effectiveness) e i costi operativi.

L’esperienza del Green Data Center dell’Università di Pisa conferma che, superata una certa densità, il liquid cooling diventa una scelta non solo tecnica ma anche strategica.

Noi abbiamo sperimentato un ampio spettro di tecnologie: sistemi bifase dielettrici come ZutaCore HyperCool per nodi ad altissima potenza, soluzioni a micro-getti come JetCool per l’abbattimento degli hotspot e unità di distribuzione del refrigerante (CDU) come Vertiv XDU per la gestione centralizzata dei loop liquidi.

Ci sono diversi tipi di sistemi di raffreddamento?

Esistono due diversi tipi di sistemi: quelli monofase e quelli bifase. Nei sistemi monofase il fluido (acqua, acqua-glicole o fluido dielettrico) rimane sempre nello stesso stato; il calore è rimosso tramite convezione forzata in regime turbolento. Sono soluzioni semplici, robuste ed economiche, adatte alla maggior parte dei data centre che operano fino a circa 150 kW/rack con chip nell’intervallo 300–800 W.

GDC di Pisa - credit foto: Università di Pisa

I sistemi bifase, invece, sfruttano la vaporizzazione locale per assorbire calore tramite calore latente, mantenendo temperature superficiali più stabili e gestendo con maggiore efficacia gli hotspot. Questo approccio risulta particolarmente vantaggioso in presenza di package superiori al kilowatt o in architetture AI ad altissima densità.

Nel nostro data centre, soluzioni bifase dielettriche hanno permesso di semplificare l’infrastruttura facility garantendo prestazioni elevate e isolamento elettrico.

Come funzionano le tecnologie a micro-getti?

Le tecnologie a micro-getti (micro-jet impingement) usano ugelli micrometrici per generare flussi ad alta velocità diretti verso la superficie da raffreddare. L’impatto del getto rompe lo strato limite termico e incrementa sensibilmente il coefficiente di scambio, permettendo un raffreddamento estremamente localizzato. I principali benefici includono coefficienti di convezione molto elevati, drastica riduzione della resistenza termica locale, gestione efficace degli hotspot e capacità di dissipare densità di flusso non affrontabili con canali tradizionali.

La tecnologia JetCool, basata su micro-convezione, che abbiamo adottato è un esempio concreto applicato a nodi HPC e AI ad altissima densità. L’abbiamo utilizzata per ottimizzare lo scambio termico sui package più critici. Di contro, i micro-getti introducono perdite di carico più elevate e richiedono pompe adeguate, filtrazione fine e un design accurato dell’idraulica interna.

Ci possono essere dei rischi nell’utilizzo dei sistemi a liquido? Cosa occorre fare per prevenirl

I rischi includono perdite di fluido, corrosione, incrostazioni, biofouling, cavitazione, presenza di aria nel circuito, condensa e, nei sistemi bifase, fenomeni di dry-out o sovrapressioni locali. Le contromisure essenziali comprendono raccordi dripless, leak detection, CDU ridondate N+1, monitoraggio continuo di portata, pressione e temperatura, filtrazione multistadio e procedure di commissioning accurate.

La nostra esperienza sottolinea l’importanza dei test di tenuta iniziali, monitoraggio costante, manutenzione programmata e rigide procedure di emergenza.

Quali sviluppi futuri del liquid cooling appaiono più promettenti?

Tra le principali direttrici evolutive emergono: warm/hot-water cooling a 40–60 °C, soluzioni bifase on-package, microfluidica integrata nel silicio, immersion cooling oltre i 200–300 kW per rack, algoritmi di controllo basati su AI/ML, nuovi fluidi a basso GWP e la progressiva standardizzazione di interfacce e componenti secondo le linee guida OCP (Open Compute Project).

In questa visione, il liquid cooling diventa parte integrante di strategie energetiche più ampie, con benefici in termini di sostenibilità e recupero termico.

GDC di Pisa - credit foto: Università di Pisa

Quali insegnamenti avete ricavato dalla vostra esperienza?

Sul piano operativo, le lezioni principali riguardano la necessità di un commissioning accurato, il monitoraggio costante tramite BMS/DCIM, la gestione strutturata dei fluidi, piani di manutenzione preventiva e la disponibilità di parti di ricambio. Un elemento chiave emerso dall’esperienza è l’integrazione operativa tra team IT e facility, considerata una condizione indispensabile per gestire in modo affidabile il liquid cooling su larga scala.

Queste lezioni costituiscono una base concreta per progettare e gestire data centre di nuova generazione orientati a elevata densità, efficienza energetica e sostenibilità.

In breve

Che cos’è il liquid cooling nei data centre?

È una tecnologia di raffreddamento che utilizza liquidi al posto dell’aria per dissipare il calore dei server ad alta densità.


Perché il raffreddamento ad aria non è più sufficiente?

Le nuove CPU e GPU generano più calore, rendendo l’aria inefficace oltre certe densità di potenza.


Qual è il ruolo dell’Università di Pisa nella sperimentazione del liquid cooling?

L’Università di Pisa ospita il Green Data Center, un laboratorio avanzato dove il liquid cooling viene testato su infrastrutture HPC reali.