Skip to main content

Come rendere sostenibili i data centre

| Elis Bertazzon | Caffè scientifico

Articolo letto 60 volte

Osservabilità, AI generativa e gestione intelligente dell’energia.
Dall'università, prospettive diverse e sinergiche verso un obiettivo comune.

Con la crescita esponenziale della potenza di calcolo, alimentata dal cloud, dall’AI generativa e dalla continua espansione dei servizi digitali, la sostenibilità dei data centre più efficienti, resilienti e a basso impatto ambientale richiede la convergenza di competenze diverse: ICT, ingegneria energetica, modellazione e AI. Un tema quanto mai attuale in un momento storico in cui ridurre i consumi e le emissioni è una priorità globale.

Andrea Bartolini - credits: Edoardo Angelucci

Andrea Bartolini in occasione del Workshop GARR 2025

Questo tema è stato al centro della sessione moderata da Daniela Galetti, responsabile dell'unità Gestione Sistemi, Storage e Reti HPC di Cineca dedicata alla sostenibilità nel corso del Workshop GARR 2025, che si è tenuto a Roma lo scorso novembre. Gli interventi di Andrea Bartolini, professore di ingegneria informatica dell’Università di Bologna e Alfonso Capozzoli, professore di fisica tecnica ambientale del Politecnico di Torino, hanno offerto una visione complementare ma coerente di questo percorso: dall’osservabilità avanzata alla gestione predittiva, fino alla possibilità, ormai concreta, di interagire con infrastrutture complesse usando il linguaggio naturale. Un dialogo che, come sottolineato da Galetti, ha evidenziato la convergenza di approcci diversi verso obiettivi comuni, producendo un confronto ricco e sinergico.

Dati al centro: dall’osservabilità all’autonomia

Andrea Bartolini ha ricostruito l’evoluzione dei sistemi di monitoraggio dei data centre negli ultimi 20 anni, mostrando come la sostenibilità passi sempre più dalla capacità di raccogliere, leggere e interpretare la telemetria in modo efficiente. Laddove un tempo la gestione dei dati avveniva in modo manuale e frammentato, l’avvento di IoT, Big Data e sistemi distribuiti ha permesso di acquisire informazioni da milioni di sensori e di metterle a disposizione attraverso pipeline scalabili e standardizzate. Un esempio in questa direzione è Examon, software open source sviluppato con CINECA e altri partner, che centralizza dati eterogenei relativi a hardware, software e facility, rendendoli immediatamente utilizzabili per analisi e simulazioni.

Alfonso Capozzoli - credits: Edoardo Angelucci

Alfonso Capozzoli in occasione del Workshop GARR 2025

Questa disponibilità di informazioni ha reso possibile la costruzione di digital twin dell’infrastruttura, modelli attraverso cui gli operatori possono analizzare criticità, testare scenari o individuare rapidamente situazioni anomale. In un caso concreto citato da Bartolini, l’ottimizzazione dei sistemi di raffreddamento tramite dashboard intelligenti ha portato a una riduzione dell’8% dei consumi legati a questa componente, dimostrando l’impatto reale che un approccio integrato ai dati può avere sulle performance energetiche.

Machine learning e predittività: anticipare problemi e agire

Bartolini ha poi approfondito il ruolo sempre più centrale dei modelli predittivi. Grazie a tecniche di machine learning e deep learning, oggi è possibile rilevare anomalie operative e prevedere guasti di nodi di calcolo con ore di anticipo, anticipare problemi nei sistemi di raffreddamento e stimare in modo più accurato il consumo energetico o le caratteristiche dei job. Questi avanzamenti si basano su dataset di telemetria molto ricchi e articolati, come Exadata, 50 TB di dati raccolti in 31 mesi sul sistema Marconi100, o dataset analoghi relativi al supercomputer Fugaku (Riken), ormai utilizzati a livello internazionale per la ricerca.

Tuttavia, l’accesso a questa mole di dati non è semplice: servono competenze tecniche e di dominio per interrogare i dataset e per interpretarli in modo corretto. È proprio questa complessità che spinge la ricerca verso strumenti più accessibili.

L’AI generativa come interfaccia: dalla query al dialogo

La naturale evoluzione, secondo Bartolini, è l'impiego dell’AI generativa come strumento capace di rendere i dati e i modelli accessibili anche a persone prive di competenze specialistiche. Attraverso modelli sviluppati ad hoc, come ExaAgent ed Exasage, o modelli fondazionali pensati per dati di telemetria e ambienti Kubernetes, diventa possibile interrogare sistemi complessi usando semplicemente il linguaggio naturale.

Daniela Galetti - credits: Edoardo Angelucci

Daniela Galetti in occasione del Workshop GARR 2025

In futuro, un operatore potrà chiedere al sistema: “Quali job hanno causato l’aumento della temperatura su un determinato nodo nelle ultime 24 ore?”, ottenendo una risposta precisa e contestualizzata. L’approccio si basa sull’uso di knowledge graph che rappresentano la semantica dei dati, integrati con componenti capaci di combinare la potenza dei modelli generativi con una solida struttura logica.

Una visione energetica integrata: il data centre come ecosistema

Lo sguardo di Alfonso Capozzoli ha ampliato la prospettiva, riportando al centro il ruolo delle infrastrutture energetiche che rendono possibile il funzionamento dei data centre e per le quali una gestione reattiva non è più sufficiente. Occorre una strategia che metta al centro il monitoraggio, l'analisi avanzata e la capacità di operare una gestione predittiva.

Capozzoli ha mostrato come il Politecnico di Torino abbia adottato un approccio guidato dai dati, potenziando l’infrastruttura di monitoraggio, arricchendo la struttura semantica delle informazioni e rendendole disponibili alla comunità dell’Ateneo. L’obiettivo è trasformare i dati in informazione, e l’informazione in ottimizzazione, favorendo una conoscenza che cresce in modo condiviso e interdisciplinare.

Grazie alla costruzione di digital twin è stato possibile creare dashboard intelligenti che hanno consentito di ottimizzare i sistemi di raffreddamento con una riduzione dell’8% dei consumi

Machine learning e controllo: verso un data centre dinamico e intelligente

Capozzoli ha poi descritto un panorama in cui il machine learning diventa uno strumento attraverso il quale supportare le decisioni e rendere i sistemi più flessibili. I modelli predittivi consentono di rilevare efficacemente anomalie e malfunzionamenti, di stimare la domanda energetica e di programmare le attività di manutenzione in modo più efficiente. Parallelamente, tecniche avanzate di controllo, come i sistemi Model Predictive Control (MPC) o approcci di reinforcement learning, permettono di regolare efficacemente gli impianti a servizio di un data centre e di ottimizzare la prestazione energetica, i costi operativi e la gestione dei campi termici.

Una parte cruciale è rappresentata dai sistemi di climatizzazione, che assorbono spesso una quota significativa dei consumi. Grazie all’analisi continua dei dati e alla simulazione tramite digital twin, è possibile testare scenari alternativi, valutare l’impatto di modifiche ai parametri operativi e individuare interventi che riducano costi e consumi senza compromettere sicurezza e prestazioni. Tecnologie più avanzate come il liquid cooling offrono ulteriori margini di miglioramento.

Un campus come laboratorio: tra visualizzazione e simulazione

Un esempio concreto di questa visione integrata è rappresentato dalla piattaforma Campus Energy Dashboard del Politecnico di Torino. Costruita interamente con strumenti open source; essa consente un monitoraggio dettagliato dei sistemi energetici e IT e mette a disposizione database temporali, modelli semantici e strumenti di visualizzazione personalizzati per diverse categorie di utenti, dai responsabili della gestione dell’energia e della manutenzione, ai ricercatori.

Nel mock-up dedicato al Datacenter 1 del Politecnico di Torino, dotato di un sistema di contenimento dei flussi di aria calda, sistemi economizzatori indiretti e monitoraggio continuo della potenza IT e delle macchine frigorifere, è possibile analizzare i consumi, calcolare nel tempo metriche di efficienza come il PUE, e rilevare automaticamente anomalie grazie anche a modelli di machine learning. La presenza di un digital twin consente inoltre di simulare diverse condizioni operative e di valutare a priori gli effetti di strategie di controllo predittivo o di variazioni nei parametri operativi di impianto.

Nei data centre una gestione reattiva non è più sufficiente: occorre una strategia che metta al centro il monitoraggio, l'analisi avanzata e la capacità predittiva

Sinergie e direzione futura

Nel dibattito conclusivo sono emersi numerosi punti di connessione tra i due interventi. I dati rappresentano il fondamento comune su cui costruire tanto l’ottimizzazione dei sistemi IT quanto l’efficientamento degli impianti energetici. La semantica e la modellazione avanzata rendono i dati realmente interpretabili e utilizzabili, mentre l’intelligenza artificiale permette di trasformarli in strumenti di supporto decisionale e, sempre più spesso, di controllo autonomo.

Il Digital Twin per la sala macchine di Marconi100 - credits: Cineca

Il Digital Twin per la sala macchine di Marconi100: un’applicazione costituita principalmente da due componenti: il data lake che è fornito dal framework ExaMon, sviluppato dall’Università di Bologna ed una applicazione web che fornisce una interfaccia, sia 3D che 2D, sviluppata al Cineca Visit Lab

Entrambi gli esperti hanno sottolineato quanto la collaborazione multidisciplinare sia fondamentale per affrontare la complessità di infrastrutture che uniscono hardware, software, impianti tecnici e sistemi di gestione. Ed entrambe le visioni convergono verso un futuro in cui l’operatore potrà dialogare in linguaggio naturale con sistemi complessi, ottenendo risposte immediate e ricevendo suggerimenti operativi in tempo reale.

Una visione condivisa per infrastrutture più intelligenti e sostenibili

La sessione si è conclusa con un messaggio chiaro: la sostenibilità dei data centre non è solo un obiettivo tecnologico, ma anche un percorso culturale che richiede il coinvolgimento di comunità diverse e l’integrazione di competenze complementari. L’Italia, grazie alla qualità della ricerca e alla capacità delle sue comunità tecniche di collaborare, ha tutte le carte in regola per giocare un ruolo da protagonista.

Approcci diversi con lo stesso obiettivo: una possibile convergenza

di Fabio Farina, GARR

L'approccio presentato offre spunti particolarmente interessanti per le attività del gruppo Data Centre Network di GARR, perché mostra un approccio analogo, ma al tempo stesso complementare, a quello su cui si sta già lavorando. La differenza principale riguarda il punto di partenza: mentre Antares, il sistema multi-agente che automatizza analisi e troubleshooting della rete di data centre GARR, ha un approccio che si concentra sull’analisi delle configurazioni dei sistemi, per individuarne eventuali anomalie, ExaAgent basa la propria metodologia sulla telemetria. Due prospettive diverse, dunque, ma accomunate da un obiettivo comune e da un elemento chiave: l’impiego di agenti di intelligenza artificiale a supporto dell’utente. Questa complementarità apre scenari promettenti. L’idea di fondere le fonti informative – configurazioni e telemetria – potrebbe infatti fornire una lente di indagine ancora più completa e potente sulle reti dei data centre, permettendo analisi più approfondite e un monitoraggio più efficace. Un altro elemento di interesse riguarda la possibilità di estendere questa metodologia alla dorsale GARR. La rete GARR-T dispone già di una telemetria molto articolata, che raccoglie un grande numero di dati sullo stato dell’infrastruttura. In questo contesto, il grafo della conoscenza proposto dagli autori trova un corrispettivo naturale nell’inventory automatico degli apparati della rete, che rappresenta in modo strutturato informazioni e relazioni tra elementi. L’idea di applicare ExaAgent ai dati e alla conoscenza già disponibili su GARR-T apre quindi la strada a sperimentazioni congiunte che potrebbero rivelarsi particolarmente promettenti, portando benefici concreti all’intera comunità.

In breve

Che cosa significa rendere sostenibili i data centre?

Significa ridurre consumi energetici, emissioni e impatto ambientale mantenendo elevate prestazioni e affidabilità.


Qual è il ruolo dell’intelligenza artificiale nei data centre sostenibili?

L’AI consente analisi predittive e ottimizzazione dinamica di energia, raffreddamento e carichi di lavoro.


Perché l’osservabilità è fondamentale per l’efficienza dei data centre?

Perché permette di monitorare in tempo reale infrastrutture e consumi, individuando sprechi e anomalie.