- Home
- Osservatorio della rete
- Calcoli alla velocità della luce
Calcoli alla velocità della luce
| Marco Paganoni, Stefano Zani, Daniele Bonacorsi | osservatorio della rete
Grandi moli di dati distribuiti in vari paesi: la sfida di LHC alle reti
Cominciamo da questo numero un viaggio nelle applicazioni più innovative della nuova infrastruttura di rete GARR-X con una delle comunità più “affamate” di banda, quella della Fisica delle alte energie. La costruzione di LHC, con la sua straordinaria messe di dati, ha offerto sfide senza precedenti a questa comunità, che ha definito un modello di elaborazione basato su centri di calcolo organizzati gerarchicamente e distribuiti nei vari Paesi che partecipano agli esperimenti. A sua volta, la mole di dati da trasferire ai diversi centri ha posto ulteriori sfide a chi progetta le reti...
Daniele Bonacorsi
INFN CNAF
Vice Coordinatore CMS Computing
Marco Paganoni
INFN - Istit. Nazionale di Fisica Nucleare
Presidente Commissione Calcolo e Reti
Stefano Zani
INFN - CNAF
Responsabile NETGROUP
La presa dati a LHC dal 2010 al 2012 ha dimostrato la validità del paradigma di calcolo distribuito basato sul Grid Computing e sull’idea di federare i centri di calcolo (Tier) facenti parte della collaborazione Worldwide LHC Computing Grid (WLCG). Secondo il modello originale, i centri di elaborazione sono stati organizzati in vari livelli gerarchici in base alle caratteristiche dei servizi di calcolo offerti alle comunità sperimentali di ALICE, ATLAS, CMS, LHCb, dando luogo alla classificazione in Tier-0, Tier-1, Tier-2, Tier-3. Nelle operazioni di calcolo, questi svolgono funzioni differenti, dal cruciale e unico Tier-0 collocato al CERN, agli 11 centri Tier-1 dislocati in nazioni differenti, fino ai numerosi centri Tier-2 e -3 sparsi per il pianeta.
Nonostante l’eterogeneità delle operazioni di calcolo dei singoli esperimenti, un fattore comune consiste nell’uso condiviso dei servizi di connettività forniti dalle singole NREN (National Research Education Network, di cui GARR è l’espressione italiana). Nel modello iniziale era previsto un ingente traffico su alcune rotte prioritarie, cioè quelle che collegano il Tier-0 del CERN con i centri distribuiti Tier-1 e quelle tra i Tier-1 e i Tier-2 della stessa regione. Per le prime, è stata commissionata ad hoc l’infrastruttura LHCOPN, consistente in connessioni ad alta prestazione dedicate su fibra ottica, a uso esclusivo degli esperimenti LHC. LHCOPN è stata estesa a coprire anche i collegamenti da tutti i Tier-1, distinguendosi così come un’infrastruttura ridondante a livello Tier-0/1. Durante le operazioni di calcolo a LHC, tuttavia, gli esperimenti ATLAS e CMS hanno evidenziato un forte utilizzo del networking non solo sulle rotte sopra citate, ma anche su quelle che collegano Tier-1 e Tier-2 che non si trovano nella stessa regione o che collegano direttamente i Tier-2tra loro: i modelli di calcolo si sono di fatto evoluti verso una “full mesh”, una magliatura completa che unisce e collega tutti i Tier, senza distinzione di livello, modificando le politiche di data placement e di accesso remoto ai dati, per migliorare l’attività di analisi dati di una comunità di quasi 6.000 fisici in tutto il mondo.
Protagonisti di LHCONE sono i flussi di dati fra centri di calcolo e la natura mutevole nel tempo di tali flussi governati da modelli di calcolo costantemente in evoluzione, fatto che rende complesso ma anche stimolante il compito di chi deve gestire e progettare la rete. L’enorme traffico necessario su rete geografica rappresenta una sfida tecnologica che vede proprio in LHCONE il contesto giusto in cui portare al limite le tecnologie già disponibili e svilupparne di nuove, portando le organizzazioni coinvolte a fare investimenti importanti sulle infrastrutture di rete, sia all’interno dei singoli stati, sia a livello intercontinentale a vantaggio di tutte le comunità della Ricerca e dell’Istruzione a livello globale. All’interno della comunità di LHCONE è stato fatto un grande lavoro di coordinamento per dare subito una risposta alle richieste di rete per i siti di analisi. Oggi stiamo lavorando per migliorare gli strumenti di monitoring e la struttura di gestione della rete, in modo da renderla in grado di reagire al meglio ad eventuali problemi. Molto lavoro si sta facendo anche sull’esplorazione di tecnologie di gestione di circuiti dinamici punto-punto in grado di veicolare con maggiore efficienza i flussi di traffico. Noi italiani siamo stati fra i primi in Europa a collegare a LHCONE i nostri principali centri di calcolo, anche grazie al lavoro della Commissione Calcolo e Reti (gruppi Netarch e Negroup) e del GARR, fin da subito attivamente coinvolto nella costruzione di LHCONE, sia a livello nazionale che europeo, insieme alle altre NREN.CMS è stato pionere in questo settore, avendo lanciato fin dal 2010 un programma dedicato al commissioning delle connessioni tra tutti i Tier dell’esperimento utilizzando il proprio strumento di data management PhEDEx (PHysics Experiment Data Export). Durante le prime fasi della presa dati, sono stati testate e attivate con PhEDEx oltre 1200 connessioni tra Tier, mettendo in produzione il 95% delle connessioni full-mesh in poco più di 6 mesi. Questa evoluzione ha naturalmente attirato l’attenzione della comunità delle reti, dato che, contrariamente al modello originale, il traffico dati per ATLAS e CMS avveniva in larga misura su rotte non servite da LHCOPN: così, la tipologia di rotta che ospita la maggior parte del traffico CMS è quella tra un Tier-1 e un Tier-2, seguita dalle connessioni dirette tra Tier-2 e Tier-2. La comunità delle reti si è prontamente attivata in un’efficiente collaborazione con le comunità sperimentali ATLAS e CMS per studiare un approccio adeguato, concretizzato nell’iniziativa LHCONE (LHC Open Network Environment), un insieme di punti di accesso a risorse di rete che siano private per la comunità dei Tier-1, 2 e 3 a LHC. L’obiettivo non è quello di rimpiazzare LHCOPN, ma complementarne l’approccio ed estenderlo ai Tier di livello 2 e 3. L’attenzione e la competenza degli esperti di rete, compresi quelli del GARR, hanno permesso di reagire prontamente alle evoluzioni dei modelli di calcolo a LHC.
In questo approccio proattivo, che previene l’insorgenza di un problema invece di attenderne i primi sintomi, gli esperimenti trovano un terreno fertile e costruttivo su cui impostare le evoluzioni dei modelli di calcolo in previsione del Run2 a LHC, nel 2015.
In particolare, la realizzazione di GARR-X ha reso possibile il collegamento dei principali Tier2 dell’INFN a 10Gbps e permetterà di mettere in produzione il primo collegamento a 100Gbps entro la fine del 2013.
Dai un voto da 1 a 5, ne terremo conto per scrivere i prossimi articoli.
Voto attuale:
-
Cosa posso fare per proteggere il mio PC?risponde cecchini
-
Nanomax: diagnosi e cura con le nanotecnologiecaffè scientifico
-
Grafene: l’Europa scommette sul materiale del futurocaffè scientifico
-
il filo - 05/2013Editoriale
-
Dal nanotech una risposta ai problemi del pianetacaffè scientifico
-
GARR-X: la rete c’è e si vedeosservatorio della rete
-
Calcoli alla velocità della luceosservatorio della rete
-
La visione porta lontanoosservatorio della rete
-
L'arrivo di GARR-X visto dall'APMosservatorio della rete
-
Il futuro della scienza è nelle piccole cosecaffè scientifico
-
Le identità digitali protette in una nuvolaservizi alla comunità
-
Con la fibra è tutta un’altra scuolala voce della comunità
-
GARR torna a scuola per innovarlaosservatorio della rete
-
La rete araba è vicinainternazionale
-
Sfide globali, soluzioni globaliinternazionale
-
L’Africa della conoscenzainternazionale
-
Quali sono le più gravi debolezze di una VPN (Virtual Private Network)?risponde cecchini
-
Solo per pochiipv6
-
Corsi e ricorsi di Internetieri, oggi, domani
-
Protagonisti dell’Internet mondialepillole di rete
-
In attesa di Horizon2020 arriva GN3pluspillole di rete
-
Suonando insieme sulla retepillole di rete
-
PRACE Scientific Conference e ISC 2013agenda
-
2a Conferenza EUDATagenda
-
GARR entra nella Cloudservizi alla comunità
-
Un ricordo di Giuseppe Pierazziniosservatorio della rete
-
ICT 2013 - Create, Connect, Growagenda
-
SuperComputing 2013agenda
-
Archeologia e tutela del patrimonio monumentale diventano condivisipillole di rete
Articoli nella rubrica
-
di Marco Paganoni, Stefano Zani, Daniele Bonacorsi
-
di Task Force Scuole GARR
-
di Giovanni Cesaroni, Carlo Volpe
-
di Stefano Zani, Mauro Morsiani, Franco Tinarelli
-
di Federica Tanlongo
-
di Paolo Caturegli
Archivio GARR NEWS
- Numero 29 - anno 2023
- Numero 28 - anno 2023
- Numero 27 - anno 2022
- Numero 26 - anno 2022
- Numero 25 - anno 2021
- Numero 24 - anno 2021
- Numero 23 - anno 2020
- Numero 22 - anno 2020
- Numero 21 - anno 2019
- Numero 20 - anno 2019
- Numero 19 - anno 2018
- Numero 18 - anno 2018
- Numero 17 - anno 2017
- Numero 16 - anno 2017
- Numero 15 - anno 2016
- Numero 14 - anno 2016
- Numero 13 - anno 2015
- Numero 12 - anno 2015
- Numero 11 - anno 2014
- Numero 10 - anno 2014
- Numero 9 - anno 2013
- Numero 8 - anno 2013
- Numero 7 - anno 2012
- Numero 6 - anno 2012
- Numero 5 - anno 2011
- Numero 4 - anno 2011
- Numero 3 - anno 2010
- Numero 2 - anno 2010
- Numero 1 - anno 2009
- Numero 0 - anno 2009