Questo sito utilizza i cookie per migliorare servizi ed esperienza dei lettori. Se decidi di continuare la navigazione consideriamo che accetti il loro uso. Per maggiori informazioni sull uso dei cookies e su come eliminarli leggi l'informativa estesa

Abbiamo modificato alcune delle nostre politiche per rispondere ai requisiti del nuovo Regolamento Europeo per la Protezione dei Dati Personali (GDPR). In particolare abbiamo aggiornato la Privacy Policy e la Cookie Policy per renderle più chiare e trasparenti e per introdurre i nuovi diritti che il Regolamento ti garantisce. Ti invitiamo a prenderne visione.

Informativa sulla privacy

La nuvola tra miti e realtà

Scritto da Diana Cresti Il . Inserito in la nuvola della ricerca e istruzione . Visite: 4418

La nuvola tra miti e realtà

Tutti ne parlano, tutti la offrono, ma cos’è davvero la cloud? Abbiamo parlato con un esperto per fare un po’ di chiarezza

Ne parla la stampa specializzata e non, ne parlano le agende delle istituzioni, ne parlano i maggiori fornitori di servizi che da tempo hanno inserito nel loro portafoglio servizi quella che sembra ormai una parola magica.. Eppure sul concetto di "cloud" c’è molta confusione. Abbiamo cercato di fare chiarezza parlandone con Fabrizio Gagliardi, consulente indipendente ed esperto con una lunga esperienza sia in ambito grid che cloud.

Cos’è cloud e come si distingue da altre tecnologie affini?

Per iniziare bisognerebbe sottolineare che ci sono, a intervalli regolari, delle tecnologie nel campo del calcolo distribuito che emergono e che hanno un effetto dirompente, in quanto cambiano i modelli di utilizzo, di sviluppo delle applicazioni e anche i modelli di business, cioè il modo in cui gli utenti pagano, o le agenzie finanziano questi modelli di calcolo distribuito. Nel caso della cloud ci sono due elementi molto importanti, da una parte la maturità delle tecnologie di virtualizzazione che ha risolto tutta una serie di problematiche e di portabilità delle applicazioni inerenti alle precedenti modalità di calcolo distribuito, e dall’altra la tecnologia dei centri di dati basati su componenti modulari ed altamente integrati in container, nei quali si riesce ora a inserire con altissimi livelli di economia di scala tutto quello che serve a gestire i dati e a fornire il calcolo, l’alimentazione, il raffreddamento.

Fabrizio Gagliardi
Fabrizio Gagliardi
Già direttore del progetto EGEE presso il CERN e direttore di ricerca in Microsoft.
Consulente indipendente in materia di grid e cloud
Questo indirizzo email è protetto dagli spambots. E' necessario abilitare JavaScript per vederlo.


Quando io parlo di cloud penso subito a Amazon, Google, Microsoft, IBM, queste grosse ditte che hanno un numero relativamente limitato di centri di calcolo enormi, tutti formati con elementi altamente modulari. Questi centri, grazie al grande progresso delle reti, si possono anche mettere in località remote dove c’è l’opportunità di avere condizioni climatiche che favoriscono il raffreddamento delle unità, o energia elettrica a basso costo e rinnovabile, di natura geotermica o idroelettrica, e quindi permettere dei costi di esercizio molto bassi e con limitato impatto ecologico. Quindi, grossi data center, una rete ad alte prestazioni, un’interfaccia web, e poi tutto virtuale. Un utente non ha più bisogno di mettere su una sua infrastruttura di calcolo, compra tutti i componenti e li usa per quello che gli serve; se dall’oggi al domani le sue necessità di calcolo si moltiplicano anche di un fattore 100 o 1.000, riesce ad avere queste risorse in maniera quasi immediata; allo stesso modo, quando vede che la sua necessità diminuisce anche drammaticamente, può diminuire o anche sospendere il servizio, ed eventualmente riallacciarsi in futuro, avendo accesso nuovamente all’ultima tecnologia, con il migliore rapporto qualità/ prezzo per quel momento.

Quali sono le problematiche legate alla sicurezza in ambito cloud?

L’esperto
Fabrizio Gagliardi è uno dei pionieri della grid, avendo lavorato allo sviluppo di questa tecnologia con Ian Foster e Carl Kesselman verso la fine degli anni ’90. Dopo una lunga carriera al CERN, dove è stato direttore dei progetti DataGrid e EGEE, è passato alla Microsoft Research, dove ha ricoperto il ruolo di direttore di Research Connections per Europa, Medio Oriente e Africa, lavorando in particolare sul progetto VENUS-C. Attualmente è consulente indipendente in ambito di tecnologie ICT e Senior Research Director all’Università Politecnica di Barcellona.

Essenzialmente le problematiche sono le stesse che si pongono quando qualcuno usufruisce di servizi remoti tramite una rete. I recenti casi, PRISM e tutti gli altri, non stupiscono gli addetti ai lavori: si sa da sempre che le agenzie di spionaggio fanno il loro mestiere, si cerca di spiare il più possibile per tutti quei motivi che sono vecchi come l’umanità. C’erano forse delle illusioni, ovvero se io faccio l’encrypting, allora i miei dati sono perfettamente protetti. Ma si sa che anche le tecnologie di decrittazione sono in continua evoluzione. Basti pensare al caso dei britannici che sfruttando l’ingegno dei loro informatici, fino al grande Alan Turing, riuscirono a decifrare il codice che utilizzava la Germania per comunicare tra i suoi sommergibili; lo stesso succede con le reti. Quindi niente di nuovo. Quello che magari è nuovo sono le dimensioni del fenomeno: con lo sviluppo della tecnologia di oggi, quel piccolo spionaggio che si faceva una volta ora è immenso. Nel momento in cui uno fa il calcolo sulla rete, espone i suoi dati e il suo calcolo a possibili intercettazioni. Questa è una cosa di cui bisogna prendere atto; quindi uno deve stare attento, che il fornitore di servizi sia sicuro, e intanto prendere il minimo di precauzioni, facendo un encrypting, però sapendo che non è a prova di bomba. Essenzialmente è molto importante da parte dell’utente cercare per esempio di tenere in casa quei dati che sono altamente sensibili.

Le cloud per uso scientifico, dove vige la cultura dell’open access, secondo me non hanno un grosso problema nell’ambito dell’attuale dibattito sulla privacy e la sicurezza dei dati. Però per altri tipi d’informazione, per esempio di tipo medico, o di tipo finanziario o industriale, si tratta di un ostacolo non indifferente all’adozione in grande scala di questo sistema (pubblico, ndr) di calcolo virtuale.

La cloud è per tutti?

Le cloud rimangono ancora molto costose nel movimento di grossi volumi di dati, come i dati dei fisici dell’LHC, dove si parla di 10, 15, 20 Petabyte. Se uno comincia a lavorare al livello del Petabyte, credo che ancora oggi e forse per qualche tempo la soluzione fatta in casa, per quanto meno agile, sia più conveniente. C’è anche una minoranza non indifferente di utenti che ha bisogno di risorse di supercalcolo, che non si trovano sulla cloud. Se uno ha bisogno di fare del calcolo ad altissime prestazioni utilizzando per esempio delle librerie MPI, quindi calcolo che fa del parallelismo fine o che ha bisogno di grandissime memorie condivise, ecco, quel tipo di calcolo giustifica ancora l’esistenza di centri di supercalcolo, che conservano un loro ruolo importante da svolgere ora e nel futuro. Oppure le grosse macchine dove ci sono dei programmi e dei codici che sono ormai certificati da tempo, come per esempio in meteorologia: se uno ha dei codici che sono stati certificati da anni e anni di osservazioni meteorologiche, o per studi sul clima, vale la pena di continuare a comprare delle grosse macchine perché tutto sommato l’investimento nelle risorse di calcolo è minimo rispetto al resto dell’infrastruttura; quindi andare su cloud probabilmente per questi utenti non ha molto senso. Dove ha senso è per il piccolo utente commerciale, che non ha la possibilità di crearsi la propria struttura IT, per il piccolo gruppo di ricerca che magari può ottenere dalla sua funding agency, invece dei soldi per comprarsi dell’hardware, magari dei “voucher” per acquisire servizi cloud.

Come vede il ruolo delle reti della ricerca in questo scenario?

Il calcolo distribuito esiste da quando esistono le reti, che sono fattore abilitante per queste tecnologie. Quindi è ovvio che organizzazioni come le reti della ricerca siano in una posizione ideale per fornire servizi di cloud, magari di terze parti, che si occupano di negoziare, quindi a condizioni molto convenienti, per conto della comunità scientifica. Una NREN potrebbe fare anche di più. Se un utente ha delle preoccupazioni di protezione dei dati, la NREN potrebbe per esempio sviluppare delle cloud cosiddette "ibride" in cui offre risorse di calcolo che magari ospita presso di sé, e che quindi gestisce in maniera molto sicura, per un certo livello di calcolo e gestione dei dati. Quando poi c’è bisogno di più risorse, per dei picchi di calcolo, allora la NREN potrebbe muovere parte del calcolo in eccesso sul suo fornitore di fiducia che si fa carico di gestire quei dati in maniera comunque sicura e confidenziale.

Le NREN sono in una posizione ideale per fornire servizi cloud

Un altro aspetto in cui il GARR e le altre NREN possono agire è quello degli standard. I fornitori commerciali non hanno un grande interesse a permettere la portabilità dei dati o delle piattaforme; invece hanno tutto l’interesse a catturare il cliente e a tenerselo. Per stabilire standard e interoperabilità ci vuole un lavoro da parte di organizzazioni nazionali e internazionali; quindi le NREN potrebbero ad esempio decidere che supportano qualche standard che magari viene promosso dalla Commissione Europea, o da organizzazioni come per esempio la Research Data Alliance che sta partendo ora in Europa.

Qual è il futuro della cloud?

Secondo me la tecnologia è qui per rimanere. I grossi data center si faranno sempre di più per questioni di risparmio energetico e impatto ambientale, come si diceva. In parallelo a questo, si deve anche tenere presente che è sempre più possibile per utenti più esperti o più forniti, creare un centro di calcolo di prestazioni notevoli impensabili solo fino a qualche anno fa in casa, con la tecnologia disponibile sul mercato.

Credo che la tecnologia cloud sia qui per restare

Già ora si riesce a fare un supercalcolatore da un Petaflop di prestazioni con tre rack raffreddati con aria ambiente; quindi un’utenza un po’ più esperta può anche costruirsi delle soluzioni in casa in maniera molto economica. Resta il fatto che l’accesso a cloud sarà sempre tramite rete e i tempi di risposta sono una questione non trascurabile. Esiste un problema di latenza che non è accettabile da tutti; per chi ha dei problemi che hanno una componente di real time che necessita una latenza ridotta, la cloud pura rimarrà di difficile adozione. Però come si diceva, fra la cloud, il cluster locale e il centro di supercalcolo c’è un grande spazio di soluzioni, in cui le strategie ibride per un certo tipo di utente saranno la cosa migliore da fare, e probabilmente anche quello che andrà per la maggiore nel futuro molto prossimo. Nell’immediato quindi vedo un futuro molto roseo per le soluzioni ibride, ma non escludo che in futuro si possa evolvere in una soluzione completamente commerciale.

 

 

GARR News - Testata semestrale registrata al Tribunale di Roma: n. 243/2009 del 21 luglio 2009

Il contenuto di questo sito e' rilasciato, tranne dove altrimenti indicato,
secondo i termini della licenza Creative Commons attribuzione - Non commerciale Condividi allo stesso modo 3.0 Italia

GARR News è edito da Consortium GARR, La rete Italiana dell'Università e della Ricerca


GARR News n°9 - Novembre 2013 - Tiratura: 7000 copie - Chiuso in redazione: 6 Dicembre 2013
Redazione GARR News
Hanno collaborato a questo numero: Alessandro Andretto, Claudio Barchesi, Maria Ludovica Bitonti, Mauro Campanella, Massimo Del Sarto, Fulvio Galeazzi, Mara Gualandi, Maria Laura Mantovani, Mario Santamaria, Laura Santoro, Francesca Scianitti


 

Abbiamo 156 visitatori e nessun utente online