Questo sito utilizza i cookie per migliorare servizi ed esperienza dei lettori. Se decidi di continuare la navigazione consideriamo che accetti il loro uso. Per maggiori informazioni sull uso dei cookies e su come eliminarli leggi l'informativa estesa

Abbiamo modificato alcune delle nostre politiche per rispondere ai requisiti del nuovo Regolamento Europeo per la Protezione dei Dati Personali (GDPR). In particolare abbiamo aggiornato la Privacy Policy e la Cookie Policy per renderle più chiare e trasparenti e per introdurre i nuovi diritti che il Regolamento ti garantisce. Ti invitiamo a prenderne visione.

Informativa sulla privacy

Innovare la rete per gestire la complessità

Innovare la rete per gestire la complessità

Scritto da Massimo Carboni Il . Inserito in osservatorio della rete . Visite: 348

Software, automazione, nuove competenze: ecco i pilastri della rete che verrà. Un percorso collettivo all’interno della comunità della ricerca per rispondere alle sfide di domani

La celebrazione dei primi vent’anni del progetto GARR-B ha portato a riflettere su come il networking sia evoluto negli ultimi due decenni e su cosa ci aspetterà ancora in futuro. Da quel progetto che ha integrato per la prima volta le reti metropolitane con la rete nazionale ed ha rappresentato un vero salto qualitativo per la sua maggiore capillarità sul territorio, diversi modelli di rete si sono avvicendati.

Tutti erano basati sull’IP che era l’unica lingua franca possibile. Ad un certo punto, però, ci si è resi conto che per la ricerca e l’istruzione serviva prendere in mano, non solo i servizi, ma anche la gestione dell’intera infrastruttura ottica e trasmissiva ed abbiamo così iniziato a sviluppare competenze nuove. Avere il controllo di tutte le componenti ci ha permesso di sperimentare ed innovare arrivando a risultati eccellenti nel servizio di produzione. Un esempio concreto è la creazione del servizio di alien wavelenght, con le quali possiamo trasportare i segnali luminosi su una piattaforma ottica diversa da quella che li ha generati facendo parlare tra loro apparati di fornitori differenti. Il tutto ottimizzando le risorse e i costi.
Grazie anche a questa tecnica, in 20 anni abbiamo superato tre ordini di grandezza nella capacità di trasporto: siamo passati da una rete a 1 Gigabit ad una dalla capacità complessiva di 3 Terabit. Il disegno di rete attuale è ormai parte della quotidianità: è pervasivo e è condiviso con tutti i nostri utenti.
La comunità della ricerca, per le sue specifiche esigenze, non può considerare la rete e i suoi servizi come se fossero prodotti disponibili sul banco del supermercato, perché molto spesso l’esigenza viene prima che esistano delle soluzioni già pronte. Il nostro approccio, quindi, è lavorare sull’innovazione perché questa è una necessità. Solo così siamo in grado di sviluppare un sistema adeguato alle sfide di domani e non solo di fornire servizi al minor costo. Nella transizione verso un nuovo concetto di networking ci sono quattro pilastri da considerare: la fibra ottica, lo standard Ethernet, la trasmissione a pacchetto e il software.

Fibra ottica per una connessione globale

Le fibre ottiche oggi consentono di trasportare capacità straordinarie. Al top della tecnologia troviamo i cavi sottomarini che consentono di portare segnali ad alta capacità (160 Tbps) anche su distanze fino a 10.000 km: un valore quasi al limite fisico della fibra. Le fibre terrestri, anche se inferiori, sono ugualmente in grado di raggiungere capacità notevoli, fino a 50 Tbps. Anche le interfacce ottiche singole, che illuminano un solo colore sulla fibra, crescono continuamente (in media del 20% ogni generazione) e arrivano oggi a 400 Gbps. Si può affermare, senza ombra di dubbio, che oggi non esista un problema di capacità se si usa la fibra ottica: ormai la connettività è pervasiva, sempre disponibile ed è difficile distinguere quando siamo connessi oppure no. Per questo Luciano Floridi, professore di filosofia e etica dell’informazione a Oxford, parla di “società delle mangrovie” che possono crescere solo in acque salmastre, non salate, né dolcì. Siamo integrati nel sistema perché siamo sempre connessi e, con i nostri dati, creiamo informazione anche involontariamente.
I dati, quindi, diventano l’elemento dominante. Ci sono esperimenti in cui si parla di volumi nell’ordine dello Zettabyte: un’enormità. Il vero valore pertanto consiste nell’interazione: nello scambio di dati tra una macchina e l’altra e nella loro successiva elaborazione. La rete di accesso e trasporto garantisce alle persone la possibilità di essere una sorgente e una destinazione di dati ovunque. Un device mobile diventa così un’estensione della persona e tramite il nostro dispositivo diventiamo parte dell’ecosistema: un pezzo dell’”Internet delle cose”.

La roadmap dell’Ethernet

Il secondo elemento fondante da considerare nell’evoluzione della rete è l’Ethernet, che crea la struttura dei bit che transitano attraverso il singolo cavo e la singola lunghezza d’onda nella fibra con cui IP comunica. Ethernet ha rappresentato nella sua semplicità una pietra miliare e una vera svolta nel networking. Si è affermato come uno standard de facto perché più efficiente tecnicamente. Nel tempo si è evoluto dagli originali pochi megabit per multipli di 10 fino ad arrivare a quasi 400 Gigabit.
Pensando a dove utilizziamo Ethernet, dai cavi in rame nelle nostre case fino al Terabit nelle fibre, possiamo immaginare che lo standard continuerà ad essere presente in tutto l’ecosistema dell’informazione: dalla domotica, all’automotive, al mobile, ai data centre, al cloud.

Il software avvicina i servizi di rete agli utenti

Sopra Ethernet, IP rimane ancora la lingua franca che fa da colla a tutti gli elementi della rete e garantisce la loro raggiungibilità e capacità di comunicazione. La novità è che oggi si è innestata prepotentemente la possibilità di far compiere al software quasi tutte le funzioni, senza ricorrere ad hardware costoso e chiuso. Il modello di evoluzione quindi semplifica ulteriormente la componente protocollare proprietaria e la rende aperta. Il paradigma Software Defined Networking è basato su software che si libera da apparati fisici proprietari e che entra sempre di più in tutti gli oggetti fisici prossimi all’utente finale, non solo all’amministratore di rete.
Prima, gli standard creavano una struttura formale rigida, che è stata utile nella definizione del modello ma che oggi risulta un vincolo non più adatto all’agilità permessa dall’hardware generico e dallo sviluppo del software. Se osserviamo gli standard nel campo dell’open networking, e ancora di più nel campo dei Big Data, non possiamo non notare una numerosità infinta di sistemi e tool. Le applicazioni e i servizi sono troppi per poterli valutare da soli ed occorre cooperare all’interno della comunità per ottimizzare le risorse e riuscire ad essere realmente innovativi.

Massimo Carboni durante il workshop “Idee per innovare in rete” organizzato per celebrare i vent’anni del progetto GARR-B che, integrando le reti metropolitane, ha contributo all’estensione capillare della rete GARR su tutto il territorio nazionale.

L’importanza dell’automazione

Il software sta diventando sempre più centrale. Le fibre ed Ethernet sono tecnologie abilitanti ma sono solo alcune delle componenti, anche le applicazioni e i dati ormai fanno parte della rete stessa. Diventa così essenziale la capacità di monitoraggio e controllo. L’obiettivo è quello di collezionare più dati possibili utili a costruire conoscenza che aiuti la progettazione e la gestione della rete. Per ottenere questo è indispensabile l’automazione. Il piano B, basato solo su operazioni manuali, infatti è perdente.
Su tutti questi elementi, inoltre, la sicurezza ha un ruolo sempre più pregnante e deve essere presente fin dalla fase di sviluppo iniziale e in quest’ottica, anche se ragionare in termini di microservizi può facilitare il compito, l’automazione è imprescindibile.

Il punto di vista dell’utente

La rete nel futuro sarà sempre più vicina all’utente. L’esigenza crescente è quella di disporre di servizi indipendentemente dal luogo in cui ci si trova. L’obiettivo su cui stiamo lavorando è quello di offrire la possibilità agli utenti di accedere all’infrastruttura e attivare servizi in modo autonomo non solo tra due punti fisici di presenza istituzionali della rete.
Nel disegno futuro un ruolo importante, inoltre, lo rivestono i data centre che aggiungono valore all’infrastruttura e stanno entrando a far parte dell’ecosistema di rete. I data centre sono distribuiti e vicini all’utente finale, per ridurre i tempi di risposta e favorire l’accesso alle applicazioni. Il modello GARR di accesso ai servizi potrebbe essere fatto con la concatenazione di funzioni virtuali di rete, in software, presenti dentro computer distribuiti nella rete. Per ora lo stiamo sviluppando dentro i data centre, in un modello cloud, con l’idea di portarlo poi su una scala di rete geografica per poter avere sempre più servizi, alcuni dei quali sviluppati dagli utenti stessi.

Come gestire la complessità?

Per affrontare al meglio queste nuove sfide ambiziose è necessario mettere in pratica un percorso virtuoso verso soluzioni semplici.Occorre, ad esempio, passare da un approccio incentrato sulla linea di comando ad un modello che faccia automazione e in cui ci sia una maggiore integrazione della rete con i servizi.
Serve inoltre creare ed aggiornare le competenze ICT, perché quelle precedenti non sono più sufficienti ed adatte all’interno della comunità. Qualcuno ha già iniziato e ci auguriamo che funga da traino anche per gli altri: c’è bisogno di una nuova generazione di network manager e di condivisione, proprio come hanno fatto i pionieri agli albori della rete.
Dobbiamo operare in modo diverso, non si evolve se non c’è cambiamento: oltre alla formazione, infatti sono necessarie nuove modalità e nuovi strumenti.

Verso le self-driving networks

L’evoluzione in atto attraversa alcuni passaggi chiave. Il primo, come già affermato, è l’automazione, poi c’è il monitoring avanzato, ovvero l’integrazione costante dei device con gli strumenti di controllo, per garantire una rapidità nelle decisioni anche attraverso l’uso di tecniche di machine learning.
L’orizzonte di questo percorso, raggiungibile entro 10-15 anni, è quello delle self-driving network, ovvero reti in grado di autoconfigurarsi, di prevedere e correggere la maggioranza dei possibili problemi prima che l’utente possa percepirli. La prova che abbiamo davanti è dunque quella di gestire una grande complessità. Per affrontarla al meglio è importante tenere presenti le lezioni apprese dal passato, quando c’era il vantaggio di poter sbagliare più liberamente. Nel processo di innovazione, infatti, il fallimento non è necessariamente negativo se diventa fonte di apprendimento e se viene controllato. Bisogna tuttavia mantenere chiaro l’obiettivo e non farsi suggerire le necessità e le risposte dal mercato, delle cui soluzioni dovremmo avvalerci solo dove e quando serve.
La sfida della complessità non si può affrontare da soli ma occorre un cammino condiviso all’interno di tutta la nostra comunità. Dobbiamo difendere e conservare la conoscenza e sviluppare le nuove competenze ed è quello che cerchiamo di fare con le nostre forze anche attraverso i momenti di formazione e di incontro come workshop e conferenze.

GARR News - Testata semestrale registrata al Tribunale di Roma: n. 243/2009 del 21 luglio 2009

Il contenuto di questo sito è rilasciato, tranne dove altrimenti indicato,
secondo i termini della licenza Creative Commons attribuzione - Non commerciale Condividi allo stesso modo 3.0 Italia

GARR News è edito da Consortium GARR, La rete Italiana dell'Università e della Ricerca


GARR News n°20 - estate 2019 - Tiratura: 11.000 copie - Chiuso in redazione: 30 agosto 2019
Redazione GARR News
Hanno collaborato a questo numero: Edoardo Angelucci, Claudio Barchesi, Paolo Bolletta, Laurence Campé, Patrizia Coluccia, Marco Ferrazzoli, Corrado Giustozzi, Mara Gualandi, Laura Moretti, Biagio Tagliaferro, Giancarlo Viola, Gloria Vuagnin


 

Abbiamo 45 visitatori e nessun utente online