Skip to main content
Computing on the edge

Computing on the edge

| Federica Tanlongo | la nuvola della ricerca e istruzione
Articolo letto 750 volte

Esploriamo l’evoluzione e le applicazioni dei modelli edge computing in ambito di ricerca e sviluppo e vediamo che cosa cambia dal punto di vista della rete

Fino a qualche anno fa, l’edge computing era una cosa di cui in ambito ricerca si parlava ben poco. Sembrava un tipo di calcolo che non interessava il mondo della ricerca, dove avevamo invece visto crescere il modello HPC, quello Grid e poi la sua diluizione e semplificazione in cloud. Al contrario, Fog e Edge sono sempre stati considerati più di interesse industriale, o al limite consumer. Cosa è cambiato oggi? Ne abbiamo parlato con alcuni esperti della nostra comunità, Patrizio Dazzi, ricercatore dell’Università di Pisa, già in forza all’High-Performance Computing Laboratory di CNR-ISTI e Davide Salomoni e Daniele Cesini di INFN-CNAF

HPC lab: la ricerca sull’edge computing

Colloquio con Patrizio Dazzi, ricercatore dell’Università di Pisa

Patrizio, di cosa ti sei occupato in HPC lab?

HPC lab ha varie anime legate alla ricerca sul supercalcolo e si può richiamare direttamente alla tradizione di impegno sul calcolo scientifico del vecchio CNR-CNUCE, che ne ha studiato nei decenni un po’ tutte le evoluzioni, variazioni e mode, dai grandi calcolatori, al grid e poi al cloud, seguendone l’evoluzione tematica fino alla federazione federazione multicloud e verso fog ed edge. In quest’ultimo ambito abbiamo anche ottenuto il coordinamento di diversi progetti internazionali.

Accordion è un progetto di ricerca e sviluppo su cloud edge con l’obiettivo di mettere a sistema risorse edge per applicazioni di ultima generazione

Il progetto europeo Accordion, per esempio, è un’espressione di questa tendenza. Si tratta di un progetto di ricerca e sviluppo su cloud edge con l’obiettivo di mettere a sistema risorse edge per applicazioni di ultima generazione caratterizzate da requisiti importanti in termini di banda, latenza e controllo sui dati sia nel senso di sovranità del dato che di privacy.

Quali sono le applicazioni principali dell’edge?

In generale, tutte le applicazioni che richiedono latenze molto basse e prevedono ampia interazione rappresentano ottimi casi d’uso per il modello edge. Temi ad esempio quali la realtà aumentata e la realtà virtuale sono killer application. Naturalmente le interazioni possono essere di molti tipi, da quelle che osserviamo tra i giocatori nel gaming vero e proprio, a quelle orientate alla formazione e al serious game. Ad esempio in Accordion abbiamo un caso d’uso interessante relativo alla formazione di medici chirurghi su modelli tridimensionali: qui tutto è virtuale ma perché la formazione sia efficace si deve garantire interazioni realistiche, anche in termine di tempi di reazione. Un aspetto fondamentale per altri use case è anche rappresentato dall’interazione in tempo reale su device portatili come i cellulari.

Il requisito fondamentale di ogni architettura edge è l’interconnessione delle risorse e il supporto ad un alto livello di dispersione delle stesse

Altre applicazioni, d’interesse sia di ricerca che anche commerciale, sono relative all’utilizzo di sensori per gli scopi più svariati, tra cui lo studio di comportamenti collettivi, con obiettivi che possono andare dalla ricerca psicologica e sociale, alla sicurezza, fino all’offerta di informazioni e promozioni personalizzate in contesti anche molto diversi come un museo o l’interno di un punto vendita). In questo tipo di applicazioni, il fatto che tutta l’elaborazione venga effettuata a livello edge serve a preservare il più possibile la privacy, minimizzando la trasmissione e registrazione dei dati raccolti per ottenere il risultato.

Nella nostra comunità chi può avvantaggiarsi di queste caratteristiche?

Dobbiamo distinguere tra le specifiche applicazioni o use case e quello che si impara a livello di tecnologie e può poi essere riutilizzato poi nei contesti più disparati. Vi sono però alcuni contesti applicativi tipici del mondo ricerca e istruzione che rappresentano utenti privilegiati per edge, in particolare tutti quelli che possono beneficiare di una migliore esperienza di interazione e di una realtà immersiva. Uno su tutti? Quello del serious gaming e dell’education a tutto tondo. La pandemia ci ha insegnato che la didattica a distanza è una sfida e la disponibilità di ambienti immersivi che supportino elevati livelli di interazione, sia insegnante-studente che tra studenti, potrebbe essere un vero game changer per il supporto dell’apprendimento in questo contesto. Se pensiamo all’esperienza della DaD soprattutto per i più piccoli appare subito chiaro che la disponibilità di tecnologie di questo tipo avrebbe permesso di rispondere molto meglio ai bisogni degli studenti e aumentare la qualità della loro esperienza.

Oggi non mi spingerei ancora a pensare applicazioni generalizzate di calcolo scientifico a livello edge, ma questa tecnologia potrebbe invece essere usata utilmente nella gestione dei guasti o nell’allocazione opportunistica di risorse (ad esempio in un progetto di collaborazione Italia-Corea di alcuni anni fa, chiamato “Basmati” avevamo realizzato un sistema che non era un vero e proprio edge ma identificava la cloud più vicina ai dati per elaborarli nel modo più efficiente.

Come cambia la rete a supporto del cloud?

La risposta breve è che la edge rappresenta l’esternalizzazione della cloud, portata vicino all’utente, e quindi la rete deve essere estremamente pervasiva. Il requisito fondamentale di ogni architettura edge è l’interconnessione delle risorse e il supporto ad un alto livello di dispersione delle stesse. Ma non si tratta solo di questo. Lo slogan di Sun Microsystems recitava “the network IS the computer”: ecco, la prospettiva naturale di quella che è un’infrastruttura di rete sempre più pervasiva già allora era che essa ricomprendesse anche il calcolo. Perché un sistema iperdistribuito come quello edge possa funzionare, deve avere un fondamentale livello di interoperabilità multidominio (come avviene normalmente nel sistema delle reti della ricerca) e non può essere troppo legato alle scelte tecnologiche di un singolo provider di telecomunicazioni.

Secondo la vostra esperienza, che futuro possiamo aspettarci per l’edge?

Partiamo dal presupposto che in realtà edge è una famiglia di architetture all’interno della quale possiamo riconoscere due filoni principali: da un lato, quello “verticale” per cui edge è l’ultimo, logico passo nella distribuzione del calcolo in un continuum che parte dall’HPC, e passa per cloud e fog, dall’altro la visione di un sistema multiagente i cui elementi collaborano a un obiettivo comune. Questo secondo aspetto va nella direzione di applicazioni adattive e dotate di intelligenza artificiale. L’adattività delle applicazioni in HPC è relativamente semplice, ma oggi l’applicazione è funzionale all’esperienza utente, che dunque entra a far parte a pieno titolo del modello architetturale. In quest’ottica, quello che abbiamo imparato nella nostra esperienza è che occorrono modelli e soluzioni che offrano feedback sulle piattaforme rispetto alla quality of experience, non solo alla quality of service.

Vi sono fortissimi interessi industriali sia da parte della grande impresa, che degli OTT e tra gli obiettivi della Digital Decade europea c’è quello di avere 10.000 edge DC per sostenere le PMI europee e un piano con forti componenti industriali per l’ingegnerizzazione dei processi.

Per realizzare questi obiettivi sicurezza, accountability e garanzia delle prestazioni offerte sono i temi fondamentali, insieme a un solido modello di business e alla possibilità di fare accounting delle risorse utilizzate. Quando questi elementi saranno maturi, si potrà ripensare il continuum computazionale. Intanto, bisogna pensare applicazioni che non siano solo cloud-native ma continuum-native.

Ti è piaciuto questo articolo? Faccelo sapere!
Dai un voto da 1 a 5, ne terremo conto per scrivere i prossimi articoli.

Voto attuale:

Articoli nella rubrica


Archivio GARR NEWS