Questo sito utilizza i cookie per migliorare servizi ed esperienza dei lettori. Se decidi di continuare la navigazione consideriamo che accetti il loro uso. Per maggiori informazioni sull uso dei cookies e su come eliminarli leggi l'informativa estesa

Abbiamo modificato alcune delle nostre politiche per rispondere ai requisiti del nuovo Regolamento Europeo per la Protezione dei Dati Personali (GDPR). In particolare abbiamo aggiornato la Privacy Policy e la Cookie Policy per renderle più chiare e trasparenti e per introdurre i nuovi diritti che il Regolamento ti garantisce. Ti invitiamo a prenderne visione.

Informativa sulla privacy

Corsi e ricorsi di Internet

Scritto da Claudio Allocchio Il . Inserito in ieri, oggi, domani . Visite: 4749

Corsi e ricorsi di Internet

...ovvero della reinvenzione della ruota

Da quando nell’agosto del 1991 sbarcai per la prima volta ad Atlanta (proprio nel periodo giusto per assaporare il caldo umido all’esterno e il gelo secco degli interni con l’aria condizionata) per una riunione di IETF (Internet Engineering Task Force, dove vengono scritti tutti i protocolli che regolano il funzionamento di Internet), all’interno di questo organismo si sono avvicendate almeno tre generazioni di valide persone con idee brillanti da trasformare in realtà sotto i polpastrelli degli ormai numerosissimi utenti della rete.

Claudio AllocchioClaudio Allocchio collabora con GARR dall’inizio, essendone uno dei co-fondatori. Ha un background da astrofisico ma ha cominciato ad interessarsi di networking già alla metà degli anni ‘80 al CERN. Nei primi anni ‘90 è stato responsabile dei servizi di mail gateway del progetto europeo COSINE, che ha posto le basi per una dorsale europea della ricerca, e della Italian Naming Authority (”.it”) e ha ricoperto inoltre ruoli di primo piano all’interno dell’associazione delle reti europee TERENA. Dal 1991 è membro della Direzione dell’Area Applicazioni di IETF, di cui è di recente divenuto Team Manager.

La stessa IETF si è ovviamente trasformata: dal centinaio di persone dei primi anni ‘90 (quasi tutte arrivate dal mondo dell’università e della ricerca, più qualche pioniere dell’industria informatica globale che stava nascendo) al migliaio abbondante di oggi (per lo più provenienti dall’industria ICT), passando per l’allarmante picco degli oltre 3.000 addetti registrato attorno al duemila, quando personaggi a volte molto pittoreschi inventavano “startup” con idee grandiose, spesso composte solo da loro stessi: era l’epoca della grande “bolla internet”, poi scoppiata all’improvviso, con conseguenze anche finanziarie non trascurabili, soprattutto per molte di quelle startup. In quell’agosto del ’91, la missione mia e dello sparuto gruppo di colleghi europei finanziati dalla UE, era di portare la civilizzazione a questi barbari cultori di un TCP/IP ancora un po’ traballante e un po’ naïf, spiegando loro la bellezza e la completezza dei protocolli scritti a tavolino dall’ITU, ed eventualmente adattarli al loro protocollo di rete al posto del nostro X.25. Stiamo parlando di cose come X.400 per la posta elettronica multimediale, FTAM per il file transfer, X.500 per le autenticazioni, tutte specifiche ormai scomparse insieme alle relative applicazioni e servizi, se eccettuiamo qualcheresiduo di X.500 che si è salvato dall’estinzione ed è ben vivo ancor oggi.

Le cose per la verità non andarono proprio così e nessuno civilizzò nessuno, ma l’incontro di queste due culture fu comunque positivo, e portò ad esempio a trasformare la posta elettronica da solo ASCII a multimediale, o includere tra i temi di interesse di IETF anche aspetti fondamentali come sicurezza ed autenticazione. Perché sto evocando questo lontano periodo? Perché in questi giorni (dopo più di 20 anni!!!) sulla mailing list e sul forum di discussione della direzione dell’Area Applicazioni di IETF è in corso un lungo dibattito, sia tecnico, che storico che filosofico, sul fatto se sia meglio continuare ad usare protocolli “human readable” come nella tradizione di IETF (come SMTP, XML, HTML,...) oppure passare tutta una serie di applicazioni alla codifica binaria - “machine readable” - delle informazioni, decisamente più compatta e forse più efficiente. Guarda caso, il tutto è partito proprio da una discussione sul formato interno della posta elettronica, notoriamente poco efficiente nella sua codifica ASCII, soprattutto oggi che il contenuto di una mail è perlopiù multimediale. Nel leggere una mail il cui autore proponeva la sua ultima trovata per risolvere l’annosa questione - Concise Binary Object Representation (CBOR) – a noi sopravvissuti della “generazione 1991” sono bastati pochi secondi per renderci conto di essere per la terza volta di fronte alla re-invenzione della codifica ASN.1 – o, per essere precisi, di qualcosa che si potrebbe mappare quasi 1:1 sulla specifica antica, al cuore di protocolli scomparsi come X.400. Ho detto terza, perché anche nei primi anni 2000 la rappresentazione binaria concisa era stata “re-inventata” – quella volta da una startup che per ottimizzare il traffico sulle lente linee di allora (i 64k dei modem casalinghi, per intenderci), che proponeva nientemeno che un “servizio di compressione centralizzato” che riceveva mail e file in formato standard (quindi ASCII) e li comprimeva in binario per spedirli al destinatario, il quale poi con apposita applicazione - a pagamento, come del resto la sottoscrizione del servizio di compressione - li riceveva “normalmente”. Questo episodio ha fatto riflettere me e gli altri sopravvissuti della vecchia guardia su come ci trovassimo di nuovo di fronte al noto fenomeno di mancanza della conoscenza storica nell’ultima generazione di “pensatori per Internet”, e sulle sue possibili cause. Certamente una colpa è anche un po’ di noi delle generazioni precedenti, che abbiamo scritto i protocolli ma niente che possa preservare la memoria storica di quello che è stato fatto e pensato, per non reinventare tutto da capo ad ogni ciclo. Ma anche del fatto che nessuno si prenda il tempo di insegnare a chi un domani realizzerà nuovi standard, servizi e applicazioni quello che già esiste.

Quello della codifica binaria è solo un esempio, ma casi di questo tipo si sono ripetuti spesso e, stranamente, il ciclo con cui le reinvenzioni si susseguono, pur sfasate nel tempo, è sempre uguale: circa una decina di anni, vale a dire il tempo che serve perché una generazione di tecnici inizi ad occuparsi di cose di livello superiore - management, per esempio - e lasci il suo posto alla prossima... dimenticandosi però di spiegargli bene bene cosa ha fatto nel frattempo. La rete ha ormai abbastanza anni alle spalle da rendere necessaria l’esistenza degli archivisti delle “cose di internet”, custodi – ma anche divulgatori - della memoria delle cose già inventate, delle discussioni già fatte e delle conclusioni (magari provvisorie) già tratte. Altrimenti saremo condannati a reinventare e ridiscutere perennemente e un giorno una generazione di archeologi di Internet dovrà riscoprire tutto facendo ipotesi teoriche. Oltre a pensare alla long term digital preservation, credo che dovremmo preoccuparci di conservare anche questo genere di memorie. Non vorrei dover ripetere l’esperienza di sentirmi chiedere da un giovane programmatore come il suo programma si possa scambiare i dati con un programma su un computer remoto, dopo una chiamata a una libreria – a testimonianza che nessuno gli aveva mai spiegato tutti i teorici livelli dello stack di rete, dallo 0 almeno fino al 4. Per finire, agli inventori del CBOR stiamo gentilmente spiegando che la loro è senz’altro un’ottima idea, ma che piuttosto che reinventarla da capo per la terza volta, forse con una ricerca storica si riuscirà a migliorare, integrare e “riciclare” molte cose finite in un cassetto.