Le frontiere digitali del patrimonio culturale
| Elis Bertazzon | Caffè scientifico
Come intelligenza artificiale, Big Data e infrastrutture avanzate stanno cambiando il modo in cui tuteliamo e valorizziamo il nostro passato
Parlare di intelligenza artificiale nel contesto culturale non significa soltanto adottare strumenti più efficienti e moderni. Significa poter ripensare radicalmente il rapporto con la memoria storica, con la sua conservazione, interpretazione e diffusione. Le tecnologie di AI permettono oggi di analizzare e processare milioni di testi, immagini e dati archeologici in tempi prima impensabili, aprendo la strada a nuove forme di conoscenza e partecipazione. Ne abbiamo parlato con Arianna Traviglia, coordinatrice del Center for Cultural Heritage Technology dell’Istituto Italiano di Tecnologia con sede a Venezia.
Arianna Traviglia è coordinatrice del Center for Cultural Heritage Technology dell’Istituto Italiano di Tecnologia
Dottoressa Traviglia, perché oggi l’intelligenza artificiale è così centrale per il patrimonio culturale?
Perché rappresenta un vero cambio di paradigma. Non ci limita più alla semplice osservazione degli oggetti: ci consente di esplorarli, capirli e raccontarli in modi completamente nuovi attraverso analisi estese di testi, immagini e dati archeologici e artistici, facilitando l’identificazione di pattern storici, evoluzioni linguistiche e reti concettuali del passato. Con le tecnologie digitali possiamo fare analisi su scala massiva, condividere contenuti in tempo reale, abbattere le barriere di accesso e coinvolgere pubblici globali, non solo studiosi ma anche cittadini curiosi e studenti.
Il CCHT che lei dirige è un centro molto particolare. Ce ne parla?
Il Center for Cultural Heritage Technology (CCHT) è un laboratorio interdisciplinare che mette in dialogo umanisti e tecnologi. Collaborano con noi archeologi, storici dell’arte, linguisti, archivisti, conservatori, informatici e ingegneri. Lavoriamo su tutto il ciclo di vita dei dati culturali digitali: dalla raccolta alla modellazione, dalla visualizzazione alla condivisione, fino alla valutazione dell’impatto sociale.
Con tecniche di Natural Language Processing e l’uso dell’Open Source Intelligence riusciamo ad analizzare una grande quantità di dati per identificare relazioni sospette e contrastare il traffico illecito di beni culturali
Un esempio concreto di questa interdisciplinarità in azione?
Uno dei progetti a cui teniamo molto è la trascrizione automatica di testi manoscritti del nostro passato. Collaboriamo con il Museo Correr di Venezia per digitalizzare e analizzare le Mariegole, raccolte statutarie delle confraternite veneziane. Si tratta di testi complessi, con scritture antiche e layout irregolari. Grazie a una combinazione di tecnologie OCR (Optical Character Recognition), HTR (Handwritten Text Recognition) e machine learning, stiamo riuscendo ad automatizzare la trascrizione paleografica, riducendo enormemente tempi e costi di accesso a queste fonti preziose.
Sappiamo che vi occupate anche di contrasto al traffico illecito di beni culturali. Che ruolo gioca il digitale qui?
Un ruolo chiave. Utilizziamo tecniche di Natural Language Processing per analizzare dati testuali raccolti online: descrizioni, post sui social, inserzioni su piattaforme d’aste. Con strumenti di sentiment analysis e topic modelling possiamo capire il contesto in cui un oggetto d’arte viene presentato e valutarne la possibile provenienza illecita.
Abbiamo anche sviluppato sistemi di web scraping e social listening per raccogliere e monitorare dati pubblici. Ad esempio, se un vaso antico viene messo in vendita online senza documentazione chiara, i nostri algoritmi possono intercettare il contenuto, valutarne la legittimità e, se necessario, segnalarlo alle autorità competenti.
Usate quindi fonti aperte, OSINT?
Esatto. Lavoriamo molto con l’Open Source Intelligence: analizziamo siti web, social media, documenti pubblici, fino a immagini satellitari. Queste informazioni vengono poi connesse attraverso social network analysis, che ci aiuta a individuare relazioni tra attori, canali e oggetti sospetti. Questo approccio ci ha permesso di identificare comunità digitali legate al traffico illecito e persino “influencer” in questo mercato sommerso.
Per questi sistemi avete bisogno di molti dati annotati. Li producete voi?
Sì, e non è un lavoro banale, specie per dataset di nicchia. Ad esempio per addestrare i nostri modelli di IA da applicare alle tavolette in cuneiforme assire su cui lavoriamo, abbiamo realizzato una piattaforma online chiamata Liber, che consente la segmentazione collaborativa di testi, glifi e incisioni su immagini di questi manufatti antichi. Esperti da vari paesi possono quindi annotare i dati in modo strutturato. Questo ci permette di costruire dataset specialistici, fondamentali per lo sviluppo di sistemi affidabili e culturalmente sensibili.
Quali infrastrutture tecnologiche usate?
Il cuore tecnologico computazionale è il nostro supercalcolatore Franklin, un sistema di High Performance Computing (HPC) dell’IIT. È la nostra “centrale elettrica”, per così dire. Ci permette di eseguire analisi massive, ricostruzioni complesse e simulazioni ad altissima precisione. Grazie a Franklin possiamo elaborare in tempi rapidi milioni di parole, immagini, segnali o dati geospaziali, ottenendo risultati che con strumenti tradizionali richiederebbero mesi.
E per la condivisione dei dati?
Crediamo profondamente nella cultura dei dati aperti. Per questo abbiamo adottato il repository IIT Dataverse, che garantisce l’accessibilità e la qualità dei dati nel rispetto dei principi FAIR (Findable, Accessible, Interoperable, Reusable). Questo favorisce la riusabilità nella comunità scientifica e stimola la collaborazione tra istituzioni.
Quali sono le principali sfide etiche e tecnologiche che affrontate?
Sono molte. Ci confrontiamo con la complessità dei formati, il problema della conservazione a lungo termine, le questioni di privacy, proprietà dei dati e bias algoritmici. Lavorare su beni culturali significa anche confrontarsi con contenuti sensibili, identitari, talvolta fragili. Per questo in alcuni progetti, specialmente in quelli di monitoraggio online, adottiamo pratiche rigorose come il Data Protection Impact Assessment (DPIA) e sviluppiamo linee guida etiche per l’uso responsabile dei dati.
Guardando avanti: che visione ha del futuro del digitale per il patrimonio culturale?
Immagino un futuro in cui il digitale diventi motore culturale e sociale, non solo un supporto tecnico. Un futuro in cui i dati culturali siano accessibili, interoperabili, e generino nuove forme di partecipazione e interpretazione. La nostra missione è fare in modo che il patrimonio culturale non resti chiuso nei depositi o nei laboratori, ma venga messo in circolo, raccontato, vissuto, diventando parte attiva di una società più consapevole e inclusiva.
In breve
Come l’intelligenza artificiale aiuta il patrimonio culturale?
Apre nuove possibilità per l’analisi di testi, immagini e reperti storici su larga scala, facilitando la conservazione, la ricerca e l’accesso al patrimonio culturale.
Perché Big Data e supercalcolo sono importanti per la memoria storica?
Perché permettono di processare enormi quantità di informazioni culturali, accelerando digitalizzazione, trascrizione di manoscritti e individuazione di traffici illeciti, rendendo il patrimonio più accessibile e sicuro.