Nel 2007, un’inchiesta giornalistica in 34 episodi pubblicata sul sito del Rocky Mountain News valse al suo autore Kevin Vaughan la finale del Premio Pulitzer. Nel 2009, in seguito alla crisi dello storico quotidiano del Colorado, l’intero reportage – testi, foto, video, grafiche – scomparve dal web. Nessuna biblioteca ne conservava una copia, nessun archivio ne custodiva i file, nessuna persona ne possedeva un esemplare: l’inchiesta, chiamata “The Crossing”, era svanita nel nulla.

È servito un lavoro di anni per recuperare i file, le immagini e tutto il materiale necessario a riportare in vita la serie, oggi pubblicata sull’apposito sito The Crossing Story. Ma quello fu un trattamento privilegiato, riservato a un’opera in competizione per il Pulitzer.

Nello stesso lasso di tempo, centinaia di milioni di siti, blog e piattaforme sono invece andati definitivamente perduti, compresi link utilizzati da giudici della Corte Suprema statunitense nelle loro motivazioni o l’intero spaccato socioculturale contenuto nei sedici anni di (stravaganti) domande e risposte conservate su Yahoo Answer.

Non è nemmeno necessario che chiuda un intero sito per smarrirne i contenuti: in alcuni casi è sufficiente che cambi l’indirizzo, che il sito venga riorganizzato o che venga modificata la URL e il link disseminato nel web che prima conduceva alla pagina corretta adesso sarà, come si dice in gergo, “rotto”. E condurrà inevitabilmente a una pagina bianca.

È la stessa caratteristica fondante del world wide web a causare tutto ciò: non c’è una realtà proprietaria della rete che si faccia carico di custodire tutto.

La responsabilità è diffusa tra ogni attore che partecipa al web: dai colossi digitali al singolo blogger che deve pagare il server che ospita il suo sito.

Ciò crea inevitabilmente problemi di manutenzione che non sono solo tecnologici, ma riguardano prima di tutto la conservazione del nostro patrimonio culturale e di conoscenza.

La memoria che sparisce

Se pensate che le pagine andate perdute siano una trascurabile minoranza, vi sbagliate di grosso: uno studio condotto nel 2014 mostrava come già allora il 75 per cento dei link contenuti sul sito della Harvard Law Review non fosse più funzionante.

Un’altra analisi ha più recentemente mostrato come il 25 per cento di tutti i link contenuti negli articoli del New York Times sia rotto: dal 6 per cento dei collegamenti del 2018 fino al 72 per cento di quelli del 1998.

Nel complesso – come spiega sull’Atlantic Jonathan Zittrain, tra gli autori di questi studi – oltre la metà delle pagine del New York Times rimanda a contenuti che non sono più raggiungibili.

La situazione è talmente seria da aver dato vita a una piccola economia sotterranea, in cui alcuni faccendieri del web pagano dei tecnici specializzati affinché scovino i link rotti contenuti su siti estremamente diffusi, come la BBC o Il Corriere della Sera, e che di conseguenza ricevono ancora numerose visite.

Una volta trovato il sito non più in funzione, ne acquistano il dominio e lo utilizzano per ospitare delle pubblicità, guadagnando in base ai click ricevuti.

Se non bastasse, il rischio di perdere contenuti di valore sta aumentando col passare degli anni, mano a mano che quotidiani o riviste (e in alcuni casi anche libri) si spostano dal mondo fisico in quello digitale.

La differenza, dal punto di vista della conservazione, è colossale: un tempo, anche se chiudeva una rivista di storia o di cinema o di filosofia tutto il sapere lì racchiuso sarebbe comunque stato custodito da biblioteche e da tutte le persone che ne conservavano una copia in casa.

Oggi, se chiude i battenti un sito web il rischio è di perdere tutto. Anche quando ci si abbona a una rivista online, non si sta più materialmente acquistando nulla: si ha solo la possibilità di accedere integralmente al sito.

Chiusa la rivista, o anche solo interrotto l’abbonamento, questo accesso viene bloccato. Per fare una metafora con il mondo delle riviste fisiche, non solo non giungeranno più nuovi numeri, ma verranno buttati via anche quelli che già possedevate.

L’equivoco

Il mondo digitale che, agli albori, era ritenuto il modo migliore per conservare il sapere umano – rendendolo disponibile a chiunque, in qualsiasi momento e in ogni parte del globo – si sta improvvisamente rivelando in tutta la sua fragilità. Ed è forse ancora più preoccupante constatare che questa fragilità rischia di espandersi anche al mondo dell’arte, mano a mano che questa diventa più digitale e a volte conservata solo su internet.

Prendiamo il caso degli NFT, le certificazioni elettroniche salvate su blockchain che attestano la proprietà di un’opera d’arte digitale e che sono il fenomeno, anche economico, del 2021.

La certificazione è salvata su blockchain – ed esiste quindi finché almeno un computer è collegato al registro distribuito – ma l’opera a cui rimanda è invece quasi sempre raggiungibile tramite un indirizzo web.

Di conseguenza, se per esempio uno dei siti specializzati in NFT chiudesse all’improvviso, sparirebbero anche le opere lì conservate. E così, l’NFT di video-art che avete pagato decine di migliaia di euro non varrebbe improvvisamente più nulla. Non uno scenario ideale.

Gli archivi

Come se ne esce? I tentativi di porre rimedio a un problema sempre più evidente, fortunatamente, abbondano; anche se nessuno di questi è perfetto.

Il più noto è ovviamente l’Internet Archive, profeticamente fondato nel 1996 e che, da allora, anche tramite la sua Wayback Machine, si occupa di salvare, catalogare e rendere disponibili le pagine web anche dopo che sono scomparse (o mostrando come apparivano in passato). Basta inserire il link non più funzionante e incrociare le dita, sperando che l’Internet Archive se ne sia preso cura.

Il suo fondatore, Brewster Kahle, riesce nell’impresa grazie a uno strumento che vaga per il web salvandone i contenuti e che, fino a oggi, ha archiviato oltre 600 miliardi di pagine. È un esempio di biblioteca di internet, finanziata tramite donazioni e bandi.

Un altro caso è quello di Perma: progetto gestito da oltre 150 biblioteche che si occupa di salvare su richiesta degli autori dei contenuti di provato valore, per esempio articoli accademici o reportage giornalistici, garantendo di prendersi cura della loro conservazione in maniera, per l’appunto, permanente.

Copiare tutto

Il progetto in prospettiva più ambizioso è però probabilmente un altro e va sotto la sigla IPFS (interplanetary file system): un protocollo decentralizzato che permette di salvare una copia delle pagine presenti sul web – o di creane di nuove – distribuendo il loro contenuto ai computer collegati.

Quando si effettua una ricerca tramite IPFS, la richiesta non viene inviata a un server, ma a tutti i computer del network e che conservano almeno una parte di quella pagina.

Se stiamo cercando la pagina Wikipedia di Pompei, saranno quindi interpellati i computer collegati al sistema decentralizzato: se qualcuno la possiede, la pagina verrà visualizzata.

Questo non solo permette di avere a disposizione tutti i contenuti anche nel caso in cui Wikipedia subisca gravi problemi tecnici (come quelli che hanno recentemente mandato al tappeto Facebook), ma anche di rendere molto più complesso censurarli o eliminarli.

A differenza dell’Internet Archive o di Perma, quindi, l’IPFS non deve pagare per conservare i propri contenuti su classici server, ma sfrutta a questo scopo il network di computer connessi.

In alcuni progetti simili, come Arweave, la missione di custodire il world wide web è basata su blockchain e incentivata economicamente sfruttando le criptovalute. Usando le potenzialità di queste reti decentralizzate, nessuna inchiesta meritevole di Pulitzer – come quella da cui siamo partiti – sarebbe potuta sparire: nemmeno nel caso estremo in cui realtà come l’Internet Archive o Perma chiudessero.

È sufficiente che un certo numero di computer sia connesso per conservare tutti i contenuti web, in maniera simile a come un sistema semi-clandestino come Torrent – in cui gli utenti mettono in condivisione materiale salvato sul loro computer – è diventato uno degli strumenti più affidabili per conservare film classici o di nicchia.

È attraverso questo tipo di sistemi che possiamo rendere il web più affidabile. Ed evitare che la più diffusa testimonianza digitale della nostra epoca diventi “404: Pagina non trovata”.

© Riproduzione riservata