Posts Tagged ‘memoria digitale’

Terremoti, memoria digitale e l’Italia che vorremmo

Libreria Grande Sabbioneta

La sala che ospitava la Libreria Grande di Vespasiano Gonzaga (rielaborazione)

Come già capitato in passato con alcuni post pubblicati a ridosso dei periodi di vacanza, invernali od estivi che fossero, anche in questo caso l’ispirazione mi è venuta dal breve viaggio che, dato il periodo, mi sono concesso.
Per la precisione, a cavallo del Capodanno, ho trascorso alcuni giorni seguendo un itinerario “minore” tra le province di Modena, Parma e Mantova, zone, come noto, duramente colpite dal terremoto (o meglio, dai terremoti) del 2012.
Purtroppo, è risaputo, scemato il clamore mediatico ci si dimentica di quello che è successo e si pensa che, come con un tocco di bacchetta magica, tutto sia stato risistemato e le ferite sanate.
Ovviamente, consapevoli della portata delle distruzioni e soprattutto del fatto che in Italia ogni cosa procede in tempi biblici, sotto sotto sappiamo tutti che il miracolo della ricostruzione non può essere avvenuto; ciò nonostante rappresenta un colpo al cuore andare a Sabbioneta, “città ideale” inserita nel patrimonio UNESCO, e visitare Palazzo Giardino (con la splendida Galleria degli Antichi) tra tante impalcature di sostegno e qualche abbozzo, tutt’altro che sistematico, di restauro (la guida ci ha spiegato che i lavori dovrebbero partire a mesi, speriamo!). Ancor più doloroso è visitare il complesso monastico di San Benedetto Po di Polirone, indissolubilmente legato alla figura della “grande” Matilde di Canossa, ed essere obbligati ad un percorso “a salti” a causa delle numerose sale inagibili e per di più orbo del suo pezzo forte, vale a dire il refettorio affrescato dal Correggio.
Intendiamoci, lungi da me alcuna vena polemica: una volta messi in sicurezza i luoghi è bene prendersi tutto il tempo necessario prima di partire con i restauri, in modo da eseguirli nel migliore dei modi. Però, dubbi e perplessità su quelle che sono le priorità dei nostri decisori sorgono eccome!
Si parla pressoché quotidianamente della crisi che attanaglia il settore edilizio: ebbene, tra zone terremotate (oltre all’Emilia, che qui ha offerto lo spunto, non dimentichiamo L’Aquila), aree archeologiche abbandonate all’incuria (Pompei caso simbolo ma tutt’altro che unico), zone dissestate dal punto di vista idro-geologico, scuole che cadono a pezzi, di lavoro per architetti, ingegneri, urbanisti oltre che per migliaia di operai edili “generici” ce ne sarebbe a volontà, senza dover inventarsi infrastrutture oramai inutili! Concentrandosi sui soli beni culturali come non pensare alle opportunità di impiego, collegate / complementari a questi interventi di carattere strettamente “edilizio”, che si aprirebbero per le centinaia di archeologi, restauratori ed in generale di diplomati in Conservazione dei Beni Culturali (personale dunque altamente specializzato), il cui mercato del lavoro è altrettanto asfittico?
Mi direte: ok, ma i soldi dove li ritroviamo in tempi di tagli e di pareggio di bilancio? A parte che, come ho sostenuto in altre sedi, i soldi per panem et circenses saltano sempre fuori, a Bruxelles milioni di fondi comunitari giacciono inutilizzati per l’assenza di valide proposte. Il problema di fondo, in definitiva, mi pare risieda soprattutto in una mancanza di volontà politica e di una adeguata progettualità.
Chiarito che quello dei soldi è un falso problema, mi chiederete, e stavolta a ragione: che c’azzecca tutto ciò con questo blog ed in particolar modo con la “memoria digitale”? Apparentemente molto poco, in realtà molto. Infatti, posto che (ovviamente, vien da dire, con non poca rassegnazione) tra i beni culturali in attesa di “manutenzione”, vuoi per cause straordinarie (come i terremoti in questione) od ordinarie (il naturale scorrere del tempo), numerosi sono quelli attinenti al patrimonio archivistico e bibliotecario, non dovrebbero sfuggire le possibili applicazioni nel vasto campo delle digital humanities.
Banalmente e senza particolari sforzi di fantasia, nel momento in cui andiamo a restaurare, a Sabbioneta, la Galleria degli Antichi perché non coinvolgere informatici, grafici e storici dell’arte per ricostruire virtualmente la sala, completa di marmi e statue (ora a Palazzo Ducale a Mantova, n.d.r.)? Per quanto riguarda lo specifico ambito librario Vespasiano Gonzaga allestì, all’interno del Palazzo Ducale, una fornita biblioteca, distinta in Libreria Grande e Libreria Piccola, e nel momento di far testamento dispose che la prima non andasse smembrata ma bensì rimanesse a Sabbioneta in perpetuum, affidandone le sorti ai padri della chiesa della Beata Vergine dell’Incoronata (la Libreria Piccola invece andò al genero Luigi Carrafa). Purtroppo, come in altre vicende analoghe, le buone intenzioni non poterono essere mantenute: le soppressioni napoleoniche non diedero che il colpo di grazia ad un fondo librario già gravemente rimaneggiato. Eppure, dal momento che conosciamo i titoli di molti dei libri posseduti da Vespasiano, perché non tentare di ricostruirla in maniera “virtuale” (tanto più che parte dei volumi un tempo costituenti la “Libreria Piccola” sono stati individuati nel fondo librario della biblioteca vicereale di Napoli)? Similmente, passando al versante archivistico, perché non affiancare al lavoro di scavo negli archivi italiani e stranieri (fece scalpore, qualche anno fa, la scoperta di circa 200 documenti sabbionetani inediti conservati presso la Kenneth Spencer Research Library dell’Università del Kansas) analoghe operazioni di “ricostruzione virtuale”?
Simili progetti, se andassero in porto, oltre a rappresentare altrettanti investimenti nel settore culturale con tutte le positive ricadute a beneficio della qualità della vita dell’intera collettività, contribuirebbero non poco, anche dal punto di vista meramente materiale, a mutare le prospettive di vita di tutti coloro che sulla ricchezza culturale dell’Italia hanno, giustamente, scommesso. C’è un intero paese da ricostruire, eppure si guarda colpevolmente altrove oppure, il che forse è ancora peggio, si lanciano “progetti indecenti” (altrimenti non può essere definita la vicenda dei famosi “500 giovani per la Cultura”) convinti di fare azione meritoria. Speriamo che nel 2014 qualcosa cambi.

Al mercato dello storage

Deutsche Borse trading floor

Deutsche Borse trading floor di Jonathan S. Cohen, su Flickr

La notizia non ha trovato grande eco presso i media italiani ma merita di essere qui ripresa: Deutsche Borse ha annunciato l’avvio, indicativamente per l’inizio del 2014, delle contrattazioni elettroniche su una particolare tipologia di “merce”: lo storage e le risorse di calcolo (CPU, RAM, etc.). Se l’intenzione è quella di ampliare in futuro l’offerta, per il momento l’obiettivo è di far incontrare tutti coloro che da una parte hanno bisogno di ulteriori spazi di memorizzazione e di computing capacity e coloro che, dall’altra, ne hanno in surplus.
Si tratta di una notizia che lascia solo per certi versi sorpresi: era infatti prevedibile che il medesimo processo di commoditisation che ha investito il settore dei personal computer prima o poi avrebbe riguardato anche quello “immateriale” dei servizi erogati in modalità cloud.
Ciò nonostante lascia perplessi la prospettiva di vedere il prezzo dello storage, sul quale qui per ovvi motivi mi concentro, fluttuare in base alle bizze dei mercati ed essere acquistato da broker alla stregua di un barile di petrolio o di una tonnellata di granaglie! Bisogna infatti chiedersi se, similmente a quanto accaduto con altri mercati, anche attorno a questo verrà costruito quel castello di prodotti finanziari che, portati all’estremo, tanti danni ha provocato. Considerando infatti che secondo molti analisti l’esistenza di un simile mercato va incontro all’esigenza, percepita da molti attori, di possedere spazi di memorizzazione in diverse giurisdizioni (agevolando in tal modo la compliance alle norme ed agli standard in vigore nei diversi Stati) non ci sarebbe da stupirsi se si tutelasse l’investimento (poniamo che uno debba comprare spazio di storage in Egitto, giusto per fare un esempio di estrema attualità) con quegli strumenti finanziari (vedi gli swap) tristemente famosi.
Ma al di là delle considerazioni finanziarie quello che preoccupa “archivisticamente” è la “banalizzazione dello storage” sottesa al processo di commoditisation: nonostante le rassicurazioni fornite da Deutsche Borse in ordine all’elevato livello qualitativo delle risorse ammesse alle contrattazioni e la presenza di operatori dalle indubbie capacità (a riguardo vengono citati non solo operatori commerciali come T-Systems ma anche soggetti appartenenti al mondo accademico come il Leibniz Rechen-Zentrum il quale, per intenderci, fornisce i servizi informatici per le varie università di Monaco di Baviera nonché per l’Accademia Bavarese delle Scienze), confesso che nutro più di una perplessità sulla qualità “archivistica” del servizio che verrà acquistato.
Mi sembra infatti lontano anni luce il mondo degli archivi, istituti impiantati (e uso questo termine proprio per sottolineare la solidità che li dovrebbe contraddistinguere nel tempo!) per durare secoli, con l’aleatorietà di uno scambio di borsa portato a termine in maniera telematica: detta in altri termini mi pare che la comprensibile fretta di avere ulteriore spazio di storage nella quale può venirsi a trovare un qualsivoglia soggetto produttore (perché questo è in ultima analisi il compratore!) mal si concili con i tempi, inevitabilmente più lunghi, necessari per realizzare un consistente sistema archivistico. Ritorniamo dunque al problema di fondo, ripetutamente evidenziato in questo blog, che lo storage, così com’è concepito da molti provider, ha spesso gran poco da condividere con l’archiviazione.
Naturalmente i miei possono essere timori infondati ed anzi l’auspicio è proprio che, dopo la seicentesca bolla dei tulipani, non ci si ritrovi a fronteggiare, nel prossimo futuro, ad una non meno bizzarra bolla dello storage!

Conservazione digitale: la soluzione sta nella cloud?

Digital vellum

Digital vellum

A stupire, più che la notizia in sé, è la statura del personaggio che solleva la questione: stiamo infatti parlando di Vint Cerf, padre del protocollo TCP/IP (insieme a Bob Kahn) ed attualmente “Chief Internet Evangelist” presso Google.
In alcune sue recenti esternazioni, l’informatico statunitense ha infatti sollevato alcuni problemi che archivisti e bibliotecari (e non solo) si stanno ponendo da tempo ovvero: come conservare la nostra memoria digitale, anche partendo dalla constatazione che non sono solo i supporti a rischio di obsolescenza ma pure i software?
Anche la risposta, manco a dirlo, non suona nuova: difatti, al di là dell’immaginifico obiettivo di arrivare a realizzare un “digital vellum” (ovvero una “pergamena digitale” che rappresenti l’equivalente, per robustezza e capacità di veicolare per secoli i messaggi in essa impressi, della pergamena “animale” usata fin dal Basso Impero / Alto Medioevo), Cerf constata come sia di fondamentale importanza conservare i metadati che ci descrivano il dato / oggetto digitale conservato e, soprattutto, l’ambiente (informatico) nel quale esso viveva.
Così facendo è possibile far rivivere, anche a distanza di anni (secoli?), un determinato file: Cerf, in buona sostanza, afferma che l’emulazione è la soluzione dei nostri problemi.
Come noto quest’ultima via è stata a lungo presa in considerazione anche dagli archivisti salvo venire accantonata in quanto ritenuta tecnologicamente di difficile implementazione ed economicamente dispendiosa.
Ed è qui che sta la novità: secondo Cerf infatti non è da escludere che il cloud computing possa venire in soccorso consentendo di emulare vecchi hardware in cui far girare altrettanto vecchi sistemi operativi ed applicativi.
E’ proprio su questo aspetto che voglio appuntare la mia attenzione: come risaputo molte start-up (soprattutto quelle tecnologiche) sfruttano le infrastrutture della nuvola (potenti quanto bisogna e scalabili) per testare i propri nuovi programmi / applicativi prima di mettersi sul mercato. In essa queste aziende, in altri termini, trovano il giusto compromesso tra potenza di elaborazione e costi (non serve infatti acquisire una infrastruttura ma si può attendere, prima di compiere questo eventuale passo, il responso del mercato nei confronti dei prodotti / servizi proposti).
Analogamente non è inverosimile che si possano sfruttare queste caratteristiche del cloud computing per realizzare, ad un costo accettabile, ambienti di emulazione che, peraltro, avrebbero il pregio di poter essere messi online e di essere dunque raggiungibili da una vasta platea di utilizzatori.
In altri termini il comunque incomprimibile costo di sviluppo dell’ambiente di emulazione potrebbe essere ammortizzato o perlomeno trovare una sua giustificazione economica (ma anche di utilità sociale) in virtù del fatto che esso si rivolge ad una platea tendenzialmente identificabile come l’intera cittadinanza: come non pensare, corro un po’ con la fantasia, alla realizzazione di una sorta di “servizio di emulazione” online al quale gli utenti accedono caricandovi (se del caso anche a fronte del pagamento di un modico prezzo) i propri vecchi file non più supportati dalle combinazioni HW / SW presenti nei nuovi device?
Paradossalmente il cloud computing, spesso accusato di essere archivisticamente inadeguato (e questo a dispetto delle sue indubbie capacità di salvare, da una qualche parte, i dati / documenti caricati e di farli in qualche modo “sopravvivere” ai mille accidenti cui essi possono andare incontro), potrebbe offrire, seguendo vie completamente diverse rispetto a quelle sinora contemplate, anche una soluzione al problema della conservazione nel lungo periodo.

Conservazione della memoria digitale & dintorni

Data destruction

Dvd (foto di Samantha Celera)

Lo spunto di questo post mi è stato offerto dalla recente discussione, a dire il vero nemmeno tanto appassionata ed alla quale io stesso ho partecipato, che si è svolta sulla lista Archivi 23 sull’annoso ed intricato tema della conservazione della memoria digitale e sulle sue modalità di “implementazione” presenti e future.
L’input al dibattito è stata la richiesta di pareri su un “nuovo” tipo di disco ottico (chiamato M-Disk) prodotto da Millenniata e che, come suggerisce il nome, dovrebbe durare 1000 anni senza deteriorarsi in virtù dei materiali usati (nel sito non viene spiegato chiaramente come siano costruiti, si dice solo che l’uso di materiali inorganici ed altri metalloidi li rendono “non deperibili” come i “mortali” DVD). L’altro motivo che consenti(rebbe) ai dati / documenti memorizzati su tali DVD di rimanere leggibili in perpetuum è il fatto che l’incisione della superficie del disco avviene molto più a fondo, in quanto si fa ricorso ad un laser assai più potente rispetto ai consueti. Proprio per quest’ultimo motivo occorre usare un apposito “masterizzatore” prodotto da LG e che a seconda del modello (= del prezzo) può scrivere anche su CD, DVD “normali” e Blu-Ray.
Ora, sorvolando il fatto che tali decantate qualità siano più o meno vere (Millenniata porta a supporto test condotti presso il Naval Air Warfare Center di China Lake), nella Lista è stato fatto notare che: 1) la presenza di dischi ottici indistruttibili non risolve il problema dell’obsolescenza dell’hardware e del software 2) che la tendenza in fatto di archiviazione / storage, pur con tutti i noti problemi, va inesorabilmente nella direzione della cloud; quest’ultimo richiamo al cloud computing ha comportato una levata di scudi da parte di alcuni membri della Lista (significativamente si trattava di addetti nel settore informatico; tentativo di difesa di business consolidati o competente presa di posizione?) i quali in sostanza considerano il cloud una montatura o quanto meno uno specchietto delle allodole grazie al quale si spacciano per nuovi concetti vecchi, in ogni caso negando la possibilità che esso comporti concreti vantaggi. Per contro veniva salutato positivamente il “passo in avanti” compiuto con la comparsa dell’M-Disk in quanto, è stato sostenuto, almeno il problema dell’affidabilità / durabilità dei supporti di memorizzazione trovava una soluzione.
D’accordo, la speranza è l’ultima a morire, ma dovendo ragionare e soprattutto agire hic et nunc credo che l’idea di ricorrere a supporti di memorizzazione simili a quelli proposti da Millenniata non abbia molto senso e questo perché: 1) si è vincolati, in fase di scrittura, al prodotto di LG il quale, come tutti gli altri prodotti hardware, nel giro di 5 – 10 anni sarà, per l’appunto, obsoleto; bisognerà dunque sperare che LG (se esistente, cosa tutt’altro che garantita considerando i processi di merge & acquisition in atto) assicuri nel tempo la produzione dei nuovi “masterizzatori” 2) fatti quattro rapidi conti non è conveniente spendere per M-Disk che costano (al dettaglio) mediamente due dollari e mezzo in più l’uno a parità di capacità di memorizzazione (4,7 GB) se poi non potrò usarli per la predetta obsolescenza HW e SW! Che me ne faccio di dati / documenti se poi non li posso leggere / usare?! 3) Interpares ha ormai accettato il fatto che i documenti siano (relativamente) “cangianti” e che il loro “habitat” sia un sistema documentale; a mio parere che tale sistema documentale “lavori” in una server farm situata presso la sede principale dell’organizzazione (e presumibilmente altra sede decentrata) o che al contrario stia, sfruttando la nuvola, a migliaia di kilometri di distanza poco importa! Essenziale è che questa nuvola (private, common o hybrid che sia) risponda a requisiti di sicurezza (fisica e legale), tutela dei dati, integrità, affidabilità, etc. In altri termini non vedo una contraddizione tra i principali risultati teorici di Interpares (quale il concetto della permanenza all’interno del sistema, che a sua volta riprende l’istituto anglo-sassone dell’ininterrotta custodia) ed il passaggio alla nuvola, garantendo quest’ultima (se fatta bene) la medesima permanenza all’interno del sistema che può essere assicurata da una server farm tradizionale, con tutto ciò che ne consegue, vale a dire, per l’oggetto specifico di questo post, la progressiva scomparsa delle memorie di tipo ottico.

PS Sono conscio che le prassi operative di molte server house prevedono che i dati / documenti “correnti” vengano memorizzati su nastri magnetici dall’ottimo rapporto prezzo / Gb mentre quelli “storici” in tradizionali dischi ottici di norma “impilati” in juke-box o secondo altre più complesse architetture, ma nondimeno ritengo che questa soluzione, in linea con la tendenza generale verso la “dematerializzazione”, svolgerà un ruolo progressivamente residuale.

In libreria “Archivi e biblioteche tra le nuvole”

"Archivi e biblioteche tra le nuvole" (front cover)

Come preannunciato nel precedente post ho pubblicato un libro su cloud computing e dintorni.
In particolare parlo delle sue applicazioni in ambito archivistico e bibliotecario in sinergia con la diffusione dei nuovi mobile device, il che mi porta ad approfondire temi quali il social reading / networking, il fenomeno dello storage sulla nuvola e tutti i connessi problemi di privacy.

Memoria digitale

Quale futuro per la memoria alla fine degli anno Zero?

Sarà possibile in futuro avere una memoria della nostra epoca?

O forse non esisterà più la memoria perché tutto sarà memoria?

 

Di questo ed altro parlerò in questo blog, il cui manifesto potrebbe essere l’articolo illuminante (ma non per questo sempre condivisibile) di Nicholas Carr: Is Google making us stupid?