Quello che segue è, più che un post “convenzionale”, una riflessione ad alta voce ispirata, come spesso mi capita in questi periodi postvacanzieri, dai viaggi effettuati.
Questa volta l’input proviene dalla visita del Guggenheim Museum di Bilbao: qui, tra “classici” dell’arte contemporanea ed installazioni ben più avveniristiche, non ho potuto far a meno di ritornare con la mente ad un argomento spinoso al quale un po’ di tempo fa avevo già dedicato qualche riga: come conserveremo questi “capolavori” ed in special modo quelli ad elevato “contenuto tecnologico”?
Si pensi all’opera di Jenny Holzer, Installation for Bilbao: 9 colonne alte 13 metri ciascuna attraverso le quali, grazie alla presenza di luci LED, scorrono dall’alto al basso parole scritte in più lingue. Se vogliamo che l’installazione, concepita specificatamente per il Guggenheim (le luci vengono infatti magnificamente riflesse dalle lastre in titanio che rappresentano le squame del pesce-museo ideato da Frank Ghery creando una sorta di “zona blu” nella quale i visitatori sono invitati ad entrare attraversando le colonne, assumendo un ruolo attivo nel processo di fruizione dell’opera; n.d.r.), possa essere goduta anche in futuro dobbiamo conservare, oltre al museo stesso, pure il software che gestisce il flusso delle parole, e l’hardware (i LED, le colonne, etc.).
Un compito non meno gravoso spetterà a coloro che saranno chiamati a conservare l’installazione, questa volta temporanea, The Visitors dell’islandese Ragnar Kjartansson: si tratta di nove schermi HD su sette dei quali vengono rappresentati altrettanti musicisti che suonano diversi strumenti (pianoforte, violino, chitarra, batteria, etc.) mentre sui rimanenti due si vede la “band” al completo. L’audio è diffuso in modo tale che se si resta al centro della sala si percepisce la musica nel suo insieme mentre se ci si avvicina ad uno degli schermi con i sette strumenti è quest’ultimo a prevalere. In tal caso non sarà sufficiente conservare le sole tracce audio e video ma, al fine di assicurare la fruizione così come intesa dall’artista, bisognerà anche aver ben presente come disporre il tutto! Inoltre non bisogna dimenticare che eventuali cambiamenti nella stessa definizione della qualità audio / video comporterebbe de facto alterare l’opera e ciò potrebbe contrastare con la volontà dell’artista!
Proprio sulla collaborazione con i vari artisti / autori sembra puntare molto lo staff (multdisciplinare) del Guggenheim deputato alla conservazione: ad esempio, relativamente all’opera “Installation for Bilbao”, decisivo è stato il contributo della Holzer e dei suoi collaboratori nella fase preliminare di studio dell’opera, finalizzata alla comprensione dell’opera ed all’individuazione degli elementi – tecnici ed estetici – fondamentali (= insostituibili, cioè da conservare) e di quelli, al contrario, trascurabili (= sostituibili).
Fatto ciò, è possibile passare alla fase “operativa”, riassumibile nell’obiettivo di assicurare “[a] constant updating in order to solve issue of obsolescence“.
Mi sembra si tratti di una metodologia assai efficace e che potrebbe essere fatta propria anche in altri ambiti, quali quello archivistico e librario, tanto più considerando che la presenza di figure e competenze multidisciplinari nei team di conservazione è oramai data per assodata.
In particolare credo vada rimarcato come l’azione di studio non sia più prettamente preliminare alla fase conservativa in senso stretto ma al contrario come entrambe si facciano “dinamiche”: l’attività di studio (con particolare attenzione agli aspetti tecnologici) si fa continua e sulla base delle risultanze di quest’ultime si adeguano le metodologie e le procedure esecutive.
Si entra in altri termini in un circolo continuo nel quale l’unico elemento di continuità, fondamentale date le risorse richieste, è rappresentato dalla presenza di un’istituzione / istituto stabile che assicuri che nel corso degli anni non venga mai meno lo sforzo conservativo.
Peccato che il panorama di archivi e biblioteche, in Italia, veda sì la presenza di strutture con tradizioni secolari ma sistematicamente private di risorse (finanziarie, tecnologiche ed umane) al punto da somigliare in buona parte dei casi a grandi scatole vuote, mere organizzazioni burocratiche con capacità operative sempre più ridotte.
Posts Tagged ‘conservazione’
23 Ago
Conservazione “digitale”: la lezione del Guggenheim
10 Ott
Conservazione degli e-book, missione (quasi) impossibile?
Circa un’annetto fa ho scritto un post nel quale spiegavo come l’ebook, specie quello “potenziato” (enhanced), cambiasse il rapporto con le fonti documentarie, concludendo, tra le altre cose, che ciò implicava un significativo cambiamento nel modo in cui da una parte gli storici e dall’altra i lettori si approcciano alle fonti stesse.
In questo articolo intendo invece soffermarmi su un aspetto che all’epoca aveva appena abbozzato, ovvero quello delle possibili (anzi, probabili) difficoltà poste alla conservazione.
In genere si tende infatti a ritenere che la difficoltà stia nel conservare i documenti digitali (con relative marche temporali, firme elettroniche / digitali più o meno qualificate, glifi, etc.), e questo perché va mantenuta (almeno nella fase attiva) la valenza giuridico-probatoria che è insita in essi; al contrario con i libri digitali questo problema non si pone: anche se muta la sequenza binaria, si è soliti sostenere, l’importante è che il contenuto non subisca modifiche sostanziali (cambiamenti nel layout della pagina, nel font del carattere, etc. sono ritenuti accettabili anche se pure essi ci dicono molto su come l’autore ha voluto che fosse il suo libro).
Ebbene, specie se in presenza di ebook potenziati, è tutt’altro che pacifico che ciò sia assicurato. Come sottolineavo “en passant” nel succitato articolo (ma ponendomi nella prospettiva peculiare dello storico), vi è infatti il serio rischio che salti tutto quell’insieme di riferimenti “esterni” all’ebook che nelle intenzioni autoriali costituisce parte integrante (e talvolta fondamentale) dell’opera: il problema è in primis quello noto dei rot link (ovvero di collegamenti ipertestuali che conducono a risorse che nel frattempo sono state spostate di indirizzo o che, nella peggiore delle ipotesi, non esistono più) ma in generale si può parlare della (non) persistenza degli oggetti digitali che popolano la Rete. In sostanza il pericolo è quello di conservare ebook che nel giro di pochi anni si trovano monchi.
Le riflessioni da fare a questo punto sono sostanzialmente due:
1) gli enhanced ebook diverranno dominanti nell’arena dei libri digitali o, al contrario, resteranno di nicchia e specifici di alcuni ambiti (settore educational, storia, etc.)? Ovviamente qui si entra nel campo del probabile ma personalmente ritengo verosimile, considerando a) la spinta proveniente dalla vendita, che va per la maggiore, di tablet multimediali a discapito di ebook reader dedicati che invece non supportano tali elementi b) lo stimolo costituito dallo stesso standard epub 3, che ha abbracciato in toto l’idea della multimedialità, che essi diverranno, magari in un futuro non così prossimo, predominanti rispetto a quelli “classici” composti di testo ed immagini
2) è possibile ovviare al problema? In questo caso la risposta è senz’altro affermativa. Difatti, al di là dell’obiettivo forse irraggiungibile di “archiviare Internet”, ci si può accertare (così come invita a fare Wikipedia) che nel momento in cui si va ad effettuare una citazione / riferimento ad una risorsa esterna perlomeno essa sia stata archiviata da uno dei vari servizi esistenti (il più famoso è Internet Archive) e, in caso negativo, far sì che essa venga archiviata. Esiste poi un’altra alternativa, a mio avviso sconsigliabile, che consiste nell’incorporare nell’ebook tutte le risorse esterne cui si fa riferimento: purtroppo, trattandosi di immagini e di file audio e video, ciò significa far aumentare il “peso” complessivo dell’ebook di un paio di ordini di grandezza (diciamo da uno a 100 mega), il che non è agevole né per il lettore nel momento in cui va ad effettuare il download né per chi, successivamente, dovrà farsi carico della conservazione.
Per concludere credo che questa veloce analisi sia sufficiente a dimostrare come la conservazione dei libri digitali sia operazione tutt’altro che scontata; difatti, al di là delle difficoltà tecniche, se si vuole che gli ebook aderenti al formato epub 3 siano trasmessi nella loro interezza alle generazioni che verranno è necessario impostare, sin dal momento della loro creazione, una apposita strategia che preveda l’archiviazione di quei link e di quelle risorse digitali alle quali essi fanno riferimento. Obiettivo raggiungibile a patto che si creino le necessarie sinergie tra autori (in caso di self publishing), editori, bibliotecari ma probabilmente anche archivisti.
5 Giu
Ancora sulla firma grafometrica
Ritorno velocemente sull’argomento della firma grafometrica affrontato in un mio post di pochi giorni fa dal momento che su questo interessante tipo di firma è intervenuto l’avvocato Andrea Lisi, presidente ANORC, il quale ha sgombrato il campo da ogni dubbio circa la sua validità legale; rimandando all’articolo di Lisi per una trattazione più esaustiva riporto un passaggio che mi sembra dirimente (il grassetto è mio; n.d.r.):
Questo tipo di firma [la biometrica grafometrica, n.d.r.] può certamente essere sussumibile nel genus ampio della firma elettronica avanzata […]. Ma, in verità, questa tipologia di firma costituisce più propriamente una categoria a sé stante e deve ritenersi riconosciuta nell’ordinamento giuridico italiano proprio perché già prevista dal nostro codice civile: essa è semplicemente una firma autografa riversata non su un foglio di carta, ma associata indissolubilmente a un documento informatico, a patto che esso abbia i requisiti tipici previsti per garantire la forma scritta ai sensi dei già citati artt. 20 e 21 del CAD. Quindi, pur con una specifica attenzione alle problematiche tipiche della corretta formazione del documento informatico, della corretta conservazione dell’oggetto informatico contenente documento e dati di firma biometrica e con una particolare considerazione alle delicate questioni di sicurezza e privacy che la protezione del dato biometrico comporta, possiamo affermare che la firma autografa digitale o grafometrica può trovare le ragioni giuridiche per una sua autonoma esistenza e validità nei principi generali del nostro ordinamento
In altri termini dal punto di vista legale non esistono motivi ostativi all’utilizzo della firma grafometrica; anche Lisi evidenzia alcune problematicità inerenti le modalità di formazione del documento e soprattutto la sua conservazione dal momento che esso contiene la firma, ritenuto dato sensibile e pertanto soggetto alla normativa sulla Privacy.
Da parte mio sottoscrivo in pieno e ribadisco come tutto sia risolvibile con un approccio “archivistico” di ampio respiro, l’unico in grado di risolvere le problematiche già evidenziate, ovvero: a) definizione di rigorose procedure di utilizzo di questi strumenti di nuova generazione, b) necessità di uploadare e sincronizzare costantemente i documenti con essi creati (e firmati) nei server presenti nei (minimo due) data center => c) realizzati in siti geograficamente distanziati e di proprietà dell’organizzazione.
12 Set
Conservazione della memoria digitale & dintorni
Lo spunto di questo post mi è stato offerto dalla recente discussione, a dire il vero nemmeno tanto appassionata ed alla quale io stesso ho partecipato, che si è svolta sulla lista Archivi 23 sull’annoso ed intricato tema della conservazione della memoria digitale e sulle sue modalità di “implementazione” presenti e future.
L’input al dibattito è stata la richiesta di pareri su un “nuovo” tipo di disco ottico (chiamato M-Disk) prodotto da Millenniata e che, come suggerisce il nome, dovrebbe durare 1000 anni senza deteriorarsi in virtù dei materiali usati (nel sito non viene spiegato chiaramente come siano costruiti, si dice solo che l’uso di materiali inorganici ed altri metalloidi li rendono “non deperibili” come i “mortali” DVD). L’altro motivo che consenti(rebbe) ai dati / documenti memorizzati su tali DVD di rimanere leggibili in perpetuum è il fatto che l’incisione della superficie del disco avviene molto più a fondo, in quanto si fa ricorso ad un laser assai più potente rispetto ai consueti. Proprio per quest’ultimo motivo occorre usare un apposito “masterizzatore” prodotto da LG e che a seconda del modello (= del prezzo) può scrivere anche su CD, DVD “normali” e Blu-Ray.
Ora, sorvolando il fatto che tali decantate qualità siano più o meno vere (Millenniata porta a supporto test condotti presso il Naval Air Warfare Center di China Lake), nella Lista è stato fatto notare che: 1) la presenza di dischi ottici indistruttibili non risolve il problema dell’obsolescenza dell’hardware e del software 2) che la tendenza in fatto di archiviazione / storage, pur con tutti i noti problemi, va inesorabilmente nella direzione della cloud; quest’ultimo richiamo al cloud computing ha comportato una levata di scudi da parte di alcuni membri della Lista (significativamente si trattava di addetti nel settore informatico; tentativo di difesa di business consolidati o competente presa di posizione?) i quali in sostanza considerano il cloud una montatura o quanto meno uno specchietto delle allodole grazie al quale si spacciano per nuovi concetti vecchi, in ogni caso negando la possibilità che esso comporti concreti vantaggi. Per contro veniva salutato positivamente il “passo in avanti” compiuto con la comparsa dell’M-Disk in quanto, è stato sostenuto, almeno il problema dell’affidabilità / durabilità dei supporti di memorizzazione trovava una soluzione.
D’accordo, la speranza è l’ultima a morire, ma dovendo ragionare e soprattutto agire hic et nunc credo che l’idea di ricorrere a supporti di memorizzazione simili a quelli proposti da Millenniata non abbia molto senso e questo perché: 1) si è vincolati, in fase di scrittura, al prodotto di LG il quale, come tutti gli altri prodotti hardware, nel giro di 5 – 10 anni sarà, per l’appunto, obsoleto; bisognerà dunque sperare che LG (se esistente, cosa tutt’altro che garantita considerando i processi di merge & acquisition in atto) assicuri nel tempo la produzione dei nuovi “masterizzatori” 2) fatti quattro rapidi conti non è conveniente spendere per M-Disk che costano (al dettaglio) mediamente due dollari e mezzo in più l’uno a parità di capacità di memorizzazione (4,7 GB) se poi non potrò usarli per la predetta obsolescenza HW e SW! Che me ne faccio di dati / documenti se poi non li posso leggere / usare?! 3) Interpares ha ormai accettato il fatto che i documenti siano (relativamente) “cangianti” e che il loro “habitat” sia un sistema documentale; a mio parere che tale sistema documentale “lavori” in una server farm situata presso la sede principale dell’organizzazione (e presumibilmente altra sede decentrata) o che al contrario stia, sfruttando la nuvola, a migliaia di kilometri di distanza poco importa! Essenziale è che questa nuvola (private, common o hybrid che sia) risponda a requisiti di sicurezza (fisica e legale), tutela dei dati, integrità, affidabilità, etc. In altri termini non vedo una contraddizione tra i principali risultati teorici di Interpares (quale il concetto della permanenza all’interno del sistema, che a sua volta riprende l’istituto anglo-sassone dell’ininterrotta custodia) ed il passaggio alla nuvola, garantendo quest’ultima (se fatta bene) la medesima permanenza all’interno del sistema che può essere assicurata da una server farm tradizionale, con tutto ciò che ne consegue, vale a dire, per l’oggetto specifico di questo post, la progressiva scomparsa delle memorie di tipo ottico.
PS Sono conscio che le prassi operative di molte server house prevedono che i dati / documenti “correnti” vengano memorizzati su nastri magnetici dall’ottimo rapporto prezzo / Gb mentre quelli “storici” in tradizionali dischi ottici di norma “impilati” in juke-box o secondo altre più complesse architetture, ma nondimeno ritengo che questa soluzione, in linea con la tendenza generale verso la “dematerializzazione”, svolgerà un ruolo progressivamente residuale.