Posts Tagged ‘Interpares’

Hardware: conservare o gettare?

New PC

New PC di XiXiDu, su Flickr

Essendo l’argomento un po’ eretico, spero che le mie professoresse dei tempi dell’università non leggano mai questo post perché probabilmente balzerebbero dalla sedia e si pentirebbero di avermi promosso agli esami! Ciò nondimeno, dopo un paio di settimane che ci rifletto sono giunto alla conclusione che l’argomento merita di essere reso pubblico e dunque eccomi qua. Il quesito che pongo (e mi pongo) è il seguente: siamo così sicuri che anche l’hardware, soprattutto quello che si occupa della memorizzazione ed immagazzinamento dei dati, non vada conservato?
Mi spiego meglio. I vari InterPARES (la fase tre è tuttora in corso e dovrebbe terminare quest’anno) hanno evidenziato come in termini generali la conservazione permanente di documenti elettronici sia possibile solo se si dispiegano adeguate risorse, si seguono determinate procedure e si adotta un approccio dinamico e flessibile tale da adattare le diverse strategie conservative a seconda delle evoluzioni future.
Per quanto queste indicazioni tendano volutamente ad assumere il valore di enunciazione di principi generali, nel concreto una certa preferenza è stata accordata alla metodologia della migrazione (vale a dire il passaggio da vecchie a nuove piattaforme tecnologiche man mano che le prime diventano obsolescenti) purché essa avvenga all’interno di sistemi in grado di assicurare autenticità, affidabilità, etc. ai documenti migrati; inoltre è previsto che i documenti vengano conservati e migrati assieme ai relativi metadati, con questi ultimi deputati a fornire le indispensabili informazioni di contesto.
Come strategia alternativa InterPARES suggerisce l’emulazione, ovvero il far “girare” all’interno di ambienti tecnologici software altrimenti non funzionanti e con essi i rispettivi documenti; l’emulazione, dal momento che non comporta la modifica della sequenza binaria dei documenti rappresenterebbe l’optimum, peccato che sia costosa e che ponga non indifferenti difficoltà tecniche.
In tutto questo l’hardware trova scarso spazio nelle riflessioni teoriche, per quanto la sua obsolescenza sia perfettamente nota (oltre che evidente a tutti coloro che possiedono un qualsivoglia gingillo tecnologico); di norma ci si ricorda che esso esiste (specificatamente al tema della conservazione): 1) allorquando si deve decidere su quali supporti e/o sistemi puntare per lo storage di breve – medio respiro (nastro, disco ottico, disco rigido esterno, NAS, RAID, etc.) 2) nel momento in cui esso sta per arrivare alla fine della propria “carriera” e si propone di creare un “museo dell’informatica” con il compito di tenere operative quelle macchine senza le quali i relativi SW (con annessi dati e documenti) diventano inutili / inutilizzabili.
In realtà mi sto convincendo sempre più che conservare l’hardware, o in subordine una dettagliata documentazione sul tipo di infrastruttura posseduta, sia di notevole importanza per comprendere appieno il valore attribuito a specifici materiali, nonché il contesto e la “stratificazione” dell’archivio del soggetto produttore. Alcuni banali esempi renderanno più chiara la mia posizione.
Prendiamo il caso di un’impresa: se essa è previdente, provvederà a duplicare (ed in taluni casi a moltiplicare) quei dati e documenti ritenuti più critici e che non può assolutamente permettersi di perdere; similmente essa potrebbe decidere di allocare i dati considerati importanti in partizioni più prestanti della propria infrastruttura HW e viceversa per quelli meno importanti (è questo il caso tipico dei sistemi HSM; Hierarchical Storage Management). Il ragionamento è valido anche per il singolo individuo (= archivi di persona): l’adozione di particolari strategie conservative (backup sistematici su dischi rigidi esterni oppure sulla nuvola) così come la scelta di attribuire maggior protezione a specifici dati e documenti può aiutare a comprendere a quali di essi il produttore accordasse maggior valore. Ma non finisce qua! La conoscenza delle modalità di storage / conservazione può aiutare a chiarire aspetti relativi al modus operandi del soggetto produttore oltre che dare una spiegazione alla presenza, altrimenti non comprensibile, di varianti dello stesso documento: tipico il caso del documento A conservato nell’hard disk e del documento A-bis (leggermente diverso) conservato in una cartella public accessibile a più persone e frutto di un lavoro collettivo. Ovvio che se non sappiamo da dove proviene A e da dove proviene A-bis potremmo essere tentati di attribuire la differenza tra i due (tecnicamente il “mancato allineamento”) ad un back-up di aggiornamento fallito, perdendo così importanti informazioni sulla genesi del documento stesso (per un file di testo pensiamo alle diverse stesure) nonché alla sua “stratificazione”.
Da ultimo, la stessa analisi del tipo di hardware adoperato fornisce informazioni utili: il ricorso a materiale non consumer ad esempio indica ipso facto attenzione e sensibilità per le problematiche della conservazione!
Alla luce di quanto esposto credo appaia evidente a tutti come approfondire la conoscenze del tipo di infrastruttura di storage approntata dal soggetto produttore sia un’opera tutt’altro che infruttuosa ma capace di fornire informazioni aggiuntive sul contesto di riferimento e soprattutto di attribuire un valore qualitativo a dati e documenti che nel mondo digitale siamo in genere soliti considerare in termini meramente quantitativi.
Concretamente tale obiettivo è raggiungibile, al di là della provocazione iniziale di “conservare l’hardware” (compito oggettivamente improbo) ampliando la nozione di “metadato tecnico” ed inserendo alcuni campi e tag capaci, per l’appunto, di descrivere quella miniera di informazioni preziose che risulta essere l’hardware; insomma, la possibilità di fare qualcosa in questa direzione c’è, adesso tocca agli “iniziati” dei linguaggi di marcatura mettersi all’opera.

Conservazione della memoria digitale & dintorni

Data destruction

Dvd (foto di Samantha Celera)

Lo spunto di questo post mi è stato offerto dalla recente discussione, a dire il vero nemmeno tanto appassionata ed alla quale io stesso ho partecipato, che si è svolta sulla lista Archivi 23 sull’annoso ed intricato tema della conservazione della memoria digitale e sulle sue modalità di “implementazione” presenti e future.
L’input al dibattito è stata la richiesta di pareri su un “nuovo” tipo di disco ottico (chiamato M-Disk) prodotto da Millenniata e che, come suggerisce il nome, dovrebbe durare 1000 anni senza deteriorarsi in virtù dei materiali usati (nel sito non viene spiegato chiaramente come siano costruiti, si dice solo che l’uso di materiali inorganici ed altri metalloidi li rendono “non deperibili” come i “mortali” DVD). L’altro motivo che consenti(rebbe) ai dati / documenti memorizzati su tali DVD di rimanere leggibili in perpetuum è il fatto che l’incisione della superficie del disco avviene molto più a fondo, in quanto si fa ricorso ad un laser assai più potente rispetto ai consueti. Proprio per quest’ultimo motivo occorre usare un apposito “masterizzatore” prodotto da LG e che a seconda del modello (= del prezzo) può scrivere anche su CD, DVD “normali” e Blu-Ray.
Ora, sorvolando il fatto che tali decantate qualità siano più o meno vere (Millenniata porta a supporto test condotti presso il Naval Air Warfare Center di China Lake), nella Lista è stato fatto notare che: 1) la presenza di dischi ottici indistruttibili non risolve il problema dell’obsolescenza dell’hardware e del software 2) che la tendenza in fatto di archiviazione / storage, pur con tutti i noti problemi, va inesorabilmente nella direzione della cloud; quest’ultimo richiamo al cloud computing ha comportato una levata di scudi da parte di alcuni membri della Lista (significativamente si trattava di addetti nel settore informatico; tentativo di difesa di business consolidati o competente presa di posizione?) i quali in sostanza considerano il cloud una montatura o quanto meno uno specchietto delle allodole grazie al quale si spacciano per nuovi concetti vecchi, in ogni caso negando la possibilità che esso comporti concreti vantaggi. Per contro veniva salutato positivamente il “passo in avanti” compiuto con la comparsa dell’M-Disk in quanto, è stato sostenuto, almeno il problema dell’affidabilità / durabilità dei supporti di memorizzazione trovava una soluzione.
D’accordo, la speranza è l’ultima a morire, ma dovendo ragionare e soprattutto agire hic et nunc credo che l’idea di ricorrere a supporti di memorizzazione simili a quelli proposti da Millenniata non abbia molto senso e questo perché: 1) si è vincolati, in fase di scrittura, al prodotto di LG il quale, come tutti gli altri prodotti hardware, nel giro di 5 – 10 anni sarà, per l’appunto, obsoleto; bisognerà dunque sperare che LG (se esistente, cosa tutt’altro che garantita considerando i processi di merge & acquisition in atto) assicuri nel tempo la produzione dei nuovi “masterizzatori” 2) fatti quattro rapidi conti non è conveniente spendere per M-Disk che costano (al dettaglio) mediamente due dollari e mezzo in più l’uno a parità di capacità di memorizzazione (4,7 GB) se poi non potrò usarli per la predetta obsolescenza HW e SW! Che me ne faccio di dati / documenti se poi non li posso leggere / usare?! 3) Interpares ha ormai accettato il fatto che i documenti siano (relativamente) “cangianti” e che il loro “habitat” sia un sistema documentale; a mio parere che tale sistema documentale “lavori” in una server farm situata presso la sede principale dell’organizzazione (e presumibilmente altra sede decentrata) o che al contrario stia, sfruttando la nuvola, a migliaia di kilometri di distanza poco importa! Essenziale è che questa nuvola (private, common o hybrid che sia) risponda a requisiti di sicurezza (fisica e legale), tutela dei dati, integrità, affidabilità, etc. In altri termini non vedo una contraddizione tra i principali risultati teorici di Interpares (quale il concetto della permanenza all’interno del sistema, che a sua volta riprende l’istituto anglo-sassone dell’ininterrotta custodia) ed il passaggio alla nuvola, garantendo quest’ultima (se fatta bene) la medesima permanenza all’interno del sistema che può essere assicurata da una server farm tradizionale, con tutto ciò che ne consegue, vale a dire, per l’oggetto specifico di questo post, la progressiva scomparsa delle memorie di tipo ottico.

PS Sono conscio che le prassi operative di molte server house prevedono che i dati / documenti “correnti” vengano memorizzati su nastri magnetici dall’ottimo rapporto prezzo / Gb mentre quelli “storici” in tradizionali dischi ottici di norma “impilati” in juke-box o secondo altre più complesse architetture, ma nondimeno ritengo che questa soluzione, in linea con la tendenza generale verso la “dematerializzazione”, svolgerà un ruolo progressivamente residuale.

%d blogger hanno fatto clic su Mi Piace per questo: