Posts Tagged ‘conservazione’

Conservazione “digitale”: la lezione del Guggenheim

Entrance to "The Visitors" by Ragnar Kjartansson (Guggenheim Museum, Bilbao)

Entrance to “The Visitors” by Ragnar Kjartansson (Guggenheim Museum, Bilbao)

Quello che segue è, più che un post “convenzionale”, una riflessione ad alta voce ispirata, come spesso mi capita in questi periodi postvacanzieri, dai viaggi effettuati.
Questa volta l’input proviene dalla visita del Guggenheim Museum di Bilbao: qui, tra “classici” dell’arte contemporanea ed installazioni ben più avveniristiche, non ho potuto far a meno di ritornare con la mente ad un argomento spinoso al quale un po’ di tempo fa avevo già dedicato qualche riga: come conserveremo questi “capolavori” ed in special modo quelli ad elevato “contenuto tecnologico”?
Si pensi all’opera di Jenny Holzer, Installation for Bilbao: 9 colonne alte 13 metri ciascuna attraverso le quali, grazie alla presenza di luci LED, scorrono dall’alto al basso parole scritte in più lingue. Se vogliamo che l’installazione, concepita specificatamente per il Guggenheim (le luci vengono infatti magnificamente riflesse dalle lastre in titanio che rappresentano le squame del pesce-museo ideato da Frank Ghery creando una sorta di “zona blu” nella quale i visitatori sono invitati ad entrare attraversando le colonne, assumendo un ruolo attivo nel processo di fruizione dell’opera; n.d.r.), possa essere goduta anche in futuro dobbiamo conservare, oltre al museo stesso, pure il software che gestisce il flusso delle parole, e l’hardware (i LED, le colonne, etc.).
Un compito non meno gravoso spetterà a coloro che saranno chiamati a conservare l’installazione, questa volta temporanea, The Visitors dell’islandese Ragnar Kjartansson: si tratta di nove schermi HD su sette dei quali vengono rappresentati altrettanti musicisti che suonano diversi strumenti (pianoforte, violino, chitarra, batteria, etc.) mentre sui rimanenti due si vede la “band” al completo. L’audio è diffuso in modo tale che se si resta al centro della sala si percepisce la musica nel suo insieme mentre se ci si avvicina ad uno degli schermi con i sette strumenti è quest’ultimo a prevalere. In tal caso non sarà sufficiente conservare le sole tracce audio e video ma, al fine di assicurare la fruizione così come intesa dall’artista, bisognerà anche aver ben presente come disporre il tutto! Inoltre non bisogna dimenticare che eventuali cambiamenti nella stessa definizione della qualità audio / video comporterebbe de facto alterare l’opera e ciò potrebbe contrastare con la volontà dell’artista!
Proprio sulla collaborazione con i vari artisti / autori sembra puntare molto lo staff (multdisciplinare) del Guggenheim deputato alla conservazione: ad esempio, relativamente all’opera “Installation for Bilbao”, decisivo è stato il contributo della Holzer e dei suoi collaboratori nella fase preliminare di studio dell’opera, finalizzata alla comprensione dell’opera ed all’individuazione degli elementi – tecnici ed estetici – fondamentali (= insostituibili, cioè da conservare) e di quelli, al contrario, trascurabili (= sostituibili).
Fatto ciò, è possibile passare alla fase “operativa”, riassumibile nell’obiettivo di assicurare “[a] constant updating in order to solve issue of obsolescence“.
Mi sembra si tratti di una metodologia assai efficace e che potrebbe essere fatta propria anche in altri ambiti, quali quello archivistico e librario, tanto più considerando che la presenza di figure e competenze multidisciplinari nei team di conservazione è oramai data per assodata.
In particolare credo vada rimarcato come l’azione di studio non sia più prettamente preliminare alla fase conservativa in senso stretto ma al contrario come entrambe si facciano “dinamiche”: l’attività di studio (con particolare attenzione agli aspetti tecnologici) si fa continua e sulla base delle risultanze di quest’ultime si adeguano le metodologie e le procedure esecutive.
Si entra in altri termini in un circolo continuo nel quale l’unico elemento di continuità, fondamentale date le risorse richieste, è rappresentato dalla presenza di un’istituzione / istituto stabile che assicuri che nel corso degli anni non venga mai meno lo sforzo conservativo.
Peccato che il panorama di archivi e biblioteche, in Italia, veda sì la presenza di strutture con tradizioni secolari ma sistematicamente private di risorse (finanziarie, tecnologiche ed umane) al punto da somigliare in buona parte dei casi a grandi scatole vuote, mere organizzazioni burocratiche con capacità operative sempre più ridotte.

Digitale in archivi e biblioteche: un dibattito senza fine?

Empty Stacks

Empty Stacks di puddy77, su Flickr

A distanza di poche settimane l’uno dall’altro ho assistito a due interessanti incontri entrambi incentrati sull’ipersviscerato tema del digitale in archivi e biblioteche: il primo dei due, tenutosi a Padova il 24 febbraio, verteva ufficialmente su “Beni culturali e digitalizzazione” ma in realtà si è parlato esclusivamente di archivi e biblioteche, il secondo era l’oramai tradizionale incontro delle Stelline a Milano (13-14 marzo, qui purtroppo ho potuto partecipare solo alla prima giornata di lavori), incentrato quest’anno sulla “biblioteca connessa” (sottotitolo: “come cambiano le strategie di servizio al tempo dei social network“).
Devo dire che tale “ciclo di aggiornamento”, essendo così ravvicinato nel tempo, è stato piuttosto utile per mettere a fuoco, una volta di più, le differenze di approccio riguardo a questo cruciale tema presenti in prima battuta tra le due discipline ed in seconda al loro stesso interno.
Partiamo dall’archivistica. Può apparire paradossale considerando il nome che era stato dato all’incontro ma a Padova è emerso in modo palese come il dibattito sia ancora fermo a questioni che speravo essere state superate da tempo del tipo: il digitale è buono o cattivo? la digitalizzazione assicura una migliore conservazione o no?
Premesso che, come ha giustamente ricordato Melania Zanetti, la digitalizzazione può talvolta rappresentare un rischio inutile per documenti e libri, credo che in generale sia più sensato prendere atto che la produzione in ambiente digitale (non solo documentaria e libraria!) è già la realtà e, di conseguenza, che accanto al “recupero del pregresso” sia opportuno iniziare ad occuparsi, come proposto provocatoriamente (ma non senza cognizione di causa) da Giancarlo Buzzanca, delle “nuove frontiere”, come ad esempio la conservazione delle pagine Internet o della net art.
Si tratta di una posizione affine a quella manifestata sul versante biblioteconomico da Riccardo Ridi (che non a caso con largo anticipo si è posto il problema di “archiviare Internet“, n.d.r.), per il quale la digitalizzazione non è che un frammento all’interno dell’enorme ed ineluttabile passaggio al digitale, momento cruciale nel quale vanno effettuate scelte strategiche di “trasmissione del contenuto” (definito come un vero e proprio “fine di civiltà”), vale a dire di selezione di cosa trasmettere alle generazioni future.
Riaffiora, nelle parole di Ridi, l’annosa questione: è sufficiente conservare il solo contenuto o è imprescindibile conservare pure il relativo supporto? Come noto a riguardo i bibliotecari (non tutti ovviamente) sono decisamente più possibilisti rispetto agli archivisti i quali, in un certo senso “depositari” della secolare tradizione di studi diplomatici, continuano a considerare il documento come l’entità materiale (= fisica, legata cioè ad un supporto) capace di rappresentare in maniera duratura un fatto o atto giuridico; al sottoscritto non resta che rilevare che, pur ammettendo la correttezza teorica di una simile impostazione, finché si continua a discutere nel mondo documenti digitali ed ebook spopolano…
Il punto è proprio questo: il digitale è già tra noi, e di tale fatto sembra essersene fatta una ragione (forse pure troppo) soprattutto la comunità bibliotecaria.
Non è dunque un caso se durante il convegno milanese delle Stelline, prendendo spunto dalle recenti realizzazioni fisiche negli Stati Uniti ed in Corea del Sud, ci si sia chiesti se il futuro delle biblioteche sarà quello delle bookless library o se biblioteche con libri di carta avranno un loro spazio. A proposito le idee prevalenti sono più o meno sempre le stesse ed in fondo complementari: si concede che quelle biblioteche fisiche che riusciranno a crearsi una nicchia di “mercato” potrebbero anche sopravvivere ma nel contempo si ammette, subendone il fascino, che le bookless library siano accattivanti e, essendo proprio per questo motivo in grado di attirare pubblico, in prospettiva vincenti.
Proprio qui si innesta il tema “social network” oggetto del convegno: per alcuni essi sono essenziali all’interno delle strategie comunicative e di intercettazione di quei flussi comunicativi (= delle persone che li alimentano) che parlano della biblioteca, per altri (soprattutto Riccardo Ridi, presente anche a Milano) essi dovrebbero assolvere una funzione meramente strumentale (tanto più che essi vanno e vengono, n.d.r.), essendo la cosa più sociale che le biblioteche possono fare continuare a svolgere il proprio lavoro di intermediazione e di facilitazione nell’accesso alle risorse informative, siano esse su supporto analogico che digitale (Ridi).
Il riferimento critico, evidente, è a David Lankes e a quella scuola di pensiero che vuole che nelle biblioteche si faccia di tutto fuorché quello per cui esse sono nate.
Personalmente mi ritrovo più sulle posizioni “tradizionaliste”, anche se con un “piccolo” distinguo. Infatti, a parte alcune specifiche e particolari realtà bibliotecarie, non vedo perché un utente dovrebbe recarsi in una biblioteca e tanto più in una bookless library quando a breve potrà accedere alle risorse informative da qualsiasi device a disposizione: farlo equivarrebbe ad azzerare buona parte dei vantaggi del digitale! Forse sono io pigro e probabilmente sottovaluto il desiderio di aggregazione e di curiosità della gente, sul quale evidentemente puntano le biblioteche di nuova concezione (con caffè, stampanti 3D, scanner 3D, chitarre, sonic chair e via discorrendo) come la Biblioteca pubblica di Colonia, però il dubbio mi rimane…
Anzi ho le sensazione che proprio l’offerta al pubblico di “amenità” che ben poco hanno a che fare con il compito core di archivisti e bibliotecari sia un trait d’union che accomuna le due professioni. Una possibile spiegazione potrebbe essere la seguente: la perdita di fisicità, nel momento in cui fa venir meno prassi e certezze consolidate e presagire nel contempo scenari cupi (declino / fine delle rispettive professioni), spinge ad accordare priorità assoluta ad attività secondarie (oltre ai social network qualcuno mi deve spiegare che c’entrano, con la vera valorizzazione, i vari concerti, rappresentazioni teatrali, etc. che si fanno sempre più spesso negli archivi?) capaci di attirare un pubblico che, a sua volta, dovrebbe assicurare una visibilità (presso i cittadini e soprattutto i decisori politici) tale da giustificarne la sopravvivenza. Il futuro ci dirà se si tratta di una mossa azzeccata o, come credo, autolesionistica.

Conservazione degli e-book, missione (quasi) impossibile?

Civil Liberties Litigation ePub Experiment di colecamp

Photo credits: Civil Liberties Litigation ePub Experiment di colecamp, su Flickr

Circa un’annetto fa ho scritto un post nel quale spiegavo come l’ebook, specie quello “potenziato” (enhanced), cambiasse il rapporto con le fonti documentarie, concludendo, tra le altre cose, che ciò implicava un significativo cambiamento nel modo in cui da una parte gli storici e dall’altra i lettori si approcciano alle fonti stesse.
In questo articolo intendo invece soffermarmi su un aspetto che all’epoca aveva appena abbozzato, ovvero quello delle possibili (anzi, probabili) difficoltà poste alla conservazione.
In genere si tende infatti a ritenere che la difficoltà stia nel conservare i documenti digitali (con relative marche temporali, firme elettroniche / digitali più o meno qualificate, glifi, etc.), e questo perché va mantenuta (almeno nella fase attiva) la valenza giuridico-probatoria che è insita in essi; al contrario con i libri digitali questo problema non si pone: anche se muta la sequenza binaria, si è soliti sostenere, l’importante è che il contenuto non subisca modifiche sostanziali (cambiamenti nel layout della pagina, nel font del carattere, etc. sono ritenuti accettabili anche se pure essi ci dicono molto su come l’autore ha voluto che fosse il suo libro).
Ebbene, specie se in presenza di ebook potenziati, è tutt’altro che pacifico che ciò sia assicurato. Come sottolineavo “en passant” nel succitato articolo (ma ponendomi nella prospettiva peculiare dello storico), vi è infatti il serio rischio che salti tutto quell’insieme di riferimenti “esterni” all’ebook che nelle intenzioni autoriali costituisce parte integrante (e talvolta fondamentale) dell’opera: il problema è in primis quello noto dei rot link (ovvero di collegamenti ipertestuali che conducono a risorse che nel frattempo sono state spostate di indirizzo o che, nella peggiore delle ipotesi, non esistono più) ma in generale si può parlare della (non) persistenza degli oggetti digitali che popolano la Rete. In sostanza il pericolo è quello di conservare ebook che nel giro di pochi anni si trovano monchi.
Le riflessioni da fare a questo punto sono sostanzialmente due:
1) gli enhanced ebook diverranno dominanti nell’arena dei libri digitali o, al contrario, resteranno di nicchia e specifici di alcuni ambiti (settore educational, storia, etc.)? Ovviamente qui si entra nel campo del probabile ma personalmente ritengo verosimile, considerando a) la spinta proveniente dalla vendita, che va per la maggiore, di tablet multimediali a discapito di ebook reader dedicati che invece non supportano tali elementi b) lo stimolo costituito dallo stesso standard epub 3, che ha abbracciato in toto l’idea della multimedialità, che essi diverranno, magari in un futuro non così prossimo, predominanti rispetto a quelli “classici” composti di testo ed immagini
2) è possibile ovviare al problema? In questo caso la risposta è senz’altro affermativa. Difatti, al di là dell’obiettivo forse irraggiungibile di “archiviare Internet”, ci si può accertare (così come invita a fare Wikipedia) che nel momento in cui si va ad effettuare una citazione / riferimento ad una risorsa esterna perlomeno essa sia stata archiviata da uno dei vari servizi esistenti (il più famoso è Internet Archive) e, in caso negativo, far sì che essa venga archiviata. Esiste poi un’altra alternativa, a mio avviso sconsigliabile, che consiste nell’incorporare nell’ebook tutte le risorse esterne cui si fa riferimento: purtroppo, trattandosi di immagini e di file audio e video, ciò significa far aumentare il “peso” complessivo dell’ebook di un paio di ordini di grandezza (diciamo da uno a 100 mega), il che non è agevole né per il lettore nel momento in cui va ad effettuare il download né per chi, successivamente, dovrà farsi carico della conservazione.
Per concludere credo che questa veloce analisi sia sufficiente a dimostrare come la conservazione dei libri digitali sia operazione tutt’altro che scontata; difatti, al di là delle difficoltà tecniche, se si vuole che gli ebook aderenti al formato epub 3 siano trasmessi nella loro interezza alle generazioni che verranno è necessario impostare, sin dal momento della loro creazione, una apposita strategia che preveda l’archiviazione di quei link e di quelle risorse digitali alle quali essi fanno riferimento. Obiettivo raggiungibile a patto che si creino le necessarie sinergie tra autori (in caso di self publishing), editori, bibliotecari ma probabilmente anche archivisti.

Ancora sulla firma grafometrica

40+86 Tablet

40+86 Tablet di bark, su Flickr

Ritorno velocemente sull’argomento della firma grafometrica affrontato in un mio post di pochi giorni fa dal momento che su questo interessante tipo di firma è intervenuto l’avvocato Andrea Lisi, presidente ANORC, il quale ha sgombrato il campo da ogni dubbio circa la sua validità legale; rimandando all’articolo di Lisi per una trattazione più esaustiva riporto un passaggio che mi sembra dirimente (il grassetto è mio; n.d.r.):

Questo tipo di firma [la biometrica grafometrica, n.d.r.] può certamente essere sussumibile nel genus ampio della firma elettronica avanzata […]. Ma, in verità, questa tipologia di firma costituisce più propriamente una categoria a sé stante e deve ritenersi riconosciuta nell’ordinamento giuridico italiano proprio perché già prevista dal nostro codice civile: essa è semplicemente una firma autografa riversata non su un foglio di carta, ma associata indissolubilmente a un documento informatico, a patto che esso abbia i requisiti tipici previsti per garantire la forma scritta ai sensi dei già citati artt. 20 e 21 del CAD. Quindi, pur con una specifica attenzione alle problematiche tipiche della corretta formazione del documento informatico, della corretta conservazione dell’oggetto informatico contenente documento e dati di firma biometrica e con una particolare considerazione alle delicate questioni di sicurezza e privacy che la protezione del dato biometrico comporta, possiamo affermare che la firma autografa digitale o grafometrica può trovare le ragioni giuridiche per una sua autonoma esistenza e validità nei principi generali del nostro ordinamento

In altri termini dal punto di vista legale non esistono motivi ostativi all’utilizzo della firma grafometrica; anche Lisi evidenzia alcune problematicità inerenti le modalità di formazione del documento e soprattutto la sua conservazione dal momento che esso contiene la firma, ritenuto dato sensibile e pertanto soggetto alla normativa sulla Privacy.
Da parte mio sottoscrivo in pieno e ribadisco come tutto sia risolvibile con un approccio “archivistico” di ampio respiro, l’unico in grado di risolvere le problematiche già evidenziate, ovvero: a) definizione di rigorose procedure di utilizzo di questi strumenti di nuova generazione, b) necessità di uploadare e sincronizzare costantemente i documenti con essi creati (e firmati) nei server presenti nei (minimo due) data center => c) realizzati in siti geograficamente distanziati e di proprietà dell’organizzazione.

Hardware: conservare o gettare?

New PC

New PC di XiXiDu, su Flickr

Essendo l’argomento un po’ eretico, spero che le mie professoresse dei tempi dell’università non leggano mai questo post perché probabilmente balzerebbero dalla sedia e si pentirebbero di avermi promosso agli esami! Ciò nondimeno, dopo un paio di settimane che ci rifletto sono giunto alla conclusione che l’argomento merita di essere reso pubblico e dunque eccomi qua. Il quesito che pongo (e mi pongo) è il seguente: siamo così sicuri che anche l’hardware, soprattutto quello che si occupa della memorizzazione ed immagazzinamento dei dati, non vada conservato?
Mi spiego meglio. I vari InterPARES (la fase tre è tuttora in corso e dovrebbe terminare quest’anno) hanno evidenziato come in termini generali la conservazione permanente di documenti elettronici sia possibile solo se si dispiegano adeguate risorse, si seguono determinate procedure e si adotta un approccio dinamico e flessibile tale da adattare le diverse strategie conservative a seconda delle evoluzioni future.
Per quanto queste indicazioni tendano volutamente ad assumere il valore di enunciazione di principi generali, nel concreto una certa preferenza è stata accordata alla metodologia della migrazione (vale a dire il passaggio da vecchie a nuove piattaforme tecnologiche man mano che le prime diventano obsolescenti) purché essa avvenga all’interno di sistemi in grado di assicurare autenticità, affidabilità, etc. ai documenti migrati; inoltre è previsto che i documenti vengano conservati e migrati assieme ai relativi metadati, con questi ultimi deputati a fornire le indispensabili informazioni di contesto.
Come strategia alternativa InterPARES suggerisce l’emulazione, ovvero il far “girare” all’interno di ambienti tecnologici software altrimenti non funzionanti e con essi i rispettivi documenti; l’emulazione, dal momento che non comporta la modifica della sequenza binaria dei documenti rappresenterebbe l’optimum, peccato che sia costosa e che ponga non indifferenti difficoltà tecniche.
In tutto questo l’hardware trova scarso spazio nelle riflessioni teoriche, per quanto la sua obsolescenza sia perfettamente nota (oltre che evidente a tutti coloro che possiedono un qualsivoglia gingillo tecnologico); di norma ci si ricorda che esso esiste (specificatamente al tema della conservazione): 1) allorquando si deve decidere su quali supporti e/o sistemi puntare per lo storage di breve – medio respiro (nastro, disco ottico, disco rigido esterno, NAS, RAID, etc.) 2) nel momento in cui esso sta per arrivare alla fine della propria “carriera” e si propone di creare un “museo dell’informatica” con il compito di tenere operative quelle macchine senza le quali i relativi SW (con annessi dati e documenti) diventano inutili / inutilizzabili.
In realtà mi sto convincendo sempre più che conservare l’hardware, o in subordine una dettagliata documentazione sul tipo di infrastruttura posseduta, sia di notevole importanza per comprendere appieno il valore attribuito a specifici materiali, nonché il contesto e la “stratificazione” dell’archivio del soggetto produttore. Alcuni banali esempi renderanno più chiara la mia posizione.
Prendiamo il caso di un’impresa: se essa è previdente, provvederà a duplicare (ed in taluni casi a moltiplicare) quei dati e documenti ritenuti più critici e che non può assolutamente permettersi di perdere; similmente essa potrebbe decidere di allocare i dati considerati importanti in partizioni più prestanti della propria infrastruttura HW e viceversa per quelli meno importanti (è questo il caso tipico dei sistemi HSM; Hierarchical Storage Management). Il ragionamento è valido anche per il singolo individuo (= archivi di persona): l’adozione di particolari strategie conservative (backup sistematici su dischi rigidi esterni oppure sulla nuvola) così come la scelta di attribuire maggior protezione a specifici dati e documenti può aiutare a comprendere a quali di essi il produttore accordasse maggior valore. Ma non finisce qua! La conoscenza delle modalità di storage / conservazione può aiutare a chiarire aspetti relativi al modus operandi del soggetto produttore oltre che dare una spiegazione alla presenza, altrimenti non comprensibile, di varianti dello stesso documento: tipico il caso del documento A conservato nell’hard disk e del documento A-bis (leggermente diverso) conservato in una cartella public accessibile a più persone e frutto di un lavoro collettivo. Ovvio che se non sappiamo da dove proviene A e da dove proviene A-bis potremmo essere tentati di attribuire la differenza tra i due (tecnicamente il “mancato allineamento”) ad un back-up di aggiornamento fallito, perdendo così importanti informazioni sulla genesi del documento stesso (per un file di testo pensiamo alle diverse stesure) nonché alla sua “stratificazione”.
Da ultimo, la stessa analisi del tipo di hardware adoperato fornisce informazioni utili: il ricorso a materiale non consumer ad esempio indica ipso facto attenzione e sensibilità per le problematiche della conservazione!
Alla luce di quanto esposto credo appaia evidente a tutti come approfondire la conoscenze del tipo di infrastruttura di storage approntata dal soggetto produttore sia un’opera tutt’altro che infruttuosa ma capace di fornire informazioni aggiuntive sul contesto di riferimento e soprattutto di attribuire un valore qualitativo a dati e documenti che nel mondo digitale siamo in genere soliti considerare in termini meramente quantitativi.
Concretamente tale obiettivo è raggiungibile, al di là della provocazione iniziale di “conservare l’hardware” (compito oggettivamente improbo) ampliando la nozione di “metadato tecnico” ed inserendo alcuni campi e tag capaci, per l’appunto, di descrivere quella miniera di informazioni preziose che risulta essere l’hardware; insomma, la possibilità di fare qualcosa in questa direzione c’è, adesso tocca agli “iniziati” dei linguaggi di marcatura mettersi all’opera.

Conservazione della memoria digitale & dintorni

Data destruction

Dvd (foto di Samantha Celera)

Lo spunto di questo post mi è stato offerto dalla recente discussione, a dire il vero nemmeno tanto appassionata ed alla quale io stesso ho partecipato, che si è svolta sulla lista Archivi 23 sull’annoso ed intricato tema della conservazione della memoria digitale e sulle sue modalità di “implementazione” presenti e future.
L’input al dibattito è stata la richiesta di pareri su un “nuovo” tipo di disco ottico (chiamato M-Disk) prodotto da Millenniata e che, come suggerisce il nome, dovrebbe durare 1000 anni senza deteriorarsi in virtù dei materiali usati (nel sito non viene spiegato chiaramente come siano costruiti, si dice solo che l’uso di materiali inorganici ed altri metalloidi li rendono “non deperibili” come i “mortali” DVD). L’altro motivo che consenti(rebbe) ai dati / documenti memorizzati su tali DVD di rimanere leggibili in perpetuum è il fatto che l’incisione della superficie del disco avviene molto più a fondo, in quanto si fa ricorso ad un laser assai più potente rispetto ai consueti. Proprio per quest’ultimo motivo occorre usare un apposito “masterizzatore” prodotto da LG e che a seconda del modello (= del prezzo) può scrivere anche su CD, DVD “normali” e Blu-Ray.
Ora, sorvolando il fatto che tali decantate qualità siano più o meno vere (Millenniata porta a supporto test condotti presso il Naval Air Warfare Center di China Lake), nella Lista è stato fatto notare che: 1) la presenza di dischi ottici indistruttibili non risolve il problema dell’obsolescenza dell’hardware e del software 2) che la tendenza in fatto di archiviazione / storage, pur con tutti i noti problemi, va inesorabilmente nella direzione della cloud; quest’ultimo richiamo al cloud computing ha comportato una levata di scudi da parte di alcuni membri della Lista (significativamente si trattava di addetti nel settore informatico; tentativo di difesa di business consolidati o competente presa di posizione?) i quali in sostanza considerano il cloud una montatura o quanto meno uno specchietto delle allodole grazie al quale si spacciano per nuovi concetti vecchi, in ogni caso negando la possibilità che esso comporti concreti vantaggi. Per contro veniva salutato positivamente il “passo in avanti” compiuto con la comparsa dell’M-Disk in quanto, è stato sostenuto, almeno il problema dell’affidabilità / durabilità dei supporti di memorizzazione trovava una soluzione.
D’accordo, la speranza è l’ultima a morire, ma dovendo ragionare e soprattutto agire hic et nunc credo che l’idea di ricorrere a supporti di memorizzazione simili a quelli proposti da Millenniata non abbia molto senso e questo perché: 1) si è vincolati, in fase di scrittura, al prodotto di LG il quale, come tutti gli altri prodotti hardware, nel giro di 5 – 10 anni sarà, per l’appunto, obsoleto; bisognerà dunque sperare che LG (se esistente, cosa tutt’altro che garantita considerando i processi di merge & acquisition in atto) assicuri nel tempo la produzione dei nuovi “masterizzatori” 2) fatti quattro rapidi conti non è conveniente spendere per M-Disk che costano (al dettaglio) mediamente due dollari e mezzo in più l’uno a parità di capacità di memorizzazione (4,7 GB) se poi non potrò usarli per la predetta obsolescenza HW e SW! Che me ne faccio di dati / documenti se poi non li posso leggere / usare?! 3) Interpares ha ormai accettato il fatto che i documenti siano (relativamente) “cangianti” e che il loro “habitat” sia un sistema documentale; a mio parere che tale sistema documentale “lavori” in una server farm situata presso la sede principale dell’organizzazione (e presumibilmente altra sede decentrata) o che al contrario stia, sfruttando la nuvola, a migliaia di kilometri di distanza poco importa! Essenziale è che questa nuvola (private, common o hybrid che sia) risponda a requisiti di sicurezza (fisica e legale), tutela dei dati, integrità, affidabilità, etc. In altri termini non vedo una contraddizione tra i principali risultati teorici di Interpares (quale il concetto della permanenza all’interno del sistema, che a sua volta riprende l’istituto anglo-sassone dell’ininterrotta custodia) ed il passaggio alla nuvola, garantendo quest’ultima (se fatta bene) la medesima permanenza all’interno del sistema che può essere assicurata da una server farm tradizionale, con tutto ciò che ne consegue, vale a dire, per l’oggetto specifico di questo post, la progressiva scomparsa delle memorie di tipo ottico.

PS Sono conscio che le prassi operative di molte server house prevedono che i dati / documenti “correnti” vengano memorizzati su nastri magnetici dall’ottimo rapporto prezzo / Gb mentre quelli “storici” in tradizionali dischi ottici di norma “impilati” in juke-box o secondo altre più complesse architetture, ma nondimeno ritengo che questa soluzione, in linea con la tendenza generale verso la “dematerializzazione”, svolgerà un ruolo progressivamente residuale.