Posts Tagged ‘archivi’

Terremoti, memoria digitale e l’Italia che vorremmo

Libreria Grande Sabbioneta

La sala che ospitava la Libreria Grande di Vespasiano Gonzaga (rielaborazione)

Come già capitato in passato con alcuni post pubblicati a ridosso dei periodi di vacanza, invernali od estivi che fossero, anche in questo caso l’ispirazione mi è venuta dal breve viaggio che, dato il periodo, mi sono concesso.
Per la precisione, a cavallo del Capodanno, ho trascorso alcuni giorni seguendo un itinerario “minore” tra le province di Modena, Parma e Mantova, zone, come noto, duramente colpite dal terremoto (o meglio, dai terremoti) del 2012.
Purtroppo, è risaputo, scemato il clamore mediatico ci si dimentica di quello che è successo e si pensa che, come con un tocco di bacchetta magica, tutto sia stato risistemato e le ferite sanate.
Ovviamente, consapevoli della portata delle distruzioni e soprattutto del fatto che in Italia ogni cosa procede in tempi biblici, sotto sotto sappiamo tutti che il miracolo della ricostruzione non può essere avvenuto; ciò nonostante rappresenta un colpo al cuore andare a Sabbioneta, “città ideale” inserita nel patrimonio UNESCO, e visitare Palazzo Giardino (con la splendida Galleria degli Antichi) tra tante impalcature di sostegno e qualche abbozzo, tutt’altro che sistematico, di restauro (la guida ci ha spiegato che i lavori dovrebbero partire a mesi, speriamo!). Ancor più doloroso è visitare il complesso monastico di San Benedetto Po di Polirone, indissolubilmente legato alla figura della “grande” Matilde di Canossa, ed essere obbligati ad un percorso “a salti” a causa delle numerose sale inagibili e per di più orbo del suo pezzo forte, vale a dire il refettorio affrescato dal Correggio.
Intendiamoci, lungi da me alcuna vena polemica: una volta messi in sicurezza i luoghi è bene prendersi tutto il tempo necessario prima di partire con i restauri, in modo da eseguirli nel migliore dei modi. Però, dubbi e perplessità su quelle che sono le priorità dei nostri decisori sorgono eccome!
Si parla pressoché quotidianamente della crisi che attanaglia il settore edilizio: ebbene, tra zone terremotate (oltre all’Emilia, che qui ha offerto lo spunto, non dimentichiamo L’Aquila), aree archeologiche abbandonate all’incuria (Pompei caso simbolo ma tutt’altro che unico), zone dissestate dal punto di vista idro-geologico, scuole che cadono a pezzi, di lavoro per architetti, ingegneri, urbanisti oltre che per migliaia di operai edili “generici” ce ne sarebbe a volontà, senza dover inventarsi infrastrutture oramai inutili! Concentrandosi sui soli beni culturali come non pensare alle opportunità di impiego, collegate / complementari a questi interventi di carattere strettamente “edilizio”, che si aprirebbero per le centinaia di archeologi, restauratori ed in generale di diplomati in Conservazione dei Beni Culturali (personale dunque altamente specializzato), il cui mercato del lavoro è altrettanto asfittico?
Mi direte: ok, ma i soldi dove li ritroviamo in tempi di tagli e di pareggio di bilancio? A parte che, come ho sostenuto in altre sedi, i soldi per panem et circenses saltano sempre fuori, a Bruxelles milioni di fondi comunitari giacciono inutilizzati per l’assenza di valide proposte. Il problema di fondo, in definitiva, mi pare risieda soprattutto in una mancanza di volontà politica e di una adeguata progettualità.
Chiarito che quello dei soldi è un falso problema, mi chiederete, e stavolta a ragione: che c’azzecca tutto ciò con questo blog ed in particolar modo con la “memoria digitale”? Apparentemente molto poco, in realtà molto. Infatti, posto che (ovviamente, vien da dire, con non poca rassegnazione) tra i beni culturali in attesa di “manutenzione”, vuoi per cause straordinarie (come i terremoti in questione) od ordinarie (il naturale scorrere del tempo), numerosi sono quelli attinenti al patrimonio archivistico e bibliotecario, non dovrebbero sfuggire le possibili applicazioni nel vasto campo delle digital humanities.
Banalmente e senza particolari sforzi di fantasia, nel momento in cui andiamo a restaurare, a Sabbioneta, la Galleria degli Antichi perché non coinvolgere informatici, grafici e storici dell’arte per ricostruire virtualmente la sala, completa di marmi e statue (ora a Palazzo Ducale a Mantova, n.d.r.)? Per quanto riguarda lo specifico ambito librario Vespasiano Gonzaga allestì, all’interno del Palazzo Ducale, una fornita biblioteca, distinta in Libreria Grande e Libreria Piccola, e nel momento di far testamento dispose che la prima non andasse smembrata ma bensì rimanesse a Sabbioneta in perpetuum, affidandone le sorti ai padri della chiesa della Beata Vergine dell’Incoronata (la Libreria Piccola invece andò al genero Luigi Carrafa). Purtroppo, come in altre vicende analoghe, le buone intenzioni non poterono essere mantenute: le soppressioni napoleoniche non diedero che il colpo di grazia ad un fondo librario già gravemente rimaneggiato. Eppure, dal momento che conosciamo i titoli di molti dei libri posseduti da Vespasiano, perché non tentare di ricostruirla in maniera “virtuale” (tanto più che parte dei volumi un tempo costituenti la “Libreria Piccola” sono stati individuati nel fondo librario della biblioteca vicereale di Napoli)? Similmente, passando al versante archivistico, perché non affiancare al lavoro di scavo negli archivi italiani e stranieri (fece scalpore, qualche anno fa, la scoperta di circa 200 documenti sabbionetani inediti conservati presso la Kenneth Spencer Research Library dell’Università del Kansas) analoghe operazioni di “ricostruzione virtuale”?
Simili progetti, se andassero in porto, oltre a rappresentare altrettanti investimenti nel settore culturale con tutte le positive ricadute a beneficio della qualità della vita dell’intera collettività, contribuirebbero non poco, anche dal punto di vista meramente materiale, a mutare le prospettive di vita di tutti coloro che sulla ricchezza culturale dell’Italia hanno, giustamente, scommesso. C’è un intero paese da ricostruire, eppure si guarda colpevolmente altrove oppure, il che forse è ancora peggio, si lanciano “progetti indecenti” (altrimenti non può essere definita la vicenda dei famosi “500 giovani per la Cultura”) convinti di fare azione meritoria. Speriamo che nel 2014 qualcosa cambi.

Annunci

Dematerializzazione, pubblicato il D.P.C.M. 21 marzo 2013

Fonte: Bucap

Fonte: Bucap

In tempi di spending review appare quasi normale che si torni a parlare di dematerializzazione dei documenti, in virtù dei risparmi (di carta, di spazi, di velocizzazione dei procedimenti) che questa operazione dovrebbe consentire.
Uso il condizionale perché, purtroppo, finora il legislatore ha fatto di tutto e di più per ingarbugliare le cose. Difatti, al posto di emanare poche leggi che indicassero con chiarezza cosa dematerializzare ed aggiornare periodicamente le regole tecniche (ovvero, come materialmente effettuare la dematerializzazione), si è fatto l’esatto contrario: continui interventi legislativi che hanno finito per gettare nell’incertezza i vari attori coinvolti (archivisti, amministratori, operatori privati) e lunghe, lunghissime attese per quanto riguarda gli indispensabili “disciplinari tecnici”.
Questo modus operandi è purtroppo stato confermato in occasione della recente emanazione del D.P.C.M. del 21 marzo 2013 (pubblicato in G.U. n. 131 del 6 giugno 2013): in esso il legislatore, peraltro spinto dal nobile fine di indicare con chiarezza di quali categorie documentarie sia possibile effettuare la conservazione sostitutiva (procedendo dunque all’eliminazione dell’originale analogico) e di quali no (permanendo al contrario l’obbligo della conservazione dell’originale analogico), è caduto ripetutamente in contraddizione.
Non mi addentro qui nei dettagli, già altri l’hanno fatto con ben maggior autorevolezza della mia (macroscopiche comunque alcune incongruenze, si veda il caso degli atto notarili che vanno conservati anche in forma cartacea laddove sin dal D.L. 110/2010 “Disposizioni in materia di atto pubblico informatico redatto dal notaio” è prevista la possibilità di rogare atti notarili in ambiente digitale), mi permetto solamente di ribadire come la questione di fondo sia di metodo: è indispensabile che il legislatore legiferi poco e bene, aggiornando periodicamente (in linea con l’evoluzione tecnologica) le apposite regole tecniche e che lasci agli operatori il tempo di metabolizzare le nuove disposizioni di legge traducendole nell’attività quotidiana.
Altresì sarebbe auspicabile che la prossima volta venissero coinvolti, nell’individuazione delle tipologie documentarie destinate o meno alla dematerializzazione / conservazione sostitutiva / analogica, anche rappresentanti degli organi periferici dello Stato e degli Enti Locali: balza infatti agli occhi come le tipologie documentarie contemplate nel D.P.C.M. qui oggetto di analisi facciano riferimento soprattutto a quelle prodotte dagli organi centrali dello Stato. E’ evidente che se vogliamo raggiungere gli obiettivi prefissati in materia di razionalizzazione ed ottimizzazione della gestione documentaria, con i conseguenti risparmi di spesa, si deve agire tutti assieme e preferibilmente in maniera coordinata e condivisa.

BYOD in archivi e biblioteche: bello ma impossibile?


BYOD Turns Up the Heat on Wi-Fi Performance

BYOD Turns Up the Heat on Wi-Fi Performance di Fluke Networks, su Flickr

Va bene che negli States sono avanti rispetto a noi di qualche annetto, però sarebbe forse veramente l’ora di iniziare a parlare seriamente anche qui nel Belpaese dell’importante fenomeno del BYOD (Bring Your Own Device), ovvero dell’uso in ambito lavorativo dei vari dispositivi tecnologici (soprattutto smartphone e tablet ma anche i vari ultrabook, notebook e netbook…) che ciascuno di noi oramai possiede ed usa quotidianamente per i più disparati motivi: creare e fruire di contenuti digitali (libri, film, musica), navigare in Rete, relazionarsi con amici e familiari.
La necessità si fa tanto più urgente alla luce dei risultati di un recente studio condotto da Gartner presso un qualificato panel di CIO: ebbene, il 38% dei responsabili dei servizi tecnologici ritiene che di qui al 2016 le proprie aziende smetteranno di fornire ai propri dipendenti i summenzionati device.
Infatti, prendendo atto del fatto che già oggi i propri addetti usano i dispositivi forniti dall’azienda per scopi personali ed utilizzino applicativi consumer anche per risolvere questioni di lavoro, si è giunti alla conclusione che è più conveniente lasciare che siano questi ultimi a farsi carico dell’acquisto di questi device impegnandosi però a fornire un contributo nei costi di esercizio / gestione. Il tutto nella convinzione che: “the benefits of BYOD include creating new mobile workforce opportunities, increasing employee satisfaction, and reducing or avoiding costs”.
Personalmente ritengo questa impostazione corretta e la spinta verso un simile scenario del resto difficilmente contrastabile; è pertanto il caso di fare alcune veloci considerazioni sugli inevitabili pro e contro, anche in considerazione del fatto che ad essere coinvolto di questo radicale cambiamento di impostazione non sarà, sempre secondo Gartner, il solo ambiente corporate ma anche quello dei Governi e delle pubbliche amministrazioni.
La prima considerazione che viene, quasi spontaneamente, da fare è la seguente: dal momento che il processo di informatizzazione delle pubbliche amministrazioni italiane è stato fortemente rallentato negli ultimi anni dalla cronica penuria di soldi, tanto per gli acquisti quanto per l’indispensabile formazione del personale, l’adozione del modello del BYOD garantirebbe rilevanti risparmi in entrambi i settori: per quanto riguarda le acquisizioni, semplicemente queste verrebbero a cessare (solo per alcune tipologie di device, naturalmente; n.d.r.) e resterebbero da mettere a bilancio le spese per i soli costi di gestione (che comunque già si sostengono)! Non meno evidenti ed immediati sarebbero i risparmi sul fronte della formazione dal momento che si presume che il proprietario sappia usare il proprio smartphone e tablet! Tutto ciò ovviamente in linea teorica perché, e così arriviamo alla seconda considerazione, c’è da chiedersi se il passaggio al BYOD non rappresenterebbe una sorta di “salto nel vuoto” alla luce delle carenze infrastrutturali che affliggono le nostre pubbliche amministrazioni. Sono infatti dell’avviso che il BYOD abbia senso solo se procede di pari passo con l’adozione di tecnologie cloud sulle quali, come noto, ci sono parecchie riserve. Arriviamo così al nocciolo della questione (aspetto peraltro sollevato anche dai CIO intervistati da Gartner): quali sono i rischi per la sicurezza dei dati (data leakage) e dei documenti? Evidentemente sono elevati ed è inutile dire che grossi sforzi andrebbero fatti in questo settore a più livelli: da una parte assicurandosi che i device utilizzati dagli appartenenti all’organizzazione rispondano ad alcuni requisiti minimi di sicurezza, applicando dunque ai soli dispositivi verificati i dettami del BYOD (va in questa direzione il progetto di valutazione condotto dal Pentagono sui principali smartphone in commercio; un ulteriore vantaggio di questa politica è quella di diversificare le piattaforme usate – in termini di sistema operativo – e di indipendenza da specifici fornitori, n.d.r.), dall’altro diffondendo una cultura della sicurezza (informatica) a tutti i livelli dell’organizzazione.
Venendo infine a parlare delle conseguenze del modello BYOD su archivi e biblioteche, conseguenze inevitabili essendo questi istituti a tutti gli effetti incardinati nell’apparato statale, le ripercussioni sono diversamente valutabili a seconda del livello in cui ci si colloca.
Ponendosi ad esempio al livello degli archivisti e dei bibliotecari in quanto “lavoratori”, il progressivo processo di professionalizzazione che ha investito questi che fino a pochi anni fa erano ancora mestieri (con l’instaurazione di rapporti di lavoro sempre meno di tipo dipendente ed al contrario sempre più di “prestazione occasionale” / collaborazione) ha reso assai frequente il fatto che essi utilizzino durante il lavoro i propri laptop, etc. In questo senso pertanto il BYOD potrebbe anche non rappresentare un fattore di dirompente novità. Similmente non è da escludere che l’uso di ambienti di lavoro e di dispositivi simili in quanto consumer non contribuisca ad aumentare il livello di empatia tra i primi ed i secondi nonché che possa condurre ad una migliore comprensione dei problemi di natura “pratica” cui potrebbero incorrere i secondi anche nel solo utilizzo dei servizi e delle risorse approntate. Non meno importante, in quest’ottica di omologazione tra strumenti professionali e consumer, il ricorso ai social network quali principali strumenti di comunicazione / promozione (laddove ad esempio in ambito bibliotecario fino a pochi anni fa ci si affidava, per la comunicazione, alle piattaforme ad hoc sviluppate all’interno dei primissimi SOPAC…).
A fianco di questi aspetti complessivamente positivi non si possono comunque tacere gli innegabili aspetti negativi (perlopiù dal lato degli archivi): non si tratta solo dei summenzionati rischi di perdita dei dati / documenti, il problema è molto più alla radice!
Con il paradigma BYOD è il confine stesso tra pubblico e privato a farsi labile: mail, progetti, documenti, etc. di lavoro rischiano di mescolarsi pericolosamente con quelli privati in un vortice inestricabile di file e cartelle! Ed il dubbio se un documento sia pubblico (= da inserire nell’archivio dell’organizzazione) o privato (= da inserire nell’archivio di persona del membro dell’organizzazione) o peggio ancora un ibrido difficilmente collocabile rischia di minare la trustworthiness complessiva dell’archivio. Perché un documento può anche essere stato al sicuro “incorrotto” dentro al sistema ma se ad essere messa indubbio è la sua appartenenza stessa all’archivio, secolari certezze rischiano di venire improvvisamente meno.

Mendeley e Pulse, ovvero, quando quel che conta è il contenuto

Mendeley

Mendeley di AJC1, su Flickr

Evidentemente agli startupper la propria azienda sta a cuore fino ad un certo punto, nel senso che molti sembrano più interessati a farla crescere per poi venderla alla prima “offerta irrinunciabile” (salvo giustificare la vendita stessa come indispensabile per garantire un futuro florido) piuttosto che accompagnarla nel non sempre facile processo di crescita.
E’ proprio questa la sorte capitata in settimana, dopo insistenti rumor, a due aziende la cui attività riguarda in modo più o meno diretto archivi e biblioteche: la prima è la cessione di Mendeley al colosso editoriale Elsevier, la seconda quella di Pulse a LinkedIn.
L’acquisizione di Mendeley lascia un po’ l’amaro in bocca: su questa piattaforma (usata per generare citazioni e bibliografie, diffondere e condividere ricerche, creare gruppi di lavoro online su specifiche tematiche) la comunità accademica, già ai ferri corti con le case editrici ed il contestato sistema dell’impact factor, aveva scommesso forte e si può immaginare il disappunto e la sincera preoccupazione alla notizia che Mendeley finisce dritta dritta in pancia ad uno dei colossi dell’editoria mondiale!
E’ infatti evidente, in un mondo iperconnesso in cui i progetti di ricerca sono molteplici e spesso transnazionali, l’importanza di una piattaforma, possibilmente indipendente / neutra, che permetta di confrontare, scambiare e diffondere i rispettivi risultati! Viene dunque un po’ di rammarico a vedere che le biblioteche (universitarie in primis), che pure in fatto di organizzazione e disseminazione avrebbero qualcosa da dire, rimangono ai margini di quel processo di creazione che esse stesse, grazie alle risorse (bibliografiche e non) messe a disposizione, concorrono a produrre.
Analogo lo stato d’animo e le considerazioni che si possono fare riguardo alla seconda notizia: del fatto che LinkedIn fosse intenzionato a trasformarsi in un vero hub in cui aziende e professionisti non solo pubblicano i propri curricula, ricercano / offrono opportunità di lavoro ed estendono la propria rete di contatti ma anche nel quale pubblicano i propri lavori, paper interni, etc. ne avevo già dato conto in un precedente post. Con l’acquisizione di Pulse (piattaforma per la personalizzazione, selezione e condivisione delle notizie) viene messo un ulteriore tassello nella direzione, stando alle parole di Deep Nishar, di creare “[a] definitive professional publishing platform — where all professionals come to consume content and where publishers come to share their content”. In altre parole quando questa vision sarà realizzata su LinkedIn troveremo non solo letteratura grigia ma pure fresche ed altrettanto preziosissime informazioni!
Una linea di sviluppo indubbiamente interessante al punto che, sorvolando ora sul triste fatto che archivi e biblioteche sono tagliate fuori dai giochi, LinkedIn potrebbe divenire utile luogo di incontro pure per gli archivisti ed i bibliotecari: infatti, in parte perché costretti (la Pubblica Amministrazione non rappresenta più per i noti motivi lo sbocco professionale per eccellenza) in parte per precisa volontà di affermare lo statuto e la dignità delle rispettive professioni (ANAI ed AIB da anni si battono per ottenere il giusto riconoscimento), è in atto un profondo processo di professionalizzazione di questi che fino a qualche tempo fa erano piuttosto mestieri. Su LinkedIn dunque archivisti e bibliotecari, dove per inciso sono già presenti (qui per puro esempio il link ai “colleghi” della sezione Piemonte e Valle d’Aosta), potrebbero al pari di ingegneri, architetti, commerciali, esperti di marketing, etc. pubblicare il proprio CV, reperire offerte di lavoro, entrare in contatto con aziende ed enti, pubblicare articoli e saggi, leggere le principali novità di loro interesse! Si tratterebbe sicuramente di un interessante luogo di confronto e crescita professionale!
In conclusione, si può trarre un importante insegnamento generale dalle acquisizioni di Mendeley e Pulse: queste due società sono diventate appetibili rispettivamente per Elsevier e LinkedIn in quanto ricche di contenuti: sono questi ultimi, specialmente quando legati alle persone ed alle relative reti relazionali, a generare il vero valore aggiunto! Quest’ultimo infatti ha il pregio di essere infungibile e difficilmente imitabile e finisce per tradursi in un maggior valore complessivo (anche economico) dell’azienda. Ne consegue a cascata per i professional, tra i quali ascrivo pure archivisti e bibliotecari, la seguente lezione: puntare sulla sostanza e meno sui fronzoli (leggasi: titoli di studio e cariche ricoperte), curare il proprio profilo (dandogli valore magari attraverso la diffusione di parte delle proprie conoscenze) e la propria cerchia di “contatti” nella consapevolezza che tutto ciò può voler dire maggiori opportunità di lavoro. Lungo questa via dovrebbero muoversi pure archivisti e bibliotecari i quali sono indubbiamente ricchi di “contenuti” e dotati, direi quasi per vocazione, di capacità relazionali. Il che non può che essere motivo di speranza.

L’ebook cambia il rapporto con le fonti documentarie?

Forum del Libro e della Letteratura

Forum del Libro e della Letteratura (Vicenza, 26-28 Ottobre 2012)

Sabato scorso, in occasione della nona edizione del “Forum del libro e della lettura” ho avuto la ventura di assistere ad un interessantissimo workshop nel quale si è cercato di delineare le possibili evoluzioni del libro in ambiente digitale. Come anticipava il titolo dell’incontro (“Sul futuro del libro: la lettura tra web 2.0 e mp3”) l’orizzonte nel quale ci si è mossi ha spaziato dall’ebook di puro testo ai libri “potenziati” (enhanced ebook) fino agli audiolibri; insomma, la carne messa al fuoco è stata moltissima e giocoforza non tutte le questioni sollevate hanno potuto essere sviluppate appieno.
Personalmente ho trovato particolarmente interessante la tematica sollevata da Effe (uno dei relatori) con il caso oramai da manuale di eZagreb, il romanzo di Arturo Robertazzi ambientato ai tempi delle guerre balcaniche che, nella sua versione digitale, contiene oltre alla parte di finzione rimandi a mappe, articoli di giornale, documenti ufficiali del Tribunale Penale Internazionale dell’Aja ed altro materiale “vero”.
Trascendendo ora dal caso specifico, non occorre possedere una fervida fantasia per immaginare come a breve avremo a che fare con libri digitali che, un po’ come i CD-ROM degli anni Novanta, saranno arricchiti non solo di testi ed immagini ma pure di audio e di video (le opinioni sullo stato attuale dell’arte sono state discordi: a detta di alcuni le soluzioni tecnologiche sono già disponibili, per altri non ci sono oppure i risultati non sono soddisfacenti oppure ancora sono raggiungibili solo con cospicui investimenti peraltro economicamente non giustificabili dal momento che un mercato ben definito – a dirla tutta – nemmeno esiste).
Come si capirà le potenzialità sono enormi: se le prime ad essere beneficiate dovrebbero essere le edizioni per ragazzi ed i testi scolastici, lo storico (sopito) che è in me non ha potuto non rilevare come potrebbe venir riscritto il rapporto attualmente esistente con quelle fonti imprescindibili per attestare la scientificità dell’opera ed è su quest’ultimo aspetto che vorrei ora soffermarmi. Perlomeno tre sono a mio avviso i punti rimarchevoli:
1) la fine del primato delle fonti documentarie scritte: la diffusione di dispositivi capaci di catturare suoni e filmati è sotto gli occhi di tutti ed il loro facile utilizzo (in termini di ricerca e riproduzione) da una parte nonché la mole di “documenti” realizzabili dall’altra lascia supporre che le prossime generazioni di storici non potranno che farne un uso più esteso rispetto a quanto fatto finora, ad esempio, con le fonti orali
2) la verificabilità pressoché immediata delle fonti utilizzate: quel complesso apparato fatto di note, rimandi, riferimenti bibliografici a cui siamo stati abituati in fin dei conti ci dava solo la possibilità teorica (e questa in definitiva ci bastava!) di verificarne l’esattezza. All’atto pratico infatti ben pochi avevano la possibilità (e men che meno la voglia!) di verificare di persona recandosi in questo archivio od in quella biblioteca… Oggi invece con un click del mouse o con un tocco delle dita abbiamo modo di accedere direttamente alla fonte utilizzata per supportare una interpretazione od avvalorare una tesi, verificando di persona; ne consegue che lo storico non solo è costretto a fare un uso il più accorto possibile delle fonti medesime ma anzi deve ad esse attenersi con il massimo scrupolo, pena il vedere il proprio lavoro screditato
3) il tramonto delle fonti ufficiali: la ricerca della verità storica, ammesso che sia raggiungibile, non si basa più sull’uso praticamente esclusivo di fonti di provenienza ufficiale (leggasi: gli Stati) bensì prevede il ricorso a fonti prodotte anche in modo meno istituzionalizzato (mi verrebbe da usare il termine “accidentale”) dai più svariati soggetti produttori. Si badi comunque che anche queste ultime fonti, per quanto mediamente più “genuine”, vanno “maneggiate con cura” soprattutto perché, nel momento in cui si fanno meno mediate (il video realizzato in presa diretta di una cruenta battaglia possiede sicuramente una carica emotiva più forte del resoconto della stessa stilato a tavolino da una commissione militare!) diventano paradossalmente anche più difficilmente “elaborabili”! Ma a prescindere da queste controindicazioni credo che la produzione storiografica che verrà, basandosi su un mix più equilibrato di fonti, sarà in ogni caso complessivamente meno sbilanciata (non uso appositamente il termine “oggettiva”) e meno unilaterale, il che mi sembra un bene.
Non è superfluo, per concludere, sottolineare come l’utilizzo di queste fonti all’interno dei libri digitali del futuro non potrà prescindere da un adeguamento degli archivi (senza peraltro con ciò suggerire che questi istituti debbano essere piegati agli interessi degli storici!): si va dalla necessità di adottare formati capaci di essere “integrati” in questa sorta di super-libri all’esigenza alternativa di garantire la loro “linkabilità” duratura nel tempo (sarebbe assurdo che un testo perdesse il suo apparato di note perché i link ai quali esso rimanda sono morti – definiti in gergo link rot, n.d.r.) fino ovviamente alla loro leggibilità (il link non solo deve essere attivo, ma la risorsa mirata usabile!). Tutti obiettivi conseguibili solo predisponendo infrastrutture informatiche capaci di garantire la conservazione nel lungo periodo di “risorse” identificabili univocamente nel tempo.
Val la pena infine evidenziare che, venendo meno la centralità degli archivi “ufficiali”, sarà importante che tutti i soggetti produttori sviluppino una ben definita “cultura dell’archivio”, senza la quale ben poco di affidabile (trusted) è destinato a rimanerci, nonché acquisiscano competenze adeguate a trattare un materiale che verosimilmente sarà molto più eterogeneo di quello sin qui prodotto. Non c’è che dire: sfide complesse ci attendono!

L’insegnamento della quotazione di Facebook ovvero l’importanza di avere un modello di business sostenibile

Facebook entró al mercado Nasdaq

Facebook entró al mercado Nasdaq di clasesdeperiodismo, su Flickr

Il recente flop della quotazione di Facebook al NASDAQ, con tutto lo strascico di polemiche ed azioni legali che si è portato dietro, merita un approfondimento giacché da esso si può prendere spunto per alcune riflessioni valide pure per il settore editoriale.
Partiamo dall’inizio: com’è potuto accadere che “la più grande IPO tecnologica di tutti i tempi” sia finita così male, con il titolo che nel momento in cui scrivo quota attorno ai 31 dollari, ben al di sotto dei 38 euro di collocamento?! E’ successo che attorno alle operazioni di sbarco in borsa si è creato un enorme battage mediatico il quale ha fatto sfuggire ai più un “piccolo” dettaglio: Facebook, constatato che molti dei suoi utenti accedono ai suoi servizi attraverso dispositivi mobili, aveva modificato il proprio “prospetto informativo” agli investitori nel punto in cui si parlava dei futuri introiti. Già, perché i proventi per utente mobile sono assai inferiori rispetto a quelli “tradizionali” da PC. Il bello è che tutte queste informazioni erano pubbliche e non ha dunque senso ora andare a prendersela con Morgan Stanley (che avrà pure comunicato ad un numero ristretto di investitori le sue analisi aggiornate e fatto operazioni di vendita poco trasparenti): Josh Constine aveva spiegato tutto per filo e per segno in un dettagliato post su Techcrunch con tanto di documento presentato alla SEC!
Il punto cruciale è proprio questo: lo spostamento verso il mobile sta ulteriormente cambiando i modelli di business di Internet, prevalentemente basati sulla pubblicità, e questo vale non solo per Facebook, che forse non ne ha mai avuto uno, ma anche per Google: i click sugli ads di Mountain View calano assai se la navigazione avviene in mobilità!
Alla luce di quanto finora detto la domanda interessante da porsi è la seguente: quali saranno le conseguenze di questo shifting nel settore editoriale?
Ovviamente sull’argomento si potrebbe scrivere un trattato ed in questa sede l’analisi non può che essere di poche righe; resterò dunque parecchio sul generale con l’ulteriore precauzione, per praticità espositiva, di affrontare separatamente i settori dell’editoria periodica e dell’editoria libraria nonostante nella realtà i principali gruppi operino in entrambi i campi.
Partiamo dall’editoria periodica (con un occhio di riguardo per il giornalismo, il segmento a sua volta più effervescente), la quale complessivamente arranca con un calo sensibile delle vendite delle copie fisiche (e di conseguenza del giro d’affari) ed una crescita numerica degli utenti della versione digitale (= sito online + versione ad hoc per tablet od ereader) alla quale però non corrisponde un parallelo aumento dei ricavi derivanti dalle inserzioni pubblicitarie. Morale della favola: i costi sono in disordine od al massimo in precario equilibrio (e questo vale anche per le testate interamente online, la cui semplice sopravvivenza rappresenta già un successo). Inserito in questo contesto il passaggio alla navigazione in mobilità rappresenta un duplice pericolo giacché, ammettendo che valga la regola che calano gli introiti pubblicitari, i conti rischiano di sprofondare in rosso una volta per tutte! Né, allo stato delle cose, ricorrere alle app sembra essere risolutivo: sono proprio queste quelle in cui la pubblicità deve giocoforza essere maggiormente “occultata”, riducendo di conseguenza le possibilità di click. L’alternativa, ovvero farsi pagare per le news, non mi convince molto perché in Internet la gente si è abituata a trovare gratis anche quel che prima pagava senza batter ciglio; in questo senso l’esperienza del New York Times, con ripetuti tentativi di passare al modello pay ed altrettanti ritorni è emblematica delle difficoltà di trovare una soluzione accettabile (attualmente il NYT propone diversi “piani tariffari” e i risultati sembrano essere soddisfacenti).
Almeno sulla carta per gli editori librari la situazione è propizia, dal momento che la navigazione in mobilità avviene attraverso quei dispositivi (tablet ed ereader) che sono volano imprescindibile per la diffusione dei libri digitali. In realtà, lasciando ora stare il fenomeno pirateria e la probabile entrata di nuovi temibilissimi competitor, la situazione è molto più ingarbugliata di quanto si creda e per capirlo può essere utile dare un’occhiata a quanto capitato al settore discografico, dove al crollo delle vendite di CD ha fatto sì da contraltare un aumento dei download e degli ascolti in streaming a pagamento ma senza riuscire a tornare al giro d’affari precedente all’avvento del digitale (il che è peraltro normale dal momento che, a parità di “dischi” venduti, quelli digitali costano meno – per fortuna – dei corrispettivi analogici per via dei minori costi di produzione). Dovesse l’editoria libraria seguire un percorso analogo, c’è dunque da aspettarsi un passaggio da analogico a digitale (posto che la transizione sarà lunga e che le due realtà coesisteranno a lungo) che comporterà dolorose ristrutturazioni e soprattutto metterà in crisi i bilanci di quelle aziende “ibride” (vale a dire la maggior parte) che dovranno sopportare tanto i costi della carta quanto quelli necessari per passare alle nuove modalità di produzione, distribuzione e vendita. In tutto questo trapasso quelle case editrici esclusivamente digitali sorte negli ultimi anni potrebbero risultare avvantaggiate non dovendo sostenere, per l’appunto, quei costi fissi propri dell’old economy.
Tirando le somme l’editoria periodica, che aveva riposto le sue speranze sulla pubblicità, vede queste ultime vacillare dal passaggio al mobile e pure l’editoria libraria dovrà ristrutturarsi tenendo conto che il giro d’affari futuro, a parità di vendite, potrebbe essere inferiore all’attuale. La scommessa è dunque riuscire a vendere di più, obiettivo raggiungibile a mio avviso proponendo formule innovative del tipo “pacchetti” flat (con 50 euro annui si possono leggere libri illimitati, un po’ come fa Amazon, oppure una combinazione a scelta “libro + periodico”) o, ancor meglio, una “ricarica” di 50 euro per un TOT di contenuti (articoli di giornale, libri o sue parti, etc.) o quant’altro possa risultare appetibile oltre che comodo per l’utente/cliente. Insomma, le possibilità ci sono ed il bello del digitale è che consente formule prima impensabili.

PS Da rimarcare come il processo di shifting to mobile non danneggi il settore “archivistico” ma al contrario apra nuove possibilità di business, argomento che sarà oggetto di un prossimo post.

La natura infrastrutturale degli archivi contemporanei

IMG_20110415_151845 di GrigorPDX, su Flickr

Left: air filters - they look like plain old disposable filters you'd have in your furnace. Right top: louvers leading to outside air Right bottom: louvers leading to the "hot" side of the data center racks.
(Foto di GrigorPDX, su Flickr)


INTRODUZIONE.

In un celebre quanto datato articolo Robert-Henry Bautier, insigne archivista e medievista francese, proponeva una interessante periodizzazione circa la storia degli archivi; in particolare egli individuava quattro fasi, la terza delle quali veniva definita come “celle des archives arsenal de l’authorithé” e che sarebbe stata caratterizzata dalla concentrazione dei fondi all’interno di edifici realizzati ad hoc che erano in tutto e per tutto castelli, vale a dire muniti di fossati, mura e torrioni difensivi in pietra (da manuale i casi del castello di Simancas in Spagna oppure quello di Castel Sant’Angelo nello Stato Pontificio). Dietro a simili realizzazioni stava una concezione che attribuiva ai documenti un’importanza decisiva per il regolare andamento della macchina amministrativa, l’attestazione dei diritti e delle prerogative regie così come per l’attuazione della politica estera (per riprendere Bautier gli archivisti, e gli archivi, “se font auxiliaires de la politique e de la diplomatie“) motivo per cui la dimensione del corretto ordinamento delle carte procedeva di pari passo con quella della loro “sicura custodia”. Insomma, il ricorso a questa terminologia “militaresca” da parte di Bautier non era dettato da semplici motivazioni retoriche ma dalla constatazione di una realtà oggettiva: così come l’arsenale è una struttura deputata alla costruzione, alla riparazione, all’immagazzinamento ed alla fornitura di armi e munizioni, similmente l’archivio era il luogo in cui trovavano riparo quei documenti che sarebbero stati usati alla stregua di armi nel corso delle bella diplomatica del XVII secolo.

I DATA CENTER, ARSENALI DEL XXI SECOLO.

Con le debite differenze, sulle quali torno poco sotto, mi sembra che gli odierni “arsenali archivistici” siano rappresentati dagli enormi data center che si vanno costruendo in giro per il mondo; il paragone appare calzante in quanto 1) in essi si vanno concentrando le “memorie digitali” relative a milioni e milioni di persone, enti ed aziende 2) nella loro realizzazione vengono adottate precauzioni ed accorgimenti del tutto affini a quelle delle basi militari. Basta dare una scorsa alle misure di sicurezza messe in campo da Amazon per capire come l’accostamento con la realtà militare sia tutt’altro che campato per aria:

Amazon has many years of experience in designing, constructing, and operating large-scale data centers. This experience has been applied to the AWS platform and infrastructure. AWS data centers are housed in nondescript facilities, and critical facilities have extensive setback and military grade perimeter control berms as well as other natural boundary protection. Physical access is strictly controlled both at the perimeter and at building ingress points by professional security staff utilizing video surveillance, state of the art intrusion detection systems, and other electronic means. Authorized staff must pass two-factor authentication no fewer than three times to access data center floors. All visitors and contractors are required to present identification and are signed in and continually escorted by authorized staff.

Amazon only provides data center access and information to employees who have a legitimate business need for such privileges. When an employee no longer has a business need for these privileges, his or her access is immediately revoked, even if they continue to be an employee of Amazon or Amazon Web Services. All physical and electronic access to data centers by Amazon employees is logged and audited routinely.

Fin qui le affinità; venendo alle differenze, ve ne sono due di macroscopiche: 1) gli archivi residenti nei data center, per quanto militarizzati, almeno in linea di principio non sono concepiti per essere al servizio di un qualche potere vessatorio ma bensì sono la base per offrire “servizi” e/o custodire dati, documenti, etc. di cittadini liberi, di aziende operanti nel libero mercato e di istituzioni democratiche 2) diversamente dai secoli passati, lo Stato sembra latitare ed i principali data center sono di proprietà di colossi ben noti al grande pubblico come Amazon, Apple, Google, Facebook ma anche di provider / fornitori come Carpathia, Cogent, OVH, Rackspace, Digital Realty; operatori che ovviamente poi sono ben lieti di offrire i propri “servizi” ai vari enti pubblici! Ad esempio sia Amazon che Carpathia hanno sviluppato apposite soluzioni per il Governo Federale degli Stati Uniti, il quale attinge largamente in modalità cloud computing a questo tipo di servizi (cliccate qui per una lista parziale); in Europa invece, essendo la legislazione comunitaria relativa al trasferimento transfrontaliero dei dati decisamente più restrittiva, si è molto più cauti nell’affidarsi a privati.
Ciò nonostante, ragionando in prospettiva, è verosimile ipotizzare che nell’Unione Europea o si allenteranno le citate restrizioni al trasferimento dei dati (a riguardo si sta delineando una spaccatura tra stati nordici, non disponibili ad un simile passo, e stati mediterranei, più possibilisti), dando dunque la possibilità di avvalersi dei servizi offerti da privati, oppure si procederà alla realizzazione di data center europei in territorio europeo. Personalmente ritengo la seconda opzione come la più lungimirante per i seguenti motivi: 1) il possedere dei data center è, dal punto di vista archivistico, premessa necessaria (ma non sufficiente) per attuare le indispensabili procedure tese a garantire la continuità operativa ed il disaster recovery (il che consente in primis di salvaguardare la parte “corrente”, vale a dire quei dati e documenti contenuti nei server ed indispensabili per il proseguimento dell’attività “istituzionale” del produttore, ed in ultima analisi di garantire la conservazione nel lungo periodo; ovviamente anche un privato può attuare questi piani ma quando si tratta della cosa pubblica e, soprattutto, sono in ballo aspetti così delicati, sono dell’avviso che la P.A. debba occuparsene direttamente) 2) assicura indipendenza ed in un ultima analisi “libertà”. Il rovescio della medaglia, evidente, è che ci si deve fare carico di tutti i costi: realizzativi, di gestione e di manutenzione.

DATA CENTER: MODELLI REALIZZATIVI, ASPETTI TECNICI…

La maggior parte dei moderni data center non è costituita da pochi supercomputer o pochissimi mainframe, bensì dall’unione all’interno di un medesimo spazio fisico di migliaia di elaboratori di fascia medio – bassa. E’ questo, tra i tanti, l’approccio di Google che significativamente lo definisce wharehouse computing e così lo descrive:

The hardware for such a platform consists of thousands of individual computing nodes with their corresponding networking and storage subsystems, power distribution and conditioning equipment and extensive cooling systems. The enclosure for these systems is in fact a building structure and often indistinguishable from a large warehouse

Tale definizione individua quelli che sono gli elementi principali di un data center ovvero “n” elaboratori, custoditi in una sorta di armadietto definito in gergo rack, a loro volta siti all’interno di un edificio e collegati tra di loro. Da ciò deriva che in un DC ricoprono un ruolo cruciale i seguenti sistemi:
1) UPS (Uninterruptible Power Supply; Gruppo di Continuità), il quale assolve a tre compiti fondamentali, ovvero a) garantire l’erogazione continua di energia elettrica alla struttura e, qualora dovesse verificarsi un’interruzione nella fornitura da parte della public utility, b) far intervenire la batteria fintantoché non interviene il generatore di emergenza, il tutto c) senza che si verifichino dannosi sbalzi di tensione
2) PDU (Power Distribution Units), ovvero il sistema di distribuzione dell’energia elettrica, distribuzione che avviene attraverso quadri e/o interruttori elettrici in genere “annegati” nel pavimento del data center
3) sistema di condizionamento; il metodo più diffuso vede la presenza di CRAC (Computer Room Air Conditioning), vale a dire di “stanze” dalle quali spira aria fredda che, scorrendo sotto il pavimento (tra il pavimento vero e proprio e quello che effettivamente si calpesta e sul quale sono collocati rack, CRAC, etc. può esserci sino ad un metro e mezzo di spazio vuoto; n.d.r.), esce attraverso delle specie di grate giusto in corrispondenza dei rack da raffreddare; l’aria calda uscita dai rack fluisce verso l’alto all’interno di un ulteriore spazio vuoto posto nel soffitto e di qui indirizzata verso il CRAC per riprendere il circolo. Nei DC più evoluti la gestione dei flussi d’aria è così raffinata che ad ogni singolo server perviene la necessaria aria di raffreddamento alla temperatura ottimale (una via alternativa è il cosiddetto in-rack cooling nel quale ogni “armadietto” è praticamente “cablato” da serpentine che fungono da scambiatori di calore; questa soluzione ovviamente ottimizza il raffreddamento ma è assai costosa dal momento che l’impianto di raffreddamento viene ad estendersi su tutta la superficie del centro dati oltre che relativamente più pericolosa giacché, in caso di rottura delle serpentine, il liquido di raffreddamento potrebbe finire sulla parte elettrica… evenienza assolutamente da scongiurare!).

Cabinet Airflow

Cabinet Airflow di talk2stu, su Flickr

Va ricordato, per finire, che per aumentare il livello di sicurezza spesso e volentieri i citati elementi sono ridondanti; così se in un data center Tier I vi è un’unico canale di raffreddamento e di distribuzione dell’energia in un Tier IV (il più elevato della scala) ve ne sono due di attivi oltre che ulteriori percorsi di emergenza. Non va ovviamente neppure dimenticato che fondamentale risulta essere la localizzazione geografica del data center: non dovrebbe trovarsi, ad esempio, in zone sismiche, in prossimità di corsi d’acqua ed in generale in aree soggette ad allagamenti o frane (“a rischio idro-geologico”) così come andrebbero evitate zone troppo fredde od al contrario troppo calde! Inoltre, sarebbe auspicabile che nella realizzazione dei DC europei si metabolizzasse l’approccio “green” di Gartner e, pertanto, si facesse ricorso a fonti di energia rinnovabile.

… E L’OBIETTIVO INDEROGABILE DELLA CONTINUITA’ OPERATIVA.

Castelli e fortezze, spesso progettati dai migliori architetti militari, erano in grado di resistere a lunghissimi attacchi ed assedi senza che si verificasse un sensibile degradamento della loro capacità bellica; similmente tutte le soluzioni tecnologiche descritte nella precedente sezione sono finalizzate a garantire la continuità operativa (business continuity), ossia il normale funzionamento dei servizi ICT utilizzati per lo svolgimento delle attività istituzionali, anche in presenza di disguidi tecnici, di “attacchi” o di altri eventi imprevisti. A fronte di avvenimenti che provocano l’indisponibilità prolungata del data center in cui normalmente si opera / al quale ci si appoggia (sito primario), viene attivato il piano di disaster recovery, il quale prevede l’attuazione di un mix di soluzioni tecnologiche ed organizzative tese a garantire la pronta ripresa dell’attività istituzionale in siti alternativi (detti secondari) rispetto a quelli primari/di produzione per il tempo necessario a rendere nuovamente operativo il sito primario.
Si tratta, manco a dirlo, di argomenti da tempo dibattuti in ambito internazionale ma che in Italia, dal punto di vista legislativo, solo di recente hanno finalmente trovato piena recezione; ad esempio le “Linee guida per il Disaster Recovery delle Pubbliche Amministrazioni”, redatte ai sensi dell’art. 50-bis, co. 3 del CAD (D. Lgs. 82/2005), hanno visto la luce solo nell’autunno 2011 ed imponevano che ogni ente presentasse entro il 25 aprile 2012 un Piano di Continuità Operativa (PCO) ed uno di Disaster recovery (PDR), individuando contestualmente una figura responsabile (RCO). Al di là del fatto che le varie amministrazioni abbiano ottemperato o meno nei tempi prescritti ai suddetti obblighi di legge, mi preme qui rilevare come l’input sia stato essenzialmente “archivistico”: nelle citate Linee Guida si trova infatti testualmente scritto che “il processo di dematerializzazione promosso dal CAD […] ha trasformato da ordinatoria a perentoria l’azione di eliminazione della carta, comporta[ndo] un incremento della criticità dei sistemi informatici che non possono più contare su un backup basato sulla documentazione cartacea”.
Da quanto innanzi detto derivano a cascata alcuni cambiamenti di una certa portata:
1) la continuità operativa ed in subordine il disaster recovery sono possibili a patto di individuare preliminarmente, accanto al sito primario, un sito secondario al quale trasferire come operazione di routine i dati / documenti prodotti dal primario; in caso di “problemi” il sito secondario diviene temporaneamente operativo fintantoché il primario non ritorna disponibile e pertanto deve disporre delle necessarie risorse hardware e software =>
2) nelle procedure di BC / DR diventa un fattore cruciale il trasferimento tra i due siti; le Linee Guida prevedono sei livelli (Tier 1 – 6) nei primi due dei quali il trasferimento consiste nel trasporto fisico (ad esempio a mezzo di apposito furgone) dal sito primario a quello secondario dei dischi ottici contenenti la copia di backup. E’ inutile sottolineare, però, come nell’epoca di Internet, grazie anche all’innalzamento delle velocità di upload / download ed ai migliori tempi di latenza, la Rete sia la soluzione più in voga e come il paradigma del cloud computing sia la soluzione sulla quale oggi si punta di più
3) dando per assodato che il trasferimento dei dati avvenga attraverso la Rete, va osservato che le operazioni di copia (Data Mirroring) finiscono per riguardare anche gli applicativi; le Linee Guida infatti lo definiscono “un processo con cui dati ritenuti critici vengono copiati secondo precise regole e politiche di backup al fine di garantire l’integrità, la custodia e la fruibilità degli archivi, dei dati e delle applicazioni e la possibilità di renderli utilizzabili, ove fosse necessario, procedendo al ripristino degli archivi, dei dati e delle applicazioni presso un sito alternativo a quello primario”. In particolare uno degli obiettivi principali è ottenere l’allineamento dei dati (ovvero il “coordinamento dei dati presenti in più archivi finalizzato alla verifica della corrispondenza delle informazioni in essi contenute”; per inciso l’allineamento, a seconda del Tier prescelto, può essere asincrono o sincrono) ed eventualmente il retroallineamento (ovvero “caricare” i dati prodotti nel sito secondario durante una fase di emergenza in quello primario in vista della ripresa dell’operatività di quest’ultimo) =>
4) dal punto di vista archivistico l’attuazione del Piano di Continuità Operativa significa il trasferimento costante di dati / documenti dal sito primario a quello secondario con questi ultimi che, nel caso di Tier 6, sono de facto speculari, motivo per cui (fatto salvo il caso di mancato allineamento), mi sembra si possa parlare della presenza di originali in duplice copia (per quanto poco senso possa avere la distinzione originale – copia in ambiente digitale). Inoltre è interessante osservare come, proprio perché parte integrante delle policy messe in atto, l’instabilità e l’ubiquità di dati e documenti sia, soprattutto nella fase corrente, più la regola che l’eccezione.
5) il legislatore ha chiaro come le operazioni di backup da un sito all’altro non equivalgono alla conservazione di lungo periodo per finalità storico – documentali; a proposito nelle Linee Guida ci si limita a ricordare come occorra raccordarsi al Manuale di conservazione e come il “salvataggio” debba avvenire su supporti adeguati. Sulla scorta di tali suggerimenti mi vien da ipotizzare due possibili soluzioni: a) all’interno della medesima coppia di data center vanno predisposti dei rack attrezzati con storage server di elevata qualità (diversamente dai rimanenti che, abbiamo visto, possono essere di livello medio – basso) nei quali destinare quei dati e documenti per i quali è prevista la conservazione permanente (la cosa è fattibile in quanto la “destinazione finale” è nota sin dal momento della creazione) b) che accanto alla coppia di data center deputati alla fase operativa / corrente ne venga costruita una ad hoc per quella di conservazione.
A prescindere da quale delle due opzioni prediligere (motivazioni di contenimento dei costi / ottenimento di economie di scala mi fanno propendere per la prima soluzione), va rimarcato come venga confermato che la migliore strategia conservativa sia quella di assicurare (potendolo provare attraverso audit, file di log, etc.), che la vita dei dati / documenti è sempre avvenuta all’interno di un sistema sicuro ed inviolato (e qui ritorniamo alle specifiche costruttive che devono possedere i data center) e che le procedure di copia sono avvenute senza errori.
6) Superfluo, da ultimo, sottolineare come gli aspetti tecnici non debbano mettere in secondo piano quelli organizzativi (come sempre deve venir coinvolta l’intera organizzazione!); mi preme solamente evidenziare come vada assolutamente individuata una catena di comando strutturata gerarchicamente secondo un modello che guarda caso rimanda nuovamente all’ambiente militare.

CONCLUSIONI.

Considerando la formazione prettamente umanistica della maggior parte degli archivisti (sottoscritto naturalmente incluso), comprendo come gli argomenti trattati in questo post appaiano oggettivamente ostici; eppure con tali tematiche occorre confrontarsi in quanto, è la mia convinzione, l’archivio del prossimo futuro coinciderà de facto con i moderni data center. Si tratta di un cambiamento di prospettiva di notevole portata per almeno i seguenti motivi: a) in primo luogo perché si torna a parlare di archivio nel suo complesso e non per questa o quella delle ripartizioni logiche – corrente, deposito, storico – nelle quali la teoria e la legislazione tradizionalmente l’hanno suddiviso b) in secondo luogo perché l’archivio diviene infrastruttura strategica e centrale per il “regolare svolgimento” della vita (digitale) di cittadini, aziende ed enti pubblici c) ultimo perché, della costruzione di tali data center / archivi “arsenali”, devono tornare a farsene carico gli Stati, meglio ancora se in chiave europea, l’unica che può garantire il necessario apporto finanziario nonché quell’ampiezza di spazi geografici tali da rendere la localizzazione dei DC veramente adeguata al raggiungimento dei dichiarati obiettivi di business continuity e di disaster recovery.

A chi volesse approfondire questo importante argomento consiglio di leggere la versione su Storify di questo post, ricca di documenti utili.

%d blogger hanno fatto clic su Mi Piace per questo: