La ventisettesima edizione del Salone del Libro di Torino non poteva iniziare in modo più scoppiettante: il ministro dei Beni Culturali Dario Franceschini, accorso per l’inaugurazione, ha puntato il dito contro la TV, “rea” di aver arrecato danni incalcolabili al libro ed alla lettura (ricordo che il Salone è nato proprio come momento di promozione del libro e, di conseguenza, della lettura; n.d.r.); secondo il nostro, le varie RAI, Mediaset, Sky, etc. dovrebbero ora riparare alle proprie “malefatte” inserendo nei rispettivi palinsesti programmi dedicati al libro o quanto meno assicurando a quest’ultimo maggior spazio (anche pubblicitario).
Personalmente trovo l’uscita del ministro anacronistica sotto più punti di vista ma soprattutto perché sottende l’idea doppiamente dirigistica che 1) si possa “imporre” alle emittenti televisive la programmazione nella convinzione che 2) la lettura possa essere promossa / imposta dall’alto, senza rendersi conto che i tempi sono cambiati (esiste un qualcosa di oscuro che si chiama Rete) e pertanto il dualismo “televisione VS lettura” è del tutto superato.
Eppure per rendersi conto che il mondo, imperterrito, va avanti basterebbe essersi letti l’intervista rilasciata pochi giorni fa al Corriere da Russ Grandinetti, vice presidente di Amazon con delega sui contenuti Kindle, oggigiorno bisogna sapersi muovere in un contesto nel quale la fruizione di contenuti, siano essi audio, video oppure testuali, avviene in momenti “interstiziali” (nel metrò, in attesa in banca, etc.) a partire da molteplici device.
Ne discende, nella visione di Amazon, che detti contenuti debbano essere fruibili nel migliore dei modi a partire da tutti questi dispositivi e che, affinché la scelta sia più libera possibile, tra i rispettivi prezzi (dei contenuti, n.d.r.) non vi debbano essere differenze abissali. Se “una canzone costa 0,99 centesimi, con 2,99 dollari puoi vedere o noleggiare un film e i giornali in alcuni casi li leggi gratuitamente” non si può sperare che gli ebook sconfiggano la concorrenza a meno che il loro prezzo non sia altrettanto allettante.
Si ripropone, pertanto, il problema dell’IVA applicata (sulla quale oggi Franceschini ha peraltro detto di essere al lavoro), delle strategie da mettere in atto per rendere il libro (digitale e non solo) appetibile ed in generale per far sì che si legga di più.
Se Amazon si sta già attrezzando allo scopo (da una parte attraverso l’ampliamento della propria famiglia di device dagli ereader ai tablet e prossimamente agli smartphone, dall’altra mediante l’offerta praticamente flat di film in streaming e libri a fronte del pagamento di un fisso relativamente equo), che stanno facendo le biblioteche per affrontare simili cambiamenti strutturali?
Il discorso è amplio e rischia di portarci fuori strada: sintetizzando nell’attuale dibattito italiano si sta sì ponendo grande attenzione al tema del digitale in biblioteca ed a quello, correlato, della presenza in Rete e sui social network ma nel contempo il libro (sia esso analogico o digitale) sta perdendo centralità: da una parte infatti vi è chi ritiene che la biblioteca debba andare “oltre” al libro, dall’altra chi crede, al contrario, che essa debba rimanere fedele alla propria missione di selezione, intermediazione e facilitazione nell’accesso alle risorse informative (proprio al Salone interverranno sull’argomento, riprendendo il discorso avviato a marzo alle Stelline, Maria Stella Rasetti e Riccardo Ridi).
In altri termini i bibliotecari / le biblioteche stanno procedendo ad una necessaria review interna che però rischia di accentuare il ritardo che già si accusa “nel digitale”. Eppure idee e soluzioni che rappresentano il giusto connubio tra le due linee di pensiero esistono: il progetto The Underground Library della New York Public Library, ad esempio, mira a contendere ad Amazon & Co. proprio quei “nuovi” lettori descritti da Grandinetti: in pratica finché si è in metropolitana (senza connessione), invogliati da poster che immortalano scaffali pieni di libri, vi si avvicina il proprio smartphone con sensore NFC e si scarica l’anteprima di un libro; una volta riemersi in superficie (e ripristinata la connessione), ci viene indicato sul display del telefonino dove si trova la biblioteca più vicina nella quale poter recuperare (se ci era piaciuto) il libro che avevamo iniziato a leggere.
Che dire, proprio un bel modo per unire geottagging a promozione della lettura, ricordando nel contempo alla gente che le biblioteche continuano ad esistere e che vi possono sempre trovare un libro interessante da leggere!
Ma ovviamente si potrebbero ipotizzare altre strategie affini: ad esempio come non pensare, nel momento in cui si rendono disponibili hot-spot pubblici in molte di quelle zone descritte da Amazon come i luoghi principe nei quali avvengono le nuove modalità di lettura, all’invio da parte della biblioteca del posto di un messaggio contenente un invito a leggere / scaricare un libro o, più genericamente, di accedere al sito / catalogo della stessa?
Personalmente ritengo che l’utilizzo di simili strategie, basate su un mix di tecniche push / pull, potrebbero dare ottimi risultati e se è innegabile che esse sono adatte soprattutto per tessuti urbani di notevoli dimensioni, è altrettanto verosimile che con gli opportuni aggiustamenti esse potrebbero risultare applicabili con successo anche in altri contesti.
Insomma, sta alle biblioteche (o meglio, ai bibliotecari), cogliere le opportunità che si propongono e che potrebbero consentire loro di stare al passo con i tempi senza perdersi in sterili settarismi.
Archive for the ‘Uncategorized’ Category
27 Apr
Quale futuro per gli archivi digitali fotografici
Gli utenti di Dropbox della prima ora ricorderanno come inizialmente questo servizio fosse usato essenzialmente a fini di “archiviazione documentaria” pura, nel senso che ci si caricava soprattutto file di testo; solo in un secondo momento, grosso modo in parallelo all’incremento delle velocità di upload e download dei nostri dispositivi mobili (cosa resa possibile tecnicamente grazie alla realizzazione delle reti 3G e 4G – a loro volta alla portata di tutti grazie ai piani flat – così come dalla sempre più capillare diffusione di hotspot wifi), si è passati a caricarvi massicciamente file di dimensione sensibilmente più pesanti, quali foto e brevi video.
Infatti Dropbox, ben consapevole dei trend in atto e delle crescenti esigenze dei propri utenti, ha ben pensato di assecondarli ampliando progressivamente la sua gamma di servizi e, con essi, il suo settore d’affari. In particolare l’azienda di San Francisco ha sviluppato le sue applicazioni lungo due direttrici: da un lato assicurando ai sempre più numerosi utilizzatori un minimo di produttività (del tipo creare e salvare direttamente sulla cloud di Dropbox file di testo in formato .txt), dall’altro scommettendo forte sulle fotografia (inserendo ad esempio la funzionalità di upload automatico per le foto scattate con un device mobile).
Con tale mossa Dropbox cercava evidentemente di giocare d’anticipo e di preservare l’importante margine di vantaggio acquisito sulle varie Apple, Microsoft e Google (il cui Drive, per rendere l’idea, è arrivato sul mercato nell’aprile 2012, vale a dire ben quattro anni dopo!).
E che il grosso della partita si giochi proprio sul fronte delle foto non deve sorprendere: anche a voler rifuggire dalla sociologia spiccia e dai facili slogan, è un dato di fatto (e ne ho già scritto) che nella nostra società l’immagine conti e che scattare foto o, al contrario, farsi immortalare in fotografie sia una delle azioni più comuni, più facili ed al contempo più appaganti per il nostro ego.
Non deve dunque sorprendere se anche gli ultimi, importanti, annunci in casa Dropbox abbiano a che vedere con il mondo delle immagini. L’azienda californiana ha infatti da un lato lanciato Carousel, una app del tutto nuova ma che, come si vedrà a breve, è intimamente collegata al classico servizio di storage, dall’altro ha acquisito Loom, azienda specializzata nel cloud storage di foto e video.
Come spiegato dai fondatori di Loom nel post sopra linkato, la loro soluzione per la gestione, organizzazione ed archiviazione andrà ad integrarsi proprio con Carousel che, a questo punto, è opportuno descrivere per sommi capi: in breve si tratta di un applicazione che organizza e dispone in ordine cronologico lungo una timeline (un po’ come fa ThisLife) tutte le foto presenti nel dispositivo in cui l’applicazione stessa viene installata, facendone nel contempo il back-up in automatico sui propri server.
In sostanza le nostre foto finiscono su Dropbox e Carousel diventa la via più agevole per visualizzarle e gestirle; a riguardo va precisato che di default le foto sono private ma in realtà ne viene fortemente incentivata la condivisione: sia che si tratti di inviare ad amici foto che ci appartengono o al contrario di aggiungere al nostro album foto arrivateci da un nostro amico, basta un semplice swipe verso l’alto o verso il basso!
Inoltre una volta che si condivide una foto con un amico si avvia in automatico una chat: anche in questo caso l’intento è chiaro, ovvero dare un’anima social, sull’esempio di Instagram o Snapchat, a quello che rischia altrimenti di restare uno sterile (leggasi: meno remunerativo) “contenitore”.
Ma le novità introdotte da Dropbox sono importanti soprattutto perché emblematiche di alcune dinamiche che, a mio parere, nei mesi e negli anni a venire si faranno sempre più nitide.
La prima, testimoniata appieno dall’acquisizione di Loom, è che i video rappresenteranno, nel prossimo futuro, l’oggetto della disfida.
La seconda, molto più interessante da analizzare anche perché dalle maggiori implicazioni “archivistiche”, è la progressiva divergenza (o, se si preferisce, specializzazione) che si sta verificando tra i vari servizi che consentono l’archiviazione di foto sulla cloud: se da una parte vi sono quelli dedicati ad un uso principalmente personale e dall’altra quelli con una vocazione più spiccatamente pubblica, nel mezzo vi stanno una molteplicità di servizi che, pur facendo altro, non disdegnano di sfruttare l’appeal delle foto.
Tra questi ultimi come non citare Twitter il quale, nato come servizio per l’invio di sms, ha poi virato verso il microblogging ed ha infine aperto alle foto, trovando nei celeberrimi selfie (vero e proprio simbolo di quel desiderio di apparire di cui parlavo sopra) uno dei suoi punti di forza?
Specializzato nei selfie è anche Instagram, applicazione che diversamente da Twitter ruota completamente attorno alle foto ed alla possibilità di ritoccarle applicandovi filtri (feature che ne ha decretato il successo planetario, n.d.r.) e che rappresenta il degno campione del primo gruppo. Va però osservato che in Instagram, diversamente dal neonato Carousel, la dimensione pubblica delle foto (“public by default) è spiccata e con essa, ovvia conseguenza, l’anima social (laddove in Carousel, come già sottolineato, la condivisione è più controllata e ristretta).
Ma al di là delle ovvie differenze è indiscutibile che tutti i servizi appena descritti sono accomunati dall’essere stati concepiti e realizzati per un uso personale (con terminologia archivistica potremmo categorizzarli come “archivi fotografici digitali di persona”), in contrasto cioè con l’altro gruppo di servizi cui si accennava sopra e che, peraltro a partire da basi simili, sta seguendo un percorso per certi versi opposto.
Il modello in questo caso è rappresentato da Flickr il quale, nato come servizio per pubblicare online le proprie foto, solo in un secondo momento (con un ritardo che peraltro si stava per rivelare fatale, n.d.r.) si è dotato di un’applicazione per dispositivi mobili; se questo passo si è reso necessario per reggere il passo della concorrenza e delle nuove modalità di scattare fotografie (operazione che avviene sempre meno con fotocamere professionali e sempre più con dispositivi quali smartphone, tablet od al più con macchine ibride come la Samsung Galaxy Camera), tamponando nel contempo la preoccupante emorragia di utenti, credo che l’aspetto più interessante della storia recente di Flickr stia non tanto nel suo strizzare l’occhio ai social network (come appare evidente non appena si apre la nuova release dell’applicazione per dispositivi mobili o dal profondo restyling di cui è stato oggetto il sito) bensì agli enormi passi fatti da iniziative quali The commons.
Avviata nel 2008 come collaborazione con la Library of Congress e successivamente aperta ad altre istituzioni, essa si prefigge di condividere ed incrementare l’accesso ai tesori nascosti provenienti dagli archivi fotografici pubblici nel mondo; l’elenco oramai è lungo e vede tra gli altri la partecipazione di numerosi archivi e biblioteche, pubblici e privati. Uno degli aspetti più interessanti del progetto è che di ciascun “fornitore” vengono forniti i relativi termini di utilizzo nei quali, come suggerito dal nome del progetto, predominano le licenze d’utilizzo di tipo Creative Commons e varianti: l’intento di favorire la conoscenza del patrimonio fotografico, ed eventualmente il suo riutilizzo e la rielaborazione, è evidente e con esso trova conferma la vocazione di Flickr a divenire “archivio fotografico pubblicamente accessibile”!
Certo, non sfugge come al CEO Marissa Mayer i conti importino eccome, e l’accordo stipulato con il celebre fornitore di stock e microstock Getty Image (sulla capacità di quest’ultima azienda di cavalcare lo tsunami della distribuzione online di foto, a suon di acquisizioni di prestigiosi archivi fotografici, tanto analogici quanto digitali e stravolgendo le tradizionali modalità di licensing, sarebbe da scrivere un altro post…) è lì a testimoniarlo, ma è inutile negare come Flickr si stia facendo carico di un ruolo e di una funzione tipicamente “pubblici”.
La cosa deve preoccuparci? Posto che la collaborazione tra pubblico e privato non deve essere demonizzata a priori, è inutile negare che tutto ciò che ruota attorno alle immagini susciti, per i motivi ampiamente esposti, gli appetiti delle varie aziende con tutto ciò che ne consegue.
Il problema, a mio avviso, è verificare la capacità che avranno i soggetti pubblici, inclusi gli archivi e le biblioteche, a mantenere la debita autonomia / indipendenza nei confronti degli attori privati nel momento in cui, dal punto di vista operativo, il fattore determinante sembra essere sempre più la “potenza di storage” che si è in grado di dispiegare (e la discesa nell’agone di Dropbox è in questo senso emblematica).
In quest’ultimo ambito, considerando il poco o nulla che viene fatto in quanto alla realizzazione di infrastrutture, non credo ci si debba creare grandi speranze. Del resto non molto meglio vanno le cose dal lato dei “contenuti”: da una parte infatti assistiamo alla “cessione del posseduto” (ovvero le collezioni e le raccolte fotografiche, digitali o digitalizzate), dall’altra i nuovi archivi si vanno formando direttamente sulle nuvole di proprietà delle medesime aziende alle quali “concediamo” le foto (a proposito, la nuova generazione di SD-Card ha il Wi-Fi integrato per effettuare immediatamente upload sulla nuvola).
Rebus sic stantibus crediamo davvero che gli archivi e le biblioteche possano recuperare posizioni?
31 Mar
Conservazione digitale e miniere

Fonte: BUCAP
Sul notiziario Parer è stato ampiamente ripreso una sorta di reportage, pubblicato sul Washington Post, sul quale ritengo sia utile spendere quattro parole non fosse altro perché mi consente di ritornare su tematiche, come la conservazione digitale (ed, al suo interno, la conservazione sostitutiva), particolarmente care al sottoscritto.
Ma partiamo dalla notizia (qui ne faccio un brevissimo compendio; per un riassunto più completo rimando all’ironico articolo apparso, per l’appunto, su Parer oltre che, per chi volesse cimentarsi nella lettura integrale in inglese, al Washington Post): in una ex miniera di calcare, decine di metri nel sottosuolo, centinaia di dipendenti federali lavorano alacremente su centinaia di migliaia di documenti, in gran parte su supporto cartaceo, al fine di assicurare la corresponsione della pensione ad altrettanti colleghi. E’ infatti proprio in questa miniera nelle vicinanze di Pittsburgh che a partire dal 1960 il Governo federale ha deciso di collocare l’Office of Personnel Management. Quali le motivazioni che hanno spinto ad una simile scelta?
Fondamentalmente il posto ricercato doveva essere sicuro, sufficientemente ampio e soprattutto non troppo costoso, tutti requisiti, si noti, tuttora validi. Ma le analogie con il presente e le lezioni che si possono trarre da questa storia veramente emblematica non si fermano qui: la prima, in parziale contraddizione con l’impostazione data dal giornalista del Washington Post (il quale giudica assurdo che l’amministrazione federale sia ancora ferma alla carta quando gli stati della California, della Florida e del Texas sono riusciti ad abbattere tempi e costi grazie ad un’adozione spinta del digitale), dovremmo oramai averla metabolizzata un po’ tutti, ovverosia che la tecnologia non è, da sola, risolutiva se non è accompagnata da adeguati cambiamenti di ordine legislativo, organizzativo e, fino a certi punti, persino “culturale” (intendendo con quest’ultima voce quegli interventi capaci di fornire al personale, piuttosto che un’infarinatura di questo o quel software, una nuova forma mentis, maggiormente sensibile e capace di affrontare le ineliminabili problematiche di natura “tecnica”).
In questo senso la storia resa pubblica dal WP è ricca di aneddoti: programmi che “impazziscono” non essendo sufficientemente potenti per tenere conto delle mille casistiche poste in decenni di confusa legislazione in materia pensionistica, personale incapace di sfruttare al meglio gli strumenti informatici che, almeno dagli anni Ottanta dello scorso secolo, si è tentato di fornir loro per migliorare la situazione, dirigenti non in grado di valutare per tempo (= prima di averci investito fior di quattrini) l’effettiva corrispondenza delle soluzioni informatiche proposte – ed in taluni casi malauguratamente adottate – allo scopo prefisso.
Il risultato è che dal 1977 ad oggi non si è assistito ad alcun apprezzabile miglioramento nei tempi di evasione delle pratiche, fermi a 61 giorni (in verità un miglioramento c’è stato… ma solo aumentando il numero di impiegati!), ed anzi ora il “procedimento tipo” consiste in un’illogica serie di operazioni quali ricerca di cartelle personali, scansioni, stampe, inserimento dati, ristampe, etc.
Al di là della facile indignazione, specie a fronte dei soldi pubblici inutilmente spesi, risulta nel contempo evidente che una soluzione non sia poi così agevole ed immediata: come rileva l’estensore dell’articolo, il grosso problema consiste infatti nel fatto che, nell’arco di una vita lavorativa lunga decenni, i documenti relativi al medesimo dipendente si sono “sedimentati” in lungo ed in largo per gli Stati Uniti e, cosa forse ancora peggiore, che ciò è avvenuto su diversi supporti (taluni analogici, tal’altri digitali).
E’ questo che (al netto di chiare distorsioni nell’iter delle carte) obbliga gli addetti dell’Office of Personnel Management a lunghe attese di questo o quel documento e, una volta ricevutolo, alcune volte a digitalizzarlo mediante scansione ed altre a stamparlo!
La presenza di archivi ibridi, tipica di questa fase di transizione, pone in altri termini importanti sfide in ordine alla “speditezza” ed alla “razionalità” di tutti quei procedimenti amministrativi che richiedono il recupero di documenti che, per motivi “anagrafici”, sono stati formati in ambiente analogico e che non sono ancora stati oggetto di digitalizzazione mediante conservazione sostitutiva.
A tal proposito ritengo sia utile formulare alcune ulteriori, conclusive, osservazioni. In particolare mi permetto di rilevare come, stante le perduranti incertezze (in verità più pratiche che teoriche, n.d.r.) circa la conservazione nel lungo periodo del digitale, forse sarebbe opportuno che alcune categorie di documenti (e quelli relativi alla pensione potrebbero proprio essere inclusi nel novero!) continuassero, onde evitare brutte sorprese tra cinquant’anni, ad essere prodotti e conservati su carta. Dopo questa nota vagamente pessimistica, va anche aggiunto che si intravvedono, nell’attuale panorama tecnologico, pure interessanti spiragli di luce: in particolare man mano che la quota di documenti in circolazione sarà costituita in misura preponderante da documenti digitali (come esito combinato della crescente produzione in ambiente digitale da una parte e del “recupero” di documenti analogici mediante digitalizzazione dall’altra) i problemi evidenziati nell’articolo che ha dato spunto a questo post verranno gradualmente meno; parallelamente l’adozione di soluzioni cloud consentirà di far dialogare tra di loro (scambiandosi dati e documenti) archivi digitali distinti ed appartenenti a soggetti produttori diversi. Il che dovrebbe in ultima analisi snellire e semplificare il percorso delle carte, riducendo i tempi ed i costi ed offrendo perciò al cittadino / utente / cliente un servizio migliore.
Ribadisco infine che affinché le opportunità poste dall’attuale momento di digital shifting vengano colte appieno è fondamentale non limitarsi al solo aspetto tecnologico ma è necessario, al contrario, agire su altre leve come il personale, l’organizzazione nonché affidarsi (in caso di esternalizzazione) a provider strutturati e con soluzioni affidabili, robuste e magari pure interoperabili (e necessariamente basate su standard internazionali).
Certo, ciò farà sorgere a sua volta nuove problematiche (conservazione di lungo periodo, privacy, cornice giuridica, etc.) ma nondimeno sono convinto che il momento sia propizio, come recita una famosa pubblicità, per cercare di “guidare il cambiamento”.
20 Feb
Conservare le app?
In questo blog mi sono spesso occupato di argomenti, per così dire, “borderline” ma quello affrontato in questo post, anticipo subito, lo è sotto molteplici aspetti; del resto, allo stadio attuale, è già qualcosa porsi le giuste domande, figuriamoci fornire risposte.
Ma partiamo dall’antefatto, ovvero il lancio, da parte del gruppo musicale Radiohead, di una app per iOS ed Android chiamata Polyfauna. In cosa consiste Polyfauna? Si tratta, riprendendo le parole usate dal cantante ed anima del gruppo Thom Yorke, di “an experimental collaboration between us (Radiohead) & Universal Everything, born out of The King of Limbs sessions and using the imagery and the sounds from the song Bloom. It comes from an interest in early computer life-experiments and the imagined creatures of our subconscious”.
In sostanza, una volta scaricata l’applicazione, si viene proiettati dentro un mondo virtuale diverso per ogni visitatore (unico punto in comune la canzone Bloom a fungere da colonna sonora) da esplorare muovendo il proprio smartphone o tablet ma con il quale si può anche interagire: toccando lo schermo, infatti, si possono “disegnare” bizzarre figure che dopo pochi secondi si decompongono. Lo scopo “ludico” è comunque un altro: trovare ed inseguire un punto rosso lampeggiante scontrandosi con il quale si viene catapultati in un nuovo ambiente (anche se non vi è alcuna progressione nel livello di difficoltà né si acquisisce alcun punteggio).
Degli scenari visitati, alcuni veramente suggestivi, si possono pure scattare foto che vengono inviate al sito ufficiale dei Radiohead dove vanno ad alimentare, in una sorta di feed, una apposita gallery.
Le reazioni al lancio di Polyfauna sono state assai variegate: alcuni si sono spinti a parlare di “opera pop formato app” nella quale arti visive e musica si compenetrano, altri l’hanno criticata per monotonia ed assenza di ritmo, altri ancora per l’estrema semplicità grafica (e non a torto: non aspettatevi infatti chissà quali “effetti speciali”!).
A prescindere ora dalle diverse valutazioni che si possono dare ad un’applicazione come questa (ed alle numerose altre di simili che già esistono), quel che mi preme è porre l’attenzione sugli aspetti conservativi.
Ammettiamo infatti per un momento che Polyfauna sia veramente un’opera d’arte contemporanea: in tal caso essa andrebbe evidentemente conservata così come facciamo con un Fontana od un Haring. Le difficoltà tecniche, in tal caso, sarebbero però decisamente notevoli: in primo luogo sarebbe da capire a quale figura professionale (ammesso che esista) spetti tale arduo compito. La presenza di musica ed immagini potrebbero far propendere per un “conservatore museale” o tuttalpiù per un “conservatore di musica elettronica”; il fatto però che le foto scattate finiscano nel sito web, e che dell’archiviazione di Internet si occupino a vario titolo anche archivisti e bibliotecari, potrebbe suggerire l’idea che anche queste due categorie vengano chiamate in causa. Anzi, verosimilmente, la conservazione di un’app come Polyfauna andrebbe affidata ad un team di esperti provenienti da tutti questi campi.
Non meno problematica la scelta di cosa conservare: conservare la sola applicazione (di fatto, un programma informatico) non è infatti risolutivo. Essenziale infatti è disporre di device con accelerometro, senza i quali l’esplorazione virtuale (e la connessa esperienza sensoriale) non sarebbe possibile; analogamente è indispensabile conservare il sito web dei Radiohead, che come abbiamo visto è intimamente collegato alle funzionalità di condivisione inserite in Polyfauna e che viene modificato dinamicamente man mano che vengono pubblicate le foto scattate dagli utilizzatori.
Come sia possibile conservare tutto ciò in modo integrato, poi, è un autentico dilemma; mi limito qui ad osservare solo come, singolarmente, vengono ad essere evocate un po’ tutte le modalità dibattute in questi anni: museo dell’informatica (= necessità di uno smartphone o di un tablet funzionante), emulazione di sistemi operativi defunti (in questo caso il “proprietario” e restrittivo iOS potrebbe dare, anche legalmente, parecchie grane), archiviazione di Internet, etc.
La nota positiva, a volerne trovare una, è che Polyfauna rappresenta un caso estremo: nella realtà le applicazioni veramente da conservare non sono poi così numerose e nemmeno così complesse. Ciò non deve comunque indurre ad un colpevole “rilassamento”: la tendenza, inequivocabile, va proprio verso la realizzazione di app sempre più multimediali e che “vivono” all’interno di un ecosistema complesso e pertanto difficile da riprodurre / conservare.
La spinta, manco a dirlo, proviene dalla diffusione capillare di dispositivi mobili sempre più potenti e che consentono un’interazione uomo – macchina senza precedenti; in altri termini credo che l’attuale divergenza tra fisso e mobile (emblematica nel caso di Snapchat o del famosissimo Istagram, con il suo sterminato “archivio fotografico”, applicazioni cioè nate e crescite “mobili” senza evolvere attraverso i consueti stadi, ovvero da sito statico a dinamico ad applicazione per smartphone e tablet) a breve verrà ricomposta e tutto sarà “mobile”; ciò significherà il trionfo di app talmente “ricche” da chiamare in causa tutti i sensi. Conservare, a questo punto, sarà un’operazione altamente complessa perché non sarà più sufficiente “archiviare” un pezzo di codice sorgente e questo o quel dispositivo; una buona conservazione, per essere veramente tale, dovrà essere in grado di replicare in modo il più possibile fedele pure l’interazione uomo / macchina con tutti quelli che sono i risvolti sensoriali ed “emotivi” (un po’ come fanno i sistemi di emulazione dei giochi arcade, che oltre al programma tentano di rendere realistico anche il sistema di puntamento / joystick)
Considerazioni forse eccessivamente allarmistiche ma che non fanno che rafforzare ulteriormente la mia personale convinzione che sulla conservazione delle app sia ora di iniziare a ragionare in modo sistematico.
6 Feb
Sicurezza degli archivi digitali, obbiettivo irraggiungibile?

STUXNET – strayed from its intended target (November 8, 2012 4:26 PM PST) …item 2.. Hacker Claims to Have Breached Adobe (NOVEMBER 14, 2012, 12:49 PM) … di marsmet481, su Flickr
Ritorno su un argomento, si potrà obiettare collaterale rispetto al core dell’archivistica, sul quale avevo scritto alcune righe qualche mese fa: lo scandalo Datagate. In quel post sottolineavo la gravità del comportamento del Governo federale degli Stati Uniti, accusato di portare avanti un programma di spionaggio con l’accordo delle principali aziende high-tech a stelle e strisce, e su come ciò potesse costituire, soprattutto in termini di “fiducia”, un vulnus per l’archivistica digitale.
Nel medesimo articolo segnalavo pure come, in base ad indiscrezioni, l’NSA statunitense e la corrispettiva GHCQ britannica disponessero di strumenti in grado di aggirare e superare le misure comunemente adottate per proteggere le comunicazioni e le transazioni che avvengono in Internet, quali ad esempio i protocolli https ed SSL; ebbene, le notizie che arrivano in questi giorni da Oltreoceano fanno per certi versi impallidire queste anticipazioni.
In un approfondito articolo apparso sul Washington Post viene infatti sottolineato come le attività della National Security Agency fossero altamente “aggressive” (come si intuisce dal nome in codice del progetto, ovvero MUSCULAR) e questo, si badi, ad insaputa delle varie Google ed Yahoo!, le quali alla luce di queste nuove rivelazioni verrebbero sostanzialemente scagionate dall’accusa di aver fornito porte di accesso privilegiate ai propri sistemi (le cosiddette front-door; in verità è altamente probabile che queste vie d’ingresso venissero effettivamente fornite ma che alle agenzie d’intelligence ciò non bastasse, motivo che le ha spinte a cercare vie “alternative” al limite della legalità). Ma, esattamente, qual è il punto debole individuato dall’NSA per violare gli apparentemente protettissimi data center costruiti delle big del web in ogni angolo del pianeta?
In estrema sintesi gli agenti dell’NSA riuscirebbero ad infiltrarsi nel delicato punto di interscambio, detto front-end, che si viene a creare tra l’Internet pubblica e le cloud (costituite a loro volta da più data center tra loro interconnesse mediante cavi in fibra ottica stesi da parte sempre delle Internet company) delle varie Google, Apple, Yahoo!, etc. E’ proprio questo, infatti, il punto in cui le protezioni (tipo SSL) vengono aggiunte / rimosse; una volta dentro raccogliere una mole impressionante di dati è un gioco da ragazzi e questo perché le comunicazioni all’interno della cloud avvengono in chiaro e le aziende, per assicurare ridondanza dei dati, procedono periodicamente al trasferimento di enormi quantità di dati da un data center all’altro. Basta intercettare questo flusso per far sì che la “pesca” assuma veramente contorni miracolosi!
Le reazioni non si sono fatte attendere: Steve Wozniak, co-fondatore di Apple assieme a Steve Jobs e da sempre ritenuto l’idealista della coppia, ha apertamente criticato la dipendenza da parte delle aziende nei confronti della cloud, vista come un qualcosa di difficilmente controllabile.
Ciò che stupisce in particolar modo è il capovolgimento di ruoli e prospettive che si è verificato nel giro di pochi mesi; io stesso più volte ho messo in guardia, in questo blog, circa i pericoli derivanti dal fatto che un po’ tutti (dai governi ai singoli cittadini) ci appoggiassimo ad infrastrutture cloud delle quali poco o nulla sapevamo e sulle quali ancor meno potevamo. Proprio il governo degli Stati Uniti, nel momento in cui riponeva parte dei suoi archivi correnti in una apposita G-Cloud realizzata da Amazon, sembrava confermare la sensazione che a reggere le fila fossero le solite, gigantesche Internet company. Alla luce delle ultime rivelazioni lo scenario non è così chiaro e lineare come poteva apparire: lo Stato sembra tornare a far la voce grossa (per un’analisi di come essi ancora controllino le reti di comunicazione globali mi permetto di rinviare ad un mio articolo, seppur scritto in altro contesto e con altre finalità) e le aziende high-tech, per contro, altrettante pedine di un gioco ben più grande!
Appurato dunque che la tradizionale “filiera” Stato => archivi => controllo (= Potere) non è, per il momento, stata intaccata (al massimo c’è il dubbio se al primo termine vada affiancata la voce “Aziende tecnologiche”), resta il fatto che l’infrastruttura tecnologica attorno alla quale sono stati costruiti i nostri archivi digitali si sia dimostrata drammaticamente vulnerabile.
Quali sono, pertanto, le prospettive? Naturalmente qui entriamo nel campo del probabile ma, considerando la tradizionale idea di riservatezza che è insita nel concetto di archivio (esemplificata dal caso dell’Archivum Secretum Vaticanum, che è per l’appunto l’archivio privato e “riservato” del Papa, sul quale egli vi “esercita in prima persona la suprema ed esclusiva giurisdizione“), non mi sorprenderebbe se i vari soggetti produttori (Stati ed aziende in primo luogo), al fine di “tutelare” i propri documenti più importanti, rispolverassero la prassi di creare sezioni d’archivio speciali e particolarmente protette.
Che modalità di protezione? A riguardo il citato articolo del Washington Post, che ha interpellato ingegneri di Google, ha già ricordato come l’azienda, finora concentrata sulle sole difese perimetrali, stia procedendo a cifrare pure tutte le comunicazioni che avvengono internamente tra data center. A mio vedere quella della cifratura è una via, allo stato attuale delle cose, obbligata ma non risolutiva, nel senso che storicamente ogni codice cifrato è stato, prima o poi, decifrato.
Purtroppo pure le ulteriori alternative ipotizzate non sono decisive: si parla da tempo, ad esempio, di autenticazione attraverso dati biometrici ma bisogna ammettere che le tecnologie non sono ancora pienamente mature (il caso dell’iPhone 5 hackerato ricorrendo a delle semplici foto delle impronte digitali è significativo). Non percorribile è pure la strada che, vedendo nella Rete una fonte di minacce e pericoli, prevede di isolare la parte da difendere mettendola del tutto offline: la solita NSA sarebbe in grado, attraverso un dispositivo top-secret basato sulle onde radio, di accedere ed alterare dati e documenti contenuti su computer anche quando questi non sono collegati ad Internet!
Personalmente ritengo che una soluzione esista e consista, paradossalmente, in un “ritorno al passato”, cioè alla carta: posto che andrebbero ugualmente predisposte le massime misure di sicurezza (relativamente a luoghi, controllo degli accessi, etc.), sicuramente un foglio di carta, redatto con una macchina da scrivere, non è intercettabile! Considerando poi che su carta andrebbero i documenti più importanti, quelli cioè che verosimilmente andranno conservati nel tempo, si ovvierebbe pure alla complessa questione della conservazione del digitale nel lungo periodo. Per la serie, come prendere due piccioni con una fava!
30 Gen
E’ online My personal cloud
Piccola comunicazione di servizio. E’ online My personal cloud, un progetto parallelo a questo sito. Di cosa si tratta?
L’idea che ne sta alla base è molto semplice: verificare, sperimentandole in prima persona, le principali problematiche che mettono a dura prova la tenuta degli archivi (e delle biblioteche) digitali di persona all’epoca del cloud computing e dell’Internet delle cose (IoT) con l’obiettivo, forse eccessivamente ambizioso, di suggerire soluzioni e best practice a tutti coloro che hanno a cuore la sopravvivenza, nel tempo, delle “risorse digitali” che vanno producendo ed accumulando giorno dopo giorno.
Il tutto, a dispetto del fatto che l’argomento sia piuttosto tecnico e specialistico, attraverso un linguaggio semplice e comprensibile ad un pubblico il più vasto possibile.
4 Gen
Terremoti, memoria digitale e l’Italia che vorremmo
Come già capitato in passato con alcuni post pubblicati a ridosso dei periodi di vacanza, invernali od estivi che fossero, anche in questo caso l’ispirazione mi è venuta dal breve viaggio che, dato il periodo, mi sono concesso.
Per la precisione, a cavallo del Capodanno, ho trascorso alcuni giorni seguendo un itinerario “minore” tra le province di Modena, Parma e Mantova, zone, come noto, duramente colpite dal terremoto (o meglio, dai terremoti) del 2012.
Purtroppo, è risaputo, scemato il clamore mediatico ci si dimentica di quello che è successo e si pensa che, come con un tocco di bacchetta magica, tutto sia stato risistemato e le ferite sanate.
Ovviamente, consapevoli della portata delle distruzioni e soprattutto del fatto che in Italia ogni cosa procede in tempi biblici, sotto sotto sappiamo tutti che il miracolo della ricostruzione non può essere avvenuto; ciò nonostante rappresenta un colpo al cuore andare a Sabbioneta, “città ideale” inserita nel patrimonio UNESCO, e visitare Palazzo Giardino (con la splendida Galleria degli Antichi) tra tante impalcature di sostegno e qualche abbozzo, tutt’altro che sistematico, di restauro (la guida ci ha spiegato che i lavori dovrebbero partire a mesi, speriamo!). Ancor più doloroso è visitare il complesso monastico di San Benedetto Po di Polirone, indissolubilmente legato alla figura della “grande” Matilde di Canossa, ed essere obbligati ad un percorso “a salti” a causa delle numerose sale inagibili e per di più orbo del suo pezzo forte, vale a dire il refettorio affrescato dal Correggio.
Intendiamoci, lungi da me alcuna vena polemica: una volta messi in sicurezza i luoghi è bene prendersi tutto il tempo necessario prima di partire con i restauri, in modo da eseguirli nel migliore dei modi. Però, dubbi e perplessità su quelle che sono le priorità dei nostri decisori sorgono eccome!
Si parla pressoché quotidianamente della crisi che attanaglia il settore edilizio: ebbene, tra zone terremotate (oltre all’Emilia, che qui ha offerto lo spunto, non dimentichiamo L’Aquila), aree archeologiche abbandonate all’incuria (Pompei caso simbolo ma tutt’altro che unico), zone dissestate dal punto di vista idro-geologico, scuole che cadono a pezzi, di lavoro per architetti, ingegneri, urbanisti oltre che per migliaia di operai edili “generici” ce ne sarebbe a volontà, senza dover inventarsi infrastrutture oramai inutili! Concentrandosi sui soli beni culturali come non pensare alle opportunità di impiego, collegate / complementari a questi interventi di carattere strettamente “edilizio”, che si aprirebbero per le centinaia di archeologi, restauratori ed in generale di diplomati in Conservazione dei Beni Culturali (personale dunque altamente specializzato), il cui mercato del lavoro è altrettanto asfittico?
Mi direte: ok, ma i soldi dove li ritroviamo in tempi di tagli e di pareggio di bilancio? A parte che, come ho sostenuto in altre sedi, i soldi per panem et circenses saltano sempre fuori, a Bruxelles milioni di fondi comunitari giacciono inutilizzati per l’assenza di valide proposte. Il problema di fondo, in definitiva, mi pare risieda soprattutto in una mancanza di volontà politica e di una adeguata progettualità.
Chiarito che quello dei soldi è un falso problema, mi chiederete, e stavolta a ragione: che c’azzecca tutto ciò con questo blog ed in particolar modo con la “memoria digitale”? Apparentemente molto poco, in realtà molto. Infatti, posto che (ovviamente, vien da dire, con non poca rassegnazione) tra i beni culturali in attesa di “manutenzione”, vuoi per cause straordinarie (come i terremoti in questione) od ordinarie (il naturale scorrere del tempo), numerosi sono quelli attinenti al patrimonio archivistico e bibliotecario, non dovrebbero sfuggire le possibili applicazioni nel vasto campo delle digital humanities.
Banalmente e senza particolari sforzi di fantasia, nel momento in cui andiamo a restaurare, a Sabbioneta, la Galleria degli Antichi perché non coinvolgere informatici, grafici e storici dell’arte per ricostruire virtualmente la sala, completa di marmi e statue (ora a Palazzo Ducale a Mantova, n.d.r.)? Per quanto riguarda lo specifico ambito librario Vespasiano Gonzaga allestì, all’interno del Palazzo Ducale, una fornita biblioteca, distinta in Libreria Grande e Libreria Piccola, e nel momento di far testamento dispose che la prima non andasse smembrata ma bensì rimanesse a Sabbioneta in perpetuum, affidandone le sorti ai padri della chiesa della Beata Vergine dell’Incoronata (la Libreria Piccola invece andò al genero Luigi Carrafa). Purtroppo, come in altre vicende analoghe, le buone intenzioni non poterono essere mantenute: le soppressioni napoleoniche non diedero che il colpo di grazia ad un fondo librario già gravemente rimaneggiato. Eppure, dal momento che conosciamo i titoli di molti dei libri posseduti da Vespasiano, perché non tentare di ricostruirla in maniera “virtuale” (tanto più che parte dei volumi un tempo costituenti la “Libreria Piccola” sono stati individuati nel fondo librario della biblioteca vicereale di Napoli)? Similmente, passando al versante archivistico, perché non affiancare al lavoro di scavo negli archivi italiani e stranieri (fece scalpore, qualche anno fa, la scoperta di circa 200 documenti sabbionetani inediti conservati presso la Kenneth Spencer Research Library dell’Università del Kansas) analoghe operazioni di “ricostruzione virtuale”?
Simili progetti, se andassero in porto, oltre a rappresentare altrettanti investimenti nel settore culturale con tutte le positive ricadute a beneficio della qualità della vita dell’intera collettività, contribuirebbero non poco, anche dal punto di vista meramente materiale, a mutare le prospettive di vita di tutti coloro che sulla ricchezza culturale dell’Italia hanno, giustamente, scommesso. C’è un intero paese da ricostruire, eppure si guarda colpevolmente altrove oppure, il che forse è ancora peggio, si lanciano “progetti indecenti” (altrimenti non può essere definita la vicenda dei famosi “500 giovani per la Cultura”) convinti di fare azione meritoria. Speriamo che nel 2014 qualcosa cambi.
24 Dic
Personal libraries in the cloud
Complici le campagne promozionali particolarmente aggressive lanciate da importanti bookseller (a titolo di esempio Mondadori fino al 6 gennaio se acquisti l’edizione cartacea di un libro inserito in una speciale selezione definita, non senza una certa enfasi, “I magnifici 101”, ti regala pure l’ebook mentre Bookrepublic punta su speciali “cofanetti digitali”, definiti Indie Bookpack Parade, proposti a prezzo iperscontato), l’ebook è destinato a diventare uno dei regali più gettonati del Natale 2014.
Mettendo in secondo piano la parte commerciale (i conti, come sempre, li faremo fra qualche settimana a Festività archiviate), è interessante soffermarsi ora su un risvolto implicito nel prevedibile exploit del libro digitale: in quali “scaffali virtuali” riporremo i nostri ebook?
La risposta non è così scontata né la questione è di lana caprina; il sottoscritto, ad esempio, trova particolarmente scomodo il modo in cui il proprio ebook reader (per la cronaca un Kobo Glo, n.d.r.) gestisce / recupera i libri memorizzati nella microSd oppure nella memoria interna ed allo stesso tempo, per una serie di motivi, non è attratto dalle soluzioni on the cloud proposte dalle varie Amazon, Google, etc.
Approfondiamo la questione, astraendo dallo specifico ereader e/o dal cloud service provider di turno, cercando di evidenziare pro e contro insiti in entrambe le soluzioni.
Per quanto riguarda la prima modalità, essa rappresenta per certi versi l’evoluzione naturale di quanto si faceva fino a qualche anno fa con i libri cartacei: così come li disponevamo in bella vista in una libreria, similmente continuiamo ad organizzarli in file e cartelle (il mio Kobo, riprendendo la terminologia, parla di scaffali) nella convinzione di averne il controllo diretto. “Fisicamente”, infatti, li stipiamo all’interno del nostro lettore di libri digitali o della nostra scheda di memoria: in una simile impostazione per quanto ci si trovi nella dimensione (apparentemente) immateriale tipica del digitale, la “vecchia” e tranquillizzante concezione del possesso fisico è ben presente.
Diverso il discorso qualora si opti per soluzioni “nella nuvola”: in tal caso la sensazione di possesso (e quella intimamente correlata di “attestazione di proprietà”) è nettamente inferiore mentre a prevalere sono considerazioni di ordine pratico, come l’avere a disposizione le proprie letture ovunque ci si trovi ed a prescindere dal device in uso oppure ancora considerazioni in ordine alla “messa al sicuro” della propria biblioteca personale.
Posta in questo modo, parrebbe quasi che la scelta tra salvataggio in locale oppure sulla nuvola derivi soprattutto da “sensazioni” di ordine “psicologico”.
Probabilmente, come spesso avviene in questi casi, la soluzione ideale sta nel trovare il giusto equilibrio tra i vari fattori. Personalmente non rinuncerei ai vantaggi del cloud ma nemmeno mi affiderei a soluzioni, come quelle di Amazon, altamente invasive; la qualità dei servizi offerti dall’azienda di Seattle è senz’altro di prim’ordine ma, come noto, (a parte il fatto che non adotta il formato ePub, cosa che da sola dovrebbe bastare per escluderla) con i libri “acquistati” (o meglio, presi con una sorta di formula di noleggio a lungo termine) non si può fare quel che si vuole. Tutt’altro. Google Play Books, al contrario, è decisamente più flessibile e la sensazione di gestire realmente la propria “biblioteca digitale” nettamente più forte. Di recente, ad esempio, proprio Google ha reso possibile l’upload direttamente da smartphone o tablet Android a Play Books senza dover più passare per il sito web. Purtroppo, come specificato, questa soluzione è possibile solo per dispositivi con sistema operativo del robottino verde sicché la stragrande maggioranza degli ebook reader viene tagliata fuori. La nuova sfida è, evidentemente, far sì che il “dialogo” tra libreria interna al device e quella caricata nuvola sia massimo; si tratta, si badi, di andare oltre alla semplice sincronizzazione, cosa oramai possibile con qualsiasi dispositivo, ma di poter spostare (senza dover ricorrere a cavi e cavetti e tanto meno senza essere obbligati a seguire farraginose procedure che necessitano di un manuale e l’interazione con interfacce grafiche tutt’altro che friendly) i propri libri nella massima libertà, meglio ancora se anche da servizi oramai utilizzatissimi come Drive e Dropbox (che, dal punto di vista logico, potrebbero configurarsi come l’equivalente degli scatoloni – o dei magazzini di deposito per riprendere una terminologia bibliotecaria – dove riponiamo i libri che vengono letti raramente).
Insomma, il mondo dell’ebook per conquistare il pubblico deve ampliare la libertà di scelta e le opzioni a favore dei lettori.
Concludendo, diversamente dal mondo fisico in quello digitale il problema non è più rappresentato dall’assenza di spazio, bensì quello della facilità (o meno) di organizzare e conservare personal digital libraries che, proprio per i motivi esposti, arrivano facilmente a contare migliaia di libri. Allo stato attuale dell’evoluzione tecnologica un giusto mix tra salvataggio in locale e sulla nuvola rappresenta, probabilmente, l’optimum. In locale non terrei moltissimi libri, anzi metterei solo i miei preferiti e quello/i in lettura; in modo tale si rende l’operazione di ricerca e recupero (in genere macchinosa a causa delle interfacce grafiche vetuste, rispetto a telefonini intelligenti e computer a tavoletta, degli e-reader) più agevole e veloce. La possibilità complementare di realizzare sulla nuvola una copia di sicurezza mi da, allo stesso tempo, la garanzia di avere sempre con me tutti miei libri così come la ragionevole certezza di non perderne nemmeno uno (laddove se mi rubano oppure mi si rompe l’ereader sono guai seri).
Questo, ribadisco, è il consiglio che mi sento di dare allo stato attuale delle cose. Per il futuro fondamentale sarà l’evoluzione soprattutto a livello software: gli ereader, in particolare, devono migliorare nettamente le loro prestazioni se non vogliono venir surclassati. Già oggi le varie applicazioni (Android o iOS) permettono di organizzare gli ebook in scaffali virtuali con una libertà impensabile, assicurando a questa classe di dispositivi un indubbio vantaggio competitivo rispetti ai rivali i quali oramai dalla loro possono vantare (oltre al giusto equilibrio tra tendenza al possesso e quella all’accesso) solo l’incredibile autonomia. Ciò li rende a tutti gli effetti le nostre “biblioteche personali” viaggianti. Un capitale non disprezzabile che non va sprecato.
14 Nov
Siamo tutti mediatori di informazione (con qualche riflessione sullo “specifico bibliotecario”)?
La scorsa settimana sono andato a Treviso a sentirmi un po’ di relazioni ad un convegno organizzato da Veneto Lettura ed ospitato dalla Fondazione Benetton. Il titolo dell’incontro, Nuove biblioteche per nuovi lettori, è autoesplicativo degli argomenti affrontati: la comunità bibliotecaria tornava infatti ad interrogarsi, per l’ennesima volta, sul proprio futuro come professione e su quello, correlato, delle biblioteche e del libro.
Come sempre (e com’è naturale che sia!) le posizioni espresse difficilmente collimavano del tutto. Ma al di là delle sfumature personali mi è sembrata esserci una generale concordanza su due aspetti: 1) il futuro delle biblioteche è slegato da quello dei libri (a riguardo Gianni Stefanini, Direttore del Consorzio Sistema Bibliotecario Nord Ovest ha sostenuto, statistiche alla mano, che se “lo specifico bibliotecario” è il prestito tempi bui ci attendono); 2) essendo il futuro delle biblioteche disgiunto da quello del libro, che si fa immateriale, altrettanto dovrebbero fare i bibliotecari, i quali dovrebbero divenire “mediatori di informazione” (e della conoscenza che ne deriva).
Io stesso, in tempi non sospetti, ho creduto nell’inderogabile necessità di un aggiornamento della professione bibliotecaria e, conseguentemente, di un suo riposizionamento in quello che entusiasticamente potremmo definire “il mercato dell’informazione”.
Ammessi i miei peccati, confesso pure che non sono più così certo come un tempo che una “fuga in avanti” verso quello che approssimativamente potremmo definire “il digitale” rappresenti la soluzione di tutti i nostri problemi. Giusto per dirne una credo che lo scarso appeal delle biblioteche non sia imputabile esclusivamente al fatto di essere legati a qualcosa di fisico e “vecchio” come il libro, ma al contrario ad aspetti quali la non adeguatezza di molte delle strutture che ospitano le nostre biblioteche, gli orari di apertura semplicemente insensati, la “vita in biblioteca” troppo permeata dalle regole burocratiche, dai divieti e via di questo passo. In questo senso il digitale non c’entra niente, c’entrano piuttosto prassi e mentalità.
Chiusa parentesi, torno a quanto detto a Treviso e qui posso concordare sul fatto che “lo specifico bibliotecario” non è rappresentato dal servizio di prestito e che pertanto, specie le biblioteche di pubblica lettura, non dovrebbero fossilizzarsi su di esso: l’assolvimento del compito di promuovere la lettura può avvenire, come risaputo, per altre vie!
Trovo però eccessivamente fumosa la prospettiva, che discende a cascata dalla decisione di sganciarsi dal moribondo libro di carta, di diventare tutti “mediatori d’informazione” e questo innanzi tutto perché è il concetto stesso di informazione ad essere estremamente vago. Cosa intendiamo con esso? Se adottiamo l’approccio di Luciano Floridi e della sua infosfera, tutto ciò che ci circonda è fonte di informazione, pure un sasso (non sto scherzando, leggere per credere)!
Appare evidente la necessità di delimitare il nostro “settore operativo” tanto più che anche i “cugini” archivisti e documentaristi (giusto per restare in famiglia) stanno valutando un simile riposizionamento o comunque ponendo la luce su questa dimensione della propria professione. Ma, si badi, non è di questi ultimi che dobbiamo preoccuparci. A farci la concorrenza, infatti, sono proprio quelli che fino a ieri erano i nostri utenti: in epoca di piena disintermediazione e di ricerche fai da te sul Web, chiunque sia in grado di crearsi una reputazione tale da essere ritenuto affidabile può considerarsi a buon diritto un “mediatore” di informazione (e di conoscenza).
Il problema per i bibliotecari sta tutto qui: devono delimitare il proprio campo d’azione per non sconfinare in quello di qualche altro “esperto” proprio nel momento in cui da un lato l’iperspecializzazione e dall’altro la disintermediazione fanno proliferare le figure concorrenti. Se aggiungiamo che il libro, dove avevano competenze da vendere, si va facendo “immateriale” si comprende il perché le prospettive non siano rosee.
Né l’invito, lanciato anche in occasione del Convegno di Treviso, ad andare lì dove queste competenze sono ancora richieste (siti di social reading, forum di discussione e gruppi di lettura online, etc.) è purtroppo detto che sia percorribile: considerando come gran parte dei bibliotecari operino presso biblioteche di pubblica lettura che a loro volta sono amministrativamente un servizio messo in piedi da un ente locale a servizio di un pubblico locale ed indicativamente coincidente con la popolazione di un quartiere o di un Comune, ho seri dubbi che gli amministratori approverebbero (e finanzierebbero) che i bibliotecari svolgessero un’attività, per quanto eticamente meritoria, a favore di una comunità diversa da quella che grossomodo rappresenta il loro bacino elettorale (né, per inciso, potremmo attenderci che i cittadini che ci pagano lo stipendio vengano in nostro soccorso se non ricevono un servizio in cambio). Temo cioè che finiremmo con il fornire un bell’assist a favore di chi, non ravvedendo nelle biblioteche alcuna utilità, non avrà alcuna remora a chiuderle definitivamente.