Posts Tagged ‘biblioteche’

Quando il caffè fa la differenza

Waterstone's

Il punto vendita Waterstone’s di Inverness presso il Mark & Spencer Mall

Persino le poche settimane (agostane ergo vacanziere) trascorse nel Regno Unito mi sono state sufficienti per farmi un’idea di come alcuni cambiamenti strutturali, non ancora pienamente esplicati in Italia, stiano coinvolgendo librerie e biblioteche d’oltremanica (d’altronde se Amazon UK, nel giro di appena due anni, ha annunciato il sorpasso delle vendite di ebook sui corrispettivi cartacei vuole dire che il digital shifting c’è stato eccome!).
Intendiamoci, esteriormente librerie e biblioteche preservano il consueto aspetto: libri in bella mostra, scaffali, locali accoglienti e sedi di pregio o comunque in posizioni centrali. A cambiare è il messaggio che si rivolge al cliente / utente circa l’offerta di prodotti e servizi a quest’ultimo destinati; come si evince dalle foto pubblicate in questo post, specie per le librerie, all’oggetto libro non viene praticamente più riservato il posto di rilievo che ci si potrebbe attendere: certo, i nuovi arrivi ed i best sellers sono ancora in bell’evidenza sulle vetrine, ma è innegabile che ormai si punta su altro: personalmente sono stato sorpreso dall’enfasi con cui si sottolinea la presenza all’interno di librerie e biblioteche dell’ormai immancabile area caffè. Emblematico il caso di Waterstone’s qui sopra, con il brand della catena libraria presentato quasi con lo stesso rilievo di quello di Costa Coffee (la risposta britannica allo statunitense Starbucks, che oltreoceano ha fatto da apripista nel campo con l’ormai ventennale alleanza con Barnes & Noble per poi penetrare all’interno delle biblioteche di college ed università), al punto che vien da chiedersi se stiamo entrando in una libreria od in una caffetteria! Nelle biblioteche questa tendenza è meno accentuata, ma la presenza di un angolo caffè (e non sto parlando dei distributori automatici!) è la regola, del resto accolta anche nelle ultime realizzazioni in Italia.
Ma il punto più interessante, e qui avviene l’interessante “saldatura” tecnologica, è che, si tratti di caffè all’interno di librerie o di biblioteche, i tavolini o divanetti sono sempre affollati di gente intenta a leggere ebook con i suoi e-reader o che comunque armeggia su tablet e smartphone; evidentemente, nonostante la copertura Wi-Fi (con reti aperte!) delle città inglesi sia eccellente in quanto a qualità del segnale e a capillarità degli hot spot, gli utenti / clienti ricercano in questi luoghi il silenzio e la quiete che altrove non possono trovare.
Insomma, la possibilità già ventilata che librerie e biblioteche diventino luoghi privilegiati per il download e la lettura di ebook, ma in generale di diffusione di una cultura del libro digitale, sembra trovare una conferma gettando luci speranzose sul futuro di queste storiche istituzioni, mettendo però in conto una grossa, paradossale evenienza: che l’utente scelga un posto anziché l’altro non per la qualità dei servizi erogati o per la preparazione e gentilezza dei suoi addetti ma per la bontà (o meno) del suo caffè: insomma, dopo anni di discorsi e convegni sulla (certificazione della) qualità totale, la differenza potrebbe finire per farla il caffè!

Café W di Waterstone's

Il Waterstone’s di Blackett Street a Newcastle upon Tyne. Anche qui in evidenza il proprio servizio bar (Café W)


Orkney Library & Archives

Orkney Library & Archives: in questo caso in primo piano è il prestito di ebook (via Overdrive)


Biblioteca del Baltic Centre for Contemporary Art

Biblioteca del Baltic Centre for Contemporary Art (Newcastle upon Tyne): nella sala adiacente, da copione, si trova un piccolo ma decisamente accogliente caffè


La biblioteca del GoMA (Gallery of Modern Art) di Glasgow

La biblioteca del GoMA (Gallery of Modern Art) di Glasgow, pure fornita di ampia e frequentata zona caffè

#SalTo12. Riflessione n. 2

Salone del Libro di Torino 2012

Salone del Libro di Torino 2012

In questo secondo ed ultimo post dedicato al Salone del Libro di Torino riprendo, sviluppandolo, un argomento presente in nuce già nell’articolo di ieri; infatti nel momento in cui evidenziavo come il modello di business ad oggi prevalente nell’editoria digitale rischi di fungere da freno anziché da traino sottintendevo implicitamente come ciò andasse in primo luogo a discapito di quello che dovrebbe essere il protagonista assoluto, vale a dire il lettore.
In effetti, a parole, tutti nel mondo dell’editoria affermano di avere a cuore di quest’ultimo ma nella realtà le cose stanno un po’ diversamente e quanto visto e (non) sentito al Salone conferma questa mia idea.
Infatti posto che la tecnologia dovrebbe migliorare la vita e non complicarla vien da chiedersi: è veramente pensato per facilitare la vita del lettore/cliente un sistema che prevede il DRM? A Torino i grandi dell’editoria hanno sì ventilato l’ipotesi di togliere i tanto vituperati (da parte dei lettori) “lucchetti digitali” ma non è giunto, a quanto mi risulta, nessun annuncio ufficiale (diversamente da quanto avvenuto al Salone di Londra di qualche settimana fa)!
Ancora: è veramente pensato per l’utente un sistema che adotta un formato proprietario come il .mobi leggibile solo con il device che tu stesso produci a meno che non ti metti a smanettare con programmi di “conversione”? Già, perché se andavi allo stand di Amazon i ragazzi (peraltro gentilissimi) mica ti dicevano di questo piccolo “inconveniente”!
E proseguiamo: è veramente pensato per l’utente un sistema in cui si è praticamente “costretti” a comprare i propri libri in un determinato online bookstore che magari non ha nemmeno un adeguato catalogo e questo perché non è stato trovato l’accordo con tutte le case editrici sulla ripartizione dei profitti? Ok, la situazione sta sensibilmente migliorando, ma ciò non toglie che siamo ben lungi dal raggiungere l’optimum!
Per finire, siamo così sicuri che il ricorso alla nuvola (alla quale, per inciso, da sempre guardo con interesse) rappresenti, così come viene raffigurato da alcuni operatori, un passo in avanti? Ad esempio nel momento in cui mi si elencano le virtù insite in un sistema come quello rappresentato da Reader di BookRepublic (app di lettura presentata al Salone che scommette proprio sul cloud; n.d.r.) ovvero possibilità di creare una propria biblioteca sulla nuvola, lettura a partire da n dispositivi che vi si collegano, sincronizzazione ergo possibilità di riprendere la lettura lì dove l’abbiamo interrotta, etc. non sarebbe forse opportuno ricordare come in caso di crash dei server o di assenza di connessione la lettura non è semplicemente possibile (a meno che non si possieda anche una copia in locale)? E non sarebbe male nemmeno rammentare che per accedere alla nuvola serve una connessione dati e che quest’ultima implica la presenza di un hotspot Wi-Fi gratuito e/o la sottoscrizione di un abbonamento sempre che il device da noi posseduto sia dotato di antenna Wi-Fi e/o slot per SIM-card? Insomma, il cloud fa molto figo ma come tutte le tecnologie ha anche delle controindicazioni che sarebbe bello venissero spiegate.
In definitiva, mi sembra che dell’utente ci si ricordi “a singhiozzo” e forse sarebbe il caso di imparare qualcosa dalle biblioteche (sulla sorte delle quali proprio al Salone del Libro ci si è posti inquietanti domande) e dalla loro cultura di servizio che, sicuramente nella teoria e sicuramente anche in alcune realtà avanzate, pone davvero al centro l’utente (approccio user-centered)! Forse nel nostro futuro digitale della biblioteca e dei bibliotecari non avremo più bisogno ma della cultura della biblioteca indubbiamente sì.

La natura infrastrutturale degli archivi contemporanei

IMG_20110415_151845 di GrigorPDX, su Flickr

Left: air filters - they look like plain old disposable filters you'd have in your furnace. Right top: louvers leading to outside air Right bottom: louvers leading to the "hot" side of the data center racks.
(Foto di GrigorPDX, su Flickr)


INTRODUZIONE.

In un celebre quanto datato articolo Robert-Henry Bautier, insigne archivista e medievista francese, proponeva una interessante periodizzazione circa la storia degli archivi; in particolare egli individuava quattro fasi, la terza delle quali veniva definita come “celle des archives arsenal de l’authorithé” e che sarebbe stata caratterizzata dalla concentrazione dei fondi all’interno di edifici realizzati ad hoc che erano in tutto e per tutto castelli, vale a dire muniti di fossati, mura e torrioni difensivi in pietra (da manuale i casi del castello di Simancas in Spagna oppure quello di Castel Sant’Angelo nello Stato Pontificio). Dietro a simili realizzazioni stava una concezione che attribuiva ai documenti un’importanza decisiva per il regolare andamento della macchina amministrativa, l’attestazione dei diritti e delle prerogative regie così come per l’attuazione della politica estera (per riprendere Bautier gli archivisti, e gli archivi, “se font auxiliaires de la politique e de la diplomatie“) motivo per cui la dimensione del corretto ordinamento delle carte procedeva di pari passo con quella della loro “sicura custodia”. Insomma, il ricorso a questa terminologia “militaresca” da parte di Bautier non era dettato da semplici motivazioni retoriche ma dalla constatazione di una realtà oggettiva: così come l’arsenale è una struttura deputata alla costruzione, alla riparazione, all’immagazzinamento ed alla fornitura di armi e munizioni, similmente l’archivio era il luogo in cui trovavano riparo quei documenti che sarebbero stati usati alla stregua di armi nel corso delle bella diplomatica del XVII secolo.

I DATA CENTER, ARSENALI DEL XXI SECOLO.

Con le debite differenze, sulle quali torno poco sotto, mi sembra che gli odierni “arsenali archivistici” siano rappresentati dagli enormi data center che si vanno costruendo in giro per il mondo; il paragone appare calzante in quanto 1) in essi si vanno concentrando le “memorie digitali” relative a milioni e milioni di persone, enti ed aziende 2) nella loro realizzazione vengono adottate precauzioni ed accorgimenti del tutto affini a quelle delle basi militari. Basta dare una scorsa alle misure di sicurezza messe in campo da Amazon per capire come l’accostamento con la realtà militare sia tutt’altro che campato per aria:

Amazon has many years of experience in designing, constructing, and operating large-scale data centers. This experience has been applied to the AWS platform and infrastructure. AWS data centers are housed in nondescript facilities, and critical facilities have extensive setback and military grade perimeter control berms as well as other natural boundary protection. Physical access is strictly controlled both at the perimeter and at building ingress points by professional security staff utilizing video surveillance, state of the art intrusion detection systems, and other electronic means. Authorized staff must pass two-factor authentication no fewer than three times to access data center floors. All visitors and contractors are required to present identification and are signed in and continually escorted by authorized staff.

Amazon only provides data center access and information to employees who have a legitimate business need for such privileges. When an employee no longer has a business need for these privileges, his or her access is immediately revoked, even if they continue to be an employee of Amazon or Amazon Web Services. All physical and electronic access to data centers by Amazon employees is logged and audited routinely.

Fin qui le affinità; venendo alle differenze, ve ne sono due di macroscopiche: 1) gli archivi residenti nei data center, per quanto militarizzati, almeno in linea di principio non sono concepiti per essere al servizio di un qualche potere vessatorio ma bensì sono la base per offrire “servizi” e/o custodire dati, documenti, etc. di cittadini liberi, di aziende operanti nel libero mercato e di istituzioni democratiche 2) diversamente dai secoli passati, lo Stato sembra latitare ed i principali data center sono di proprietà di colossi ben noti al grande pubblico come Amazon, Apple, Google, Facebook ma anche di provider / fornitori come Carpathia, Cogent, OVH, Rackspace, Digital Realty; operatori che ovviamente poi sono ben lieti di offrire i propri “servizi” ai vari enti pubblici! Ad esempio sia Amazon che Carpathia hanno sviluppato apposite soluzioni per il Governo Federale degli Stati Uniti, il quale attinge largamente in modalità cloud computing a questo tipo di servizi (cliccate qui per una lista parziale); in Europa invece, essendo la legislazione comunitaria relativa al trasferimento transfrontaliero dei dati decisamente più restrittiva, si è molto più cauti nell’affidarsi a privati.
Ciò nonostante, ragionando in prospettiva, è verosimile ipotizzare che nell’Unione Europea o si allenteranno le citate restrizioni al trasferimento dei dati (a riguardo si sta delineando una spaccatura tra stati nordici, non disponibili ad un simile passo, e stati mediterranei, più possibilisti), dando dunque la possibilità di avvalersi dei servizi offerti da privati, oppure si procederà alla realizzazione di data center europei in territorio europeo. Personalmente ritengo la seconda opzione come la più lungimirante per i seguenti motivi: 1) il possedere dei data center è, dal punto di vista archivistico, premessa necessaria (ma non sufficiente) per attuare le indispensabili procedure tese a garantire la continuità operativa ed il disaster recovery (il che consente in primis di salvaguardare la parte “corrente”, vale a dire quei dati e documenti contenuti nei server ed indispensabili per il proseguimento dell’attività “istituzionale” del produttore, ed in ultima analisi di garantire la conservazione nel lungo periodo; ovviamente anche un privato può attuare questi piani ma quando si tratta della cosa pubblica e, soprattutto, sono in ballo aspetti così delicati, sono dell’avviso che la P.A. debba occuparsene direttamente) 2) assicura indipendenza ed in un ultima analisi “libertà”. Il rovescio della medaglia, evidente, è che ci si deve fare carico di tutti i costi: realizzativi, di gestione e di manutenzione.

DATA CENTER: MODELLI REALIZZATIVI, ASPETTI TECNICI…

La maggior parte dei moderni data center non è costituita da pochi supercomputer o pochissimi mainframe, bensì dall’unione all’interno di un medesimo spazio fisico di migliaia di elaboratori di fascia medio – bassa. E’ questo, tra i tanti, l’approccio di Google che significativamente lo definisce wharehouse computing e così lo descrive:

The hardware for such a platform consists of thousands of individual computing nodes with their corresponding networking and storage subsystems, power distribution and conditioning equipment and extensive cooling systems. The enclosure for these systems is in fact a building structure and often indistinguishable from a large warehouse

Tale definizione individua quelli che sono gli elementi principali di un data center ovvero “n” elaboratori, custoditi in una sorta di armadietto definito in gergo rack, a loro volta siti all’interno di un edificio e collegati tra di loro. Da ciò deriva che in un DC ricoprono un ruolo cruciale i seguenti sistemi:
1) UPS (Uninterruptible Power Supply; Gruppo di Continuità), il quale assolve a tre compiti fondamentali, ovvero a) garantire l’erogazione continua di energia elettrica alla struttura e, qualora dovesse verificarsi un’interruzione nella fornitura da parte della public utility, b) far intervenire la batteria fintantoché non interviene il generatore di emergenza, il tutto c) senza che si verifichino dannosi sbalzi di tensione
2) PDU (Power Distribution Units), ovvero il sistema di distribuzione dell’energia elettrica, distribuzione che avviene attraverso quadri e/o interruttori elettrici in genere “annegati” nel pavimento del data center
3) sistema di condizionamento; il metodo più diffuso vede la presenza di CRAC (Computer Room Air Conditioning), vale a dire di “stanze” dalle quali spira aria fredda che, scorrendo sotto il pavimento (tra il pavimento vero e proprio e quello che effettivamente si calpesta e sul quale sono collocati rack, CRAC, etc. può esserci sino ad un metro e mezzo di spazio vuoto; n.d.r.), esce attraverso delle specie di grate giusto in corrispondenza dei rack da raffreddare; l’aria calda uscita dai rack fluisce verso l’alto all’interno di un ulteriore spazio vuoto posto nel soffitto e di qui indirizzata verso il CRAC per riprendere il circolo. Nei DC più evoluti la gestione dei flussi d’aria è così raffinata che ad ogni singolo server perviene la necessaria aria di raffreddamento alla temperatura ottimale (una via alternativa è il cosiddetto in-rack cooling nel quale ogni “armadietto” è praticamente “cablato” da serpentine che fungono da scambiatori di calore; questa soluzione ovviamente ottimizza il raffreddamento ma è assai costosa dal momento che l’impianto di raffreddamento viene ad estendersi su tutta la superficie del centro dati oltre che relativamente più pericolosa giacché, in caso di rottura delle serpentine, il liquido di raffreddamento potrebbe finire sulla parte elettrica… evenienza assolutamente da scongiurare!).

Cabinet Airflow

Cabinet Airflow di talk2stu, su Flickr

Va ricordato, per finire, che per aumentare il livello di sicurezza spesso e volentieri i citati elementi sono ridondanti; così se in un data center Tier I vi è un’unico canale di raffreddamento e di distribuzione dell’energia in un Tier IV (il più elevato della scala) ve ne sono due di attivi oltre che ulteriori percorsi di emergenza. Non va ovviamente neppure dimenticato che fondamentale risulta essere la localizzazione geografica del data center: non dovrebbe trovarsi, ad esempio, in zone sismiche, in prossimità di corsi d’acqua ed in generale in aree soggette ad allagamenti o frane (“a rischio idro-geologico”) così come andrebbero evitate zone troppo fredde od al contrario troppo calde! Inoltre, sarebbe auspicabile che nella realizzazione dei DC europei si metabolizzasse l’approccio “green” di Gartner e, pertanto, si facesse ricorso a fonti di energia rinnovabile.

… E L’OBIETTIVO INDEROGABILE DELLA CONTINUITA’ OPERATIVA.

Castelli e fortezze, spesso progettati dai migliori architetti militari, erano in grado di resistere a lunghissimi attacchi ed assedi senza che si verificasse un sensibile degradamento della loro capacità bellica; similmente tutte le soluzioni tecnologiche descritte nella precedente sezione sono finalizzate a garantire la continuità operativa (business continuity), ossia il normale funzionamento dei servizi ICT utilizzati per lo svolgimento delle attività istituzionali, anche in presenza di disguidi tecnici, di “attacchi” o di altri eventi imprevisti. A fronte di avvenimenti che provocano l’indisponibilità prolungata del data center in cui normalmente si opera / al quale ci si appoggia (sito primario), viene attivato il piano di disaster recovery, il quale prevede l’attuazione di un mix di soluzioni tecnologiche ed organizzative tese a garantire la pronta ripresa dell’attività istituzionale in siti alternativi (detti secondari) rispetto a quelli primari/di produzione per il tempo necessario a rendere nuovamente operativo il sito primario.
Si tratta, manco a dirlo, di argomenti da tempo dibattuti in ambito internazionale ma che in Italia, dal punto di vista legislativo, solo di recente hanno finalmente trovato piena recezione; ad esempio le “Linee guida per il Disaster Recovery delle Pubbliche Amministrazioni”, redatte ai sensi dell’art. 50-bis, co. 3 del CAD (D. Lgs. 82/2005), hanno visto la luce solo nell’autunno 2011 ed imponevano che ogni ente presentasse entro il 25 aprile 2012 un Piano di Continuità Operativa (PCO) ed uno di Disaster recovery (PDR), individuando contestualmente una figura responsabile (RCO). Al di là del fatto che le varie amministrazioni abbiano ottemperato o meno nei tempi prescritti ai suddetti obblighi di legge, mi preme qui rilevare come l’input sia stato essenzialmente “archivistico”: nelle citate Linee Guida si trova infatti testualmente scritto che “il processo di dematerializzazione promosso dal CAD […] ha trasformato da ordinatoria a perentoria l’azione di eliminazione della carta, comporta[ndo] un incremento della criticità dei sistemi informatici che non possono più contare su un backup basato sulla documentazione cartacea”.
Da quanto innanzi detto derivano a cascata alcuni cambiamenti di una certa portata:
1) la continuità operativa ed in subordine il disaster recovery sono possibili a patto di individuare preliminarmente, accanto al sito primario, un sito secondario al quale trasferire come operazione di routine i dati / documenti prodotti dal primario; in caso di “problemi” il sito secondario diviene temporaneamente operativo fintantoché il primario non ritorna disponibile e pertanto deve disporre delle necessarie risorse hardware e software =>
2) nelle procedure di BC / DR diventa un fattore cruciale il trasferimento tra i due siti; le Linee Guida prevedono sei livelli (Tier 1 – 6) nei primi due dei quali il trasferimento consiste nel trasporto fisico (ad esempio a mezzo di apposito furgone) dal sito primario a quello secondario dei dischi ottici contenenti la copia di backup. E’ inutile sottolineare, però, come nell’epoca di Internet, grazie anche all’innalzamento delle velocità di upload / download ed ai migliori tempi di latenza, la Rete sia la soluzione più in voga e come il paradigma del cloud computing sia la soluzione sulla quale oggi si punta di più
3) dando per assodato che il trasferimento dei dati avvenga attraverso la Rete, va osservato che le operazioni di copia (Data Mirroring) finiscono per riguardare anche gli applicativi; le Linee Guida infatti lo definiscono “un processo con cui dati ritenuti critici vengono copiati secondo precise regole e politiche di backup al fine di garantire l’integrità, la custodia e la fruibilità degli archivi, dei dati e delle applicazioni e la possibilità di renderli utilizzabili, ove fosse necessario, procedendo al ripristino degli archivi, dei dati e delle applicazioni presso un sito alternativo a quello primario”. In particolare uno degli obiettivi principali è ottenere l’allineamento dei dati (ovvero il “coordinamento dei dati presenti in più archivi finalizzato alla verifica della corrispondenza delle informazioni in essi contenute”; per inciso l’allineamento, a seconda del Tier prescelto, può essere asincrono o sincrono) ed eventualmente il retroallineamento (ovvero “caricare” i dati prodotti nel sito secondario durante una fase di emergenza in quello primario in vista della ripresa dell’operatività di quest’ultimo) =>
4) dal punto di vista archivistico l’attuazione del Piano di Continuità Operativa significa il trasferimento costante di dati / documenti dal sito primario a quello secondario con questi ultimi che, nel caso di Tier 6, sono de facto speculari, motivo per cui (fatto salvo il caso di mancato allineamento), mi sembra si possa parlare della presenza di originali in duplice copia (per quanto poco senso possa avere la distinzione originale – copia in ambiente digitale). Inoltre è interessante osservare come, proprio perché parte integrante delle policy messe in atto, l’instabilità e l’ubiquità di dati e documenti sia, soprattutto nella fase corrente, più la regola che l’eccezione.
5) il legislatore ha chiaro come le operazioni di backup da un sito all’altro non equivalgono alla conservazione di lungo periodo per finalità storico – documentali; a proposito nelle Linee Guida ci si limita a ricordare come occorra raccordarsi al Manuale di conservazione e come il “salvataggio” debba avvenire su supporti adeguati. Sulla scorta di tali suggerimenti mi vien da ipotizzare due possibili soluzioni: a) all’interno della medesima coppia di data center vanno predisposti dei rack attrezzati con storage server di elevata qualità (diversamente dai rimanenti che, abbiamo visto, possono essere di livello medio – basso) nei quali destinare quei dati e documenti per i quali è prevista la conservazione permanente (la cosa è fattibile in quanto la “destinazione finale” è nota sin dal momento della creazione) b) che accanto alla coppia di data center deputati alla fase operativa / corrente ne venga costruita una ad hoc per quella di conservazione.
A prescindere da quale delle due opzioni prediligere (motivazioni di contenimento dei costi / ottenimento di economie di scala mi fanno propendere per la prima soluzione), va rimarcato come venga confermato che la migliore strategia conservativa sia quella di assicurare (potendolo provare attraverso audit, file di log, etc.), che la vita dei dati / documenti è sempre avvenuta all’interno di un sistema sicuro ed inviolato (e qui ritorniamo alle specifiche costruttive che devono possedere i data center) e che le procedure di copia sono avvenute senza errori.
6) Superfluo, da ultimo, sottolineare come gli aspetti tecnici non debbano mettere in secondo piano quelli organizzativi (come sempre deve venir coinvolta l’intera organizzazione!); mi preme solamente evidenziare come vada assolutamente individuata una catena di comando strutturata gerarchicamente secondo un modello che guarda caso rimanda nuovamente all’ambiente militare.

CONCLUSIONI.

Considerando la formazione prettamente umanistica della maggior parte degli archivisti (sottoscritto naturalmente incluso), comprendo come gli argomenti trattati in questo post appaiano oggettivamente ostici; eppure con tali tematiche occorre confrontarsi in quanto, è la mia convinzione, l’archivio del prossimo futuro coinciderà de facto con i moderni data center. Si tratta di un cambiamento di prospettiva di notevole portata per almeno i seguenti motivi: a) in primo luogo perché si torna a parlare di archivio nel suo complesso e non per questa o quella delle ripartizioni logiche – corrente, deposito, storico – nelle quali la teoria e la legislazione tradizionalmente l’hanno suddiviso b) in secondo luogo perché l’archivio diviene infrastruttura strategica e centrale per il “regolare svolgimento” della vita (digitale) di cittadini, aziende ed enti pubblici c) ultimo perché, della costruzione di tali data center / archivi “arsenali”, devono tornare a farsene carico gli Stati, meglio ancora se in chiave europea, l’unica che può garantire il necessario apporto finanziario nonché quell’ampiezza di spazi geografici tali da rendere la localizzazione dei DC veramente adeguata al raggiungimento dei dichiarati obiettivi di business continuity e di disaster recovery.

A chi volesse approfondire questo importante argomento consiglio di leggere la versione su Storify di questo post, ricca di documenti utili.

E-book in Italia, l’incertezza continua

Samsung eBook Reader with a paperback book

Samsung eBook Reader with a paperback book di umpportal.com

I tanto attesi dati definitivi sull’editoria e sull’ebook in Italia nel 2010, attesi soprattutto perché quelli forniti dall’AIE possono a buon diritto essere considerati come “ufficiali”, non hanno contribuito a fare quella chiarezza che ci si attendeva. In generale torna il segno positivo (+ 0,3%) ed aumentano i lettori (come evidenziato tempo fa anche dall’ISTAT), ma calano numero di nuovi titoli e tirature medie, risultati che in considerazione della crisi in atto possono essere anche accolti con moderata soddisfazione.
La cosa preoccupante è che l’ebook, come peraltro ampiamente percepito senza il bisogno di raffinate indagini, non cresce come dovrebbe fermandosi allo 0,04% (lontano da quell’1% indicato l’anno scorso proprio di questi tempi come obiettivo a portata di mano). Nel suo intervento Marco Polillo, presidente AIE, ha giustamente ricordato come non aiuti l’IVA (salita, contro ogni logica, al 21%) così come il costo dei principali dispositivi di lettura si mantenga elevato, ma non vengono affrontati a mio avviso quei nodi cruciali che ho elencato nel mio post di ieri: portabilità, necessità di omogeneizzazione su un unico standard, niente DRM, niente frammentazione dei titoli tra i vari online bookshop (le vendite di questi ultimi sono in aumento ed è una cosa positiva in quanto sarà attraverso tali canali che il libro elettronico verrà principalmente commercializzato), appoggiarsi a biblioteche pubbliche e sistema scolastico in quanto strutture radicate tra la gente capaci di far conoscere a tutti l’ebook (a proposito, si legga questo articolo apparso oggi e che conferma con dovizia di dati quanto ieri sostenevo, pur basandomi su altre fonti, ovvero il ruolo di volano che public libraries e sistema educativo stanno svolgendo negli Stati Uniti nella diffusione del libro digitale).
Insomma leve sulle quali agire per ottenere un cambio di marcia ci sono, certo l’incertezza sul futuro dev’essere tanta se è vero che l’AIE, ed in particolare Polillo nel suo intervento, ben si guardano da fare stime sul futuro prossimo venturo (ci si limita infatti solo a dire che il numero di titoli crescerà). Evidentemente la paura di restare scottati è tanta.

La consueta versione su Storify è puntualmente corredata dai documenti cui ho fatto cenno in questo post e che invito tutti a leggere.

Geolocalizzazione dei data center e cloud computing: da Gartner una nuova prospettiva

Un recente studio di Gartner, significativamente intitolato “Greening the Cloud: Location Is Critical for the Sustainable Future of Outsourced Data Storage and Services”, offre una prospettiva d’analisi diversa relativamente alle modalità di implementazione del cloud computing in generale e della propria server farm nello specifico.
Fino ad oggi infatti la maggior parte degli studi poneva l’attenzione sui vantaggi “convenzionali” ottenibili affidando a terzi la propria infrastruttura IT. I fattori generalmente citati come positivi andavano dal risparmio nell’acquisizione di hardware alla successiva gestione e manutenzione, alla sua scalabilità nonché ai miglioramenti “operativi” con ricadute finali sulla produttività complessiva dell’organizzazione. I benefici dunque in quest’ottica rientravano in tre grandi categorie: finanziari, tecnologici (= un’infrastruttura più snella e competitiva ideale per un mondo in cui mobilità e connettività “sempre ed ovunque” sono ormai elementi imprescindibili) ed operativi.
A fronte di questi vantaggi gli aspetti negativi che gli esperti erano (sono) soliti sollevare riguarda(va)no la sicurezza dei dati sensibili risiedenti presso server di terzi (ovviamente siamo nel caso di public cloud) ed i conseguenti rischi operativi e soprattutto legali derivanti dalla scelta di ricorrere ai servizi sulla nuvola.
Paradossalmente quello della sicurezza dei dati, che per molti sarebbero fortemente a rischio, era (è) un punto che gli esperti pro cloud sistematicamente presenta(va)no come punto di forza della nuvola in quanto a loro avviso in un sistema basato su di essa la ridondanza dei dati e delle infrastrutture, la sicurezza delle location fisiche (realizzate in luoghi geograficamente a basso rischio di disastro naturale / ambientale e dotate dei migliori sistemi di sicurezza, monitorati h24 da personale altamente qualificato), etc. darebbero massime garanzie in termini non solo di sopravvivenza dei dati ma anche di business continuity. Insomma, secondo costoro se non è il non plus ultra poco ci manca!
Lo studio Gartner che mi ha dato lo spunto per questo articolo si inserisce in questo contesto, nel quale le valutazioni di ordine economico sono di primaria importanza, ma compie un salto di qualità; infatti se fino ad oggi nel momento in cui si decideva dove localizzare geograficamente la propria infrastruttura IT si tenevano per l’appunto a mente aspetti quali sismicità della zona, presenza di corsi d’acqua (= rischio esondazione) o per contro vicinanza al mare (= tsunami) e via discorrendo (tutti aspetti che dovrebbero essere ben analizzati, predisponendo contestualmente adeguate contromisure, nei vari piani di sicurezza e di disaster recovery) ora gli analisti Gartner evidenziano come un altro aspetto vada tenuto in debita considerazione: la disponibilità in loco di energia pulita.
Come accennavo, le basi del ragionamento sono squisitamente economiche: poiché una delle principali voci di costo nel mantenimento delle imponenti server farm è quella energetica (i consumi vanno alle stelle soprattutto per riscaldare / raffreddare gli impianti e gli ambienti tout court), tutte quelle aziende che intendono passare al cloud come scelta strategica di lungo periodo dovrebbero localizzare le proprie infrastrutture IT / affidarsi ad aziende localizzate in luoghi e/o nazioni nei quali vi sia abbondanza di energia pulita e possibilmente low cost.
L’esempio portato da Gartner è lampante: l’Australia, troppo dipendente dal carbone (ed in generale dai combustibili fossili), sconterebbe uno “svantaggio competitivo” rispetto alla “vicina” Nuova Zelanda, dove un giusto mix di energie rinnovabili (eolico, fotovoltaico, etc.) garantirebbe, grazie anche alla politica governativa che tende ad incentivarne l’uso, notevoli vantaggi a quelle aziende che intendono qui impiantare la loro server farm (se si guarda al rischio sismico, lasciatemi dire, non si tratta di un bell’affare…).
Ovviamente, conclude Gartner, l’accesso ad energia “verde” e ad un prezzo accessibile non è che un tassello nella risoluzione del “problema energetico”; così sarebbe auspicabile che dal punto di vista costruttivo oltre agli aspetti di sicurezza (impianti antincendio, porte tagliafuoco, etc.) si tenesse conto di fattori quali l’isolamento termico / dispersione del calore e magari integrando nelle strutture stesse delle farm pannelli fotovoltaici a film “di nuova generazione” e via discorrendo!
Insomma, uno studio che apre nuove prospettive anche per paesi come l’Italia (che in fatto di rinnovabili sta facendo notevoli passi in avanti e che ha un enorme potenziale inespresso, anche se ad oggi la dipendenza dai combustibili fossili resta schiacciante), dove altri fattori (elevata percentuale di territorio a rischio idrogeologico e/o sismico su tutti, ma anche scarsa disponibilità di personale skilled reperibile sul posto) sembrerebbero giocare a suo sfavore e che viene incontro, specie per le Pubbliche Amministrazioni, a quelle che sono precise disposizioni di legge (che prevedono ad esempio la residenza di particolari tipi di dati all’interno di server situati geograficamente sul territorio nazionale) nonché alla particolare “sensibilità” di istituzioni quali gli archivi e le biblioteche, per i quali il patrimonio culturale dell’Italia (digitalizzato o in via di produzione che sia) non può e non deve finire all’estero per la mera necessità di risparmiare.

Come ormai consueto ho creato una versione storyfizzata (pertanto fornita degli opportuni link e riferimenti) di questo post: per questa lettura “alternativa” cliccate qui.

Nuove frontiere del giornalismo (non solo fai-da-te): Storify

Storify: ecco un’applicazione utile per tutti coloro che sono attivi su più fronti digitali e non riescono a gestire il flusso d’informazione / le diverse (instabili) fonti, indipendentemente dalla loro provenienza (social network, siti web tradizionali) e dal formato (audio, video, testo, etc.).
Uno strumento peraltro di una facilità d’uso incredibile destinato non solo ad apprendisti giornalisti ma anche per i “professionisti”.
Un modo insomma per aggregare / assemblare informazioni su specifici argomenti rendendole immediatamente disponibili online: che poi si tratti, per archivisti e bibliotecari, di altro materiale meritevole di conservazione è tutto da vedere. Di certo il proposito di “archiviare il web” si fa sempre meno praticabile vista la crescita esponenziale di “dati”.

Un esempio pratico fatto al volo di come “funziona” Storify lo trovate a questo indirizzo (l’argomento trattato è il crash dei server di Amazon EC2).

In libreria “Archivi e biblioteche tra le nuvole”

"Archivi e biblioteche tra le nuvole" (front cover)

Come preannunciato nel precedente post ho pubblicato un libro su cloud computing e dintorni.
In particolare parlo delle sue applicazioni in ambito archivistico e bibliotecario in sinergia con la diffusione dei nuovi mobile device, il che mi porta ad approfondire temi quali il social reading / networking, il fenomeno dello storage sulla nuvola e tutti i connessi problemi di privacy.

Cloud computing in archivi e biblioteche: tutti lo usano, nessuno ne parla

Del cloud computing tutti ne parlano: ne parlano i CFO e ne parlano i CIO, ne parlano gli economisti e ne parla il Garante della Privacy, ne parlano i nostri amministratori pubblici e ne parlano i costruttori di automobili. Ne parlano però poco o nulla gli archivisti ed i bibliotecari.
Eppure il cloud computing è già usato da tempo tanto da archivisti che da bibliotecari sia nella sua versione SaaS (Software as a Service; una volta si sarebbe detto client-server in opposizione a stand alone; n.d.r.) attraverso software come Clavis NG, ICA-Atom, x-Dams (nel sito ufficiale lo si definisce di tipo ASP, ma la sostanza non è molto diversa), sia nella sua versione IaaS (Infrastructure as a Service): che altro è una biblioteca digitale se non un esempio ante litteram di cloud computing? Che le risorse digitali siano stipate in server di proprietà o affittati dall’altra parte del mondo, poco cambia nella sua struttura logica!
Eppure a parte qualche riferimento sparso (soprattutto da parte di chi si occupa del lato “informatico”, uno su tutti Valdo Pasqui) pochi, veramente pochi lo citano in modo esplicito!

Scelta deliberata per non rispondere ai quesiti posti dalla nuvola o ignoranza?

PS Personalmente mi sono interessato al tema da qualche anno a questa parte e a breve pubblicherò qualcosa a riguardo.

Social network e libri: sfida chiusa tra aNobii e GoodReads?

Sempre più spesso si parla di social network dedicati al libro e si è soliti sentir dire che la scelta è ristretta tra aNobii e GoodReads. In effetti questa affermazione è sostanzialmente vera in quanto altri servizi (come Feedbooks) hanno una componente social estremamente limitata.
In questo post elenco in estrema sintesi i pro ed i contro di questi servizi; una sorta di guida per chi non sapesse su quale dei due puntare.
aNobii: si autodefinisce «an online reading community built by readers for readers allowing you to shelve, find and share books. Our mission is to bring book lovers together and encourage reading».
PRO:

  1. oltre 25 milioni di libri tra cui scegliere
  2. possibilità di inserirli in una propria libreria virtuale (shelf) e commentarli condividendo il tutto con gli amici
  3. possibilità di a) acquistare il libro desiderato da più rivenditori online b) comprarlo (dietro pagamento di una somma da pattuire) oppure scambiarlo per un determinato periodo di tempo con un altro utente che dichiara di possederlo e che magari desidera leggere uno dei nostri libri
  4. scritto in italiano
  5. interessante funzione per smartphone => usati come lettori codice a barre per scoprire info su libri a partire dall’ISBN

CONTRO:

  1. un po’ lento
  2. non da possibilità di scaricare e-book
  3. pochi widget

Goodreads : la sua mission «is to get people excited about reading. Along the way, we plan to improve the process of reading and learning throughout the world».
PRO:

  1. consente di inserire libri in una propria libreria virtuale, commentandoli
  2. i commenti non sono limitati al libro in sé ma si possono ad esempio fare citazioni tratte da altri testi
  3. si possono velocemente invitare amici da tutti i social network più “generalisti” (Facebook, Twitter, MySpace, etc.)
  4. dei libri individuati si possono avere preview che talvolta sfocia nel full text
  5. c’è un’apposita sezione e-book
  6. i libri li si può comprare
  7. il sito in generale è più veloce rispetto ad aNobii
  8. si può autopubblicare e promuovere il proprio libro
  9. amplia scelta di widget

CONTRO:

  1. LA VERSIONE ITALIANA NON E’ IMPLEMENTATA APPIENO =>
  2. LA SCELTA DI TITOLI IN ITALIANO NON E’ ADEGUATA
  3. non è possibile prestarsi libri tra utenti

NOTA DOLENTE FINALE, da parte di un bibliotecario deluso: nessuno dei due ricerca la minima integrazione con il mondo delle biblioteche.

“Libri in prestito a pagamento”? No grazie!

Nel corso dell’E-book Lab Italia (Rimini, 3-5 marzo 2011) si è parlato, tra le tante cose, di prestito di e-book e relativi modelli di business.
In sostanza Simplicissimus BookFarm ha annunciato che a breve dalla sua piattaforma si potranno prendere a prestito per brevi periodi (24 ore, 1 settimana) e-book (protetti con drm a tempo) ad un prezzo medio di 99 centesimi; questo sistema, si suggerisce, potrebbe poi essere fatto proprio dalle biblioteche.
Similmente afferma di volersi muovere Edigita, appoggiandosi a MediaLibrary, che come noto ha già in essere precisi accordi con le biblioteche.
Ora, sorvolando sull’inopportuna definizione di “prestito di e-book” quando poi si chiedono soldi per tale servizio, capisco che il sistema dei micropagamenti è già stato affinato (iTunes docet) e che dal punto di vista psicologico acquisti così parcellizzati (il prezzo medio, come già detto, è inferiore all’euro) possono spingere ad effettuare molteplici transazioni, ma personalmente non vedo il senso di pagare per prendere a prestito un libro del quale potrei aver voglia/bisogno di rileggere un determinato passaggio. Un libro non è un dvd! Mi si può allora obiettare che, qualora dovessero subentrare nel prestito come intermediarie le biblioteche, il lettore / utente finale non sborserebbe nulla di tasca propria e su questo posso anche concordare.
Il punto però è che alcuni editori chiaramente mirano a by-passare il circuito delle biblioteche, ma in tal caso si torna all’ipotesi di cui sopra: solo in certi specifici casi pagherei per un libro a prestito e dunque per gli editori la vedo dura (essendo la quasi totale gratuità un punto di forza del “servizio bibliotecario” ). Per concludere dal punto di vista delle relazione biblioteche – editori poi è tutto da verificare che alle prime convenga questa formula dei micropagamenti e del pay-per-use: sicuri che non sarebbe meglio un bel piano flat?