La natura infrastrutturale degli archivi contemporanei

IMG_20110415_151845 di GrigorPDX, su Flickr

Left: air filters - they look like plain old disposable filters you'd have in your furnace. Right top: louvers leading to outside air Right bottom: louvers leading to the "hot" side of the data center racks.
(Foto di GrigorPDX, su Flickr)


INTRODUZIONE.

In un celebre quanto datato articolo Robert-Henry Bautier, insigne archivista e medievista francese, proponeva una interessante periodizzazione circa la storia degli archivi; in particolare egli individuava quattro fasi, la terza delle quali veniva definita come “celle des archives arsenal de l’authorithé” e che sarebbe stata caratterizzata dalla concentrazione dei fondi all’interno di edifici realizzati ad hoc che erano in tutto e per tutto castelli, vale a dire muniti di fossati, mura e torrioni difensivi in pietra (da manuale i casi del castello di Simancas in Spagna oppure quello di Castel Sant’Angelo nello Stato Pontificio). Dietro a simili realizzazioni stava una concezione che attribuiva ai documenti un’importanza decisiva per il regolare andamento della macchina amministrativa, l’attestazione dei diritti e delle prerogative regie così come per l’attuazione della politica estera (per riprendere Bautier gli archivisti, e gli archivi, “se font auxiliaires de la politique e de la diplomatie“) motivo per cui la dimensione del corretto ordinamento delle carte procedeva di pari passo con quella della loro “sicura custodia”. Insomma, il ricorso a questa terminologia “militaresca” da parte di Bautier non era dettato da semplici motivazioni retoriche ma dalla constatazione di una realtà oggettiva: così come l’arsenale è una struttura deputata alla costruzione, alla riparazione, all’immagazzinamento ed alla fornitura di armi e munizioni, similmente l’archivio era il luogo in cui trovavano riparo quei documenti che sarebbero stati usati alla stregua di armi nel corso delle bella diplomatica del XVII secolo.

I DATA CENTER, ARSENALI DEL XXI SECOLO.

Con le debite differenze, sulle quali torno poco sotto, mi sembra che gli odierni “arsenali archivistici” siano rappresentati dagli enormi data center che si vanno costruendo in giro per il mondo; il paragone appare calzante in quanto 1) in essi si vanno concentrando le “memorie digitali” relative a milioni e milioni di persone, enti ed aziende 2) nella loro realizzazione vengono adottate precauzioni ed accorgimenti del tutto affini a quelle delle basi militari. Basta dare una scorsa alle misure di sicurezza messe in campo da Amazon per capire come l’accostamento con la realtà militare sia tutt’altro che campato per aria:

Amazon has many years of experience in designing, constructing, and operating large-scale data centers. This experience has been applied to the AWS platform and infrastructure. AWS data centers are housed in nondescript facilities, and critical facilities have extensive setback and military grade perimeter control berms as well as other natural boundary protection. Physical access is strictly controlled both at the perimeter and at building ingress points by professional security staff utilizing video surveillance, state of the art intrusion detection systems, and other electronic means. Authorized staff must pass two-factor authentication no fewer than three times to access data center floors. All visitors and contractors are required to present identification and are signed in and continually escorted by authorized staff.

Amazon only provides data center access and information to employees who have a legitimate business need for such privileges. When an employee no longer has a business need for these privileges, his or her access is immediately revoked, even if they continue to be an employee of Amazon or Amazon Web Services. All physical and electronic access to data centers by Amazon employees is logged and audited routinely.

Fin qui le affinità; venendo alle differenze, ve ne sono due di macroscopiche: 1) gli archivi residenti nei data center, per quanto militarizzati, almeno in linea di principio non sono concepiti per essere al servizio di un qualche potere vessatorio ma bensì sono la base per offrire “servizi” e/o custodire dati, documenti, etc. di cittadini liberi, di aziende operanti nel libero mercato e di istituzioni democratiche 2) diversamente dai secoli passati, lo Stato sembra latitare ed i principali data center sono di proprietà di colossi ben noti al grande pubblico come Amazon, Apple, Google, Facebook ma anche di provider / fornitori come Carpathia, Cogent, OVH, Rackspace, Digital Realty; operatori che ovviamente poi sono ben lieti di offrire i propri “servizi” ai vari enti pubblici! Ad esempio sia Amazon che Carpathia hanno sviluppato apposite soluzioni per il Governo Federale degli Stati Uniti, il quale attinge largamente in modalità cloud computing a questo tipo di servizi (cliccate qui per una lista parziale); in Europa invece, essendo la legislazione comunitaria relativa al trasferimento transfrontaliero dei dati decisamente più restrittiva, si è molto più cauti nell’affidarsi a privati.
Ciò nonostante, ragionando in prospettiva, è verosimile ipotizzare che nell’Unione Europea o si allenteranno le citate restrizioni al trasferimento dei dati (a riguardo si sta delineando una spaccatura tra stati nordici, non disponibili ad un simile passo, e stati mediterranei, più possibilisti), dando dunque la possibilità di avvalersi dei servizi offerti da privati, oppure si procederà alla realizzazione di data center europei in territorio europeo. Personalmente ritengo la seconda opzione come la più lungimirante per i seguenti motivi: 1) il possedere dei data center è, dal punto di vista archivistico, premessa necessaria (ma non sufficiente) per attuare le indispensabili procedure tese a garantire la continuità operativa ed il disaster recovery (il che consente in primis di salvaguardare la parte “corrente”, vale a dire quei dati e documenti contenuti nei server ed indispensabili per il proseguimento dell’attività “istituzionale” del produttore, ed in ultima analisi di garantire la conservazione nel lungo periodo; ovviamente anche un privato può attuare questi piani ma quando si tratta della cosa pubblica e, soprattutto, sono in ballo aspetti così delicati, sono dell’avviso che la P.A. debba occuparsene direttamente) 2) assicura indipendenza ed in un ultima analisi “libertà”. Il rovescio della medaglia, evidente, è che ci si deve fare carico di tutti i costi: realizzativi, di gestione e di manutenzione.

DATA CENTER: MODELLI REALIZZATIVI, ASPETTI TECNICI…

La maggior parte dei moderni data center non è costituita da pochi supercomputer o pochissimi mainframe, bensì dall’unione all’interno di un medesimo spazio fisico di migliaia di elaboratori di fascia medio – bassa. E’ questo, tra i tanti, l’approccio di Google che significativamente lo definisce wharehouse computing e così lo descrive:

The hardware for such a platform consists of thousands of individual computing nodes with their corresponding networking and storage subsystems, power distribution and conditioning equipment and extensive cooling systems. The enclosure for these systems is in fact a building structure and often indistinguishable from a large warehouse

Tale definizione individua quelli che sono gli elementi principali di un data center ovvero “n” elaboratori, custoditi in una sorta di armadietto definito in gergo rack, a loro volta siti all’interno di un edificio e collegati tra di loro. Da ciò deriva che in un DC ricoprono un ruolo cruciale i seguenti sistemi:
1) UPS (Uninterruptible Power Supply; Gruppo di Continuità), il quale assolve a tre compiti fondamentali, ovvero a) garantire l’erogazione continua di energia elettrica alla struttura e, qualora dovesse verificarsi un’interruzione nella fornitura da parte della public utility, b) far intervenire la batteria fintantoché non interviene il generatore di emergenza, il tutto c) senza che si verifichino dannosi sbalzi di tensione
2) PDU (Power Distribution Units), ovvero il sistema di distribuzione dell’energia elettrica, distribuzione che avviene attraverso quadri e/o interruttori elettrici in genere “annegati” nel pavimento del data center
3) sistema di condizionamento; il metodo più diffuso vede la presenza di CRAC (Computer Room Air Conditioning), vale a dire di “stanze” dalle quali spira aria fredda che, scorrendo sotto il pavimento (tra il pavimento vero e proprio e quello che effettivamente si calpesta e sul quale sono collocati rack, CRAC, etc. può esserci sino ad un metro e mezzo di spazio vuoto; n.d.r.), esce attraverso delle specie di grate giusto in corrispondenza dei rack da raffreddare; l’aria calda uscita dai rack fluisce verso l’alto all’interno di un ulteriore spazio vuoto posto nel soffitto e di qui indirizzata verso il CRAC per riprendere il circolo. Nei DC più evoluti la gestione dei flussi d’aria è così raffinata che ad ogni singolo server perviene la necessaria aria di raffreddamento alla temperatura ottimale (una via alternativa è il cosiddetto in-rack cooling nel quale ogni “armadietto” è praticamente “cablato” da serpentine che fungono da scambiatori di calore; questa soluzione ovviamente ottimizza il raffreddamento ma è assai costosa dal momento che l’impianto di raffreddamento viene ad estendersi su tutta la superficie del centro dati oltre che relativamente più pericolosa giacché, in caso di rottura delle serpentine, il liquido di raffreddamento potrebbe finire sulla parte elettrica… evenienza assolutamente da scongiurare!).

Cabinet Airflow

Cabinet Airflow di talk2stu, su Flickr

Va ricordato, per finire, che per aumentare il livello di sicurezza spesso e volentieri i citati elementi sono ridondanti; così se in un data center Tier I vi è un’unico canale di raffreddamento e di distribuzione dell’energia in un Tier IV (il più elevato della scala) ve ne sono due di attivi oltre che ulteriori percorsi di emergenza. Non va ovviamente neppure dimenticato che fondamentale risulta essere la localizzazione geografica del data center: non dovrebbe trovarsi, ad esempio, in zone sismiche, in prossimità di corsi d’acqua ed in generale in aree soggette ad allagamenti o frane (“a rischio idro-geologico”) così come andrebbero evitate zone troppo fredde od al contrario troppo calde! Inoltre, sarebbe auspicabile che nella realizzazione dei DC europei si metabolizzasse l’approccio “green” di Gartner e, pertanto, si facesse ricorso a fonti di energia rinnovabile.

… E L’OBIETTIVO INDEROGABILE DELLA CONTINUITA’ OPERATIVA.

Castelli e fortezze, spesso progettati dai migliori architetti militari, erano in grado di resistere a lunghissimi attacchi ed assedi senza che si verificasse un sensibile degradamento della loro capacità bellica; similmente tutte le soluzioni tecnologiche descritte nella precedente sezione sono finalizzate a garantire la continuità operativa (business continuity), ossia il normale funzionamento dei servizi ICT utilizzati per lo svolgimento delle attività istituzionali, anche in presenza di disguidi tecnici, di “attacchi” o di altri eventi imprevisti. A fronte di avvenimenti che provocano l’indisponibilità prolungata del data center in cui normalmente si opera / al quale ci si appoggia (sito primario), viene attivato il piano di disaster recovery, il quale prevede l’attuazione di un mix di soluzioni tecnologiche ed organizzative tese a garantire la pronta ripresa dell’attività istituzionale in siti alternativi (detti secondari) rispetto a quelli primari/di produzione per il tempo necessario a rendere nuovamente operativo il sito primario.
Si tratta, manco a dirlo, di argomenti da tempo dibattuti in ambito internazionale ma che in Italia, dal punto di vista legislativo, solo di recente hanno finalmente trovato piena recezione; ad esempio le “Linee guida per il Disaster Recovery delle Pubbliche Amministrazioni”, redatte ai sensi dell’art. 50-bis, co. 3 del CAD (D. Lgs. 82/2005), hanno visto la luce solo nell’autunno 2011 ed imponevano che ogni ente presentasse entro il 25 aprile 2012 un Piano di Continuità Operativa (PCO) ed uno di Disaster recovery (PDR), individuando contestualmente una figura responsabile (RCO). Al di là del fatto che le varie amministrazioni abbiano ottemperato o meno nei tempi prescritti ai suddetti obblighi di legge, mi preme qui rilevare come l’input sia stato essenzialmente “archivistico”: nelle citate Linee Guida si trova infatti testualmente scritto che “il processo di dematerializzazione promosso dal CAD […] ha trasformato da ordinatoria a perentoria l’azione di eliminazione della carta, comporta[ndo] un incremento della criticità dei sistemi informatici che non possono più contare su un backup basato sulla documentazione cartacea”.
Da quanto innanzi detto derivano a cascata alcuni cambiamenti di una certa portata:
1) la continuità operativa ed in subordine il disaster recovery sono possibili a patto di individuare preliminarmente, accanto al sito primario, un sito secondario al quale trasferire come operazione di routine i dati / documenti prodotti dal primario; in caso di “problemi” il sito secondario diviene temporaneamente operativo fintantoché il primario non ritorna disponibile e pertanto deve disporre delle necessarie risorse hardware e software =>
2) nelle procedure di BC / DR diventa un fattore cruciale il trasferimento tra i due siti; le Linee Guida prevedono sei livelli (Tier 1 – 6) nei primi due dei quali il trasferimento consiste nel trasporto fisico (ad esempio a mezzo di apposito furgone) dal sito primario a quello secondario dei dischi ottici contenenti la copia di backup. E’ inutile sottolineare, però, come nell’epoca di Internet, grazie anche all’innalzamento delle velocità di upload / download ed ai migliori tempi di latenza, la Rete sia la soluzione più in voga e come il paradigma del cloud computing sia la soluzione sulla quale oggi si punta di più
3) dando per assodato che il trasferimento dei dati avvenga attraverso la Rete, va osservato che le operazioni di copia (Data Mirroring) finiscono per riguardare anche gli applicativi; le Linee Guida infatti lo definiscono “un processo con cui dati ritenuti critici vengono copiati secondo precise regole e politiche di backup al fine di garantire l’integrità, la custodia e la fruibilità degli archivi, dei dati e delle applicazioni e la possibilità di renderli utilizzabili, ove fosse necessario, procedendo al ripristino degli archivi, dei dati e delle applicazioni presso un sito alternativo a quello primario”. In particolare uno degli obiettivi principali è ottenere l’allineamento dei dati (ovvero il “coordinamento dei dati presenti in più archivi finalizzato alla verifica della corrispondenza delle informazioni in essi contenute”; per inciso l’allineamento, a seconda del Tier prescelto, può essere asincrono o sincrono) ed eventualmente il retroallineamento (ovvero “caricare” i dati prodotti nel sito secondario durante una fase di emergenza in quello primario in vista della ripresa dell’operatività di quest’ultimo) =>
4) dal punto di vista archivistico l’attuazione del Piano di Continuità Operativa significa il trasferimento costante di dati / documenti dal sito primario a quello secondario con questi ultimi che, nel caso di Tier 6, sono de facto speculari, motivo per cui (fatto salvo il caso di mancato allineamento), mi sembra si possa parlare della presenza di originali in duplice copia (per quanto poco senso possa avere la distinzione originale – copia in ambiente digitale). Inoltre è interessante osservare come, proprio perché parte integrante delle policy messe in atto, l’instabilità e l’ubiquità di dati e documenti sia, soprattutto nella fase corrente, più la regola che l’eccezione.
5) il legislatore ha chiaro come le operazioni di backup da un sito all’altro non equivalgono alla conservazione di lungo periodo per finalità storico – documentali; a proposito nelle Linee Guida ci si limita a ricordare come occorra raccordarsi al Manuale di conservazione e come il “salvataggio” debba avvenire su supporti adeguati. Sulla scorta di tali suggerimenti mi vien da ipotizzare due possibili soluzioni: a) all’interno della medesima coppia di data center vanno predisposti dei rack attrezzati con storage server di elevata qualità (diversamente dai rimanenti che, abbiamo visto, possono essere di livello medio – basso) nei quali destinare quei dati e documenti per i quali è prevista la conservazione permanente (la cosa è fattibile in quanto la “destinazione finale” è nota sin dal momento della creazione) b) che accanto alla coppia di data center deputati alla fase operativa / corrente ne venga costruita una ad hoc per quella di conservazione.
A prescindere da quale delle due opzioni prediligere (motivazioni di contenimento dei costi / ottenimento di economie di scala mi fanno propendere per la prima soluzione), va rimarcato come venga confermato che la migliore strategia conservativa sia quella di assicurare (potendolo provare attraverso audit, file di log, etc.), che la vita dei dati / documenti è sempre avvenuta all’interno di un sistema sicuro ed inviolato (e qui ritorniamo alle specifiche costruttive che devono possedere i data center) e che le procedure di copia sono avvenute senza errori.
6) Superfluo, da ultimo, sottolineare come gli aspetti tecnici non debbano mettere in secondo piano quelli organizzativi (come sempre deve venir coinvolta l’intera organizzazione!); mi preme solamente evidenziare come vada assolutamente individuata una catena di comando strutturata gerarchicamente secondo un modello che guarda caso rimanda nuovamente all’ambiente militare.

CONCLUSIONI.

Considerando la formazione prettamente umanistica della maggior parte degli archivisti (sottoscritto naturalmente incluso), comprendo come gli argomenti trattati in questo post appaiano oggettivamente ostici; eppure con tali tematiche occorre confrontarsi in quanto, è la mia convinzione, l’archivio del prossimo futuro coinciderà de facto con i moderni data center. Si tratta di un cambiamento di prospettiva di notevole portata per almeno i seguenti motivi: a) in primo luogo perché si torna a parlare di archivio nel suo complesso e non per questa o quella delle ripartizioni logiche – corrente, deposito, storico – nelle quali la teoria e la legislazione tradizionalmente l’hanno suddiviso b) in secondo luogo perché l’archivio diviene infrastruttura strategica e centrale per il “regolare svolgimento” della vita (digitale) di cittadini, aziende ed enti pubblici c) ultimo perché, della costruzione di tali data center / archivi “arsenali”, devono tornare a farsene carico gli Stati, meglio ancora se in chiave europea, l’unica che può garantire il necessario apporto finanziario nonché quell’ampiezza di spazi geografici tali da rendere la localizzazione dei DC veramente adeguata al raggiungimento dei dichiarati obiettivi di business continuity e di disaster recovery.

A chi volesse approfondire questo importante argomento consiglio di leggere la versione su Storify di questo post, ricca di documenti utili.

Microsoft e Barnes & Noble: la strana alleanza

Barnes & Noble eReader Software Coming to iPad

Barnes & Noble eReader Software Coming to iPad di John Federico, su Flickr

La notizia dell’alleanza stipulata tra Microsoft e Barnes & Noble, con la prima azienda che investirà 300 milioni di dollari in una nuova sussidiaria appositamente creata dalla seconda e destinata ad operare nel mercato dell’editoria digitale (con una particolare attenzione, almeno stando al comunicato stampa congiunto, per quella scolastica) mi ha praticamente fatto sobbalzare dalla sedia per le probabili ripercussioni (peraltro non evidenziate dai giornali mainstream, sempre più occupati a fare da mera cassa di risonanza ai vari uffici stampa) che essa avrà nel sistema di alleanze attualmente in essere nel settore dell’editoria digitale.
Questo mercato, come noto, vede attualmente a livello globale la presenza di tre attori (Amazon, Apple e Google) che si spartiscono la maggior parte della torta: che Microsoft non intenda lasciar campo libero ai concorrenti è del tutto comprensibile (peraltro ricordo che il gigante di Redmond ancora nel lontano 2008, prima di Apple, sembrava sul punto di lanciare sul mercato il booklet Courier) così come è quasi automatico che essa abbia individuato in Barnes & Noble, che con il suo Nook sta facendo discrete cose, il partner ideale.
Allo stesso tempo però non sfuggono ad una più attenta analisi delle incongruenze talmente macroscopiche che mi hanno spinto a definire, come da titolo di questo post, questa alleanza “strana”.
La prima incongruenza deriva dal fatto che Microsoft, come risaputo, ha stipulato circa un anno fa un’accordo con Nokia a seguito del quale l’azienda finlandese ha abbandonato il proprio sistema operativo Symbian per sposare Windows Phone 7 e tentare di risalire la china nel decisivo settore degli smartphone; l’operazione non sta andando secondo le aspettative al punto che Nokia ha perso il primato di primo produttore mondiale di telefonia in favore di Samsung ed ha visto un deciso peggioramento dei suoi conti al punto che i rumour su un takeover da parte di Microsoft nei confronti di Nokia (o quanto meno di un consistente scambio azionario) si sono fatti insistenti. Personalmente trovo questa ipotesi più che plausibile dal momento che la società fondata da Bill Gates si ritrova in cassa parecchi quattrini e soprattutto l’attuale CEO, Steve Ballmer, non ha paura di spenderli (i tentativi di acquisizione di Yahoo! lo testimoniano ampiamente).
In questo senso l’investimento nella NewCo di B&N è a tutti gli effetti di poco conto (giusto per fare un paragone, i 300 milioni di dollari in ballo sono bruscolini in confronto ai 44,6 miliardi rifiutati nel 2008 da Jerry Yang) e rischia da un lato di non essere incisivo quanto basta e dall’altro di portare ad una duplicazione che ingenera solo confusione e sprechi. Un primo punto critico è quello del tablet: al Mobile World Congress Stephen Elop, CEO di Nokia, ha fatto intuire che la sua azienda prima o dopo produrrà una tavoletta che evidentemente avrà Windows Phone (o quello che sarà il suo successore) come sistema operativo. Mi chiedo a quale logica risponda ora l’accasarsi con Barnes & Noble, i cui device della famiglia Nook montano tutti SO Android.
E’ ipotizzabile che B&N stia preparando il terreno per l’abbandono di Android (tanto più ora che Google, passo dopo passo, si sta trasformando in un competitor su tutti i fronti)? Certamente sì, tutto è possibile, ma c’è da domandarsi come la prenderanno gli utenti di Barnes & Noble! Android oramai costituisce il più diffuso sistema operativo al mondo ed il suo ecosistema non ha più nulla da invidiare a quello di Apple; al contrario quello di Microsoft oltre a contare percentualmente davvero poco non esercita neppure alcun particolare appeal, motivo per cui le stime di molti analisti, che accreditano a Windows Phone da qui a pochi anni quote rilevanti del mercato, mi sembrano palesemente ottimistiche.
L’ultimo aspetto dell’accordo che non mi ispira fiducia è quel riferimento specifico all’editoria scolastica: perché focalizzarsi solo su quest’ultima? Mancano forse i mezzi per puntare sull’editoria tout court? Viste le aziende in campo non era lecito attendersi l’annuncio di un accordo di carattere generale e, in prospettiva, su scala globale?
In altri termini considerando come, ciascuna per motivi diversi, Microsoft, Barnes & Noble e Nokia svolgono un ruolo da comprimarie nei rispettivi mercati, credo sarebbe stato meglio cercare di rovesciare il tavolo giocandosi il tutto per tutto, vale a dire annunciando un’alleanza globale a tre nella quale Microsoft metteva il software, Nokia l’hardware e Barnes & Noble i contenuti. Solo così facendo queste tre aziende possono tentare di invertire quell’inerzia che altrimenti, a mio avviso, rischia di vederle nel medio – lungo periodo soccombenti. Fermo restando che non necessariamente l’unione fa la forza: spesso i numeri due restano i numeri due anche quando si uniscono.

Amazon, ecco i risultati del primo trimestre 2012

Amazon Kindle Unboxing

Amazon Kindle Unboxing 1 di xsas, su Flickr

Nel giorno in cui Comscore certifica il successo del Kindle Fire (oltre la metà dei tablet Android in circolazione, il 54,4 % per l’esattezza, è costituito da Fire), Amazon ha rilasciato i dati economici relativi al primo trimestre del 2012, i quali sono così sintetizzabili: ricavi in crescita del 34% a 13,18 miliardi di dollari (da 9.86 di un anno fa) ma utile netto in calo del 35% a 130 milioni di dollari. Queste cifre mi sembra confermino quanto da me sostenuto in un post di alcuni giorni fa: le vendite vanno (ed in un periodo di crisi / recessione qual è l’attuale non è poca cosa) ma i margini si riducono, si corre sul filo del rasoio e Jeff Bezos lo sa perfettamente. Che la partita dei libri sia ad un punto cruciale (tanto più ora che le indagini avviate nei confronti di Apple per i presunti accordi stipulati da quest’ultima con alcune case editrici nord-americane potrebbe indebolire uno dei principali competitor) lo si intuisce anche dal fatto che nel comunicato stampa odierno Jeff Bezos parla (o meglio decanta le lodi) esclusivamente di libri, senza nemmeno menzionare la pur importante divisione AWS: dapprima egli si fa vanto dei 130mila titoli presenti in esclusiva sul Kindle Store (16 dei quali rientrano nella classifica dei Top 100), poi arzigogola sulla rivoluzionarietà del Kindle Owners’ Lending Library e da ultimo promette solennemente che il Kindle Store rimarrà uno dei principali fattori che spingeranno a comprare il reader Kindle.
Non per fare il bibliotecario guastafeste ma ho molto da obiettare su ognuno di questi punti sbandierati come altrettanti successi / ulteriori traguardi da raggiungere: 1) il solo pensiero che per comprare un libro io debba rivolgermi ad uno specifico store mi fa semplicemente accapponare la pelle (se fossimo in ambito analogico ci sarebbe qualche attenuante, ma in quello digitale dove la distribuzione non ha costi, è del tutto illogico); la circolazione di un libro, e delle idee in esse contenute, deve avere meno restrizioni possibili! 2) il “rivoluzionario” programma Kindle Owners’ Lending Library, ha gran poco della biblioteca ed ancor meno del prestito (a meno che per prestito si intenda a) spendere i soldi per acquistare il necessario Kindle b) versare i 79 dollari annui necessari per essere un Prime Member) 3) Amazon persevera nell’indurre gli utenti a restare ancorati all’accoppiata Kindle Reader + libri acquistati (con DRM) nel Kindle Store quando i numeri (espressi ed inespressi) dovrebbero aver fatto capire alle alte sfere di Seattle che gli utenti hanno voglia di libertà di scelta: come interpretare altrimenti il fatto che l’app di Kindle per iPad sia, tra quelle gratuite, la quinta maggiormente scaricata dall’Apple Store (fonte: lo stesso comunicato stampa di Amazon citato sopra!)? E che dire delle notizia provenienti dalla London Book Fair? Oramai molte case editrici sono apertamente a favore dell’abbandono del DRM (TOR, del gruppo Macmillan, è una di queste), visto finalmente per quello che è: un intralcio alla crescita dell’editoria digitale.
Insomma, il vento sta cambiando è c’è da augurarsi che anche a Seattle lo capiscano.

La “nuova” app di aNobii

La nuova applicazione di aNobii

In un mondo cui la dimensione mobile acquista importanza ogni giorno che passa, il rilascio da parte di aNobii della nuova versione dell’applicazione per Apple ed Android rappresenta sicuramente un momento privilegiato per valutare sia lo stato di salute sia la “direzione strategica” che questo diffuso sito di social reading intende prendere.
Premesso che in qualità di felice possessore di Acer Metal Liquid lavoro in ambiente Android, vediamo un po’ alcune caratteristiche della nuova applicazione. Di quest’ultima salta immediatamente agli occhi il gradevole restyling grafico (logo incluso) e la posizione di assoluta centralità mantenuta dalla funzione Scan barcode; per il resto, paradossalmente, non mi sembra siano state aggiunte nuove funzionalità / schermate e se è stato fatto non ho idea di dove siano state annidate! E’ nettamente migliorata, quello sì, la velocità di caricamento dei libri nel proprio scaffale così come quella di visualizzazione dei commenti (escludo si tratti di un semplice fattore di connessione perché nel momento in cui si accetta il download degli aggiornamenti si specifica che tra le caratteristiche della nuova versione c’è proprio la velocità e la rimozione di alcuni bug che, confermo, affliggevano spesso e volentieri la precedente) ma in fin dei conti si tratta di poca roba perché, scusate, è o non è ormai il minimo sindacabile che un’applicazione sia veloce e non si impalli?! Ed era troppo “pretendere” una qualche novità?
Faccio un banale esempio: se mi trovo all’interno di una libreria non trovo molto utile passare il barcode con lo scan per scoprire, attraverso i commenti degli altri utenti, se il libro che ho adocchiato può essere di mio gradimento! Sarà la mia formazione da bibliotecario ma un libro lo valuto attraverso altri parametri quali autore, piano dell’opera, indice, etc. Piuttosto, non me ne vogliano gli amici librai, personalmente considero molto più interessante sapere quanto costa lo stesso libro nei bookshop online! Purtroppo l’applicazione di aNobii non opera come “compara prezzi”, diversamente invece da quanto si riesce a fare con l’app Barcode scan integrata in Android! Con quest’ultima una volta scansionato il libro compaiono più opzioni: a) “Cerca prodotto” ti rimanda alla sezione “Shopping” del motore di ricerca nella quale sono presentate le offerte dei principali retailer b) “Cerca libro” ti rimanda a Google Books ma con la premura, sulla colonna di sinistra, di presentare le offerte di alcuni retailer (verosimilmente quelli che sono anche inserzionisti di Google) c) “Cerca contenuti” ti indirizza ad eventuali contenuti disponibili in Rete mentre d) Google Shopper, non ancora supportato in Italia, in futuro presenterà in maniera combinata molteplici informazioni (recensioni, negozi nelle vicinanze – con relativa mappa – e via discorrendo) utili alla finalizzazione dell’acquisto.
Con questo esempio, si badi, volevo solo mettere in luce come basterebbe poco per colmare alcune carenze oggettive del servizio (anche perché, non nascondiamoci, il prezzo è un fattore importante nella scelta di un libro almeno quanto i consigli / commenti degli amici) e lungi da me l’augurare la “commercializzazione” di aNobii, sul cui futuro è lecito però porsi qualche domanda!
In particolare mi chiedo quale sarà la sua utilità nel momento in cui l’e-book diventerà predominante e con esso scompariranno i codici a barre e la funzione di commento / condivisione sarà, verosimilmente, integrata nella piattaforma di lettura. Inutile aggiungere che si renderà necessaria una radicale virata (con contestuale riprogettazione della piattaforma) nelle finalità del servizio, altrimenti il futuro sarà scuro! Sarò troppo drastico, ma forse sarebbe stato meglio iniziare, con piccoli passi, ad andare nella nuova direzione e forse la nuova app poteva rappresentare l’occasione giusta.

Jeff Bezos e la scommessa dell’ereader

Bezos_Amazon_Kindle

Bezos_Amazon_Kindle di sam_churchill, su Flickr

Amazon decisamente al centro delle cronache in questi ultimi giorni! Se una notizia sarà giunta sicuramente alle orecchie della maggior parte di voi in quanto riguarda direttamente l’Italia, ovvero l’avvio delle consegne del Kindle Touch 3G con una settimana d’anticipio rispetto a quanto inizialmente comunicato, l’altra forse no avendo ricevuto minor attenzione da parte dei media nostrani: Jeff Bezos, CEO dell’azienda di Seattle, ha congelato per il terzo anno consecutivo il suo stipendio ad 81.840 dollari (benefit, premi e compensazioni varie esclusi). Il motivo di tanta austerità è presto detto: la sfida all’iPad è incentrata soprattutto sul prezzo altamente competitivo del Fire e tale politica aggressiva deve continuare. Bezos vuole pertanto comunicare, all’interno ed all’esterno dell’azienda, con quanta determinazione egli intenda continuare la battaglia.
Al di là del significato simbolico, il gesto fa però a mio avviso trasparire come a Seattle si sia consapevoli che i margini di guadagno sono ristretti e bisogna tirare la cinghia! Il capo, in sostanza, non fa altro che dare il buon esempio. Del resto più volte ho evidenziato la pericolosità di una siffatta politica dei prezzi: sinora la sfida è stata vincente in quanto i volumi di vendita decisamente elevati (a proposito Jorrit Van der Meulen, vice presidente e responsabile per l’Europa di Amazon, nel comunicato stampa di ieri ha tenuto a rimarcare come la risposta del Vecchio Continente al Kindle Touch 3G sia stata superiore alle aspettative ma come da prassi non ha diffuso cifre precise), favoriti dal fatto che i principali rivali (famiglia Samsung Galaxy ed iPad) hanno un costo nettamente superiore.
Se questo è il quadro, c’è da chiedersi cosa accadrà nel momento in cui arriverà il tablet di Google, il Nexus, soprattutto se verrà confermato il prezzo di appena 150 dollari con cui si dice potrebbe presentarsi sul mercato! Inutile dire che la pressione su Amazon sarebbe notevolissima e difficile dire se l’azienda di Jeff Bezos abbia spazi di manovra per poter rilanciare nuovamente al ribasso. Non serve essere un laureato in economia per rendersi conto che in caso di risposta negativa la duplice combinazione di a) margini di guadagno per pezzo ridotti e b) volumi di vendita in calo, potrebbe avere pessime conseguenze sui conti aziendali.
Insomma, la battaglia si preannuncia aspra e sul campo potrebbero rimanere morti e feriti.

Backup atomico adieu?

Old paper

Old paper di lizzie_anne, su Flickr

L’altro giorno ho assistito ad una interessante conferenza del professor Paolo Calvini dal titolo “Recenti studi sulla cinetica di degradazione della cellulosa: una rivoluzione Copernicana?”.
Confesso che, visto il taglio molto “chimico” dato alla relazione, per un “umile umanista” come il sottoscritto alcuni passaggi sono risultati un po’ oscuri, ma il messaggio è giunto ugualmente chiaro: a causa anche di una ricerca scientifica che talvolta ignora (volutamente?) le leggi della chimica, le attuali convinzioni su modalità e tempi di degradazione della carta sono del tutto erronee.
Ok, buono a sapersi mi direte, ma perché ve ne parlo in questo blog? Il motivo è semplice: come ben saprete nutro più di una perplessità sulle possibilità di conservazione nel lungo periodo dei contenuti digitali (ebook e documenti in primo luogo) e questo non tanto per l’impossibilità tecnologica di farlo ma per i costi proibitivi e soprattutto l’improbabilità che la necessaria volontà di conservazione rimanga immutata per così tanto tempo. Infatti la conservazione del digitale implica la presenza di un’organizzazione strutturata che garantisca nel tempo la continuità operativa (con periodici aggiornamenti) del sistema all’interno del quale risiedono gli oggetti digitali. Tutti obiettivi possibili ma che, come dicevo, impongono al soggetto che si fa carico della conservazione di farlo teoricamente sine die e di “non poter non farlo” (indisponibilità del proprio fine) a tal fine dotandosi di tutti i mezzi strumentali, finanziari, etc. necessari al raggiungimento dello scopo.
Al contrario l’esperienza di questi ultimi cinque secoli insegna che il supporto cartaceo è relativamente meno oneroso da gestire e, se conservato in idonee condizioni ambientali, dura per centinaia e centinaia di anni senza che si renda praticamente necessario l’intervento (attivo) umano. Ciò è tanto più vero per quei libri e documenti redatti grosso modo fino al XVIII secolo; dall’Ottocento in poi l’industrializzazione dei processi di produzione della carta (e l’utilizzo di prodotti chimici) ha abbassato il livello qualitativo della carta stessa.
La constatazione di questo comportamento antitetico dei due diversi supporti (conservazione del digitale problematica ed onerosa VS conservazione materiali cartacei possibile – comprovata dall’esperienza – purché su carta di “qualità”) ha spinto alcuni ad ipotizzare che sarebbe saggio predisporre la stampa su carta non acida di quei documenti, nativi digitali, ritenuti maggiormente significativi della nostra società. Questa teoria, sviluppata oramai un decennio fa, a mio parere rimane tuttora valida, tanto più che nel frattempo non si sono affacciate tecnologie capaci di risolvere il problema, anzi si sta andando verso un futuro “nebuloso” caratterizzato dal cloud computing.
Ora, la relazione di Calvini ha fatto vacillare anche quest’ultima certezza! Infatti in base ai suoi studi le tecniche di invecchiamento artificiale usate dalle industrie cartarie per simulare tempi e modalità di degradamento future della carta non sono affidabili; per esserlo i principali test usati dovrebbero durare mesi ed anni e non giorni o al massimo settimane!
Arriviamo dunque al punto dolente della vicenda: si tratti della carta o di un disco ottico le aziende produttrici, pur di “vendere il prodotto”, dichiarano prestazioni (confermate da “severissimi” test) da favola. Purtroppo le “rivelazioni” di Calvini ci dicono che su questi test possiamo fare gran poco affidamento e vien da chiedersi se ciò valga anche per la carta non acida alla quale potremmo aver deciso di affidare i nostri documenti più importanti!
Rebus sic stantibus quali alternative ci rimangono? Posto che personalmente ritengo che la strategia conservativa migliore sia “la moltiplicazione delle strategie di conservazione” (perdonate il gioco di parole) a fianco della normale conservazione del digitale (meglio se all’interno di un sistema) mi terrei buona la possibilità, come extrema ratio, del citato backup atomico con l’accortezza di farsi coadiuvare, nel momento della scelta della propria carta non acida, di quella nuova figura di esperto (prospettata sempre da Calvini) che è il paper conservation scientist: essa ci potrebbe ad esempio confermare, attraverso opportuni esami di laboratorio, se il la carta non acida individuata è veramente “buona” ed adatta allo scopo della conservazione nel lungo periodo, in tal senso evitando al soggetto conservatore di sprecare preziose risorse in prodotti che non sono all’altezza dello scopo.

La settimana prossima arriva Drive, il servizio di cloud storage di Google. Cosa cambia per gli archivi

Cloud storage: a confused but evolving market

Cloud storage: a confused but evolving market di joe.ross, su Flickr

Di Google Drive, servizio di cloud storage del gigante di Mountain View, si parla da tempo ma questa sembrerebbe essere davvero la volta buona. I principali blog tecnologici hanno infatti diffuso la notizia che la settimana prossima è previsto il lancio del nuovo servizio; John Biggs di Techcrunch è stato pure in grado di fornire la prova dell’esistenza (si veda l’articolo su Techcrunch) avendone persino scaricato l’app! Biggs non è riuscito ad entrare nel nuovo servizio, in quanto esso risulta “essere ancora non abilitato per la sua utenza” (ovvio dal momento che ufficialmente il servizio nemmeno esiste), ma ha potuto scoprire che offre il supporto nativo per quei tipi di file creati con strumenti come Google Docs e GDraw. Per il resto le indiscrezioni trapelate indicano che Google, che da tempo sta lavorando a questo dossier, adotterà una politica aggressiva del mercato: è infatti ormai opinione comunemente accettata che saranno ben 5 i Giga di memoria gratuitamente messi a disposizione (ovvero più del doppio rispetto a Dropbox, principale rivale) e verosimilmente saranno immediatamente disponibili le relative app per Android ed iOS, a testimonianza dell’importanza cruciale assunta dalla dimensione mobile (comprovata dagli accordi stipulati dalla citata Dropbox con HTC per l’One X e Samsung per il Galaxy Tab).
Personalmente della notizia, in sé scontata, trovo interessanti le implicazioni industriali e quelle archivistiche: delle prime basti qui dire che è in atto quello che Chris Velazco, sempre di Techcrunch, definisce cloud storage clash e che vede in campo, oltre alle due aziende già ricordate, pesi massimi del calibro di Microsoft (con Skydrive), Amazon (con Cloud Drive) ed Apple (con iCloud). La domanda a questo punto è: c’è spazio per tutti sul mercato? La natura affermativa o negativa della risposta dipende anche dai prezzi che Google farà per i servizi pay (purtroppo, lo dico per inciso anche se la questione meriterebbe più spazio, quando si valuta un servizio di cloud storage quello dei soldi è il principale parametro osservato, mentre scivolano in secondo piano aspetti quali garanzie legali e bontà delle soluzioni tecnologiche adottate): se, come credo, questi saranno altamente competitivi è probabile che non tutti ci staranno più dentro con i costi e dunque potrebbe profilarsi qualche operazione di M&A. Di sicuro il settore è ritenuto profittevole, se si considera che ad ottobre 2011 Dropbox, azienda contestualmente valutata in 4 miliardi di dollari, non ha avuto alcun problema a portare a termine un round di finanziamenti da 250 milioni di dollari.
Non meno interessanti le ripercussioni “archivistiche”, le quali sono a mio avviso essenzialmente di due ordini: 1) il primo riguarda nello specifico Google, 2) il secondo è di respiro più generale. Procediamo con ordine.
1) Come noto numerosi servizi di Google (GMail e Google Docs su tutti) sono largamente usati da molte Pubbliche Amministrazioni; ora che arriva Google Drive vien quasi automatico pensare che molti dei dati e documenti prodotti da queste ultime saliranno sulla nuvola e di qui prenderanno… vie ignote! Il problema, insomma, è il solito: a meno che Google non abbia ampliato o costruito ex novo i suoi data center europei (due nei Paesi Bassi ed uno in Belgio) questi dati e documenti prendono la via degli Stati Uniti violando pertanto le leggi UE sul trasferimento dei dati (sorvoliamo qui su quelle dei singoli Stati!). In altri termini l’utilizzo di Google Drive da parte di questi soggetti pubblici non sarebbe attualmente possibile, motivo per cui vedo aprirsi quattro possibili strade: a) l’azione di lobby dei vari colossi hi-tech ottiene dagli euroburocrati una deroga al trasferimento dei dati sulla nuvola qualora vengano rispettati alcuni paletti fissati su misura b) Google (& soci) si adattano e realizzano / ampliano data center nel Vecchio Continente (non sarebbe male, giacché si creerebbero nuovi posti di lavoro qualificati) c) noi europei rinunciamo ai vantaggi della nuvola made in Mountain View oppure al contrario d) ci sobbarchiamo, magari in maniera collettiva, degli oneri di realizzazione di queste strutture strategiche.
2) La questione di carattere generale è la seguente: la discesa in campo di Google in termini di teoria economica (rudimentale) è da accogliere con favore in quanto amplia la concorrenza ed a beneficiarne dovrebbe essere il consumatore / utente finale. Dal punto di vista pratico però non vorrei che si rafforzasse quella frammentazione degli archivi, specie quelli di persona, di cui ho ripetutamente parlato: giusto per fare un esempio “mirato” se possiedo casualmente uno smartphone HTC, un tablet Kindle Fire ed un normale PC con connessione ad Internet ed account Google il risultato sarebbe che le foto ed i video realizzati con il telefonino intelligente finiscono sulla nuvola di Dropbox, i miei e-book ed i miei film su quella di Amazon ed infine i miei documenti su quella di Google! Una vera e propria diaspora!
Si ha pertanto la riprova che la nuvola, sia essa di “proprietà” del singolo cittadino o (a maggior ragione) di un ente pubblico con migliaia di Giga caricati, per apportare reali vantaggi va gestita con attenzione e che tale attività di gestione può essere facilitata da una parte attraverso l’uso consapevole della nuvola (ad esempio imponendosi una sorta di codice di comportamento per cui i vari documenti e contenuti non vanno uploadati a casaccio) dall’altra ricorrendo a quegli strumenti di metacloud descritti in un precedente post.
Questi ultimi servizi, in quanto capaci di garantire l’indispensabile integrazione e coerenza, saranno, ne sono convinto, il prossimo oggetto del contendere dei colossi tecnologici.

L’ascesa dell’e-reading… ed il declino della biblioteca?

eBook Reader di goXunuReviews

eBook Reader di goXunuReviews, su Flickr

Trovo sempre molto interessanti le ricerche provenienti dagli Stati Uniti e questo perché notoriamente quanto accade al di là dell’Atlantico anticipa di almeno un paio d’anni quanto avverrà in Europa; in questo specifico caso la ricerca pubblicata qualche giorno fa dal Pew Research Center è degna della massima attenzione per i seguenti ulteriori motivi: 1) riserva un occhio di riguardo per il mondo delle biblioteche 2) non si limita alla solita analisi delle differenze indotte dall’avvento dell’e-book in opposizione al libro cartaceo ma amplia lo sguardo all’insieme dei contenuti digitali disponibili in Rete (e-content), quali giornali online, webzine, etc. 3) seppur con uno specifico interesse per i possessori di e-reader e/o tablet, tiene in considerazione tutti i possibili dispositivi di lettura (è, in altri termini, una ricerca nei limiti del possibile neutral device).
Quali sono dunque, in sintesi, i principali risultati di questa ricerca? In primo luogo va osservato che dal 1978 ad oggi è aumentato (per la precisione dall’8 al 19%) il numero di coloro che non legge alcun libro / non risponde; chi legge, lo fa soprattutto per piacere e per informarsi. In questo contesto dal 2010 in poi si è assistito ad un incremento sostanziale di chi afferma di aver letto un e-book; in particolare a giugno 2012 alla domanda sul formato di libro letto nell’ipotetico giorno-tipo antecedente al sondaggio, il 95% rispondeva libro a stampa e 4% e-book mentre oggi tali percentuali sono passate ad 84 e 15% rispettivamente (in altri termini il libro elettronico ha triplicato la sua quota); ancor più netta l’ascesa dell’e-book se ampliamo l’arco temporale: il 21% dei cittadini statunitensi ha letto un libro digitale nel corso dell’ultimo anno.
La crescita dell’e-reading fa da pendant con la diffusione di appositi device di lettura, su tutti e-book reader e tablet: tra i primi domina nettamente l’Amazon Kindle (62%) seguito a lunga distanza dal Nook di Barnes & Noble (22%) mentre quote irrisorie sono detenute da Sony con il 2% (magro bottino per un’azienda che è stata tra le pioniere del settore) e Kobo Reader (1%; anche qui il risultato è deludente, considerando come la piattaforma di Kobo sia tra le più note). Tra le tavolette invece il primato spetta, manco a dirlo, alla Apple con le varie versioni del suo iPad anche se viene confermato il ruolo emergente di Amazon, il cui Kindle Fire si attesta al 14%; i vari Samsung Galaxy (5%), Nook Color (1%) e Motorola Xoom (1%) recitano praticamente il ruolo di comparse.
Interessanti anche le “intenzioni di acquisto”: il 13% di coloro che non possiedono un e-reader ne valutano o ne hanno già pianificato l’acquisto, percentuale che sale al 18% qualora in ballo sia l’acquisto di un tablet. Come si noterà non si tratta di cifre altissime, il che porta a chiedersi quali siano le ragioni che inducono a non effettuare l’acquisto; in questo senso la ricerca di PEW non pone domande specifiche, ma qualcosa lo possiamo intuire dalle motivazioni usate da coloro che non hanno alcun dispositivo: il 24% afferma di non averne il bisogno / di non volerlo e il 19% di non poter permetterselo a causa del prezzo elevato. Degne di nota anche le giustificazioni addotte per spiegare il perché non si possiede un e-reader (“preferisco la carta”, 16%; sarebbe stato interessante sapere se tale presa di posizione abbia origini “ideologiche” o se sia il frutto di una valutazione razionale dei pro e contro del libro a stampa in confronto al libro digitale) o una tavoletta (“ho già sin troppi device, non me ne servono altri”, 3%, argomentazione questa assai più generica e probabilmente derivante da considerazioni di ordine economico), le quali confermano, com’era lecito attendersi, come i possessori di e-reader (e per converso i non possessori) valutino questo strumento in primo luogo dal punto di vista dell’utilità concreta circa la funzione di lettura.
Finora abbiamo parlato specificamente di e-book, ma alla luce dei dati emersi sarebbe più corretto guardare all’intero panorama degli e-content: il 43% dei cittadini statunitensi sopra i 16 anni ha infatti letto una qualche forma di testo digitale di una certa lunghezza, una percentuale assai superiore rispetto a quelle del 14 e 21% citate poc’anzi! La pratica dell’e-reading inoltre appare “benefica” se si considera che, rispetto ai lettori tradizionali, i lettori “digitali” a) leggono di più e per più motivi (piacere, ricerca, istruzione, lavoro, etc.), b) consumano libri in più formati oltre a quello digitale (a stampa ed audiobook) c) così come di più tipologie (quotidiani, riviste, etc.) e, fatto non trascurabile, d) ne comprano pure di più (e sono più propensi a farlo rispetto ai lettori tradizionali).
Tale apporto positivo trova ulteriore conferma nel seguente dato: il massiccio diffondersi dei contenuti digitali non ha danneggiato la lettura, anzi! A fronte di un 60% che dichiara di leggere come prima un cospicuo 30% legge persino di più e dice di farlo sui più disparati device: smartphone, personal computer (42%) ed ovviamente dispositivi ad hoc quali tavolette ed e-reader (41%).
Quelle che rappresentano note positive circa la diffusione dell’e-book purtroppo costituiscono, sia nello specifico di questa ricerca sia inserendole in una prospettiva di medio termine, altrettante note dolenti proprio per la biblioteca: infatti con l’affermarsi del libro digitale rischiano di imporsi alcune pratiche che semplicemente “fanno a pugni” con quelli che sono i compiti tradizionali della public library: i lettori di e-book ad esempio preferiscono acquistare il proprio libro (digitale) rispetto ai lettori “generici” (61% VS 54%) ed assai meno a riceverlo in prestito, e questo a prescindere dalla provenienza (amici, parenti, biblioteca)! Qualora il nostro lettore di e-book possieda anche un qualche dispositivo di lettura, questo atteggiamento si fa ancor più marcato: alla precisa domanda su come avessero ottenuto l’ultimo libro da loro letto, i possessori di tablet hanno affermato di averlo acquistato per il 59 e quelli di e-book reader addirittura nel 64% dei casi; per contro solo nel 10 ed 11% dei casi rispettivamente essi dichiaravano di averlo preso in prestito da una biblioteca.
Le cose non vanno meglio se si guarda a come i lettori di e-book sono “arrivati” a questi libri: nel 64% dei casi il canale principale è stato il passaparola di amici e famigliari, seguito da online bookstore e siti web (28%) e librai (23%). Il bibliotecario e/o il sito web della biblioteca chiudono tristemente ultimi con il 19%.
Nemmeno quando si cerca un preciso libro la biblioteca è in cima alle opzioni: nel 75% dei casi la scelta ricade su un’online bookstore od un sito web e solo nel 12% dei casi si fa affidamento sui servizi della propria public library.
Analoghe le proporzioni pure nel caso di lettori di e-book che sono anche possessori di device di lettura: se famiglia, amici e colleghi restano prima fonte di consigli / suggerimenti con l’81% la biblioteca (o meglio il suo sito) è utilizzata dal 21%. Qualora poi si possieda un dispositivo di lettura e si sia alla ricerca di un titolo specifico la ricerca online è di gran lunga la strategia più seguita (84%) contro un misero 11% appannaggio delle biblioteche.
I numeri, dunque, non sono incoraggianti per l’istituzione “biblioteca”, soprattutto alla luce del fatto che questa mezza débacle avviene negli Stati Uniti, dove il sistema bibliotecario è sicuramente avanzato e il digital lending è un servizio fornito ormai dalla maggior parte delle biblioteche! Che fare dunque? Esiste un modo per invertire quest’inerzia?
Guardando al profilo del lettore digitale (caratterizzato da maggiore propensione all’acquisto e minor ricorso al prestito) ed al contesto generale (la Rete come simbolo della disintermediazione) indubbiamente il timore che, man mano che le generazioni native digitali diventeranno “maggioranza”, la situazione possa addirittura peggiorare è indubbiamente fondato; ciò non significa che le biblioteche non abbiano alcune carte da giocarsi, alcune delle quali desumibili dalla stessa ricerca del PRC.
In primo luogo i soggetti intervistati hanno manifestato alcune perplessità relativamente al costo degli e-book reader (ricordo che l’elevato prezzo è uno dei principali fattori che dissuadono dall’acquisto): per quanto il costo di questi dispositivi sia visibilmente in calo, è un dato di fatto che ad oggi il lettore di e-book tipo è (sempre secondo la ricerca di PRC) bianco e con un reddito ed un’istruzione medio-alta. In tal senso la funzione “democratizzante” e la mission della biblioteca nel fornire libero accesso alla conoscenza a tutti i cittadini escono intatte se non addirittura rafforzate (riprova ex contro sia che a richiedere in prestito e-book sono appartenenti delle minoranze, con reddito ed istruzione medio-bassi).
In secondo luogo, molti lettori affermano che uno dei vantaggi del libro di carta è quello di poterlo prestare ed in generale di poterne disporre con maggior libertà rispetto al corrispettivo digitale, il che è un assurdo in termini essendo come noto in ambiente digitale la distribuzione praticamente a costo zero ed immediata; evidentemente non si tratta di difficoltà legate al formato, ma dipendenti dai vari “lucchetti” (DRM) (im)posti dagli editori! Pertanto la battaglia che le biblioteche stanno conducendo per togliere o perlomeno limitare queste restrizioni potrebbe procurare loro molti nuovi “amici” che magari un giorno decideranno pure di diventarne utenti, ribadendone l’importanza in seno a questa nuova società così incentrata sulle tecnologie digitali.
Quello dei servizi è il terzo aspetto della vicenda: è infatti evidente che esiste un problema di offerta e non mi sto qui riferendo esclusivamente alla disponibilità a catalogo di titoli di questo argomento o in quella lingua (a proposito gli intervistati della ricerca difficilmente non trovano quel che stanno cercando) ma soprattutto alla funzione di search; fintantoché agli utenti verrà spontaneo ricercare un libro a partire dalle pagine web o dalle app degli online bookstore è quasi automatico che le biblioteche ricopriranno un ruolo marginale in ambito e-book! Occorre pertanto che vengano approntati SOPAC (Social Online Public Access Catalogue) e relative applicazioni per dispositivi mobili capace di ricreare quell’ambiente unico della biblioteca, vale a dire un ambiente nel quale si incontrano 1) una comunità di amanti del libro / della lettura, 2) i libri e 3) un bibliotecario la cui presenza potrebbe essere anche “on demand” e che dovrebbe fungere un po’ da guida e un po’ da moderatore.
Concludo ricordando come la ricerca abbia sottolineato più volte come la biblioteca sia punto di riferimento pressocché esclusivo allorché si tratta di audiobook; ovviamente quest’ultima deve ambire a svolgere un ruolo “universale” ma non è nemmeno da sottovalutare la possibilità di specializzarsi in un settore di nicchia qual è appunto quello degli audiobook (ma potrebbe trattarsi di qualsiasi nuovo formato che l’evoluzione tecnologica ci riserverà), tanto più che si tratta di un servizio di norma destinato a persone con problemi di lettura.
In definitiva il destino delle biblioteche non è segnato ma sicuramente solo con un buon mix di intraprendenza, reattività ai cambiamenti e nel contempo fedeltà ai valori fondanti può permettere a questa millenaria istituzione di preservare, nel nuovo contesto digitale, la sua vitalità al servizio della comunità.

Per la versione su Storify di questo post cliccate qui.

La guerra dei display – Part 2

LG epaper display

LG epaper display di AksgeekLive, su Flickr

Che il display sia una componente fondamentale di qualsiasi smartphone, phablet, tablet od ereader è quasi banale sottolinearlo; è però difficile negare che negli ultimi tempi la battaglia tra i colossi dell’high-tech si sia spostata proprio sul fronte del tipo di schermo adottato (e relative prestazioni).
Un breve riepilogo delle “puntate principali” di questo scontro rende bene l’idea: a fine settembre aveva iniziato Amazon, annunciando il Kindle Touch (che come già scritto a giorni arriverà in Italia con inclusa la connessione 3G), a dicembre aveva risposto Qualcomm con il suo rivoluzionario Mirasol Display, a marzo ha rilanciato Apple montando la sua tecnologia Retina Display anche a bordo del suo New iPad; pochi giorni fa, infine, LG ha annunciato l’avvio della produzione di massa del suo E-Paper Display (EPD).
Premesso che la scelta di trattare assieme schermi destinati ad ereader a quelli per tablet (= accostare dispositivi con tecnologie completamente differenti) può essere considerata borderline, bisogna riconoscere che non c’è altra alternativa essendo la tipologia / le caratteristiche dello schermo spesso e volentieri il principale criterio di scelta tra questo o quel device.
Alla luce di questi recenti annunci, quali sono le prospettive nel settore degli schermi? Ci sono stati significativi passi in avanti rispetto al precedente post (che resta comunque di riferimento) dedicato all’argomento? La nuova tecnologia EPD è realmente rivoluzionaria?
Personalmente ritengo che solo alcuni degli annunci anzidetti abbiano significato un netto stacco rispetto alla situazione precedente. Per quanto riguarda Amazon va notato che non c’è stato alcun progresso circa la risoluzione (ferma a 600×800 pixel; solo con il DX si sale a 800X1224) né tanto meno il colore, essendo stata l’unica miglioria quella di aggiungere uno strato touch. Diverso il discorso per Mirasol di Qualcomm: in questo caso la tecnologia è davvero innovativa ma per ora i big la stanno un po’ snobbando, tant’è che le uniche applicazioni concrete si hanno solo in alcuni paesi dell’Asia ed in pratica con lo stesso modello (il capostipite coreano Kyobo Reader infatti presenta caratteristiche estetiche, software ed hardware pressoché identiche all’Hanvon C18 e Bambook Sunflower cinesi ed al Koobe Jin Yong taiwanese); probabilmente si tratta di un fattore di costi ed occorre dunque attendere che questi calino per vedere i primi dispositivi con Mirasol a bordo anche in Europa. Inutile aggiungere che il suo arrivo darebbe sicuramente una scossa e costringerebbe la concorrenza a correre ai ripari (leggasi: puntare con decisione su ereader a colori oltre che creare grattacapi ai produttori di tavolette, rappresentando il Mirasol una valida alternativa ai tablet).
Ma veniamo agli annunci più recenti ed anche più “succosi”, iniziando dall’azienda della Mela morsicata: come forse saprete sono tra coloro che hanno salutato il New iPad in modo tutt’altro che entusiastico (per la precisione l’ho considerato un’occasione mancata da parte di Apple) ma saprete anche che non ho potuto non riconoscere il passo in avanti compiuto con l’adozione della tecnologia retina display; dal punto di vista tecnologico è un classico schermo LCD solo che gli ingegneri di Apple sono riusciti a ridurre considerevolmente le dimensioni dei pixel (motivo per cui a parità di schermo ve ne sono quattro volte tanti) e soprattutto sono stati capaci di rispettare la regola “un pixel un contatto elettrico”, grazie allo sdoppiamento su due piani distinti degli stessi. Il risultato finale è il controllo ottimale di ogni pixel che si traduce in una miglior resa dei colori; inoltre, essendo i pixel fisicamente più piccoli sono meno visibili ad occhio nudo e complessivamente le immagini risultano più nitide ed i colori più brillanti, il tutto, si badi, senza che i consumi energetici aumentassero (anche se l’autonomia di 10 ore – 9 con LTE attivato – resta a mio giudizio insoddisfacente).
Concludo, in rigoroso ordine cronologico, con l’annuncio più recente, ovvero quello di LG; ovviamente il comunicato stampa del chaebol sudcoreano si sforza di mettere in evidenza i punti di forza del nuovo prodotto (come tecnologia rientra in quella degli e-ink) rispetto al corrispettivo in vetro, vale a dire: a) la maggior resistenza agli urti (la foto dimostra addirittura come sia pieghevole sino a 40 gradi) ed alle cadute b) il minor ingombro, in termini di sottigliezza e peso c) l’elevata definizione (1024X768 pixel) d) i bassi consumi energetici e soprattutto e) gli inferiori costi di produzione. Ora, naturalmente ognuno deve portare acqua al proprio mulino, però è indubbio che quasi su tutti i punti LG abbia ragione: chi non vorrebbe uno schermo meno “delicato”, meno ingombrante e meno costoso ma nel contempo più efficiente e più definito? Uso quel “quasi” perché, tanto per cambiare, alcune perplessità le nutro: a) per quanto riguarda i costi, non è garantito che questi scendano anche per il consumatore finale (l’azienda potrebbe benissimo decidere di trattenere per sè i maggiori risparmi = guadagni) b) circa i consumi, questi erano già bassi ed un’ulteriore calo, per quanto sempre da accogliere con favore, non è detto che influisca più di tanto sulle scelte di acquisto degli utenti c) anche l’aumento nella definizione è ovviamente una buona notizia, ma continua a mancare il colore, motivo per cui il Nook Color di Barnes & Noble (che di definizione fa 1024 X 600) continua a restare un prodotto di tutto rispetto! Nulla inoltre si dice sul tempo di refresh, ovvero sull’eventuale riproducibilità di video… caratteristica a mio vedere assolutamente da ricercare! Infine, per il momento la produzione riguarderà display fino a 6 pollici: se all’interno di questo range ricadono molti big vendor (tutti gli Amazon Kindle tranne il Dx, tutti i Cybook, i Leggo IBS 603 e 612, il Sony Reader solo per citarne alcuni) sarebbe interessante sapere chi effettivamente userà la nuova tecnologia sviluppata da LG, la quale nel suo comunicato, con comprensibile riserbo, ha semplicemente detto che la produzione partiva dagli ODM in Cina e che per la fine di aprile i pezzi sarebbero arrivati in Europa.
In altri termini quella che effettivamente è una notizia interessante per lo sviluppo del settore degli ereader, e a cascata degli ebook, potrebbe vedere sminuita la sua portata per logiche industriali che, si sa, talvolta non sono molto lineari.

Amazon Kindle Fire: a quando in Italia?

Amazon Kindle Fire

Amazon Kindle Fire di blogeee.net, su Flickr

L’annuncio di ieri da parte di Amazon che in ben 100 paesi (Italia inclusa) verrà a breve commercializzato il Kindle Touch 3G con connessione (al Kindle Store) inclusa, è stata accolto favorevolmente da “addetti ai lavori” e comuni utenti. I motivi di cui rallegrarsi effettivamente non mancano: il Kindle Touch è uno degli ereader maggiormente apprezzati e sicuramente tra i più diffusi, ed ora vanta pure il plus della connessione gratuita inclusa nel “pacchetto”; insomma, un’offerta allettante che alcuni commentatori si augurano possa far decollare una volta per tutte il mercato dell’ebook in Italia.
La mossa di Amazon ha nel contempo sollevato un intenso dibattito (caratterizzato talvolta da considerazione tipicamente “dietrologiche” all’italiana) incentrato sulla domanda cruciale: quando arriverà nella Penisola il pezzo pregiato dei dispositivi targati Amazon, vale a dire la tavoletta low cost Kindle Fire?
A riguardo le posizioni che vanno per la maggiore in Rete sono le seguenti: a) bisogna aspettare che venga approntata la versione di Android customizzata per il mercato italiano, mercato che secondo altri => b) non sarebbe ancora ritenuto maturo da parte del management di Amazon c) le pressioni delle varie lobby nostrane (editori, librai, content provider, etc.) hanno indotto il gigante dell’e-commerce, peraltro sovente accusato di “ammazzare” la concorrenza con pratiche sleali, a ritardare la commercializzazione in attesa che si addivenga ad un accordo su come spartirsi la torta (il tutto, sempre secondo gli assertori di questa opzione, a danno del consumatore finale) d) secondo altri, infine, un ruolo potrebbe averlo svolto il timore che la notoriamente restrittiva legislazione sulla privacy potesse far incorrere il dispositivo made in Seattle in indagini / sanzioni da parte dell’Unione Europea, soprattutto per quel che riguarda il funzionamento del browsercloud-accelerated” Silk.
Personalmente ritengo che un po’ tutte queste posizioni abbiano un fondo di verità: sicuramente la presenza di un SO ad hoc rappresenta un valore aggiunto del prodotto (e pertanto vale la pena attenderne lo sviluppo) così come che la valutazione del “contesto operativo” (ovvero peculiarità del mercato locale, ruolo della concorrenza, cornice legislativa) ha inciso sulle tempistiche di Amazon. Credo però che tra tutti i fattori quello che ha pesato di più sia stato la sostanziale immaturità del mercato italiano non solo e non tanto in fatto di penetrazione dell’ebook (il Rapporto AIE 2011 lo indicava fermo allo 0,04% seppur con trend positivo) ma in generale dell’economia digitale: negli Stati Uniti per il Fire è stato “confezionato” un pacchetto Premium da 70 dollari che consente di ascoltare musica in formato MP3, vedere film, storage illimitato sulla nuvola e via discorrendo. In Italia, a parte la necessità preliminare di stipulare i relativi accordi, semplicemente una cosa simile non sarebbe possibile: la quota di mercato della musica digitale, seppur in crescita, non è ancora in linea con gli altri paesi e per quanto riguarda i film non abbiamo Netflix (e nemmeno il corrispettivo) e questo anche perché infrastrutturalmente (leggasi disponibilità di banda larga… che sia veramente larga) solo poche aree metropolitane riuscirebbero a supportare il servizio. Al contrario, in un perverso meccanismo in cui l’assenza di alternative legali induce ai download illegali ci facciamo rispettare nelle classifiche della pirateria informatica.
Tenendo presente questo quadro di riferimento, è verosimile l’ipotesi, formulata da alcuni osservatori, che indicano il Natale 2012 come data possibile dell’arrivo in Italia (magari in contemporanea con il lancio del fantomatico “Fire 2”)? Dal punto di vista delle tempistiche sicuramente sì… ma forse pure troppo, nel senso che il Kindle Fire arriverebbe da noi ad oltre un anno dal lancio negli Stati Uniti, vale a dire vecchio per quelli che sono i tempi dell’hi-tech. Inoltre dal punto di vista della maturità (e maturazione) del mercato italiano, onestamente non penso che da qui a nove mesi i fondamentali possano cambiare di molto. Intendiamoci, quello natalizio è un periodo propizio per le vendite (Amazon stessa insegna), tanto più che, come ho sostenuto più volte, per quanto il rapporto dispositivi di lettura / ebook sia reciproco, è il primo a far da volano al secondo e pertanto la presenza del Fire potrebbe dare un impulso decisivo nel processo di maturazione del mercato di casa nostra.
Fin qui il ragionamento non fa una piega ma se guardiamo alle mosse della concorrenza, mi viene da ipotizzare un lancio prima di Natale: in estate infatti Google scenderà nell’arena dei tablet con il suo Nexus (questo il nome trapelato) il quale avrà dalla sua un prezzo davvero allettante (150 dollari), il sistema operativo Android Ice Cream Sandwich (mentre il Fire per ora resta ancorato al “vecchio” Gingerbread) oltre che (presumibilmente) la massima integrazione dei vari servizi di Big G e tutti i contenuti del Play Store. Chiaramente un avversario temibile che creerà seri grattacapi; di qui la mia idea che a Seattle potrebbero decidere di giocare in anticipo, con diverse risposte scaglionate nel tempo: a) passaggio ad Android 4 per l’estate (e questa potrebbe essere l’occasione per “sfornare” anche la versione per l’Italia, saltando in pratica la 2.3 ed offrendoci un prodotto appetibile non solo nel prezzo ma anche nel SO) b) per Natale grande battaglia con il lancio di un nuovo Fire il quale, a dar credito alle indiscrezioni, potrebbe avere uno schermo più grande dell’attuale (che ce l’ha da 7 pollici, scelta azzeccata come confermano anche i dati di vendita del Samsung Note; quest’ultimo da pochi giorni è upgradabile ad Android 4.0, a riprova del fatto che è questo lo standard cui ci si deve allineare) giusto per ampliare la gamma di prodotti, tra i quali potrebbe pure comparire un nuovo ereader.
Insomma, i mesi a venire saranno sicuramente densi di novità e, soprattutto, cruciali per il destino dell’ebook.

PS Considerati i massicci riferimenti ai rumor provenienti dalla rete ho approntato su Storify una versione di quest post con gli