Posts Tagged ‘e-book’

Alleanza Ibs – Deutsche Telekom, la vittoria dell’hardware sul software?

Ereader tolino Vision 2

L’ereader Tolino Vision 2 (credits: Deutsche Telekom)

L’annuncio è di pochi fa: IBS entra in Tolino, l’alleanza europea anti-Amazon che vede Deutsche Telecom nel ruolo di capofila assieme a case editrici, distributori e piccoli librai.
La notizia è stata salutata positivamente dalla maggior parte dei commentatori, i quali hanno appuntato la propria analisi essenzialmente su due aspetti: 1) il rinnovato ruolo dei librai, che nell’alleanza hanno il compito di fungere da vetrina, grazie alla capillare copertura del territorio, dei vari device appartenenti all’ecosistema Tolino (attualmente due ereader ed un tablet) nonché da volano per le vendite, grazie alla possibilità di aprire un proprio shop sulla piattaforma stessa, trattenendo una percentuale sugli eventuali acquisti 2) controbilanciare i grandi player globali, Amazon su tutti, rivitalizzando nel contempo, se possibile, il mercato italiano dell’e-book attraverso una sana e robusta competizione, che deve avvenire non solo sul fronte dei prezzi ma anche su quello dell’esperienza d’uso nel senso più amplio del termine (software di lettura, piattaforma d’acquisto, etc.).
Si tratta di considerazioni di per sé assolutamente condivisibili ma che hanno il torto di far scivolare in secondo piano quello che probabilmente è il dato più interessante, vale a dire la “rivincita” dell’hardware sul software o, se preferite, del fisico sul virtuale.
Appare infatti evidente come, seppur su piani diversi, un ruolo chiave nel progetto Tolino sia ricoperto proprio dalla parte “materiale” ed in particolar modo dalle librerie “brick & mortar” e dalla cloud messa su da Deutsche Telekom.
Per quanto riguarda le librerie viste come “vetrine” utili a far toccare con mano tanto i device quanto i libri e, pertanto, come luoghi capaci di incrementare le vendite ho già scritto a suo tempo (poche settimane fa ho aggiunto che con simili propositi si guarda anche alle biblioteche).
Non meno importante, anzi foriero di importanti conseguenze, il ruolo svolto dall’infrastruttura cloud di DT. A mio avviso è proprio questo il punto di forza del modello Tolino, ovvero la possibilità di caricare i propri ebook, indipendentemente dallo store nel quale li si è acquistati (e questo rappresenta sicuramente un ulteriore plus), in quella che viene a configurarsi sempre più come una personal digital library.
Le conseguenze non sono di poco conto: la propria biblioteca digitale si trasferisce dalla memoria interna del device di lettura (od al più dalla sua SD card) alla nuvola, che acquisisce pertanto un ruolo centrale, in quanto è ad essa che tutti i nostri dispositivi possono connettersi. Indubbiamente si tratta di un significativo passo in avanti anche se l’ideale, per come la vedo io, sarebbe che la nuvola fosse di nostra proprietà, soluzione che comunque al momento presenterebbe pro ma anche contro (se tra i vantaggi va ricordata una maggior privacy, per cui le nostre letture non sono più oggetto di analisi da parte di chi quei libri ce li vende e ce li mantiene, tra gli svantaggi da menzionare gli oneri in capo al proprietario della personal cloud in fatto di aggiornamento della parte hardware nonché tutto l’insieme di azioni a quest’ultimo richieste nel tempo per far sì che i libri continuino ad essere leggibili).
All’ascesa della cloud fa da contraltare, ulteriore riflessione, il ruolo residuale svolto dai device di lettura ed in particolare dagli ereader: sgravati dal compito di fungere essi stessi da “biblioteca portatile”, ridotti ad essere soltanto uno dei tanti dispositivi con i quali si legge, trattati per certi versi alla stregua di commodity, tale è l’appiattimento (verso il basso) sul fronte dei prezzi e su quello delle prestazioni, come non pensare ad un loro declino?!
Basta dare un’occhiata ai prezzi dei principali ereader (per assicurare un minimo di omogeneità cito dispositivi con illuminazione frontale) per farsi un’idea: il Kindle Paperwhite costa 129€, il Kobo Glo (fuori catalogo) 119€, il Nook Glowlight 119 $ ed il Tolino Shine appena 99€, medesimo prezzo del Cybook Odyssey FrontLight2!
Ad acuire i dubbi sulle sorti di questa classe di dispositivi contribuisce anche l’analisi delle prospettive future: a meno di voler considerare l’ “acquatico” Kobo Aura H2O un significativo passo in avanti, cosa che non è, non si vedono all’orizzonte particolari evoluzioni tecnologiche, non si parla praticamente più di display a colore (dopo i mezzi fallimenti, perlomeno in termini di vendite, di Nook Color e del Kyobo Mirasol) né si può considerare l’ultradefinizione come un qualcosa di dirompente!
Probabilmente riuscirà a sopravvivere chi saprà crearsi la sua nicchia di mercato: è il caso di Sony e del suo DPT-ST, ereader da 13,3 pollici le cui vendite stanno andando inaspettatamente bene tra professionisti ed in ambito educational a dispetto del prezzo elevato (peraltro di recente abbassato da 1100$ a 999). Insomma, una scommessa per il momento vinta da Sony (specie dopo che quest’ultima era progressivamente uscita dal mercato “convenzionale”) ma che, guarda caso, per risultare completa prevede nel “pacchetto” la messa a disposizione, nello specifico da parte di Box.com, di un cospicuo spazio di archiviazione. Come dire, la riprova del ruolo centrale giocata dalla cloud.

#SalTo12. Riflessione n. 1

Stand Amazon

Lo stand Amazon al Salone del Libro di Torino del 2012

L’editoria digitale è stato il tema principe della venticinquesima edizione del Salone Internazionale del Libro di Torino: gli organizzatori della manifestazione hanno non a caso scelto come slogan quello di “Primavera Digitale”, volendo con esso evidenziare come un po’ tutti gli operatori ripongano le loro speranze nelle nuove frontiere digitali per risollevare le sorti complessive dell’editoria e magari garantirle un prospero futuro.
Per chi come il sottoscritto si diletta a scrivere di “cose digitali” è sicuramente una cosa da salutare con favore ma sul fatto che poi si tratti di una speranza ben riposta è tutto da verificare! I lettori più assidui di questo blog ben sapranno che sull’argomento ho una posizione alquanto “problematica”, nel senso che non perdo mai l’occasione di sottolineare come le cifre del digitale in valori assoluti continuano ad essere modeste e che il modello di business che va per la maggiore rischia di fungere da freno anziché da volano per la crescita.
E che l’editoria digitale e l’ebook rappresentino ancora una nicchia appare in modo palese dallo spazio relativamente esiguo occupato a livello di stand espositivi: nonostante il digitale fosse il tema principale del Salone, “mappa alla mano” stimo che l’area “Book to the Future” coprisse al massimo il 7-8 % dell’area espositiva totale. Se si considera poi che in questo 7-8 % fossero presenti produttori di device “puri” come Sony e Trekstor ed altri impuri / ibridi come IBS ed Amazon (ma anche realtà legate al social reading come Zazie.it) si intuisce come gli editori digitali veri e propri fossero davvero una esigua parte e soprattutto come essi possano apparire, specie agli occhi del pubblico “generalista” del Salone, quasi delle mosche bianche!
E proprio ai lettori tradizionali il passaggio attraverso l’area “Book to the Future” deve aver provocato, mi immagino, una certa sensazione di disorientamento: nessuna pila di libri in bella mostra, nessun catalogo delle opere ma modelli di ebook reader o addirittura, presso lo stand di BookRepublic, una gentile ragazza che “confezionava” a tutto spiano con uno strano macchinario palloncini d’aria contenenti un codice grazie al quale, previa registrazione sul sito Bookrepublic.it, ottenere dieci ebook gratis.
Sicuramente una trovata pubblicitaria originale che testimonia appieno come, nel momento in cui viene a mancare il supporto fisico del libro (con la copertina che di suo rappresentava un potentissimo strumento di persuasione all’acquisto, assieme ovviamente ad altre efficaci strategie come il passaparola, le recensioni, le presentazioni in TV, in libreria e in biblioteca, etc.), la funzione aziendale “marketing” si trova a svolgere un ruolo sempre più centrale, quasi alla pari dell’imprescindibile lavoro editoriale “sul testo”, e sicuramente superiore rispetto a quello, attualmente importantissimo per le aziende “fisiche”, della distribuzione / logistica.
Le case editrici stanno cambiando “vestito”, che stia arrivando la Primavera?

Oltre le nuvole

Reset phone. 1st 25 apps I needed or thought about.

Reset phone. 1st 25 apps I needed or thought about. di hillary h, su Flickr

In una realtà tecnologica in continua ed ossessiva evoluzione non abbiamo ancora metabolizzato il concetto di cloud computing che già si inizia a parlare di metacloud; se con il primo intendiamo “un insieme (o combinazione) di servizi, software e infrastruttura It offerto da un service provider accessibile via Internet da un qualsiasi dispositivo” (definizione data da Rinaldo Marcandalli) in che cosa consiste ora questo andare “oltre la nuvola”?
In definitiva non è nulla di trascendentale: di norma con questo neologismo si fa riferimento a quei servizi (uno è Zero PC, lo cito giusto perché vi facciate un’idea) che consentono di gestire in modo semplice ed immediato, attraverso un’interfaccia unica, i contenuti prodotti e caricati su distinte cloud a) principalmente da individui b) che hanno in dotazione molteplici dispositivi. Per fare un esempio concreto se si usa un servizio di metacloud non è più necessario collegarsi a Flickr, Picasa od Instagram per visualizzare le proprie foto così come non serve accedere ai servizi Google per leggere i propri documenti (Google Docs) e mail (GMail); analogamente avviene con Evernote per la propria “bacheca virtuale”, con Dropbox o Box.net per il proprio spazio di storage e con Twitter e Facebook per quanto concerne la gestione delle proprie reti sociali.
Visto sotto questo punto di vista è innegabile che un servizio di metacloud presenta molteplici aspetti positivi: 1) non occorre più ricordarsi su quale servizio / dispositivo si trova tale foto e talaltro documento, in quanto con una semplice ricerca per nome, tag, data, etc. si individua il contenuto desiderato punto e basta 2) dal momento che anche il metacloud è un servizio web based, l’accesso ai propri contenuti digitali è H24 e device independent 3) non occorre più ricordarsi tante credenziali di accesso quante i servizi che si adoperano 4) spesso e volentieri è compreso il servizio di backup automatico dei propri dati e documenti dalle molteplici nuvole (ciascuna corrispondente ai vari servizi cui siamo iscritti) alla “metanuvola” (il citato ZeroPC ad esempio mette a disposizione 1 GB nella versione gratuita).
Quest’ultimo punto ci introduce alla parte più propriamente “archivistica” della questione (ma a ben guardare c’è pure un risvolto “biblioteconomico”, giacché sulla nuvola posso caricare anche la mia biblioteca personale composta di e-book!): come ormai saprete sono fortemente convinto che il cloud computing rappresenti un grosso pericolo per quelli che sono i moderni archivi di persona (diverso il caso di realtà più strutturate come aziende e pubbliche amministrazioni che peraltro sono tenute per legge a gestire e conservare i propri documenti). Infatti tale paradigma tecnologico, unitamente all’esplosione quantitativa degli strumenti di produzione, comporta una frammentazione / dispersione fisica dei propri dati e documenti su molteplici servizi e supporti di memoria al punto che è facile perdere la cognizione di “dove si trovi cosa”. In questo senso la comparsa di servizi di metacloud è la naturale risposta alla perdita di controllo conseguente al passaggio sulla nuvola ed è apparentemente in grado di ridare unità logica (ed eventualmente anche fisica, qualora si proceda al backup sulla metanuvola, poniamo quella di Zero PC) a quelli che altrimenti non sarebbero altro che frammenti sparsi della nostra vita digitale. Purtroppo non son tutte rose e fiori perché un servizio di metacloud soffre di molte di quelle problematiche già evidenziate per il cloud computing, vale a dire a) il rischio di hijacking nella fase critica del trasferimento dati da/per la nuvola / metanuvola, b) policy non adeguatamente esplicitate in fatto di tutela dei dati caricati, di localizzazione dei data center e delle misure di sicurezza ivi adottate, etc.
Partendo dal presupposto che il modello del cloud sia irrinunciabile nell’attuale contesto tecnologico, sociale ed economico, il problema dunque che si pone è il seguente: come mantenerne gli indiscutibili benefici limitando e se possibile azzerandone le controindicazioni (sempre in relazione all’uso da parte di singoli individui; n.d.r.)? Il metacloud è una prima strada che, come abbiamo visto, risolve parzialmente le cose; l’altra a mio avviso non può che essere quella delle personal cloud, alle quali ho già fatto cenno in un precedente post. Quest’ultima soluzione permette un controllo nettamente maggiore (e migliore) dei propri contenuti digitali così come per tutto ciò che concerne la sicurezza fisica anche se ad oggi risulta assai più costosa e sottintende una tutt’altro che scontata sensibilità archivistica in capo al suo “proprietario”, senza che peraltro vengano eliminati gli annosi problemi relativi all’affidabilità, autenticità, etc. dei dati e documenti medesimi.
Insomma, per concludere, neppure le personal cloud sembrano risolvere tutti i problemi, anche se a ben guardare una possibilità ci sarebbe e consisterebbe nel consentire al singolo individuo di effettuare la copia di backup della propria nuvola personale all’interno di porzioni di server appartenenti, che ne so, agli Archivi di Stato, che verrebbero così a svolgere la funzione di trusted repository in favore di tutta la collettività; peccato che tutto ciò presupponga un salto tecnologico, e soprattutto culturale, che allo stato attuale delle cose è pura utopia… Sia come sia l’importante è che l’attenzione sui destini degli archivi di persona nell’era digitale non venga mai meno.

Cloud computing in biblioteca: quali prospettive

Biblioteca José Vasconcelos / Vasconcelos Library

Biblioteca José Vasconcelos / Vasconcelos Library di * CliNKer *, su Flickr

PREMESSA

Avrete notato che non c’è quasi post nel quale io non faccia riferimento, almeno “en passant“, al modello del cloud computing. Avendo già dedicato un articolo approfondito alle possibili applicazioni negli archivi, è ora giusto, per par condicio, delinearne i possibili utilizzi pratici all’interno delle biblioteche. Per facilità espositiva credo sia utile distinguere tra quelle applicazioni che possono venir implementate, volendolo fare, da subito e quelle che invece lo saranno in un futuro che comunque è ben più vicino di quanto si pensi.

CHE COS’E’ IL CLOUD COMPUTING (IN BREVE)

Come forse sarà noto, il cloud computing è una “declinazione” tecnologica grazie alla quale è possibile accedere da remoto, in modo scalabile e personalizzabile, a risorse hardware e software offerte da uno o più provider che le virtualizzano e distribuiscono attraverso la rete Internet. Per certi aspetti si tratta dunque della normale evoluzione di un qualcosa che era già intuibile in nuce con l’avvento della Rete ed ora semplicemente condotto alle sue estreme conseguenze; per altri si tratta di qualcosa di “rivoluzionario” cambiando radicalmente per i singoli utenti, con il passaggio alla nuvola, le modalità di implementazione delle nuove tecnologie da un lato e del loro utilizzo pratico dall’altro.

MODALITA’ DI UTILIZZO GIA’ IMPLEMENTABILI

Nella definizione sopra data si spiega chiaramente come a venir coinvolte dal passaggio al cloud sono sia la dimensione hardware che quella software; tenendo pertanto presente che esiste un’intima correlazione tra queste due componenti (essendo la prima funzionale alla seconda), risulta però assai più agevole, al fine di una trattazione più lineare, affrontare distintamente i due aspetti ed è così che intendo procedere.
1) Hardware: nelle realtà più avanzate, soprattutto in quelle in cui si è proceduto nella direzione della realizzazione del modello di biblioteca digitale, si è reso indispensabile dotarsi di un’infrastruttura tecnologica complessa (server, router, cablaggi vari, etc. il tutto collocato in ambienti debitamente condizionati) il che, se da un lato ha permesso di ampliare il ventaglio dei servizi offerti, dall’altro ha finito con l’accrescere i costi dovuti non solo alle spese in strumentazioni tecnologiche ma anche all’ “appesantimento” degli organici (la presenza di personale con conoscenze informatiche si è rivelata un’esigenza imprescindibile). Questa trasformazione, oltre ad appalesare problemi di profonda insostenibilità economica (quel “profonda” sta a ricordare che nessuna biblioteca non comporta costi), rischia anche di snaturare la natura stessa dell’ “istituto biblioteca”, finendo le spese in tecnologia con l’assorbire quote sempre più consistenti del budget a disposizione e questo talvolta anche a discapito della mission istituzionale. Visto sotto tale luce il cloud computing, consentendo di “affibbiare ad altri” l’onere di realizzare e gestire queste sempre più importanti e costose infrastrutture, rappresenta una boccata d’ossigeno non da poco per le finanze sempre più striminzite della maggior parte delle biblioteche (ibride, virtuali o digitali che siano). Purtroppo questa via di delegare in toto a terzi non è percorribile così “a cuor leggero”: le problematiche in fatto di sicurezza dei dati (personali, record bibliografici, etc.) non sono di facile soluzione a meno di non ripiegare su soluzioni intermedie come potrebbero essere le hybrid o private cloud (senza scendere nei dettagli, si tratta di modelli “intermedi” nei quali si mantiene un certo grado di controllo sull’infrastruttura tecnologica senza per questo rinunciare alla maggior parte dei benefici della nuvola). Al netto di queste controindicazioni, credo che l’uso del cloud computing in modalità IaaS (Infrastructure as a Service), già diffuso in alcune realtà, sarà nel volgere di pochi anni più la regola che l’eccezione.
2) Software: basta solo pensare che praticamente qualsiasi programma attualmente installato nel nostro personal computer può / potrebbe tranquillamente venir erogato in modalità cloud per intuire come il cosiddetto SaaS (Software as a Service) sia denso di implicazioni anche per il settore biblioteconomico; in effetti già nel momento in cui scrivo molti importanti poli bibliotecari hanno adottato SW (con funzioni di catalogazione, di gestione del prestito, di evasione delle pratiche amministrative, etc.) cui si accede per via telematica previa autenticazione e che dal punto di vista “fisico” risiedono presso i server della società sviluppatrice assieme a tutti i dati di natura amministrativa, catalografica, etc. caricati dai singoli operatori “sparsi” nelle diverse biblioteche / nodi appartenenti alla rete. Senza nemmeno qui scendere nei dettagli, i pro del passaggio alla nuvola sono evidenti (una catalogazione partecipata e collaborativa, una miglior ottimizzazione delle risorse, ad es. tramite acquisti coordinati ed una circolazione delle risorse più razionale) così come i contro (in caso di interruzione dell’erogazione dell’energia elettrica oppure in assenza di connessione, semplicemente il sistema non funziona!). Tutti fattori da valutare con un’attenta analisi costi / benefici anche perché, ponendosi nel worst case scenario, la necessità di garantire la continuità del servizio imporrebbe anche a realtà minori (che difficilmente possono permetterselo) la presenza di gruppi di continuità e connessioni garantite (linee dirette, molteplici fonti del segnale, etc.), ovvero soluzioni talvolta non adottate nemmeno da realtà ben più grandi!

APPLICAZIONI E SCENARI FUTURI

Dal momento che vanno a modificare prassi consolidate, gli utilizzi pratici del cloud sin qui descritti rappresenteranno un sicuro elemento di novità nel settore bibliotecario; eppure, pur con tutta la loro rilevanza, essi rischiano di apparire gran poca cosa se raffrontati a quanto potrebbe avvenire di qui a pochi anni! In effetti, senza che ciò significhi abbandonarsi a voli pindarici, guardando a ciò che potrebbe divenire a breve realtà sembra davvero di poter affermare che nel prossimo futuro saremo testimoni di cambiamenti epocali! In particolare a mio avviso il cloud computing moltiplicherà gli effetti di altri processi attualmente in corso in modo più o meno indipendente tra di loro (e dei quali, per inciso, talvolta esso stesso è nel contempo premessa e conseguenza!): a) diffusione dell’e-book b) diffusione di dispositivi per la fruizione di contenuti digitali in mobilità (smartphone, e-reader, tablet, etc.) da parte di individui sempre più connessi c) presenza di una incontrollabile massa di risorse digitali parte delle quali, stando alla teoria, dovrebbero essere “appannaggio” delle biblioteche (digitali). Partiamo da quest’ultimo punto: sulla centralità del ruolo che potranno giocare le biblioteche (digitali) onestamente nutro più di un dubbio; troppa la disparità degli investimenti effettuati ed in generale delle risorse (umane, finanziarie, tecnologiche) disponibili! Purtroppo temo che in futuro il ruolo di intermediazione attualmente svolto dalla biblioteca fisica, con la quale tutti noi abbiamo familiarità, non sarà altro che un ricordo essendo essa sostituita dall’interfaccia grafica messa a disposizione in Rete da quelli che genericamente sono definibili come fornitori di risorse digitali; in sostanza dunque l’utente (cliente?) effettuerà ricerche, accederà alle collezioni digitali, fruirà delle risorse reperite rielaborandole e condividendole “socialmente”, il tutto direttamente a partire dal sito web / dall’applicazione sviluppato/a dal DRP (Digital Resources Provider) ed indipendentemente dal tipo device in uso. In concreto il DRP in parte creerà direttamente piattaforme ed applicativi ed in parte si inserirà in un ambiente digitale nel quale applicazioni di terzi si integreranno tra di loro espandendo, a seconda degli interessi e delle esigenze dell’utilizzatore, il suo “habitat” digitale (=> le varie fasi di ricerca, utilizzo, condivisione, conservazione, etc. avverranno in un ambiente percepito dall’utente come unico).
Se questo sarà a mio vedere il probabile scenario di riferimento, è il caso di soffermarsi su alcuni aspetti di specifico interesse biblioteconomico: 1) non è tutt’altro che scontato che, nella sua ricerca di e-book, l’utente si rivolga alle biblioteche né d’altro canto è così pacifico che le biblioteche digitali saranno le DRP per eccellenza di quella specifica risorsa che chiamiamo “libro elettronico”; anzi è altamente probabile che il ruolo dei motori di ricerca (non mi riferisco qui solo a quelli generalisti come Google, ma anche a quelli dedicati come Ebook-Engine.com) così come quello dei cataloghi delle case editrici (meglio ancora se “evoluti” in chiave social in stile aNobii) sarà vieppiù crescente. 2) Proprio l’atteggiamento di queste ultime è attentamente da valutare; se da una parte esse pure vedono con il fumo negli occhi il ruolo di rigidi gate-keeper svolto dai SE nei riguardi dei contenuti che loro stesse – le case editrici, intendo – concorrono a creare (e potrebbero perciò allearsi con le biblioteche contro il comune nemico), dall’altra non si può non interpretare come “ostili” i peraltro non numerosi accordi fin qui stipulati in tema di digital lending! Essi fanno intravedere, nel momento in cui gli editori stessi (o ulteriori società “intermediarie” specializzate) si accollano l’onere di sviluppare e gestire piattaforme attraverso le quali effettuare le operazioni di ricerca ed eventuale “prestito” per conto delle biblioteche, la prospettiva di una marginalizzazione di queste ultime, ridotte a poco più di mere “procacciatrici” di utenti / clienti! (A rendere critico il rapporto biblioteche – editori è anche la questione del DRM ed in generale della tutela dei diritti di proprietà intellettuale, che è in via di ridiscussione e, viste le posizioni di partenza scarsamente conciliabili, rendono verosimile un peggioramento rispetto alle regole, già non perfette, esistenti nel “mondo fisico”).

CONCLUSIONI

Per concludere, dunque, il cloud computing in biblioteca nella sua declinazione IaaS se da un lato pare assicurare quei vantaggi connessi all’uso di infrastrutture tecnologiche all’avanguardia contenendo allo stesso tempo i costi entro limiti ragionevoli, dall’altra sembra pericolosamente strizzare l’occhiolino al bibliotecario e dire: “Ehi, tranquillo! Non preoccuparti della ferraglia, ci pensiamo noi!”, senza farlo riflettere sul fatto che la perdita di controllo sull’infrastruttura IT non è cosa da poco! Anzi a ben guardare è solo la prima di una lunga serie di “concessioni” che si fanno in rapida successione: ad esempio con il digital lending, almeno per come è stato fatto finora in Italia, si perde pure quello sulla piattaforma, senza poi considerare come in ambiente digitale vadano completamente ricalibrate le strategie di comunicazione con gli utenti, che rischiano di essere “scippati” dagli onnipresenti social network. Alla luce di queste considerazioni anche gli indubbi vantaggi ottenibili a livello di piattaforma (PaaS) e di software (SaaS), con la nuvola che trasforma davvero quasi per magia i poli bibliotecari in un’unica grande biblioteca, con un patrimonio trattato omogeneamente, utenti condivisi, procedure comuni, etc., perdono gran parte del loro valore.
Un ultimo appunto è, infine, di ordine squisitamente teorico: è opinione diffusa in letteratura che alla biblioteca elettronica (= per Carla Basili e Corrado Pettenati “una biblioteca automatizzata, non necessariamente connessa alla Rete”) si sarebbero quasi evoluzionisticamente succedute la biblioteca virtuale ( = una biblioteca connessa in ruolo di client, ovvero che trae dalla Rete parte delle sue risorse per espandere il posseduto) e quella digitale ( = una biblioteca che mette a disposizione di utenti remoti le proprie risorse digitali pubblicandole in Rete). Ebbene con il cloud computing mi sembra che questo ruolo “attivo” in qualità di server venga un po’ meno: d’accordo, la biblioteca possiederà sicuramente delle risorse digitali, ma è indubbio che queste (quand’anche dal punto di vista legale di sua proprietà) risiederanno su server di terzi. Inoltre, dovesse il trend rafforzarsi (ed i soldi rimanere sempre pochi), le biblioteche acquisteranno sempre meno “risorse digitali” optando per formule ibride quali noleggio / affitto rinunciando perciò anche al ruolo di interfaccia tra utente e risorse (questo perché gli accordi stipulati prevederanno che della piattaforma di ricerca e prestito si occupi il “noleggiatore”). Insomma, mi pare proprio si possa affermare che le biblioteche con il passaggio alla nuvola rimarranno ancorate al ruolo di client e quand’anche dovessero progettare di ampliare i propri servizi consentendo l’accesso a risorse digitali presenti in Rete, in gran parte dei casi non lo farebbero impegnandosi in prima persona. In altri termini, la definizione di “biblioteca digitale” così come formulata dalla teoria rischia di restare pura speculazione.

La guerra dei display – Part 1

Imaging Film highres

Imaging Film highres di mtlin, su Flickr

INTRO

La notizia, ormai datata di qualche giorno, della commercializzazione di Kyobo, primo e-reader a colori dotato della tecnologia Mirasol, ha riportato l’attenzione su quella fondamentale componente che è il display, fondamentale in quanto da esso dipendono fattori critici quali form factor (=> dimensioni), consumi, qualità dell’esperienza di lettura.
E’ dunque forse il caso fare una breve panoramica, di taglio non specialistico ma divulgativo (ma non per questo meno capace di evidenziare i relativi pro e contro), dei principali tipi di schermi attualmente in circolazione.

LE TECNOLOGIE

1) PLASMA. Questa tecnologia consiste nel riempire migliaia di microcelle, poste tra due pannelli di vetro, per l’appunto con il plasma (in realtà un composto a base di neon e xeno che eccitato elettricamente va a colpire il rivestimento di fosforo delle celle generando i vari colori). Ogni cella, in sostanza, funziona come una micro-lampada: tre di queste “lampade” (= tre celle) costituiscono un pixel e molti pixel compongono le immagini. Un difetto di questa tecnologia è la presenza ben visibile della “retina” delle micro-celle e l’impossibilità, imposta dalle stesse, di scendere oltre una certa dimensione di diagonale. Tra i vantaggi, al contrario, proprio la possibilità di utilizzo in schermi molto grandi senza che per questo aumenti lo spessore dello schermo; inoltre essendo ogni pixel una fonte autonoma di luce la visibilità è ottima anche ad elevate angolazioni.
2) LCD. E’ sicuramente la tecnologia più utilizzata; il principio che ne è alla base è semplice: semplificando, tra due pannelli di vetro viene inserito un particolare materiale, il cristallo liquido, che se polarizzato, ovvero sottoposto ad un campo elettrico, si organizza in modo da far passare o meno la luce secondo la regola “un contatto elettrico (uguale) un pixel”. Condizioni necessarie affinché i pixel si accendano sono dunque la presenza di una luce che attraversi i cristalli e che essi vengano continuamente cambiati di stato (refreshing), motivo per cui gli schermi LCD sono particolarmente energivori. Dal punto di vista produttivo / tecnologico si suole distinguere in (almeno) tre grosse categorie di schermi LCD: a) trasmissivi, nei quali la luce necessaria proviene da una fonte che la emette costantemente (a fluorescenza o a LED, questi ultimi meno dispendiosi) e che è collocata dietro ai due pannelli (= retroilluminazione). Questo metodo ha notevoli controindicazioni, ovvero i consumi elevati, la stanchezza arrecata agli occhi di chi guarda lo schermo e non da ultimo la cattiva visibilità in presenza di luce solare. La seconda categoria, b), è detta riflettiva: in sostanza non è presente una fonte di luce che va alimentata con energia in quanto si usa la luce ambientale; purtroppo quest’ultima non è sufficiente per applicazioni quali schermi Tv, tablet, etc. ma al contrario trova largo utilizzo in piccoli elettrodomestici quali radiosveglie, bilance digitali e via dicendo (talvolta capita che una fonte di energia ausiliaria è ottenuta installando un micro-pannello solare). La terza ed ultima categoria, c), è detta transriflettiva e consiste in un mix delle due soluzioni precedenti.
3) OLED. Questo tipo di display si basa sull’elettroluminescenza posseduta naturalmente da alcuni elementi organici; in altri termini, a differenza dei display LCD, non è necessaria una fonte di luce esterna in quanto è il materiale stesso di cui è composto lo schermo stesso ad emetterla! I vantaggi di questa tecnologia sono evidenti: a) bassa tensione e bassi consumi b) ottimo contrasto e colori brillanti => c) minore affaticamento della vista. I principali aspetti negativi sono costituiti dagli elevati costi di produzione e dalla durata relativamente breve delle proprietà elettroluminescenti dei materiali organici.
Da ricordare, infine, che così come per i display LCD anche per quelli OLED si è avuta una suddivisione in particolari tipologie (AMOLED, Super-AMOLED, etc.) che però non è il caso qui descrivere.
4) E-INK. Il funzionamento di un display basato su questa tecnologia (sviluppata da E-Ink Corporation appositamente per la lettura di e-book) è semplice quanto geniale: all’interno di microsfere vengono inserite particelle bianche e nere di biossido di titanio; a seconda del tipo di carica elettrica ricevuta (positiva o negativa) queste particelle si dispongono in un determinato modo andando a formare, puntino dopo puntino, la pagina. Gli aspetti positivi di questa tecnologia sono molteplici ma contemperati da una serie di controindicazioni delle quali è bene tener conto: infatti la tecnologia e-ink, sia per l’assenza di retroilluminazione sia perché il refresh non è continuo ma avviene solo quando si cambia la pagina, consuma poca energia (=> lunga autonomia, fattore al contrario critico in molti device); inoltre la citata mancanza di retroilluminazione contribuisce a non affaticare la vista così come migliora sensibilmente la facilità di lettura in caso di esposizione alla luce solare o di elevata angolazione. Ovviamente il fatto che non sia retroilluminato costituisce anche un problema: come per qualsiasi libro cartaceo, con poca luce od al buio semplicemente non si legge! Inoltre l’assenza di refresh continuo impedisce la possibilità di rappresentare a schermo animazioni video (e quando anche lo sono, gli scatti tra un fotogramma e l’altro sono intollerabili!). Last but not least la tecnologia e-ink, per la citata presenza delle particelle di biossido di titanio, è di fatto una tecnologia in bianco e nero. Ovviamente la ricerca va avanti e non bisogna dunque disperare: se la “prima generazione” (Vizplex) al massimo garantiva 16 toni di grigi, la seconda (Pearl) ha rappresentato un significativo passo in avanti in termini di contrasto e di velocità nel cambio di pagina (= refresh => non è irrealistico pensare ad e-reader con tecnologia ad inchiostro elettronico capaci di riprodurre video). La terza generazione poi (Triton) ha addirittura visto la comparsa del colore! Se dal punto di vista costruttivo l’obiettivo è stato centrato semplicemente aggiungendo un ulteriore strato RGB, la resa non è soddisfacente, essendo i colori assai smorti. In ogni caso l’evoluzione continua e non bisogna disperare: basta guardare alle tecnologie Ink-In-Motion e Surf sviluppate, seppur per applicazioni in altri campi, sempre da E-Ink Corporation per rendersi conto delle potenzialità future!
5) SI-PIX. Si tratta di una tecnologia per certi versi analoga a quella e-ink infatti, fatto salvo che a) non abbiamo le microsfere bensì delle microcelle (chiamate Microcup) di forma quadrata od esagonale e che b) al loro interno non ci sono le particelle di biossido di titanio bianche e nere ma particelle bianche ed un fluido nero, il principio di funzionamento è simile: applicando una carica elettrica si riesce ad attrarre e disporre, in base alle esigenze, gli elementi bianchi e quelli neri i quali nel loro insieme concorrono a costruire le pagine. Se dunque anche con Si-Pix non vi è retroilluminazione (con tutti i vantaggi che ne conseguono), un problema concreto è costituito dall’eccessiva grandezza delle Microcup: infatti osservando attentamente uno schermo basato su questa tecnologia non si può non notare la “tramatura” di fondo costituita dall’insieme delle “celle”, il che non è sicuramente un bel vedere! Si rende dunque urgente rimpicciolire le Microcup anche perché così facendo migliora il controllo dei vari elementi contenuti, specie dei colori: già, perché nelle Microcup non è obbligatorio mettere il liquido nero ma potrebbe tranquillamente essere inserito uno dei colori RGB, purché dotato di proprietà dielettriche. Insomma, anche con la tecnologia Si-Pix si può raggiungere il traguardo di uno schermo a colori.
6) PIXEL QI. Non è una tecnologia vera e propria, prevedendo esso la compresenza in un unico dispositivo tanto di uno schermo LCD quanto di uno E-ink. In linea teorica i vantaggi sono evidenti: si usa il primo per fruire di una specifica serie di contenuti, l’e-ink per leggere. Purtroppo a detta di molti (personalmente non ho mai maneggiato un dispositivo con schermo Pixel Qi) quando è in funzione in “modalità” e-ink la resa non è all’altezza dei corrispettivi display “puri”; a questo difetto non da poco aggiungerei che la presenza di uno schermo LCD giocoforza porta ad un innalzamento dei consumi energetici, con i conseguenti limiti in termini di autonomia, tali forse da non rendere giustificato l’acquisto di un device che peraltro ha un costo proporzionalmente più elevato (l’Adam di Notion Ink, unica azienda ad aver prodotto un tablet/e-reader con questa tecnologia, parte da circa 300 euro).
7) MIRASOL. Questa tecnologia si basa su un principio completamente diverso rispetto a quelli fin qui descritti: in pratica al riparo di un vetro si trovano i due elementi fondamentali, ovvero una pellicola e, separata da uno spazio semplicemente riempito d’aria, una membrana riflettente; quest’ultima membrana, in base a precisi impulsi elettrici ricevuti, si sposta per attrazione elettrostatica verso la pellicola sovrastante assumendo diverse posizioni. In particolare quando è aperta del tutto la luce esterna attraversa nell’ordine: il vetro, la pellicola ad esso aderente, lo spazio d’aria per infine incidere sulla membrana riflettente e tornare indietro così com’è arrivata, motivo per cui, non essendoci alterazioni nella sua frequenza, viene percepita dall’occhio umano come colore bianco sullo schermo; al contrario quando la membrana riflettente è “appiccicata” alla pellicola, la luce non viene riflessa e ai nostri occhi lo schermo assume il colore nero. Sarà ora intuibile come, in base allo stesso principio, la membrana riflettente mobile a seconda della “quota” nella quale si posizionerà potrà assorbire parte della luce entrante e riflettere la rimanente conferendole una frequenza che, a seconda dei casi, i nostri occhi percepiranno come rosso, verde e blu (RGB). Un sistema dunque tanto semplice dal punto di vista scientifico quanto tecnologicamente innovativo! Purtroppo questa tecnologia per il momento ha il suo costo: il citato Kyobo viene venduto per l’equivalente di 230 euro, non pochi per un e-reader. E’ questa a mio avviso l’unica controindicazione, essendo per il resto (non essendoci retroilluminazione) la visibilità ottima anche in piena luce solare! Veloce è anche il cambio di pagina / immagine (= il tempo che la membrana riflettente si alzi o si abbassi) al punto che su uno schermo Mirasol è possibile vedere anche video con adeguato frame rate; essendo poi gli spostamenti minimi dal punto di vista della “strada percorsa” l’energia necessaria è poca, motivo per cui i consumi sono ridotti (Qualcomm, l’azienda produttrice, sostiene persino inferiori all’e-ink). Una tecnologia dunque che sembra davvero valida, soprattutto perché come tutte suscettibile di miglioramenti, anche se come sempre per un giudizio compiuto bisognerebbe testarla.

LCD pixels fry my eyes

LCD pixels fry my eyes di ~dgies, su Flickr

CONSIDERAZIONI E VALUTAZIONI FINALI

In questo lungo e denso post ho descritto per sommi capi le principali tecnologie usate nei display attualmente in commercio: ad esclusione di quella al plasma, tutte le altre hanno trovato una più o meno diffusa applicazione in ambito tablet e/o e-reader, vale a dire i dispositivi di lettura “principi” attualmente a disposizione (prescindendo ora da considerazioni sulle distinte classi e sulla loro possibile, anzi probabile, convergenza).
A mio avviso una loro completa valutazione non può essere fatta senza tener conto del “contesto operativo” nel quale esse si troveranno ad operare e di conseguenza senza considerare quali task dovranno svolgere e quali caratteristiche dovranno possedere. Per quanto riguarda il contesto, questo sarà fatto di risorse caricate sulla nuvola, alle quali vi accederemo sempre e comunque attraverso molteplici dispositivi mobili (la celebre accoppiata cloud computing + mobile devices). Restringendo ora il campo a tablet ed eredaer appare fuor di discussione che le varie risorse digitali fruite saranno caratterizzate da multimedialità spinta e tendenza ad “esplodere” verso la Rete. Ad esempio un libro di testo, poniamo di storia, avrà la classica parte testuale in cui si descrivono la vita e le opere di Cesare, ma anche video con ricostruzioni in 3D della Roma del I secolo a.C., immagini, link ad ulteriori risorse utili disponibili in Rete, così come prevederà la condivisione ed interazione con i compagni ed i docenti; i tipici esercizi di comprensione di quanto studiato, presenti nella versione cartacea a fine di ogni capitolo, saranno sostituiti da test compilati online che potrebbero tranquillamente essere corretti dalla casa editrice così come inviati al docente o archiviati sulla nuvola in attesa di correzione…
Da questo banale esempio si intuisce come la connettività sarà un requisito essenziale così come i colori (ve lo immaginate, ai nostri giorni, un libro di testo in bianco e nero? ma anche fumetti o riviste per essere in linea con gli standard cui siamo abituati devono essere a colori, mica acquistiamo gli ereader per leggerci solo classici della letteratura!) e la capacità di riprodurre video. Ovviamente un’attività come lo studio richiede una lettura intensiva e prolungata nel tempo, motivo per cui da un lato lo schermo non dovrà affaticare la vista e la batteria dovrà durare a lungo (negli istituti scolastici in cui si effettua il rientro pomeridiano almeno 10 ore).
Ebbene, solo imponendo il rispetto dei requisiti sin qui elencati (connettività, visibilità senza per ciò affaticare la vista, capacità di riproduzione di testi, di audio e di video, colori, bassi consumi) abbiamo fatto fuori gran parte dei “pretendenti”: di sicuro scartati sono i dispositivi LCD retroilluminati (troppo alti i consumi e notevole l’affaticamento della vista) così come quelli con tecnologia E-ink e Si-pix (per la scarsa multimedialità e l’assenza del colore o quanto meno di un colore che sia decente). Bocciata pure la tecnologia Pixel-Qi in quanto essa implica, a seconda della modalità d’uso (LCD o e-ink), la rinuncia a qualcuna delle caratteristiche richieste. A giocarsela restano dunque i dispositivi con tecnologia OLED o Mirasol, entrambe molto più costose delle precedenti ma con gli indubbi vantaggi descritti. Dovendo comunque scegliere un “vincitore” tra i due, l’attuale (relativa) scarsa durata degli schermi OLED, dovuta a motivi di decadimento delle proprietà elettroluminescenti degli elementi organici di cui sono fatti gli schermi stessi, mi porta a preferire il Mirasol, trattandosi di una tecnologia decisamente innovativa (suscettibile dunque di miglioramenti) ma nel contempo basata su una consolidata nanotecnologia qual è il MEMS, il tutto brillantemente applicato alla teoria della luce ed alla nostra conoscenza sul funzionamento dell’occhio umano.

PS Ho parlato per tutto l’articolo di display in quanto elemento di output (testi, immagini e video, in bianco e nero o a colori); come sarà noto a tutti, con la comparsa del touchscreen lo schermo è divenuto anche elemento attraverso il quale dare input. Molti (Jeff Bezos di Amazon tra questi) hanno a lungo osteggiato l’aggiunta dello schermo touch sugli ereader in quanto l’applicazione di un ulteriore strato sopra al display vero e proprio avrebbe comportato un decadimento della qualità delle immagini sottostanti. A parte che gli ultimi schermi touch sono meno “invadenti” dei precedenti, sono da sempre stato tra coloro che, accettando qualche compromesso, lo schermo tattile lo vogliono eccome! Infatti, come già ricordato sopra, gli ereader non esistono solo per leggere romanzi, ma serviranno sempre più anche per attività didattiche e “lavorative”, come il prendere appunti, sottolineare, etc. Tutte cose che, scusatemi tanto, è mille volte più comodo fare con la mano (o ancor meglio con un pennino) piuttosto che con una tastiera o un joypad! Inoltre se si ha il touchscreen scompare la tastiera fisica ed il nostro dispositivo assume dimensioni più “tascabili” (ve li ricordate i primi Kindle?). Dunque, almeno per quanto riguarda quest’altro aspetto del display, nessun dubbio: lunga vita al touch!

Verso la balcanizzazione della cloud?

Nella visione dei suoi assertori più entusiasti al trionfo del cloud computing dovrebbe corrispondere la semplificazione della vita di noi tutti: il giovane in partenza per le vacanze studio a Londra non dovrebbe portarsi via decine di memorie flash per non rischiare di trovarsi senza la canzone che ben si adatta al mood del momento e questo perché l’intera sua discografia è nella nuvola; il manager in trasferta a New York per chiudere un contratto non si troverebbe nella necessità di portar con sé mezzo ufficio perché i documenti di quell’importante affare risiedono anch’essi nella nuvola; il malato costretto a spostarsi non dovrebbe temere per la propria salute in quanto le prescrizioni mediche, insieme all’intera sua cartella clinica, sono sempre nella nuvola pronte ad essere rapidamente consultate da qualsiasi medico; il nerd che, a forza di scaricare dalla Rete, ha sempre l’hard-disk al limite della capacità nonostante i molteplici dischi rigidi “ausiliari” posseduti, vede risolti i suoi problemi di spazio uploadando tutto sulla nuvola. Se si aggiunge che nella visione di molti addetti ai lavori tutti questi dati e documenti, relativi a vari aspetti della vita di ciascuno di noi, dovrebbero essere accessibili e comunicanti tra di loro e fruibili in maniera semplice e veloce a partire dal dispositivo prescelto (probabilmente, pur sopravvivendo desktop PC, smartphone, laptop, etc. si attuerà una convergenza verso il tablet), si comprende come il cloud potrebbe davvero risolvere molti problemi e renderci la vita più agevole!
In realtà più di un indizio indica che anche la nuvola, come gli steccati di Internet (del quale parla Jonathan Zittrain) o gli e-book reader (dei quali me ne sono personalmente occupato in un precedente post), sia a rischio “balcanizzazione”: si starebbero in altri termini creando più nuvole non comunicanti tra di loro, il che ha come esito finale una perdita di molti di quei vantaggi che il cloud effettivamente potrebbe portare con sé!
I motivi sarebbero diversi: da una parte le aziende che tendono a trattenere i propri utenti all’interno della propria nuvola… di business (ma con una significativa spaccatura tra le varie Amazon, Apple, Google e Microsoft opposte ad altri colossi – tra i quali Adobe, AT&T, Cisco, Hewlett Packard, IBM, Juniper Network – riuniti dal 2009 attorno al cosiddetto Open Cloud Manifesto), dall’altra le stesse diverse “anime” delle Pubbliche Amministrazioni, restie vuoi per motivi di sicurezza vuoi per “gelosie” retaggio delle tradizionali divisioni dipartimentali, etc. a condividere i dati e le informazioni caricati nelle proprie “nuvole” con i propri colleghi (alla faccia della leale collaborazione)!
Andrebbe imponendosi, in buona sostanza, il modello della private cloud su quello della public cloud anche quando ciò non appare strettamente necessario. Se la cosa è comprensibile per aziende private (in definitiva libere di fare quel che vogliono) lo è un po’ meno per le Pubbliche Amministrazioni in quanto, come fa notare Andrea Di Maio (che peraltro non contempla soluzioni intermedie come hybrid cloud e community cloud), in tal modo “non si risparmia quanto si potrebbe” in questi tempi di crisi, senza considerare le perdite in termini di “mancata condivisione” e conseguente ottimale sfruttamento dei dati e delle informazioni.
Non ci resta che stare a vedere se la futura evoluzione seguirà queste premesse o se ci sarà un cambiamento di rotta.

Per la versione storyfizzata di questo post cliccate qui.

To tablet or not to tablet?

Tablet ante litteram

La tavoletta conservata presso il Museo dell'Archeologia Subacquea di Bodrum

Questo post risente chiaramente del clima pienamente Ferragostano nel quale esso viene scritto non solo per il caldo torrido che caratterizza questo scampolo di estate ma anche perché l’input principale alla sua concezione deriva direttamente da un oggetto nel quale mi sono imbattuto nel corso delle mie (relativamente) meritate ferie.
Si dà infatti il caso che presso il Museo di Archeologia Subacquea di Bodrum (l’antica Alicarnasso) sia conservata una tavoletta scrittoria, una sorta di tablet ante litteram, che effettivamente affascina per la somiglianza esteriore con alcuni dei tablet che, pedissequamente ricalcati sulla forma del libro, venivano proposti fino a qualche anno fa (mi riferisco in particolare al poi abortito Microsoft Courier), cioè almeno sino a quando Apple ha imposto con l’iPad la standard de facto delle tavolette a “piatto unico”.
Il “tablet” conservato presso il museo di Bodrum è simile in tutto e per tutto a quelli descritti in molti manuali: le due tavolette lignee scavate, legate assieme attraverso una sorta di “cerniera” ossea (spesso avorio finemente intarsiato), venivano riempite di cera sulla quale, una volta che quest’ultima si era raffreddata, si potevano scrivere brevi testi. Insomma si trattava, al pari delle tavolette odierne, di strumenti flessibili, portatili e di uso quotidiano (in particolare sembra venissero usate a fini didattici).
Torno dunque dalle ferie pensando a come, pur con le ovvie differenze, si possa ravvisare una continuità, oserei dire una path dependence millenaria, tra le tavolette d’allora e quelle d’oggigiorno, sennonché apprendo che il colosso HP, a poco più di un anno dall’acquisizione della gloriosa ma decaduta Palm, che – giusto per restare in ambito greco-antico – avrebbe dovuto fungere da cavallo di Troia per entrare nel mondo degli smartphone e delle tavolette, sta valutando la cessione o scissione (spin-off) della divisione PC per focalizzarsi sulla fornitura dei servizi. Contestualmente l’azienda di Palo Alto inizia a svendere letteralmente sottocosto (99,99 $) il proprio TouchPad lanciato ad inizio luglio ad un prezzo di circa 300 dollari maggiore. Si tratta di un drastica inversione di rotta che i vari analisti hanno spiegato con un insieme di motivazioni tra le quali: 1) l’utile per azione non è in linea con le attese degli azionisti, per cui si è reso necessario effettuare tagli 2) in definitiva HP fa quello fatto anni orsono da IBM, allorquando aveva ceduto la propria divisione computer a Lenovo per puntare tutto sui servizi, che in futuro sempre più verranno erogati in modalità cloud computing 3) HP ha realisticamente ammesso lo strapotere di Apple rinunciando alla battaglia (e di investire ancora soldi invano).
A mio modestissimo parere si tratta di una decisione prematura in quanto, come in parte già scritto nel mio “Archivi e biblioteche tra le nuvole” (perdonate l’autocitazione) nel momento in cui descrivevo la strategia di HP nel cloud, se è vero che i servizi sulla nuvola saranno il futuro (inclusi quelli di natura “documentaria e libraria”), con questa scelta ci si priva irreversibilmente di una gamba che in linea di principio avrebbe potuto facilitare la penetrazione di quei servizi che l’azienda californiana intende fornire (si pensi a riguardo al ruolo di supporto reciproco svolto per Amazon dal Kindle nella diffusione degli e-book e dagli e-book nella diffusione dell’e-reader dell’azienda di Seattle); tanto più che Palm nonostante tutto poteva ancora godere rispetto ai competitor dell’appeal di un marchio che ha fatto la storia della tecnologia. Dopo quello della Mela, of course.

La versione storyfizzata di questo post è al seguente indirizzo: http://storify.com/memoriadigitale/to-tablet-or-not-top-tablet.

E-book: quali (reali) prospettive

Delle due l’una: o chi esegue i sondaggi ha preso un granchio oppure le persone intervistate dicono quel che vogliono!
Già, perché il senso di disorientamento è notevole almeno a leggere i risultati di due diverse ricerche apparsi a distanza di poche ore sui siti online dei principali quotidiani nazionali.
Da una parte Alessia Rastelli che dalle colonne virtuali del Corriere.it cita i dati di una ricerca di A. T. Kearney (presentati in occasione dell’anno di vita di Bookrepublic.it) secondo il quale entro gennaio 2012 si venderanno un milione e mezzo di e-book, una cifra venti volte superiore a quanto fatto nel 2010, dall’altra il CENSIS, che nel suo “9° rapporto CENSIS /Ucsi sulla comunicazione” fotografa per l’e-book una situazione addirittura di regresso (e non di “mancato sfondamento” come sostenuto da qualche commentatore); in particolare in Tabella 1 “L’evoluzione del consumo dei media: l’utenza complessiva” si evidenzia come rispetto al 2,4% di fruitori nel 2009 si sia passati all’1,7%, con un saldo dunque negativo dello 0,7% (cifre peraltro lontanissime dal 10% circa degli Stati Uniti)!
D’accordo, il primo sondaggio parla di vendita di titoli ed il secondo di utilizzatori, quindi in linea teorica è possibile che l'(indiscutibile) accresciuta disponibilità di titoli possa tradursi in una crescita complessiva del “volume” di e-book pur in una generale stagnazione del numero di utilizzatori (soprattutto essendo questi ultimi “tecnofan” e/o grandi lettori), ma la cosa mi sembra molto improbabile in presenza di un loro regresso! Un minimo di correlazione dovrebbe pur esserci!
Questi dati, in particolare quelli del sondaggio CENSIS, offrono lo spunto per un’ulteriore riflessione: in Italia non sono ancora stati rimossi tutti quegli ostacoli che si frappongono al decollo del digitale, ovvero alfabetizzazione informatica, presenza di un’adeguata infrastruttura di tlc (fissa e mobile), penetrazione di Internet (per la prima volta abbiamo superato il 50%, ma siamo sempre lontani dalla media UE), rilevanza dell’e-commerce, ricorso alle nuove tecnologie da parte delle Pubbliche Amministrazioni, etc. Tutti aspetti già rilevati nel mio “Archivi e biblioteche tra le nuvole” (perdonatemi l’autoreferenzialità) e che mi spingono a sostenere che oggi come un decennio fa ci troviamo, come sosteneva Michele Santoro in un suo famoso saggio, ancora “a metà del guado”.

PS Per la versione “storyfizzata” di questo post, cliccate qui.

e-Book, eBook, Ebook, e-book o come?

La questione potrebbe apparire banale o comunque una cosa da poco visti gli altri problemi in campo, ma al sottoscritto piace la chiarezza e quindi sottopongo a voi lettori il dilemma?
Qual è la corretta forma per scrivere “e-book”? Sì perché se sul significato del termine tutti più o meno siamo d’accordo, ognuno sembra scrivere a proprio piacimento la forma abbreviata di “electronic book” (libro elettronico).
In principio era e-book (come e-learning, e-commerce, etc.) ma poi, forse scimmiottando Apple la formula di successo adottata dall’azienda di Cupertino per chiamare i propri prodotti (iPod, iPhone e da ultimo iPad) si è iniziato a vedere le varie formule eBook e talvolta Ebook… oppure formule intermedie del tipo e-Book (come se “Book” fosse un nome proprio!).
A mio avviso la formula più corretta è la prima, vale a dire e-book, essendo la “e” quel che rimane di “electronic” e book un semplice nome comune di cosa, unita da un trattino come si “costuma” nei paesi anglo-sassoni.

E voi che ne pensate?