Quando il caffè fa la differenza

Waterstone's

Il punto vendita Waterstone’s di Inverness presso il Mark & Spencer Mall

Persino le poche settimane (agostane ergo vacanziere) trascorse nel Regno Unito mi sono state sufficienti per farmi un’idea di come alcuni cambiamenti strutturali, non ancora pienamente esplicati in Italia, stiano coinvolgendo librerie e biblioteche d’oltremanica (d’altronde se Amazon UK, nel giro di appena due anni, ha annunciato il sorpasso delle vendite di ebook sui corrispettivi cartacei vuole dire che il digital shifting c’è stato eccome!).
Intendiamoci, esteriormente librerie e biblioteche preservano il consueto aspetto: libri in bella mostra, scaffali, locali accoglienti e sedi di pregio o comunque in posizioni centrali. A cambiare è il messaggio che si rivolge al cliente / utente circa l’offerta di prodotti e servizi a quest’ultimo destinati; come si evince dalle foto pubblicate in questo post, specie per le librerie, all’oggetto libro non viene praticamente più riservato il posto di rilievo che ci si potrebbe attendere: certo, i nuovi arrivi ed i best sellers sono ancora in bell’evidenza sulle vetrine, ma è innegabile che ormai si punta su altro: personalmente sono stato sorpreso dall’enfasi con cui si sottolinea la presenza all’interno di librerie e biblioteche dell’ormai immancabile area caffè. Emblematico il caso di Waterstone’s qui sopra, con il brand della catena libraria presentato quasi con lo stesso rilievo di quello di Costa Coffee (la risposta britannica allo statunitense Starbucks, che oltreoceano ha fatto da apripista nel campo con l’ormai ventennale alleanza con Barnes & Noble per poi penetrare all’interno delle biblioteche di college ed università), al punto che vien da chiedersi se stiamo entrando in una libreria od in una caffetteria! Nelle biblioteche questa tendenza è meno accentuata, ma la presenza di un angolo caffè (e non sto parlando dei distributori automatici!) è la regola, del resto accolta anche nelle ultime realizzazioni in Italia.
Ma il punto più interessante, e qui avviene l’interessante “saldatura” tecnologica, è che, si tratti di caffè all’interno di librerie o di biblioteche, i tavolini o divanetti sono sempre affollati di gente intenta a leggere ebook con i suoi e-reader o che comunque armeggia su tablet e smartphone; evidentemente, nonostante la copertura Wi-Fi (con reti aperte!) delle città inglesi sia eccellente in quanto a qualità del segnale e a capillarità degli hot spot, gli utenti / clienti ricercano in questi luoghi il silenzio e la quiete che altrove non possono trovare.
Insomma, la possibilità già ventilata che librerie e biblioteche diventino luoghi privilegiati per il download e la lettura di ebook, ma in generale di diffusione di una cultura del libro digitale, sembra trovare una conferma gettando luci speranzose sul futuro di queste storiche istituzioni, mettendo però in conto una grossa, paradossale evenienza: che l’utente scelga un posto anziché l’altro non per la qualità dei servizi erogati o per la preparazione e gentilezza dei suoi addetti ma per la bontà (o meno) del suo caffè: insomma, dopo anni di discorsi e convegni sulla (certificazione della) qualità totale, la differenza potrebbe finire per farla il caffè!

Café W di Waterstone's

Il Waterstone’s di Blackett Street a Newcastle upon Tyne. Anche qui in evidenza il proprio servizio bar (Café W)


Orkney Library & Archives

Orkney Library & Archives: in questo caso in primo piano è il prestito di ebook (via Overdrive)


Biblioteca del Baltic Centre for Contemporary Art

Biblioteca del Baltic Centre for Contemporary Art (Newcastle upon Tyne): nella sala adiacente, da copione, si trova un piccolo ma decisamente accogliente caffè


La biblioteca del GoMA (Gallery of Modern Art) di Glasgow

La biblioteca del GoMA (Gallery of Modern Art) di Glasgow, pure fornita di ampia e frequentata zona caffè

Tra metacloud e personal cloud passa il destino degli archivi di persona digitali?

Zero PC Cloud - Storage Analyzer

Zero PC Cloud – Storage Analyzer

Di metacloud me ne sono già occupato in questo blog ed in particolare con l’occasione avevo descritto il funzionamento di Zero PC; ritorno oggi sull’argomento non solo perché di recente quest’azienda ha rilasciato la nuova versione del suo servizio web-based (rammento che non ho alcun tornaconto a spingere per questo o quel servizio) ma soprattutto perché le linee di sviluppo seguite sembrano paradossalmente confermare le altrettanto recenti previsioni di Gartner circa l’inarrestabile ascesa dello storage sulla nuvola in special modo da parte di privati.
Quali sono dunque, per iniziare, le novità introdotte da Zero PC? Oltre ad una grafica più pulita ed intuitiva, la nuova release si caratterizza innanzitutto per l’accresciuto numero di servizi terzi che si possono gestire: in particolare ci sono, eccezion fatta per iCloud, tutti i principali provider di cloud storage come Box, Dropbox, Drive, Skydrive, etc. al punto che solo ad essere membri free di questi servizi si raggiunge il ragguardevole valore di 40 GB di spazio disponibile (per vedere in dettaglio quanto ce ne rimane di residuo sui vari servizi c’è l’utilissimo Storage Analyzer all’interno del Cloud Dashboard). Ma Zero PC non è mero un gestore di spazi di “archiviazione” e di backup, anzi la nuova versione dimostra appieno la volontà di andare oltre a questo ruolo: a fianco dell’Universal Inbox (che gestisce tutta la messaggistica, quindi non solo email ma anche tweet), hanno fatto la loro comparsa il browser di navigazione interno, il player in HTML 5 e soprattutto la suite di produttività online ThinkFree che permette di creare documenti in formato .doc, fogli di calcolo Excel e presentazioni in Power Point.
Ne risulta, per l’utente, la sensazione di trovarsi in un unico spazio di lavoro e di archiviazione, connotato da condivisione spinta ed elevata versatilità.
E qui il ragionamento si salda con le previsioni di Gartner (spesso tutt’altro che infallibili ma che nello specifico caso ritengo verosimili) alle quali avevo fatto cenno all’inizio: secondo questa importante società di analisi e di ricerca nel 2016 gli utenti / consumatori caricheranno nella nuvola circa il 36% dei propri contenuti digitali (essenzialmente foto e video; a far da volano al fenomeno è infatti la diffusione di device, come i tablet e gli smartphone, con foto/videocamera integrata) mentre la percentuale di contenuti archiviati on premise scenderà dall’attuale 93 al 64%. Anche quando effettuata in locale non si tratterà più comunque di un’archiviazione “statica”: soluzioni di personal cloud capaci di integrarsi in primo luogo con la propria rete domestica ed in seconda battuta con quelle di altri utenti diventeranno la norma.
Questo mix di storage remoto e locale sarà inevitabile anche in vista della crescita esponenziale dei dati posseduti: sempre secondo Gartner ciascun nucleo familiare passerà dagli attuali 464 GB ai 3,3 TB del 2016. L’uso massiccio e quotidiano che verrà fatto delle diverse tipologie di storage condurrà alla loro trasformazione in commodity: per l’utente finale, in poche parole, un servizio varrà l’altro il che non è esattamente il massimo del desiderabile per le aziende che vi basano il proprio business (di qui l’invito di Gartner, rivolto a queste ultime, a ripensare strategicamente il proprio approccio)!
In effetti già ora con i servizi di metacloud, di cui Zero PC è esempio lampante, tutto tende a confondersi nella mai così nebulosa cloud, al punto che non fa apparentemente differenza che un file risieda su Dropbox anziché su Skydrive (tanto Zero PC mi ritrova tutto e posso spostare lo stesso file da una parte all’altra con la massima facilità!): in realtà le condizioni contrattuali, le soluzioni tecnologiche adottate, la qualità del servizio, etc. che sono alle spalle dei diversi servizi possono differire anche sensibilmente! Ma di ciò l’utente medio non è consapevole oppure non vi attribuisce la dovuta importanza.
In altre parole temo che nel prossimo futuro tutto (da una parte i servizi di metacloud che ti invitano a caricare sulla nuvola tanto ci pensano loro a gestire il tutto, dall’altra l’archiviazione in locale che si fa commodity) concorrerà ad aumentare la “disinvoltura” con la quale gli individui “gestiranno” i propri archivi digitali di persona, con le immaginabili conseguenze in termini di potenziale perdita dei dati, di (mancata) tutela della privacy, di (non) oculata gestione della propria identità digitale, etc. Insomma, prospettive non esattamente incoraggianti!
Concludo però facendo notare come il tipo di tecnologia è sì importante ma non decisivo: dati e documenti sono andati definitivamente persi per noncuranza o semplice ignoranza (ed in alcuni casi per deliberata volontà!) in ogni epoca e a prescindere dalla tipologia di supporti adottati. Come ricordato in altri post il problema che ora si pone in ambiente digitale è che serve una chiara e duratura volontà di mantenere “vivi”, conservandoli nel tempo, i vari oggetti digitali che andiamo creando in maniera esponenziale nel corso della nostra esistenza. Questa volontà, a sua volta, non può prescindere dalla presenza, nel soggetto produttore (il singolo individuo, nel caso specifico) di una particolare sensibilità per queste tematiche e soprattutto la consapevolezza che dei fatti, degli avvenimenti, delle cose teniamo memoria non solo perché è un obbligo di legge o perché ne abbiamo materialisticamente l’interesse ma soprattutto perché la memoria è un valore. Temo purtroppo che i nostri tempi non siano i migliori per un simile scatto culturale.

Ebook in biblioteca: facciamo il punto (e alcune riflessioni)

Digital Bookmobile and eBooks di Long Beach Public Library

Digital Bookmobile and eBooks di Long Beach Public Library, su Flickr


IL DIGITAL LENDING OLTREOCEANO

La notizia è di quelle che lascia quantomeno interdetti: negli Stati Uniti, nonostante tutti gli sforzi e gli investimenti profusi in questi ultimi mesi ed anni, il prestito di ebook da parte delle biblioteche non cresce in linea con le aspettative: secondo una ricerca del PEW Research Center per quanto ormai quasi tre quarti delle biblioteche statunitensi preveda questo servizio, appena il 12% dei lettori di libri digitali oltre i 16 anni ha effettuato almeno un prestito! Tra i fattori “frenanti” evidenziati dallo studio alcuni sono, in prospettiva, risolvibili: la mancata disponibilità a catalogo di alcuni titoli oppure la presenza di liste d’attesa che scoraggiano dal prestito sono tutti aspetti che con il tempo scompariranno; se aggiungiamo poi che talvolta non si ricorre al digital lending semplicemente perché si ignora l’esistenza del servizio è lecito attendersi che con un’adeguata campagna di comunicazione i risultati possano essere maggiormente in linea con le attese… e con gli sforzi profusi!
Altri fattori contrari al prestito dell’ebook sono, invece, di natura più “strutturale” e potrebbero per questo rappresentare davvero un ostacolo difficilmente sormontabile; in particolare mi riferisco al “ritratto tipo” del lettore di libri digitali così come si ricava da un’altra ricerca (condotta peraltro sempre dal PEW Research Center e della quale avevo già dato conto anche perché in essa vi si intuivano, in nuce, le difficoltà delle biblioteche): maschio, “giovane” (meno di 50 anni), di istruzione e reddito medio-alti, amante della tecnologia e (probabilmente proprio per questa amplia disponibilità) propenso più all’acquisto che al prestito.

IL PRESTITO DI EBOOK IN ITALIA

Se questa è la situazione oltreoceano, come vanno le cose nelle biblioteche italiane? Per inquadrare meglio la natura dei problemi (e fare le debite proporzioni e distinzioni con gli Stati Uniti) è opportuno fornire preliminarmente alcuni numeri. Secondo i più recenti dati, diffusi dall’AIE ad Editech 2012, in Italia (salvo precisazioni il raffronto è del 2011 sul 2010) la lettura di ebook riguarda il 2,9 % della popolazione sopra i 14 anni (per il 61,5 % maschi), in crescita del 59,2%. Trend positivo anche per quanto riguarda la quota detenuta dall’ebook nel complesso del venduto: + 55,3% pari ad una quota dell’1,1%, complice anche un’offerta più che triplicata (da 7.559 titoli di dicembre 2010 a 31.416 di maggio 2012). Sebbene siamo ancora distanti dagli Stati Uniti, dove la quota di mercato è del 6,2% (e del 13,6% per il settore fiction) e soprattutto dove i lettori digitali rappresentano il 17% del totale, si tratta di numeri da leggere con favore; in particolare fanno ben sperare gli iperbolici tassi di crescita (in valore) dei device di lettura, i quali non potranno non far da traino alla lettura stessa: + 718,8% per gli ereader e + 124,8% per i tablet!
Purtroppo non disponiamo di dati altrettanto copiosi per delineare il prestito dell’ebook in biblioteca, motivo per cui si rende necessario fare un collage delle varie esperienze finora condotte: l’unico dato rappresentativo a livello nazionale è quello fornito da Giovanni Peresson all’ultimo Salone del Libro di Torino e riguarda le 2.300 biblioteche che hanno sottoscritto il servizio proposto da Media Library Online (MLOL), la quale mette a disposizione un catalogo di circa 300mila titoli, recuperati sia attingendo a progetti “aperti” (Gutemberg ad esempio) sia attraverso accordi stipulati con le principali case editrici nazionali.
Quella di avvalersi dei servizi di aziende “intermediarie” come MLOL, le quali si assumono il non facile compito di trovare accordi con gli editori e di realizzare la piattaforma di prestito (negli Stati Uniti un ruolo analogo è svolto, tra gli altri, da Overdrive), non è però l’unica strada percorsa:
1) la rete Reanet, con capofila la biblioteca Fucini di Empoli, ha dal 2010 avviato un progetto, significativamente denominato Una biblioteca in tasca, il quale prevede la costituzione di un proprio repository nel quale immagazzinare gli ebook acquistati così come, al fine di ampliare il “posseduto”, quelli frutto di digitalizzazioni o di altri progetti in corso in ambito nazionale (come Biblioteca Digitale Italiana)
2) la Biblioteca Civica di Cologno Monzese rappresenta oramai un altro classico case study: qui i bibliotecari si sono sobbarcati l’onere di contrattare le migliori condizioni di prestito direttamente con le case editrici (principale motivo del contendere ovviamente il famigerato DRM); gli ebook faticosamente ottenuti vengono poi precaricati sull’ereader ed attraverso quest’ultimo giungono all’utente. Si tratta di una procedura francamente farraginosa, ma così viene descritta nella pagina del progetto né dalla stessa si evince se vi sia stata nel frattempo un’evoluzione nella modalità di erogazione del servizio, in special modo per venire incontro ai sempre più numerosi possessori di un qualsiasi dispositivo di lettura.
Quest’ultima osservazione mi permette di farne una ulteriore: tutti i progetti citati, sperimentali o meno che siano, prevedono il prestito, oltre al libro, dell’apposito ereader. Si tratta sicuramente di una scelta meritoria dal momento che consente a molti utenti di “rompere il ghiaccio” con l’universo digitale ma che ha presentato e presenta alcune controindicazioni: i device hanno un costo relativamente importante, sono soggetti a rottura e soprattutto ad obsolescenza (nessuno di quelli usati nel corso dei primi progetti, tanto per fare un esempio, era touch!). Inoltre tale politica dirotta cospicue risorse che sarebbe meglio se fossero investite in infrastrutture e contenuti. In ogni caso il citato exploit nelle vendite di device di lettura dovrebbe far passare in secondo piano questa prassi, anche se automaticamente imporrà alle biblioteche di prendere decisioni di rilevanza strategica.

COME L’EBOOK (E L’UTENTE) DELINEANO LA BIBLIOTECA DEL FUTURO …

Siamo ad un passaggio cruciale: può sembrare quasi banale ricordarlo ma a seconda di come si intende gestire il passaggio all’ebook, ed in generale al digitale, si viene a delineare la biblioteca del prossimo futuro. Dunque, premettendo che quando si ha che fare con il futuro si entra nel regno del probabile, è altresì innegabile che alcune tendenze di fondo sono evidenti sicché si possono ipotizzare alcuni scenari prossimo venturi.
Non si sottrae all’ingrato compito il “solito” Pew Research Center, il quale attribuisce alle biblioteche di fine decennio il ruolo di aiutare l’utente a districarsi dalle sfide lanciate dalle “3V” dell’informazione: esse dovranno “sfoltirne” il volume (in termini quantitativi), distinguendone nel contempo la valenza (in termini qualitativi), sempre ammesso che si riusca a catturarla, tale è la velocità alla quale essa fluisce! Ne risulta un bibliotecarius novus che deve da un lato fungere da sentinella, valutatore, filtro e certificatore dell’informazione e dall’altro porsi come aggregatore, organizzatore e facilitatore nell’uso della biblioteca (e delle sue risorse!), quest’ultima vista come un nodo informativo a disposizione della community (fisica e virtuale).
Sicuramente le 3V rappresentano tre caratteristiche dell’informazione che mettono in difficoltà l’utente e pertanto l’impostazione di fondo della ricerca, nel momento in cui tenta di far sì che il bibliotecario del futuro sia in grado di affrontare le sfide poste dal modificato sistema informativo, risulta corretta; mi pare però che ci si dimentichi che assieme all’universo informativo cambia l’utente medesimo, il suo modus operandi e le sue aspettative circa i servizi che la biblioteca deve offrirgli e che questo aspetto sia altrettanto, o persino di più, importante.
Un paio di esempi chiariranno meglio i termini della questione, almeno per come la intendo io:
1) la gran parte degli studi sull’ereading hanno evidenziato come con l’ebook si legga a salti e si acquisti in modo compulsivo; nell’era del download indiscriminato ed immediato l’utente potrà tollerare la presenza di liste d’attesa per avere una qualsivoglia risorsa digitale? In tutta sincerità non credo proprio: egli cercherà su Internet (e non negli OPAC / SOPAC!) finché non troverà un’altra biblioteca / servizio in grado di dargli subito quanto desiderato
2) discorso analogo per la sezione emeroteca: è verosimile che un utente attenda il suo turno per leggersi il quotidiano o la rivista preferita? Non penso, specie quando con app come Google Current, Flipboard o Ultima Kiosk (per citarne solo due) può sfogliare sul proprio tablet un’intera edicola! Aggiungiamo che in Rete si possono recuperare pure le annate passate e appare chiaro come, dipendesse dall’utente (al quale ben poco gli importa della conservazione nel lungo periodo, della quale in questa sede evito del tutto di parlare perché finirei fuori dal seminato), la sezione emeroteca avrebbe i giorni contati…
3) il fatto è che l’utente si aspetta servizi ossequiosi del celebre motto di Google “anywhere, anytime and on any device“: egli vuole poter leggere ed informarsi su smartphone, tablet od ereader finché è in metropolitana, su desktop PC finché è in ufficio, su tablet od ereader di nuovo prima di addormentarsi e via di seguito! Poiché il passaggio da un dispositivo all’altro deve avvenire senza complicazioni tecnologiche (non devono esistere “blocchi” che impediscono l’utilizzo su uno o più device, non deve esserci bisogno di convertire tra i vari formati, la sincronizzazione deve avvenire in automatico => si prende in mano il tablet in poltrona e si riprende la lettura lì da dove la si era lasciata ore prima con lo smartphone in treno) è evidente che soluzioni come quelle proposte attualmente in Italia non possono che essere transitorie e destinate a lasciare il campo una volta che sarà terminata l’attuale fase sperimentale.

… E LE POSSIBILI RISPOSTE

Rebus sic stantibus le biblioteche devono a mio avviso porsi le seguenti domande: 1) se l’utente cambia, come dobbiamo cambiare noi per rispondere alle sue aspettative? E soprattutto, 2) quale ruolo possiamo ritagliarci nel nuovo mondo digitale? Procediamo con ordine.
1) La risposta alla prima domanda è presto detta: se le aspettative e le abitudini di lettura dell’utente sono quelle innanzi descritte non ci sono che due alternative: o a) ci si dota di una adeguata infrastruttura tecnologica e della relativa piattaforma di prestito (soluzione da me privilegiata) oppure b) se ne “noleggia” una avvalendosi di servizi come il citato MLOL o ancora meglio Overdrive (per inciso l’annuncio da parte di quest’ultima azienda che entro la fine dell’anno sarà disponibile un ereader web-based che supporta i formati ePub e Pdf e che in linea teorica abbatte in un colpo solo tutti i problemi di sincronizzazione, portabilità, gestione dei diritti, etc.: il lettore legge libri che si trovano “sulla nuvola” e l’unica caratteristica imprescindibile è che i vari device abbiano una qualche modalità di connessione alla Rete). Entrambe le soluzioni presentano pro e contro: nel primo caso (a) i contro sono quelli di acquisto, manutenzione e gestione dell’hardware oltre a quelli, ovvi, di selezione, raccolta, gestione, etc. delle collezioni digitali (che sono il motivo per cui ci si dota di tale infrastruttura!) nonché quelli dell’interfaccia utente attraverso la quale avvengono le operazioni gestionali, di ricerca, prestito, etc.; il principale pro è che (a meno che non si contratti con Amazon o Apple) si mantiene il pieno possesso delle risorse digitali. Nel secondo caso (b) il maggiore aspetto positivo è che a fronte del pagamento per il servizio la biblioteca è sgravata da tutte le incombenze tecnologiche citate, dalle trattative con gli editori, etc. Di negativo c’è però che da un lato non si possiede alcuna risorsa e pertanto se il fornitore incappa in problemi (tecnici, ma anche finanziari) l’erogazione del servizio si interrompe! Inoltre si è praticamente alla mercé delle condizioni imposte da quest’ultimo in termini di prezzi, modalità di prestito, etc.
2) Il secondo punto è solo apparentemente scollegato al primo: infatti l’apparition del nuovo lettore / utente (e delle nuove modalità di lettura) sancirà la fine della “relazione speciale” che la biblioteca ha da sempre tentato di instaurare. Questa istituzione dovrà pertanto ripensare sé stessa: come giustamente sottolineato dalla ricerca del PEW Research Center essa dovrà essere un nodo della Rete e nel contempo essere capace di relazionarsi con la community, obiettivi questi a mio avviso raggiungibili solo a patto di investire, per l’appunto, in tecnologia. Anche per le biblioteche dunque, così come per gli archivi, un vero futuro è possibile solo se si possiede una adeguata infrastruttura. E qui torniamo all’annosa questione dei soldi necessari: ovviamente duplicazioni di strutture sono inaccettabili, tanto più che tra virtualizzazione, cloud computing, etc. esistono eccome modi per razionalizzare il sistema. Ad esempio, poiché la legge sul deposito legale riguarda, tra gli altri, pure gli ebook non sarebbe una malvagia idea che nel momento in cui si creano le indispensabili repository oltre all’aspetto conservativo si prevedesse pure quello della fruizione: Internet Archive è molto dissimile come concetto? Quanti data center credete che abbia? Uno (più probabilmente un sito secondario di ripristino), e riesce ad archiviare l’intero web più video, libri, etc. nonché a reggere il peso di ben 500 richieste al secondo!
Questo solo per mettere in chiaro che tecnicamente è possibile gestire a livello centrale l’intera produzione libraria italiana; poi ovviamente si possono ipotizzare architetture federate in linea con la tradizione italiana e via dicendo, l’importante è che di queste cose si discuta e soprattutto che si faccia concretamente qualcosa!

CONCLUSIONI

Più il fenomeno ebook prenderà piede, più le biblioteche saranno chiamate ad un profondo rinnovamento; considerate le caratteristiche peculiari del nuovo lettore digitale, il libro (ed il suo prestito) non ricoprirà più come in passato un ruolo centrale, ma sarà bensì uno dei tanti servizi offerti. Starà infatti a ciascuna biblioteca individuare il proprio “posizionamento”: centro culturale con WiFi / download area, ibrido tra centro informazioni e centro di documentazione su modello degli Idea Center, Internet Café letterario… le possibili declinazioni sono infinite e dipendono in definitiva dalle esigenze locali, dalla comunità di riferimento, dai soldi a disposizione e da innumerevoli altri fattori.
L’importante è che il passaggio all’ebook, ed al digitale in generale, non venga vissuto dalle biblioteche (ed ancor più dai bibliotecari) in modo passivo e tantomeno come una minaccia: accanto alla inevitabile ridefinizione della propria mission esso lascia intravedere grosse opportunità! Come non pensare, con tutte le sperimentazioni che si fanno in tema di e-learning, che esso possa costituire un’occasione di rilancio per le biblioteche scolastiche? Come non pensare, in ambito accademico / universitario, ad una ulteriore specializzazione in fatto di pubblicazione di e-journal?
Insomma, le possibilità ci sono, basta saperle cogliere!

Big data: opportunità e rischi

Linked Open Data Graph

Linked Open Data Graph di okfn, su Flickr


INTRO

Ormai quella di big data si avvia ad essere la buzzword per eccellenza del panorama tecnologico, e non solo, del 2012: alla moda, del resto, non si è sottratto neppure il sottoscritto (avendogli già dedicato un paio di post) ma qui ormai poco ci manca che l’argomento sia oggetto di discussioni al bar! Lo sdoganamento è avvenuto nel momento in cui si sono compresi gli enormi vantaggi ottenibili rendendo aperti e liberamente riutilizzabili non solo la mole di dati creati e/o raccolti dalle aziende (big data) e dalle pubbliche amministrazioni (in questo caso gli open data fanno, o meglio, dovrebbero fare da pendant con l’open government), ma anche dai singoli individui, i quali dovrebbero contribuire attivamente, attraverso le loro “segnalazioni”, ad arricchire (in termini di copertura geografica e di aggiornamento nel tempo) i dati a disposizione, il cui valore aggiunto, si badi, dipende soprattutto dalla possibilità di essere correlati tra di loro secondo modalità nemmeno lontanamente contemplate dal produttore originario (linked data). La disponibilità di dati aperti dovrebbe avere benefiche ricadute sull’economia, sulla ricerca scientifica, sulla società ed in ultima analisi sulla qualità della vita di tutti noi (non a caso ultimamente si fa un gran vociare sulla smart city anche se, lasciatemelo dire, non vedo così molti smart citizen in circolazione pronti ad abitarla!).
Cattiveria mia a parte, quella dei big data è una materia che oltre a grandi opportunità pone sfide non indifferenti in primis alla comunità archivistica: su quella più importante, riguardante il passaggio dal documento al dato, ho già scritto e anzi sia chiaro che i dubbi allora esposti permangono più che mai e fanno anzi da “cappello” a questo mio nuovo intervento nel quale, stimolato anche da due interessanti letture fatte in questi giorni, voglio invece affrontare due ulteriori aspetti, relativi rispettivamente alle misure di natura tecnica da prendere ed alla tutela della privacy.

GESTIONE E CONSERVAZIONE DEI BIG DATA: QUALI SOLUZIONI TECNICHE?

Nel corso di una breve quanto interessante intervista pubblicata su Data Center Knowledge (uno dei principali siti statunitensi di informazione sul tema dei data center; n.d.r.) ed incentrata sulle sfide poste, essenzialmente alle infrastrutture IT aziendali, dalla crescita esponenziale dei dati che occorre “maneggiare” e riutilizzare consapevolmente, John Burke, ricercatore di Nemertes, mette in evidenza come tre siano gli aspetti da tener maggiormente sotto controllo:
1) chi possiede i dati: raramente questi ultimi appartengono all’IT provider sicché è opportuno mettere in chiaro cosa e come gestirli (e, aggiungo, che fine far fare loro in caso di interruzione del rapporto di fornitura di servizi IT; il caso di Carpathia, che continua a mantenere a sue spese i dati di Megaupload “congelati” nei suoi server è emblematico). Insomma, un po’ a sfatare un mito che vuole il “depositante” come parte debole dell’accordo, emerge come entrambe le parti abbiano la convenienza che sia fatta preliminarmente massima chiarezza sui reciproci diritti e doveri e credo che, onde evitare complicazioni, questo valga anche nel caso di dati “liberi”
2) quali procedure di storage e/o archiviazione verranno utilizzate: il tema è cruciale e rimanda ad un’altra questione di non minor rilevanza, vale a dire il mutato life-cycle dei dati. Difatti fino a non molto tempo fa tale ciclo-vita aveva un andamento siffatto: a) alta frequenza d’uso (fase attiva) => b) graduale “raffreddamento” nel numero di istanze fino al c) completo inutilizzo dei dati (fase passiva), che venivano pertanto in genere cancellati e solo in determinati casi conservati permanentemente. Un simile life-cycle influiva inevitabilmente sull’infrastruttura IT predisposta: essa doveva infatti garantire elevate prestazioni nella fase attiva e prestazioni decrescenti nelle successive, motivo per cui si era soliti trovare rispettivamente nelle tre fasi sistemi RAID, dischi ottici e nastri. E’ interessante notare dunque come, paradossalmente, i dati “storici” risiedevano nelle soluzioni tecnologiche meno prestanti e meno costose e tendenzialmente più soggette a guasti e malfunzionamenti, con il conseguente pericolo di una loro perdita. Oggi il ciclo-vita sopra descritto sta scomparendo: assistiamo infatti ad un uso caratterizzato da meno picchi ma al contrario più costante e prolungato nel tempo e soprattutto con numeri di istanze mediamente più elevati (conseguenza degli usi e riusi “inaspettati” che si fanno dei dati) il che impone, specialmente in previsione dell’esplosione degli open data, di allocare questi ultimi in unità di storage generalmente più prestanti, capaci di collegarsi, una volta richiamati, con altri dataset sparsi per il mondo (interoperabilità) meglio ancora se secondo i dettami del cloud computing (indicativo di quest’ultimo trend il progetto europeo Open-DAI), in modo da poter riutilizzarli (anche) attraverso applicativi per dispositivi mobili
3) come trasportarli: questo punto riprende, per certi versi, i riferimenti appena fatti all’interoperabilità ed al cloud computing; occorre infatti che l’infrastruttura sia capace di “muovere” i dati in modo ottimale, senza intasare la WAN e soprattutto mantenendo inalterata la qualità del servizio.
Riassumendo, l’importanza crescente attribuita ai dati impone una rivisitazione delle architetture realizzative dei data center, cosa che, per chi come il sottoscritto ritiene che oggigiorno esista uno stretto nesso tra DC ed archivi, non può lasciarci indifferenti. Ma per questo rimando alle conclusioni.

OPEN DATA E TUTELA DELLA PRIVACY

Nelle battute finali di una non meno interessante, rispetto a quella citata in precedenza, intervista rilasciata a Silicon.de, Tim Berners-Lee, padre del world wide web e come già ricordato acceso sostenitore degli open linked data, non nasconde un loro grosso problema, ovvero che gran parte di essi è rappresentata da dati personali (vuoi perché conferiti volontariamente dai cittadini, vuoi perché raccolti dalla Pubblica Amministrazione) e ribadisce l’importanza che essi siano resi anonimi e che su di essi vigilino organismi indipendenti. Tali affermazioni naturalmente sono del tutto condivisibili anche se riguardo alla prima parte qualche perplessità mi rimane: ho infatti l’impressione che gli open data siano un po’ come i social network, nel senso che se si vuole sfruttarli appieno occorre rassegnarsi a cedere un po’ della propria privacy (è un po’ come se uno volesse essere su Facebook ma senza venir taggato e commentato da amici e conoscenti). Totalmente d’accordo invece sulla seconda parte, quella relativa alla presenza di organismi indipendenti, anche se qui non si può sottacere il recente caso italiano del Garante per la protezione dei dati personali: nonostante il parere contrario di quest’ultimo, il Governo, con D.L. 5/2012 (e sua conversione con L. 35/2012), ha abolito l’obbligo in capo alle aziende di redigere il Documento Programmatico della Sicurezza. Sorvolando sul merito della vicenda (il DPS a mio avviso per alcune realtà era sproporzionato, ma non ha senso toglierlo quando quasi in contemporanea si emanano le Linee Guida sul Disaster Recovery – le quali seppur con graduazioni in base alle dimensioni andrebbero fatte valere sia nel settore pubblico che nel privato – ed alle quali esso andava a mio avviso raccordato!), il punto è che salvo rari casi le varie autorità, organizzazioni, associazioni, etc. indipendenti lo sono sole di nome e quasi mai di fatto! Sono, in buona sostanza, sempre in balia o comunque influenzabili, una volta da parte dei Governi nazionali, un’altra delle multinazionali, tal’altra della lobby di turno, etc. Anche in questo caso dunque la possibilità di una effettiva tutela dei dati personali è più un’enunciazione di giusti principi che una concreta realtà. Quel che conta, in definitiva, è essere consapevoli del problema e fare i massimi sforzi per ovviarvi.

OUTRO

I dati, specie quando “grandi” ed aperti, rappresentano (se usati bene) sicuramente una grossa opportunità per migliorare il mondo in cui viviamo; il problema principale è, a mio avviso, riuscire a conciliare il giusto grado di apertura (openess) con la necessaria tutela della privacy; ciò passa anche attraverso la realizzazione di adeguate infrastrutture IT, le quali devono non solo garantire che dal punto di vista tecnico le varie richieste d’accesso ai dati avvengano in tempi rapidi, ma anche che questa velocità non vada a discapito da un lato delle misure di sicurezza poste a tutela dei dati (più o meno sensibili) presenti, dall’altro della loro (eventuale) conservazione nel lungo periodo.

Il valore simbolico dell’accordo Mondadori – Kobo

Kobo eReader Touch Edition

Kobo eReader Touch Edition_017 di TAKA@P.P.R.S, su Flickr

La notizia sarà senz’altro già giunta alle vostre orecchie: Mondadori e Kobo hanno stipulato un accordo (leggi il comunicato stampa congiunto) in base al quale i contenuti digitali della casa di Segrate saranno resi disponibili sulla piattaforma di eReading di Kobo insieme ai circa 2 milioni e mezzo di titoli in oltre 60 lingue già presenti; contestualmente Mondadori inizierà a vendere presso i propri 400 punti vendita l’ereader Kobo Touch all’allettante prezzo di 99 euro.
Si tratta di una notizia, inutile girarci attorno, destinata a dare una forte scossa al mercato italiano degli ebook: con questa mossa Mondadori infatti intraprende con decisione un percorso di transizione in cui analogico e digitale convivono e si compenetrano, a partire proprio dai numerosi punti retail: le librerie Mondadori sparse per la Penisola si avviano a diventare (o almeno l’auspicio è quello!) altrettanti centri di irradiazione e di diffusione dell’ebook e dei contenuti digitali in generale (già perché per il momento c’è l’ereader ma all’orizzonte, stando alle parole rilasciate al Corriere della Sera dall’amministratore delegato Maurizio Costa, c’è anche il tablet di Kobo, vale a dire quel Kobo Vox peraltro non esattamente recensito favorevolmente dagli esperti di Engadget). Insomma si profila il passaggio da librerie tradizionali ad eLibrerie, ovvero in luoghi in cui ci si reca non solo per cercare ed acquistare i propri libri toccandoli con mano, ma centri di download e di assistenza all’uso e di supporto tecnico di base (saranno pronti i librai a smettere i panni del personal consultant nell’acquisto di libri e a reinventarsi come esperti di elettronica?).
Un passaggio, si badi, che a mio avviso sarà solo transitorio ma che appare in questo momento comunque obbligato se si vuole accelerare la diffusione dell’ebook: non a caso anche IBS.it, che per inciso giusto pochi giorni fa ha abbassato il prezzo del suo Leggo IBS PB612 Wi-Fi touch (con stilo) proprio a 99 euro (che avesse avuto sentore dell’accordo?), ha annunciato, nell’ottica di ottenere sinergie tra vendite offline ed online, la fusione in Internet Bookshop Italia della catena MEL Bookstore (già appartenenti al medesimo gruppo Giunti & Messaggerie), con contestuale ridenominazione di tutti i punti vendita fisici in IBS.it Bookshop, sui cui scaffali ovviamente ci saranno in bella mostra i vari device della famiglia Leggo IBS.
Divagazioni ed elucubrazioni mie personali a parte, l’accordo Mondadori – Kobo è importante soprattutto per il suo valore simbolico: la più grande casa editrice italiana si lega infatti con un’azienda che reca sotto il logo la scritta “Read freely”: sulla piattaforma di Kobo, giusto per farsi un’idea, si possono acquistare (in base anche alle scelte effettuate dai molteplici editori presenti) libri digitali tanto in ePub che Pdf, con o senza DRM, per poi leggerli su qualsiasi device senza vincoli di sorta (Kobo Touch non a caso supporta i citati formati e pure il Mobi di Amazon!). Mondadori, in altri termini, abbraccia una filosofia lontana anni luce da quella di Amazon fatta di contenuti in esclusiva, formati proprietari e recinti chiusi che, a detta oramai di tutti, finisce per allontanare i lettori e per “balcanizzare” l’editoria.
Altre parole, rilasciate sempre dall’a.d. Costa al Corriere (in particolare laddove si parla si attenzione all’utente ed alla sua esperienza d’acquisto, volontà di proporre prezzi più bassi, etc.), lasciano sperare che la scelta di Mondadori sia sincera e convinta; del resto la volontà da parte dell’azienda di Segrate di smarcarsi da certe logiche controproducenti era già visibile, in nuce, nell’accordo stipulato nel dicembre 2010 con Google, ovvero con l’azienda che ha fatto del motto “Any book, anywhere, any time and on any device” un suo cavallo di battaglia. Non resta dunque che aspettare la reazione di Amazon che, statene certi, non tarderà ad arrivare.

Impact factor addio, ormai contano i “Like” ed i “Retweet”

K.Lit – Piazza Chilesotti

Reduce dall’intensa giornata di ieri trascorsa al K.Lit – Festival dei blog letterari di Thiene ad ascoltare interessanti interventi sul libro, sulla letteratura e sul mondo che vi ruota attorno, continuano a frullarmi in testa due chiodi fissi.
Il primo è di natura generale: se il modello organizzativo “diffuso” del K.Lit è a mio avviso stato vincente (avendo animato piazze, parchi, edifici storici e pubblici di un’intera città) occorre però riconoscere che il pubblico era mediamente scarso e costituito perlopiù da “addetti ai lavori”, il che, se da un lato ha consentito ad alcuni relatori di adottare un fecondo approccio “intimista” (per dirla con i C.S.I.) dall’altro conduce a due riflessioni tra di loro correlate: 1) dimostra una volta ancora, al netto del fatto che si trattava della prima edizione, come il “movimento” attorno a libri, e-book, nuove frontiere dell’editoria, etc. sia più chiassoso che rumoroso 2) se i numeri sono questi, si spera non sia messa a repentaglio la riproposizione di questo festival, ripeto, davvero molto bello (magari con qualche aggiustamento, che pur a mio parere ci vuole!).
Il secondo “chiodo”, che è poi quello che ha dato il titolo a questo post, è di natura più tecnica (in linea con questo blog d’altronde) e riguarda il tanto vituperato impact factor (IF), vale a dire quell’indice, usato anche in biblioteconomia, che misura il numero medio di citazioni ricevute in un particolare anno da parte di articoli pubblicati in una data rivista scientifica nei due anni precedenti e che dovrebbe stabilire (ma ci riesce fino ad un certo punto in quanto manipolabile) importanza e “scientificità” di articoli (con relativi autori) e riviste.
Orbene, nel corso di un interessante tavola rotonda incentrata sulla precarietà nel mondo del lavoro la giornalista Marta Perego ha candidamente confessato (non che sia una colpa, si intende) come lei torni più volte nel corso della giornata a controllare quanti “Like”, “Retweet”, “PinIt” eccetera ha ricevuto il suo nuovo articolo, servizio, post o quel che è.
Per il bibliotecario sopito che è in me il passo alla riflessione successiva è stato breve: come noto l’impatto (e dunque la circolazione e di qui il successo) che un articolo ha in Rete dipende direi in modo pressoché proporzionale dal numero di condivisioni, “rimpalli” ed amplificazioni che esso riceve. Di questi articoli molti sono oggettivamente spazzatura ma altri sono di sicuro valore e purtroppo sfuggono completamente dal radar dell’IF, tutto richiuso in autoreferenziali logiche accademiche.
Naturalmente la presenza di centinaia o meglio ancora di migliaia di “Like” e “Retweet” non trasforma automaticamente un post in un capolavoro della saggistica meritevole di pubblicazione (dipende infatti anche da chi dice “I Like” e da chi retwitta; manca in altri termini un po’ di sana peer review), però è indubbio che tali “indicatori di gradimento” vadano oramai presi in considerazione.
La Rete è piena di materiale valido ed i bibliotecari già con le folksonomie (ovvero i tag e le parole chiave generate dagli utenti in modo essenzialmente “arbitrario”, senza cioè l’ausilio di strumenti, per intenderci, come thesauri o soggettari) e con le auto-catalogazioni da parte dei lettori dei libri che leggono (in siti come aNobii o ancor più GoodReads, Zazie e soprattutto LibraryThing) sono rimasti indietro rispetto ai ritmi del web: non vorrei che oggi accadesse altrettanto con le nuove modalità di attribuire il “rating” alle risorse online.
Forza bibliotecari, c’è un intero mondo da… catalogare, soggettare e valutare!

Perché Google si candida ad essere la prima della classe (e fa paura)

Google Nexus 7

Google Nexus 7 di blogeee.net, su Flickr

Il lancio del tablet Nexus 7 da parte di Google rappresenta sicuramente un importante punto d’arrivo nella politica libraria di Google: iniziata nel 2004 allorquando alla Frankfurter Buchmesse fu presentato il “Google Books Library Project”, con il quale ci si proponeva di digitalizzare, rendendoli liberamente disponibili sulla Rete (anche) in full text, centinaia di migliaia di libri posseduti dalle principali e più prestigiose biblioteche del mondo purché i relativi diritti d’autore fossero scaduti oppure le opere fossero senza “paternità” (non sempre tale punto è stato rispettato; n.d.r.), tale politica libraria si è via via ampliata ed arricchita: dapprima 1) dedicando una sezione del famoso search engine alla ricerca, per l’appunto, di libri con la possibilità per l’utente di salvare le ricerche (ed i libri) in una personale biblioteca virtuale, successivamente 2) lanciando nel dicembre 2010 “Google eBooks”, piattaforma nella quale sono confluiti i libri precedentemente digitalizzati unitamente a quelli volontariamente inseriti da editori ed autori (questi ultimi in self-publishing dunque); fedele al motto “Any book, anywhere, any time and on any device” Google ha poi approntato 3) un mobile bookstore, cosa avvenuta contestualmente alla trasformazione dell’Android Market in Google Play, momento che ha significato il passaggio dalle sole applicazioni ai contenuti in senso lato: all’interno di Google Play si trova infatti il negozio “Google Libri” (nel quale effettuare ricerche, visualizzare anteprime, lasciare commenti ed ovviamente acquistare) ma vi si può anche 4) scaricare l’applicazione di lettura Books App.
Con il Nexus 7, in altri termini, i contenuti (libri, come ampliamente descritto, ma anche i video di YouTube, frutto dell’acquisizione del “lontano” 2006), le applicazioni ed i servizi di Google (in gran parte presenti sulla nuvola) trovano l’ideale ambiente di utilizzo dal momento che il nuovo tablet ovviamente esalta e rende quasi “naturale”, grazie al sistema operativo nativo Android 4.1, il loro uso da parte dei sempre più numerosi utenti.
Mi si potrà obiettare che Google non è l’unica ad avere una simile “potenza di fuoco”: Amazon, Apple e Microsoft, giusto per non fare nomi, hanno tutte alle spalle una notevole infrastruttura, una qualche forma di market attraverso il quale offrono prodotti o servizi, così come la loro più o meno sviluppata gamma di device (Microsoft, con Surface, è stata l’ultima nell’ordine e giusto per ribadire come oramai sia diventata quasi una moda già si rumoreggia del prossimo arrivo di uno telefonino intelligente made in Redmond, analoga decisione a quella che si ipotizza possa prendere a breve Amazon!).
Verissimo, ma anche a prescindere dall’importantissima funzione di search (solo Microsoft con Bing prova a far concorrenza a Google in questo campo), nessuno a mio avviso ha comunque, oggigiorno, una “completezza di offerta” pari a quella di Google:
1) Apple ha sì un’infrastruttura cloud adeguata, un’offerta di servizi, applicazioni e contenuti (inclusi i libri e pure un programma, iBooks Author, dedicato agli autori) invidiabile nonché dispositivi al top della gamma, ma nel fisso non ha una quota importante e nemmeno ha sfondato nel settore business, essendo quest’ultimo stato finora appannaggio di =>
2) Microsoft: il gigante fondato da Paul Allen e Bill Gates gode di una fenomenale presenza nel fisso tanto in ambito consumer quanto in quello business (grazie, tra i tanti software prodotti, alla diffusione come standard de facto del pacchetto di produttività Office), cui fa però da contraltare una quasi insignificante quota nel mobile (pecca non da poco, dal momento che quest’ultimo rappresenta il futuro!). Se l’infrastruttura cloud è il punto di partenza indispensabile per aggredire il mercato del mobile, bisogna vedere come verranno accolti dai consumatori prodotti come il citato Surface (a parità di costo secondo me molti resteranno fedeli al fascino di Apple) e, soprattutto, quali frutti darà l’alleanza con Barnes & Noble, la quale avrà il compito di offrire i contenuti (per ora mancanti) indispensabili per dare un senso alla neonata tavoletta di casa Microsoft.
3) Amazon: l’azienda di Jeff Bezos si trova in una situazione per certi versi opposta rispetto a Microsoft, nel senso che ha contenuti a iosa (libri, video, etc.) ma ben poco peso in fatto di produttività e pertanto di appeal in ambito business; per il resto possiede, alla pari delle due aziende precedenti, un’infrastruttura (cloud) imponente e soprattutto vanta un’enorme base di utenti, frutto di anni di onorato e-commerce.
Alla luce di tutto ciò appare evidente come Google sia l’unica ad avere un’offerta veramente a 360 gradi: pecca, è indubbio, nel fisso (il sistema operativo Chromium non è stato esattamente un successo) ma milioni di utenti usano lo stesso quotidianamente dai propri dispositivi fissi servizi come GMail, Calendar, Google Docs, Maps, etc. e riescono ugualmente a far dialogare il tutto (“sincronizzare” per essere esatti) con quelli mobili. Insomma, la convergenza tra fisso e mobile è già possibile e tutto lascia supporre che in futuro le cose miglioreranno ulteriormente in modo da soddisfare pienamente sia i comuni utenti quanto quelli business (come già detto Big G ha sia contenuti sia strumenti di produttività; l’appeal di questi ultimi, peraltro, è tanto maggiore in periodi come questi in cui tagliare i costi è questione quasi vitale).
Tutto bene dunque? Non esattamente ed il perché è noto.
Google, ma il ragionamento è altrettanto valido per le sfidanti Apple, Amazon e Microsoft, è un gigante che fa paura: attraverso le nostre ricerche, le geolocalizzazioni sulle mappe, le nostre letture, i nostri video, etc. sa cosa facciamo, dove ci troviamo o dove siamo stati, i nostri gusti e via dicendo. Ma non finisce qui: sui server di Big G finiscono i nostri libri, le nostre e-mail, i nostri documenti… praticamente tutto, la nostra vita, è nelle sue mani!
Insomma, siamo partiti parlando semplicemente di libri e siamo arrivati all’orwelliano Grande Fratello: purtroppo lo scenario è questo e se non sarà Google come visto c’è la fila per prendere il suo posto: come interpretare, del resto, le reazioni di Amazon ed Apple agli annunci di Google e Microsoft? La prima si è affrettata a far trapelare notizie di un imminente arrivo (agosto?) del Kindle Fire 2 (cui si sono aggiunti, come detto all’inizio, i rumor per un possibile smartphone) mentre la seconda ha fatto filtrare dettagli su un possibile iPad Mini.
La sfida è dunque a tutto campo e non si fanno sconti a nessuno; la crisi ed il cambiamento tecnologico (schumpeterianamente parlando forse la faccia diversa della stessa medaglia) poi fanno il resto, portando a termine la necessaria “selezione naturale”: il futuro sarà inevitabilmente appannaggio di pochi colossi, auguriamoci che in questa lotta titanica i comuni cittadini non restino schiacciati.

PS Cliccate qui per la versione su Storify di questo post.

Arriva Microsoft Surface: cosa cambia nell’arena dei tablet

Microsoft Surface

Microsoft Surface (Copyright Microsoft)

Una cosa è certa: con la presentazione di Surface, primo tablet con il proprio marchio, Microsoft ha compiuto un’operazione di marketing all’altezza dell’acerrima rivale Apple, riprendendosi la ribalta mediatica dopo un lungo periodo di appannamento.
Per giorni infatti si è discusso a suon di indiscrezioni su cosa sarebbe stato presentato in quel di Los Angeles: chi diceva una tavoletta frutto della collaborazione con Barnes & Noble capace di interagire in streaming con l’Xbox (ipotesi improbabile considerando la smentita di B&N, che non sembrava d’ufficio, e come l’accordo tra le due società risalga ad appena qualche mese fa), chi un tablet ma frutto al contrario dell’accordo con Nokia (io personalmente propendevo per questa ipotesi), chi un ereader puro (sempre in collaborazione con B&N, ma anche in questo caso ho sin da subito trovato l’indiscrezione poco plausibile: poco tempo a disposizione per lo sviluppo… e poi al Nook che fine facevamo fare?) e chi infine l’annuncio di una qualche acquisizione a suon di miliardi di dollari (si era parlato di Yammer, effettivamente acquistata). Tutti comunque, avevano individuato grossomodo l’oggetto dell’annuncio: un device fisico connesso in qualche modo al nuovo sistema operativo Windows 8 / RT.
Ma al di là dei rumor dei siti specializzati, dei bagliori dei flash e del colori sgargianti del nuovo device, quale sarà l’impatto di Surface sull’arena dei tablet? Secondo Stan Shih, fondatore di Acer, il nuovo tablet dell’azienda di Seattle servirebbe soprattutto per “spronare” gli altri produttori ad adottare il nuovo sistema operativo di Windows; d’altronde, ragionano sempre nella casa taiwanese, chi lo fa fare a Microsoft di gettarsi nel settore dell’hardware con i suoi bassi margini?
Personalmente reputo questa spiegazione poco credibile e tesa soprattutto a sminuire la portata dello schiaffo subito: Acer, e con essa tutti i produttori che da anni adottano software Microsoft, sono rimasti spiazzati dal comportamento dell’azienda diretta da Steve Ballmer. Appartengo infatti a quella “scuola di pensiero” che ritiene la mossa di Microsoft di tipo strategico e destinata ad avere ripercussioni di grossa portata (perlomeno sulla conduzione del business da parte dell’azienda): in altri termini a Seattle, visto il pericolo sempre più concreto di vedersi tagliati fuori dall’universo dei dispositivi mobili, sono stati costretti ad adeguarsi a quanto fatto dai principali e più temibili competitor (Amazon, Google, Apple) i quali hanno percorso con decisione la strada di dispositivi brandizzati con SO fatto in house (iOS od Android) o quanto meno altamente personalizzato (come Amazon).
La mossa di Microsoft, dunque, è stata obbligata e, bisogna riconoscere, Ballmer non si è tirato indietro, presentando un prodotto che sfida direttamente (per specifiche tecniche e fascia di prezzo) l’iPad di Apple: Surface infatti nelle due versioni Windows 8 ed RT monta processori che sono il top della gamma rispettivamente di Nvidia (dovrebbe essere il Tegra) e di Intel (con l’Ivy Bridge), ha dimensioni e pesi grosso modo assimilabili alla tavoletta made in Cupertino e display in alta definizione. Al di là dei dettagli tecnologici, anch’essi comunque indicativi, a mio parere il tratto distintivo di Surface è la particolare attenzione per la dimensione di produttività (come si evince dalla possibilità di scrivere a mano libera con una risoluzione di 600 dpi – con digital ink, tecnologia da anni nel cassetto di Microsoft – e dall’interessantissima cover / tastiera), strizzando così un occhio ad aziende e pubbliche amministrazioni ovvero proprio a coloro che devono ancora effettuare il loro passaggio al mobile e che erano in attesa di un prodotto compatibile con gli esistenti “parchi macchine”.
Se la mossa di Microsoft è dunque di quelle destinate a lasciare il segno, non meno interessante sarà vedere come reagiranno i vari protagonisti del panorama high-tech mondiale.
Iniziamo da quelli che si trovano nelle posizioni più critiche (tra i quali metto tutti i vari produttori “puri” di hardware): Acer, Lenovo, HP (che ha letteralmente gettato il suo WebOS frutto dell’acquisizione di Palm!), Dell, etc. si trovano nella difficile situazione di essere costretti ad adottare il sistema operativo fornito da chi nel contempo gli fa anche la concorrenza come produttore (ovvero Microsoft, che peraltro si fa pure pagare, ed a breve Google).
Ci sono poi i due malati cronici: 1) RIM, che pur avrebbe il suo SO Blackberry 10, si trova in acque agitate ed ha appena annunciato il licenziamento di 6mila dipendenti nell’estremo tentativo di tagliare i costi: purtroppo dati di vendite e quote di mercato non consentono particolari ottimismi al punto che si riaffaccia prepotentemente, a mio avviso, l’eventualità di un’acquisizione (Amazon?) 2) Nokia, i cui destini sono altrettanto incerti, ha licenziato 10mila dipendenti, chiuso fabbriche e si vocifera dovrebbe persino realizzare smartphone low-cost basati su Android: evidentemente l’accordo con Microsoft non sta dando i frutti sperati ed in effetti lascia perplessi che Surface non sia esito di questo deal (come anzidetto ero tra chi propendeva per questa ipotesi) né d’altro canto è accettabile che l’unico risultato pratico (oltre alla presenza di Windows Phone sui Lumia) sia l’uso delle mappe di Nokia al posto di quelle di Bing a bordo dei paventati telefonini intelligenti marchiati Microsoft!
Ancora più interessanti, però, saranno le contromosse dei veri sfidanti di Microsft: Apple, Amazon e Google.
Apple ha già sparato il suo colpo con il Nuovo iPad, quindi non ha altri proiettili in canna da usare nell’immediato; molti analisti comunque continuano a prospettare la realizzazione di una versione con display di dimensioni ridotte ed effettivamente sono possibilista sulla cosa, avendo essa una sua logica in termini di differenziazione di prezzo (un entry-level più basso) e di prodotto, inserendosi in un segmento di mercato altrimenti regalato a Samsung. Insomma non sono tra coloro che ritengono impossibile che un giorno potremo vedere un Mini iPad per il semplice fatto che Steve Jobs aveva a suo tempo proferito il suo niet!
Decisamente più articolate e da scandire con oculatezza nei mesi a venire le manovre in casa Amazon: l’azienda di Seattle deve infatti da un lato “coccolare” il mercato USA, dall’altro non deve trascurare quello europeo. Negli Stati Uniti infatti dopo l’exploit natalizio il mercato si è raffreddato; è pertanto previsto per ottobre l’arrivo del Kindle Fire 2 con una dotazione hardware e software aggiornata (con quale Android? Ice Cream Sandwich o Jelly Bean?). Contestualmente, come già avvenuto con altri prodotti, il prezzo del “vecchio” Fire dovrebbe scendere preservando l’appetibilità di questo tablet. E l’Europa? L’annuncio, di qualche giorno fa, che gli sviluppatori possono iniziare a lavorare su applicazioni per il Vecchio Continente da distribuire entro l’estate, può indicare che l’arrivo del Fire sia, dopo mesi di annunci e smentite, veramente prossimo. A questo punto dell’anno è però auspicabile che il Fire “europeo” possa aver beneficiato di qualche sostanzioso upgrade, necessario per un prodotto non al top della gamma nemmeno al momento della presentazione; non penso che i consumatori europei siano esaltati dall’idea di trovarsi tra le mani un device vecchiotto o quanto meno di serie B rispetto a quello che i cittadini d’Oltreoceano avranno a disposizione tra appena qualche mese!
Last but not least c’è Google. Dopo mesi di annunci e di indiscrezioni sembra essere arrivata la volta buona: durante l’annuale incontro I/O al Moscone Center di San Francisco (in programma dal 27 al 29 giugno prossimi) l’azienda di Mountain View dovrebbe, tra le tante cose, svelare il Nexus Tablet (a doppio marchio Google ed Asus) il quale, ormai è altrettanto certo, avrà un display da 7 pollici, sistema operativo Android Jelly Bean e prezzo di 199 dollari. Se tali caratteristiche fanno (legittimamente) ipotizzare che lo sfidante principale sia proprio il Kindle Fire, personalmente ritengo che nessuno competitor possa dormire sonni tranquilli: a) con la recente Books App (relativa a Google Books) si è compiuto un ulteriore deciso passo nel mercato di quegli ebook “riserva di caccia”, finora, di Amazon ed Apple; b) Google Docs oramai è una diffusissima suite di produttività sulla nuvola, tale da impensierire Office di Microsoft c) Drive fornisce il necessario spazio di storage, senz’altro alternativo ai sistemi dei rivali d) su Google Play si trovano applicazioni di ogni genere, da quelle utili alla produttività a quelle ludiche, e che nulla hanno da temere rispetto a quelle del celeberrimo Apple Store. Insomma una politica di sviluppo a 360 gradi che non ha praticamente lasciato nulla al caso; semmai, se proprio devo muovere un appunto a Google, trovo strana la lentezza con la quale si mette a frutto l’acquisizione di Motorola Mobility.
Siamo dunque alla guerra di tutti contro tutti e così come avviene sui campi di battaglia un fattore determinante potrebbe essere quello tempo: Apple è insidiata da Microsoft, il cui Surface però arriverà solo in autunno, periodo nel quale dovrebbe arrivare pure il Fire 2; nel frattempo invece sul mercato dovrebbe arrivare (da luglio) il Nexus di Google, motivo per cui quest’ultima azienda potrebbe approfittare del vantaggio per fare il pieno ai danni soprattutto di Amazon e di Microsoft. Nei riguardi della prima infatti è lecito chiedersi: perché attendere sino ad ottobre per un prodotto affine, ovvero low cost e che come dotazione tecnologica sicuramente non rappresenta lo stato dell’arte? Nei confronti della seconda invece la domanda da porsi è: perché pagare tanto per un tablet se poi anche il Nexus se la cava in quanto a produttività? E poi, se proprio devo spendere, non è forse meglio farlo per avere almeno il fascino della Mela?
Ognuno darà la sua risposta, la sfida intanto è aperta.

PS Per chi volesse approfondire ulteriormente la lettura rimando al relativo Storify.

Biblioteche e librerie: quale ruolo nel passaggio al digitale?

eBooks

eBooks di brooksmemorial, su Flickr

Il terzo ed ultimo appuntamento di Genova@ebook si è confermato all’altezza dei precedenti in fatto di tematiche affrontate; anzi, dal punto di vista di chi vi scrive, è stato raggiunto l’apice nel momento in cui, sollecitati da una domanda dal pubblico, si è parlato dei possibili ruoli che librerie e biblioteche potrebbero svolgere nel futuro digitale prossimo venturo.
Diciamo preliminarmente, cosa tutt’altro che scontata, che le opinioni espresse in sala sono state unanimi nell’attribuire a librerie e biblioteche un futuro nel digitale; vediamo però in che termini.
Fabrizio Venerandi, portando come esempio quello di Quintadicopertina (progetto al quale egli aderisce), ha sostenuto come le librerie e le biblioteche rappresentino un’alternativa concreta (nel senso letterale del termine) agli strumenti offerti da Internet per raggiungere quel pubblico di lettori che per i più disparati motivi non frequentano i vari siti di social reading. Insomma, le librerie e le biblioteche sempre più importanti come “valvole di sfogo” per parlare di storia e di contenuto laddove in Rete si tende a parlare soprattutto del contenitore.
La questione ha sollevato subito commenti su Twitter: chi ha sottolineato la difficoltà nel “relazionarsi” con le librerie, chi ha auspicato il raggiungimento di un punto di incontro e chi, come il sottoscritto, non ha mancato di rilevare come la proposta sia “economicamente” difficilmente sostenibile.
Incalzato dal pubblico proprio sull’aspetto economico della vicenda (ovvero su come le librerie possano sopravvivere nel mondo digitale) Venerandi ha citato un interessante e “creativo” esempio di vendita di ebook, ovvero attraverso t-shirt con codice QR, scannerizzando il quale con un normale smartphone si scarica il libro.
Sulle opzioni che hanno le librerie per vendere gli ebook (e sul correlato bisogno di “fisicità”) è tornata Clelia Valdesi di Bookliners, la quale ha ricordato come siano in corso sperimentazioni di vendita (attraverso totem, tessere magnetiche, etc.). La stessa Valdesi ha poi proseguito auspicando che librerie e biblioteche diventino luoghi di incontro anche per l’editoria digitale nonché punti di alfabetizzazione informatica (leggasi: uso dei nuovi dispositivi di lettura e conoscenza dei vari formati), sottolineando però come il problema di fondo è che in Italia si legge poco e che su questo bisognerebbe intervenire.
Personalmente trovo tutte queste riflessioni assolutamente condivisibili (anche se, corporativamente, ricordo che le biblioteche non servono solo a fungere da cassa di risonanza per questo o quell’autore!) ma dal punto di vista pratico difficilmente percorribili o perlomeno non percorribili da parte di tutti; vediamo un po’ perché.
Per quanto riguarda le librerie personalmente la vedo dura, anche se distinguerei tra librerie di catena e librerie indipendenti. Per le prime, sorrette finanziariamente da colossi che di frequente sono anche case editrici, a mio modo di vedere ci sono i margini per continuare ad operare fintantoché ci troveremo in questo momento di trapasso da analogico a digitale (sulla cui durata non mi sbilancio!). Infatti l’esistenza di sedi fisiche consentirà da una parte la tradizionale vendita di libri cartacei e dall’altra di “iniziare” alla lettura digitale i lettori meno preparati. E’ proprio questo il succo dell’accordo stipulato tra Waterstone’s ed Amazon, con la prima che, accanto ai libri di carta venderà gli ereader della famiglia Kindle (in questo senso il personale fungerà da tutor tecnologico) nonché, garantendo la copertura Wi-Fi dei propri punti vendita, consentirà l’acquisto degli ebook in loco.
Per il solito discorso degli eccessivi costi fissi e delle mancate economie di scala credo, purtroppo, che altrettanto non possa essere fatto, se non in rari casi, dalle librerie indipendenti.
In entrambi i casi, comunque, si tratta a mio avviso di una soluzione ponte (un po’ come il print on demand lo è stato tra editoria tradizionale e self-publishing): l’ebook è un prodotto digitale ed “immateriale” ed il suo naturale canale di vendita è l’online. Che in una fase iniziale i due canali possano coesistere è fuor di dubbio ma che in prospettiva il secondo risulti vincente è altrettanto fuori di discussione!
Pertanto, venendo a mancare l’imprescindibile ritorno economico fornito dalle vendite, ritengo che la sorte di un gran numero di librerie sia nel medio periodo segnata né vedo come l’ampliamento dell’offerta dei propri servizi alla sfera della “promozione ed al marketing” (ospitando, come si diceva, autori e reading) possa controbilanciare i mancati introiti derivanti dalle minori vendite.
Un discorso solo per certi versi analogo può essere fatto per le biblioteche; va infatti tenuto presente come queste ultime non lavorino per ottenere un profitto (i loro servizi sono nella maggior parte dei casi gratuiti), anzi, si può quasi affermare che per “statuto” esse siano destinate a chiudere in perdita (o meglio, in pareggio)! Premesso ciò, nel momento in cui le biblioteche (mi riferisco nello specifico a quelle che in Italia definiamo “di pubblica lettura”, vale a dire quelle che hanno come mission favorire la diffusione del libro e della lettura) perderanno la loro funzione principe di intermediazione tra libro e lettore (dato che si reperiranno le proprie letture attraverso ricerche online) e quella correlata del prestito librario (sperando che resti loro almeno il digital lending; le “invasioni di campo” e le limitazioni al prestito sono all’ordine del giorno, vedasi l’Amazon Kindle Owners’ Lending Library ma anche l’accordo raggiunto con l’ALA), è doveroso chiedersi se ha / avrà ancora un senso tenere in piedi simili strutture fisiche tanto più che ciò implica sostenere dei costi che ricadono sulla collettività (la quale, si badi, ottiene come ritorno difficilmente monetizzabile la creazione di relazioni e di capitale umano!).
L’argomento dunque è complesso, giacché rimanda dal punto di vista teorico al dibattito circa i pro ed i contro della biblioteca digitale in opposizione a quella virtuale e dal punto di vista pratico impone un ripensamento delle reti bibliotecarie (massimamente di quella italiana, che farraginosa è dir poco).
Personalmente sarei propenso ad ipotizzare in una fase transitoria la creazione a livello centrale di una infrastruttura informatica con il compito di immagazzinare i libri digitali e di gestire le operazioni di prestito ai vari utenti; a livello periferico (diciamo comunale) invece manterrei, magari razionalizzandole, le varie sedi le quali avrebbero il compito mantenere in piedi un minimo di raccolta fisica (che andrà a svolgere un ruolo sempre più residuale nel complesso del patrimonio librario) e nel contempo di diffondere le necessarie competenze digitali (ricerca degli ebook, utilizzo dei vari device di lettura, etc.) così come erogare servizi alla comunità di riferimento (gli Idea Store britannici possono offrire un interessante modello) e, perché no, organizzare pubbliche letture ed incontri anche con i “nuovi” autori provenienti dall’eterogeneo universo del self-publishing.
Insomma, tutto come auspicato al Genova@ebook?! Sì, ma con la consapevolezza che, per le biblioteche così come per le librerie, si tratta solo di una fase transitoria dalla durata ad oggi non determinabile: nel momento in cui il digitale diventerà maggioritario (e con esso le operazioni di ricerca, acquisto / prestito, lettura) la presenza di sedi fisiche diverrà o economicamente non sostenibile oppure non più fondamentale per la collettività e spariranno l’una dopo l’altra.
Rimarrà sicuramente per gli autori la necessità di relazionarsi di persona con il proprio pubblico; dove avverrà questo incontro è troppo presto per saperlo.

PS Anche per questo post raccomando la lettura della versione su Storify.

La scomparsa del documento

News obsession word flow experiment #1

News obsession word flow experiment #1 di Samuel Huron, su Flickr

Il titolo di questo post potrebbe apparire ai più eccessivo, ma poiché a leggere in giro è tutto un fiorire di incontri, ricerche ed iniziative incentrate sui dati (declinati in vario modo: big data, open data o ancor meglio sui sistemi che li gestiscono, come CMS, ERP, CRM etc.) è lecito chiedersi che fine farà il nostro “caro vecchio documento”.
Posta nei termini di sfida “dato VS documento” sembra quasi di rispolverare l’annosa querelle tra archivisti (in particolare Elio Lodolini), difensori del documento collocato all’interno dell’archivio e portatore del più ampio ed incomparabilmente superiore “valore archivistico”, e documentaristi che, prendendo il documento nella sua singolarità, lo qualificavano in virtù del valore informativo in esso contenuto.
In effetti l’evoluzione tecnologica degli ultimi anni ha visto da un lato l’esplosione quantitativa delle “fonti” di produzione e dall’altro la loro parcellizzazione e tutto (avvento dell’Internet delle cose, nel quale non solo le persone ma anche gli oggetti – lavatrici, televisori, frigoriferi, etc. – sono connessi e trionfo del paradigma del cloud computing) lascia presupporre che questo fenomeno proseguirà spedito nei prossimi anni (alcuni stimano che il volume dei dati in Rete raddoppi ogni 18 mesi). La riprova che dall’informazione si sia scesi al livello sottostante del dato è evidente se si considera che oramai non si sente più parlare di information overload ma, per l’appunto, oggi ci si domanda come gestire (se possibile con un ritorno economico) questa mole sterminata di dati (big data); lo stesso Tim Berners-Lee, padre del world wide web, da lui creato spinto dalla frustrazione di non poter condividere agevolmente documenti (contenenti informazioni strutturate) con altri membri della comunità accademica, è ora un convinto sostenitore del passaggio al Web of Data, come si evince dalla visione di questo interessantissimo suo speech, in modo che potenzialmente tutti possano concorrere, a partire da dati grezzi, alla creazione di nuove informazioni, al raggiungimento di nuove scoperte scientifiche, etc.
In questa sede, come sempre, ci interessano in modo “laterale” i risvolti di business; decisamente più interessante invece approfondire come nella teoria muti, parallelamente all’imporsi del dato sul documento, la definizione di quest’ultimo. Utile a tal scopo riprendere il concetto di vista documentale presentato da Roberto Guarasci, che a sua volta si rifà al “Nuovo CAD” (D. Lgs. 235/2010); stando a questo autore è sempre più comune imbattersi in un documento come

vista, temporalmente identificata e descritta, di un processo di estrazione di dati [il grassetto è mio; n.d.r.] da repository che attesta e qualifica un evento o una transazione

e che costitutivamente sarebbe composta da 3 elementi principali: i log, le evidenze ed i metadati.
In questa definizione di documento, peraltro non confliggente con quella dinamica “as a continuum” alla InterPARES, ritroviamo tutti gli elementi principali finora individuati: i dati innanzitutto, ma anche i processi di conservazione / ricerca / estrazione ed uso a partire da “depositi” qualificati (con i metadati a fungere da imprescindibile corredo).
Le conseguenze archivistiche sono notevoli e meriterebbero di essere approfondite con ben altra ampiezza di respiro; così, su due piedi, impossibile non soffermarsi su alcuni aspetti.
1) Nel momento in cui il documento perde le sue caratteristiche di fissità (essendo l’esito di un processo dinamico di estrazione di dati che possono risiedere in repository geograficamente ed amministrativamente distinte) vengono meno anche le sue caratteristiche “esteriori”. Pertanto 2) risulta impossibile o perlomeno assai difficile effettuare una analisi di tipo diplomatistico per attestare, così come avviene ancora con il documento contemporaneo, la sua autenticità. 3) Al contrario è possibile garantire quest’ultima solo dimostrando l’avvenuta “ininterrotta custodia” dei luoghi fisici (server) nei quali vengono conservati i dati nonché l’adozione (e l’applicazione concreta!) di adeguate policy. Ritorna prepotentemente dunque 4) l’importanza di costruire infrastrutture informatiche adeguate a supportare la mole sterminata di dati che, c’è da scommetterci, la nostra società produrrà negli anni a venire.
Faccio rilevare, per concludere, che questi obiettivi non sono conseguibili agendo in modo rapsodico ma necessitano al contrario di un’attenta e consapevole analisi preliminare cui deve far seguito una sistematica fase “realizzativa” alla quale non sarebbe male che anche gli archivisti dessero il proprio contributo; purtroppo finora l’impressione è che l’approccio tenda soprattutto a tutelare e/o favorire i propri affari (dal marketing alla profilazione degli utenti) specie se si considera che anche in fatto di open data, ovvero quelli di provenienza pubblica, l’intento dichiarato è favorire la nascita di start-up (non che sia un reato, anzi!) senza dunque coinvolgere gli archivi, i quali a mio avviso potrebbero al contrario dare un buon contributo alla causa.