Archive for the ‘Uncategorized’ Category

Kobo, un gradito upgrade del sistema operativo

Kobo Glo picture

La home del mio Kobo Glo, con Pocket in bella vista

In più di un post ho sostenuto la necessità che i produttori di ebook reader adottassero come sistema operativo Android o che, perlomeno, si sforzassero di creare, a livello di user interface, un qualcosa che ci si avvicinasse.
A riguardo devo ammettere che l’ultimo upgrade ricevuto dal mio Kobo Glo va decisamente in questa direzione! Intendiamoci, siamo distanti anni luce da un’interfaccia ad icone tipo iOS od Android, ma il salto di qualità rispetto al passato è netto ed indiscutibile.
Già con un aggiornamento di qualche mese fa si era fatto un enorme passo in avanti a livello di interfaccia, più pulita ed ordinata (in particolare la home è organizzata in riquadri che per certi versi ricordano le mattonelle di Windows 8), oggigiorno si è proseguito lungo questa strada: in particolare la novità che salta immediatamente agli occhi è l’installazione nativa di Pocket, una delle tante applicazioni del tipo “salva adesso, leggi dopo” (come Instapaper, Readability, dotEPUB) presenti sul mercato.
Grazie a Pocket la lettura di testi trovati in Rete diviene un gioco da ragazzi: infatti mentre fino a ieri (personalmente usavo dotEPUB) per leggere un testo convertito sul mio ebook reader dovevo o trasferirlo collegandomi via cavo USB oppure scaricare il relativo file in modo macchinoso da Dropbox (Dio solo sa quanto è scomoda tale operazione) oggi ho due opzioni: 1) navigo con il browser preinstallato sul Kobo Glo, nel quale è adesso presente il tasto “Save to Pocket” in basso a destra, salvo il testo di mio interesse e vi accedo dall’apposita pagina in cui ritrovo tutti i miei bookmark 2) installo Pocket sui miei dispositivi (PC, tablet, laptop, smartphone; a riguardo Pocket supporta tutti i principali sistemi operativi, n.d.r.), quando trovo un testo di mio interesse lo salvo ed una volta che accendo il Kobo si avvia anche la sincronizzazione, cosicché mi ritrovo nell’apposita sezione tutti gli articoli salvati.
Evidentemente la seconda via è quella più agevole continuando ad essere la navigazione con il browser del Kobo assai problematica (a livello di velocità di apertura delle pagine, di difficoltà di interazione con i pulsanti di navigazione, di presentazione errata o mancata dei contenuti).
Ciò non toglie che si tratti ugualmente di una gran bella novità che peraltro potrebbe riaprire alcuni scenari, che sembravano preclusi dall’affermazione di “contenitori” tipo Flipboard, in fatto di utilizzo degli ebook reader per la lettura di periodici, giornali e riviste.
Certo, se il sistema operativo fosse stato Android oppure iOS si sarebbe potuto scegliere anche con quale app farlo, senza essere vincolati a quella “incorporata” dal produttore. Ma forse sono troppo esigente…

Google ed il data center galleggiante

Il data  center galleggiante di Google

Il data center galleggiante di Google

Di data center (DC), in questi anni, mi sono occupato per i più svariati motivi e sotto molteplici prospettive: vuoi perché essi sono infrastruttura necessaria (ma purtroppo non sufficiente!) per mantenere in vita le speranze di archivi e biblioteche di giocare un ruolo nella società digitale, vuoi perché la loro corretta gestione (leggasi: dei dati in essi custoditi) impatta direttamente sulla privacy di tutti noi, vuoi ancora per i risvolti più strettamente tecnologici inerenti alle modalità con i quali li si costruisce (e a dove li si colloca) e, a cascata, alle possibilità di assicurare la loro continuità operativa nonché, nella peggiore delle ipotesi, la sopravvivenza dei contenuti digitali in essi custoditi.
La notizia che vado qui a commentare riassume in sé un po’ tutti questi aspetti: Google starebbe costruendo (il condizionale è d’obbligo non essendoci infatti conferme ufficiali da parte di Mountain View ma tutti gli indizi lasciano presupporre che sia effettivamente così), su un molo affacciantesi sulla baia di San Francisco, un avveniristico data center galleggiante.
Naturalmente la maggior parte dei commentatori ha spiegato la costruzione come esito della naturale ricerca, da parte dei colossi dell’high tech, di data center meno energivori: in tal senso la scelta dell’ambiente acquatico sarebbe l’ideale (a parte la presenza di sale), in quanto l’acqua potrebbe venir impiegata, oltre che per il raffreddamento delle macchine, anche per generare l’energia elettrica (in tutto od in parte non è dato sapere) necessaria al suo funzionamento. Inoltre questo data center galleggiante, potendo muoversi (nell’articolo sopra linkato si assicura che quella sorta di chiatta destinata ad ospitare i container modulari – che a loro volta andrebbero a comporre il DC in una sorta di Lego – ha capacità nautiche tali da poter andare praticamente ovunque), assicurerebbe l’ulteriore vantaggio di spostarsi in base alle esigenze, mettendolo al riparo da tutte quelle minacce atmosferico-ambientali che, per quanto ci si sforzi di realizzarli in luoghi sicuri, tipicamente affliggono i data center fissi.
Un ulteriore “vantaggio competitivo” potrebbe essere rappresentato dalla possibilità di servire aree geograficamente prive di tali infrastrutture vitali (si pensi al continente africano ed a molte regioni asiatiche): in questo senso il data center galleggiante ben si inserirebbe all’interno di altri progetti (non disinteressati, si badi) portati avanti da Google e tesi a ridurre il digital divide, come quello che prevede la realizzazione di dirigibili i quali, sorvolando le aree più remote di Africa ed Asia, letteralmente le irradierebbero dall’alto con il “vitale” segnale Wi-Fi, donando loro la connessione. Brin e Page, in altri termini, si presenterebbero come moderni “liberatori” e civilizzatori di queste nazioni arretrate…
Non meno importanti le considerazioni relative alla privacy: in tempi di datagate la presenza di un data center mobile, sottraibile dunque dalle grinfie dell’NSA, è politicamente decisamente vantaggioso ed al contrario un’ottimo modo per rifarsi un’immagine davanti ai propri utenti, ai quali si dimostrerebbe che l’azienda californiana resta fedele, nonostante tutto, al suo vecchio motto “Don’t be evil”. In verità anche sotto questo aspetto non c’è da stare molto sereni, essendo Google una maestra in fatto di data mining, tanto più che tra le due sponde dell’Atlantico la concezione della privacy si va divaricando in misura crescente ed i colossi d’oltre oceano sembrano sempre più in grado di imporre la loro legge.
In altri termini la presenza di data center che sfuggono a qualsiasi forma di controllo rappresentano un motivo di preoccupazione tanto quanto quelli, posti sul suolo degli States, che stando alle ultime indiscrezioni di giornale paiono sempre più essere stati dei veri e propri “libri aperti” per le varie agenzie federali. Forse sarebbe il caso di cercare soluzioni alternative all’apparentemente inarrestabile processo di concentrazione in pochi ed enormi DC e, parallelamente, di realizzare dorsali Internet meno americanocentriche.
Ma mi fermo qui, che sono già andato sin troppo off-topic

Conservazione degli e-book, missione (quasi) impossibile?

Civil Liberties Litigation ePub Experiment di colecamp

Photo credits: Civil Liberties Litigation ePub Experiment di colecamp, su Flickr

Circa un’annetto fa ho scritto un post nel quale spiegavo come l’ebook, specie quello “potenziato” (enhanced), cambiasse il rapporto con le fonti documentarie, concludendo, tra le altre cose, che ciò implicava un significativo cambiamento nel modo in cui da una parte gli storici e dall’altra i lettori si approcciano alle fonti stesse.
In questo articolo intendo invece soffermarmi su un aspetto che all’epoca aveva appena abbozzato, ovvero quello delle possibili (anzi, probabili) difficoltà poste alla conservazione.
In genere si tende infatti a ritenere che la difficoltà stia nel conservare i documenti digitali (con relative marche temporali, firme elettroniche / digitali più o meno qualificate, glifi, etc.), e questo perché va mantenuta (almeno nella fase attiva) la valenza giuridico-probatoria che è insita in essi; al contrario con i libri digitali questo problema non si pone: anche se muta la sequenza binaria, si è soliti sostenere, l’importante è che il contenuto non subisca modifiche sostanziali (cambiamenti nel layout della pagina, nel font del carattere, etc. sono ritenuti accettabili anche se pure essi ci dicono molto su come l’autore ha voluto che fosse il suo libro).
Ebbene, specie se in presenza di ebook potenziati, è tutt’altro che pacifico che ciò sia assicurato. Come sottolineavo “en passant” nel succitato articolo (ma ponendomi nella prospettiva peculiare dello storico), vi è infatti il serio rischio che salti tutto quell’insieme di riferimenti “esterni” all’ebook che nelle intenzioni autoriali costituisce parte integrante (e talvolta fondamentale) dell’opera: il problema è in primis quello noto dei rot link (ovvero di collegamenti ipertestuali che conducono a risorse che nel frattempo sono state spostate di indirizzo o che, nella peggiore delle ipotesi, non esistono più) ma in generale si può parlare della (non) persistenza degli oggetti digitali che popolano la Rete. In sostanza il pericolo è quello di conservare ebook che nel giro di pochi anni si trovano monchi.
Le riflessioni da fare a questo punto sono sostanzialmente due:
1) gli enhanced ebook diverranno dominanti nell’arena dei libri digitali o, al contrario, resteranno di nicchia e specifici di alcuni ambiti (settore educational, storia, etc.)? Ovviamente qui si entra nel campo del probabile ma personalmente ritengo verosimile, considerando a) la spinta proveniente dalla vendita, che va per la maggiore, di tablet multimediali a discapito di ebook reader dedicati che invece non supportano tali elementi b) lo stimolo costituito dallo stesso standard epub 3, che ha abbracciato in toto l’idea della multimedialità, che essi diverranno, magari in un futuro non così prossimo, predominanti rispetto a quelli “classici” composti di testo ed immagini
2) è possibile ovviare al problema? In questo caso la risposta è senz’altro affermativa. Difatti, al di là dell’obiettivo forse irraggiungibile di “archiviare Internet”, ci si può accertare (così come invita a fare Wikipedia) che nel momento in cui si va ad effettuare una citazione / riferimento ad una risorsa esterna perlomeno essa sia stata archiviata da uno dei vari servizi esistenti (il più famoso è Internet Archive) e, in caso negativo, far sì che essa venga archiviata. Esiste poi un’altra alternativa, a mio avviso sconsigliabile, che consiste nell’incorporare nell’ebook tutte le risorse esterne cui si fa riferimento: purtroppo, trattandosi di immagini e di file audio e video, ciò significa far aumentare il “peso” complessivo dell’ebook di un paio di ordini di grandezza (diciamo da uno a 100 mega), il che non è agevole né per il lettore nel momento in cui va ad effettuare il download né per chi, successivamente, dovrà farsi carico della conservazione.
Per concludere credo che questa veloce analisi sia sufficiente a dimostrare come la conservazione dei libri digitali sia operazione tutt’altro che scontata; difatti, al di là delle difficoltà tecniche, se si vuole che gli ebook aderenti al formato epub 3 siano trasmessi nella loro interezza alle generazioni che verranno è necessario impostare, sin dal momento della loro creazione, una apposita strategia che preveda l’archiviazione di quei link e di quelle risorse digitali alle quali essi fanno riferimento. Obiettivo raggiungibile a patto che si creino le necessarie sinergie tra autori (in caso di self publishing), editori, bibliotecari ma probabilmente anche archivisti.

Fog computing, l’archivio dell’Internet delle Cose

THETA Notes di petahopkins

Photo credits: THETA Notes di petahopkins, su Flickr

In questo blog mi sono occupato più volte di cloud computing: troppe infatti le ripercussioni sulle modalità di creazione, sedimentazione e conservazione degli archivi digitali (tanto di persona quanto di organizzazioni pubbliche e private) per non parlarne!
Proprio per questo motivo è il caso di presentare, a chi non ne avesse già sentito parlare, quella che potrebbe essere la nuova buzzword del mercato IT per i prossimi anni.
Mi sto riferendo al concetto di fog computing il quale, si badi, non ha al momento avuto implementazioni pratiche né alcuna definizione standard da parte di organizzazioni internazionali quali ad esempio il NISO.
Il fog computing infatti è un paradigma sviluppato, in analogia a quello di cloud computing, un paio d’anni fa da un gruppo di ricercatori di Cisco ma che è diventato oggetto di discussione da parte di un pubblico più amplio rispetto a quello degli addetti ai lavori solo in tempi recenti.
Ma cosa si intende, più precisamente, con fog computing? La stessa terminologia è di aiuto a comprendere per bene: se la nuvola (cloud) si staglia in alto nel cielo, la nebbia (fog) si colloca ad un livello intermedio tra questa e la Terra, anzi… assai aderente al suolo! Detto fuor di metafora il fog computing si prefigge di creare un’infrastruttura (con le canoniche risorse di calcolo, storage e rete) capace di rispondere in misura migliore rispetto alla Nuvola a quelle che saranno le probabili esigenze del prossimo futuro, futuro che sarà caratterizzato dall’exploit del cosiddetto Internet delle cose (in inglese Internet of Things o, più brevemente, IoT), ovvero dalla massiccia ed attiva presenza in Rete non solo di agenti umani ma anche di oggetti (e non solo quella serie di dispositivi indossabili tipici del wearable computing ma anche e soprattutto automobili, impianti semaforici, elettrodomestici, sensori vari sparsi per la città e lungo le vie di comunicazione con la funzione precisa di catturare dati relativi all’ambiente, alle condizioni del traffico, etc.).
Secondo gli esperti di Cisco, in altri termini, per far sì che l’IoT funzioni adeguatamente bisogna disporre di una infrastruttura ad hoc (la “nebbia”, per l’appunto) che sia complementare rispetto a quella fornita dalla cloud, ritenuta troppo centralizzata e “distante” (e di conseguenza con tempi di latenza troppo elevati rispetto a quelli richiesti allorquando in ballo ci sono i dati relativi, ad esempio, al traffico stradale ed il semaforo deve calcolare in frazioni di secondo, in base al numero di autovetture, bici e pedoni in procinto di attraversamento, come regolarlo nel modo più efficiente); le caratteristiche del fog computing sono dunque la bassa latenza, l’elevata distribuzione geografica, la connettività mobile (tramite punti di accesso Wi-Fi o reti LTE, ma in ogni caso con netta predominanza del wireless), la forte presenza di applicazioni in streaming o, ancora più probabile, in real time (come ben esemplificato dal caso del semaforo presentato poc’anzi).
Dal punto di vista fisico tutto ciò si traduce, come sempre, nella creazione di data center; come ricordato all’inizio la realizzazione di questi ultimi non è ancora stata avviata ma, considerando il requisito dell’elevata distribuzione geografica, verosimilmente essi saranno di dimensioni più contenute e più “agili”; in particolare le risorse di storage non saranno pensate per l’archiviazione di medio lungo periodo bensì per quella di breve e contraddistinte pertanto da alte prestazioni ed alti costi (non so quali soluzioni abbiano in mente quelli di Cisco, diciamo che trovo improbabile l’utilizzo di tape library!); i dati che necessitano di un più approfondito esame o semplicemente di una conservazione più lunga verranno invece avviati alla cloud dove, stipati assieme ai dati provenienti dalle altre fog geograficamente distribuite sulla superficie terrestre, andranno a creare la moltitudine di big data destinati ad un’analisi altrettanto “big” (big analytics).
Ciò che credo vada qui sottolineato è in primo luogo che il fog computing risponde all’esigenza, avvertita da più parti, di maggior “concretezza” e solidità rispetto al cloud computing (indicativo di questa tendenza, anche nel nome, il servizio Metal as a Service); in secondo luogo va rimarcato come i dati trattati dal nuovo modello proposto da Cisco, pur essendo provenienti dall’IoT, non sono per questo meno importanti e, soprattutto, sensibili rispetto a quelli che finiscono nella cloud per la conservazione di lungo periodo: infatti accanto ai dati relativi all’umidità relativa ed alla percentuale di polveri sottili nell’aria potrebbero pure figurare, man mano che l’e-health prenderà piede, quelli relativi al nostro livello di glucosio nel sangue trasmessi al nostro medico oppure quelli, più banali ma non meno invasivi, inviati dall’auto durante i nostri viaggi (georeferenziazione). La definizione di Internet delle cose è infatti per certi versi ingannevole; quest’ultima infatti non è solo smart city o smart grid o altri termini tanto accattivanti quanto vaghi; al contrario essa è, andando oltre agli slogan, composta di moltitudini di dati che riguardano le persone: finiscano essi nella nebbia o nella nuvola, vanno adeguatamente trattati.
Insomma, altro lavoro in vista non solo per i responsabili IT, per i sistemisti ed i data analyst ma anche per gli archivisti.

Per ulteriori materiali di approfondimento consiglio la lettura dello Storify appositamente realizzato.

Datagate, un vulnus all’archivistica digitale?

University of Maryland and Sourcefire Announce New Cybersecurity Partnership

Photo credits: University of Maryland and Sourcefire Announce New Cybersecurity Partnership di University of Maryland Press Releases, su Flickr

Pochi giorni orsono Mark Zuckerberg, con una buona dose di faccia tosta considerando l’incetta di dati personali che fa la sua azienda, ha criticato durante un’intervista televisiva l’amministrazione Obama per il modo poco trasparente con il quale sta gestendo il cosiddetto scandalo “Datagate”, annunciando di volersi unire a Google e Microsoft nella causa intentata contro il governo al fine di ottenere, per l’appunto, la necessaria trasparenza.
I colossi del web infatti, oltre al danno d’immagine derivante dall’essere percepiti come compartecipi del Governo statunitense, temono infatti che i propri utenti, se non adeguatamente tranquillizzati circa modalità e tipologia dei controlli svolti, abbandonino le proprie piattaforme provocando un evidente danno economico.
Il tema della fiducia e quello correlato della sicurezza informatica diviene, evidentemente, centrale e non è forse un caso che il punto di forza del nuovo iPhone 5 della Apple sia il riconoscimento biometrico (in pratica per sbloccare lo schermo od attivare alcuni specifici servizi, quali i pagamenti contact less via NFC, non bisogna più inserire un PIN o simili vetustà ma basta appoggiare il proprio pollice allo schermo per venire riconosciuti ed autenticati).
Purtroppo queste rassicurazioni mi sembrano insufficienti: in successive indiscrezioni trapelate alla stampa Edward Snowden (che, considerando il livello dello scontro diplomatico raggiunto con Mosca e gli estremi tentativi fatti da Washington per ottenerne l’estradizione, mi sembra un testimone complessivamente attendibile) ha aggiunto che l’NSA statunitense e la corrispettiva GHCQ britannica dispongono di strumenti in grado di aggirare e superare le misure comunemente adottate per proteggere le comunicazioni e le transazioni condotte lungo le reti telematiche, quali ad esempio i protocolli https ed SSL.
In sostanza viene messa in seria discussione la validità e l’efficacia complessiva di quella cornice di sicurezza che con difficoltà si era cercato di costruire attorno alle nostre “esistenze digitali”. Le ripercussioni sono evidentemente molteplici ed investono su più piani anche l’archivistica: ad un livello strettamente tecnico possiamo ricordare le ricadute per tutto ciò che concerne, per l’appunto la sicurezza. Per anni, dando credito agli informatici, si è pensato che i vari protocolli di sicurezza, gli hash crittografici, etc. assicurassero un ragionevole livello di protezione alle nostre comunicazioni via PEC ed in generale a tutte quelle, spesso riservate o comunque riguardante materiali “sensibili”, condotte attraverso le reti telematiche (vedi quelle, sempre più diffuse, tra data center locale e sito secondario di ripristino).
Così probabilmente non è e non si deve escludere la possibilità che, approfittando del vulnus inferto alla credibilità delle sue basi tecnologiche, non riprenda vigore quella corrente, interna agli archivisti, che ha sempre guardato con sospetto, ed in taluni casi con dichiarata ostilità, alla nascita dell’archivistica digitale. Dovesse ciò succedere le ripercussioni sarebbero gravi giacché, volenti o nolenti, il mondo andrà comunque verso il digitale e di archivisti capaci di affrontare le problematiche derivanti da questo passaggio ce ne sarà sempre più bisogno.
Ma probabilmente il danno maggiore è quello della possibile perdita di fiducia da parte dei cittadini / utenti: negli ultimi dieci – quindici anni si è dibattuto in lungo ed in largo sulla necessità di realizzare trusted repository pubblici giustificandone l’esistenza sulla superiorità, se non proprio tecnologica, almeno “morale” rispetto ai comuni data center. Solo la presenza di “custodi responsabili” (dove per “custode responsabile” la figura di riferimento è, anche se non in maniera esclusiva, quella dell’archivista dipendente di una pubblica amministrazione), si sosteneva, capaci di garantire l’ininterrotta custodia di documenti digitali oltre che la correttezza delle eventuali operazioni di trasferimento, migrazione, etc. effettuate, poteva provare l’autenticità dei documenti conservati.
Tale supposta superiorità “morale” viene irrimediabilmente meno nel momento in cui si constata che sono i Governi stessi a condurre, secondo procedure ai limiti della legalità e comunque assai discutibili, attività di spionaggio se non di vero hackeraggio ai danni dei propri ed altrui cittadini, di giornali, organizzazioni ed aziende. Il timore è dunque, come sopra accennato, che pure gli archivisti, risucchiati in un calderone in cui non si riconoscono più colpe e responsabilità individuali, perdano l’indispensabile fiducia dei cittadini. Dovesse succedere, sarebbe indubbiamente un duro colpo.

Archivisti e bibliotecari, chi è più “social”?

Social Media Landscape

Social Media Landscape di fredcavazza, su Flickr

Confesso che il sospetto l’avevo sempre avuto però la recente pubblicazione su “Il Mondo degli Archivi” di una prima, provvisoria directory dei blog italiani ad argomento archivistico non lascia dubbi interpretativi.
Nonostante il curatore, Emanuele Atzori, si sia prodigato nel raccogliere il maggior numero di blog, lanciando un appello attraverso i vari canali a disposizione (il sito ufficiale de”Il mondo degli Archivi”, la lista di discussione “Archivi 23”, etc.) per indurre gli stessi archivisti – blogger così come i loro eventuali lettori a fare le loro segnalazioni, l’elenco è composto da appena dieci (10!) blog, incluso quello, peraltro assai trasversale, che state leggendo.
Sembra dunque trovare conferma la mia sensazione che gli archivisti, mediamente, sono meno propensi all’utilizzo dei social network / social media rispetto ad esempio ai “cugini” bibliotecari. Il confronto con questi ultimi, sempre prendendo in considerazione i soli blog, è impietoso: una scorsa al repertorio curato da Juliana Mazzocchi su Burioni, per quanto non aggiornatissimo, è eloquente! E’ pur vero che i blog qui elencati appartengono alle biblioteche in quanto istituzioni ma è altrettanto vero che, dietro a ciascuno di essi, verosimilmente c’è un bibliotecario. Inoltre basta una breve ricerca per constatare come a scarseggiare, per non dire inesistenti, sono pure i blog afferenti a specifiche istituzioni archivistiche.
Allargando poi il campo di analisi agli altri strumenti di socialità tipici del web 2.0 l’impressione è che, nonostante qualche timido tentativo (vedi il bel canale YouTube della Direzione Generale per gli Archivi, la quale è presente anche su Facebook), gli archivi rimangano molto indietro.
Ovviamente sarebbe necessario possedere maggiori dati, frutto di uno studio necessariamente ben più approfondito e sistematico di quello qui velocemente condotto, prima di poter tentare di dare una spiegazione del perché di questa disparità, che comunque è evidente ed innegabile; ciò nonostante credo che alcune congetture possano essere formulate sin da ora.
Scartando oscuri motivi “genetici” che possano spiegare perché i bibliotecari sono “social” e gli archivisti no, credo che una causa vada rintracciata innanzitutto nel modo in cui queste due categorie hanno guardato all’informatica sin dai loro albori. I bibliotecari mediamente le hanno abbracciate con entusiasmo mentre gli archivisti, al contrario, salvo rare eccezioni con malcelato sospetto giacché alcune metodologie rimandavano al vituperato documentarismo.
Le conseguenze non hanno tardato a manifestarsi: i bibliotecari hanno messo in campo, con SBN (pur con tutte le sue imperfezioni) e soprattutto con le numerose reti bibliotecarie, sistemi che facevano e fanno della collaborazione e condivisione (delle prassi, delle esperienze, etc.) un punto di forza. In questo campo gli archivi e gli archivisti accusano un ritardo decennale che, nonostante gli sforzi (vedi SAN e SIAN), deve ancora essere colmato.
Oltre a questo dato strutturale, va detto che un ulteriore fattore penalizza gli archivisti: difatti la natura dell’ “oggetto libro” (e tanto più ora dell’ebook), diversamente da quella del documento, è per sua natura sociale. Di un libro si discute, se ne raccomanda agli amici la lettura, lo si può leggere durante reading pubblici, etc. Nulla di tutto ciò si fa con un documento, che al massimo viene citato in una nota oppure esposto ed ammirato dietro una teca.
Le conseguenze non sono da sottovalutare: la mancata frequentazione da parte degli archivisti dei principali social media, oltre a rappresentare un ostacolo alla creazione di uno strumento che, come auspicato da Aztori, “può aiutare a creare un’utile rete tra operatori, nonché un proficuo scambio di esperienze teoriche e pratiche inerenti il mondo degli archivi”, rischia di avere un impatto negativo sulla percezione complessiva che si ha degli archivi e degli archivisti da parte dei non addetti ai lavori e soprattutto dei decisori politici i quali, a causa di una mancata comprensione dell’importanza e delle criticità che in questo specifico frangente storico stanno attraversando il settore, potrebbero finire per non supportarlo adeguatamente in termini di allocazione di risorse.
Inoltre, a prescindere dalle considerazioni economiche (non è che il mondo delle biblioteche, in quanto a finanziamenti, se la passi meglio nonostante la sua buona presenza in Rete), non bazzicare per i social media significa rimanere tagliati fuori dal flusso di notizie ed informazioni che, per la loro natura talvolta poco ortodossa, difficilmente circolano in ambienti più “accademici”. Illuminante è l’esempio del famoso blog statunitense The Signal, il quale, promosso dalla Library of Congress, si occupa di digital preservation con un approccio interdisciplinare al punto da essere di riferimento tanto per i bibliotecari quanto per gli archivisti. In altri termini The Signal dimostra come i social media potrebbero fungere, in considerazione anche della loro informalità, da fecondo luogo d’incontro in cui queste due categorie possono portare avanti il dialogo da anni intrapreso.
Un ulteriore motivo, in aggiunta a quelli precedentemente ricordati, per non snobbarli.

Perché Kindle MatchBook rischia di svalutare l’ebook (ma di fare la fortuna di Amazon)

Amazon Kindle

Amazon Kindle (credit: Amazon Press)

Praticamente in contemporanea con il lancio della nuova generazione di lettori digitali Kindle, Amazon ha anche annunciato un nuovo programma, denominato Kindle MatchBook, che consente a tutti coloro che hanno acquistato negli anni passati (si parte dal 1995 e si arriva ai giorni nostri) l’edizione fisica di un libro di comperare ora a prezzi a dir poco competitivi (si parte infatti da 2,99 dollari… a 0!) l’edizione digitale, qualora esistente, del medesimo titolo.
Se si considera che il bundling analogico / digitale funziona anche per i libri di nuova uscita si intuisce come la mossa potrebbe dare una ulteriore scossa al settore del libro digitale.
In effetti il timing scelto da Amazon è praticamente perfetto: con questa mossa l’azienda di Seattle mira ad allargare in modo massiccio la platea di lettori digitali puntando, evidentemente, su tutti coloro che negli anni hanno fatto acquisti (di libri fisici) sulla sua libreria online ma che per i più disparati motivi si sono dimostrati restii ad abbracciare gli ebook.
Naturalmente i vertici di Amazon non sono ammattiti perché è evidente che per leggere l’edizione digitale molti avranno bisogno dell’apposito device di lettura: in altri termini Kindle Matchbook potrebbe fungere da straordinario volano alla vendita degli ebook reader, dei quali non a caso si presenta la sesta generazione, e tutto ciò proprio in un momento in cui i tassi di crescita dell’editoria digitale nel mercato americano tendono a rallentare / stabilizzarsi attorno alla quota del 25 – 30% del totale. Insomma, mentre la concorrenza mostra segni di affanno e cerca di riorganizzarsi, la società fondata da Jeff Bezos rilancia.
Se da un lato dunque Kindle MatchBook potrebbe rappresentare il colpo di grazia per le case editrici rivali dal momento che, fidelizzando / legando Amazon a sé in modo pressoché definitivo anche quei lettori più tradizionalisti che ancora non avevano abbracciato l’ebook, le priva di quel bacino indispensabile per portare avanti qualsiasi idea di business nel digitale, dall’altro lato con questa spregiudicata operazione rischia di far passare presso i lettori la fallace idea che l’ebook non costi niente o, peggio ancora, che esso non costituisca altro che il “sottoprodotto” del più complesso processo di produzione del libro (analogico).
Idea già in parte diffusa ma, per l’appunto, errata: nel mondo digitale scompaiono (o tendono a zero) sì alcune voci di costo, come quelle di distribuzione e riproduzione, ma ne permangono altre di rilevanti. In particolare è opportuno ricordare che l’ebook che noi leggiamo sui nostri device non è (o meglio, non dovrebbe essere…) lo stesso file creato per l’edizione a stampa bensì un file (auspicabilmente in formato ePub) altamente rielaborato per rispondere a requisiti che qui possiamo genericamente definire di “buona usabilità” ed offrire una gradevole esperienza di lettura.
Operazione, quest’ultima, che è lungi dall’essere a costo zero ma che Amazon, con le sue politiche aggressive, rischia di far passare in secondo piano e, per certi versi, banalizzare.

Barnes & Noble, un declino inarrestabile?

Barnes & Noble

Barnes & Noble di Christine K, su Flickr

Due notizie, del medesimo tenore negativo, accomunano due colossi (peraltro tra di loro legati da una strana quanto per ora infruttuosa alleanza) alle prese con un difficile riposizionamento nei rispettivi mercati: sto parlando di Barnes & Noble, che ha comunicato ai mercati conti, relativi all’ultimo trimestre, peggiori rispetto alle già non rosee attese e di Microsoft, la quale da parte sua si appresta a cambiare capo; Steve Ballmer è infatti pronto a cedere il timone non appena sarà trovato un adeguato sostituto.
E’ interessante osservare come entrambe le aziende tentino, attraverso i rispettivi uffici stampa, di stemperare la criticità del momento: B&N chiarisce (in verità non del tutto) che, a parziale rettifica di quanto a suo tempo annunciato, non verrà meno il suo impegno nella produzione di hardware (ovvero tablet ed ereader della famiglia Nook) mentre Microsoft precisa che spetterà al nuovo CEO proseguire il difficile percorso intrapreso che sta, di fatto, portando ad uno stravolgimento del business.
Purtroppo bisogna prendere atto che in questi ultimi anni di affannosa rincorsa le due aziende in questione hanno commesso grossolani errori strategici, ad iniziare dalla mancata ricerca di sinergie proprio in fatto di tavolette: è infatti un autentico controsenso che ciascuna produca un suo tablet (se consideriamo che anche Nokia, altra alleata di Microsoft, a breve dovrebbe entrare in questo segmento di mercato non è fuori luogo parlare di autentica dissipazione del capitale societario!) per accaparrarsi quote insignificanti di mercato!
Evidentemente B&N doveva concentrarsi sui soli ereader e Microsoft, dal canto suo, astenersi dal realizzare il suo Surface, affidandosi eventualmente a Nokia come OEM e mettendo a disposizione anche di Barnes & Noble il frutto di questa collaborazione.
Purtroppo si è deciso di rincorrere in ordine sparso la concorrenza (Amazon, Google, Apple) avventurandosi peraltro in terreni dove, per differenti ma precisi motivi, era praticamente impossibile tenere il passo. Apple, sfruttando l’appeal del suo brand, è infatti finora riuscita (stiamo a vedere se rimarrà così anche i futuro, ma prodotti come l’iPad Mini suggeriscono che qualcosa stia cambiando…) a farsi pagare profumatamente i propri gingilli tecnologici, assicurandosi ampi margini di guadagno. A questi ultimi hanno saputo e potuto rinunciare sia Amazon, che non avendo punti vendita fisici ha di conseguenza meno costi (e per contro ha costanti entrate garantite dall’affitto delle sue infrastrutture cloud), sia Google, la quale può contare sui cospicui introiti pubblicitari derivanti dalle ricerche effettuate attraverso il suo motore di ricerca. Insomma, queste ultime due aziende possono permettersi, nello specifico settore editoriale / dei contenuti (nel quale i tablet rappresenta una sorta di cavallo di Troia), margini risicati, cosa che per contro non può assolutamente fare B&N, appesantita dall’enorme catena di punti vendita, né tantomeno Microsoft, spiazzata dal declino del tradizionale modello di vendita dei propri sistemi operativi e software, i quali perdono progressivamente terreno nel nuovo mondo della navigazione / produttività in mobilità (che avviene su SO iOS ed Android).
Anzi, il gap è probabilmente destinato ad ampliarsi: difatti mentre B&N e Microsoft inseguono (ma anche Nokia e Blackberry, quest’ultima secondo rumor di nuovo a serio rischio di acquisizione, si trovano nella medesima situazione!) la concorrenza continua ad allungare il passo. Amazon, per garantire l’accesso e di conseguenza la possibilità di acquisto dei suoi contenuti (oltre che per ampliare la platea dei clienti), ha allo studio una rete wireless via satellite e medesimi obiettivi li stanno perseguendo Google, nello specifico attraverso avveniristici palloni aerostatici, e Facebook.
Il problema di fondo risiede dunque, al netto di eventuali luccicanti flagship store (utili soprattutto per rafforzare il marchio e fidelizzare i clienti), nella zavorra rappresentata da una originaria strutturazione aziendale di tipo brick & mortar; liberarsi di questa zavorra è operazione difficile e dolorosa ma nondimeno necessaria in quanto, aspetto di non secondaria importanza, impatta probabilmente in modo negativo nella cultura aziendale complessiva.
Insomma, il compito di Barnes & Noble, ed in generale della pattuglia delle inseguitrici, si presenta più difficile che mai ed impone un mutamento strutturale e non solo di facciata.

Wearable computing, privacy e futuro dell’archivistica

Sony Smartwatch 2

Sony Smartwatch 2 (fonte: Sony Picasa official account)

La notizia della prossima presentazione (4 settembre?) da parte di Samsung del suo smartwatch Galaxy Gear riporta al centro dell’attenzione tutte quelle tecnologie indossabili, comunemente definite wearable technologies, che hanno riempito le pagine di blog e riviste specializzate negli ultimi mesi.
Naturalmente la chiave di lettura che viene data in questo post differisce sostanzialmente da quella, che va per la maggiore, che tende a sottolineare soprattutto lo smacco patito dalla Apple, battuta sul tempo dalla sua diretta rivale nonostante l’accelerazione impressa al programma per il suo iWatch (dimenticando peraltro che Samsung era stata preceduta poche settimane fa da Sony e che quest’ultima era a sua volta stata anticipata da Pebble, progetto a sua volta chiacchieratissimo per l’essere stato finanziato in crowdfunding, etc.).
Piuttosto preferisco soffermarmi sull’ennesima conferma della tendenza, che evidentemente va proiettata sul lungo periodo, ad una diffusione sempre più capillare di dispositivi tecnologici (giusto per fare un esempio oltre ai “superorologi” sono in commercio da qualche mese i Google Glasses, occhiali che fanno dell’augmented reality il loro punto di forza) i quali, a differenza di quelli che li hanno preceduti, si caratterizzano per il diventare estremamente simbiotici con il suo utilizzatore / possessore e, di conseguenza, per l’avere a che fare con dati sempre più sensibili anzi, per usare la terminologia giuridica italiana in voga fino a qualche anno fa, supersensibili!
Difatti, se la panoplia di dispositivi sin qui utilizzati poteva al massimo (si fa per dire, e comunque escludendo qui eventuali intromissioni / furti da parte di malintenzionati) rivelare i nostri amici e colleghi di lavoro, alcune nostre preferenze, eventualmente la nostra posizione (funzione di geotagging) con la nuova generazione di device assumono dati vitali nel senso letterale del termine. Giusto per rendere l’idea un notevole input allo sviluppo degli smartwatch è derivata dall’esigenza, oltre che di restare sempre connessi e tenere sotto controllo la propria rete di contatti, di tracciare le proprie prestazioni fisiche (mentre si fa jogging, in palestra, etc.) attraverso le numerosissime applicazioni ad hoc disponibili: kilometri fatti, calorie consumate, battito cardiaco, etc. Pure gli “occhiali intelligenti” nascondono insidie alla privacy: di recente è stata trasmessa in diretta “live” attraverso i Google Glass un’intera operazione chirurgica. Al di là degli accorgimenti presi per tutelare l’identità del paziente, è superfluo sottolineare come il rischio di oltrepassare il limite sia tutt’altro che remoto: banalmente, finché indossiamo i Google Glass e camminiamo per la strada potremmo filmare tutti i passanti, mettendoli in rete a loro insaputa, magari cogliendoli in situazioni imbarazzanti…
I timori evidentemente sono acuiti dal fatto che, al di là dei distinguo terminologici (si parla ad esempio di wearable computing) l’infrastruttura tecnologica che immagazzina, rielabora e rende costantemente disponibili i dati raccolti da questi sensori / terminali che andremo ad indossare è la medesima del cloud computing, sulla quale ho già espresso diffusamente le mie perplessità.
Per finire (e qui mi concedo una divagazione agostana che alcuni potrebbero ritenere essere cauata dal solleone!) bisogna pure sottolineare che, come tutte le cose di questo mondo, il wearable computing non rappresenta il Male assoluto; va al contrario riconosciuto che esso sollecita l’archivista di aperte vedute in più di una maniera.
A ben guardare infatti le wearable technologies si pongono in un punto di intersezione tra diversi filoni di ricerca: quelle che mirano a produrre strumenti atti a catturare e a digitalizzare un’intera esistenza da una parte (a riguardo, come non fare un paragone tra i nuovi gadget che a breve invaderanno il mercato di massa e le stravaganti apparecchiature che Gordon Bell ha indossato per anni nel suo serissimo progetto di ricerca MyLifeBits?) e dall’altra quelle che al contrario tendono a realizzare apparecchi capaci di integrarsi fisicamente al corpo umano, supplendo a sue carenze o addirittura sostituendolo del tutto (vedi l’occhio bionico, già sperimentato negli Stati Uniti; in tal caso come non pensare alle spesso inverosimili teorie transumaniste e superomiste di un Ray Kurzweil oppure a quelle, decisamente più accademiche, di un Luciano Floridi con la sua e-mmortality?).
In altri termini in un futuro nemmeno troppo lontano (dando per buona la Legge dei ritorni accelerati proposta dal citato Ray Kurzweil e che rappresenta, a ben guardare, un’estensione di quella, ben più famosa, di Moore) le capacità di memorizzazione dell’essere umano potrebbero crescere a dismisura, facendo venire meno l’ancestrale esigenza del genere umana di registrare le informazioni / i dati ritenuti più importanti su supporti diversi dal proprio cervello (purché idonei ad un successivo recupero!), esigenza che come risaputo è stata alla base dell’archivistica. Frontiere impensabili si aprono: resta da vedere se ciò rappresenterà, come suggerito da qualcuno, la fine della nostra disciplina o piuttosto un nuovo inizio.

Ebook reader: quando a contare è l’ambiente di lavoro non distrattivo

Ritengo interessante riproporre anche in questo blog il video qui sopra non tanto per l’indubbia utilità che esso può ricoprire qualora ci si dovesse malauguratamente trovare tra le mani un tablet con il display frantumato ma soprattutto perché, al di là delle evidenti differenze che tuttora permangono tra schermi e-ink e retroilluminati, il protagonista del video, Donald Bell, man mano che procede al settaggio che trasformerà la sfortunata tavoletta in un ebook reader dedicato elimina (consciamente?) proprio tutti quelle caratteristiche (schermo touch, notifiche dai vari social network, etc.) che possono rappresentare per il lettore altrettanti elementi di disturbo.
In sostanza Bell ci mette di fronte al dato di fatto che la differenza tra tablet ed ebook reader non è una questione squisitamente tecnologica ma anzi, e forse soprattutto, concettuale: il primo, essendo progettato per fare molte cose, tende ad essere “caotico” ed in un certo senso induce il suo possessore a passare da un’applicazione all’altra (task-switching) senza consentirgli di concentrarsi adeguatamente su nessuna di esse; il secondo al contrario offre un ambiente di lavoro meno distrattivo e che meglio si adatta all’attività che con esso si dovrebbe principalmente fare, ovvero leggere.
C’è dunque da chiedersi se la probabile convergenza cui andranno incontro queste due classi di dispositivi rappresenti un effettivo vantaggio per gli amanti della lettura o se, al contrario, questo processo non comporti più svantaggi che vantaggi.
A mio avviso un fattore cruciale sarà il prezzo: viene naturale pensare che, dovessero le differenze di prezzo rimanere le attuali (ovvero estremamente risicate in rapporto a ciò che tavolette e lettori di libri digitali possono dare), il consumatore medio accorderà il proprio favore a quei device “generalisti” che consentono di soddisfare un maggior numero di esigenze.
Al contrario, qualora i prezzi degli ebook reader dovessero scendere divenendo competitivi allora probabilmente molte persone valuterebbero la possibilità di possedere un dispositivo dedicato per la lettura. Con tutti i benefici che ciò comporta.