Pirateria informatica, ebook e gli archivi di persona del (prossimo) futuro

Copy the pirates

Copy the pirates di Will Lion, su Flickr

L’AIE (Associazione Itaiana Editori) ha ieri diffuso interessanti dati, frutto di ricerche condotte dal proprio Ufficio Antipirateria, relativi alla diffusione di versioni piratate degli ebook: le cifre non lasciano spazio a dubbi interpretativi, dal momento che a fronte di circa 19mila titoli di libri digitali presenti a catalogo (pari al 36% di quelli complessivamente pubblicati nel corso del 2011) in ben 15mila casi è possibile reperire la corrispettiva versione pirata.
Nulla da eccepire nemmeno sull’individuazione di quelli che sono gli attuali canali attraverso cui avviene lo scambio (o meglio, la condivisione) dei file piratati: non più e non tanto sistemi peer to peer ma piuttosto cyberlocker su modello del celeberrimo Megaupload.
Fin qui tutto bene, dunque; non sono d’accordo però su molti altri punti della posizione AIE: in primo luogo, nel report, si fa intendere che la pirateria potrebbe affossare il settore dell’editoria digitale ancor prima che questa si sviluppi appieno. Sarebbe veramente il caso che i responsabili dell’AIE entrassero in qualche sito dedicato all’ebook e si leggessero un po’ di commenti di quelli che potrebbero essere potenziali lettori / clienti ma che rebus sic stantibus difficilmente lo diventeranno; la maggior parte di essi si dice interessata all’ebook ma non abbandonerà la carta finché a) i prezzi non caleranno (complice anche l’IVA al 21% – colpa da non attribuire agli editori – non vi è una sensibile differenza nei prezzi delle corrispettive versioni analogiche e digitali) b) non verranno eliminate le eccessive rigidità, con i vari lucchetti digitali visti come altrettanti elementi che contribuiscono ad “ingessare” il sistema (in particolare l’impossibilità o le complicazioni che si devono affrontare per prestare un libro sono percepite come limitanti se non vessatorie).
Peraltro pare di leggere tra le righe che la crisi dell’editoria sia imputabile anche alla pirateria, cosa che solo in minima parte può essere dal momento che l’editoria digitale pesa solo per lo 0,3% del canale trade (dati del medesimo studio): le ragioni della crisi vanno dunque cercate altrove.
In secondo luogo trovo che la soluzione proposta per arginare il fenomeno pirateria sia destinata a risolversi in un grande buco nell’acqua: va dato atto che l’AIE è relativamemente moderata (non si chiede censura preventiva, come vorrebbero alcuni soggetti “più realisti del re”), dal momento che mira semplicemente ad ottenere la pronta rimozione da parte dei vari provider di quei materiali lesivi di diritti indebitamente pubblicati / resi pubblici. Purtroppo una tale impostazione parte dall’assunto che gli utenti carichino le proprie risorse digitali (testi, audio, video) su infrastrutture di terzi e che questi terzi, su input dei titolari dei diritti, provvederanno a cancellare quei materiali indicati come piratati. Si tratta di una pia speranza e non solo perché i materiali cancellati da una parte ricompariranno il giorno dopo dall’altra (la riproduzione teoricamente infinita delle risorse digitali è cosa nota) ma soprattutto perché a breve i singoli individui potranno bypassare i circuiti di hosting sulla nuvola gestiti da società terze ed agire in prima persona. Infatti con qualche centinaio di euro è possibile acquistare presso qualsiasi negozio d’informatica soluzioni tecnologiche che: offrono un paio di TB di spazio di storage, effettuano il backup automatico dei dati, consentono di creare una personal cloud alla quale si può accedere (ma anche far accedere!) da qualsiasi parte del mondo. Tali soluzioni, si badi, non nascono con lo scopo di favorire la pirateria informatica ma dalla concreta esigenza delle persone di aver a disposizione i propri dati e documenti ovunque esse si trovino (altrimenti è inutile dotarsi di dispositivi mobili dotati di connettività!). Esse inoltre rispondono ad esigenze di semplificazione: in queste personal cloud trovano posto tanto i film che verranno “richiamati” e riprodotti dalla Smart-TV mentre si sta in poltrona così come dal tablet mentre si è in viaggio, tanto gli ebook che verranno letti dall’ereader quanto le tracce MP3 per l’iPod o lo smartphone, senza dimenticare i giochi per la Playstation, le foto di famiglia, i vari software e documenti di lavoro per il PC!
(La questione assume un’interessante rilevanza archivistica giacché saranno questi i luoghi fisici nei quali si “condenseranno” gli archivi di persona e/o di famiglia, seppur con il rischio intrinseco che essi vengano dispersi, vadano incontro ad obsolescenza, siano completamente privi di affidabilità ed autenticità, etc.; mi fermo qui, ma l’argomento sarà sicuramente oggetto di un mio prossimo post).
Chiusa parentesi, torniamo al discorso pirateria: se gli ebook (ma il discorso vale per qualsiasi risorsa digitale soggetta a copyright) iniziano ad essere condivisi attraverso milioni (se non miliardi) di nuvole personali, come pensano di opporsi gli editori? Controllando uno ad uno gli utenti? Impedendo loro di crearsi una nuvola (sacrosanto diritto)? Mettendo lucchetti ancor più rigidi?
Ritengo che prima gli editori ammettono che l’evoluzione tecnologica sarà sempre un passo avanti a loro e meglio è; anzi li invito ad optare per il male minore, vale a dire aprirsi alle (non) regole del web e soprattutto rinunciare all’idea di replicare modelli di business che mal si addicono alla Rete.
Forse, a voler essere provocatori, la cosa migliore è far proprio il motto di Matt Mason (vedi immagine all’inizio) che nel suo Punk Capitalismo (per chi è interessato è edito in Italia da Feltrinelli su carta; è un paradosso, lo so!) suggerisce ai rappresentanti della old economy che il miglior modo per fronteggiare la pirateria, traendone magari un vantaggio, sia copiarla.

PS Per chi vuole approfondire rimando alla versione su Storify.

Amazon, 2011 con luci ed ombre

Amazon changes

Amazon changes di luxuryluke, su Flickr

Post leggero, questo. In breve la notizia è la seguente: Amazon ha l’altro ieri diffuso i risultati finanziari relativi al quarto trimestre 2011 mostrando dati contrastanti. In particolare ha colpito tutti gli analisti il fatto che a fronte di un fatturato in crescita del 35% a 17,43 miliardi di dollari (cifra ragguardevole, ma ci si aspettava di più) l’utile netto sia sceso del 58% a 177 milioni di dollari. In altri termini le vendite vanno a gonfie vele ma in casa alla fine della fiera non rimane granché ed il perché è facilmente spiegabile: l’azienda di Seattle ha margini di guadagno troppo bassi.
I numeri sembrano dunque confermare quanto avevo a suo tempo detto al momento del lancio del Kindle Fire circa i rischi impliciti nella politica dei prezzi aggressiva scelta da Amazon: gli spazi di manovra sono angusti ed il sentiero è impervio! Nel medesimo post peraltro paventavo il pericolo che i volumi di vendita dei nuovi dispositivi non sarebbero stati adeguati ed in questo ho invece cannato (faccio dunque pubblica ammenda): Jeff Bezos, boss di Amazon, sempre nel comunicato stampa dell’altro giorno ha ringraziato i milioni di clienti europei e statunitensi che hanno reso l’accoppiata Kindle + Kindle Fire i prodotti best seller delle Festività 2011 (senza però fornire cifre più dettagliate) in virtù di una crescita del 65% che ha portato la business unit in questione a pesare per il 35% sul giro d’affari complessivo. A questo punto, a mio vedere, è fondamentale però sapere quanti sono stati gli ereader venduti e quanti invece i tablet perché la cosa fa una bella differenza: chi compra un ereader lo fa evidentemente per leggere ebook che dovrà comprare sull’Amazon Store, generando ulteriore fatturato ed utili; al contrario chi acquista una tavoletta può farne mille usi e le varie ricerche condotte nel tempo “accreditano” alla funzione “lettura” percentuali generalmente modeste (grossomodo dal 5 al 15%). D’accordo, Amazon si sta evolvendo ed ambisce a divenire una rivenditrice di prodotti multimediali (testi, audio, video), ma la mia impressione è che molti siano stati spinti all’acquisto proprio del Fire e proprio per il suo prezzo stracciato che l’ha evidentemente reso un’alternativa allettante all’iPad 2. In altri termini il pericolo è che Amazon abbia sì fatto il botto di vendite ma che queste non siano capaci, o perlomeno sufficienti, a generare per l’azienda di Seattle quel giro d’affari indispensabile per rendere sostenibile una siffatta politica dei prezzi. Staremo a vedere.

Fenomeno cyberlocker, alcune considerazioni

ReacTable no FILE 2007

ReacTable no FILE 2007 di Rodrigo_Terra, su Flickr

Il recente caso di cronaca giudiziaria che ha riguardato la “galassia Megaupload” ha portato alla ribalta il fenomeno, forse a molti sconosciuto ma in realtà assai diffuso, del cyberlocking. Dal momento che la vicenda nel suo complesso induce ad alcune riflessioni che a mio vedere sono, per così dire, di “pertinenza archivistica”, vediamo un po’ in cosa consiste questo “cyberlocking” e perché Megaupload è stato chiuso.
In estrema sintesi si tratta di servizi (Megaupload non è che uno, e forse nemmeno il più famoso; altri sono RapidShare, HotFile, FilesTube, DepositFile) che mettono a disposizione dell’utente uno spazio di archiviazione in genere di considerevoli dimensioni al quale si può accedere, in linea con il paradigma proprio del cloud computing, a partire da qualsiasi dispositivo. Fin qui si potrebbe pensare che i cyberlocker siano del tutto assimilabili a quei siti di online storage (come Dropbox, aDrive, etc.) dei quali ho più volte parlato; in realtà essi si differenziano perché la dimensione di sharing prevale nettamente su quella di archiviazione: infatti ogni file uploadato può diventare accessibile tecnicamente a chiunque, basta rendere pubblico il relativo URL, ed i gestori hanno tutto l’interesse ad aumentare il traffico chiudendo un occhio (e pure l’altro!) qualora in presenza di quel materiale “piratato” che ovviamente risulta maggiormente appetibile. Non a caso l’FBI, tra le motivazioni addotte per giustificare la chiusura di Megaupload, l’arresto dei suoi amministratori ed il sequestro dei loro beni, ha espressamente chiarito come il “sistema” non fosse congeniato per l’archiviazione personale e/o di medio – lungo periodo al punto che i file poco “attivi” (= quelli che non venivano scaricati un sufficiente numero di volte) venivano sistematicamente cancellati. Al contrario, sempre stando all’FBI, gli amministratori del sito non erano così solerti nel cancellare quei file, guarda caso quelli maggiormente scaricati, lesivi di diritti intellettuali e di proprietà (film, ebook, software, etc.). E per quella quota minoritaria di utenti (alcuni anche premium, ovvero a pagamento) che usavano legalmente Megaupload oltre al danno di trovarsi da un giorno all’altro impossibilitati di accedere ai propri dati ora si profila anche la beffa: essendo tutti i beni di Megaupload sequestrati, la società non è in grado di pagare quelle aziende subappaltatrici fornitrici dell’indispensabile spazio di hosting, come Cogent Communications e Carpathia Hosting. Morale della favola: se entro giovedì non vedranno saldate le “bollette”, queste ultime procederanno con l’eliminazione definitiva dei dati detenuti per conto di Megaupload (in questo senso mi permetto di dire che l’operazione dell’FBI avrebbe potuto essere più selettiva, colpendo coloro che oggettivamente hanno infranto la legge e tutelando invece gli utilizzatori onesti).
Alla luce di tutto ciò la vicenda assume un valore emblematico di quel che è attualmente l’ “archiviazione” sulla nuvola: una scelta talvolta obbligata (si pensi a tutti coloro che lavorano a distanza e su moli di dati cospicue) ma ancora rischiosa, non tanto per la scarsa affidabilità tecnologica (non che l’evenienza di un crash dei server sia scongiurata, si badi) ma soprattutto per la pratica diffusa del subappalto a terzi dei “concreti” servizi di hosting, il che finisce per trasformare il sistema in un complesso “gioco” di scatole cinesi, in cui più che l’opportuna localizzazione geografica delle server farm conta la legislazione più favorevole ed il regime fiscale vigente (da quel che ho potuto ricostruire – in Rete ho letto differenti versioni – Megaupload era una società gestita da cittadini olandesi e tedeschi con sede legale in Nuova Zelanda e server ad Hong Kong).
Per concludere, una storia che mette in luce una volta di più come gli archivi di persona siano tra quelli più a rischio nell’era digitale e come si renda necessario “instillare” nei singoli cittadini / utenti una particolare sensibilità per la “sopravvivenza” dei propri dati e documenti, cosa che a mio avviso (nell’attesa che gli archivi “pubblici” – non oso dire di Stato – fiutino l’affare e si riposizionino sul settore) al momento può avvenire solamente attraverso la moltiplicazione delle copie, in locale e sulla nuvola. In quest’ultimo caso ovviamente discriminando tra provider buoni e cattivi!

Fahrenheit 451 e libertà della Rete

[18/366] Imagine a World Without Free Knowledge

18/366 Imagine a World Without Free Knowledge di Caesar Gonzalez - Destinos 360, su Flickr

In questi giorni in cui sul Web monta la protesta contro le due leggi imbavaglia-Rete / ammazza blog allo studio del Congresso statunitense (i nomi sono molto buffi, SOPA e PIPA, acronimi che stanno per Stop Online Piracy Act e Protect IP Act), ho portato a termine, con colpevole ritardo, la lettura del libro Farhenheit 451 di Ray Bradbury. Si tratta, per chi non ne conoscesse la trama, di un romanzo fantascientifico ambientato in un futuro caratterizzato dalla presenza di uno Stato di stampo autoritario e militaresco che cerca di sopire le menti dei propri cittadini grazie al controllo dei mass media e soprattutto bruciando i libri (è questo il lavoro del protagonista, Guy Montag), visti come “portatori di infelicità” in quanto capaci di far ragionare le persona con la propria testa e guardare alla realtà in maniera critica e “problematica”. Di più: anche le conversazioni ed il dialogo, che da questi libri potrebbe trarre spunto, sono da bandire! Meglio che le persone stiano in salotto ad ascoltare passivamente le chiacchiere inutili della “famiglia” (personaggi televisivi sparati attraverso maxi schermi da parete con i quali si ha una parvenza di interazione) o le insistenti cantilene della pubblicità…
Come viene quasi spontaneo fare allorquando si legge un libro di fantascienza, mi son messo a “fare la conta” di quante volte l’autore ci “ha azzeccato” e di quante invece ha sbagliato nelle sue “previsioni” (non che egli volesse fare l’astrologo, si intende!). In alcune cose, bisogna ammettere, Bradbury è stato tremendamente buon profeta (ruolo della televisione e passività con la quale ci poniamo di fronte ad essa, con pubblicità martellante, ricerca edonistica della felicità, etc. etc.) ma in altre, per fortuna, no! Ad esempio dobbiamo ancora arrivare al punto di bruciare i libri, le principali libertà (almeno in Occidente) sono garantite, la tecnologia generalmente non viene percepita come “liberticida”, anzi si ritiene che essa abbia svolto un ruolo di primo piano nell’organizzare e coordinare quei movimenti di rivolta e ribellione etichettati come “primavera araba”.
Specialmente su quest’ultimo punto vorrei soffermarmi: ricordato che il dibattito a riguardo è aperto e le opinioni talvolta diametralmente opposte, personalmente mi colloco in una posizione intermedia, nel senso che ritengo che le speranze libertarie che avevano segnato l’avvento del personal computer siano state in gran parte disilluse, essendosi trasformate quelle stesse aziende che producono questi dispositivi in multinazionali che poco si distinguono, per le logiche con le quali si muovono sul mercato e le modalità “operative” (ricerca del massimo profitto, uso di manodopera a basso costo, scarso rispetto dell’ambiente, etc.) da quelle che le hanno precedute. Nemmeno però credo che tra i loro scopi vi sia quello dell’asservimento del genere umano mettendosi al servizio di regimi dittatoriali. Semplicemente esse si adattano ai vari contesti (in altri termini, se in uno Stato = mercato c’è la democrazia bene e se non c’è… amen, tanto un compromesso lo si trova sempre), mettendosi la coscienza in pace con qualche bella iniziativa umanitaria e per il resto dicendo a loro stesse che non è loro compito diffondere la democrazia nel mondo.
Fino ad ora grosso modo è andata così; purtroppo, l’ho già accennato in un altro post, guardando all’evoluzione del panorama tecnologico, le cose stanno cambiando e qualche motivo di preoccupazione c’è: è infatti evidente, con il cloud computing, il ritorno alla costruzione di maxi data center contenenti migliaia di computer che, uniti tra di loro, formano mega-computer dalle elevatissime potenze di calcolo. A prescindere poi dal fatto che questi enormi data-center appartengano a / siano gestiti per conto delle summenzionate multinazionali (che diventano dunque depositarie dei nostri dati e delle nostre “vite digitali”) lo stesso tipo di tecnologie oggigiorno diffuse deve fare riflettere: sotto l’apparenza “ludico – sociale” dei vari social network vi è, come noto, una tecnologia che “traccia” ogni nostra azione e movimento (geo-tagging), preferenza, gusto, opinione e via discorrendo. Tutte informazioni raccolte, come noto, per meri fini pubblicitari (un marketing pressoché personalizzato è ritenuto più efficace).
Ne risulta una società che, sotto un’apparenza rassicurante, rischia di diventare quella che David Lyon definisce come “sorvegliata” e soprattutto una società in cui è alto il pericolo che l’intera sua memoria venga eliminata con un semplice comando da parte di coloro ai quali affidiamo un po’ troppo spensieratamente le nostre vite digitali e che un giorno potrebbero facilmente trasformarsi in novelli incendiari.
Credo dunque, per chiudere il ragionamento, che sia sicuramente giusto protestare affinché la Rete resti libera, ma con la consapevolezza che a monte è altrettanto importante assicurare che le infrastrutture che supportano la nostra esistenza digitale siano, per così dire, “democratiche”; perché se poi basta un click per oscurare tutto torniamo daccapo! Di qui l’importanza di realizzare molteplici repository decentralizzate e delocalizzate nonché di costruire cloud pubbliche (nel senso qui di “appartenenti alla comunità”) consapevoli del fatto che, allo stesso modo in cui trent’anni fa la potenza di calcolo fu atomizzata presso ciascun individuo, lo stesso oggi si può fare sul versante dell’archiviazione / condivisione con le “nuvole familiari” (un buon NAS con adeguate capacità lo si può comprare con poche centinaia di euro) in modo tale da poter godere dei vantaggi del cloud senza rinunciare alla privacy ed al controllo sulla propria vita digitale.

Natale col botto per tablet ed e-reader, ma il 2012 cosa ci riserva?

Kindle Fire, Full Color 7″ Multi-touch Display, Wi-Fi

Kindle Fire, Full Color 7″ Multi-touch Display, Wi-Fi di aric123, su Flickr

A quanto pare Babbo Natale ha portato sotto l’albero moltissimi tablet così come parecchi e-reader! Già, perché a leggere qua e là su vari blog specializzati sembra proprio che le vendite di questi sempre più diffusi dispositivi siano andate a gonfie vele; i dati sinora diffusi non sono ancora definitivi ma permettono ugualmente di fare alcune considerazioni nonché di azzardare delle previsioni per il futuro e soprattutto di precisare con maggior dettaglio quanto in precedenti post ho potuto solo abbozzare.
Le notizie sono sostanzialmente due: 1) nel settore dei tablet l’iPad Apple mantiene la sua leadership di mercato ma ha trovato un degno concorrente nel Kindle Fire di Amazon (l’azienda di Seattle ha comunicato di aver venduto a dicembre 1 milione di dispositivi della famiglia Kindle a settimana, con il Fire a recitare la parte del leone); 2) non solo Amazon ed Apple sorridono: le vendite di e-reader in generale sono andate bene, favorite dai prezzi molto bassi (ormai negli USA è la norma trovarne nelle grandi catene sotto la quota simbolica dei 100 dollari).
Archiviato dunque il Natale in modo soddisfacente pressoché per tutti, interessante ora vedere un po’ quali sono gli scenari futuri(bili). Sono convinto che la variabile decisiva sarà sicuramente quella relativa alle scelte tecnologiche effettuate ai diversi livelli dai vari “operatori”.

QUALE SISTEMA OPERATIVO

Sul fatto che Android sarà quello dominante ormai non vi è più alcun dubbio; il suo Market si sta arricchendo sempre più di app ed a breve non ci saranno più sensibili differenze con l’offerta dell’AppStore della Apple. Ciò nonostante non è tutto oro quel che luccica: Amazon ad esempio ha troppo “blindato” il suo Kindle Fire cercando di tenere tutto “in casa” e limitando l’accesso a molte delle applicazioni disponibili: così succede che (a meno che uno non si metta a smanettare – Android in questo è magnifico e chi è capace ed ha voglia di farlo può veramente divertirsi – rootando il dispositivo od installando manualmente i file APK) io, aficionado di Dropbox, non posso caricare i miei e-book su quest’ultima nuvola essendo vincolato a quella messa a disposizione da Amazon stessa (ma solo per quei libri, film, etc. acquistati sul sito Amazon!!!). Pur con tutte queste limitazioni la scelta di adottare il sistema operativo promosso da Google da parte dell’azienda di Jeff Bezos è già un passo in avanti, considerando come quest’ultima, giusto per restare in tema di libri elettronici, ancora si arrocchi sul formato Mobipocket! Molto più aperta su questo fronte si è dimostrata Barnes & Noble, il cui Nook Color 2 è stato l’altro best seller di questo Natale 2011, grazie anche ad un prezzo di vendita che lo rende assai appetibile, fattore che lo accomuna al rivale Kindle Fire! A riguardo onestamente mi chiedo se una politica dei prezzi così aggressiva sia sostenibile nel lungo periodo, essendo i margini di guadagno giocoforza ridotti all’osso! Ma il principale fattore di incertezza riguarda proprio il sistema operativo Android: nel momento in cui Google scenderà in prima persona nell’arena dei tablet verrà garantito l’accesso pieno al codice sorgente a quelli che da un momento all’altro si trasformeranno in competitor? Verranno imposte fee (ricordo che Google stessa “gira” somme non indifferenti alle varie Microsoft, Nokia, HP, RIM, etc. per brevetti usati in Android) tali da rendere questo SO non più conveniente? E se sì, come penseranno queste aziende di ovviare al problema? Realizzando in casa un sistema operativo ex novo oppure riesumando WebOS, recentemente scaricato da HP che lo ha reso open source, oppure ancora ritornando dalla cara vecchia Microsoft (che presto o tardi, pena il declino, dovrà entrare in grande stile nel segmento dei dispositivi mobili)?

LE MOSSE DI GOOGLE

Quali sorprese ci riserverà nel 2012 l’azienda di Mountain View? Per quanto ora ci riguarda la novità più rilevante dovrebbe essere, quale naturale frutto dell’acquisizione di Motorola, la commercializzazione di un tablet di BigG. C’è da scommettere che in esso saranno presenti tutti quei servizi sviluppati pazientemente nel corso degli anni: GMail, Google Maps / Navigator, la suite di produttività online Google Docs senza dimenticare Google Libri / Google eBookstore (nei quali è confluito il tanto discusso progetto Google Books Library Project), la vetrina di giornali Google News, la “classica” funzione di search e via discorrendo! In pratica, grazie alla possibilità di connetterci in mobilità ed alla potenza della nuvola Google, moltissimi dei servizi citati, che usiamo quotidianamente seppur in modo non integrato, verrebbero a trovarsi quasi per magia in un’unica piattaforma pensata appositamente! Idea molto affascinante ma che nel contempo lascia perplessi per i seri rischi di “effetto lock-in”. Nemmeno per Google poi son tutte rose e fiori: la decisione di scendere in prima persona nell’agone dei device mobili potrebbe avere indesiderati risvolti negativi; all’annuncio dell’acquisizione di Motorola i grandi utilizzatori di Android asiatici hanno storto il naso (la stessa reazione degli editori quando Amazon ha lanciato il suo programma rivolto agli autori) al punto che hanno iniziato a cautelarsi cercando le possibili alternative ed iniziando a diversificare la gamma dei SO usati. Insomma l’eccessivo protagonismo potrebbe aiutare la concorrenza! Ulteriore nodo da risolvere, per finire, il destino del progetto Chromium: in base a quanto fatto finora, e soprattutto agli ottimi risultati ottenuti, è naturale pensare che continui ad essere Android (giunto alla sua versione 4.0 Ice cream Sandwich) il SO operativo imbarcato sui “GTablet”, motivo per cui Chromium potrebbe venir cancellato o quanto meno fatto confluire in Android stesso.

LE MOSSE DI APPLE

Per l’azienda di Cupertino la sfida del 2012 è quella di gestire il vantaggio che già si detiene e di rintuzzare gli attacchi dei competitor. Il primo punto sarà risolto lanciando la terza versione del celeberrimo iPad, per il secondo il discorso si fa più articolato. Considerando che l’iPod ormai non tira più come una volta, molti ipotizzano che pur di non lasciare scoperta la fascia di prezzo presidiata dal famoso lettore MP3, l’azienda della Mela stia considerando di produrre anch’essa un tablet low cost che fronteggi il Kindle Fire ed il Nook Color 2. Conoscendo Apple, che raramente rinuncia alle prestazioni (così come ai margini di guadagno), ritengo che la strada che verrà seguita per mantenere entro livelli accettabili il prezzo sarà quella di limitare le dimensioni complessive del dispositivo: non mi sorprenderebbe se nel prossimo anno vedesse la luce qualcosa di affine al Samsung Galaxy Note.

LE MOSSE DEGLI ALTRI

Con il citato Galaxy Note arriviamo a parlare di quelli che sono stati i grandi sconfitti del Natale 2011 (anni fa ci saremmo tutti messi a ridere alla sola idea che i dispositivi più venduti potessero essere marchiati Amazon o Barnes & Noble!). Tutti hanno i loro bei problemi: Samsung ha già sparato la sua cartuccia (fuori bersaglio) con il Galaxy Tab ma il suddetto Note le ha aperto un’interessante nicchia di mercato che è bene sfrutti a dovere prima dell’arrivo della concorrenza e soprattutto deve capire se continuare a “fidarsi” di Google e del suo Android. Anche Nokia mi attendo che batta un colpo nel settore delle tavolette: l’alleanza con Microsoft non può partorire la sola famiglia di telefonini intelligenti Lumia e d’altro canto credo che l’azienda di Redmond spinga per avere un tablet che funga da “vetrina” per il suo Windows Phone 7.5 (Mango). Di HP onestamente non so che dire: dopo aver acquisito Palm, pensato di abbandonare la divisione PC, svenduto il proprio TouchPad, scaricato WebOS, il management non ha ancora deciso “che fare da grande”! L’unica cosa che mi sento di suggerire è che si diano una mossa perché un anno di immobilità significherebbe perdere il contatto con le aziende di punta… a meno che non stiano pensando di tornare di nuovo sul mercato (che sarebbe davvero un non-senso, avendo due anni fa sborsato fior di quattrini per Palm senza poi farsene nulla!) magari puntando a RIM, che come già scritto fa gola a parecchi!

LA SCOMMESSA SUGLI E-READER

Come ricordato all’inizio di questo lungo post, a dicembre sono andate bene anche le vendite di e-reader; per capire ciò che sta dietro a questo risultato apparentemente inatteso possono tornare utili alcuni dati diffusi da Gartner. Questa importante società di analisi sottolinea come i margini di crescita sono ancora elevati soprattutto in Europa occidentale e nella regione Asia / Pacifico in particolare per quel segmento di e-reader avanzati (dotati di connettività, schermo tattile) che possono svolgere, per utenti non esigenti e pronti a qualche rinuncia in quanto a dotazioni tecnologiche, funzioni avvicinabili a quelle dei tablet ma ad un prezzo nettamente inferiore. Gartner non nasconde l’esistenza del rischio cannibalizzazione ma sottolinea come puntando su fattori quali il prezzo e l’esistenza di una nicchia di lettori forti un futuro “autonomo” sia ancora possibile, al punto che colossi del calibro di Dell ed HP (sovvenzionati in questo dai content provider) stanno valutando di entrare in questo mercato dominato da Amazon, Barnes & Noble e Sony, affiancate da una pletora di produttori relativamente più piccoli.

CONCLUSIONI

Nel 2012 assisteremo dunque ad un boom di coloro che attraverso i propri dispositivi nuovi fiammanti scriveranno mail, lavoreranno, leggeranno libri e giornali, guarderanno film, “socializzeranno” e via dicendo. Tablet ed e-reader insomma saranno tra noi e diventeranno un oggetto con il quale avremo particolare familiarità.
Se per i consumatori sarà dunque l’anno della definitiva consacrazione (tanto più che per la prima volta ci sarà una reale possibilità di scelta tra diversi modelli in base alle specifiche esigenze), per i produttori sarà quello delle scelte strategiche: di sistema operativo, di target di consumatori, di prodotto (tablet e/o e-reader).
Da queste scelte deriveranno i dispositivi che ci troveremo tra le mani nel prossimo futuro e sulle caratteristiche dei quali mi arrischio in alcune previsioni. Chiariamo innanzi tutto che personalmente continuo a ritenere che non assisteremo a nessuna cannibalizzazione bensì ad una lenta ma inesorabile convergenza tra tavolette e lettori per libri elettronici. Se, come abbiamo visto, la connettività ed il touchscreen sono già due caratteristiche acquisite, il prossimo step sarà uno schermo a colori adatto sia alla fruizione di video che alla lettura di e-book (un buon esempio in questa direzione è il Mirasol). Caduto il gap imposto dallo schermo a colori e risolto il problema dell’autonomia delle batterie (Qualcomm sostiene essere i consumi energetici del Mirasol estremamente bassi) la completa fusione tra queste due classi di dispositivi potrà dirsi compiuta; a quel punto starà ai produttori segmentare il mercato producendo device di fascia medio – alta o per contro medio – bassa. Dal momento che una “dotazione minima” sarà sempre garantita il fattore che farà realmente la differenza credo sarà il form factor e non solo per l’impatto diretto che questo ha sui costi finali di produzione, ma anche perché a parità di caratteristiche tecniche sarà il consumatore a decidere se preferisce avere un dispositivo realmente tascabile (tipo Galaxy Note per intenderci) oppure qualcosa di più performante ma nel contempo ingombrante (diciamo un iPad). Insomma, per chiudere con uno slogan, “potere al consumatore”!

PS Come spesso faccio, ho pensato di realizzare la versione (con leggeri adattamenti) su Storify di questo post, fornita di tutti i rimandi (per chi volesse approfondire l’argomento e verificare le fonti) ai vari siti che mi sono stati di spunto e stimolo nella sua redazione

La nuova app Android per Dropbox, alcuni commenti

Dropbox en Android

Dropbox en Android di Dekuwa, su Flickr

Chiudo quest’anno con un post più “leggero” del solito ma di alto livello simbolico; parlerò infatti della nuova applicazione (la 2.0) rilasciata da Dropbox per dispositivi Android, che a mio vedere riassume in un certo senso gran parte dei discorsi fatti nel corso del 2011 sul fenomeno del cloud computing, sul numero crescente di individui ed organizzazioni che “archiviano” i propri file sulla nuvola, sul ruolo sempre maggiore svolto nelle nostre vite digitali / “sociali” dalla diffusione dei dispositivi mobili, etc.
In effetti usando la nuova release alcune feature, completamente nuove o la miglioria di già esistenti, balzano immediatamente agli occhi: 1) l’aspetto di condivisione risulta ulteriormente accresciuto (mail, social network, etc.): se Dropbox è nato per essere un “punto di accumulo neutro” di documenti e risorse che per loro natura possono essere usati su molteplici dispositivi (=> per evitare di dover tenere tali “documenti” su tutti quanti i possibili dispositivi, con evidente spreco di tempo, energie… e memoria!), il fatto che ora tali risorse possano venir fatte circolare e “proliferare” potrebbe apparire un controsenso. In realtà oggigiorno la condivisione di alcune risorse è considerata favorevolmente da molti guru essendo questa una via importante per sprigionare creatività altrimenti inespressa. Ovviamente per dati “delicati” l’esigenza principale è quella della riservatezza ed in tal caso tutto torna come prima. 2) Non c’è praticamente più alcuna distinzione tra dispositivi, nel senso che il PC non ha dal punto di vista logico dell’architettura del sistema alcuna centralità (ovviamente poi solo il PC avrà la potenza di calcolo e le capacità di elaborazione per effettuare sui documenti “archiviati” determinate operazioni ma questa, per l’appunto, è una limitazione di ordine tecnico / tecnologico…) 3) Tale perdita di centralità, alla quale fa da contraltare l’ascesa dei vari device collegati a Dropbox, è testimoniata dalla possibilità di modificare i titoli delle cartelle e dei file uploadati così come da una capacità basica di editing (brevi testi in formato .txt) 4) Oltre ovviamente a caricare su Dropbox è possibile ora anche scaricare i propri file sul dispositivo in uso (per la precisione sulla sua scheda SD).
Riassumendo questa nuova versione risulta decisamente più flessibile e versatile della precedente e pertanto credo risulterà gradita ai numerosissimi utilizzatori di Drobox, il cui successo è testimoniato anche finanziariamente dalla facilità con la quale il fondo Sequoia Capital ha raccolto fondi presso gli investitori istituzionali per garantirne l’ulteriore crescita. Pur avendo già rilevato come quelli sulla nuvola non possano essere considerati archivi nel senso pieno del termine è inutile dire che in futuro le strategie di “conservazione” dei propri documenti digitali da parte di individui ovviamente ma anche di organizzazioni passeranno sempre più per la nuvola. Vi è semmai da sperare che gli ingenti capitali raccolti vengano anche utilizzati per realizzare future versioni di Dropbox maggiormente in grado di aderire a quelli che sono gli standard archivistici.

Cloud computing in biblioteca: quali prospettive

Biblioteca José Vasconcelos / Vasconcelos Library

Biblioteca José Vasconcelos / Vasconcelos Library di * CliNKer *, su Flickr

PREMESSA

Avrete notato che non c’è quasi post nel quale io non faccia riferimento, almeno “en passant“, al modello del cloud computing. Avendo già dedicato un articolo approfondito alle possibili applicazioni negli archivi, è ora giusto, per par condicio, delinearne i possibili utilizzi pratici all’interno delle biblioteche. Per facilità espositiva credo sia utile distinguere tra quelle applicazioni che possono venir implementate, volendolo fare, da subito e quelle che invece lo saranno in un futuro che comunque è ben più vicino di quanto si pensi.

CHE COS’E’ IL CLOUD COMPUTING (IN BREVE)

Come forse sarà noto, il cloud computing è una “declinazione” tecnologica grazie alla quale è possibile accedere da remoto, in modo scalabile e personalizzabile, a risorse hardware e software offerte da uno o più provider che le virtualizzano e distribuiscono attraverso la rete Internet. Per certi aspetti si tratta dunque della normale evoluzione di un qualcosa che era già intuibile in nuce con l’avvento della Rete ed ora semplicemente condotto alle sue estreme conseguenze; per altri si tratta di qualcosa di “rivoluzionario” cambiando radicalmente per i singoli utenti, con il passaggio alla nuvola, le modalità di implementazione delle nuove tecnologie da un lato e del loro utilizzo pratico dall’altro.

MODALITA’ DI UTILIZZO GIA’ IMPLEMENTABILI

Nella definizione sopra data si spiega chiaramente come a venir coinvolte dal passaggio al cloud sono sia la dimensione hardware che quella software; tenendo pertanto presente che esiste un’intima correlazione tra queste due componenti (essendo la prima funzionale alla seconda), risulta però assai più agevole, al fine di una trattazione più lineare, affrontare distintamente i due aspetti ed è così che intendo procedere.
1) Hardware: nelle realtà più avanzate, soprattutto in quelle in cui si è proceduto nella direzione della realizzazione del modello di biblioteca digitale, si è reso indispensabile dotarsi di un’infrastruttura tecnologica complessa (server, router, cablaggi vari, etc. il tutto collocato in ambienti debitamente condizionati) il che, se da un lato ha permesso di ampliare il ventaglio dei servizi offerti, dall’altro ha finito con l’accrescere i costi dovuti non solo alle spese in strumentazioni tecnologiche ma anche all’ “appesantimento” degli organici (la presenza di personale con conoscenze informatiche si è rivelata un’esigenza imprescindibile). Questa trasformazione, oltre ad appalesare problemi di profonda insostenibilità economica (quel “profonda” sta a ricordare che nessuna biblioteca non comporta costi), rischia anche di snaturare la natura stessa dell’ “istituto biblioteca”, finendo le spese in tecnologia con l’assorbire quote sempre più consistenti del budget a disposizione e questo talvolta anche a discapito della mission istituzionale. Visto sotto tale luce il cloud computing, consentendo di “affibbiare ad altri” l’onere di realizzare e gestire queste sempre più importanti e costose infrastrutture, rappresenta una boccata d’ossigeno non da poco per le finanze sempre più striminzite della maggior parte delle biblioteche (ibride, virtuali o digitali che siano). Purtroppo questa via di delegare in toto a terzi non è percorribile così “a cuor leggero”: le problematiche in fatto di sicurezza dei dati (personali, record bibliografici, etc.) non sono di facile soluzione a meno di non ripiegare su soluzioni intermedie come potrebbero essere le hybrid o private cloud (senza scendere nei dettagli, si tratta di modelli “intermedi” nei quali si mantiene un certo grado di controllo sull’infrastruttura tecnologica senza per questo rinunciare alla maggior parte dei benefici della nuvola). Al netto di queste controindicazioni, credo che l’uso del cloud computing in modalità IaaS (Infrastructure as a Service), già diffuso in alcune realtà, sarà nel volgere di pochi anni più la regola che l’eccezione.
2) Software: basta solo pensare che praticamente qualsiasi programma attualmente installato nel nostro personal computer può / potrebbe tranquillamente venir erogato in modalità cloud per intuire come il cosiddetto SaaS (Software as a Service) sia denso di implicazioni anche per il settore biblioteconomico; in effetti già nel momento in cui scrivo molti importanti poli bibliotecari hanno adottato SW (con funzioni di catalogazione, di gestione del prestito, di evasione delle pratiche amministrative, etc.) cui si accede per via telematica previa autenticazione e che dal punto di vista “fisico” risiedono presso i server della società sviluppatrice assieme a tutti i dati di natura amministrativa, catalografica, etc. caricati dai singoli operatori “sparsi” nelle diverse biblioteche / nodi appartenenti alla rete. Senza nemmeno qui scendere nei dettagli, i pro del passaggio alla nuvola sono evidenti (una catalogazione partecipata e collaborativa, una miglior ottimizzazione delle risorse, ad es. tramite acquisti coordinati ed una circolazione delle risorse più razionale) così come i contro (in caso di interruzione dell’erogazione dell’energia elettrica oppure in assenza di connessione, semplicemente il sistema non funziona!). Tutti fattori da valutare con un’attenta analisi costi / benefici anche perché, ponendosi nel worst case scenario, la necessità di garantire la continuità del servizio imporrebbe anche a realtà minori (che difficilmente possono permetterselo) la presenza di gruppi di continuità e connessioni garantite (linee dirette, molteplici fonti del segnale, etc.), ovvero soluzioni talvolta non adottate nemmeno da realtà ben più grandi!

APPLICAZIONI E SCENARI FUTURI

Dal momento che vanno a modificare prassi consolidate, gli utilizzi pratici del cloud sin qui descritti rappresenteranno un sicuro elemento di novità nel settore bibliotecario; eppure, pur con tutta la loro rilevanza, essi rischiano di apparire gran poca cosa se raffrontati a quanto potrebbe avvenire di qui a pochi anni! In effetti, senza che ciò significhi abbandonarsi a voli pindarici, guardando a ciò che potrebbe divenire a breve realtà sembra davvero di poter affermare che nel prossimo futuro saremo testimoni di cambiamenti epocali! In particolare a mio avviso il cloud computing moltiplicherà gli effetti di altri processi attualmente in corso in modo più o meno indipendente tra di loro (e dei quali, per inciso, talvolta esso stesso è nel contempo premessa e conseguenza!): a) diffusione dell’e-book b) diffusione di dispositivi per la fruizione di contenuti digitali in mobilità (smartphone, e-reader, tablet, etc.) da parte di individui sempre più connessi c) presenza di una incontrollabile massa di risorse digitali parte delle quali, stando alla teoria, dovrebbero essere “appannaggio” delle biblioteche (digitali). Partiamo da quest’ultimo punto: sulla centralità del ruolo che potranno giocare le biblioteche (digitali) onestamente nutro più di un dubbio; troppa la disparità degli investimenti effettuati ed in generale delle risorse (umane, finanziarie, tecnologiche) disponibili! Purtroppo temo che in futuro il ruolo di intermediazione attualmente svolto dalla biblioteca fisica, con la quale tutti noi abbiamo familiarità, non sarà altro che un ricordo essendo essa sostituita dall’interfaccia grafica messa a disposizione in Rete da quelli che genericamente sono definibili come fornitori di risorse digitali; in sostanza dunque l’utente (cliente?) effettuerà ricerche, accederà alle collezioni digitali, fruirà delle risorse reperite rielaborandole e condividendole “socialmente”, il tutto direttamente a partire dal sito web / dall’applicazione sviluppato/a dal DRP (Digital Resources Provider) ed indipendentemente dal tipo device in uso. In concreto il DRP in parte creerà direttamente piattaforme ed applicativi ed in parte si inserirà in un ambiente digitale nel quale applicazioni di terzi si integreranno tra di loro espandendo, a seconda degli interessi e delle esigenze dell’utilizzatore, il suo “habitat” digitale (=> le varie fasi di ricerca, utilizzo, condivisione, conservazione, etc. avverranno in un ambiente percepito dall’utente come unico).
Se questo sarà a mio vedere il probabile scenario di riferimento, è il caso di soffermarsi su alcuni aspetti di specifico interesse biblioteconomico: 1) non è tutt’altro che scontato che, nella sua ricerca di e-book, l’utente si rivolga alle biblioteche né d’altro canto è così pacifico che le biblioteche digitali saranno le DRP per eccellenza di quella specifica risorsa che chiamiamo “libro elettronico”; anzi è altamente probabile che il ruolo dei motori di ricerca (non mi riferisco qui solo a quelli generalisti come Google, ma anche a quelli dedicati come Ebook-Engine.com) così come quello dei cataloghi delle case editrici (meglio ancora se “evoluti” in chiave social in stile aNobii) sarà vieppiù crescente. 2) Proprio l’atteggiamento di queste ultime è attentamente da valutare; se da una parte esse pure vedono con il fumo negli occhi il ruolo di rigidi gate-keeper svolto dai SE nei riguardi dei contenuti che loro stesse – le case editrici, intendo – concorrono a creare (e potrebbero perciò allearsi con le biblioteche contro il comune nemico), dall’altra non si può non interpretare come “ostili” i peraltro non numerosi accordi fin qui stipulati in tema di digital lending! Essi fanno intravedere, nel momento in cui gli editori stessi (o ulteriori società “intermediarie” specializzate) si accollano l’onere di sviluppare e gestire piattaforme attraverso le quali effettuare le operazioni di ricerca ed eventuale “prestito” per conto delle biblioteche, la prospettiva di una marginalizzazione di queste ultime, ridotte a poco più di mere “procacciatrici” di utenti / clienti! (A rendere critico il rapporto biblioteche – editori è anche la questione del DRM ed in generale della tutela dei diritti di proprietà intellettuale, che è in via di ridiscussione e, viste le posizioni di partenza scarsamente conciliabili, rendono verosimile un peggioramento rispetto alle regole, già non perfette, esistenti nel “mondo fisico”).

CONCLUSIONI

Per concludere, dunque, il cloud computing in biblioteca nella sua declinazione IaaS se da un lato pare assicurare quei vantaggi connessi all’uso di infrastrutture tecnologiche all’avanguardia contenendo allo stesso tempo i costi entro limiti ragionevoli, dall’altra sembra pericolosamente strizzare l’occhiolino al bibliotecario e dire: “Ehi, tranquillo! Non preoccuparti della ferraglia, ci pensiamo noi!”, senza farlo riflettere sul fatto che la perdita di controllo sull’infrastruttura IT non è cosa da poco! Anzi a ben guardare è solo la prima di una lunga serie di “concessioni” che si fanno in rapida successione: ad esempio con il digital lending, almeno per come è stato fatto finora in Italia, si perde pure quello sulla piattaforma, senza poi considerare come in ambiente digitale vadano completamente ricalibrate le strategie di comunicazione con gli utenti, che rischiano di essere “scippati” dagli onnipresenti social network. Alla luce di queste considerazioni anche gli indubbi vantaggi ottenibili a livello di piattaforma (PaaS) e di software (SaaS), con la nuvola che trasforma davvero quasi per magia i poli bibliotecari in un’unica grande biblioteca, con un patrimonio trattato omogeneamente, utenti condivisi, procedure comuni, etc., perdono gran parte del loro valore.
Un ultimo appunto è, infine, di ordine squisitamente teorico: è opinione diffusa in letteratura che alla biblioteca elettronica (= per Carla Basili e Corrado Pettenati “una biblioteca automatizzata, non necessariamente connessa alla Rete”) si sarebbero quasi evoluzionisticamente succedute la biblioteca virtuale ( = una biblioteca connessa in ruolo di client, ovvero che trae dalla Rete parte delle sue risorse per espandere il posseduto) e quella digitale ( = una biblioteca che mette a disposizione di utenti remoti le proprie risorse digitali pubblicandole in Rete). Ebbene con il cloud computing mi sembra che questo ruolo “attivo” in qualità di server venga un po’ meno: d’accordo, la biblioteca possiederà sicuramente delle risorse digitali, ma è indubbio che queste (quand’anche dal punto di vista legale di sua proprietà) risiederanno su server di terzi. Inoltre, dovesse il trend rafforzarsi (ed i soldi rimanere sempre pochi), le biblioteche acquisteranno sempre meno “risorse digitali” optando per formule ibride quali noleggio / affitto rinunciando perciò anche al ruolo di interfaccia tra utente e risorse (questo perché gli accordi stipulati prevederanno che della piattaforma di ricerca e prestito si occupi il “noleggiatore”). Insomma, mi pare proprio si possa affermare che le biblioteche con il passaggio alla nuvola rimarranno ancorate al ruolo di client e quand’anche dovessero progettare di ampliare i propri servizi consentendo l’accesso a risorse digitali presenti in Rete, in gran parte dei casi non lo farebbero impegnandosi in prima persona. In altri termini, la definizione di “biblioteca digitale” così come formulata dalla teoria rischia di restare pura speculazione.

Quale destino per RIM?

Blackberry, Egham UK

Blackberry, Egham UK di louisiana, su Flickr

Questo post, incentrato così com’è su questioni industriali e di merge & acquistion, potrebbe apparire per molti lettori fuori luogo pubblicato in questo blog. A mio avviso ovviamente non lo è e non solo perché nel mio piccolo sono sempre stato affascinato da quel che combinano le grandi aziende padrone del mercato globale e globalizzato, ma soprattutto perché sono profondamente convinto che una completa comprensione delle dinamiche che guidano l’evoluzione di interi settori quali l’editoria digitale (intesa qui in senso più che lato) così come quello che offre servizi di archiviazione / storage online sia impossibile se non si guarda alle mosse compiute più a monte da quelle aziende che hanno la capacità di influenzarne le sorti. (Giusto per fare un esempio, è impensabile contestualizzare l’evoluzione dell’e-book senza guardare a quanto fatto da Amazon negli ultimi 10 – 15 anni o da Google con il suo progetto Google Books e la relativa telenovela giudiziaria con l’Authors Guild statunitense).
Ebbene, entrando in media res, i rumors del giorno parlano di un forte interessamento dell’accoppiata Microsoft – Nokia, da qualche mese convolate a nozze per quanto riguarda il sistema operativo dei prossimi cellulari della casa finlandese (che saranno per l’appunto forniti dall’azienda di Seattle), per RIM (Research in Motion), produttrice dei celeberrimi telefonini intelligenti della famiglia BlackBerry che ultimamente però vedono la propria immagine sempre più appannata presso i consumatori di tutto il mondo. La notizia, così da sola, non dice molto, ma se aggiungiamo che altre indiscrezioni parlano di avances da parte di Amazon (oltre a contatti per accordi di partnership con Samsung ed HTC, con queste ultime che vogliono cautelarsi nell’evenienza in cui Android diventi un sistema operativo chiuso), si vede che a questa sorta di gara per accaparrarsi RIM non manca quasi nessuno (Google manca all’appello solo perché si è già sistemata con l’acquisto di Motorola Mobility in estate)!
La vicenda si fa interessante: chiaramente RIM fa gola a molti in virtù dei numerosi clienti business che potrebbe portare in dote e del prezzo relativamente modesto con il quale si potrebbe fare “la spesa” (i corsi azionari dell’azienda canadese sono ai minimi); sicuramente poi ai potenziali acquirenti si porrebbero problemi industriali: i nuovi prodotti lanciati sul mercato (PlayBook su tutti) non hanno trovato il favore dei consumatori e lo stesso sistema operativo rischia di rimanere schiacciato dal consolidamento in atto e che vede, in assenza di concorrenti, Android ed iOS recitare la parte del leone (avendo HP di fatto cestinato WebOS ed essendo Windows Mobile ancora sulla rampa di lancio).
Se la maggior parte degli osservatori focalizzano l’attenzione su questa sfida, dal mio punto di vista però è ancor più interessante notare come in profondità stiano avvenendo radicali mutamenti in player che, nati come “mediatori / venditori di contenuti” (leggasi Amazon e Google), stanno gradualmente ampliando i propri interessi non solo (ed è in fondo nell’ordine delle cose) all’infrastruttura che veicola tali contenuti (che diviene base per nuovi servizi e talvolta rendendola disponibile a terzi) così come agli strumenti attraverso i quali essi vengono fruiti. Il rimescolamento dei ruoli è così profondo che oramai non suona più strano porsi domande quali: “a quando lo smartphone di Amazon”? “a quando il tablet di Google (per inciso, si parla dell’estate prossima…)”?
Riassumendo è in atto un riposizionamento strategico di questi big player, riposizionamento che vede il settore editoriale ricoprire un ruolo di primo piano, a riprova di come lo tsunami digitale stia per travolgere questo settore trasformandolo radicalmente. Le mosse sopra descritte suggeriscono che in un futuro sempre più vicino qualsiasi fruizione di contenuti digitali sarà accompagnata dalla relativa capacità di archiviazione online, motivo per cui la nostra diverrà sempre più una esistenza digitale. Se le prospettive sono queste superfluo aggiungere che a godere di una sorta di “vantaggio competitivo” sono quelle aziende dotate di una imponente infrastruttura cloud: Amazon, Google, Apple.

La guerra dei display – Part 1

Imaging Film highres

Imaging Film highres di mtlin, su Flickr

INTRO

La notizia, ormai datata di qualche giorno, della commercializzazione di Kyobo, primo e-reader a colori dotato della tecnologia Mirasol, ha riportato l’attenzione su quella fondamentale componente che è il display, fondamentale in quanto da esso dipendono fattori critici quali form factor (=> dimensioni), consumi, qualità dell’esperienza di lettura.
E’ dunque forse il caso fare una breve panoramica, di taglio non specialistico ma divulgativo (ma non per questo meno capace di evidenziare i relativi pro e contro), dei principali tipi di schermi attualmente in circolazione.

LE TECNOLOGIE

1) PLASMA. Questa tecnologia consiste nel riempire migliaia di microcelle, poste tra due pannelli di vetro, per l’appunto con il plasma (in realtà un composto a base di neon e xeno che eccitato elettricamente va a colpire il rivestimento di fosforo delle celle generando i vari colori). Ogni cella, in sostanza, funziona come una micro-lampada: tre di queste “lampade” (= tre celle) costituiscono un pixel e molti pixel compongono le immagini. Un difetto di questa tecnologia è la presenza ben visibile della “retina” delle micro-celle e l’impossibilità, imposta dalle stesse, di scendere oltre una certa dimensione di diagonale. Tra i vantaggi, al contrario, proprio la possibilità di utilizzo in schermi molto grandi senza che per questo aumenti lo spessore dello schermo; inoltre essendo ogni pixel una fonte autonoma di luce la visibilità è ottima anche ad elevate angolazioni.
2) LCD. E’ sicuramente la tecnologia più utilizzata; il principio che ne è alla base è semplice: semplificando, tra due pannelli di vetro viene inserito un particolare materiale, il cristallo liquido, che se polarizzato, ovvero sottoposto ad un campo elettrico, si organizza in modo da far passare o meno la luce secondo la regola “un contatto elettrico (uguale) un pixel”. Condizioni necessarie affinché i pixel si accendano sono dunque la presenza di una luce che attraversi i cristalli e che essi vengano continuamente cambiati di stato (refreshing), motivo per cui gli schermi LCD sono particolarmente energivori. Dal punto di vista produttivo / tecnologico si suole distinguere in (almeno) tre grosse categorie di schermi LCD: a) trasmissivi, nei quali la luce necessaria proviene da una fonte che la emette costantemente (a fluorescenza o a LED, questi ultimi meno dispendiosi) e che è collocata dietro ai due pannelli (= retroilluminazione). Questo metodo ha notevoli controindicazioni, ovvero i consumi elevati, la stanchezza arrecata agli occhi di chi guarda lo schermo e non da ultimo la cattiva visibilità in presenza di luce solare. La seconda categoria, b), è detta riflettiva: in sostanza non è presente una fonte di luce che va alimentata con energia in quanto si usa la luce ambientale; purtroppo quest’ultima non è sufficiente per applicazioni quali schermi Tv, tablet, etc. ma al contrario trova largo utilizzo in piccoli elettrodomestici quali radiosveglie, bilance digitali e via dicendo (talvolta capita che una fonte di energia ausiliaria è ottenuta installando un micro-pannello solare). La terza ed ultima categoria, c), è detta transriflettiva e consiste in un mix delle due soluzioni precedenti.
3) OLED. Questo tipo di display si basa sull’elettroluminescenza posseduta naturalmente da alcuni elementi organici; in altri termini, a differenza dei display LCD, non è necessaria una fonte di luce esterna in quanto è il materiale stesso di cui è composto lo schermo stesso ad emetterla! I vantaggi di questa tecnologia sono evidenti: a) bassa tensione e bassi consumi b) ottimo contrasto e colori brillanti => c) minore affaticamento della vista. I principali aspetti negativi sono costituiti dagli elevati costi di produzione e dalla durata relativamente breve delle proprietà elettroluminescenti dei materiali organici.
Da ricordare, infine, che così come per i display LCD anche per quelli OLED si è avuta una suddivisione in particolari tipologie (AMOLED, Super-AMOLED, etc.) che però non è il caso qui descrivere.
4) E-INK. Il funzionamento di un display basato su questa tecnologia (sviluppata da E-Ink Corporation appositamente per la lettura di e-book) è semplice quanto geniale: all’interno di microsfere vengono inserite particelle bianche e nere di biossido di titanio; a seconda del tipo di carica elettrica ricevuta (positiva o negativa) queste particelle si dispongono in un determinato modo andando a formare, puntino dopo puntino, la pagina. Gli aspetti positivi di questa tecnologia sono molteplici ma contemperati da una serie di controindicazioni delle quali è bene tener conto: infatti la tecnologia e-ink, sia per l’assenza di retroilluminazione sia perché il refresh non è continuo ma avviene solo quando si cambia la pagina, consuma poca energia (=> lunga autonomia, fattore al contrario critico in molti device); inoltre la citata mancanza di retroilluminazione contribuisce a non affaticare la vista così come migliora sensibilmente la facilità di lettura in caso di esposizione alla luce solare o di elevata angolazione. Ovviamente il fatto che non sia retroilluminato costituisce anche un problema: come per qualsiasi libro cartaceo, con poca luce od al buio semplicemente non si legge! Inoltre l’assenza di refresh continuo impedisce la possibilità di rappresentare a schermo animazioni video (e quando anche lo sono, gli scatti tra un fotogramma e l’altro sono intollerabili!). Last but not least la tecnologia e-ink, per la citata presenza delle particelle di biossido di titanio, è di fatto una tecnologia in bianco e nero. Ovviamente la ricerca va avanti e non bisogna dunque disperare: se la “prima generazione” (Vizplex) al massimo garantiva 16 toni di grigi, la seconda (Pearl) ha rappresentato un significativo passo in avanti in termini di contrasto e di velocità nel cambio di pagina (= refresh => non è irrealistico pensare ad e-reader con tecnologia ad inchiostro elettronico capaci di riprodurre video). La terza generazione poi (Triton) ha addirittura visto la comparsa del colore! Se dal punto di vista costruttivo l’obiettivo è stato centrato semplicemente aggiungendo un ulteriore strato RGB, la resa non è soddisfacente, essendo i colori assai smorti. In ogni caso l’evoluzione continua e non bisogna disperare: basta guardare alle tecnologie Ink-In-Motion e Surf sviluppate, seppur per applicazioni in altri campi, sempre da E-Ink Corporation per rendersi conto delle potenzialità future!
5) SI-PIX. Si tratta di una tecnologia per certi versi analoga a quella e-ink infatti, fatto salvo che a) non abbiamo le microsfere bensì delle microcelle (chiamate Microcup) di forma quadrata od esagonale e che b) al loro interno non ci sono le particelle di biossido di titanio bianche e nere ma particelle bianche ed un fluido nero, il principio di funzionamento è simile: applicando una carica elettrica si riesce ad attrarre e disporre, in base alle esigenze, gli elementi bianchi e quelli neri i quali nel loro insieme concorrono a costruire le pagine. Se dunque anche con Si-Pix non vi è retroilluminazione (con tutti i vantaggi che ne conseguono), un problema concreto è costituito dall’eccessiva grandezza delle Microcup: infatti osservando attentamente uno schermo basato su questa tecnologia non si può non notare la “tramatura” di fondo costituita dall’insieme delle “celle”, il che non è sicuramente un bel vedere! Si rende dunque urgente rimpicciolire le Microcup anche perché così facendo migliora il controllo dei vari elementi contenuti, specie dei colori: già, perché nelle Microcup non è obbligatorio mettere il liquido nero ma potrebbe tranquillamente essere inserito uno dei colori RGB, purché dotato di proprietà dielettriche. Insomma, anche con la tecnologia Si-Pix si può raggiungere il traguardo di uno schermo a colori.
6) PIXEL QI. Non è una tecnologia vera e propria, prevedendo esso la compresenza in un unico dispositivo tanto di uno schermo LCD quanto di uno E-ink. In linea teorica i vantaggi sono evidenti: si usa il primo per fruire di una specifica serie di contenuti, l’e-ink per leggere. Purtroppo a detta di molti (personalmente non ho mai maneggiato un dispositivo con schermo Pixel Qi) quando è in funzione in “modalità” e-ink la resa non è all’altezza dei corrispettivi display “puri”; a questo difetto non da poco aggiungerei che la presenza di uno schermo LCD giocoforza porta ad un innalzamento dei consumi energetici, con i conseguenti limiti in termini di autonomia, tali forse da non rendere giustificato l’acquisto di un device che peraltro ha un costo proporzionalmente più elevato (l’Adam di Notion Ink, unica azienda ad aver prodotto un tablet/e-reader con questa tecnologia, parte da circa 300 euro).
7) MIRASOL. Questa tecnologia si basa su un principio completamente diverso rispetto a quelli fin qui descritti: in pratica al riparo di un vetro si trovano i due elementi fondamentali, ovvero una pellicola e, separata da uno spazio semplicemente riempito d’aria, una membrana riflettente; quest’ultima membrana, in base a precisi impulsi elettrici ricevuti, si sposta per attrazione elettrostatica verso la pellicola sovrastante assumendo diverse posizioni. In particolare quando è aperta del tutto la luce esterna attraversa nell’ordine: il vetro, la pellicola ad esso aderente, lo spazio d’aria per infine incidere sulla membrana riflettente e tornare indietro così com’è arrivata, motivo per cui, non essendoci alterazioni nella sua frequenza, viene percepita dall’occhio umano come colore bianco sullo schermo; al contrario quando la membrana riflettente è “appiccicata” alla pellicola, la luce non viene riflessa e ai nostri occhi lo schermo assume il colore nero. Sarà ora intuibile come, in base allo stesso principio, la membrana riflettente mobile a seconda della “quota” nella quale si posizionerà potrà assorbire parte della luce entrante e riflettere la rimanente conferendole una frequenza che, a seconda dei casi, i nostri occhi percepiranno come rosso, verde e blu (RGB). Un sistema dunque tanto semplice dal punto di vista scientifico quanto tecnologicamente innovativo! Purtroppo questa tecnologia per il momento ha il suo costo: il citato Kyobo viene venduto per l’equivalente di 230 euro, non pochi per un e-reader. E’ questa a mio avviso l’unica controindicazione, essendo per il resto (non essendoci retroilluminazione) la visibilità ottima anche in piena luce solare! Veloce è anche il cambio di pagina / immagine (= il tempo che la membrana riflettente si alzi o si abbassi) al punto che su uno schermo Mirasol è possibile vedere anche video con adeguato frame rate; essendo poi gli spostamenti minimi dal punto di vista della “strada percorsa” l’energia necessaria è poca, motivo per cui i consumi sono ridotti (Qualcomm, l’azienda produttrice, sostiene persino inferiori all’e-ink). Una tecnologia dunque che sembra davvero valida, soprattutto perché come tutte suscettibile di miglioramenti, anche se come sempre per un giudizio compiuto bisognerebbe testarla.

LCD pixels fry my eyes

LCD pixels fry my eyes di ~dgies, su Flickr

CONSIDERAZIONI E VALUTAZIONI FINALI

In questo lungo e denso post ho descritto per sommi capi le principali tecnologie usate nei display attualmente in commercio: ad esclusione di quella al plasma, tutte le altre hanno trovato una più o meno diffusa applicazione in ambito tablet e/o e-reader, vale a dire i dispositivi di lettura “principi” attualmente a disposizione (prescindendo ora da considerazioni sulle distinte classi e sulla loro possibile, anzi probabile, convergenza).
A mio avviso una loro completa valutazione non può essere fatta senza tener conto del “contesto operativo” nel quale esse si troveranno ad operare e di conseguenza senza considerare quali task dovranno svolgere e quali caratteristiche dovranno possedere. Per quanto riguarda il contesto, questo sarà fatto di risorse caricate sulla nuvola, alle quali vi accederemo sempre e comunque attraverso molteplici dispositivi mobili (la celebre accoppiata cloud computing + mobile devices). Restringendo ora il campo a tablet ed eredaer appare fuor di discussione che le varie risorse digitali fruite saranno caratterizzate da multimedialità spinta e tendenza ad “esplodere” verso la Rete. Ad esempio un libro di testo, poniamo di storia, avrà la classica parte testuale in cui si descrivono la vita e le opere di Cesare, ma anche video con ricostruzioni in 3D della Roma del I secolo a.C., immagini, link ad ulteriori risorse utili disponibili in Rete, così come prevederà la condivisione ed interazione con i compagni ed i docenti; i tipici esercizi di comprensione di quanto studiato, presenti nella versione cartacea a fine di ogni capitolo, saranno sostituiti da test compilati online che potrebbero tranquillamente essere corretti dalla casa editrice così come inviati al docente o archiviati sulla nuvola in attesa di correzione…
Da questo banale esempio si intuisce come la connettività sarà un requisito essenziale così come i colori (ve lo immaginate, ai nostri giorni, un libro di testo in bianco e nero? ma anche fumetti o riviste per essere in linea con gli standard cui siamo abituati devono essere a colori, mica acquistiamo gli ereader per leggerci solo classici della letteratura!) e la capacità di riprodurre video. Ovviamente un’attività come lo studio richiede una lettura intensiva e prolungata nel tempo, motivo per cui da un lato lo schermo non dovrà affaticare la vista e la batteria dovrà durare a lungo (negli istituti scolastici in cui si effettua il rientro pomeridiano almeno 10 ore).
Ebbene, solo imponendo il rispetto dei requisiti sin qui elencati (connettività, visibilità senza per ciò affaticare la vista, capacità di riproduzione di testi, di audio e di video, colori, bassi consumi) abbiamo fatto fuori gran parte dei “pretendenti”: di sicuro scartati sono i dispositivi LCD retroilluminati (troppo alti i consumi e notevole l’affaticamento della vista) così come quelli con tecnologia E-ink e Si-pix (per la scarsa multimedialità e l’assenza del colore o quanto meno di un colore che sia decente). Bocciata pure la tecnologia Pixel-Qi in quanto essa implica, a seconda della modalità d’uso (LCD o e-ink), la rinuncia a qualcuna delle caratteristiche richieste. A giocarsela restano dunque i dispositivi con tecnologia OLED o Mirasol, entrambe molto più costose delle precedenti ma con gli indubbi vantaggi descritti. Dovendo comunque scegliere un “vincitore” tra i due, l’attuale (relativa) scarsa durata degli schermi OLED, dovuta a motivi di decadimento delle proprietà elettroluminescenti degli elementi organici di cui sono fatti gli schermi stessi, mi porta a preferire il Mirasol, trattandosi di una tecnologia decisamente innovativa (suscettibile dunque di miglioramenti) ma nel contempo basata su una consolidata nanotecnologia qual è il MEMS, il tutto brillantemente applicato alla teoria della luce ed alla nostra conoscenza sul funzionamento dell’occhio umano.

PS Ho parlato per tutto l’articolo di display in quanto elemento di output (testi, immagini e video, in bianco e nero o a colori); come sarà noto a tutti, con la comparsa del touchscreen lo schermo è divenuto anche elemento attraverso il quale dare input. Molti (Jeff Bezos di Amazon tra questi) hanno a lungo osteggiato l’aggiunta dello schermo touch sugli ereader in quanto l’applicazione di un ulteriore strato sopra al display vero e proprio avrebbe comportato un decadimento della qualità delle immagini sottostanti. A parte che gli ultimi schermi touch sono meno “invadenti” dei precedenti, sono da sempre stato tra coloro che, accettando qualche compromesso, lo schermo tattile lo vogliono eccome! Infatti, come già ricordato sopra, gli ereader non esistono solo per leggere romanzi, ma serviranno sempre più anche per attività didattiche e “lavorative”, come il prendere appunti, sottolineare, etc. Tutte cose che, scusatemi tanto, è mille volte più comodo fare con la mano (o ancor meglio con un pennino) piuttosto che con una tastiera o un joypad! Inoltre se si ha il touchscreen scompare la tastiera fisica ed il nostro dispositivo assume dimensioni più “tascabili” (ve li ricordate i primi Kindle?). Dunque, almeno per quanto riguarda quest’altro aspetto del display, nessun dubbio: lunga vita al touch!

Social network, privacy ed archivi

Graphs & Social Networks: Facebook Group Social Graph (Gephi)

Graphs & Social Networks: Facebook Group Social Graph (Gephi) di sociomantic

Il successo dei vari social network, da Facebook a Twitter, da LinkedIn ad aNobii, è così travolgente che non è nemmeno più il caso di spendere parole.
Quasi tutti noi ci cimentiamo quotidianamente in attività più o meno eroiche quali postare il nostro stato d’animo, pubblicare la foto del nostro cane, twittare un articolo reputato interessante e via di questo passo.
Una parte sempre più cospicua di queste azioni le compiamo nel corso della nostra giornata lavorativa, talvolta usando una serie di dispositivi tecnologici non di nostra proprietà ma bensì dell’organizzazione presso la quale siamo impiegati: desktop-PC, cellulari, smartphone, portatili, tablet. Talvolta si tratta di comportamenti fatti in modo “furtivo” senza il beneplacito dei nostri datori di lavoro, tal’altra siamo da questi ultimi direttamente incentivati al fine di sviluppare la dimensione (o quanto meno l’immagine) “sociale” della stessa. Nel primo caso il nostro operato, oggettivamente censurabile, può quanto meno provocarci una reprimenda ma può tranquillamente sfociare in sanzioni disciplinari fino al licenziamento (specie se ci lasciamo andare a commenti poco lusinghieri nei confronti dell’organizzazione cui apparteniamo!); nel secondo caso, al contrario, gli stessi account con i quali ci presentiamo e ci facciamo conoscere in Rete comunicano chiaramente agli altri utenti chi siamo e cosa facciamo e proprio in virtù di questo ruolo di “rappresentanti dell’azienda” ci è richiesto di mantenere un profilo in linea con quella che è l’immagine che la nostra organizzazione vuol trasmettere.
Che ci troviamo nel primo o nel secondo dei casi, l’organizzazione cui apparteniamo è spinta a “sorvegliare” la nostra attività; i motivi di questa “pulsione” sono molteplici: 1) di sicurezza (potremmo più o meno consapevolmente mettere in circolazione informazioni riservate) 2) economici (dal danno causato dalla “mancata prestazione” perché il dipendente trascorre il suo tempo a chattare anziché lavorare al caso opposto dell’ex collaboratore che si tiene la rete di contatti instaurata per conto dell’azienda; recente la causa intentata da un’azienda statunitense contro un suo ex lavoratore che le ha fatto un simile colpo gobbo e che ha valutato l’account Twitter con 17mila follower la bellezza di 340mila dollari) 3) di immagine / brand management (vigilare che il flusso di comunicazioni ed informazioni in uscita crei un feedback positivo; che poi quest’insieme di informazioni e comunicazioni possano essere sfruttati anche in chiave di business e di knowledge management tanto meglio!).
Questo compito di “sorveglianza” però è reso difficoltoso dalla notevole frammentazione in termini di device (= di strumenti di creazione) e di servizi (vale a dire, dei diversi social network di volta in volta usati); proprio per aiutare ad assolvere questa “mission” e a venir incontro a quest’insieme eterogeneo di esigenze talvolta contrastanti sono state fondate numerose aziende (una è Smarsh) che offrono servizi di social media archiving: in pratica è possibile definire il livello di accesso dei propri impiegati ai social network, stabilire quali funzionalità attivare nonché controllare preventivamente se quanto viene scritto è in linea con la propria policy. Il tutto viene indicizzato ed archiviato in data center geograficamente distinti (dal punto di vista tecnologico le soluzioni di archiviazione spaziano dai dischi WORM al cloud computing; la citata Smash ad esempio usa il primo per i messaggi su social network o l’instant messaging il secondo per mail ed sms).
Il ricorso a siffatti servizi, se da una parte è comprensibile, dall’altra proprio per la “promiscuità” intrinseca nello “strumento social network” (con una talvolta inscindibile compresenza di dimensione privata e dimensione pubblica), solleva a mio avviso una duplice preoccupazione per quanto attiene la tutela della privacy: in primo luogo quella relativa all’ingerenza nella sfera personale del proprio datore di lavoro, in secondo luogo quella (comune a tutti i servizi di storage sulla nuvola) relativa alla sicurezza dei dati / informazioni affidati a terzi.
Insomma l’ennesima riprova di come il modello del cloud computing presenti ancora lati oscuri e vada implementato con la massima cautela; nel frattempo IDC ha recentemente stimato che a livello globale i proventi del “message and social media archiving” saliranno dal miliardo di dollari del 2011 agli oltre 2 del 2015. Previsioni più che positive che non lasciano dubbi su quale sia la direzione verso cui stiamo andando: un futuro sempre connesso che se da un lato ci offrirà opportunità impensabili fino a pochi anni fa dall’altro “traccerà” ogni istante delle nostre vite e forse ci renderà un po’ meno liberi.

Per la versione su Storify di questo articolo cliccate qui.