Samsung Galaxy Camera ed i nuovi archivi fotografici

Samsung Galaxy Camera

Samsung Galaxy Camera

L’arrivo sugli scaffali dei principali negozi di informatica italiani della Samsung Galaxy Camera mi offre l’occasione per una veloce riflessione sullo stato degli archivi fotografici in questo cruciale momento di trapasso al digitale.
Prima però è opportuno presentare la nuova fotocamera digitale prodotta dallo chaebol sudcoreano dal momento che essa segna probabilmente un punto di rottura rispetto alle “macchinette fotografiche”, reflex o compatte che siano, sin qui realizzate. La Galaxy Camera infatti affianca ad un’ottica di tutto rispetto un altrettanto ricco lato software: attraverso lo schermo touch da 4,8 pollici è possibile interagire con il sistema operativo Android 4.1 Jelly Bean, ergo con tutte le applicazioni esistenti in questo ricchissimo ecosistema sia per il ritocco delle immagini stesse (cito qui il solo Instagram esclusivamente perché quello tra i più in voga del momento) sia per la loro immediata condivisione attraverso le proprie reti sociali. E quest’ultimo aspetto ci introduce alla vera novità della Galaxy Camera, vale a dire la presenza di connettività Wi-Fi e 3G la quale, si badi, ha un’utilità non solo, per così dire, “ludica” ma ne ha una molto più eminentemente pratica; a riprova del fatto che questa nuova fotocamera è fatta per restare sempre connessa (entrando a far parte a pieno titolo dell’Internet delle cose di cui tanto si parla), buona parte della memoria è allocata sulla cloud. A fronte di una memoria interna da 8 Giga (espandibile a 32 con scheda MicroSD / MicroSDHC) Samsung, che ha stretto un apposito accordo con Dropbox, ne mette a disposizione gratuitamente ben 50 sulla nuvola!
Il salto in avanti a mio modesto parere è netto e spiace che i puristi della fotografia abbiano perso di vista le novità di fondo fermandosi invece a rimarcare come, numeri alla mano, con i 549 euro necessari per aggiudicarsela si può comprare una reflex dalle caratteristiche tecniche (per quanto riguarda la sola ottica) decisamente superiori ed in definitiva bollando la Galaxy Camera come un costoso giocattolo che un “vero fotografo” mai si sognerebbe di usare.
Purtroppo mi pare che a costoro sfugga il non trascurabile dettaglio che oramai esiste un cospicuo numero di figure professionali (penso in special modo – ma non sono le uniche – a quelle legate al new journalism come blogger, live twitterer, storifyer senza dimenticare i più tradizionali giornalisti e fotoreporter free-lance!) che svolgono la loro attività attraverso l’uso di strumenti quali smartphone, tablet e per l’appunto foto/videocamere ai quali essi richiedono non tanto (o, per essere più precisi, non solo) le massime prestazioni possibili ma anche semplicità d’uso, affidabilità, poco ingombro… e naturalmente connettività.
Ma al di là dei risvolti di mercato la comparsa di device così concepiti ha naturalmente un impatto profondo sul modo in cui vengono a formarsi gli archivi fotografici digitali; cerchiamo di enucleare alcuni tra gli aspetti più rilevanti:
1) le foto digitali, prese come singularitas, divengono (paradossalmente) allo stesso tempo più instabili e “cangianti” rispetto alle parenti analogiche così come assai più “circostanziate” e ricche di informazioni. Alcuni semplici esempi presi dall’esperienza quotidiana rendono meglio l’uno e l’altro aspetto: mentre nel mondo analogico, trovandoci in presenza di un negativo e di un positivo fissati rispettivamente alla carta fotografica ed alla pellicola del rullino, le possibilità di “ritocchini” erano limitate ed opera perlopiù di esperti oggigiorno potenzialmente chiunque, attraverso appositi programmi (che partono dal livello amatoriale, dove consistono nell’applicazione di qualche filtro, ed arrivano ai programmi professionali per veri esperti), può alterarle. A fronte di questa possibilità praticamente universale di alterare la foto “originale”, si constata l’aumento della mole di dati che la corredano contribuendo a collocarla spazialmente e temporalmente: oramai di ogni foto scattata possiamo sapere in automatico non solo l’ora / data dello scatto e quale macchinetta abbiamo utilizzato ma persino il luogo in cui l’abbiamo fatta (georeferenziazione; per la Galaxy Camera tale dato verosimilmente deriva dall’incrocio dei segnali forniti dal Wi-Fi e dalla connessione cellualre) e chi abbiamo immortalato (in questo caso l’operazione di tagging avviene ancora in modo manuale). Insomma, una miniera di dati che, per inciso, qualora venissero resi anonimi e raggruppati in dataset e descritti con linguaggio RDF diventerebbero sicuramente utilissimi nell’ottica di un riuso all’insegna dei big (open) data! Del tutto opposta, ma purtroppo parimenti possibile, l’evenienza che di essi si faccia un uso “spavaldo” con palesi violazioni della privacy
2) l’instabilità è un tratto che caratterizza le fotografie digitali anche quando prese nel loro complesso, ossia nel loro essere “archivio”: questi ultimi infatti stanno seguendo, di supporto in supporto (CD-ROM, DVD, hard-disk, drive a stato solido, etc.), la stessa peregrinazione toccata in sorte a tutti gli altri tipi di file digitali ed ora stanno chiaramente prendendo la via della Nuvola, che come risaputo anche dal punto di vista tecnologico non è sicuramente infallibile (come provato, da ultimo, dall’uragano Sandy) né si può dire che una foto digitale sia molto più stabile delle ostiche pellicole in nitrato di cellulosa e meno bisognosa, negli anni, di pazienti cure! Insomma, la preservazione degli oggetti digitali e soprattutto la loro conservazione nel lungo periodo rimane un’incognita.
3) non lascia trascorrere sonni tranquilli neppure l’altro grande punto debole del modello cloud, ovvero quello attinente alla sfera legale e a quello, accennato poco sopra, della tutela della privacy; anzi, considerando l’elevata (ed immediata) sfruttabilità delle immagini, i rischi paiono essere persino superiori rispetto a quelli incombenti su altre tipologie di oggetti digitali! Instagram ad esempio, è notizia di questi giorni, dopo essere stata acquistata a suon di miliardi da Facebook ha annunciato la modifica unilaterale dei Termini di Servizio facendo paventare la possibilità di vendere a terzi le foto presenti nella piattaforma (peraltro senza assicurare alcun “ristoro” a chi quella foto l’ha caricata!) inclusa la possibilità di usarle all’interno di campagne pubblicitarie. Come prevedibile la notizia ha scatenato un putiferio tra gli utenti di Instagram, molti dei quali hanno annunciato di passare ad altri servizi come Flickr (qui in molti casi si tratterebbe di un ritorno…), Photobucket, Pinterest, Snapchat ed altri. Tra gli scontenti, a testimonianza dell’importanza che assumono questi archivi fotografici, pure National Geographic (la qualità dei cui reportage fotografici è universalmente riconosciuta), che conta sul network la bellezza di 660mila follower. Ovviamente Instagram è corsa ai ripari, ritrattando su tutta la linea ma oramai il danno era fatto, tanto più che molti utenti erano già indispettiti dalla cessazione del supporto a Twitter (fatto che risale invece alla settimana scorsa…). Insomma, la posta in palio attorno agli archivi fotografici del futuro prossimo venturo è elevata, come comprovato dal fatto che Twitter stesso ha reagito alla mossa di Instagram avviando il proprio servizio di hosting fotografico, dopo essersi appoggiato a lungo al citato Photobucket; se aggiungiamo che pure Flickr ha (ri)lanciato il guanto di sfida, mettendo a disposizione degli utenti (contestualmente al rilascio della sua nuova applicazione mobile) vari tool per ritoccare / modificare le foto, appare manifesto come sia in corso un autentico big game e spiace che anche in questo caso non esistano alternative pubbliche (o, perlomeno, frutto della collaborazione pubblico – privato) per chi vuole archiviare in modo sicuro le proprie foto.
Pare dunque, per concludere, segnato il destino degli archivi fotografici digitali: complice la proliferazione sul mercato di dispositivi connessi alla Rete capaci di scattare immagini (con la Galaxy Camera a rappresentare il punto più alto di questa “evoluzione”) e la presenza di operatori valutati milioni di dollari che realizzano applicazioni sulla nuvola per utenti sempre connessi e per organizzazioni che parimenti orientano sempre più il loro marketing (e talvolta il loro intero business) sulle nuove tecnologie, la loro destinazione finale è l’impalpabile cloud. Con tutto ciò che ne consegue, nel bene e nel male.

Perché Android è (e non potrebbe essere altrimenti) il miglior sistema operativo per gli ereader

La notizia dell’avvio della produzione di Pengpod, tablet basato sul sistema operativo (SO) di nicchia ma completamente open source Linux, ha ricevuto notevole attenzione anche da parte della stampa non specialistica, a dimostrazione di come l’argomento sia particolarmente sentito: in effetti quando parliamo di tavolette (specialmente se stiamo pensando di acquistarne una e dunque ne va di mezzo il nostro portafoglio!) il tipo di sistema operativo è un fattore tenuto in estrema considerazione non soltanto per gli ovvi risvolti “prestazionali” ma anche per motivazioni che potremmo definire “ideologiche”: scegliere per un sistema chiuso e proprietario quale iOS di Apple appare oggigiorno una scelta per certi versi “conformista” e di tendenza mentre a rappresentare l’alternativa “libera e aperta” è per contro Android (che non a caso si basa su kernel Linux); il recente arrivo di Windows Otto, che al momento appare più che altro il disperato tentativo di Microsoft di contare qualcosa nell’universo mobile, può essere accolto favorevolmente esclusivamente per il fatto che tenta di spezzare il duopolio che si è di fatto realizzato ma nulla più (l’azienda di Seattle è rimasta infatti fedele alla sia filosofia di creare un ambiente rigorosamente chiuso e proprietario).
Completamente diversa la musica se parliamo di ereader: in questo caso l’attenzione viene posta su altre caratteristiche tecniche quali il peso, la durata della batteria, la memoria interna e soprattutto (per evidenti motivi) lo schermo. Poco o nulla viene detto del sistema operativo, al punto che nelle specifiche tecniche rilasciate dai produttori dei vari dispositivi talvolta manca qualsiasi informazione a riguardo!
Tale silenzio è a mio avviso anomalo considerando che il tipo di SO montato rappresenta, per chi pretende di fare qualcosina di più con il proprio lettore di libri digitali, un fattore fondamentale e questo per molteplici evidenti motivi: se il sistema operativo è aperto e non proprietario (o comunque il codice è a disposizione della comunità di sviluppatori che possono rielaborarlo con un sufficiente grado di libertà) allora è possibile fare quello che in gergo (preso in prestito dalla telefonia cellulare) si dice “moddare”, ovvero, una volta ottenuti i permessi di root (= di amministratore; questa operazione, si badi, invalida la garanzia del dispositivo!), installare una variante personalizzata del sistema operativo.
Dal momento che Apple non ha prodotto alcun ereader (né mai probabilmente lo farà) tutte le considerazioni fatte di qui in avanti riguarderanno esclusivamente il sistema operativo Android che al contrario è presente su diversi lettori attualmente in circolazione ma non su quello maggiormente diffuso, ovvero il Kindle di Amazon: senza pretese di completezza Android lo troviamo imbarcato sul Nook di Barnes & Noble (come si evince dal video qui sopra), sul Kyobo ereader, sul Sony PRS-T1 e sul Trekstor Liro Color (purtroppo il Kobo Touch / Glo ed il Cybook Odissey HD Frontlight si basano su Linux che, come già ricordato, sta alla base di Android).
Ma quali sarebbero, in concreto, i vantaggi di scegliere un ereader Android e di procedere poi alla sua “elaborazione” installando le varie applicazioni (non è comunque garantito, si badi, che tutte girino correttamente)? Elenco di seguito alcuni punti:
1) gestione delle prestazioni: esistono applicazioni che promettono (in genere riuscendoci) di migliorare le prestazioni del dispositivo di norma agendo sulla frequenza di lavoro del processore. Quest’ultima può essere: a) aumentata (overclocking) con il vantaggio di un dispositivo maggiormente “reattivo” ma con consumi maggiori della batteria ed una maggior usura del processore b) abbassata, aumentando la durata della batteria. Dal momento che la battery life non è un problema degli ereader e che i processori installati sono mediamente più che adeguati (800 – 1000 MHz), personalmente non ritengo sia il caso agire su questo aspetto a meno che, per l’appunto, non si installi una quantità / tipologia di applicazioni tale da rendere necessario un aumento delle prestazioni. Insomma, è un po’ la storia del gatto che si morde la coda: installo applicazioni perché il processore altrimenti è virtualmente inutilizzato, esagero con queste ultime, processore e batterie vanno in affanno, mi trovo costretto a gestire quest’ultimo aspetto. In definitiva l’ideale è riuscire a trovare il giusto equilibrio tra i vari aspetti in campo.
2) accedere agevolmente alla propria biblioteca sulla nuvola: sempre più persone salvano le proprie risorse digitali (ebook inclusi) su servizi quali Dropbox, SkyDrive, Drive, etc. Se vi vogliamo accedere con il nostro ereader (ovviamente il modello deve avere un qualche tipo di connettività!) abbiamo due opzioni: a) accedere al servizio attraverso il web browser installato nel dispositivo, operazione abbastanza farraginosa, oppure b) avere sul desktop del proprio device una bella icona attraverso la quale “volare” direttamente sulla propria nuvola e di qui scaricare i propri libri (con Dropbox, giusto per fare un esempio, si tratta di usare le opzioni Sharelink + Download) sul dispositivo. A mio avviso la seconda opzione è la migliore non solo perché più immediata ma soprattutto perché da un senso allo schermo touch: se quest’ultimo finisce per essere usato per girare le pagine, cliccare una tantum sulle copertine dei libri e scrivere qualche nota allora tanto valeva tenersi i vecchi comandi analogici!
3) una migliore navigazione tra gli ebook store, base imprescindibile per assicurarsi una vera libertà di scelta e di acquisto: anche in questo caso le applicazioni fanno la differenza perché un conto è visitare le librerie online attraverso i tradizionali browser, un conto attraverso le apposite applicazioni (in alternativa la speranza è che lo store abbia predisposto una bella versione mobile per agevolare la navigazione)!
4) una migliore lettura delle pagine web, installando applicazioni come Readability, che adatta le varie pagine di nostro interesse ottimizzandole per essere lette su dispositivi mobili, o ancora meglio dotEPUB, che addirittura le trasforma in file in formato ePub! Perché va bene leggere libri, ma non bisogna dimenticare che le pagine web restano una fonte inestimabile di cose da leggere e sarebbe bello che il nostro ereader fosse in grado di rendere questa esperienza di lettura la più vasta e piacevole possibile!
5) Last but not least rootare il proprio dispositivo Android dà la possibilità di installare quelle “utilità” oramai ritenute standard e che rendono completo il nostro dispositivo: un programma per la posta (potrebbe essere GMail), la calcolatrice, una app per le previsioni meteo, data ed ora e via discorrendo.
Tirando le somme smanettando con il nostro ereader riusciamo a fargli fare cose egregie, addirittura impensabili nella sua configurazione “ufficiale”! E’ questo il motivo per cui sono convinto che Android sia, ora come ora, il miglior sistema operativo possibile; certo, se si “rootta e modda” entro i primi due anni dall’acquisto decade la garanzia, ma credo che il gioco valga la candela.

Facebook si candida a diventare l’archivio per eccellenza delle nostre esistenze digitali

Outside Facebook Data Center di IntelFreePress, su Flickr

Outside Facebook Data Center di IntelFreePress, su Flickr

La notizia non ha ricevuto la giusta attenzione da parte dei media ma è in verità indicativa della direzione verso cui sta andando il social network per antonomasia: il gigante (almeno in termini di utenti) di Menlo Park ha infatti annunciato pochi giorni orsono il lancio del nuovo servizio Photo Sync per tutti coloro che vi accedono attraverso device mobili. In estrema sintesi Facebook d’ora innanzi permetterà agli utenti di caricare sui server aziendali non solo quelle foto che si intende pubblicare e condividere con i propri amici ma anche quelle foto scattate ma che, al contrario, non si pensa di pubblicare o almeno di farlo, eventualmente, in una fase successiva; in altri termini con Photo Sync FB si trasforma lentamente ma inesorabilmente in un cyberlocker, vale a dire un armadietto nella nuvola, nel quale riporre tutti i contenuti digitali da noi prodotti o comunque detenuti e non più solo un luogo di condivisione con gli amici.
Se per ora l’upload (intelligente peraltro: l’applicazione caricherà le foto di dimensioni maggiori solo quando connessi ad una Rete WiFi ed eviterà al contrario di farlo quando si è connessi tramite la rete 3G o 4G – a pagamento – così come quando il livello della batteria tende al rosso!) riguarda solo foto ed è limitato a 2 GB, è altamente probabile che nel prossimo futuro lo spazio di archiviazione a disposizione sulla cloud sarà espandibile e riguarderà tutte le tipologie di materiali: audio, video, documenti di testo e via dicendo.
Del resto che questa fosse la direzione lo si era già intuito a settembre quando Facebook aveva stipulato un accordo con Dropbox, colosso dell’archiviazione online di file personali, che prevedeva l’integrazione spinta (in termini di facilità di condivisione ed aggiornamento automatico) tra quanto caricato sui server di Dropbox e quanto condiviso sui propri gruppi Facebook. Ora Facebook porta in house anche i contenuti non pubblicati ed il perché è presto detto: secondo Techcrunch gli ingegneri Zuckerberg sono al lavoro per scrivere algoritmi capaci di estrarre dalla mole di foto detenute (ricordo che nel momento in cui si caricano foto Facebook ne diventa automaticamente proprietario) informazioni in qualche modo monetizzabili (se in una foto indosso una t-shirt Abercrombie la concorrenza potrebbe essere interessata, con inserzioni pubblicitarie mirate, a farmi preferire i loro prodotti…).
Insomma, ritorna prepotente il mai risolto problema della difficile coesistenza tra sostenibilità del business da una parte e rispetto della privacy / dei dati personali dall’altra: personalmente ho sempre sostenuto la necessità che i cittadini digitali, così come nella realtà, si costruiscano le proprie “nuvole personali” (personal cloud) sulle quali essi hanno controllo pressoché totale. Purtroppo tutto ciò ha un costo e c’è da scommettere che il richiamo del “tutto gratis” farà cadere qualsiasi remora o considerazione contraria…

eReader verso il declino?

eBook Readers Galore di libraryman, su Flickr

eBook Readers Galore di libraryman, su Flickr

La questione ritorna periodicamente alla ribalta ed è stata più volte affrontata anche in questo blog (tra i numerosi post si veda almeno questo): gli ereader sono destinati a sparire di fronte all’avanzata inarrestabile dei tablet?
Infatti benché i primi, anche prendendo come data ufficiale di nascita il 19 novembre 2007 (giorno in cui venne presentato al pubblico il Kindle di prima generazione; in verità il device della casa di Seattle non è il primo ereader in assoluto, risalendo i primi dispositivi di questa categoria a circa un decennio prima, n.d.r.), abbiano preceduto i secondi di oltre due anni (Steve Jobs infatti lanciò l’iPad di prima generazione il 27 gennaio 2010; anche in questo caso non si trattava della prima tavoletta in assoluto a vedere la luce, ma fu la prima ad imporsi – in termini geografici e di vendite – globalmente), da subito si iniziò a discettare della possibilità che queste due classi di dispositivi potessero o meno coesistere.
A riguardo le posizioni furono sin dall’inizio variegate: a fianco di coloro che decretavano la vittoria a breve dei tablet stavano coloro che non mancavano di sottolineare le peculiarità, tali da garantire loro la sopravvivenza, degli ereader; vi erano infine coloro (e tra questi va inserito il sottoscritto) che vedevano in prospettiva una convergenza tra queste due tipologie di dispositivi.
Queste tre “scuole di pensiero” sono a grandi linee quelle tuttora prevalenti ed è interessante rilevare come, a distanza di tre anni, ciascuna potrebbe affermare di avere avuto sinora ragione:
1) la prima ha dalla sua i crudi numeri: i tablet sono, secondo tutti i dati di vendita, l’unico segmento del mercato PC a crescere nonostante la crisi con volumi di vendita impressionanti (le varie Gartner, IDC, Canalys, etc. su questo punto concordano)
2) la seconda ha dalla sua la qualità: nonostante gli sviluppi degli schermi LCD quelli con inchiostro digitale rimangano imbattibili in quanto a facilità di lettura e minor affaticamento degli occhi
3) la terza, infine, ha dalla sua alcuni fatti incontrovertibili: la convergenza infatti si è materializzata, oltre che per il form factor, dal lato delle tavolette con la ricerca di schermi più performanti in termini di resa dell’immagine (luminosità, nitidezza dell’immagine, visione ad angoli elevati, eliminazione di riflessi, etc.) e di consumi di energia, dal lato degli ereader con l’aggiunta di funzionalità quali lo schermo touch, la connettività (Wi-Fi o 3G), la comparsa del colore e la possibilità (ad onor del vero ancora più teorica che pratica) di vedere brevi filmati.
Poco sopra ho appositamente usato il grassetto per evidenziare quel “sinora” in quanto un recentissimo articolo dell’agenzia Reuters a firma di Jeremy Wagstaff (articolo ampiamente ripreso in Italia da Wired) sembrerebbe celebrare il funerale degli ebook reader. In effetti, stando a Wagstaff, la situazione appare a dir poco complicata e tutte le stime di mercato (confortate dal tracollo di vendite di eInk Holding nell’ultimo bimestre 2011) pessime. I fattori che spingono a formulare queste previsioni nere sono presto detti: con una forchetta di appena 70 euro nel prezzo tra gli ereader di punta (ovvero i 129 euro del Kindle Paperwhite o del Kobo Glo) e rispettabilissime tavolette entry level quali il Kindle Fire HD od il Nexus 7 di Google (che si trovano a 199 euro) è evidente che la maggior parte dei consumatori, a meno che non si tratti di grandi lettori, si orienterà verso quest’ultima classe! Un ulteriore aspetto che induce a cattivi presagi è poi quello delle “potenzialità”: a detta di numerosi analisti intervistati la tecnologia e-ink si sviluppa più lentamente rispetto a quella LCD e ciò avviene nonostante gli ingenti investimenti effettuati (la crisi in realtà riguarda anche Qualcomm che starebbe cercando di “piazzare” in licenza la sua ottima tecnologia Mirasol…).
A mio avviso è purtroppo indubbio che gli ereader non stiano “crescendo” come dovrebbero: i colori restano una caratteristica di pochi dispositivi (tra l’altro va rilevato che Barnes & Noble, per ora, ha puntato sul Nook Glowlight con illuminazione frontale e non su una versione migliorata del Color!) e peraltro restano assai “sbiaditi”, la connettività nella maggior parte dei casi avviene via Wifi, non esiste (ad eccezione del Kyobo, che si basa su una versione personalizzata di Android) un sistema operativo di riferimento con il suo ricco sistema di applicazioni tale da conferire maggiore appeal alla categoria, il refresh delle pagine lascia ancora a desiderare e lo stesso schermo touch non è sensibile al tocco quanto lo è il corrispettivo sulle tavolette. Insomma, gli unici vantaggi indiscutibili rimangono la maggiore facilità di lettura / minor affaticamento dell’occhio (aspetto questo assolutamente decisivo) e l’invidiabile autonomia delle batterie.
Quale dunque il futuro? Ha ragione Wagstaff? Personalmente rimango della mia opinione che si vada verso la convergenza (al termine della quale sarà arduo per ovvi motivi stabilire se avremo tra le mani più un tablet od un ereader) e questo perché il tracollo dei lettori di libri digitali non potrà essere così repentino: 1) i benefici effetti delle economie di scala si faranno sentire anche per questi ultimi (già ora se uno si accontenta con 50 euro si porta a casa un ereader anzianotto quanto si vuole ma comunque capace di fare il suo dovere) ed i prezzi caleranno di conseguenza, rendendoli più appetibili 2) se è vero che in ambito educational tutti (corpo docente, istituzioni scolastiche, etc.) sembrano preferire le tavolette per le indubbie maggiori proprietà “multimediali” / interattive, non andrebbero nemmeno sottaciuti i ben noti svantaggi (difficoltà di concentrazione, affaticamento vista, fragilità schermi, etc.) 3) dal punto di vista editoriale non è ancora stata raggiunta una vera standardizzazione sul formato da adottare e forse, a causa della continua evoluzione tecnologica, mai ci si arriverà (l’unica costante sarà la Rete come “ambiente operativo”), motivo per cui device alternativi troveranno sempre una nicchia di sopravvivenza.
Insomma, non la farei così scontata come il report Reuters lascia intravedere: sicuramente un importante banco di prova sarà il Natale 2012, al quale peraltro i produttori di ereader si presentano ben armati (oltre ai vari lettori con illuminazione frontale sono incuriosito dai risultati che riuscirà ad ottenere l’interessante Kobo Mini): se le vendite saranno soddisfacenti allora si potranno mettere in cantiere ulteriori modelli per il prossimo biennio (rinviando la “morte” dell’ereader) mentre in caso contrario è prevedibile l’uscita di molti operatori.
Una volta mancati i necessari capitali molti progetti resteranno sulla carta mentre altri (mi riferisco a quelli di quegli operatori che finora hanno tenuto il piede in due scarpe, leggasi tablet ed ereader) verranno verosimilmente accorpati. E allora sì che sarà veramente convergenza!

Gli archivi sulla nuvola alla prova dell’uragano Sandy

A quanto pare è destino che gli uragani fungano da banco di prova per gli archivi digitali: nel 1995 l’uragano Marilyn colpì violentemente le Isole Vergini provocando vittime e danni ad edifici tanto pubblici quanto privati: sulla scorta di quell’evento il National Media Lab redasse delle linee guida (una sintesi in italiano la trovate all’interno del volume “Memorie digitali: rischi ed emergenze”, pubblicato dall’ICCU nel 2005) su come minimizzare i danni in simili casi.
Alcuni dei consigli forniti allora mantengono appieno la loro validità (in particolare quelli su dove collocare fisicamente i sistemi di archiviazione ed i sistemi ed i supporti informatici contenenti dati, ovvero in piani che non siano il primo e l’ultimo ed in locali non affacciantesi sull’esterno) ma molti altri appaiono anacronistici ed evidenziano quanta strada abbia fatto la tecnologia in questi tre lustri e, di riflesso, quanto la nostra vita dipenda in modo sempre più stringente da quest’ultima.
Un esempio su tutti: 15 anni fa il NML suggeriva di scollegare dalla rete elettrica tutte le apparecchiature elettroniche e di impacchettarle in apposite buste di plastica mentre oggi la lotta con l’uragano Sandy si è giocata tutta, al contrario, proprio sul riuscire ad evitare di finire offline! Del resto all’epoca l’ipotesi di “vivere senza Internet” ed i vari dispositivi tecnologici ad essa collegati per alcuni giorni non sollevava particolari problemi, a differenza di oggi dove la cosa sarebbe vissuta come una tragedia!
Non è dunque un caso se siti e blog nordamericani hanno fatto a gara a raccontare, praticamente minuto per minuto, quali e quanti data center (con relativi servizi) “andavano giù”; molti commentatori infatti hanno sottolineato come fosse, quella presente, una prova del nove della sostenibilità del modello del cloud computing (con annesso servizio di archiviazione) il quale ha come imprescindibile corollario l’essere always on.
Come spesso accade non c’è unanimità sul fatto che la prova sia stata superata o meno: come mostra l’analisi di Renesys (sintetizzata nel video qui sopra) in termini percentuali appena il 10% dei network dell’area di New York sono rimasti colpiti anche se, aggiunge poco sotto la stessa società, considerando la densità di reti è come se l’intera Austria si fosse bloccata, il che non è esattamente una cosa da niente!
Vittime di Sandy, del resto, sono stati anche servizi di primo piano come Gawker (che annovera tra i suoi siti pure il tecnologicissimo Gizmodo!) ed il celeberrimo Huffington Post, tutti “ospitati” nei server della newyorkese Datagram Inc. che, nel momento in cui scrivo, ha da poco terminato di svuotare i propri locali dall’acqua ed opera dunque ancora in regime di piena emergenza.
L’acqua infatti, oggi come per gli archivi cartacei dei secoli passati, si è rivelata ancora una volta essere la minaccia principale: evidentemente molti data center erano fisicamente collocati in locali non idonei (vuoi vedere che macchinari dal valore complessivo di centinaia di migliaia di dollari sono finiti negli scantinati?!) o comunque senza tener conto di possibili criticità idrauliche (l’agglomerato urbano di New York in definitiva sorge su più isole ed è attraversato da grossi fiumi come l’Hudson e l’East River).
Sono stati proprio gli allagamenti diffusi, una volta che la Conedison (la società energetica che serve New York; n.d.r.) ha interrotto l’erogazione di corrente, ad impedire ad un gran numero di generatori ausiliari di entrare in azione! Ma va tenuto presente che anche nei casi in cui i generatori sono correttamente entrati in funzione si è palesata la limitatezza dell’autonomia vuoi perché le scorte non erano sufficienti (le 48 – 72 ore di norma previste sono risultate troppo poche per un’emergenza di questa portata) vuoi perché gli stessi serbatoi erano finiti in ammollo. Questo ha costretto molti tecnici ad un’affannosa ricerca per la città di pompe di benzina per sopperire alla carenza del prezioso carburante! Su “The Verge” Adrianne Jeffries ha spiegato con dovizia di particolari un’emergenza tipo, con i tecnici sistemisti che, una volta riempite le taniche, hanno dovuto travasare a mano il loro contenuto nei serbatoi dei generatori operando in ambienti invasi da un misto di acqua, carburante e rifiuti.
Un’altra criticità chiaramente emersa, e che deve far profondamente riflettere, riguarda poi la collocazione geografica dei centri secondari di back-up e ripristino: è evidente che se i succitati servizi sono andati giù ciò è dipeso dal fatto che non solo i siti primari ma anche quelli secondari hanno fatto cilecca. Difatti è emerso che molti di questi siti secondari si trovano nel vicino New Jersey (vicino in senso relativo; è più o meno come se un’azienda di Milano avesse il suo sito secondario nei pressi di Bologna…), investito anch’esso dalla furia di Sandy.
Ovviamente non tutto è filato storto, anzi, prendendo per buona e rigirando la statistica citata all’inizio si può a buon diritto affermare che nel 90% dei casi le procedure ed i sistemi d’emergenza hanno funzionato a dovere (qui alcuni esempi). Pertanto mi sembra si possa tranquillamente affermare che complessivamente il “modello cloud computing” abbia retto all’urto e che anzi esso, se sarà capace di metabolizzare le lessons learned ovvero:
1) porre serbatoi, generatori e sale macchine in zone al riparo dagli allagamenti,
2) costruire i centri secondari di ripristino a debita distanza dal primario, sacrificando magari qualche frazione di secondo in fatto di tempi di latenza,
potrà, almeno dal punto di vista tecnologico, divenire davvero un modello altamente affidabile tale da assicurare un elevato grado di sopravvivenza ai nostri archivi digitali sulla nuvola.
Certo, resta il problema di fondo della dipendenza assoluta dall’energia elettrica, ma questo è un limite generale della nostra società e personalmente non vedo soluzioni soddisfacenti all’orizzonte (la diversificazione, magari puntando sulle rinnovabili, al momento non è che un palliativo) e pertanto lo lascerei fuori dal dibattito fin qui fatto.
Va infine sottolineata l’eccezionalità, relativamente alle aree geografiche interessate, del fenomeno meteorologico in oggetto ed anzi c’è da domandarsi (ma qui mi rendo perfettamente conto che entriamo nel campo della pura speculazione): quanti archivi, digitali ed analogici, sarebbero sopravvissuti se un’emergenza simile si fosse verificata in Italia?

L’ebook cambia il rapporto con le fonti documentarie?

Forum del Libro e della Letteratura

Forum del Libro e della Letteratura (Vicenza, 26-28 Ottobre 2012)

Sabato scorso, in occasione della nona edizione del “Forum del libro e della lettura” ho avuto la ventura di assistere ad un interessantissimo workshop nel quale si è cercato di delineare le possibili evoluzioni del libro in ambiente digitale. Come anticipava il titolo dell’incontro (“Sul futuro del libro: la lettura tra web 2.0 e mp3”) l’orizzonte nel quale ci si è mossi ha spaziato dall’ebook di puro testo ai libri “potenziati” (enhanced ebook) fino agli audiolibri; insomma, la carne messa al fuoco è stata moltissima e giocoforza non tutte le questioni sollevate hanno potuto essere sviluppate appieno.
Personalmente ho trovato particolarmente interessante la tematica sollevata da Effe (uno dei relatori) con il caso oramai da manuale di eZagreb, il romanzo di Arturo Robertazzi ambientato ai tempi delle guerre balcaniche che, nella sua versione digitale, contiene oltre alla parte di finzione rimandi a mappe, articoli di giornale, documenti ufficiali del Tribunale Penale Internazionale dell’Aja ed altro materiale “vero”.
Trascendendo ora dal caso specifico, non occorre possedere una fervida fantasia per immaginare come a breve avremo a che fare con libri digitali che, un po’ come i CD-ROM degli anni Novanta, saranno arricchiti non solo di testi ed immagini ma pure di audio e di video (le opinioni sullo stato attuale dell’arte sono state discordi: a detta di alcuni le soluzioni tecnologiche sono già disponibili, per altri non ci sono oppure i risultati non sono soddisfacenti oppure ancora sono raggiungibili solo con cospicui investimenti peraltro economicamente non giustificabili dal momento che un mercato ben definito – a dirla tutta – nemmeno esiste).
Come si capirà le potenzialità sono enormi: se le prime ad essere beneficiate dovrebbero essere le edizioni per ragazzi ed i testi scolastici, lo storico (sopito) che è in me non ha potuto non rilevare come potrebbe venir riscritto il rapporto attualmente esistente con quelle fonti imprescindibili per attestare la scientificità dell’opera ed è su quest’ultimo aspetto che vorrei ora soffermarmi. Perlomeno tre sono a mio avviso i punti rimarchevoli:
1) la fine del primato delle fonti documentarie scritte: la diffusione di dispositivi capaci di catturare suoni e filmati è sotto gli occhi di tutti ed il loro facile utilizzo (in termini di ricerca e riproduzione) da una parte nonché la mole di “documenti” realizzabili dall’altra lascia supporre che le prossime generazioni di storici non potranno che farne un uso più esteso rispetto a quanto fatto finora, ad esempio, con le fonti orali
2) la verificabilità pressoché immediata delle fonti utilizzate: quel complesso apparato fatto di note, rimandi, riferimenti bibliografici a cui siamo stati abituati in fin dei conti ci dava solo la possibilità teorica (e questa in definitiva ci bastava!) di verificarne l’esattezza. All’atto pratico infatti ben pochi avevano la possibilità (e men che meno la voglia!) di verificare di persona recandosi in questo archivio od in quella biblioteca… Oggi invece con un click del mouse o con un tocco delle dita abbiamo modo di accedere direttamente alla fonte utilizzata per supportare una interpretazione od avvalorare una tesi, verificando di persona; ne consegue che lo storico non solo è costretto a fare un uso il più accorto possibile delle fonti medesime ma anzi deve ad esse attenersi con il massimo scrupolo, pena il vedere il proprio lavoro screditato
3) il tramonto delle fonti ufficiali: la ricerca della verità storica, ammesso che sia raggiungibile, non si basa più sull’uso praticamente esclusivo di fonti di provenienza ufficiale (leggasi: gli Stati) bensì prevede il ricorso a fonti prodotte anche in modo meno istituzionalizzato (mi verrebbe da usare il termine “accidentale”) dai più svariati soggetti produttori. Si badi comunque che anche queste ultime fonti, per quanto mediamente più “genuine”, vanno “maneggiate con cura” soprattutto perché, nel momento in cui si fanno meno mediate (il video realizzato in presa diretta di una cruenta battaglia possiede sicuramente una carica emotiva più forte del resoconto della stessa stilato a tavolino da una commissione militare!) diventano paradossalmente anche più difficilmente “elaborabili”! Ma a prescindere da queste controindicazioni credo che la produzione storiografica che verrà, basandosi su un mix più equilibrato di fonti, sarà in ogni caso complessivamente meno sbilanciata (non uso appositamente il termine “oggettiva”) e meno unilaterale, il che mi sembra un bene.
Non è superfluo, per concludere, sottolineare come l’utilizzo di queste fonti all’interno dei libri digitali del futuro non potrà prescindere da un adeguamento degli archivi (senza peraltro con ciò suggerire che questi istituti debbano essere piegati agli interessi degli storici!): si va dalla necessità di adottare formati capaci di essere “integrati” in questa sorta di super-libri all’esigenza alternativa di garantire la loro “linkabilità” duratura nel tempo (sarebbe assurdo che un testo perdesse il suo apparato di note perché i link ai quali esso rimanda sono morti – definiti in gergo link rot, n.d.r.) fino ovviamente alla loro leggibilità (il link non solo deve essere attivo, ma la risorsa mirata usabile!). Tutti obiettivi conseguibili solo predisponendo infrastrutture informatiche capaci di garantire la conservazione nel lungo periodo di “risorse” identificabili univocamente nel tempo.
Val la pena infine evidenziare che, venendo meno la centralità degli archivi “ufficiali”, sarà importante che tutti i soggetti produttori sviluppino una ben definita “cultura dell’archivio”, senza la quale ben poco di affidabile (trusted) è destinato a rimanerci, nonché acquisiscano competenze adeguate a trattare un materiale che verosimilmente sarà molto più eterogeneo di quello sin qui prodotto. Non c’è che dire: sfide complesse ci attendono!

Ecco l’iPad mini, ma Apple ora sembra rincorrere

Apple iPad mini

Apple iPad mini

Infine il tanto a lungo chiacchierato iPad Mini è arrivato: Tim Cook, dal palco del California Theatre di San José, ha estratto il nuovo nato della casa della Mela. Tutto come da copione, dunque (a parte la sorpresa, quella sì almeno per il sottoscritto, della presentazione della quarta generazione dell’iPad “grande” con grafica e processore potenziati! chissà come l’avranno presa i possessori di New iPad lanciato, ricordo, appena il 7 marzo scorso…), anche se la perplessità rimane: il prodotto non mi sembra granché innovativo ma come sempre ha ragione chi vende: resta dunque da vedere se i fan dell’azienda di Cupertino giudicheranno congrui i 329 dollari necessari per aggiudicarsi la versione mini del più famoso tablet al mondo (ma ciò nonostante dallo schermo “più grande del 35%” rispetto ai rivali!) e se risponderanno pertanto con il consueto entusiasmo mettendosi diligentemente in coda davanti agli Appstore di tutto il mondo (a proposito lo sbarco avverrà a breve pure in Italia: 2 novembre per la versione base) o se al contrario le valide alternative esistenti, targate Amazon, Samsung e Google, li faranno propendere per altre scelte.
Vada come vada, non nascondo il mio scetticismo complessivo (condiviso peraltro anche da Wall Street, dove il titolo della Mela nel momento in cui scrivo perde oltre il 3%; va comunque sottolineato che è una giornata negativa per tutte le contrattazioni, n.d.r.), scetticismo che nemmeno il nuovo iBooks Author (con nuove funzioni calibrate per il mondo della scuola) contribuisce a diminuire: la sensazione che Apple oramai si trovi ad inseguire nel terreno dell’innovazione è sempre più forte e le innumerevoli cause legali intentate in giro per il mondo testimoniano in un certo senso questa debolezza di fondo ma per il momento ben mascherata dai brillanti risultati in termini di vendite e fatturato.

P.S. Se da oltreoceano non giungono dunque novità di rilievo, qualcosa si muove in Italia: in un incontro pubblico svoltosi pressoché in contemporanea con l’evento californiano Riccardo Cavallero di Mondadori illustrava, riprendendo a grandi linee le tematiche già evidenziate in un mio precedente post, le strategie prossimo venture dell’azienda di Segrate: in esse l’ebook svolge un ruolo cruciale per rilanciare (almeno questa è la speranza) la lettura in Italia e più concretamente per dare un futuro alle librerie, il tutto attraverso l’abbandono progressivo del DRM (anche questo è allo stato attuale delle cose più un auspicio che una promessa) e la riorganizzazione della propria presenza online (in particolare Bol.it andrà sempre più ad integrarsi con il bookshop online di Kobo, come si può già intuire navigando nel sito di quest’ultimo). Insomma, una volta tanto ai luccichii californiani meglio i toni di grigio milanesi.

Amazon svela alcuni segreti della tecnologia Paperwhite: rappresenta davvero lo stato dell’arte?

Amazon ha postato su Youtube un video nel quale svela con maggior dovizia di dettagli alcuni aspetti tecnici relativi al funzionamento del suo nuovo display Paperwhite: in particolare viene spiegato in modo intuitivo come sia stato concepito e realizzato il nuovo sistema di illuminazione frontale (front-lit) grazie al quale è possibile leggere anche in un ambiente non illuminato (il caso classico è a letto prima di addormentarsi).

In sostanza, come si sarà evinto dalla visione del video, diversamente da uno schermo LCD a retroilluminazione, nel Paperwhite la luce arriva dall’alto preservando così i due vantaggi da sempre riconosciuti all’inchiostro elettronico: a) il non affaticare la vista b) la perfetta leggibilità anche nel caso in cui lo schermo sia esposto direttamente ai raggi del sole o comunque usato in un ambiente altamente illuminato.
Il vero capolavoro tecnologico di Amazon comunque non è stato semplicemente l’aggiungere la luce bensì il modo attraverso cui si è raggiunto l’obiettivo: rispetto al Nook Touch Glowlight di Barnes & Noble, che pure è fornito di un particolare reticolo di diffrazione per meglio diffondere la luce emessa dal LED posto sul bordo superiore dell’ereader stesso, l’illuminazione complessiva dello schermo risulta migliore (mentre nel lettore di B&N i bordi, specialmente quello superiore in prossimità del LED, risaltano nettamente, come si constata in questo viedo). I tecnici di Seattle sono stati in altri termini capaci di realizzare, al di sopra del touchscreen capacitivo, uno strato (dello spessore di mezzo millimetro) maggiormente capace rispetto ai device rivali di “trasportare” la luce per tutta la lunghezza del display e di “sparare” la luce verso il basso in modo nettamente più omogeneo (lo stesso sistema di controllo del livello di illuminazione appare più raffinato). Il risultato finale pertanto è davvero notevole tanto più che si è riusciti a non impattare negativamente sulle prestazioni della batteria.
Insomma, il Kindle Paperwhite è davvero un ottimo ereader anche se non posso negare la mia simpatia per il Kobo Glo, che in fatto di omogeneità dell’illuminazione non ha molto da invidiare (qui un video d’esempio) al ben più chiacchierato collega ma che, specifiche tecniche alla mano, a parità di dimensioni dello schermo (6 pollici) pesa meno ed è più fino e, aspetto da non trascurare (anche se qui entriamo nel soggettivo), ha un look decisamente più accattivante.
Per concludere, sicuramente con questa generazione “illuminata” di ebook reader è stata innalzata l’asticella delle caratteristiche tecniche minime indispensabili ma nemmeno si può dire che siano stati raggiunti gli obiettivi finali, ovvero da un lato la possibilità di fruire di contenuti multimediali (leggasi audio e video) dall’altro la comparsa dei colori, indispensabili per far sì che interi generi e tipologie (fumetti, graphic novel, magazine, riviste, etc.) possano venire fruiti con il massimo grado di soddisfazione anche attraverso gli ereader.

Il Kindle Fire arriva finalmente in Italia, mentre per l’ereader Paperwhite bisogna aspettare. Con questa mossa Bezos ha veramente ammazzato il mercato?

Kindle Fire HD 7''

Kindle Fire HD 7” (fonte foto: http://amazon-press.it/immagini-stampa.html)


PREMESSA

Mi ero intimamente ripromesso, per motivi di prudenza, di commentare la messe di device lanciati in questi ultimi giorni a bocce ferme, vale a dire dopo il 12 settembre, giorno in cui Apple dovrebbe presentare l’iPhone 5 e, a detta di molti, un Mini iPad. La quantità di colpi sparati l’altro ieri da Jeff Bezos è però stata tale e tanta, i dibattiti in Rete che ne sono seguiti così accesi, gli articoli ed i commenti sui siti specializzati talmente numerosi che non riesco a mantenere la promessa!

I NUOVI DEVICE

Dal momento che le novità e le specifiche tecniche saranno ormai arcinote a tutti voi, riassumo a solo titolo d’inventario quanto “disvelato” da Jeff Bezos in quel di Santa Monica focalizzandomi, dal momento che in giro ho visto parecchie imprecisioni, soprattutto su prezzi e date di consegna (dati ricavati dai siti Amazon.com ed Amazon.it):
1) l’ereader Kindle Paperwhite, caratterizzato dallo schermo assai più definito e dall’illuminazione “notturna”, è disponibile in versione solo WiFi oppure con connettività 3G rispettivamente a 119 e 179 dollari; per ora NON è in vendita in Italia (contestualmente il “vecchio” Kindle base, anch’esso oggetto di qualche miglioria nella definizione dello schermo e nella reattività della pagina, scende a 69 dollari – 79 euro in Italia)
2) il tablet New Kindle Fire: a dispetto del nome si tratta in realtà del “vecchio” Kindle Fire (cioè di quello presentato nel settembre 2011) sottoposto ad un discreto upgrade per quanto riguarda il processore (più veloce), la memoria (raddoppiata) e la durata della batteria; costa 159 dollari e, con deciso ritardo, arriva pure in Italia dove costerà 159 euro (cambio dollaro / euro 1 ad 1!) con consegne a partire dal 25 ottobre (contro il 14 settembre degli Stati Uniti)
3) il nuovo (questa volta sì!) tablet Kindle Fire HD; anche in questo caso il nome non deve ingannare giacché con esso si fa riferimento a più dispositivi talvolta significativamente diversi tra di loro (in particolare le versioni da 8,9 differiscono rispetto a quelle da 7 pollici, oltre che per le dimensioni, per la maggior definizione dello schermo, per la presenza di un sistema audio dual-stereo – VS dual drive stereo – e per un processore leggermente più potente – 1,5 GHz VS 1,2 -; per un raffronto tra i vari modelli rimando alla tabella comparativa presente in fondo a questa pagina). Entrando nello specifico le “versioni” esistenti sono le seguenti: a) quella con display da 7 pollici, dal costo di 199 dollari se si vuole la memoria da 16GB oppure di 249 dollari se si opta per quella più “sostanziosa” da 32GB; in consegna rispettivamente a partire dal 14 settembre e 25 ottobre, è disponibile anche nel mercato italiano al prezzo “invariato” (nel cambio) di 199 e 249 euro, con consegne che però slittano al 25 ottobre b) quella con schermo da 8,9 pollici: è questa a mio avviso l’autentica novità, dal momento che va a sfidare direttamente l’iPad 3 per dimensioni e specifiche tecniche (ricordo che la tavoletta della Mela ha uno schermo da 9,7 pollici; n.d.r.) e conseguentemente per prestazioni e relative applicazioni e servizi che è possibile farci girare. L’offerta di Amazon in questo caso è ancora più sottoarticolata: abbiamo infatti da un lato la versione con sola connettività Wi-Fi con memoria interna da 16 GB al prezzo di 299 dollari oppure quella da 32 GB a 369 dollari, mentre dall’altro lato la versione con connettività LTE (4G) con memoria da 32 GB a 499 dollari oppure quella da 64 GB a 599 dollari. La consegna per tutti questi ultimi device è stimata per il 20 novembre e per il momento NON riguarda Italia (del resto della versione 4G non ce ne faremmo granché non essendo praticamente sviluppata la relativa rete!).

BEZOS AMMAZZA IL MERCATO?

Finora ho parlato soprattutto di hardware ma, come ha tenuto a sottolineare Jeff Bezos durante la presentazione, Amazon produce servizi, non gadget. E meno male, vien da dire, perché quella fatta dall’azienda di Seattle è vera innovazione tecnologica che fa impallidire al confronto le “novità” lanciate dalla concorrenza nei giorni precedenti! Avevano iniziato mercoledì Nokia e Motorola: riguardo all’azienda finlandese molti analisti, rivitalizzando i rumor diffusi all’epoca della presentazione di Surface di Microsoft, avevano ipotizzato che sarebbe stato annunciato un tablet o meglio ancora un phablet (inutile oramai creare un doppione del Surface!), invece la società guidata da Stephen Elop si è limitata a svelare la sua nuova linea di smartphone Lumia 920 (peraltro mi sembra quantomeno accattivante, peccato solo per la gaffe del PureView!). Analoga delusione è arrivata da Motorola: anche in questo caso, per quanto la presenza del Nexus 7 inducesse a far ritenere la cosa poco probabile, vi era chi ipotizzava la presentazione di qualcosina di più del solito smartphone: ebbene, il nuovo Razr Maxx è effettivamente un cellulare cresciutello (display da 4,7 pollici contro i 5,3 del Samsung Note) ma nulla di più.
Paradossalmente a cercare di sparigliare le carte è stata un’outsider, vale a dire quella Kobo che a forza di internazionalizzazione a tappe forzate ed accordi con editori e librerie indipendenti sta cercando di ritagliarsi un ruolo “antagonista”: a leggere le specifiche tecniche la triade di nuovi prodotti lanciati dall’azienda nippo-canadese (ovvero gli ereader Glo e Mini ed il tablet Arc) non sfigurano affatto rispetto ai device proposti da ben più quotati competitor e, aggiungo, sono anche esteticamente deliziosi!
Purtroppo un grosso limite è il prezzo, e qui arriviamo alla domanda da un milione di dollari: Amazon, con gli annunci di ieri, si accinge ad ammazzare il mercato degli ereader? Ad esempio sarebbe stato interessante vedere l’accoglienza del mercato per il Kobo Mini da 5 pollici (un ereader letteralmente tascabile!) ma il prezzo di 79,99 dollari non lo aiuta se pensiamo che l’entry level del Kindle è da ieri a 69,99 dollari. Discorso analogo per il Kobo Glo: costa 129,99 dollari, quanti lo preferiranno al Kindle Paperwhite che ne costa 10 in meno?
Un minimo più problematica la scelta in campo tablet. L’Arc, ad esempio, è sulla carta sicuramente superiore al New Kindle Fire mentre (a parità di soldi, ovvero 199 dollari) rispetto al Kindle Fire HD da 7 pollici oltre a non avere il doppio WiFi è sicuramente inferiore per qualità audio e memoria interna (8 GB VS 16!); vanta invece un certo vantaggio in quanto a processore (1,5 GHz VS 1,2) e pareggia in quanto a definizione dello schermo (ma mai come in questo caso sarebbe necessaria una prova diretta; Amazon assicura di aver abbattuto del 25% i riflessi della luce solare togliendo lo strato di vuoto esistente tra schermo LCD e strato touch ma anche Kobo garantisce “cristallinità” dell’immagine ad angolazioni elevate!). Ma ad uscire forse peggio di tutti nell’arena delle tavolette low cost è il Nexus 7 di Google (da martedì 4 peraltro in vendita anche in Italia) il quale nella versione più costosa viene 249 dollari / euro, vale a dire quanto il Kindle Fire HD che però ha il doppio di memoria interna e come ricordato per l’Arc poco sopra il doppio Wi-Fi, lo schermo antiriflesso, l’audio dual stereo, etc. (in definitiva gli unici plus del Nexus 7 sono il processore leggermente più performante ed il sistema NFC, il quale però ora come ora rappresenta soprattutto un fronzolo senza molte applicazioni concrete…). Insomma, se l’altro giorno durante la presentazione dei Motorola Razr Eric Schimdt ammetteva candidamente che Android (e Google) erano indietro nei tablet, probabilmente dopo la presentazione della nuova famiglia Kindle (che usano sì Android, ma tendono ad occultarlo sotto l’interfaccia Amazon) sarà ancora più preoccupato.
Ragionando numeri alla mano, dunque, sembra proprio che la risposta alla domanda posta a titolo di questo paragrafo sia affermativa, in linea con quanto già sentenziato da Pianeta eBook in uno dei suoi tweet:

E’ infatti innegabile che Amazon abbia assestato un durissimo colpo al mercato, avendo essa lanciato prodotti con un rapporto qualità / prezzo difficilmente avvicinabile dai competitor a meno che anch’essi non si accontentino di margini risicati, che è esattamente il concetto sotteso da Bezos nel momento in cui afferma: “We want to make money when people use our devices, not when they buy our devices”! In altri termini per l’azienda di Seattle i device non sono che un mezzo come un’altro attraverso il quale stringere una relazione con i clienti ai quali successivamente vendere prodotti e servizi a prezzi, man mano che la relationship si fa più profonda ed aumentano le quote di mercato detenute, sempre più stracciati e tali da mandare gambe all’aria la concorrenza (è quella che JMAX, in un post apparso sul blog TKBR qualche mese fa, definiva engagement economy; l’autore vi sostiene che non ci sarebbe da meravigliarsi se Amazon un giorno, portando alle estreme conseguenze tale politica, mettesse in vendita ebook ad un prezzo tendente a zero).
Come noto l’economia però non è solo numeri ma dipende molto anche da fattori psicologici, motivo per cui non si può rispondere alla domanda iniziale senza prendere in considerazione alcuni fattori soggettivi: essa sarà affermativa (sì, Amazon ammazza il mercato) se la percezione che ha il cliente finale della relazione instaurata rimarrà invariata e quest’ultimo continuerà a ragionare soprattutto con il portafogli e con una prospettiva di breve respiro; credo al contrario che la risposta possa essere negativa (no, il mercato è salvo e le varie aziende continueranno a farsi concorrenza più o meno spietata) se almeno una parte degli utenti (attuali e potenziali) riterrà che la liason con Amazon rischi di diventare troppo “vincolante”. Lasciamo stare le accuse nuovamente lanciate al browser Silk di ledere la privacy (ma almeno dovrebbe esserci la possibilità di opt-out) e soprassediamo pure al fatto che sia impossibile eliminare, anche a pagamento, la pubblicità ma soffermiamoci invece sui soli aspetti “librari” (per quanto questi, bilanci alla mano, oramai non costituiscano da un pezzo la principale fonte di guadagni per l’azienda di Seattle): la consapevolezza che gli ereader Kindle supportano solo il formato proprietario .mobi e che questo non è compatibile (direttamente) con la gran parte degli altri dispositivi di lettura in commercio (che si stanno più o meno uniformando sull’ePub come modello standard), unita al fatto che gli ebook che acquistiamo in realtà… non li acquistiamo ma piuttosto li noleggiamo “a lungo termine” (vera o fasulla che sia, la storia di Bruce Willis era lì lì per scoperchiare un vero vaso di Pandora, peccato che sia velocemente sparita dal dibattito delle Rete e non abbia praticamente sfiorato i media mainstream!) dovrebbero bastare a dissuadere una certa quota di utenti che preferiscono pagare di più ma “fare quel che vogliono”!
In ultima analisi è dunque una questione profondamente soggettiva e che a sua volta rimanda a come l’individuo forma le sue convinzioni (ad es. ruolo di familiari ed amici, media ai quali è esposto, etc.), un argomento evidentemente sterminato ma che esula dagli obiettivi di questo post. Pertanto mi fermo qui ed aggiungo solo che, senza voler dividere manicheisticamente tra buoni e cattivi, in Rete ci sono tutti gli strumenti e le informazioni per documentarsi indipendentemente, farsi la propria opinione e decidere quale sia la proposta migliore (o la meno peggiore…).

CONCLUSIONI

I raffronti tra i vari device fatti nel corso di questo post testimoniano che Amazon ha sicuramente lanciato una serie di dispositivi eccellenti dal punto di vista tecnico, ad un prezzo concorrenziale e soprattutto accessibile a moltissimi utenti: se questi ultimi dovessero ragionare solo in base a meri calcoli economici, c’è da attendersi che Amazon a breve diverrebbe regina del mercato. Se gli utenti invece scaveranno un po’ più a fondo nel tipo di relazione, realizzeranno che questa non è esattamente paritetica: ad alcuni potrà andare bene ugualmente (infine, l’importante è risparmiare…), altri invece anteporranno la loro “libertà” (per restare nel librario questo significa esigere ebook in un formato aperto in modo da poterli leggere su qualsiasi device, di poterli salvare dove vogliono e soprattutto di possederli per sempre disponendone come meglio si ritiene, si intende sempre nel rispetto delle leggi) e cercheranno altre soluzioni per godersi le proprie letture digitali.
Il fattore discriminante in definitiva risulta essere proprio la sensibilità personale e la volontà di formarsi una propria opinione; nel mio piccolo spero con questo post di aver contribuito almeno in minima parte al raggiungimento di questo obiettivo.

Con Glacier anche gli archivi storici vanno sulla nuvola

Inside the library

Inside the library di muegyver, su Flickr


LA NOTIZIA

Non sarà passato inosservato ai più l’annuncio, dato da Amazon qualche settimana fa, del lancio di Glacier, servizio di archiviazione sulla nuvola appositamente pensato per quei dati / documenti digitali oramai “vecchi” e poco utilizzati ma dei quali per svariati motivi (prescrizione legislativa, ragioni di opportunità e convenienza, etc.) è prevista la conservazione nel lungo periodo.
Come spiegato in un post di Werner Vogels, CTO di Amazon, il servizio si rivolge ad un pubblico eterogeneo: si spazia dalle grandi aziende alle PMI, passando naturalmente per le giovani e dinamiche start up, senza ovviamente dimenticare gli enti di ricerca, i governi, le aziende sanitarie, le media company, le biblioteche, etc.
A tutti costoro Amazon propone di sottoscrivere un contratto sicuramente aggressivo ed “accattivante”: appena 0,01 dollari per Gigabyte al mese (0,011 qualora come data center di riferimento si scelga quello irlandese) purché non si “movimenti” più del 5% di quanto caricato o non lo si cancelli entro 90 giorni dall’upload; in tale evenienza Amazon applica una tariffa che parte da 0,011 GB nel primo caso e fissa di 0,033 nel secondo (per ulteriori dettagli sul piano tariffario rimando a questa pagina). L’intento è chiaro, ovvero disincentivare gli utenti a fare un uso “improprio” di Glacier che, per l’appunto, è dedicato all’archiviazione (caratterizzata da un relativamente minor numero di operazioni di recupero) e non allo storage di breve respiro; a fungere da ulteriore deterrente a comportamenti “da furbetti”, oltre alla tariffazione, è il tempo stesso impiegato per l’operazione di estrazione dei dati / documenti richiesti, mediamente quantificato in 5 ore!

LE REAZIONI

Dal momento che la stessa Amazon, in linea con tutte le “novità” che gravitano attorno al cloud computing, ha impostato la sua proposta puntando sull’elemento cost-effectiveness, non deve sorprendere che il dibattito sui siti e blog specializzati si sia sviluppato con l’obiettivo preciso di confutare o meno la convenienza del nuovo servizio omettendo quasi del tutto di chiedersi se esso, al di là della dimensione economica, risponda realmente alle esigenze di archiviazione: è banale sottolinearlo ma gli eventuali risparmi ottenibili da soli non giustificano il passaggio ad un diverso sistema di archiviazione, soprattutto qualora quest’ultimo non sia archivisticamente valido almeno quanto quello che si abbandona! Ciò nondimeno, anche alla luce delle perduranti ristrettezze economiche, credo sia utile sintetizzare le posizioni dei due schieramenti, rimandando ai paragrafi successivi per una trattazione più dettagliata delle caratteristiche squisitamente archivistiche di Glacier e delle problematiche sollevate.
I detrattori del nuovo servizio di Amazon si sono sforzati, conti alla mano, di dimostrare come esso non sia competitivo rispetto alle librerie di nastri che vorrebbe pensionare dal momento che costa circa 10 volte tanto (soprattutto in presenza di archivi di notevoli dimensioni; siamo sull’ordine delle decine di Petabyte, n.d.r.). Se da Amazon si sono affrettati a rispondere che per vedere i risparmi bisogna (giustamente a mio avviso, dal momento che stiamo parlando di archiviazione nel lungo periodo) fare proiezioni di spesa che vadano oltre i 5 anni, altri analisti hanno rilevato come i sostenitori delle tape library abbiano omesso di mettere in conto alcune voci di spesa non esattamente irrilevanti, come quelle derivanti dalla necessità di allestire un sito secondario di ripristino oppure ancora una buona quota di quelle di manutenzione e di gestione (e come ben sintetizza Enrico Signoretti, quel che conta è il TCO e non il TCA, vale a dire il costo totale di possesso e non quello di acquisto!); morale della favola, aggiungendo queste ulteriori voci di spesa le soluzioni finiscono per l’equivalersi ma con il vantaggio innegabile, per coloro che si affidano a Glacier, di venir “affrancati” da ogni incombenza diretta sulla materia e soprattutto con la certezza di non venire mai a trovarsi nella poco invidiabile situazione di essere dotati di infrastrutture vuoi sottodimensionate vuoi sovradimensionate (origine nel primo caso di sprechi e di inefficienze, nel secondo di onerosi upgrade); con Glacier, così come con tutti gli altri servizi ispirati al modello del cloud computing, si paga infatti solo in base all’effettivo consumo (pay-as-you-go) con la possibilità di scalare verso l’alto o verso il basso a seconda delle esigenze.

OSSERVAZIONI DI NATURA TECNICA

Come accennato poc’anzi uno dei tratti salienti di Glacier è l’abbandono del nastro magnetico come supporto principe (e low cost!) per l’archiviazione di massa di lunga durata; sollecitata a dare delucidazioni sulle soluzioni tecnologiche adottate, Amazon ha confermato attraverso un portavoce che “essentially you can see [Glacier] as a replacement for tape” che gira su “inexpensive commodity hardware components” (verosimilmente, chiosa l’autore dell’articolo, si tratta di un “very large storage arrays consisting of a multitude of high-capacity low-cost discs”).
Si tratta di una informazione di non poco conto dal momento che si abbandonano i nastri, con la loro lenta memoria ad accesso sequenziale (in sostanza per accedere ad un determinato dato occorre percorrere tutto il nastro a partire dall’ultimo punto cui si era acceduti), in luogo delle più performanti memorie ad accesso diretto: peccato che ciò sia vanificato dai lunghi tempi di latenza (circa 5 ore) entro i quali Amazon garantisce il recupero. Insomma, un servizio low cost ma anche very slow!
Per il resto viene ovviamente posto l’accento sulla ridondanza delle copie: ogni dato viene archiviato in più strutture ed in più dispositivi all’interno della singola struttura, al punto che si garantisce, come anzidetto, la durabilità annuale del 99.999999999% con periodiche, rigorose operazioni di verifica dell’integrità dei dati medesimi.

OSSERVAZIONI DI NATURA ARCHIVISTICA

Dal punto di vista archivistico con Glacier viene fino ad un certo punto ricostituita sulla nuvola l’unitarietà fisica e logica dell’archivio: giusto per restare in casa Amazon se su Amazon Web Services (AWS) va la parte corrente su Glacier va quella storica con la prospettiva, come ricordato da Vogels nel post citato, che in un prossimo futuro le due parti possano dialogare pienamente con il trasferimento dall’una una all’altra.
Ma oltre a questa premessa di cappello ci sono altre considerazioni archivistiche da fare; vediamo in modo un po’ più articolato:
1) poche righe sopra scrivevo che viene a ricrearsi l’unità dell’archivio “fino ad un certo punto”: questa precisazione perché non esiste ad oggi una soluzione intermedia per la fase di deposito né è dato sapersi se mai esisterà! Oramai infatti il cambiamento di status tra le varie fasi, al di là di alcuni aspetti giuridici (ad esempio il passaggio di responsabilità dai responsabili dei vari uffici a quello della conservazione), si risolve dal punto di vista “fisico” nell’allocazione dei dati / documenti in device sempre più omogenei e che differiscono, come ben esemplificano i prodotti di Amazon, “solo” per diverse scelte architetturali e per il livello di prestazioni
2) le cinque ore di tempo di latenza entro il quale Amazon assicura il recupero dei dati e la possibilità di effettuarne il download sono oggettivamente troppi: per anni si è scritto che l’avvento del digitale avrebbe garantito una fruizione universale ed istantanea degli archivi storici, favorendone nel contempo la valorizzazione, ed ora ci si dovrebbe accontentare di un tempo di recupero mediamente assai superiore rispetto a quello occorrente in un Archivio di Stato per vedersi consegnata la busta (cartacea) richiesta?!
Mi si potrà obiettare che non necessariamente i dati / documenti devono essere accessibili al pubblico ed inoltre che, in linea con l’Hyerarchical Storage Management (HSM), è sempre possibile allocare quei dati / documenti “di valore” negli storage device più prestanti, ma ciò vuol dire non tener conto di quanto ultimamente si va dicendo in fatto di big data =>
3) riguardo a quest’argomento assai in voga io stesso in un post di qualche mese fa ho evidenziato come, alla luce degli usi e riusi inaspettati che si fanno (e si faranno sempre più) degli open (linked) data, il relativo life-cycle stia mutando: meno picchi ma al contrario un uso più costante e prolungato nel tempo e soprattutto con numeri di istanze mediamente più elevati. In buona sostanza, considerando che Amazon stessa indica tra i vari scenari applicativi quello degli open data (i quali praticamente per definizione non si sa se, come, quando e da chi verranno utilizzati), non è sensato far aspettare un eventuale ricercatore per ore ed ore! Questo aspetto ci introduce al punto seguente =>
4) il mutato ed imprevedibile data life-cycle dei giorni nostri, al contrario di quello “scontato” che l’ha preceduto (caratterizzato da alto uso durante la fase attiva e poi istanze man mano decrescenti nella fase passiva), rende ovviamente più difficile l’individuazione, che giocoforza deve essere effettuata a priori, di quali dati caricare e conseguentemente delle soluzioni di archiviazione più idonee. Del resto questo problema rimanda a quello più amplio della discrezionalità (in assenza di strumenti avvicinabili al massimario di selezione e scarto), circa cosa caricare e ai conseguenti rischi di rottura del vincolo archivistico
5) critici pure alcuni aspetti denunciati da Andrea Rota (che ha avuto modo di provare Glacier) sul suo blog personale: a prescindere dal fatto che le “operazioni di upload e download possono essere effettuate solo tramite la programmazione delle API di Amazon” (quindi in modo non immediato), Rota sottolinea che “come già avviene per altri servizi di storage di Amazon, i file caricati perdono il loro nome originale, che viene sostituito con una lunga stringa alfanumerica”, motivo per cui “se si vuole tracciare l’associazione fra nome e stringa identificativa, ad esempio per ricercare i file per nome, è necessario mantenere un indice esterno a Glacier oppure usare i metadati associati agli archivi”. Pare dunque di capire che, in assenza di adeguate cautele, vi sia l’elevato pericolo di perdita dei legami esistenti tra i vari dati / documenti.

OSSERVAZIONI DI NATURA LEGALE

Non meno importanti gli aspetti di natura legale sulla valutazione complessiva del servizio: valgono infatti in toto le considerazioni fatte a suo tempo per i servizi di storage sulla nuvola. Non a caso l’uso di Glacier è soggetto al medesimo contratto che regolamenta Amazon Web Services (si veda a riguardo AWS Customer Agreement) ed in particolare, tra le tante, vige la seguente condizione (punto 11; i grassetti sono miei, n.d.r.):

WE AND OUR AFFILIATES OR LICENSORS WILL NOT BE LIABLE TO YOU FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, CONSEQUENTIAL OR EXEMPLARY DAMAGES […], EVEN IF A PARTY HAS BEEN ADVISED OF THE POSSIBILITY OF SUCH DAMAGES. FURTHER, NEITHER WE NOR ANY OF OUR AFFILIATES OR LICENSORS WILL BE RESPONSIBLE FOR ANY COMPENSATION, REIMBURSEMENT, OR DAMAGES ARISING IN CONNECTION WITH: (A) YOUR INABILITY TO USE THE SERVICES, INCLUDING […] (II) OUR DISCONTINUATION OF ANY OR ALL OF THE SERVICE OFFERINGS, OR, (III) WITHOUT LIMITING ANY OBLIGATIONS UNDER THE SLAS, ANY UNANTICIPATED OR UNSCHEDULED DOWNTIME OF ALL OR A PORTION OF THE SERVICES FOR ANY REASON, INCLUDING AS A RESULT OF POWER OUTAGES, SYSTEM FAILURES OR OTHER INTERRUPTIONS; […] (D) ANY UNAUTHORIZED ACCESS TO, ALTERATION OF, OR THE DELETION, DESTRUCTION, DAMAGE, LOSS OR FAILURE TO STORE ANY OF YOUR CONTENT OR OTHER DATA. IN ANY CASE, OUR AND OUR AFFILIATES’ AND LICENSORS’ AGGREGATE LIABILITY UNDER THIS AGREEMENT WILL BE LIMITED TO THE AMOUNT YOU ACTUALLY PAY US UNDER THIS AGREEMENT FOR THE SERVICE THAT GAVE RISE TO THE CLAIM DURING THE 12 MONTHS PRECEDING THE CLAIM

Condizioni, si intende, che definire sbilanciate è un eufemismo e che peraltro stridono con le numerose rassicurazioni date in ordine all’affidabilità tecnica (si veda il 99.999999999% di durabilità media annuale): non ha senso da un lato promettere mari e monti e dall’altra declinare praticamente ogni responsabilità impegnandosi a risarcimenti spesso irrisori!

CONCLUSIONI

Tirando le somme, Glacier è sicuramente interessante in quanto costituisce il primo esempio di servizio sulla nuvola pensato per la conservazione permanente di dati e documenti digitali, questi ultimi in prospettiva “raccordati” pure con la parte corrente; è questa probabilmente l’unica nota positiva assieme al pricing aggressivo (che indubbiamente costituisce un ottimo biglietto da visita) giacché è bastata la veloce analisi alla quale ho sottoposto il nuovo servizio made in Seattle per evidenziare come esso patisca le consuete “tare”: discrezionalità su cosa caricare con conseguente rischio di rottura del vincolo, assenza di metadati (la cui presenza dipende dalla buona volontà di chi carica i dati), termini legali insoddisfacenti, cui si aggiungono un tempo di latenza imbarazzante e la vexata quaestio se sia o no un vantaggio affidare a terzi la gestione dei propri archivi digitali (o più correttamente delle infrastrutture sulle quali questi risiedono). Come saprete ritengo che almeno le istituzioni pubbliche dovrebbero farsi carico di queste incombenze ma a vedere il trend sono in minoranza…