Posts Tagged ‘google’

Nelle reti neurali il futuro dei data center (e degli archivi digitali)?

neural network

neural network di onkel_wart (thomas lieser), su Flickr

L’idea di fondo che permea buona parte dei post pubblicati in questo blog è che in tempi di cloud computing imperante, gli archivi digitali stiano tendenzialmente finendo per coincidere con i data center; questi ultimi, nella teoricamente impalpabile nuvola, rappresenterebbero la parte “materiale” (la ferraglia, per intenderci) del sistema, nella quale i nostri dati e documenti digitali trovano riparo.
Quest’approccio archivistico ai data center, inevitabile alla luce di quelli che sono i miei interessi, mi ha dunque inesorabilmente portato a prendere in considerazione queste infrastrutture strategiche essenzialmente nella loro “staticità” (intendendo con tale termine la capacità di offrire, materialmente, ricovero ai dati e documenti caricati nella nuvola), sottacendo nella maggior parte dei casi l’insieme di compiti computazionali che in misura crescente deleghiamo “al lato server“.
L’annuncio dato da Google con un post nel suo blog circa l’applicazione di tecnologie machine learning in uno dei suoi data center (DC), oltre ad aprire scenari che fino a pochi anni fa avrebbero trovato posto al più nei libri di fantascienza, spariglia le carte e mi impone a riflettere se l’impostazione sin qui adottata rimanga corretta o sia al contrario da rivedere.
Ma, prima di abbandonarci a voli pindarici, partiamo dalla notizia che, va detto, in sé non rappresenta nulla di trascendentale: in sostanza i tecnici dell’azienda di Mountain View, sempre alla ricerca di nuovi metodi per tagliare i consumi energetici dei propri DC, invece di seguire le teorie “classiche” che puntano su aspetti quali la dislocazione geografica (con tentativi talvolta stravaganti, come il fantomatico data center galleggiante approntato nella baia di San Francisco proprio da Big G e che così tanto ha fatto discutere lo scorso autunno), hanno ottenuto importanti risparmi implementando un “neural network” capace di apprendere dal comportamento di quei macchinari presenti nel DC e deputati al raffreddamento dei server (aspetto, come noto, costosissimo ma fondamentale per garantirne la massima operatività ed efficienza), prevedendo l’andamento dei consumi e, passaggio successivo, ottimizzandoli.
Ma cosa intende Google per rete neurale (artificiale)? Come specificato in un white paper diffuso per l’occasione, l’idea di fondo è realizzare “[a] class of machine learning algorithms that mimic cognitive behaviour via interactions between artifical neurons”; tali algoritmi permettono di avviare nelle macchine un processo di “apprendimento” (training) progressivo e cumulativo (nonché potenzialmente infinito) che ha come obiettivo l’accrescimento complessivo della “conoscenza” e l’accuratezza / qualità dei dati raccolti, con il fine dichiarato di individuare “patterns and interactions between features to automatically generate best-fit model”.
Nel concreto che hanno fatto i ricercatori di Google? Hanno applicato una serie di sensori in punti chiave del data center (quali refrigeratori, torri di raffreddamento, scambiatori di calore, pompe, etc.) ed hanno iniziato a cambiare, uno alla volta, i vari parametri tenendo nel frattempo costanti gli altri. Sono in tal modo riusciti a vedere non solo gli effetti, sull’intero sistema, dei cambiamenti apportati ma, grazie agli algoritmi di apprendimento utilizzati, sono stati in grado di far “imparare” il sistema dalle performance passate sviluppando progressivamente capacità predittive tali da migliorare quelle future.
Si capirà dunque come i titoloni circolati nei giorni scorsi (vedi le “superintelligent server farms” di cui ha parlato Techcrunch) siano eccessivi: Google, in definitiva, ha “semplicemente” reso operativo, peraltro in via sperimentale, un primo fascio di reti neurali artificiali applicato a quella che è la parte “meccanica” dei DC.
Il data center supercervellone capace di agire (ed interagire) sulla falsariga del celeberrimo HAL 9000 del film “2001 – Odissea nello spazio” (ovvero un supercomputer dotato di intelligenza artificiale ed in grado, se interrogato, di fornirci risposte), è dunque lungi dal divenire realtà.
Una volta depurata la notizia dai risvolti “fantascientifici” con i quali è stata subito ricoperta, bisogna però pure ammettere come essa, al di là del suo significato “basico” (ovvero la possibilità, anche per quei DC che svolgono funzioni di “archivio”, di adottare algoritmi di machine learning grazie ai quali ottenere considerevoli risparmi), riveste effettivamente una notevole importanza archivistica.
E’ stato infatti compiuto, con il progetto pilota di Google, un importante salto qualitativo: è infatti solo questione di tempo prima che i sensori vengano applicati, oltre che alla parte meccanica, ai server medesimi. Quando ciò avverrà il neural network instaurerà nessi e collegamenti (assimilabili in qualche modo al vincolo archivistico impuro?) tra i vari dati e documenti conservati sprigionandone l’intero potenziale informativo (tema connesso a quello dei big data ed al warehouse computing del quale ho parlato giusto nel mio ultimo post) e decretando così l’importanza strategica degli archivi.
Inoltre, aspetto non secondario, d’ora in poi l’idea statica di “data center come archivio”, ovvero come luogo fisico nel quale risiedono concretamente i dati ed i documenti digitali, è destinata a lasciar posto a quella, dinamica, di data center come luogo nel quale si instaurano collegamenti e percorsi nuovi e non prevedibili da parte… di un’intelligenza artificiale; l’attenzione si sposterà, in altri termini, dal contenitore (il DC) al suo contenuto.
Con tutto ciò che ne consegue.

Google ed il data center galleggiante

Il data  center galleggiante di Google

Il data center galleggiante di Google

Di data center (DC), in questi anni, mi sono occupato per i più svariati motivi e sotto molteplici prospettive: vuoi perché essi sono infrastruttura necessaria (ma purtroppo non sufficiente!) per mantenere in vita le speranze di archivi e biblioteche di giocare un ruolo nella società digitale, vuoi perché la loro corretta gestione (leggasi: dei dati in essi custoditi) impatta direttamente sulla privacy di tutti noi, vuoi ancora per i risvolti più strettamente tecnologici inerenti alle modalità con i quali li si costruisce (e a dove li si colloca) e, a cascata, alle possibilità di assicurare la loro continuità operativa nonché, nella peggiore delle ipotesi, la sopravvivenza dei contenuti digitali in essi custoditi.
La notizia che vado qui a commentare riassume in sé un po’ tutti questi aspetti: Google starebbe costruendo (il condizionale è d’obbligo non essendoci infatti conferme ufficiali da parte di Mountain View ma tutti gli indizi lasciano presupporre che sia effettivamente così), su un molo affacciantesi sulla baia di San Francisco, un avveniristico data center galleggiante.
Naturalmente la maggior parte dei commentatori ha spiegato la costruzione come esito della naturale ricerca, da parte dei colossi dell’high tech, di data center meno energivori: in tal senso la scelta dell’ambiente acquatico sarebbe l’ideale (a parte la presenza di sale), in quanto l’acqua potrebbe venir impiegata, oltre che per il raffreddamento delle macchine, anche per generare l’energia elettrica (in tutto od in parte non è dato sapere) necessaria al suo funzionamento. Inoltre questo data center galleggiante, potendo muoversi (nell’articolo sopra linkato si assicura che quella sorta di chiatta destinata ad ospitare i container modulari – che a loro volta andrebbero a comporre il DC in una sorta di Lego – ha capacità nautiche tali da poter andare praticamente ovunque), assicurerebbe l’ulteriore vantaggio di spostarsi in base alle esigenze, mettendolo al riparo da tutte quelle minacce atmosferico-ambientali che, per quanto ci si sforzi di realizzarli in luoghi sicuri, tipicamente affliggono i data center fissi.
Un ulteriore “vantaggio competitivo” potrebbe essere rappresentato dalla possibilità di servire aree geograficamente prive di tali infrastrutture vitali (si pensi al continente africano ed a molte regioni asiatiche): in questo senso il data center galleggiante ben si inserirebbe all’interno di altri progetti (non disinteressati, si badi) portati avanti da Google e tesi a ridurre il digital divide, come quello che prevede la realizzazione di dirigibili i quali, sorvolando le aree più remote di Africa ed Asia, letteralmente le irradierebbero dall’alto con il “vitale” segnale Wi-Fi, donando loro la connessione. Brin e Page, in altri termini, si presenterebbero come moderni “liberatori” e civilizzatori di queste nazioni arretrate…
Non meno importanti le considerazioni relative alla privacy: in tempi di datagate la presenza di un data center mobile, sottraibile dunque dalle grinfie dell’NSA, è politicamente decisamente vantaggioso ed al contrario un’ottimo modo per rifarsi un’immagine davanti ai propri utenti, ai quali si dimostrerebbe che l’azienda californiana resta fedele, nonostante tutto, al suo vecchio motto “Don’t be evil”. In verità anche sotto questo aspetto non c’è da stare molto sereni, essendo Google una maestra in fatto di data mining, tanto più che tra le due sponde dell’Atlantico la concezione della privacy si va divaricando in misura crescente ed i colossi d’oltre oceano sembrano sempre più in grado di imporre la loro legge.
In altri termini la presenza di data center che sfuggono a qualsiasi forma di controllo rappresentano un motivo di preoccupazione tanto quanto quelli, posti sul suolo degli States, che stando alle ultime indiscrezioni di giornale paiono sempre più essere stati dei veri e propri “libri aperti” per le varie agenzie federali. Forse sarebbe il caso di cercare soluzioni alternative all’apparentemente inarrestabile processo di concentrazione in pochi ed enormi DC e, parallelamente, di realizzare dorsali Internet meno americanocentriche.
Ma mi fermo qui, che sono già andato sin troppo off-topic

Datagate, un vulnus all’archivistica digitale?

University of Maryland and Sourcefire Announce New Cybersecurity Partnership

Photo credits: University of Maryland and Sourcefire Announce New Cybersecurity Partnership di University of Maryland Press Releases, su Flickr

Pochi giorni orsono Mark Zuckerberg, con una buona dose di faccia tosta considerando l’incetta di dati personali che fa la sua azienda, ha criticato durante un’intervista televisiva l’amministrazione Obama per il modo poco trasparente con il quale sta gestendo il cosiddetto scandalo “Datagate”, annunciando di volersi unire a Google e Microsoft nella causa intentata contro il governo al fine di ottenere, per l’appunto, la necessaria trasparenza.
I colossi del web infatti, oltre al danno d’immagine derivante dall’essere percepiti come compartecipi del Governo statunitense, temono infatti che i propri utenti, se non adeguatamente tranquillizzati circa modalità e tipologia dei controlli svolti, abbandonino le proprie piattaforme provocando un evidente danno economico.
Il tema della fiducia e quello correlato della sicurezza informatica diviene, evidentemente, centrale e non è forse un caso che il punto di forza del nuovo iPhone 5 della Apple sia il riconoscimento biometrico (in pratica per sbloccare lo schermo od attivare alcuni specifici servizi, quali i pagamenti contact less via NFC, non bisogna più inserire un PIN o simili vetustà ma basta appoggiare il proprio pollice allo schermo per venire riconosciuti ed autenticati).
Purtroppo queste rassicurazioni mi sembrano insufficienti: in successive indiscrezioni trapelate alla stampa Edward Snowden (che, considerando il livello dello scontro diplomatico raggiunto con Mosca e gli estremi tentativi fatti da Washington per ottenerne l’estradizione, mi sembra un testimone complessivamente attendibile) ha aggiunto che l’NSA statunitense e la corrispettiva GHCQ britannica dispongono di strumenti in grado di aggirare e superare le misure comunemente adottate per proteggere le comunicazioni e le transazioni condotte lungo le reti telematiche, quali ad esempio i protocolli https ed SSL.
In sostanza viene messa in seria discussione la validità e l’efficacia complessiva di quella cornice di sicurezza che con difficoltà si era cercato di costruire attorno alle nostre “esistenze digitali”. Le ripercussioni sono evidentemente molteplici ed investono su più piani anche l’archivistica: ad un livello strettamente tecnico possiamo ricordare le ricadute per tutto ciò che concerne, per l’appunto la sicurezza. Per anni, dando credito agli informatici, si è pensato che i vari protocolli di sicurezza, gli hash crittografici, etc. assicurassero un ragionevole livello di protezione alle nostre comunicazioni via PEC ed in generale a tutte quelle, spesso riservate o comunque riguardante materiali “sensibili”, condotte attraverso le reti telematiche (vedi quelle, sempre più diffuse, tra data center locale e sito secondario di ripristino).
Così probabilmente non è e non si deve escludere la possibilità che, approfittando del vulnus inferto alla credibilità delle sue basi tecnologiche, non riprenda vigore quella corrente, interna agli archivisti, che ha sempre guardato con sospetto, ed in taluni casi con dichiarata ostilità, alla nascita dell’archivistica digitale. Dovesse ciò succedere le ripercussioni sarebbero gravi giacché, volenti o nolenti, il mondo andrà comunque verso il digitale e di archivisti capaci di affrontare le problematiche derivanti da questo passaggio ce ne sarà sempre più bisogno.
Ma probabilmente il danno maggiore è quello della possibile perdita di fiducia da parte dei cittadini / utenti: negli ultimi dieci – quindici anni si è dibattuto in lungo ed in largo sulla necessità di realizzare trusted repository pubblici giustificandone l’esistenza sulla superiorità, se non proprio tecnologica, almeno “morale” rispetto ai comuni data center. Solo la presenza di “custodi responsabili” (dove per “custode responsabile” la figura di riferimento è, anche se non in maniera esclusiva, quella dell’archivista dipendente di una pubblica amministrazione), si sosteneva, capaci di garantire l’ininterrotta custodia di documenti digitali oltre che la correttezza delle eventuali operazioni di trasferimento, migrazione, etc. effettuate, poteva provare l’autenticità dei documenti conservati.
Tale supposta superiorità “morale” viene irrimediabilmente meno nel momento in cui si constata che sono i Governi stessi a condurre, secondo procedure ai limiti della legalità e comunque assai discutibili, attività di spionaggio se non di vero hackeraggio ai danni dei propri ed altrui cittadini, di giornali, organizzazioni ed aziende. Il timore è dunque, come sopra accennato, che pure gli archivisti, risucchiati in un calderone in cui non si riconoscono più colpe e responsabilità individuali, perdano l’indispensabile fiducia dei cittadini. Dovesse succedere, sarebbe indubbiamente un duro colpo.

La promozione dell’ebook e la lezione di Google ed Amazon

Ebook reader in esposizione in una nota catena

Ebook reader in esposizione in una nota catena

La notizia della probabile prossima apertura, da parte di Google e di Amazon, di un punto di vendita fisico è di quelle che impongono quanto meno una riflessione, se non un vero e proprio ripensamento, su come è stata finora effettuata la promozione dell’ebook e degli ebook reader.
Ma partiamo dalla notizia: che cosa ha indotto queste due aziende, indissolubilmente legate nell’immaginario collettivo al “virtuale” mondo della Rete, a rivedere così drasticamente il proprio approccio? A mio avviso hanno concorso più fattori: in primo luogo ci si è resi conto dell’importanza di avere quello che nel linguaggio del marketing è definito flagship store (vale a dire un luogo fisico che trascende il mero punto vendita, essendo il fine non tanto – o perlomeno non solo – mettere in vetrina i propri prodotti ma soprattutto trasmettere al mondo la propria cultura aziendale ed i valori che l’azienda intende incarnare e diffondere), importanza a sua volta derivante dall’esigenza di fronteggiare in qualche modo lo strapotere mediatico (che si riflette nel valore del brand) attualmente detenuto da Apple; dall’altro lato, ed è questa a mio modo di vedere la principale motivazione, sta la constatazione che il solo canale online da solo non basta in quanto i clienti hanno bisogno di un “contatto fisico” con i prodotti che poi si andranno ad acquistare (e questo vale tanto più ora che sia Google che Amazon hanno prodotti fisici a proprio marchio da vendere, vedasi famiglie Nexus e Kindle, Chromebook, Google Glasses, etc.). Quanti di noi del resto, prima di effettuare una transazione online, hanno pensato bene di fare una capatina in un negozio fisico per provare quel vestito, quel paio di scarpe oppure per testare il funzionamento di un dato cellulare, monitor Tv, etc. ed essere così certi che il prodotto adocchiato faceva effettivamente al caso nostro?
Ammettendo dunque che anche il cliente più tecnologico abbia il desiderio, prima di procedere all’acquisto, di “toccare con mano”, possiamo affermare che questa possibilità sia garantita nel settore del libro digitale (ovviamente qui faccio riferimento all’ereader, imprescindibile supporto di lettura; n.d.r.)? La risposta che possiamo dare credo sia solo parzialmente positiva.
Il panorama infatti non è molto confortante e c’è da chiedersi quanto possa aver influito in negativo sulle vendite di ebook reader e, a cascata, di ebook.
L’osservazione preliminare da fare è che non c’è paragone tra l’imponenza delle campagne pubblicitarie fatte a favore dei tablet e quelle fatte per gli ereader. In seconda battuta bisogna ammettere che il prodotto ereader in sé non viene valorizzato a dovere: nelle grandi catene di elettronica i lettori digitali sono presentati con schede tecniche spesso inadeguate e, come se non bastasse, senza spazi dedicati (niente a che vedere con la centralità che assumono i device di casa Samsung o dell’Apple, giusto per fare nomi…) e, pare inconcepibile, non immersi nel reparto libri (qualora presente) come verrebbe spontaneo pensare, rappresentandone essi pur sempre la controparte digitale, ma bensì confinati in angoli marginali!
Le cose non vanno meglio se si passa ad analizzare la situazione di quegli ebook reader messi in vendita presso le librerie di catena: di norma infatti presso queste ultime si trovano ereader di una specifica azienda, con la quale i colossi editoriali che stanno alle spalle hanno stretto rapporti più o meno di esclusiva (penso a Mondadori / Kobo oppure Melbookstore (ora IBS) / Leggo IBS), il che rende difficile se non impossibile una comparazione diretta a parità di illuminazione, di esposizione ai raggi solari, etc. (ed essendo il fattore discriminate quello dello schermo, questa limitazione assume un particolare rilievo!).
In sostanza, posto che le biblioteche non possono e non devono svolgere un ruolo da capofila in questo ambito (conviene che queste ultime si concentrino sullo sviluppo delle proprie collezioni digitali), appare evidente che le uniche a poter ricoprire un ruolo positivo in questo settore, dal quale peraltro come da più parti ipotizzato potrebbero a loro volta trarre nuova linfa vitale, sono le librerie indipendenti, che dovrebbero approfittare di questa fase transitoria per avviare la trasformazione in librerie digitali indipendenti. Si tratterebbe, inutile dirlo, di un cambiamento non facile e soprattutto non immune da rischi. E’ tutt’altro che garantito infatti, analogamente a quanto avviene con gli altri settori merceologici, che i clienti, una volta effettuata la comparazione, comprino l’ereader là dove spuntano il prezzo migliore! Bisogna sperare, pertanto, che la qualità del servizio garantito, anche in termini di rapporti umani, venga premiato dalla preferenze degli utenti nel momento dell’acquisto.

Il Kindle Fire arriva finalmente in Italia, mentre per l’ereader Paperwhite bisogna aspettare. Con questa mossa Bezos ha veramente ammazzato il mercato?

Kindle Fire HD 7''

Kindle Fire HD 7” (fonte foto: http://amazon-press.it/immagini-stampa.html)


PREMESSA

Mi ero intimamente ripromesso, per motivi di prudenza, di commentare la messe di device lanciati in questi ultimi giorni a bocce ferme, vale a dire dopo il 12 settembre, giorno in cui Apple dovrebbe presentare l’iPhone 5 e, a detta di molti, un Mini iPad. La quantità di colpi sparati l’altro ieri da Jeff Bezos è però stata tale e tanta, i dibattiti in Rete che ne sono seguiti così accesi, gli articoli ed i commenti sui siti specializzati talmente numerosi che non riesco a mantenere la promessa!

I NUOVI DEVICE

Dal momento che le novità e le specifiche tecniche saranno ormai arcinote a tutti voi, riassumo a solo titolo d’inventario quanto “disvelato” da Jeff Bezos in quel di Santa Monica focalizzandomi, dal momento che in giro ho visto parecchie imprecisioni, soprattutto su prezzi e date di consegna (dati ricavati dai siti Amazon.com ed Amazon.it):
1) l’ereader Kindle Paperwhite, caratterizzato dallo schermo assai più definito e dall’illuminazione “notturna”, è disponibile in versione solo WiFi oppure con connettività 3G rispettivamente a 119 e 179 dollari; per ora NON è in vendita in Italia (contestualmente il “vecchio” Kindle base, anch’esso oggetto di qualche miglioria nella definizione dello schermo e nella reattività della pagina, scende a 69 dollari – 79 euro in Italia)
2) il tablet New Kindle Fire: a dispetto del nome si tratta in realtà del “vecchio” Kindle Fire (cioè di quello presentato nel settembre 2011) sottoposto ad un discreto upgrade per quanto riguarda il processore (più veloce), la memoria (raddoppiata) e la durata della batteria; costa 159 dollari e, con deciso ritardo, arriva pure in Italia dove costerà 159 euro (cambio dollaro / euro 1 ad 1!) con consegne a partire dal 25 ottobre (contro il 14 settembre degli Stati Uniti)
3) il nuovo (questa volta sì!) tablet Kindle Fire HD; anche in questo caso il nome non deve ingannare giacché con esso si fa riferimento a più dispositivi talvolta significativamente diversi tra di loro (in particolare le versioni da 8,9 differiscono rispetto a quelle da 7 pollici, oltre che per le dimensioni, per la maggior definizione dello schermo, per la presenza di un sistema audio dual-stereo – VS dual drive stereo – e per un processore leggermente più potente – 1,5 GHz VS 1,2 -; per un raffronto tra i vari modelli rimando alla tabella comparativa presente in fondo a questa pagina). Entrando nello specifico le “versioni” esistenti sono le seguenti: a) quella con display da 7 pollici, dal costo di 199 dollari se si vuole la memoria da 16GB oppure di 249 dollari se si opta per quella più “sostanziosa” da 32GB; in consegna rispettivamente a partire dal 14 settembre e 25 ottobre, è disponibile anche nel mercato italiano al prezzo “invariato” (nel cambio) di 199 e 249 euro, con consegne che però slittano al 25 ottobre b) quella con schermo da 8,9 pollici: è questa a mio avviso l’autentica novità, dal momento che va a sfidare direttamente l’iPad 3 per dimensioni e specifiche tecniche (ricordo che la tavoletta della Mela ha uno schermo da 9,7 pollici; n.d.r.) e conseguentemente per prestazioni e relative applicazioni e servizi che è possibile farci girare. L’offerta di Amazon in questo caso è ancora più sottoarticolata: abbiamo infatti da un lato la versione con sola connettività Wi-Fi con memoria interna da 16 GB al prezzo di 299 dollari oppure quella da 32 GB a 369 dollari, mentre dall’altro lato la versione con connettività LTE (4G) con memoria da 32 GB a 499 dollari oppure quella da 64 GB a 599 dollari. La consegna per tutti questi ultimi device è stimata per il 20 novembre e per il momento NON riguarda Italia (del resto della versione 4G non ce ne faremmo granché non essendo praticamente sviluppata la relativa rete!).

BEZOS AMMAZZA IL MERCATO?

Finora ho parlato soprattutto di hardware ma, come ha tenuto a sottolineare Jeff Bezos durante la presentazione, Amazon produce servizi, non gadget. E meno male, vien da dire, perché quella fatta dall’azienda di Seattle è vera innovazione tecnologica che fa impallidire al confronto le “novità” lanciate dalla concorrenza nei giorni precedenti! Avevano iniziato mercoledì Nokia e Motorola: riguardo all’azienda finlandese molti analisti, rivitalizzando i rumor diffusi all’epoca della presentazione di Surface di Microsoft, avevano ipotizzato che sarebbe stato annunciato un tablet o meglio ancora un phablet (inutile oramai creare un doppione del Surface!), invece la società guidata da Stephen Elop si è limitata a svelare la sua nuova linea di smartphone Lumia 920 (peraltro mi sembra quantomeno accattivante, peccato solo per la gaffe del PureView!). Analoga delusione è arrivata da Motorola: anche in questo caso, per quanto la presenza del Nexus 7 inducesse a far ritenere la cosa poco probabile, vi era chi ipotizzava la presentazione di qualcosina di più del solito smartphone: ebbene, il nuovo Razr Maxx è effettivamente un cellulare cresciutello (display da 4,7 pollici contro i 5,3 del Samsung Note) ma nulla di più.
Paradossalmente a cercare di sparigliare le carte è stata un’outsider, vale a dire quella Kobo che a forza di internazionalizzazione a tappe forzate ed accordi con editori e librerie indipendenti sta cercando di ritagliarsi un ruolo “antagonista”: a leggere le specifiche tecniche la triade di nuovi prodotti lanciati dall’azienda nippo-canadese (ovvero gli ereader Glo e Mini ed il tablet Arc) non sfigurano affatto rispetto ai device proposti da ben più quotati competitor e, aggiungo, sono anche esteticamente deliziosi!
Purtroppo un grosso limite è il prezzo, e qui arriviamo alla domanda da un milione di dollari: Amazon, con gli annunci di ieri, si accinge ad ammazzare il mercato degli ereader? Ad esempio sarebbe stato interessante vedere l’accoglienza del mercato per il Kobo Mini da 5 pollici (un ereader letteralmente tascabile!) ma il prezzo di 79,99 dollari non lo aiuta se pensiamo che l’entry level del Kindle è da ieri a 69,99 dollari. Discorso analogo per il Kobo Glo: costa 129,99 dollari, quanti lo preferiranno al Kindle Paperwhite che ne costa 10 in meno?
Un minimo più problematica la scelta in campo tablet. L’Arc, ad esempio, è sulla carta sicuramente superiore al New Kindle Fire mentre (a parità di soldi, ovvero 199 dollari) rispetto al Kindle Fire HD da 7 pollici oltre a non avere il doppio WiFi è sicuramente inferiore per qualità audio e memoria interna (8 GB VS 16!); vanta invece un certo vantaggio in quanto a processore (1,5 GHz VS 1,2) e pareggia in quanto a definizione dello schermo (ma mai come in questo caso sarebbe necessaria una prova diretta; Amazon assicura di aver abbattuto del 25% i riflessi della luce solare togliendo lo strato di vuoto esistente tra schermo LCD e strato touch ma anche Kobo garantisce “cristallinità” dell’immagine ad angolazioni elevate!). Ma ad uscire forse peggio di tutti nell’arena delle tavolette low cost è il Nexus 7 di Google (da martedì 4 peraltro in vendita anche in Italia) il quale nella versione più costosa viene 249 dollari / euro, vale a dire quanto il Kindle Fire HD che però ha il doppio di memoria interna e come ricordato per l’Arc poco sopra il doppio Wi-Fi, lo schermo antiriflesso, l’audio dual stereo, etc. (in definitiva gli unici plus del Nexus 7 sono il processore leggermente più performante ed il sistema NFC, il quale però ora come ora rappresenta soprattutto un fronzolo senza molte applicazioni concrete…). Insomma, se l’altro giorno durante la presentazione dei Motorola Razr Eric Schimdt ammetteva candidamente che Android (e Google) erano indietro nei tablet, probabilmente dopo la presentazione della nuova famiglia Kindle (che usano sì Android, ma tendono ad occultarlo sotto l’interfaccia Amazon) sarà ancora più preoccupato.
Ragionando numeri alla mano, dunque, sembra proprio che la risposta alla domanda posta a titolo di questo paragrafo sia affermativa, in linea con quanto già sentenziato da Pianeta eBook in uno dei suoi tweet:

E’ infatti innegabile che Amazon abbia assestato un durissimo colpo al mercato, avendo essa lanciato prodotti con un rapporto qualità / prezzo difficilmente avvicinabile dai competitor a meno che anch’essi non si accontentino di margini risicati, che è esattamente il concetto sotteso da Bezos nel momento in cui afferma: “We want to make money when people use our devices, not when they buy our devices”! In altri termini per l’azienda di Seattle i device non sono che un mezzo come un’altro attraverso il quale stringere una relazione con i clienti ai quali successivamente vendere prodotti e servizi a prezzi, man mano che la relationship si fa più profonda ed aumentano le quote di mercato detenute, sempre più stracciati e tali da mandare gambe all’aria la concorrenza (è quella che JMAX, in un post apparso sul blog TKBR qualche mese fa, definiva engagement economy; l’autore vi sostiene che non ci sarebbe da meravigliarsi se Amazon un giorno, portando alle estreme conseguenze tale politica, mettesse in vendita ebook ad un prezzo tendente a zero).
Come noto l’economia però non è solo numeri ma dipende molto anche da fattori psicologici, motivo per cui non si può rispondere alla domanda iniziale senza prendere in considerazione alcuni fattori soggettivi: essa sarà affermativa (sì, Amazon ammazza il mercato) se la percezione che ha il cliente finale della relazione instaurata rimarrà invariata e quest’ultimo continuerà a ragionare soprattutto con il portafogli e con una prospettiva di breve respiro; credo al contrario che la risposta possa essere negativa (no, il mercato è salvo e le varie aziende continueranno a farsi concorrenza più o meno spietata) se almeno una parte degli utenti (attuali e potenziali) riterrà che la liason con Amazon rischi di diventare troppo “vincolante”. Lasciamo stare le accuse nuovamente lanciate al browser Silk di ledere la privacy (ma almeno dovrebbe esserci la possibilità di opt-out) e soprassediamo pure al fatto che sia impossibile eliminare, anche a pagamento, la pubblicità ma soffermiamoci invece sui soli aspetti “librari” (per quanto questi, bilanci alla mano, oramai non costituiscano da un pezzo la principale fonte di guadagni per l’azienda di Seattle): la consapevolezza che gli ereader Kindle supportano solo il formato proprietario .mobi e che questo non è compatibile (direttamente) con la gran parte degli altri dispositivi di lettura in commercio (che si stanno più o meno uniformando sull’ePub come modello standard), unita al fatto che gli ebook che acquistiamo in realtà… non li acquistiamo ma piuttosto li noleggiamo “a lungo termine” (vera o fasulla che sia, la storia di Bruce Willis era lì lì per scoperchiare un vero vaso di Pandora, peccato che sia velocemente sparita dal dibattito delle Rete e non abbia praticamente sfiorato i media mainstream!) dovrebbero bastare a dissuadere una certa quota di utenti che preferiscono pagare di più ma “fare quel che vogliono”!
In ultima analisi è dunque una questione profondamente soggettiva e che a sua volta rimanda a come l’individuo forma le sue convinzioni (ad es. ruolo di familiari ed amici, media ai quali è esposto, etc.), un argomento evidentemente sterminato ma che esula dagli obiettivi di questo post. Pertanto mi fermo qui ed aggiungo solo che, senza voler dividere manicheisticamente tra buoni e cattivi, in Rete ci sono tutti gli strumenti e le informazioni per documentarsi indipendentemente, farsi la propria opinione e decidere quale sia la proposta migliore (o la meno peggiore…).

CONCLUSIONI

I raffronti tra i vari device fatti nel corso di questo post testimoniano che Amazon ha sicuramente lanciato una serie di dispositivi eccellenti dal punto di vista tecnico, ad un prezzo concorrenziale e soprattutto accessibile a moltissimi utenti: se questi ultimi dovessero ragionare solo in base a meri calcoli economici, c’è da attendersi che Amazon a breve diverrebbe regina del mercato. Se gli utenti invece scaveranno un po’ più a fondo nel tipo di relazione, realizzeranno che questa non è esattamente paritetica: ad alcuni potrà andare bene ugualmente (infine, l’importante è risparmiare…), altri invece anteporranno la loro “libertà” (per restare nel librario questo significa esigere ebook in un formato aperto in modo da poterli leggere su qualsiasi device, di poterli salvare dove vogliono e soprattutto di possederli per sempre disponendone come meglio si ritiene, si intende sempre nel rispetto delle leggi) e cercheranno altre soluzioni per godersi le proprie letture digitali.
Il fattore discriminante in definitiva risulta essere proprio la sensibilità personale e la volontà di formarsi una propria opinione; nel mio piccolo spero con questo post di aver contribuito almeno in minima parte al raggiungimento di questo obiettivo.

Perché Google si candida ad essere la prima della classe (e fa paura)

Google Nexus 7

Google Nexus 7 di blogeee.net, su Flickr

Il lancio del tablet Nexus 7 da parte di Google rappresenta sicuramente un importante punto d’arrivo nella politica libraria di Google: iniziata nel 2004 allorquando alla Frankfurter Buchmesse fu presentato il “Google Books Library Project”, con il quale ci si proponeva di digitalizzare, rendendoli liberamente disponibili sulla Rete (anche) in full text, centinaia di migliaia di libri posseduti dalle principali e più prestigiose biblioteche del mondo purché i relativi diritti d’autore fossero scaduti oppure le opere fossero senza “paternità” (non sempre tale punto è stato rispettato; n.d.r.), tale politica libraria si è via via ampliata ed arricchita: dapprima 1) dedicando una sezione del famoso search engine alla ricerca, per l’appunto, di libri con la possibilità per l’utente di salvare le ricerche (ed i libri) in una personale biblioteca virtuale, successivamente 2) lanciando nel dicembre 2010 “Google eBooks”, piattaforma nella quale sono confluiti i libri precedentemente digitalizzati unitamente a quelli volontariamente inseriti da editori ed autori (questi ultimi in self-publishing dunque); fedele al motto “Any book, anywhere, any time and on any device” Google ha poi approntato 3) un mobile bookstore, cosa avvenuta contestualmente alla trasformazione dell’Android Market in Google Play, momento che ha significato il passaggio dalle sole applicazioni ai contenuti in senso lato: all’interno di Google Play si trova infatti il negozio “Google Libri” (nel quale effettuare ricerche, visualizzare anteprime, lasciare commenti ed ovviamente acquistare) ma vi si può anche 4) scaricare l’applicazione di lettura Books App.
Con il Nexus 7, in altri termini, i contenuti (libri, come ampliamente descritto, ma anche i video di YouTube, frutto dell’acquisizione del “lontano” 2006), le applicazioni ed i servizi di Google (in gran parte presenti sulla nuvola) trovano l’ideale ambiente di utilizzo dal momento che il nuovo tablet ovviamente esalta e rende quasi “naturale”, grazie al sistema operativo nativo Android 4.1, il loro uso da parte dei sempre più numerosi utenti.
Mi si potrà obiettare che Google non è l’unica ad avere una simile “potenza di fuoco”: Amazon, Apple e Microsoft, giusto per non fare nomi, hanno tutte alle spalle una notevole infrastruttura, una qualche forma di market attraverso il quale offrono prodotti o servizi, così come la loro più o meno sviluppata gamma di device (Microsoft, con Surface, è stata l’ultima nell’ordine e giusto per ribadire come oramai sia diventata quasi una moda già si rumoreggia del prossimo arrivo di uno telefonino intelligente made in Redmond, analoga decisione a quella che si ipotizza possa prendere a breve Amazon!).
Verissimo, ma anche a prescindere dall’importantissima funzione di search (solo Microsoft con Bing prova a far concorrenza a Google in questo campo), nessuno a mio avviso ha comunque, oggigiorno, una “completezza di offerta” pari a quella di Google:
1) Apple ha sì un’infrastruttura cloud adeguata, un’offerta di servizi, applicazioni e contenuti (inclusi i libri e pure un programma, iBooks Author, dedicato agli autori) invidiabile nonché dispositivi al top della gamma, ma nel fisso non ha una quota importante e nemmeno ha sfondato nel settore business, essendo quest’ultimo stato finora appannaggio di =>
2) Microsoft: il gigante fondato da Paul Allen e Bill Gates gode di una fenomenale presenza nel fisso tanto in ambito consumer quanto in quello business (grazie, tra i tanti software prodotti, alla diffusione come standard de facto del pacchetto di produttività Office), cui fa però da contraltare una quasi insignificante quota nel mobile (pecca non da poco, dal momento che quest’ultimo rappresenta il futuro!). Se l’infrastruttura cloud è il punto di partenza indispensabile per aggredire il mercato del mobile, bisogna vedere come verranno accolti dai consumatori prodotti come il citato Surface (a parità di costo secondo me molti resteranno fedeli al fascino di Apple) e, soprattutto, quali frutti darà l’alleanza con Barnes & Noble, la quale avrà il compito di offrire i contenuti (per ora mancanti) indispensabili per dare un senso alla neonata tavoletta di casa Microsoft.
3) Amazon: l’azienda di Jeff Bezos si trova in una situazione per certi versi opposta rispetto a Microsoft, nel senso che ha contenuti a iosa (libri, video, etc.) ma ben poco peso in fatto di produttività e pertanto di appeal in ambito business; per il resto possiede, alla pari delle due aziende precedenti, un’infrastruttura (cloud) imponente e soprattutto vanta un’enorme base di utenti, frutto di anni di onorato e-commerce.
Alla luce di tutto ciò appare evidente come Google sia l’unica ad avere un’offerta veramente a 360 gradi: pecca, è indubbio, nel fisso (il sistema operativo Chromium non è stato esattamente un successo) ma milioni di utenti usano lo stesso quotidianamente dai propri dispositivi fissi servizi come GMail, Calendar, Google Docs, Maps, etc. e riescono ugualmente a far dialogare il tutto (“sincronizzare” per essere esatti) con quelli mobili. Insomma, la convergenza tra fisso e mobile è già possibile e tutto lascia supporre che in futuro le cose miglioreranno ulteriormente in modo da soddisfare pienamente sia i comuni utenti quanto quelli business (come già detto Big G ha sia contenuti sia strumenti di produttività; l’appeal di questi ultimi, peraltro, è tanto maggiore in periodi come questi in cui tagliare i costi è questione quasi vitale).
Tutto bene dunque? Non esattamente ed il perché è noto.
Google, ma il ragionamento è altrettanto valido per le sfidanti Apple, Amazon e Microsoft, è un gigante che fa paura: attraverso le nostre ricerche, le geolocalizzazioni sulle mappe, le nostre letture, i nostri video, etc. sa cosa facciamo, dove ci troviamo o dove siamo stati, i nostri gusti e via dicendo. Ma non finisce qui: sui server di Big G finiscono i nostri libri, le nostre e-mail, i nostri documenti… praticamente tutto, la nostra vita, è nelle sue mani!
Insomma, siamo partiti parlando semplicemente di libri e siamo arrivati all’orwelliano Grande Fratello: purtroppo lo scenario è questo e se non sarà Google come visto c’è la fila per prendere il suo posto: come interpretare, del resto, le reazioni di Amazon ed Apple agli annunci di Google e Microsoft? La prima si è affrettata a far trapelare notizie di un imminente arrivo (agosto?) del Kindle Fire 2 (cui si sono aggiunti, come detto all’inizio, i rumor per un possibile smartphone) mentre la seconda ha fatto filtrare dettagli su un possibile iPad Mini.
La sfida è dunque a tutto campo e non si fanno sconti a nessuno; la crisi ed il cambiamento tecnologico (schumpeterianamente parlando forse la faccia diversa della stessa medaglia) poi fanno il resto, portando a termine la necessaria “selezione naturale”: il futuro sarà inevitabilmente appannaggio di pochi colossi, auguriamoci che in questa lotta titanica i comuni cittadini non restino schiacciati.

PS Cliccate qui per la versione su Storify di questo post.

Volunia, un doveroso aggiornamento

Memoria digitale su Volunia

Memoria digitale su Volunia

In questo blog abbiamo seguito fin dalla presentazione ufficiale la nascita di Volunia, servizio che si trova ancora in fase beta (non è cioè accessibile al pubblico ma solo ad utenti power user) e che in data odierna ha rilasciato una serie di importanti aggiornamenti.
Chiariamo subito, una volta per tutte, che Volunia NON è un motore di ricerca: Massimo Marchiori l’ha ribadito in un’intervista a Wired.it, nella quale è stato contestualmente annunciato che per la funzione di search ci sia avvarrà dei risultati della coppia Bing-Yahoo! Non si capisce se si tratti di una soluzione provvisoria in attesa che, raccolti i necessari fondi, se ne sviluppi uno internamente ma l’impressione è che nulla più verrà da questo fronte. In tal modo la speranza che da colui che con i suoi studi ha dato lo spunto a Larry Page e Sergey Brin per realizzare il più famoso ed usato search engine del mondo arrivasse anche un ulteriore passo in avanti nella direzione di ricerche più “intelligenti” e pertinenti (leggasi web semantico) va definitivamente accantonata e viene di conseguenza anche a scemare l’interesse mio personale e di questo blog per Volunia, servizio nel quale finisce per prevalere l’aspetto “sociale”.
E’ questo quel che traspare anche alla luce dei nuovi aggiornamenti: la grafica, che risulta molto più pulita e minimal rispetto alla precedente, mette in primo piano, più che i contenuti, le persone (utenti che hanno visitato /stanno visitando una data pagina, presenza di eventuali amici, persone nella chat laterale), evidentemente ritenute in grado di fornire un valore aggiunto alla ricerca ed in generale alla navigazione.
Si tratta sicuramente di una scelta coraggiosa (non si può dire lo stesso in quanto ad originalità; molti power user fanno notare come il “nuovo” Volunia assomigli sempre più a Twinpeople!) e che capovolge le prospettive rispetto ai giardini dorati dei social network: con Volunia tutto il web diventa un luogo in cui socializzare (in particolare si possono prospettare interessanti applicazioni in ambito giornalistico, per quanto concerne la possibilità di commentare all’istante le principali notizie, ma anche in ambito librario, dove si potrebbero scambiare opinioni e pareri su eventuali ebook reperibili online) anche se il rovescio della medaglia è costituito dai pesanti risvolti in fatto di privacy che impongono, a chi volesse preservarla, di modificare pesantemente il settaggio (ad esempio le impostazioni di default rendono visibili a tutti le pagine che ho visitato!).
Per il resto entro luglio, quando Volunia diventerà operativo a tutti gli effetti, va assolutamente risolto il problema di compatibilità della “cornice” di Volunia (frame) con siti quali Facebook, Twitter, etc. così come deve essere migliorata la grafica delle mappe dei contenuti nonché la reale capacità di queste ultime di descrivere il contenuto informativo del sito.

Microsoft e Barnes & Noble: la strana alleanza

Barnes & Noble eReader Software Coming to iPad

Barnes & Noble eReader Software Coming to iPad di John Federico, su Flickr

La notizia dell’alleanza stipulata tra Microsoft e Barnes & Noble, con la prima azienda che investirà 300 milioni di dollari in una nuova sussidiaria appositamente creata dalla seconda e destinata ad operare nel mercato dell’editoria digitale (con una particolare attenzione, almeno stando al comunicato stampa congiunto, per quella scolastica) mi ha praticamente fatto sobbalzare dalla sedia per le probabili ripercussioni (peraltro non evidenziate dai giornali mainstream, sempre più occupati a fare da mera cassa di risonanza ai vari uffici stampa) che essa avrà nel sistema di alleanze attualmente in essere nel settore dell’editoria digitale.
Questo mercato, come noto, vede attualmente a livello globale la presenza di tre attori (Amazon, Apple e Google) che si spartiscono la maggior parte della torta: che Microsoft non intenda lasciar campo libero ai concorrenti è del tutto comprensibile (peraltro ricordo che il gigante di Redmond ancora nel lontano 2008, prima di Apple, sembrava sul punto di lanciare sul mercato il booklet Courier) così come è quasi automatico che essa abbia individuato in Barnes & Noble, che con il suo Nook sta facendo discrete cose, il partner ideale.
Allo stesso tempo però non sfuggono ad una più attenta analisi delle incongruenze talmente macroscopiche che mi hanno spinto a definire, come da titolo di questo post, questa alleanza “strana”.
La prima incongruenza deriva dal fatto che Microsoft, come risaputo, ha stipulato circa un anno fa un’accordo con Nokia a seguito del quale l’azienda finlandese ha abbandonato il proprio sistema operativo Symbian per sposare Windows Phone 7 e tentare di risalire la china nel decisivo settore degli smartphone; l’operazione non sta andando secondo le aspettative al punto che Nokia ha perso il primato di primo produttore mondiale di telefonia in favore di Samsung ed ha visto un deciso peggioramento dei suoi conti al punto che i rumour su un takeover da parte di Microsoft nei confronti di Nokia (o quanto meno di un consistente scambio azionario) si sono fatti insistenti. Personalmente trovo questa ipotesi più che plausibile dal momento che la società fondata da Bill Gates si ritrova in cassa parecchi quattrini e soprattutto l’attuale CEO, Steve Ballmer, non ha paura di spenderli (i tentativi di acquisizione di Yahoo! lo testimoniano ampiamente).
In questo senso l’investimento nella NewCo di B&N è a tutti gli effetti di poco conto (giusto per fare un paragone, i 300 milioni di dollari in ballo sono bruscolini in confronto ai 44,6 miliardi rifiutati nel 2008 da Jerry Yang) e rischia da un lato di non essere incisivo quanto basta e dall’altro di portare ad una duplicazione che ingenera solo confusione e sprechi. Un primo punto critico è quello del tablet: al Mobile World Congress Stephen Elop, CEO di Nokia, ha fatto intuire che la sua azienda prima o dopo produrrà una tavoletta che evidentemente avrà Windows Phone (o quello che sarà il suo successore) come sistema operativo. Mi chiedo a quale logica risponda ora l’accasarsi con Barnes & Noble, i cui device della famiglia Nook montano tutti SO Android.
E’ ipotizzabile che B&N stia preparando il terreno per l’abbandono di Android (tanto più ora che Google, passo dopo passo, si sta trasformando in un competitor su tutti i fronti)? Certamente sì, tutto è possibile, ma c’è da domandarsi come la prenderanno gli utenti di Barnes & Noble! Android oramai costituisce il più diffuso sistema operativo al mondo ed il suo ecosistema non ha più nulla da invidiare a quello di Apple; al contrario quello di Microsoft oltre a contare percentualmente davvero poco non esercita neppure alcun particolare appeal, motivo per cui le stime di molti analisti, che accreditano a Windows Phone da qui a pochi anni quote rilevanti del mercato, mi sembrano palesemente ottimistiche.
L’ultimo aspetto dell’accordo che non mi ispira fiducia è quel riferimento specifico all’editoria scolastica: perché focalizzarsi solo su quest’ultima? Mancano forse i mezzi per puntare sull’editoria tout court? Viste le aziende in campo non era lecito attendersi l’annuncio di un accordo di carattere generale e, in prospettiva, su scala globale?
In altri termini considerando come, ciascuna per motivi diversi, Microsoft, Barnes & Noble e Nokia svolgono un ruolo da comprimarie nei rispettivi mercati, credo sarebbe stato meglio cercare di rovesciare il tavolo giocandosi il tutto per tutto, vale a dire annunciando un’alleanza globale a tre nella quale Microsoft metteva il software, Nokia l’hardware e Barnes & Noble i contenuti. Solo così facendo queste tre aziende possono tentare di invertire quell’inerzia che altrimenti, a mio avviso, rischia di vederle nel medio – lungo periodo soccombenti. Fermo restando che non necessariamente l’unione fa la forza: spesso i numeri due restano i numeri due anche quando si uniscono.

Volunia, la prova

Volunia - Mappa visuale di Europeana.eu

Volunia - Mappa visuale di Europeana.eu

Dopo aver partecipato alla presentazione di Volunia e atteso (un po’ più del dovuto) l’arrivo delle credenziali di accesso, ho testato per un congruo numero di giorni la “creatura” di Massimo Marchiori. Purtroppo devo dire che le perplessità che avevo subito manifestato, dopo l’utilizzo sono addirittura aumentate.
Infatti, anche concedendo agli sviluppatori tutte le “attenuanti” dovute al fatto che siamo ancora in fase beta e che la funzione dei power user è esattamente quella di aiutare a migliorare il prodotto, i problemi evidenziati sono a mio avviso talmente tanti che, spiace dirlo, Volunia non parte con il piede giusto.
Ma vediamo un po’ più nel dettaglio quali sono le note dolenti iniziando velocemente dagli aspetti generali per affrontare solo in un secondo momento tematiche direttamente pertinenti con gli argomenti che vengono generalmente affrontati in questo blog.
La grafica, prima cosa che balza agli occhi per ovvi motivi, risulta decisamente sorpassata; in particolare la barra degli strumenti e le relative icone potrebbero tranquillamente essere quelle di un software sviluppato un lustro fa.
La sensazione di trovarsi di fronte a qualcosa di vecchio permane anche allorquando si visualizza il sito in modalità “mappa visuale” e questo è un bel problema dal momento che questa modalità, che consente di scoprire il contenuto informativo del sito stesso “volandoci” sopra, dovrebbe rappresentare un valore aggiunto di Volunia!
Analoghe considerazioni possono essere fatte per quanto riguarda la scelta di usare la modalità frame (tecnica paradossalmente caduta in disuso nella realizzazione di siti web proprio perché la “cornice” ostacola l’indicizzazione da parte dei motori di ricerca!) dal momento che molti siti (YouTube è uno, giusto per fare un nome) non lo supportano rendendo impossibile la visualizzazione della pagina (è oggettivamente assurdo che un motore di ricerca che pretende di essere anche un po’ social network non riesca a visualizzarne uno dei più frequentati). Visto che l’argomento salta sempre fuori quando si parla di reti sociali, piccola digressione sulla privacy: se si naviga da loggati le informazioni che si forniscono agli altri utenti (e a Volunia) sono veramente tante, se ci si slogga invece tutto nella norma, quindi qui sta all’utente fare le sue scelte.
Per quanto riguarda infine la velocità di risposta e di visualizzazione delle pagine (incluse le mappe visuali) c’è qualche rallentamento ma una normale connessione ADSL è più che sufficiente.
Questo è tutto per quel che riguarda le caratteristiche generali; passo ora a descrivere quelle caratteristiche che dovrebbero / potrebbero interessare maggiormente i lettori di questo blog: nello specifico ho tentato di capire, effettuando alcune ricerche mirate, se Volunia (e l’algoritmo che ne è alla base) può rappresentare un tassello nella realizzazione del web semantico ed in generale un miglioramento nelle tecniche di indicizzazione e di recupero delle informazioni (information retrieval). Purtroppo la speranza, a lungo circolata in Rete, che Volunia avesse feature proprie del semantic web tali da rendere possibili interrogazioni con un linguaggio vicino a quello naturale, è andata largamente disattesa. Ad esempio inserendo la banale query “che libro mi consigliate di leggere?” Volunia come prima risposta (su 1.960.525 risultati) mi dà una pagina inglese di musica digitale (http://www.di.fm/) mentre Google il più “classico” Yahoo! Answers (primo risultato di 295.000) con il link alla pagina di questo noto servizio in cui un’utente che aveva posto ad altri utenti la medesima domanda. Inutile sottolineare che, anche tenendo conto (come puntualizzato da Marchiori stesso) che per il momento Volunia ha indicizzato appena l’1% di quanto pubblicato sul web, i risultati non sono esattamente incoraggianti…
Deludente anche l’esito dell’utilizzo di altre caratteristiche in linea di principio interessanti in quanto potenzialmente capaci di condurre velocemente (ma allo stesso tempo consapevolmente) al contenuto informativo; mi riferisco alla tanto decantata mappa visuale (che ho già criticato per lo scarso appeal grafico) ed alla funzione “Media” che ho testato in due siti teoricamente “succulenti” come Europeana.eu ed il portale dell’Amministrazione Archivistica Italiana (http://archivi.beniculturali.it). Ebbene, nel primo caso (Europeana) la mappa grafica mi dà sì una veloce raffigurazione di come il sito è organizzato ma personalmente trovo la versione testuale “normale” talmente essenziale e funzionale da far apparire questa funzione del tutto superflua. Per quanto riguarda la bacheca multimediale vengono presentati appena 15 immagini e 2 video; certo, non mi aspettavo di trovarmi tutte le risorse multimediali bell’e pronte, ma una maggiore profondità sarebbe auspicabile! Del resto bisogna concedere il tempo necessario, anche perché, come ha precisato Marchiori durante la presentazione, le infrastrutture informatiche (e con esse le capacità di memorizzazione ed indicizzazione) verranno attivate gradualmente man mano che aumenteranno gli utenti.
Nel caso del sito dell’Amministrazione Archivistica la ricerca è ancor più infruttuosa in quanto: 1) la mappa grafica presenta una sola casetta (corrispondente alla home) a causa di problemi di generazione che potrebbero dipendere dall’uso di tecnologia Flash, Java, Ajax…; il che è davvero un peccato perché, essendo questo sito assai più “incasinato” del precedente, la mappa sarebbe tornata davvero utile 2) viene indicata la presenza di solo sei contenuti multimediali, vale a dire le immagini presenti nell’homepage (loghi ed icone varie inclusi!). Insomma davvero poco, e questo vale anche per altri siti che ho velocemente scorso (Corriere.it, LaFeltrinelli, etc.); l’unica consolazione è che la situazione non può che migliorare!
Tirando le somme, l’impatto “visivo” non è dei migliori e pure per quanto riguarda il “motore” dal “padre” dell’algoritmo di Google sinceramente ci si aspettava qualcosa di più; la funzione sociale può essere ritenuta un punto di forza ma anche un inutile orpello. Per quanto riguarda le funzioni “mappa grafica” e “multimedia”, esse sono sicuramente perfettibili e potrebbero diventare un importante asso nella manica. Interessante, per concludere, l’applicazione per dispositivi mobili: in particolare la visualizzazione a griglia consente di navigare facilmente entro quei siti che non hanno provveduto a loro volta a realizzare una app od una versione mobile (purché non siano in Flash, Java, etc. altrimenti, come detto sopra, Volunia non riesce a creare la mappa…).

Volunia, tra aspettative e perplessità

Volunia, la presentazione

Volunia, la presentazione. Archivio Antico dell'Università di Padova 02/02/2012

Torno fresco fresco (in senso non solo figurato) dalla presentazione di Volunia, l’attesissimo motore di ricerca concepito e realizzato da Massimo Marchiori, e non posso far a meno di esternare alcune riflessioni che mi sono frullate per il cervello sin dal primo momento in cui il professore ha mostrato le prime immagini e fornito le prime spiegazioni.
1) Marchiori ha consapevolmente voluto creare un SE di seconda generazione, ben sapendo che il web sta cambiando (a prescindere ora dalle varie etichette 1.0, 2.0, 3.0 che lasciano il tempo che trovano) e che gli utenti si aspettano qualcosa di più che una “arida” lista di risultati. Proprio il passaggio ad un tipo di web diverso, quello chiuso in rigidi steccati di cui parla Zittrain per intenderci, deve però farci porre la cruciale domanda: i SE sono ancora lo strumento migliore / il migliore tra quelli possibili? Non era meglio azzerare tutto e pensare a qualcosa di radicalmente diverso? In definitiva con Volunia la modalità di interrogazione resta immutata, cambiano le risposte di ritorno che dovrebbero rappresentare il vero salto di qualità dal momento che a) ci viene fornita una mappa del contenuto informativo di ogni sito b) ci vengono mostrate anche le persone che hanno visitato quel sito, aiutandoci (eventualmente) a metterci in contatto con loro.
2) Proprio questa attenzione per l’anima “sociale” del web rappresenta senz’altro un motivo di avanzamento ma potrebbe finire con l’essere un’arma a doppio taglio: a) in un’Europa che ha una sensibilità completamente diversa dal resto del mondo sul tema della privacy (tanto da arrivare ai ferri corti con Google), la cosa potrebbe non essere accolta con favore; b) mi si potrà obiettare che il mercato di Volunia è, nelle intenzioni, globale e che la stessa funzione social è disattivabile dall’utente ma è evidente che senza di essa il nuovo motore di ricerca perde gran parte del suo carattere innovativo.
3) E’ mancata del tutto una spiegazione di come funziona il nuovo algoritmo di ricerca; intendiamoci, non mi aspettavo che venisse svelata la “formula segreta” ma qualche tecnicismo in più non avrebbe guastato!
4) Ovviamente il mio interesse per il nuovo motore di ricerca era soprattutto quello dell’archivista / bibliotecario / documentalista che voleva sapere se con Volunia era stato compiuto un significativo passo in avanti verso sistemi di information retrieval “intelligenti” capaci di interpretare compiutamente le query e di fornire risultati pertinenti previa l’analisi semantica delle varie risorse sul web (o in subordine se per l’algoritmo sviluppato poteva profilarsi un’applicazione dedicata in questi campi). A tal riguardo nulla è stato detto né sono riuscito a chiedere alcunché a Marchiori dal momento che il question time è stato brevissimo (tutto perché la presentazione è iniziata in consistente ritardo non solo per il consueto ritardo “accademico” bensì per elementari disguidi tecnici che ci hanno fatto fare l’ennesima figuraccia… stavolta in streaming mondiale!), ma l’impressione ricavata è che in Volunia si sia puntato, per l’appunto, sulla dimensione sociale. Per il sottoscritto una piccola delusione.
Per concludere un motore di ricerca che ha saputo sollevare moltissimo interesse (e già questo è un risultato) ed ha trasformato per un giorno Padova nella Silicon Valley ma che per poter essere giudicato compiutamente dev’essere, come sempre, provato nel quotidiano.