Da Ranganathan ai social network

Anobii: libreria in legno di Luca Mondini, su Flickr

Anobii: libreria in legno di Luca Mondini, su Flickr

Un paio di giorni orsono mi sono imbattuto, a distanza di qualche annetto dall’ultima volta, nelle famose 5 leggi di Ranganathan; mentre le rileggevo la mia attenzione si è soffermata, cosa che non mi era mai capitata in precedenza, su un preciso passaggio della prima legge, ovvero quello in cui si afferma che:

[Le autorità bibliotecarie] dovrebbero distruggere in germe anche la più leggera intromissione dello spirito di burocrazia in ogni questione connessa con l’uso della biblioteca. Dovrebbero sempre tenere in mente che la biblioteca socializza l’uso dei libri.

Subito il mio pensiero è corso al caso italiano, quello del quale ho maggior esperienza, come utente prima e da bibliotecario poi, e le conclusioni cui sono giunto non sono state affatto positive: se è vero che le biblioteche ed i bibliotecari si sono impegnati e tuttora si impegnano nella “socializzazione” del libro (in senso stretto ed in senso lato) attraverso iniziative di vario tenore quali presentazioni di libri, gruppi di lettura, letture ad alta voce, discussioni e dibattiti ispirati da questo o quel libro e via dicendo, è altrettanto vero che la burocratizzazione nelle biblioteche di ogni ordine e grado (ma massimamente in quelle statali) è una brutta bestia che ha pesantemente ingessato l’attività di questi istituti facendo perdere tempo ed energie non solo a chi ci lavora ma anche al lettore. D’altro canto è innegabile che una certa dose di burocratizzazione non è stata semplicemente imposta dall’alto, ma sovente è stata in un certo qual modo favorita dai bibliotecari in linea con una concezione “patrimonialista” del libro stesso che indubbiamente deriva, e questo va a loro parziale discolpa, dalla tipologia dei libri posseduti, spesso antichi e di pregio.
In ogni caso, al netto di queste specificità tutte italiche, la sensazione è che la prima regola di Ranganathan (o perlomeno il preciso passaggio alla base di questo post) sia stata fortemente disattesa nel nostro Paese.
Queste considerazioni, seppur interessanti, però nulla dicono su quelle che sono le prospettive prossimo-future ed in particolare alla luce dell’impatto notevole che dovrebbe avere la diffusione dell’ebook. Riguardo a quest’ultimo affascinante argomento è possibile sin da ora formulare qualche previsione: ad esempio è verosimile ipotizzare che, in linea con l’ambiente (latu sensu) nel quale il libro elettronico si troverà a vivere, ovvero quello dei bit e della Rete, il tasso di burocratizzazione sia giocoforza destinato a calare. Parimenti, in considerazione del successo riscontrato da tutti quei siti di social networking che hanno basato il loro successo su aspetti quali la condivisione e la collaborazione, non si può non pensare che anche la seconda raccomandazione di Ranganathan (= la “socializzazione” del libro) possa felicemente realizzarsi.
Tutto bene dunque? Non esattamente, o almeno, bene ma non proprio così come sperato dall’illustre bibliotecario (e matematico) indiano! Infatti non sfugge anche ai più distratti osservatori come il compito della biblioteca (e dei bibliotecari) di favorire la socializzazione dell’uso dei libri stia gradualmente sfuggendo loro di mano; basta fare un rapido giro nei principali social network destinati al libro / servizi di social reading per rendersi conto di come questi ultimi semplicemente snobbino queste istituzioni che, inutile dirlo, faticano a tenere il passo dell’innovazione. Gran parte di questi siti infatti sono destinati a “lettori per lettori” e le biblioteche, qualora sia prevista la loro presenza, hanno un ruolo puramente accessorio; i bibliotecari poi possono ovviamente parteciparvi ma in genere a titolo personale e non “a nome dell’istituzione” biblioteca. Certo, c’è sempre l’escamotage di inserire i propri dati personali ma di far vedere pubblicamente come “nome utente” quello dell’istituto di appartenenza ma dal punto di vista legale la soluzione mi sembra non esente da rischi e comunque la sostanza non cambia: sui siti di social network / social reading non si gode di alcuna preminenza e l’eventuale “reputazione” presso gli altri utenti deve essere guadagnata sul campo!
La domanda da un milione di dollari è pertanto la seguente: come possono essi recuperare le posizioni perdute, soprattutto in considerazione del fatto che è lo stesso luogo di “socializzazione”, ovvero la biblioteca, a venir meno? Per rispondere a questo quesito bisogna chiarire preliminarmente cosa sarà, in futuro, una biblioteca; a mio parere essa sarà, dal punto di vista dell’utente (= quello che ora ci interessa di più), l’interfaccia grafica con la quale quest’ultimo interagirà (che poi dietro a questa ci sia un duro lavoro di selezione, descrizione, etc. delle risorse non è ora motivo del contendere). Partendo da queste premesse l’obiettivo di “socializzare l’uso del libro” è raggiungibile attraverso due vie complementari: 1) completando l’evoluzione degli attuali OPAC in SOPAC (Social Online Public Access Catalogue), ovvero inserendo quelle funzioni tipiche del web 2.0 (commenti, condivisioni, like, tweet, sottolineature, rielaborazioni originali, etc.) che consentono di trasporre sulla Rete quei dibattiti, riflessioni, etc. che tradizionalmente si svolgono nel luogo fisico “biblioteca” 2) integrando ove possibile questi SOPAC con quei siti di social network / social reading che, inutile dire, attraggono molta più gente di quella che normalmente frequenta le biblioteche “tradizionali”. E’ questo dunque, aspetto tutt’altro che da sottovalutare, anche un ottimo modo per raggiungere fasce di popolazione con le quali in precedenza non si era mai entrati in contatto.
Il conseguimento di questi obiettivi, si badi, non si raggiunge però attraverso la “mera tecnica” ma serve bensì un cambiamento culturale da parte dei bibliotecari; detta in soldoni non è sufficiente realizzare una interfaccia user friendly con tanti bei bottoncini colorati ma occorre che essi “vadano dagli utenti” là dove questi ultimi discutono e “parlano” di libri. Si tratta dunque di un cambiamento di prospettiva radicale, specie se si pensa a quei bibliotecari (non tutti, per carità, ma ce ne sono!) abituati ad aspettare che siano i lettori a varcare la soglia della biblioteca ed a chiedere di uno specifico libro mentre dovrebbero essere loro ad andare attivamente alla ricerca degli utenti stimolandone i bisogni informativi!
Nel web, dove una biblioteca non dista chilometri da un’altra ma al contrario tutto è a portata di click, il permanere di questo atteggiamento attendista equivale semplicemente ad un suicidio ed occorre pertanto avviare una efficace politica “attiva”. Certo, a giudicare da quelle che sono le principali iniziative online dei bibliotecari (che giusto per fare un paio di esempi si riuniscono in liste di discussione di norma precluse ai “non iniziati” e quando dialogano con gli utenti lo fanno spesso in modo unidirezionale) la strada da fare è molta ma bisogna avere la consapevolezza che solo così facendo la raccomandazione / l’auspicio di Ranganathan citato all’inizio potrà veramente essere fatto proprio e trovare concreta attuazione.

Nuovo CAD e massimi sistemi

Seminario sul nuovo CAD

Seminario sul nuovo CAD

Tornato da un convegno / seminario sul nuovo CAD, nel corso del quale Gianni Penzo Doria ha come sempre saputo tenere attento e partecipe il numeroso pubblico, mi sono messo come spesso mi capita a fare considerazione sui massimi sistemi.

Infatti sarà stata la semplicemente fantastica “equazione del disordine”:

D*I = C2 (ovvero: Disorganizzazione * Informatica = Casino al quadrato)

la quale può a buon diritto essere riportata nei libri di fisica a fianco della legge dell’entropia oppure sarà stato il senso di smarrimento mistico in cui getta l’operato di un legislatore tanto iperattivo quanto confuso e pasticcione o ancora sarà stata la mia naturale repulsione per tutto ciò che sa anche solo lontanamente di legislativo… insomma sarà stato per tutto un insieme di fattori ma ho ritenuto che non ci fosse nulla di più tranquillizzante che rifugiarsi nei lenti (ma non per questo meno dirompenti) cambiamenti che agendo sottotraccia modificano la vita di tutti noi in modo impercettibile.
In particolare sono partito per la tangente con le mie speculazioni altamente filosofiche nel momento in cui si è parlato di firma elettronica / digitale; difatti, al di là del proliferare di specie e sottospecie, mi ha fatto riflettere il fatto che mentre il documento è attualmente conservabile per un discreto numero di anni, ciò non vale per l’eventuale firma ad esso apposta, essendo quest’ultima, per semplificare, “a scadenza”. Questo problema non da poco è aggirabile se l’utente si accredita ed interagisce (si vedano gli artt. 65 e 47 rispettivamente dei decreti legislativi 82/2005 e 235/2010) all’interno di un sito di una Pubblica Amministrazione: in tal caso infatti tutte le istanze e dichiarazioni vanno considerate per l’appunto come validamente sottoscritte.
In sostanza anche in questo caso, così come in quello parimenti complesso della conservazione digitale, una soluzione efficace pare essere il ricorso ad un “sistema”, visto alla stregua di luogo sicuro nel quale i documenti e gli atti si formano in base alle volontà degli attori chiamati in causa, vengono da essi “usati” ed infine conservati.
Rapito da questo turbinio di pensieri ho ampliato ancor più i miei orizzonti e mi sono soffermato sul fatto che la residenza di questi “sistemi” sarà in un tempo molto prossimo l’eterea “nuvola”, con tutto ciò che ne consegue. Infatti dopo tre decenni di atomizzazione della potenza di calcolo, degli applicativi e delle unità di memoria presso ciascun singolo individuo, il futuro del computing sembra andare inesorabilmente nella direzione dei grossi data center di proprietà anche degli Stati nazionali ma soprattutto dei colossi dell’informatica; data center cui delegheremo parte della capacità di calcolo e sui quali faremo girare i nostri programmi e “archivieremo” i nostri dati e documenti.
Una spinta centripeta che cozza con quella centrifuga alla quale ci eravamo oramai abituati; sarà la rivincita degli eredi dei grandi computer mainstream ed il tramonto dell’era del personal computer e con esso di tutte le promesse di liberazione dell’individuo.

Archivi in the cloud

Server farm

Server farm (foto MrFaber)

PREMESSA

Più volte in questo blog ho fatto riferimento al cloud computing ed alle sue ricadute archivistiche (e biblioteconomiche). Dal momento che non mi sembra ci sia molta chiarezza a riguardo, provo a farne un po’ io, in particolare spiegando cos’è questo fantomatico paradigma tecnologico e cosa si intende dire quando si afferma che “un archivio va sulla nuvola”.

DEFINIZIONE

Partiamo dall’inizio: la definizione di cloud computing è assai eterogenea e ne esistono più declinazioni, personalmente trovo che quella fornita da Rinaldo Marcandalli sia una delle più esaurienti, ovvero: “un insieme (o combinazione) di servizi, software e infrastruttura It offerto da un service provider accessibile via Internet da un qualsiasi dispositivo. Tutto si traduce in offerta di servizio, che in funzione dell’entità erogante può essere categorizzata in quattro generi: basata sul Web (il genere Rich Internet application da Flickr a Microsoft Office Live); Software as a Service o Saas (applicazioni accessibili Internet e customizzabili come Gmail e Salesforce.com); Platform as a Service o Paas (esempi classici le piattaforme Force.com e Google App Engine); Infrastructure as a service o Iaas (servizi infrastrutturali di capacità di elaborazione virtualizzata tipo Amazon Elastic compute cloud o Ec2, o di hosting di server virtualizzati o di utilità storage; importante osservare che Iaas può venir erogata da un data center pubblico o privato)”.
Si noterà che molti degli esempi riportati da Marcandalli non rappresentano novità assolute, al contrario riguardano servizi noti al grande pubblico; in effetti il tratto distintivo di un servizio in cloud computing non dipende tanto dal suo livello di innovatività ma piuttosto dalla modalità di erogazione (in questo senso i requisiti di scalabilità e personalizzazione sono essenziali).

GLI ARCHIVI SULLA NUVOLA

Come si sarà evinto dalla lettura della definizione appena data, all’interno della tipologia definita come IaaS vi è la precisa funzione di “utilità storage“, che è quella qui di nostro principale interesse e che andrò ora ad analizzare (da notare bene che per il soggetto erogante tale servizio si colloca a livello infrastrutturale mentre per il client si tratta di accedere ad un servizio basato online, ovvero ricadente all’interno di una delle due prime categorie a seconda del grado di customizzazione). In soldoni si tratta della possibilità, per individui ed organizzazioni pubbliche e private, di “archiviare” i propri dati e documenti all’interno di server remoti sui quali in genere NON SI HA alcun controllo. Se fino a ieri dunque la destinazione di questi dati erano le varie unità di archiviazione di massa di tipo generalmente magneto-ottico (dagli hard disk esterni ai juke box di CD/DVD, passando per tape library e via discorrendo) di proprietà, oggi essi finiscono in server residenti in luoghi talvolta non geograficamente determinati, aspetto che rende il ricorso al termine “nuvola” del tutto calzante ma che pone nel contempo numerosi problemi pur a fronte di alcuni innegabili vantaggi.

I VANTAGGI

Abbracciare il modello del cloud computing garantisce alcuni innegabili vantaggi per coloro (privati ed organizzazioni) che effettuano questa scelta: a) essi hanno il vantaggio economico e “gestionale” di non dover più preoccuparsi di comprare e, per l’appunto, gestire, lo spazio di memoria necessario a contenere i propri dati e documenti (si tratti del disco rigido esterno da poche decine di euro o del server da qualche migliaio, la sostanza non cambia) b) in linea di principio i propri dati e documenti vengono messi al riparo dai rischi di perdita, corruzione, cancellazione, etc. (poi anche le server farm possono andare a fuoco, ma su questo meglio sorvolare…) c) caricare i propri dati e documenti sulla nuvola è in linea con l’evoluzione che sta interessando il modo di organizzare l’attività lavorativa nonché la gestione delle risorse umane: lavoro in condivisione e senza l’obbligo di trovarsi fisicamente in uno specifico ufficio o sede di lavoro, in quanto vi si può accedere attraverso molteplici dispositivi (tablet, notebook, netbook, smartphone, etc.). Il risultato ultimo di tutto ciò è non solo una ridefinizione dei carichi individuali e dei flussi di lavoro (inclusi quelli documentari), ma pure un aumento nella circolazione di idee, della conoscenza collettiva e (si spera) della produttività.

I PROBLEMI

Nella definizione data da Marcandalli si parla di “utilità di storage”, anche se è invalso l’uso del termine di “archivi sulle nuvole” come suo sinonimo, benché qualunque archivista abbia perfettamente presente come quest’uguaglianza sia ben lungi dal corrispondere al vero! Come bisogna dunque considerare questi servizi? Come meri “depositi” oppure come archivi? Una veloce analisi di un campione di essi basta ed avanza per evidenziare carenze tanto dal punto di vista teorico quanto da quello pratico, tali da far propendere indubbiamente per la prima opzione.
Dal punto di vista teorico semplicemente non è possibile parlare di archivio, dal momento che il client sceglie (con modalità differenti da servizio a servizio) quali dati e documenti caricare sulla nuvola sicché si viene a creare una completa discrasia tra l’archivio presente in locale e quello in remoto cosa che a sua volta fa venir meno la necessaria organicità oltre che il fondamentale concetto di vincolo archivistico (e qui non mi sto riferendo al tradizionale vincolo puro, ma al concetto “nuovo” di vincolo impuro sviluppato in ambito di archivio informatico da autori come Antonio Romiti!). A rafforzare un tale drastico giudizio contribuisce poi la mancanza de facto di un contesto così come l’assenza di una profondità temporale (di norma i documenti sono datati solamente a partire dal momento dell’upload, con un evidente effetto distorsivo).
Non meglio vanno le cose se si esaminano tali servizi per quanto riguarda il profilo tecnico e legislativo; infatti, usando come criteri di valutazione quelli suggeriti da Chenxi Wang in un interessante report redatto per Forrester (peraltro sovrapponibile in molti punti alle MOIMS-RAC stilate dal Consultative Committee for Space Data Systems), i servizi in analisi risultano quanto meno carenti circa i seguenti aspetti: 1) integrità dei dati uploadati non garantita, con risarcimenti nulli o irrisori in caso di loro perdita 2) loro residenza ignota (spesso le aziende si giustificano asserendo che il non rivelare l’ubicazione dei data center fa parte della stessa politica di sicurezza e prevenzione) 3) salvo rari casi, non viene esplicitato in alcun modo il tipo di architettura adottata (ad es. RAID3, 4, etc.) così come gran pochi cenni si fanno alle politiche in fatto di disaster prevention, business continuity e le relative misure adottate (e questo è paradossale, essendo proprio il desiderio di cautelarsi da simili evenienze a spingere molti CIO ad adottare il modello del cloud computing… in pratica a volte si abbandona il noto per l’ignoto!) 4) assenza di audit, con il risultato che talvolta è impossibile stabilire chi e quando “ci ha messo le mani” e su quali e quanti di questi dati e documenti 5) scarsi e/o generici riferimenti alle leggi di riferimento in tema di privacy, etc.

LE SOLUZIONI

Anche alla luce di molte di quelle problematiche individuate nel precedente paragrafo si sono cercati dei correttivi tali da far accettare il modello cloud anche ai responsabili delle strutture informatiche più restii, senza però che tali correttivi togliessero quegli elementi di indubbio vantaggio. A riguardo, essendo uno degli aspetti più critici (e criticati) quello della sicurezza (fisica e “intellettuale” dei dati e documenti caricati), molte organizzazioni stanno creando delle private cloud, ovvero delle infrastrutture tecnologiche che ricalcano i medesimi principi di una “normale” nuvola (definita per distinguerla dalla precedente public cloud) ma che sono usate esclusivamente dalle organizzazioni stesse che le realizzano. Così facendo si godono dei vantaggi elencati e si annullano per contro gli aspetti negativi; l’unico neo è che una simile opzione è praticabile solo da realtà grosse e dotate del necessario capitale finanziario, umano e tecnologico mentre quelle più piccole ed i singoli individui non potranno che affidarsi a quello che c’è sul mercato! A questi ultimi, dunque, non resta altro che cercare di contrattare con il fornitore servizi il più possibile vicini ai propri desiderata.
Un’altra strada percorsa è quella seguita da Amazon con il governo degli Stati Uniti, con la prima che ha “riservato” al secondo una cloud specifica ed ottemperante ai particolari e più restrittivi requisiti del “cliente” Federale.
Dal momento che non tutti hanno il peso contrattuale del governo statunitense, sono state poi trovate ulteriori soluzioni intermedie, com’è il caso delle cosìdette hybrid cloud, che come suggerisce il nome presentano elementi dell’una e dell’altra soluzione.

LE PROSPETTIVE

Dando credito alle previsioni delle principali società di analisi e ricerca del mercato, il futuro del cloud computing è roseo: secondo Gartner il suo giro d’affari complessivo nel 2010 si è attestato attorno ai 68 miliardi di dollari. Il peso complessivo dello storage all’interno di questo settore è preminente ed assicurerebbe quasi la metà degli introiti. E che “gli archivi sulla nuvola” siano un business che porta guadagni lo confermano gli stessi operatori. La statunitense Dropbox è quotata attorno ai 4 miliardi di dollari e persino in Italia Telecom, che ha lanciato “Nuvola Italiana”, lo ha definito un “business profittevole”! Se dunque sembra proprio che dovremo abituarci alla prospettiva che i nostri “archivi” finiscano sulla nuvola, possiamo almeno sperare che intervengano alcuni fattori correttivi di questi servizi. Ad esempio l’inserimento di metadati rappresenterebbe già un notevole passo in avanti, così come la partecipazione degli archivisti nella fase di progettazione delle private cloud che sicuramente le Pubbliche Amministrazioni vorranno realizzare sarebbe un altro aspetto sicuramente positivo. In generale, poi, vale la raccomandazione di leggere attentamente i “Termini & Condizioni” del servizio e cercare di valutare l’affidabilità della soluzione tecnologica proposta (l’assenza di specifiche tecniche sulle quali poter effettuare valutazioni è di suo un elemento negativo!), personalizzandoli ove possibile.

CONCLUSIONI

Da quanto scritto si capisce come negli “archivi sulla nuvola” vi sia la compresenza di aspetti positivi e negativi; nell’attesa che anche questi servizi maturino (e nella convinzione che ciò equivarrà ad un loro miglioramento) credo stia all’utilizzatore finale discriminare tra buoni e cattivi servizi. In altri termini il buon senso come principio guida è l’unico mezzo per non rimanere “scottati” da una parte e perdere il treno dell’innovazione tecnologica dall’altra perché, credo di non essere troppo enfatico sostenendo ciò, il futuro degli archivi passa anche dalla nuvola.

Per la versione su Storify con puntuali riferimenti a documenti e notizie alla base di questo post cliccate qui.

E-book in Italia, l’incertezza continua

Samsung eBook Reader with a paperback book

Samsung eBook Reader with a paperback book di umpportal.com

I tanto attesi dati definitivi sull’editoria e sull’ebook in Italia nel 2010, attesi soprattutto perché quelli forniti dall’AIE possono a buon diritto essere considerati come “ufficiali”, non hanno contribuito a fare quella chiarezza che ci si attendeva. In generale torna il segno positivo (+ 0,3%) ed aumentano i lettori (come evidenziato tempo fa anche dall’ISTAT), ma calano numero di nuovi titoli e tirature medie, risultati che in considerazione della crisi in atto possono essere anche accolti con moderata soddisfazione.
La cosa preoccupante è che l’ebook, come peraltro ampiamente percepito senza il bisogno di raffinate indagini, non cresce come dovrebbe fermandosi allo 0,04% (lontano da quell’1% indicato l’anno scorso proprio di questi tempi come obiettivo a portata di mano). Nel suo intervento Marco Polillo, presidente AIE, ha giustamente ricordato come non aiuti l’IVA (salita, contro ogni logica, al 21%) così come il costo dei principali dispositivi di lettura si mantenga elevato, ma non vengono affrontati a mio avviso quei nodi cruciali che ho elencato nel mio post di ieri: portabilità, necessità di omogeneizzazione su un unico standard, niente DRM, niente frammentazione dei titoli tra i vari online bookshop (le vendite di questi ultimi sono in aumento ed è una cosa positiva in quanto sarà attraverso tali canali che il libro elettronico verrà principalmente commercializzato), appoggiarsi a biblioteche pubbliche e sistema scolastico in quanto strutture radicate tra la gente capaci di far conoscere a tutti l’ebook (a proposito, si legga questo articolo apparso oggi e che conferma con dovizia di dati quanto ieri sostenevo, pur basandomi su altre fonti, ovvero il ruolo di volano che public libraries e sistema educativo stanno svolgendo negli Stati Uniti nella diffusione del libro digitale).
Insomma leve sulle quali agire per ottenere un cambio di marcia ci sono, certo l’incertezza sul futuro dev’essere tanta se è vero che l’AIE, ed in particolare Polillo nel suo intervento, ben si guardano da fare stime sul futuro prossimo venturo (ci si limita infatti solo a dire che il numero di titoli crescerà). Evidentemente la paura di restare scottati è tanta.

La consueta versione su Storify è puntualmente corredata dai documenti cui ho fatto cenno in questo post e che invito tutti a leggere.

Occhi puntati su Francoforte

Frankfurter Buchmesse 2008

Frankfurter Buchmesse 2008 di dream4akeem

Nell’attesa che domani si inauguri la tradizionale Frankfurter Buchmesse, lunedì c’è stata un’anteprima incentrata sull’ebook con il Publishers Launch Frankfurt. I temi affrontati sono stati molteplici: dall’importanza crescente del self-publishing alla convergenza tra tablet ed ereader, dal ruolo delle politiche di prezzo per far breccia nei lettori al ruolo assunto da big player e newcomer nelle varie realtà locali.
Insomma tanta carne al fuoco e, per l’Italia, qualche nota dolente. Sono stati infatti presentati i dati aggiornati di un’indagine di A.T. Kearney / BookRepublic che avevo a suo tempo commentato.
Oggi come allora ho trovato quei dati, una volta incrociati con gli altri disponibili, interessanti ma oggi come allora ho trovato discutibili le conclusioni da essi desunte.
D’accordo, le sensibilità sono molteplici e ciascuno pone l’accento su un aspetto piuttosto che su un’altro (l’incidenza dell’IVA, l’abitudine all’e-commerce, etc.) ma mi pare che si continui a sottovalutare l’effetto traino che solo la diffusione capillare di tablet ed ereader possono garantire. Non è infatti un caso se in Italia questi due dispositivi assieme arrivano a 900mila unità e l’incidenza dell’ebook sul totale è appena dello 0,5% (lontani anni luce da quell’1% cui si sperava di arrivare per la fine dell’anno) mentre in Germania sono 2 milioni ed 800mila e la quota si assesta allo 0,9% per finire con il Regno Unito dove con 3 milioni e 700mila dispositivi l’ebook arriva al 3,7%! Insomma la regola sembra essere che più dispositivi ci sono, più il libro digitale è diffuso (unica eccezione la Francia dove a fronte di quasi 2 milioni di dispositivi e con molti più titoli la percentuale dell’ebook è identica a quella dell’Italia).
La domanda capitale è dunque la seguente: come far sì che questi dispositivi di lettura riescano a diffondersi il più rapidamente possibile. Anche qui le varie risposte fornite mi sembrano non centrare il bersaglio: d’accordo abbassare il prezzo degli ebook (ed in Italia l’IVA applicata), d’accordo incentivare il self-publishing e d’accordo anche aumentare il numero di titoli, ma se non si crea un sistema equo, privo di lacci e lacciuoli la gente non passa “al nuovo”, visto e considerato che questo nuovo è peggio del vecchio e soprattutto costa come minimo un centinaio di euro! Quindi niente DRM, niente lock-in, niente formati proprietari, niente frammentazione dei titoli tra i vari online bookshop! Solo così, a mio parere, l’ebook potrà decollare anche in Europa.
Ciò detto, non ci resta che aspettare il tradizionale rapporto dell’AIE sullo stato dell’editoria in Italia, che domani verrà presentato sempre a Francoforte, e vedere se ci riserverà qualche sorpresa.

PS Mi si potrà obiettare che negli Stati Uniti l’ebook va alla grande nonostante il sistema patisca quelle “tare” che propongo di abbattere (emblematica Amazon con il suo Kindle ed il relativo formato proprietario mobi); è vero, ma negli Stati Uniti ed in generale nel mondo anglo-sassone (non è una coincidenza se il Regno Unito rappresenta in Europa la punta più avanzata del fenomeno ebook) molte catene librarie, Amazon ovviamente ma anche Barnes & Noble, sono penetrate a fondo nel tessuto sociale. L’azienda di Seattle ad esempio grazie all’eccellente servizio di customer care e ad un marchio riconosciuto come tale ha potuto lanciare il suo Kindle e, sfruttando la reputazione acquistata, farlo accettare ai suoi clienti che “si sono fidati” di lei. B&N d’altro canto, a prescindere dalle valutazioni su un siffatto sistema, è capillarmente diffusa all’interno della rete delle biblioteche di ogni ordine e grado del sistema scolastico americano, fattore che ha funto da volano nel momento in cui si è passati a modalità di studio di tipo e-learning basate ovviamente sul proprio Nook. Condizioni difficili da ricreare in Europa e che rafforzano la mia convinzione circa la necessità di togliere quelle strozzature che elencavo prima, pena l’affossamento di un settore che al contrario potrebbe essere vitalissimo.

Per la versione su Storify cliccate qui.

Amazon Kindle Fire: le prime impressioni

La rivoluzione del kindle fire è nel prezzo

La rivoluzione del kindle fire è nel prezzo; foto paz.ca

Dopo averci scritto a riguardo ripetute volte, in questo blog così come in altri siti e liste di discussione più o meno amici, non posso esimermi dal dire la mia sull’atteso nuovo prodotto di Amazon, il Kindle Fire. Ok, una valutazione migliore di questo nuovo dispositivo potrà essere fatta solo dopo averlo toccato con mano, ma sin da ora alcune considerazioni si possono fare.
La prima cosa che mi vien da sottolineare, rappresentando il miglior biglietto da visita in assoluto, è il prezzo: 199 $ (145 € circa) sono davvero pochi e diciamocelo, Jeff Bezos con questa mossa ha spiazzato tutti (il sottoscritto incluso, avendo non più di una settimana fa ipotizzato una collocazione sul mercato attorno ai 270 $, corrispondenti a circa 200 €). Un simile risultato lo si è potuto conseguire ovviamente sacrificando alcune caratteristiche / dotazioni; vediamo dunque come si presenta il nuovo nato:
1) connettività: c’è solo quella via Wi-Fi e non la 3G e se all’estero la cosa non rappresenta una limitazione in Italia, dove gli hotspot nonostante la parziale recente “liberalizzazione” sono ancora pochi, lo è eccome.
2) memoria interna: è di appena 8 Giga in quanto Amazon mette liberamente a disposizione i propri “archivi sulla nuvola” (ma, attenzione, solo per quei contenuti provenienti da Amazon stessa!); in pratica con due o tre film, qualche centinaio di ebook ed il solito congruo numero di app si arriva al limite.
3) caratteristiche tecniche e dotazioni: il processore dual core dovrebbe garantire ottime prestazioni; del resto un’ulteriore riserva di potenza di calcolo la si ha ricorrendo alla nuvola di Amazon (lo stesso principio regge il nuovo browser Silk, che promette davvero bene); pur non fondamentali, l’assenza di telecamera e di microfono scoraggerà invece qualcuno dall’acquisto.
4) dimensioni: ottima a mio parere la scelta di realizzare un dispositivo di dimensioni e pesi più contenuti del consueto (nemmeno mezzo kilo, con una batteria che garantisce fino ad 8 ore di autonomia, schermo da 7 pollici), in modo da enfatizzarne la portabilità / il poco ingombro / la possibilità di usarlo in mobilità.
5) funzione di reader: in linea con l’impostazione di questo blog non può mancare una digressione circa le peculiari funzioni come strumento di lettura; lo schermo sembra buono (anche qui un giudizio definitivo potrà venir formulato solo dopo averlo visto all’opera), semmai mi aspettavo l’apertura al formato ePub sul quale la maggior parte degli editori stanno puntando, mentre si è rimasti fedeli al tradizionale formato .mobi (non protetto). Questa scelta conferma il vincolo con l’Amazon Store ed, anzi, in considerazione di quanto già sottolineato (il massiccio ricorso a risorse di EC2 in fatto di calcolo e storage) il grado di libertà per l’utente / cliente mi sembra addirittura ridursi, seppur all’interno di un ventaglio di offerte in crescita!
Per concludere con Kindle Fire l’azienda di Seattle si candida ufficialmente al ruolo di anti-Apple nel mercato delle tavolette, percorrendo una via opposta a tutti gli altri competitor, ovvero quella di un prodotto non al top della gamma e di fascia di prezzo medio bassa, vedremo se con successo. Fattori che inducono all’ottimismo sono il poter contare sul proprio negozio online (= i contenuti), l’ottima reputazione guadagnata in questi anni, la base di utenti / clienti, l’infrastruttura cloud, manca solo l’ecosistema di sviluppatori ma l’aver puntato su Android in prospettiva dovrebbe garantire di colmare questa lacuna.
A mio avviso però un neo c’è e riguarda proprio la politica di prezzo la quale, così come è stata concepita, potrebbe colpire il bersaglio sbagliato se non rivelarsi addirittura controproducente. In sostanza mi chiedo: con un Kindle Fire a 199 dollari chi comprerà il Kindle Touch 3G (eReader in bianco e nero, presentato contestualmente al Fire, che presenta la novità dello schermo touch) per appena 50 dollari in meno? Chi infine acquisterà il Kindle Touch senza connettività a 99 dollari? In altri termini ho la sensazione che il Fire possa rubare quote agli altri dispositivi prodotti da Amazon stessa con in più l’ulteriore pericolo che i margini di guadagno per pezzo, che non possono giocoforza essere elevati, non siano compensati da un adeguato volume di vendita.
Insomma, il mercato degli eReader e dei tablet si arricchisce e si complica (a proposito, ora che il Fire è stato svelato voglio vedere se Idc confermerà la propria idea di non considerarlo una tavoletta) ma forse a subire la pressione potrebbe non essere l’iPad bensì tutti quei produttori (l’accoppiata Nook Color e Barnes & Noble in primis; il titolo di quest’ultima non a caso perde in borsa sia ieri che oggi) che finora avevano tentato in qualche modo di opporsi ad Apple.

PS Per la versione storyfizzata di questo articolo clicca qui.

PEC & co.

e-mail symbol di Micky.!

e-mail symbol di Micky.!

Mentre in Italia ci balocchiamo con la PEC, Gartner “sdogana” GMail come valido strumento enterprise; per quanto questa cloud mail patisca ancora di alcune zone d’ombra in fatto di continuità, trasparenza e conformità alla legge, la crescita numerica degli utilizzatori testimonia la capacità di penetrare il mercato da parte dell’azienda di Mountain View. Ovviamente la messa in circolazione dei vari dispositivi mobili è la premessa indispensabile per far sì che il sistema di posta elettronica di Google possa decollare del tutto, ma gli elementi a disposizione lasciano presupporre che sia solo una questione di tempo.
Quanto avviene Oltreoceano stride nettamente con quanto stiamo facendo in Italia con la PEC (Posta Elettronica Certificata): quest’ultima ha certamente alcuni pregi, ma presenta innegabilmente pure molti difetti che a mio avviso potrebbero sancirne il declino nel giro di breve tempo. In primo luogo è riconosciuta solo nel nostro paese e finora nessun’altro mi risulta abbia dimostrato interesse ad “entrare nel club” (si parla di REM, ok, ma mi sembra stia stagnando all’ETSI da un po’ troppo tempo); in secondo luogo non è immediatamente leggibile da parte dei principali smartphone e tablet (tanto gli iPhone quanto i BlackBerry, e quindi pure iPad e PlayBook che ne condividono il sistema operativo, non riescono neppure ad aprire i file tipo .eml) a meno che non si utilizzi Outlook Mobile; peccato che Microsoft non vada esattamente per la maggiore nel settore dei sistemi operativi mobili (stiamo a vedere con Windows Phone 7)! Ve lo vedete il manager a dover fare ottomila passaggi per mandare una mail certificata? Il punto, e questo è il terzo aspetto, è che la PEC è vista da quasi tutti come una grande seccatura, l’ennesimo obbligo (con relativo esborso) imposto da uno Stato che dal canto suo non si adegua completamente e nemmeno riesce a sfruttarne appieno le potenzialità (anche per le indubbie criticità incontrate nella sua applicazione all’interno della PA e per le varie interpretazioni legislative che hanno ulteriormente complicato l’argomento). Insomma, se non proprio gli aspetti tecnico-giuridici, potrebbe essere il mancato feeling con gli utilizzatori a decretarne la precoce fine.

PS La versione storyfizzata di questo post è disponibile al seguente indirizzo: http://storify.com/memoriadigitale/pec-e-dintorni.

Tablet ed eReader avanti a braccetto

Alice & Andy iPad ebook

Alice & Andy iPad ebook; foto Science Office

I dati rilasciati da IDC alcuni giorni orsono circa l’andamento del mercato di tavolette ed eReader a livello globale contengono alcune conferme ma anche molte sorprese; la prima conferma è che l’iPad continua ad essere il dominatore assoluto del mercato dei tablet con una quota del 68,3%, addirittura in salita rispetto al 65,7% della precedente rilevazione; la seconda conferma è che alla concorrenza restano le briciole: il PlayBook di RIM si deve accontentare del 4,9% ed il TouchPad di HP, in attesa che l’azienda decida che vuol farsene della divisione PC, del 4,7% ma solo perché negli Stati Uniti viene svenduto a 99$, come gli eReader di fascia bassa. E’ proprio da quest’ultimo settore che provengono le maggiori sorprese: nonostante le consegne di tablet siano cresciute dell’88,9% rispetto alla precedente rilevazione e la performance anno su anno sia a dir poco strabiliante (+ 303,8%; e le previsioni per la parte finale dell’anno sono ulteriormente al rialzo!), ciò non sembra andar a discapito degli eReader i quali, nonostante un calo congiunturale del 9% (attribuito a motivi stagionali), possono ugualmente vantare una crescita rispetto al 2010 del 167% (anche in questo caso le previsioni per la rimanente parte dell’anno sono per un ulteriore aumento)! Pure qui c’è un chiaro leader del mercato, vale a dire Amazon con il suo Kindle, anche se le percentuali non sono bulgare come nel caso dell’iPad. Il lettore della casa di Seattle infatti detiene il 51,7% del mercato, ma il Nook di Barnes & Noble con il 21,2% fa la sua onesta figura. Insomma sembra proprio che tablet ed eBook Reader non si stiano scannando a vicenda, come temuto da alcuni, ma che a farne le spese siano altri dispositivi, netbook su tutti. Certo, in valori assoluti le tavolette, dall’alto dei 62,5 milioni di pezzi che si stima saranno venduti entro l’anno, staccano nettamente gli eReader che si fermeranno, si fa per dire, a 27 milioni di unità ma considerate assieme si arriverà a sfiorare la ragguardevole cifra di 90 milioni! Ovviamente questo è il punto cruciale della questione in quanto la presenza di una adeguata base di dispositivi di lettura è la conditio sine qua non per il decollo degli eBook!
In tal senso il Natale 2011 potrebbe sancire anche in Europa il definitivo decollo del libro digitale dopo aver assistito lo scorso anno, nonostante i roboanti proclami, ad una falsa partenza: troppo pochi a mio avviso erano i lettori in circolazione ed ancor meno (specie in Italia) i titoli disponibili a catalogo. Oggi, a distanza di un anno, i motivi di ottimismo per l’andamento dello shopping natalizio sembrano essere maggiormente fondati: da una parte si ritiene che il nuovo reader di Amazon riuscirà a fare il botto di vendite, dall’altra che la sua apparizione, innalzando d’un sol colpo il livello di quelle che sono le caratteristiche tecniche “minime” degli eReader (schermo a colori e multitouch, funzionalità varie, etc.), metterà fuori mercato gran parte della concorrenza (Nook Color a parte). Di conseguenza i rivenditori si troveranno a dover eliminare le scorte a magazzino di eReader in bianco e nero, vendendoli a prezzi allettanti (sotto i 100 dollari), il che darà un’ulteriore spinta alle vendite complessive! Considerando poi che questi nuovi possessori potranno attingere a cataloghi che nel frattempo si sono ulteriormente arricchiti, è verosimile che almeno per il settore dell’editoria digitale (inteso qui in senso lato) le prospettive prossimo future siano positive!

PS In un mio recente post affermavo che, dovendo scegliere tra tablet ed eReader, diversamente da quanto avrei fatto un anno fa non avrei avuto alcun dubbio, puntando tutto sulla tavoletta; la precisazione fatta da IDC nel comunicato stampa che è stato alla base di questo articolo, ovvero che essa considererà il prossimo dispositivo di Amazon come un eReader in quanto, in base alle indiscrezioni in suo possesso è molto più avvicinabile al Nook che all’iPad2, non modifica la mia opinione a riguardo poiché IDC stessa riconosce che la nuova generazione di lettori di eBook sarà nettamente più performante rispetto alla precedente, ed in questo senso la categoria nel suo complesso si avvicinerà come caratteristiche alle tavolette. Sorvolando ora sul fatto se sia in atto una convergenza (magari sarà l’oggetto di un futuro post!), dico solo che ipotizzando per il nuovo lettore di Amazon un posizionamento su una fascia di prezzo analoga al suo principale avversario, il Nook Color, ovvero sui 200 euro, dovrà possedere davvero numerose funzionalità per trattenermi dallo spendere qualche centinaio di euro in più ma avere un dispositivo di tutt’altro livello!

Conservazione della memoria digitale & dintorni

Data destruction

Dvd (foto di Samantha Celera)

Lo spunto di questo post mi è stato offerto dalla recente discussione, a dire il vero nemmeno tanto appassionata ed alla quale io stesso ho partecipato, che si è svolta sulla lista Archivi 23 sull’annoso ed intricato tema della conservazione della memoria digitale e sulle sue modalità di “implementazione” presenti e future.
L’input al dibattito è stata la richiesta di pareri su un “nuovo” tipo di disco ottico (chiamato M-Disk) prodotto da Millenniata e che, come suggerisce il nome, dovrebbe durare 1000 anni senza deteriorarsi in virtù dei materiali usati (nel sito non viene spiegato chiaramente come siano costruiti, si dice solo che l’uso di materiali inorganici ed altri metalloidi li rendono “non deperibili” come i “mortali” DVD). L’altro motivo che consenti(rebbe) ai dati / documenti memorizzati su tali DVD di rimanere leggibili in perpetuum è il fatto che l’incisione della superficie del disco avviene molto più a fondo, in quanto si fa ricorso ad un laser assai più potente rispetto ai consueti. Proprio per quest’ultimo motivo occorre usare un apposito “masterizzatore” prodotto da LG e che a seconda del modello (= del prezzo) può scrivere anche su CD, DVD “normali” e Blu-Ray.
Ora, sorvolando il fatto che tali decantate qualità siano più o meno vere (Millenniata porta a supporto test condotti presso il Naval Air Warfare Center di China Lake), nella Lista è stato fatto notare che: 1) la presenza di dischi ottici indistruttibili non risolve il problema dell’obsolescenza dell’hardware e del software 2) che la tendenza in fatto di archiviazione / storage, pur con tutti i noti problemi, va inesorabilmente nella direzione della cloud; quest’ultimo richiamo al cloud computing ha comportato una levata di scudi da parte di alcuni membri della Lista (significativamente si trattava di addetti nel settore informatico; tentativo di difesa di business consolidati o competente presa di posizione?) i quali in sostanza considerano il cloud una montatura o quanto meno uno specchietto delle allodole grazie al quale si spacciano per nuovi concetti vecchi, in ogni caso negando la possibilità che esso comporti concreti vantaggi. Per contro veniva salutato positivamente il “passo in avanti” compiuto con la comparsa dell’M-Disk in quanto, è stato sostenuto, almeno il problema dell’affidabilità / durabilità dei supporti di memorizzazione trovava una soluzione.
D’accordo, la speranza è l’ultima a morire, ma dovendo ragionare e soprattutto agire hic et nunc credo che l’idea di ricorrere a supporti di memorizzazione simili a quelli proposti da Millenniata non abbia molto senso e questo perché: 1) si è vincolati, in fase di scrittura, al prodotto di LG il quale, come tutti gli altri prodotti hardware, nel giro di 5 – 10 anni sarà, per l’appunto, obsoleto; bisognerà dunque sperare che LG (se esistente, cosa tutt’altro che garantita considerando i processi di merge & acquisition in atto) assicuri nel tempo la produzione dei nuovi “masterizzatori” 2) fatti quattro rapidi conti non è conveniente spendere per M-Disk che costano (al dettaglio) mediamente due dollari e mezzo in più l’uno a parità di capacità di memorizzazione (4,7 GB) se poi non potrò usarli per la predetta obsolescenza HW e SW! Che me ne faccio di dati / documenti se poi non li posso leggere / usare?! 3) Interpares ha ormai accettato il fatto che i documenti siano (relativamente) “cangianti” e che il loro “habitat” sia un sistema documentale; a mio parere che tale sistema documentale “lavori” in una server farm situata presso la sede principale dell’organizzazione (e presumibilmente altra sede decentrata) o che al contrario stia, sfruttando la nuvola, a migliaia di kilometri di distanza poco importa! Essenziale è che questa nuvola (private, common o hybrid che sia) risponda a requisiti di sicurezza (fisica e legale), tutela dei dati, integrità, affidabilità, etc. In altri termini non vedo una contraddizione tra i principali risultati teorici di Interpares (quale il concetto della permanenza all’interno del sistema, che a sua volta riprende l’istituto anglo-sassone dell’ininterrotta custodia) ed il passaggio alla nuvola, garantendo quest’ultima (se fatta bene) la medesima permanenza all’interno del sistema che può essere assicurata da una server farm tradizionale, con tutto ciò che ne consegue, vale a dire, per l’oggetto specifico di questo post, la progressiva scomparsa delle memorie di tipo ottico.

PS Sono conscio che le prassi operative di molte server house prevedono che i dati / documenti “correnti” vengano memorizzati su nastri magnetici dall’ottimo rapporto prezzo / Gb mentre quelli “storici” in tradizionali dischi ottici di norma “impilati” in juke-box o secondo altre più complesse architetture, ma nondimeno ritengo che questa soluzione, in linea con la tendenza generale verso la “dematerializzazione”, svolgerà un ruolo progressivamente residuale.

Verso la balcanizzazione della cloud?

Nella visione dei suoi assertori più entusiasti al trionfo del cloud computing dovrebbe corrispondere la semplificazione della vita di noi tutti: il giovane in partenza per le vacanze studio a Londra non dovrebbe portarsi via decine di memorie flash per non rischiare di trovarsi senza la canzone che ben si adatta al mood del momento e questo perché l’intera sua discografia è nella nuvola; il manager in trasferta a New York per chiudere un contratto non si troverebbe nella necessità di portar con sé mezzo ufficio perché i documenti di quell’importante affare risiedono anch’essi nella nuvola; il malato costretto a spostarsi non dovrebbe temere per la propria salute in quanto le prescrizioni mediche, insieme all’intera sua cartella clinica, sono sempre nella nuvola pronte ad essere rapidamente consultate da qualsiasi medico; il nerd che, a forza di scaricare dalla Rete, ha sempre l’hard-disk al limite della capacità nonostante i molteplici dischi rigidi “ausiliari” posseduti, vede risolti i suoi problemi di spazio uploadando tutto sulla nuvola. Se si aggiunge che nella visione di molti addetti ai lavori tutti questi dati e documenti, relativi a vari aspetti della vita di ciascuno di noi, dovrebbero essere accessibili e comunicanti tra di loro e fruibili in maniera semplice e veloce a partire dal dispositivo prescelto (probabilmente, pur sopravvivendo desktop PC, smartphone, laptop, etc. si attuerà una convergenza verso il tablet), si comprende come il cloud potrebbe davvero risolvere molti problemi e renderci la vita più agevole!
In realtà più di un indizio indica che anche la nuvola, come gli steccati di Internet (del quale parla Jonathan Zittrain) o gli e-book reader (dei quali me ne sono personalmente occupato in un precedente post), sia a rischio “balcanizzazione”: si starebbero in altri termini creando più nuvole non comunicanti tra di loro, il che ha come esito finale una perdita di molti di quei vantaggi che il cloud effettivamente potrebbe portare con sé!
I motivi sarebbero diversi: da una parte le aziende che tendono a trattenere i propri utenti all’interno della propria nuvola… di business (ma con una significativa spaccatura tra le varie Amazon, Apple, Google e Microsoft opposte ad altri colossi – tra i quali Adobe, AT&T, Cisco, Hewlett Packard, IBM, Juniper Network – riuniti dal 2009 attorno al cosiddetto Open Cloud Manifesto), dall’altra le stesse diverse “anime” delle Pubbliche Amministrazioni, restie vuoi per motivi di sicurezza vuoi per “gelosie” retaggio delle tradizionali divisioni dipartimentali, etc. a condividere i dati e le informazioni caricati nelle proprie “nuvole” con i propri colleghi (alla faccia della leale collaborazione)!
Andrebbe imponendosi, in buona sostanza, il modello della private cloud su quello della public cloud anche quando ciò non appare strettamente necessario. Se la cosa è comprensibile per aziende private (in definitiva libere di fare quel che vogliono) lo è un po’ meno per le Pubbliche Amministrazioni in quanto, come fa notare Andrea Di Maio (che peraltro non contempla soluzioni intermedie come hybrid cloud e community cloud), in tal modo “non si risparmia quanto si potrebbe” in questi tempi di crisi, senza considerare le perdite in termini di “mancata condivisione” e conseguente ottimale sfruttamento dei dati e delle informazioni.
Non ci resta che stare a vedere se la futura evoluzione seguirà queste premesse o se ci sarà un cambiamento di rotta.

Per la versione storyfizzata di questo post cliccate qui.