A tutti coloro che, come il sottoscritto, sono affascinati dal passaggio, dei quali siamo tutti testimoni, dal libro analogico a quello digitale, consiglio vivamente una visita alla mostra Pietro Bembo e l’invenzione del Rinascimento, in corso a Padova presso il palazzo del Monte di Pietà (termina il 19 maggio).
Infatti, in particolare nelle prime tre sale, si possono concretamente percepire quei profondi cambiamenti appresi anni orsono nei vari corsi di paleografia, di storia del libro e dell’editoria, etc.: così, attraverso le eleganti ed agili pagine del De Aetna, scritto da Bembo stesso, assistiamo all’invenzione di un nuovo carattere (incisore Francesco Griffo) caratterizzato da pulizia e chiarezza (grazie alla presenza della punteggiatura) nonché all’affermazione di un nuovo rapporto tra riga e riga (merito dell’ariosa interlinea) e tra testo e pagina, con la centralità del primo e la conseguente scomparsa dei commenti (il che significa lasciarsi alle spalle tutte le incrostazioni della scolastica); il tutto confezionato da Aldo Manuzio, primo vero editore nel senso moderno e a noi familiare del termine, nel nuovo formato del libro tascabile in dodicesimo od in sedicesimo con testo in carattere corsivo.
Il De Aetna fungerà da modello per il nuovo “classico tascabile”, formato responsabile, nei decenni successivi, di poderosi cambiamenti nelle modalità di fruizione (un libro da viaggio da poter leggere in silenzio e non più ad alta voce) e che diverrà, per le élite culturali e politiche dell’epoca, un must da possedere e sfoggiare; già perché, per Bembo e gli umanisti della sua cerchia, il tutto rientra in un preciso progetto culturale teso a ridare splendore all’Italia delle corti attraverso la riscoperta degli antichi, trasfondendone i gusti ed i valori all’intera società, come appare evidente, per restare in ambito librario, da altri due volumi esposti alla mostra e strettamente connessi all’opera di Bembo: il primo è l’Orlando Furioso, che Ariosto volle revisionato personalmente dal nobile veneziano in linea con le teorie da questi esposte nelle Prose della Volgar Lingua e nel cui proemio non a caso si dichiara la volontà di cantar “i cavalieri, le armi, gli amori”, il secondo è Il libro del Cortegiano di Baldassar Castiglione, ambientato nella Urbino dei Montefeltro e che vede tra i suoi protagonisti proprio il Bembo, il quale effettivamente visse tra il 1506 ed il 1511 nella “città a forma di palazzo”.
Questo veloce excursus nel momento stesso in cui illumina, ancorché in modo non esaustivo, i molteplici collegamenti che legano indissolubilmente Pietro Bembo e la sua cerchia alla nascita di un libro e di un’editoria “moderni” che rompono con il libro a stampa ancora in fasce (nel senso letterale di “in culla”; incunabula), ci induce a delineare analogie ed a porci domande sui fenomeni dei quali siamo oggi testimoni, vale a dire l’epocale passaggio al libro ed all’editoria digitali.
Le analogie sono evidenti: come non accostare il De Aetna alle linee essenziali e minimaliste che caratterizzano gli odierni supporti di lettura, ereader e tablet?
Come non pensare, a proposito di tablet, alla figura di Steve Jobs, per altri aspetti sicuramente sopravvalutata ma che indubbiamente ha sempre tentato di posizionare la sua azienda all’intersezione tra tecnologia (e che altro era sul finire del XV secolo la stampa a caratteri mobili se non la tecnologia più avanzata?) e discipline umanistiche, spingendola alla maniacale ricerca di bellezza, semplicità e facilità d’uso e di lettura anche in virtù, aspetto spesso dimenticato, di nozioni acquisite durante la frequenza di alcuni corsi di calligrafia e tipografia ai tempi del Reed College, conoscenze che anni dopo egli applicò concretamente nella scelta dei font migliori?
Come non pensare poi al concetto di trasportabilità insito nel libro tascabile? I moderni device non promettono, tra le tante cose, di avere sempre con sé un’intera biblioteca?
Inoltre, analogamente a 500 anni fa, ereader e tablet sottintendono una nuova modalità di lettura, che resta interiore e silenziosa ma che nel contempo, grazie alle / a causa delle potenzialità della Rete e delle nuove tecnologie, può farsi partecipata e/o condivisa ma nel contempo diviene meno intensiva. Parallelamente anche la scrittura può divenire un processo collettivo “a più mani”, il che implica un’affievolirsi della responsabilità autoriale (da autore a co-autore) e dei relativi diritti.
Tutto ciò ci induce ad alcune conclusioni per certi aspetti preoccupanti: se cinque secoli orsono la stabilità tipografica garantì da un lato la possibilità per la Cultura occidentale di poter crescere e svilupparsi attorno ad idee indelebilmente impresse dai torchi sulla carta e dall’altro agli autori di veder progressivamente riconosciuti i propri diritti su quelle opere, oggigiorno l’instabilità tipografica ci fornisce testi che da un lato hanno il pregio di poter essere emendati, corretti ed aggiornati praticamente in ogni momento e di fornire immediati rimandi alle fonti, dall’altra rendono più difficile quella stratificazione delle idee indispensabile per avviare riflessioni e dibattiti approfonditi.
Né vanno sottaciuti i possibili (e ribadisco possibili) aspetti negativi presenti in un modello di scrittura condivisa caratterizzata giuridicamente da licenze copyleft, creative commons o quant’altro associate a pubblicazioni prodotte ricorrendo al self publishing: al di là del possibile (ma non automatico!) scadimento qualitativo della produzione editoriale, si rischia il tracollo definitivo delle case editrici tradizionali per finire nelle braccia dei nuovi colossi dell’editoria digitale i quali, si badi, non vanno visti come l’incarnazione del Male ma vanno comunque limitati nel loro strapotere. E non tanto perché gli oligopoli sono da guardare a prescindere con diffidenza ma piuttosto perché manca nella loro azione, a differenza di 500 anni fa, un qualche progetto culturale. E questo è il vero grande problema.
8 Apr
Pietro Bembo, gli umanisti e l’ebook
28 Mar
Autenticazione grafometrica tra privacy ed esigenze di conservazione: è vera semplificazione?
Sul sito del Garante per la protezione dei dati personali sono state recentemente pubblicate le motivazioni, di fatto e di diritto, sulla scorta delle quali il Garante medesimo autorizza il gruppo bancario Unicredit, che aveva avanzato apposita istanza nell’ottica di migliora e snellire i propri servizi, a “trattare” i dati biometrici derivanti dalle firme dei propri clienti.
La lettura del dispositivo offre molteplici spunti di riflessione:
1) in primo luogo va precisato che il Garante ammette il trattamento dei dati biometrici non già per operazioni di sottoscrizione digitale bensì per quelle di autenticazione (= verifica dell’identità della persona che si presenta allo sportello), autenticazione che avviene mediante comparazione (matching) tra la firma apposta al momento su tablet e quelle conservate come “modello” in una apposita base di dati
2) in secondo luogo è interessante osservare come a) nella fase iniziale di enrollement vengano acquisite, da ciascun cliente, ben 6 firme (ciò al fine di crearsi un “profilo medio” di come un individuo firma) ma anche come b) successivamente il sistema sia in grado di “tracciare” l’eventuale processo di modifica nel tempo del modo in cui il cliente scrive (questa dinamicità, per inciso, preoccupa il Garante in quanto potrebbe rivelare aspetti comportamentali dell’individuo)
3) le misure tecnologiche di sicurezza sono molteplici: crittografia tanto al momento della firma quanto in quello del trasferimento dei dati; NON residenza della firma all’interno del tablet (che funge da mero “supporto” di scrittura, definito signpad) bensì in database dedicati all’interno di server siti sul territorio nazionale; conservazione dei dati di log
4) la conservazione dei dati biometrici relativi alla firma dura fintantoché è instaurato il rapporto tra il cliente e la banca; una volta venuto a cessare quest’ultimo c’è l’obbligo della loro cancellazione immediata (al netto di tempi tecnici ed eventuali contenziosi legali pendenti).
Personalmente, pur trovando la maggior parte di queste prescrizioni comprensibili, mi chiedo se esse non siano eccessive e rischino di annullare tutti i potenziali vantaggi. Ad esempio, pur avendo io già a suo tempo espresso perplessità sull’affidabilità del “sistema tablet” nel suo complesso, ritengo che la firma biometrica su tavoletta dovrebbe permettere di sottoscrivere un documento e non ridursi a mero strumento preliminare di verifica dell’identità del cliente (verifica che, beninteso, va fatta)! Che senso ha effettuare l’autenticazione con firma biometrica per poi sottoscrivere le successive operazioni bancarie attraverso strumenti quali le smart card che di certo non brillano per praticità?
Mi pare che in un simile sistema i grattacapi crescano esponenzialmente: infatti, non fossero bastate tutte le preoccupazioni derivanti dalla conservazione dei certificati, delle marche temporali, etc. ci si trova ora a dover conservare per un arco temporale indefinito (quale può essere la durata del rapporto che si instaura tra una banca ed i suoi clienti) pure quelli biometrici relativi alle firme!
Anche alla luce della “Guida alla Firma Digitale” predisposta dall’allora CNIPA, versione 1.3 dell’aprile 2009 (citata dallo stesso Garante), e delle riflessioni dell’avvocato Lisi che avevo riportato in un altro mio post di qualche tempo fa non sarebbe più naturale, oltre che economicamente vantaggioso, sottoscrivere (e non solo autenticare) su tablet, concentrando su questo gli sforzi di conservazione?
22 Mar
istella, il motore di ricerca che scandaglia gli archivi nascosti
Settimana dedicata al lancio di nuovi motori di ricerca questa: ha iniziato due giorni fa istella mentre ieri è stata la volta di Quag.
Diciamo subito che dopo la delusione di Volunia ero molto scettico circa la reale capacità di innovare delle start up nostrane (tanto più considerando che alle spalle di Quag c’è quel Mariano Pireddu già finanziatore di Volunia), invece l’impatto è stato immediatamente, anche dal punto di vista grafico, più che positivo.
In particolare interessantissima è l’idea di motore di ricerca che sta alle spalle di istella, creatura di Renato Soru (fondatore di Tiscali): un SE che privilegia il web italiano, con un algoritmo che punta sulla qualità (piuttosto che sulla popolarità) dei risultati e soprattutto che indicizza (su invito) documenti e risorse solitamente precluse ai “normali” spider in quanto nascoste in quell’hidden web (personalmente io preferisco il termine deep web) che pur ne costituisce la parte preponderante.
Com’è stato raggiunto questo risultato? “Semplicemente” stipulando appositi accordi con prestigiose istituzioni (hanno aderito, tra gli altri, l’Istituto Enciclopedia Treccani, l’Archivio LaPresse, l’Archivio RAI, il MIBAC – SAN e l’Archivio Touring Club) le quali hanno fatto in modo che non solo le pagine ma anche le risorse più nascoste fossero raggiungibili, indicizzabili ed accessibili.
Gli ideatori di istella non si sono però fermati agli archivi istituzionali, ma hanno previsto che tutti i navigatori (purché registrati) possano uploadare quelle che il videotutorial definisce digital library (ma che in realtà altro non sono che porzioni più o meno complete degli archivi digitali degli utenti ovvero file di testo, audio, immagini, video), rendendole indicizzabili (= reperibili), liberamente consultabili ed eventualmente scaricabili.
Non mancano ovviamente alcuni problemi, com’è naturale che sia essendo istella ancora in fase di rodaggio: i risultati della ricerca a volte non sono pienamente pertinenti, così come l’accesso alle risorse “nascoste” non è così immediato (non mi ritengo un navigatore sprovveduto ma nel corso dei miei test non sono riuscito, nonostante il tempo e le diverse ricerche, ad accedere ai documenti che il SAN dovrebbe – ma forse non l’ha ancora fatto – aver condiviso; al contrario non ho avuto alcun problema ad accedere agli archivi digitali di altri utenti che come il sottoscritto hanno risposto all’appello lanciato dagli ideatori di istella a “condividere”).
Un progetto, per concludere, decisamente interessante dal momento che sottintende, da parte di tutti (pubbliche amministrazioni, possessori di archivi istituzionali, singoli cittadini), uno scatto culturale con l’apertura ad un modello nel quale tutti contribuiscono all’accrescimento ed alla circolazione del Sapere mettendolo a disposizione di tutti. Anzi, l’auspicio è che questa openess, incentrata sui documenti “finiti”, si saldi con quell’altro fecondo movimento che sta rapidamente prendendo piede, ovvero quello che guarda ai “grezzi” open data.
15 Mar
Capacità di storage come asset centrale della biblioteca del futuro?
In un mio post di qualche tempo fa mi soffermavo sulla crescente importanza, per i moderni archivi digitali, che va assumendo l’infrastruttura tecnologica.
Ovviamente da questo trend non sono immuni nemmeno le biblioteche e la riprova la si ha leggendo la notizia, diffusa pochi giorni fa, della partnership instaurata tra EMC, colosso statunitense con quasi quarant’anni di esperienza alle spalle nei sistemi di storage ed archiviazione, e la Biblioteca Apostolica Vaticana: in estrema sintesi EMC, all’interno di un più vasto programma che unisce saggiamente filantropia a marketing, si impegna a fornire le risorse di storage necessarie ad immagazzinare l’intero patrimonio di libri manoscritti, incunaboli e cinquecentine che ci si appresta, in un arco di tempo stimato in tre anni, a digitalizzare.
Se ad impressionare è l’enorme spazio di memorizzazione messo a disposizione, ovvero 2,8 petabyte (equivalenti a 2.936.012,800 gigabyte; per rendere l’idea tale cifra la si raggiunge unendo 587.202 computer con disco rigido da 500 GB), non meno importanti sono le riflessioni che si possono ricavare da questa vicenda.
Innanzitutto appare evidente come una simile infrastruttura abbia dei costi particolarmente elevati (peccato che nulla venga detto a proposito e che non sia nemmeno possibile fare ipotesi, non essendo noto il tipo di memoria adottato) ed anzi probabilmente fuori dalla portata della maggior parte delle biblioteche al mondo.
Ma quel che più conta è il ruolo strategico assunto dall’infrastruttura di storage: essa infatti funge da ponte imprescindibile tra passato, cioè i libri “analogici” posseduti, e futuro, ovvero la loro copia digitalizzata, la quale consentirà a) di “risparmiare” ai primi tutti quegli stress meccanici derivanti dall’uso nonché l’esposizione a fattori ambientali quali luce, (sbalzi di) umidità e temperatura, etc. b) di far godere, nel presente, questi capolavori ad una platea di pubblico potenzialmente molto più vasta rispetto a quella degli studiosi che solitamente ha la fortuna di consultarli.
Sarebbe stato bello, per concludere, sapere qualche dettaglio tecnico-operativo in più, ad esempio se chi si occuperà della gestione del sistema di storage (verosimilmente tecnici EMC) sarà sotto la sovrintendenza del Prefetto della Biblioteca Vaticana, monsignor Pasini o, in alternativa, quale tipo di controlli verranno messi in atto per assicurarsi che il sistema risponda a tutti i requisiti in termini di sicurezza ed operatività.
Non meno interessante sarebbe sapere dove effettivamente è localizzato il data center (e se esiste un sito secondario) così come se si fa ricorso al modello del cloud computing…
Tante domande che non fanno che rafforzare la mia convinzione che le capacità di storage siano un asset strategico per le biblioteche.
21 Feb
La promozione dell’ebook e la lezione di Google ed Amazon
La notizia della probabile prossima apertura, da parte di Google e di Amazon, di un punto di vendita fisico è di quelle che impongono quanto meno una riflessione, se non un vero e proprio ripensamento, su come è stata finora effettuata la promozione dell’ebook e degli ebook reader.
Ma partiamo dalla notizia: che cosa ha indotto queste due aziende, indissolubilmente legate nell’immaginario collettivo al “virtuale” mondo della Rete, a rivedere così drasticamente il proprio approccio? A mio avviso hanno concorso più fattori: in primo luogo ci si è resi conto dell’importanza di avere quello che nel linguaggio del marketing è definito flagship store (vale a dire un luogo fisico che trascende il mero punto vendita, essendo il fine non tanto – o perlomeno non solo – mettere in vetrina i propri prodotti ma soprattutto trasmettere al mondo la propria cultura aziendale ed i valori che l’azienda intende incarnare e diffondere), importanza a sua volta derivante dall’esigenza di fronteggiare in qualche modo lo strapotere mediatico (che si riflette nel valore del brand) attualmente detenuto da Apple; dall’altro lato, ed è questa a mio modo di vedere la principale motivazione, sta la constatazione che il solo canale online da solo non basta in quanto i clienti hanno bisogno di un “contatto fisico” con i prodotti che poi si andranno ad acquistare (e questo vale tanto più ora che sia Google che Amazon hanno prodotti fisici a proprio marchio da vendere, vedasi famiglie Nexus e Kindle, Chromebook, Google Glasses, etc.). Quanti di noi del resto, prima di effettuare una transazione online, hanno pensato bene di fare una capatina in un negozio fisico per provare quel vestito, quel paio di scarpe oppure per testare il funzionamento di un dato cellulare, monitor Tv, etc. ed essere così certi che il prodotto adocchiato faceva effettivamente al caso nostro?
Ammettendo dunque che anche il cliente più tecnologico abbia il desiderio, prima di procedere all’acquisto, di “toccare con mano”, possiamo affermare che questa possibilità sia garantita nel settore del libro digitale (ovviamente qui faccio riferimento all’ereader, imprescindibile supporto di lettura; n.d.r.)? La risposta che possiamo dare credo sia solo parzialmente positiva.
Il panorama infatti non è molto confortante e c’è da chiedersi quanto possa aver influito in negativo sulle vendite di ebook reader e, a cascata, di ebook.
L’osservazione preliminare da fare è che non c’è paragone tra l’imponenza delle campagne pubblicitarie fatte a favore dei tablet e quelle fatte per gli ereader. In seconda battuta bisogna ammettere che il prodotto ereader in sé non viene valorizzato a dovere: nelle grandi catene di elettronica i lettori digitali sono presentati con schede tecniche spesso inadeguate e, come se non bastasse, senza spazi dedicati (niente a che vedere con la centralità che assumono i device di casa Samsung o dell’Apple, giusto per fare nomi…) e, pare inconcepibile, non immersi nel reparto libri (qualora presente) come verrebbe spontaneo pensare, rappresentandone essi pur sempre la controparte digitale, ma bensì confinati in angoli marginali!
Le cose non vanno meglio se si passa ad analizzare la situazione di quegli ebook reader messi in vendita presso le librerie di catena: di norma infatti presso queste ultime si trovano ereader di una specifica azienda, con la quale i colossi editoriali che stanno alle spalle hanno stretto rapporti più o meno di esclusiva (penso a Mondadori / Kobo oppure Melbookstore (ora IBS) / Leggo IBS), il che rende difficile se non impossibile una comparazione diretta a parità di illuminazione, di esposizione ai raggi solari, etc. (ed essendo il fattore discriminate quello dello schermo, questa limitazione assume un particolare rilievo!).
In sostanza, posto che le biblioteche non possono e non devono svolgere un ruolo da capofila in questo ambito (conviene che queste ultime si concentrino sullo sviluppo delle proprie collezioni digitali), appare evidente che le uniche a poter ricoprire un ruolo positivo in questo settore, dal quale peraltro come da più parti ipotizzato potrebbero a loro volta trarre nuova linfa vitale, sono le librerie indipendenti, che dovrebbero approfittare di questa fase transitoria per avviare la trasformazione in librerie digitali indipendenti. Si tratterebbe, inutile dirlo, di un cambiamento non facile e soprattutto non immune da rischi. E’ tutt’altro che garantito infatti, analogamente a quanto avviene con gli altri settori merceologici, che i clienti, una volta effettuata la comparazione, comprino l’ereader là dove spuntano il prezzo migliore! Bisogna sperare, pertanto, che la qualità del servizio garantito, anche in termini di rapporti umani, venga premiato dalla preferenze degli utenti nel momento dell’acquisto.
5 Feb
iNotebook, a cavallo tra carta e digitale
Di norma quando pensiamo alla scrittura su tablet la nostra mente corre veloce al pennino con il quale “scriviamo”, a mano libera, direttamente sulla superficie della tavoletta.
Da Targus arriva in commercio l’iNotebook, un prodotto decisamente interessante che qui descrivo velocemente non perché io abbia chissà quali finalità promozionali ma molto più semplicemente perché esso rappresenta un interessante punto di congiunzione tra mondo analogico e digitale e potrebbe, se sviluppato nella giusta direzione, togliere alcuni grattacapi che assillano gli archivisti in questi ultimi tempi (ma facendogliene venire di nuovi!).
Ma come funziona l’iNotebook? Come si intuisce dal video postato qui sopra il funzionamento è alquanto semplice: mentre scriviamo sulla nostra agenda (di carta comune) con una speciale penna ad inchiostro con incorporato un sensore, una barra (la si vede chiaramente sul lato superiore) cattura i segnali provenienti via infrarossi dalla penna e li ritrasmette automaticamente via Bluetooth all’iPad. Il risultato è dunque stupefacente: nel momento stesso in cui scriviamo sull’agenda sullo schermo del nostro tablet compare, quasi per magia, il testo. Una volta finito di scrivere possiamo passare a lavorare direttamente sul tablet (la penna si trasforma in stilo), dove possiamo evidenziare il testo, sottolinearlo, impostare sfondi, etc. ed ovviamente inviare il tutto via posta elettronica oppure salvarlo sulla nuvola attraverso servizi quali l’immancabile Dropbox oppure AirPlay.
E se per caso non abbiamo il nostro iPad a portata di mano nessuna paura: il sensore posto sull’agenda può immagazzinare fino a 100 pagine, le quali saranno poi inviate al tablet alla prima sincronizzazione utile!
Un sistema siffatto presenta dunque degli innegabili vantaggi: in primo luogo si gode di tutta la libertà della scrittura a mano libera ma con il vantaggio di ritrovarsi tutto il lavoro pure in digitale e di poterlo qui proseguire e condurre a termine; in secondo luogo si aprono interessanti prospettive in fatto di firma grafometrica ed è su questo che voglio soffermarmi un istante.
Targus non dice se vengono memorizzate anche le caratteristiche biometriche della nostra scrittura (=> della nostra firma) quali ductus, pressione, inclinazione, etc. ma la sensazione netta è di no: l’iNotebook non è stato ideato per fungere da dispositivo di firma (se così fosse stato si sarebbe fatto ricorso ad una trasmissione da agenda a tablet crittografata e non sfruttando un “banale” segnale Bluetooth così come ci dovrebbe essere una banca dati per contenere in sicurezza tutti i dati biometrici).
Assodato dunque che iNotebook non è stato concepito per sottoscrivere digitalmente i documenti, va riconosciuto che un siffatto sistema, adeguatamente sviluppato, potrebbe presentare delle caratteristiche interessanti: se mai un giorno infatti sarà prevista la memorizzazione dei dati biometrici, nel momento in cui andremo a redigere, che so, un testamento olografo o una compravendita tra privati, ci troveremo in possesso dell’originale cartaceo e contemporaneamente del corrispettivo documento nativo digitale (nel senso che non è frutto di un’operazione di digitalizzazione e/o scannerizzazione) entrambi debitamente sottoscritti! Inutile dire che dal punto di vista conservativo il lavoro dell’archivista ne trarrebbe nel contempo giovamento così come vedrebbe insorgere nuove problematicità: giusto per sollevarne alcune, la presenza di un documento su carta e di uno sul tablet può indurci a parlare di originale in duplice copia? Quale dei due conserviamo come buono? L’analogico, il digitale od entrambi (con annessa duplicazione degli sforzi e dei costi ma pure con qualche certezza in più, stante le rodate metodologie di conservazione esistenti per i documenti cartacei a fronte dei mille dubbi che avvolgono la conservazione dei documenti digitali)?
Insomma, tanti pro ma anche tanti contro, non c’è che dire! Possiamo comunque stare tranquilli. Si tratta solo di ipotesi e, così com’è ora, l’iNotebook è un prodotto di nicchia: infatti, a prescindere dal fatto che ad oggi è pensato esclusivamente per l’iPad di Apple, ha anche un costo non indifferente sia di acquisizione (179,99 dollari) che di mantenimento (una penna nuova costa 49,99 dollari ed una ricarica 7,99; relativamente economica solo la carta, costando un’agenda originale 4,99 dollari…). Decisamente non per tutte le tasche!
29 Gen
Ebook, è il momento di osare
I dati non sono ancora completi ma oramai non ci sono molti dubbi residui: le ultime festività, che secondo molti dovevano consacrare l’ebook ed in generale l’editoria digitale, sono state avare di soddisfazioni (qui un’accurata sintesi dell’orgia di numeri ai quali siamo stati esposti nelle ultime settimane).
Credere semplicisticamente che questo risultato deludente sia stato influenzato dalla crisi / stagnazione economica che ha contribuito a congelare i consumi non aiuta a comprendere bene lo stato delle cose. Ad esempio lo shopping 2011-12 è andato proporzionalmente meglio nonostante i cataloghi meno forniti! La causa principale di questo mezzo flop va dunque a mio parere ricercata altrove: per la precisione va preso atto che la tecnologia e-ink che caratterizza gli ereader agli occhi dei potenziali acquirenti ha (oramai a parità di prezzo!) un evidente minor appeal rispetto ai tablet, che non a caso non hanno accennato di rallentare la loro corsa (fatta eccezione per quelli di fascia alta prodotti dalla Apple). La prima classe di dispositivi (gli ereader) è appannaggio dei soli cosiddetti “lettori forti” che sono anche i principali “consumatori” di ebook mentre i lettori deboli optano piuttosto per dispositivi più versatili ed “universali” come le tavolette, usate anche per leggere seppur nel corso di “sessioni di lettura” mediamente di minor durata.
Detta in soldoni il rallentamento nelle vendite di lettori per libri digitali potrebbe dunque semplicemente indicare che è stata saturata la peraltro non vastissima platea dei lettori forti (verosimilmente tra i primi ad essere incuriositi dalla novità rappresentata dall’ebook) e che ora viene la parte difficile, ovvero riuscire a convertire al Verbo della lettura digitale chi gran lettore non è!
Ciò a mio avviso non è un’utopia ma senz’altro possibile a patto che tutti gli altri attori osino (e talvolta concedano) qualcosina:
1) partiamo dai produttori di device: gli ereader si stanno sviluppando troppo lentamente (motivo per cui il tasso di sostituzione non è elevato; non fosse per la recente introduzione dell’illuminazione frontale un dispositivo “vecchio” di un paio di anni non è molto inferiore ad uno ora sugli scaffali, laddove i tablet hanno fatto passi da gigante). E’ necessario dunque spingere sulla ricerca al fine di introdurre sul mercato quanto meno ereader con display a colori (su larga scala) e basati su sistema operativo che consente di godersi un minimo di applicazioni multimediali!
2) gli editori da parte loro dovrebbero studiare politiche di prezzo (e di marketing) più aggressive e nel contempo più creative: negli Stati Uniti, per fare un esempio, Humble Bundle nell’ultima tornata è riuscita a raccoglier 10 milioni di dollari vendendo, a prezzi stabiliti dall’acquirente, pacchetti di videogiochi, libri, film… tutti rigorosamente DRM free! Sono certo che in un momento di tagli ai bilanci delle famiglie l’iniziativa sarebbe gradita ed il successo senz’altro replicabile anche di qua dell’Atlantico.
3) le biblioteche dovrebbero premere sull’acceleratore del digitale: sono consapevole che ciò implica onerosi investimenti e che le relative tecnologie sono soggette a veloce obsolescenza ma sono convinto che, se si trova il giusto punto di equilibrio, il sistema sia sostenibile (posto che le biblioteche sono sempre in perdita!). D’altro canto se, come ricorda l’ennesima ricerca del Pew Research Center, il 53% degli utenti statunitensi sopra i 16 anni apprezzerebbe un incremento nell’offerta di ebook, qualcosa bisogna pur fare!
4) gli Stati poi dovrebbero a loro volta fare il massimo per agevolare questo settore strategico: tassazione favorevole sui libri digitali e relativi lettori, investimenti per l’appunto nelle biblioteche (e se i soldi non ci sono favorendo il mecenatismo e/o le sponsorizzazioni!), promozione della lettura e via di questo passo.
Se questa terapia d’urto dovesse venire veramente attuata sono certo che l’intero ecosistema che ruota attorno al libro digitale spiccherebbe, stavolta definitivamente, il volo.
21 Gen
Società dell’immagine ed archivi fotografici digitali di persona
INTRO
Nel corso degli ultimi decenni stuoli di studiosi hanno tentato di descrivere la società in cui viviamo etichettandola con aggettivi o formule ad effetto facilmente memorizzabili; se la maggior parte di queste definizioni si sono rivelate poco felici e sono ben presto finite nel dimenticatoio, è incontrovertibile che due di esse hanno resistito all’usura del tempo e si sono anzi progressivamente arricchite di ulteriori connotazioni. Mi riferisco in particolare all’idea di società dell’immagine e a quella, ad essa sempre più correlata, di società della comunicazione: infatti se nella prima l’apparire conta più dell’essere, è evidente che quest’apparire “reificato” in migliaia di foto, video, etc. non è fine a sé stesso ma trova un senso quando “comunicato” agli altri. In altri termini le odierne tecnologie di comunicazione ci mettono a disposizione strumenti (facilmente utilizzabili e che danno un “output” dal costo praticamente nullo per l’utente finale) che servono non tanto a tenere memoria di uno specifico fatto od evento (la vera ragione per cui macchine fotografiche, cineprese, etc. sono state in origine pensate e costruite) ma soprattutto a veicolare a terzi la nostra immagine, vera o costruita che sia.
Oltre ad assecondare il nostro naturale narcisismo vi è un ulteriore, decisivo aspetto che occorre evidenziare: nel momento in cui comunichiamo ad altri la nostra immagine, trasmettiamo anche il nostro stile di vita, i nostri gusti, le nostre preferenze di consumo (come vestiamo, cosa mangiamo, dove andiamo in vacanza, etc.): in altre parole nel momento stesso in cui facciamo vedere chi siamo = come appariamo facciamo anche vedere come spendiamo.
Non deve pertanto sorprendere il fatto che le principali società hi-tech d’oltreoceano, fiutando il business, possiedano o perlomeno controllino servizi di archiviazione e condivisione di foto e video (cito qui i vari Facebook / Instagram, Yahoo! / Flickr, Google / Picasa, Twitter ed entro certi termini HP / Snapfish, Photobucket, Dropbox, etc.), servizi attraverso i quali essi si contendono in una dura battaglia le immagini dei navigatori / clienti, le cui foto, parimenti agli altri dati digitali, finiscono nell’impalpabile (benché realissima) nuvola.
UN INTERESSANTE CASE HISTORY
L’ineluttabilità ed ampiezza di questo processo è confermato dal susseguirsi di operazioni di M&A (mergers & acquisitions) che talvolta finiscono in prima pagina (il caso più noto ha visto protagonista Facebook, la quale ha acquistato Instagram con un’operazione dal controvalore complessivo di quasi un miliardo di dollari) e tal’altre passano decisamente in sordina; è proprio un’operazione di questo secondo tipo, vale a dire la prospettata acquisizione (almeno dando credito a rumor d’oltreoceano, n.d.r.) di ThisLife, start-up per l’archiviazione e la condivisione di foto, da parte di Shutterfly, azienda che a sua volta fornisce servizi di stampa foto e creazione album, calendari, etc. a fornirmi un case history funzionale ad approfondire ulteriormente l’argomento rispetto a quanto già fatto nell’ultimo post pubblicato.
Le caratteristiche che rendono ThisLife così appetibile sono le seguenti:
1) in primo luogo con questo servizio è possibile importare, in automatico o in manuale, tutte le foto scattate e sparpagliate sui vari servizi (essenzialmente di photo sharing) ai quali siamo registrati / abbonati: Flickr, Picasa, Instagram, SmugMug e naturalmente gli immancabili Facebook e Twitter. Oltre che il “riversamento” dai vari servizi online è ovviamente consentito effettuare pure l’upload dal proprio PC: in questo modo è possibile creare sulla nuvola dei veri e propri album fotografici (ThisLife, come suggerisce il nome e la grafica del sito, punta decisamente su quelli di famiglia ma all’atto pratico possiamo caricarci di tutto)
2) una volta caricate, le foto vengono disposte lungo una timeline che si scorre orizzontalmente e che, di fatto, tende a ricostruire, scatto dopo scatto, avvenimento dopo avvenimento, un’intera vita; a rendere ancor più “circostanziata” la foto nello spazio e nel tempo è la possibilità di taggare luoghi ed eventuali persone immortalate (per gli utenti Pro è disponibile persino il riconoscimento facciale automatico)
3) condivisione (in tal modo rispondendo al succitato desiderio di “apparire” di gran parte delle persone) “controllata” delle proprie foto; infatti, diversamente da altri servizi analoghi, tanto la privacy policy quanto i Terms of Service appaiono da subito più equilibrati: in particolare non viene messa in discussione la titolarità sulle foto da parte del proprietario (ovvero colui che le carica, il quale nel momento in cui effettua l’upload dichiara esplicitamente di possederne anche i diritti) così come si dimostra un particolare riguardo per le foto ritraenti minori
4) corollario a questa impostazione è la chiara attenzione posta al tema della sicurezza; pur non assumendosi alcuna responsabilità in caso di perdita delle foto caricate (sic!) si promette di adottare (per quanto ragionevolmente possibile) le migliori soluzioni tecnologiche disponibili così come di far proprie le disposizioni di legge in materia. Non è dunque un caso se agli occhi dei creatori, i coniugi Matt ed Andrea Johnson, ThisLife rappresenta pure un valido modo per creare sulla nuvola una copia di sicurezza delle proprie foto preferite (a riguardo è da segnalare che proprio per considerazioni di “ridondanza” si può decidere di caricare più versioni della stessa foto, tanto un apposito algoritmo darà la preferenza, nella visualizzazione, a quella con la migliore risoluzione grafica).
I RISVOLTI ARCHIVISTICI
Se queste sono le principali caratteristiche “di funzionamento” di ThisLife, dal punto di vista archivistico questo servizio, che pure non è immune da gran parte dei difetti che notoriamente affliggono i servizi in cloud computing (assenza di controllo sui server che ospitano i dati => sulla loro localizzazione, sul tipo di soluzioni tecnologiche adottate e sulle procedure operative messe in atto; assenza di adeguato ristoro in caso di perdita dei dati; assenza di garanzie sulla continuità del servizio e via di questo passo), presenta delle innegabili novità:
1) nel momento in cui esso consente di recuperare (in automatico o meno) le foto sparpagliate tra i vari servizi presenti sulla nuvola esso finisce per ridare unitarietà ai nostri archivi fotografici (in opposizione alla frammentazione prima vigente); in altri termini ThisLife agisce come un “metacloud” specifico per le nostre foto (mentre ZeroPC, per chi si ricorda il mio post di qualche tempo fa, è più generalista)
2) la presenza di una timeline assicura (tendenzialmente) la presenza di un ordine cronologico alle foto caricate; alla sensazione di ordine contribuisce anche il contatore in basso a sinistra che aumenta di volta in volta che un “momento di vita” viene aggiunto (parlare di numero di protocollo è ovviamente una forzatura ma rende bene l’idea!)
3) la vocazione “familiare” del servizio è comprovata dal fatto che è possibile creare account condivisi (tra marito e moglie, fidanzato e fidanzata, etc.) in modo da far apparire assieme i rispettivi archivi fotografici; anche in questo caso il pensiero corre veloce, pur con i debiti distinguo, al caso degli archivi di famiglia ed alle loro tipiche peripezie (confluiti in archivi di altre famiglie od enti vuoi per matrimonio, vuoi per estinzione di un ramo della “casata”, vuoi per donazione, vuoi per qualsiasi altro accidente della Storia!)
4) il riconoscimento automatico dei volti (con “apposizione” del relativo tag) rappresenta un salto qualitativo nella modalità di creazione dei dati a corredo delle nostre foto che presenta rischi ed opportunità: a) tra i primi, come al solito, quelli inerenti alla tutela della privacy (in definitiva se una macchina è in grado di riconoscere il nostro volto significa che essa è in possesso dei relativi dati biometrici, con tutto ciò che ne consegue!) b) tra i secondi invece si potrebbero segnalare i possibili usi per finalità storiche: non solo gli storici del futuro (ammesso naturalmente che i dati siano leggibili…) potrebbero associare con maggior facilità nomi e cognomi ai volti presenti in una foto, ma anche quelli dei nostri giorni trarrebbero giovamento, nel momento in cui si procede alla digitalizzazione del patrimonio fotografico analogico e vi si inseriscono in automatico i dati identificativi delle persone fotografate, dalla possibilità di lavorare con foto di più facile “lettura”.
CONCLUSIONI
In questo post abbiamo visto come molteplici sono i motivi che ci spingono a “catturare immagini”: la volontà di tenere memoria di un fatto, il desiderio di apparire, la semplice disponibilità di device in grado di farlo ad un costo praticamente nullo… Abbiamo anche visto come le nostre immagini digitali prendono sempre più la via delle nuvole: gli archivi in the cloud infatti eccellono per flessibilità (permettono infatti al contempo di conservare e di condividere le proprie foto), accessibilità (teoricamente h24) e costi ragionevoli (fino alla completa gratuità); gli indubbi vantaggi non possono però far passare in secondo piano gli altrettanto evidenti svantaggi derivanti essenzialmente dal “mancato controllo” (privacy, proprietà, etc.).
Tenendo bene a mente questi poli opposti il case history presentato è dunque importante in quanto dimostra: 1) che alcuni servizi si stanno muovendo nella giusta direzione grazie all’applicazione, fosse anche involontaria, di principi riconducibili alla buona prassi archivistica b) l’importanza di avviare un dialogo (o perlomeno uno scambio) tra iniziative private e pubbliche: le prime ad esempio primeggiano per l’usabilità e piacevolezza della grafica ma peccano sotto il lato archivistico, le seconde al contrario sono dal punto di vista tecnico e della compliance legislativa ineccepibili ma perdono di vista il singolo cittadino, al quale spesso risultano troppo tecniche o ancor peggio non sono nemmeno destinate.
E’ quest’ultimo aspetto, e concludo, quello sul quale occorre velocemente agire: spesso gli archivi digitali di persona (fotografici e non) finiscono in posti “sbagliati” per il semplice motivo che mancano valide alternative. Se vogliamo garantire anche a questi archivi un futuro (nell’attesa che un domani venga valutata la loro rilevanza), dobbiamo fornire, attraverso un fecondo scambio di esperienze e, perché no, una vera e propria collaborazione “operativa” tra pubblico e privato, a tutti i cittadini (e non solo a poche fortunate istituzioni ed enti!) soluzioni di archiviazione adeguate.
16 Gen
Facebook lancia Graph Search
Per chi come il sottoscritto aveva seguito con attenzione e quasi speranza, grossomodo un anno fa di questi tempi, il lancio di Volunia, fa un certa tristezza mista a dispiacere vedere ora che Facebook lancia il motore di ricerca interno Graph Search. La nuova creatura di Mark Zuckerberg, soprattutto per la sua anima sociale, rimanda infatti anche a ciò che nelle intenzioni di Massimo Marchiori avrebbe dovuto essere (ma purtroppo non è stato) Volunia: un “motore di ricerca” (ammesso che di search engine in senso classico si possa parlare!) che guarda alle persone scavando, nel caso specifico, dentro alle migliaia di dati ed informazioni resi pubblici all’interno del celebre social network (solo in caso di assenza di risultati ci si appella a Bing di Microsoft) e che fornisce, a chi le pone, risposte (e non link!) verosimilmente di un livello qualitativo superiore rispetto a quelle generiche ottenibili da un SE come Google. Infatti un conto è cercare informazioni riguardo ad un libro, ad un film, ad un album musicale nel generico web, un altro conto è recuperare le medesime informazioni leggendo cosa ne pensano i nostri amici! Infatti le opinioni di questi ultimi possono essere meglio valutate in termini sia di attendibilità (un nostro amico ad esempio potrebbe essere noto per “spararle grosse”), che di rilevanza (quanto scritto da un nostro amico ingegnere nucleare sulla fusione fredda non assume naturalmente, ai nostro occhi, lo stesso peso di quanto detto da un altro nostro amico elettricista!) che di affinità (è quel che potrebbe succedere dando credito a quanto scritto da amici che sappiamo avere gusti simili ai nostri). Insomma, nel momento di cercare informazioni non ci si mette più nelle mani di un freddo algoritmo ma in quelle, si spera più buone, di persone di nostra conoscenza.
Va precisato che graph search non è solo un modo per ottenere risposte ma anche per conoscere nuove persone con gusti affini ai nostri; è insomma funzionale all’ulteriore sviluppo del social network in termini di aumento del numero di “relazioni sociali” così come dei suoi ricavi.
Dal momento che, come spesso accade in questi casi, poco si sa dal punto di vista tecnico (a giudicare dagli esempi fatti sul palco di Menlo Park mi pare che sia stato compiuto qualche passo nella possibilità di fare interrogazioni usando il linguaggio naturale, ovvero nel senso del semantic web), per formulare un giudizio completo occorrerà testarlo in prima persona; sin da ora però credo si possa affermare che Zuckerberg è andato nella direzione giusta. Speriamo solo che la tutela della privacy sia veramente così “personalizzabile” come dichiarato…








