La notizia non ha trovato grande eco presso i media italiani ma merita di essere qui ripresa: Deutsche Borse ha annunciato l’avvio, indicativamente per l’inizio del 2014, delle contrattazioni elettroniche su una particolare tipologia di “merce”: lo storage e le risorse di calcolo (CPU, RAM, etc.). Se l’intenzione è quella di ampliare in futuro l’offerta, per il momento l’obiettivo è di far incontrare tutti coloro che da una parte hanno bisogno di ulteriori spazi di memorizzazione e di computing capacity e coloro che, dall’altra, ne hanno in surplus.
Si tratta di una notizia che lascia solo per certi versi sorpresi: era infatti prevedibile che il medesimo processo di commoditisation che ha investito il settore dei personal computer prima o poi avrebbe riguardato anche quello “immateriale” dei servizi erogati in modalità cloud.
Ciò nonostante lascia perplessi la prospettiva di vedere il prezzo dello storage, sul quale qui per ovvi motivi mi concentro, fluttuare in base alle bizze dei mercati ed essere acquistato da broker alla stregua di un barile di petrolio o di una tonnellata di granaglie! Bisogna infatti chiedersi se, similmente a quanto accaduto con altri mercati, anche attorno a questo verrà costruito quel castello di prodotti finanziari che, portati all’estremo, tanti danni ha provocato. Considerando infatti che secondo molti analisti l’esistenza di un simile mercato va incontro all’esigenza, percepita da molti attori, di possedere spazi di memorizzazione in diverse giurisdizioni (agevolando in tal modo la compliance alle norme ed agli standard in vigore nei diversi Stati) non ci sarebbe da stupirsi se si tutelasse l’investimento (poniamo che uno debba comprare spazio di storage in Egitto, giusto per fare un esempio di estrema attualità) con quegli strumenti finanziari (vedi gli swap) tristemente famosi.
Ma al di là delle considerazioni finanziarie quello che preoccupa “archivisticamente” è la “banalizzazione dello storage” sottesa al processo di commoditisation: nonostante le rassicurazioni fornite da Deutsche Borse in ordine all’elevato livello qualitativo delle risorse ammesse alle contrattazioni e la presenza di operatori dalle indubbie capacità (a riguardo vengono citati non solo operatori commerciali come T-Systems ma anche soggetti appartenenti al mondo accademico come il Leibniz Rechen-Zentrum il quale, per intenderci, fornisce i servizi informatici per le varie università di Monaco di Baviera nonché per l’Accademia Bavarese delle Scienze), confesso che nutro più di una perplessità sulla qualità “archivistica” del servizio che verrà acquistato.
Mi sembra infatti lontano anni luce il mondo degli archivi, istituti impiantati (e uso questo termine proprio per sottolineare la solidità che li dovrebbe contraddistinguere nel tempo!) per durare secoli, con l’aleatorietà di uno scambio di borsa portato a termine in maniera telematica: detta in altri termini mi pare che la comprensibile fretta di avere ulteriore spazio di storage nella quale può venirsi a trovare un qualsivoglia soggetto produttore (perché questo è in ultima analisi il compratore!) mal si concili con i tempi, inevitabilmente più lunghi, necessari per realizzare un consistente sistema archivistico. Ritorniamo dunque al problema di fondo, ripetutamente evidenziato in questo blog, che lo storage, così com’è concepito da molti provider, ha spesso gran poco da condividere con l’archiviazione.
Naturalmente i miei possono essere timori infondati ed anzi l’auspicio è proprio che, dopo la seicentesca bolla dei tulipani, non ci si ritrovi a fronteggiare, nel prossimo futuro, ad una non meno bizzarra bolla dello storage!
6 Lug
Al mercato dello storage
24 Giu
Dematerializzazione, pubblicato il D.P.C.M. 21 marzo 2013

Fonte: Bucap
In tempi di spending review appare quasi normale che si torni a parlare di dematerializzazione dei documenti, in virtù dei risparmi (di carta, di spazi, di velocizzazione dei procedimenti) che questa operazione dovrebbe consentire.
Uso il condizionale perché, purtroppo, finora il legislatore ha fatto di tutto e di più per ingarbugliare le cose. Difatti, al posto di emanare poche leggi che indicassero con chiarezza cosa dematerializzare ed aggiornare periodicamente le regole tecniche (ovvero, come materialmente effettuare la dematerializzazione), si è fatto l’esatto contrario: continui interventi legislativi che hanno finito per gettare nell’incertezza i vari attori coinvolti (archivisti, amministratori, operatori privati) e lunghe, lunghissime attese per quanto riguarda gli indispensabili “disciplinari tecnici”.
Questo modus operandi è purtroppo stato confermato in occasione della recente emanazione del D.P.C.M. del 21 marzo 2013 (pubblicato in G.U. n. 131 del 6 giugno 2013): in esso il legislatore, peraltro spinto dal nobile fine di indicare con chiarezza di quali categorie documentarie sia possibile effettuare la conservazione sostitutiva (procedendo dunque all’eliminazione dell’originale analogico) e di quali no (permanendo al contrario l’obbligo della conservazione dell’originale analogico), è caduto ripetutamente in contraddizione.
Non mi addentro qui nei dettagli, già altri l’hanno fatto con ben maggior autorevolezza della mia (macroscopiche comunque alcune incongruenze, si veda il caso degli atto notarili che vanno conservati anche in forma cartacea laddove sin dal D.L. 110/2010 “Disposizioni in materia di atto pubblico informatico redatto dal notaio” è prevista la possibilità di rogare atti notarili in ambiente digitale), mi permetto solamente di ribadire come la questione di fondo sia di metodo: è indispensabile che il legislatore legiferi poco e bene, aggiornando periodicamente (in linea con l’evoluzione tecnologica) le apposite regole tecniche e che lasci agli operatori il tempo di metabolizzare le nuove disposizioni di legge traducendole nell’attività quotidiana.
Altresì sarebbe auspicabile che la prossima volta venissero coinvolti, nell’individuazione delle tipologie documentarie destinate o meno alla dematerializzazione / conservazione sostitutiva / analogica, anche rappresentanti degli organi periferici dello Stato e degli Enti Locali: balza infatti agli occhi come le tipologie documentarie contemplate nel D.P.C.M. qui oggetto di analisi facciano riferimento soprattutto a quelle prodotte dagli organi centrali dello Stato. E’ evidente che se vogliamo raggiungere gli obiettivi prefissati in materia di razionalizzazione ed ottimizzazione della gestione documentaria, con i conseguenti risparmi di spesa, si deve agire tutti assieme e preferibilmente in maniera coordinata e condivisa.
31 Mag
Archivisti, Bibliotecari e Storici: così lontani, così vicini
In questo post ritorno, seppur con ben più ampio respiro ed una angolatura differente, su un argomento che avevo affrontato en passant qualche tempo fa: il rapporto con le fonti in quest’epoca di trapasso al digitale.
Lo spunto di riflessione proviene dall’interessante dibattito che si è sviluppato a margine del come sempre stimolante intervento della professoressa Giorgetta Bonfiglio-Dosio, terzo appuntamento della Primavera Archivistica 2013 (Venezia, 28 maggio 2013).
Partiamo dunque col riassumere le varie posizioni delineatesi martedì: ad aprire la questione è stata la constatazione di come, anche in tempi più recenti di quanto si pensi, quegli storici e quei bibliotecari che hanno avuto modo di mettere le mani sugli archivi abbiano fatto danni in modo pressoché matematico.
Dopo questo j’accuse è venuta la doverosa fase di autocritica: in modo volutamente provocatorio ci si è chiesti se il fatto che la produzione storiografica padovana sia priva, diversamente da quella veneziana, di un taglio istituzionale derivi dall’assenza “a monte” di fonti archivistiche funzionali ad una simile approccio.
Ciò ha sua volta portato a sottolineare l’importanza degli strumenti messi a disposizione degli storici (ma si potrebbe dire dei ricercatori in generale) ed al riconoscimento, da parte di taluni, del fatto che i bibliotecari siano oggettivamente “più avanti” in questo campo rispetto agli archivisti, sottintendendo che da essi dovremmo trarre spunto.
E qui la discussione si è arenata, con la maggior parte dei presenti (incluso il sottoscritto) che facevano notare come il lavoro degli archivisti sia decisamente più complesso rispetto a quello dei bibliotecari. La fine della giornata, era infatti stata ampiamente superata l’ora ufficiale di chiusura lavori, ha lasciato un po’ tutti sulle proprie posizioni.
Personalmente nei giorni successivi ho continuato a riflettere su queste tematiche, mettendole in particolare in relazione con i cambiamenti digitali in corso (cosa fatta solo marginalmente nel corso del dibattito) ed ho maturato la convinzione che sì, i bibliotecari sono avvantaggiati, ma che anche gli archivisti potrebbero forse fare qualcosina in più!
E’ infatti lampante come trattare materiale biblioteconomico sia assai più agevole per fattori “qualitativi” e “quantitativi”:
1) FATTORI QUALITATIVI: da secoli, e con un’accelerazione a partire dall’invenzione della stampa a caratteri mobili (che ha assicurato quella “stabilità tipografica” ben descritta da Elizabeth Eisenstein), il libro è estremamente formalizzato: è cioè scritto con caratteri chiari e standardizzati ed ha sempre avuto alcune aree caratteristiche (colophon, frontespizio) dalle quali trarre le informazioni essenziali al suo trattamento (titolo, autore, etc.). Gli archivisti al contrario hanno a che fare con pezzi unici che, nonostante una certa formalizzazione dovuta al processo di burocratizzazione, devono faticare a decodificare (dal punto di vista della lingua usata, della scrittura – corsiva – e del contesto storico-istituzionale).
2) FATTORI QUANTITATIVI: un libro viene infatti di norma stampato in un discreto numero di copie tra di loro identiche, motivo per cui una volta catalogato uno (specie da quando si sono diffusi i sistemi bibliotecari) il lavoro è fatto per tutti; al contrario ciascun documento, al netto di eventuali copie, rappresenta un unicum e deve essere trattato singolarmente. Il regesto che si fa di un documento, diversamente dall’abstract di un libro o di un saggio che è valido per tutti i suoi “fratelli”, vale per quel solo documento! Del resto va fatto notare che lo spoglio di riviste, periodici, miscellanee, etc. non è pratica poi così sistematica, motivo per cui la “superiorità” dei bibliotecari va ulteriormente ridimensionata.
Bisogna però riconoscere che mediamente, e qui forse sta il vero punto di forza dei bibliotecari, gli strumenti da essi prodotti (i cataloghi) risultano di uso assai più immediato rispetto a quelli realizzati dagli archivisti (inventari in primis), motivo per cui sarebbe auspicabile da parte di questi ultimi una maggiore attenzione nei confronti dell’utente (non necessariamente lo storico, anche se è di quest’ultimo che parlo in questo post).
Considerazioni in chiaroscuro derivano anche dall’analisi di quanto fatto finora dagli archivisti in campo digitale: c’è infatti da chiedersi quanto la scelta di digitalizzare e rendere disponibili online alcuni fondi, od addirittura solo alcuni specifici documenti, in genere sulla scorta di valutazioni di tipo “conservativo” (= preservare i pezzi pregiati), possa influire sulla produzione storiografica. In altri termini se io, archivista, digitalizzo un documento perché so che esso è il più consultato (ergo il più a rischio deterioramento) non è che finisco per alimentare un circolo vizioso? Viene infatti quasi spontaneo pensare che, per una sorta di “pigrizia”, gli storici trovino più comodo basare le proprie ricerche sui quei materiali raggiungibili con un click piuttosto che andare a sporcarsi le mani in archivio!
Posto che spesso l’input alla digitalizzazione di molto materiale librario è stata l’esigenza di assicurarne la conservazione, bisogna ammettere che, complice la presenza di molti operatori privati che hanno provveduto ad una massiccia digitalizzazione di quei materiali con diritti d’autore scaduti (si pensi a Google), il lato biblioteche rischia decisamente meno di cadere all’interno di questa spirale negativa (semmai in quest’ambito a costituire un problema è la spinta alla citazione reciproca che deriva del sistema dell’impact factor e che rischia di insterilire la ricerca…).
Il mondo biblioteconomico, infine, appare essere più avanti anche per quel che riguarda la creazione di strumenti di consultazione user centered: come ricordato durante il dibattito sono numerose (in verità soprattutto in ambito delle biblioteche universitarie) le interfacce che riescono a trasformare keyword espresse con parole di uso corrente in termini formalizzati (e da questi, è sottinteso, a specifiche risorse).
In altri termini, tornando al nostro storico alle prese con la sua ricerca, qualora esso dovesse affidarsi alla Rete per reperire materiale utile, è altamente probabile che finirebbe per usare materiale “librario” e non fonti documentarie.
Diventa pertanto imperativo, affianco al rafforzamento del già esistente dialogo con bibliotecari ed operatori museali (vedi il coordinamento MAB), realizzare idonei strumenti che indirizzino la ricerca rendendola più fruttuosa (in particolare gli inventari archivistici, suggerisce Giorgetta Bonfiglio-Dosio, potrebbero prevedere accanto al tradizionale “cappello” istituzionale una sorta di guida – vademecum per gli storici circa l’utilità che i materiali descritti potrebbero avere ai fini della loro ricerca).
Di lavoro, insomma, ce n’è molto da fare ma ci sono tutte le premesse per raggiungere ottimi risultati. Non resta che rimboccarsi le mani tutti quanti!
21 Mag
Flickr offre un terabyte di spazio gratis (e la tentazione del cloud si insinua in tutti noi)
La notizia ha già ricevuto grande attenzione da parte di media, blog, etc. ma non posso ugualmente sottrarmi dal fare il mio modesto commento, non fosse altro perché mi ero già soffermato sugli archivi fotografici ai tempi del cloud computing in un post di qualche tempo fa.
Premesso che il restyling di Flickr si inserisce nel più amplio tentativo di risollevare le sorti di Yahoo! da parte della bionda CEO Marissa Mayer (di ieri la conferma dell’acquisizione di Tumblr a suon di miliardi), ciò che lascia sbalorditi è lo spazio messo gratuitamente a disposizione (ovviamente ci si becca la pubblicità, mentre in precedenza si imponeva un’autolimitazione per cui si visualizzavano solo le ultime 200 foto caricate; con la nuova tariffazione se non si vuole pubblicità occorre sborsare 50 dollari all’anno): un terabyte tondo tondo.
Una quantità enorme, specialmente considerando che gli altri servizi offrono gratuitamente storage sull’ordine delle decine di gigabyte; così grande che Flickr stessa ha inserito, nella pagina di presentazione delle novità introdotte, un apposito strumento per calcolare quante foto si possono caricare. Ed i risultati sono sbalorditivi: ipotizzando di scattare foto con risoluzione di 4 megapixel (un valore medio-basso per gli standard odierni) si possono caricare 873.813 foto; se si passa a 7 megapixel (il valore a cui lavorano i migliori smartphone in commercio e le fotocamere di fascia media) si possono caricare 499.321 foto, una al giorno per i prossimi 1368 anni! Anche se carichiamo foto da 16 megapixel il risultato è più che onorevole: 218.453 foto!
Appare evidente che una simile offerta di spazio è spudoratamente aggressiva: evidentemente la minaccia posta dall’accoppiata Facebook – Instagram era troppo grave (ne è la riprova il contestuale rilascio di una nuova app per Android, mentre quella per iPhone data a qualche mese fa) e serviva una risposta shock. Certo che essa risulta veramente “invitante” e credo sarà ben accolta non solo per fotografi “da smartphone” ma pure per fotoamatori e professionisti.
Ma al di là di tutto la vera riflessione da fare riguarda le prospettive degli archivi digitali di persona. Oramai i colossi dell’informatica dispongono di infrastrutture di storage capaci di sostenere offerte, come quella di Yahoo! – Flickr, fino a poco tempo fa semplicemente impensabili: oggi è toccato alle foto (relativamente pesanti), nel prossimo futuro sicuramente simili offerte riguarderanno tutte le tipologie di risorse digitali, inclusi ovviamente i “leggeri” documenti. Anche mettendo in conto l’aumento di “peso” cui andranno incontro le varie tipologie di risorse digitali possedute (le foto, giusto per stare in tema, sono più che raddoppiate negli ultimi due – tre anni), gli archivi sulla nuvola saranno ugualmente in grado di contenere, gratuitamente, pressoché l’intero archivio digitale di una persona. Ciò è positivo in quanto verrà meno quel pericolo, più volte sottolineato, di frammentazione / dispersione dell’archivio stesso anche se si continuerà a fare affidamento su infrastrutture di privati.
Personalmente, nell’attesa che qualche ente pubblico abbia il coraggio (oltre che ovviamente i mezzi) di proporsi in qualità di cloud service provider (neutro e terzo, ergo affidabile), rimango dell’opinione che gli archivi sulla nuvola restino, per i singoli cittadini, un utile mezzo di “diversificazione del rischio” che deve andare ad affiancare tutti gli altri supporti nei quali salviamo, precauzionalmente, i nostri documenti digitali.
PS Il mio auspicio di veder scendere attori pubblici nell’arena del cloud computing in qualità di provider forse un giorno si materializzerà ma nel frattempo dobbiamo registrare l’esatto contrario! Il nuovo Flickr ha una sezione, definita The Commons, in cui archivi e biblioteche di rilevanza internazionale (troviamo tra gli altri il Riksarkivet norvegese, la Royal Library danese, la National Library of Scotland, i National Archives britannici, etc.) contribuiscono, caricando foto distribuite in genere con licenza Creative Commons, all’ampliamento di quel già vasto archivio fotografico che è Flickr.
16 Mag
Archiviazione digitale: la soluzione è il peer to peer?

Il modello di cloud p2p di Space Monkey (fonte: http://www.spacemonkey.com/press)
Il cloud computing è stato un modello tecnologico che sin dal suo apparire ha fortemente diviso la comunità degli informatici e dei CIO tra fautori ed oppositori. A fronte degli evidenti (?) vantaggi di natura economica e di disponibilità H24 dei propri dati / documenti, si è sempre sottolineato come si perdesse il controllo diretto sugli stessi; forti dubbi inoltre venivano (vengono) sollevati in ordine alla tutela della privacy anche se, puntualizzavano i favorevoli, ciò appariva come un qualcosa di accettabile in ragione della sicurezza complessiva garantita dalle strutture (quegli enormi data center che Google, Facebook, Amazon, Apple, etc. vanno costruendo per mezzo mondo) che li ospitavano.
L’uragano Sandy ha però fatto in parte crollare queste certezze; ciò, unitamente a motivazioni di ordine economico (molti servizi non sono poi così convenienti come vorrebbero far credere…) ed ideologico (la ricerca di soluzioni di archiviazione green meno energivore rispetto ai data center, il ritorno ad un computing decentrato) ha indotto a sviluppare soluzioni alternative, soprattutto di personal digital archiving (dal momento che chi ha capacità e disponibilità economiche si costruisce la sua bella private cloud!), che salvassero i vantaggi minimizzando gli svantaggi.
Le linee ad oggi seguite sono state essenzialmente due: la prima è stata quelle di realizzare una cloud domestica (altresì detta personal cloud) con tanto di mini server, gruppi di continuità in grado di salvaguardare dagli sbalzi di corrente e garantire un minimo di autonomia in caso di interruzione nell’erogazione di energia elettrica, etc.; la seconda strada è stata quella di realizzare una rete interconnessa di sistemi di storage di piccole dimensioni. E’ di quest’ultima che mi occupo in questo post.
Spieghiamo innanzitutto in che cosa consiste una “nuvola” P2P? In estrema sintesi si tratta di un sistema che permette la condivisione di risorse di storage connesse alla rete; in pratica ciascun appartenente al network mette a disposizione una porzione del proprio spazio di archiviazione ottenendone a sua volta in cambio dell’altro da parte degli altri aderenti alla rete: un apposito software provvede ad effettuare in automatico una copia (spacchettata e criptata) dei nostri dati / documenti inviandola a kilometri di distanza e garantendone in tal modo la sopravvivenza in caso di rotture del dispositivo di storage, di calamità naturali, etc.
Un esempio concreto è Space Monkey: per 10 dollari al mese questa azienda fornisce ai suoi utenti un dispositivo ad hoc da 3 terabyte di memoria (uno disponibile, i rimanenti due destinati ad ospitare file altrui) che promette di essere più veloce nelle operazioni di upload/download nonché energeticamente più efficiente; la “sopravvivenza” dei propri dati è garantita, come anzidetto, dal fatto che essi vengono replicati in molteplici dispositivi di storage ma anche dall’ulteriore copia che viene fatta nel data center gestito, quale ulteriore precauzione, da Space Monkey stessa. Un sistema siffatto, questa è l’idea, dovrebbe risentire assai meno di eventuali outage (qualunque ne sia la causa) e garantire pertanto l’accesso ai propri dati o perlomeno ad una buona parte di essi.
Personalmente ritengo che questa soluzione, almeno dal punto di vista archivistico, non risolva granché i problemi di personal archiving dal momento che la questione della sicurezza e della eventuale sottrazione di dati / documenti resta sul tappeto. Come non pensare, giusto per fare un banale esempio, che un eventuale malintenzionato si abboni al servizio e tenti, dall’interno, di violarne le difese? In questo senso un tradizionale data center concepito a mo’ di fortino mi sembra molto più rassicurante! Considerando poi che un sistema siffatto non ha pretese di garantire autenticità, affidabilità, integrità, etc. né tantomeno la conservazione nel medio – lungo periodo si deduce che esso non soddisfa i requisiti per fungere da valido sistema di archiviazione digitale (al massimo può essere uno dei tanti modi per diversificare il rischio, così come suggerito dagli esperti del National Digital Information Infrastructure and Preservation Program).
Paradossalmente però un modello distribuito strutturato sulla falsa riga di Space Monkey potrebbe rivelarsi felicemente applicabile ad archivi “istituzionali” massimamente in paesi territorialmente poco estesi come l’Italia: posto che, in attesa dell’entrata in vigore del “Regolamento generale sulla protezione dei dati” (redatto a livello europeo), il trasferimento degli stessi all’estero presenta non poche controindicazioni, bisogna prendere atto che per il momento le soluzioni non possono che essere nazionali; a sua volta ciò deve portare a riconoscere che, ai fini del disaster recovery, è impresa improba (in special modo una volta eliminate le numerose zone a rischio sismico, idrogeologico, etc.) riuscire ad impiantare nello Stivale due data center che si trovino ad una distanza di sicurezza soddisfacente l’uno dall’altro!
Giusto per fare un esempio concreto PARER, il principale Polo italiano per la conservazione digitale, ha due data center rispettivamente nelle province di Bologna e Milano più un sito di back-up offline in quella di Roma. Specie nel primo caso le distanze non mi sembrano sufficientemente rassicuranti (tra Bologna e Milano ci sono appena 200 km mentre tra Bologna e Roma 300 e tra Milano e Roma 480; qui uno strumento per farvi i vostri calcoli!): d’accordo, eventi come il citato Sandy sono improbabili in Italia, ma considerando la tropicalizzazione cui a detta di molti esperti va incontro il bacino del Mediterraneo ed alla luce dei frequenti eventi estremi dei quali siamo testimoni, un po’ di preoccupazione ce l’avrei!
In altri termini sarebbe il caso di valutare se un sistema distribuito che preveda la realizzazione di un unico data center in una zona scelta con tutti i crismi del caso affiancato da una cospicua quantità di “punti di storage” (una per provincia?) nei quali replicare più e più volte i dati sia più confacente al caso italiano. Caso italiano, ricordo, caratterizzato tradizionalmente da un policentrismo spinto e da più centri di produzione e sedimentazione documentaria. Motivo ulteriore per verificare la fattibilità della soluzione.
6 Mag
BYOD in archivi e biblioteche: bello ma impossibile?
Va bene che negli States sono avanti rispetto a noi di qualche annetto, però sarebbe forse veramente l’ora di iniziare a parlare seriamente anche qui nel Belpaese dell’importante fenomeno del BYOD (Bring Your Own Device), ovvero dell’uso in ambito lavorativo dei vari dispositivi tecnologici (soprattutto smartphone e tablet ma anche i vari ultrabook, notebook e netbook…) che ciascuno di noi oramai possiede ed usa quotidianamente per i più disparati motivi: creare e fruire di contenuti digitali (libri, film, musica), navigare in Rete, relazionarsi con amici e familiari.
La necessità si fa tanto più urgente alla luce dei risultati di un recente studio condotto da Gartner presso un qualificato panel di CIO: ebbene, il 38% dei responsabili dei servizi tecnologici ritiene che di qui al 2016 le proprie aziende smetteranno di fornire ai propri dipendenti i summenzionati device.
Infatti, prendendo atto del fatto che già oggi i propri addetti usano i dispositivi forniti dall’azienda per scopi personali ed utilizzino applicativi consumer anche per risolvere questioni di lavoro, si è giunti alla conclusione che è più conveniente lasciare che siano questi ultimi a farsi carico dell’acquisto di questi device impegnandosi però a fornire un contributo nei costi di esercizio / gestione. Il tutto nella convinzione che: “the benefits of BYOD include creating new mobile workforce opportunities, increasing employee satisfaction, and reducing or avoiding costs”.
Personalmente ritengo questa impostazione corretta e la spinta verso un simile scenario del resto difficilmente contrastabile; è pertanto il caso di fare alcune veloci considerazioni sugli inevitabili pro e contro, anche in considerazione del fatto che ad essere coinvolto di questo radicale cambiamento di impostazione non sarà, sempre secondo Gartner, il solo ambiente corporate ma anche quello dei Governi e delle pubbliche amministrazioni.
La prima considerazione che viene, quasi spontaneamente, da fare è la seguente: dal momento che il processo di informatizzazione delle pubbliche amministrazioni italiane è stato fortemente rallentato negli ultimi anni dalla cronica penuria di soldi, tanto per gli acquisti quanto per l’indispensabile formazione del personale, l’adozione del modello del BYOD garantirebbe rilevanti risparmi in entrambi i settori: per quanto riguarda le acquisizioni, semplicemente queste verrebbero a cessare (solo per alcune tipologie di device, naturalmente; n.d.r.) e resterebbero da mettere a bilancio le spese per i soli costi di gestione (che comunque già si sostengono)! Non meno evidenti ed immediati sarebbero i risparmi sul fronte della formazione dal momento che si presume che il proprietario sappia usare il proprio smartphone e tablet! Tutto ciò ovviamente in linea teorica perché, e così arriviamo alla seconda considerazione, c’è da chiedersi se il passaggio al BYOD non rappresenterebbe una sorta di “salto nel vuoto” alla luce delle carenze infrastrutturali che affliggono le nostre pubbliche amministrazioni. Sono infatti dell’avviso che il BYOD abbia senso solo se procede di pari passo con l’adozione di tecnologie cloud sulle quali, come noto, ci sono parecchie riserve. Arriviamo così al nocciolo della questione (aspetto peraltro sollevato anche dai CIO intervistati da Gartner): quali sono i rischi per la sicurezza dei dati (data leakage) e dei documenti? Evidentemente sono elevati ed è inutile dire che grossi sforzi andrebbero fatti in questo settore a più livelli: da una parte assicurandosi che i device utilizzati dagli appartenenti all’organizzazione rispondano ad alcuni requisiti minimi di sicurezza, applicando dunque ai soli dispositivi verificati i dettami del BYOD (va in questa direzione il progetto di valutazione condotto dal Pentagono sui principali smartphone in commercio; un ulteriore vantaggio di questa politica è quella di diversificare le piattaforme usate – in termini di sistema operativo – e di indipendenza da specifici fornitori, n.d.r.), dall’altro diffondendo una cultura della sicurezza (informatica) a tutti i livelli dell’organizzazione.
Venendo infine a parlare delle conseguenze del modello BYOD su archivi e biblioteche, conseguenze inevitabili essendo questi istituti a tutti gli effetti incardinati nell’apparato statale, le ripercussioni sono diversamente valutabili a seconda del livello in cui ci si colloca.
Ponendosi ad esempio al livello degli archivisti e dei bibliotecari in quanto “lavoratori”, il progressivo processo di professionalizzazione che ha investito questi che fino a pochi anni fa erano ancora mestieri (con l’instaurazione di rapporti di lavoro sempre meno di tipo dipendente ed al contrario sempre più di “prestazione occasionale” / collaborazione) ha reso assai frequente il fatto che essi utilizzino durante il lavoro i propri laptop, etc. In questo senso pertanto il BYOD potrebbe anche non rappresentare un fattore di dirompente novità. Similmente non è da escludere che l’uso di ambienti di lavoro e di dispositivi simili in quanto consumer non contribuisca ad aumentare il livello di empatia tra i primi ed i secondi nonché che possa condurre ad una migliore comprensione dei problemi di natura “pratica” cui potrebbero incorrere i secondi anche nel solo utilizzo dei servizi e delle risorse approntate. Non meno importante, in quest’ottica di omologazione tra strumenti professionali e consumer, il ricorso ai social network quali principali strumenti di comunicazione / promozione (laddove ad esempio in ambito bibliotecario fino a pochi anni fa ci si affidava, per la comunicazione, alle piattaforme ad hoc sviluppate all’interno dei primissimi SOPAC…).
A fianco di questi aspetti complessivamente positivi non si possono comunque tacere gli innegabili aspetti negativi (perlopiù dal lato degli archivi): non si tratta solo dei summenzionati rischi di perdita dei dati / documenti, il problema è molto più alla radice!
Con il paradigma BYOD è il confine stesso tra pubblico e privato a farsi labile: mail, progetti, documenti, etc. di lavoro rischiano di mescolarsi pericolosamente con quelli privati in un vortice inestricabile di file e cartelle! Ed il dubbio se un documento sia pubblico (= da inserire nell’archivio dell’organizzazione) o privato (= da inserire nell’archivio di persona del membro dell’organizzazione) o peggio ancora un ibrido difficilmente collocabile rischia di minare la trustworthiness complessiva dell’archivio. Perché un documento può anche essere stato al sicuro “incorrotto” dentro al sistema ma se ad essere messa indubbio è la sua appartenenza stessa all’archivio, secolari certezze rischiano di venire improvvisamente meno.
23 Apr
Europeana 1914-18: fonti storiche e Grande Guerra
Segnalo l’iniziativa Europeana 1914‐1918, avviata in vista del 100° anniversario della I Guerra Mondiale che si celebrerà l’anno prossimo: Europeana, la biblioteca digitale europea, ha infatti intrapreso un progetto che prevede la digitalizzazione, conservazione e pubblicazione di cimeli e testimonianze sulla Grande Guerra che, è questo l’auspicio, dovrebbe fornire anche ad un pubblico non specialistico strumenti adeguati per una migliore comprensione circa l’impatto e gli effetti che tale conflitto ebbe sulla gente comune.
I risultati raggiunti sono già ragguardevoli: sul sito http://www.europeana1914-1918.eu/it sono già state pubblicate le digitalizzazioni di oltre 45.000 oggetti digitali quali lettere, cartoline, foto, diari storici risalenti a quel tragico periodo.
La necessità di far conoscere tale iniziativa anche in Italia, contribuendo all’ulteriore arricchimento di questa raccolta digitale, ha spinto l’ICCU (Istituto Centrale per il Catalogo Unico), in collaborazione con il Museo del Risorgimento italiano e la BNCR (Biblioteca Nazionale Centrale di Roma) ad organizzare per…
View original post 194 altre parole
16 Apr
Dove va l’ereader?
Nel corso della London Book Fair del 2013 Kobo, azienda nippo-canadese, un po’ a sorpresa ha annunciato il lancio in edizione limitata di un nuovo lettore per libri digitali, significativamente chiamato Kobo Aura HD.
Anche alla luce delle caratteristiche tecniche di questo nuovo device l’occasione è giusta per avventurarci in una analisi di quelle che possono essere le prospettive future degli ereader.
Ma partiamo dal Kobo Aura: quale dovrebbe essere il quid che induce i lettori ad acquistarlo, tenendo anche presente che costa 169,99 dollari e che, dunque, con poche decine di dollari in meno si compra il comunque valido Kobo Glo (giusto per restare in casa) e con alcune decine in più si acquista un tablet?
Già quell’ “HD” nel nome dovrebbe far intuire come si sia puntato tutto sullo schermo e la connessa migliore esperienza di lettura: il nuovo AURA HD infatti può vantare un display touch con illuminazione frontale da 6.8″ e tecnologia eInk Pearl con una densità di 265 dpi ed una risoluzione di 1440 x 1080 che lo rende (specifiche alla mano) l’ereader in commercio con lo schermo più grande e più definito.
Ulteriori migliorie, stando sempre ad un’analisi sulla carta, sono poi avvenute in quanto 1) a potenza del processore (20% in più) ergo a velocità di risposta ai comandi (il tutto a parità di gigahertz ovvero uno, come quello del Kobo Glo; verosimilmente le accresciute prestazioni sono state ottenute cambiando processore, anche se nessun dettaglio viene fornito al riguardo) ed a 2) capacità di storage, raddoppiate da 2 a 4 Gigabyte con possibilità di arrivare sino a 32. Pure la tenuta della batteria è aumentata: a parità di utilizzo si passa dal mese abbondante del Glo ai due dell’Aura.
Altri aspetti elencati come pregi sono a mio avviso altamente soggettivi: mi riferisco in particolare alla presunta migliore maneggevolezza e portabilità del nuovo device (che peraltro trovo esteticamente molto bello). Di sicuro esso è più grande, più spesso e più pesante in confronto al Kobo Glo (precisamente 175.7 x 128.3 x 11.7 mm per 240 g VS 114 x 157 x 10 mm per 185 g) così come rispetto al Kindle Paperwhite (che misura 169 x 117 x 91 mm per 213 g), motivo per cui, anche ammettendo che l’ergonomia ed i materiali consentano una presa salda, trovo questa affermazione quanto meno opinabile!
Ma veniamo al nocciolo della questione: la comparsa di un dispositivo come il Kobo Aura HD quale impatto può avere sulla sorte del mercato degli ebook ereader? Ricordo infatti che nel 2012 le vendite di lettori per libri digitali sono crollate di una percentuale che, a seconda delle società di ricerca, va dal 28 al 36% e che le prospettive, alla luce di altri sondaggi (come quello del PEW Institute che descrive come molti leggano oramai abitualmente su tablet), sono tutt’altro che rosee.
La risposta che mi do è negativa per i seguenti semplici motivi: 1) puntare sull’aumento delle capacità di storage non ha molto senso quando la tendenza è di stipare le proprie risorse digitali sulla cloud; anche per garantire un continuo accesso alla nuvola 2) più utile sarebbe stato aggiungere la connettività 3G (la 4G / LTE oggettivamente sarebbe sprecata), la quale avrebbe nel contempo assicurato una mobilità senza vincoli! 3) Nessun passo in avanti è stato fatto verso un’interfaccia che contempli la presenza di icone: non si tratta, si badi, di scimmiottare i tablet ma di sfruttare meglio i propri ebook reader (come spero di aver dimostrato in questo mio post di qualche tempo fa). Infine, 4), lo schermo HD frontlit segnerà pure un ulteriore step della tecnologia eink ma è un dato di fatto che dopo il Nook Color di Barnes & Noble non sono stati fatti apprezzabili passi in avanti verso quello che deve essere il vero obiettivo, ovvero un ereader a colori… e a prezzo abbordabile! L’assenza di colore è tanto più incomprensibile nel momento in cui Mike Serbinis, CEO di Kobo, afferma in un’intervista a Techcrunch che lo schermo da 6,8 serve a facilitare la lettura di magazine e fumetti, attualmente letti quasi esclusivamente su tablet attraverso applicazioni sviluppate ad hoc. Posto che nemmeno quest’ultima è la soluzione ideale, se quelli di Kobo pensano che i lettori preferiranno leggere in bianco e nero materiali quali quelli citati, che notoriamente rendono il massimo con i colori, sono proprio fuori strada!
Purtroppo ho l’impressione che, al di là delle (errate) strategie aziendali, i problemi siano ben più gravi: in altre parole temo che i margini di sviluppo della tecnologia eink non siano elevati, motivo per cui è altamente probabile che la contrazione nelle vendite di ereader, prevista da un po’ tutte le società di analisi, troveranno nei prossimi anni puntuale riscontro.
Del resto non è lo stesso Serbinis, nel momento in cui dichiara che il nuovo Kobo AURA HD è pensato come un “regalo” per quei lettori forti che “consumano” annualmente centinaia di libri, ad ammettere implicitamente che ci si rivolge ad un target minoritario e che in futuro, salvo convergenze (al momento non ricercate) con i tablet, agli ebook reader spetterà un ruolo di nicchia?
14 Apr
Mendeley e Pulse, ovvero, quando quel che conta è il contenuto
Evidentemente agli startupper la propria azienda sta a cuore fino ad un certo punto, nel senso che molti sembrano più interessati a farla crescere per poi venderla alla prima “offerta irrinunciabile” (salvo giustificare la vendita stessa come indispensabile per garantire un futuro florido) piuttosto che accompagnarla nel non sempre facile processo di crescita.
E’ proprio questa la sorte capitata in settimana, dopo insistenti rumor, a due aziende la cui attività riguarda in modo più o meno diretto archivi e biblioteche: la prima è la cessione di Mendeley al colosso editoriale Elsevier, la seconda quella di Pulse a LinkedIn.
L’acquisizione di Mendeley lascia un po’ l’amaro in bocca: su questa piattaforma (usata per generare citazioni e bibliografie, diffondere e condividere ricerche, creare gruppi di lavoro online su specifiche tematiche) la comunità accademica, già ai ferri corti con le case editrici ed il contestato sistema dell’impact factor, aveva scommesso forte e si può immaginare il disappunto e la sincera preoccupazione alla notizia che Mendeley finisce dritta dritta in pancia ad uno dei colossi dell’editoria mondiale!
E’ infatti evidente, in un mondo iperconnesso in cui i progetti di ricerca sono molteplici e spesso transnazionali, l’importanza di una piattaforma, possibilmente indipendente / neutra, che permetta di confrontare, scambiare e diffondere i rispettivi risultati! Viene dunque un po’ di rammarico a vedere che le biblioteche (universitarie in primis), che pure in fatto di organizzazione e disseminazione avrebbero qualcosa da dire, rimangono ai margini di quel processo di creazione che esse stesse, grazie alle risorse (bibliografiche e non) messe a disposizione, concorrono a produrre.
Analogo lo stato d’animo e le considerazioni che si possono fare riguardo alla seconda notizia: del fatto che LinkedIn fosse intenzionato a trasformarsi in un vero hub in cui aziende e professionisti non solo pubblicano i propri curricula, ricercano / offrono opportunità di lavoro ed estendono la propria rete di contatti ma anche nel quale pubblicano i propri lavori, paper interni, etc. ne avevo già dato conto in un precedente post. Con l’acquisizione di Pulse (piattaforma per la personalizzazione, selezione e condivisione delle notizie) viene messo un ulteriore tassello nella direzione, stando alle parole di Deep Nishar, di creare “[a] definitive professional publishing platform — where all professionals come to consume content and where publishers come to share their content”. In altre parole quando questa vision sarà realizzata su LinkedIn troveremo non solo letteratura grigia ma pure fresche ed altrettanto preziosissime informazioni!
Una linea di sviluppo indubbiamente interessante al punto che, sorvolando ora sul triste fatto che archivi e biblioteche sono tagliate fuori dai giochi, LinkedIn potrebbe divenire utile luogo di incontro pure per gli archivisti ed i bibliotecari: infatti, in parte perché costretti (la Pubblica Amministrazione non rappresenta più per i noti motivi lo sbocco professionale per eccellenza) in parte per precisa volontà di affermare lo statuto e la dignità delle rispettive professioni (ANAI ed AIB da anni si battono per ottenere il giusto riconoscimento), è in atto un profondo processo di professionalizzazione di questi che fino a qualche tempo fa erano piuttosto mestieri. Su LinkedIn dunque archivisti e bibliotecari, dove per inciso sono già presenti (qui per puro esempio il link ai “colleghi” della sezione Piemonte e Valle d’Aosta), potrebbero al pari di ingegneri, architetti, commerciali, esperti di marketing, etc. pubblicare il proprio CV, reperire offerte di lavoro, entrare in contatto con aziende ed enti, pubblicare articoli e saggi, leggere le principali novità di loro interesse! Si tratterebbe sicuramente di un interessante luogo di confronto e crescita professionale!
In conclusione, si può trarre un importante insegnamento generale dalle acquisizioni di Mendeley e Pulse: queste due società sono diventate appetibili rispettivamente per Elsevier e LinkedIn in quanto ricche di contenuti: sono questi ultimi, specialmente quando legati alle persone ed alle relative reti relazionali, a generare il vero valore aggiunto! Quest’ultimo infatti ha il pregio di essere infungibile e difficilmente imitabile e finisce per tradursi in un maggior valore complessivo (anche economico) dell’azienda. Ne consegue a cascata per i professional, tra i quali ascrivo pure archivisti e bibliotecari, la seguente lezione: puntare sulla sostanza e meno sui fronzoli (leggasi: titoli di studio e cariche ricoperte), curare il proprio profilo (dandogli valore magari attraverso la diffusione di parte delle proprie conoscenze) e la propria cerchia di “contatti” nella consapevolezza che tutto ciò può voler dire maggiori opportunità di lavoro. Lungo questa via dovrebbero muoversi pure archivisti e bibliotecari i quali sono indubbiamente ricchi di “contenuti” e dotati, direi quasi per vocazione, di capacità relazionali. Il che non può che essere motivo di speranza.






