Posts Tagged ‘cloud computing’

L’insostenibile leggerezza del cloud

ADrive

ADrive

Nel mio libro di cinque anni fa sul ruolo e sulle potenzialità del cloud computing in archivi e biblioteche, affrontavo gli impieghi di questo paradigma tecnologico – oggi conosciuto pure dai bambini – non solo nell’ambito di questi due istituti ma, in modo sperimentale (così come, piccolo inciso, sperimentale voleva essere il ricorso al self publishing…), pure nel contesto degli archivi digitali di persona.
In modo molto pratico e concreto, al fine di stabilire se gli spazi di memoria messi a disposizione sulla nuvola possedevano i requisiti previsti dalla teoria per essere riconosciuti o meno come archivi, descrivevo il funzionamento della versione free di tre servizi, vale a dire Memopal, ADrive e Dropbox (Google doveva ancora lanciare il suo Drive, giusto per capire quanto i tempi fossero pionieristici…).
L’e-mail arrivatami qualche giorno fa da ADrive, servizio che nel frattempo ho continuato seppur sporadicamente ad usare, e con la quale mi si avvisa che nell’ottica del continuo miglioramento e potenziamento del servizio la versione Basic a partire dall’1 gennaio 2016 scomparirà (proponendomi nel contempo di abbonarmi alla versione Premium a prezzo vantaggioso), mi ha spinto a controllare come sono messi i summenzionati servizi a distanza di un lustro (nota: per chi volesse rileggersi quanto scritto a suo tempo nel libro, di riferimento è il par. 3.4).

Diciamo innanzitutto, e non è poi una cosa così scontata considerata l’elevata mortalità delle aziende hi-tech, che tutti e tre i servizi sono vivi e vegeti, nel senso che non sono stati chiusi né oggetto di operazioni di merge & acquisition; anzi essi, in linea con il settore, godono di ottima salute ed in particolare Dropbox ne è uno dei leader indiscussi.
Ma veniamo al sodo! Memopal continua ad offrire, nella versione gratuita, 3 GB di spazio di memorizzazione sulla nuvola; pure a scorrere le specifiche di sicurezza non molto è cambiato: utilizzo dei protocolli HTTP / HTTPS ed SSL, RAID 5 e tecnologia MGFS (Memopal Geographical File Systems), scelta in capo all’utente dei file da caricare, possibilità di sincronizzazione multidevice (a prescindere dal sistema operativo), etc. La novità è data dalla posizione di “preminenza” data alle foto; così infatti recita il sito: “nella nostra web app tutte le foto sono organizzate in un album, indipendentemente dalla loro posizione nelle tue cartelle”.
Passiamo ora ad ADrive: come ampiamente ricordato, la versione Basic da 50 GB sta andando in pensione e le farà posto quella Premium da 100 GB (che però possono crescere fino a 20 TB ed oltre); l’interfaccia grafica è stata migliorata e sono state rilasciate app per dispositivi mobili iOS ed Android. Per il resto, oggi come cinque anni fa, si fa leva sulla possibilità di editare sulla nuvola (anche condividendo il lavoro) e di caricare file di grandi dimensioni (il limite è passato da 2 a 16 GB!).
Veniamo infine a Dropbox: lo spazio a disposizione nella versione gratuita di base è tuttora fermo a 2 GB, viene posta particolare enfasi sulle misure di sicurezza adottate (crittografia dei dati archiviati con AES a 256 bit e protezione di quelli in transito con tecnologia SSL/TLS, concepita per creare un tunnel sicuro protetto da crittografia AES a 128 bit o superiore) ma non si specifica la localizzazione dei data center nei quali materialmente finiscono i dati. A proposito di questi ultimi, anzi, si afferma esplicitamente che l’azienda si riserva di spedirli in qualsiasi parte del mondo ma nel rispetto, beninteso, della normativa cd. “Safe Harbour”. Da sottolineare che, diversamente a cinque anni fa, non ho trovato alcun riferimento al fatto che Dropbox si avvalga dei server di Amazon ma alcuni passaggi presenti nella pagina poc’anzi citata mi fanno ritenere che ora Dropbox tenga tutto presso di sé.
Da rimarcare invece come l’azienda californiana, in modo encomiabile, non solo abbia tenuto in vita app per sistemi operativi che contano quote di mercato oramai irrisorie (come Blackberry) ma ne abbia realizzato di ulteriori per Kindle Fire di Amazon (che, come noto monta una versione altamente customizzata di Android) e per il mondo Microsoft (Windows Phone e tablet con Windows). Per finire va sottolineato come pure Dropbox, un po’ come Memopal, abbia tentato di valorizzare le foto salvate al suo interno dai suoi utenti: nello specifico era stata lanciata, con una sorta di spin-off, l’app Carousel, la quale presentava in modo cronologico tutte le foto caricate. Purtroppo l’avventura non deve essere andata esattamente come sperato se, proprio pochi giorni fa, ne è stata annunciata la chiusura per il 31 marzo 2016.

Benché Dropbox si affretti a precisare che le foto non adranno perse ma semplicemente rientreranno all’interno dell’app “originaria”, la quale verrà nel frattempo potenziata con funzionalità ad hoc per le foto, è inutile dire che questa notizia, unita a quella di ADrive, non contribuisca a far sorgere la necessaria fiducia per i servizi di cloud storage. Se dal punto di vista tecnologico questi servizi paiono essere complssivamente affidabili (non si sono infatti sin qui verificate clamorose falle nella sicurezza come capitato in molti settori contigui), le perplessità permangono per ciò che concerne la “cornice legale” e la durata nel tempo del servizio: come si è visto esso è intimamente legato – com’è peraltro normale che sia, trattandosi di aziende private – a logiche di mercato e nel momento in cui la profittabilità viene meno oppure la versione gratuita diviene non più sostenibile (oppure ha semplicemente assolto alla sua funzione “promozionale” per attirare nuovi utenti), semplicemente la si chiude senza tanti giri di parole.
Tutti fattori che, facendo un’analisi costi/benefici, a mio avviso dovrebbero indurre una buona fetta degli utenti ad optare per soluzioni di personal cloud che, benché abbiano un costo, forniscono ben altre garanzie.

Alleanze per il cloud di domani: fine dei giochi per archivi e biblioteche?

Docker_(container_engine)_logo

Ho ripetutamente sostenuto, in questo blog e non solo, circa l’opportunità che archivi e biblioteche si facessero promotori della costruzione di data center pubblici (nel senso di stretto proprietà pubblica, non di public cloud!) analoghi a quelli che i colossi dell’informatica vanno costruendo oramai da un lustro in giro per il globo e che sono destinati ad ospitare gli archivi digitali del futuro (prossimo).
Purtroppo questo mio desiderata è, a giudicare dall’evoluzione dello scenario tecnologico, ben lungi dall’avverarsi; anzi, a guardare le scelte strategiche prese nel frattempo dai player globali, il timore che oramai si sia fuori dai giochi è più forte che mai.
Giusto per dirne una, allo stesso cloud computing, locuzione all’interno della quale si è buttato un po’ di tutto, è sempre meno collegata l’idea di fornire un mero “spazio” all’interno di un server (aspetto che lo ha reso di primario interesse per le implicazioni archivistiche).

Al contrario, si sta scendendo sempre più di livello e, ad esempio con Docker si perseguono obiettivi di “snellimento” degli ambienti sui quali girano le varie applicazioni che, in prospettiva, potrebbero mandare in pensione le classiche virtual machine (VM).

Si badi, niente che riguarda direttamente gli archivi (anche se mi viene da pensare che un ambiente più snello qual è quello container potrebbe render più agevole lo sviluppo di programmi di tipo EaaS; emulation as a service), ma resta il fatto che ancora una volta gli archivi sono ad inseguire l’evoluzione tecnologica, la quale, tanto per cambiare, continua ad essere guidata dai soliti colossi. Per restare in tema di container basta guardare a quanto fatto di recente da Google, che ha “ceduto” il controllo di Kubernetes, la sua piattaforma open-source che offre gli strumenti di comando per quei sviluppatori che utilizzano, per l’appunto, i container, stipulando nel contempo una sorta di pax (ma con i contorni di una vera e propria alleanza) con tutti i colossi parimenti interessati a questa evoluzione: Amazon, Microsoft, Rackspace, Red Hat, etc.

Inutile dire che le carte che si possono giocare gli archivi e le biblioteche, in questo contesto, sono davvero minime al punto che, probabilmente, è bene prendere atto di tutto ciò e cambiare strategia: se non si può essere attivi in prima persona, sarebbe almeno opportuno riuscire ad agire a livello “politico” ottenendo che gli archivi sulla nuvola, ed i meccanismi che li governano, siano “scientificamente” adeguati e gestiti in modo deontologicamente corretto.

Conservazione digitale e miniere

Dagli archivi tradizionali alla conservazione sostitutiva

Fonte: BUCAP

Sul notiziario Parer è stato ampiamente ripreso una sorta di reportage, pubblicato sul Washington Post, sul quale ritengo sia utile spendere quattro parole non fosse altro perché mi consente di ritornare su tematiche, come la conservazione digitale (ed, al suo interno, la conservazione sostitutiva), particolarmente care al sottoscritto.
Ma partiamo dalla notizia (qui ne faccio un brevissimo compendio; per un riassunto più completo rimando all’ironico articolo apparso, per l’appunto, su Parer oltre che, per chi volesse cimentarsi nella lettura integrale in inglese, al Washington Post): in una ex miniera di calcare, decine di metri nel sottosuolo, centinaia di dipendenti federali lavorano alacremente su centinaia di migliaia di documenti, in gran parte su supporto cartaceo, al fine di assicurare la corresponsione della pensione ad altrettanti colleghi. E’ infatti proprio in questa miniera nelle vicinanze di Pittsburgh che a partire dal 1960 il Governo federale ha deciso di collocare l’Office of Personnel Management. Quali le motivazioni che hanno spinto ad una simile scelta?
Fondamentalmente il posto ricercato doveva essere sicuro, sufficientemente ampio e soprattutto non troppo costoso, tutti requisiti, si noti, tuttora validi. Ma le analogie con il presente e le lezioni che si possono trarre da questa storia veramente emblematica non si fermano qui: la prima, in parziale contraddizione con l’impostazione data dal giornalista del Washington Post (il quale giudica assurdo che l’amministrazione federale sia ancora ferma alla carta quando gli stati della California, della Florida e del Texas sono riusciti ad abbattere tempi e costi grazie ad un’adozione spinta del digitale), dovremmo oramai averla metabolizzata un po’ tutti, ovverosia che la tecnologia non è, da sola, risolutiva se non è accompagnata da adeguati cambiamenti di ordine legislativo, organizzativo e, fino a certi punti, persino “culturale” (intendendo con quest’ultima voce quegli interventi capaci di fornire al personale, piuttosto che un’infarinatura di questo o quel software, una nuova forma mentis, maggiormente sensibile e capace di affrontare le ineliminabili problematiche di natura “tecnica”).
In questo senso la storia resa pubblica dal WP è ricca di aneddoti: programmi che “impazziscono” non essendo sufficientemente potenti per tenere conto delle mille casistiche poste in decenni di confusa legislazione in materia pensionistica, personale incapace di sfruttare al meglio gli strumenti informatici che, almeno dagli anni Ottanta dello scorso secolo, si è tentato di fornir loro per migliorare la situazione, dirigenti non in grado di valutare per tempo (= prima di averci investito fior di quattrini) l’effettiva corrispondenza delle soluzioni informatiche proposte – ed in taluni casi malauguratamente adottate – allo scopo prefisso.
Il risultato è che dal 1977 ad oggi non si è assistito ad alcun apprezzabile miglioramento nei tempi di evasione delle pratiche, fermi a 61 giorni (in verità un miglioramento c’è stato… ma solo aumentando il numero di impiegati!), ed anzi ora il “procedimento tipo” consiste in un’illogica serie di operazioni quali ricerca di cartelle personali, scansioni, stampe, inserimento dati, ristampe, etc.
Al di là della facile indignazione, specie a fronte dei soldi pubblici inutilmente spesi, risulta nel contempo evidente che una soluzione non sia poi così agevole ed immediata: come rileva l’estensore dell’articolo, il grosso problema consiste infatti nel fatto che, nell’arco di una vita lavorativa lunga decenni, i documenti relativi al medesimo dipendente si sono “sedimentati” in lungo ed in largo per gli Stati Uniti e, cosa forse ancora peggiore, che ciò è avvenuto su diversi supporti (taluni analogici, tal’altri digitali).
E’ questo che (al netto di chiare distorsioni nell’iter delle carte) obbliga gli addetti dell’Office of Personnel Management a lunghe attese di questo o quel documento e, una volta ricevutolo, alcune volte a digitalizzarlo mediante scansione ed altre a stamparlo!
La presenza di archivi ibridi, tipica di questa fase di transizione, pone in altri termini importanti sfide in ordine alla “speditezza” ed alla “razionalità” di tutti quei procedimenti amministrativi che richiedono il recupero di documenti che, per motivi “anagrafici”, sono stati formati in ambiente analogico e che non sono ancora stati oggetto di digitalizzazione mediante conservazione sostitutiva.
A tal proposito ritengo sia utile formulare alcune ulteriori, conclusive, osservazioni. In particolare mi permetto di rilevare come, stante le perduranti incertezze (in verità più pratiche che teoriche, n.d.r.) circa la conservazione nel lungo periodo del digitale, forse sarebbe opportuno che alcune categorie di documenti (e quelli relativi alla pensione potrebbero proprio essere inclusi nel novero!) continuassero, onde evitare brutte sorprese tra cinquant’anni, ad essere prodotti e conservati su carta. Dopo questa nota vagamente pessimistica, va anche aggiunto che si intravvedono, nell’attuale panorama tecnologico, pure interessanti spiragli di luce: in particolare man mano che la quota di documenti in circolazione sarà costituita in misura preponderante da documenti digitali (come esito combinato della crescente produzione in ambiente digitale da una parte e del “recupero” di documenti analogici mediante digitalizzazione dall’altra) i problemi evidenziati nell’articolo che ha dato spunto a questo post verranno gradualmente meno; parallelamente l’adozione di soluzioni cloud consentirà di far dialogare tra di loro (scambiandosi dati e documenti) archivi digitali distinti ed appartenenti a soggetti produttori diversi. Il che dovrebbe in ultima analisi snellire e semplificare il percorso delle carte, riducendo i tempi ed i costi ed offrendo perciò al cittadino / utente / cliente un servizio migliore.
Ribadisco infine che affinché le opportunità poste dall’attuale momento di digital shifting vengano colte appieno è fondamentale non limitarsi al solo aspetto tecnologico ma è necessario, al contrario, agire su altre leve come il personale, l’organizzazione nonché affidarsi (in caso di esternalizzazione) a provider strutturati e con soluzioni affidabili, robuste e magari pure interoperabili (e necessariamente basate su standard internazionali).
Certo, ciò farà sorgere a sua volta nuove problematiche (conservazione di lungo periodo, privacy, cornice giuridica, etc.) ma nondimeno sono convinto che il momento sia propizio, come recita una famosa pubblicità, per cercare di “guidare il cambiamento”.

Sicurezza degli archivi digitali, obbiettivo irraggiungibile?

STUXNET

STUXNET – strayed from its intended target (November 8, 2012 4:26 PM PST) …item 2.. Hacker Claims to Have Breached Adobe (NOVEMBER 14, 2012, 12:49 PM) … di marsmet481, su Flickr

Ritorno su un argomento, si potrà obiettare collaterale rispetto al core dell’archivistica, sul quale avevo scritto alcune righe qualche mese fa: lo scandalo Datagate. In quel post sottolineavo la gravità del comportamento del Governo federale degli Stati Uniti, accusato di portare avanti un programma di spionaggio con l’accordo delle principali aziende high-tech a stelle e strisce, e su come ciò potesse costituire, soprattutto in termini di “fiducia”, un vulnus per l’archivistica digitale.
Nel medesimo articolo segnalavo pure come, in base ad indiscrezioni, l’NSA statunitense e la corrispettiva GHCQ britannica disponessero di strumenti in grado di aggirare e superare le misure comunemente adottate per proteggere le comunicazioni e le transazioni che avvengono in Internet, quali ad esempio i protocolli https ed SSL; ebbene, le notizie che arrivano in questi giorni da Oltreoceano fanno per certi versi impallidire queste anticipazioni.
In un approfondito articolo apparso sul Washington Post viene infatti sottolineato come le attività della National Security Agency fossero altamente “aggressive” (come si intuisce dal nome in codice del progetto, ovvero MUSCULAR) e questo, si badi, ad insaputa delle varie Google ed Yahoo!, le quali alla luce di queste nuove rivelazioni verrebbero sostanzialemente scagionate dall’accusa di aver fornito porte di accesso privilegiate ai propri sistemi (le cosiddette front-door; in verità è altamente probabile che queste vie d’ingresso venissero effettivamente fornite ma che alle agenzie d’intelligence ciò non bastasse, motivo che le ha spinte a cercare vie “alternative” al limite della legalità). Ma, esattamente, qual è il punto debole individuato dall’NSA per violare gli apparentemente protettissimi data center costruiti delle big del web in ogni angolo del pianeta?
In estrema sintesi gli agenti dell’NSA riuscirebbero ad infiltrarsi nel delicato punto di interscambio, detto front-end, che si viene a creare tra l’Internet pubblica e le cloud (costituite a loro volta da più data center tra loro interconnesse mediante cavi in fibra ottica stesi da parte sempre delle Internet company) delle varie Google, Apple, Yahoo!, etc. E’ proprio questo, infatti, il punto in cui le protezioni (tipo SSL) vengono aggiunte / rimosse; una volta dentro raccogliere una mole impressionante di dati è un gioco da ragazzi e questo perché le comunicazioni all’interno della cloud avvengono in chiaro e le aziende, per assicurare ridondanza dei dati, procedono periodicamente al trasferimento di enormi quantità di dati da un data center all’altro. Basta intercettare questo flusso per far sì che la “pesca” assuma veramente contorni miracolosi!
Le reazioni non si sono fatte attendere: Steve Wozniak, co-fondatore di Apple assieme a Steve Jobs e da sempre ritenuto l’idealista della coppia, ha apertamente criticato la dipendenza da parte delle aziende nei confronti della cloud, vista come un qualcosa di difficilmente controllabile.
Ciò che stupisce in particolar modo è il capovolgimento di ruoli e prospettive che si è verificato nel giro di pochi mesi; io stesso più volte ho messo in guardia, in questo blog, circa i pericoli derivanti dal fatto che un po’ tutti (dai governi ai singoli cittadini) ci appoggiassimo ad infrastrutture cloud delle quali poco o nulla sapevamo e sulle quali ancor meno potevamo. Proprio il governo degli Stati Uniti, nel momento in cui riponeva parte dei suoi archivi correnti in una apposita G-Cloud realizzata da Amazon, sembrava confermare la sensazione che a reggere le fila fossero le solite, gigantesche Internet company. Alla luce delle ultime rivelazioni lo scenario non è così chiaro e lineare come poteva apparire: lo Stato sembra tornare a far la voce grossa (per un’analisi di come essi ancora controllino le reti di comunicazione globali mi permetto di rinviare ad un mio articolo, seppur scritto in altro contesto e con altre finalità) e le aziende high-tech, per contro, altrettante pedine di un gioco ben più grande!
Appurato dunque che la tradizionale “filiera” Stato => archivi => controllo (= Potere) non è, per il momento, stata intaccata (al massimo c’è il dubbio se al primo termine vada affiancata la voce “Aziende tecnologiche”), resta il fatto che l’infrastruttura tecnologica attorno alla quale sono stati costruiti i nostri archivi digitali si sia dimostrata drammaticamente vulnerabile.
Quali sono, pertanto, le prospettive? Naturalmente qui entriamo nel campo del probabile ma, considerando la tradizionale idea di riservatezza che è insita nel concetto di archivio (esemplificata dal caso dell’Archivum Secretum Vaticanum, che è per l’appunto l’archivio privato e “riservato” del Papa, sul quale egli vi “esercita in prima persona la suprema ed esclusiva giurisdizione“), non mi sorprenderebbe se i vari soggetti produttori (Stati ed aziende in primo luogo), al fine di “tutelare” i propri documenti più importanti, rispolverassero la prassi di creare sezioni d’archivio speciali e particolarmente protette.
Che modalità di protezione? A riguardo il citato articolo del Washington Post, che ha interpellato ingegneri di Google, ha già ricordato come l’azienda, finora concentrata sulle sole difese perimetrali, stia procedendo a cifrare pure tutte le comunicazioni che avvengono internamente tra data center. A mio vedere quella della cifratura è una via, allo stato attuale delle cose, obbligata ma non risolutiva, nel senso che storicamente ogni codice cifrato è stato, prima o poi, decifrato.
Purtroppo pure le ulteriori alternative ipotizzate non sono decisive: si parla da tempo, ad esempio, di autenticazione attraverso dati biometrici ma bisogna ammettere che le tecnologie non sono ancora pienamente mature (il caso dell’iPhone 5 hackerato ricorrendo a delle semplici foto delle impronte digitali è significativo). Non percorribile è pure la strada che, vedendo nella Rete una fonte di minacce e pericoli, prevede di isolare la parte da difendere mettendola del tutto offline: la solita NSA sarebbe in grado, attraverso un dispositivo top-secret basato sulle onde radio, di accedere ed alterare dati e documenti contenuti su computer anche quando questi non sono collegati ad Internet!
Personalmente ritengo che una soluzione esista e consista, paradossalmente, in un “ritorno al passato”, cioè alla carta: posto che andrebbero ugualmente predisposte le massime misure di sicurezza (relativamente a luoghi, controllo degli accessi, etc.), sicuramente un foglio di carta, redatto con una macchina da scrivere, non è intercettabile! Considerando poi che su carta andrebbero i documenti più importanti, quelli cioè che verosimilmente andranno conservati nel tempo, si ovvierebbe pure alla complessa questione della conservazione del digitale nel lungo periodo. Per la serie, come prendere due piccioni con una fava!

E’ online My personal cloud

My personal cloud (website screenshot)

My personal cloud (website screenshot)

Piccola comunicazione di servizio. E’ online My personal cloud, un progetto parallelo a questo sito. Di cosa si tratta?
L’idea che ne sta alla base è molto semplice: verificare, sperimentandole in prima persona, le principali problematiche che mettono a dura prova la tenuta degli archivi (e delle biblioteche) digitali di persona all’epoca del cloud computing e dell’Internet delle cose (IoT) con l’obiettivo, forse eccessivamente ambizioso, di suggerire soluzioni e best practice a tutti coloro che hanno a cuore la sopravvivenza, nel tempo, delle “risorse digitali” che vanno producendo ed accumulando giorno dopo giorno.
Il tutto, a dispetto del fatto che l’argomento sia piuttosto tecnico e specialistico, attraverso un linguaggio semplice e comprensibile ad un pubblico il più vasto possibile.

Personal libraries in the cloud

Personal Pod di mikecogh

Personal Pod di mikecogh, su Flickr

Complici le campagne promozionali particolarmente aggressive lanciate da importanti bookseller (a titolo di esempio Mondadori fino al 6 gennaio se acquisti l’edizione cartacea di un libro inserito in una speciale selezione definita, non senza una certa enfasi, “I magnifici 101”, ti regala pure l’ebook mentre Bookrepublic punta su speciali “cofanetti digitali”, definiti Indie Bookpack Parade, proposti a prezzo iperscontato), l’ebook è destinato a diventare uno dei regali più gettonati del Natale 2014.
Mettendo in secondo piano la parte commerciale (i conti, come sempre, li faremo fra qualche settimana a Festività archiviate), è interessante soffermarsi ora su un risvolto implicito nel prevedibile exploit del libro digitale: in quali “scaffali virtuali” riporremo i nostri ebook?
La risposta non è così scontata né la questione è di lana caprina; il sottoscritto, ad esempio, trova particolarmente scomodo il modo in cui il proprio ebook reader (per la cronaca un Kobo Glo, n.d.r.) gestisce / recupera i libri memorizzati nella microSd oppure nella memoria interna ed allo stesso tempo, per una serie di motivi, non è attratto dalle soluzioni on the cloud proposte dalle varie Amazon, Google, etc.
Approfondiamo la questione, astraendo dallo specifico ereader e/o dal cloud service provider di turno, cercando di evidenziare pro e contro insiti in entrambe le soluzioni.
Per quanto riguarda la prima modalità, essa rappresenta per certi versi l’evoluzione naturale di quanto si faceva fino a qualche anno fa con i libri cartacei: così come li disponevamo in bella vista in una libreria, similmente continuiamo ad organizzarli in file e cartelle (il mio Kobo, riprendendo la terminologia, parla di scaffali) nella convinzione di averne il controllo diretto. “Fisicamente”, infatti, li stipiamo all’interno del nostro lettore di libri digitali o della nostra scheda di memoria: in una simile impostazione per quanto ci si trovi nella dimensione (apparentemente) immateriale tipica del digitale, la “vecchia” e tranquillizzante concezione del possesso fisico è ben presente.
Diverso il discorso qualora si opti per soluzioni “nella nuvola”: in tal caso la sensazione di possesso (e quella intimamente correlata di “attestazione di proprietà”) è nettamente inferiore mentre a prevalere sono considerazioni di ordine pratico, come l’avere a disposizione le proprie letture ovunque ci si trovi ed a prescindere dal device in uso oppure ancora considerazioni in ordine alla “messa al sicuro” della propria biblioteca personale.
Posta in questo modo, parrebbe quasi che la scelta tra salvataggio in locale oppure sulla nuvola derivi soprattutto da “sensazioni” di ordine “psicologico”.
Probabilmente, come spesso avviene in questi casi, la soluzione ideale sta nel trovare il giusto equilibrio tra i vari fattori. Personalmente non rinuncerei ai vantaggi del cloud ma nemmeno mi affiderei a soluzioni, come quelle di Amazon, altamente invasive; la qualità dei servizi offerti dall’azienda di Seattle è senz’altro di prim’ordine ma, come noto, (a parte il fatto che non adotta il formato ePub, cosa che da sola dovrebbe bastare per escluderla) con i libri “acquistati” (o meglio, presi con una sorta di formula di noleggio a lungo termine) non si può fare quel che si vuole. Tutt’altro. Google Play Books, al contrario, è decisamente più flessibile e la sensazione di gestire realmente la propria “biblioteca digitale” nettamente più forte. Di recente, ad esempio, proprio Google ha reso possibile l’upload direttamente da smartphone o tablet Android a Play Books senza dover più passare per il sito web. Purtroppo, come specificato, questa soluzione è possibile solo per dispositivi con sistema operativo del robottino verde sicché la stragrande maggioranza degli ebook reader viene tagliata fuori. La nuova sfida è, evidentemente, far sì che il “dialogo” tra libreria interna al device e quella caricata nuvola sia massimo; si tratta, si badi, di andare oltre alla semplice sincronizzazione, cosa oramai possibile con qualsiasi dispositivo, ma di poter spostare (senza dover ricorrere a cavi e cavetti e tanto meno senza essere obbligati a seguire farraginose procedure che necessitano di un manuale e l’interazione con interfacce grafiche tutt’altro che friendly) i propri libri nella massima libertà, meglio ancora se anche da servizi oramai utilizzatissimi come Drive e Dropbox (che, dal punto di vista logico, potrebbero configurarsi come l’equivalente degli scatoloni – o dei magazzini di deposito per riprendere una terminologia bibliotecaria – dove riponiamo i libri che vengono letti raramente).
Insomma, il mondo dell’ebook per conquistare il pubblico deve ampliare la libertà di scelta e le opzioni a favore dei lettori.

Concludendo, diversamente dal mondo fisico in quello digitale il problema non è più rappresentato dall’assenza di spazio, bensì quello della facilità (o meno) di organizzare e conservare personal digital libraries che, proprio per i motivi esposti, arrivano facilmente a contare migliaia di libri. Allo stato attuale dell’evoluzione tecnologica un giusto mix tra salvataggio in locale e sulla nuvola rappresenta, probabilmente, l’optimum. In locale non terrei moltissimi libri, anzi metterei solo i miei preferiti e quello/i in lettura; in modo tale si rende l’operazione di ricerca e recupero (in genere macchinosa a causa delle interfacce grafiche vetuste, rispetto a telefonini intelligenti e computer a tavoletta, degli e-reader) più agevole e veloce. La possibilità complementare di realizzare sulla nuvola una copia di sicurezza mi da, allo stesso tempo, la garanzia di avere sempre con me tutti miei libri così come la ragionevole certezza di non perderne nemmeno uno (laddove se mi rubano oppure mi si rompe l’ereader sono guai seri).
Questo, ribadisco, è il consiglio che mi sento di dare allo stato attuale delle cose. Per il futuro fondamentale sarà l’evoluzione soprattutto a livello software: gli ereader, in particolare, devono migliorare nettamente le loro prestazioni se non vogliono venir surclassati. Già oggi le varie applicazioni (Android o iOS) permettono di organizzare gli ebook in scaffali virtuali con una libertà impensabile, assicurando a questa classe di dispositivi un indubbio vantaggio competitivo rispetti ai rivali i quali oramai dalla loro possono vantare (oltre al giusto equilibrio tra tendenza al possesso e quella all’accesso) solo l’incredibile autonomia. Ciò li rende a tutti gli effetti le nostre “biblioteche personali” viaggianti. Un capitale non disprezzabile che non va sprecato.

Fog computing, l’archivio dell’Internet delle Cose

THETA Notes di petahopkins

Photo credits: THETA Notes di petahopkins, su Flickr

In questo blog mi sono occupato più volte di cloud computing: troppe infatti le ripercussioni sulle modalità di creazione, sedimentazione e conservazione degli archivi digitali (tanto di persona quanto di organizzazioni pubbliche e private) per non parlarne!
Proprio per questo motivo è il caso di presentare, a chi non ne avesse già sentito parlare, quella che potrebbe essere la nuova buzzword del mercato IT per i prossimi anni.
Mi sto riferendo al concetto di fog computing il quale, si badi, non ha al momento avuto implementazioni pratiche né alcuna definizione standard da parte di organizzazioni internazionali quali ad esempio il NISO.
Il fog computing infatti è un paradigma sviluppato, in analogia a quello di cloud computing, un paio d’anni fa da un gruppo di ricercatori di Cisco ma che è diventato oggetto di discussione da parte di un pubblico più amplio rispetto a quello degli addetti ai lavori solo in tempi recenti.
Ma cosa si intende, più precisamente, con fog computing? La stessa terminologia è di aiuto a comprendere per bene: se la nuvola (cloud) si staglia in alto nel cielo, la nebbia (fog) si colloca ad un livello intermedio tra questa e la Terra, anzi… assai aderente al suolo! Detto fuor di metafora il fog computing si prefigge di creare un’infrastruttura (con le canoniche risorse di calcolo, storage e rete) capace di rispondere in misura migliore rispetto alla Nuvola a quelle che saranno le probabili esigenze del prossimo futuro, futuro che sarà caratterizzato dall’exploit del cosiddetto Internet delle cose (in inglese Internet of Things o, più brevemente, IoT), ovvero dalla massiccia ed attiva presenza in Rete non solo di agenti umani ma anche di oggetti (e non solo quella serie di dispositivi indossabili tipici del wearable computing ma anche e soprattutto automobili, impianti semaforici, elettrodomestici, sensori vari sparsi per la città e lungo le vie di comunicazione con la funzione precisa di catturare dati relativi all’ambiente, alle condizioni del traffico, etc.).
Secondo gli esperti di Cisco, in altri termini, per far sì che l’IoT funzioni adeguatamente bisogna disporre di una infrastruttura ad hoc (la “nebbia”, per l’appunto) che sia complementare rispetto a quella fornita dalla cloud, ritenuta troppo centralizzata e “distante” (e di conseguenza con tempi di latenza troppo elevati rispetto a quelli richiesti allorquando in ballo ci sono i dati relativi, ad esempio, al traffico stradale ed il semaforo deve calcolare in frazioni di secondo, in base al numero di autovetture, bici e pedoni in procinto di attraversamento, come regolarlo nel modo più efficiente); le caratteristiche del fog computing sono dunque la bassa latenza, l’elevata distribuzione geografica, la connettività mobile (tramite punti di accesso Wi-Fi o reti LTE, ma in ogni caso con netta predominanza del wireless), la forte presenza di applicazioni in streaming o, ancora più probabile, in real time (come ben esemplificato dal caso del semaforo presentato poc’anzi).
Dal punto di vista fisico tutto ciò si traduce, come sempre, nella creazione di data center; come ricordato all’inizio la realizzazione di questi ultimi non è ancora stata avviata ma, considerando il requisito dell’elevata distribuzione geografica, verosimilmente essi saranno di dimensioni più contenute e più “agili”; in particolare le risorse di storage non saranno pensate per l’archiviazione di medio lungo periodo bensì per quella di breve e contraddistinte pertanto da alte prestazioni ed alti costi (non so quali soluzioni abbiano in mente quelli di Cisco, diciamo che trovo improbabile l’utilizzo di tape library!); i dati che necessitano di un più approfondito esame o semplicemente di una conservazione più lunga verranno invece avviati alla cloud dove, stipati assieme ai dati provenienti dalle altre fog geograficamente distribuite sulla superficie terrestre, andranno a creare la moltitudine di big data destinati ad un’analisi altrettanto “big” (big analytics).
Ciò che credo vada qui sottolineato è in primo luogo che il fog computing risponde all’esigenza, avvertita da più parti, di maggior “concretezza” e solidità rispetto al cloud computing (indicativo di questa tendenza, anche nel nome, il servizio Metal as a Service); in secondo luogo va rimarcato come i dati trattati dal nuovo modello proposto da Cisco, pur essendo provenienti dall’IoT, non sono per questo meno importanti e, soprattutto, sensibili rispetto a quelli che finiscono nella cloud per la conservazione di lungo periodo: infatti accanto ai dati relativi all’umidità relativa ed alla percentuale di polveri sottili nell’aria potrebbero pure figurare, man mano che l’e-health prenderà piede, quelli relativi al nostro livello di glucosio nel sangue trasmessi al nostro medico oppure quelli, più banali ma non meno invasivi, inviati dall’auto durante i nostri viaggi (georeferenziazione). La definizione di Internet delle cose è infatti per certi versi ingannevole; quest’ultima infatti non è solo smart city o smart grid o altri termini tanto accattivanti quanto vaghi; al contrario essa è, andando oltre agli slogan, composta di moltitudini di dati che riguardano le persone: finiscano essi nella nebbia o nella nuvola, vanno adeguatamente trattati.
Insomma, altro lavoro in vista non solo per i responsabili IT, per i sistemisti ed i data analyst ma anche per gli archivisti.

Per ulteriori materiali di approfondimento consiglio la lettura dello Storify appositamente realizzato.

Al mercato dello storage

Deutsche Borse trading floor

Deutsche Borse trading floor di Jonathan S. Cohen, su Flickr

La notizia non ha trovato grande eco presso i media italiani ma merita di essere qui ripresa: Deutsche Borse ha annunciato l’avvio, indicativamente per l’inizio del 2014, delle contrattazioni elettroniche su una particolare tipologia di “merce”: lo storage e le risorse di calcolo (CPU, RAM, etc.). Se l’intenzione è quella di ampliare in futuro l’offerta, per il momento l’obiettivo è di far incontrare tutti coloro che da una parte hanno bisogno di ulteriori spazi di memorizzazione e di computing capacity e coloro che, dall’altra, ne hanno in surplus.
Si tratta di una notizia che lascia solo per certi versi sorpresi: era infatti prevedibile che il medesimo processo di commoditisation che ha investito il settore dei personal computer prima o poi avrebbe riguardato anche quello “immateriale” dei servizi erogati in modalità cloud.
Ciò nonostante lascia perplessi la prospettiva di vedere il prezzo dello storage, sul quale qui per ovvi motivi mi concentro, fluttuare in base alle bizze dei mercati ed essere acquistato da broker alla stregua di un barile di petrolio o di una tonnellata di granaglie! Bisogna infatti chiedersi se, similmente a quanto accaduto con altri mercati, anche attorno a questo verrà costruito quel castello di prodotti finanziari che, portati all’estremo, tanti danni ha provocato. Considerando infatti che secondo molti analisti l’esistenza di un simile mercato va incontro all’esigenza, percepita da molti attori, di possedere spazi di memorizzazione in diverse giurisdizioni (agevolando in tal modo la compliance alle norme ed agli standard in vigore nei diversi Stati) non ci sarebbe da stupirsi se si tutelasse l’investimento (poniamo che uno debba comprare spazio di storage in Egitto, giusto per fare un esempio di estrema attualità) con quegli strumenti finanziari (vedi gli swap) tristemente famosi.
Ma al di là delle considerazioni finanziarie quello che preoccupa “archivisticamente” è la “banalizzazione dello storage” sottesa al processo di commoditisation: nonostante le rassicurazioni fornite da Deutsche Borse in ordine all’elevato livello qualitativo delle risorse ammesse alle contrattazioni e la presenza di operatori dalle indubbie capacità (a riguardo vengono citati non solo operatori commerciali come T-Systems ma anche soggetti appartenenti al mondo accademico come il Leibniz Rechen-Zentrum il quale, per intenderci, fornisce i servizi informatici per le varie università di Monaco di Baviera nonché per l’Accademia Bavarese delle Scienze), confesso che nutro più di una perplessità sulla qualità “archivistica” del servizio che verrà acquistato.
Mi sembra infatti lontano anni luce il mondo degli archivi, istituti impiantati (e uso questo termine proprio per sottolineare la solidità che li dovrebbe contraddistinguere nel tempo!) per durare secoli, con l’aleatorietà di uno scambio di borsa portato a termine in maniera telematica: detta in altri termini mi pare che la comprensibile fretta di avere ulteriore spazio di storage nella quale può venirsi a trovare un qualsivoglia soggetto produttore (perché questo è in ultima analisi il compratore!) mal si concili con i tempi, inevitabilmente più lunghi, necessari per realizzare un consistente sistema archivistico. Ritorniamo dunque al problema di fondo, ripetutamente evidenziato in questo blog, che lo storage, così com’è concepito da molti provider, ha spesso gran poco da condividere con l’archiviazione.
Naturalmente i miei possono essere timori infondati ed anzi l’auspicio è proprio che, dopo la seicentesca bolla dei tulipani, non ci si ritrovi a fronteggiare, nel prossimo futuro, ad una non meno bizzarra bolla dello storage!

Conservazione digitale: la soluzione sta nella cloud?

Digital vellum

Digital vellum

A stupire, più che la notizia in sé, è la statura del personaggio che solleva la questione: stiamo infatti parlando di Vint Cerf, padre del protocollo TCP/IP (insieme a Bob Kahn) ed attualmente “Chief Internet Evangelist” presso Google.
In alcune sue recenti esternazioni, l’informatico statunitense ha infatti sollevato alcuni problemi che archivisti e bibliotecari (e non solo) si stanno ponendo da tempo ovvero: come conservare la nostra memoria digitale, anche partendo dalla constatazione che non sono solo i supporti a rischio di obsolescenza ma pure i software?
Anche la risposta, manco a dirlo, non suona nuova: difatti, al di là dell’immaginifico obiettivo di arrivare a realizzare un “digital vellum” (ovvero una “pergamena digitale” che rappresenti l’equivalente, per robustezza e capacità di veicolare per secoli i messaggi in essa impressi, della pergamena “animale” usata fin dal Basso Impero / Alto Medioevo), Cerf constata come sia di fondamentale importanza conservare i metadati che ci descrivano il dato / oggetto digitale conservato e, soprattutto, l’ambiente (informatico) nel quale esso viveva.
Così facendo è possibile far rivivere, anche a distanza di anni (secoli?), un determinato file: Cerf, in buona sostanza, afferma che l’emulazione è la soluzione dei nostri problemi.
Come noto quest’ultima via è stata a lungo presa in considerazione anche dagli archivisti salvo venire accantonata in quanto ritenuta tecnologicamente di difficile implementazione ed economicamente dispendiosa.
Ed è qui che sta la novità: secondo Cerf infatti non è da escludere che il cloud computing possa venire in soccorso consentendo di emulare vecchi hardware in cui far girare altrettanto vecchi sistemi operativi ed applicativi.
E’ proprio su questo aspetto che voglio appuntare la mia attenzione: come risaputo molte start-up (soprattutto quelle tecnologiche) sfruttano le infrastrutture della nuvola (potenti quanto bisogna e scalabili) per testare i propri nuovi programmi / applicativi prima di mettersi sul mercato. In essa queste aziende, in altri termini, trovano il giusto compromesso tra potenza di elaborazione e costi (non serve infatti acquisire una infrastruttura ma si può attendere, prima di compiere questo eventuale passo, il responso del mercato nei confronti dei prodotti / servizi proposti).
Analogamente non è inverosimile che si possano sfruttare queste caratteristiche del cloud computing per realizzare, ad un costo accettabile, ambienti di emulazione che, peraltro, avrebbero il pregio di poter essere messi online e di essere dunque raggiungibili da una vasta platea di utilizzatori.
In altri termini il comunque incomprimibile costo di sviluppo dell’ambiente di emulazione potrebbe essere ammortizzato o perlomeno trovare una sua giustificazione economica (ma anche di utilità sociale) in virtù del fatto che esso si rivolge ad una platea tendenzialmente identificabile come l’intera cittadinanza: come non pensare, corro un po’ con la fantasia, alla realizzazione di una sorta di “servizio di emulazione” online al quale gli utenti accedono caricandovi (se del caso anche a fronte del pagamento di un modico prezzo) i propri vecchi file non più supportati dalle combinazioni HW / SW presenti nei nuovi device?
Paradossalmente il cloud computing, spesso accusato di essere archivisticamente inadeguato (e questo a dispetto delle sue indubbie capacità di salvare, da una qualche parte, i dati / documenti caricati e di farli in qualche modo “sopravvivere” ai mille accidenti cui essi possono andare incontro), potrebbe offrire, seguendo vie completamente diverse rispetto a quelle sinora contemplate, anche una soluzione al problema della conservazione nel lungo periodo.

Flickr offre un terabyte di spazio gratis (e la tentazione del cloud si insinua in tutti noi)


flickr di Zanastardust, su Flickr

flickr di Zanastardust, su Flickr

La notizia ha già ricevuto grande attenzione da parte di media, blog, etc. ma non posso ugualmente sottrarmi dal fare il mio modesto commento, non fosse altro perché mi ero già soffermato sugli archivi fotografici ai tempi del cloud computing in un post di qualche tempo fa.
Premesso che il restyling di Flickr si inserisce nel più amplio tentativo di risollevare le sorti di Yahoo! da parte della bionda CEO Marissa Mayer (di ieri la conferma dell’acquisizione di Tumblr a suon di miliardi), ciò che lascia sbalorditi è lo spazio messo gratuitamente a disposizione (ovviamente ci si becca la pubblicità, mentre in precedenza si imponeva un’autolimitazione per cui si visualizzavano solo le ultime 200 foto caricate; con la nuova tariffazione se non si vuole pubblicità occorre sborsare 50 dollari all’anno): un terabyte tondo tondo.
Una quantità enorme, specialmente considerando che gli altri servizi offrono gratuitamente storage sull’ordine delle decine di gigabyte; così grande che Flickr stessa ha inserito, nella pagina di presentazione delle novità introdotte, un apposito strumento per calcolare quante foto si possono caricare. Ed i risultati sono sbalorditivi: ipotizzando di scattare foto con risoluzione di 4 megapixel (un valore medio-basso per gli standard odierni) si possono caricare 873.813 foto; se si passa a 7 megapixel (il valore a cui lavorano i migliori smartphone in commercio e le fotocamere di fascia media) si possono caricare 499.321 foto, una al giorno per i prossimi 1368 anni! Anche se carichiamo foto da 16 megapixel il risultato è più che onorevole: 218.453 foto!
Appare evidente che una simile offerta di spazio è spudoratamente aggressiva: evidentemente la minaccia posta dall’accoppiata Facebook – Instagram era troppo grave (ne è la riprova il contestuale rilascio di una nuova app per Android, mentre quella per iPhone data a qualche mese fa) e serviva una risposta shock. Certo che essa risulta veramente “invitante” e credo sarà ben accolta non solo per fotografi “da smartphone” ma pure per fotoamatori e professionisti.
Ma al di là di tutto la vera riflessione da fare riguarda le prospettive degli archivi digitali di persona. Oramai i colossi dell’informatica dispongono di infrastrutture di storage capaci di sostenere offerte, come quella di Yahoo! – Flickr, fino a poco tempo fa semplicemente impensabili: oggi è toccato alle foto (relativamente pesanti), nel prossimo futuro sicuramente simili offerte riguarderanno tutte le tipologie di risorse digitali, inclusi ovviamente i “leggeri” documenti. Anche mettendo in conto l’aumento di “peso” cui andranno incontro le varie tipologie di risorse digitali possedute (le foto, giusto per stare in tema, sono più che raddoppiate negli ultimi due – tre anni), gli archivi sulla nuvola saranno ugualmente in grado di contenere, gratuitamente, pressoché l’intero archivio digitale di una persona. Ciò è positivo in quanto verrà meno quel pericolo, più volte sottolineato, di frammentazione / dispersione dell’archivio stesso anche se si continuerà a fare affidamento su infrastrutture di privati.
Personalmente, nell’attesa che qualche ente pubblico abbia il coraggio (oltre che ovviamente i mezzi) di proporsi in qualità di cloud service provider (neutro e terzo, ergo affidabile), rimango dell’opinione che gli archivi sulla nuvola restino, per i singoli cittadini, un utile mezzo di “diversificazione del rischio” che deve andare ad affiancare tutti gli altri supporti nei quali salviamo, precauzionalmente, i nostri documenti digitali.

PS Il mio auspicio di veder scendere attori pubblici nell’arena del cloud computing in qualità di provider forse un giorno si materializzerà ma nel frattempo dobbiamo registrare l’esatto contrario! Il nuovo Flickr ha una sezione, definita The Commons, in cui archivi e biblioteche di rilevanza internazionale (troviamo tra gli altri il Riksarkivet norvegese, la Royal Library danese, la National Library of Scotland, i National Archives britannici, etc.) contribuiscono, caricando foto distribuite in genere con licenza Creative Commons, all’ampliamento di quel già vasto archivio fotografico che è Flickr.