Posts Tagged ‘cloud computing’

L’insostenibile leggerezza del cloud

ADrive

ADrive

Nel mio libro di cinque anni fa sul ruolo e sulle potenzialità del cloud computing in archivi e biblioteche, affrontavo gli impieghi di questo paradigma tecnologico – oggi conosciuto pure dai bambini – non solo nell’ambito di questi due istituti ma, in modo sperimentale (così come, piccolo inciso, sperimentale voleva essere il ricorso al self publishing…), pure nel contesto degli archivi digitali di persona.
In modo molto pratico e concreto, al fine di stabilire se gli spazi di memoria messi a disposizione sulla nuvola possedevano i requisiti previsti dalla teoria per essere riconosciuti o meno come archivi, descrivevo il funzionamento della versione free di tre servizi, vale a dire Memopal, ADrive e Dropbox (Google doveva ancora lanciare il suo Drive, giusto per capire quanto i tempi fossero pionieristici…).
L’e-mail arrivatami qualche giorno fa da ADrive, servizio che nel frattempo ho continuato seppur sporadicamente ad usare, e con la quale mi si avvisa che nell’ottica del continuo miglioramento e potenziamento del servizio la versione Basic a partire dall’1 gennaio 2016 scomparirà (proponendomi nel contempo di abbonarmi alla versione Premium a prezzo vantaggioso), mi ha spinto a controllare come sono messi i summenzionati servizi a distanza di un lustro (nota: per chi volesse rileggersi quanto scritto a suo tempo nel libro, di riferimento è il par. 3.4).

Diciamo innanzitutto, e non è poi una cosa così scontata considerata l’elevata mortalità delle aziende hi-tech, che tutti e tre i servizi sono vivi e vegeti, nel senso che non sono stati chiusi né oggetto di operazioni di merge & acquisition; anzi essi, in linea con il settore, godono di ottima salute ed in particolare Dropbox ne è uno dei leader indiscussi.
Ma veniamo al sodo! Memopal continua ad offrire, nella versione gratuita, 3 GB di spazio di memorizzazione sulla nuvola; pure a scorrere le specifiche di sicurezza non molto è cambiato: utilizzo dei protocolli HTTP / HTTPS ed SSL, RAID 5 e tecnologia MGFS (Memopal Geographical File Systems), scelta in capo all’utente dei file da caricare, possibilità di sincronizzazione multidevice (a prescindere dal sistema operativo), etc. La novità è data dalla posizione di “preminenza” data alle foto; così infatti recita il sito: “nella nostra web app tutte le foto sono organizzate in un album, indipendentemente dalla loro posizione nelle tue cartelle”.
Passiamo ora ad ADrive: come ampiamente ricordato, la versione Basic da 50 GB sta andando in pensione e le farà posto quella Premium da 100 GB (che però possono crescere fino a 20 TB ed oltre); l’interfaccia grafica è stata migliorata e sono state rilasciate app per dispositivi mobili iOS ed Android. Per il resto, oggi come cinque anni fa, si fa leva sulla possibilità di editare sulla nuvola (anche condividendo il lavoro) e di caricare file di grandi dimensioni (il limite è passato da 2 a 16 GB!).
Veniamo infine a Dropbox: lo spazio a disposizione nella versione gratuita di base è tuttora fermo a 2 GB, viene posta particolare enfasi sulle misure di sicurezza adottate (crittografia dei dati archiviati con AES a 256 bit e protezione di quelli in transito con tecnologia SSL/TLS, concepita per creare un tunnel sicuro protetto da crittografia AES a 128 bit o superiore) ma non si specifica la localizzazione dei data center nei quali materialmente finiscono i dati. A proposito di questi ultimi, anzi, si afferma esplicitamente che l’azienda si riserva di spedirli in qualsiasi parte del mondo ma nel rispetto, beninteso, della normativa cd. “Safe Harbour”. Da sottolineare che, diversamente a cinque anni fa, non ho trovato alcun riferimento al fatto che Dropbox si avvalga dei server di Amazon ma alcuni passaggi presenti nella pagina poc’anzi citata mi fanno ritenere che ora Dropbox tenga tutto presso di sé.
Da rimarcare invece come l’azienda californiana, in modo encomiabile, non solo abbia tenuto in vita app per sistemi operativi che contano quote di mercato oramai irrisorie (come Blackberry) ma ne abbia realizzato di ulteriori per Kindle Fire di Amazon (che, come noto monta una versione altamente customizzata di Android) e per il mondo Microsoft (Windows Phone e tablet con Windows). Per finire va sottolineato come pure Dropbox, un po’ come Memopal, abbia tentato di valorizzare le foto salvate al suo interno dai suoi utenti: nello specifico era stata lanciata, con una sorta di spin-off, l’app Carousel, la quale presentava in modo cronologico tutte le foto caricate. Purtroppo l’avventura non deve essere andata esattamente come sperato se, proprio pochi giorni fa, ne è stata annunciata la chiusura per il 31 marzo 2016.

Benché Dropbox si affretti a precisare che le foto non adranno perse ma semplicemente rientreranno all’interno dell’app “originaria”, la quale verrà nel frattempo potenziata con funzionalità ad hoc per le foto, è inutile dire che questa notizia, unita a quella di ADrive, non contribuisca a far sorgere la necessaria fiducia per i servizi di cloud storage. Se dal punto di vista tecnologico questi servizi paiono essere complssivamente affidabili (non si sono infatti sin qui verificate clamorose falle nella sicurezza come capitato in molti settori contigui), le perplessità permangono per ciò che concerne la “cornice legale” e la durata nel tempo del servizio: come si è visto esso è intimamente legato – com’è peraltro normale che sia, trattandosi di aziende private – a logiche di mercato e nel momento in cui la profittabilità viene meno oppure la versione gratuita diviene non più sostenibile (oppure ha semplicemente assolto alla sua funzione “promozionale” per attirare nuovi utenti), semplicemente la si chiude senza tanti giri di parole.
Tutti fattori che, facendo un’analisi costi/benefici, a mio avviso dovrebbero indurre una buona fetta degli utenti ad optare per soluzioni di personal cloud che, benché abbiano un costo, forniscono ben altre garanzie.

Alleanze per il cloud di domani: fine dei giochi per archivi e biblioteche?

Docker_(container_engine)_logo

Ho ripetutamente sostenuto, in questo blog e non solo, circa l’opportunità che archivi e biblioteche si facessero promotori della costruzione di data center pubblici (nel senso di stretto proprietà pubblica, non di public cloud!) analoghi a quelli che i colossi dell’informatica vanno costruendo oramai da un lustro in giro per il globo e che sono destinati ad ospitare gli archivi digitali del futuro (prossimo).
Purtroppo questo mio desiderata è, a giudicare dall’evoluzione dello scenario tecnologico, ben lungi dall’avverarsi; anzi, a guardare le scelte strategiche prese nel frattempo dai player globali, il timore che oramai si sia fuori dai giochi è più forte che mai.
Giusto per dirne una, allo stesso cloud computing, locuzione all’interno della quale si è buttato un po’ di tutto, è sempre meno collegata l’idea di fornire un mero “spazio” all’interno di un server (aspetto che lo ha reso di primario interesse per le implicazioni archivistiche).

Al contrario, si sta scendendo sempre più di livello e, ad esempio con Docker si perseguono obiettivi di “snellimento” degli ambienti sui quali girano le varie applicazioni che, in prospettiva, potrebbero mandare in pensione le classiche virtual machine (VM).

Si badi, niente che riguarda direttamente gli archivi (anche se mi viene da pensare che un ambiente più snello qual è quello container potrebbe render più agevole lo sviluppo di programmi di tipo EaaS; emulation as a service), ma resta il fatto che ancora una volta gli archivi sono ad inseguire l’evoluzione tecnologica, la quale, tanto per cambiare, continua ad essere guidata dai soliti colossi. Per restare in tema di container basta guardare a quanto fatto di recente da Google, che ha “ceduto” il controllo di Kubernetes, la sua piattaforma open-source che offre gli strumenti di comando per quei sviluppatori che utilizzano, per l’appunto, i container, stipulando nel contempo una sorta di pax (ma con i contorni di una vera e propria alleanza) con tutti i colossi parimenti interessati a questa evoluzione: Amazon, Microsoft, Rackspace, Red Hat, etc.

Inutile dire che le carte che si possono giocare gli archivi e le biblioteche, in questo contesto, sono davvero minime al punto che, probabilmente, è bene prendere atto di tutto ciò e cambiare strategia: se non si può essere attivi in prima persona, sarebbe almeno opportuno riuscire ad agire a livello “politico” ottenendo che gli archivi sulla nuvola, ed i meccanismi che li governano, siano “scientificamente” adeguati e gestiti in modo deontologicamente corretto.

Conservazione digitale e miniere

Dagli archivi tradizionali alla conservazione sostitutiva

Fonte: BUCAP

Sul notiziario Parer è stato ampiamente ripreso una sorta di reportage, pubblicato sul Washington Post, sul quale ritengo sia utile spendere quattro parole non fosse altro perché mi consente di ritornare su tematiche, come la conservazione digitale (ed, al suo interno, la conservazione sostitutiva), particolarmente care al sottoscritto.
Ma partiamo dalla notizia (qui ne faccio un brevissimo compendio; per un riassunto più completo rimando all’ironico articolo apparso, per l’appunto, su Parer oltre che, per chi volesse cimentarsi nella lettura integrale in inglese, al Washington Post): in una ex miniera di calcare, decine di metri nel sottosuolo, centinaia di dipendenti federali lavorano alacremente su centinaia di migliaia di documenti, in gran parte su supporto cartaceo, al fine di assicurare la corresponsione della pensione ad altrettanti colleghi. E’ infatti proprio in questa miniera nelle vicinanze di Pittsburgh che a partire dal 1960 il Governo federale ha deciso di collocare l’Office of Personnel Management. Quali le motivazioni che hanno spinto ad una simile scelta?
Fondamentalmente il posto ricercato doveva essere sicuro, sufficientemente ampio e soprattutto non troppo costoso, tutti requisiti, si noti, tuttora validi. Ma le analogie con il presente e le lezioni che si possono trarre da questa storia veramente emblematica non si fermano qui: la prima, in parziale contraddizione con l’impostazione data dal giornalista del Washington Post (il quale giudica assurdo che l’amministrazione federale sia ancora ferma alla carta quando gli stati della California, della Florida e del Texas sono riusciti ad abbattere tempi e costi grazie ad un’adozione spinta del digitale), dovremmo oramai averla metabolizzata un po’ tutti, ovverosia che la tecnologia non è, da sola, risolutiva se non è accompagnata da adeguati cambiamenti di ordine legislativo, organizzativo e, fino a certi punti, persino “culturale” (intendendo con quest’ultima voce quegli interventi capaci di fornire al personale, piuttosto che un’infarinatura di questo o quel software, una nuova forma mentis, maggiormente sensibile e capace di affrontare le ineliminabili problematiche di natura “tecnica”).
In questo senso la storia resa pubblica dal WP è ricca di aneddoti: programmi che “impazziscono” non essendo sufficientemente potenti per tenere conto delle mille casistiche poste in decenni di confusa legislazione in materia pensionistica, personale incapace di sfruttare al meglio gli strumenti informatici che, almeno dagli anni Ottanta dello scorso secolo, si è tentato di fornir loro per migliorare la situazione, dirigenti non in grado di valutare per tempo (= prima di averci investito fior di quattrini) l’effettiva corrispondenza delle soluzioni informatiche proposte – ed in taluni casi malauguratamente adottate – allo scopo prefisso.
Il risultato è che dal 1977 ad oggi non si è assistito ad alcun apprezzabile miglioramento nei tempi di evasione delle pratiche, fermi a 61 giorni (in verità un miglioramento c’è stato… ma solo aumentando il numero di impiegati!), ed anzi ora il “procedimento tipo” consiste in un’illogica serie di operazioni quali ricerca di cartelle personali, scansioni, stampe, inserimento dati, ristampe, etc.
Al di là della facile indignazione, specie a fronte dei soldi pubblici inutilmente spesi, risulta nel contempo evidente che una soluzione non sia poi così agevole ed immediata: come rileva l’estensore dell’articolo, il grosso problema consiste infatti nel fatto che, nell’arco di una vita lavorativa lunga decenni, i documenti relativi al medesimo dipendente si sono “sedimentati” in lungo ed in largo per gli Stati Uniti e, cosa forse ancora peggiore, che ciò è avvenuto su diversi supporti (taluni analogici, tal’altri digitali).
E’ questo che (al netto di chiare distorsioni nell’iter delle carte) obbliga gli addetti dell’Office of Personnel Management a lunghe attese di questo o quel documento e, una volta ricevutolo, alcune volte a digitalizzarlo mediante scansione ed altre a stamparlo!
La presenza di archivi ibridi, tipica di questa fase di transizione, pone in altri termini importanti sfide in ordine alla “speditezza” ed alla “razionalità” di tutti quei procedimenti amministrativi che richiedono il recupero di documenti che, per motivi “anagrafici”, sono stati formati in ambiente analogico e che non sono ancora stati oggetto di digitalizzazione mediante conservazione sostitutiva.
A tal proposito ritengo sia utile formulare alcune ulteriori, conclusive, osservazioni. In particolare mi permetto di rilevare come, stante le perduranti incertezze (in verità più pratiche che teoriche, n.d.r.) circa la conservazione nel lungo periodo del digitale, forse sarebbe opportuno che alcune categorie di documenti (e quelli relativi alla pensione potrebbero proprio essere inclusi nel novero!) continuassero, onde evitare brutte sorprese tra cinquant’anni, ad essere prodotti e conservati su carta. Dopo questa nota vagamente pessimistica, va anche aggiunto che si intravvedono, nell’attuale panorama tecnologico, pure interessanti spiragli di luce: in particolare man mano che la quota di documenti in circolazione sarà costituita in misura preponderante da documenti digitali (come esito combinato della crescente produzione in ambiente digitale da una parte e del “recupero” di documenti analogici mediante digitalizzazione dall’altra) i problemi evidenziati nell’articolo che ha dato spunto a questo post verranno gradualmente meno; parallelamente l’adozione di soluzioni cloud consentirà di far dialogare tra di loro (scambiandosi dati e documenti) archivi digitali distinti ed appartenenti a soggetti produttori diversi. Il che dovrebbe in ultima analisi snellire e semplificare il percorso delle carte, riducendo i tempi ed i costi ed offrendo perciò al cittadino / utente / cliente un servizio migliore.
Ribadisco infine che affinché le opportunità poste dall’attuale momento di digital shifting vengano colte appieno è fondamentale non limitarsi al solo aspetto tecnologico ma è necessario, al contrario, agire su altre leve come il personale, l’organizzazione nonché affidarsi (in caso di esternalizzazione) a provider strutturati e con soluzioni affidabili, robuste e magari pure interoperabili (e necessariamente basate su standard internazionali).
Certo, ciò farà sorgere a sua volta nuove problematiche (conservazione di lungo periodo, privacy, cornice giuridica, etc.) ma nondimeno sono convinto che il momento sia propizio, come recita una famosa pubblicità, per cercare di “guidare il cambiamento”.

Sicurezza degli archivi digitali, obbiettivo irraggiungibile?

STUXNET

STUXNET – strayed from its intended target (November 8, 2012 4:26 PM PST) …item 2.. Hacker Claims to Have Breached Adobe (NOVEMBER 14, 2012, 12:49 PM) … di marsmet481, su Flickr

Ritorno su un argomento, si potrà obiettare collaterale rispetto al core dell’archivistica, sul quale avevo scritto alcune righe qualche mese fa: lo scandalo Datagate. In quel post sottolineavo la gravità del comportamento del Governo federale degli Stati Uniti, accusato di portare avanti un programma di spionaggio con l’accordo delle principali aziende high-tech a stelle e strisce, e su come ciò potesse costituire, soprattutto in termini di “fiducia”, un vulnus per l’archivistica digitale.
Nel medesimo articolo segnalavo pure come, in base ad indiscrezioni, l’NSA statunitense e la corrispettiva GHCQ britannica disponessero di strumenti in grado di aggirare e superare le misure comunemente adottate per proteggere le comunicazioni e le transazioni che avvengono in Internet, quali ad esempio i protocolli https ed SSL; ebbene, le notizie che arrivano in questi giorni da Oltreoceano fanno per certi versi impallidire queste anticipazioni.
In un approfondito articolo apparso sul Washington Post viene infatti sottolineato come le attività della National Security Agency fossero altamente “aggressive” (come si intuisce dal nome in codice del progetto, ovvero MUSCULAR) e questo, si badi, ad insaputa delle varie Google ed Yahoo!, le quali alla luce di queste nuove rivelazioni verrebbero sostanzialemente scagionate dall’accusa di aver fornito porte di accesso privilegiate ai propri sistemi (le cosiddette front-door; in verità è altamente probabile che queste vie d’ingresso venissero effettivamente fornite ma che alle agenzie d’intelligence ciò non bastasse, motivo che le ha spinte a cercare vie “alternative” al limite della legalità). Ma, esattamente, qual è il punto debole individuato dall’NSA per violare gli apparentemente protettissimi data center costruiti delle big del web in ogni angolo del pianeta?
In estrema sintesi gli agenti dell’NSA riuscirebbero ad infiltrarsi nel delicato punto di interscambio, detto front-end, che si viene a creare tra l’Internet pubblica e le cloud (costituite a loro volta da più data center tra loro interconnesse mediante cavi in fibra ottica stesi da parte sempre delle Internet company) delle varie Google, Apple, Yahoo!, etc. E’ proprio questo, infatti, il punto in cui le protezioni (tipo SSL) vengono aggiunte / rimosse; una volta dentro raccogliere una mole impressionante di dati è un gioco da ragazzi e questo perché le comunicazioni all’interno della cloud avvengono in chiaro e le aziende, per assicurare ridondanza dei dati, procedono periodicamente al trasferimento di enormi quantità di dati da un data center all’altro. Basta intercettare questo flusso per far sì che la “pesca” assuma veramente contorni miracolosi!
Le reazioni non si sono fatte attendere: Steve Wozniak, co-fondatore di Apple assieme a Steve Jobs e da sempre ritenuto l’idealista della coppia, ha apertamente criticato la dipendenza da parte delle aziende nei confronti della cloud, vista come un qualcosa di difficilmente controllabile.
Ciò che stupisce in particolar modo è il capovolgimento di ruoli e prospettive che si è verificato nel giro di pochi mesi; io stesso più volte ho messo in guardia, in questo blog, circa i pericoli derivanti dal fatto che un po’ tutti (dai governi ai singoli cittadini) ci appoggiassimo ad infrastrutture cloud delle quali poco o nulla sapevamo e sulle quali ancor meno potevamo. Proprio il governo degli Stati Uniti, nel momento in cui riponeva parte dei suoi archivi correnti in una apposita G-Cloud realizzata da Amazon, sembrava confermare la sensazione che a reggere le fila fossero le solite, gigantesche Internet company. Alla luce delle ultime rivelazioni lo scenario non è così chiaro e lineare come poteva apparire: lo Stato sembra tornare a far la voce grossa (per un’analisi di come essi ancora controllino le reti di comunicazione globali mi permetto di rinviare ad un mio articolo, seppur scritto in altro contesto e con altre finalità) e le aziende high-tech, per contro, altrettante pedine di un gioco ben più grande!
Appurato dunque che la tradizionale “filiera” Stato => archivi => controllo (= Potere) non è, per il momento, stata intaccata (al massimo c’è il dubbio se al primo termine vada affiancata la voce “Aziende tecnologiche”), resta il fatto che l’infrastruttura tecnologica attorno alla quale sono stati costruiti i nostri archivi digitali si sia dimostrata drammaticamente vulnerabile.
Quali sono, pertanto, le prospettive? Naturalmente qui entriamo nel campo del probabile ma, considerando la tradizionale idea di riservatezza che è insita nel concetto di archivio (esemplificata dal caso dell’Archivum Secretum Vaticanum, che è per l’appunto l’archivio privato e “riservato” del Papa, sul quale egli vi “esercita in prima persona la suprema ed esclusiva giurisdizione“), non mi sorprenderebbe se i vari soggetti produttori (Stati ed aziende in primo luogo), al fine di “tutelare” i propri documenti più importanti, rispolverassero la prassi di creare sezioni d’archivio speciali e particolarmente protette.
Che modalità di protezione? A riguardo il citato articolo del Washington Post, che ha interpellato ingegneri di Google, ha già ricordato come l’azienda, finora concentrata sulle sole difese perimetrali, stia procedendo a cifrare pure tutte le comunicazioni che avvengono internamente tra data center. A mio vedere quella della cifratura è una via, allo stato attuale delle cose, obbligata ma non risolutiva, nel senso che storicamente ogni codice cifrato è stato, prima o poi, decifrato.
Purtroppo pure le ulteriori alternative ipotizzate non sono decisive: si parla da tempo, ad esempio, di autenticazione attraverso dati biometrici ma bisogna ammettere che le tecnologie non sono ancora pienamente mature (il caso dell’iPhone 5 hackerato ricorrendo a delle semplici foto delle impronte digitali è significativo). Non percorribile è pure la strada che, vedendo nella Rete una fonte di minacce e pericoli, prevede di isolare la parte da difendere mettendola del tutto offline: la solita NSA sarebbe in grado, attraverso un dispositivo top-secret basato sulle onde radio, di accedere ed alterare dati e documenti contenuti su computer anche quando questi non sono collegati ad Internet!
Personalmente ritengo che una soluzione esista e consista, paradossalmente, in un “ritorno al passato”, cioè alla carta: posto che andrebbero ugualmente predisposte le massime misure di sicurezza (relativamente a luoghi, controllo degli accessi, etc.), sicuramente un foglio di carta, redatto con una macchina da scrivere, non è intercettabile! Considerando poi che su carta andrebbero i documenti più importanti, quelli cioè che verosimilmente andranno conservati nel tempo, si ovvierebbe pure alla complessa questione della conservazione del digitale nel lungo periodo. Per la serie, come prendere due piccioni con una fava!

E’ online My personal cloud

My personal cloud (website screenshot)

My personal cloud (website screenshot)

Piccola comunicazione di servizio. E’ online My personal cloud, un progetto parallelo a questo sito. Di cosa si tratta?
L’idea che ne sta alla base è molto semplice: verificare, sperimentandole in prima persona, le principali problematiche che mettono a dura prova la tenuta degli archivi (e delle biblioteche) digitali di persona all’epoca del cloud computing e dell’Internet delle cose (IoT) con l’obiettivo, forse eccessivamente ambizioso, di suggerire soluzioni e best practice a tutti coloro che hanno a cuore la sopravvivenza, nel tempo, delle “risorse digitali” che vanno producendo ed accumulando giorno dopo giorno.
Il tutto, a dispetto del fatto che l’argomento sia piuttosto tecnico e specialistico, attraverso un linguaggio semplice e comprensibile ad un pubblico il più vasto possibile.

Personal libraries in the cloud

Personal Pod di mikecogh

Personal Pod di mikecogh, su Flickr

Complici le campagne promozionali particolarmente aggressive lanciate da importanti bookseller (a titolo di esempio Mondadori fino al 6 gennaio se acquisti l’edizione cartacea di un libro inserito in una speciale selezione definita, non senza una certa enfasi, “I magnifici 101”, ti regala pure l’ebook mentre Bookrepublic punta su speciali “cofanetti digitali”, definiti Indie Bookpack Parade, proposti a prezzo iperscontato), l’ebook è destinato a diventare uno dei regali più gettonati del Natale 2014.
Mettendo in secondo piano la parte commerciale (i conti, come sempre, li faremo fra qualche settimana a Festività archiviate), è interessante soffermarsi ora su un risvolto implicito nel prevedibile exploit del libro digitale: in quali “scaffali virtuali” riporremo i nostri ebook?
La risposta non è così scontata né la questione è di lana caprina; il sottoscritto, ad esempio, trova particolarmente scomodo il modo in cui il proprio ebook reader (per la cronaca un Kobo Glo, n.d.r.) gestisce / recupera i libri memorizzati nella microSd oppure nella memoria interna ed allo stesso tempo, per una serie di motivi, non è attratto dalle soluzioni on the cloud proposte dalle varie Amazon, Google, etc.
Approfondiamo la questione, astraendo dallo specifico ereader e/o dal cloud service provider di turno, cercando di evidenziare pro e contro insiti in entrambe le soluzioni.
Per quanto riguarda la prima modalità, essa rappresenta per certi versi l’evoluzione naturale di quanto si faceva fino a qualche anno fa con i libri cartacei: così come li disponevamo in bella vista in una libreria, similmente continuiamo ad organizzarli in file e cartelle (il mio Kobo, riprendendo la terminologia, parla di scaffali) nella convinzione di averne il controllo diretto. “Fisicamente”, infatti, li stipiamo all’interno del nostro lettore di libri digitali o della nostra scheda di memoria: in una simile impostazione per quanto ci si trovi nella dimensione (apparentemente) immateriale tipica del digitale, la “vecchia” e tranquillizzante concezione del possesso fisico è ben presente.
Diverso il discorso qualora si opti per soluzioni “nella nuvola”: in tal caso la sensazione di possesso (e quella intimamente correlata di “attestazione di proprietà”) è nettamente inferiore mentre a prevalere sono considerazioni di ordine pratico, come l’avere a disposizione le proprie letture ovunque ci si trovi ed a prescindere dal device in uso oppure ancora considerazioni in ordine alla “messa al sicuro” della propria biblioteca personale.
Posta in questo modo, parrebbe quasi che la scelta tra salvataggio in locale oppure sulla nuvola derivi soprattutto da “sensazioni” di ordine “psicologico”.
Probabilmente, come spesso avviene in questi casi, la soluzione ideale sta nel trovare il giusto equilibrio tra i vari fattori. Personalmente non rinuncerei ai vantaggi del cloud ma nemmeno mi affiderei a soluzioni, come quelle di Amazon, altamente invasive; la qualità dei servizi offerti dall’azienda di Seattle è senz’altro di prim’ordine ma, come noto, (a parte il fatto che non adotta il formato ePub, cosa che da sola dovrebbe bastare per escluderla) con i libri “acquistati” (o meglio, presi con una sorta di formula di noleggio a lungo termine) non si può fare quel che si vuole. Tutt’altro. Google Play Books, al contrario, è decisamente più flessibile e la sensazione di gestire realmente la propria “biblioteca digitale” nettamente più forte. Di recente, ad esempio, proprio Google ha reso possibile l’upload direttamente da smartphone o tablet Android a Play Books senza dover più passare per il sito web. Purtroppo, come specificato, questa soluzione è possibile solo per dispositivi con sistema operativo del robottino verde sicché la stragrande maggioranza degli ebook reader viene tagliata fuori. La nuova sfida è, evidentemente, far sì che il “dialogo” tra libreria interna al device e quella caricata nuvola sia massimo; si tratta, si badi, di andare oltre alla semplice sincronizzazione, cosa oramai possibile con qualsiasi dispositivo, ma di poter spostare (senza dover ricorrere a cavi e cavetti e tanto meno senza essere obbligati a seguire farraginose procedure che necessitano di un manuale e l’interazione con interfacce grafiche tutt’altro che friendly) i propri libri nella massima libertà, meglio ancora se anche da servizi oramai utilizzatissimi come Drive e Dropbox (che, dal punto di vista logico, potrebbero configurarsi come l’equivalente degli scatoloni – o dei magazzini di deposito per riprendere una terminologia bibliotecaria – dove riponiamo i libri che vengono letti raramente).
Insomma, il mondo dell’ebook per conquistare il pubblico deve ampliare la libertà di scelta e le opzioni a favore dei lettori.

Concludendo, diversamente dal mondo fisico in quello digitale il problema non è più rappresentato dall’assenza di spazio, bensì quello della facilità (o meno) di organizzare e conservare personal digital libraries che, proprio per i motivi esposti, arrivano facilmente a contare migliaia di libri. Allo stato attuale dell’evoluzione tecnologica un giusto mix tra salvataggio in locale e sulla nuvola rappresenta, probabilmente, l’optimum. In locale non terrei moltissimi libri, anzi metterei solo i miei preferiti e quello/i in lettura; in modo tale si rende l’operazione di ricerca e recupero (in genere macchinosa a causa delle interfacce grafiche vetuste, rispetto a telefonini intelligenti e computer a tavoletta, degli e-reader) più agevole e veloce. La possibilità complementare di realizzare sulla nuvola una copia di sicurezza mi da, allo stesso tempo, la garanzia di avere sempre con me tutti miei libri così come la ragionevole certezza di non perderne nemmeno uno (laddove se mi rubano oppure mi si rompe l’ereader sono guai seri).
Questo, ribadisco, è il consiglio che mi sento di dare allo stato attuale delle cose. Per il futuro fondamentale sarà l’evoluzione soprattutto a livello software: gli ereader, in particolare, devono migliorare nettamente le loro prestazioni se non vogliono venir surclassati. Già oggi le varie applicazioni (Android o iOS) permettono di organizzare gli ebook in scaffali virtuali con una libertà impensabile, assicurando a questa classe di dispositivi un indubbio vantaggio competitivo rispetti ai rivali i quali oramai dalla loro possono vantare (oltre al giusto equilibrio tra tendenza al possesso e quella all’accesso) solo l’incredibile autonomia. Ciò li rende a tutti gli effetti le nostre “biblioteche personali” viaggianti. Un capitale non disprezzabile che non va sprecato.

Fog computing, l’archivio dell’Internet delle Cose

THETA Notes di petahopkins

Photo credits: THETA Notes di petahopkins, su Flickr

In questo blog mi sono occupato più volte di cloud computing: troppe infatti le ripercussioni sulle modalità di creazione, sedimentazione e conservazione degli archivi digitali (tanto di persona quanto di organizzazioni pubbliche e private) per non parlarne!
Proprio per questo motivo è il caso di presentare, a chi non ne avesse già sentito parlare, quella che potrebbe essere la nuova buzzword del mercato IT per i prossimi anni.
Mi sto riferendo al concetto di fog computing il quale, si badi, non ha al momento avuto implementazioni pratiche né alcuna definizione standard da parte di organizzazioni internazionali quali ad esempio il NISO.
Il fog computing infatti è un paradigma sviluppato, in analogia a quello di cloud computing, un paio d’anni fa da un gruppo di ricercatori di Cisco ma che è diventato oggetto di discussione da parte di un pubblico più amplio rispetto a quello degli addetti ai lavori solo in tempi recenti.
Ma cosa si intende, più precisamente, con fog computing? La stessa terminologia è di aiuto a comprendere per bene: se la nuvola (cloud) si staglia in alto nel cielo, la nebbia (fog) si colloca ad un livello intermedio tra questa e la Terra, anzi… assai aderente al suolo! Detto fuor di metafora il fog computing si prefigge di creare un’infrastruttura (con le canoniche risorse di calcolo, storage e rete) capace di rispondere in misura migliore rispetto alla Nuvola a quelle che saranno le probabili esigenze del prossimo futuro, futuro che sarà caratterizzato dall’exploit del cosiddetto Internet delle cose (in inglese Internet of Things o, più brevemente, IoT), ovvero dalla massiccia ed attiva presenza in Rete non solo di agenti umani ma anche di oggetti (e non solo quella serie di dispositivi indossabili tipici del wearable computing ma anche e soprattutto automobili, impianti semaforici, elettrodomestici, sensori vari sparsi per la città e lungo le vie di comunicazione con la funzione precisa di catturare dati relativi all’ambiente, alle condizioni del traffico, etc.).
Secondo gli esperti di Cisco, in altri termini, per far sì che l’IoT funzioni adeguatamente bisogna disporre di una infrastruttura ad hoc (la “nebbia”, per l’appunto) che sia complementare rispetto a quella fornita dalla cloud, ritenuta troppo centralizzata e “distante” (e di conseguenza con tempi di latenza troppo elevati rispetto a quelli richiesti allorquando in ballo ci sono i dati relativi, ad esempio, al traffico stradale ed il semaforo deve calcolare in frazioni di secondo, in base al numero di autovetture, bici e pedoni in procinto di attraversamento, come regolarlo nel modo più efficiente); le caratteristiche del fog computing sono dunque la bassa latenza, l’elevata distribuzione geografica, la connettività mobile (tramite punti di accesso Wi-Fi o reti LTE, ma in ogni caso con netta predominanza del wireless), la forte presenza di applicazioni in streaming o, ancora più probabile, in real time (come ben esemplificato dal caso del semaforo presentato poc’anzi).
Dal punto di vista fisico tutto ciò si traduce, come sempre, nella creazione di data center; come ricordato all’inizio la realizzazione di questi ultimi non è ancora stata avviata ma, considerando il requisito dell’elevata distribuzione geografica, verosimilmente essi saranno di dimensioni più contenute e più “agili”; in particolare le risorse di storage non saranno pensate per l’archiviazione di medio lungo periodo bensì per quella di breve e contraddistinte pertanto da alte prestazioni ed alti costi (non so quali soluzioni abbiano in mente quelli di Cisco, diciamo che trovo improbabile l’utilizzo di tape library!); i dati che necessitano di un più approfondito esame o semplicemente di una conservazione più lunga verranno invece avviati alla cloud dove, stipati assieme ai dati provenienti dalle altre fog geograficamente distribuite sulla superficie terrestre, andranno a creare la moltitudine di big data destinati ad un’analisi altrettanto “big” (big analytics).
Ciò che credo vada qui sottolineato è in primo luogo che il fog computing risponde all’esigenza, avvertita da più parti, di maggior “concretezza” e solidità rispetto al cloud computing (indicativo di questa tendenza, anche nel nome, il servizio Metal as a Service); in secondo luogo va rimarcato come i dati trattati dal nuovo modello proposto da Cisco, pur essendo provenienti dall’IoT, non sono per questo meno importanti e, soprattutto, sensibili rispetto a quelli che finiscono nella cloud per la conservazione di lungo periodo: infatti accanto ai dati relativi all’umidità relativa ed alla percentuale di polveri sottili nell’aria potrebbero pure figurare, man mano che l’e-health prenderà piede, quelli relativi al nostro livello di glucosio nel sangue trasmessi al nostro medico oppure quelli, più banali ma non meno invasivi, inviati dall’auto durante i nostri viaggi (georeferenziazione). La definizione di Internet delle cose è infatti per certi versi ingannevole; quest’ultima infatti non è solo smart city o smart grid o altri termini tanto accattivanti quanto vaghi; al contrario essa è, andando oltre agli slogan, composta di moltitudini di dati che riguardano le persone: finiscano essi nella nebbia o nella nuvola, vanno adeguatamente trattati.
Insomma, altro lavoro in vista non solo per i responsabili IT, per i sistemisti ed i data analyst ma anche per gli archivisti.

Per ulteriori materiali di approfondimento consiglio la lettura dello Storify appositamente realizzato.

%d blogger hanno fatto clic su Mi Piace per questo: