Posts Tagged ‘dropbox’

L’insostenibile leggerezza del cloud

ADrive

ADrive

Nel mio libro di cinque anni fa sul ruolo e sulle potenzialità del cloud computing in archivi e biblioteche, affrontavo gli impieghi di questo paradigma tecnologico – oggi conosciuto pure dai bambini – non solo nell’ambito di questi due istituti ma, in modo sperimentale (così come, piccolo inciso, sperimentale voleva essere il ricorso al self publishing…), pure nel contesto degli archivi digitali di persona.
In modo molto pratico e concreto, al fine di stabilire se gli spazi di memoria messi a disposizione sulla nuvola possedevano i requisiti previsti dalla teoria per essere riconosciuti o meno come archivi, descrivevo il funzionamento della versione free di tre servizi, vale a dire Memopal, ADrive e Dropbox (Google doveva ancora lanciare il suo Drive, giusto per capire quanto i tempi fossero pionieristici…).
L’e-mail arrivatami qualche giorno fa da ADrive, servizio che nel frattempo ho continuato seppur sporadicamente ad usare, e con la quale mi si avvisa che nell’ottica del continuo miglioramento e potenziamento del servizio la versione Basic a partire dall’1 gennaio 2016 scomparirà (proponendomi nel contempo di abbonarmi alla versione Premium a prezzo vantaggioso), mi ha spinto a controllare come sono messi i summenzionati servizi a distanza di un lustro (nota: per chi volesse rileggersi quanto scritto a suo tempo nel libro, di riferimento è il par. 3.4).

Diciamo innanzitutto, e non è poi una cosa così scontata considerata l’elevata mortalità delle aziende hi-tech, che tutti e tre i servizi sono vivi e vegeti, nel senso che non sono stati chiusi né oggetto di operazioni di merge & acquisition; anzi essi, in linea con il settore, godono di ottima salute ed in particolare Dropbox ne è uno dei leader indiscussi.
Ma veniamo al sodo! Memopal continua ad offrire, nella versione gratuita, 3 GB di spazio di memorizzazione sulla nuvola; pure a scorrere le specifiche di sicurezza non molto è cambiato: utilizzo dei protocolli HTTP / HTTPS ed SSL, RAID 5 e tecnologia MGFS (Memopal Geographical File Systems), scelta in capo all’utente dei file da caricare, possibilità di sincronizzazione multidevice (a prescindere dal sistema operativo), etc. La novità è data dalla posizione di “preminenza” data alle foto; così infatti recita il sito: “nella nostra web app tutte le foto sono organizzate in un album, indipendentemente dalla loro posizione nelle tue cartelle”.
Passiamo ora ad ADrive: come ampiamente ricordato, la versione Basic da 50 GB sta andando in pensione e le farà posto quella Premium da 100 GB (che però possono crescere fino a 20 TB ed oltre); l’interfaccia grafica è stata migliorata e sono state rilasciate app per dispositivi mobili iOS ed Android. Per il resto, oggi come cinque anni fa, si fa leva sulla possibilità di editare sulla nuvola (anche condividendo il lavoro) e di caricare file di grandi dimensioni (il limite è passato da 2 a 16 GB!).
Veniamo infine a Dropbox: lo spazio a disposizione nella versione gratuita di base è tuttora fermo a 2 GB, viene posta particolare enfasi sulle misure di sicurezza adottate (crittografia dei dati archiviati con AES a 256 bit e protezione di quelli in transito con tecnologia SSL/TLS, concepita per creare un tunnel sicuro protetto da crittografia AES a 128 bit o superiore) ma non si specifica la localizzazione dei data center nei quali materialmente finiscono i dati. A proposito di questi ultimi, anzi, si afferma esplicitamente che l’azienda si riserva di spedirli in qualsiasi parte del mondo ma nel rispetto, beninteso, della normativa cd. “Safe Harbour”. Da sottolineare che, diversamente a cinque anni fa, non ho trovato alcun riferimento al fatto che Dropbox si avvalga dei server di Amazon ma alcuni passaggi presenti nella pagina poc’anzi citata mi fanno ritenere che ora Dropbox tenga tutto presso di sé.
Da rimarcare invece come l’azienda californiana, in modo encomiabile, non solo abbia tenuto in vita app per sistemi operativi che contano quote di mercato oramai irrisorie (come Blackberry) ma ne abbia realizzato di ulteriori per Kindle Fire di Amazon (che, come noto monta una versione altamente customizzata di Android) e per il mondo Microsoft (Windows Phone e tablet con Windows). Per finire va sottolineato come pure Dropbox, un po’ come Memopal, abbia tentato di valorizzare le foto salvate al suo interno dai suoi utenti: nello specifico era stata lanciata, con una sorta di spin-off, l’app Carousel, la quale presentava in modo cronologico tutte le foto caricate. Purtroppo l’avventura non deve essere andata esattamente come sperato se, proprio pochi giorni fa, ne è stata annunciata la chiusura per il 31 marzo 2016.

Benché Dropbox si affretti a precisare che le foto non adranno perse ma semplicemente rientreranno all’interno dell’app “originaria”, la quale verrà nel frattempo potenziata con funzionalità ad hoc per le foto, è inutile dire che questa notizia, unita a quella di ADrive, non contribuisca a far sorgere la necessaria fiducia per i servizi di cloud storage. Se dal punto di vista tecnologico questi servizi paiono essere complssivamente affidabili (non si sono infatti sin qui verificate clamorose falle nella sicurezza come capitato in molti settori contigui), le perplessità permangono per ciò che concerne la “cornice legale” e la durata nel tempo del servizio: come si è visto esso è intimamente legato – com’è peraltro normale che sia, trattandosi di aziende private – a logiche di mercato e nel momento in cui la profittabilità viene meno oppure la versione gratuita diviene non più sostenibile (oppure ha semplicemente assolto alla sua funzione “promozionale” per attirare nuovi utenti), semplicemente la si chiude senza tanti giri di parole.
Tutti fattori che, facendo un’analisi costi/benefici, a mio avviso dovrebbero indurre una buona fetta degli utenti ad optare per soluzioni di personal cloud che, benché abbiano un costo, forniscono ben altre garanzie.

Quale futuro per gli archivi digitali fotografici

Screenshot di Carousel

Screenshot di Carousel

Gli utenti di Dropbox della prima ora ricorderanno come inizialmente questo servizio fosse usato essenzialmente a fini di “archiviazione documentaria” pura, nel senso che ci si caricava soprattutto file di testo; solo in un secondo momento, grosso modo in parallelo all’incremento delle velocità di upload e download dei nostri dispositivi mobili (cosa resa possibile tecnicamente grazie alla realizzazione delle reti 3G e 4G – a loro volta alla portata di tutti grazie ai piani flat – così come dalla sempre più capillare diffusione di hotspot wifi), si è passati a caricarvi massicciamente file di dimensione sensibilmente più pesanti, quali foto e brevi video.
Infatti Dropbox, ben consapevole dei trend in atto e delle crescenti esigenze dei propri utenti, ha ben pensato di assecondarli ampliando progressivamente la sua gamma di servizi e, con essi, il suo settore d’affari. In particolare l’azienda di San Francisco ha sviluppato le sue applicazioni lungo due direttrici: da un lato assicurando ai sempre più numerosi utilizzatori un minimo di produttività (del tipo creare e salvare direttamente sulla cloud di Dropbox file di testo in formato .txt), dall’altro scommettendo forte sulle fotografia (inserendo ad esempio la funzionalità di upload automatico per le foto scattate con un device mobile).
Con tale mossa Dropbox cercava evidentemente di giocare d’anticipo e di preservare l’importante margine di vantaggio acquisito sulle varie Apple, Microsoft e Google (il cui Drive, per rendere l’idea, è arrivato sul mercato nell’aprile 2012, vale a dire ben quattro anni dopo!).
E che il grosso della partita si giochi proprio sul fronte delle foto non deve sorprendere: anche a voler rifuggire dalla sociologia spiccia e dai facili slogan, è un dato di fatto (e ne ho già scritto) che nella nostra società l’immagine conti e che scattare foto o, al contrario, farsi immortalare in fotografie sia una delle azioni più comuni, più facili ed al contempo più appaganti per il nostro ego.

Non deve dunque sorprendere se anche gli ultimi, importanti, annunci in casa Dropbox abbiano a che vedere con il mondo delle immagini. L’azienda californiana ha infatti da un lato lanciato Carousel, una app del tutto nuova ma che, come si vedrà a breve, è intimamente collegata al classico servizio di storage, dall’altro ha acquisito Loom, azienda specializzata nel cloud storage di foto e video.
Come spiegato dai fondatori di Loom nel post sopra linkato, la loro soluzione per la gestione, organizzazione ed archiviazione andrà ad integrarsi proprio con Carousel che, a questo punto, è opportuno descrivere per sommi capi: in breve si tratta di un applicazione che organizza e dispone in ordine cronologico lungo una timeline (un po’ come fa ThisLife) tutte le foto presenti nel dispositivo in cui l’applicazione stessa viene installata, facendone nel contempo il back-up in automatico sui propri server.
In sostanza le nostre foto finiscono su Dropbox e Carousel diventa la via più agevole per visualizzarle e gestirle; a riguardo va precisato che di default le foto sono private ma in realtà ne viene fortemente incentivata la condivisione: sia che si tratti di inviare ad amici foto che ci appartengono o al contrario di aggiungere al nostro album foto arrivateci da un nostro amico, basta un semplice swipe verso l’alto o verso il basso!
Inoltre una volta che si condivide una foto con un amico si avvia in automatico una chat: anche in questo caso l’intento è chiaro, ovvero dare un’anima social, sull’esempio di Instagram o Snapchat, a quello che rischia altrimenti di restare uno sterile (leggasi: meno remunerativo) “contenitore”.

Ma le novità introdotte da Dropbox sono importanti soprattutto perché emblematiche di alcune dinamiche che, a mio parere, nei mesi e negli anni a venire si faranno sempre più nitide.
La prima, testimoniata appieno dall’acquisizione di Loom, è che i video rappresenteranno, nel prossimo futuro, l’oggetto della disfida.
La seconda, molto più interessante da analizzare anche perché dalle maggiori implicazioni “archivistiche”, è la progressiva divergenza (o, se si preferisce, specializzazione) che si sta verificando tra i vari servizi che consentono l’archiviazione di foto sulla cloud: se da una parte vi sono quelli dedicati ad un uso principalmente personale e dall’altra quelli con una vocazione più spiccatamente pubblica, nel mezzo vi stanno una molteplicità di servizi che, pur facendo altro, non disdegnano di sfruttare l’appeal delle foto.
Tra questi ultimi come non citare Twitter il quale, nato come servizio per l’invio di sms, ha poi virato verso il microblogging ed ha infine aperto alle foto, trovando nei celeberrimi selfie (vero e proprio simbolo di quel desiderio di apparire di cui parlavo sopra) uno dei suoi punti di forza?
Specializzato nei selfie è anche Instagram, applicazione che diversamente da Twitter ruota completamente attorno alle foto ed alla possibilità di ritoccarle applicandovi filtri (feature che ne ha decretato il successo planetario, n.d.r.) e che rappresenta il degno campione del primo gruppo. Va però osservato che in Instagram, diversamente dal neonato Carousel, la dimensione pubblica delle foto (“public by default) è spiccata e con essa, ovvia conseguenza, l’anima social (laddove in Carousel, come già sottolineato, la condivisione è più controllata e ristretta).

Ma al di là delle ovvie differenze è indiscutibile che tutti i servizi appena descritti sono accomunati dall’essere stati concepiti e realizzati per un uso personale (con terminologia archivistica potremmo categorizzarli come “archivi fotografici digitali di persona”), in contrasto cioè con l’altro gruppo di servizi cui si accennava sopra e che, peraltro a partire da basi simili, sta seguendo un percorso per certi versi opposto.
Il modello in questo caso è rappresentato da Flickr il quale, nato come servizio per pubblicare online le proprie foto, solo in un secondo momento (con un ritardo che peraltro si stava per rivelare fatale, n.d.r.) si è dotato di un’applicazione per dispositivi mobili; se questo passo si è reso necessario per reggere il passo della concorrenza e delle nuove modalità di scattare fotografie (operazione che avviene sempre meno con fotocamere professionali e sempre più con dispositivi quali smartphone, tablet od al più con macchine ibride come la Samsung Galaxy Camera), tamponando nel contempo la preoccupante emorragia di utenti, credo che l’aspetto più interessante della storia recente di Flickr stia non tanto nel suo strizzare l’occhio ai social network (come appare evidente non appena si apre la nuova release dell’applicazione per dispositivi mobili o dal profondo restyling di cui è stato oggetto il sito) bensì agli enormi passi fatti da iniziative quali The commons.
Avviata nel 2008 come collaborazione con la Library of Congress e successivamente aperta ad altre istituzioni, essa si prefigge di condividere ed incrementare l’accesso ai tesori nascosti provenienti dagli archivi fotografici pubblici nel mondo; l’elenco oramai è lungo e vede tra gli altri la partecipazione di numerosi archivi e biblioteche, pubblici e privati. Uno degli aspetti più interessanti del progetto è che di ciascun “fornitore” vengono forniti i relativi termini di utilizzo nei quali, come suggerito dal nome del progetto, predominano le licenze d’utilizzo di tipo Creative Commons e varianti: l’intento di favorire la conoscenza del patrimonio fotografico, ed eventualmente il suo riutilizzo e la rielaborazione, è evidente e con esso trova conferma la vocazione di Flickr a divenire “archivio fotografico pubblicamente accessibile”!
Certo, non sfugge come al CEO Marissa Mayer i conti importino eccome, e l’accordo stipulato con il celebre fornitore di stock e microstock Getty Image (sulla capacità di quest’ultima azienda di cavalcare lo tsunami della distribuzione online di foto, a suon di acquisizioni di prestigiosi archivi fotografici, tanto analogici quanto digitali e stravolgendo le tradizionali modalità di licensing, sarebbe da scrivere un altro post…) è lì a testimoniarlo, ma è inutile negare come Flickr si stia facendo carico di un ruolo e di una funzione tipicamente “pubblici”.

La cosa deve preoccuparci? Posto che la collaborazione tra pubblico e privato non deve essere demonizzata a priori, è inutile negare che tutto ciò che ruota attorno alle immagini susciti, per i motivi ampiamente esposti, gli appetiti delle varie aziende con tutto ciò che ne consegue.
Il problema, a mio avviso, è verificare la capacità che avranno i soggetti pubblici, inclusi gli archivi e le biblioteche, a mantenere la debita autonomia / indipendenza nei confronti degli attori privati nel momento in cui, dal punto di vista operativo, il fattore determinante sembra essere sempre più la “potenza di storage” che si è in grado di dispiegare (e la discesa nell’agone di Dropbox è in questo senso emblematica).
In quest’ultimo ambito, considerando il poco o nulla che viene fatto in quanto alla realizzazione di infrastrutture, non credo ci si debba creare grandi speranze. Del resto non molto meglio vanno le cose dal lato dei “contenuti”: da una parte infatti assistiamo alla “cessione del posseduto” (ovvero le collezioni e le raccolte fotografiche, digitali o digitalizzate), dall’altra i nuovi archivi si vanno formando direttamente sulle nuvole di proprietà delle medesime aziende alle quali “concediamo” le foto (a proposito, la nuova generazione di SD-Card ha il Wi-Fi integrato per effettuare immediatamente upload sulla nuvola).
Rebus sic stantibus crediamo davvero che gli archivi e le biblioteche possano recuperare posizioni?

iNotebook, a cavallo tra carta e digitale

Di norma quando pensiamo alla scrittura su tablet la nostra mente corre veloce al pennino con il quale “scriviamo”, a mano libera, direttamente sulla superficie della tavoletta.
Da Targus arriva in commercio l’iNotebook, un prodotto decisamente interessante che qui descrivo velocemente non perché io abbia chissà quali finalità promozionali ma molto più semplicemente perché esso rappresenta un interessante punto di congiunzione tra mondo analogico e digitale e potrebbe, se sviluppato nella giusta direzione, togliere alcuni grattacapi che assillano gli archivisti in questi ultimi tempi (ma facendogliene venire di nuovi!).
Ma come funziona l’iNotebook? Come si intuisce dal video postato qui sopra il funzionamento è alquanto semplice: mentre scriviamo sulla nostra agenda (di carta comune) con una speciale penna ad inchiostro con incorporato un sensore, una barra (la si vede chiaramente sul lato superiore) cattura i segnali provenienti via infrarossi dalla penna e li ritrasmette automaticamente via Bluetooth all’iPad. Il risultato è dunque stupefacente: nel momento stesso in cui scriviamo sull’agenda sullo schermo del nostro tablet compare, quasi per magia, il testo. Una volta finito di scrivere possiamo passare a lavorare direttamente sul tablet (la penna si trasforma in stilo), dove possiamo evidenziare il testo, sottolinearlo, impostare sfondi, etc. ed ovviamente inviare il tutto via posta elettronica oppure salvarlo sulla nuvola attraverso servizi quali l’immancabile Dropbox oppure AirPlay.
E se per caso non abbiamo il nostro iPad a portata di mano nessuna paura: il sensore posto sull’agenda può immagazzinare fino a 100 pagine, le quali saranno poi inviate al tablet alla prima sincronizzazione utile!
Un sistema siffatto presenta dunque degli innegabili vantaggi: in primo luogo si gode di tutta la libertà della scrittura a mano libera ma con il vantaggio di ritrovarsi tutto il lavoro pure in digitale e di poterlo qui proseguire e condurre a termine; in secondo luogo si aprono interessanti prospettive in fatto di firma grafometrica ed è su questo che voglio soffermarmi un istante.
Targus non dice se vengono memorizzate anche le caratteristiche biometriche della nostra scrittura (=> della nostra firma) quali ductus, pressione, inclinazione, etc. ma la sensazione netta è di no: l’iNotebook non è stato ideato per fungere da dispositivo di firma (se così fosse stato si sarebbe fatto ricorso ad una trasmissione da agenda a tablet crittografata e non sfruttando un “banale” segnale Bluetooth così come ci dovrebbe essere una banca dati per contenere in sicurezza tutti i dati biometrici).
Assodato dunque che iNotebook non è stato concepito per sottoscrivere digitalmente i documenti, va riconosciuto che un siffatto sistema, adeguatamente sviluppato, potrebbe presentare delle caratteristiche interessanti: se mai un giorno infatti sarà prevista la memorizzazione dei dati biometrici, nel momento in cui andremo a redigere, che so, un testamento olografo o una compravendita tra privati, ci troveremo in possesso dell’originale cartaceo e contemporaneamente del corrispettivo documento nativo digitale (nel senso che non è frutto di un’operazione di digitalizzazione e/o scannerizzazione) entrambi debitamente sottoscritti! Inutile dire che dal punto di vista conservativo il lavoro dell’archivista ne trarrebbe nel contempo giovamento così come vedrebbe insorgere nuove problematicità: giusto per sollevarne alcune, la presenza di un documento su carta e di uno sul tablet può indurci a parlare di originale in duplice copia? Quale dei due conserviamo come buono? L’analogico, il digitale od entrambi (con annessa duplicazione degli sforzi e dei costi ma pure con qualche certezza in più, stante le rodate metodologie di conservazione esistenti per i documenti cartacei a fronte dei mille dubbi che avvolgono la conservazione dei documenti digitali)?
Insomma, tanti pro ma anche tanti contro, non c’è che dire! Possiamo comunque stare tranquilli. Si tratta solo di ipotesi e, così com’è ora, l’iNotebook è un prodotto di nicchia: infatti, a prescindere dal fatto che ad oggi è pensato esclusivamente per l’iPad di Apple, ha anche un costo non indifferente sia di acquisizione (179,99 dollari) che di mantenimento (una penna nuova costa 49,99 dollari ed una ricarica 7,99; relativamente economica solo la carta, costando un’agenda originale 4,99 dollari…). Decisamente non per tutte le tasche!

Samsung Galaxy Camera ed i nuovi archivi fotografici

Samsung Galaxy Camera

Samsung Galaxy Camera

L’arrivo sugli scaffali dei principali negozi di informatica italiani della Samsung Galaxy Camera mi offre l’occasione per una veloce riflessione sullo stato degli archivi fotografici in questo cruciale momento di trapasso al digitale.
Prima però è opportuno presentare la nuova fotocamera digitale prodotta dallo chaebol sudcoreano dal momento che essa segna probabilmente un punto di rottura rispetto alle “macchinette fotografiche”, reflex o compatte che siano, sin qui realizzate. La Galaxy Camera infatti affianca ad un’ottica di tutto rispetto un altrettanto ricco lato software: attraverso lo schermo touch da 4,8 pollici è possibile interagire con il sistema operativo Android 4.1 Jelly Bean, ergo con tutte le applicazioni esistenti in questo ricchissimo ecosistema sia per il ritocco delle immagini stesse (cito qui il solo Instagram esclusivamente perché quello tra i più in voga del momento) sia per la loro immediata condivisione attraverso le proprie reti sociali. E quest’ultimo aspetto ci introduce alla vera novità della Galaxy Camera, vale a dire la presenza di connettività Wi-Fi e 3G la quale, si badi, ha un’utilità non solo, per così dire, “ludica” ma ne ha una molto più eminentemente pratica; a riprova del fatto che questa nuova fotocamera è fatta per restare sempre connessa (entrando a far parte a pieno titolo dell’Internet delle cose di cui tanto si parla), buona parte della memoria è allocata sulla cloud. A fronte di una memoria interna da 8 Giga (espandibile a 32 con scheda MicroSD / MicroSDHC) Samsung, che ha stretto un apposito accordo con Dropbox, ne mette a disposizione gratuitamente ben 50 sulla nuvola!
Il salto in avanti a mio modesto parere è netto e spiace che i puristi della fotografia abbiano perso di vista le novità di fondo fermandosi invece a rimarcare come, numeri alla mano, con i 549 euro necessari per aggiudicarsela si può comprare una reflex dalle caratteristiche tecniche (per quanto riguarda la sola ottica) decisamente superiori ed in definitiva bollando la Galaxy Camera come un costoso giocattolo che un “vero fotografo” mai si sognerebbe di usare.
Purtroppo mi pare che a costoro sfugga il non trascurabile dettaglio che oramai esiste un cospicuo numero di figure professionali (penso in special modo – ma non sono le uniche – a quelle legate al new journalism come blogger, live twitterer, storifyer senza dimenticare i più tradizionali giornalisti e fotoreporter free-lance!) che svolgono la loro attività attraverso l’uso di strumenti quali smartphone, tablet e per l’appunto foto/videocamere ai quali essi richiedono non tanto (o, per essere più precisi, non solo) le massime prestazioni possibili ma anche semplicità d’uso, affidabilità, poco ingombro… e naturalmente connettività.
Ma al di là dei risvolti di mercato la comparsa di device così concepiti ha naturalmente un impatto profondo sul modo in cui vengono a formarsi gli archivi fotografici digitali; cerchiamo di enucleare alcuni tra gli aspetti più rilevanti:
1) le foto digitali, prese come singularitas, divengono (paradossalmente) allo stesso tempo più instabili e “cangianti” rispetto alle parenti analogiche così come assai più “circostanziate” e ricche di informazioni. Alcuni semplici esempi presi dall’esperienza quotidiana rendono meglio l’uno e l’altro aspetto: mentre nel mondo analogico, trovandoci in presenza di un negativo e di un positivo fissati rispettivamente alla carta fotografica ed alla pellicola del rullino, le possibilità di “ritocchini” erano limitate ed opera perlopiù di esperti oggigiorno potenzialmente chiunque, attraverso appositi programmi (che partono dal livello amatoriale, dove consistono nell’applicazione di qualche filtro, ed arrivano ai programmi professionali per veri esperti), può alterarle. A fronte di questa possibilità praticamente universale di alterare la foto “originale”, si constata l’aumento della mole di dati che la corredano contribuendo a collocarla spazialmente e temporalmente: oramai di ogni foto scattata possiamo sapere in automatico non solo l’ora / data dello scatto e quale macchinetta abbiamo utilizzato ma persino il luogo in cui l’abbiamo fatta (georeferenziazione; per la Galaxy Camera tale dato verosimilmente deriva dall’incrocio dei segnali forniti dal Wi-Fi e dalla connessione cellualre) e chi abbiamo immortalato (in questo caso l’operazione di tagging avviene ancora in modo manuale). Insomma, una miniera di dati che, per inciso, qualora venissero resi anonimi e raggruppati in dataset e descritti con linguaggio RDF diventerebbero sicuramente utilissimi nell’ottica di un riuso all’insegna dei big (open) data! Del tutto opposta, ma purtroppo parimenti possibile, l’evenienza che di essi si faccia un uso “spavaldo” con palesi violazioni della privacy
2) l’instabilità è un tratto che caratterizza le fotografie digitali anche quando prese nel loro complesso, ossia nel loro essere “archivio”: questi ultimi infatti stanno seguendo, di supporto in supporto (CD-ROM, DVD, hard-disk, drive a stato solido, etc.), la stessa peregrinazione toccata in sorte a tutti gli altri tipi di file digitali ed ora stanno chiaramente prendendo la via della Nuvola, che come risaputo anche dal punto di vista tecnologico non è sicuramente infallibile (come provato, da ultimo, dall’uragano Sandy) né si può dire che una foto digitale sia molto più stabile delle ostiche pellicole in nitrato di cellulosa e meno bisognosa, negli anni, di pazienti cure! Insomma, la preservazione degli oggetti digitali e soprattutto la loro conservazione nel lungo periodo rimane un’incognita.
3) non lascia trascorrere sonni tranquilli neppure l’altro grande punto debole del modello cloud, ovvero quello attinente alla sfera legale e a quello, accennato poco sopra, della tutela della privacy; anzi, considerando l’elevata (ed immediata) sfruttabilità delle immagini, i rischi paiono essere persino superiori rispetto a quelli incombenti su altre tipologie di oggetti digitali! Instagram ad esempio, è notizia di questi giorni, dopo essere stata acquistata a suon di miliardi da Facebook ha annunciato la modifica unilaterale dei Termini di Servizio facendo paventare la possibilità di vendere a terzi le foto presenti nella piattaforma (peraltro senza assicurare alcun “ristoro” a chi quella foto l’ha caricata!) inclusa la possibilità di usarle all’interno di campagne pubblicitarie. Come prevedibile la notizia ha scatenato un putiferio tra gli utenti di Instagram, molti dei quali hanno annunciato di passare ad altri servizi come Flickr (qui in molti casi si tratterebbe di un ritorno…), Photobucket, Pinterest, Snapchat ed altri. Tra gli scontenti, a testimonianza dell’importanza che assumono questi archivi fotografici, pure National Geographic (la qualità dei cui reportage fotografici è universalmente riconosciuta), che conta sul network la bellezza di 660mila follower. Ovviamente Instagram è corsa ai ripari, ritrattando su tutta la linea ma oramai il danno era fatto, tanto più che molti utenti erano già indispettiti dalla cessazione del supporto a Twitter (fatto che risale invece alla settimana scorsa…). Insomma, la posta in palio attorno agli archivi fotografici del futuro prossimo venturo è elevata, come comprovato dal fatto che Twitter stesso ha reagito alla mossa di Instagram avviando il proprio servizio di hosting fotografico, dopo essersi appoggiato a lungo al citato Photobucket; se aggiungiamo che pure Flickr ha (ri)lanciato il guanto di sfida, mettendo a disposizione degli utenti (contestualmente al rilascio della sua nuova applicazione mobile) vari tool per ritoccare / modificare le foto, appare manifesto come sia in corso un autentico big game e spiace che anche in questo caso non esistano alternative pubbliche (o, perlomeno, frutto della collaborazione pubblico – privato) per chi vuole archiviare in modo sicuro le proprie foto.
Pare dunque, per concludere, segnato il destino degli archivi fotografici digitali: complice la proliferazione sul mercato di dispositivi connessi alla Rete capaci di scattare immagini (con la Galaxy Camera a rappresentare il punto più alto di questa “evoluzione”) e la presenza di operatori valutati milioni di dollari che realizzano applicazioni sulla nuvola per utenti sempre connessi e per organizzazioni che parimenti orientano sempre più il loro marketing (e talvolta il loro intero business) sulle nuove tecnologie, la loro destinazione finale è l’impalpabile cloud. Con tutto ciò che ne consegue, nel bene e nel male.

Facebook si candida a diventare l’archivio per eccellenza delle nostre esistenze digitali

Outside Facebook Data Center di IntelFreePress, su Flickr

Outside Facebook Data Center di IntelFreePress, su Flickr

La notizia non ha ricevuto la giusta attenzione da parte dei media ma è in verità indicativa della direzione verso cui sta andando il social network per antonomasia: il gigante (almeno in termini di utenti) di Menlo Park ha infatti annunciato pochi giorni orsono il lancio del nuovo servizio Photo Sync per tutti coloro che vi accedono attraverso device mobili. In estrema sintesi Facebook d’ora innanzi permetterà agli utenti di caricare sui server aziendali non solo quelle foto che si intende pubblicare e condividere con i propri amici ma anche quelle foto scattate ma che, al contrario, non si pensa di pubblicare o almeno di farlo, eventualmente, in una fase successiva; in altri termini con Photo Sync FB si trasforma lentamente ma inesorabilmente in un cyberlocker, vale a dire un armadietto nella nuvola, nel quale riporre tutti i contenuti digitali da noi prodotti o comunque detenuti e non più solo un luogo di condivisione con gli amici.
Se per ora l’upload (intelligente peraltro: l’applicazione caricherà le foto di dimensioni maggiori solo quando connessi ad una Rete WiFi ed eviterà al contrario di farlo quando si è connessi tramite la rete 3G o 4G – a pagamento – così come quando il livello della batteria tende al rosso!) riguarda solo foto ed è limitato a 2 GB, è altamente probabile che nel prossimo futuro lo spazio di archiviazione a disposizione sulla cloud sarà espandibile e riguarderà tutte le tipologie di materiali: audio, video, documenti di testo e via dicendo.
Del resto che questa fosse la direzione lo si era già intuito a settembre quando Facebook aveva stipulato un accordo con Dropbox, colosso dell’archiviazione online di file personali, che prevedeva l’integrazione spinta (in termini di facilità di condivisione ed aggiornamento automatico) tra quanto caricato sui server di Dropbox e quanto condiviso sui propri gruppi Facebook. Ora Facebook porta in house anche i contenuti non pubblicati ed il perché è presto detto: secondo Techcrunch gli ingegneri Zuckerberg sono al lavoro per scrivere algoritmi capaci di estrarre dalla mole di foto detenute (ricordo che nel momento in cui si caricano foto Facebook ne diventa automaticamente proprietario) informazioni in qualche modo monetizzabili (se in una foto indosso una t-shirt Abercrombie la concorrenza potrebbe essere interessata, con inserzioni pubblicitarie mirate, a farmi preferire i loro prodotti…).
Insomma, ritorna prepotente il mai risolto problema della difficile coesistenza tra sostenibilità del business da una parte e rispetto della privacy / dei dati personali dall’altra: personalmente ho sempre sostenuto la necessità che i cittadini digitali, così come nella realtà, si costruiscano le proprie “nuvole personali” (personal cloud) sulle quali essi hanno controllo pressoché totale. Purtroppo tutto ciò ha un costo e c’è da scommettere che il richiamo del “tutto gratis” farà cadere qualsiasi remora o considerazione contraria…

La settimana prossima arriva Drive, il servizio di cloud storage di Google. Cosa cambia per gli archivi

Cloud storage: a confused but evolving market

Cloud storage: a confused but evolving market di joe.ross, su Flickr

Di Google Drive, servizio di cloud storage del gigante di Mountain View, si parla da tempo ma questa sembrerebbe essere davvero la volta buona. I principali blog tecnologici hanno infatti diffuso la notizia che la settimana prossima è previsto il lancio del nuovo servizio; John Biggs di Techcrunch è stato pure in grado di fornire la prova dell’esistenza (si veda l’articolo su Techcrunch) avendone persino scaricato l’app! Biggs non è riuscito ad entrare nel nuovo servizio, in quanto esso risulta “essere ancora non abilitato per la sua utenza” (ovvio dal momento che ufficialmente il servizio nemmeno esiste), ma ha potuto scoprire che offre il supporto nativo per quei tipi di file creati con strumenti come Google Docs e GDraw. Per il resto le indiscrezioni trapelate indicano che Google, che da tempo sta lavorando a questo dossier, adotterà una politica aggressiva del mercato: è infatti ormai opinione comunemente accettata che saranno ben 5 i Giga di memoria gratuitamente messi a disposizione (ovvero più del doppio rispetto a Dropbox, principale rivale) e verosimilmente saranno immediatamente disponibili le relative app per Android ed iOS, a testimonianza dell’importanza cruciale assunta dalla dimensione mobile (comprovata dagli accordi stipulati dalla citata Dropbox con HTC per l’One X e Samsung per il Galaxy Tab).
Personalmente della notizia, in sé scontata, trovo interessanti le implicazioni industriali e quelle archivistiche: delle prime basti qui dire che è in atto quello che Chris Velazco, sempre di Techcrunch, definisce cloud storage clash e che vede in campo, oltre alle due aziende già ricordate, pesi massimi del calibro di Microsoft (con Skydrive), Amazon (con Cloud Drive) ed Apple (con iCloud). La domanda a questo punto è: c’è spazio per tutti sul mercato? La natura affermativa o negativa della risposta dipende anche dai prezzi che Google farà per i servizi pay (purtroppo, lo dico per inciso anche se la questione meriterebbe più spazio, quando si valuta un servizio di cloud storage quello dei soldi è il principale parametro osservato, mentre scivolano in secondo piano aspetti quali garanzie legali e bontà delle soluzioni tecnologiche adottate): se, come credo, questi saranno altamente competitivi è probabile che non tutti ci staranno più dentro con i costi e dunque potrebbe profilarsi qualche operazione di M&A. Di sicuro il settore è ritenuto profittevole, se si considera che ad ottobre 2011 Dropbox, azienda contestualmente valutata in 4 miliardi di dollari, non ha avuto alcun problema a portare a termine un round di finanziamenti da 250 milioni di dollari.
Non meno interessanti le ripercussioni “archivistiche”, le quali sono a mio avviso essenzialmente di due ordini: 1) il primo riguarda nello specifico Google, 2) il secondo è di respiro più generale. Procediamo con ordine.
1) Come noto numerosi servizi di Google (GMail e Google Docs su tutti) sono largamente usati da molte Pubbliche Amministrazioni; ora che arriva Google Drive vien quasi automatico pensare che molti dei dati e documenti prodotti da queste ultime saliranno sulla nuvola e di qui prenderanno… vie ignote! Il problema, insomma, è il solito: a meno che Google non abbia ampliato o costruito ex novo i suoi data center europei (due nei Paesi Bassi ed uno in Belgio) questi dati e documenti prendono la via degli Stati Uniti violando pertanto le leggi UE sul trasferimento dei dati (sorvoliamo qui su quelle dei singoli Stati!). In altri termini l’utilizzo di Google Drive da parte di questi soggetti pubblici non sarebbe attualmente possibile, motivo per cui vedo aprirsi quattro possibili strade: a) l’azione di lobby dei vari colossi hi-tech ottiene dagli euroburocrati una deroga al trasferimento dei dati sulla nuvola qualora vengano rispettati alcuni paletti fissati su misura b) Google (& soci) si adattano e realizzano / ampliano data center nel Vecchio Continente (non sarebbe male, giacché si creerebbero nuovi posti di lavoro qualificati) c) noi europei rinunciamo ai vantaggi della nuvola made in Mountain View oppure al contrario d) ci sobbarchiamo, magari in maniera collettiva, degli oneri di realizzazione di queste strutture strategiche.
2) La questione di carattere generale è la seguente: la discesa in campo di Google in termini di teoria economica (rudimentale) è da accogliere con favore in quanto amplia la concorrenza ed a beneficiarne dovrebbe essere il consumatore / utente finale. Dal punto di vista pratico però non vorrei che si rafforzasse quella frammentazione degli archivi, specie quelli di persona, di cui ho ripetutamente parlato: giusto per fare un esempio “mirato” se possiedo casualmente uno smartphone HTC, un tablet Kindle Fire ed un normale PC con connessione ad Internet ed account Google il risultato sarebbe che le foto ed i video realizzati con il telefonino intelligente finiscono sulla nuvola di Dropbox, i miei e-book ed i miei film su quella di Amazon ed infine i miei documenti su quella di Google! Una vera e propria diaspora!
Si ha pertanto la riprova che la nuvola, sia essa di “proprietà” del singolo cittadino o (a maggior ragione) di un ente pubblico con migliaia di Giga caricati, per apportare reali vantaggi va gestita con attenzione e che tale attività di gestione può essere facilitata da una parte attraverso l’uso consapevole della nuvola (ad esempio imponendosi una sorta di codice di comportamento per cui i vari documenti e contenuti non vanno uploadati a casaccio) dall’altra ricorrendo a quegli strumenti di metacloud descritti in un precedente post.
Questi ultimi servizi, in quanto capaci di garantire l’indispensabile integrazione e coerenza, saranno, ne sono convinto, il prossimo oggetto del contendere dei colossi tecnologici.

Fenomeno cyberlocker, alcune considerazioni

ReacTable no FILE 2007

ReacTable no FILE 2007 di Rodrigo_Terra, su Flickr

Il recente caso di cronaca giudiziaria che ha riguardato la “galassia Megaupload” ha portato alla ribalta il fenomeno, forse a molti sconosciuto ma in realtà assai diffuso, del cyberlocking. Dal momento che la vicenda nel suo complesso induce ad alcune riflessioni che a mio vedere sono, per così dire, di “pertinenza archivistica”, vediamo un po’ in cosa consiste questo “cyberlocking” e perché Megaupload è stato chiuso.
In estrema sintesi si tratta di servizi (Megaupload non è che uno, e forse nemmeno il più famoso; altri sono RapidShare, HotFile, FilesTube, DepositFile) che mettono a disposizione dell’utente uno spazio di archiviazione in genere di considerevoli dimensioni al quale si può accedere, in linea con il paradigma proprio del cloud computing, a partire da qualsiasi dispositivo. Fin qui si potrebbe pensare che i cyberlocker siano del tutto assimilabili a quei siti di online storage (come Dropbox, aDrive, etc.) dei quali ho più volte parlato; in realtà essi si differenziano perché la dimensione di sharing prevale nettamente su quella di archiviazione: infatti ogni file uploadato può diventare accessibile tecnicamente a chiunque, basta rendere pubblico il relativo URL, ed i gestori hanno tutto l’interesse ad aumentare il traffico chiudendo un occhio (e pure l’altro!) qualora in presenza di quel materiale “piratato” che ovviamente risulta maggiormente appetibile. Non a caso l’FBI, tra le motivazioni addotte per giustificare la chiusura di Megaupload, l’arresto dei suoi amministratori ed il sequestro dei loro beni, ha espressamente chiarito come il “sistema” non fosse congeniato per l’archiviazione personale e/o di medio – lungo periodo al punto che i file poco “attivi” (= quelli che non venivano scaricati un sufficiente numero di volte) venivano sistematicamente cancellati. Al contrario, sempre stando all’FBI, gli amministratori del sito non erano così solerti nel cancellare quei file, guarda caso quelli maggiormente scaricati, lesivi di diritti intellettuali e di proprietà (film, ebook, software, etc.). E per quella quota minoritaria di utenti (alcuni anche premium, ovvero a pagamento) che usavano legalmente Megaupload oltre al danno di trovarsi da un giorno all’altro impossibilitati di accedere ai propri dati ora si profila anche la beffa: essendo tutti i beni di Megaupload sequestrati, la società non è in grado di pagare quelle aziende subappaltatrici fornitrici dell’indispensabile spazio di hosting, come Cogent Communications e Carpathia Hosting. Morale della favola: se entro giovedì non vedranno saldate le “bollette”, queste ultime procederanno con l’eliminazione definitiva dei dati detenuti per conto di Megaupload (in questo senso mi permetto di dire che l’operazione dell’FBI avrebbe potuto essere più selettiva, colpendo coloro che oggettivamente hanno infranto la legge e tutelando invece gli utilizzatori onesti).
Alla luce di tutto ciò la vicenda assume un valore emblematico di quel che è attualmente l’ “archiviazione” sulla nuvola: una scelta talvolta obbligata (si pensi a tutti coloro che lavorano a distanza e su moli di dati cospicue) ma ancora rischiosa, non tanto per la scarsa affidabilità tecnologica (non che l’evenienza di un crash dei server sia scongiurata, si badi) ma soprattutto per la pratica diffusa del subappalto a terzi dei “concreti” servizi di hosting, il che finisce per trasformare il sistema in un complesso “gioco” di scatole cinesi, in cui più che l’opportuna localizzazione geografica delle server farm conta la legislazione più favorevole ed il regime fiscale vigente (da quel che ho potuto ricostruire – in Rete ho letto differenti versioni – Megaupload era una società gestita da cittadini olandesi e tedeschi con sede legale in Nuova Zelanda e server ad Hong Kong).
Per concludere, una storia che mette in luce una volta di più come gli archivi di persona siano tra quelli più a rischio nell’era digitale e come si renda necessario “instillare” nei singoli cittadini / utenti una particolare sensibilità per la “sopravvivenza” dei propri dati e documenti, cosa che a mio avviso (nell’attesa che gli archivi “pubblici” – non oso dire di Stato – fiutino l’affare e si riposizionino sul settore) al momento può avvenire solamente attraverso la moltiplicazione delle copie, in locale e sulla nuvola. In quest’ultimo caso ovviamente discriminando tra provider buoni e cattivi!

%d blogger hanno fatto clic su Mi Piace per questo: