Posts Tagged ‘personal cloud’

L’insostenibile leggerezza del cloud

ADrive

ADrive

Nel mio libro di cinque anni fa sul ruolo e sulle potenzialità del cloud computing in archivi e biblioteche, affrontavo gli impieghi di questo paradigma tecnologico – oggi conosciuto pure dai bambini – non solo nell’ambito di questi due istituti ma, in modo sperimentale (così come, piccolo inciso, sperimentale voleva essere il ricorso al self publishing…), pure nel contesto degli archivi digitali di persona.
In modo molto pratico e concreto, al fine di stabilire se gli spazi di memoria messi a disposizione sulla nuvola possedevano i requisiti previsti dalla teoria per essere riconosciuti o meno come archivi, descrivevo il funzionamento della versione free di tre servizi, vale a dire Memopal, ADrive e Dropbox (Google doveva ancora lanciare il suo Drive, giusto per capire quanto i tempi fossero pionieristici…).
L’e-mail arrivatami qualche giorno fa da ADrive, servizio che nel frattempo ho continuato seppur sporadicamente ad usare, e con la quale mi si avvisa che nell’ottica del continuo miglioramento e potenziamento del servizio la versione Basic a partire dall’1 gennaio 2016 scomparirà (proponendomi nel contempo di abbonarmi alla versione Premium a prezzo vantaggioso), mi ha spinto a controllare come sono messi i summenzionati servizi a distanza di un lustro (nota: per chi volesse rileggersi quanto scritto a suo tempo nel libro, di riferimento è il par. 3.4).

Diciamo innanzitutto, e non è poi una cosa così scontata considerata l’elevata mortalità delle aziende hi-tech, che tutti e tre i servizi sono vivi e vegeti, nel senso che non sono stati chiusi né oggetto di operazioni di merge & acquisition; anzi essi, in linea con il settore, godono di ottima salute ed in particolare Dropbox ne è uno dei leader indiscussi.
Ma veniamo al sodo! Memopal continua ad offrire, nella versione gratuita, 3 GB di spazio di memorizzazione sulla nuvola; pure a scorrere le specifiche di sicurezza non molto è cambiato: utilizzo dei protocolli HTTP / HTTPS ed SSL, RAID 5 e tecnologia MGFS (Memopal Geographical File Systems), scelta in capo all’utente dei file da caricare, possibilità di sincronizzazione multidevice (a prescindere dal sistema operativo), etc. La novità è data dalla posizione di “preminenza” data alle foto; così infatti recita il sito: “nella nostra web app tutte le foto sono organizzate in un album, indipendentemente dalla loro posizione nelle tue cartelle”.
Passiamo ora ad ADrive: come ampiamente ricordato, la versione Basic da 50 GB sta andando in pensione e le farà posto quella Premium da 100 GB (che però possono crescere fino a 20 TB ed oltre); l’interfaccia grafica è stata migliorata e sono state rilasciate app per dispositivi mobili iOS ed Android. Per il resto, oggi come cinque anni fa, si fa leva sulla possibilità di editare sulla nuvola (anche condividendo il lavoro) e di caricare file di grandi dimensioni (il limite è passato da 2 a 16 GB!).
Veniamo infine a Dropbox: lo spazio a disposizione nella versione gratuita di base è tuttora fermo a 2 GB, viene posta particolare enfasi sulle misure di sicurezza adottate (crittografia dei dati archiviati con AES a 256 bit e protezione di quelli in transito con tecnologia SSL/TLS, concepita per creare un tunnel sicuro protetto da crittografia AES a 128 bit o superiore) ma non si specifica la localizzazione dei data center nei quali materialmente finiscono i dati. A proposito di questi ultimi, anzi, si afferma esplicitamente che l’azienda si riserva di spedirli in qualsiasi parte del mondo ma nel rispetto, beninteso, della normativa cd. “Safe Harbour”. Da sottolineare che, diversamente a cinque anni fa, non ho trovato alcun riferimento al fatto che Dropbox si avvalga dei server di Amazon ma alcuni passaggi presenti nella pagina poc’anzi citata mi fanno ritenere che ora Dropbox tenga tutto presso di sé.
Da rimarcare invece come l’azienda californiana, in modo encomiabile, non solo abbia tenuto in vita app per sistemi operativi che contano quote di mercato oramai irrisorie (come Blackberry) ma ne abbia realizzato di ulteriori per Kindle Fire di Amazon (che, come noto monta una versione altamente customizzata di Android) e per il mondo Microsoft (Windows Phone e tablet con Windows). Per finire va sottolineato come pure Dropbox, un po’ come Memopal, abbia tentato di valorizzare le foto salvate al suo interno dai suoi utenti: nello specifico era stata lanciata, con una sorta di spin-off, l’app Carousel, la quale presentava in modo cronologico tutte le foto caricate. Purtroppo l’avventura non deve essere andata esattamente come sperato se, proprio pochi giorni fa, ne è stata annunciata la chiusura per il 31 marzo 2016.

Benché Dropbox si affretti a precisare che le foto non adranno perse ma semplicemente rientreranno all’interno dell’app “originaria”, la quale verrà nel frattempo potenziata con funzionalità ad hoc per le foto, è inutile dire che questa notizia, unita a quella di ADrive, non contribuisca a far sorgere la necessaria fiducia per i servizi di cloud storage. Se dal punto di vista tecnologico questi servizi paiono essere complssivamente affidabili (non si sono infatti sin qui verificate clamorose falle nella sicurezza come capitato in molti settori contigui), le perplessità permangono per ciò che concerne la “cornice legale” e la durata nel tempo del servizio: come si è visto esso è intimamente legato – com’è peraltro normale che sia, trattandosi di aziende private – a logiche di mercato e nel momento in cui la profittabilità viene meno oppure la versione gratuita diviene non più sostenibile (oppure ha semplicemente assolto alla sua funzione “promozionale” per attirare nuovi utenti), semplicemente la si chiude senza tanti giri di parole.
Tutti fattori che, facendo un’analisi costi/benefici, a mio avviso dovrebbero indurre una buona fetta degli utenti ad optare per soluzioni di personal cloud che, benché abbiano un costo, forniscono ben altre garanzie.

E’ online My personal cloud

My personal cloud (website screenshot)

My personal cloud (website screenshot)

Piccola comunicazione di servizio. E’ online My personal cloud, un progetto parallelo a questo sito. Di cosa si tratta?
L’idea che ne sta alla base è molto semplice: verificare, sperimentandole in prima persona, le principali problematiche che mettono a dura prova la tenuta degli archivi (e delle biblioteche) digitali di persona all’epoca del cloud computing e dell’Internet delle cose (IoT) con l’obiettivo, forse eccessivamente ambizioso, di suggerire soluzioni e best practice a tutti coloro che hanno a cuore la sopravvivenza, nel tempo, delle “risorse digitali” che vanno producendo ed accumulando giorno dopo giorno.
Il tutto, a dispetto del fatto che l’argomento sia piuttosto tecnico e specialistico, attraverso un linguaggio semplice e comprensibile ad un pubblico il più vasto possibile.

Archiviazione digitale: la soluzione è il peer to peer?

Il modello di cloud p2p di Space Monkey

Il modello di cloud p2p di Space Monkey (fonte: http://www.spacemonkey.com/press)

Il cloud computing è stato un modello tecnologico che sin dal suo apparire ha fortemente diviso la comunità degli informatici e dei CIO tra fautori ed oppositori. A fronte degli evidenti (?) vantaggi di natura economica e di disponibilità H24 dei propri dati / documenti, si è sempre sottolineato come si perdesse il controllo diretto sugli stessi; forti dubbi inoltre venivano (vengono) sollevati in ordine alla tutela della privacy anche se, puntualizzavano i favorevoli, ciò appariva come un qualcosa di accettabile in ragione della sicurezza complessiva garantita dalle strutture (quegli enormi data center che Google, Facebook, Amazon, Apple, etc. vanno costruendo per mezzo mondo) che li ospitavano.
L’uragano Sandy ha però fatto in parte crollare queste certezze; ciò, unitamente a motivazioni di ordine economico (molti servizi non sono poi così convenienti come vorrebbero far credere…) ed ideologico (la ricerca di soluzioni di archiviazione green meno energivore rispetto ai data center, il ritorno ad un computing decentrato) ha indotto a sviluppare soluzioni alternative, soprattutto di personal digital archiving (dal momento che chi ha capacità e disponibilità economiche si costruisce la sua bella private cloud!), che salvassero i vantaggi minimizzando gli svantaggi.
Le linee ad oggi seguite sono state essenzialmente due: la prima è stata quelle di realizzare una cloud domestica (altresì detta personal cloud) con tanto di mini server, gruppi di continuità in grado di salvaguardare dagli sbalzi di corrente e garantire un minimo di autonomia in caso di interruzione nell’erogazione di energia elettrica, etc.; la seconda strada è stata quella di realizzare una rete interconnessa di sistemi di storage di piccole dimensioni. E’ di quest’ultima che mi occupo in questo post.
Spieghiamo innanzitutto in che cosa consiste una “nuvola” P2P? In estrema sintesi si tratta di un sistema che permette la condivisione di risorse di storage connesse alla rete; in pratica ciascun appartenente al network mette a disposizione una porzione del proprio spazio di archiviazione ottenendone a sua volta in cambio dell’altro da parte degli altri aderenti alla rete: un apposito software provvede ad effettuare in automatico una copia (spacchettata e criptata) dei nostri dati / documenti inviandola a kilometri di distanza e garantendone in tal modo la sopravvivenza in caso di rotture del dispositivo di storage, di calamità naturali, etc.
Un esempio concreto è Space Monkey: per 10 dollari al mese questa azienda fornisce ai suoi utenti un dispositivo ad hoc da 3 terabyte di memoria (uno disponibile, i rimanenti due destinati ad ospitare file altrui) che promette di essere più veloce nelle operazioni di upload/download nonché energeticamente più efficiente; la “sopravvivenza” dei propri dati è garantita, come anzidetto, dal fatto che essi vengono replicati in molteplici dispositivi di storage ma anche dall’ulteriore copia che viene fatta nel data center gestito, quale ulteriore precauzione, da Space Monkey stessa. Un sistema siffatto, questa è l’idea, dovrebbe risentire assai meno di eventuali outage (qualunque ne sia la causa) e garantire pertanto l’accesso ai propri dati o perlomeno ad una buona parte di essi.
Personalmente ritengo che questa soluzione, almeno dal punto di vista archivistico, non risolva granché i problemi di personal archiving dal momento che la questione della sicurezza e della eventuale sottrazione di dati / documenti resta sul tappeto. Come non pensare, giusto per fare un banale esempio, che un eventuale malintenzionato si abboni al servizio e tenti, dall’interno, di violarne le difese? In questo senso un tradizionale data center concepito a mo’ di fortino mi sembra molto più rassicurante! Considerando poi che un sistema siffatto non ha pretese di garantire autenticità, affidabilità, integrità, etc. né tantomeno la conservazione nel medio – lungo periodo si deduce che esso non soddisfa i requisiti per fungere da valido sistema di archiviazione digitale (al massimo può essere uno dei tanti modi per diversificare il rischio, così come suggerito dagli esperti del National Digital Information Infrastructure and Preservation Program).
Paradossalmente però un modello distribuito strutturato sulla falsa riga di Space Monkey potrebbe rivelarsi felicemente applicabile ad archivi “istituzionali” massimamente in paesi territorialmente poco estesi come l’Italia: posto che, in attesa dell’entrata in vigore del “Regolamento generale sulla protezione dei dati” (redatto a livello europeo), il trasferimento degli stessi all’estero presenta non poche controindicazioni, bisogna prendere atto che per il momento le soluzioni non possono che essere nazionali; a sua volta ciò deve portare a riconoscere che, ai fini del disaster recovery, è impresa improba (in special modo una volta eliminate le numerose zone a rischio sismico, idrogeologico, etc.) riuscire ad impiantare nello Stivale due data center che si trovino ad una distanza di sicurezza soddisfacente l’uno dall’altro!
Giusto per fare un esempio concreto PARER, il principale Polo italiano per la conservazione digitale, ha due data center rispettivamente nelle province di Bologna e Milano più un sito di back-up offline in quella di Roma. Specie nel primo caso le distanze non mi sembrano sufficientemente rassicuranti (tra Bologna e Milano ci sono appena 200 km mentre tra Bologna e Roma 300 e tra Milano e Roma 480; qui uno strumento per farvi i vostri calcoli!): d’accordo, eventi come il citato Sandy sono improbabili in Italia, ma considerando la tropicalizzazione cui a detta di molti esperti va incontro il bacino del Mediterraneo ed alla luce dei frequenti eventi estremi dei quali siamo testimoni, un po’ di preoccupazione ce l’avrei!
In altri termini sarebbe il caso di valutare se un sistema distribuito che preveda la realizzazione di un unico data center in una zona scelta con tutti i crismi del caso affiancato da una cospicua quantità di “punti di storage” (una per provincia?) nei quali replicare più e più volte i dati sia più confacente al caso italiano. Caso italiano, ricordo, caratterizzato tradizionalmente da un policentrismo spinto e da più centri di produzione e sedimentazione documentaria. Motivo ulteriore per verificare la fattibilità della soluzione.

Tra metacloud e personal cloud passa il destino degli archivi di persona digitali?

Zero PC Cloud - Storage Analyzer

Zero PC Cloud – Storage Analyzer

Di metacloud me ne sono già occupato in questo blog ed in particolare con l’occasione avevo descritto il funzionamento di Zero PC; ritorno oggi sull’argomento non solo perché di recente quest’azienda ha rilasciato la nuova versione del suo servizio web-based (rammento che non ho alcun tornaconto a spingere per questo o quel servizio) ma soprattutto perché le linee di sviluppo seguite sembrano paradossalmente confermare le altrettanto recenti previsioni di Gartner circa l’inarrestabile ascesa dello storage sulla nuvola in special modo da parte di privati.
Quali sono dunque, per iniziare, le novità introdotte da Zero PC? Oltre ad una grafica più pulita ed intuitiva, la nuova release si caratterizza innanzitutto per l’accresciuto numero di servizi terzi che si possono gestire: in particolare ci sono, eccezion fatta per iCloud, tutti i principali provider di cloud storage come Box, Dropbox, Drive, Skydrive, etc. al punto che solo ad essere membri free di questi servizi si raggiunge il ragguardevole valore di 40 GB di spazio disponibile (per vedere in dettaglio quanto ce ne rimane di residuo sui vari servizi c’è l’utilissimo Storage Analyzer all’interno del Cloud Dashboard). Ma Zero PC non è mero un gestore di spazi di “archiviazione” e di backup, anzi la nuova versione dimostra appieno la volontà di andare oltre a questo ruolo: a fianco dell’Universal Inbox (che gestisce tutta la messaggistica, quindi non solo email ma anche tweet), hanno fatto la loro comparsa il browser di navigazione interno, il player in HTML 5 e soprattutto la suite di produttività online ThinkFree che permette di creare documenti in formato .doc, fogli di calcolo Excel e presentazioni in Power Point.
Ne risulta, per l’utente, la sensazione di trovarsi in un unico spazio di lavoro e di archiviazione, connotato da condivisione spinta ed elevata versatilità.
E qui il ragionamento si salda con le previsioni di Gartner (spesso tutt’altro che infallibili ma che nello specifico caso ritengo verosimili) alle quali avevo fatto cenno all’inizio: secondo questa importante società di analisi e di ricerca nel 2016 gli utenti / consumatori caricheranno nella nuvola circa il 36% dei propri contenuti digitali (essenzialmente foto e video; a far da volano al fenomeno è infatti la diffusione di device, come i tablet e gli smartphone, con foto/videocamera integrata) mentre la percentuale di contenuti archiviati on premise scenderà dall’attuale 93 al 64%. Anche quando effettuata in locale non si tratterà più comunque di un’archiviazione “statica”: soluzioni di personal cloud capaci di integrarsi in primo luogo con la propria rete domestica ed in seconda battuta con quelle di altri utenti diventeranno la norma.
Questo mix di storage remoto e locale sarà inevitabile anche in vista della crescita esponenziale dei dati posseduti: sempre secondo Gartner ciascun nucleo familiare passerà dagli attuali 464 GB ai 3,3 TB del 2016. L’uso massiccio e quotidiano che verrà fatto delle diverse tipologie di storage condurrà alla loro trasformazione in commodity: per l’utente finale, in poche parole, un servizio varrà l’altro il che non è esattamente il massimo del desiderabile per le aziende che vi basano il proprio business (di qui l’invito di Gartner, rivolto a queste ultime, a ripensare strategicamente il proprio approccio)!
In effetti già ora con i servizi di metacloud, di cui Zero PC è esempio lampante, tutto tende a confondersi nella mai così nebulosa cloud, al punto che non fa apparentemente differenza che un file risieda su Dropbox anziché su Skydrive (tanto Zero PC mi ritrova tutto e posso spostare lo stesso file da una parte all’altra con la massima facilità!): in realtà le condizioni contrattuali, le soluzioni tecnologiche adottate, la qualità del servizio, etc. che sono alle spalle dei diversi servizi possono differire anche sensibilmente! Ma di ciò l’utente medio non è consapevole oppure non vi attribuisce la dovuta importanza.
In altre parole temo che nel prossimo futuro tutto (da una parte i servizi di metacloud che ti invitano a caricare sulla nuvola tanto ci pensano loro a gestire il tutto, dall’altra l’archiviazione in locale che si fa commodity) concorrerà ad aumentare la “disinvoltura” con la quale gli individui “gestiranno” i propri archivi digitali di persona, con le immaginabili conseguenze in termini di potenziale perdita dei dati, di (mancata) tutela della privacy, di (non) oculata gestione della propria identità digitale, etc. Insomma, prospettive non esattamente incoraggianti!
Concludo però facendo notare come il tipo di tecnologia è sì importante ma non decisivo: dati e documenti sono andati definitivamente persi per noncuranza o semplice ignoranza (ed in alcuni casi per deliberata volontà!) in ogni epoca e a prescindere dalla tipologia di supporti adottati. Come ricordato in altri post il problema che ora si pone in ambiente digitale è che serve una chiara e duratura volontà di mantenere “vivi”, conservandoli nel tempo, i vari oggetti digitali che andiamo creando in maniera esponenziale nel corso della nostra esistenza. Questa volontà, a sua volta, non può prescindere dalla presenza, nel soggetto produttore (il singolo individuo, nel caso specifico) di una particolare sensibilità per queste tematiche e soprattutto la consapevolezza che dei fatti, degli avvenimenti, delle cose teniamo memoria non solo perché è un obbligo di legge o perché ne abbiamo materialisticamente l’interesse ma soprattutto perché la memoria è un valore. Temo purtroppo che i nostri tempi non siano i migliori per un simile scatto culturale.

Oltre le nuvole

Reset phone. 1st 25 apps I needed or thought about.

Reset phone. 1st 25 apps I needed or thought about. di hillary h, su Flickr

In una realtà tecnologica in continua ed ossessiva evoluzione non abbiamo ancora metabolizzato il concetto di cloud computing che già si inizia a parlare di metacloud; se con il primo intendiamo “un insieme (o combinazione) di servizi, software e infrastruttura It offerto da un service provider accessibile via Internet da un qualsiasi dispositivo” (definizione data da Rinaldo Marcandalli) in che cosa consiste ora questo andare “oltre la nuvola”?
In definitiva non è nulla di trascendentale: di norma con questo neologismo si fa riferimento a quei servizi (uno è Zero PC, lo cito giusto perché vi facciate un’idea) che consentono di gestire in modo semplice ed immediato, attraverso un’interfaccia unica, i contenuti prodotti e caricati su distinte cloud a) principalmente da individui b) che hanno in dotazione molteplici dispositivi. Per fare un esempio concreto se si usa un servizio di metacloud non è più necessario collegarsi a Flickr, Picasa od Instagram per visualizzare le proprie foto così come non serve accedere ai servizi Google per leggere i propri documenti (Google Docs) e mail (GMail); analogamente avviene con Evernote per la propria “bacheca virtuale”, con Dropbox o Box.net per il proprio spazio di storage e con Twitter e Facebook per quanto concerne la gestione delle proprie reti sociali.
Visto sotto questo punto di vista è innegabile che un servizio di metacloud presenta molteplici aspetti positivi: 1) non occorre più ricordarsi su quale servizio / dispositivo si trova tale foto e talaltro documento, in quanto con una semplice ricerca per nome, tag, data, etc. si individua il contenuto desiderato punto e basta 2) dal momento che anche il metacloud è un servizio web based, l’accesso ai propri contenuti digitali è H24 e device independent 3) non occorre più ricordarsi tante credenziali di accesso quante i servizi che si adoperano 4) spesso e volentieri è compreso il servizio di backup automatico dei propri dati e documenti dalle molteplici nuvole (ciascuna corrispondente ai vari servizi cui siamo iscritti) alla “metanuvola” (il citato ZeroPC ad esempio mette a disposizione 1 GB nella versione gratuita).
Quest’ultimo punto ci introduce alla parte più propriamente “archivistica” della questione (ma a ben guardare c’è pure un risvolto “biblioteconomico”, giacché sulla nuvola posso caricare anche la mia biblioteca personale composta di e-book!): come ormai saprete sono fortemente convinto che il cloud computing rappresenti un grosso pericolo per quelli che sono i moderni archivi di persona (diverso il caso di realtà più strutturate come aziende e pubbliche amministrazioni che peraltro sono tenute per legge a gestire e conservare i propri documenti). Infatti tale paradigma tecnologico, unitamente all’esplosione quantitativa degli strumenti di produzione, comporta una frammentazione / dispersione fisica dei propri dati e documenti su molteplici servizi e supporti di memoria al punto che è facile perdere la cognizione di “dove si trovi cosa”. In questo senso la comparsa di servizi di metacloud è la naturale risposta alla perdita di controllo conseguente al passaggio sulla nuvola ed è apparentemente in grado di ridare unità logica (ed eventualmente anche fisica, qualora si proceda al backup sulla metanuvola, poniamo quella di Zero PC) a quelli che altrimenti non sarebbero altro che frammenti sparsi della nostra vita digitale. Purtroppo non son tutte rose e fiori perché un servizio di metacloud soffre di molte di quelle problematiche già evidenziate per il cloud computing, vale a dire a) il rischio di hijacking nella fase critica del trasferimento dati da/per la nuvola / metanuvola, b) policy non adeguatamente esplicitate in fatto di tutela dei dati caricati, di localizzazione dei data center e delle misure di sicurezza ivi adottate, etc.
Partendo dal presupposto che il modello del cloud sia irrinunciabile nell’attuale contesto tecnologico, sociale ed economico, il problema dunque che si pone è il seguente: come mantenerne gli indiscutibili benefici limitando e se possibile azzerandone le controindicazioni (sempre in relazione all’uso da parte di singoli individui; n.d.r.)? Il metacloud è una prima strada che, come abbiamo visto, risolve parzialmente le cose; l’altra a mio avviso non può che essere quella delle personal cloud, alle quali ho già fatto cenno in un precedente post. Quest’ultima soluzione permette un controllo nettamente maggiore (e migliore) dei propri contenuti digitali così come per tutto ciò che concerne la sicurezza fisica anche se ad oggi risulta assai più costosa e sottintende una tutt’altro che scontata sensibilità archivistica in capo al suo “proprietario”, senza che peraltro vengano eliminati gli annosi problemi relativi all’affidabilità, autenticità, etc. dei dati e documenti medesimi.
Insomma, per concludere, neppure le personal cloud sembrano risolvere tutti i problemi, anche se a ben guardare una possibilità ci sarebbe e consisterebbe nel consentire al singolo individuo di effettuare la copia di backup della propria nuvola personale all’interno di porzioni di server appartenenti, che ne so, agli Archivi di Stato, che verrebbero così a svolgere la funzione di trusted repository in favore di tutta la collettività; peccato che tutto ciò presupponga un salto tecnologico, e soprattutto culturale, che allo stato attuale delle cose è pura utopia… Sia come sia l’importante è che l’attenzione sui destini degli archivi di persona nell’era digitale non venga mai meno.

Pirateria informatica, ebook e gli archivi di persona del (prossimo) futuro

Copy the pirates

Copy the pirates di Will Lion, su Flickr

L’AIE (Associazione Itaiana Editori) ha ieri diffuso interessanti dati, frutto di ricerche condotte dal proprio Ufficio Antipirateria, relativi alla diffusione di versioni piratate degli ebook: le cifre non lasciano spazio a dubbi interpretativi, dal momento che a fronte di circa 19mila titoli di libri digitali presenti a catalogo (pari al 36% di quelli complessivamente pubblicati nel corso del 2011) in ben 15mila casi è possibile reperire la corrispettiva versione pirata.
Nulla da eccepire nemmeno sull’individuazione di quelli che sono gli attuali canali attraverso cui avviene lo scambio (o meglio, la condivisione) dei file piratati: non più e non tanto sistemi peer to peer ma piuttosto cyberlocker su modello del celeberrimo Megaupload.
Fin qui tutto bene, dunque; non sono d’accordo però su molti altri punti della posizione AIE: in primo luogo, nel report, si fa intendere che la pirateria potrebbe affossare il settore dell’editoria digitale ancor prima che questa si sviluppi appieno. Sarebbe veramente il caso che i responsabili dell’AIE entrassero in qualche sito dedicato all’ebook e si leggessero un po’ di commenti di quelli che potrebbero essere potenziali lettori / clienti ma che rebus sic stantibus difficilmente lo diventeranno; la maggior parte di essi si dice interessata all’ebook ma non abbandonerà la carta finché a) i prezzi non caleranno (complice anche l’IVA al 21% – colpa da non attribuire agli editori – non vi è una sensibile differenza nei prezzi delle corrispettive versioni analogiche e digitali) b) non verranno eliminate le eccessive rigidità, con i vari lucchetti digitali visti come altrettanti elementi che contribuiscono ad “ingessare” il sistema (in particolare l’impossibilità o le complicazioni che si devono affrontare per prestare un libro sono percepite come limitanti se non vessatorie).
Peraltro pare di leggere tra le righe che la crisi dell’editoria sia imputabile anche alla pirateria, cosa che solo in minima parte può essere dal momento che l’editoria digitale pesa solo per lo 0,3% del canale trade (dati del medesimo studio): le ragioni della crisi vanno dunque cercate altrove.
In secondo luogo trovo che la soluzione proposta per arginare il fenomeno pirateria sia destinata a risolversi in un grande buco nell’acqua: va dato atto che l’AIE è relativamemente moderata (non si chiede censura preventiva, come vorrebbero alcuni soggetti “più realisti del re”), dal momento che mira semplicemente ad ottenere la pronta rimozione da parte dei vari provider di quei materiali lesivi di diritti indebitamente pubblicati / resi pubblici. Purtroppo una tale impostazione parte dall’assunto che gli utenti carichino le proprie risorse digitali (testi, audio, video) su infrastrutture di terzi e che questi terzi, su input dei titolari dei diritti, provvederanno a cancellare quei materiali indicati come piratati. Si tratta di una pia speranza e non solo perché i materiali cancellati da una parte ricompariranno il giorno dopo dall’altra (la riproduzione teoricamente infinita delle risorse digitali è cosa nota) ma soprattutto perché a breve i singoli individui potranno bypassare i circuiti di hosting sulla nuvola gestiti da società terze ed agire in prima persona. Infatti con qualche centinaio di euro è possibile acquistare presso qualsiasi negozio d’informatica soluzioni tecnologiche che: offrono un paio di TB di spazio di storage, effettuano il backup automatico dei dati, consentono di creare una personal cloud alla quale si può accedere (ma anche far accedere!) da qualsiasi parte del mondo. Tali soluzioni, si badi, non nascono con lo scopo di favorire la pirateria informatica ma dalla concreta esigenza delle persone di aver a disposizione i propri dati e documenti ovunque esse si trovino (altrimenti è inutile dotarsi di dispositivi mobili dotati di connettività!). Esse inoltre rispondono ad esigenze di semplificazione: in queste personal cloud trovano posto tanto i film che verranno “richiamati” e riprodotti dalla Smart-TV mentre si sta in poltrona così come dal tablet mentre si è in viaggio, tanto gli ebook che verranno letti dall’ereader quanto le tracce MP3 per l’iPod o lo smartphone, senza dimenticare i giochi per la Playstation, le foto di famiglia, i vari software e documenti di lavoro per il PC!
(La questione assume un’interessante rilevanza archivistica giacché saranno questi i luoghi fisici nei quali si “condenseranno” gli archivi di persona e/o di famiglia, seppur con il rischio intrinseco che essi vengano dispersi, vadano incontro ad obsolescenza, siano completamente privi di affidabilità ed autenticità, etc.; mi fermo qui, ma l’argomento sarà sicuramente oggetto di un mio prossimo post).
Chiusa parentesi, torniamo al discorso pirateria: se gli ebook (ma il discorso vale per qualsiasi risorsa digitale soggetta a copyright) iniziano ad essere condivisi attraverso milioni (se non miliardi) di nuvole personali, come pensano di opporsi gli editori? Controllando uno ad uno gli utenti? Impedendo loro di crearsi una nuvola (sacrosanto diritto)? Mettendo lucchetti ancor più rigidi?
Ritengo che prima gli editori ammettono che l’evoluzione tecnologica sarà sempre un passo avanti a loro e meglio è; anzi li invito ad optare per il male minore, vale a dire aprirsi alle (non) regole del web e soprattutto rinunciare all’idea di replicare modelli di business che mal si addicono alla Rete.
Forse, a voler essere provocatori, la cosa migliore è far proprio il motto di Matt Mason (vedi immagine all’inizio) che nel suo Punk Capitalismo (per chi è interessato è edito in Italia da Feltrinelli su carta; è un paradosso, lo so!) suggerisce ai rappresentanti della old economy che il miglior modo per fronteggiare la pirateria, traendone magari un vantaggio, sia copiarla.

PS Per chi vuole approfondire rimando alla versione su Storify.