Posts Tagged ‘cloud computing’

Fenomeno cyberlocker, alcune considerazioni

ReacTable no FILE 2007

ReacTable no FILE 2007 di Rodrigo_Terra, su Flickr

Il recente caso di cronaca giudiziaria che ha riguardato la “galassia Megaupload” ha portato alla ribalta il fenomeno, forse a molti sconosciuto ma in realtà assai diffuso, del cyberlocking. Dal momento che la vicenda nel suo complesso induce ad alcune riflessioni che a mio vedere sono, per così dire, di “pertinenza archivistica”, vediamo un po’ in cosa consiste questo “cyberlocking” e perché Megaupload è stato chiuso.
In estrema sintesi si tratta di servizi (Megaupload non è che uno, e forse nemmeno il più famoso; altri sono RapidShare, HotFile, FilesTube, DepositFile) che mettono a disposizione dell’utente uno spazio di archiviazione in genere di considerevoli dimensioni al quale si può accedere, in linea con il paradigma proprio del cloud computing, a partire da qualsiasi dispositivo. Fin qui si potrebbe pensare che i cyberlocker siano del tutto assimilabili a quei siti di online storage (come Dropbox, aDrive, etc.) dei quali ho più volte parlato; in realtà essi si differenziano perché la dimensione di sharing prevale nettamente su quella di archiviazione: infatti ogni file uploadato può diventare accessibile tecnicamente a chiunque, basta rendere pubblico il relativo URL, ed i gestori hanno tutto l’interesse ad aumentare il traffico chiudendo un occhio (e pure l’altro!) qualora in presenza di quel materiale “piratato” che ovviamente risulta maggiormente appetibile. Non a caso l’FBI, tra le motivazioni addotte per giustificare la chiusura di Megaupload, l’arresto dei suoi amministratori ed il sequestro dei loro beni, ha espressamente chiarito come il “sistema” non fosse congeniato per l’archiviazione personale e/o di medio – lungo periodo al punto che i file poco “attivi” (= quelli che non venivano scaricati un sufficiente numero di volte) venivano sistematicamente cancellati. Al contrario, sempre stando all’FBI, gli amministratori del sito non erano così solerti nel cancellare quei file, guarda caso quelli maggiormente scaricati, lesivi di diritti intellettuali e di proprietà (film, ebook, software, etc.). E per quella quota minoritaria di utenti (alcuni anche premium, ovvero a pagamento) che usavano legalmente Megaupload oltre al danno di trovarsi da un giorno all’altro impossibilitati di accedere ai propri dati ora si profila anche la beffa: essendo tutti i beni di Megaupload sequestrati, la società non è in grado di pagare quelle aziende subappaltatrici fornitrici dell’indispensabile spazio di hosting, come Cogent Communications e Carpathia Hosting. Morale della favola: se entro giovedì non vedranno saldate le “bollette”, queste ultime procederanno con l’eliminazione definitiva dei dati detenuti per conto di Megaupload (in questo senso mi permetto di dire che l’operazione dell’FBI avrebbe potuto essere più selettiva, colpendo coloro che oggettivamente hanno infranto la legge e tutelando invece gli utilizzatori onesti).
Alla luce di tutto ciò la vicenda assume un valore emblematico di quel che è attualmente l’ “archiviazione” sulla nuvola: una scelta talvolta obbligata (si pensi a tutti coloro che lavorano a distanza e su moli di dati cospicue) ma ancora rischiosa, non tanto per la scarsa affidabilità tecnologica (non che l’evenienza di un crash dei server sia scongiurata, si badi) ma soprattutto per la pratica diffusa del subappalto a terzi dei “concreti” servizi di hosting, il che finisce per trasformare il sistema in un complesso “gioco” di scatole cinesi, in cui più che l’opportuna localizzazione geografica delle server farm conta la legislazione più favorevole ed il regime fiscale vigente (da quel che ho potuto ricostruire – in Rete ho letto differenti versioni – Megaupload era una società gestita da cittadini olandesi e tedeschi con sede legale in Nuova Zelanda e server ad Hong Kong).
Per concludere, una storia che mette in luce una volta di più come gli archivi di persona siano tra quelli più a rischio nell’era digitale e come si renda necessario “instillare” nei singoli cittadini / utenti una particolare sensibilità per la “sopravvivenza” dei propri dati e documenti, cosa che a mio avviso (nell’attesa che gli archivi “pubblici” – non oso dire di Stato – fiutino l’affare e si riposizionino sul settore) al momento può avvenire solamente attraverso la moltiplicazione delle copie, in locale e sulla nuvola. In quest’ultimo caso ovviamente discriminando tra provider buoni e cattivi!

Fahrenheit 451 e libertà della Rete

[18/366] Imagine a World Without Free Knowledge

18/366 Imagine a World Without Free Knowledge di Caesar Gonzalez - Destinos 360, su Flickr

In questi giorni in cui sul Web monta la protesta contro le due leggi imbavaglia-Rete / ammazza blog allo studio del Congresso statunitense (i nomi sono molto buffi, SOPA e PIPA, acronimi che stanno per Stop Online Piracy Act e Protect IP Act), ho portato a termine, con colpevole ritardo, la lettura del libro Farhenheit 451 di Ray Bradbury. Si tratta, per chi non ne conoscesse la trama, di un romanzo fantascientifico ambientato in un futuro caratterizzato dalla presenza di uno Stato di stampo autoritario e militaresco che cerca di sopire le menti dei propri cittadini grazie al controllo dei mass media e soprattutto bruciando i libri (è questo il lavoro del protagonista, Guy Montag), visti come “portatori di infelicità” in quanto capaci di far ragionare le persona con la propria testa e guardare alla realtà in maniera critica e “problematica”. Di più: anche le conversazioni ed il dialogo, che da questi libri potrebbe trarre spunto, sono da bandire! Meglio che le persone stiano in salotto ad ascoltare passivamente le chiacchiere inutili della “famiglia” (personaggi televisivi sparati attraverso maxi schermi da parete con i quali si ha una parvenza di interazione) o le insistenti cantilene della pubblicità…
Come viene quasi spontaneo fare allorquando si legge un libro di fantascienza, mi son messo a “fare la conta” di quante volte l’autore ci “ha azzeccato” e di quante invece ha sbagliato nelle sue “previsioni” (non che egli volesse fare l’astrologo, si intende!). In alcune cose, bisogna ammettere, Bradbury è stato tremendamente buon profeta (ruolo della televisione e passività con la quale ci poniamo di fronte ad essa, con pubblicità martellante, ricerca edonistica della felicità, etc. etc.) ma in altre, per fortuna, no! Ad esempio dobbiamo ancora arrivare al punto di bruciare i libri, le principali libertà (almeno in Occidente) sono garantite, la tecnologia generalmente non viene percepita come “liberticida”, anzi si ritiene che essa abbia svolto un ruolo di primo piano nell’organizzare e coordinare quei movimenti di rivolta e ribellione etichettati come “primavera araba”.
Specialmente su quest’ultimo punto vorrei soffermarmi: ricordato che il dibattito a riguardo è aperto e le opinioni talvolta diametralmente opposte, personalmente mi colloco in una posizione intermedia, nel senso che ritengo che le speranze libertarie che avevano segnato l’avvento del personal computer siano state in gran parte disilluse, essendosi trasformate quelle stesse aziende che producono questi dispositivi in multinazionali che poco si distinguono, per le logiche con le quali si muovono sul mercato e le modalità “operative” (ricerca del massimo profitto, uso di manodopera a basso costo, scarso rispetto dell’ambiente, etc.) da quelle che le hanno precedute. Nemmeno però credo che tra i loro scopi vi sia quello dell’asservimento del genere umano mettendosi al servizio di regimi dittatoriali. Semplicemente esse si adattano ai vari contesti (in altri termini, se in uno Stato = mercato c’è la democrazia bene e se non c’è… amen, tanto un compromesso lo si trova sempre), mettendosi la coscienza in pace con qualche bella iniziativa umanitaria e per il resto dicendo a loro stesse che non è loro compito diffondere la democrazia nel mondo.
Fino ad ora grosso modo è andata così; purtroppo, l’ho già accennato in un altro post, guardando all’evoluzione del panorama tecnologico, le cose stanno cambiando e qualche motivo di preoccupazione c’è: è infatti evidente, con il cloud computing, il ritorno alla costruzione di maxi data center contenenti migliaia di computer che, uniti tra di loro, formano mega-computer dalle elevatissime potenze di calcolo. A prescindere poi dal fatto che questi enormi data-center appartengano a / siano gestiti per conto delle summenzionate multinazionali (che diventano dunque depositarie dei nostri dati e delle nostre “vite digitali”) lo stesso tipo di tecnologie oggigiorno diffuse deve fare riflettere: sotto l’apparenza “ludico – sociale” dei vari social network vi è, come noto, una tecnologia che “traccia” ogni nostra azione e movimento (geo-tagging), preferenza, gusto, opinione e via discorrendo. Tutte informazioni raccolte, come noto, per meri fini pubblicitari (un marketing pressoché personalizzato è ritenuto più efficace).
Ne risulta una società che, sotto un’apparenza rassicurante, rischia di diventare quella che David Lyon definisce come “sorvegliata” e soprattutto una società in cui è alto il pericolo che l’intera sua memoria venga eliminata con un semplice comando da parte di coloro ai quali affidiamo un po’ troppo spensieratamente le nostre vite digitali e che un giorno potrebbero facilmente trasformarsi in novelli incendiari.
Credo dunque, per chiudere il ragionamento, che sia sicuramente giusto protestare affinché la Rete resti libera, ma con la consapevolezza che a monte è altrettanto importante assicurare che le infrastrutture che supportano la nostra esistenza digitale siano, per così dire, “democratiche”; perché se poi basta un click per oscurare tutto torniamo daccapo! Di qui l’importanza di realizzare molteplici repository decentralizzate e delocalizzate nonché di costruire cloud pubbliche (nel senso qui di “appartenenti alla comunità”) consapevoli del fatto che, allo stesso modo in cui trent’anni fa la potenza di calcolo fu atomizzata presso ciascun individuo, lo stesso oggi si può fare sul versante dell’archiviazione / condivisione con le “nuvole familiari” (un buon NAS con adeguate capacità lo si può comprare con poche centinaia di euro) in modo tale da poter godere dei vantaggi del cloud senza rinunciare alla privacy ed al controllo sulla propria vita digitale.

La nuova app Android per Dropbox, alcuni commenti

Dropbox en Android

Dropbox en Android di Dekuwa, su Flickr

Chiudo quest’anno con un post più “leggero” del solito ma di alto livello simbolico; parlerò infatti della nuova applicazione (la 2.0) rilasciata da Dropbox per dispositivi Android, che a mio vedere riassume in un certo senso gran parte dei discorsi fatti nel corso del 2011 sul fenomeno del cloud computing, sul numero crescente di individui ed organizzazioni che “archiviano” i propri file sulla nuvola, sul ruolo sempre maggiore svolto nelle nostre vite digitali / “sociali” dalla diffusione dei dispositivi mobili, etc.
In effetti usando la nuova release alcune feature, completamente nuove o la miglioria di già esistenti, balzano immediatamente agli occhi: 1) l’aspetto di condivisione risulta ulteriormente accresciuto (mail, social network, etc.): se Dropbox è nato per essere un “punto di accumulo neutro” di documenti e risorse che per loro natura possono essere usati su molteplici dispositivi (=> per evitare di dover tenere tali “documenti” su tutti quanti i possibili dispositivi, con evidente spreco di tempo, energie… e memoria!), il fatto che ora tali risorse possano venir fatte circolare e “proliferare” potrebbe apparire un controsenso. In realtà oggigiorno la condivisione di alcune risorse è considerata favorevolmente da molti guru essendo questa una via importante per sprigionare creatività altrimenti inespressa. Ovviamente per dati “delicati” l’esigenza principale è quella della riservatezza ed in tal caso tutto torna come prima. 2) Non c’è praticamente più alcuna distinzione tra dispositivi, nel senso che il PC non ha dal punto di vista logico dell’architettura del sistema alcuna centralità (ovviamente poi solo il PC avrà la potenza di calcolo e le capacità di elaborazione per effettuare sui documenti “archiviati” determinate operazioni ma questa, per l’appunto, è una limitazione di ordine tecnico / tecnologico…) 3) Tale perdita di centralità, alla quale fa da contraltare l’ascesa dei vari device collegati a Dropbox, è testimoniata dalla possibilità di modificare i titoli delle cartelle e dei file uploadati così come da una capacità basica di editing (brevi testi in formato .txt) 4) Oltre ovviamente a caricare su Dropbox è possibile ora anche scaricare i propri file sul dispositivo in uso (per la precisione sulla sua scheda SD).
Riassumendo questa nuova versione risulta decisamente più flessibile e versatile della precedente e pertanto credo risulterà gradita ai numerosissimi utilizzatori di Drobox, il cui successo è testimoniato anche finanziariamente dalla facilità con la quale il fondo Sequoia Capital ha raccolto fondi presso gli investitori istituzionali per garantirne l’ulteriore crescita. Pur avendo già rilevato come quelli sulla nuvola non possano essere considerati archivi nel senso pieno del termine è inutile dire che in futuro le strategie di “conservazione” dei propri documenti digitali da parte di individui ovviamente ma anche di organizzazioni passeranno sempre più per la nuvola. Vi è semmai da sperare che gli ingenti capitali raccolti vengano anche utilizzati per realizzare future versioni di Dropbox maggiormente in grado di aderire a quelli che sono gli standard archivistici.

Cloud computing in biblioteca: quali prospettive

Biblioteca José Vasconcelos / Vasconcelos Library

Biblioteca José Vasconcelos / Vasconcelos Library di * CliNKer *, su Flickr

PREMESSA

Avrete notato che non c’è quasi post nel quale io non faccia riferimento, almeno “en passant“, al modello del cloud computing. Avendo già dedicato un articolo approfondito alle possibili applicazioni negli archivi, è ora giusto, per par condicio, delinearne i possibili utilizzi pratici all’interno delle biblioteche. Per facilità espositiva credo sia utile distinguere tra quelle applicazioni che possono venir implementate, volendolo fare, da subito e quelle che invece lo saranno in un futuro che comunque è ben più vicino di quanto si pensi.

CHE COS’E’ IL CLOUD COMPUTING (IN BREVE)

Come forse sarà noto, il cloud computing è una “declinazione” tecnologica grazie alla quale è possibile accedere da remoto, in modo scalabile e personalizzabile, a risorse hardware e software offerte da uno o più provider che le virtualizzano e distribuiscono attraverso la rete Internet. Per certi aspetti si tratta dunque della normale evoluzione di un qualcosa che era già intuibile in nuce con l’avvento della Rete ed ora semplicemente condotto alle sue estreme conseguenze; per altri si tratta di qualcosa di “rivoluzionario” cambiando radicalmente per i singoli utenti, con il passaggio alla nuvola, le modalità di implementazione delle nuove tecnologie da un lato e del loro utilizzo pratico dall’altro.

MODALITA’ DI UTILIZZO GIA’ IMPLEMENTABILI

Nella definizione sopra data si spiega chiaramente come a venir coinvolte dal passaggio al cloud sono sia la dimensione hardware che quella software; tenendo pertanto presente che esiste un’intima correlazione tra queste due componenti (essendo la prima funzionale alla seconda), risulta però assai più agevole, al fine di una trattazione più lineare, affrontare distintamente i due aspetti ed è così che intendo procedere.
1) Hardware: nelle realtà più avanzate, soprattutto in quelle in cui si è proceduto nella direzione della realizzazione del modello di biblioteca digitale, si è reso indispensabile dotarsi di un’infrastruttura tecnologica complessa (server, router, cablaggi vari, etc. il tutto collocato in ambienti debitamente condizionati) il che, se da un lato ha permesso di ampliare il ventaglio dei servizi offerti, dall’altro ha finito con l’accrescere i costi dovuti non solo alle spese in strumentazioni tecnologiche ma anche all’ “appesantimento” degli organici (la presenza di personale con conoscenze informatiche si è rivelata un’esigenza imprescindibile). Questa trasformazione, oltre ad appalesare problemi di profonda insostenibilità economica (quel “profonda” sta a ricordare che nessuna biblioteca non comporta costi), rischia anche di snaturare la natura stessa dell’ “istituto biblioteca”, finendo le spese in tecnologia con l’assorbire quote sempre più consistenti del budget a disposizione e questo talvolta anche a discapito della mission istituzionale. Visto sotto tale luce il cloud computing, consentendo di “affibbiare ad altri” l’onere di realizzare e gestire queste sempre più importanti e costose infrastrutture, rappresenta una boccata d’ossigeno non da poco per le finanze sempre più striminzite della maggior parte delle biblioteche (ibride, virtuali o digitali che siano). Purtroppo questa via di delegare in toto a terzi non è percorribile così “a cuor leggero”: le problematiche in fatto di sicurezza dei dati (personali, record bibliografici, etc.) non sono di facile soluzione a meno di non ripiegare su soluzioni intermedie come potrebbero essere le hybrid o private cloud (senza scendere nei dettagli, si tratta di modelli “intermedi” nei quali si mantiene un certo grado di controllo sull’infrastruttura tecnologica senza per questo rinunciare alla maggior parte dei benefici della nuvola). Al netto di queste controindicazioni, credo che l’uso del cloud computing in modalità IaaS (Infrastructure as a Service), già diffuso in alcune realtà, sarà nel volgere di pochi anni più la regola che l’eccezione.
2) Software: basta solo pensare che praticamente qualsiasi programma attualmente installato nel nostro personal computer può / potrebbe tranquillamente venir erogato in modalità cloud per intuire come il cosiddetto SaaS (Software as a Service) sia denso di implicazioni anche per il settore biblioteconomico; in effetti già nel momento in cui scrivo molti importanti poli bibliotecari hanno adottato SW (con funzioni di catalogazione, di gestione del prestito, di evasione delle pratiche amministrative, etc.) cui si accede per via telematica previa autenticazione e che dal punto di vista “fisico” risiedono presso i server della società sviluppatrice assieme a tutti i dati di natura amministrativa, catalografica, etc. caricati dai singoli operatori “sparsi” nelle diverse biblioteche / nodi appartenenti alla rete. Senza nemmeno qui scendere nei dettagli, i pro del passaggio alla nuvola sono evidenti (una catalogazione partecipata e collaborativa, una miglior ottimizzazione delle risorse, ad es. tramite acquisti coordinati ed una circolazione delle risorse più razionale) così come i contro (in caso di interruzione dell’erogazione dell’energia elettrica oppure in assenza di connessione, semplicemente il sistema non funziona!). Tutti fattori da valutare con un’attenta analisi costi / benefici anche perché, ponendosi nel worst case scenario, la necessità di garantire la continuità del servizio imporrebbe anche a realtà minori (che difficilmente possono permetterselo) la presenza di gruppi di continuità e connessioni garantite (linee dirette, molteplici fonti del segnale, etc.), ovvero soluzioni talvolta non adottate nemmeno da realtà ben più grandi!

APPLICAZIONI E SCENARI FUTURI

Dal momento che vanno a modificare prassi consolidate, gli utilizzi pratici del cloud sin qui descritti rappresenteranno un sicuro elemento di novità nel settore bibliotecario; eppure, pur con tutta la loro rilevanza, essi rischiano di apparire gran poca cosa se raffrontati a quanto potrebbe avvenire di qui a pochi anni! In effetti, senza che ciò significhi abbandonarsi a voli pindarici, guardando a ciò che potrebbe divenire a breve realtà sembra davvero di poter affermare che nel prossimo futuro saremo testimoni di cambiamenti epocali! In particolare a mio avviso il cloud computing moltiplicherà gli effetti di altri processi attualmente in corso in modo più o meno indipendente tra di loro (e dei quali, per inciso, talvolta esso stesso è nel contempo premessa e conseguenza!): a) diffusione dell’e-book b) diffusione di dispositivi per la fruizione di contenuti digitali in mobilità (smartphone, e-reader, tablet, etc.) da parte di individui sempre più connessi c) presenza di una incontrollabile massa di risorse digitali parte delle quali, stando alla teoria, dovrebbero essere “appannaggio” delle biblioteche (digitali). Partiamo da quest’ultimo punto: sulla centralità del ruolo che potranno giocare le biblioteche (digitali) onestamente nutro più di un dubbio; troppa la disparità degli investimenti effettuati ed in generale delle risorse (umane, finanziarie, tecnologiche) disponibili! Purtroppo temo che in futuro il ruolo di intermediazione attualmente svolto dalla biblioteca fisica, con la quale tutti noi abbiamo familiarità, non sarà altro che un ricordo essendo essa sostituita dall’interfaccia grafica messa a disposizione in Rete da quelli che genericamente sono definibili come fornitori di risorse digitali; in sostanza dunque l’utente (cliente?) effettuerà ricerche, accederà alle collezioni digitali, fruirà delle risorse reperite rielaborandole e condividendole “socialmente”, il tutto direttamente a partire dal sito web / dall’applicazione sviluppato/a dal DRP (Digital Resources Provider) ed indipendentemente dal tipo device in uso. In concreto il DRP in parte creerà direttamente piattaforme ed applicativi ed in parte si inserirà in un ambiente digitale nel quale applicazioni di terzi si integreranno tra di loro espandendo, a seconda degli interessi e delle esigenze dell’utilizzatore, il suo “habitat” digitale (=> le varie fasi di ricerca, utilizzo, condivisione, conservazione, etc. avverranno in un ambiente percepito dall’utente come unico).
Se questo sarà a mio vedere il probabile scenario di riferimento, è il caso di soffermarsi su alcuni aspetti di specifico interesse biblioteconomico: 1) non è tutt’altro che scontato che, nella sua ricerca di e-book, l’utente si rivolga alle biblioteche né d’altro canto è così pacifico che le biblioteche digitali saranno le DRP per eccellenza di quella specifica risorsa che chiamiamo “libro elettronico”; anzi è altamente probabile che il ruolo dei motori di ricerca (non mi riferisco qui solo a quelli generalisti come Google, ma anche a quelli dedicati come Ebook-Engine.com) così come quello dei cataloghi delle case editrici (meglio ancora se “evoluti” in chiave social in stile aNobii) sarà vieppiù crescente. 2) Proprio l’atteggiamento di queste ultime è attentamente da valutare; se da una parte esse pure vedono con il fumo negli occhi il ruolo di rigidi gate-keeper svolto dai SE nei riguardi dei contenuti che loro stesse – le case editrici, intendo – concorrono a creare (e potrebbero perciò allearsi con le biblioteche contro il comune nemico), dall’altra non si può non interpretare come “ostili” i peraltro non numerosi accordi fin qui stipulati in tema di digital lending! Essi fanno intravedere, nel momento in cui gli editori stessi (o ulteriori società “intermediarie” specializzate) si accollano l’onere di sviluppare e gestire piattaforme attraverso le quali effettuare le operazioni di ricerca ed eventuale “prestito” per conto delle biblioteche, la prospettiva di una marginalizzazione di queste ultime, ridotte a poco più di mere “procacciatrici” di utenti / clienti! (A rendere critico il rapporto biblioteche – editori è anche la questione del DRM ed in generale della tutela dei diritti di proprietà intellettuale, che è in via di ridiscussione e, viste le posizioni di partenza scarsamente conciliabili, rendono verosimile un peggioramento rispetto alle regole, già non perfette, esistenti nel “mondo fisico”).

CONCLUSIONI

Per concludere, dunque, il cloud computing in biblioteca nella sua declinazione IaaS se da un lato pare assicurare quei vantaggi connessi all’uso di infrastrutture tecnologiche all’avanguardia contenendo allo stesso tempo i costi entro limiti ragionevoli, dall’altra sembra pericolosamente strizzare l’occhiolino al bibliotecario e dire: “Ehi, tranquillo! Non preoccuparti della ferraglia, ci pensiamo noi!”, senza farlo riflettere sul fatto che la perdita di controllo sull’infrastruttura IT non è cosa da poco! Anzi a ben guardare è solo la prima di una lunga serie di “concessioni” che si fanno in rapida successione: ad esempio con il digital lending, almeno per come è stato fatto finora in Italia, si perde pure quello sulla piattaforma, senza poi considerare come in ambiente digitale vadano completamente ricalibrate le strategie di comunicazione con gli utenti, che rischiano di essere “scippati” dagli onnipresenti social network. Alla luce di queste considerazioni anche gli indubbi vantaggi ottenibili a livello di piattaforma (PaaS) e di software (SaaS), con la nuvola che trasforma davvero quasi per magia i poli bibliotecari in un’unica grande biblioteca, con un patrimonio trattato omogeneamente, utenti condivisi, procedure comuni, etc., perdono gran parte del loro valore.
Un ultimo appunto è, infine, di ordine squisitamente teorico: è opinione diffusa in letteratura che alla biblioteca elettronica (= per Carla Basili e Corrado Pettenati “una biblioteca automatizzata, non necessariamente connessa alla Rete”) si sarebbero quasi evoluzionisticamente succedute la biblioteca virtuale ( = una biblioteca connessa in ruolo di client, ovvero che trae dalla Rete parte delle sue risorse per espandere il posseduto) e quella digitale ( = una biblioteca che mette a disposizione di utenti remoti le proprie risorse digitali pubblicandole in Rete). Ebbene con il cloud computing mi sembra che questo ruolo “attivo” in qualità di server venga un po’ meno: d’accordo, la biblioteca possiederà sicuramente delle risorse digitali, ma è indubbio che queste (quand’anche dal punto di vista legale di sua proprietà) risiederanno su server di terzi. Inoltre, dovesse il trend rafforzarsi (ed i soldi rimanere sempre pochi), le biblioteche acquisteranno sempre meno “risorse digitali” optando per formule ibride quali noleggio / affitto rinunciando perciò anche al ruolo di interfaccia tra utente e risorse (questo perché gli accordi stipulati prevederanno che della piattaforma di ricerca e prestito si occupi il “noleggiatore”). Insomma, mi pare proprio si possa affermare che le biblioteche con il passaggio alla nuvola rimarranno ancorate al ruolo di client e quand’anche dovessero progettare di ampliare i propri servizi consentendo l’accesso a risorse digitali presenti in Rete, in gran parte dei casi non lo farebbero impegnandosi in prima persona. In altri termini, la definizione di “biblioteca digitale” così come formulata dalla teoria rischia di restare pura speculazione.

Quale destino per RIM?

Blackberry, Egham UK

Blackberry, Egham UK di louisiana, su Flickr

Questo post, incentrato così com’è su questioni industriali e di merge & acquistion, potrebbe apparire per molti lettori fuori luogo pubblicato in questo blog. A mio avviso ovviamente non lo è e non solo perché nel mio piccolo sono sempre stato affascinato da quel che combinano le grandi aziende padrone del mercato globale e globalizzato, ma soprattutto perché sono profondamente convinto che una completa comprensione delle dinamiche che guidano l’evoluzione di interi settori quali l’editoria digitale (intesa qui in senso più che lato) così come quello che offre servizi di archiviazione / storage online sia impossibile se non si guarda alle mosse compiute più a monte da quelle aziende che hanno la capacità di influenzarne le sorti. (Giusto per fare un esempio, è impensabile contestualizzare l’evoluzione dell’e-book senza guardare a quanto fatto da Amazon negli ultimi 10 – 15 anni o da Google con il suo progetto Google Books e la relativa telenovela giudiziaria con l’Authors Guild statunitense).
Ebbene, entrando in media res, i rumors del giorno parlano di un forte interessamento dell’accoppiata Microsoft – Nokia, da qualche mese convolate a nozze per quanto riguarda il sistema operativo dei prossimi cellulari della casa finlandese (che saranno per l’appunto forniti dall’azienda di Seattle), per RIM (Research in Motion), produttrice dei celeberrimi telefonini intelligenti della famiglia BlackBerry che ultimamente però vedono la propria immagine sempre più appannata presso i consumatori di tutto il mondo. La notizia, così da sola, non dice molto, ma se aggiungiamo che altre indiscrezioni parlano di avances da parte di Amazon (oltre a contatti per accordi di partnership con Samsung ed HTC, con queste ultime che vogliono cautelarsi nell’evenienza in cui Android diventi un sistema operativo chiuso), si vede che a questa sorta di gara per accaparrarsi RIM non manca quasi nessuno (Google manca all’appello solo perché si è già sistemata con l’acquisto di Motorola Mobility in estate)!
La vicenda si fa interessante: chiaramente RIM fa gola a molti in virtù dei numerosi clienti business che potrebbe portare in dote e del prezzo relativamente modesto con il quale si potrebbe fare “la spesa” (i corsi azionari dell’azienda canadese sono ai minimi); sicuramente poi ai potenziali acquirenti si porrebbero problemi industriali: i nuovi prodotti lanciati sul mercato (PlayBook su tutti) non hanno trovato il favore dei consumatori e lo stesso sistema operativo rischia di rimanere schiacciato dal consolidamento in atto e che vede, in assenza di concorrenti, Android ed iOS recitare la parte del leone (avendo HP di fatto cestinato WebOS ed essendo Windows Mobile ancora sulla rampa di lancio).
Se la maggior parte degli osservatori focalizzano l’attenzione su questa sfida, dal mio punto di vista però è ancor più interessante notare come in profondità stiano avvenendo radicali mutamenti in player che, nati come “mediatori / venditori di contenuti” (leggasi Amazon e Google), stanno gradualmente ampliando i propri interessi non solo (ed è in fondo nell’ordine delle cose) all’infrastruttura che veicola tali contenuti (che diviene base per nuovi servizi e talvolta rendendola disponibile a terzi) così come agli strumenti attraverso i quali essi vengono fruiti. Il rimescolamento dei ruoli è così profondo che oramai non suona più strano porsi domande quali: “a quando lo smartphone di Amazon”? “a quando il tablet di Google (per inciso, si parla dell’estate prossima…)”?
Riassumendo è in atto un riposizionamento strategico di questi big player, riposizionamento che vede il settore editoriale ricoprire un ruolo di primo piano, a riprova di come lo tsunami digitale stia per travolgere questo settore trasformandolo radicalmente. Le mosse sopra descritte suggeriscono che in un futuro sempre più vicino qualsiasi fruizione di contenuti digitali sarà accompagnata dalla relativa capacità di archiviazione online, motivo per cui la nostra diverrà sempre più una esistenza digitale. Se le prospettive sono queste superfluo aggiungere che a godere di una sorta di “vantaggio competitivo” sono quelle aziende dotate di una imponente infrastruttura cloud: Amazon, Google, Apple.

Social network, privacy ed archivi

Graphs & Social Networks: Facebook Group Social Graph (Gephi)

Graphs & Social Networks: Facebook Group Social Graph (Gephi) di sociomantic

Il successo dei vari social network, da Facebook a Twitter, da LinkedIn ad aNobii, è così travolgente che non è nemmeno più il caso di spendere parole.
Quasi tutti noi ci cimentiamo quotidianamente in attività più o meno eroiche quali postare il nostro stato d’animo, pubblicare la foto del nostro cane, twittare un articolo reputato interessante e via di questo passo.
Una parte sempre più cospicua di queste azioni le compiamo nel corso della nostra giornata lavorativa, talvolta usando una serie di dispositivi tecnologici non di nostra proprietà ma bensì dell’organizzazione presso la quale siamo impiegati: desktop-PC, cellulari, smartphone, portatili, tablet. Talvolta si tratta di comportamenti fatti in modo “furtivo” senza il beneplacito dei nostri datori di lavoro, tal’altra siamo da questi ultimi direttamente incentivati al fine di sviluppare la dimensione (o quanto meno l’immagine) “sociale” della stessa. Nel primo caso il nostro operato, oggettivamente censurabile, può quanto meno provocarci una reprimenda ma può tranquillamente sfociare in sanzioni disciplinari fino al licenziamento (specie se ci lasciamo andare a commenti poco lusinghieri nei confronti dell’organizzazione cui apparteniamo!); nel secondo caso, al contrario, gli stessi account con i quali ci presentiamo e ci facciamo conoscere in Rete comunicano chiaramente agli altri utenti chi siamo e cosa facciamo e proprio in virtù di questo ruolo di “rappresentanti dell’azienda” ci è richiesto di mantenere un profilo in linea con quella che è l’immagine che la nostra organizzazione vuol trasmettere.
Che ci troviamo nel primo o nel secondo dei casi, l’organizzazione cui apparteniamo è spinta a “sorvegliare” la nostra attività; i motivi di questa “pulsione” sono molteplici: 1) di sicurezza (potremmo più o meno consapevolmente mettere in circolazione informazioni riservate) 2) economici (dal danno causato dalla “mancata prestazione” perché il dipendente trascorre il suo tempo a chattare anziché lavorare al caso opposto dell’ex collaboratore che si tiene la rete di contatti instaurata per conto dell’azienda; recente la causa intentata da un’azienda statunitense contro un suo ex lavoratore che le ha fatto un simile colpo gobbo e che ha valutato l’account Twitter con 17mila follower la bellezza di 340mila dollari) 3) di immagine / brand management (vigilare che il flusso di comunicazioni ed informazioni in uscita crei un feedback positivo; che poi quest’insieme di informazioni e comunicazioni possano essere sfruttati anche in chiave di business e di knowledge management tanto meglio!).
Questo compito di “sorveglianza” però è reso difficoltoso dalla notevole frammentazione in termini di device (= di strumenti di creazione) e di servizi (vale a dire, dei diversi social network di volta in volta usati); proprio per aiutare ad assolvere questa “mission” e a venir incontro a quest’insieme eterogeneo di esigenze talvolta contrastanti sono state fondate numerose aziende (una è Smarsh) che offrono servizi di social media archiving: in pratica è possibile definire il livello di accesso dei propri impiegati ai social network, stabilire quali funzionalità attivare nonché controllare preventivamente se quanto viene scritto è in linea con la propria policy. Il tutto viene indicizzato ed archiviato in data center geograficamente distinti (dal punto di vista tecnologico le soluzioni di archiviazione spaziano dai dischi WORM al cloud computing; la citata Smash ad esempio usa il primo per i messaggi su social network o l’instant messaging il secondo per mail ed sms).
Il ricorso a siffatti servizi, se da una parte è comprensibile, dall’altra proprio per la “promiscuità” intrinseca nello “strumento social network” (con una talvolta inscindibile compresenza di dimensione privata e dimensione pubblica), solleva a mio avviso una duplice preoccupazione per quanto attiene la tutela della privacy: in primo luogo quella relativa all’ingerenza nella sfera personale del proprio datore di lavoro, in secondo luogo quella (comune a tutti i servizi di storage sulla nuvola) relativa alla sicurezza dei dati / informazioni affidati a terzi.
Insomma l’ennesima riprova di come il modello del cloud computing presenti ancora lati oscuri e vada implementato con la massima cautela; nel frattempo IDC ha recentemente stimato che a livello globale i proventi del “message and social media archiving” saliranno dal miliardo di dollari del 2011 agli oltre 2 del 2015. Previsioni più che positive che non lasciano dubbi su quale sia la direzione verso cui stiamo andando: un futuro sempre connesso che se da un lato ci offrirà opportunità impensabili fino a pochi anni fa dall’altro “traccerà” ogni istante delle nostre vite e forse ci renderà un po’ meno liberi.

Per la versione su Storify di questo articolo cliccate qui.

Nuovo CAD e massimi sistemi

Seminario sul nuovo CAD

Seminario sul nuovo CAD

Tornato da un convegno / seminario sul nuovo CAD, nel corso del quale Gianni Penzo Doria ha come sempre saputo tenere attento e partecipe il numeroso pubblico, mi sono messo come spesso mi capita a fare considerazione sui massimi sistemi.

Infatti sarà stata la semplicemente fantastica “equazione del disordine”:

D*I = C2 (ovvero: Disorganizzazione * Informatica = Casino al quadrato)

la quale può a buon diritto essere riportata nei libri di fisica a fianco della legge dell’entropia oppure sarà stato il senso di smarrimento mistico in cui getta l’operato di un legislatore tanto iperattivo quanto confuso e pasticcione o ancora sarà stata la mia naturale repulsione per tutto ciò che sa anche solo lontanamente di legislativo… insomma sarà stato per tutto un insieme di fattori ma ho ritenuto che non ci fosse nulla di più tranquillizzante che rifugiarsi nei lenti (ma non per questo meno dirompenti) cambiamenti che agendo sottotraccia modificano la vita di tutti noi in modo impercettibile.
In particolare sono partito per la tangente con le mie speculazioni altamente filosofiche nel momento in cui si è parlato di firma elettronica / digitale; difatti, al di là del proliferare di specie e sottospecie, mi ha fatto riflettere il fatto che mentre il documento è attualmente conservabile per un discreto numero di anni, ciò non vale per l’eventuale firma ad esso apposta, essendo quest’ultima, per semplificare, “a scadenza”. Questo problema non da poco è aggirabile se l’utente si accredita ed interagisce (si vedano gli artt. 65 e 47 rispettivamente dei decreti legislativi 82/2005 e 235/2010) all’interno di un sito di una Pubblica Amministrazione: in tal caso infatti tutte le istanze e dichiarazioni vanno considerate per l’appunto come validamente sottoscritte.
In sostanza anche in questo caso, così come in quello parimenti complesso della conservazione digitale, una soluzione efficace pare essere il ricorso ad un “sistema”, visto alla stregua di luogo sicuro nel quale i documenti e gli atti si formano in base alle volontà degli attori chiamati in causa, vengono da essi “usati” ed infine conservati.
Rapito da questo turbinio di pensieri ho ampliato ancor più i miei orizzonti e mi sono soffermato sul fatto che la residenza di questi “sistemi” sarà in un tempo molto prossimo l’eterea “nuvola”, con tutto ciò che ne consegue. Infatti dopo tre decenni di atomizzazione della potenza di calcolo, degli applicativi e delle unità di memoria presso ciascun singolo individuo, il futuro del computing sembra andare inesorabilmente nella direzione dei grossi data center di proprietà anche degli Stati nazionali ma soprattutto dei colossi dell’informatica; data center cui delegheremo parte della capacità di calcolo e sui quali faremo girare i nostri programmi e “archivieremo” i nostri dati e documenti.
Una spinta centripeta che cozza con quella centrifuga alla quale ci eravamo oramai abituati; sarà la rivincita degli eredi dei grandi computer mainstream ed il tramonto dell’era del personal computer e con esso di tutte le promesse di liberazione dell’individuo.

Archivi in the cloud

Server farm

Server farm (foto MrFaber)

PREMESSA

Più volte in questo blog ho fatto riferimento al cloud computing ed alle sue ricadute archivistiche (e biblioteconomiche). Dal momento che non mi sembra ci sia molta chiarezza a riguardo, provo a farne un po’ io, in particolare spiegando cos’è questo fantomatico paradigma tecnologico e cosa si intende dire quando si afferma che “un archivio va sulla nuvola”.

DEFINIZIONE

Partiamo dall’inizio: la definizione di cloud computing è assai eterogenea e ne esistono più declinazioni, personalmente trovo che quella fornita da Rinaldo Marcandalli sia una delle più esaurienti, ovvero: “un insieme (o combinazione) di servizi, software e infrastruttura It offerto da un service provider accessibile via Internet da un qualsiasi dispositivo. Tutto si traduce in offerta di servizio, che in funzione dell’entità erogante può essere categorizzata in quattro generi: basata sul Web (il genere Rich Internet application da Flickr a Microsoft Office Live); Software as a Service o Saas (applicazioni accessibili Internet e customizzabili come Gmail e Salesforce.com); Platform as a Service o Paas (esempi classici le piattaforme Force.com e Google App Engine); Infrastructure as a service o Iaas (servizi infrastrutturali di capacità di elaborazione virtualizzata tipo Amazon Elastic compute cloud o Ec2, o di hosting di server virtualizzati o di utilità storage; importante osservare che Iaas può venir erogata da un data center pubblico o privato)”.
Si noterà che molti degli esempi riportati da Marcandalli non rappresentano novità assolute, al contrario riguardano servizi noti al grande pubblico; in effetti il tratto distintivo di un servizio in cloud computing non dipende tanto dal suo livello di innovatività ma piuttosto dalla modalità di erogazione (in questo senso i requisiti di scalabilità e personalizzazione sono essenziali).

GLI ARCHIVI SULLA NUVOLA

Come si sarà evinto dalla lettura della definizione appena data, all’interno della tipologia definita come IaaS vi è la precisa funzione di “utilità storage“, che è quella qui di nostro principale interesse e che andrò ora ad analizzare (da notare bene che per il soggetto erogante tale servizio si colloca a livello infrastrutturale mentre per il client si tratta di accedere ad un servizio basato online, ovvero ricadente all’interno di una delle due prime categorie a seconda del grado di customizzazione). In soldoni si tratta della possibilità, per individui ed organizzazioni pubbliche e private, di “archiviare” i propri dati e documenti all’interno di server remoti sui quali in genere NON SI HA alcun controllo. Se fino a ieri dunque la destinazione di questi dati erano le varie unità di archiviazione di massa di tipo generalmente magneto-ottico (dagli hard disk esterni ai juke box di CD/DVD, passando per tape library e via discorrendo) di proprietà, oggi essi finiscono in server residenti in luoghi talvolta non geograficamente determinati, aspetto che rende il ricorso al termine “nuvola” del tutto calzante ma che pone nel contempo numerosi problemi pur a fronte di alcuni innegabili vantaggi.

I VANTAGGI

Abbracciare il modello del cloud computing garantisce alcuni innegabili vantaggi per coloro (privati ed organizzazioni) che effettuano questa scelta: a) essi hanno il vantaggio economico e “gestionale” di non dover più preoccuparsi di comprare e, per l’appunto, gestire, lo spazio di memoria necessario a contenere i propri dati e documenti (si tratti del disco rigido esterno da poche decine di euro o del server da qualche migliaio, la sostanza non cambia) b) in linea di principio i propri dati e documenti vengono messi al riparo dai rischi di perdita, corruzione, cancellazione, etc. (poi anche le server farm possono andare a fuoco, ma su questo meglio sorvolare…) c) caricare i propri dati e documenti sulla nuvola è in linea con l’evoluzione che sta interessando il modo di organizzare l’attività lavorativa nonché la gestione delle risorse umane: lavoro in condivisione e senza l’obbligo di trovarsi fisicamente in uno specifico ufficio o sede di lavoro, in quanto vi si può accedere attraverso molteplici dispositivi (tablet, notebook, netbook, smartphone, etc.). Il risultato ultimo di tutto ciò è non solo una ridefinizione dei carichi individuali e dei flussi di lavoro (inclusi quelli documentari), ma pure un aumento nella circolazione di idee, della conoscenza collettiva e (si spera) della produttività.

I PROBLEMI

Nella definizione data da Marcandalli si parla di “utilità di storage”, anche se è invalso l’uso del termine di “archivi sulle nuvole” come suo sinonimo, benché qualunque archivista abbia perfettamente presente come quest’uguaglianza sia ben lungi dal corrispondere al vero! Come bisogna dunque considerare questi servizi? Come meri “depositi” oppure come archivi? Una veloce analisi di un campione di essi basta ed avanza per evidenziare carenze tanto dal punto di vista teorico quanto da quello pratico, tali da far propendere indubbiamente per la prima opzione.
Dal punto di vista teorico semplicemente non è possibile parlare di archivio, dal momento che il client sceglie (con modalità differenti da servizio a servizio) quali dati e documenti caricare sulla nuvola sicché si viene a creare una completa discrasia tra l’archivio presente in locale e quello in remoto cosa che a sua volta fa venir meno la necessaria organicità oltre che il fondamentale concetto di vincolo archivistico (e qui non mi sto riferendo al tradizionale vincolo puro, ma al concetto “nuovo” di vincolo impuro sviluppato in ambito di archivio informatico da autori come Antonio Romiti!). A rafforzare un tale drastico giudizio contribuisce poi la mancanza de facto di un contesto così come l’assenza di una profondità temporale (di norma i documenti sono datati solamente a partire dal momento dell’upload, con un evidente effetto distorsivo).
Non meglio vanno le cose se si esaminano tali servizi per quanto riguarda il profilo tecnico e legislativo; infatti, usando come criteri di valutazione quelli suggeriti da Chenxi Wang in un interessante report redatto per Forrester (peraltro sovrapponibile in molti punti alle MOIMS-RAC stilate dal Consultative Committee for Space Data Systems), i servizi in analisi risultano quanto meno carenti circa i seguenti aspetti: 1) integrità dei dati uploadati non garantita, con risarcimenti nulli o irrisori in caso di loro perdita 2) loro residenza ignota (spesso le aziende si giustificano asserendo che il non rivelare l’ubicazione dei data center fa parte della stessa politica di sicurezza e prevenzione) 3) salvo rari casi, non viene esplicitato in alcun modo il tipo di architettura adottata (ad es. RAID3, 4, etc.) così come gran pochi cenni si fanno alle politiche in fatto di disaster prevention, business continuity e le relative misure adottate (e questo è paradossale, essendo proprio il desiderio di cautelarsi da simili evenienze a spingere molti CIO ad adottare il modello del cloud computing… in pratica a volte si abbandona il noto per l’ignoto!) 4) assenza di audit, con il risultato che talvolta è impossibile stabilire chi e quando “ci ha messo le mani” e su quali e quanti di questi dati e documenti 5) scarsi e/o generici riferimenti alle leggi di riferimento in tema di privacy, etc.

LE SOLUZIONI

Anche alla luce di molte di quelle problematiche individuate nel precedente paragrafo si sono cercati dei correttivi tali da far accettare il modello cloud anche ai responsabili delle strutture informatiche più restii, senza però che tali correttivi togliessero quegli elementi di indubbio vantaggio. A riguardo, essendo uno degli aspetti più critici (e criticati) quello della sicurezza (fisica e “intellettuale” dei dati e documenti caricati), molte organizzazioni stanno creando delle private cloud, ovvero delle infrastrutture tecnologiche che ricalcano i medesimi principi di una “normale” nuvola (definita per distinguerla dalla precedente public cloud) ma che sono usate esclusivamente dalle organizzazioni stesse che le realizzano. Così facendo si godono dei vantaggi elencati e si annullano per contro gli aspetti negativi; l’unico neo è che una simile opzione è praticabile solo da realtà grosse e dotate del necessario capitale finanziario, umano e tecnologico mentre quelle più piccole ed i singoli individui non potranno che affidarsi a quello che c’è sul mercato! A questi ultimi, dunque, non resta altro che cercare di contrattare con il fornitore servizi il più possibile vicini ai propri desiderata.
Un’altra strada percorsa è quella seguita da Amazon con il governo degli Stati Uniti, con la prima che ha “riservato” al secondo una cloud specifica ed ottemperante ai particolari e più restrittivi requisiti del “cliente” Federale.
Dal momento che non tutti hanno il peso contrattuale del governo statunitense, sono state poi trovate ulteriori soluzioni intermedie, com’è il caso delle cosìdette hybrid cloud, che come suggerisce il nome presentano elementi dell’una e dell’altra soluzione.

LE PROSPETTIVE

Dando credito alle previsioni delle principali società di analisi e ricerca del mercato, il futuro del cloud computing è roseo: secondo Gartner il suo giro d’affari complessivo nel 2010 si è attestato attorno ai 68 miliardi di dollari. Il peso complessivo dello storage all’interno di questo settore è preminente ed assicurerebbe quasi la metà degli introiti. E che “gli archivi sulla nuvola” siano un business che porta guadagni lo confermano gli stessi operatori. La statunitense Dropbox è quotata attorno ai 4 miliardi di dollari e persino in Italia Telecom, che ha lanciato “Nuvola Italiana”, lo ha definito un “business profittevole”! Se dunque sembra proprio che dovremo abituarci alla prospettiva che i nostri “archivi” finiscano sulla nuvola, possiamo almeno sperare che intervengano alcuni fattori correttivi di questi servizi. Ad esempio l’inserimento di metadati rappresenterebbe già un notevole passo in avanti, così come la partecipazione degli archivisti nella fase di progettazione delle private cloud che sicuramente le Pubbliche Amministrazioni vorranno realizzare sarebbe un altro aspetto sicuramente positivo. In generale, poi, vale la raccomandazione di leggere attentamente i “Termini & Condizioni” del servizio e cercare di valutare l’affidabilità della soluzione tecnologica proposta (l’assenza di specifiche tecniche sulle quali poter effettuare valutazioni è di suo un elemento negativo!), personalizzandoli ove possibile.

CONCLUSIONI

Da quanto scritto si capisce come negli “archivi sulla nuvola” vi sia la compresenza di aspetti positivi e negativi; nell’attesa che anche questi servizi maturino (e nella convinzione che ciò equivarrà ad un loro miglioramento) credo stia all’utilizzatore finale discriminare tra buoni e cattivi servizi. In altri termini il buon senso come principio guida è l’unico mezzo per non rimanere “scottati” da una parte e perdere il treno dell’innovazione tecnologica dall’altra perché, credo di non essere troppo enfatico sostenendo ciò, il futuro degli archivi passa anche dalla nuvola.

Per la versione su Storify con puntuali riferimenti a documenti e notizie alla base di questo post cliccate qui.

Conservazione della memoria digitale & dintorni

Data destruction

Dvd (foto di Samantha Celera)

Lo spunto di questo post mi è stato offerto dalla recente discussione, a dire il vero nemmeno tanto appassionata ed alla quale io stesso ho partecipato, che si è svolta sulla lista Archivi 23 sull’annoso ed intricato tema della conservazione della memoria digitale e sulle sue modalità di “implementazione” presenti e future.
L’input al dibattito è stata la richiesta di pareri su un “nuovo” tipo di disco ottico (chiamato M-Disk) prodotto da Millenniata e che, come suggerisce il nome, dovrebbe durare 1000 anni senza deteriorarsi in virtù dei materiali usati (nel sito non viene spiegato chiaramente come siano costruiti, si dice solo che l’uso di materiali inorganici ed altri metalloidi li rendono “non deperibili” come i “mortali” DVD). L’altro motivo che consenti(rebbe) ai dati / documenti memorizzati su tali DVD di rimanere leggibili in perpetuum è il fatto che l’incisione della superficie del disco avviene molto più a fondo, in quanto si fa ricorso ad un laser assai più potente rispetto ai consueti. Proprio per quest’ultimo motivo occorre usare un apposito “masterizzatore” prodotto da LG e che a seconda del modello (= del prezzo) può scrivere anche su CD, DVD “normali” e Blu-Ray.
Ora, sorvolando il fatto che tali decantate qualità siano più o meno vere (Millenniata porta a supporto test condotti presso il Naval Air Warfare Center di China Lake), nella Lista è stato fatto notare che: 1) la presenza di dischi ottici indistruttibili non risolve il problema dell’obsolescenza dell’hardware e del software 2) che la tendenza in fatto di archiviazione / storage, pur con tutti i noti problemi, va inesorabilmente nella direzione della cloud; quest’ultimo richiamo al cloud computing ha comportato una levata di scudi da parte di alcuni membri della Lista (significativamente si trattava di addetti nel settore informatico; tentativo di difesa di business consolidati o competente presa di posizione?) i quali in sostanza considerano il cloud una montatura o quanto meno uno specchietto delle allodole grazie al quale si spacciano per nuovi concetti vecchi, in ogni caso negando la possibilità che esso comporti concreti vantaggi. Per contro veniva salutato positivamente il “passo in avanti” compiuto con la comparsa dell’M-Disk in quanto, è stato sostenuto, almeno il problema dell’affidabilità / durabilità dei supporti di memorizzazione trovava una soluzione.
D’accordo, la speranza è l’ultima a morire, ma dovendo ragionare e soprattutto agire hic et nunc credo che l’idea di ricorrere a supporti di memorizzazione simili a quelli proposti da Millenniata non abbia molto senso e questo perché: 1) si è vincolati, in fase di scrittura, al prodotto di LG il quale, come tutti gli altri prodotti hardware, nel giro di 5 – 10 anni sarà, per l’appunto, obsoleto; bisognerà dunque sperare che LG (se esistente, cosa tutt’altro che garantita considerando i processi di merge & acquisition in atto) assicuri nel tempo la produzione dei nuovi “masterizzatori” 2) fatti quattro rapidi conti non è conveniente spendere per M-Disk che costano (al dettaglio) mediamente due dollari e mezzo in più l’uno a parità di capacità di memorizzazione (4,7 GB) se poi non potrò usarli per la predetta obsolescenza HW e SW! Che me ne faccio di dati / documenti se poi non li posso leggere / usare?! 3) Interpares ha ormai accettato il fatto che i documenti siano (relativamente) “cangianti” e che il loro “habitat” sia un sistema documentale; a mio parere che tale sistema documentale “lavori” in una server farm situata presso la sede principale dell’organizzazione (e presumibilmente altra sede decentrata) o che al contrario stia, sfruttando la nuvola, a migliaia di kilometri di distanza poco importa! Essenziale è che questa nuvola (private, common o hybrid che sia) risponda a requisiti di sicurezza (fisica e legale), tutela dei dati, integrità, affidabilità, etc. In altri termini non vedo una contraddizione tra i principali risultati teorici di Interpares (quale il concetto della permanenza all’interno del sistema, che a sua volta riprende l’istituto anglo-sassone dell’ininterrotta custodia) ed il passaggio alla nuvola, garantendo quest’ultima (se fatta bene) la medesima permanenza all’interno del sistema che può essere assicurata da una server farm tradizionale, con tutto ciò che ne consegue, vale a dire, per l’oggetto specifico di questo post, la progressiva scomparsa delle memorie di tipo ottico.

PS Sono conscio che le prassi operative di molte server house prevedono che i dati / documenti “correnti” vengano memorizzati su nastri magnetici dall’ottimo rapporto prezzo / Gb mentre quelli “storici” in tradizionali dischi ottici di norma “impilati” in juke-box o secondo altre più complesse architetture, ma nondimeno ritengo che questa soluzione, in linea con la tendenza generale verso la “dematerializzazione”, svolgerà un ruolo progressivamente residuale.

Verso la balcanizzazione della cloud?

Nella visione dei suoi assertori più entusiasti al trionfo del cloud computing dovrebbe corrispondere la semplificazione della vita di noi tutti: il giovane in partenza per le vacanze studio a Londra non dovrebbe portarsi via decine di memorie flash per non rischiare di trovarsi senza la canzone che ben si adatta al mood del momento e questo perché l’intera sua discografia è nella nuvola; il manager in trasferta a New York per chiudere un contratto non si troverebbe nella necessità di portar con sé mezzo ufficio perché i documenti di quell’importante affare risiedono anch’essi nella nuvola; il malato costretto a spostarsi non dovrebbe temere per la propria salute in quanto le prescrizioni mediche, insieme all’intera sua cartella clinica, sono sempre nella nuvola pronte ad essere rapidamente consultate da qualsiasi medico; il nerd che, a forza di scaricare dalla Rete, ha sempre l’hard-disk al limite della capacità nonostante i molteplici dischi rigidi “ausiliari” posseduti, vede risolti i suoi problemi di spazio uploadando tutto sulla nuvola. Se si aggiunge che nella visione di molti addetti ai lavori tutti questi dati e documenti, relativi a vari aspetti della vita di ciascuno di noi, dovrebbero essere accessibili e comunicanti tra di loro e fruibili in maniera semplice e veloce a partire dal dispositivo prescelto (probabilmente, pur sopravvivendo desktop PC, smartphone, laptop, etc. si attuerà una convergenza verso il tablet), si comprende come il cloud potrebbe davvero risolvere molti problemi e renderci la vita più agevole!
In realtà più di un indizio indica che anche la nuvola, come gli steccati di Internet (del quale parla Jonathan Zittrain) o gli e-book reader (dei quali me ne sono personalmente occupato in un precedente post), sia a rischio “balcanizzazione”: si starebbero in altri termini creando più nuvole non comunicanti tra di loro, il che ha come esito finale una perdita di molti di quei vantaggi che il cloud effettivamente potrebbe portare con sé!
I motivi sarebbero diversi: da una parte le aziende che tendono a trattenere i propri utenti all’interno della propria nuvola… di business (ma con una significativa spaccatura tra le varie Amazon, Apple, Google e Microsoft opposte ad altri colossi – tra i quali Adobe, AT&T, Cisco, Hewlett Packard, IBM, Juniper Network – riuniti dal 2009 attorno al cosiddetto Open Cloud Manifesto), dall’altra le stesse diverse “anime” delle Pubbliche Amministrazioni, restie vuoi per motivi di sicurezza vuoi per “gelosie” retaggio delle tradizionali divisioni dipartimentali, etc. a condividere i dati e le informazioni caricati nelle proprie “nuvole” con i propri colleghi (alla faccia della leale collaborazione)!
Andrebbe imponendosi, in buona sostanza, il modello della private cloud su quello della public cloud anche quando ciò non appare strettamente necessario. Se la cosa è comprensibile per aziende private (in definitiva libere di fare quel che vogliono) lo è un po’ meno per le Pubbliche Amministrazioni in quanto, come fa notare Andrea Di Maio (che peraltro non contempla soluzioni intermedie come hybrid cloud e community cloud), in tal modo “non si risparmia quanto si potrebbe” in questi tempi di crisi, senza considerare le perdite in termini di “mancata condivisione” e conseguente ottimale sfruttamento dei dati e delle informazioni.
Non ci resta che stare a vedere se la futura evoluzione seguirà queste premesse o se ci sarà un cambiamento di rotta.

Per la versione storyfizzata di questo post cliccate qui.