Posts Tagged ‘privacy’

Google ed il data center galleggiante

Il data  center galleggiante di Google

Il data center galleggiante di Google

Di data center (DC), in questi anni, mi sono occupato per i più svariati motivi e sotto molteplici prospettive: vuoi perché essi sono infrastruttura necessaria (ma purtroppo non sufficiente!) per mantenere in vita le speranze di archivi e biblioteche di giocare un ruolo nella società digitale, vuoi perché la loro corretta gestione (leggasi: dei dati in essi custoditi) impatta direttamente sulla privacy di tutti noi, vuoi ancora per i risvolti più strettamente tecnologici inerenti alle modalità con i quali li si costruisce (e a dove li si colloca) e, a cascata, alle possibilità di assicurare la loro continuità operativa nonché, nella peggiore delle ipotesi, la sopravvivenza dei contenuti digitali in essi custoditi.
La notizia che vado qui a commentare riassume in sé un po’ tutti questi aspetti: Google starebbe costruendo (il condizionale è d’obbligo non essendoci infatti conferme ufficiali da parte di Mountain View ma tutti gli indizi lasciano presupporre che sia effettivamente così), su un molo affacciantesi sulla baia di San Francisco, un avveniristico data center galleggiante.
Naturalmente la maggior parte dei commentatori ha spiegato la costruzione come esito della naturale ricerca, da parte dei colossi dell’high tech, di data center meno energivori: in tal senso la scelta dell’ambiente acquatico sarebbe l’ideale (a parte la presenza di sale), in quanto l’acqua potrebbe venir impiegata, oltre che per il raffreddamento delle macchine, anche per generare l’energia elettrica (in tutto od in parte non è dato sapere) necessaria al suo funzionamento. Inoltre questo data center galleggiante, potendo muoversi (nell’articolo sopra linkato si assicura che quella sorta di chiatta destinata ad ospitare i container modulari – che a loro volta andrebbero a comporre il DC in una sorta di Lego – ha capacità nautiche tali da poter andare praticamente ovunque), assicurerebbe l’ulteriore vantaggio di spostarsi in base alle esigenze, mettendolo al riparo da tutte quelle minacce atmosferico-ambientali che, per quanto ci si sforzi di realizzarli in luoghi sicuri, tipicamente affliggono i data center fissi.
Un ulteriore “vantaggio competitivo” potrebbe essere rappresentato dalla possibilità di servire aree geograficamente prive di tali infrastrutture vitali (si pensi al continente africano ed a molte regioni asiatiche): in questo senso il data center galleggiante ben si inserirebbe all’interno di altri progetti (non disinteressati, si badi) portati avanti da Google e tesi a ridurre il digital divide, come quello che prevede la realizzazione di dirigibili i quali, sorvolando le aree più remote di Africa ed Asia, letteralmente le irradierebbero dall’alto con il “vitale” segnale Wi-Fi, donando loro la connessione. Brin e Page, in altri termini, si presenterebbero come moderni “liberatori” e civilizzatori di queste nazioni arretrate…
Non meno importanti le considerazioni relative alla privacy: in tempi di datagate la presenza di un data center mobile, sottraibile dunque dalle grinfie dell’NSA, è politicamente decisamente vantaggioso ed al contrario un’ottimo modo per rifarsi un’immagine davanti ai propri utenti, ai quali si dimostrerebbe che l’azienda californiana resta fedele, nonostante tutto, al suo vecchio motto “Don’t be evil”. In verità anche sotto questo aspetto non c’è da stare molto sereni, essendo Google una maestra in fatto di data mining, tanto più che tra le due sponde dell’Atlantico la concezione della privacy si va divaricando in misura crescente ed i colossi d’oltre oceano sembrano sempre più in grado di imporre la loro legge.
In altri termini la presenza di data center che sfuggono a qualsiasi forma di controllo rappresentano un motivo di preoccupazione tanto quanto quelli, posti sul suolo degli States, che stando alle ultime indiscrezioni di giornale paiono sempre più essere stati dei veri e propri “libri aperti” per le varie agenzie federali. Forse sarebbe il caso di cercare soluzioni alternative all’apparentemente inarrestabile processo di concentrazione in pochi ed enormi DC e, parallelamente, di realizzare dorsali Internet meno americanocentriche.
Ma mi fermo qui, che sono già andato sin troppo off-topic

Datagate, un vulnus all’archivistica digitale?

University of Maryland and Sourcefire Announce New Cybersecurity Partnership

Photo credits: University of Maryland and Sourcefire Announce New Cybersecurity Partnership di University of Maryland Press Releases, su Flickr

Pochi giorni orsono Mark Zuckerberg, con una buona dose di faccia tosta considerando l’incetta di dati personali che fa la sua azienda, ha criticato durante un’intervista televisiva l’amministrazione Obama per il modo poco trasparente con il quale sta gestendo il cosiddetto scandalo “Datagate”, annunciando di volersi unire a Google e Microsoft nella causa intentata contro il governo al fine di ottenere, per l’appunto, la necessaria trasparenza.
I colossi del web infatti, oltre al danno d’immagine derivante dall’essere percepiti come compartecipi del Governo statunitense, temono infatti che i propri utenti, se non adeguatamente tranquillizzati circa modalità e tipologia dei controlli svolti, abbandonino le proprie piattaforme provocando un evidente danno economico.
Il tema della fiducia e quello correlato della sicurezza informatica diviene, evidentemente, centrale e non è forse un caso che il punto di forza del nuovo iPhone 5 della Apple sia il riconoscimento biometrico (in pratica per sbloccare lo schermo od attivare alcuni specifici servizi, quali i pagamenti contact less via NFC, non bisogna più inserire un PIN o simili vetustà ma basta appoggiare il proprio pollice allo schermo per venire riconosciuti ed autenticati).
Purtroppo queste rassicurazioni mi sembrano insufficienti: in successive indiscrezioni trapelate alla stampa Edward Snowden (che, considerando il livello dello scontro diplomatico raggiunto con Mosca e gli estremi tentativi fatti da Washington per ottenerne l’estradizione, mi sembra un testimone complessivamente attendibile) ha aggiunto che l’NSA statunitense e la corrispettiva GHCQ britannica dispongono di strumenti in grado di aggirare e superare le misure comunemente adottate per proteggere le comunicazioni e le transazioni condotte lungo le reti telematiche, quali ad esempio i protocolli https ed SSL.
In sostanza viene messa in seria discussione la validità e l’efficacia complessiva di quella cornice di sicurezza che con difficoltà si era cercato di costruire attorno alle nostre “esistenze digitali”. Le ripercussioni sono evidentemente molteplici ed investono su più piani anche l’archivistica: ad un livello strettamente tecnico possiamo ricordare le ricadute per tutto ciò che concerne, per l’appunto la sicurezza. Per anni, dando credito agli informatici, si è pensato che i vari protocolli di sicurezza, gli hash crittografici, etc. assicurassero un ragionevole livello di protezione alle nostre comunicazioni via PEC ed in generale a tutte quelle, spesso riservate o comunque riguardante materiali “sensibili”, condotte attraverso le reti telematiche (vedi quelle, sempre più diffuse, tra data center locale e sito secondario di ripristino).
Così probabilmente non è e non si deve escludere la possibilità che, approfittando del vulnus inferto alla credibilità delle sue basi tecnologiche, non riprenda vigore quella corrente, interna agli archivisti, che ha sempre guardato con sospetto, ed in taluni casi con dichiarata ostilità, alla nascita dell’archivistica digitale. Dovesse ciò succedere le ripercussioni sarebbero gravi giacché, volenti o nolenti, il mondo andrà comunque verso il digitale e di archivisti capaci di affrontare le problematiche derivanti da questo passaggio ce ne sarà sempre più bisogno.
Ma probabilmente il danno maggiore è quello della possibile perdita di fiducia da parte dei cittadini / utenti: negli ultimi dieci – quindici anni si è dibattuto in lungo ed in largo sulla necessità di realizzare trusted repository pubblici giustificandone l’esistenza sulla superiorità, se non proprio tecnologica, almeno “morale” rispetto ai comuni data center. Solo la presenza di “custodi responsabili” (dove per “custode responsabile” la figura di riferimento è, anche se non in maniera esclusiva, quella dell’archivista dipendente di una pubblica amministrazione), si sosteneva, capaci di garantire l’ininterrotta custodia di documenti digitali oltre che la correttezza delle eventuali operazioni di trasferimento, migrazione, etc. effettuate, poteva provare l’autenticità dei documenti conservati.
Tale supposta superiorità “morale” viene irrimediabilmente meno nel momento in cui si constata che sono i Governi stessi a condurre, secondo procedure ai limiti della legalità e comunque assai discutibili, attività di spionaggio se non di vero hackeraggio ai danni dei propri ed altrui cittadini, di giornali, organizzazioni ed aziende. Il timore è dunque, come sopra accennato, che pure gli archivisti, risucchiati in un calderone in cui non si riconoscono più colpe e responsabilità individuali, perdano l’indispensabile fiducia dei cittadini. Dovesse succedere, sarebbe indubbiamente un duro colpo.

Wearable computing, privacy e futuro dell’archivistica

Sony Smartwatch 2

Sony Smartwatch 2 (fonte: Sony Picasa official account)

La notizia della prossima presentazione (4 settembre?) da parte di Samsung del suo smartwatch Galaxy Gear riporta al centro dell’attenzione tutte quelle tecnologie indossabili, comunemente definite wearable technologies, che hanno riempito le pagine di blog e riviste specializzate negli ultimi mesi.
Naturalmente la chiave di lettura che viene data in questo post differisce sostanzialmente da quella, che va per la maggiore, che tende a sottolineare soprattutto lo smacco patito dalla Apple, battuta sul tempo dalla sua diretta rivale nonostante l’accelerazione impressa al programma per il suo iWatch (dimenticando peraltro che Samsung era stata preceduta poche settimane fa da Sony e che quest’ultima era a sua volta stata anticipata da Pebble, progetto a sua volta chiacchieratissimo per l’essere stato finanziato in crowdfunding, etc.).
Piuttosto preferisco soffermarmi sull’ennesima conferma della tendenza, che evidentemente va proiettata sul lungo periodo, ad una diffusione sempre più capillare di dispositivi tecnologici (giusto per fare un esempio oltre ai “superorologi” sono in commercio da qualche mese i Google Glasses, occhiali che fanno dell’augmented reality il loro punto di forza) i quali, a differenza di quelli che li hanno preceduti, si caratterizzano per il diventare estremamente simbiotici con il suo utilizzatore / possessore e, di conseguenza, per l’avere a che fare con dati sempre più sensibili anzi, per usare la terminologia giuridica italiana in voga fino a qualche anno fa, supersensibili!
Difatti, se la panoplia di dispositivi sin qui utilizzati poteva al massimo (si fa per dire, e comunque escludendo qui eventuali intromissioni / furti da parte di malintenzionati) rivelare i nostri amici e colleghi di lavoro, alcune nostre preferenze, eventualmente la nostra posizione (funzione di geotagging) con la nuova generazione di device assumono dati vitali nel senso letterale del termine. Giusto per rendere l’idea un notevole input allo sviluppo degli smartwatch è derivata dall’esigenza, oltre che di restare sempre connessi e tenere sotto controllo la propria rete di contatti, di tracciare le proprie prestazioni fisiche (mentre si fa jogging, in palestra, etc.) attraverso le numerosissime applicazioni ad hoc disponibili: kilometri fatti, calorie consumate, battito cardiaco, etc. Pure gli “occhiali intelligenti” nascondono insidie alla privacy: di recente è stata trasmessa in diretta “live” attraverso i Google Glass un’intera operazione chirurgica. Al di là degli accorgimenti presi per tutelare l’identità del paziente, è superfluo sottolineare come il rischio di oltrepassare il limite sia tutt’altro che remoto: banalmente, finché indossiamo i Google Glass e camminiamo per la strada potremmo filmare tutti i passanti, mettendoli in rete a loro insaputa, magari cogliendoli in situazioni imbarazzanti…
I timori evidentemente sono acuiti dal fatto che, al di là dei distinguo terminologici (si parla ad esempio di wearable computing) l’infrastruttura tecnologica che immagazzina, rielabora e rende costantemente disponibili i dati raccolti da questi sensori / terminali che andremo ad indossare è la medesima del cloud computing, sulla quale ho già espresso diffusamente le mie perplessità.
Per finire (e qui mi concedo una divagazione agostana che alcuni potrebbero ritenere essere cauata dal solleone!) bisogna pure sottolineare che, come tutte le cose di questo mondo, il wearable computing non rappresenta il Male assoluto; va al contrario riconosciuto che esso sollecita l’archivista di aperte vedute in più di una maniera.
A ben guardare infatti le wearable technologies si pongono in un punto di intersezione tra diversi filoni di ricerca: quelle che mirano a produrre strumenti atti a catturare e a digitalizzare un’intera esistenza da una parte (a riguardo, come non fare un paragone tra i nuovi gadget che a breve invaderanno il mercato di massa e le stravaganti apparecchiature che Gordon Bell ha indossato per anni nel suo serissimo progetto di ricerca MyLifeBits?) e dall’altra quelle che al contrario tendono a realizzare apparecchi capaci di integrarsi fisicamente al corpo umano, supplendo a sue carenze o addirittura sostituendolo del tutto (vedi l’occhio bionico, già sperimentato negli Stati Uniti; in tal caso come non pensare alle spesso inverosimili teorie transumaniste e superomiste di un Ray Kurzweil oppure a quelle, decisamente più accademiche, di un Luciano Floridi con la sua e-mmortality?).
In altri termini in un futuro nemmeno troppo lontano (dando per buona la Legge dei ritorni accelerati proposta dal citato Ray Kurzweil e che rappresenta, a ben guardare, un’estensione di quella, ben più famosa, di Moore) le capacità di memorizzazione dell’essere umano potrebbero crescere a dismisura, facendo venire meno l’ancestrale esigenza del genere umana di registrare le informazioni / i dati ritenuti più importanti su supporti diversi dal proprio cervello (purché idonei ad un successivo recupero!), esigenza che come risaputo è stata alla base dell’archivistica. Frontiere impensabili si aprono: resta da vedere se ciò rappresenterà, come suggerito da qualcuno, la fine della nostra disciplina o piuttosto un nuovo inizio.

Autenticazione grafometrica tra privacy ed esigenze di conservazione: è vera semplificazione?

Wacom bamboo pen di cnycompguy, su Flickr

Wacom bamboo pen di cnycompguy, su Flickr

Sul sito del Garante per la protezione dei dati personali sono state recentemente pubblicate le motivazioni, di fatto e di diritto, sulla scorta delle quali il Garante medesimo autorizza il gruppo bancario Unicredit, che aveva avanzato apposita istanza nell’ottica di migliora e snellire i propri servizi, a “trattare” i dati biometrici derivanti dalle firme dei propri clienti.
La lettura del dispositivo offre molteplici spunti di riflessione:
1) in primo luogo va precisato che il Garante ammette il trattamento dei dati biometrici non già per operazioni di sottoscrizione digitale bensì per quelle di autenticazione (= verifica dell’identità della persona che si presenta allo sportello), autenticazione che avviene mediante comparazione (matching) tra la firma apposta al momento su tablet e quelle conservate come “modello” in una apposita base di dati
2) in secondo luogo è interessante osservare come a) nella fase iniziale di enrollement vengano acquisite, da ciascun cliente, ben 6 firme (ciò al fine di crearsi un “profilo medio” di come un individuo firma) ma anche come b) successivamente il sistema sia in grado di “tracciare” l’eventuale processo di modifica nel tempo del modo in cui il cliente scrive (questa dinamicità, per inciso, preoccupa il Garante in quanto potrebbe rivelare aspetti comportamentali dell’individuo)
3) le misure tecnologiche di sicurezza sono molteplici: crittografia tanto al momento della firma quanto in quello del trasferimento dei dati; NON residenza della firma all’interno del tablet (che funge da mero “supporto” di scrittura, definito signpad) bensì in database dedicati all’interno di server siti sul territorio nazionale; conservazione dei dati di log
4) la conservazione dei dati biometrici relativi alla firma dura fintantoché è instaurato il rapporto tra il cliente e la banca; una volta venuto a cessare quest’ultimo c’è l’obbligo della loro cancellazione immediata (al netto di tempi tecnici ed eventuali contenziosi legali pendenti).
Personalmente, pur trovando la maggior parte di queste prescrizioni comprensibili, mi chiedo se esse non siano eccessive e rischino di annullare tutti i potenziali vantaggi. Ad esempio, pur avendo io già a suo tempo espresso perplessità sull’affidabilità del “sistema tablet” nel suo complesso, ritengo che la firma biometrica su tavoletta dovrebbe permettere di sottoscrivere un documento e non ridursi a mero strumento preliminare di verifica dell’identità del cliente (verifica che, beninteso, va fatta)! Che senso ha effettuare l’autenticazione con firma biometrica per poi sottoscrivere le successive operazioni bancarie attraverso strumenti quali le smart card che di certo non brillano per praticità?
Mi pare che in un simile sistema i grattacapi crescano esponenzialmente: infatti, non fossero bastate tutte le preoccupazioni derivanti dalla conservazione dei certificati, delle marche temporali, etc. ci si trova ora a dover conservare per un arco temporale indefinito (quale può essere la durata del rapporto che si instaura tra una banca ed i suoi clienti) pure quelli biometrici relativi alle firme!
Anche alla luce della “Guida alla Firma Digitale” predisposta dall’allora CNIPA, versione 1.3 dell’aprile 2009 (citata dallo stesso Garante), e delle riflessioni dell’avvocato Lisi che avevo riportato in un altro mio post di qualche tempo fa non sarebbe più naturale, oltre che economicamente vantaggioso, sottoscrivere (e non solo autenticare) su tablet, concentrando su questo gli sforzi di conservazione?

Big data: opportunità e rischi

Linked Open Data Graph

Linked Open Data Graph di okfn, su Flickr


INTRO

Ormai quella di big data si avvia ad essere la buzzword per eccellenza del panorama tecnologico, e non solo, del 2012: alla moda, del resto, non si è sottratto neppure il sottoscritto (avendogli già dedicato un paio di post) ma qui ormai poco ci manca che l’argomento sia oggetto di discussioni al bar! Lo sdoganamento è avvenuto nel momento in cui si sono compresi gli enormi vantaggi ottenibili rendendo aperti e liberamente riutilizzabili non solo la mole di dati creati e/o raccolti dalle aziende (big data) e dalle pubbliche amministrazioni (in questo caso gli open data fanno, o meglio, dovrebbero fare da pendant con l’open government), ma anche dai singoli individui, i quali dovrebbero contribuire attivamente, attraverso le loro “segnalazioni”, ad arricchire (in termini di copertura geografica e di aggiornamento nel tempo) i dati a disposizione, il cui valore aggiunto, si badi, dipende soprattutto dalla possibilità di essere correlati tra di loro secondo modalità nemmeno lontanamente contemplate dal produttore originario (linked data). La disponibilità di dati aperti dovrebbe avere benefiche ricadute sull’economia, sulla ricerca scientifica, sulla società ed in ultima analisi sulla qualità della vita di tutti noi (non a caso ultimamente si fa un gran vociare sulla smart city anche se, lasciatemelo dire, non vedo così molti smart citizen in circolazione pronti ad abitarla!).
Cattiveria mia a parte, quella dei big data è una materia che oltre a grandi opportunità pone sfide non indifferenti in primis alla comunità archivistica: su quella più importante, riguardante il passaggio dal documento al dato, ho già scritto e anzi sia chiaro che i dubbi allora esposti permangono più che mai e fanno anzi da “cappello” a questo mio nuovo intervento nel quale, stimolato anche da due interessanti letture fatte in questi giorni, voglio invece affrontare due ulteriori aspetti, relativi rispettivamente alle misure di natura tecnica da prendere ed alla tutela della privacy.

GESTIONE E CONSERVAZIONE DEI BIG DATA: QUALI SOLUZIONI TECNICHE?

Nel corso di una breve quanto interessante intervista pubblicata su Data Center Knowledge (uno dei principali siti statunitensi di informazione sul tema dei data center; n.d.r.) ed incentrata sulle sfide poste, essenzialmente alle infrastrutture IT aziendali, dalla crescita esponenziale dei dati che occorre “maneggiare” e riutilizzare consapevolmente, John Burke, ricercatore di Nemertes, mette in evidenza come tre siano gli aspetti da tener maggiormente sotto controllo:
1) chi possiede i dati: raramente questi ultimi appartengono all’IT provider sicché è opportuno mettere in chiaro cosa e come gestirli (e, aggiungo, che fine far fare loro in caso di interruzione del rapporto di fornitura di servizi IT; il caso di Carpathia, che continua a mantenere a sue spese i dati di Megaupload “congelati” nei suoi server è emblematico). Insomma, un po’ a sfatare un mito che vuole il “depositante” come parte debole dell’accordo, emerge come entrambe le parti abbiano la convenienza che sia fatta preliminarmente massima chiarezza sui reciproci diritti e doveri e credo che, onde evitare complicazioni, questo valga anche nel caso di dati “liberi”
2) quali procedure di storage e/o archiviazione verranno utilizzate: il tema è cruciale e rimanda ad un’altra questione di non minor rilevanza, vale a dire il mutato life-cycle dei dati. Difatti fino a non molto tempo fa tale ciclo-vita aveva un andamento siffatto: a) alta frequenza d’uso (fase attiva) => b) graduale “raffreddamento” nel numero di istanze fino al c) completo inutilizzo dei dati (fase passiva), che venivano pertanto in genere cancellati e solo in determinati casi conservati permanentemente. Un simile life-cycle influiva inevitabilmente sull’infrastruttura IT predisposta: essa doveva infatti garantire elevate prestazioni nella fase attiva e prestazioni decrescenti nelle successive, motivo per cui si era soliti trovare rispettivamente nelle tre fasi sistemi RAID, dischi ottici e nastri. E’ interessante notare dunque come, paradossalmente, i dati “storici” risiedevano nelle soluzioni tecnologiche meno prestanti e meno costose e tendenzialmente più soggette a guasti e malfunzionamenti, con il conseguente pericolo di una loro perdita. Oggi il ciclo-vita sopra descritto sta scomparendo: assistiamo infatti ad un uso caratterizzato da meno picchi ma al contrario più costante e prolungato nel tempo e soprattutto con numeri di istanze mediamente più elevati (conseguenza degli usi e riusi “inaspettati” che si fanno dei dati) il che impone, specialmente in previsione dell’esplosione degli open data, di allocare questi ultimi in unità di storage generalmente più prestanti, capaci di collegarsi, una volta richiamati, con altri dataset sparsi per il mondo (interoperabilità) meglio ancora se secondo i dettami del cloud computing (indicativo di quest’ultimo trend il progetto europeo Open-DAI), in modo da poter riutilizzarli (anche) attraverso applicativi per dispositivi mobili
3) come trasportarli: questo punto riprende, per certi versi, i riferimenti appena fatti all’interoperabilità ed al cloud computing; occorre infatti che l’infrastruttura sia capace di “muovere” i dati in modo ottimale, senza intasare la WAN e soprattutto mantenendo inalterata la qualità del servizio.
Riassumendo, l’importanza crescente attribuita ai dati impone una rivisitazione delle architetture realizzative dei data center, cosa che, per chi come il sottoscritto ritiene che oggigiorno esista uno stretto nesso tra DC ed archivi, non può lasciarci indifferenti. Ma per questo rimando alle conclusioni.

OPEN DATA E TUTELA DELLA PRIVACY

Nelle battute finali di una non meno interessante, rispetto a quella citata in precedenza, intervista rilasciata a Silicon.de, Tim Berners-Lee, padre del world wide web e come già ricordato acceso sostenitore degli open linked data, non nasconde un loro grosso problema, ovvero che gran parte di essi è rappresentata da dati personali (vuoi perché conferiti volontariamente dai cittadini, vuoi perché raccolti dalla Pubblica Amministrazione) e ribadisce l’importanza che essi siano resi anonimi e che su di essi vigilino organismi indipendenti. Tali affermazioni naturalmente sono del tutto condivisibili anche se riguardo alla prima parte qualche perplessità mi rimane: ho infatti l’impressione che gli open data siano un po’ come i social network, nel senso che se si vuole sfruttarli appieno occorre rassegnarsi a cedere un po’ della propria privacy (è un po’ come se uno volesse essere su Facebook ma senza venir taggato e commentato da amici e conoscenti). Totalmente d’accordo invece sulla seconda parte, quella relativa alla presenza di organismi indipendenti, anche se qui non si può sottacere il recente caso italiano del Garante per la protezione dei dati personali: nonostante il parere contrario di quest’ultimo, il Governo, con D.L. 5/2012 (e sua conversione con L. 35/2012), ha abolito l’obbligo in capo alle aziende di redigere il Documento Programmatico della Sicurezza. Sorvolando sul merito della vicenda (il DPS a mio avviso per alcune realtà era sproporzionato, ma non ha senso toglierlo quando quasi in contemporanea si emanano le Linee Guida sul Disaster Recovery – le quali seppur con graduazioni in base alle dimensioni andrebbero fatte valere sia nel settore pubblico che nel privato – ed alle quali esso andava a mio avviso raccordato!), il punto è che salvo rari casi le varie autorità, organizzazioni, associazioni, etc. indipendenti lo sono sole di nome e quasi mai di fatto! Sono, in buona sostanza, sempre in balia o comunque influenzabili, una volta da parte dei Governi nazionali, un’altra delle multinazionali, tal’altra della lobby di turno, etc. Anche in questo caso dunque la possibilità di una effettiva tutela dei dati personali è più un’enunciazione di giusti principi che una concreta realtà. Quel che conta, in definitiva, è essere consapevoli del problema e fare i massimi sforzi per ovviarvi.

OUTRO

I dati, specie quando “grandi” ed aperti, rappresentano (se usati bene) sicuramente una grossa opportunità per migliorare il mondo in cui viviamo; il problema principale è, a mio avviso, riuscire a conciliare il giusto grado di apertura (openess) con la necessaria tutela della privacy; ciò passa anche attraverso la realizzazione di adeguate infrastrutture IT, le quali devono non solo garantire che dal punto di vista tecnico le varie richieste d’accesso ai dati avvengano in tempi rapidi, ma anche che questa velocità non vada a discapito da un lato delle misure di sicurezza poste a tutela dei dati (più o meno sensibili) presenti, dall’altro della loro (eventuale) conservazione nel lungo periodo.

Social network, privacy ed archivi

Graphs & Social Networks: Facebook Group Social Graph (Gephi)

Graphs & Social Networks: Facebook Group Social Graph (Gephi) di sociomantic

Il successo dei vari social network, da Facebook a Twitter, da LinkedIn ad aNobii, è così travolgente che non è nemmeno più il caso di spendere parole.
Quasi tutti noi ci cimentiamo quotidianamente in attività più o meno eroiche quali postare il nostro stato d’animo, pubblicare la foto del nostro cane, twittare un articolo reputato interessante e via di questo passo.
Una parte sempre più cospicua di queste azioni le compiamo nel corso della nostra giornata lavorativa, talvolta usando una serie di dispositivi tecnologici non di nostra proprietà ma bensì dell’organizzazione presso la quale siamo impiegati: desktop-PC, cellulari, smartphone, portatili, tablet. Talvolta si tratta di comportamenti fatti in modo “furtivo” senza il beneplacito dei nostri datori di lavoro, tal’altra siamo da questi ultimi direttamente incentivati al fine di sviluppare la dimensione (o quanto meno l’immagine) “sociale” della stessa. Nel primo caso il nostro operato, oggettivamente censurabile, può quanto meno provocarci una reprimenda ma può tranquillamente sfociare in sanzioni disciplinari fino al licenziamento (specie se ci lasciamo andare a commenti poco lusinghieri nei confronti dell’organizzazione cui apparteniamo!); nel secondo caso, al contrario, gli stessi account con i quali ci presentiamo e ci facciamo conoscere in Rete comunicano chiaramente agli altri utenti chi siamo e cosa facciamo e proprio in virtù di questo ruolo di “rappresentanti dell’azienda” ci è richiesto di mantenere un profilo in linea con quella che è l’immagine che la nostra organizzazione vuol trasmettere.
Che ci troviamo nel primo o nel secondo dei casi, l’organizzazione cui apparteniamo è spinta a “sorvegliare” la nostra attività; i motivi di questa “pulsione” sono molteplici: 1) di sicurezza (potremmo più o meno consapevolmente mettere in circolazione informazioni riservate) 2) economici (dal danno causato dalla “mancata prestazione” perché il dipendente trascorre il suo tempo a chattare anziché lavorare al caso opposto dell’ex collaboratore che si tiene la rete di contatti instaurata per conto dell’azienda; recente la causa intentata da un’azienda statunitense contro un suo ex lavoratore che le ha fatto un simile colpo gobbo e che ha valutato l’account Twitter con 17mila follower la bellezza di 340mila dollari) 3) di immagine / brand management (vigilare che il flusso di comunicazioni ed informazioni in uscita crei un feedback positivo; che poi quest’insieme di informazioni e comunicazioni possano essere sfruttati anche in chiave di business e di knowledge management tanto meglio!).
Questo compito di “sorveglianza” però è reso difficoltoso dalla notevole frammentazione in termini di device (= di strumenti di creazione) e di servizi (vale a dire, dei diversi social network di volta in volta usati); proprio per aiutare ad assolvere questa “mission” e a venir incontro a quest’insieme eterogeneo di esigenze talvolta contrastanti sono state fondate numerose aziende (una è Smarsh) che offrono servizi di social media archiving: in pratica è possibile definire il livello di accesso dei propri impiegati ai social network, stabilire quali funzionalità attivare nonché controllare preventivamente se quanto viene scritto è in linea con la propria policy. Il tutto viene indicizzato ed archiviato in data center geograficamente distinti (dal punto di vista tecnologico le soluzioni di archiviazione spaziano dai dischi WORM al cloud computing; la citata Smash ad esempio usa il primo per i messaggi su social network o l’instant messaging il secondo per mail ed sms).
Il ricorso a siffatti servizi, se da una parte è comprensibile, dall’altra proprio per la “promiscuità” intrinseca nello “strumento social network” (con una talvolta inscindibile compresenza di dimensione privata e dimensione pubblica), solleva a mio avviso una duplice preoccupazione per quanto attiene la tutela della privacy: in primo luogo quella relativa all’ingerenza nella sfera personale del proprio datore di lavoro, in secondo luogo quella (comune a tutti i servizi di storage sulla nuvola) relativa alla sicurezza dei dati / informazioni affidati a terzi.
Insomma l’ennesima riprova di come il modello del cloud computing presenti ancora lati oscuri e vada implementato con la massima cautela; nel frattempo IDC ha recentemente stimato che a livello globale i proventi del “message and social media archiving” saliranno dal miliardo di dollari del 2011 agli oltre 2 del 2015. Previsioni più che positive che non lasciano dubbi su quale sia la direzione verso cui stiamo andando: un futuro sempre connesso che se da un lato ci offrirà opportunità impensabili fino a pochi anni fa dall’altro “traccerà” ogni istante delle nostre vite e forse ci renderà un po’ meno liberi.

Per la versione su Storify di questo articolo cliccate qui.

In libreria “Archivi e biblioteche tra le nuvole”

"Archivi e biblioteche tra le nuvole" (front cover)

Come preannunciato nel precedente post ho pubblicato un libro su cloud computing e dintorni.
In particolare parlo delle sue applicazioni in ambito archivistico e bibliotecario in sinergia con la diffusione dei nuovi mobile device, il che mi porta ad approfondire temi quali il social reading / networking, il fenomeno dello storage sulla nuvola e tutti i connessi problemi di privacy.

Cloud computing in archivi e biblioteche: tutti lo usano, nessuno ne parla

Del cloud computing tutti ne parlano: ne parlano i CFO e ne parlano i CIO, ne parlano gli economisti e ne parla il Garante della Privacy, ne parlano i nostri amministratori pubblici e ne parlano i costruttori di automobili. Ne parlano però poco o nulla gli archivisti ed i bibliotecari.
Eppure il cloud computing è già usato da tempo tanto da archivisti che da bibliotecari sia nella sua versione SaaS (Software as a Service; una volta si sarebbe detto client-server in opposizione a stand alone; n.d.r.) attraverso software come Clavis NG, ICA-Atom, x-Dams (nel sito ufficiale lo si definisce di tipo ASP, ma la sostanza non è molto diversa), sia nella sua versione IaaS (Infrastructure as a Service): che altro è una biblioteca digitale se non un esempio ante litteram di cloud computing? Che le risorse digitali siano stipate in server di proprietà o affittati dall’altra parte del mondo, poco cambia nella sua struttura logica!
Eppure a parte qualche riferimento sparso (soprattutto da parte di chi si occupa del lato “informatico”, uno su tutti Valdo Pasqui) pochi, veramente pochi lo citano in modo esplicito!

Scelta deliberata per non rispondere ai quesiti posti dalla nuvola o ignoranza?

PS Personalmente mi sono interessato al tema da qualche anno a questa parte e a breve pubblicherò qualcosa a riguardo.