Posts Tagged ‘gartner’

Tra metacloud e personal cloud passa il destino degli archivi di persona digitali?

Zero PC Cloud - Storage Analyzer

Zero PC Cloud – Storage Analyzer

Di metacloud me ne sono già occupato in questo blog ed in particolare con l’occasione avevo descritto il funzionamento di Zero PC; ritorno oggi sull’argomento non solo perché di recente quest’azienda ha rilasciato la nuova versione del suo servizio web-based (rammento che non ho alcun tornaconto a spingere per questo o quel servizio) ma soprattutto perché le linee di sviluppo seguite sembrano paradossalmente confermare le altrettanto recenti previsioni di Gartner circa l’inarrestabile ascesa dello storage sulla nuvola in special modo da parte di privati.
Quali sono dunque, per iniziare, le novità introdotte da Zero PC? Oltre ad una grafica più pulita ed intuitiva, la nuova release si caratterizza innanzitutto per l’accresciuto numero di servizi terzi che si possono gestire: in particolare ci sono, eccezion fatta per iCloud, tutti i principali provider di cloud storage come Box, Dropbox, Drive, Skydrive, etc. al punto che solo ad essere membri free di questi servizi si raggiunge il ragguardevole valore di 40 GB di spazio disponibile (per vedere in dettaglio quanto ce ne rimane di residuo sui vari servizi c’è l’utilissimo Storage Analyzer all’interno del Cloud Dashboard). Ma Zero PC non è mero un gestore di spazi di “archiviazione” e di backup, anzi la nuova versione dimostra appieno la volontà di andare oltre a questo ruolo: a fianco dell’Universal Inbox (che gestisce tutta la messaggistica, quindi non solo email ma anche tweet), hanno fatto la loro comparsa il browser di navigazione interno, il player in HTML 5 e soprattutto la suite di produttività online ThinkFree che permette di creare documenti in formato .doc, fogli di calcolo Excel e presentazioni in Power Point.
Ne risulta, per l’utente, la sensazione di trovarsi in un unico spazio di lavoro e di archiviazione, connotato da condivisione spinta ed elevata versatilità.
E qui il ragionamento si salda con le previsioni di Gartner (spesso tutt’altro che infallibili ma che nello specifico caso ritengo verosimili) alle quali avevo fatto cenno all’inizio: secondo questa importante società di analisi e di ricerca nel 2016 gli utenti / consumatori caricheranno nella nuvola circa il 36% dei propri contenuti digitali (essenzialmente foto e video; a far da volano al fenomeno è infatti la diffusione di device, come i tablet e gli smartphone, con foto/videocamera integrata) mentre la percentuale di contenuti archiviati on premise scenderà dall’attuale 93 al 64%. Anche quando effettuata in locale non si tratterà più comunque di un’archiviazione “statica”: soluzioni di personal cloud capaci di integrarsi in primo luogo con la propria rete domestica ed in seconda battuta con quelle di altri utenti diventeranno la norma.
Questo mix di storage remoto e locale sarà inevitabile anche in vista della crescita esponenziale dei dati posseduti: sempre secondo Gartner ciascun nucleo familiare passerà dagli attuali 464 GB ai 3,3 TB del 2016. L’uso massiccio e quotidiano che verrà fatto delle diverse tipologie di storage condurrà alla loro trasformazione in commodity: per l’utente finale, in poche parole, un servizio varrà l’altro il che non è esattamente il massimo del desiderabile per le aziende che vi basano il proprio business (di qui l’invito di Gartner, rivolto a queste ultime, a ripensare strategicamente il proprio approccio)!
In effetti già ora con i servizi di metacloud, di cui Zero PC è esempio lampante, tutto tende a confondersi nella mai così nebulosa cloud, al punto che non fa apparentemente differenza che un file risieda su Dropbox anziché su Skydrive (tanto Zero PC mi ritrova tutto e posso spostare lo stesso file da una parte all’altra con la massima facilità!): in realtà le condizioni contrattuali, le soluzioni tecnologiche adottate, la qualità del servizio, etc. che sono alle spalle dei diversi servizi possono differire anche sensibilmente! Ma di ciò l’utente medio non è consapevole oppure non vi attribuisce la dovuta importanza.
In altre parole temo che nel prossimo futuro tutto (da una parte i servizi di metacloud che ti invitano a caricare sulla nuvola tanto ci pensano loro a gestire il tutto, dall’altra l’archiviazione in locale che si fa commodity) concorrerà ad aumentare la “disinvoltura” con la quale gli individui “gestiranno” i propri archivi digitali di persona, con le immaginabili conseguenze in termini di potenziale perdita dei dati, di (mancata) tutela della privacy, di (non) oculata gestione della propria identità digitale, etc. Insomma, prospettive non esattamente incoraggianti!
Concludo però facendo notare come il tipo di tecnologia è sì importante ma non decisivo: dati e documenti sono andati definitivamente persi per noncuranza o semplice ignoranza (ed in alcuni casi per deliberata volontà!) in ogni epoca e a prescindere dalla tipologia di supporti adottati. Come ricordato in altri post il problema che ora si pone in ambiente digitale è che serve una chiara e duratura volontà di mantenere “vivi”, conservandoli nel tempo, i vari oggetti digitali che andiamo creando in maniera esponenziale nel corso della nostra esistenza. Questa volontà, a sua volta, non può prescindere dalla presenza, nel soggetto produttore (il singolo individuo, nel caso specifico) di una particolare sensibilità per queste tematiche e soprattutto la consapevolezza che dei fatti, degli avvenimenti, delle cose teniamo memoria non solo perché è un obbligo di legge o perché ne abbiamo materialisticamente l’interesse ma soprattutto perché la memoria è un valore. Temo purtroppo che i nostri tempi non siano i migliori per un simile scatto culturale.

PEC & co.

e-mail symbol di Micky.!

e-mail symbol di Micky.!

Mentre in Italia ci balocchiamo con la PEC, Gartner “sdogana” GMail come valido strumento enterprise; per quanto questa cloud mail patisca ancora di alcune zone d’ombra in fatto di continuità, trasparenza e conformità alla legge, la crescita numerica degli utilizzatori testimonia la capacità di penetrare il mercato da parte dell’azienda di Mountain View. Ovviamente la messa in circolazione dei vari dispositivi mobili è la premessa indispensabile per far sì che il sistema di posta elettronica di Google possa decollare del tutto, ma gli elementi a disposizione lasciano presupporre che sia solo una questione di tempo.
Quanto avviene Oltreoceano stride nettamente con quanto stiamo facendo in Italia con la PEC (Posta Elettronica Certificata): quest’ultima ha certamente alcuni pregi, ma presenta innegabilmente pure molti difetti che a mio avviso potrebbero sancirne il declino nel giro di breve tempo. In primo luogo è riconosciuta solo nel nostro paese e finora nessun’altro mi risulta abbia dimostrato interesse ad “entrare nel club” (si parla di REM, ok, ma mi sembra stia stagnando all’ETSI da un po’ troppo tempo); in secondo luogo non è immediatamente leggibile da parte dei principali smartphone e tablet (tanto gli iPhone quanto i BlackBerry, e quindi pure iPad e PlayBook che ne condividono il sistema operativo, non riescono neppure ad aprire i file tipo .eml) a meno che non si utilizzi Outlook Mobile; peccato che Microsoft non vada esattamente per la maggiore nel settore dei sistemi operativi mobili (stiamo a vedere con Windows Phone 7)! Ve lo vedete il manager a dover fare ottomila passaggi per mandare una mail certificata? Il punto, e questo è il terzo aspetto, è che la PEC è vista da quasi tutti come una grande seccatura, l’ennesimo obbligo (con relativo esborso) imposto da uno Stato che dal canto suo non si adegua completamente e nemmeno riesce a sfruttarne appieno le potenzialità (anche per le indubbie criticità incontrate nella sua applicazione all’interno della PA e per le varie interpretazioni legislative che hanno ulteriormente complicato l’argomento). Insomma, se non proprio gli aspetti tecnico-giuridici, potrebbe essere il mancato feeling con gli utilizzatori a decretarne la precoce fine.

PS La versione storyfizzata di questo post è disponibile al seguente indirizzo: http://storify.com/memoriadigitale/pec-e-dintorni.

Geolocalizzazione dei data center e cloud computing: da Gartner una nuova prospettiva

Un recente studio di Gartner, significativamente intitolato “Greening the Cloud: Location Is Critical for the Sustainable Future of Outsourced Data Storage and Services”, offre una prospettiva d’analisi diversa relativamente alle modalità di implementazione del cloud computing in generale e della propria server farm nello specifico.
Fino ad oggi infatti la maggior parte degli studi poneva l’attenzione sui vantaggi “convenzionali” ottenibili affidando a terzi la propria infrastruttura IT. I fattori generalmente citati come positivi andavano dal risparmio nell’acquisizione di hardware alla successiva gestione e manutenzione, alla sua scalabilità nonché ai miglioramenti “operativi” con ricadute finali sulla produttività complessiva dell’organizzazione. I benefici dunque in quest’ottica rientravano in tre grandi categorie: finanziari, tecnologici (= un’infrastruttura più snella e competitiva ideale per un mondo in cui mobilità e connettività “sempre ed ovunque” sono ormai elementi imprescindibili) ed operativi.
A fronte di questi vantaggi gli aspetti negativi che gli esperti erano (sono) soliti sollevare riguarda(va)no la sicurezza dei dati sensibili risiedenti presso server di terzi (ovviamente siamo nel caso di public cloud) ed i conseguenti rischi operativi e soprattutto legali derivanti dalla scelta di ricorrere ai servizi sulla nuvola.
Paradossalmente quello della sicurezza dei dati, che per molti sarebbero fortemente a rischio, era (è) un punto che gli esperti pro cloud sistematicamente presenta(va)no come punto di forza della nuvola in quanto a loro avviso in un sistema basato su di essa la ridondanza dei dati e delle infrastrutture, la sicurezza delle location fisiche (realizzate in luoghi geograficamente a basso rischio di disastro naturale / ambientale e dotate dei migliori sistemi di sicurezza, monitorati h24 da personale altamente qualificato), etc. darebbero massime garanzie in termini non solo di sopravvivenza dei dati ma anche di business continuity. Insomma, secondo costoro se non è il non plus ultra poco ci manca!
Lo studio Gartner che mi ha dato lo spunto per questo articolo si inserisce in questo contesto, nel quale le valutazioni di ordine economico sono di primaria importanza, ma compie un salto di qualità; infatti se fino ad oggi nel momento in cui si decideva dove localizzare geograficamente la propria infrastruttura IT si tenevano per l’appunto a mente aspetti quali sismicità della zona, presenza di corsi d’acqua (= rischio esondazione) o per contro vicinanza al mare (= tsunami) e via discorrendo (tutti aspetti che dovrebbero essere ben analizzati, predisponendo contestualmente adeguate contromisure, nei vari piani di sicurezza e di disaster recovery) ora gli analisti Gartner evidenziano come un altro aspetto vada tenuto in debita considerazione: la disponibilità in loco di energia pulita.
Come accennavo, le basi del ragionamento sono squisitamente economiche: poiché una delle principali voci di costo nel mantenimento delle imponenti server farm è quella energetica (i consumi vanno alle stelle soprattutto per riscaldare / raffreddare gli impianti e gli ambienti tout court), tutte quelle aziende che intendono passare al cloud come scelta strategica di lungo periodo dovrebbero localizzare le proprie infrastrutture IT / affidarsi ad aziende localizzate in luoghi e/o nazioni nei quali vi sia abbondanza di energia pulita e possibilmente low cost.
L’esempio portato da Gartner è lampante: l’Australia, troppo dipendente dal carbone (ed in generale dai combustibili fossili), sconterebbe uno “svantaggio competitivo” rispetto alla “vicina” Nuova Zelanda, dove un giusto mix di energie rinnovabili (eolico, fotovoltaico, etc.) garantirebbe, grazie anche alla politica governativa che tende ad incentivarne l’uso, notevoli vantaggi a quelle aziende che intendono qui impiantare la loro server farm (se si guarda al rischio sismico, lasciatemi dire, non si tratta di un bell’affare…).
Ovviamente, conclude Gartner, l’accesso ad energia “verde” e ad un prezzo accessibile non è che un tassello nella risoluzione del “problema energetico”; così sarebbe auspicabile che dal punto di vista costruttivo oltre agli aspetti di sicurezza (impianti antincendio, porte tagliafuoco, etc.) si tenesse conto di fattori quali l’isolamento termico / dispersione del calore e magari integrando nelle strutture stesse delle farm pannelli fotovoltaici a film “di nuova generazione” e via discorrendo!
Insomma, uno studio che apre nuove prospettive anche per paesi come l’Italia (che in fatto di rinnovabili sta facendo notevoli passi in avanti e che ha un enorme potenziale inespresso, anche se ad oggi la dipendenza dai combustibili fossili resta schiacciante), dove altri fattori (elevata percentuale di territorio a rischio idrogeologico e/o sismico su tutti, ma anche scarsa disponibilità di personale skilled reperibile sul posto) sembrerebbero giocare a suo sfavore e che viene incontro, specie per le Pubbliche Amministrazioni, a quelle che sono precise disposizioni di legge (che prevedono ad esempio la residenza di particolari tipi di dati all’interno di server situati geograficamente sul territorio nazionale) nonché alla particolare “sensibilità” di istituzioni quali gli archivi e le biblioteche, per i quali il patrimonio culturale dell’Italia (digitalizzato o in via di produzione che sia) non può e non deve finire all’estero per la mera necessità di risparmiare.

Come ormai consueto ho creato una versione storyfizzata (pertanto fornita degli opportuni link e riferimenti) di questo post: per questa lettura “alternativa” cliccate qui.