Posts Tagged ‘biblioteche’

La promozione dell’ebook e la lezione di Google ed Amazon

Ebook reader in esposizione in una nota catena

Ebook reader in esposizione in una nota catena

La notizia della probabile prossima apertura, da parte di Google e di Amazon, di un punto di vendita fisico è di quelle che impongono quanto meno una riflessione, se non un vero e proprio ripensamento, su come è stata finora effettuata la promozione dell’ebook e degli ebook reader.
Ma partiamo dalla notizia: che cosa ha indotto queste due aziende, indissolubilmente legate nell’immaginario collettivo al “virtuale” mondo della Rete, a rivedere così drasticamente il proprio approccio? A mio avviso hanno concorso più fattori: in primo luogo ci si è resi conto dell’importanza di avere quello che nel linguaggio del marketing è definito flagship store (vale a dire un luogo fisico che trascende il mero punto vendita, essendo il fine non tanto – o perlomeno non solo – mettere in vetrina i propri prodotti ma soprattutto trasmettere al mondo la propria cultura aziendale ed i valori che l’azienda intende incarnare e diffondere), importanza a sua volta derivante dall’esigenza di fronteggiare in qualche modo lo strapotere mediatico (che si riflette nel valore del brand) attualmente detenuto da Apple; dall’altro lato, ed è questa a mio modo di vedere la principale motivazione, sta la constatazione che il solo canale online da solo non basta in quanto i clienti hanno bisogno di un “contatto fisico” con i prodotti che poi si andranno ad acquistare (e questo vale tanto più ora che sia Google che Amazon hanno prodotti fisici a proprio marchio da vendere, vedasi famiglie Nexus e Kindle, Chromebook, Google Glasses, etc.). Quanti di noi del resto, prima di effettuare una transazione online, hanno pensato bene di fare una capatina in un negozio fisico per provare quel vestito, quel paio di scarpe oppure per testare il funzionamento di un dato cellulare, monitor Tv, etc. ed essere così certi che il prodotto adocchiato faceva effettivamente al caso nostro?
Ammettendo dunque che anche il cliente più tecnologico abbia il desiderio, prima di procedere all’acquisto, di “toccare con mano”, possiamo affermare che questa possibilità sia garantita nel settore del libro digitale (ovviamente qui faccio riferimento all’ereader, imprescindibile supporto di lettura; n.d.r.)? La risposta che possiamo dare credo sia solo parzialmente positiva.
Il panorama infatti non è molto confortante e c’è da chiedersi quanto possa aver influito in negativo sulle vendite di ebook reader e, a cascata, di ebook.
L’osservazione preliminare da fare è che non c’è paragone tra l’imponenza delle campagne pubblicitarie fatte a favore dei tablet e quelle fatte per gli ereader. In seconda battuta bisogna ammettere che il prodotto ereader in sé non viene valorizzato a dovere: nelle grandi catene di elettronica i lettori digitali sono presentati con schede tecniche spesso inadeguate e, come se non bastasse, senza spazi dedicati (niente a che vedere con la centralità che assumono i device di casa Samsung o dell’Apple, giusto per fare nomi…) e, pare inconcepibile, non immersi nel reparto libri (qualora presente) come verrebbe spontaneo pensare, rappresentandone essi pur sempre la controparte digitale, ma bensì confinati in angoli marginali!
Le cose non vanno meglio se si passa ad analizzare la situazione di quegli ebook reader messi in vendita presso le librerie di catena: di norma infatti presso queste ultime si trovano ereader di una specifica azienda, con la quale i colossi editoriali che stanno alle spalle hanno stretto rapporti più o meno di esclusiva (penso a Mondadori / Kobo oppure Melbookstore (ora IBS) / Leggo IBS), il che rende difficile se non impossibile una comparazione diretta a parità di illuminazione, di esposizione ai raggi solari, etc. (ed essendo il fattore discriminate quello dello schermo, questa limitazione assume un particolare rilievo!).
In sostanza, posto che le biblioteche non possono e non devono svolgere un ruolo da capofila in questo ambito (conviene che queste ultime si concentrino sullo sviluppo delle proprie collezioni digitali), appare evidente che le uniche a poter ricoprire un ruolo positivo in questo settore, dal quale peraltro come da più parti ipotizzato potrebbero a loro volta trarre nuova linfa vitale, sono le librerie indipendenti, che dovrebbero approfittare di questa fase transitoria per avviare la trasformazione in librerie digitali indipendenti. Si tratterebbe, inutile dirlo, di un cambiamento non facile e soprattutto non immune da rischi. E’ tutt’altro che garantito infatti, analogamente a quanto avviene con gli altri settori merceologici, che i clienti, una volta effettuata la comparazione, comprino l’ereader là dove spuntano il prezzo migliore! Bisogna sperare, pertanto, che la qualità del servizio garantito, anche in termini di rapporti umani, venga premiato dalla preferenze degli utenti nel momento dell’acquisto.

Annunci

Ebook, è il momento di osare

DOK Delft

DOK Delft (di Gerard Stolk – vers la Chandeleur -, su Flickr)

I dati non sono ancora completi ma oramai non ci sono molti dubbi residui: le ultime festività, che secondo molti dovevano consacrare l’ebook ed in generale l’editoria digitale, sono state avare di soddisfazioni (qui un’accurata sintesi dell’orgia di numeri ai quali siamo stati esposti nelle ultime settimane).
Credere semplicisticamente che questo risultato deludente sia stato influenzato dalla crisi / stagnazione economica che ha contribuito a congelare i consumi non aiuta a comprendere bene lo stato delle cose. Ad esempio lo shopping 2011-12 è andato proporzionalmente meglio nonostante i cataloghi meno forniti! La causa principale di questo mezzo flop va dunque a mio parere ricercata altrove: per la precisione va preso atto che la tecnologia e-ink che caratterizza gli ereader agli occhi dei potenziali acquirenti ha (oramai a parità di prezzo!) un evidente minor appeal rispetto ai tablet, che non a caso non hanno accennato di rallentare la loro corsa (fatta eccezione per quelli di fascia alta prodotti dalla Apple). La prima classe di dispositivi (gli ereader) è appannaggio dei soli cosiddetti “lettori forti” che sono anche i principali “consumatori” di ebook mentre i lettori deboli optano piuttosto per dispositivi più versatili ed “universali” come le tavolette, usate anche per leggere seppur nel corso di “sessioni di lettura” mediamente di minor durata.
Detta in soldoni il rallentamento nelle vendite di lettori per libri digitali potrebbe dunque semplicemente indicare che è stata saturata la peraltro non vastissima platea dei lettori forti (verosimilmente tra i primi ad essere incuriositi dalla novità rappresentata dall’ebook) e che ora viene la parte difficile, ovvero riuscire a convertire al Verbo della lettura digitale chi gran lettore non è!
Ciò a mio avviso non è un’utopia ma senz’altro possibile a patto che tutti gli altri attori osino (e talvolta concedano) qualcosina:
1) partiamo dai produttori di device: gli ereader si stanno sviluppando troppo lentamente (motivo per cui il tasso di sostituzione non è elevato; non fosse per la recente introduzione dell’illuminazione frontale un dispositivo “vecchio” di un paio di anni non è molto inferiore ad uno ora sugli scaffali, laddove i tablet hanno fatto passi da gigante). E’ necessario dunque spingere sulla ricerca al fine di introdurre sul mercato quanto meno ereader con display a colori (su larga scala) e basati su sistema operativo che consente di godersi un minimo di applicazioni multimediali!
2) gli editori da parte loro dovrebbero studiare politiche di prezzo (e di marketing) più aggressive e nel contempo più creative: negli Stati Uniti, per fare un esempio, Humble Bundle nell’ultima tornata è riuscita a raccoglier 10 milioni di dollari vendendo, a prezzi stabiliti dall’acquirente, pacchetti di videogiochi, libri, film… tutti rigorosamente DRM free! Sono certo che in un momento di tagli ai bilanci delle famiglie l’iniziativa sarebbe gradita ed il successo senz’altro replicabile anche di qua dell’Atlantico.
3) le biblioteche dovrebbero premere sull’acceleratore del digitale: sono consapevole che ciò implica onerosi investimenti e che le relative tecnologie sono soggette a veloce obsolescenza ma sono convinto che, se si trova il giusto punto di equilibrio, il sistema sia sostenibile (posto che le biblioteche sono sempre in perdita!). D’altro canto se, come ricorda l’ennesima ricerca del Pew Research Center, il 53% degli utenti statunitensi sopra i 16 anni apprezzerebbe un incremento nell’offerta di ebook, qualcosa bisogna pur fare!
4) gli Stati poi dovrebbero a loro volta fare il massimo per agevolare questo settore strategico: tassazione favorevole sui libri digitali e relativi lettori, investimenti per l’appunto nelle biblioteche (e se i soldi non ci sono favorendo il mecenatismo e/o le sponsorizzazioni!), promozione della lettura e via di questo passo.
Se questa terapia d’urto dovesse venire veramente attuata sono certo che l’intero ecosistema che ruota attorno al libro digitale spiccherebbe, stavolta definitivamente, il volo.

Quando il caffè fa la differenza

Waterstone's

Il punto vendita Waterstone’s di Inverness presso il Mark & Spencer Mall

Persino le poche settimane (agostane ergo vacanziere) trascorse nel Regno Unito mi sono state sufficienti per farmi un’idea di come alcuni cambiamenti strutturali, non ancora pienamente esplicati in Italia, stiano coinvolgendo librerie e biblioteche d’oltremanica (d’altronde se Amazon UK, nel giro di appena due anni, ha annunciato il sorpasso delle vendite di ebook sui corrispettivi cartacei vuole dire che il digital shifting c’è stato eccome!).
Intendiamoci, esteriormente librerie e biblioteche preservano il consueto aspetto: libri in bella mostra, scaffali, locali accoglienti e sedi di pregio o comunque in posizioni centrali. A cambiare è il messaggio che si rivolge al cliente / utente circa l’offerta di prodotti e servizi a quest’ultimo destinati; come si evince dalle foto pubblicate in questo post, specie per le librerie, all’oggetto libro non viene praticamente più riservato il posto di rilievo che ci si potrebbe attendere: certo, i nuovi arrivi ed i best sellers sono ancora in bell’evidenza sulle vetrine, ma è innegabile che ormai si punta su altro: personalmente sono stato sorpreso dall’enfasi con cui si sottolinea la presenza all’interno di librerie e biblioteche dell’ormai immancabile area caffè. Emblematico il caso di Waterstone’s qui sopra, con il brand della catena libraria presentato quasi con lo stesso rilievo di quello di Costa Coffee (la risposta britannica allo statunitense Starbucks, che oltreoceano ha fatto da apripista nel campo con l’ormai ventennale alleanza con Barnes & Noble per poi penetrare all’interno delle biblioteche di college ed università), al punto che vien da chiedersi se stiamo entrando in una libreria od in una caffetteria! Nelle biblioteche questa tendenza è meno accentuata, ma la presenza di un angolo caffè (e non sto parlando dei distributori automatici!) è la regola, del resto accolta anche nelle ultime realizzazioni in Italia.
Ma il punto più interessante, e qui avviene l’interessante “saldatura” tecnologica, è che, si tratti di caffè all’interno di librerie o di biblioteche, i tavolini o divanetti sono sempre affollati di gente intenta a leggere ebook con i suoi e-reader o che comunque armeggia su tablet e smartphone; evidentemente, nonostante la copertura Wi-Fi (con reti aperte!) delle città inglesi sia eccellente in quanto a qualità del segnale e a capillarità degli hot spot, gli utenti / clienti ricercano in questi luoghi il silenzio e la quiete che altrove non possono trovare.
Insomma, la possibilità già ventilata che librerie e biblioteche diventino luoghi privilegiati per il download e la lettura di ebook, ma in generale di diffusione di una cultura del libro digitale, sembra trovare una conferma gettando luci speranzose sul futuro di queste storiche istituzioni, mettendo però in conto una grossa, paradossale evenienza: che l’utente scelga un posto anziché l’altro non per la qualità dei servizi erogati o per la preparazione e gentilezza dei suoi addetti ma per la bontà (o meno) del suo caffè: insomma, dopo anni di discorsi e convegni sulla (certificazione della) qualità totale, la differenza potrebbe finire per farla il caffè!

Café W di Waterstone's

Il Waterstone’s di Blackett Street a Newcastle upon Tyne. Anche qui in evidenza il proprio servizio bar (Café W)


Orkney Library & Archives

Orkney Library & Archives: in questo caso in primo piano è il prestito di ebook (via Overdrive)


Biblioteca del Baltic Centre for Contemporary Art

Biblioteca del Baltic Centre for Contemporary Art (Newcastle upon Tyne): nella sala adiacente, da copione, si trova un piccolo ma decisamente accogliente caffè


La biblioteca del GoMA (Gallery of Modern Art) di Glasgow

La biblioteca del GoMA (Gallery of Modern Art) di Glasgow, pure fornita di ampia e frequentata zona caffè

#SalTo12. Riflessione n. 2

Salone del Libro di Torino 2012

Salone del Libro di Torino 2012

In questo secondo ed ultimo post dedicato al Salone del Libro di Torino riprendo, sviluppandolo, un argomento presente in nuce già nell’articolo di ieri; infatti nel momento in cui evidenziavo come il modello di business ad oggi prevalente nell’editoria digitale rischi di fungere da freno anziché da traino sottintendevo implicitamente come ciò andasse in primo luogo a discapito di quello che dovrebbe essere il protagonista assoluto, vale a dire il lettore.
In effetti, a parole, tutti nel mondo dell’editoria affermano di avere a cuore di quest’ultimo ma nella realtà le cose stanno un po’ diversamente e quanto visto e (non) sentito al Salone conferma questa mia idea.
Infatti posto che la tecnologia dovrebbe migliorare la vita e non complicarla vien da chiedersi: è veramente pensato per facilitare la vita del lettore/cliente un sistema che prevede il DRM? A Torino i grandi dell’editoria hanno sì ventilato l’ipotesi di togliere i tanto vituperati (da parte dei lettori) “lucchetti digitali” ma non è giunto, a quanto mi risulta, nessun annuncio ufficiale (diversamente da quanto avvenuto al Salone di Londra di qualche settimana fa)!
Ancora: è veramente pensato per l’utente un sistema che adotta un formato proprietario come il .mobi leggibile solo con il device che tu stesso produci a meno che non ti metti a smanettare con programmi di “conversione”? Già, perché se andavi allo stand di Amazon i ragazzi (peraltro gentilissimi) mica ti dicevano di questo piccolo “inconveniente”!
E proseguiamo: è veramente pensato per l’utente un sistema in cui si è praticamente “costretti” a comprare i propri libri in un determinato online bookstore che magari non ha nemmeno un adeguato catalogo e questo perché non è stato trovato l’accordo con tutte le case editrici sulla ripartizione dei profitti? Ok, la situazione sta sensibilmente migliorando, ma ciò non toglie che siamo ben lungi dal raggiungere l’optimum!
Per finire, siamo così sicuri che il ricorso alla nuvola (alla quale, per inciso, da sempre guardo con interesse) rappresenti, così come viene raffigurato da alcuni operatori, un passo in avanti? Ad esempio nel momento in cui mi si elencano le virtù insite in un sistema come quello rappresentato da Reader di BookRepublic (app di lettura presentata al Salone che scommette proprio sul cloud; n.d.r.) ovvero possibilità di creare una propria biblioteca sulla nuvola, lettura a partire da n dispositivi che vi si collegano, sincronizzazione ergo possibilità di riprendere la lettura lì dove l’abbiamo interrotta, etc. non sarebbe forse opportuno ricordare come in caso di crash dei server o di assenza di connessione la lettura non è semplicemente possibile (a meno che non si possieda anche una copia in locale)? E non sarebbe male nemmeno rammentare che per accedere alla nuvola serve una connessione dati e che quest’ultima implica la presenza di un hotspot Wi-Fi gratuito e/o la sottoscrizione di un abbonamento sempre che il device da noi posseduto sia dotato di antenna Wi-Fi e/o slot per SIM-card? Insomma, il cloud fa molto figo ma come tutte le tecnologie ha anche delle controindicazioni che sarebbe bello venissero spiegate.
In definitiva, mi sembra che dell’utente ci si ricordi “a singhiozzo” e forse sarebbe il caso di imparare qualcosa dalle biblioteche (sulla sorte delle quali proprio al Salone del Libro ci si è posti inquietanti domande) e dalla loro cultura di servizio che, sicuramente nella teoria e sicuramente anche in alcune realtà avanzate, pone davvero al centro l’utente (approccio user-centered)! Forse nel nostro futuro digitale della biblioteca e dei bibliotecari non avremo più bisogno ma della cultura della biblioteca indubbiamente sì.

La natura infrastrutturale degli archivi contemporanei

IMG_20110415_151845 di GrigorPDX, su Flickr

Left: air filters - they look like plain old disposable filters you'd have in your furnace. Right top: louvers leading to outside air Right bottom: louvers leading to the "hot" side of the data center racks.
(Foto di GrigorPDX, su Flickr)


INTRODUZIONE.

In un celebre quanto datato articolo Robert-Henry Bautier, insigne archivista e medievista francese, proponeva una interessante periodizzazione circa la storia degli archivi; in particolare egli individuava quattro fasi, la terza delle quali veniva definita come “celle des archives arsenal de l’authorithé” e che sarebbe stata caratterizzata dalla concentrazione dei fondi all’interno di edifici realizzati ad hoc che erano in tutto e per tutto castelli, vale a dire muniti di fossati, mura e torrioni difensivi in pietra (da manuale i casi del castello di Simancas in Spagna oppure quello di Castel Sant’Angelo nello Stato Pontificio). Dietro a simili realizzazioni stava una concezione che attribuiva ai documenti un’importanza decisiva per il regolare andamento della macchina amministrativa, l’attestazione dei diritti e delle prerogative regie così come per l’attuazione della politica estera (per riprendere Bautier gli archivisti, e gli archivi, “se font auxiliaires de la politique e de la diplomatie“) motivo per cui la dimensione del corretto ordinamento delle carte procedeva di pari passo con quella della loro “sicura custodia”. Insomma, il ricorso a questa terminologia “militaresca” da parte di Bautier non era dettato da semplici motivazioni retoriche ma dalla constatazione di una realtà oggettiva: così come l’arsenale è una struttura deputata alla costruzione, alla riparazione, all’immagazzinamento ed alla fornitura di armi e munizioni, similmente l’archivio era il luogo in cui trovavano riparo quei documenti che sarebbero stati usati alla stregua di armi nel corso delle bella diplomatica del XVII secolo.

I DATA CENTER, ARSENALI DEL XXI SECOLO.

Con le debite differenze, sulle quali torno poco sotto, mi sembra che gli odierni “arsenali archivistici” siano rappresentati dagli enormi data center che si vanno costruendo in giro per il mondo; il paragone appare calzante in quanto 1) in essi si vanno concentrando le “memorie digitali” relative a milioni e milioni di persone, enti ed aziende 2) nella loro realizzazione vengono adottate precauzioni ed accorgimenti del tutto affini a quelle delle basi militari. Basta dare una scorsa alle misure di sicurezza messe in campo da Amazon per capire come l’accostamento con la realtà militare sia tutt’altro che campato per aria:

Amazon has many years of experience in designing, constructing, and operating large-scale data centers. This experience has been applied to the AWS platform and infrastructure. AWS data centers are housed in nondescript facilities, and critical facilities have extensive setback and military grade perimeter control berms as well as other natural boundary protection. Physical access is strictly controlled both at the perimeter and at building ingress points by professional security staff utilizing video surveillance, state of the art intrusion detection systems, and other electronic means. Authorized staff must pass two-factor authentication no fewer than three times to access data center floors. All visitors and contractors are required to present identification and are signed in and continually escorted by authorized staff.

Amazon only provides data center access and information to employees who have a legitimate business need for such privileges. When an employee no longer has a business need for these privileges, his or her access is immediately revoked, even if they continue to be an employee of Amazon or Amazon Web Services. All physical and electronic access to data centers by Amazon employees is logged and audited routinely.

Fin qui le affinità; venendo alle differenze, ve ne sono due di macroscopiche: 1) gli archivi residenti nei data center, per quanto militarizzati, almeno in linea di principio non sono concepiti per essere al servizio di un qualche potere vessatorio ma bensì sono la base per offrire “servizi” e/o custodire dati, documenti, etc. di cittadini liberi, di aziende operanti nel libero mercato e di istituzioni democratiche 2) diversamente dai secoli passati, lo Stato sembra latitare ed i principali data center sono di proprietà di colossi ben noti al grande pubblico come Amazon, Apple, Google, Facebook ma anche di provider / fornitori come Carpathia, Cogent, OVH, Rackspace, Digital Realty; operatori che ovviamente poi sono ben lieti di offrire i propri “servizi” ai vari enti pubblici! Ad esempio sia Amazon che Carpathia hanno sviluppato apposite soluzioni per il Governo Federale degli Stati Uniti, il quale attinge largamente in modalità cloud computing a questo tipo di servizi (cliccate qui per una lista parziale); in Europa invece, essendo la legislazione comunitaria relativa al trasferimento transfrontaliero dei dati decisamente più restrittiva, si è molto più cauti nell’affidarsi a privati.
Ciò nonostante, ragionando in prospettiva, è verosimile ipotizzare che nell’Unione Europea o si allenteranno le citate restrizioni al trasferimento dei dati (a riguardo si sta delineando una spaccatura tra stati nordici, non disponibili ad un simile passo, e stati mediterranei, più possibilisti), dando dunque la possibilità di avvalersi dei servizi offerti da privati, oppure si procederà alla realizzazione di data center europei in territorio europeo. Personalmente ritengo la seconda opzione come la più lungimirante per i seguenti motivi: 1) il possedere dei data center è, dal punto di vista archivistico, premessa necessaria (ma non sufficiente) per attuare le indispensabili procedure tese a garantire la continuità operativa ed il disaster recovery (il che consente in primis di salvaguardare la parte “corrente”, vale a dire quei dati e documenti contenuti nei server ed indispensabili per il proseguimento dell’attività “istituzionale” del produttore, ed in ultima analisi di garantire la conservazione nel lungo periodo; ovviamente anche un privato può attuare questi piani ma quando si tratta della cosa pubblica e, soprattutto, sono in ballo aspetti così delicati, sono dell’avviso che la P.A. debba occuparsene direttamente) 2) assicura indipendenza ed in un ultima analisi “libertà”. Il rovescio della medaglia, evidente, è che ci si deve fare carico di tutti i costi: realizzativi, di gestione e di manutenzione.

DATA CENTER: MODELLI REALIZZATIVI, ASPETTI TECNICI…

La maggior parte dei moderni data center non è costituita da pochi supercomputer o pochissimi mainframe, bensì dall’unione all’interno di un medesimo spazio fisico di migliaia di elaboratori di fascia medio – bassa. E’ questo, tra i tanti, l’approccio di Google che significativamente lo definisce wharehouse computing e così lo descrive:

The hardware for such a platform consists of thousands of individual computing nodes with their corresponding networking and storage subsystems, power distribution and conditioning equipment and extensive cooling systems. The enclosure for these systems is in fact a building structure and often indistinguishable from a large warehouse

Tale definizione individua quelli che sono gli elementi principali di un data center ovvero “n” elaboratori, custoditi in una sorta di armadietto definito in gergo rack, a loro volta siti all’interno di un edificio e collegati tra di loro. Da ciò deriva che in un DC ricoprono un ruolo cruciale i seguenti sistemi:
1) UPS (Uninterruptible Power Supply; Gruppo di Continuità), il quale assolve a tre compiti fondamentali, ovvero a) garantire l’erogazione continua di energia elettrica alla struttura e, qualora dovesse verificarsi un’interruzione nella fornitura da parte della public utility, b) far intervenire la batteria fintantoché non interviene il generatore di emergenza, il tutto c) senza che si verifichino dannosi sbalzi di tensione
2) PDU (Power Distribution Units), ovvero il sistema di distribuzione dell’energia elettrica, distribuzione che avviene attraverso quadri e/o interruttori elettrici in genere “annegati” nel pavimento del data center
3) sistema di condizionamento; il metodo più diffuso vede la presenza di CRAC (Computer Room Air Conditioning), vale a dire di “stanze” dalle quali spira aria fredda che, scorrendo sotto il pavimento (tra il pavimento vero e proprio e quello che effettivamente si calpesta e sul quale sono collocati rack, CRAC, etc. può esserci sino ad un metro e mezzo di spazio vuoto; n.d.r.), esce attraverso delle specie di grate giusto in corrispondenza dei rack da raffreddare; l’aria calda uscita dai rack fluisce verso l’alto all’interno di un ulteriore spazio vuoto posto nel soffitto e di qui indirizzata verso il CRAC per riprendere il circolo. Nei DC più evoluti la gestione dei flussi d’aria è così raffinata che ad ogni singolo server perviene la necessaria aria di raffreddamento alla temperatura ottimale (una via alternativa è il cosiddetto in-rack cooling nel quale ogni “armadietto” è praticamente “cablato” da serpentine che fungono da scambiatori di calore; questa soluzione ovviamente ottimizza il raffreddamento ma è assai costosa dal momento che l’impianto di raffreddamento viene ad estendersi su tutta la superficie del centro dati oltre che relativamente più pericolosa giacché, in caso di rottura delle serpentine, il liquido di raffreddamento potrebbe finire sulla parte elettrica… evenienza assolutamente da scongiurare!).

Cabinet Airflow

Cabinet Airflow di talk2stu, su Flickr

Va ricordato, per finire, che per aumentare il livello di sicurezza spesso e volentieri i citati elementi sono ridondanti; così se in un data center Tier I vi è un’unico canale di raffreddamento e di distribuzione dell’energia in un Tier IV (il più elevato della scala) ve ne sono due di attivi oltre che ulteriori percorsi di emergenza. Non va ovviamente neppure dimenticato che fondamentale risulta essere la localizzazione geografica del data center: non dovrebbe trovarsi, ad esempio, in zone sismiche, in prossimità di corsi d’acqua ed in generale in aree soggette ad allagamenti o frane (“a rischio idro-geologico”) così come andrebbero evitate zone troppo fredde od al contrario troppo calde! Inoltre, sarebbe auspicabile che nella realizzazione dei DC europei si metabolizzasse l’approccio “green” di Gartner e, pertanto, si facesse ricorso a fonti di energia rinnovabile.

… E L’OBIETTIVO INDEROGABILE DELLA CONTINUITA’ OPERATIVA.

Castelli e fortezze, spesso progettati dai migliori architetti militari, erano in grado di resistere a lunghissimi attacchi ed assedi senza che si verificasse un sensibile degradamento della loro capacità bellica; similmente tutte le soluzioni tecnologiche descritte nella precedente sezione sono finalizzate a garantire la continuità operativa (business continuity), ossia il normale funzionamento dei servizi ICT utilizzati per lo svolgimento delle attività istituzionali, anche in presenza di disguidi tecnici, di “attacchi” o di altri eventi imprevisti. A fronte di avvenimenti che provocano l’indisponibilità prolungata del data center in cui normalmente si opera / al quale ci si appoggia (sito primario), viene attivato il piano di disaster recovery, il quale prevede l’attuazione di un mix di soluzioni tecnologiche ed organizzative tese a garantire la pronta ripresa dell’attività istituzionale in siti alternativi (detti secondari) rispetto a quelli primari/di produzione per il tempo necessario a rendere nuovamente operativo il sito primario.
Si tratta, manco a dirlo, di argomenti da tempo dibattuti in ambito internazionale ma che in Italia, dal punto di vista legislativo, solo di recente hanno finalmente trovato piena recezione; ad esempio le “Linee guida per il Disaster Recovery delle Pubbliche Amministrazioni”, redatte ai sensi dell’art. 50-bis, co. 3 del CAD (D. Lgs. 82/2005), hanno visto la luce solo nell’autunno 2011 ed imponevano che ogni ente presentasse entro il 25 aprile 2012 un Piano di Continuità Operativa (PCO) ed uno di Disaster recovery (PDR), individuando contestualmente una figura responsabile (RCO). Al di là del fatto che le varie amministrazioni abbiano ottemperato o meno nei tempi prescritti ai suddetti obblighi di legge, mi preme qui rilevare come l’input sia stato essenzialmente “archivistico”: nelle citate Linee Guida si trova infatti testualmente scritto che “il processo di dematerializzazione promosso dal CAD […] ha trasformato da ordinatoria a perentoria l’azione di eliminazione della carta, comporta[ndo] un incremento della criticità dei sistemi informatici che non possono più contare su un backup basato sulla documentazione cartacea”.
Da quanto innanzi detto derivano a cascata alcuni cambiamenti di una certa portata:
1) la continuità operativa ed in subordine il disaster recovery sono possibili a patto di individuare preliminarmente, accanto al sito primario, un sito secondario al quale trasferire come operazione di routine i dati / documenti prodotti dal primario; in caso di “problemi” il sito secondario diviene temporaneamente operativo fintantoché il primario non ritorna disponibile e pertanto deve disporre delle necessarie risorse hardware e software =>
2) nelle procedure di BC / DR diventa un fattore cruciale il trasferimento tra i due siti; le Linee Guida prevedono sei livelli (Tier 1 – 6) nei primi due dei quali il trasferimento consiste nel trasporto fisico (ad esempio a mezzo di apposito furgone) dal sito primario a quello secondario dei dischi ottici contenenti la copia di backup. E’ inutile sottolineare, però, come nell’epoca di Internet, grazie anche all’innalzamento delle velocità di upload / download ed ai migliori tempi di latenza, la Rete sia la soluzione più in voga e come il paradigma del cloud computing sia la soluzione sulla quale oggi si punta di più
3) dando per assodato che il trasferimento dei dati avvenga attraverso la Rete, va osservato che le operazioni di copia (Data Mirroring) finiscono per riguardare anche gli applicativi; le Linee Guida infatti lo definiscono “un processo con cui dati ritenuti critici vengono copiati secondo precise regole e politiche di backup al fine di garantire l’integrità, la custodia e la fruibilità degli archivi, dei dati e delle applicazioni e la possibilità di renderli utilizzabili, ove fosse necessario, procedendo al ripristino degli archivi, dei dati e delle applicazioni presso un sito alternativo a quello primario”. In particolare uno degli obiettivi principali è ottenere l’allineamento dei dati (ovvero il “coordinamento dei dati presenti in più archivi finalizzato alla verifica della corrispondenza delle informazioni in essi contenute”; per inciso l’allineamento, a seconda del Tier prescelto, può essere asincrono o sincrono) ed eventualmente il retroallineamento (ovvero “caricare” i dati prodotti nel sito secondario durante una fase di emergenza in quello primario in vista della ripresa dell’operatività di quest’ultimo) =>
4) dal punto di vista archivistico l’attuazione del Piano di Continuità Operativa significa il trasferimento costante di dati / documenti dal sito primario a quello secondario con questi ultimi che, nel caso di Tier 6, sono de facto speculari, motivo per cui (fatto salvo il caso di mancato allineamento), mi sembra si possa parlare della presenza di originali in duplice copia (per quanto poco senso possa avere la distinzione originale – copia in ambiente digitale). Inoltre è interessante osservare come, proprio perché parte integrante delle policy messe in atto, l’instabilità e l’ubiquità di dati e documenti sia, soprattutto nella fase corrente, più la regola che l’eccezione.
5) il legislatore ha chiaro come le operazioni di backup da un sito all’altro non equivalgono alla conservazione di lungo periodo per finalità storico – documentali; a proposito nelle Linee Guida ci si limita a ricordare come occorra raccordarsi al Manuale di conservazione e come il “salvataggio” debba avvenire su supporti adeguati. Sulla scorta di tali suggerimenti mi vien da ipotizzare due possibili soluzioni: a) all’interno della medesima coppia di data center vanno predisposti dei rack attrezzati con storage server di elevata qualità (diversamente dai rimanenti che, abbiamo visto, possono essere di livello medio – basso) nei quali destinare quei dati e documenti per i quali è prevista la conservazione permanente (la cosa è fattibile in quanto la “destinazione finale” è nota sin dal momento della creazione) b) che accanto alla coppia di data center deputati alla fase operativa / corrente ne venga costruita una ad hoc per quella di conservazione.
A prescindere da quale delle due opzioni prediligere (motivazioni di contenimento dei costi / ottenimento di economie di scala mi fanno propendere per la prima soluzione), va rimarcato come venga confermato che la migliore strategia conservativa sia quella di assicurare (potendolo provare attraverso audit, file di log, etc.), che la vita dei dati / documenti è sempre avvenuta all’interno di un sistema sicuro ed inviolato (e qui ritorniamo alle specifiche costruttive che devono possedere i data center) e che le procedure di copia sono avvenute senza errori.
6) Superfluo, da ultimo, sottolineare come gli aspetti tecnici non debbano mettere in secondo piano quelli organizzativi (come sempre deve venir coinvolta l’intera organizzazione!); mi preme solamente evidenziare come vada assolutamente individuata una catena di comando strutturata gerarchicamente secondo un modello che guarda caso rimanda nuovamente all’ambiente militare.

CONCLUSIONI.

Considerando la formazione prettamente umanistica della maggior parte degli archivisti (sottoscritto naturalmente incluso), comprendo come gli argomenti trattati in questo post appaiano oggettivamente ostici; eppure con tali tematiche occorre confrontarsi in quanto, è la mia convinzione, l’archivio del prossimo futuro coinciderà de facto con i moderni data center. Si tratta di un cambiamento di prospettiva di notevole portata per almeno i seguenti motivi: a) in primo luogo perché si torna a parlare di archivio nel suo complesso e non per questa o quella delle ripartizioni logiche – corrente, deposito, storico – nelle quali la teoria e la legislazione tradizionalmente l’hanno suddiviso b) in secondo luogo perché l’archivio diviene infrastruttura strategica e centrale per il “regolare svolgimento” della vita (digitale) di cittadini, aziende ed enti pubblici c) ultimo perché, della costruzione di tali data center / archivi “arsenali”, devono tornare a farsene carico gli Stati, meglio ancora se in chiave europea, l’unica che può garantire il necessario apporto finanziario nonché quell’ampiezza di spazi geografici tali da rendere la localizzazione dei DC veramente adeguata al raggiungimento dei dichiarati obiettivi di business continuity e di disaster recovery.

A chi volesse approfondire questo importante argomento consiglio di leggere la versione su Storify di questo post, ricca di documenti utili.

E-book in Italia, l’incertezza continua

Samsung eBook Reader with a paperback book

Samsung eBook Reader with a paperback book di umpportal.com

I tanto attesi dati definitivi sull’editoria e sull’ebook in Italia nel 2010, attesi soprattutto perché quelli forniti dall’AIE possono a buon diritto essere considerati come “ufficiali”, non hanno contribuito a fare quella chiarezza che ci si attendeva. In generale torna il segno positivo (+ 0,3%) ed aumentano i lettori (come evidenziato tempo fa anche dall’ISTAT), ma calano numero di nuovi titoli e tirature medie, risultati che in considerazione della crisi in atto possono essere anche accolti con moderata soddisfazione.
La cosa preoccupante è che l’ebook, come peraltro ampiamente percepito senza il bisogno di raffinate indagini, non cresce come dovrebbe fermandosi allo 0,04% (lontano da quell’1% indicato l’anno scorso proprio di questi tempi come obiettivo a portata di mano). Nel suo intervento Marco Polillo, presidente AIE, ha giustamente ricordato come non aiuti l’IVA (salita, contro ogni logica, al 21%) così come il costo dei principali dispositivi di lettura si mantenga elevato, ma non vengono affrontati a mio avviso quei nodi cruciali che ho elencato nel mio post di ieri: portabilità, necessità di omogeneizzazione su un unico standard, niente DRM, niente frammentazione dei titoli tra i vari online bookshop (le vendite di questi ultimi sono in aumento ed è una cosa positiva in quanto sarà attraverso tali canali che il libro elettronico verrà principalmente commercializzato), appoggiarsi a biblioteche pubbliche e sistema scolastico in quanto strutture radicate tra la gente capaci di far conoscere a tutti l’ebook (a proposito, si legga questo articolo apparso oggi e che conferma con dovizia di dati quanto ieri sostenevo, pur basandomi su altre fonti, ovvero il ruolo di volano che public libraries e sistema educativo stanno svolgendo negli Stati Uniti nella diffusione del libro digitale).
Insomma leve sulle quali agire per ottenere un cambio di marcia ci sono, certo l’incertezza sul futuro dev’essere tanta se è vero che l’AIE, ed in particolare Polillo nel suo intervento, ben si guardano da fare stime sul futuro prossimo venturo (ci si limita infatti solo a dire che il numero di titoli crescerà). Evidentemente la paura di restare scottati è tanta.

La consueta versione su Storify è puntualmente corredata dai documenti cui ho fatto cenno in questo post e che invito tutti a leggere.

Geolocalizzazione dei data center e cloud computing: da Gartner una nuova prospettiva

Un recente studio di Gartner, significativamente intitolato “Greening the Cloud: Location Is Critical for the Sustainable Future of Outsourced Data Storage and Services”, offre una prospettiva d’analisi diversa relativamente alle modalità di implementazione del cloud computing in generale e della propria server farm nello specifico.
Fino ad oggi infatti la maggior parte degli studi poneva l’attenzione sui vantaggi “convenzionali” ottenibili affidando a terzi la propria infrastruttura IT. I fattori generalmente citati come positivi andavano dal risparmio nell’acquisizione di hardware alla successiva gestione e manutenzione, alla sua scalabilità nonché ai miglioramenti “operativi” con ricadute finali sulla produttività complessiva dell’organizzazione. I benefici dunque in quest’ottica rientravano in tre grandi categorie: finanziari, tecnologici (= un’infrastruttura più snella e competitiva ideale per un mondo in cui mobilità e connettività “sempre ed ovunque” sono ormai elementi imprescindibili) ed operativi.
A fronte di questi vantaggi gli aspetti negativi che gli esperti erano (sono) soliti sollevare riguarda(va)no la sicurezza dei dati sensibili risiedenti presso server di terzi (ovviamente siamo nel caso di public cloud) ed i conseguenti rischi operativi e soprattutto legali derivanti dalla scelta di ricorrere ai servizi sulla nuvola.
Paradossalmente quello della sicurezza dei dati, che per molti sarebbero fortemente a rischio, era (è) un punto che gli esperti pro cloud sistematicamente presenta(va)no come punto di forza della nuvola in quanto a loro avviso in un sistema basato su di essa la ridondanza dei dati e delle infrastrutture, la sicurezza delle location fisiche (realizzate in luoghi geograficamente a basso rischio di disastro naturale / ambientale e dotate dei migliori sistemi di sicurezza, monitorati h24 da personale altamente qualificato), etc. darebbero massime garanzie in termini non solo di sopravvivenza dei dati ma anche di business continuity. Insomma, secondo costoro se non è il non plus ultra poco ci manca!
Lo studio Gartner che mi ha dato lo spunto per questo articolo si inserisce in questo contesto, nel quale le valutazioni di ordine economico sono di primaria importanza, ma compie un salto di qualità; infatti se fino ad oggi nel momento in cui si decideva dove localizzare geograficamente la propria infrastruttura IT si tenevano per l’appunto a mente aspetti quali sismicità della zona, presenza di corsi d’acqua (= rischio esondazione) o per contro vicinanza al mare (= tsunami) e via discorrendo (tutti aspetti che dovrebbero essere ben analizzati, predisponendo contestualmente adeguate contromisure, nei vari piani di sicurezza e di disaster recovery) ora gli analisti Gartner evidenziano come un altro aspetto vada tenuto in debita considerazione: la disponibilità in loco di energia pulita.
Come accennavo, le basi del ragionamento sono squisitamente economiche: poiché una delle principali voci di costo nel mantenimento delle imponenti server farm è quella energetica (i consumi vanno alle stelle soprattutto per riscaldare / raffreddare gli impianti e gli ambienti tout court), tutte quelle aziende che intendono passare al cloud come scelta strategica di lungo periodo dovrebbero localizzare le proprie infrastrutture IT / affidarsi ad aziende localizzate in luoghi e/o nazioni nei quali vi sia abbondanza di energia pulita e possibilmente low cost.
L’esempio portato da Gartner è lampante: l’Australia, troppo dipendente dal carbone (ed in generale dai combustibili fossili), sconterebbe uno “svantaggio competitivo” rispetto alla “vicina” Nuova Zelanda, dove un giusto mix di energie rinnovabili (eolico, fotovoltaico, etc.) garantirebbe, grazie anche alla politica governativa che tende ad incentivarne l’uso, notevoli vantaggi a quelle aziende che intendono qui impiantare la loro server farm (se si guarda al rischio sismico, lasciatemi dire, non si tratta di un bell’affare…).
Ovviamente, conclude Gartner, l’accesso ad energia “verde” e ad un prezzo accessibile non è che un tassello nella risoluzione del “problema energetico”; così sarebbe auspicabile che dal punto di vista costruttivo oltre agli aspetti di sicurezza (impianti antincendio, porte tagliafuoco, etc.) si tenesse conto di fattori quali l’isolamento termico / dispersione del calore e magari integrando nelle strutture stesse delle farm pannelli fotovoltaici a film “di nuova generazione” e via discorrendo!
Insomma, uno studio che apre nuove prospettive anche per paesi come l’Italia (che in fatto di rinnovabili sta facendo notevoli passi in avanti e che ha un enorme potenziale inespresso, anche se ad oggi la dipendenza dai combustibili fossili resta schiacciante), dove altri fattori (elevata percentuale di territorio a rischio idrogeologico e/o sismico su tutti, ma anche scarsa disponibilità di personale skilled reperibile sul posto) sembrerebbero giocare a suo sfavore e che viene incontro, specie per le Pubbliche Amministrazioni, a quelle che sono precise disposizioni di legge (che prevedono ad esempio la residenza di particolari tipi di dati all’interno di server situati geograficamente sul territorio nazionale) nonché alla particolare “sensibilità” di istituzioni quali gli archivi e le biblioteche, per i quali il patrimonio culturale dell’Italia (digitalizzato o in via di produzione che sia) non può e non deve finire all’estero per la mera necessità di risparmiare.

Come ormai consueto ho creato una versione storyfizzata (pertanto fornita degli opportuni link e riferimenti) di questo post: per questa lettura “alternativa” cliccate qui.

%d blogger hanno fatto clic su Mi Piace per questo: