Evidentemente agli startupper la propria azienda sta a cuore fino ad un certo punto, nel senso che molti sembrano più interessati a farla crescere per poi venderla alla prima “offerta irrinunciabile” (salvo giustificare la vendita stessa come indispensabile per garantire un futuro florido) piuttosto che accompagnarla nel non sempre facile processo di crescita.
E’ proprio questa la sorte capitata in settimana, dopo insistenti rumor, a due aziende la cui attività riguarda in modo più o meno diretto archivi e biblioteche: la prima è la cessione di Mendeley al colosso editoriale Elsevier, la seconda quella di Pulse a LinkedIn.
L’acquisizione di Mendeley lascia un po’ l’amaro in bocca: su questa piattaforma (usata per generare citazioni e bibliografie, diffondere e condividere ricerche, creare gruppi di lavoro online su specifiche tematiche) la comunità accademica, già ai ferri corti con le case editrici ed il contestato sistema dell’impact factor, aveva scommesso forte e si può immaginare il disappunto e la sincera preoccupazione alla notizia che Mendeley finisce dritta dritta in pancia ad uno dei colossi dell’editoria mondiale!
E’ infatti evidente, in un mondo iperconnesso in cui i progetti di ricerca sono molteplici e spesso transnazionali, l’importanza di una piattaforma, possibilmente indipendente / neutra, che permetta di confrontare, scambiare e diffondere i rispettivi risultati! Viene dunque un po’ di rammarico a vedere che le biblioteche (universitarie in primis), che pure in fatto di organizzazione e disseminazione avrebbero qualcosa da dire, rimangono ai margini di quel processo di creazione che esse stesse, grazie alle risorse (bibliografiche e non) messe a disposizione, concorrono a produrre.
Analogo lo stato d’animo e le considerazioni che si possono fare riguardo alla seconda notizia: del fatto che LinkedIn fosse intenzionato a trasformarsi in un vero hub in cui aziende e professionisti non solo pubblicano i propri curricula, ricercano / offrono opportunità di lavoro ed estendono la propria rete di contatti ma anche nel quale pubblicano i propri lavori, paper interni, etc. ne avevo già dato conto in un precedente post. Con l’acquisizione di Pulse (piattaforma per la personalizzazione, selezione e condivisione delle notizie) viene messo un ulteriore tassello nella direzione, stando alle parole di Deep Nishar, di creare “[a] definitive professional publishing platform — where all professionals come to consume content and where publishers come to share their content”. In altre parole quando questa vision sarà realizzata su LinkedIn troveremo non solo letteratura grigia ma pure fresche ed altrettanto preziosissime informazioni!
Una linea di sviluppo indubbiamente interessante al punto che, sorvolando ora sul triste fatto che archivi e biblioteche sono tagliate fuori dai giochi, LinkedIn potrebbe divenire utile luogo di incontro pure per gli archivisti ed i bibliotecari: infatti, in parte perché costretti (la Pubblica Amministrazione non rappresenta più per i noti motivi lo sbocco professionale per eccellenza) in parte per precisa volontà di affermare lo statuto e la dignità delle rispettive professioni (ANAI ed AIB da anni si battono per ottenere il giusto riconoscimento), è in atto un profondo processo di professionalizzazione di questi che fino a qualche tempo fa erano piuttosto mestieri. Su LinkedIn dunque archivisti e bibliotecari, dove per inciso sono già presenti (qui per puro esempio il link ai “colleghi” della sezione Piemonte e Valle d’Aosta), potrebbero al pari di ingegneri, architetti, commerciali, esperti di marketing, etc. pubblicare il proprio CV, reperire offerte di lavoro, entrare in contatto con aziende ed enti, pubblicare articoli e saggi, leggere le principali novità di loro interesse! Si tratterebbe sicuramente di un interessante luogo di confronto e crescita professionale!
In conclusione, si può trarre un importante insegnamento generale dalle acquisizioni di Mendeley e Pulse: queste due società sono diventate appetibili rispettivamente per Elsevier e LinkedIn in quanto ricche di contenuti: sono questi ultimi, specialmente quando legati alle persone ed alle relative reti relazionali, a generare il vero valore aggiunto! Quest’ultimo infatti ha il pregio di essere infungibile e difficilmente imitabile e finisce per tradursi in un maggior valore complessivo (anche economico) dell’azienda. Ne consegue a cascata per i professional, tra i quali ascrivo pure archivisti e bibliotecari, la seguente lezione: puntare sulla sostanza e meno sui fronzoli (leggasi: titoli di studio e cariche ricoperte), curare il proprio profilo (dandogli valore magari attraverso la diffusione di parte delle proprie conoscenze) e la propria cerchia di “contatti” nella consapevolezza che tutto ciò può voler dire maggiori opportunità di lavoro. Lungo questa via dovrebbero muoversi pure archivisti e bibliotecari i quali sono indubbiamente ricchi di “contenuti” e dotati, direi quasi per vocazione, di capacità relazionali. Il che non può che essere motivo di speranza.
Posts Tagged ‘archivi’
14 Apr
Mendeley e Pulse, ovvero, quando quel che conta è il contenuto
30 Ott
L’ebook cambia il rapporto con le fonti documentarie?
Sabato scorso, in occasione della nona edizione del “Forum del libro e della lettura” ho avuto la ventura di assistere ad un interessantissimo workshop nel quale si è cercato di delineare le possibili evoluzioni del libro in ambiente digitale. Come anticipava il titolo dell’incontro (“Sul futuro del libro: la lettura tra web 2.0 e mp3”) l’orizzonte nel quale ci si è mossi ha spaziato dall’ebook di puro testo ai libri “potenziati” (enhanced ebook) fino agli audiolibri; insomma, la carne messa al fuoco è stata moltissima e giocoforza non tutte le questioni sollevate hanno potuto essere sviluppate appieno.
Personalmente ho trovato particolarmente interessante la tematica sollevata da Effe (uno dei relatori) con il caso oramai da manuale di eZagreb, il romanzo di Arturo Robertazzi ambientato ai tempi delle guerre balcaniche che, nella sua versione digitale, contiene oltre alla parte di finzione rimandi a mappe, articoli di giornale, documenti ufficiali del Tribunale Penale Internazionale dell’Aja ed altro materiale “vero”.
Trascendendo ora dal caso specifico, non occorre possedere una fervida fantasia per immaginare come a breve avremo a che fare con libri digitali che, un po’ come i CD-ROM degli anni Novanta, saranno arricchiti non solo di testi ed immagini ma pure di audio e di video (le opinioni sullo stato attuale dell’arte sono state discordi: a detta di alcuni le soluzioni tecnologiche sono già disponibili, per altri non ci sono oppure i risultati non sono soddisfacenti oppure ancora sono raggiungibili solo con cospicui investimenti peraltro economicamente non giustificabili dal momento che un mercato ben definito – a dirla tutta – nemmeno esiste).
Come si capirà le potenzialità sono enormi: se le prime ad essere beneficiate dovrebbero essere le edizioni per ragazzi ed i testi scolastici, lo storico (sopito) che è in me non ha potuto non rilevare come potrebbe venir riscritto il rapporto attualmente esistente con quelle fonti imprescindibili per attestare la scientificità dell’opera ed è su quest’ultimo aspetto che vorrei ora soffermarmi. Perlomeno tre sono a mio avviso i punti rimarchevoli:
1) la fine del primato delle fonti documentarie scritte: la diffusione di dispositivi capaci di catturare suoni e filmati è sotto gli occhi di tutti ed il loro facile utilizzo (in termini di ricerca e riproduzione) da una parte nonché la mole di “documenti” realizzabili dall’altra lascia supporre che le prossime generazioni di storici non potranno che farne un uso più esteso rispetto a quanto fatto finora, ad esempio, con le fonti orali
2) la verificabilità pressoché immediata delle fonti utilizzate: quel complesso apparato fatto di note, rimandi, riferimenti bibliografici a cui siamo stati abituati in fin dei conti ci dava solo la possibilità teorica (e questa in definitiva ci bastava!) di verificarne l’esattezza. All’atto pratico infatti ben pochi avevano la possibilità (e men che meno la voglia!) di verificare di persona recandosi in questo archivio od in quella biblioteca… Oggi invece con un click del mouse o con un tocco delle dita abbiamo modo di accedere direttamente alla fonte utilizzata per supportare una interpretazione od avvalorare una tesi, verificando di persona; ne consegue che lo storico non solo è costretto a fare un uso il più accorto possibile delle fonti medesime ma anzi deve ad esse attenersi con il massimo scrupolo, pena il vedere il proprio lavoro screditato
3) il tramonto delle fonti ufficiali: la ricerca della verità storica, ammesso che sia raggiungibile, non si basa più sull’uso praticamente esclusivo di fonti di provenienza ufficiale (leggasi: gli Stati) bensì prevede il ricorso a fonti prodotte anche in modo meno istituzionalizzato (mi verrebbe da usare il termine “accidentale”) dai più svariati soggetti produttori. Si badi comunque che anche queste ultime fonti, per quanto mediamente più “genuine”, vanno “maneggiate con cura” soprattutto perché, nel momento in cui si fanno meno mediate (il video realizzato in presa diretta di una cruenta battaglia possiede sicuramente una carica emotiva più forte del resoconto della stessa stilato a tavolino da una commissione militare!) diventano paradossalmente anche più difficilmente “elaborabili”! Ma a prescindere da queste controindicazioni credo che la produzione storiografica che verrà, basandosi su un mix più equilibrato di fonti, sarà in ogni caso complessivamente meno sbilanciata (non uso appositamente il termine “oggettiva”) e meno unilaterale, il che mi sembra un bene.
Non è superfluo, per concludere, sottolineare come l’utilizzo di queste fonti all’interno dei libri digitali del futuro non potrà prescindere da un adeguamento degli archivi (senza peraltro con ciò suggerire che questi istituti debbano essere piegati agli interessi degli storici!): si va dalla necessità di adottare formati capaci di essere “integrati” in questa sorta di super-libri all’esigenza alternativa di garantire la loro “linkabilità” duratura nel tempo (sarebbe assurdo che un testo perdesse il suo apparato di note perché i link ai quali esso rimanda sono morti – definiti in gergo link rot, n.d.r.) fino ovviamente alla loro leggibilità (il link non solo deve essere attivo, ma la risorsa mirata usabile!). Tutti obiettivi conseguibili solo predisponendo infrastrutture informatiche capaci di garantire la conservazione nel lungo periodo di “risorse” identificabili univocamente nel tempo.
Val la pena infine evidenziare che, venendo meno la centralità degli archivi “ufficiali”, sarà importante che tutti i soggetti produttori sviluppino una ben definita “cultura dell’archivio”, senza la quale ben poco di affidabile (trusted) è destinato a rimanerci, nonché acquisiscano competenze adeguate a trattare un materiale che verosimilmente sarà molto più eterogeneo di quello sin qui prodotto. Non c’è che dire: sfide complesse ci attendono!
25 Mag
L’insegnamento della quotazione di Facebook ovvero l’importanza di avere un modello di business sostenibile
Il recente flop della quotazione di Facebook al NASDAQ, con tutto lo strascico di polemiche ed azioni legali che si è portato dietro, merita un approfondimento giacché da esso si può prendere spunto per alcune riflessioni valide pure per il settore editoriale.
Partiamo dall’inizio: com’è potuto accadere che “la più grande IPO tecnologica di tutti i tempi” sia finita così male, con il titolo che nel momento in cui scrivo quota attorno ai 31 dollari, ben al di sotto dei 38 euro di collocamento?! E’ successo che attorno alle operazioni di sbarco in borsa si è creato un enorme battage mediatico il quale ha fatto sfuggire ai più un “piccolo” dettaglio: Facebook, constatato che molti dei suoi utenti accedono ai suoi servizi attraverso dispositivi mobili, aveva modificato il proprio “prospetto informativo” agli investitori nel punto in cui si parlava dei futuri introiti. Già, perché i proventi per utente mobile sono assai inferiori rispetto a quelli “tradizionali” da PC. Il bello è che tutte queste informazioni erano pubbliche e non ha dunque senso ora andare a prendersela con Morgan Stanley (che avrà pure comunicato ad un numero ristretto di investitori le sue analisi aggiornate e fatto operazioni di vendita poco trasparenti): Josh Constine aveva spiegato tutto per filo e per segno in un dettagliato post su Techcrunch con tanto di documento presentato alla SEC!
Il punto cruciale è proprio questo: lo spostamento verso il mobile sta ulteriormente cambiando i modelli di business di Internet, prevalentemente basati sulla pubblicità, e questo vale non solo per Facebook, che forse non ne ha mai avuto uno, ma anche per Google: i click sugli ads di Mountain View calano assai se la navigazione avviene in mobilità!
Alla luce di quanto finora detto la domanda interessante da porsi è la seguente: quali saranno le conseguenze di questo shifting nel settore editoriale?
Ovviamente sull’argomento si potrebbe scrivere un trattato ed in questa sede l’analisi non può che essere di poche righe; resterò dunque parecchio sul generale con l’ulteriore precauzione, per praticità espositiva, di affrontare separatamente i settori dell’editoria periodica e dell’editoria libraria nonostante nella realtà i principali gruppi operino in entrambi i campi.
Partiamo dall’editoria periodica (con un occhio di riguardo per il giornalismo, il segmento a sua volta più effervescente), la quale complessivamente arranca con un calo sensibile delle vendite delle copie fisiche (e di conseguenza del giro d’affari) ed una crescita numerica degli utenti della versione digitale (= sito online + versione ad hoc per tablet od ereader) alla quale però non corrisponde un parallelo aumento dei ricavi derivanti dalle inserzioni pubblicitarie. Morale della favola: i costi sono in disordine od al massimo in precario equilibrio (e questo vale anche per le testate interamente online, la cui semplice sopravvivenza rappresenta già un successo). Inserito in questo contesto il passaggio alla navigazione in mobilità rappresenta un duplice pericolo giacché, ammettendo che valga la regola che calano gli introiti pubblicitari, i conti rischiano di sprofondare in rosso una volta per tutte! Né, allo stato delle cose, ricorrere alle app sembra essere risolutivo: sono proprio queste quelle in cui la pubblicità deve giocoforza essere maggiormente “occultata”, riducendo di conseguenza le possibilità di click. L’alternativa, ovvero farsi pagare per le news, non mi convince molto perché in Internet la gente si è abituata a trovare gratis anche quel che prima pagava senza batter ciglio; in questo senso l’esperienza del New York Times, con ripetuti tentativi di passare al modello pay ed altrettanti ritorni è emblematica delle difficoltà di trovare una soluzione accettabile (attualmente il NYT propone diversi “piani tariffari” e i risultati sembrano essere soddisfacenti).
Almeno sulla carta per gli editori librari la situazione è propizia, dal momento che la navigazione in mobilità avviene attraverso quei dispositivi (tablet ed ereader) che sono volano imprescindibile per la diffusione dei libri digitali. In realtà, lasciando ora stare il fenomeno pirateria e la probabile entrata di nuovi temibilissimi competitor, la situazione è molto più ingarbugliata di quanto si creda e per capirlo può essere utile dare un’occhiata a quanto capitato al settore discografico, dove al crollo delle vendite di CD ha fatto sì da contraltare un aumento dei download e degli ascolti in streaming a pagamento ma senza riuscire a tornare al giro d’affari precedente all’avvento del digitale (il che è peraltro normale dal momento che, a parità di “dischi” venduti, quelli digitali costano meno – per fortuna – dei corrispettivi analogici per via dei minori costi di produzione). Dovesse l’editoria libraria seguire un percorso analogo, c’è dunque da aspettarsi un passaggio da analogico a digitale (posto che la transizione sarà lunga e che le due realtà coesisteranno a lungo) che comporterà dolorose ristrutturazioni e soprattutto metterà in crisi i bilanci di quelle aziende “ibride” (vale a dire la maggior parte) che dovranno sopportare tanto i costi della carta quanto quelli necessari per passare alle nuove modalità di produzione, distribuzione e vendita. In tutto questo trapasso quelle case editrici esclusivamente digitali sorte negli ultimi anni potrebbero risultare avvantaggiate non dovendo sostenere, per l’appunto, quei costi fissi propri dell’old economy.
Tirando le somme l’editoria periodica, che aveva riposto le sue speranze sulla pubblicità, vede queste ultime vacillare dal passaggio al mobile e pure l’editoria libraria dovrà ristrutturarsi tenendo conto che il giro d’affari futuro, a parità di vendite, potrebbe essere inferiore all’attuale. La scommessa è dunque riuscire a vendere di più, obiettivo raggiungibile a mio avviso proponendo formule innovative del tipo “pacchetti” flat (con 50 euro annui si possono leggere libri illimitati, un po’ come fa Amazon, oppure una combinazione a scelta “libro + periodico”) o, ancor meglio, una “ricarica” di 50 euro per un TOT di contenuti (articoli di giornale, libri o sue parti, etc.) o quant’altro possa risultare appetibile oltre che comodo per l’utente/cliente. Insomma, le possibilità ci sono ed il bello del digitale è che consente formule prima impensabili.
PS Da rimarcare come il processo di shifting to mobile non danneggi il settore “archivistico” ma al contrario apra nuove possibilità di business, argomento che sarà oggetto di un prossimo post.
8 Mag
La natura infrastrutturale degli archivi contemporanei

Left: air filters - they look like plain old disposable filters you'd have in your furnace. Right top: louvers leading to outside air Right bottom: louvers leading to the "hot" side of the data center racks.
(Foto di GrigorPDX, su Flickr)
INTRODUZIONE.
In un celebre quanto datato articolo Robert-Henry Bautier, insigne archivista e medievista francese, proponeva una interessante periodizzazione circa la storia degli archivi; in particolare egli individuava quattro fasi, la terza delle quali veniva definita come “celle des archives arsenal de l’authorithé” e che sarebbe stata caratterizzata dalla concentrazione dei fondi all’interno di edifici realizzati ad hoc che erano in tutto e per tutto castelli, vale a dire muniti di fossati, mura e torrioni difensivi in pietra (da manuale i casi del castello di Simancas in Spagna oppure quello di Castel Sant’Angelo nello Stato Pontificio). Dietro a simili realizzazioni stava una concezione che attribuiva ai documenti un’importanza decisiva per il regolare andamento della macchina amministrativa, l’attestazione dei diritti e delle prerogative regie così come per l’attuazione della politica estera (per riprendere Bautier gli archivisti, e gli archivi, “se font auxiliaires de la politique e de la diplomatie“) motivo per cui la dimensione del corretto ordinamento delle carte procedeva di pari passo con quella della loro “sicura custodia”. Insomma, il ricorso a questa terminologia “militaresca” da parte di Bautier non era dettato da semplici motivazioni retoriche ma dalla constatazione di una realtà oggettiva: così come l’arsenale è una struttura deputata alla costruzione, alla riparazione, all’immagazzinamento ed alla fornitura di armi e munizioni, similmente l’archivio era il luogo in cui trovavano riparo quei documenti che sarebbero stati usati alla stregua di armi nel corso delle bella diplomatica del XVII secolo.
I DATA CENTER, ARSENALI DEL XXI SECOLO.
Con le debite differenze, sulle quali torno poco sotto, mi sembra che gli odierni “arsenali archivistici” siano rappresentati dagli enormi data center che si vanno costruendo in giro per il mondo; il paragone appare calzante in quanto 1) in essi si vanno concentrando le “memorie digitali” relative a milioni e milioni di persone, enti ed aziende 2) nella loro realizzazione vengono adottate precauzioni ed accorgimenti del tutto affini a quelle delle basi militari. Basta dare una scorsa alle misure di sicurezza messe in campo da Amazon per capire come l’accostamento con la realtà militare sia tutt’altro che campato per aria:
Amazon has many years of experience in designing, constructing, and operating large-scale data centers. This experience has been applied to the AWS platform and infrastructure. AWS data centers are housed in nondescript facilities, and critical facilities have extensive setback and military grade perimeter control berms as well as other natural boundary protection. Physical access is strictly controlled both at the perimeter and at building ingress points by professional security staff utilizing video surveillance, state of the art intrusion detection systems, and other electronic means. Authorized staff must pass two-factor authentication no fewer than three times to access data center floors. All visitors and contractors are required to present identification and are signed in and continually escorted by authorized staff.
Amazon only provides data center access and information to employees who have a legitimate business need for such privileges. When an employee no longer has a business need for these privileges, his or her access is immediately revoked, even if they continue to be an employee of Amazon or Amazon Web Services. All physical and electronic access to data centers by Amazon employees is logged and audited routinely.
Fin qui le affinità; venendo alle differenze, ve ne sono due di macroscopiche: 1) gli archivi residenti nei data center, per quanto militarizzati, almeno in linea di principio non sono concepiti per essere al servizio di un qualche potere vessatorio ma bensì sono la base per offrire “servizi” e/o custodire dati, documenti, etc. di cittadini liberi, di aziende operanti nel libero mercato e di istituzioni democratiche 2) diversamente dai secoli passati, lo Stato sembra latitare ed i principali data center sono di proprietà di colossi ben noti al grande pubblico come Amazon, Apple, Google, Facebook ma anche di provider / fornitori come Carpathia, Cogent, OVH, Rackspace, Digital Realty; operatori che ovviamente poi sono ben lieti di offrire i propri “servizi” ai vari enti pubblici! Ad esempio sia Amazon che Carpathia hanno sviluppato apposite soluzioni per il Governo Federale degli Stati Uniti, il quale attinge largamente in modalità cloud computing a questo tipo di servizi (cliccate qui per una lista parziale); in Europa invece, essendo la legislazione comunitaria relativa al trasferimento transfrontaliero dei dati decisamente più restrittiva, si è molto più cauti nell’affidarsi a privati.
Ciò nonostante, ragionando in prospettiva, è verosimile ipotizzare che nell’Unione Europea o si allenteranno le citate restrizioni al trasferimento dei dati (a riguardo si sta delineando una spaccatura tra stati nordici, non disponibili ad un simile passo, e stati mediterranei, più possibilisti), dando dunque la possibilità di avvalersi dei servizi offerti da privati, oppure si procederà alla realizzazione di data center europei in territorio europeo. Personalmente ritengo la seconda opzione come la più lungimirante per i seguenti motivi: 1) il possedere dei data center è, dal punto di vista archivistico, premessa necessaria (ma non sufficiente) per attuare le indispensabili procedure tese a garantire la continuità operativa ed il disaster recovery (il che consente in primis di salvaguardare la parte “corrente”, vale a dire quei dati e documenti contenuti nei server ed indispensabili per il proseguimento dell’attività “istituzionale” del produttore, ed in ultima analisi di garantire la conservazione nel lungo periodo; ovviamente anche un privato può attuare questi piani ma quando si tratta della cosa pubblica e, soprattutto, sono in ballo aspetti così delicati, sono dell’avviso che la P.A. debba occuparsene direttamente) 2) assicura indipendenza ed in un ultima analisi “libertà”. Il rovescio della medaglia, evidente, è che ci si deve fare carico di tutti i costi: realizzativi, di gestione e di manutenzione.
DATA CENTER: MODELLI REALIZZATIVI, ASPETTI TECNICI…
La maggior parte dei moderni data center non è costituita da pochi supercomputer o pochissimi mainframe, bensì dall’unione all’interno di un medesimo spazio fisico di migliaia di elaboratori di fascia medio – bassa. E’ questo, tra i tanti, l’approccio di Google che significativamente lo definisce wharehouse computing e così lo descrive:
The hardware for such a platform consists of thousands of individual computing nodes with their corresponding networking and storage subsystems, power distribution and conditioning equipment and extensive cooling systems. The enclosure for these systems is in fact a building structure and often indistinguishable from a large warehouse
Tale definizione individua quelli che sono gli elementi principali di un data center ovvero “n” elaboratori, custoditi in una sorta di armadietto definito in gergo rack, a loro volta siti all’interno di un edificio e collegati tra di loro. Da ciò deriva che in un DC ricoprono un ruolo cruciale i seguenti sistemi:
1) UPS (Uninterruptible Power Supply; Gruppo di Continuità), il quale assolve a tre compiti fondamentali, ovvero a) garantire l’erogazione continua di energia elettrica alla struttura e, qualora dovesse verificarsi un’interruzione nella fornitura da parte della public utility, b) far intervenire la batteria fintantoché non interviene il generatore di emergenza, il tutto c) senza che si verifichino dannosi sbalzi di tensione
2) PDU (Power Distribution Units), ovvero il sistema di distribuzione dell’energia elettrica, distribuzione che avviene attraverso quadri e/o interruttori elettrici in genere “annegati” nel pavimento del data center
3) sistema di condizionamento; il metodo più diffuso vede la presenza di CRAC (Computer Room Air Conditioning), vale a dire di “stanze” dalle quali spira aria fredda che, scorrendo sotto il pavimento (tra il pavimento vero e proprio e quello che effettivamente si calpesta e sul quale sono collocati rack, CRAC, etc. può esserci sino ad un metro e mezzo di spazio vuoto; n.d.r.), esce attraverso delle specie di grate giusto in corrispondenza dei rack da raffreddare; l’aria calda uscita dai rack fluisce verso l’alto all’interno di un ulteriore spazio vuoto posto nel soffitto e di qui indirizzata verso il CRAC per riprendere il circolo. Nei DC più evoluti la gestione dei flussi d’aria è così raffinata che ad ogni singolo server perviene la necessaria aria di raffreddamento alla temperatura ottimale (una via alternativa è il cosiddetto in-rack cooling nel quale ogni “armadietto” è praticamente “cablato” da serpentine che fungono da scambiatori di calore; questa soluzione ovviamente ottimizza il raffreddamento ma è assai costosa dal momento che l’impianto di raffreddamento viene ad estendersi su tutta la superficie del centro dati oltre che relativamente più pericolosa giacché, in caso di rottura delle serpentine, il liquido di raffreddamento potrebbe finire sulla parte elettrica… evenienza assolutamente da scongiurare!).
Va ricordato, per finire, che per aumentare il livello di sicurezza spesso e volentieri i citati elementi sono ridondanti; così se in un data center Tier I vi è un’unico canale di raffreddamento e di distribuzione dell’energia in un Tier IV (il più elevato della scala) ve ne sono due di attivi oltre che ulteriori percorsi di emergenza. Non va ovviamente neppure dimenticato che fondamentale risulta essere la localizzazione geografica del data center: non dovrebbe trovarsi, ad esempio, in zone sismiche, in prossimità di corsi d’acqua ed in generale in aree soggette ad allagamenti o frane (“a rischio idro-geologico”) così come andrebbero evitate zone troppo fredde od al contrario troppo calde! Inoltre, sarebbe auspicabile che nella realizzazione dei DC europei si metabolizzasse l’approccio “green” di Gartner e, pertanto, si facesse ricorso a fonti di energia rinnovabile.
… E L’OBIETTIVO INDEROGABILE DELLA CONTINUITA’ OPERATIVA.
Castelli e fortezze, spesso progettati dai migliori architetti militari, erano in grado di resistere a lunghissimi attacchi ed assedi senza che si verificasse un sensibile degradamento della loro capacità bellica; similmente tutte le soluzioni tecnologiche descritte nella precedente sezione sono finalizzate a garantire la continuità operativa (business continuity), ossia il normale funzionamento dei servizi ICT utilizzati per lo svolgimento delle attività istituzionali, anche in presenza di disguidi tecnici, di “attacchi” o di altri eventi imprevisti. A fronte di avvenimenti che provocano l’indisponibilità prolungata del data center in cui normalmente si opera / al quale ci si appoggia (sito primario), viene attivato il piano di disaster recovery, il quale prevede l’attuazione di un mix di soluzioni tecnologiche ed organizzative tese a garantire la pronta ripresa dell’attività istituzionale in siti alternativi (detti secondari) rispetto a quelli primari/di produzione per il tempo necessario a rendere nuovamente operativo il sito primario.
Si tratta, manco a dirlo, di argomenti da tempo dibattuti in ambito internazionale ma che in Italia, dal punto di vista legislativo, solo di recente hanno finalmente trovato piena recezione; ad esempio le “Linee guida per il Disaster Recovery delle Pubbliche Amministrazioni”, redatte ai sensi dell’art. 50-bis, co. 3 del CAD (D. Lgs. 82/2005), hanno visto la luce solo nell’autunno 2011 ed imponevano che ogni ente presentasse entro il 25 aprile 2012 un Piano di Continuità Operativa (PCO) ed uno di Disaster recovery (PDR), individuando contestualmente una figura responsabile (RCO). Al di là del fatto che le varie amministrazioni abbiano ottemperato o meno nei tempi prescritti ai suddetti obblighi di legge, mi preme qui rilevare come l’input sia stato essenzialmente “archivistico”: nelle citate Linee Guida si trova infatti testualmente scritto che “il processo di dematerializzazione promosso dal CAD […] ha trasformato da ordinatoria a perentoria l’azione di eliminazione della carta, comporta[ndo] un incremento della criticità dei sistemi informatici che non possono più contare su un backup basato sulla documentazione cartacea”.
Da quanto innanzi detto derivano a cascata alcuni cambiamenti di una certa portata:
1) la continuità operativa ed in subordine il disaster recovery sono possibili a patto di individuare preliminarmente, accanto al sito primario, un sito secondario al quale trasferire come operazione di routine i dati / documenti prodotti dal primario; in caso di “problemi” il sito secondario diviene temporaneamente operativo fintantoché il primario non ritorna disponibile e pertanto deve disporre delle necessarie risorse hardware e software =>
2) nelle procedure di BC / DR diventa un fattore cruciale il trasferimento tra i due siti; le Linee Guida prevedono sei livelli (Tier 1 – 6) nei primi due dei quali il trasferimento consiste nel trasporto fisico (ad esempio a mezzo di apposito furgone) dal sito primario a quello secondario dei dischi ottici contenenti la copia di backup. E’ inutile sottolineare, però, come nell’epoca di Internet, grazie anche all’innalzamento delle velocità di upload / download ed ai migliori tempi di latenza, la Rete sia la soluzione più in voga e come il paradigma del cloud computing sia la soluzione sulla quale oggi si punta di più
3) dando per assodato che il trasferimento dei dati avvenga attraverso la Rete, va osservato che le operazioni di copia (Data Mirroring) finiscono per riguardare anche gli applicativi; le Linee Guida infatti lo definiscono “un processo con cui dati ritenuti critici vengono copiati secondo precise regole e politiche di backup al fine di garantire l’integrità, la custodia e la fruibilità degli archivi, dei dati e delle applicazioni e la possibilità di renderli utilizzabili, ove fosse necessario, procedendo al ripristino degli archivi, dei dati e delle applicazioni presso un sito alternativo a quello primario”. In particolare uno degli obiettivi principali è ottenere l’allineamento dei dati (ovvero il “coordinamento dei dati presenti in più archivi finalizzato alla verifica della corrispondenza delle informazioni in essi contenute”; per inciso l’allineamento, a seconda del Tier prescelto, può essere asincrono o sincrono) ed eventualmente il retroallineamento (ovvero “caricare” i dati prodotti nel sito secondario durante una fase di emergenza in quello primario in vista della ripresa dell’operatività di quest’ultimo) =>
4) dal punto di vista archivistico l’attuazione del Piano di Continuità Operativa significa il trasferimento costante di dati / documenti dal sito primario a quello secondario con questi ultimi che, nel caso di Tier 6, sono de facto speculari, motivo per cui (fatto salvo il caso di mancato allineamento), mi sembra si possa parlare della presenza di originali in duplice copia (per quanto poco senso possa avere la distinzione originale – copia in ambiente digitale). Inoltre è interessante osservare come, proprio perché parte integrante delle policy messe in atto, l’instabilità e l’ubiquità di dati e documenti sia, soprattutto nella fase corrente, più la regola che l’eccezione.
5) il legislatore ha chiaro come le operazioni di backup da un sito all’altro non equivalgono alla conservazione di lungo periodo per finalità storico – documentali; a proposito nelle Linee Guida ci si limita a ricordare come occorra raccordarsi al Manuale di conservazione e come il “salvataggio” debba avvenire su supporti adeguati. Sulla scorta di tali suggerimenti mi vien da ipotizzare due possibili soluzioni: a) all’interno della medesima coppia di data center vanno predisposti dei rack attrezzati con storage server di elevata qualità (diversamente dai rimanenti che, abbiamo visto, possono essere di livello medio – basso) nei quali destinare quei dati e documenti per i quali è prevista la conservazione permanente (la cosa è fattibile in quanto la “destinazione finale” è nota sin dal momento della creazione) b) che accanto alla coppia di data center deputati alla fase operativa / corrente ne venga costruita una ad hoc per quella di conservazione.
A prescindere da quale delle due opzioni prediligere (motivazioni di contenimento dei costi / ottenimento di economie di scala mi fanno propendere per la prima soluzione), va rimarcato come venga confermato che la migliore strategia conservativa sia quella di assicurare (potendolo provare attraverso audit, file di log, etc.), che la vita dei dati / documenti è sempre avvenuta all’interno di un sistema sicuro ed inviolato (e qui ritorniamo alle specifiche costruttive che devono possedere i data center) e che le procedure di copia sono avvenute senza errori.
6) Superfluo, da ultimo, sottolineare come gli aspetti tecnici non debbano mettere in secondo piano quelli organizzativi (come sempre deve venir coinvolta l’intera organizzazione!); mi preme solamente evidenziare come vada assolutamente individuata una catena di comando strutturata gerarchicamente secondo un modello che guarda caso rimanda nuovamente all’ambiente militare.
CONCLUSIONI.
Considerando la formazione prettamente umanistica della maggior parte degli archivisti (sottoscritto naturalmente incluso), comprendo come gli argomenti trattati in questo post appaiano oggettivamente ostici; eppure con tali tematiche occorre confrontarsi in quanto, è la mia convinzione, l’archivio del prossimo futuro coinciderà de facto con i moderni data center. Si tratta di un cambiamento di prospettiva di notevole portata per almeno i seguenti motivi: a) in primo luogo perché si torna a parlare di archivio nel suo complesso e non per questa o quella delle ripartizioni logiche – corrente, deposito, storico – nelle quali la teoria e la legislazione tradizionalmente l’hanno suddiviso b) in secondo luogo perché l’archivio diviene infrastruttura strategica e centrale per il “regolare svolgimento” della vita (digitale) di cittadini, aziende ed enti pubblici c) ultimo perché, della costruzione di tali data center / archivi “arsenali”, devono tornare a farsene carico gli Stati, meglio ancora se in chiave europea, l’unica che può garantire il necessario apporto finanziario nonché quell’ampiezza di spazi geografici tali da rendere la localizzazione dei DC veramente adeguata al raggiungimento dei dichiarati obiettivi di business continuity e di disaster recovery.
A chi volesse approfondire questo importante argomento consiglio di leggere la versione su Storify di questo post, ricca di documenti utili.
16 Mar
Open data a Milano, ma gli archivi dove sono?
L’altro ieri il Comune di Milano ha presentato con una certa enfasi il progetto Open Data, con il quale si rendono disponibili (lo evidenzio perché pubblici lo sono già) e soprattutto liberamente usabili quei dati raccolti dal Comune stesso, il tutto con la speranza che i cittadini creino app capaci di migliorare la vita della città dando ad esempio informazioni in tempo reale sul traffico, sui parcheggi liberi, sui tombini intasati, sulle buche presenti sul manto stradale, etc.
Naturalmente l’iniziativa va accolta con il massimo favore, anche se voglio fare un po’ il guastafeste sottolineando un paio di note dolenti / aspetti critici, i primi due dei quali sono di natura “archivistica”, i rimanenti due di ordine più generale: 1) nell’iniziativa milanese sono, in questa fase iniziale, coinvolti la direzione informatica ed il settore statistica con i rispettivi dati; anche se è già stato anticipato che progressivamente verranno resi disponibili tutti i dati di tutte le aree organizzative, mi aspettavo quanto meno un cenno di riguardo per gli archivi (correnti in primis, ma anche quelli di deposito potrebbero fornire serie storiche più che utili!) dal momento che dai documenti in essi contenuti si possono estrapolare dati a volontà! In altri termini rappresentano delle autentiche miniere! 2) i dati sono “pubblici” nel senso pieno del termine, ovvero in quanto provenienti (anche) dai cittadini e non esclusivamente da enti od organizzazioni pubbliche / a rilevanza pubblica; questo punto merita due ulteriori riflessioni: a) se da un lato quei dati provenienti dai cittadini contribuiscono a far funzionare il sistema nel suo complesso, dall’altro va riconosciuto che la loro veridicità (non parlo nemmeno di autenticità, affidabilità, etc.) non può essere paragonabile a quella dei dati provenienti, per stare in tema, dagli archivi b) tutti questi dati confluiscono in una struttura informatica che si rifà al paradigma del cloud computing e vengono aggregati a seconda delle esigenze (avvicinandosi pertanto al modello di vista documentale) 3) prendendo il modello statunitense, che è sicuramente avanti di un paio d’anni rispetto a noi, come punto di riferimento, è evidente come gli open data necessitino, come presupposto, di una tensione civica che non si crea dal nulla! Insomma, non basta “liberare i dati”, ma occorre che muti l’atteggiamento dei cittadini, cosa che non avviene da un giorno all’altro! Che si tratti di una conditio sine qua non ne ho avuto la prova guardando la diretta streaming dell’SXSW in corso ad Austin, nel corso del quale Jennifer Pahlka, fondatrice dell’organizzazione Code for America, ha espressamente sostenuto la tesi che government is what we do together, richiedendo in questo senso una attiva mobilitazione della cittadinanza la quale finisce quasi per “soppiantare” i governi locali 4) ora, ovviamente mi auguro che un simile slancio attraversi l’italica penisola ma anche se ciò avvenisse potrebbe non bastare: la Pubblica Amministrazione italiana, purtroppo, è notoriamente caratterizzata da burocratizzazione, eccesso di formalità e di formalismi, impersonalità (nonostante la 241/1990), opacità e scarsa trasparenza (anche qui alla faccia della 241). Tutte caratteristiche, ahimè, che stridono (tornando oltre Atlantico), con l’obiettivo dichiarato di Code for America, ovvero a) collaborare gomito a gomito con gli amministratori cittadini b) realizzando soluzioni web based capaci di migliorare la città. La collaborazione di cui al punto a) è ottenibile, secondo Code for America, a patto che vengano rimossi gli ostacoli burocratici e ci sia voglia di trasparenza; così facendo si arriverebbe ad un cambio del paradigma stesso con cui si governa la città, sintetizzato dall’efficace slogan “government as a platform“.
Sfide, si intuisce, difficili anche per gli Stati Uniti e che se venissero realizzate in Italia anche solo per la metà rappresenterebbero niente meno che una rivoluzione copernicana per come viene intesa la gestione della cosa pubblica e per il nuovo rapporto che si verrebbe ad instaurare tra amministratori ed amministrati; rapporto, per concludere, assai delicato e che vedrebbe, nel futuro così come nel passato, gli archivi in un ruolo chiave.
30 Ago
Le implicazioni (anche archivistiche) del trionfo del tablet
Nel giorno in cui in Italia l’asta per le frequenze 4G parte in tono minore, un post apparso sul blog dell’analista di Forrester Sarah Rotman Epps fa discutere blogger e commentatori di mezzo mondo. In esso l’autrice, in breve, sostiene che il tablet di Amazon non solo ci sarà (inizi ottobre la data di lancio stimata) ma sarà anche venduto nella bellezza di 3-5 milioni di pezzi nel solo ultimo trimestre del 2011! Insomma, Rotman Epps si è sbilanciata e non di poco, ma a rinforzare le sue previsioni sono le seguenti considerazioni:
1) diversamente da Apple, la maggior parte dei profitti di Amazon non provengono ancora dall’hardware e pertanto su questo terreno l’azienda di Seattle può dar battaglia (il prezzo, contenuto entro i 300 dollari, dovrebbe a tal riguardo essere un ottimo incentivo all’acquisto)
2) Amazon potrà sfruttare le potenzialità di crescita di Android Honeycomb, sistema operativo sul quale si baserà la nuova tavoletta
3) Amazon ha dalla sua anni di esperienza nella vendita di contenuti e soprattutto un’infrastruttura cloud da far invidia, tale da renderla l’unica azienda capace di lanciare con successo la sfida ad Apple, dopo che molti ci hanno tentato invano (RIM, Samsung, HP – che forse però sta ripensando sulla scelta di mollare tutta la divisione PSG).
Personalmente le considerazioni di primo acchito che ho fatto leggendo questo interessante post sono state:
1) qui stiamo parlando di aria fritta, non avendo Amazon finora MAI, nemmeno implicitamente, ammesso di essere al lavoro su un tablet; d’accordo, mi si potrà obiettare che Apple ci ha costruito le sue campagne mediatiche sull’attesa, ma qui non è uscito nulla di nulla, nemmeno la minima indiscrezione tecnica o una foto rubata, come di solito avviene!
2) ammesso e concesso che la tavoletta made in Seattle si faccia (mai dire mai, intendiamoci), lo sbarco su Android sarebbe una benedizione; troppo chiuso, come scritto in precedenti post, il software del Kindle (anche se la recente presentazione di Kindle Cloud Reader, basato su un mix di HTML5 e cloud, forse testimonia un’inversione di rotta)!
3) in ogni caso stiamo facendo i conti senza l’oste, in quanto ci si dimentica completamente di Google; l’azienda di Mountain View ha al pari di Amazon una struttura cloud formidabile e la suite Google Docs, giusto per fare un esempio, trova la sua ragion d’essere se usata in mobilità; dunque, pur riconoscendo i passi falsi compiuti con il Nexus One e probabilmente anche con il Chromebook (non ci sono ancora dati ufficiali ma la sensazione, leggendo nella Rete, è che dopo un’accoglienza discreta, l’interesse sia rapidamente scemato), non si può non pensare che la recente acquisizione di Motorola non porterà alla realizzazione di un tablet.
Questi, dunque, i miei primi pensieri finché leggevo il post di Rotman Epps; dopo una fisiologica metabolizzazione sono però giunto a quello che è il vero nocciolo del problema: se ancora ad inizio anno discettavo su “Tablet VS eReader” oggi un simile discorso sarebbe chiuso in partenza: tablet tutta la vita, e non solo perché HP sta svendendo i suoi TouchPad ad un prezzo inferiore a molti e-reader!
Il punto è che il tablet svolge, nel bene e nel male, una centralità nelle scelte strategiche dei colossi dell’informatica che gli e-reader semplicemente non hanno mai avuto né mai avranno. Tale centralità discende dalla preferenza che verrà loro accordata, in virtù della loro versatilità e “mobilità”, dal singolo utilizzatore, vuoi in quanto privato cittadino vuoi in quanto appartenente ad un’organizzazione più complessa.
Né è difficile scorgere, sullo sfondo del trionfo prossimo venturo del tablet, trionfo che beninteso sarà relativo in quanto altri dispositivi saranno sempre presenti e che andrà a braccetto con quello del cloud computing, le importanti implicazioni archivistiche.
Il tablet infatti, proprio per così come è concepito, farà apparire conveniente ai suoi utilizzatori (si tratti dello studente, del businessman oppure ancora del dirigente della Pubblica Amministrazione) scrivere, leggere, creare, commentare, archiviare, etc. sulla nuvola. La tavoletta, con la sua linea minimale ed accattivante, sarà in buona sostanza un formidabile “cavallo di Troia” per la realizzazione di quello scenario in cui le nostre esistenze saranno “digitali” e noi stessi always on.
PS La versione su Storify di questo post è al seguente indirizzo: http://storify.com/memoriadigitale/le-implicazioni-anche-archivistiche-del-trionfo-de.
25 Lug
Geolocalizzazione dei data center e cloud computing: da Gartner una nuova prospettiva
Un recente studio di Gartner, significativamente intitolato “Greening the Cloud: Location Is Critical for the Sustainable Future of Outsourced Data Storage and Services”, offre una prospettiva d’analisi diversa relativamente alle modalità di implementazione del cloud computing in generale e della propria server farm nello specifico.
Fino ad oggi infatti la maggior parte degli studi poneva l’attenzione sui vantaggi “convenzionali” ottenibili affidando a terzi la propria infrastruttura IT. I fattori generalmente citati come positivi andavano dal risparmio nell’acquisizione di hardware alla successiva gestione e manutenzione, alla sua scalabilità nonché ai miglioramenti “operativi” con ricadute finali sulla produttività complessiva dell’organizzazione. I benefici dunque in quest’ottica rientravano in tre grandi categorie: finanziari, tecnologici (= un’infrastruttura più snella e competitiva ideale per un mondo in cui mobilità e connettività “sempre ed ovunque” sono ormai elementi imprescindibili) ed operativi.
A fronte di questi vantaggi gli aspetti negativi che gli esperti erano (sono) soliti sollevare riguarda(va)no la sicurezza dei dati sensibili risiedenti presso server di terzi (ovviamente siamo nel caso di public cloud) ed i conseguenti rischi operativi e soprattutto legali derivanti dalla scelta di ricorrere ai servizi sulla nuvola.
Paradossalmente quello della sicurezza dei dati, che per molti sarebbero fortemente a rischio, era (è) un punto che gli esperti pro cloud sistematicamente presenta(va)no come punto di forza della nuvola in quanto a loro avviso in un sistema basato su di essa la ridondanza dei dati e delle infrastrutture, la sicurezza delle location fisiche (realizzate in luoghi geograficamente a basso rischio di disastro naturale / ambientale e dotate dei migliori sistemi di sicurezza, monitorati h24 da personale altamente qualificato), etc. darebbero massime garanzie in termini non solo di sopravvivenza dei dati ma anche di business continuity. Insomma, secondo costoro se non è il non plus ultra poco ci manca!
Lo studio Gartner che mi ha dato lo spunto per questo articolo si inserisce in questo contesto, nel quale le valutazioni di ordine economico sono di primaria importanza, ma compie un salto di qualità; infatti se fino ad oggi nel momento in cui si decideva dove localizzare geograficamente la propria infrastruttura IT si tenevano per l’appunto a mente aspetti quali sismicità della zona, presenza di corsi d’acqua (= rischio esondazione) o per contro vicinanza al mare (= tsunami) e via discorrendo (tutti aspetti che dovrebbero essere ben analizzati, predisponendo contestualmente adeguate contromisure, nei vari piani di sicurezza e di disaster recovery) ora gli analisti Gartner evidenziano come un altro aspetto vada tenuto in debita considerazione: la disponibilità in loco di energia pulita.
Come accennavo, le basi del ragionamento sono squisitamente economiche: poiché una delle principali voci di costo nel mantenimento delle imponenti server farm è quella energetica (i consumi vanno alle stelle soprattutto per riscaldare / raffreddare gli impianti e gli ambienti tout court), tutte quelle aziende che intendono passare al cloud come scelta strategica di lungo periodo dovrebbero localizzare le proprie infrastrutture IT / affidarsi ad aziende localizzate in luoghi e/o nazioni nei quali vi sia abbondanza di energia pulita e possibilmente low cost.
L’esempio portato da Gartner è lampante: l’Australia, troppo dipendente dal carbone (ed in generale dai combustibili fossili), sconterebbe uno “svantaggio competitivo” rispetto alla “vicina” Nuova Zelanda, dove un giusto mix di energie rinnovabili (eolico, fotovoltaico, etc.) garantirebbe, grazie anche alla politica governativa che tende ad incentivarne l’uso, notevoli vantaggi a quelle aziende che intendono qui impiantare la loro server farm (se si guarda al rischio sismico, lasciatemi dire, non si tratta di un bell’affare…).
Ovviamente, conclude Gartner, l’accesso ad energia “verde” e ad un prezzo accessibile non è che un tassello nella risoluzione del “problema energetico”; così sarebbe auspicabile che dal punto di vista costruttivo oltre agli aspetti di sicurezza (impianti antincendio, porte tagliafuoco, etc.) si tenesse conto di fattori quali l’isolamento termico / dispersione del calore e magari integrando nelle strutture stesse delle farm pannelli fotovoltaici a film “di nuova generazione” e via discorrendo!
Insomma, uno studio che apre nuove prospettive anche per paesi come l’Italia (che in fatto di rinnovabili sta facendo notevoli passi in avanti e che ha un enorme potenziale inespresso, anche se ad oggi la dipendenza dai combustibili fossili resta schiacciante), dove altri fattori (elevata percentuale di territorio a rischio idrogeologico e/o sismico su tutti, ma anche scarsa disponibilità di personale skilled reperibile sul posto) sembrerebbero giocare a suo sfavore e che viene incontro, specie per le Pubbliche Amministrazioni, a quelle che sono precise disposizioni di legge (che prevedono ad esempio la residenza di particolari tipi di dati all’interno di server situati geograficamente sul territorio nazionale) nonché alla particolare “sensibilità” di istituzioni quali gli archivi e le biblioteche, per i quali il patrimonio culturale dell’Italia (digitalizzato o in via di produzione che sia) non può e non deve finire all’estero per la mera necessità di risparmiare.
Come ormai consueto ho creato una versione storyfizzata (pertanto fornita degli opportuni link e riferimenti) di questo post: per questa lettura “alternativa” cliccate qui.







