Archive for the ‘Uncategorized’ Category

Alleanze per il cloud di domani: fine dei giochi per archivi e biblioteche?

Docker_(container_engine)_logo

Ho ripetutamente sostenuto, in questo blog e non solo, circa l’opportunità che archivi e biblioteche si facessero promotori della costruzione di data center pubblici (nel senso di stretto proprietà pubblica, non di public cloud!) analoghi a quelli che i colossi dell’informatica vanno costruendo oramai da un lustro in giro per il globo e che sono destinati ad ospitare gli archivi digitali del futuro (prossimo).
Purtroppo questo mio desiderata è, a giudicare dall’evoluzione dello scenario tecnologico, ben lungi dall’avverarsi; anzi, a guardare le scelte strategiche prese nel frattempo dai player globali, il timore che oramai si sia fuori dai giochi è più forte che mai.
Giusto per dirne una, allo stesso cloud computing, locuzione all’interno della quale si è buttato un po’ di tutto, è sempre meno collegata l’idea di fornire un mero “spazio” all’interno di un server (aspetto che lo ha reso di primario interesse per le implicazioni archivistiche).

Al contrario, si sta scendendo sempre più di livello e, ad esempio con Docker si perseguono obiettivi di “snellimento” degli ambienti sui quali girano le varie applicazioni che, in prospettiva, potrebbero mandare in pensione le classiche virtual machine (VM).

Si badi, niente che riguarda direttamente gli archivi (anche se mi viene da pensare che un ambiente più snello qual è quello container potrebbe render più agevole lo sviluppo di programmi di tipo EaaS; emulation as a service), ma resta il fatto che ancora una volta gli archivi sono ad inseguire l’evoluzione tecnologica, la quale, tanto per cambiare, continua ad essere guidata dai soliti colossi. Per restare in tema di container basta guardare a quanto fatto di recente da Google, che ha “ceduto” il controllo di Kubernetes, la sua piattaforma open-source che offre gli strumenti di comando per quei sviluppatori che utilizzano, per l’appunto, i container, stipulando nel contempo una sorta di pax (ma con i contorni di una vera e propria alleanza) con tutti i colossi parimenti interessati a questa evoluzione: Amazon, Microsoft, Rackspace, Red Hat, etc.

Inutile dire che le carte che si possono giocare gli archivi e le biblioteche, in questo contesto, sono davvero minime al punto che, probabilmente, è bene prendere atto di tutto ciò e cambiare strategia: se non si può essere attivi in prima persona, sarebbe almeno opportuno riuscire ad agire a livello “politico” ottenendo che gli archivi sulla nuvola, ed i meccanismi che li governano, siano “scientificamente” adeguati e gestiti in modo deontologicamente corretto.

Pubblicità

Sulla trascendenza della memoria digitale (e sulla necessità di instillarvi un po’ di immanenza)

Cimitero militare di Magura Małastowska

Cimitero militare di Magura Małastowska [original foto credits: Wuhazet – Henryk Żychowski (Own work) – GFDL (http://www.gnu.org/copyleft/fdl.html) or CC BY 3.0 (http://creativecommons.org/licenses/by/3.0), via Wikimedia Commons]

E’ molto tempo, ormai, che non cerco più la Storia nei libri e nei monumenti. La memoria è nei ciottoli di un fiume, nel bosco di Pollicino, nel folto del regno vegetale, nel gusto dei mirtilli color del sangue

E’ questo uno dei passaggi a mio avviso più densi ed intriganti dell’ultimo libro di Paolo Rumiz, “Come cavalli che dormono in piedi” (Feltrinelli, 2014); un libro che nelle intenzioni iniziali dell’autore doveva essere incentrato sulla figura del nonno, combattente nel corso della Prima Guerra Mondiale nelle fila dell’esercito austro-ungarico sul dimenticato fronte galiziano, ma che finisce per trasformarsi in un viaggio per l’intera Europa Orientale alla ricerca degli “altri” soldati italiani: triestini, trentini, istriani e dalmati che – da sudditi dell’Imperatore quali erano – combattono la guerra per Francesco Giuseppe cadendo a migliaia.

Italiani, sostiene Rumiz, volutamente dimenticati – in quanto scomodi – dai burocrati della memoria che nel primo dopoguerra, non solo in Italia – ma qui da noi con modalità particolarmente evidenti -, si fecero promotori della realizzazione di freddi ed impersonali sacrari nei quali i caduti, dei quali sovente non vengono indicati né il luogo né la data della morte, vengono in certo senso “tolti dalla Storia” e resi eterni con il risultato, a detta dell’autore, di impedire ai caduti il meritato riposo, ricongiungendosi alla Terra, ma al contrario di obbligarli ad una perenne mobilitazione (si pensi al “PRESENTE” sistematicamente ripetuto sui gradoni di Redipuglia) con il rischio che, anche quando ispirati dai migliori propositi, tutto si esaurisca in un mare di sterile retorica.

Si tratta di un giudizio indubbiamente severo ma in linea con una concezione sostanzialmente immanente della Storia ed, in ultima analisi, della memoria stessa, come ben traspare da questo ulteriore passaggio del libro di Rumiz:

La memoria è un lavoro da contadini, non da scrittori. La si coltiva come si coltiva la terra. La si rivolta, la si concima. E’ una campagna che dà frutti boni de rosigar coi denti, un sostrato nel quale il gesto di piantare non a caso somiglia al gesto di seppellire […]. Quando, per annunciarmi la morte di suo padre contadino, un’amica mi ha scritto che lui era andato “a zappare in cielo”, mi sono ribellato: ma che cielo e cielo, ho risposto, lui era nella terra e basta, sprofondato nelle braccia di sua madre, felice nelle zolle negre che aveva amato e curato per una vita

Si tratta a mio vedere di uno snodo fondamentale del libro al punto che, per quanto vada sicuramente riconosciuto a “Come cavalli che dormono in piedi” il merito di avere portato alla luce una pagina praticamente sconosciuta della nostra Storia così come di aver mosso una critica tanto severa quanto giustificata circa le modalità complessive con le quali, nell’Italia fascista prima ma pure in quella repubblicana poi, si è tenuta viva da un lato la memoria dei caduti (nello specifico attraverso l’erezione e la costruzione di monumenti, cippi, lapidi, ossari, sacrari, cimiteri, etc.) e dall’altro quella, correlata, dei fatti storici che li videro protagonisti, sono assolutamente convinto che il suo più importante “lascito” consista proprio nella particolare concezione della Storia / della memoria che vi viene proposta e, di riflesso, nel profilo e nel ruolo dello storico che quest’ultima sottende nonché delle fonti, spesso decisamente sui generis, da utilizzare.

Infatti, dal punto di vista della produzione storiografica, il libro di Rumiz (che, va ribadito, nel momento in cui devia dalle intenzioni iniziali non pretende più di possedere i crismi della scientificità), si inserisce a pieno titolo in quella più vasta corrente di ricerca che, abbandonando la classica impostazione incentrata sull’histoire de battaille, preferisce indagare su argomenti minori o comunque finora lasciati in secondo piano da parte della storiografia ufficiale (e per lungo tempo pure da quella accademica): è il caso, giusto per fare alcuni esempi, dell’operato dei tribunali militari (con la spinosa questione della riabilitazione dei decimati), dei cosiddetti “scemi di guerra”, dell’uso sciagurato delle armi chimiche e via di questo passo.
Ciò premesso, l’estrema originalità (dell’impostazione) di Rumiz affiora nella sua pienezza – come anticipato – quando passiamo ad analizzare il ruolo dello “storico” e la particolare tipologia di “fonti” che quest’ultimo dovrebbe adoperare nel suo “mestiere”; se, come visto sopra, la memoria è questione da contadini, similmente quando si ha a che fare con la Storia (che con la memoria è intimamente connessa) bisogna possedere una sorta di “fiuto”, di istinto naturale per saper riconoscere e comprendere nella loro pienezza gli accadimenti, vale a dire inserendoli all’interno della complessa catena di cause ed effetto che li ha provocati e le loro ripercussioni (e Rumiz dimostra di averne da vendere allorquando, ripercorrendo i campi di battaglia in Serbia oppure in Ucraina, individua le linee di frattura tra popoli e nazioni, oggi come ieri foriere di conflitti!).
Ecco quindi che il viaggio dell’autore si trasforma in un “andar per boschi” nel corso del quale, tra un cimitero di guerra e l’altro, mangiare mirtilli, rossi come il sangue di quei soldati che, impregnandone il terreno, ne fornisce ora sostentamento, diventa un modo per entrare in contatto diretto con loro e di dare un significato profondo al loro sacrificio.
Questa immagine, oltre ad essere emblematica di quella concezione immanentistica della Storia e della memoria cui ho più volte fatto riferimento, ci aiuta ad individuare un’altra peculiarità del metodo d’indagine dell’autore: la ricerca di un dialogo (nella fattispecie con i morti), atteggiamento che trova un riscontro nella tipologia di fonti storiche utilizzate, le quali sono il più possibile “vive”. In particolare l’autore fa ricorso alle fonti orali, necessariamente di “seconda generazione” (essendo i testimoni diretti di quei fatti lontani un secolo oramai tutti morti), ed anche quando si affida a fonti scritte predilige materiali quali diari, canzoni, lettere, etc. che siano capaci di trasmettergli sentimenti, emozioni, impressioni…

Un aspetto che fa riflettere è che Rumiz, in tutta questa complessa operazione di riscoperta e di rievocazione, non cita praticamente mai gli archivi (ai nostri occhi “luoghi della memoria” per antonomasia) né tantomeno le biblioteche; i materiali ai quali egli fa ricorso, quand’anche rientranti tra le fonti scritte, non li reperisce infatti in questi istituti bensì spesso gli vengono consegnati spontanemanete da lettori, amici, etc. che, dopo averli conservati per decenni in cantina, in soffitta, nei sottoscala, desiderano che queste storie e questa Storia vedano finalmente la luce.
La constatazione di questo fenomeno testimonia una grave crisi di credibilità, perlomeno in quelle terre di confine, del complesso sistema di istituti approntati per preservare e trasmettere la memoria: i triestini, i trentini, etc. trovano più spontaneo affidarsi ad un giornalista, giacché negli archivi, nelle biblioteche e nei musei semplicemente quei fatti non esistono.
Rumiz, ad esempio, lamenta che dei caduti triestini non si conosca esattamente né numero né nomi: gli archivi italiani non li hanno considerati perché quei soldati avevano combattuto dalla parte sbagliata, quelli austriaci – complice l’implosione dell’Impero a seguito della sconfitta – nemmeno.

Preso dunque atto che delle lacune ci sono e che esse purtroppo talvolta sono imputabili a scelte tanto deliberate quanto censurabili, bisogna anche ammettere che qualcosa nel complesso si è mosso e che, del desiderio da parte dei cittadini di far riaffiorare le vicende famigliari, stanno beneficiando un po’ tutti, archivi, biblioteche e musei compresi.
Riprova ne sia il proliferare, non a caso proprio in occasione del centenario dello scoppio della I Guerra Mondiale, di iniziative che fanno leva sul coinvolgimento dei cittadini, i quali vengono invitati a condividere il materiale da essi custodito nella realizzazione di mostre e/o portali web nei quali detti materiali, digitalizzati, vengono messi a disposizione dell’intera collettività (tra i tanti, il progetto più noto e più ambizioso è senz’ombra di dubbio Europeana 1914-18, nel quale confluiscono tanto storie ufficiali quanto private).
Purtroppo, questo così come altri progetti analoghi, per quanto ispirati da nobili intenti e realizzati adottando i più recenti standard descrittivi e le migliori tecnologie, si dimostrano per molti versi inadeguati. Come giudicare ad esempio il fatto che, posti di fronte ad Europeana, polacchi, rumeni, sloveni, croati ed in generale tutti i popoli dell’Europa Orientale (tranne gli ungheresi), assocerebbero ai materiali lì pubblicati il ricordo di un evento positivo, avendo essi raggiunto con il disfacimento dell’Austria – Ungheria l’agognata indipendenza? Analogamente come non ammettere che un tedesco vi vedrebbe il simbolo della sconfitta e l’inizio di un incubo che sarebbe terminato solo nel 1945 mentre un francese il più fulgido esempio di vittoria e di rivincita nazionale?

Credo, in altri termini, che i numerosi progetti di recupero della nostra Storia, la maggior parte dei quali prevede oramai almeno la presenza di un'”appendice” digitale, abbiano un limite che risiede paradossalmente proprio nella loro perfezione tecnica; una foto di un soldato o il frammento di una lettera a casa, pubblicata in Internet con la miglior risoluzione possibile e corredata di tutti i dati e metadati desiderabili, sicuramente ci trasmetterà una bella mole di informazioni ma difficilmente riuscirà a trasmetterci quell’insieme di sensazioni che Rumiz è riuscito a cogliere e rievocare in manieria mirabile solo “andando per cimiteri e campi di battaglia”.
La memoria digitale, in ultima analisi, pur ricca di pregi e vantaggi, paga in questo specifico ambito un limite tanto noto quanto intrinseco alla sua natura: è “fredda” e, per riprendere la terminologia adoperata per descrivere il libro di Rumiz, è “trascendente” laddove sarebbe necessario, affinché possa essere veramente “umana” e condivisa / condivisibile, che essa si facesse un po’ più immanente.

Internet ed instabilità tipografica

Does the Internet make you smarter?

Does the Internet make you smarter? (Illustration for the Wall Street Journal) by Charis Tsevis, on Flickr

In un lunghissimo articolo apparso qualche settimana fa sul The New Yorker a firma di Jill Lepore vengono toccati moltissimi di quei temi da anni al centro del dibattito della comunità archivistica: dall’opportunità di “archiviare Internet” dandogli la necessaria profondità storica al ruolo svolto in questa direzione da organizzazioni non governative come Internet Archive con la sua Wayback Machine (il cui funzionamento però, fa notare l’autrice, ha ben poco di archivistico essendo le varie “istantanee” del web salvate da quest’ultima organizzate semplicemente per URL e per data!) passando per il crescente impegno profuso in questo settore da parte di istituzioni pubbliche (come la British Library o la National Library of Sweden, le quali portano avanti una tradizione tutta europea che affonda le sue radici nell’istituto del deposito legale) per finire con le implicazione derivanti dal fenomeno dei link rot, vale a dire di quei collegamenti ipertestuali non funzionanti che impediscono ai documenti presenti sul web di ricoprire una funzione all’interno del sistema di note e riferimenti analoga a quella ricoperta dai corrispettivi cartacei.
Proprio circa quest’ultimo punto, sul quale peraltro già avevo scritto qualcosa oramai qualche anno fa, vale la pena di sviluppare un paio di ulteriori riflessioni; partiamo dalle parole dell’autrice, la quale a riguardo scrive:

The footnote, a landmark in the history of civilization, took centuries to invent and to spread. It has taken mere years nearly to destroy. A footnote used to say, “Here is how I know this and where I found it”. A footnote that’s a link says, “Here is what I used to know and where I once found it, but chances are it’s not there anymore”

La teoria che soggiace ad una simile impostazione è quella, oramai classica, di Elisabeth Eisenstein e della “stabilità tipografica”: secondo questa autrice l’invenzione della stampa a caratteri mobili non fu un fatto meramente tecnologico ma ebbe profonde ricadute industriali e sociali al punto da segnare lo sviluppo successivo dell’Occidente, contribuendo ad assicurarne nel lungo periodo il predominio globale; in particolare la stampa in tirature sempre più elevate unitamente alla “standardizzazione” dell’oggetto libro, con l’affermazione di aree ben definite ed individuabili (frontespizio, colophon e soprattutto apparato critico / notazionale), da una parte rese possibile una migliore e più efficace circolazione delle idee (non più soggette a quelle storpiature imputabili ad errori più o meno involontari da parte del copista) dall’altra, grazie alla possibilità data dalla presenza di precisi riferimenti bibliografici e documentali di verificare ed eventualmente confutare o correggere le diverse tesi dibattute, pose le basi per lo sviluppo della scienza e della cultura occidentali.
Come ricorda Jill Lepore nel passaggio poc’anzi citato, tale secolare sistema è stato brutalmente messo in crisi all’avvento del digitale: com’è stato possibile ciò? quali le cause?
Personalmente ritengo che additare come colpevoli i soli link rot sia semplicistico; questi ultimi sono a mio modo di vedere parte di un problema ben più complesso che anzi li trascende: è la società contemporanea nel suo complesso, bulimica di informazioni sempre aggiornate, che ci porta a “bruciarle” dopo pochi minuti, che ci spinge ad avere prodotti editoriali digitali redatti in più versioni nel tempo (versioning) e capaci di aggiornarsi spesso e volentieri senza che venga mantenuta traccia della versione precedente (il che, piccolo inciso, porta al tramonto del concetto di edizione), che richiede che gli innumerevoli articoli e post pubblicati vengano tumultuosamente “updated” ed altrettanto repentinamente spostati oppure messi offline una volta che perdono di attualità, senza che vi sia il tempo necessario per una stratificazione delle idee.

In questo senso Internet ed il Web costituiscono, nell’accezione massmediatica e filologica del termine, il palinsesto perfetto: tutto è spostabile, tutto è cancellabile, tutto è (digitalmente) “sovrascrivibile”. Questo richiamo alla prassi medievale di raschiare e cancellare i codici, pergamenacei e non, rappresenta peraltro simbolicamente il tramonto dell’epoca di “stabilità” delineata dalla Eisenstein ed il ritorno, per contro, ad una che, parafrasando, possiamo definire di “instabilità tipografica”. Dando ciò per assodato, la domanda da porsi è a questo punto la seguente: i rischi paventati da Jill Lepore sono concreti?

La risposta, con tutta evidenza, non può che essere affermativa: come già ricordato è il metodo scientifico stesso che prevede, tra gli altri, il requisito della verificabilità e quest’ultima non può prescindere, a sua volta, dalla presenza di una fitta rete di rimandi e riferimenti. Venendo questi meno, la ricerca non può dirsi tale anche se ciò non significa automaticamente che non vi saranno alcuni benefici. Ad esempio lo “sganciamento” da auctoritas citate più o meno acriticamente potrebbe portare a percorrere nuove vie; parallelamente la mole crescente di dati prodotti (big data), per di più spesso e volentieri disponibili liberamente ed in formati aperti (open data), pertanto con la possibilità di trattarli ed incrociarli / collegarli (LOD) per mezzo di elaboratori, apre il campo a nuove frontiere nelle ricerche (in ambito storico perché non pensare, ad esempio, ad una nuova storia quantitativa?).

In definitiva quel che avremo non sarà altro che, com’è forse giusto che sia, una ricerca rispecchiante la società (digitale) che l’ha prodotta; in quest’ottica è doveroso che le istituzioni deputate alla conservazione, archivi e biblioteche, aumentino i propri sforzi.
Sicuramente un primo ambito d’intervento dev’essere, sulla falsariga di quanto fatto da Internet Archive e da molte biblioteche centrali, quello teso a dare profondità storica ad Internet “archiviandolo” ma anche contribuendo alla diffusione di persistent URL. Ma un secondo, ed in prospettiva persino più importante, terreno d’azione sarà inevitabilmente quello della gestione e conservazione dei big data, fenomeno che a mio avviso caratterizzerà gli anni a venire: è pertanto impensabile che gli archivi e le biblioteche non giochino un ruolo cruciale nel “mantenimento” tout-court dei vari dataset che, più dei singoli documenti, saranno alla base delle ricerche dei prossimi anni e dai quali dipenderà, c’è da scommettere, il progresso scientifico dei prossimi decenni.

Creatività digitale in archivi e biblioteche, possibilità infinite

In questi tempi di magra per i beni culturali in generale, e per gli archivi e le biblioteche in particolare, si è tentato un po’ in tutti i modi di portare all’attenzione del grande pubblico questi istituti, cercando di far conoscere i “patrimoni” custoditi (già una simile terminologia è indice dell’impostazione “classica” predominante) attraverso iniziative che in taluni casi ambivano a superare l’oramai consunto schema della mostra documentaria o del percorso tematico attraverso i pezzi pregiati.
Purtroppo l’impressione è che, a prescindere ora dal giudizio sul valore scientifico delle varie iniziative realizzate, queste ultime non siano state capaci di raggiungere il loro obiettivo principale, che a mio avviso non era tanto quello di ricordare ai decisori politici che gli archivi e le biblioteche esistono (a questi ultimi, è l’idea che mi son fatto, di A&B non importa un bel niente), ma bensì quello di raggiungere il grande pubblico o, ancora meglio, il “corpo vivo” della società, al di là del ristretto gruppo di specialisti ed addetti ai lavori.
Insomma, perlomeno nelle intenzioni, ci si è posti nella giusta direzione, esemplificata da due iniziative portate avanti rispettivamente dalla British Library e dalla NASA e che brillano per la capacità di fondere vecchio e nuovo, “cultura analogica” e cultura digitale, giocando con le varie tipologie di risorse (testi, immagini, audio) e sfruttando le potenzialità dei nuovi media.
Il progetto della BL, denominato Inspired by Flickr, indiceva una sorta di contest tra musicisti, ingegneri del suono, etc. invitandoli a comporre ex novo delle tracce audio traendo spunto dalle centinaia di migliaia di foto rese disponibili dalla British Library stessa attraverso il progetto Flickr Commons.
Simile nei risultati ma diverso nell’impostazione quanto fatto dalla NASA: in sostanza mentre nel caso inglese il materiale conservato, fatto conoscere attraverso Flickr, dava il là ad una creazione artistica del tutto nuova benché ad essa intimamente collegata, in quello statunitense si sono messe a disposizione su Soundcloud migliaia di tracce audio originali provenienti dall’archivio dell’agenzia spaziale (inclusi i rumori dei razzi, le trasmissioni radio, etc.), sulle quali si è consentito ai vari musicisti elettronici di intervenire liberamente rielaborandole (mashed-up, in gergo) e remixandole venendo così a creare delle autentiche produzioni artistiche a loro volta messe a disposizione della collettività (sempre su Soundcloud, come potete sentire da voi stessi qui sopra).
Faccio notare come le idee che stanno alla base di queste due iniziative siano tutt’altro che trascendentali: si rende accessibile ed utilizzabile quanto conservato, si da un input e, sfruttando le piattaforme disponibili in Rete (le quali a loro volta contribuiscono a diffondere il progetto) si lascia che la creatività faccia il suo corso! I risultati, a mio modo di vedere, sono più che positivi in termini sia “estetici” (ma forse sono di parte, essendo un appassionato di musica elettronica!) che di impatto sulla società, nel momento in cui essi vanno ad agire sul tessuto sociale “vivo”, che di immagine per gli istituti promotori.
Insomma, spunti interessanti ce ne sono ed il fatto che i due musicisti elettronici saliti alla ribalta mediatica attraverso il progetto della NASA siano due italiani fa ulteriormente riflettere: sarebbe stato possibile fare altrettanto in Italia?
Il materiale da valorizzare c’è così come il capitale umano (o, se preferite, l’estro artistico) in grado di rielaborarlo: quel che manca, probabilmente, è il contesto adeguato, un contesto cioè che ponga meno limitazioni e vincoli possibili alla creatività. Il contrario, quindi, di quanto può attualmente offrire il sistema-Italia, caratterizzato com’è da un’asfissiante burocrazia, capace di accapigliarsi su questioni quali quella della libera (o meno) riproduzione negli archivi e nelle biblioteche e delle relative tariffe. Pur comprendendo che si tratta spesso dell’unica fonte autonoma di entrate su cui questi istituti possono contare, è inutile sottolineare che ci troviamo, è proprio il caso di dirlo, su pianeti diversi!

AI ed archivi digitali fotografici: alcune riflessioni

City Center, Night

City Center, Night by Joana Roja, on Flickr

Ultimi giorni dell’anno ed è tempo di bilanci un po’ per tutti. Quest’anno, novità, ad aiutarci ci saranno anche i nostri sempre più insostituibili social network: Facebook, Twitter, Google+, Instagram… un po’ tutti mettono a disposizione strumenti e statistiche capaci di riassumere le nostre attività online, dal numero di interazioni (siano essi like, retweet, consiglia, etc.) ai nuovi contatti aggiunti (amici, follower, etc.) e via di questo passo.
Accanto a questa tipologia di indicatori, comunque in grado di delineare con buon grado di approssimazione quanto da noi fatto, sono sempre più diffusi strumenti ben più raffinati che, grazie all’utilizzo di potenti algoritmi, riescono quasi a “rievocare” la nostra vita digitale.
Un buon esempio a riguardo è quel “L’anno in breve” (Year in Review) di Facebook che probabilmente molti dei numerosi utenti di questo social network avranno visto comparire negli ultimi giorni sulla propria bacheca / timeline: si tratta, cito testualmente, di “una raccolta di foto dei tuoi momenti più significativi di quest’anno. Questi momenti possono includere le foto caricate da te e quelle in cui ti hanno taggato”. In sostanza a partire da fotografie, immagini e interazioni ottenute su FB si cerca di desumere l’importanza che esse potrebbero ricoprire per la persona che le ha pubblicate, riproponendogliele per la pubblicazione e condivisione: se nella maggior parte dei casi l’algoritmo funziona correttamente, talvolta esso sbaglia provocando incresciosi episodi. E’ quanto accaduto ad Eric Meyer, al quale è stato proposto come “magnifico” un fatto al contrario luttuoso e la cui riproposizione, peraltro non richiesta ed improvvisa, non ha fatto che rinnovare il dolore: evidentemente l’algoritmo è stato ingannato dall’elevato numero di interazioni (che in ambiente analogico definiremmo “partecipazione” e/o “condoglianze”) e di foto postate in occasione del triste evento.
Ma al di là dello specifico episodio e del grossolano errore, che hanno reso l’argomento di attualità e spinto taluni a ritenere la tecnologia non ancora del tutto matura, alcune considerazioni in prospettiva si possono sin da ora fare.
In primo luogo risulta in modo lampante come, per chi non ha la fortuna di poter sfruttare l’hashtag come chiave per identificare gli argomenti e le discussioni “topici” (leggasi Twitter, che dal canto suo vanta una tradizione oramai consolidata in materia, riproponendo ogni anno – qui il 2014 – i trend più dibattuti benché senza scendere a livello di singolo utente), le immagini ricoprono un valore assoluto: pur nell’orgia di foto scattate, pubblicate e condivise quotidianamente, così numerose da aver spinto molti a parlare di “banalizzazione della fotografia” (lato oscuro di un più amplio processo di democratizzazione che ha comunque anche ricadute positive, aumentando esso ad es. le possibilità di testimonianza e di partecipazione attiva attraverso forme di citizen journalism, n.d.r.), ad esse gli algoritmi assegnano un peso elevato come a nessun’altra “fonte” d’informazioni!
Evidentemente, nonostante tutto, si continua a ritenere che se si scatta una foto lo si fa in quanto si attribuisce elevata importanza a ciò che si fotografa; se si aggiunge il valore anche economico assunto, agli occhi delle principali Internet company, dalle fotografie per la loro capacità di veicolare traffico e pubblicità, si comprende come mai siano così numerosi in questo ambito i tentativi di applicazione dell’intelligenza artificiale, dal deep learning alla ben più specifica computer vision!
Un ulteriore risvolto è il ritorno alla funzione per così dire “originaria” della fotografia, ovvero quella di immortalare l’oggetto che finisce nell’obiettivo: per quanto almeno per ora non si debba intendere quell’ “immortalare” nel senso letterale del termine, la valenza mnemonica ne esce indubbiamente rafforzata! Infatti proprio grazie al ricorso a tecnologie “intelligenti” applicazioni come Carousel, la galleria fotografica sulla cloud messa a disposizione da Dropbox, scavano automaticamente nel proprio archivio fotografico e propongono quello che è definito un flashback: potrebbe essere una foto scattata esattamente uno o due anni fa oppure in un posto nel quale si ritorna a passare dopo del tempo e del quale si conosce la posizione grazie ai metadati di georeferenziazione collegati alla foto già inserita nel proprio album. Inoltre l’utilizzo di specifici algoritmi per il riconoscimento facciale rendono altamente probabile che le foto riproposte ritraggano noi o le persone che ci sono più care. Insomma, uno strumento che cerca di rendersi “utile” quale supporto alla nostra memoria, un po’ come fa Timehop con i principali social network.
Un’ultima riflessione va, tanto per cambiare, ai possibili rischi per la privacy derivanti dall’uso massivo dei nostri archivi fotografici: per quanto le grandi Internet company siano già rimaste scottate, la tentazione di sfruttare in modo indiscriminato le fotografie rimane elevata per la già menzionata importanza economica delle stesse. Non si tratta più, si badi, del pericolo (pur presente) che le nostre foto finiscano in visione a persone estranee ma di quello, ben più sofisticato e pertanto insidioso, che le società alle quali affidiamo più o meno consapevolmente le nostre foto riescano, attraverso le tecniche di analisi sopra descritte, a stabilire relazioni tra foto e foto, ovvero tra le persone ed i luoghi in esse presenti, ricostruendo in tal modo la nostra intera rete di parentele, amicizie, di luoghi visitati indipendentemente dalla nostra dalla volontà e dalla quantità / qualità delle informazioni di contesto che noi conferiamo. Un ulteriore elemento che, a mio avviso, dovrebbe indurci ad utilizzare con la massima cautela simili servizi, per quanto comodi essi siano.

Alleanza Ibs – Deutsche Telekom, la vittoria dell’hardware sul software?

Ereader tolino Vision 2

L’ereader Tolino Vision 2 (credits: Deutsche Telekom)

L’annuncio è di pochi fa: IBS entra in Tolino, l’alleanza europea anti-Amazon che vede Deutsche Telecom nel ruolo di capofila assieme a case editrici, distributori e piccoli librai.
La notizia è stata salutata positivamente dalla maggior parte dei commentatori, i quali hanno appuntato la propria analisi essenzialmente su due aspetti: 1) il rinnovato ruolo dei librai, che nell’alleanza hanno il compito di fungere da vetrina, grazie alla capillare copertura del territorio, dei vari device appartenenti all’ecosistema Tolino (attualmente due ereader ed un tablet) nonché da volano per le vendite, grazie alla possibilità di aprire un proprio shop sulla piattaforma stessa, trattenendo una percentuale sugli eventuali acquisti 2) controbilanciare i grandi player globali, Amazon su tutti, rivitalizzando nel contempo, se possibile, il mercato italiano dell’e-book attraverso una sana e robusta competizione, che deve avvenire non solo sul fronte dei prezzi ma anche su quello dell’esperienza d’uso nel senso più amplio del termine (software di lettura, piattaforma d’acquisto, etc.).
Si tratta di considerazioni di per sé assolutamente condivisibili ma che hanno il torto di far scivolare in secondo piano quello che probabilmente è il dato più interessante, vale a dire la “rivincita” dell’hardware sul software o, se preferite, del fisico sul virtuale.
Appare infatti evidente come, seppur su piani diversi, un ruolo chiave nel progetto Tolino sia ricoperto proprio dalla parte “materiale” ed in particolar modo dalle librerie “brick & mortar” e dalla cloud messa su da Deutsche Telekom.
Per quanto riguarda le librerie viste come “vetrine” utili a far toccare con mano tanto i device quanto i libri e, pertanto, come luoghi capaci di incrementare le vendite ho già scritto a suo tempo (poche settimane fa ho aggiunto che con simili propositi si guarda anche alle biblioteche).
Non meno importante, anzi foriero di importanti conseguenze, il ruolo svolto dall’infrastruttura cloud di DT. A mio avviso è proprio questo il punto di forza del modello Tolino, ovvero la possibilità di caricare i propri ebook, indipendentemente dallo store nel quale li si è acquistati (e questo rappresenta sicuramente un ulteriore plus), in quella che viene a configurarsi sempre più come una personal digital library.
Le conseguenze non sono di poco conto: la propria biblioteca digitale si trasferisce dalla memoria interna del device di lettura (od al più dalla sua SD card) alla nuvola, che acquisisce pertanto un ruolo centrale, in quanto è ad essa che tutti i nostri dispositivi possono connettersi. Indubbiamente si tratta di un significativo passo in avanti anche se l’ideale, per come la vedo io, sarebbe che la nuvola fosse di nostra proprietà, soluzione che comunque al momento presenterebbe pro ma anche contro (se tra i vantaggi va ricordata una maggior privacy, per cui le nostre letture non sono più oggetto di analisi da parte di chi quei libri ce li vende e ce li mantiene, tra gli svantaggi da menzionare gli oneri in capo al proprietario della personal cloud in fatto di aggiornamento della parte hardware nonché tutto l’insieme di azioni a quest’ultimo richieste nel tempo per far sì che i libri continuino ad essere leggibili).
All’ascesa della cloud fa da contraltare, ulteriore riflessione, il ruolo residuale svolto dai device di lettura ed in particolare dagli ereader: sgravati dal compito di fungere essi stessi da “biblioteca portatile”, ridotti ad essere soltanto uno dei tanti dispositivi con i quali si legge, trattati per certi versi alla stregua di commodity, tale è l’appiattimento (verso il basso) sul fronte dei prezzi e su quello delle prestazioni, come non pensare ad un loro declino?!
Basta dare un’occhiata ai prezzi dei principali ereader (per assicurare un minimo di omogeneità cito dispositivi con illuminazione frontale) per farsi un’idea: il Kindle Paperwhite costa 129€, il Kobo Glo (fuori catalogo) 119€, il Nook Glowlight 119 $ ed il Tolino Shine appena 99€, medesimo prezzo del Cybook Odyssey FrontLight2!
Ad acuire i dubbi sulle sorti di questa classe di dispositivi contribuisce anche l’analisi delle prospettive future: a meno di voler considerare l’ “acquatico” Kobo Aura H2O un significativo passo in avanti, cosa che non è, non si vedono all’orizzonte particolari evoluzioni tecnologiche, non si parla praticamente più di display a colore (dopo i mezzi fallimenti, perlomeno in termini di vendite, di Nook Color e del Kyobo Mirasol) né si può considerare l’ultradefinizione come un qualcosa di dirompente!
Probabilmente riuscirà a sopravvivere chi saprà crearsi la sua nicchia di mercato: è il caso di Sony e del suo DPT-ST, ereader da 13,3 pollici le cui vendite stanno andando inaspettatamente bene tra professionisti ed in ambito educational a dispetto del prezzo elevato (peraltro di recente abbassato da 1100$ a 999). Insomma, una scommessa per il momento vinta da Sony (specie dopo che quest’ultima era progressivamente uscita dal mercato “convenzionale”) ma che, guarda caso, per risultare completa prevede nel “pacchetto” la messa a disposizione, nello specifico da parte di Box.com, di un cospicuo spazio di archiviazione. Come dire, la riprova del ruolo centrale giocata dalla cloud.

La biblioteca come showroom

IMG_1650 by Bernard Oh, on Flickr

IMG_1650 by Bernard Oh, on Flickr

Il futuro delle biblioteche è uno dei temi più dibattuti negli ultimi anni dagli addetti del settore e non solo. L’ufficializzazione, alcune settimane fa, da parte di Amazon di un rumor che in verità girava oramai da tempo, ovvero che, analogamente a quanto già fatto con film e musica, l’azienda di Seattle a breve permetterà ai propri utenti / clienti l’accesso senza restrizioni (il programma si chiama, significativamente, Kindle Unlimited) al proprio catalogo di oltre 600mila libri in versione digitale a fronte di un pagamento mensile di appena 10 dollari, ha messo ulteriormente in fibrillazione un mondo, quello del libro e di tutto ciò che ci ruota attorno (case editrici, librerie e naturalmente biblioteche), che fatica a trovare un suo modello “sostenibile” e, con esso, un suo equilibrio.
Le reazioni e le analisi come al solito non sono mancate e sono spaziate dal classico “è la fine, prepariamoci a chiudere” (posizione così apocalittica da stroncare sul nascere qualsivoglia tentativo di dibattito e di controargomentazione) ad altre molto più ragionate e, proprio per questo motivo, stimolanti: “dobbiamo adeguarci ai cambiamenti imposti dal digitale” oppure, all’opposto, “dobbiamo continuare sul solco della tradizione, creandoci una nicchia” oppure ancora, specie nel caso delle biblioteche (riecheggiando Lankes, n.d.r.) “dobbiamo sganciarci dal libro e puntare tutto sulla capacità di creare nuove relazioni”.
Personalmente ritengo che una delle analisi più concrete e meritevole di approfondimento sia quella apparsa sulle colonne del Wall Street Journal: il titolo, Why the public library beats Amazon – for now, è a dir poco controcorrente rispetto alla communis opinio.
Secondo l’autore, Geoffrey A. Fowler, sono molteplici i motivi che per il momento sanciscono questa “superiorità” della biblioteca pubblica: la gratuità del servizio, la facilità dell’operazione di prestito, una sbagliata strategia di vendita di Amazon tale per cui Kindle Unlimited entra in conflitto con Prime (gli abbonati a questo servizio possono leggere gratis un libro al mese, numero più che sufficiente per la maggior parte dei lettori, n.d.r.) nonché la presenza di un catalogo “cumulativo” che non solo dal punto numerico non sfigura rispetto a quello del gigante dell’e-commerce ma che anzi primeggia sotto il punto di vista qualitativo. Fowler esegue, a riguardo, una minuziosa analisi del numero di best-seller presenti nel catalogo delle biblioteche pubbliche ed in quello di Kindle Unlimited, evidenziando come le prime siano indubbiamente meglio fornite. Qual è il motivo?
La causa va rintracciata in quella che Fowler definisce la hate-hate relationship instaurata da Amazon con gli editori e ben esemplificato, da ultimo, dalla disputa in atto con Hachette: questi, non a torto dal loro punto di vista, vedono di cattivo occhio i vari tentativi di abbassare i prezzi degli ebook e di accorciare la catena trattando direttamente con gli autori ed hanno trovato, in questo conflitto tra titani, un prezioso alleato nelle biblioteche (il fatto che i rapporti biblioteche – case editrici storicamente siano stati tutt’altro che idilliaci la dice lunga sulla qualità dei rapporti con Amazon…).
E qui veniamo al punto centrale della questione; scrive testualmente Fowler: “Publishers have come to see libraries not only as a source of income, but also as a marketing vehicle. Since the Internet has killed off so many bookstores, libraries have become de facto showrooms for discovering books” (il grassetto è mio, n.d.r.).
Non è da oggi che si discute sul ruolo che librerie e biblioteche possono svolgere in qualità di “vetrine” delle novità editoriali così come di “educatori” nell’utilizzo dei nuovi device di lettura e, a riguardo, posso sostanzialmente essere d’accordo purché vi sia la consapevolezza che si tratta, per le biblioteche, di un’arma a doppio taglio.
Nella letteratura specialistica, ad esempio, sono pressoché all’ordine del giorno gli articoli ed i libri che trattano di come progettare nuove ed accattivanti biblioteche o che presentano le nuove realizzazioni; si badi, non sono contrario a queste nuove biblioteche, tutt’altro (a chi non piacerebbe lavorare in un bel luogo di lavoro? Come posso sperare di richiamare utenti se non offro loro edifici accoglienti e funzionali?)! Semplicemente ritengo essenziale, proprio per evitare di cadere nel paradigma della library as a showrooom, che allorquando si avviano i progetti di nuove biblioteche / di restyling di esistenti, più che delle questioni “da archistar” (o perlomeno accanto ad esse, volendo concedere qualcosa all’estetica) si parli anche di conservazione, di catalogazione, di prestito, etc. vale a dire di tutte quelle attività che rappresentano il core, la ragion d’essere dell’istituto biblioteca.
Il non farlo equivarrebbe a ridurre le biblioteche ad una sorta di para-librerie, le quali come già anticipato stanno seguendo un percorso affine: in particolare le grandi case editrici che controllano le principali librerie di catena stanno progressivamente chiudendo i punti vendita periferici sostituendoli con nuovi ispirati al concetto di flagship store; quest’ultimo, guarda caso, nasce dalla constatazione che architettura, marketing e vendite sono strettamente connessi, in quanto il poter disporre di building (= negozi) che rappresentano essi stessi punti di attrazione all’interno del tessuto cittadino (= del bacino di clienti) funge da detonatore per la crescita del valore del brand e della sua notorietà (=> delle vendite).
Naturalmente mentre i gruppi editoriali hanno tutti i loro buoni motivi per cercare di migliorare le proprie vendite, le biblioteche, posto che anch’esse devono essere permeate dalla cultura del risultato (=> aumentare il numero di utenti, prestiti, etc.) e del miglioramento dei servizi erogati, non devono nemmeno operare come aziende private votate al profitto; pertanto non è necessario abbracciare le pratiche di marketing più spinte anche perché, come già ricordato, quella che nel breve periodo pare essere un’insperata ancora di salvezza potrebbe finire per trasformarsi, nel medio-lungo, nella loro definitiva condanna.

Conservazione “digitale”: la lezione del Guggenheim

Entrance to "The Visitors" by Ragnar Kjartansson (Guggenheim Museum, Bilbao)

Entrance to “The Visitors” by Ragnar Kjartansson (Guggenheim Museum, Bilbao)

Quello che segue è, più che un post “convenzionale”, una riflessione ad alta voce ispirata, come spesso mi capita in questi periodi postvacanzieri, dai viaggi effettuati.
Questa volta l’input proviene dalla visita del Guggenheim Museum di Bilbao: qui, tra “classici” dell’arte contemporanea ed installazioni ben più avveniristiche, non ho potuto far a meno di ritornare con la mente ad un argomento spinoso al quale un po’ di tempo fa avevo già dedicato qualche riga: come conserveremo questi “capolavori” ed in special modo quelli ad elevato “contenuto tecnologico”?
Si pensi all’opera di Jenny Holzer, Installation for Bilbao: 9 colonne alte 13 metri ciascuna attraverso le quali, grazie alla presenza di luci LED, scorrono dall’alto al basso parole scritte in più lingue. Se vogliamo che l’installazione, concepita specificatamente per il Guggenheim (le luci vengono infatti magnificamente riflesse dalle lastre in titanio che rappresentano le squame del pesce-museo ideato da Frank Ghery creando una sorta di “zona blu” nella quale i visitatori sono invitati ad entrare attraversando le colonne, assumendo un ruolo attivo nel processo di fruizione dell’opera; n.d.r.), possa essere goduta anche in futuro dobbiamo conservare, oltre al museo stesso, pure il software che gestisce il flusso delle parole, e l’hardware (i LED, le colonne, etc.).
Un compito non meno gravoso spetterà a coloro che saranno chiamati a conservare l’installazione, questa volta temporanea, The Visitors dell’islandese Ragnar Kjartansson: si tratta di nove schermi HD su sette dei quali vengono rappresentati altrettanti musicisti che suonano diversi strumenti (pianoforte, violino, chitarra, batteria, etc.) mentre sui rimanenti due si vede la “band” al completo. L’audio è diffuso in modo tale che se si resta al centro della sala si percepisce la musica nel suo insieme mentre se ci si avvicina ad uno degli schermi con i sette strumenti è quest’ultimo a prevalere. In tal caso non sarà sufficiente conservare le sole tracce audio e video ma, al fine di assicurare la fruizione così come intesa dall’artista, bisognerà anche aver ben presente come disporre il tutto! Inoltre non bisogna dimenticare che eventuali cambiamenti nella stessa definizione della qualità audio / video comporterebbe de facto alterare l’opera e ciò potrebbe contrastare con la volontà dell’artista!
Proprio sulla collaborazione con i vari artisti / autori sembra puntare molto lo staff (multdisciplinare) del Guggenheim deputato alla conservazione: ad esempio, relativamente all’opera “Installation for Bilbao”, decisivo è stato il contributo della Holzer e dei suoi collaboratori nella fase preliminare di studio dell’opera, finalizzata alla comprensione dell’opera ed all’individuazione degli elementi – tecnici ed estetici – fondamentali (= insostituibili, cioè da conservare) e di quelli, al contrario, trascurabili (= sostituibili).
Fatto ciò, è possibile passare alla fase “operativa”, riassumibile nell’obiettivo di assicurare “[a] constant updating in order to solve issue of obsolescence“.
Mi sembra si tratti di una metodologia assai efficace e che potrebbe essere fatta propria anche in altri ambiti, quali quello archivistico e librario, tanto più considerando che la presenza di figure e competenze multidisciplinari nei team di conservazione è oramai data per assodata.
In particolare credo vada rimarcato come l’azione di studio non sia più prettamente preliminare alla fase conservativa in senso stretto ma al contrario come entrambe si facciano “dinamiche”: l’attività di studio (con particolare attenzione agli aspetti tecnologici) si fa continua e sulla base delle risultanze di quest’ultime si adeguano le metodologie e le procedure esecutive.
Si entra in altri termini in un circolo continuo nel quale l’unico elemento di continuità, fondamentale date le risorse richieste, è rappresentato dalla presenza di un’istituzione / istituto stabile che assicuri che nel corso degli anni non venga mai meno lo sforzo conservativo.
Peccato che il panorama di archivi e biblioteche, in Italia, veda sì la presenza di strutture con tradizioni secolari ma sistematicamente private di risorse (finanziarie, tecnologiche ed umane) al punto da somigliare in buona parte dei casi a grandi scatole vuote, mere organizzazioni burocratiche con capacità operative sempre più ridotte.

Nelle reti neurali il futuro dei data center (e degli archivi digitali)?

neural network

neural network di onkel_wart (thomas lieser), su Flickr

L’idea di fondo che permea buona parte dei post pubblicati in questo blog è che in tempi di cloud computing imperante, gli archivi digitali stiano tendenzialmente finendo per coincidere con i data center; questi ultimi, nella teoricamente impalpabile nuvola, rappresenterebbero la parte “materiale” (la ferraglia, per intenderci) del sistema, nella quale i nostri dati e documenti digitali trovano riparo.
Quest’approccio archivistico ai data center, inevitabile alla luce di quelli che sono i miei interessi, mi ha dunque inesorabilmente portato a prendere in considerazione queste infrastrutture strategiche essenzialmente nella loro “staticità” (intendendo con tale termine la capacità di offrire, materialmente, ricovero ai dati e documenti caricati nella nuvola), sottacendo nella maggior parte dei casi l’insieme di compiti computazionali che in misura crescente deleghiamo “al lato server“.
L’annuncio dato da Google con un post nel suo blog circa l’applicazione di tecnologie machine learning in uno dei suoi data center (DC), oltre ad aprire scenari che fino a pochi anni fa avrebbero trovato posto al più nei libri di fantascienza, spariglia le carte e mi impone a riflettere se l’impostazione sin qui adottata rimanga corretta o sia al contrario da rivedere.
Ma, prima di abbandonarci a voli pindarici, partiamo dalla notizia che, va detto, in sé non rappresenta nulla di trascendentale: in sostanza i tecnici dell’azienda di Mountain View, sempre alla ricerca di nuovi metodi per tagliare i consumi energetici dei propri DC, invece di seguire le teorie “classiche” che puntano su aspetti quali la dislocazione geografica (con tentativi talvolta stravaganti, come il fantomatico data center galleggiante approntato nella baia di San Francisco proprio da Big G e che così tanto ha fatto discutere lo scorso autunno), hanno ottenuto importanti risparmi implementando un “neural network” capace di apprendere dal comportamento di quei macchinari presenti nel DC e deputati al raffreddamento dei server (aspetto, come noto, costosissimo ma fondamentale per garantirne la massima operatività ed efficienza), prevedendo l’andamento dei consumi e, passaggio successivo, ottimizzandoli.
Ma cosa intende Google per rete neurale (artificiale)? Come specificato in un white paper diffuso per l’occasione, l’idea di fondo è realizzare “[a] class of machine learning algorithms that mimic cognitive behaviour via interactions between artifical neurons”; tali algoritmi permettono di avviare nelle macchine un processo di “apprendimento” (training) progressivo e cumulativo (nonché potenzialmente infinito) che ha come obiettivo l’accrescimento complessivo della “conoscenza” e l’accuratezza / qualità dei dati raccolti, con il fine dichiarato di individuare “patterns and interactions between features to automatically generate best-fit model”.
Nel concreto che hanno fatto i ricercatori di Google? Hanno applicato una serie di sensori in punti chiave del data center (quali refrigeratori, torri di raffreddamento, scambiatori di calore, pompe, etc.) ed hanno iniziato a cambiare, uno alla volta, i vari parametri tenendo nel frattempo costanti gli altri. Sono in tal modo riusciti a vedere non solo gli effetti, sull’intero sistema, dei cambiamenti apportati ma, grazie agli algoritmi di apprendimento utilizzati, sono stati in grado di far “imparare” il sistema dalle performance passate sviluppando progressivamente capacità predittive tali da migliorare quelle future.
Si capirà dunque come i titoloni circolati nei giorni scorsi (vedi le “superintelligent server farms” di cui ha parlato Techcrunch) siano eccessivi: Google, in definitiva, ha “semplicemente” reso operativo, peraltro in via sperimentale, un primo fascio di reti neurali artificiali applicato a quella che è la parte “meccanica” dei DC.
Il data center supercervellone capace di agire (ed interagire) sulla falsariga del celeberrimo HAL 9000 del film “2001 – Odissea nello spazio” (ovvero un supercomputer dotato di intelligenza artificiale ed in grado, se interrogato, di fornirci risposte), è dunque lungi dal divenire realtà.
Una volta depurata la notizia dai risvolti “fantascientifici” con i quali è stata subito ricoperta, bisogna però pure ammettere come essa, al di là del suo significato “basico” (ovvero la possibilità, anche per quei DC che svolgono funzioni di “archivio”, di adottare algoritmi di machine learning grazie ai quali ottenere considerevoli risparmi), riveste effettivamente una notevole importanza archivistica.
E’ stato infatti compiuto, con il progetto pilota di Google, un importante salto qualitativo: è infatti solo questione di tempo prima che i sensori vengano applicati, oltre che alla parte meccanica, ai server medesimi. Quando ciò avverrà il neural network instaurerà nessi e collegamenti (assimilabili in qualche modo al vincolo archivistico impuro?) tra i vari dati e documenti conservati sprigionandone l’intero potenziale informativo (tema connesso a quello dei big data ed al warehouse computing del quale ho parlato giusto nel mio ultimo post) e decretando così l’importanza strategica degli archivi.
Inoltre, aspetto non secondario, d’ora in poi l’idea statica di “data center come archivio”, ovvero come luogo fisico nel quale risiedono concretamente i dati ed i documenti digitali, è destinata a lasciar posto a quella, dinamica, di data center come luogo nel quale si instaurano collegamenti e percorsi nuovi e non prevedibili da parte… di un’intelligenza artificiale; l’attenzione si sposterà, in altri termini, dal contenitore (il DC) al suo contenuto.
Con tutto ciò che ne consegue.

Il data warehouse in archivi e biblioteche

Teradata Storage Rack

Teradata Storage Rack di pchow98, su Flickr

Dei beni culturali come “oro nero dell’Italia” o, leggera variante sul tema, come “giacimenti” capaci di fungere da volano per l’economia nazionale si parla e scrive da decenni. L’idea di fondo, in ogni caso, è la medesima: la “cultura” genera ricchezza in modo tangibile e non solo in modo indiretto (ad es. attraverso il “godimento” di un quadro oppure in virtù delle benefiche ricadute sul capitale umano)!
Un neo di questo approccio era rappresentato dal fatto che i beni archivistici e librari venivano tradizionalmente considerati come le “cenerentole”, spettando al contrario a musei e siti archeologici la parte del leone.
Tale scenario è radicalmente cambiato, a ben guardare, con l’avvento dell’era digitale: nel mondo dei bit ad avvantaggiarsi della possibilità di essere trasformati in una sequenza di 0 ed 1 sono, piuttosto che le statue ed i quadri (almeno fino a quando realtà virtuale / aumentata non faranno il salto di qualità, n.d.r.), proprio libri e documenti. Questi ultimi, come noto, sono sempre più oggetto di trattamenti (che avvengono perlopiù in automatico) volti a raccogliere le informazioni / i dati in essi contenuti.
Sulle implicazioni teoriche e tecnico-pratiche di questo fenomeno ho già scritto qualcosa in questo blog, senza però mai affrontare quelli che sono, non nascondiamocelo, i motivi principali per cui i dati e le informazioni risultano così “attraenti”, vale a dire gli evidenti risvolti di business.
Del resto di business information in biblioteca si parla da decenni (basta pensare al vetusto “Business Information. How to Find and Use It” di Marian C. Manley, pubblicato nel lontano 1955…) ed oggi è normale che le principali biblioteche pubbliche offrano un servizio dedicato (vedi la British Library); analogamente è superfluo rilevare come gli archivi digitali rappresentino, in quanto a ricchezza di dati e documenti da destrutturare (data / text mining) al fine di ricavarne utili informazioni, un autentico Eldorado.
In altri termini non ci si deve scandalizzare per l’accostamento, che può apparire dissacrante specie in un paese come l’Italia in cui l’approccio predominante ad archivi e biblioteche è quello storico-umanistico, alle concrete questioni di business; al contrario, credo che vadano esplorate a fondo le evidenti, allettanti prospettive che si aprono (a fianco, si badi, di altre applicazioni che, invece, altro non sono che un modo nuovo di fare qualcosa che per certi versi si è sempre fatto).
Ritengo in particolare ci si debba soffermare sul concetto di data warehouse (letteralmente traducibile come “magazzino di dati”, n.d.r.), dal momento che esso presenta interessanti analogie con quello di archivio.
Infatti, a prescindere ora dal tipo di architettura con la quale lo si implementa (ad uno, due oppure tre livelli oppure top-down o bottom-up), esso può essere considerato una specie di “archivio” informatico o, più correttamente, un repository nel quale sono stipati dati selezionati (il che ne fa una sorta di collezione, cioè dal punto di vista teorico l’antitesi di un archivio, n.d.r.) sfruttati da un’organizzazione (in genere un’azienda di grosse dimensioni) per facilitare e velocizzare la produzione di analisi e di relazioni il più possibile attendibili / predittive e pertanto utili a fini decisionali ed, in subordine, operativi.
In breve, un sistema di data warehousing raccoglie dati provenienti dall’interno (allocandoli in tal caso in data mart) e dall’esterno dell’organizzazione, li trasforma, ed una volta “puliti” (cleaning), omogeneizzati e corredati di un adeguato numero di metadati, li stocca nelle unità di storage da dove vengono “richiamati” (aggregandoli / analizzandoli / comparandoli) e presentati alla persona deputata a compiere in primis le scelte aziendali strategiche “pure” così come quelle relative ad aree quali il controllo di gestione, l’e-commerce, il risk e l’asset management, il supporto alle vendite / marketing, etc.; si tratta dunque di un imprescindibile sistema di business intelligence.
E se si deve ribadire che il (contenuto di un) data warehouse non è un archivio né tantomeno una biblioteca, non devono nemmeno essere sottaciute alcune potenziali aree di interesse: i vertici della Pubblica Amministrazione, chiamata in questi anni ad un titanico sforzo di rinnovamento in chiave digitale, possono ignorare le potenzialità informative di quegli inesauribili “magazzini di dati” che sono gli archivi?
Similmente le biblioteche, che così precocemente si sono gettate nella mischia offrendo servizi di business information, possono non compiere l’ulteriore passo entrando nell’agone del business intelligence?
Peraltro per le biblioteche accademiche (specie quelle afferenti ai dipartimenti di scienze) i compiti potrebbero essere ben più “critici”: nel momento in cui la mole di dati ottenuta dalle varie ricerche condotte dai team si fa immane, non è logico pensare che la tradizionale funzione di supporto alla didattica ed alla ricerca avvenga non solo mettendo a disposizione i risultati di analoghe ricerche nel mondo (mediante i consueti canali quali riviste scientifiche peer reviewed, abstract, e-journal, etc.) ma anche concorrendo alla “manutenzione” di quei sistemi deputati a contenere e rielaborare i dati grezzi come sono per l’appunto quelli dedicati al data warehouse?
Insomma, anche su questo fronte le opportunità non mancano. Come sempre ci vuole, oltre ad un minimo di lungimiranza, una buona dose di coraggio ed intraprendenza per saperle cogliere.

%d blogger hanno fatto clic su Mi Piace per questo: