La valenza “archivistica” dei social network. Alcune considerazioni

From Facebook: December 17, 2011 at 07:50AM

From Facebook: December 17, 2011 at 07:50AM di djwudi, su Flickr

Che gli italiani stravedano per i social network è cosa arcinota, ma che i social network stiano acquisendo ogni giorno di più una valenza “archivistica” (il termine rischia di essere fuorviante ma rende l’idea) è decisamente meno risaputo.
All’argomento mi ero avvicinato, con mille cautele e precauzionale uso del condizionale, già in Archivi e biblioteche tra le nuvole: in esso sostenevo che a) sotto alcune condizioni (in particolare facevo presente come fosse necessario effettuare una sorta di lavoro di “esegesi delle fonti”), alcuni social network erano per certi versi considerabili come i moderni archivi di persona b) per molti enti ed organizzazioni, tanto pubblici quanto privati, essi venivano a ricoprire un ruolo strumentale (nel senso proprio del termine) tale da renderli contemporaneamente mezzi e fonti di informazioni, notizie e documenti.
Ebbene, a distanza di nemmeno un anno queste mie affermazioni sembrano essere state persino troppo moderate!
Facciamo una rapida carrellata della situazione attuale per trarre in un secondo momento alcune necessariamente provvisorie conclusioni.
Alcuni social network mantengono la loro rilevanza in quanto “meri contenitori” di informazioni: è il caso di LinkedIn, rete sociale nella quale gli iscritti pubblicano i loro curriculum vitae (studi, esperienze lavorative, posizioni e ruoli ricoperti, etc.) e ricreano la propria rete di contatti in ambito lavorativo. Se lo scopo immediato è quello di relazionarsi con potenziali datori di lavoro o colleghi per intraprendere assieme un business, inutile dire che tali e tanti sono i profili accessibili (la registrazione è gratuita, ma sottoscrivendo l’account premium si possono sfruttare alcune funzionalità addizionali) che si possono ricostruire intere carriere di milioni di persone così come, per i più volenterosi, gli organigrammi passati e presenti di centinaia di migliaia di aziende.
Se LinkedIn “batte” sulle persone, Mendeley invece punta moltissimo sulla qualità dei documenti e sul target elevato dei suoi utilizzatori, moltissimi dei quali appartengono alla comunità accademica; Mendeley infatti consente all’utente di caricare i propri documenti in pdf (poniamo una ricerca sul diabete), effettuare sottolineature ed annotazioni che possono essere condivise con altre persone (ipotizziamo gli appartenenti ad un gruppo di ricerca ristretto su questa malattia oppure un gruppo tematico esistente su Mendeley), sottoporre il proprio lavoro ad una sorta di peer review, generare citazioni e bibliografie a partire dalla ricca base di dati a disposizione ed ovviamente salvare la propria attività in locale con backup automatico sulla nuvola (il che lo rende disponibile sempre e su qualsiasi dispositivo). Sebbene ad oggi la stragrande maggioranza dei documenti presenti sia di carattere scientifico, non è da escludere che in futuro questo servizio, sorta di ibrido tra archivio / biblioteca personale e gruppo di lavoro online, venga usato per creare documenti di rilevanza pubblica (mi vien in mente, giusto per fare un esempio, la prassi sempre più diffusa di sottoporre ad una “revisione” pubblica disegni di legge, bozze di regolamenti, etc.).
Affianco a questo uso dei social network in quanto “giacimenti di informazioni” permane quello che li considera (non a torto) strumenti propedeutici all’attività istituzionale: da manuale il caso di Twitter, il quale annovera tra i suoi tweeter non solo privati cittadini ma anche politici, enti pubblici ed aziende. I cinguettii di questi ultimi si affiancano in tutto e per tutto ai tradizionali comunicati stampa “unidirezionali” ed in quanto tali andrebbero conservati così come conserviamo i corrispettivi cartacei (conscia dell’importanza di alcuni tweet da quasi due anni la Library of Congress conserva tutti i cinguettii lanciati nel mondo; se sul merito sono d’accordo, sul metodo – conservazione indiscriminata dell’intero archivio – nutro più di un dubbio). Per inciso l’uso di Twitter da parte di personalità pubbliche crea casi ibridi decisamente interessanti (e problematici): l’attuale Ministro degli Affari Esteri italiano, Giulio Terzi di Sant’Agata, ha un suo profilo personale (non legato dunque alla carica che ricopre) dal quale però lancia tweet inerenti al suo incarico i quali di norma anticipano nel contenuto un successivo comunicato stampa od una nota ufficiale rilasciata dalla Farnesina ma che talvolta non sono seguiti da alcuna comunicazione ministeriale e pertanto devono essere considerati come opinioni personali dello stesso.
Frutto del medesimo approccio “strumentale” è quanto fatto dalla Direzione Generale per gli Archivi (DGA) con il suo canale YouTube, nel quale sono caricati VHS digitalizzati provenienti da diversi archivi italiani: se da un lato con ciò si ribadisce la volontà della pubblica amministrazione di andare dai cittadini là dove questi trascorrono gran parte del loro tempo, dall’altro c’è da interrogarsi sulla natura di quell’archivio “parallelo” (peraltro frutto di una operazione di selezione che archivisticamente parlando può sollevare qualche perplessità) che viene a crearsi su YouTube e soprattutto sulla natura di YouTube stesso, che allontanandosi dal suo motto Broadcast Yourself sembra tornare alle origini allorquando la parola d’ordine era “L’archivio digitale dei tuoi video”: ed è innegabile che in esso, seppur in modo accidentale, venga a formarsi un formidabile “archivio” di video alla portata di click di ciascun cittadino.
Una funzione analoga a YouTube è svolta, per quanto riguarda la foto, da Flickr e dall’astro nascente Pinterest, nei quali fotografi professionisti, architetti, designer, etc. caricano, condividono e conservano le proprie creazioni: anche in questo caso c’è da chiedersi (provocatoriamente) se questi servizi possano rappresentare gli Archivi Alinari del futuro.
Finisco questa carrellata con quello che è universalmente riconosciuto come il principe dei social network, Facebook: nato come servizio che consente alle persone di rimanere in contatto con i propri amici ha successivamente aperto le porte, per motivi di business, anche alle aziende ed alle organizzazioni. Di particolare rilevanza ai fini del discorso che sto qui facendo la nuova funzionalità Timeline: in pratica chiunque abbia un profilo può inserire, lungo una linea del tempo digitale, foto, eventi, video, etc. relativi a fatti accaduti in quel determinato momento. In tal modo un’intera vita può essere ricostruita e “postata”; se per la maggior parte degli utenti si tratterebbe di un’operazione ex post, per un’azienda fondata oggi o per un neonato (in tal caso il profilo ovviamente sarebbe gestito da un genitore; cercate, su FB ci sono già i primi esempi) è tecnicamente possibile riempire questa linea del tempo praticamente in real time al punto che, tra venti o trent’anni, potremmo essere in grado di ripercorrere un’intera esistenza giorno per giorno. Insomma, ci avviciniamo passo dopo passo al concetto una volta fantascientifico di vita digitale!
Ma tornando più sul concreto, le applicazioni pratiche di Facebook Timeline sono particolarmente interessanti per quanto riguarda il versante delle aziende / organizzazioni: sui principali quotidiani è ad esempio circolato il caso di Coca Cola Company la quale ha postato la foto del suo fondatore ed immagini delle prime bottiglie di questa famosa bibita recuperate dal proprio archivio d’impresa. Ancor più ricca di contenuti, a mio avviso, la pagina dell’US Army (per accedervi bisogna essere registrati a FB): dal 1775, anno della Dichiarazione d’Indipendenza ai giorni nostri, la storia dell’esercito è ricostruita attraverso foto, documenti e video molti dei quali provenienti dai National Archives. Una caratteristica molto affascinante è che man mano che ci si avvicina ai giorni nostri i contributi sono sempre più abbondanti e “fitti” fino a diventare pressoché minuto per minuto, con post da ogni parte del mondo e riferimenti ai più svariati reparti, da quelli impiegati in teatri operativi a quelli della Guardia Nazionale!
Giunti al termine di questa giocoforza rapida carrellata, mi sembra che si possa affermare che il rapporto archivi / social network, nella duplice funzione di “utile strumento” e “deposito di documenti digitali”, sia più vivo che mai e proprio per questo non vada affatto trascurato ma anzi seguito con attenzione nella sua evoluzione futura.

Futuro dell’editoria, ruolo delle biblioteche, cloud… e la necessità di una visione integrata

Convegno Stelline 2012 - Valdo Pasqui

Convegno Stelline 2012 - Valdo Pasqui

Scrivo questo post reduce da un autentico tour de force al Convegno delle Stelline / Bibliostar, con tutte le interessantissime relazioni ed i dibattiti da queste scaturiti che mi frullano per la testa… eppure non riesco a togliermi l’idea che in quanto ascoltato ci sia qualcosa che non torna.
Mi spiego: fatta salva la sessione iniziale, ho seguito incontri paralleli e seminari di stretta attinenza con gli argomenti che più mi interessano e che poi puntualmente ritornano in questo blog (vale a dire ebook ed ereader, punti di contatto tra biblioteche ed archivi, cloud computing e via discorrendo), ma ho avuto la netta impressione che gli interventi dei vari relatori, senz’ombra di dubbio tra i massimi esperti nei rispettivi campi, mancassero della necessaria visione d’insieme (sarà forse un caso, ma la relazione che più mi ha colpito è stata quella introduttiva di Maurizio Ferraris che NON è un bibliotecario, insegnando egli filosofia teoretica a Torino). Una serie di esempi renderanno perfettamente l’idea: parlando dell’accoppiata ebookereader si ricordava come il loro uso in ambito didattico non sia la panacea per tutti i mali, essendo (in certi contesti) meno efficaci per l’apprendimento rispetto ai tradizionali testi scolastici di carta; parlando di biblioteca non c’è una visione comune su cosa essa dovrà fare (a proposito quasi opposte le posizioni di Riccardo Ridi e Davis Lankes, con il primo ancorato a compiti più “tradizionali” come quello, tra i tanti, della conservazione ed il secondo tutto proteso verso l’erogazione dei più disparati servizi); parlando di cloud computing ascoltando l’esperto di diritto vien semplicemente da lasciar perdere tutto tali e tanti sono gli ostacoli ed i rischi! Intendiamoci, è comprensibile che essi, proprio perché profondi conoscitori dei vari ambiti, sentano quasi il dovere di evidenziare pregi e difetti, ma potrete capire come l’ascoltatore, dopo essersi sentito dire per due giorni che quelle novità che si ritiene rappresenteranno il futuro non si sa se facciano più bene o più male, non possa sentirsi perlomeno spiazzato.
Tanto più, e qui ritorno al punto iniziale, che mancava nell’analisi una visione complessiva delle trasformazioni; capisco che stiamo parlando di seminari di approfondimento e magari si da per acquisito il contesto di riferimento ma se non si tiene presente il quadro generale il rischio di giungere a conclusioni erronee e drastiche è sempre dietro l’angolo.
Anche perché a mio avviso (e chi ha letto i miei vecchi post ben lo sa) non è possibile scindere la diffusione dei vari device da quella dei contenuti (ebook, ejournal, risorse in genere disseminate su repository in Rete e via discorrendo) e dall’infrastruttura (il cloud) che rendono possibile tutto ciò e che sono nel contempo causa e conseguenza delle trasformazioni in atto a tutti i livelli (di utilizzatore finale, di biblioteca intermediatrice, di editori produttori e/o distributori) nelle modalità di creazione, fruizione e conservazione.
Chiarisco meglio la mia posizione: se rinunciamo agli ebook nella didattica (senza entrare nel merito, ma solo per riprendere l’esempio citato) rinunciamo ad un fattore propulsivo nella diffusione dei dispositivi di lettura; se facciamo a meno del modello del cloud computing e soprattutto all’infrastruttura che lo supporta non solo le potenzialità tecnologiche dei medesimi dispositivi escono ridimensionate ma anche ciò che noi in quanto utenti possiamo fare (usare, creare, salvare e modificare contenuti, condividere, diffondere, etc.); viceversa, senza un’infrastruttura adeguata i nuovi device diventano meno appetibili e a cascata gli ebook hanno meno appeal
Appare evidente che è un sistema altamente interconnesso e che pertanto le biblioteche non possono rinunciare a nessuno degli aspetti elencati a patto di venir velocemente estromesse da queste realtà avanzate; corollario di tutto ciò è, per concludere, che le biblioteche (ma è più sensato parlare del settore dei beni culturali tout court, ma questo è un altro discorso…) inizino a dotarsi di quell’infrastruttura che ne costituisce il presupposto e che attorno a queste creino il proprio ecosistema di relazioni, applicazioni, risorse. Il futuro delle biblioteche è questo e può essere roseo.

Open data a Milano, ma gli archivi dove sono?

Open Data

Open Data di DevelopmentSeed, su Flickr

L’altro ieri il Comune di Milano ha presentato con una certa enfasi il progetto Open Data, con il quale si rendono disponibili (lo evidenzio perché pubblici lo sono già) e soprattutto liberamente usabili quei dati raccolti dal Comune stesso, il tutto con la speranza che i cittadini creino app capaci di migliorare la vita della città dando ad esempio informazioni in tempo reale sul traffico, sui parcheggi liberi, sui tombini intasati, sulle buche presenti sul manto stradale, etc.
Naturalmente l’iniziativa va accolta con il massimo favore, anche se voglio fare un po’ il guastafeste sottolineando un paio di note dolenti / aspetti critici, i primi due dei quali sono di natura “archivistica”, i rimanenti due di ordine più generale: 1) nell’iniziativa milanese sono, in questa fase iniziale, coinvolti la direzione informatica ed il settore statistica con i rispettivi dati; anche se è già stato anticipato che progressivamente verranno resi disponibili tutti i dati di tutte le aree organizzative, mi aspettavo quanto meno un cenno di riguardo per gli archivi (correnti in primis, ma anche quelli di deposito potrebbero fornire serie storiche più che utili!) dal momento che dai documenti in essi contenuti si possono estrapolare dati a volontà! In altri termini rappresentano delle autentiche miniere! 2) i dati sono “pubblici” nel senso pieno del termine, ovvero in quanto provenienti (anche) dai cittadini e non esclusivamente da enti od organizzazioni pubbliche / a rilevanza pubblica; questo punto merita due ulteriori riflessioni: a) se da un lato quei dati provenienti dai cittadini contribuiscono a far funzionare il sistema nel suo complesso, dall’altro va riconosciuto che la loro veridicità (non parlo nemmeno di autenticità, affidabilità, etc.) non può essere paragonabile a quella dei dati provenienti, per stare in tema, dagli archivi b) tutti questi dati confluiscono in una struttura informatica che si rifà al paradigma del cloud computing e vengono aggregati a seconda delle esigenze (avvicinandosi pertanto al modello di vista documentale) 3) prendendo il modello statunitense, che è sicuramente avanti di un paio d’anni rispetto a noi, come punto di riferimento, è evidente come gli open data necessitino, come presupposto, di una tensione civica che non si crea dal nulla! Insomma, non basta “liberare i dati”, ma occorre che muti l’atteggiamento dei cittadini, cosa che non avviene da un giorno all’altro! Che si tratti di una conditio sine qua non ne ho avuto la prova guardando la diretta streaming dell’SXSW in corso ad Austin, nel corso del quale Jennifer Pahlka, fondatrice dell’organizzazione Code for America, ha espressamente sostenuto la tesi che government is what we do together, richiedendo in questo senso una attiva mobilitazione della cittadinanza la quale finisce quasi per “soppiantare” i governi locali 4) ora, ovviamente mi auguro che un simile slancio attraversi l’italica penisola ma anche se ciò avvenisse potrebbe non bastare: la Pubblica Amministrazione italiana, purtroppo, è notoriamente caratterizzata da burocratizzazione, eccesso di formalità e di formalismi, impersonalità (nonostante la 241/1990), opacità e scarsa trasparenza (anche qui alla faccia della 241). Tutte caratteristiche, ahimè, che stridono (tornando oltre Atlantico), con l’obiettivo dichiarato di Code for America, ovvero a) collaborare gomito a gomito con gli amministratori cittadini b) realizzando soluzioni web based capaci di migliorare la città. La collaborazione di cui al punto a) è ottenibile, secondo Code for America, a patto che vengano rimossi gli ostacoli burocratici e ci sia voglia di trasparenza; così facendo si arriverebbe ad un cambio del paradigma stesso con cui si governa la città, sintetizzato dall’efficace slogan “government as a platform“.
Sfide, si intuisce, difficili anche per gli Stati Uniti e che se venissero realizzate in Italia anche solo per la metà rappresenterebbero niente meno che una rivoluzione copernicana per come viene intesa la gestione della cosa pubblica e per il nuovo rapporto che si verrebbe ad instaurare tra amministratori ed amministrati; rapporto, per concludere, assai delicato e che vedrebbe, nel futuro così come nel passato, gli archivi in un ruolo chiave.

iPad 3: un’occasione mancata?

Apple iPad 3 Media Invitation

Apple iPad 3 Media Invitation di Photo Giddy, su Flickr

Tanto di cappello alla Apple, non c’è che dire! L’azienda di Cupertino è riuscita a sollevare un enorme clamore mediatico per un prodotto, l’iPad 3, che alla prova dei fatti non rappresenta nulla di trascendentale e soprattutto non costituisce chissà quale passo in avanti rispetto al predecessore: intendiamoci, le migliorie ci sono (a livello di sistema operativo, di processore, di GPU, di foto/videocamera, di connettività, di schermo) ma non tali da far esclamare: “Lo devo avere, il mio iPad 2 in confronto è ferraglia!”.
Di LTE, servizi cloud, processori quadcore e videocamere ad alta definizione se n’è parlato in abbondanza al Mobile World Congress di una settimana fa, motivo per cui il nuovo nato non mi ha particolarmente impressionato. Diciamocelo chiaramente: è mancato il classico “asso nella mancia”, il che mi fa ipotizzare che l’iPad 3, al di là dei numeri di vendita che saranno sicuramente elevati, sarà per Apple più una cartuccia sparata a vuoto piuttosto che l’ennesimo colpo a bersaglio.
Ho, in altri termini, la forte sensazione che la strategia dell’azienda della Mela sia improntata al massimo attendismo e per questo del tutto errata; dalla Apple era o non era lecito attendersi un coup de théatre che sbaragliava tutte le aspettative? la presenza di quel “di più” tecnologico che sbaraglia la concorrenza e che negli ultimi anni le ha consentito di restare una spanna avanti rispetto alla concorrenza?
La cosa più preoccupante è che questo “attendismo” non ha riguardato solo le scelte più prettamente tecnologiche ma anche quelle di riposizionamento strategico vale a dire il lancio di un tablet dalle dimensioni inferiori, tale da poter presidiare quel segmento di mercato completamente sguarnito e lasciato alle varie Samsung, LG, Acer e prossimamente probabilmente Google – Motorola.
In tal modo entriamo in argomenti di precisa competenza di questo blog: l’iPad 3 mantiene invariato rispetto al predecessore lo schermo da 9,7″, ma con un aumento sia dello spessore, il quale passa da 8,8 mm a 9,4 mm, che del peso (mediamente di circa 50 grammi, dipende anche se è LTE o meno). Insomma, la maneggevolezza e comodità di trasporto non sono sicuramente il punto forte dell’iPad e nella post PC era questo non costituisce esattamente un vantaggio! Vogliamo mettere l’emozione e l’impatto che avrebbe suscitato Tim Cook se si fosse presentato sul palco dell’Yerba Buena sfoderando un iPad “tascabile”? Senz’ombra di dubbio enorme. Inoltre un simile device sarebbe diventato istantaneamente un must anche in ambito business, mentre così l’iPad rimane ancorato alla concezione iniziale di un dispositivo pensato soprattutto per essere adoperato in attività ludiche / di entertainment e solo eventualmente per il lavoro. Deludente l’autonomia della batteria, che restando ferma ad un massimo di 10 ore (che scendono a 9 per la versione con connettività LTE), non elimina quell’ansia da battery life che ben conoscono i possessori di iPhone; in linea con le aspettative, almeno con quelle del sottoscritto, la mancata presenza di un iPad3 con memoria da 128 GB: oramai è evidente che la memoria interna è considerata dai grandi costruttori come complementare rispetto a quella sulla nuvola, motivo per cui è inutile investirci sopra (perché è vero che con una videocamera come quella installata bastano pochi filmati per occupare lo spazio interno a disposizione, ma è altrettanto vero che con le reti di nuova generazione – per chi è fortunato di averle già pronte – l’upload anche di file di grandi dimensioni rappresenta un’operazione sempre più veloce e di ordinaria amministrazione).
In definitiva, per chiudere, l’unica novità degna di nota è la presenza del retina display, il quale, come affermato da Pablo Defendini su Digital Book World “makes [the iPad 3] a superb reading device. Type will be much easier to read, and comics adapted from print, in particular, will be much more legible at their reduced, on-screen sizes”. Insomma, dopo il restyling di iBook, il lancio di iAuthor e le varie iniziative in ambito educational, Apple aggiunge un ulteriore tassello che conferma come essa punti molto sull’editoria digitale. Cosa sicuramente da tener presente per i futuri equilibri di questo settore in rapida trasformazione.

Grandi biblioteche: servono ancora?

Biblioteca José Vasconcelos

Biblioteca José Vasconcelos di PVCG, su Flickr

In un momento di crisi economica qual è l’attuale è frequente sentire discorsi del tipo: “i tagli riguardano tutti ed è normale che anche la cultura sia colpita” o al contrario “no, la cultura è la principale ricchezza del paese ed è esattamente questo il momento per investirci”. Sebbene il sottoscritto abbracci in toto la seconda delle due (tra l’altro sono in compagnia di fior di economisti; si veda a riguardo l’iniziativa lanciata dal Sole 24 Ore, principale quotidiano economico italiano), alla luce della lettura dell’articolo Queda en cibercafé la Megabiblioteca Vasconcelos en el DF, mi chiedo e chiedo provocatoriamente: ma siamo davvero sicuri che qualsiasi investimento in cultura sia davvero giustificato? i soldi spesi per realizzare una mega biblioteca come quella descritta nell’articolo rappresentano davvero un buon investimento?
I fatti, così come raccontati dall’estensore del pezzo, sono i seguenti: a sei anni dall’inaugurazione questa avveneristica biblioteca si sarebbe ridotta a mero cibercafé; certo, gli stanziamenti promessi per lo sviluppo delle collezioni non sono arrivati nelle cifre previste (2 milioni di pesos dal 2007 al 2011 a fronte dei 5 milioni annui ritenuti necessari) ma è altrettanto vero che i principali indicatori statistici non sono positivi: 1.714.228 accessi (di utenti; n.d.r.) nel 2011 a fronte di stime che prevedevano dai 4 ai 5 milioni annui, la metà quasi dei quali (735.000) vi si è recata per navigare in Internet. Non soddisfacenti nemmeno i dati sui prestiti: posto che appena il 4,7% dei visitatori (ovvero 81.275 persone) possiedono le credenziali (vale a dire, sono registrati per i servizi di prestito), i prestiti a domicilio sono stati solamente 355.391, cioè poco più di 4 libri a testa, mentre le letture in sala (non so esattamente come calcolate, essendo la biblioteca chiaramente a scaffale aperto) sono assommate a 495.105. Aggiungendo, ciliegina sulla torta, che la struttura presenta problemi di infiltrazioni d’acqua al settimo piano (motivo per cui si è dovuto procedere per ben due volte alla chiusura straordinaria della biblioteca) è evidente come il giudizio complessivo su quest’opera faraonica dall’astronomico costo di 98 milioni di dollari (questa la cifra inizialmente messa a bilancio, in realtà sono stati molti di più proprio per rimediare ai difetti strutturali di cui sopra) presenti molte ombre!
Astraendo dal caso specifico della Vasconcelos, il punto nodale è a mio parere il seguente: ha senso, in un mondo come quello attuale in cui i contenuti si vanno digitalizzando e l’accesso avverrà in maniera crescente da remoto attraverso i più disparati dispositivi, realizzare biblioteche colossali dai costi fissi di gestione immani? Prevedere chilometri lineari di scaffali che probabilmente mai verranno riempiti giacché gran parte dei libri verranno richiesti e fruiti esclusivamente in modalità digitale? Predisporre decine se non centinaia di postazioni Internet fisse quando oramai la navigazione avviene in mobilità?
Ovviamente no e questo vale per la Vasconcelos (tanto più che in Messico il compito di conservare la produzione nazionale spetta alla Biblioteca Nacional de México), per la “nostra” BEIC (qualora qualcuno abbia ancora intenzione di buttarci sopra soldi!) e per qualsiasi altro progetto che abbia lo scopo di assecondare le manie di grandeur del politico / potente di turno e gli interessi speculativi dei costruttori.
Il modo corretto di procedere è, al contrario, quello di effettuare una seria analisi preliminare del bacino di utenza e delle relative esigenze informative (intese qui in senso lato), calando il tutto nel contesto culturale, sociale e tecnologico. Se tale analisi fosse stata fatta, magari sarebbe saltato fuori che in una megalopoli come Città del Messico (quasi 20 milioni di abitanti considerando l’intera conurbazione) era più utile e conveniente creare strutture diffuse sul territorio (o potenziare le esistenti, non conosco nel dettaglio la realtà messicana) capaci di erogare servizi differenziati che trascendono il mero prestito librario. Qualcosa di affine, per intenderci, agli Idea store londinesi, nei quali oltre ai soliti libri, periodici, film e via discorrendo si organizzano corsi di lingua per i neo-immigrati, si danno informazioni tipo “sportello del cittadino”, espongono offerte di lavoro, forniscono notizie sui mezzi di trasporto, sulle iniziative delle associazioni locali, etc.
In definitiva è esattamente grazie a questa attenta analisi preliminare che ogni specifica realtà potrebbe individuare la propria “via alla biblioteca”; in Italia, ad esempio, le sfide poste dall’immigrazione sono diverse da quelle britanniche ed infatti, complice l’assenza di vere metropoli, non esistono quartieri interamente abitati da immigrati (con relativi noti problemi). Al contrario il modello che va per la maggiore è quello della città diffusa che storicamente affonda le sue radici nell’Italia dei Comuni, motivo che farebbe propendere per la realizzazione di strutture decentrate di medie dimensioni e capaci di offrire servizi calibrati sulle reali esigenze (attuali e future, espresse ed inespresse) della comunità di riferimento.
Alla luce di quanto esposto, mi azzarderei pertanto a sostenere che oggigiorno nel mondo, e a maggior ragione in Italia, NON c’è bisogno di realizzare grandi biblioteche (bastano ed avanzano le Nazionali Centrali) essendo le uniche strutture di una certa dimensione delle quali veramente c’è bisogno quelle informatiche, deputate a fungere da “punti di accumulo” delle risorse digitali che poi dovranno venir distribuite, in vista della loro fruizione attraverso molteplici piattaforme, ai vari client, siano essi biblioteche, istituzioni, etc. o gli utenti / cittadini stessi.

MWC, alcune considerazioni

LG전자, MWC 2012 현장 스케치

LG전자, MWC 2012 현장 스케치 di LGEPR, su Flickr

Oggi parliamo di device, ai quali come saprete attribuisco notevole importanza in quanto strumenti di produzione, fruizione e per certi aspetti pure di conservazione dei molteplici “contenuti” digitali di cui la nostra epoca abbonda.
Bisogna ammettere che il Mobile World Congress di Barcellona, chiusosi ieri, non ci ha riservato chissà quali premiere in fatto di nuovi modelli presentati (complice Apple che si è tenuta la chicca dell’iPad 3 per la consueta kermesse “casalinga” all’Yerba Buena Center for the Arts del 7 marzo prossimo…); ciò nonostante quei dispositivi presentati al MWC 2012 sono stati ugualmente sufficienti per confermare alcuni trend globali che verosimilmente caratterizzeranno l’evoluzione del comparto nei prossimi anni.
Lasciando ora stare la massiccia presenza di dispositivi con connettività LTE e/o con processore Quad Core, da rimarcare come quasi ogni casa produttrice abbia presentato almeno un modello con display di dimensioni intermedie tra quelle di un “normale” smartphone (prendendo come riferimento il “padre” di tutti i telefonini intelligenti, vale a dire l’iPhone, la cui ultima versione 4S presenta una diagonale da 3,5″) e quelle di un tablet, i cosiddetti phablet : l’A9 Cloud Mobile X di Acer ed il Nokia Lumia 900 (quest’ultimo una novità relativa), tanto per iniziare, montano uno schermo da 4,3 pollici che deve però inchinarsi all’LG Optimus 4X HD ed all’HTC One X che possono vantare schermi da ben 4,7 pollici (sempre LG aveva presentato una settimana fa l’Optimus Vu con schermo da 5 pollici; n.d.r.); insomma, sembra proprio che la strada inaugurata da Samsung con quell’ibrido che è il Note (schermo da 5,1 pollici) sia seguita da molti! Proprio da Samsung giungono le notizie più interessanti: la prima consiste nel lancio della versione “raddoppiata” con schermo da 10,1 pollici del Note medesimo (bella tra l’altro la funzione S Note, che consente di sottolineare, evidenziare, etc. pagine web condividendo il tutto – un po’ come già avveniva sull’HTC Flyer), la seconda nel Galaxy Beam, smartphone con integrato un picoproiettore capace di ingrandire eventuali proiezioni fino a 50 pollici.
Se anche in questo caso non si tratta di una prima assoluta (LG aveva presentato l’analogo Expo addirittura al CES 2010) la combinazione di questi due elementi rafforza la communis opinio che smartphone e tablet (o più verosimilmente una versione intermedia dei due, avente dalla sua miglior usabilità da una parte e portabilità dall’altra) a breve si trasformeranno da dispositivi per lo più ludici e/o di comunicazione latu sensu in diffusissimi strumenti di lavoro per vaste fasce di professional.
Che sia proprio così se ne ha conferma leggendo l’intervista rilasciata da Stephen Elop, CEO di Nokia, a Techcrunch: secondo il boss della casa finlandese la sua azienda avrà un occhio di riguardo per tutti quei suoi clienti che, spinti dalla voglia di testimoniare e documentare attraverso foto, video, etc. il mondo che li circonda, richiedono foto/videocamere più potenti, con contestuali capacità di collocare nello spazio/tempo (geotagging) quanto da loro testimoniato in veste di rappresentanti di un giornalismo impegnato e diffuso (citizen journalism).
Ovviamente per Nokia, Elop ne è ben consapevole, le sfide sono molteplici (dalla scommessa su Windows Phone all’imprescindibile discesa nell’arena delle tavolette, di cui Reader, software per l’e-reading rappresenta forse un primo segnale) e l’esito della battaglia è tutt’altro che scontato; di sicuro c’è che i cambiamenti in atto sono profondi e dal notevole impatto per tutti, archivisti e bibliotecari compresi!

PS Per approfondire gli argomenti trattati e maggiori dettagli tecnici sui dispositivi citati in questo post rimando alla versione appositamente approntata su Storify.

Oltre le nuvole

Reset phone. 1st 25 apps I needed or thought about.

Reset phone. 1st 25 apps I needed or thought about. di hillary h, su Flickr

In una realtà tecnologica in continua ed ossessiva evoluzione non abbiamo ancora metabolizzato il concetto di cloud computing che già si inizia a parlare di metacloud; se con il primo intendiamo “un insieme (o combinazione) di servizi, software e infrastruttura It offerto da un service provider accessibile via Internet da un qualsiasi dispositivo” (definizione data da Rinaldo Marcandalli) in che cosa consiste ora questo andare “oltre la nuvola”?
In definitiva non è nulla di trascendentale: di norma con questo neologismo si fa riferimento a quei servizi (uno è Zero PC, lo cito giusto perché vi facciate un’idea) che consentono di gestire in modo semplice ed immediato, attraverso un’interfaccia unica, i contenuti prodotti e caricati su distinte cloud a) principalmente da individui b) che hanno in dotazione molteplici dispositivi. Per fare un esempio concreto se si usa un servizio di metacloud non è più necessario collegarsi a Flickr, Picasa od Instagram per visualizzare le proprie foto così come non serve accedere ai servizi Google per leggere i propri documenti (Google Docs) e mail (GMail); analogamente avviene con Evernote per la propria “bacheca virtuale”, con Dropbox o Box.net per il proprio spazio di storage e con Twitter e Facebook per quanto concerne la gestione delle proprie reti sociali.
Visto sotto questo punto di vista è innegabile che un servizio di metacloud presenta molteplici aspetti positivi: 1) non occorre più ricordarsi su quale servizio / dispositivo si trova tale foto e talaltro documento, in quanto con una semplice ricerca per nome, tag, data, etc. si individua il contenuto desiderato punto e basta 2) dal momento che anche il metacloud è un servizio web based, l’accesso ai propri contenuti digitali è H24 e device independent 3) non occorre più ricordarsi tante credenziali di accesso quante i servizi che si adoperano 4) spesso e volentieri è compreso il servizio di backup automatico dei propri dati e documenti dalle molteplici nuvole (ciascuna corrispondente ai vari servizi cui siamo iscritti) alla “metanuvola” (il citato ZeroPC ad esempio mette a disposizione 1 GB nella versione gratuita).
Quest’ultimo punto ci introduce alla parte più propriamente “archivistica” della questione (ma a ben guardare c’è pure un risvolto “biblioteconomico”, giacché sulla nuvola posso caricare anche la mia biblioteca personale composta di e-book!): come ormai saprete sono fortemente convinto che il cloud computing rappresenti un grosso pericolo per quelli che sono i moderni archivi di persona (diverso il caso di realtà più strutturate come aziende e pubbliche amministrazioni che peraltro sono tenute per legge a gestire e conservare i propri documenti). Infatti tale paradigma tecnologico, unitamente all’esplosione quantitativa degli strumenti di produzione, comporta una frammentazione / dispersione fisica dei propri dati e documenti su molteplici servizi e supporti di memoria al punto che è facile perdere la cognizione di “dove si trovi cosa”. In questo senso la comparsa di servizi di metacloud è la naturale risposta alla perdita di controllo conseguente al passaggio sulla nuvola ed è apparentemente in grado di ridare unità logica (ed eventualmente anche fisica, qualora si proceda al backup sulla metanuvola, poniamo quella di Zero PC) a quelli che altrimenti non sarebbero altro che frammenti sparsi della nostra vita digitale. Purtroppo non son tutte rose e fiori perché un servizio di metacloud soffre di molte di quelle problematiche già evidenziate per il cloud computing, vale a dire a) il rischio di hijacking nella fase critica del trasferimento dati da/per la nuvola / metanuvola, b) policy non adeguatamente esplicitate in fatto di tutela dei dati caricati, di localizzazione dei data center e delle misure di sicurezza ivi adottate, etc.
Partendo dal presupposto che il modello del cloud sia irrinunciabile nell’attuale contesto tecnologico, sociale ed economico, il problema dunque che si pone è il seguente: come mantenerne gli indiscutibili benefici limitando e se possibile azzerandone le controindicazioni (sempre in relazione all’uso da parte di singoli individui; n.d.r.)? Il metacloud è una prima strada che, come abbiamo visto, risolve parzialmente le cose; l’altra a mio avviso non può che essere quella delle personal cloud, alle quali ho già fatto cenno in un precedente post. Quest’ultima soluzione permette un controllo nettamente maggiore (e migliore) dei propri contenuti digitali così come per tutto ciò che concerne la sicurezza fisica anche se ad oggi risulta assai più costosa e sottintende una tutt’altro che scontata sensibilità archivistica in capo al suo “proprietario”, senza che peraltro vengano eliminati gli annosi problemi relativi all’affidabilità, autenticità, etc. dei dati e documenti medesimi.
Insomma, per concludere, neppure le personal cloud sembrano risolvere tutti i problemi, anche se a ben guardare una possibilità ci sarebbe e consisterebbe nel consentire al singolo individuo di effettuare la copia di backup della propria nuvola personale all’interno di porzioni di server appartenenti, che ne so, agli Archivi di Stato, che verrebbero così a svolgere la funzione di trusted repository in favore di tutta la collettività; peccato che tutto ciò presupponga un salto tecnologico, e soprattutto culturale, che allo stato attuale delle cose è pura utopia… Sia come sia l’importante è che l’attenzione sui destini degli archivi di persona nell’era digitale non venga mai meno.

Volunia, la prova

Volunia - Mappa visuale di Europeana.eu

Volunia - Mappa visuale di Europeana.eu

Dopo aver partecipato alla presentazione di Volunia e atteso (un po’ più del dovuto) l’arrivo delle credenziali di accesso, ho testato per un congruo numero di giorni la “creatura” di Massimo Marchiori. Purtroppo devo dire che le perplessità che avevo subito manifestato, dopo l’utilizzo sono addirittura aumentate.
Infatti, anche concedendo agli sviluppatori tutte le “attenuanti” dovute al fatto che siamo ancora in fase beta e che la funzione dei power user è esattamente quella di aiutare a migliorare il prodotto, i problemi evidenziati sono a mio avviso talmente tanti che, spiace dirlo, Volunia non parte con il piede giusto.
Ma vediamo un po’ più nel dettaglio quali sono le note dolenti iniziando velocemente dagli aspetti generali per affrontare solo in un secondo momento tematiche direttamente pertinenti con gli argomenti che vengono generalmente affrontati in questo blog.
La grafica, prima cosa che balza agli occhi per ovvi motivi, risulta decisamente sorpassata; in particolare la barra degli strumenti e le relative icone potrebbero tranquillamente essere quelle di un software sviluppato un lustro fa.
La sensazione di trovarsi di fronte a qualcosa di vecchio permane anche allorquando si visualizza il sito in modalità “mappa visuale” e questo è un bel problema dal momento che questa modalità, che consente di scoprire il contenuto informativo del sito stesso “volandoci” sopra, dovrebbe rappresentare un valore aggiunto di Volunia!
Analoghe considerazioni possono essere fatte per quanto riguarda la scelta di usare la modalità frame (tecnica paradossalmente caduta in disuso nella realizzazione di siti web proprio perché la “cornice” ostacola l’indicizzazione da parte dei motori di ricerca!) dal momento che molti siti (YouTube è uno, giusto per fare un nome) non lo supportano rendendo impossibile la visualizzazione della pagina (è oggettivamente assurdo che un motore di ricerca che pretende di essere anche un po’ social network non riesca a visualizzarne uno dei più frequentati). Visto che l’argomento salta sempre fuori quando si parla di reti sociali, piccola digressione sulla privacy: se si naviga da loggati le informazioni che si forniscono agli altri utenti (e a Volunia) sono veramente tante, se ci si slogga invece tutto nella norma, quindi qui sta all’utente fare le sue scelte.
Per quanto riguarda infine la velocità di risposta e di visualizzazione delle pagine (incluse le mappe visuali) c’è qualche rallentamento ma una normale connessione ADSL è più che sufficiente.
Questo è tutto per quel che riguarda le caratteristiche generali; passo ora a descrivere quelle caratteristiche che dovrebbero / potrebbero interessare maggiormente i lettori di questo blog: nello specifico ho tentato di capire, effettuando alcune ricerche mirate, se Volunia (e l’algoritmo che ne è alla base) può rappresentare un tassello nella realizzazione del web semantico ed in generale un miglioramento nelle tecniche di indicizzazione e di recupero delle informazioni (information retrieval). Purtroppo la speranza, a lungo circolata in Rete, che Volunia avesse feature proprie del semantic web tali da rendere possibili interrogazioni con un linguaggio vicino a quello naturale, è andata largamente disattesa. Ad esempio inserendo la banale query “che libro mi consigliate di leggere?” Volunia come prima risposta (su 1.960.525 risultati) mi dà una pagina inglese di musica digitale (http://www.di.fm/) mentre Google il più “classico” Yahoo! Answers (primo risultato di 295.000) con il link alla pagina di questo noto servizio in cui un’utente che aveva posto ad altri utenti la medesima domanda. Inutile sottolineare che, anche tenendo conto (come puntualizzato da Marchiori stesso) che per il momento Volunia ha indicizzato appena l’1% di quanto pubblicato sul web, i risultati non sono esattamente incoraggianti…
Deludente anche l’esito dell’utilizzo di altre caratteristiche in linea di principio interessanti in quanto potenzialmente capaci di condurre velocemente (ma allo stesso tempo consapevolmente) al contenuto informativo; mi riferisco alla tanto decantata mappa visuale (che ho già criticato per lo scarso appeal grafico) ed alla funzione “Media” che ho testato in due siti teoricamente “succulenti” come Europeana.eu ed il portale dell’Amministrazione Archivistica Italiana (http://archivi.beniculturali.it). Ebbene, nel primo caso (Europeana) la mappa grafica mi dà sì una veloce raffigurazione di come il sito è organizzato ma personalmente trovo la versione testuale “normale” talmente essenziale e funzionale da far apparire questa funzione del tutto superflua. Per quanto riguarda la bacheca multimediale vengono presentati appena 15 immagini e 2 video; certo, non mi aspettavo di trovarmi tutte le risorse multimediali bell’e pronte, ma una maggiore profondità sarebbe auspicabile! Del resto bisogna concedere il tempo necessario, anche perché, come ha precisato Marchiori durante la presentazione, le infrastrutture informatiche (e con esse le capacità di memorizzazione ed indicizzazione) verranno attivate gradualmente man mano che aumenteranno gli utenti.
Nel caso del sito dell’Amministrazione Archivistica la ricerca è ancor più infruttuosa in quanto: 1) la mappa grafica presenta una sola casetta (corrispondente alla home) a causa di problemi di generazione che potrebbero dipendere dall’uso di tecnologia Flash, Java, Ajax…; il che è davvero un peccato perché, essendo questo sito assai più “incasinato” del precedente, la mappa sarebbe tornata davvero utile 2) viene indicata la presenza di solo sei contenuti multimediali, vale a dire le immagini presenti nell’homepage (loghi ed icone varie inclusi!). Insomma davvero poco, e questo vale anche per altri siti che ho velocemente scorso (Corriere.it, LaFeltrinelli, etc.); l’unica consolazione è che la situazione non può che migliorare!
Tirando le somme, l’impatto “visivo” non è dei migliori e pure per quanto riguarda il “motore” dal “padre” dell’algoritmo di Google sinceramente ci si aspettava qualcosa di più; la funzione sociale può essere ritenuta un punto di forza ma anche un inutile orpello. Per quanto riguarda le funzioni “mappa grafica” e “multimedia”, esse sono sicuramente perfettibili e potrebbero diventare un importante asso nella manica. Interessante, per concludere, l’applicazione per dispositivi mobili: in particolare la visualizzazione a griglia consente di navigare facilmente entro quei siti che non hanno provveduto a loro volta a realizzare una app od una versione mobile (purché non siano in Flash, Java, etc. altrimenti, come detto sopra, Volunia non riesce a creare la mappa…).

Hardware: conservare o gettare?

New PC

New PC di XiXiDu, su Flickr

Essendo l’argomento un po’ eretico, spero che le mie professoresse dei tempi dell’università non leggano mai questo post perché probabilmente balzerebbero dalla sedia e si pentirebbero di avermi promosso agli esami! Ciò nondimeno, dopo un paio di settimane che ci rifletto sono giunto alla conclusione che l’argomento merita di essere reso pubblico e dunque eccomi qua. Il quesito che pongo (e mi pongo) è il seguente: siamo così sicuri che anche l’hardware, soprattutto quello che si occupa della memorizzazione ed immagazzinamento dei dati, non vada conservato?
Mi spiego meglio. I vari InterPARES (la fase tre è tuttora in corso e dovrebbe terminare quest’anno) hanno evidenziato come in termini generali la conservazione permanente di documenti elettronici sia possibile solo se si dispiegano adeguate risorse, si seguono determinate procedure e si adotta un approccio dinamico e flessibile tale da adattare le diverse strategie conservative a seconda delle evoluzioni future.
Per quanto queste indicazioni tendano volutamente ad assumere il valore di enunciazione di principi generali, nel concreto una certa preferenza è stata accordata alla metodologia della migrazione (vale a dire il passaggio da vecchie a nuove piattaforme tecnologiche man mano che le prime diventano obsolescenti) purché essa avvenga all’interno di sistemi in grado di assicurare autenticità, affidabilità, etc. ai documenti migrati; inoltre è previsto che i documenti vengano conservati e migrati assieme ai relativi metadati, con questi ultimi deputati a fornire le indispensabili informazioni di contesto.
Come strategia alternativa InterPARES suggerisce l’emulazione, ovvero il far “girare” all’interno di ambienti tecnologici software altrimenti non funzionanti e con essi i rispettivi documenti; l’emulazione, dal momento che non comporta la modifica della sequenza binaria dei documenti rappresenterebbe l’optimum, peccato che sia costosa e che ponga non indifferenti difficoltà tecniche.
In tutto questo l’hardware trova scarso spazio nelle riflessioni teoriche, per quanto la sua obsolescenza sia perfettamente nota (oltre che evidente a tutti coloro che possiedono un qualsivoglia gingillo tecnologico); di norma ci si ricorda che esso esiste (specificatamente al tema della conservazione): 1) allorquando si deve decidere su quali supporti e/o sistemi puntare per lo storage di breve – medio respiro (nastro, disco ottico, disco rigido esterno, NAS, RAID, etc.) 2) nel momento in cui esso sta per arrivare alla fine della propria “carriera” e si propone di creare un “museo dell’informatica” con il compito di tenere operative quelle macchine senza le quali i relativi SW (con annessi dati e documenti) diventano inutili / inutilizzabili.
In realtà mi sto convincendo sempre più che conservare l’hardware, o in subordine una dettagliata documentazione sul tipo di infrastruttura posseduta, sia di notevole importanza per comprendere appieno il valore attribuito a specifici materiali, nonché il contesto e la “stratificazione” dell’archivio del soggetto produttore. Alcuni banali esempi renderanno più chiara la mia posizione.
Prendiamo il caso di un’impresa: se essa è previdente, provvederà a duplicare (ed in taluni casi a moltiplicare) quei dati e documenti ritenuti più critici e che non può assolutamente permettersi di perdere; similmente essa potrebbe decidere di allocare i dati considerati importanti in partizioni più prestanti della propria infrastruttura HW e viceversa per quelli meno importanti (è questo il caso tipico dei sistemi HSM; Hierarchical Storage Management). Il ragionamento è valido anche per il singolo individuo (= archivi di persona): l’adozione di particolari strategie conservative (backup sistematici su dischi rigidi esterni oppure sulla nuvola) così come la scelta di attribuire maggior protezione a specifici dati e documenti può aiutare a comprendere a quali di essi il produttore accordasse maggior valore. Ma non finisce qua! La conoscenza delle modalità di storage / conservazione può aiutare a chiarire aspetti relativi al modus operandi del soggetto produttore oltre che dare una spiegazione alla presenza, altrimenti non comprensibile, di varianti dello stesso documento: tipico il caso del documento A conservato nell’hard disk e del documento A-bis (leggermente diverso) conservato in una cartella public accessibile a più persone e frutto di un lavoro collettivo. Ovvio che se non sappiamo da dove proviene A e da dove proviene A-bis potremmo essere tentati di attribuire la differenza tra i due (tecnicamente il “mancato allineamento”) ad un back-up di aggiornamento fallito, perdendo così importanti informazioni sulla genesi del documento stesso (per un file di testo pensiamo alle diverse stesure) nonché alla sua “stratificazione”.
Da ultimo, la stessa analisi del tipo di hardware adoperato fornisce informazioni utili: il ricorso a materiale non consumer ad esempio indica ipso facto attenzione e sensibilità per le problematiche della conservazione!
Alla luce di quanto esposto credo appaia evidente a tutti come approfondire la conoscenze del tipo di infrastruttura di storage approntata dal soggetto produttore sia un’opera tutt’altro che infruttuosa ma capace di fornire informazioni aggiuntive sul contesto di riferimento e soprattutto di attribuire un valore qualitativo a dati e documenti che nel mondo digitale siamo in genere soliti considerare in termini meramente quantitativi.
Concretamente tale obiettivo è raggiungibile, al di là della provocazione iniziale di “conservare l’hardware” (compito oggettivamente improbo) ampliando la nozione di “metadato tecnico” ed inserendo alcuni campi e tag capaci, per l’appunto, di descrivere quella miniera di informazioni preziose che risulta essere l’hardware; insomma, la possibilità di fare qualcosa in questa direzione c’è, adesso tocca agli “iniziati” dei linguaggi di marcatura mettersi all’opera.

Volunia, tra aspettative e perplessità

Volunia, la presentazione

Volunia, la presentazione. Archivio Antico dell'Università di Padova 02/02/2012

Torno fresco fresco (in senso non solo figurato) dalla presentazione di Volunia, l’attesissimo motore di ricerca concepito e realizzato da Massimo Marchiori, e non posso far a meno di esternare alcune riflessioni che mi sono frullate per il cervello sin dal primo momento in cui il professore ha mostrato le prime immagini e fornito le prime spiegazioni.
1) Marchiori ha consapevolmente voluto creare un SE di seconda generazione, ben sapendo che il web sta cambiando (a prescindere ora dalle varie etichette 1.0, 2.0, 3.0 che lasciano il tempo che trovano) e che gli utenti si aspettano qualcosa di più che una “arida” lista di risultati. Proprio il passaggio ad un tipo di web diverso, quello chiuso in rigidi steccati di cui parla Zittrain per intenderci, deve però farci porre la cruciale domanda: i SE sono ancora lo strumento migliore / il migliore tra quelli possibili? Non era meglio azzerare tutto e pensare a qualcosa di radicalmente diverso? In definitiva con Volunia la modalità di interrogazione resta immutata, cambiano le risposte di ritorno che dovrebbero rappresentare il vero salto di qualità dal momento che a) ci viene fornita una mappa del contenuto informativo di ogni sito b) ci vengono mostrate anche le persone che hanno visitato quel sito, aiutandoci (eventualmente) a metterci in contatto con loro.
2) Proprio questa attenzione per l’anima “sociale” del web rappresenta senz’altro un motivo di avanzamento ma potrebbe finire con l’essere un’arma a doppio taglio: a) in un’Europa che ha una sensibilità completamente diversa dal resto del mondo sul tema della privacy (tanto da arrivare ai ferri corti con Google), la cosa potrebbe non essere accolta con favore; b) mi si potrà obiettare che il mercato di Volunia è, nelle intenzioni, globale e che la stessa funzione social è disattivabile dall’utente ma è evidente che senza di essa il nuovo motore di ricerca perde gran parte del suo carattere innovativo.
3) E’ mancata del tutto una spiegazione di come funziona il nuovo algoritmo di ricerca; intendiamoci, non mi aspettavo che venisse svelata la “formula segreta” ma qualche tecnicismo in più non avrebbe guastato!
4) Ovviamente il mio interesse per il nuovo motore di ricerca era soprattutto quello dell’archivista / bibliotecario / documentalista che voleva sapere se con Volunia era stato compiuto un significativo passo in avanti verso sistemi di information retrieval “intelligenti” capaci di interpretare compiutamente le query e di fornire risultati pertinenti previa l’analisi semantica delle varie risorse sul web (o in subordine se per l’algoritmo sviluppato poteva profilarsi un’applicazione dedicata in questi campi). A tal riguardo nulla è stato detto né sono riuscito a chiedere alcunché a Marchiori dal momento che il question time è stato brevissimo (tutto perché la presentazione è iniziata in consistente ritardo non solo per il consueto ritardo “accademico” bensì per elementari disguidi tecnici che ci hanno fatto fare l’ennesima figuraccia… stavolta in streaming mondiale!), ma l’impressione ricavata è che in Volunia si sia puntato, per l’appunto, sulla dimensione sociale. Per il sottoscritto una piccola delusione.
Per concludere un motore di ricerca che ha saputo sollevare moltissimo interesse (e già questo è un risultato) ed ha trasformato per un giorno Padova nella Silicon Valley ma che per poter essere giudicato compiutamente dev’essere, come sempre, provato nel quotidiano.