«Bibliotime», anno V, numero 1 (marzo 2002)


Precedente Home Successiva



Cinzia Bucchioni

International Conference Electronic Resources:
definition, selection and cataloguing



International Conference Electronic Resources: definition, selection and cataloguing. Roma, 26-28 novembre 2001.

Penso di interpretare un sentimento comune tra i partecipanti al convegno aprendo questo resoconto con un ringraziamento ai suoi organizzatori. L'evento ha dato infatti ai bibliotecari italiani l'occasione di incontrare figure di primo piano nella riflessione internazionale sulle risorse elettroniche, di confrontare posizioni diverse maturate in contesti di più prolungata familiarità, di informarsi su esperienze e progetti in corso, in una visione varia e pluriprospettica, oltremodo stimolante, che ha reso evidente come il dibattito sulle risorse elettroniche sia ormai centrale a tutti gli ambiti della riflessione professionale.

Personalmente ho qualche rammarico per la mancata traduzione linguistica: scelta certamente ponderata, non mi distoglie dalla convinzione che, volendo dare rilevanza ai contenuti e favorire la discussione, non si possa ignorare il disagio che comunque costituisce la lingua straniera (disagio in parte attenuato, almeno per chi aveva avuto l'accortezza di stamparsele in precedenza, dalla disponibilità in rete di molte delle relazioni "tradotte al volo").

Il convegno si è articolato in cinque sessioni, molto dense, dedicate rispettivamente:

Per altro va detto che la scansione in sessioni è stata poco più che orientativa, e gli argomenti "caldi" si sono riproposti nelle diverse giornate.

In effetti, dall'accavallarsi di stimoli, spunti e informazioni non è emerso immediatamente un filo conduttore, una sintesi possibile - come ovvio in un ambito ancora in via di consolidamento. A fronte di notevoli approfondimenti in alcune direzioni, più labili sono risultati i collegamenti tra un "affondo" e l'altro (producendo quell'impressione che dà una grande metropoli quando la si conosce spostandosi in metrò, e si individuano distintamente alcuni quartieri senza una chiara percezione della posizione reciproca, dello spazio interposto).

Tra gli interventi che, distribuiti attraverso le varie sezioni, hanno cercato di fornire una bussola orientativa, quello di Gorman, di Ridi, di Delsey; mentre John Byrum, intervenuto per primo, ha tracciato a grandi linee i principali filoni di riflessione e le iniziative in corso negli Stati Uniti, facendo riferimento al simposio tenutosi alla Library of Congress nel 2000, in occasione del suo bicentenario, proprio sul controllo bibliografico nel nuovo millennio, ovvero sulle problematiche di identificazione e descrizione delle risorse web disponibili in internet (standard, portali, selezione, thesauri). L'autore ha messo in chiaro che è necessario un piano d'azione complessivo in cui ogni istituzione, stabilite le proprie priorità, si coordini in progetti regionali e nazionali, miranti a costruire grandi database di records bibliografici di risorse elettroniche, supportati da accessi standardizzati, cioè controllati, possibilmente con strumenti classici quali gli authority files: in questa direzione vanno il catalogo cooperativo CORC (vedi infra) di OCLC; la Cultural Material Initiative del RLG, volta quest'ultima all'inclusione anche di documenti di interesse archivistico e museografico; il catalogo INFOMINE, basato su Dublin Core (l'unico ad accesso libero). Interessante è che da queste esperienze derivi tra l'altro un invito ad una revisione dei flussi di lavoro delle grandi biblioteche, con un avvicinamento tra reference, selezione e catalogazione. L'intervento si è concluso sulla necessità di una strategia per la selezione delle risorse che, ai criteri messi a punto per il cartaceo (autorevolezza, fonte, accuratezza, rilevanza rispetto all'ente), ne affianchi di più specifici (design della risorsa, facilità d'uso, validità nel tempo del contenuto, dominio, unicità, stabilità, qualità dei link).

E proprio la selezione ha costituito il fulcro dell'intervento di Michael Gorman che (dopo l'inquietante ipotesi che il controllo delle pubblicazioni e un ordinato accumulo di conoscenza, a cui la stampa ci ha abituato, possa rivelarsi un semplice "interludio" storico, non perseguibile nei secoli del manoscritto e neppure in quelli dell'elettronico) ha contemperato l'entusiasmo per le nuove tecnologie col potente richiamo alle ragioni culturali e sociali della professione e con l'invito a trarsi fuori dalle fascinazioni e dall'overflow informativo per svolgere una missione di alta responsabilità: i bibliotecari sono tra gli attori che hanno garantito la trasmissione delle conoscenze utili (il progresso): venuto meno il filtro del sistema economico-editoriale, essi rimangono più soli in questo compito. La necessità di selezione, riaffermata da ogni parte, qui pare declinata in una forma particolare, con l'auspicio di una tassonomia del web (e come prima ipotesi di lavoro viene proposto di "salvare" le risorse a maggior stabilità e minor compromissione commerciale); il che, in qualche modo, sposta l'accento dai "documenti interessanti" ai "documenti di rilevanza bibliotecaria".

Questo approccio (a differenza della dichiarata ostilità ai metadati, meno convincente) stimola qualche riflessione: a monte di tutte le problematiche indotte dai documenti elettronici, c'è la questione di fondo della posizione della biblioteca in un contesto in cui il mutamento di supporto configura una ristrutturazione dei sistemi cognitivi, comunicativi, della conoscenza.

Perché considerare ogni risorsa elettronica potenzialmente degna di attenzione bibliotecaria? mai si è pensato di considerare tale tutto il cartaceo, che include anche i messalini domenicali, la modulistica amministrativa, le carte da imballaggio (tutte cose passibili di acquisire un valore documentale ma rimaste ai margini dell'interesse bibliotecario); in effetti la maggior parte della documentazione in rete rientrerebbe piuttosto nella categoria del materiale archivistico o addirittura di consumo.

Il fatto è che i bibliotecari non si sono mai occupati dei documenti tout court ma quasi solo di quelli pubblicati; sul web tutto è "pubblicato", si confondono i settori documentali così come i ruoli all'interno della catena produttiva/distributiva; ma da questo che cosa si vuol fare discendere? Che le diverse professioni documentali convergono ad uno? e a quale figura in tal caso? ad un soggetto professionale nuovo? nel cui statuto, che spazio hanno le competenze bibliotecarie? O piuttosto ne discende che bisogna trovare un altro criterio discriminante tra i documenti (una tassonomia del web)? e forse si debba individuare una specificità bibliotecaria da conservare nell'evoluzione (la responsabilità della tradizione di una conoscenza certificata e garantita; e dunque magari un ruolo di educatore, di guida per l'individuazione dell'informazione "buona")? O ancora, che la specificità bibliotecaria (o la nuova professionalità documentale) è definizione generica per una costellazione di sottospecializzazioni, dove alla missione comune corrispondono tecnologie e strumenti diversi, come accade per la professione medica?

L'impressione è che molte esperienze e riflessioni partano da presupposti impliciti diversi, mai chiariti del tutto.

Una visione globale possibile è quella proposta da Riccardi Ridi, che ha citato il concetto di "convergenza al digitale" per dar conto dell'improponibilità delle tradizionali distinzioni tipologiche nell'ambiente dei documenti elettronici, convergenza dovuta al fatto che una sola tecnologia informa oggetti prima distinti in quanto a strumenti di fruizione e codifiche, e al conseguente avvicinamento tra fattuale e documentario (tra documento e descrizione).

Su questi presupposti, Ridi ha condotto una appassionante riflessione sul rapporto tra universo e "docuverso" nel contesto digitale: se le definizioni classiche di documento (cfr. Michael K. Buckland, What is a document?, "Journal of the American Society for Information Science", 48 (1997), 9) come "qualunque entità fisica su cui siano registrate delle informazioni", o anche "su cui siano state registrare delle informazioni" (con sfumatura finalistico-comunicativa) non permettono distinzioni all'interno del web, un'accezione più vicina a recenti correnti estetiche quale: "ogni entità in quanto vi siano registrate delle informazioni", permette di distinguere, da una generale potenzialità documentaria, una attualizzazione dipendente dalla ricezione, e di pensare ad una selezione finalizzata per settore di interesse (per mission della biblioteca). Quindi, all'interno di un quadro teorico che azzera i confini tipologico-documentali ma autorizza una forte selezione contenutistica, viene affrontato in modo molto operativo il nodo concreto dello strumento più adatto per la gestione bibliografica delle risorse elettroniche in biblioteca: essendo esse mutevoli, ipertestuali e spesso fuori dal controllo delle biblioteca, è il caso di inserirle nell'OPAC, o sono preferibili nuovi strumenti quali Virtual Reference Desk o portali?

Individuando come distinzione portante quella tra RER (Risorse Elettroniche Remote) e REL (Risorse Elettroniche Locali), viene proposta la soluzione di riservare l'OPAC a ciò che la biblioteca possiede e controlla (le REL, gratuite o a pagamento, le RER eventualmente copiate) e gestire le RER a parte, in un VRD, proponendo all'utente la scelta tra OPAC, VRD e OPAC allargato (sommatoria dei primi due). A parte la rilevata difficoltà di inserimento, in questo quadro, delle risorse remote a pagamento, è evidente che la consacrazione dell'OPAC al possesso, in un contesto di sempre maggior diffusione di cataloghi collettivi, metaOPAC, agganci tra cataloghi e bibliografie, abbonamenti consortili, può rispondere al massimo ad un problema gestionale.

Anche l'approccio di Tom Delsey è stato fortemente sintetico nell'affrontare il problema dell'inadeguatezza dei paradigmi descrittivi elaborati per i documenti tradizionali rispetto ai documenti elettronici; ogni descrizione presuppone l'individuazione delle caratteristiche rilevanti che, nel caso delle risorse elettroniche sono almeno: complessità di struttura, trasparenza delle modifiche, comportamento organico che comporta capacità di modificarsi nell'interazione; la rete fa sì che documento e descrizione siano accessibili sullo stesso piano e che nello stesso spazio si accostino descrizioni provenienti da fonti diverse, il tutto in un ambito e con un pubblico globale. Nella descrizione diventa problematico l'oggetto di riferimento, i suoi confini, le sue relazioni: si allenta la distinzione tra esterno e interno (si pensi ai link ipertestuali), tra intero e parte; cambia di conseguenza la granularità e diventa difficile individuare il livello di riferimento per la descrizione; il concetto di edizione viene scardinato dalla possibilità di consultazione simultanea di versioni diverse. Da qui un invito (che solleva forse qualche perplessità sull'attività di revisione degli standard tradizionali) a ripensare globalmente le informazioni descrittive necessarie in relazione alle funzioni che tale descrizione deve svolgere (quali chiavi sono necessarie per supportare la ricerca, la selezione, ma anche l'accesso, e poi le migrazioni e riformattazioni necessarie alla conservazione) e un richiamo alla necessità di identificatori certi e di link permanenti (tipo URN, anche per la necessità di una maggior integrazione tra descrizioni ed altre fonti quali i siti di indexing e abstracting), nonché di meccanismi per assicurare la validità futura del contenuto.

E' in questo quadro che si inserisce idealmente l'intervento di Juha Hakala, una "zoommata" ravvicinata proprio sugli identificatori di documenti, aspetto sempre più fondamentale nella prassi del controllo bibliografico che la biblioteconomia italiana tende a trascurare (si pensi allo scarsissimo spazio dedicatogli dai manuali italiani, in confronto a quelli anglosassoni). Gli identificatori sono fondamentali per la ricerca, l'identificazione, le funzioni gestionali delle biblioteche e dei cataloghi; sono uno dei principali metadati di conservazione. L'editoria elettronica ha complicato lo scenario degli identificatori moltiplicandone tipologie e numero: si pensi all'esigenza di un identificatore di autore, allo studio dell'IFLA (ISADN "International standard Authority Data Number"), accentuata dalla gestione dei diritti; o di identificatori per le parti componenti, indotta dall'esistenza autonoma da esse acquisite in ambiente elettronico.

Abbiamo così appreso che gli ISBN, applicati a libri e a parti di libri, si stanno esaurendo più velocemente del previsto, soprattutto per la necessità di identificare i moltissimi editori su internet; sarebbe necessaria, quanto improbabile, una veloce adozione del BICI (Book International Content Identifier); tra le proposte di estensione di ISBN, l'aggiunta dei codici EAN 978 e 979, oppure l'adozione di un ISBN "muto" (non più composto di segmenti significanti), il che però renderebbe necessaria, per poterlo usare come risolutore, una sua associazione permanente a metadati descrittivi (il draft ISO prevede metadati ONIX di ambito commerciale) come già accade per ISSN (attualmente essendo la risoluzione assicurata teoricamente dal riferimento alle bibliografie nazionali). Gli ISSN non sono a rischio di esaurimento ma qualche problema tecnico, per l'utilizzo come risolutori, deriva dal fatto che ancor oggi il periodico a stampa e quello elettronico hanno spesso lo stesso ISSN.

Per i contributi interni di periodici, la comunità bibliotecaria ha interesse all'affermazione del SICI (piuttosto che di DOI), divenuto uno standard ANSI-NISO e come tale disponibile su Internet: <ISSN>(AnnoMese)vol:fasc.<numero:stringa>. Essendo un codice complesso, la sua praticabilità è legata alla possibilità di generazione al momento della pubblicazione o comunque in automatico (e se l'articolo contiene la Document Type Definition XML ciò è già possibile), e di link cliccabili per l'utente.

ISTC (International Standard Textual Work Code), allo studio presso l'ISO, sarà l'identificatore per le opere testuali: ai fini di questo standard, per "opera" si intende quello che il modello FRBR definisce "espressione"; dovrebbe essere assegnato unitamente ai metadati, e le migliori candidate al compito sono le Biblioteche Nazionali. Sono allo studio anche ISAN ("International Standard Audiovisual Number") per le opere audiovisive e ISWC ("International Standard Musical Work Code") per quelle musicali.

Gli identificatori, consentendo una sorta di "identificazione automatica", sono fondamentali per l'attivazione dei servizi di risoluzione, quelli cioè che in ambiente elettronico forniscono legami persistenti tra riferimenti e risorse, collegando i metadati e la risorsa descritta, o due risorse tra loro; possono essere statici (come URL e http) oppure dinamici, cioè capaci di funzionare anche cambiando la URL; in questa direzione i gestori di web hanno ideato URN (Uniform Resource Name), definendone:

Allo stato implementativo attuale la risoluzione non può che essere affidata ai DNS (i dispositivi che in Internet accoppiano il nome e il numero IP di ogni macchina, già predisposti per supportare informazioni più complesse), ma in futuro tale meccanismo potrebbe cambiare. Intanto è stata costituita anche l'Internet Assigned Names Authority, incaricata della costruzione del DNS "Urn Resolver Discovery Service", che conoscerà l'indirizzo di tutti i servizi di risoluzione.

Ma in effetti non esistono ancora servizi basati sulle URN, anche perché il suddetto DNS non è ancora attivato e molti browser per leggerle richiederebbero l'installazione di plug-in; ma, soprattutto, manca una chiara attribuzione degli alti costi del mantenimento dei servizi di risoluzione.

Questo intervento ha solo sfiorato un aspetto che in queste giornate è rimasto ai margini, quello delle grandi potenzialità di integrazione fra risorse in ambiente digitale; aspetto certo tra i più caratterizzanti e promettenti della digital library, ma anche tra quelli a impatto meno prevedibile; al di là dei rischi delle piattaforme proprietarie, si affaccia a volte il timore che l'integrazione e l'estrema trasparenza possano diventare un dispositivo di disorientamento per l'utente, allentando la consapevolezza di come (e da che fonte) siano generati i diversi oggetti informativi reperiti e incoraggiando la tendenza a muoversi anche tra le risorse della biblioteca a caso e senza controllo dei percorsi. Il dubbio, come in molte situazioni analoghe, è: qual è, nella missione socio-culturale del bibliotecario, il limite tra l'aspetto del facilitatore e quello dell'educatore?

Sulla stessa falsariga si può intravvedere qualche rischio nella prospettiva di OpenUrl, un legame capace di selezionare per un certo utente l'informazione a cui ha diritto; ma un utente non potrebbe voler sapere che esistono informazioni potenzialmente utili ma a lui non accessibili perché la sua Università ha fatto una certa scelta di bilancio o non può permettersele? è chiaro che ci sono sedi decisionali maggiormente deputate a questi controlli, eppure…. protocolli così "intelligenti" non vengono a contraddire il principio, ricordato anche da Antonella De Robbio, che vuole una rete "stupida" come sua caratteristica essenziale affinché siano gli utenti a scegliere i contenuti e non la rete stessa (i proprietari di cavi e protocolli)?

Queste sono pure divagazioni: accantoniamole e veniamo all'intervento di Antonella De Robbio, che ha affrontato un argomento centrale al contesto digitale, anche se in gran parte fuori dal controllo del bibliotecario, e cioè quello della protezione dei diritti di proprietà. Ha ricordato come a livello dei massimi organi di governo mondiali sia stato riconosciuto che nell'informazione sta il potenziale per il miglioramento della vita degli uomini e si sia parlato di GII, Global Information Infrastructure, in riferimento alla necessità di disseminazione dei contenuti su scala globale, attraverso reti locali e nazionali (NII) interconnesse, in un contesto di standard di rete e dispositivi di interoperabilità che tengano conto del diritto di libertà di espressione, del diritto di accesso e dei diritti di proprietà intellettuale.

Per contro, a livello internazionale, la legislazione sta andando verso la protezione di un sempre maggior numero di diritti correlati a quello d'autore, detenuti non da individui ma da imprenditori economici: accade così che strumenti giuridici nati per difendere la creatività degli autori possano diventare ostacoli alla circolazione, e quindi alla nascita, delle idee, mentre per altro le ragioni morali e sociali della protezione vengono meno di fronte all'accumulo di proprietà intellettuale.

La situazione è molto complessa e non ammette soluzioni immediate (cfr. la conferenza tenutasi a Stresa il 4 e 5 maggio 2001 "Proprietà intellettuale e Cyberspazio", e le proposte ivi avanzate da Jack Balkin per una durata ridotta della protezione, ma di più vasto ambito), ma l'esigenza di regolamentazione non è eludibile, poiché l'uso di licenze contrattate in sostituzione delle norme di legge è molto pericoloso in una situazione di disparità di potere tra le parti contraenti.

Molti sono stati gli interventi relativi all'aspetto, più familiare ai bibliotecari, dell'evoluzione degli standard classici di descrizione catalografica.

Marie-France Plassard ha passato in rassegna le azioni intraprese dall'IFLA per il contesto digitale, su cui si è focalizzato il programma d'azione 1998-2001 con il riconoscimento alle biblioteche del ruolo di garanti dell'accesso, della conservazione, dell'alfabetizzazione degli utenti, e di un loro coinvolgimento nella gestione dei diritti. Le tappe principali:

Ann Sandberg-Fox ha presentato la revisione in corso di ISBD(ER), la quale, oltre che sull'aggiornamento terminologico, si concentra sulla proposta di eliminare l'area 3 (area specifica per il materiale) e sull'opportunità di inserire dati per la gestione dei diritti.

Dorothy McGarry ha parlato di altre ISBD in corso di revisione alla luce del contesto digitale, sulla base della considerazione che con il formato cambia la natura della risorsa: un periodico elettronico può contenere oggetti multimediali e portare link a risorse esterne, mentre per una carta geografica elettronica la scala perde di senso.

Al gruppo di revisione per i seriali (su cui da anni lavora CONSER, Cooperative Online Serials Program), partecipano rappresentanti della comunità AACR2 e ISSN: le ISBD(S) si evolveranno in ISBD(CR) (Continuing Resources: risorse in continuazione) per includere sia i seriali (che escono in una successione di parti senza una conclusione predeterminata) sia le risorse a integrazione, quelle che crescono per aggiunta o sostituzione di parti integrate alla versione preesistente: è il modello delle pubblicazioni a fogli mobili che ben si applica a moltissimi siti web. Si è posta in discussione la scelta della fonte delle informazioni descrittive: infatti il periodico elettronico può essere riformattato completamente in occasione di un cambio di titolo o di altre caratteristiche, e può quindi rendersi necessaria, come per le risorse ad integrazione, una rimanipolazione della descrizione, non potendosi descrivere altro che la manifestazione corrente e segnalare in nota i vecchi dati non più verificabili. La decisione finale è stata quella di mantenere, per i seriali in parti distinte, la convenzione di descrivere il primo fascicolo, perché il vantaggio dato da una descrizione stabile a livello gestionale è parso superiore ai vantaggi della descrizione della manifestazione corrente in fase di ricerca.

Altre aree problematiche si sono rivelate ancora l'area 3 (specifica del materiale: è il posto giusto in cui inserire l'indicazione del formato grafico da cui dipende il software necessario alla fruizione?) e l'area 5 (descrizione fisica) relativamente alla descrizione delle risorse elettroniche remote.

Per le ISBD(CM) si è posto il problema della registrazione della scala del materiale cartografico elettronico: si potrebbe indicare "scala non data" e riportare in nota la scala dell'originale scannerizzato ("scala immessa: ") nel caso in cui sia esplicitamente citata; oppure indicare al posto della scala la risoluzione (quanti metri corrispondono alla dimensione minima: 1 pixel=20 m). Di nuovo, l'area 5 della descrizione fisica risulta problematica, perché sebbene esclusa dalle ISBD(ER) per le risorse remote, per le risorse cartografiche risulta utile, anche per aiutare gli utenti a stabilire corrispondenze col materiale cartaceo. Esiste infine il problema delle serie di carte geografiche, che escono in successione e in cui si accavallano le edizioni, spesso senza che le vecchie vengano eliminate; a volte vengono descritte le singole carte, altre volte vengono trattate come risorse a integrazione.

Se per descrivere una risorsa si devono usare più ISBD, è necessario fissare un ordine: per esempio per l'Indicazione Generale di Materiale nell'area 1 (per l'area 3 l'ordine è dato da ISBD(G): cartografia, elettronico, seriale).

Barbara Tillett ha presentato l'ultima revisione delle AACR2, lasciandone intravvedere lo spirito di autonomia rispetto al processo di standardizzazione internazionale. Dando per scontato che le norme di catalogazione siano solo uno degli strumenti descrittivi della biblioteca (la quale si avvale anche di altri strumenti indicali quali sistemi di indicizzazione commerciali, portali, etc.), e che la loro evoluzione debba contemperare un tempestivo adeguamento con garanzie di stabilità, ha presentato il capitolo 9 delle AACR2, dedicato alle risorse elettroniche (attualmente è in fase di revisione proprio la struttura logica dello standard basata sui formati, per andare verso una scansione per aree ISBD): le AACR2 si discostano da ISBD(ER) nell'indicazione della fonte della descrizione, che è l'intero documento; aggiornano la terminologia per la formulazione della "descrizione generica del materiale" (GDM in area 1); escludono l'area 3 considerando sufficienti i campi codificati MARC; propongono l'uso dell'area 5 anche per le risorse remote che hanno un'estensione. La revisione in corso del cap. 12, per i seriali, sta andando nella direzione di adattare la registrazione agli elementi che cambiano durante la vita del seriale.

Un aspetto metodologico interessante, oltre la stretta collaborazione con la Library of Congress che fornisce ai catalogatori un'interpretazione delle regole che ne facilita l'applicazione, è l'impegno sperimentale, per esempio la costituzione di un gruppo per la schedatura di "espressioni" da legare a "manifestazioni" (secondo la terminologia FRBR, dalla cui analisi p.e. emerge come il GMD sia un metadato di espressione).

Antonio Scolari si è soffermato sull'evoluzione dei formati MARC; il suo lucido intervento ha evidenziato come in alcuni ambiti Unimarc sia andato oltre il semplice adeguamento alle ISBD(ER), risolvendone alcune ambiguità:

I metadati si sono affacciati più volte e da vari versanti, anche se forse ne è mancato un inquadramento complessivo che facesse chiarezza delle diverse problematiche che essi investono e sulle varie connotazioni che hanno assunto nel tempo all'interno del discorso bibliotecario: inizialmente impostisi all'attenzione come strumenti di Internet Resource Discovery, ben presto hanno rivelato ben altra complessità tipologica e funzionale, e mentre i metadati descrittivi si sono venuti evolvendo in formati di catalogazione alternativi rispetto agli standard bibliotecari da utilizzarsi in VRD, portali e gateways, sempre più si parla di metadati amministrativi in quanto elementi fondamentali per ogni politica di conservazione del digitale. D'altro canto anche la loro originaria specificità rispetto alle schede catalografiche, quella di essere "allegati al documento", si è evoluta, poi, soprattutto coi formati XML, in struttura costitutiva del documento.

L'aspetto della conservazione, più volte citato, è stato trattato solo a grandi linee; ma è risultato chiaro, già con Byrum, che di problema organizzativo più che tecnologico si tratta: Olivia Madison, che ne ha fatto l'oggetto del suo intervento, ha riaffermato come, per la conservazione dell'accesso futuro, divenuti del tutto inapplicabili i metodi dell'era gutenberghiana, sia indispensabile un'utilizzazione intelligente e rigorosa di metadati (in particolare amministrativo-gestionali) che accompagnino la risorsa dalla sua nascita; e contemporaneamente forti progetti nazionali che sviluppino un chiaro modello di responsabilità verso il digitale. Ha citato come punti di riferimento il modello OAIS, e le linee guida sviluppate da ICOLC per la conservazione delle risorse acquisite in consorzio, e ha concluso elencando alcune iniziative, quali quella dell'Università di Stanford consistente nel moltiplicare le copie e nel gestire rigorosamente i diritti; di JSTOR, finalizzato a creare un archivio certificato dei fascicoli di riviste accademiche cartacee digitalizzate; di Pandora (Preserving and accessing networked documentary resources of Australia); del Royal Swedish Web Archiw3e, dell'Internet Archive con la sua Wayback machine (di cui è partner anche la Library of Congress).

Su questo versante, da ambito italiano sono venuti: l'intervento di Antonia Ida Fontana, che ha tra l'altro riferito dell'accordo sperimentale tra BNCF e la University Press di Firenze per il deposito legale volontario dei documenti elettronici, per i quali la BNCF ha assunto l'incarico di garantire conservazione, autenticità, integrità, e ha approntato linee guida catalografiche; l'intervento di Cristina Magliano, che ha presentato il gruppo di lavoro dell'ICCU sui metadati, un osservatorio sull'utilizzazione di metadati nei progetti di digitalizzazione per promuovere l'adozione di metadati standard, lo sviluppo di metathesauri e l'interoperabilità (e ha elaborate delle linee guida); l'intervento di Giovanni Bergamin che, membro di tale gruppo, ne ha proposto alcune riflessioni, tra cui la distinzione tra le diverse tipologie di metadati (bibliografici o descrittivi, ma anche tecnici, strutturali, amministrativi, per la conservazione), ribadendo con forza come il documento elettronico dipenda in maniera costitutiva dai metadati, senza i quali è un insieme di bit. Non per niente il modello OAIS (Open Archival Initiative System) vede il documento come un insieme di dati (bit) e metadati (representation information, che rendono quei bit interpretabili dall'uomo e dalla macchina), sfumando la distinzione tra accesso remoto e locale, inadeguata in questo ambito. Ci vuole uno sforzo organizzativo che, per ogni tipologia di metadati, stabilisca a chi spetti crearli, possibilmente alla nascita per poi gestirli automaticamente. L'intervento si è concluso con la citazione di alcuni documenti rilevanti: le linee guida per il deposito legale delle ER prodotte dall'IFLA; il draft da esso prodotto dal gruppo di lavoro OCLC/RLG per la conservazione "Attributes for a trusted digital repository"; il draft NISO "Archiving Electronic Publications"

Molto interessante lo studio dell'Università di Toronto presentato da Lynne Howarth, "Modelling a 'human understandable' Metalevel Ontology Enhancing Information Seeking on the World Wide Web" che, lavorando in direzione dell'interoperabilità semantica, cerca di determinare uno schema terminologico, o ontologia, che serva come lingua franca e strumento di switching da uno schema di metadati all'altro. Sono stati confrontati sette schemi di metadati costruendo mappe di corrispondenze (crosswalks) dalle quali emerge che gli elementi comuni a tutti gli schemi sono 1,17 % (cioè 5 elementi). I prossimi passi saranno la costruzione di uno schema di metadati (un namespace) comune e neutrale, cioè un metaschema XML, dove ogni elemento sia corredato di "categorie analoghe" (like categories) e definizioni in linguaggio naturale, dotato di un'interfaccia XML ai diversi schemi di metadata sulla base dello Z39.50.

Altra realizzazione di interesse è VisualCat, presentata da Poul Henrik Jorgensen: un modello sperimentale stand alone per la catalogazione, la ricerca e il controllo di autorità delle ER (adottato da British Library e BNCF nel progetto europeo one-2 su z39.50 e ISO/ILL cioè ISO 10160/10161), mirante a saggiare la compatibilità tra standard bibliotecari consolidati quali Unimarc e Z39.50, e nuovi strumenti e tecnologie quali il linguaggio XML, il modello FRBR e il formato RDF. Per gestire risorse elettroniche provenienti da fonti diverse bisogna trovare corrispondenze tra gli schemi descrittivi che le accompagnano: o tradurre tutti gli schemi in un set minimo, oppure definire relazioni astratte tra i diversi schemi (classi, attributi, relazioni). La scelta di VisualCat è di utilizzare RDF per esprimere le relazioni tra i vari schemi: RDF è un metodo generale, elaborato dal consorzio W3C nell'ambito del progetto di web semantico, per la rappresentazione delle proprietà di qualsiasi risorsa web, dove proprietà e risorsa sono identificate con sintassi URI. In VisualCat i diversi set di metadata (le diverse sintassi) sono espressi in strutture XML (come ontologie), mentre le relazioni semantiche tra i vari schemi sono espresse in dichiarazioni RDF; come ontologia di base viene specificato FRBR, e il formato RDF è utilizzato come generatore di deduzioni automatiche in fase di ricerca - il tutto sulla base del protocollo Z39.50. In questo modo il concetto di record di metadati (scheda) viene sostituito da una rete di entità collegate da rapporti.

In molti interventi, il discorso sui metadati si è fuso con quello sui portali come modalità alternativa a quella catalografica per organizzare le risorse elettroniche in biblioteca. Da queste giornate è uscita una rassegna vastissima di portali, non un'altrettanto chiara caratterizzazione di portali (e gateways) in relazione a cataloghi, metadati, VRD, strutture commerciali.

La presentazione a più ampio raggio è stata fatta da Sarah E. Thomas, partendo dall'osservazione che molte home page di biblioteca sono a tutti gli effetti dei portali: il portale è un dispositivo per gestire la ricchezza informativa, attraverso un'organizzazione orientata dei contenuti, che tende a diventare sempre più personalizzata: infatti gli utenti, sebbene onnivori, chiedono sempre maggiori personalizzazioni e, come molti portali commerciali, anche alcuni siti bibliotecari stanno sviluppando funzionalità in questa direzione (si pensi al sistema MyLibrary sviluppato a Los Alamos nell'ambito del progetto Library Without Walls). Indagini in ambito accademico mostrano che nelle Università più avanzate è in corso un allentamento della dipendenza degli studiosi dalla biblioteca a favore dell'accesso web, al quale la comunità accademica chiede essenzialmente tematicità, aggiornamento, un buon motore di ricerca, la disponibilità di materiali full text.

I portali, nati per organizzare, sono a loro volta tantissimi (esiste un sito che indicizza portali) ma il portale accademico è globale per eccellenza, plurilingue, fondato sull'adozione di standard e metadati comuni; l'auspicio è dunque quello di arrivare a portali unici per settore disciplinare, che siano gateways per raccolte distribuite, possibilmente OAI e quindi interoperabili.

In questa prospettiva il concetto di portale (o almeno di portale accademico) si allontana parecchio da quello diffuso in ambito commerciale e viene a coincidere tout court con il "controllo accademico/bibliotecario delle risorse elettroniche", implicando a monte chiari criteri selettivi e un'assunzione di responsabilità rispetto a permanenza di link e contenuti: ne discende l'opportunità di un meccanismo per replicare il contenuto dei siti inclusi (con reiterato riferimento alle linee guida di OCLC/RLG "Attributes for a trusted digital repository").

Vengono poi passati in rassegna parecchi progetti in corso negli Stati Uniti: oltre a molti già citati, lo Scholars Portal della ARL, il portale della Cornell University interessante per l'evoluzione che ha subito dalla sua nascita (da una semplice categorizzazione per materia al sistema ENcompass che sa svolgere una ricerca su file diversi e tra metadati diversi, basandosi sul Dublin Core); il Site for Science costruito dalla National Science Foundation, basato sull'utilizzazione di standard condivisi e di una struttura interoperabile, con la prospettiva di sostituire il lavoro umano con "raccoglitori automatici" di metadati dai siti di OAI (harvesting).

Michael Day ha presentato i numerosi progetti UKOLN ("UK Office for Library and Information Networking") in ambito web su metadati e gateways, intendendo per gateway un supporto alle ricerche su web strutturato e sistematico, basato su un criterio di selezione e gestione delle risorse (dotato di una collection policy) ed una descrizione ricca; insomma un sistema di controllo della qualità delle risorse. In particolare, RDN ("Resource Discovery Network") mira ad aumentare l'accesso per soggetto, sviluppare le abilità agli utenti ("Virtual Training Suite"), integrare gli accessi e garantire l'interoperabilità, basandosi su un meccanismo "resource finder" e su una struttura centralizzata che dà accesso alle descrizione di tutti i gateways.

Renardus è un progetto europeo di 12 partners (tra cui UKOLN) che, analogamente, mira a sovrapporre ai gateways per soggetto esistenti una serie di servizi e strumenti, prevede un'implementazione Z39.50, un modello comune basato su Dublin Core, una mappatura di categorie semantiche con la CDD usata come linguaggio di switching; il progetto si fa carico anche dei metadati per la conservazione, sulla base del modello OAIS, e ne ha elaborato una bozza (cfr. anche l'altro progetto europeo DESIRE, finalizzato a produrre strumenti per la creazione cooperativa di repertori di risorse elettroniche per le comunità accademiche).

Maria Witt ha portato esperienze dall'area francese, in primis quella di punta del Cern dove il grande catalogo di risorse nel campo del nucleare viene alimentato con schede provenienti da molte fonti poi omogeneizzate. La BPI (Bibliothèque publique d'information) inserisce nell'Opac le descrizioni delle risorse che acquista, e fa una selezione di siti web, pubblicata annualmente come "Sites web". Tra l'altro ha accennato ai signet (o selezione di siti) della BNF e delle biblioteche universitarie, secondo un progetto di condivisione delle pagine web disciplinari.

Stuart Hunt, pur impossibilitato a intervenire, ha inviato una estesa presentazione dei due più volte citati progetti OCLC, enfatizzandone l'aspetto cooperativo, un classico dell'attività bibliotecaria di cui l'interoperabilità non è che una manifestazione. Il primo progetto, INTERCAT, partito negli anni novanta per la catalogazione cooperativa di risorse remote, basato sull'uso del Marc e sulla strutturazione di un accesso ampio attraverso il portale WorldCat, ha prodotto l'aggiunta del tag 856 in Marc21; gli è succeduto CORC, aperto ad una cooperazione anche extra-USA, basato su un convertitore Marc-Dublin Core che supporta ricerche per soggetto e la creazione assistita di metadati sia Marc che Dublin Core permettendo una cooperazione inter-comunitaria tra bibliotecari e specialisti disciplinari; al di là di alcuni limiti tecnologici che saranno superati col passaggio ad Oracle, CORC offre una possibilità di verifica della biblioteca ibrida in quanto integra i vari supporti.

Paul Gabriele Weston ha preso spunto dalla presentazione del sistema australiano AustLit (da poco divenuto ad accesso riservato) che integra risorse catalografiche e risorse internet basandosi su un'implementazione spinta delle relazioni, per tornare a riflettere sui principi e sull'efficacia del catalogo che, lasciato dai Principi di Parigi a metà strada tra lista di reperimento e strumento bibliografico, passando al supporto elettronico non ne ha sfruttato a pieno le potenzialità relazionali fino all'avvento del modello FRBR, che finalmente legittima un ripensamento globale e funzionale; l'invito è ad una valorizzazione del catalogo come fulcro della biblioteca, separando nettamente la componente descrittiva (per cui possono rimanere validi gli schemi tradizionali) dalla struttura relazionale che vi viene sovrapposta, e dove si sposta tutto il controllo formale.

Joan Mitchell ha inserito nella discussione sui portali (che sempre si basano su una categorizzazione semantica) la sua riflessione sull'opportunità di utilizzare schemi classificatori in ambito web, sottolineando come essi siano di per sé linguaggi basati su relazioni, ospitali, strutturati ed sovralinguistici.

Ancora molte altre sono state le esperienze e le risorse specifiche presentate, soprattutto nell'ultima giornata, rendendo di fatto impossibile cogliere tutti i suggerimenti: li citiamo soltanto, per chi volesse intraprendere altri percorsi: Marco Santoro ha presentato Italinemo, le riviste di italianistica nel mondo; François Dupuigrenet ha parlato delle risorse web per lo studio del libro antico; Denis Reidy (British Library) ha presentato un progetto per un catalogo collettivo on-line dei periodici di studi italianistici del Regno Unito, che poi dovrebbe espandersi alle maggiori istituzioni italiane; Rochelle Kedar ha parlato del Jewish Networking Infrastructure Project, teso ad un controllo (tramite registrazione) dei siti di interesse per la cultura ebraica, controllo basato su descrizioni Dublin Core e sullo sviluppo di un thesaurus della cultura ebraica per l'indicizzazione; Hildegard Schaffler ha presentato il caso del consorzio della Baviera per la negoziazione e gestione delle risorse elettroniche, che raccoglie le stesse biblioteche che da tempo collaborano ai cataloghi e fa parte del GASKO, organismo di coordinamento dei vari consorzi di area culturale tedesca. La Staatsbibliothek di Monaco è il negoziatore e amministratore principale, mentre la Electronic Journal Library è ospitata all'Università di Regensburg, e costituisce un esempio efficace di gestione delle riviste elettroniche al di fuori dell'OPAC ma anche indipendente dalle liste editoriali.

Si segnala infine, per ulteriori approfondimenti su alcuni dei temi affrontati nel corso del Convegno, il tempestivo e stimolante intervento di Stefania Manzi ed Enrico Martellini, Alcune riflessioni in margine al Convegno Le risorse elettroniche, Roma 26-28 novembre 2001, in linea da gennaio 2002 sul Forum Burioni.


Cinzia Bucchioni, Biblioteca del Dipartimento di Anglistica - Università di Pisa, e-mail: bucchioni@angl.unipi.it



«Bibliotime», anno V, numero 1 (marzo 2002)


Precedente Home Inizio Successiva