[AIB-WEB] Associazione italiana biblioteche. 51. Congresso
AIB-WEB | 51. Congresso AIB | Bibliocom 2004 | Valutazione e selezione delle risorse Internet

51. Congresso nazionale AIB

AIB2004

Venerdì 29 ottobre 2004
ore 10,00-13,00
Roma EUR, Palazzo dei congressi
Sala Campidoglio


Seminario AIB-WEB-7: parte seconda

Valutazione e selezione delle risorse Internet

a cura della CNUR con la collaborazione della Redazione di AIB-WEB


Piero Cavaleri
Valutazione dei siti web per repertori, reference e formazione degli utenti

L'intervento sarà diviso in tre parti che, prese nel loro insieme, vorrebbero rappresentare quelle che sono le mie opinioni su come valutare i siti Web, opinioni basate su l'esperienza, ormai decennale, nella gestione di una banca dati di siti, specializzata nei settori economici e giuridici, e nella partecipazione ai progetti DFP e Segnaweb, in decine di corsi a studenti e professionisti.
Ognuna delle tre parti, però, ha anche una sua valenza autonoma.
La prima si incentra sul concetto di continuità tra valutazione delle risorse informative cartacee e ondine.
La seconda sarà molto pratica, consisterà sostanzialmente nell'elencazione di caratteristiche rilevanti per la valutazione dei siti in funzione dell'utilizzo nell'attività di reference.
La terza parte è un tentativo, una proposta, la concretizzazione di alcune idee che da tempo cerco di elaborare per attenuare il senso di insoddisfazione che provo di fronte a molti libri e manuali che parlano di valutazione dei siti.

Tutto cambia, tutto rimane

Il passaggio di molta della produzione informativa e documentaria dalla carta ai siti Internet ha fatto sorgere la necessità di valutare queste nuove tipologie di strumenti di pubblicazione. E' utile precisare che, come già succedeva per libri, periodici e simili, ma in misura molto più ampia, i siti web possono avere una finalizzazione esclusivamente estetica o ricreativa, va da sè che in questi casi i parametri di valutazione dovranno essere specifici.
Nel contesto di questo intervento penso sia però utile tralasciare queste tipologie di siti per concentrare la nostra attenzione su quelli che hanno almeno in modo non marginale un ruolo informativo.
Escluderò, inoltre, per tutti i siti una trattazione specifica degli aspetti tecnici e comunicativi. Questi aspetti sono certamente centrali per coloro che si occupano di realizzare siti web o di decidere come realizzare i siti al fine di attrarre visitatori e di offrire loro un prodotto apprezzabile. La scelta di lasciarli sullo sfondo non vuole in alcun modo significare che non li ritengo importanti, solo che, se vogliamo parlare del valore informazionale di un sito, dobbiamo farli rientrare in un modello generale di valutazione che al centro deve avere l'informazione.

L'analisi che compiremo si baserà sull'assunto che i siti web non possono essere visti come un mondo a parte rispetto all'insieme degli strumenti informativi.
C'è stato un breve periodo in cui coloro che si occupavano di Internet hanno pensato che il loro campo fosse separabile dal mondo “reale” perché le regole che ne determinavano le dinamiche evolutive erano diverse, consentivano di superare una serie di vincoli e di limitazioni fortemente condizionanti l'andamento degli altri settori.
Oggi queste speranze o illusioni sono sparite insieme allo bolla speculativa che aveva caratterizzato gli anni della new o net economy.
Facendo riferimento all'aspetto comunicativo dei siti web, al loro valore “commerciale”, possiamo citare quello che dice un importante consulente di Internet marketing, Jim Sterne, riguardo a ciò che è essenziale per attirare visitatori sui siti:

“the first way people find your site is because they already know you” 1

Un'affermazione del genere, in un libro dedicato a definire quali sono i criteri di valutazione del successo di un sito, ci fa ben capire che è solo facendo riferimento alle conoscenze complessive sul mondo che hanno gli individui che possiamo arrivare a comprendere quale sia il valore dei singoli siti. Un'analisi che isoli il sito dal suo mondo non condurrà ad altro che a valutazioni basate sugli aspetti tecnologici e comunicativi, cioè su ciò che è specifico dei siti, ma in linea di massima, è poco significativo per chi vuole occuparsi di informazioni.

Il contesto in cui ora andremo a collocare i siti sarà il mondo della produzione di informazioni, un mondo che storicamente ha avuto il proprio baricentro nelle pubblicazioni cartacee.
I media diversi dalle pubblicazioni cartacee - analogici ed elettronici, dedicati alla fruizione in presenza o a distanza - hanno sì assunto un ruolo molto rilevante durante il 20. secolo, ma senza intaccare la centralità della carta per quanto riguarda la trasmissione di grandi masse di informazioni destinate ad una fruizione meditata e slegata dagli aspetti emozionali.

L'affermazione vuole essere molto chiara e inequivocabile: dal punto di vista del valore informativo il processo di valutazione dei siti Internet è analogo a quello utilizzato per le pubblicazioni cartacee.
Potremo definire nuove caratteristiche, riutilizzare concetti già presenti nel mondo della valutazione delle opere cartacee, formalizzare in modo più analitico i vari aspetti, ma non possiamo prescindere dall'assumere i parametri già esistenti come il nostro punto di riferimento.

La valutazione delle pubblicazioni cartacee era una attività consolidata che coinvolgeva a vario titolo diverse categorie professionali, riassumibili in tre tipologie:

Gli esperti erano chiamati a valutare le opere di tipo scientifico riguardo la validità del loro contenuto.
I critici svolgevano una attività esclusiva o quasi di valutazione della produzione documentale di tipo letterario e artistico, con un ruolo di orientamento alla fruizione – acquisto – delle opere da parte del pubblico.
Infine i bibliotecari, in quanto incaricati di acquisire le opere per la loro fruizione pubblica e per la loro conservazione e per essere soggetti a vincoli di bilancio, definivano ciò che valesse la pena di essere valorizzato e preservato al di là delle convenienze economiche momentanee.
Naturalmente gli aspetti tecnici ed estetici delle pubblicazioni non erano ininfluenti rispetto alla valutazione, ma a prevalere di gran lunga erano i “contenuti”.

Anche per valutare i siti dovremmo rifarci ad una divisione dei ruoli simile tra esperti, critici e bibliotecari con in più l'affidamento a una figura specifica della valutazione delle buona realizzazione tecnico/comunicativa del sito, dando per acquisito che la complessità dello strumento informatico richiede una maggior attenzione alla buona realizzazione dei supporti digitali rispetto a quelli cartacei.
In ogni caso tutti quelli che si occupano di valutazione dei siti, tranne la figura tecnica delineata nel paragrafo precedente, dovrebbero focalizzare la propria attenzione sui “contenuti”, sul valore informativo, documentario del sito.

Il valore informativo dei siti: solo l'affidabilità?

Scorrendo la letteratura sulla valutazione dei siti, vediamo che molta importanza viene data a quegli aspetti tecnici e comunicativi che abbiamo detto. L'affermazione della rilevanza di alcuni aspetti formali e di contenuto per definire il valore dei siti, a mio parere, ci consente di determinare sostanzialmente solo una delle dimensioni su cui possiamo misurare i siti: quella dell'affidabilità.

Per esempio nel settore economico e giuridico da alcuni anni utilizzo con i miei collaboratori questa classificazione dei siti in ordine di affidabilità:

Per arrivare un ranking relativo all'affidabilità possiamo seguire le indicazioni di Michael Sauers 2, indicazioni che a loro volta sono mutuate dalla tradizione della valutazione delle opere di reference su carta.

Altri aspetti del sito che saranno utili per definirne il valore informativo, aspetti che potremmo paragonare a quelle informazioni che possiamo trovare nelle pagina del copyright o in elementi accessori di un libro, sono:

Mi soffermo sul primo punto: il dominio.
Sarebbe potuto diventare una fonte informativa molto più importante se le convenzioni iniziali adottate per l'assegnazione negli Stati uniti, fossero state scelte con maggior lungimiranza e rispetto per gli altri paesi.
In particolare il Top Level Domain, cioè le lettere che chiudono i domini, “”it” per l'Italia, avrebbero potuto rappresentare un modo molto semplice per collocora in grandi categorie i siti. Purtroppo ciò vale solo per gli Stati Uniti e per quei paesi che almeno in parte sono riusciti a darsi in tempo una politica di assegnazione sistematica.
Distinguere in modo sistematico i siti delle pubbliche amministrazioni, come possiamo fare grazie al .gov negli USA, avrebbe permesso di adottare metodi di valutazione in parte automatici.

Un aspetto rilevante per valutare la serietà di chi gestisce il sito sono le regole adottate per la protezione dei dati personali richiesti ai propri utenti.

Pur avendo dichiarato che non ci saremmo occupati degli aspetti tecnologici e comunicativi, non possiamo ignorare che la dimostrazione di un'attenzione agli utenti e la correttezza nell'applicazione delle norme sull'usabilità possono essere degli indici significativi sull'affidabilità del gestore del sito e del sito stesso.
A questo proposito possiamo citare come significativi i seguenti aspetti:

Pro-gettare

Elenchi e descrizioni sono certamente utili, ma non posso nascondere la mia insoddisfazione di fronte al loro proliferare.
Mancano di una strutturazione e lasciano in ombra la necessità di definire in modo più preciso le quantità che si ritiene di prendere in considerazione. Produrre elenchi senza provare a costruire una struttura all'interno della quale collocare le varie quantità non può bastare.
Inoltre, un passo ulteriore dobbiamo farlo se vogliamo dare qualche prospettiva di misurabilità delle quantità definite.

Il problema vero non è quello di arrivare a definire lo spazio informativo in cui collocare i siti?
E oltre a definire lo spazio non sarebbe utile cominciare a dibattere attorno a quali siano le quantità che ci consentano di valutare aspetti cinematica, dinamici … di questa realtà? Ancora come misuriamo queste quantità?
Non sarebbe utile cercare di formalizzare maggiormente i nostri criteri di valutazione?

Io non sono in grado di dare risposte significativamente solide a queste domande. Quello che posso fare è cominciare a tracciare un possibile percorso per avvicinarsi ad una meta molto lontana.
Il mio abbozzo spero che possa essere di stimolo a qualcuno che con maggiori capacità e risorse decida di demolirlo per dare risposte più convincenti ai problemi che pongo.
Cerco di usare parole che comunichino il più possibile la connotazione di provvisorietà e di incertezza in cui mi accingo a muovermi, perché questo mio intervento, per questi aspetti, è veramente un tentativo, una proposta, in un certo senso un azzardo.

Vorrei inoltre sottolineare l'aspetto metaforico con cui andrò ad utilizzare concetti tratti dalla fisica. La fisica è stata per secoli il paradigma che ha fornito a molte branche del sapere un punto di riferimento solido e nello stesso tempo stimolante.
Anch'io provo a “rubare” alla fisica alcuni concetti per vedere se possono essere utili a comprendere il mondo dell'informazione via Internet.

Per prima cosa penso che sia utile cercare di determinare la carica (o massa) informativa di un sito.
A mio parere la carica è determinata dalla somma di due quantità:

Non sono in grado di definire una metrica di entrambe queste quantità. Ciò che ritengo di poter affermare è che difficilmente potremo basarci sulle quantità di bit o di byte.
Per il primo dei due tipi di carica il criterio che mi sembra il miglior candidato è legato alla quantità di pubblicazioni di ogni genere, in ogni formato e su ogni supporto che l'ente pubblica.
Per misurare la carica effettiva del sito penso che potremo esplorare l'uso della quantità degli stessi documenti che sono effettivamente pubblicati sul sito.
Un altro problema che lascio aperto è come sia possibile sommare i due tipi di massa.

Il secondo concetto che ritengo rilevante per valutare un sito è quello di distanza di un sito da un utilizzatore potenziale.
Chiaramente non sto parlando di una distanza reale o di una distanza misurata in nodi della rete, quello che mi preme definire è una distanza informativa. Per misurarla potremo far riferimento ad una serie di parametri che possono essere riassunti in un concetto esteso di accessibilità. Esteso perché al primo posto non porrà l'accessibilità di tipo tecnologico, ma quella di tipo percettivo e conoscitivo: accessibilità per le persone diversamente abili, accessibilità linguistica, accessibilità concettuale.
La distanza di cui stiamo parlando, prima e ben più che dalla capacità di banda, sarà inoltre molto influenzata dagli aspetti economici che regolano l'accesso all'informazione.
Un sito che risponda a tutti i criteri di usabilità, che sia mantenuto da un ente che offre una enorme banda per le linee di accesso e che dispone di vari mirror in giro per il mondo, che sia completamente tradotto in tutte le lingue più diffuse, potrebbe essere molto distante da certi gruppi d'utenti a causa del costo molto elevato.

Altro concetto: intensità. Un sito avrà maggior intensità quanto più sono unici i documenti che pubblica. La protezione fornita dal copyright tende a far crescere proprio questa quantità. Un sito potrebbe avere una massa piccola, pochi documenti pubblicati dall'ente e altrettanto pochi messi su Internet; una distanza elevata da certi utenti perché caro, ma avere egualmente un grande potere attrattivo, cioè essere dotato di una intensità molto alta, per il fatto di rendere disponibili documenti unici e di grande interesse.

Un sito può opporre resistenza all'attraversamento, cioè fare in modo che l'utente sia trattenuto il più a lungo possibile al suo interno. Resistenza è un concetto che a prima vista potrebbe essere assunto come negativo, ma per come intendo definirlo si deve evitare ogni attribuzione di questo tipo.
E' un concetto neutro che può assumere significati positivi o negativi a seconda quali siano i mezzi per trattenere il visitatore e quali siano gli scopi per cui lo stesso è acceduto a quel sito. E' lo stesso problema che si presenta per la resistenza elettrica. Se stiamo cercando di trasmettere energia a distanza la resistenza è negativa, se invece il nostro scopo è produrre calore la resistenza del conduttore è fondamentale che sia alta.
Per intenderci un sistema di information retrieval sarà migliore quanta minore sarà la sua resistenza, ciò quanto più velocemente condurrà l'utilizzatore fuori da sé, al deposito dei documenti. Al contrario un sito con documenti sarà tanto più valido quanto più fornirà all'utente l'occasione di trattenersi al suo interno perché completo ed esaustivo rispetto ai suoi bisogni informativi.

Penso sia utile definire una quantità che possa consentirci di misurare la notorietà sulla rete di un sito. Io la definirei risonanza e la farei coincidere con la quantità di link che portano al sito stesso.
Non è necessario sottolineare il valore che la quantità di link abbia per comprendere l'importanza informativa di un sito. Google ha adottato questo come uno dei criteri per il ranking dei siti.
Mi sembra però importante sottolineare che questo criterio non può mai essere preso da solo. Il numero di link può ben essere determinato dall'intensità del sito o da una esigua distanza piuttosto che da un valore intrinseco. Per intenderci un sito in inglese, gratuito e molto facile da capire potrebbe avere molti link a discapito di uno molto più ricco e serio in ungherese.

Con il concetto di velocità definirei l'aggiornamento medio delle singole pagine, mentre l'aggiornamento del sito preso per intero è la sua quantità di moto. Questa quantità è molto rilevante perché potrebbe darci una misura sintetica del valore attuale di un sito, valore che, a mio parere, non dipende solo dalla rapidità con cui si procede a fare le variazioni necessarie, ma anche dalle sue dimensioni in termini di carica/massa complessiva.
Un sito con moltissimi documenti non può essere valutato rispetto all'aggiornamento come uno con poche pagine. I criterio da utilizzare deve tener conto della rapidità con cui si interviene ma anche delle dimensioni.

La capacità di assicurare la conservazione dei documenti pubblicati e delle vie per accedervi la definirei come entropia. Un sito molto caldo sarà soggetto a perdite notevoli di documenti, tenderà a “bruciarli”, un sito a bassa entropia sarà ordinato, stabile. Potrà essere dotato di una grande quantità di moto ma all'interno di un sistema che garantisce stabilità a ciò che è stato pubblicato.

Una quantità importante è quella del disturbo. I siti possono avere valori molto elevati per vari parametri, ma nello stesso tempo possono essere strutturati in modo tale da creare disturbo per le modalità di accesso e di fruizione. La comparsa di finestre pop up, messaggi pubblicitari o comunicativi invasivi possono disturbare la fruizione delle informazioni.

La crescita quantitativa e qualitativa delle informazioni pubblicate possiamo definirla come l'accelerazione del sito. Mentre la forza del sito sarà determinata da questa capacità di proporre novità in rapporto alle dimensioni della carica/massa totale.

E l'energia che possiede un sito? Qual'è la sua capacità di compiere lavoro, di produrre risultati per i propri utenti e per chi lo pubblica?
Questo concetto dovrebbe essere in qualche modo legato a ciò che abbiamo chiamato quantità di moto, cioè all'aggiornamento e alla crescita in relazioni alle dimensioni. Non so se questo rapporto possiamo definirlo come faremmo per l'energia meccanica, non so come potremmo formalizzarlo. Come tutta questa terza parte, anche questo è un gettare per vedere che cosa può scaturire, è un pro-gettare.

Prima di poter fare dei passi ulteriori ritengo si debbano approfondire i concetti proposti, forse in modo troppo superficiale.
Sono assolutamente consapevole della estrema provvisorietà di quanto detto, ma ho ritenuto di esporre queste idee, a rischio di apparire velleitario, perché ritengo che cercare di definire quantità che consentano la valutazione dei siti in base a criteri condivisi, quantità riferite ai contenuti informativi e non agli aspetti tecnologici, sia fondamentale per gli scienziati dell'informazione, cioò in primo luogo per i bibliotecari.

Bibliografia

Elfriede Dustin, Jeff Rashka, Douglas McDiarmid, Quality web systems : performance, security, and usability, Boston, Addison-Wesley, c2002
Irene Hammerich, Claire Harrison, Developing online content : the principles of writing and editing for the Web, New York, Wiley, c2002
Daniel D. McCracken, Rosalee J. Wolfe, User-centered website development : a human-computer interaction approach, Upper Saddle River, N.J., Pearson Education, 2004
Tammy Sachs and Gary McClain, Back to the user: creating user-focused Web sites, New Riders, c2002
Michael Sauers, Using the Internet as a reference tool, New York, London, Neal-Schuman, 2001
Jim Sterne, Web metrics : proven methods for measuring web site success, Wiley, 2002 Michele Visciola Usabilità dei siti Web, Milano, Apogeo, c2000


Note

1 Jim Sterne, Web metrics : proven methods for measuring web site success, p. 89
2 Michael Sauers, Using the Internet as a reference tool, p. 7-45


Copyright AIB 2005-03, ultimo aggiornamento 2005-03-11 a cura di Gabriele Mazzitelli
URL: https://www.aib.it/aib/congr/c51/cavaleri.htm

AIB-WEB | 51. Congresso AIB | Bibliocom 2004 | Valutazione e selezione delle risorse Internet