Il corpus (aggiornato al 1 dicembre 2019) è attualmente costituito da 314 testi, per un totale di 679.989 occorrenze e 14.629 forme grafiche. È importante notare che non c’è una corrispondenza diretta tra numero di testi raccolti/prodotti nelle singole indagini (attraverso interviste o focus group) e numero di occorrenze (token): ogni singola indagine ha un suo proprio ‘peso specifico’ nel complesso del corpus, dal momento che i testi prodotti possono avere estensione e livelli di complessità molto differenti. Per esempio l’indagine condotta presso il Sistema bibliotecario comunale di Perugia raccoglie solo il 6% di testi ma pesa per il 14% in termini di occorrenze; al contrario l’indagine condotta a Prato raccoglie il 19% di testi ma pesa solo il 7% in termini di occorrenze.
Il corpus testuale viene sottoposto a diversi tipi di analisi: una analisi statistica delle occorrenze, l’analisi delle ‘parole tema’ attraverso la visualizzazione rapida e intuitiva del contenuto delle nuvole di parole [word cloud riportata sotto]; l’analisi delle ‘parole specifiche’ rispetto ad alcune variabili che abbiamo ritenuto importanti a fini della ricerca, per esempio il ruolo dell’enunciatore –utente/bibliotecario/opinion leader ; l’analisi dei temi emergenti attraverso una classificazione dei testi che si basa sulla logica della ricerca delle similitudini.
In questo modo è stato possibile estrarre informazioni – e conoscenza – dalle narrazioni raccolte non nei termini impressionistici che a volte caratterizzano lo storytelling, ma in modo rigoroso e controllato, e rispondere ad una serie di domande interessanti.
Per esempio: bibliotecari e utenti parlano della biblioteca nello stesso modo? Gli opinion leader mostrano di avere una visione diversa rispetto agli addetti a lavori? In che modo utenti e non utenti attribuiscono alla biblioteca significati diversi?
Word cloud del corpus completo (sono state escluse le forme grafiche con meno di 10 occorrenze)