Luca Giuliano - Gevisa La Rocca

L'ANALISI AUTOMATICA E SEMI-AUTOMATICA
DEI DATI TESTUALI
Software e istruzioni per l'uso

 

 

 

ISBN 978-88-7916-382-8 — 17 x 24 cm. — 2008


pp. 246 – € 30,00
Prezzo on line € 25,50 - Sconto 15%  Acquisto il volume



 

Sempre più spesso testi letterari e legislativi, documenti politici e articoli di giornali sono disponibili in formato digitale. Pagine web, e-mail, blog, forum, chat, newsgroup producono ogni giorno una massa ingente di informazione "nascosta" in testi non strutturati che ricercatori e professionisti della comunicazione devono gestire, codificare e interpretare. Ultimamente si è fatta strada una disciplina aziendale, il Knowledge Management, in cui la gestione consapevole della conoscenza per mezzo delle tecnologie dell'informazione diviene un importante fattore di successo per le imprese e le organizzazioni. Questo manuale si propone di illustrare sia i metodi e le tecniche di analisi semi-automatica dei documenti che seguono il classico approccio qualitativo di esplorazione del testo dal basso - proprio della Grounded Theory di Glaser e Strauss - mediante l'utilizzo dei CAQDAS (Computer Assisted Qualitative Data Analysis Softwares) che l'analisi dei dati testuali (Analyse des données textuelles) tipica della scuola statistica francese, che permette il trattamento e l'esplorazione di testi molto grandi al fine di estrarre, in modo automatico, le unità di informazione ritenute più rilevanti per la ricostruzione del contenuto. I software più noti dei due approcci (Atlas.ti5 e Nvivo7 per l'analisi semi-automatica; Lexico3 e TaLTaC2 per l'analisi automatica) sono illustrati passo per passo attraverso l'analisi di un corpus esemplificativo tratto da un forum sul fenomeno del bullismo nelle scuole. Gli approfondimenti indicati nel testo o nella bibliografia sono selezionati appositamente per costituire un percorso di ricerca integrato tra qualità e quantità, parole e numeri, che può essere di grande aiuto in molte discipline che trattano l'interpretazione e l'analisi dei testi: linguistica, critica letteraria, psicologia, sociologia, scienze della comunicazione.

Luca Giuliano, professore straordinario di Sociologia generale, insegna Metodologia delle scienze sociali nella Facoltà di Scienze statistiche della Sapienza - Università di Roma e Laboratorio di analisi dei dati testuali nel corso di laurea interfacoltà in "Comunicazione della conoscenza per le imprese e le organizzazioni" di cui è coordinatore). Per LED ha pubblicato: La logica della scoperta nelle scienze sociali, e L’analisi automatica e semi-automatica dei dati testuali. Strategie di ricerca e applicazioni
(2008).

Gevisa La Rocca, dottore di ricerca in Sociologia, territorio e sviluppo rurale presso l'Università degli Studi di Palermo, ha conseguito il D.E.A. Diploma de Estudios Avanzados presso l'Università dell'Extremadura in Spagna. Svolge attività di didattica e di ricerca su metodi e tecniche per la ricerca sociale presso le Facoltà di Scienze Statistiche e di Scienze della Comunicazione, Sapienza - Università di Roma. Nel 2007 ha pubblicato Tecniche di analisi qualitative online. Software, media, testi per le Edizioni Kappa.
Per LED ha pubblicato: La logica della scoperta nelle scienze sociali, e L’analisi automatica e semi-automatica dei dati testuali. Strategie di ricerca e applicazioni (2008).


pdf
Il testo è di 248 pagine e si presenta in un unico file PDF di 4 MB
Per visualizzare il file cliccare qui


1. INTRODUZIONE ALL’ANALISI DEI DATI TESTUALI
1.1. Informazioni e dati (p. 9). – 1.2. Testo, significato e interpretazione
(p. 19). – 1.3 Classificazione dei testi e formazione del corpus (p. 23). -
Approfondimenti tematici (p. 27). – Riferimenti bibliografici (p. 29).


2. TESTI ON LINE: LUOGHI E PROCEDURE

2.1. I luoghi della Rete (p. 32). – 2.2. I blog (p. 36). – 2.3. Il download e
la sua etica (p. 40). – 2.4. Documento-testo, selezione e pre-trattamento
(p. 44). – 2.5. Il corpus utilizzato negli esempi: “Bullismo” (p. 48). - Approfondimenti
tematici (p. 49). – Riferimenti bibliografici (p. 51).


3. LA GROUNDED THEORY
3.1. Le origini della Grounded Theory (p. 53). – 3.2. La costruzione delle teorie
(p. 57). – 3.3. Il processo di codifica e di concettualizzazione (p. 61). –
Approfondimenti tematici (p. 66). – Riferimenti bibliografici (p. 67).


4. LAVORARE CON ATLAS.TI5
4.1. La barra degli strumenti (p. 69). - 4.2. La preparazione dei documenti (p. 71). - 4.3. Creazione di una unità ermeneutica (p. 72). - 4.4. Codificare un testo (p. 79). - 4.5. Le famiglie e le super famiglie di codici (p. 85). - 4.6. Le query (p. 88). - 4.7. I network - Rappresentazioni di relazioni (p. 93)

5. LAVORARE CON NVIVO7 – ORGANIZZARE E CODIFICARE IL TESTO

5.1. Creare un progetto di lavoro (p. 97). - 5.2. L'organizzazione dei dati: i casi e gli attributi (p. 102). - 5.3. La barra degli strumenti (p. 105). - 5.4. La formattazione del testo (p. 107). - 5.5. La creazione di nodi di codici (p. 108). - 5.6. Ri-organizzare codici e nodi (p. 118). - 5.7. I rapporti di lavoro (p. 124). - 5.8. Creare elementi di lavoro aggiuntivi (p. 125)

6. LAVORARE CON NVIVO7 – INTERROGARE E RAPPRESENTARE IL TESTO

6.1. Le query (p. 129). – 6.2. I modelli (p. 141). 6.3. Le relazioni (p. 145).

7. L’ANALISI QUANTITATIVA DEL LESSICO
7.1. I pionieri della linguistica quantitativa (p. 150). - 7.2. La costruzione dei lessici di frequenza (p. 153). - 7.3. La scuola francese della statistica testuale (p. 154). - 7.4. Estrazione dell'informazione e tecnologie di Text Mining (p. 155). - 7.5. Gli elementi costitutivi del testo: le parole (p. 156). - Approfondimenti tematici (p. 161). - Riferimenti bibliografici (p. 162)

8. LAVORARE CON LEXICO3
8.1. Preparazione del corpus (p. 166). - 8.2. Le chiavi di partizione corpus (p. 168). - 8.3. La barra degli strumenti (p. 170). - 8.4. Frammentazione del corpus e formazione del vocabolario (p. 172). - 8.5. Analisi delle partizioni del corpus (p. 174). - 8.6. Grafico di distribuzione per la partizione (p. 176). - 8.7. Analisi di specificità (p. 177). - Raggruppamenti di forme grafiche (p. 180). - 8.9. Concordanze (p. 182). - 8.10. Cartografia dei paragrafi (p. 185). - 8.11. Altre funzioni e salvataggio del rapporto (p. 186). - Riferimenti bibliografici (p. 187)

9. LAVORARE CON TALTAC2: IL TRATTAMENTO DEL TESTO

9.1. La barra degli strumenti (p. 189). - 9.2. Preparazione del corpus (p. 191). - 9.3. Creazione di una sessione di lavoro (p. 193) - 9.4. Fase di pre-trattamento: normalizzazione (p. 196). - 9.5. Analisi del vocabolario (p. 200). - 9.6. Il riconoscimento delle forme grammaticali (p. 209). - 9.7. La lemmatizzazione (p. 211). - Riferimenti bibliografici (p. 213)

10. LAVORARE CON TALTAC2: L’ANALISI LESSICALE
10.1. Text Data Mining ed esplorazione delle tabelle (p. 215). - 10.2. Estrazione dei segmenti ripetuti e lessicalizzazione (p. 219). - 10.3. Estrazione delle forme specifiche (p. 223). - 10.4. Estrazione delle forme peculiari (p. 227). - 10.5. Confronto con un dizionario tematico: aggettivi positivi e negativi (p. 231). - Riferimenti bibliografici (p. 234)

11. LAVORARE CON TALTAC2: L’ANALISI DEL CONTENUTO
11.1. Il recupero di informazione: le concordanze (p. 238). - 11.2. L'estrazione di informazione per parole chiave (p. 239). - 11.3. Categorizzazione del corpus da regole (p. 241). - 11.4. Esportazione di tabelle e ricostruzione del corpus (p. 243) - Esempi di ricerca (p. 246)