Il sociologo e l'algoritmo. L'analisi dei dati testuali al tempo di Internet
Autori e curatori
Contributi
Mauro Palumbo
Livello
Textbook, strumenti didattici
Dati
pp. 160,      1a edizione  2017   (Codice editore 1152.36)
Peer reviewed content
Peer Reviewed Content

Tipologia: Edizione a stampa
Prezzo: € 21.00
Disponibilità: Discreta


Clicca qui per acquistare
Codice ISBN: 9788891761767

In breve
Quanto i metodi di archiviazione, gestione e analisi computerizzata di dati testuali rappresentano opportunità o rischi per i ricercatori sociali? In contesti sempre più digitalizzati e popolati di verbosi social, quali prospettive derivano dalla collaborazione sistematica fra le scienze sociali e le scienze del computer? Il volume si interroga su questi e altri problemi teorico-metodologici al fine di supportare l’analisi empirica, alla luce anche di una ricerca svolta su ambienti di comunicazione online.
Presentazione del volume

L'analisi computer-assistita dei dati testuali, sempre più abbondanti e disponibili nell'era dei Big e Open Data, rappresenta un ambito in continua espansione nella ricerca sociale. Al contempo, si pongono nuovi interrogativi teorico-metodologici, di cui si discute nel volume. Quanto i metodi di archiviazione, gestione e analisi computerizzata di dati testuali rappresentano opportunità o rischi per i ricercatori sociali? In contesti sempre più digitalizzati e popolati di verbosi social, quali prospettive derivano dalla collaborazione sistematica fra le scienze sociali e le scienze del computer?
L'analisi computer-assistita dei dati testuali consente di muoversi verso una riconciliazione tra la presunta opposizione di qualità e quantità, così forte nella storia della metodologia della ricerca sociale?
L'analisi dei processi di quantificazione connessi alla codifica di dati qualitativi si coniuga con riflessioni epistemologiche e considerazioni di metodo, riflettendo sulle modalità di conversione di dati testuali in dati numerici e sul ruolo dei software in tali processi. In presenza di corpora testuali sempre più estesi e spesso reperiti sul Web, i programmi informatici consentono velocità e sistematicità di analisi prima precluse, ma espongono anche il ricercatore a rischi di usi impropri, a discapito di correttezza metodologica e qualità delle analisi. Come destreggiarsi tra codifiche algoritmiche e interpretazione dei dati, in una continua ricorsività tra numeri e parole, 'preservando' la finalità di comprensione dei fenomeni sociali, senza limitarsi unicamente ad automatismi computerizzati?
Problemi teorico-metodologici che nel testo sono affrontati al fine di supportare l'analisi empirica, alla luce anche di una ricerca svolta su ambienti di comunicazione online.

Valeria Pandolfini, Ph.D in Metodologia della ricerca sociale, è assegnista presso il Dipartimento di Scienze della Formazione dell'Università di Genova. Si occupa, in particolare, di processi e sistemi educativi, formazione del personale della scuola e socialità online, con attenzione agli aspetti metodologici ed epistemologici legati alla combinazione di metodi e tecniche di indagine qualiquantitative e all'uso di tecnologie digitali nella ricerca sociale.

Indice
Mauro Palumbo, Prefazione
Introduzione. L'analisi dei dati testuali fra tradizione e nuove opportunità
Analisi dei dati testuali: dalla carta ai software
(Un po' di storia...; L'uso del computer per analizzare dati testuali; Analisi testuale e analisi del contenuto: verso una chiarezza terminologica fra quantitativo e qualitativo)
Analisi del contenuto: metodi e tecniche
(I diversi tipi di analisi del contenuto; L'analisi del contenuto di tipo quantitativo e di tipo qualitativo; L'analisi computer-assistita dei dati testuali: i principali software)
Dalla qualità alla quantità e ritorno: numeri e parole tra misurazione e interpretazione
(Ancora su quantità/qualità; La querelle quanti/quali: i termini di una 'guerra' e le condizioni per la pacificazione; Metodi misti, triangolazione e quantificazione: discorsi sull'integrazione; L'analisi computer-assistita dei dati testuali: integrando qualità e quantità)
Web content analysis: i forum PuntoEdu ATA
(L'analisi del contenuto e la Rete; I forum PuntoEdu ATA: obiettivi e metodologia della ricerca; Il software Taltac2 e le procedure di analisi)
Analisi lessicale e testuale
(Il pre-trattamento del corpus e le misure lessicometriche; L'analisi del vocabolario; Dalle forme grafiche alle forme testuali; Le parole-tema e le parole-chiave; Fra testo e contesto: co-occorrenze e concordanze)
Analisi multidimensionale del contenuto
(Le matrici lessicali; Le differenze che contano: l'analisi delle specificità; Il linguaggio specifico; L'analisi delle corrispondenze lessicali)
Dati testuali e software: risvolti metodologici e prospettive future
(Il ruolo del ricercatore fra automatismo e interpretazione; Analisi computer-assistita versus analisi manuale: vantaggi e potenziali rischi; Questioni di metodo: attendibilità e validità; Prospettive future)
Conclusioni
Riferimenti bibliografici.