Nella lunga tradizione di riflessioni e ricerche sul tema della “qualità del dato”, mi sembra che due posizioni, tra loro antitetiche, prevalgano sulle altre: una di origine comportamentista secondo la quale la qualità del dato è definita come “assenza di distorsioni nel processo di misurazione” (Groves 1991); l’altra, che Mauceri (2003) ha chiamato “pragmatica”, vede nella qualità del dato “la soddisfazione delle condizioni logiche e metodologiche necessarie al conseguimento degli obiettivi cognitivi della ricerca”. La prima nasce nella psicometria ed è stata successivamente importata nella metodologia della ricerca sociale. Nell’ottocento si diffuse quello che von Hayek (1989) ha chiamato “atteggiamento scientista”, in base al quale le scienze sociali possono svilupparsi solo seguendo strettamente gli orientamenti e i procedimenti delle scienze fisiche. Tale atteggiamento è ancora oggi diffuso. Secondo questa visione, il compito della scienza, di tutte le discipline scientifiche, è individuare relazioni essenzialmente quantitative tra le proprietà indagate di un oggetto, dando per scontata una sostanziale equivalenza tra scienza e misurazione. Lundberg (1939) ha scritto che "se la misurazione dei fenomeni sociali è possibile, il cammino delle scienze sociali conduce sullo stesso difficile ma non insuperabile terreno sul quale la fisica e le altre scienze hanno progredito fino ai loro cospicui trionfi attuali". In un certo senso possiamo dire che la psicometria nasce come trasposizione nella psicologia degli obiettivi, dei metodi e delle tecniche di ricerca in uso nelle scienze fisiche. La progressiva svalutazione delle differenze tra le scienze fisiche e umane si è pian piano trasferita anche alle scienze sociali, che ha fatto propria l’ideologia scientista, dando vita alla cosiddetta “survey methodology”, un approccio fondato sulla teoria della misurazione e del true score . La survey methodology concepisce la qualità del dato come assenza di errori nel processo di misurazione. La definizione di Groves (1989) di “qualità del dato” è “l’assenza di distorsioni e di errori non campionari nel processo di misurazione”, che alterano lo stato reale del soggetto studiato; tale interpretazione concettualizza la qualità del dato in modo discreto e dicotomico (assenza/presenza di distorsioni). Precedentemente Kahn e Cannell (1968, 231) avevano definito la distorsione “un’intrusione di una qualsiasi influenza non programmata e non desiderata” sulla qualità (intesa in senso di integrità) dei dati raccolti. Secondo la prospettiva della survey methodology, per raggiungere tale obiettivo, l’integrità del dato, è opportuno definire e indagare tutte le possibili cause che alimentano l’errore, e che allontanano il valore misurato dal valore vero. Il prodotto di questo lavoro è un complesso di procedure e strumenti utili al ricercatore a prevenire e correggere l’azione distorsiva delle fonti dell’errore. Groves sostiene che tali accortezze hanno come risultato o il pieno raggiungimento della qualità o la sua inevitabile alterazione. Criticando l’atteggiamento scientista sopra descritto, altri studiosi rivendicano l’autonomia ontologica, epistemologica e metodologica delle scienze sociali. Rifiutando l’idea che esiste un solo modello di scienza a cui tutti devono tendere, e accusando i loro stessi colleghi di negare le proprie origini filosofiche perché attratti dalle scienze fisiche e dal loro modello di scienza, questi studiosi hanno dato vita a una visione che Mauceri (2003) ha definito “pragmatica”, cioè un approccio alla qualità del dato che si sottrae al “feticcio della misurazione scientista” (Marradi 1992) e che guarda alle effettive condizioni di ricerca e agli obiettivi cognitivi che la muovono. Tale approccio rifiuta il concetto di “dato reale”; il dato è sempre “costruito” dalle scelte del ricercatore. Secondo Mauceri (2003, 40) è sbagliato concettualizzare “la qualità del dato” in forma discreta e dicotomica. Se il ricercatore dovesse preoccuparsi di ogni possibile fattore di alterazione della qualità del dato da quanto programmato e desiderato, la sua azione risulterebbe inevitabilmente vana, vista l’impossibilità logica di controllarli tutti. È, quindi, necessario ridefinire il concetto di “errore”, e conseguentemente di “distorsione”. C’è distorsione, continua Mauceri (ivi, 41), quando “un dato non soddisfa le condizioni logiche e metodologiche, necessarie ai fini del conseguimento degli obiettivi cognitivi definiti da chi lo ha progettato. (…) In altri termini la distorsione allontana l’esito reale della rilevazione da quello ideale”. L’esito ideale corrisponde a un dato che ha carattere evidenziale rispetto agli obiettivi cognitivi della ricerca, perché in grado di costituire la base empirica necessaria a sottoporre a controllo le ipotesi di lavoro. Per questo il concetto di qualità non può essere dicotomizzato, bensì concettualizzato lungo un continuum che va dal minimo al massimo grado di evidenzialità. Uno dei compiti del ricercatore è prendere in considerazione le migliori strategie di progettazione ex-ante della qualità del dato. Progettare la qualità significa individuare in anticipo le possibili fonti di distorsione, e pianificare le procedure adeguate che riducano al minimo l’impatto del bias sui dati raccolti. Il dato progettato in un’ottica di tutela della qualità non corrisponderà mai al dato successivamente raccolto. Sarebbe utopico sostenere le posizioni di Kahn e Cannell sul controllo totale dei fattori che alterano gli attributi di qualità del dato. Pur consapevole di tali limiti, il ricercatore ha il dovere di progettare la migliore strategia procedurale per garantire che il dato raccolto abbia un notevole carattere evidenziale rispetto alle ipotesi di partenza. Il pretesting è la fase della ricerca deputata allo svolgimento di questa attività. Nel pretesting, infatti, sono implementate quelle procedure e strumenti di ricerca che “tengono sotto controllo le condizioni necessarie per giungere a un dato di qualità, prima di avviare la rilevazione” (Mauceri ivi, 164). Il pretesting si pone una serie di obiettivi conoscitivi finalizzati al miglioramento dello strumento che poi sarà somministrato. Sul piano diagnostico, l’obiettivo del pretesting è rendere il più chiaro e visibile possibile il “passaggio dalla domanda così come formulata dal ricercatore alla domanda così come interpretata dall’intervistato, e dalla risposta così come formulata dall’intervistato alla risposta così come interpretata e registrata sul questionario” (Mauceri ivi, 167). Questo ricostruzione permette al ricercatore di cogliere i processi interpretativi dell’intervistato e controllare se esiste congruenza semantica tra i suoi schemi concettuali, operativizzati nelle domande del questionario, e quelli dell’intervistato. Qualora tale corrispondenza non emerga, il questionario deve essere riprogettato e le domande riformulate. Tutto questo porterebbe alla luce problemi di validità e attendibilità che altrimenti rimarrebbero sconosciuti al ricercatore, alterando incontrollatamente la qualità dei dati raccolti nella rilevazione. Una parte consistente della letteratura metodologica è del parere che l’interazione tra intervistatore e intervistato nell’intervista standardizzata sia un proficuo oggetto di studio per chi si pone nell’ottica di progettare ex ante la qualità del dato. Cannel, Fowler e Mangione (1968) sono stati i primi studiosi a scorgerne l’enorme potenziale. Tralasciando colpevolmente le dinamiche dell’interazione personale tra intervistatore e intervistato, fino agli anni ’70 l’attenzione dei metodologi studiosi del cosiddetto “effetto intervistatore” era focalizzata esclusivamente sul monitoraggio dell’attività dell’intervistatore (la sua capacità di performance rispetto ai compiti assegnatigli) e sugli effetti dei suoi errori. Al fine di individuare quali fossero gli intervistatori peggiori che con il loro ‘cattivo’ comportamento incidevano negativamente sulla qualità delle risposte, la figura dell’intervistato e l’intero processo domanda-risposta sono stati colpevolmente trascurati. Negli ultimi trent’anni gli studi sulla qualità del dato hanno gradualmente spostato l’attenzione dallo studio della figura dell’intervistatore allo studio dell’interazione nell’intervista. La comunità dei metodologi ha preso consapevolezza che il monitoraggio del comportamento dell’intervistatore non ha senso se non include la figura dell’intervistato. L’intervistatore non lavora in una campana di vetro, isolato da chiunque, e la sua capacità di applicare le tecniche della standardizzazione non è indipendente dal soggetto intervistato. Così agli inizi degli anni ’80 la ricerca metodologica si è pian piano avvicinata all’analisi dell’interazione, fino al punto da considerarla oggetto di studio privilegiato per indagare i fattori che incidono sulla qualità del dato. L’analisi dell’interazione non solo ha permesso di valutare meglio l’attività dell’intervistatore, raffinando i modelli concettuali con cui il monitoraggio è progettato e implementato (che finalmente includono anche il ruolo dell’intervistato), ma soprattutto ha consegnato una nuova prospettiva teorica alle strategie di progettazione ex ante della qualità del dato. Le due prospettive teoriche/epistemologiche che nel corso degli anni si sono contrapposte per dettare i principi guida dell’analisi dell’interazione nello studio dell’intervista standardizzata sono state il comportamentismo e l’analisi della conversazione. Nato alle fine del 1800 nelle scienze psicologiche con l’esigenza di superare i limiti del metodo introspettivo wundtiano, l’obiettivo del comportamentismo è stato il perseguimento dell’obiettività della conoscenza attraverso l’oggettività del metodo (Mackenzie 1980). Il metodo introspettivo ideato da Wundt era ormai considerato obsoleto e non più affidabile, per via di un suo grosso limite: non garantiva la replicabilità dei risultati ottenuti in laboratori differenti. A questo proposito Watson, il padre del comportamentismo, autore di La psicologia come la vede il comportamentismo, adottò una soluzione radicale al problema del dualismo anima/corpo: il rifiuto, a priori, degli eventi mentali, perché non osservabili e quindi non indagabili. Watson, sulla scia dei successi delle scienze fisiche e naturali contemporanee, rifiutò l’introspezione, bocciandola come non affidabile e sostenendo un approccio anti-mentalista. L’antimentalismo comportamentista si oppose alla distinzione wundtiana tra “esperienza immediata” ed “esperienze mediata” – distinzione fatta da Wundt per separare le scienze fisiche dalle scienze umane. Venivano così a cadere le reciproche differenze ontologiche ed epistemologiche: gli stessi metodi logici, le stesse tecniche di osservazione, gli stessi standard di evidenza e validità venivano trasferiti dalle scienze fisiche alle scienze sociali. L’oggetto di studio diventava lo stesso della fisica: i corpi in movimento. Watson scriveva: “il comportamentismo è una vera e propria scienza naturale” (Bergmann 1967, 5), che, per ottenere il radicale oggettivismo conoscitivo, non dà altra scelta allo scienziato che l’applicazione di rigidi standard metodologici. Il contributo maggiore che il movimento comportamentista ha lasciato alla ricerca sociale è stato il tentativo di perseguire la “comparabilità delle risposte” tramite l’invarianza degli stimoli somministrati (Fideli e Marradi 1996, 74). Per conseguire il risultato della comparabilità delle risposte è necessario che tutti gli intervistati siano esposti allo stesso stimolo, così che lo scienziato abbia la piena certezza che le risposte ottenute da intervistati differenti siano state reazioni causate da uno stimolo equivalente. Ma questo obiettivo è perseguibile solo attraverso una precisa individuazione e un rigido controllo di tutti quegli elementi che alimentano l’errore dell’esito della misurazione (usando la terminologia comportamentista). Tale errore renderebbe vana la comparabilità delle risposte ottenute da intervistati differenti, perché non si avrebbe più la certezza che le loro reazioni siano state tutte la y della stessa x. I comportamentisti hanno individuato le possibili fonti dell’errore non campionario, cioè quei fattori causa di errore dell’atto della misurazione, che non sono riconducibili alla teoria dei campioni e alle procedure della statistica inferenziale, ma che, se sistematici, possono dilatare incontrollatamente la distanza tra il dato raccolto e quello reale. Tra questi ricordo lo strumento (il questionario strutturato) e l’intervistatore; maggiore è l’entità dell’errore, minore è la possibilità di comparare i dati raccolti su soggetti differenti. Al fine di limitare il più possibile l’impatto delle fonti di errore sulla qualità del dato finale, i comportamentisti hanno studiato i modi e le forme, a loro parere, più efficaci, che sono state poi integrate nel concetto di “standardizzazione”: un insieme di principi generali e tecniche operative utili a tenere sotto controllo l’azione delle numerose fonti di errore nella ricerca sociale. Tra le fonti di errore che hanno maggiormente occupato il tempo e le energie dei comportamentisti c’è “l’intervistatore”. Al riguardo è interessante chiarire la visione comportamentista del concetto di “situazione d’intervista”. Nella teoria behaviorista, la situazione d’intervista – come ogni altro evento comunicativo – è ridotta a un modello meccanico stimolo-risposta: tutta l’attenzione è rivolta allo stimolo somministrato, mentre la risposta è solo un riflesso, una reazione (Gobo 1997, 15). Questa concettualizzazione ipersemplificata ha portato a una marginalizzazione – sul piano della riflessione metodologica – dell’intervista, a vantaggio della progettazione del questionario. Relegando l’intervistatore al ruolo di puro somministratore di uno stimolo, peraltro rigidamente controllato da una serie di vincoli che ne limitano l’azione, i ricercatori comportamentisti si sono dedicati unicamente alla ricerca e allo sviluppo di uno strumento di rilevazione che garantisse loro la standardizzazione dello stimolo somministrato, il questionario strutturato (Mauceri 2003, 81). Nella concezione comportamentista l’intervistatore ha il compito di “applicare senza alcun margine di autonomia lo strumento al materiale umano… che reperirà seguendo le istruzioni. L’intervistatore non deve fare altro che somministrare il questionario strutturato, avendo l’obbligo di non introdurre alcun elemento di variabilità nell’intervista, che, non essendo stato previsto a monte, rischia di compromettere la standardizzazione degli stimoli somministrati” (Pitrone 1983/ 2002, 107). L’intervistatore è un mero esecutore, quasi un automa, che non deve prendere iniziative (Marradi 1980, 65); un soggetto passivo che, rispettando le istruzioni impartite dal ricercatore, mantiene una costante distanza psicologica e fisica dall’intervistato (Mauceri 2003, 81). Secondo le prescrizioni comportamentiste, l’intervistatore deve seguire fedelmente il testo del questionario, leggendo le domande così come sono scritte e rispettandone rigidamente l’ordine. Non è possibile introdurre commenti o indicazioni di altro tipo fra una domanda e l’altra – eccetto le informazioni previste. L’intervistatore deve leggere la domanda senza flessioni di tono, ma come se stesse parlando. Se l’intervistato evita di rispondere, rivolgendosi all’intervistatore con espressioni “ma lei come la pensa al riguardo?”, l’intervistatore deve subito richiamare la differenza dei ruoli fra lui, che fa le domande, e l’intervistato, che risponde. Se l’intervistato dichiara di non aver compreso la domanda, l’intervistatore deve ripeterla così com’è scritta, senza aggiungere commenti o informazioni non previsti. Se il rispondente continua con le sue richieste di chiarimento, l’intervistatore deve passare alla domanda successiva (Guidicini 1968). Le ripercussioni di queste prescrizioni sono evidenti sull’impostazione dello studio dell’interazione nell’intervista standardizzata. In sintesi: tutti gli intervistati devono essere esposti allo stesso stimolo; lo stimolo deve essere altamente strutturato (la ricerca sociale deve limitarsi all’uso del questionario strutturato, tralasciando altri strumenti di indagine); l’intervistatore deve limitarsi a somministrare lo strumento così come progettato, senza immettere alcuna forma di deviazione rispetto al lavoro del ricercatore; ogni deviazione occorsa durante la fase di somministrazione del questionario è una potenziale fonte di errore non campionario che può invalidare la possibilità di comparabilità delle risposte dei differenti intervistati. Per impedire variazioni impreviste e non volute dal ricercatore, il comportamento dell’intervistatore e dell’intervistato è altamente vincolato al rispetto di certe norme che rientrano nei principi della standardizzazione. Sul piano dell’interazione le ripercussioni del modello stimolo-risposta sono notevoli: l’unica forma di sequenza domanda-risposta accettabile è quella in cui l’intervistatore deve leggere tutte le domande nell’ordine e nella forma prevista nel questionario strutturato; una volta letta la domanda nella forma così come prevista, l’intervistato deve rispondere scegliendo una delle modalità già formulate; registrata la risposta, senza immettere alcun criterio di interpretazione personale, l’intervistatore deve passare alla domanda successiva; nel caso in cui l’intervistato mostrasse segni di incomprensione di tutta o parte della domanda, l’intervistatore deve limitarsi a rileggere la domanda nella forma prevista. Salta subito all’occhio che analizzare l’interazione tra intervistatore e intervistato a partire dalla matrice comportamentista significa negare la natura intrinsecamente relazionale dell’intervista (anche di quella standardizzata), all’interno della quale si attivano processi cognitivi e interazionali complessi. La concettualizzazione della sequenza domanda-risposta secondo la visione comportamentista è stata etichettata da Schaeffer e Maynard (1996) “sequenza paradigmatica”: gli atti linguistici utilizzati dai due attori sono quelli intesi dal ricercatore che costruisce il questionario; il processo comunicativo è il più efficiente possibile solo se è veloce e senza deviazioni rispetto a quanto previsto nello strumento e dai vincoli della standardizzazione. Qualsiasi deviazione del comportamento dell’intervistatore e dell’intervistato rispetto alla sequenza paradigmatica è una traccia empirica di un problema latente. I contributi empirici allo studio dell’intervista standardizzata, che negano i principi comportamentisti più radicali e che sono interessati allo studio del carattere relazionale dell’intervista, hanno portato alla luce le teorie formulate nell’ambito della psicologia cognitiva e dell’analisi della conversazione. In questa ricerca farò riferimento ai preziosi contributi degli studiosi della conversazione e lascerò da parte i pur interessantissimi studi cognitivisti perché poco adatti ai miei obiettivi. Mi spiego. Chi studia l’intervista standardizzata attraverso un approccio cognitivista è interessato a ricostruire i meccanismi cognitivi di un soggetto intervistato impegnato nell’attività di risposta. Tale attività richiede diversi steps cognitivi: interpretazione e significazione della domanda; recupero delle informazioni rilevanti dalla memoria; formazione di un giudizio a partire dalle informazioni recuperate; verbalizzazione e formattazione della risposta (Tourangeau et al. 2000). Questa è solo una possibile ricostruzione dei meccanismi cognitivi che un individuo avvia nel momento in cui è impegnato in un’attività a lui così poco usuale, come quella di rispondere a un questionario. Molti altri studiosi (Sander et al. 1992) si sono cimentati nell’impresa di concettualizzarla. Ciò che accomuna i differenti contributi sta nel teorizzare un’origine prettamente individuale dei meccanismi di comprensione, interpretazione, recupero delle informazioni, formulazione e verbalizzazione della risposta del soggetto rispondente; tali meccanismi sono atti cognitivi ‘individuali e psicologici’, chiaramente distinguibili da processi sociali esterni che non possono influenzarli, e messi in atto dal singolo attore impegnato nell’attività di rispondere a domande inserite in un questionario altamente strutturato (Levin e Resnick e Higgins 1993, 588). Di tutt’altra opinione sono gli studiosi della conversazione che si occupano dell’intervista standardizzata. L’analisi conversazionale ha radici nelle riflessioni etnometodologiche di Garfinkeld negli anni ’60. Le azioni degli attori non sono la manifestazione di strutture sociali fisse, bensì il risultato di azioni (anche linguistiche) e interazioni “socialmente conseguite” (Garfinkeld 1967). L’origine del significato che ne deriva “è sempre sociale. Il significato è costantemente negoziato e rinegoziato nelle interazioni sociali, per cui esso non può essere considerato un dato stabile e indipendente dai continui mutamenti che si danno nelle interazioni” (Coulon 1987, 12). Ne consegue che l’etnometodologia si occupa di studiare le pratiche attraverso le quali gli individui, immersi in un mondo di significati intersoggettivamente condivisi, rendono il proprio comportamento intelligibile agli altri, e danno significato al comportamento altrui. L’analisi conversazionale è una sorta di specificazione etnometodologica nel campo linguistico, in quanto disciplina che studia la costruzione dell’azione sociale “in e per mezzo dell’interazione linguistica” (Schegloff 1987). Il parlato conversazionale è "luogo primario della socializzazione, sia come una precondizione, e allo stesso tempo come un risultato, della vita sociale organizzata" (Schegloff 1992). Lo scopo centrale delle ricerche conversazionali è descrivere e spiegare le competenze che i parlanti comuni usano e a cui fanno riferimento quando partecipano a un'interazione socialmente organizzata; lo scopo profondo è identificare gli aspetti sistematicamente ordinati del parlato e di capire in che modo, cioè attraverso quali procedure, quest'ordine è raggiunto, apprezzato e usato dai parlanti nel corso dell'interazione. I primi lavori dell’analisi conversazionale si sono occupati della conversazione spontanea, la cosiddetta “conversazione spontanea non istituzionalizzata” (simmetrica, informale, non strutturata, paritaria) per isolare quelle risorse generali che due parlanti hanno a disposizione per dare vita a una conversazione piena di senso (Sacks et al. 1974). In un secondo momento, gli esperti hanno cominciato a indagare la conversazione in contesti istituzionali (asimmetrica, formalizzata, strutturata) in cui le risorse conversazionali non sono equi-distribuite tra i parlanti ma pre-allocate dal contesto istituzionale in cui gli stessi sono inseriti (i colloqui medico-paziente, l’interazione in classe, gli interrogatori in tribunale, le interviste giornalistiche, i colloqui di lavoro, ecc.). A prescindere dal contesto in cui l’intervista è inserita, gli studiosi della conversazione hanno tentato di comprendere se l’interazione che ne scaturisce è interamente modellata dai vincoli contestuali imposti, o se, e in che misura, le risorse della conversazione ordinaria giocano un ruolo più o meno decisivo nell’allentare le pressioni e le rigidità del contesto. Questo stesso spirito ha mosso molti studiosi di analisi conversazionale allo studio dell’intervista standardizzata, come un ambito interazionale in cui l’intervistatore e l’intervistato, pur entro i vincoli istituzionali imposti dalla standardizzazione, interagiscono facendo ricorso alle risorse e alle pratiche della conversazione ordinaria (Cicourel 1982; Clark and Schober 1992; Schaeffer 1991; Schwarz 1996; Suchman and Jordan 1990). Da ciò ne deriva la logica conseguenza che le convinzioni cognitiviste (le forme e i modi in cui l’intervistato risponde alle domande hanno un’origine individuale e psicologica) qui perdono la loro forza, perché emerge con chiarezza l’esistenza di un solido strato interazionale su cui l’intervistato e l’intervistatore possono contare per giungere alla reciproca comprensione dei rispettivi comportamenti linguistici. L’intervistato non è lasciato solo nella sfera della propria cognizione, impegnato a rispondere individualmente alle domande che una macchina gli somministra; l’intervistato è immerso in un’atmosfera interazionale dove un soggetto intervistatore gioca un ruolo cruciale per guidarlo nella sua attività di risposta. I significati nascono dall’interazione. E l’interazione che prende forma va ben oltre la semplice lettura di una domanda e la veloce produzione di una risposta (l’ideale sequenza paradigmatica comportamentista); nell’intervista le cosiddette “deviazioni”, cioè l’insieme di pratiche e contributi verbali dell’intervistatore e dell’intervistato che deviano rispetto alla sequenza paradigmatica, non solo sono augurabili ma sono all’ordine del giorno, cioè pratica quotidiana ‘del fare le interviste’. L’intervistatore legge le domande, tenta di diagnosticare problemi di comprensione di tutta o parte di essa, offre aiuto, negozia costantemente la chiarezza del significato veicolato dallo strumento, ecc.; insomma si pone come insostituibile mediatore tra le esigenze particolari dell’intervistato e quelle più generali del ricercatore. Tutto questo è l’evidenza empirica fatta emergere dall’analisi della conversazione: l’intervista standardizzata è fondamentalmente un’interazione in cui vige il principio della cooperazione, reso possibile da quello che Maynard e Marlaire (1992) hanno definito “substrato interazionale”, cioè la capacità dell’intervistatore e dell’intervistato di mantenere un costante coordinamento sociale e cognitivo per giungere a risposte dotate di senso e adeguate ai canoni semantici dettati dal ricercatore a monte. Dal confronto tra la conversazione ordinaria e l’intervista standardizzata emergeranno differenze e somiglianze, che mihanno aiutato a tracciare quella sottile linea che nell’intervista standardizzata separa, o avvicina, standardizzazione e conversazione. Due sono le tecniche di pretesting per mezzo delle quali è possibile tradurre operativamente i due piani teorici fin qui affrontati: il verbal interaction coding che fa riferimento al comportamentismo; l’analisi conversazionale che rimanda all’omonima prospettiva. L’analisi del processo d’intervista attraverso la codifica del comportamento dell’intervistatore e dell’intervistato si è sempre mossa su fondamenta teoriche comportamentiste, sia che avesse come obiettivo il monitoraggio dell’intervistatore, sia che fosse stata pensata in una strategia di controllo a posteriori, o progettazione ex ante e riduzione, degli effetti delle fonti di distorsione sulla qualità dei dati raccolti. Infatti la storia di questa tecnica è lunga e necessita di ordine per non confondere le diverse funzioni che può assolvere. Il verbal interaction coding ha visto le sue prime e numerose applicazioni come supporto all’attività di monitoraggio del ruolo dell’intervistatore, il quale sulla base di indicatori (di natura esclusivamente quantitativa) è valutato e giudicato da suoi superiori per le sue capacità di adempiere ai compiti assegnatigli. È opportuno sottolineare che questa è ancora tra le funzioni del verbal interaction coding più usate, specialmente nei grandi istituti di ricerca. La tecnica ha poi vissuto una costante evoluzione, che l’ha portata ad essere utilizzata per la valutazione ex post della qualità del dato. Infine la codifica del comportamento dell’intervistatore e dell’intervistato è stata applicata anche alla fase di pre-test del questionario strutturato per individuare le deficienze dello strumento e correggerlo prima della somministrazione. Mi sono occupato di ricostruire analiticamente quali usi la metodologia della ricerca sociale ha fatto del verbal interaction coding, e quali sono oggi quelli più diffusi. Quale che sia l’uso che il ricercatore intende farne, il ricorso al verbal interaction coding è giustificato solo se si accetta il criterio che ne è alla base, perché la tecnica è funzionale all’individuazione delle deviazioni/scostamenti dei comportamenti dell’intervistatore e dell’intervistato dai precetti (comportamentisti) imposti dal ricercatore alla situazione d’intervista e agli attori che in essa si muovono. Il tipo di intervista desiderabile e metodologicamente corretta è quella in cui l’intervistatore legge a tutti gli intervistati le stesse domande nella forma e nell’ordine in cui sono state progettate dal ricercatore; il rispondente si limita a fornire le informazioni richieste; in caso di necessità l’intervistatore deve eseguire probing non direttivi. Gli eventuali scostamenti, rilevati attraverso il verbal interaction coding, che tendono a ripetersi in corrispondenza di talune domande, sono indizi empirici del loro malfunzionamento, sia nel processo di operativizzazione della proprietà da rilevare sia nella formulazione della domanda. L’adesione acritica degli studiosi dell’interazione nell’intervista standardizzata agli ancoraggi teorici e metodologici comportamentisti ha avuto l’effetto di oscurare nuove possibili prospettive teoriche che potessero offrire strumenti concettuali e operativi innovativi. I primi studiosi che, rifiutando l’assunto di cui sopra, si sono posti l’interrogativo di cosa potesse esserci oltre il comportamentismo, si sono avvicinati all’analisi conversazionale, convinti che non esiste un corso ideale d’intervista, e che l’unica standardizzazione desiderabile è fondata sui significati e non sui comportamenti. Come già anticipato nella prima parte di questo lavoro, l’analisi conversazionale è la rete teorica che intendo opporre al comportamentismo e alla sua visione dell’intervista e dell’interazione che ne scaturisce. Il mio lavoro parte dall’assunto che l’interazione nell’intervista sia l’oggetto di studio adatto per costruire un’efficace strategia di pretesting del questionario strutturato. Credo però che non sia sufficiente rilevare i comportamenti verbali dell’intervistatore e dell’intervistato nell’intervista standardizzata per comprendere quali domande funzionano bene e quali no. Infatti, accettare questa tesi significherebbe sostenere l’idea che se l’intervistatore e l’intervistato si adeguano alle prescrizioni comportamentiste, allora questo è il segnale che la domanda è stata ben formulata e che non si sono verificate incomprensioni tra intervistatore e intervistato e che c’è stata una piena corrispondenza tra gli schemi concettuali del ricercatore e quelli dell’intervistato. Al contrario la mia ipotesi è che i meccanismi interpretativi e cognitivi dell’intervistato spesso si scontrano con i desiderata del ricercatore, anche quando l’interazione rispetta la sequenza paradigmatica, senza darne alcun segnale. In realtà la mancata osservabilità di tali meccanismi è dovuta totalmente al peso della standardizzazione che soffoca l’interazione e impedisce così che vengano alla luce e possano essere studiati e utilizzati a fini di pretesting. Il disegno della mia ricerca affianca, quindi, alla classica strategia di analisi dell’interazione dell’intervista standardizzata a fine di pretesting (che ricorre al verbal interaction coding e ai presupposti teorici comportamentisti) una strategia innovativa che analizza i contenuti dell’interazione dell’intervista flessibile (che si rifà all’analisi conversazionale), dove l’assenza dei vincoli della standardizzazione permette all’interazione, pur entro certi limiti, di far emergere i processi interpretativi dell’intervistato e i suoi tagli concettuali sulle domande del questionario. Il campione di 100 soggetti (differenziati per sesso, età e titolo di studio) è stato diviso in due parti: 50 sono stati intervistati da due intervistatori che sono stati istruiti ai principi della standardizzazione; 50 da altri due intervistatori formati alla conduzione dell’intervista flessibile. I quattro intervistatori selezionati avevano una comprovata esperienza nel campo delle interviste per le indagini sociali: due intervistatori sono stati formati e hanno ricevuto istruzioni nel seguire i classici principi della standardizzazione (i due intervistatori hanno dimostrato una pluriennale esperienza presso importanti istituti di ricerca nelle interviste face to face condotte in modo standardizzato); gli alti due intervistatori sono stati formati all'intervista flessibile (questi ultimi hanno avuto un sostanziosa esperienza nelle ricerche sociali e metodologiche condotte nell'ambito universitario). Ciascun intervistatore ha condotto 25 interviste. Il campione è costituto da 100 casi: 50 individui sono stati intervistati con l'intervista standardizzata, 50 con l'intervista flessibile. La formazione degli intervistatori è stata una fase cruciale dell'intero percorso di ricerca. Affinché i risultati dell'analisi dell'interazione, che sarà poi condotta sulle registrazioni delle interviste eseguite sulle due parti del campione, possano essere comparati è necessario un rigido monitoraggio della conduzione di intervista dei quattro intervistatori. Ho quindi stilato una dettagliata “guida all'intervista standardizzata” e una “guida all'intervista flessibile”. Nel somministrare le domande del questionario, l'intervistatore standardizzato ha perseguito l'ideale sequenza paradigmatica di matrice comportamentista. L'attività di formazione iniziale e il successivo monitoraggio, seppur impegnativi, hanno avuto un immediato e positivo riscontro nel lavoro prodotto dai due intervistatori standardizzati. Al contrario, di particolare interesse e difficoltà è stata la formazione dei due intervistatori flessibili, che, pur essendo abituati a una maggiore elasticità nel condurre le interviste (visto il loro background professionale), hanno avuto bisogno di numerosi incontri con il gruppo di ricerca, che ha messo in campo anche diverse occasioni di simulazione. Tutte le interviste, sia standard che non, sono state registrate, e l’interazione analizzata. La preparazione dello strumento con cui analizzare il materiale empirico raccolto si è rivelata complessa e onerosa; tale difficoltà deriva dalla necessità di progettare un solo strumento per l’analisi di un materiale empirico così diversificato: le interviste standardizzate e le interviste flessibili. La scheda di analisi delle interviste prevede la rilevazione dei comportamenti dell’intervistatore e dell’intervistato, e la formulazione di un giudizio di affidabilità della domanda al termine di ogni singolo processo domanda-risposta. Una domanda con alti giudizi di affidabilità è stata ben compresa dagli intervistati, che l’hanno interpretata in modo conforme alle aspettative del ricercatore; una domanda con bassi giudizi di affidabilità necessita di un’accurata riflessione sulla definizione operativa e sulla formulazione, perché le risposte degli intervistati hanno spesso celato incomprensioni sul senso profondo dell’intera domanda o parte di essa. Per far emergere i meccanismi cognitivi e i processi interpretativi dell’intervistato, l’intervistatore flessibile è stato formato affinché ottenesse per ciascuna risposta la relativa motivazione: il confronto tra la risposta e la motivazione data fa emergere eventuali incomprensioni o errate interpretazioni nel processo domanda-risposta. Al contrario, l’intervistatore standardizzato non è stato formato in tal senso; il suo compito è il perseguimento della standardizzazione del comportamento d’intervista, anche se è stato formato a non interrompere l’intervistato che volontariamente commenta la sua risposta. L’ipotesi è che l’intervista flessibile, vista l’ampia libertà per l’intervistatore di cogliere il senso profondo nella risposta dell’intervistato, faccia emergere e renda rilevabili i processi interpretativi dell’intervistato, a differenza dell’intervista standardizzata in cui spesso la ‘correttezza’ di tali meccanismi è data erroneamente per scontata, perché dedotta dalla linearità dei comportamenti dell’intervistatore e dell’intervistato. Dopo aver rilevato i comportamenti d’intervista e aver formulato il giudizio di affidabilità, la mia strategia di analisi comprende: l’analisi statistica dei comportamenti d’intervista nel campione delle interviste standardizzate; l’analisi dei giudizi di affidabilità nel campione delle interviste flessibili. La prima è la classica analisi dei dati raccolti con verbal interaction coding che mi permetterà di rilevare la frequenza con cui certi comportamenti dell'intervistatore e dell'intervistato si ripetono in corrispondenza di determinate domande. Se l’interazione tra i due scorre fluida, ne consegue che non ci sono stati problemi di incomprensione o errata interpretazione; la domanda è stata ben formulata e non necessita di essere riprogettata. Se, al contrario, l’interazione si fa dinamica e problematica, allora ne deriva che sono emersi problemi di incomprensione e/o di errata interpretazione. L’analisi dei giudizi di affidabilità si concentra su quelle domande che hanno ottenuto giudizi negativi: il confronto tra la risposta e la motivazione mi ha permesso di capire cosa non ha funzionato nella corretta interpretazione sul senso originario della domanda.

Il pretesting del questionario strutturato. l'analisi dell'interazione tra intervistatore e intervistato / Palmieri, Marco. - (2013 Nov 11).

Il pretesting del questionario strutturato. l'analisi dell'interazione tra intervistatore e intervistato

PALMIERI, MARCO
11/11/2013

Abstract

Nella lunga tradizione di riflessioni e ricerche sul tema della “qualità del dato”, mi sembra che due posizioni, tra loro antitetiche, prevalgano sulle altre: una di origine comportamentista secondo la quale la qualità del dato è definita come “assenza di distorsioni nel processo di misurazione” (Groves 1991); l’altra, che Mauceri (2003) ha chiamato “pragmatica”, vede nella qualità del dato “la soddisfazione delle condizioni logiche e metodologiche necessarie al conseguimento degli obiettivi cognitivi della ricerca”. La prima nasce nella psicometria ed è stata successivamente importata nella metodologia della ricerca sociale. Nell’ottocento si diffuse quello che von Hayek (1989) ha chiamato “atteggiamento scientista”, in base al quale le scienze sociali possono svilupparsi solo seguendo strettamente gli orientamenti e i procedimenti delle scienze fisiche. Tale atteggiamento è ancora oggi diffuso. Secondo questa visione, il compito della scienza, di tutte le discipline scientifiche, è individuare relazioni essenzialmente quantitative tra le proprietà indagate di un oggetto, dando per scontata una sostanziale equivalenza tra scienza e misurazione. Lundberg (1939) ha scritto che "se la misurazione dei fenomeni sociali è possibile, il cammino delle scienze sociali conduce sullo stesso difficile ma non insuperabile terreno sul quale la fisica e le altre scienze hanno progredito fino ai loro cospicui trionfi attuali". In un certo senso possiamo dire che la psicometria nasce come trasposizione nella psicologia degli obiettivi, dei metodi e delle tecniche di ricerca in uso nelle scienze fisiche. La progressiva svalutazione delle differenze tra le scienze fisiche e umane si è pian piano trasferita anche alle scienze sociali, che ha fatto propria l’ideologia scientista, dando vita alla cosiddetta “survey methodology”, un approccio fondato sulla teoria della misurazione e del true score . La survey methodology concepisce la qualità del dato come assenza di errori nel processo di misurazione. La definizione di Groves (1989) di “qualità del dato” è “l’assenza di distorsioni e di errori non campionari nel processo di misurazione”, che alterano lo stato reale del soggetto studiato; tale interpretazione concettualizza la qualità del dato in modo discreto e dicotomico (assenza/presenza di distorsioni). Precedentemente Kahn e Cannell (1968, 231) avevano definito la distorsione “un’intrusione di una qualsiasi influenza non programmata e non desiderata” sulla qualità (intesa in senso di integrità) dei dati raccolti. Secondo la prospettiva della survey methodology, per raggiungere tale obiettivo, l’integrità del dato, è opportuno definire e indagare tutte le possibili cause che alimentano l’errore, e che allontanano il valore misurato dal valore vero. Il prodotto di questo lavoro è un complesso di procedure e strumenti utili al ricercatore a prevenire e correggere l’azione distorsiva delle fonti dell’errore. Groves sostiene che tali accortezze hanno come risultato o il pieno raggiungimento della qualità o la sua inevitabile alterazione. Criticando l’atteggiamento scientista sopra descritto, altri studiosi rivendicano l’autonomia ontologica, epistemologica e metodologica delle scienze sociali. Rifiutando l’idea che esiste un solo modello di scienza a cui tutti devono tendere, e accusando i loro stessi colleghi di negare le proprie origini filosofiche perché attratti dalle scienze fisiche e dal loro modello di scienza, questi studiosi hanno dato vita a una visione che Mauceri (2003) ha definito “pragmatica”, cioè un approccio alla qualità del dato che si sottrae al “feticcio della misurazione scientista” (Marradi 1992) e che guarda alle effettive condizioni di ricerca e agli obiettivi cognitivi che la muovono. Tale approccio rifiuta il concetto di “dato reale”; il dato è sempre “costruito” dalle scelte del ricercatore. Secondo Mauceri (2003, 40) è sbagliato concettualizzare “la qualità del dato” in forma discreta e dicotomica. Se il ricercatore dovesse preoccuparsi di ogni possibile fattore di alterazione della qualità del dato da quanto programmato e desiderato, la sua azione risulterebbe inevitabilmente vana, vista l’impossibilità logica di controllarli tutti. È, quindi, necessario ridefinire il concetto di “errore”, e conseguentemente di “distorsione”. C’è distorsione, continua Mauceri (ivi, 41), quando “un dato non soddisfa le condizioni logiche e metodologiche, necessarie ai fini del conseguimento degli obiettivi cognitivi definiti da chi lo ha progettato. (…) In altri termini la distorsione allontana l’esito reale della rilevazione da quello ideale”. L’esito ideale corrisponde a un dato che ha carattere evidenziale rispetto agli obiettivi cognitivi della ricerca, perché in grado di costituire la base empirica necessaria a sottoporre a controllo le ipotesi di lavoro. Per questo il concetto di qualità non può essere dicotomizzato, bensì concettualizzato lungo un continuum che va dal minimo al massimo grado di evidenzialità. Uno dei compiti del ricercatore è prendere in considerazione le migliori strategie di progettazione ex-ante della qualità del dato. Progettare la qualità significa individuare in anticipo le possibili fonti di distorsione, e pianificare le procedure adeguate che riducano al minimo l’impatto del bias sui dati raccolti. Il dato progettato in un’ottica di tutela della qualità non corrisponderà mai al dato successivamente raccolto. Sarebbe utopico sostenere le posizioni di Kahn e Cannell sul controllo totale dei fattori che alterano gli attributi di qualità del dato. Pur consapevole di tali limiti, il ricercatore ha il dovere di progettare la migliore strategia procedurale per garantire che il dato raccolto abbia un notevole carattere evidenziale rispetto alle ipotesi di partenza. Il pretesting è la fase della ricerca deputata allo svolgimento di questa attività. Nel pretesting, infatti, sono implementate quelle procedure e strumenti di ricerca che “tengono sotto controllo le condizioni necessarie per giungere a un dato di qualità, prima di avviare la rilevazione” (Mauceri ivi, 164). Il pretesting si pone una serie di obiettivi conoscitivi finalizzati al miglioramento dello strumento che poi sarà somministrato. Sul piano diagnostico, l’obiettivo del pretesting è rendere il più chiaro e visibile possibile il “passaggio dalla domanda così come formulata dal ricercatore alla domanda così come interpretata dall’intervistato, e dalla risposta così come formulata dall’intervistato alla risposta così come interpretata e registrata sul questionario” (Mauceri ivi, 167). Questo ricostruzione permette al ricercatore di cogliere i processi interpretativi dell’intervistato e controllare se esiste congruenza semantica tra i suoi schemi concettuali, operativizzati nelle domande del questionario, e quelli dell’intervistato. Qualora tale corrispondenza non emerga, il questionario deve essere riprogettato e le domande riformulate. Tutto questo porterebbe alla luce problemi di validità e attendibilità che altrimenti rimarrebbero sconosciuti al ricercatore, alterando incontrollatamente la qualità dei dati raccolti nella rilevazione. Una parte consistente della letteratura metodologica è del parere che l’interazione tra intervistatore e intervistato nell’intervista standardizzata sia un proficuo oggetto di studio per chi si pone nell’ottica di progettare ex ante la qualità del dato. Cannel, Fowler e Mangione (1968) sono stati i primi studiosi a scorgerne l’enorme potenziale. Tralasciando colpevolmente le dinamiche dell’interazione personale tra intervistatore e intervistato, fino agli anni ’70 l’attenzione dei metodologi studiosi del cosiddetto “effetto intervistatore” era focalizzata esclusivamente sul monitoraggio dell’attività dell’intervistatore (la sua capacità di performance rispetto ai compiti assegnatigli) e sugli effetti dei suoi errori. Al fine di individuare quali fossero gli intervistatori peggiori che con il loro ‘cattivo’ comportamento incidevano negativamente sulla qualità delle risposte, la figura dell’intervistato e l’intero processo domanda-risposta sono stati colpevolmente trascurati. Negli ultimi trent’anni gli studi sulla qualità del dato hanno gradualmente spostato l’attenzione dallo studio della figura dell’intervistatore allo studio dell’interazione nell’intervista. La comunità dei metodologi ha preso consapevolezza che il monitoraggio del comportamento dell’intervistatore non ha senso se non include la figura dell’intervistato. L’intervistatore non lavora in una campana di vetro, isolato da chiunque, e la sua capacità di applicare le tecniche della standardizzazione non è indipendente dal soggetto intervistato. Così agli inizi degli anni ’80 la ricerca metodologica si è pian piano avvicinata all’analisi dell’interazione, fino al punto da considerarla oggetto di studio privilegiato per indagare i fattori che incidono sulla qualità del dato. L’analisi dell’interazione non solo ha permesso di valutare meglio l’attività dell’intervistatore, raffinando i modelli concettuali con cui il monitoraggio è progettato e implementato (che finalmente includono anche il ruolo dell’intervistato), ma soprattutto ha consegnato una nuova prospettiva teorica alle strategie di progettazione ex ante della qualità del dato. Le due prospettive teoriche/epistemologiche che nel corso degli anni si sono contrapposte per dettare i principi guida dell’analisi dell’interazione nello studio dell’intervista standardizzata sono state il comportamentismo e l’analisi della conversazione. Nato alle fine del 1800 nelle scienze psicologiche con l’esigenza di superare i limiti del metodo introspettivo wundtiano, l’obiettivo del comportamentismo è stato il perseguimento dell’obiettività della conoscenza attraverso l’oggettività del metodo (Mackenzie 1980). Il metodo introspettivo ideato da Wundt era ormai considerato obsoleto e non più affidabile, per via di un suo grosso limite: non garantiva la replicabilità dei risultati ottenuti in laboratori differenti. A questo proposito Watson, il padre del comportamentismo, autore di La psicologia come la vede il comportamentismo, adottò una soluzione radicale al problema del dualismo anima/corpo: il rifiuto, a priori, degli eventi mentali, perché non osservabili e quindi non indagabili. Watson, sulla scia dei successi delle scienze fisiche e naturali contemporanee, rifiutò l’introspezione, bocciandola come non affidabile e sostenendo un approccio anti-mentalista. L’antimentalismo comportamentista si oppose alla distinzione wundtiana tra “esperienza immediata” ed “esperienze mediata” – distinzione fatta da Wundt per separare le scienze fisiche dalle scienze umane. Venivano così a cadere le reciproche differenze ontologiche ed epistemologiche: gli stessi metodi logici, le stesse tecniche di osservazione, gli stessi standard di evidenza e validità venivano trasferiti dalle scienze fisiche alle scienze sociali. L’oggetto di studio diventava lo stesso della fisica: i corpi in movimento. Watson scriveva: “il comportamentismo è una vera e propria scienza naturale” (Bergmann 1967, 5), che, per ottenere il radicale oggettivismo conoscitivo, non dà altra scelta allo scienziato che l’applicazione di rigidi standard metodologici. Il contributo maggiore che il movimento comportamentista ha lasciato alla ricerca sociale è stato il tentativo di perseguire la “comparabilità delle risposte” tramite l’invarianza degli stimoli somministrati (Fideli e Marradi 1996, 74). Per conseguire il risultato della comparabilità delle risposte è necessario che tutti gli intervistati siano esposti allo stesso stimolo, così che lo scienziato abbia la piena certezza che le risposte ottenute da intervistati differenti siano state reazioni causate da uno stimolo equivalente. Ma questo obiettivo è perseguibile solo attraverso una precisa individuazione e un rigido controllo di tutti quegli elementi che alimentano l’errore dell’esito della misurazione (usando la terminologia comportamentista). Tale errore renderebbe vana la comparabilità delle risposte ottenute da intervistati differenti, perché non si avrebbe più la certezza che le loro reazioni siano state tutte la y della stessa x. I comportamentisti hanno individuato le possibili fonti dell’errore non campionario, cioè quei fattori causa di errore dell’atto della misurazione, che non sono riconducibili alla teoria dei campioni e alle procedure della statistica inferenziale, ma che, se sistematici, possono dilatare incontrollatamente la distanza tra il dato raccolto e quello reale. Tra questi ricordo lo strumento (il questionario strutturato) e l’intervistatore; maggiore è l’entità dell’errore, minore è la possibilità di comparare i dati raccolti su soggetti differenti. Al fine di limitare il più possibile l’impatto delle fonti di errore sulla qualità del dato finale, i comportamentisti hanno studiato i modi e le forme, a loro parere, più efficaci, che sono state poi integrate nel concetto di “standardizzazione”: un insieme di principi generali e tecniche operative utili a tenere sotto controllo l’azione delle numerose fonti di errore nella ricerca sociale. Tra le fonti di errore che hanno maggiormente occupato il tempo e le energie dei comportamentisti c’è “l’intervistatore”. Al riguardo è interessante chiarire la visione comportamentista del concetto di “situazione d’intervista”. Nella teoria behaviorista, la situazione d’intervista – come ogni altro evento comunicativo – è ridotta a un modello meccanico stimolo-risposta: tutta l’attenzione è rivolta allo stimolo somministrato, mentre la risposta è solo un riflesso, una reazione (Gobo 1997, 15). Questa concettualizzazione ipersemplificata ha portato a una marginalizzazione – sul piano della riflessione metodologica – dell’intervista, a vantaggio della progettazione del questionario. Relegando l’intervistatore al ruolo di puro somministratore di uno stimolo, peraltro rigidamente controllato da una serie di vincoli che ne limitano l’azione, i ricercatori comportamentisti si sono dedicati unicamente alla ricerca e allo sviluppo di uno strumento di rilevazione che garantisse loro la standardizzazione dello stimolo somministrato, il questionario strutturato (Mauceri 2003, 81). Nella concezione comportamentista l’intervistatore ha il compito di “applicare senza alcun margine di autonomia lo strumento al materiale umano… che reperirà seguendo le istruzioni. L’intervistatore non deve fare altro che somministrare il questionario strutturato, avendo l’obbligo di non introdurre alcun elemento di variabilità nell’intervista, che, non essendo stato previsto a monte, rischia di compromettere la standardizzazione degli stimoli somministrati” (Pitrone 1983/ 2002, 107). L’intervistatore è un mero esecutore, quasi un automa, che non deve prendere iniziative (Marradi 1980, 65); un soggetto passivo che, rispettando le istruzioni impartite dal ricercatore, mantiene una costante distanza psicologica e fisica dall’intervistato (Mauceri 2003, 81). Secondo le prescrizioni comportamentiste, l’intervistatore deve seguire fedelmente il testo del questionario, leggendo le domande così come sono scritte e rispettandone rigidamente l’ordine. Non è possibile introdurre commenti o indicazioni di altro tipo fra una domanda e l’altra – eccetto le informazioni previste. L’intervistatore deve leggere la domanda senza flessioni di tono, ma come se stesse parlando. Se l’intervistato evita di rispondere, rivolgendosi all’intervistatore con espressioni “ma lei come la pensa al riguardo?”, l’intervistatore deve subito richiamare la differenza dei ruoli fra lui, che fa le domande, e l’intervistato, che risponde. Se l’intervistato dichiara di non aver compreso la domanda, l’intervistatore deve ripeterla così com’è scritta, senza aggiungere commenti o informazioni non previsti. Se il rispondente continua con le sue richieste di chiarimento, l’intervistatore deve passare alla domanda successiva (Guidicini 1968). Le ripercussioni di queste prescrizioni sono evidenti sull’impostazione dello studio dell’interazione nell’intervista standardizzata. In sintesi: tutti gli intervistati devono essere esposti allo stesso stimolo; lo stimolo deve essere altamente strutturato (la ricerca sociale deve limitarsi all’uso del questionario strutturato, tralasciando altri strumenti di indagine); l’intervistatore deve limitarsi a somministrare lo strumento così come progettato, senza immettere alcuna forma di deviazione rispetto al lavoro del ricercatore; ogni deviazione occorsa durante la fase di somministrazione del questionario è una potenziale fonte di errore non campionario che può invalidare la possibilità di comparabilità delle risposte dei differenti intervistati. Per impedire variazioni impreviste e non volute dal ricercatore, il comportamento dell’intervistatore e dell’intervistato è altamente vincolato al rispetto di certe norme che rientrano nei principi della standardizzazione. Sul piano dell’interazione le ripercussioni del modello stimolo-risposta sono notevoli: l’unica forma di sequenza domanda-risposta accettabile è quella in cui l’intervistatore deve leggere tutte le domande nell’ordine e nella forma prevista nel questionario strutturato; una volta letta la domanda nella forma così come prevista, l’intervistato deve rispondere scegliendo una delle modalità già formulate; registrata la risposta, senza immettere alcun criterio di interpretazione personale, l’intervistatore deve passare alla domanda successiva; nel caso in cui l’intervistato mostrasse segni di incomprensione di tutta o parte della domanda, l’intervistatore deve limitarsi a rileggere la domanda nella forma prevista. Salta subito all’occhio che analizzare l’interazione tra intervistatore e intervistato a partire dalla matrice comportamentista significa negare la natura intrinsecamente relazionale dell’intervista (anche di quella standardizzata), all’interno della quale si attivano processi cognitivi e interazionali complessi. La concettualizzazione della sequenza domanda-risposta secondo la visione comportamentista è stata etichettata da Schaeffer e Maynard (1996) “sequenza paradigmatica”: gli atti linguistici utilizzati dai due attori sono quelli intesi dal ricercatore che costruisce il questionario; il processo comunicativo è il più efficiente possibile solo se è veloce e senza deviazioni rispetto a quanto previsto nello strumento e dai vincoli della standardizzazione. Qualsiasi deviazione del comportamento dell’intervistatore e dell’intervistato rispetto alla sequenza paradigmatica è una traccia empirica di un problema latente. I contributi empirici allo studio dell’intervista standardizzata, che negano i principi comportamentisti più radicali e che sono interessati allo studio del carattere relazionale dell’intervista, hanno portato alla luce le teorie formulate nell’ambito della psicologia cognitiva e dell’analisi della conversazione. In questa ricerca farò riferimento ai preziosi contributi degli studiosi della conversazione e lascerò da parte i pur interessantissimi studi cognitivisti perché poco adatti ai miei obiettivi. Mi spiego. Chi studia l’intervista standardizzata attraverso un approccio cognitivista è interessato a ricostruire i meccanismi cognitivi di un soggetto intervistato impegnato nell’attività di risposta. Tale attività richiede diversi steps cognitivi: interpretazione e significazione della domanda; recupero delle informazioni rilevanti dalla memoria; formazione di un giudizio a partire dalle informazioni recuperate; verbalizzazione e formattazione della risposta (Tourangeau et al. 2000). Questa è solo una possibile ricostruzione dei meccanismi cognitivi che un individuo avvia nel momento in cui è impegnato in un’attività a lui così poco usuale, come quella di rispondere a un questionario. Molti altri studiosi (Sander et al. 1992) si sono cimentati nell’impresa di concettualizzarla. Ciò che accomuna i differenti contributi sta nel teorizzare un’origine prettamente individuale dei meccanismi di comprensione, interpretazione, recupero delle informazioni, formulazione e verbalizzazione della risposta del soggetto rispondente; tali meccanismi sono atti cognitivi ‘individuali e psicologici’, chiaramente distinguibili da processi sociali esterni che non possono influenzarli, e messi in atto dal singolo attore impegnato nell’attività di rispondere a domande inserite in un questionario altamente strutturato (Levin e Resnick e Higgins 1993, 588). Di tutt’altra opinione sono gli studiosi della conversazione che si occupano dell’intervista standardizzata. L’analisi conversazionale ha radici nelle riflessioni etnometodologiche di Garfinkeld negli anni ’60. Le azioni degli attori non sono la manifestazione di strutture sociali fisse, bensì il risultato di azioni (anche linguistiche) e interazioni “socialmente conseguite” (Garfinkeld 1967). L’origine del significato che ne deriva “è sempre sociale. Il significato è costantemente negoziato e rinegoziato nelle interazioni sociali, per cui esso non può essere considerato un dato stabile e indipendente dai continui mutamenti che si danno nelle interazioni” (Coulon 1987, 12). Ne consegue che l’etnometodologia si occupa di studiare le pratiche attraverso le quali gli individui, immersi in un mondo di significati intersoggettivamente condivisi, rendono il proprio comportamento intelligibile agli altri, e danno significato al comportamento altrui. L’analisi conversazionale è una sorta di specificazione etnometodologica nel campo linguistico, in quanto disciplina che studia la costruzione dell’azione sociale “in e per mezzo dell’interazione linguistica” (Schegloff 1987). Il parlato conversazionale è "luogo primario della socializzazione, sia come una precondizione, e allo stesso tempo come un risultato, della vita sociale organizzata" (Schegloff 1992). Lo scopo centrale delle ricerche conversazionali è descrivere e spiegare le competenze che i parlanti comuni usano e a cui fanno riferimento quando partecipano a un'interazione socialmente organizzata; lo scopo profondo è identificare gli aspetti sistematicamente ordinati del parlato e di capire in che modo, cioè attraverso quali procedure, quest'ordine è raggiunto, apprezzato e usato dai parlanti nel corso dell'interazione. I primi lavori dell’analisi conversazionale si sono occupati della conversazione spontanea, la cosiddetta “conversazione spontanea non istituzionalizzata” (simmetrica, informale, non strutturata, paritaria) per isolare quelle risorse generali che due parlanti hanno a disposizione per dare vita a una conversazione piena di senso (Sacks et al. 1974). In un secondo momento, gli esperti hanno cominciato a indagare la conversazione in contesti istituzionali (asimmetrica, formalizzata, strutturata) in cui le risorse conversazionali non sono equi-distribuite tra i parlanti ma pre-allocate dal contesto istituzionale in cui gli stessi sono inseriti (i colloqui medico-paziente, l’interazione in classe, gli interrogatori in tribunale, le interviste giornalistiche, i colloqui di lavoro, ecc.). A prescindere dal contesto in cui l’intervista è inserita, gli studiosi della conversazione hanno tentato di comprendere se l’interazione che ne scaturisce è interamente modellata dai vincoli contestuali imposti, o se, e in che misura, le risorse della conversazione ordinaria giocano un ruolo più o meno decisivo nell’allentare le pressioni e le rigidità del contesto. Questo stesso spirito ha mosso molti studiosi di analisi conversazionale allo studio dell’intervista standardizzata, come un ambito interazionale in cui l’intervistatore e l’intervistato, pur entro i vincoli istituzionali imposti dalla standardizzazione, interagiscono facendo ricorso alle risorse e alle pratiche della conversazione ordinaria (Cicourel 1982; Clark and Schober 1992; Schaeffer 1991; Schwarz 1996; Suchman and Jordan 1990). Da ciò ne deriva la logica conseguenza che le convinzioni cognitiviste (le forme e i modi in cui l’intervistato risponde alle domande hanno un’origine individuale e psicologica) qui perdono la loro forza, perché emerge con chiarezza l’esistenza di un solido strato interazionale su cui l’intervistato e l’intervistatore possono contare per giungere alla reciproca comprensione dei rispettivi comportamenti linguistici. L’intervistato non è lasciato solo nella sfera della propria cognizione, impegnato a rispondere individualmente alle domande che una macchina gli somministra; l’intervistato è immerso in un’atmosfera interazionale dove un soggetto intervistatore gioca un ruolo cruciale per guidarlo nella sua attività di risposta. I significati nascono dall’interazione. E l’interazione che prende forma va ben oltre la semplice lettura di una domanda e la veloce produzione di una risposta (l’ideale sequenza paradigmatica comportamentista); nell’intervista le cosiddette “deviazioni”, cioè l’insieme di pratiche e contributi verbali dell’intervistatore e dell’intervistato che deviano rispetto alla sequenza paradigmatica, non solo sono augurabili ma sono all’ordine del giorno, cioè pratica quotidiana ‘del fare le interviste’. L’intervistatore legge le domande, tenta di diagnosticare problemi di comprensione di tutta o parte di essa, offre aiuto, negozia costantemente la chiarezza del significato veicolato dallo strumento, ecc.; insomma si pone come insostituibile mediatore tra le esigenze particolari dell’intervistato e quelle più generali del ricercatore. Tutto questo è l’evidenza empirica fatta emergere dall’analisi della conversazione: l’intervista standardizzata è fondamentalmente un’interazione in cui vige il principio della cooperazione, reso possibile da quello che Maynard e Marlaire (1992) hanno definito “substrato interazionale”, cioè la capacità dell’intervistatore e dell’intervistato di mantenere un costante coordinamento sociale e cognitivo per giungere a risposte dotate di senso e adeguate ai canoni semantici dettati dal ricercatore a monte. Dal confronto tra la conversazione ordinaria e l’intervista standardizzata emergeranno differenze e somiglianze, che mihanno aiutato a tracciare quella sottile linea che nell’intervista standardizzata separa, o avvicina, standardizzazione e conversazione. Due sono le tecniche di pretesting per mezzo delle quali è possibile tradurre operativamente i due piani teorici fin qui affrontati: il verbal interaction coding che fa riferimento al comportamentismo; l’analisi conversazionale che rimanda all’omonima prospettiva. L’analisi del processo d’intervista attraverso la codifica del comportamento dell’intervistatore e dell’intervistato si è sempre mossa su fondamenta teoriche comportamentiste, sia che avesse come obiettivo il monitoraggio dell’intervistatore, sia che fosse stata pensata in una strategia di controllo a posteriori, o progettazione ex ante e riduzione, degli effetti delle fonti di distorsione sulla qualità dei dati raccolti. Infatti la storia di questa tecnica è lunga e necessita di ordine per non confondere le diverse funzioni che può assolvere. Il verbal interaction coding ha visto le sue prime e numerose applicazioni come supporto all’attività di monitoraggio del ruolo dell’intervistatore, il quale sulla base di indicatori (di natura esclusivamente quantitativa) è valutato e giudicato da suoi superiori per le sue capacità di adempiere ai compiti assegnatigli. È opportuno sottolineare che questa è ancora tra le funzioni del verbal interaction coding più usate, specialmente nei grandi istituti di ricerca. La tecnica ha poi vissuto una costante evoluzione, che l’ha portata ad essere utilizzata per la valutazione ex post della qualità del dato. Infine la codifica del comportamento dell’intervistatore e dell’intervistato è stata applicata anche alla fase di pre-test del questionario strutturato per individuare le deficienze dello strumento e correggerlo prima della somministrazione. Mi sono occupato di ricostruire analiticamente quali usi la metodologia della ricerca sociale ha fatto del verbal interaction coding, e quali sono oggi quelli più diffusi. Quale che sia l’uso che il ricercatore intende farne, il ricorso al verbal interaction coding è giustificato solo se si accetta il criterio che ne è alla base, perché la tecnica è funzionale all’individuazione delle deviazioni/scostamenti dei comportamenti dell’intervistatore e dell’intervistato dai precetti (comportamentisti) imposti dal ricercatore alla situazione d’intervista e agli attori che in essa si muovono. Il tipo di intervista desiderabile e metodologicamente corretta è quella in cui l’intervistatore legge a tutti gli intervistati le stesse domande nella forma e nell’ordine in cui sono state progettate dal ricercatore; il rispondente si limita a fornire le informazioni richieste; in caso di necessità l’intervistatore deve eseguire probing non direttivi. Gli eventuali scostamenti, rilevati attraverso il verbal interaction coding, che tendono a ripetersi in corrispondenza di talune domande, sono indizi empirici del loro malfunzionamento, sia nel processo di operativizzazione della proprietà da rilevare sia nella formulazione della domanda. L’adesione acritica degli studiosi dell’interazione nell’intervista standardizzata agli ancoraggi teorici e metodologici comportamentisti ha avuto l’effetto di oscurare nuove possibili prospettive teoriche che potessero offrire strumenti concettuali e operativi innovativi. I primi studiosi che, rifiutando l’assunto di cui sopra, si sono posti l’interrogativo di cosa potesse esserci oltre il comportamentismo, si sono avvicinati all’analisi conversazionale, convinti che non esiste un corso ideale d’intervista, e che l’unica standardizzazione desiderabile è fondata sui significati e non sui comportamenti. Come già anticipato nella prima parte di questo lavoro, l’analisi conversazionale è la rete teorica che intendo opporre al comportamentismo e alla sua visione dell’intervista e dell’interazione che ne scaturisce. Il mio lavoro parte dall’assunto che l’interazione nell’intervista sia l’oggetto di studio adatto per costruire un’efficace strategia di pretesting del questionario strutturato. Credo però che non sia sufficiente rilevare i comportamenti verbali dell’intervistatore e dell’intervistato nell’intervista standardizzata per comprendere quali domande funzionano bene e quali no. Infatti, accettare questa tesi significherebbe sostenere l’idea che se l’intervistatore e l’intervistato si adeguano alle prescrizioni comportamentiste, allora questo è il segnale che la domanda è stata ben formulata e che non si sono verificate incomprensioni tra intervistatore e intervistato e che c’è stata una piena corrispondenza tra gli schemi concettuali del ricercatore e quelli dell’intervistato. Al contrario la mia ipotesi è che i meccanismi interpretativi e cognitivi dell’intervistato spesso si scontrano con i desiderata del ricercatore, anche quando l’interazione rispetta la sequenza paradigmatica, senza darne alcun segnale. In realtà la mancata osservabilità di tali meccanismi è dovuta totalmente al peso della standardizzazione che soffoca l’interazione e impedisce così che vengano alla luce e possano essere studiati e utilizzati a fini di pretesting. Il disegno della mia ricerca affianca, quindi, alla classica strategia di analisi dell’interazione dell’intervista standardizzata a fine di pretesting (che ricorre al verbal interaction coding e ai presupposti teorici comportamentisti) una strategia innovativa che analizza i contenuti dell’interazione dell’intervista flessibile (che si rifà all’analisi conversazionale), dove l’assenza dei vincoli della standardizzazione permette all’interazione, pur entro certi limiti, di far emergere i processi interpretativi dell’intervistato e i suoi tagli concettuali sulle domande del questionario. Il campione di 100 soggetti (differenziati per sesso, età e titolo di studio) è stato diviso in due parti: 50 sono stati intervistati da due intervistatori che sono stati istruiti ai principi della standardizzazione; 50 da altri due intervistatori formati alla conduzione dell’intervista flessibile. I quattro intervistatori selezionati avevano una comprovata esperienza nel campo delle interviste per le indagini sociali: due intervistatori sono stati formati e hanno ricevuto istruzioni nel seguire i classici principi della standardizzazione (i due intervistatori hanno dimostrato una pluriennale esperienza presso importanti istituti di ricerca nelle interviste face to face condotte in modo standardizzato); gli alti due intervistatori sono stati formati all'intervista flessibile (questi ultimi hanno avuto un sostanziosa esperienza nelle ricerche sociali e metodologiche condotte nell'ambito universitario). Ciascun intervistatore ha condotto 25 interviste. Il campione è costituto da 100 casi: 50 individui sono stati intervistati con l'intervista standardizzata, 50 con l'intervista flessibile. La formazione degli intervistatori è stata una fase cruciale dell'intero percorso di ricerca. Affinché i risultati dell'analisi dell'interazione, che sarà poi condotta sulle registrazioni delle interviste eseguite sulle due parti del campione, possano essere comparati è necessario un rigido monitoraggio della conduzione di intervista dei quattro intervistatori. Ho quindi stilato una dettagliata “guida all'intervista standardizzata” e una “guida all'intervista flessibile”. Nel somministrare le domande del questionario, l'intervistatore standardizzato ha perseguito l'ideale sequenza paradigmatica di matrice comportamentista. L'attività di formazione iniziale e il successivo monitoraggio, seppur impegnativi, hanno avuto un immediato e positivo riscontro nel lavoro prodotto dai due intervistatori standardizzati. Al contrario, di particolare interesse e difficoltà è stata la formazione dei due intervistatori flessibili, che, pur essendo abituati a una maggiore elasticità nel condurre le interviste (visto il loro background professionale), hanno avuto bisogno di numerosi incontri con il gruppo di ricerca, che ha messo in campo anche diverse occasioni di simulazione. Tutte le interviste, sia standard che non, sono state registrate, e l’interazione analizzata. La preparazione dello strumento con cui analizzare il materiale empirico raccolto si è rivelata complessa e onerosa; tale difficoltà deriva dalla necessità di progettare un solo strumento per l’analisi di un materiale empirico così diversificato: le interviste standardizzate e le interviste flessibili. La scheda di analisi delle interviste prevede la rilevazione dei comportamenti dell’intervistatore e dell’intervistato, e la formulazione di un giudizio di affidabilità della domanda al termine di ogni singolo processo domanda-risposta. Una domanda con alti giudizi di affidabilità è stata ben compresa dagli intervistati, che l’hanno interpretata in modo conforme alle aspettative del ricercatore; una domanda con bassi giudizi di affidabilità necessita di un’accurata riflessione sulla definizione operativa e sulla formulazione, perché le risposte degli intervistati hanno spesso celato incomprensioni sul senso profondo dell’intera domanda o parte di essa. Per far emergere i meccanismi cognitivi e i processi interpretativi dell’intervistato, l’intervistatore flessibile è stato formato affinché ottenesse per ciascuna risposta la relativa motivazione: il confronto tra la risposta e la motivazione data fa emergere eventuali incomprensioni o errate interpretazioni nel processo domanda-risposta. Al contrario, l’intervistatore standardizzato non è stato formato in tal senso; il suo compito è il perseguimento della standardizzazione del comportamento d’intervista, anche se è stato formato a non interrompere l’intervistato che volontariamente commenta la sua risposta. L’ipotesi è che l’intervista flessibile, vista l’ampia libertà per l’intervistatore di cogliere il senso profondo nella risposta dell’intervistato, faccia emergere e renda rilevabili i processi interpretativi dell’intervistato, a differenza dell’intervista standardizzata in cui spesso la ‘correttezza’ di tali meccanismi è data erroneamente per scontata, perché dedotta dalla linearità dei comportamenti dell’intervistatore e dell’intervistato. Dopo aver rilevato i comportamenti d’intervista e aver formulato il giudizio di affidabilità, la mia strategia di analisi comprende: l’analisi statistica dei comportamenti d’intervista nel campione delle interviste standardizzate; l’analisi dei giudizi di affidabilità nel campione delle interviste flessibili. La prima è la classica analisi dei dati raccolti con verbal interaction coding che mi permetterà di rilevare la frequenza con cui certi comportamenti dell'intervistatore e dell'intervistato si ripetono in corrispondenza di determinate domande. Se l’interazione tra i due scorre fluida, ne consegue che non ci sono stati problemi di incomprensione o errata interpretazione; la domanda è stata ben formulata e non necessita di essere riprogettata. Se, al contrario, l’interazione si fa dinamica e problematica, allora ne deriva che sono emersi problemi di incomprensione e/o di errata interpretazione. L’analisi dei giudizi di affidabilità si concentra su quelle domande che hanno ottenuto giudizi negativi: il confronto tra la risposta e la motivazione mi ha permesso di capire cosa non ha funzionato nella corretta interpretazione sul senso originario della domanda.
11-nov-2013
File allegati a questo prodotto
File Dimensione Formato  
Tesi_MarcoPalmieri.pdf

accesso aperto

Note: tesi_documento finale
Tipologia: Tesi di dottorato
Licenza: Creative commons
Dimensione 2.57 MB
Formato Adobe PDF
2.57 MB Adobe PDF

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11573/918277
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact