causalita
causalità Studio della relazione tra causa ed effetto. Tale relazione può riguardare eventi, azioni, processi, fenomeni, variabili o loro proprietà. Lo studio delle relazioni di c. si è sviluppato in millenni di storia del pensiero filosofico e resta ancora oggi un argomento centrale. In economia, la misurazione di un particolare effetto causale è spesso uno degli obiettivi dell’analisi empirica.
Il modo più semplice di misurare un effetto causale è quello di utilizzare dati ottenuti attraverso un esperimento controllato casualizzato. Un esperimento si dice controllato se, all’interno del campione o della popolazione oggetto dell’esperimento, è possibile individuare un gruppo che è sottoposto al trattamento (la ‘causa’) e un gruppo che invece non lo è (gruppo di controllo). Si dice casualizzato se il trattamento è attribuito in maniera casuale; questo garantisce che non ci siano altre cause che abbiano influito sull’attribuzione del trattamento stesso, le quali potrebbero rendere inaffidabile la misurazione dell’effetto. In pratica, in economia, gli esperimenti controllati casualizzati sono rari, sia per problemi etici sia perché i loro costi sono spesso elevati. Tuttavia, il concetto ideale di esperimento controllato casualizzato è utile perché aiuta a definire quello di effetto causale.
Quando non è possibile condurre un esperimento controllato casualizzato, ci si deve necessariamente affidare all’osservazione di dati non sperimentali, ossia dati provenienti dal mondo reale, come è il caso di indagini campionarie, registri amministrativi e anagrafici, indagini telefoniche sui consumatori eccetera. Il problema intrinseco di questi dati è che non provengono da un esperimento specificamente disegnato allo scopo. Di conseguenza, possono essere presenti fattori variabili il cui effetto è difficilmente separabile dall’effetto del trattamento.
L’insieme delle tecniche statistiche sviluppate per la misurazione di effetti causali da dati non sperimentali costituisce un campo molto importante dell’econometria. La regina incontrastata di tali tecniche è l’analisi di regressione, che attribuisce una forma funzionale alla relazione tra la ‘causa’ (o le ‘cause’) e l’’effetto’. Nel caso più semplice, tale relazione è una funzione lineare, cioè: Y=β0+β1 X1+... +βk Xk+U, dove ciascuna delle variabili Xi i=1,..., k, rappresenta una delle possibili ‘cause’, i coefficienti βi servono a misurare quantitativamente l’effetto ‘causale’ sulla variabile Y, mentre il termine U rappresenta l’effetto complessivo di tutte quelle variabili che non sono state incluse nel modello. Tale termine è trattato come un effetto spurio e, per un’interpretazione causale della regressione, si richiede che sia indipendente in media dalle variabili Xi. La semplice incorrelazione tra U e i regressori non è sufficiente. Dato un campione di n osservazioni per ciascuna delle k+1 variabili misurabili del modello (Y, X1,...,Xk), si possono ottenere le stime dei coefficienti del modello di regressione lineare tramite il metodo dei minimi quadrati. Se un coefficiente βi è diverso da 0, la corrispondente variabile Xi ha un effetto ‘causale’ non nullo su Y. Tuttavia, poiché il modello contiene altre variabili, compreso il termine di errore U, un cambiamento della Xi non è né necessario né sufficiente a determinare un cambiamento nella Y. L’effetto misurato da β è infatti spesso indicato, in econometria, come un effetto ceteris paribus («a parità di tutte le altre circostanze»); in altre parole, il coefficiente βi misura l’effetto sulla media condizionata di Y, dovuto al solo cambiamento di Xi, fermi restando i valori delle altre variabili. È importante sottolineare che, se l’errore di regressione è semplicemente incorrelato con i regressori (e non invece indipendente in media), allora un valore βi diverso da zero non è necessariamente garanzia dell’esistenza di una relazione ‘di causalità’ tra Xi e Y (un certo valore di Xi ‘causa’ un certo valore di Y), ma implica soltanto l’esistenza di un’associazione statistica tra le variabili Xi e Y (a un certo valore di Xi è associato, in media, un certo valore di Y). Un caso dove non è possibile stabilire una relazione di causa-effetto è la presenza di c. inversa: non soltanto le Xi causano Y, ma anche Y contribuisce a determinare il valore di una o più delle Xi. Per es., lo stato di salute di un lavoratore incide sul suo reddito, in quanto chi si ammala meno può lavorare di più; tuttavia, è anche vero che chi guadagna di più può permettersi cure mediche migliori, che possono incidere sul suo stato di salute. Come conseguenza della c. inversa, la variabile dipendente e il regressore (lo stato di salute, nell’es. precedente) sono entrambe endogene, cioè correlate con il termine di errore, U (➔ endogeno/esogeno). Quando la teoria economica suggerisce la presenza di c. inversa, un modo per rimuoverla è di ricorrere all’introduzione di variabili strumentali (➔ variabili strumentali, metodo delle), che devono essere allo stesso tempo correlate con il regressore endogeno (ossia quella variabile Xi – o quel gruppo di variabili – che sono causate dalla Y), ma non causate dalla Y. O ancora, in particolare nell’ambito delle serie storiche (➔), si può talvolta sfruttare il principio logico secondo il quale un effetto non può accadere prima di una causa, inserendo nella funzione di regressione solo variabili Xi osservate in un tempo precedente rispetto a Y. Su questa idea si basa, per es., il test di c. di Granger (➔ Granger causality, test), che è però essenzialmente un test di predicibilità.