Econometria
A seconda delle relazioni economiche e delle unità campionarie alla base dell'analisi, l'e. odierna può essere distinta in microeconometria e macroeconometria. La prima comprende l'insieme di metodologie che, adottando una prospettiva disaggregata, permette di analizzare i fenomeni economici a partire dalle sue parti costitutive (individui, imprese, lavoratori, famiglie). La macroeconometria comprende invece quelle metodologie che partono da una prospettiva aggregata più strettamente macroeconomica. Riguardo alle caratteristiche dei dati, quando le unità campionarie vengono osservate solo in un dato periodo si parla di analisi cross-section, mentre quando sono disponibili osservazioni su una variabile nel tempo, di serie storiche (time series); l'analisi panel combina la dimensione cross-section e quella time series, ossia le variabili di diverse unità campionarie sono osservate per un dato arco temporale.
Microeconometria
Nell'ultimo decennio si sono avuti notevoli sviluppi della microeconometria che ha ormai raggiunto un grado di maturità e rilevanza molto elevato; grazie alla reperibilità di dati individuali sempre più accurati e alla accresciuta capacità computazionale dei calcolatori, le difficoltà nella gestione e nella elaborazione di grandi quantità di dati sono ormai superate e la strada per un'analisi totalmente disaggregata è finalmente percorribile. Le applicazioni coprono un'ampia gamma di campi economici: per es., gli economisti del lavoro studiano le decisioni di offerta di lavoro, le scelte di istruzione, le dinamiche salariali, le scelte di mobilità e la durata dei periodi di occupazione e disoccupazione attraverso tecniche microeconometriche. Altri campi di applicazione riguardano studi di finanza pubblica, come l'analisi dell'effetto di tasse, di politiche di welfare oppure ancora l'ambito dell'economia urbana e dei trasporti. Dal punto di vista metodologico le applicazioni microeconometriche hanno richiesto, da un lato, lo sviluppo di tecniche mirate a estrapolare nessi causali da campioni non casuali e, dall'altro, hanno stimolato la formulazione di approcci pensati per analizzare dati discreti o qualitativi. La rilevanza degli studi intrapresi in queste direzioni è testimoniata dal conseguimento del premio Nobel da parte di J.J. Heckman e D. McFadden, nel 2000, assegnato rispettivamente al primo per lo sviluppo della teoria e dei metodi per analizzare campioni non casuali e al secondo per lo sviluppo della teoria e dei metodi per analizzare scelte discrete. I problemi di selezione del campione sono pervasivi nelle analisi microeconometriche e sorgono quando assumere un campione casuale risulta un'ipotesi troppo forte. I motivi di ciò possono essere due: o perché le procedure di raccolta dei dati fanno sì che la popolazione non sia uniformemente rappresentata nel campione o perché gli individui si autoselezionano in base a caratteristiche non osservabili dal ricercatore (capacità). Si pensi, per es., a salari e ore lavorate disponibili ovviamente solo per coloro che sono occupati, o ancora ai salari dei laureati che possono essere osservati soltanto per chi ha effettivamente concluso il percorso di istruzione superiore. L'impossibilità di avere il dato controfattuale su quanto avrebbe guadagnato il medesimo soggetto nel caso in cui avesse lasciato l'università crea un problema per le stime, le quali distorcono i parametri di popolazione (selection-bias). Nell'esempio specifico le stime portano alla conclusione che gli effetti dell'istruzione universitaria sulle prospettive di guadagno siano poco rilevanti. Al fine di superare queste difficoltà, Heckman propone una procedura a due stadi (Heckman's lambda): nel primo stadio il ricercatore stima un modello per la probabilità che si verifichi un certo evento per ciascun individuo; nel secondo stadio si tiene conto dell'autoselezione introducendo la stima effettuata nel primo stadio come variabile esplicativa addizionale e si ottiene così un risultato non inficiato dal selection-bias.
Mentre la teoria microeconomica e l'e. classica presuppongono variabili continue nell'analisi, i dati micro sono generalmente il risultato di scelte discrete effettuate all'interno di un numero di alternative limitato. Il contributo di McFadden riguarda proprio lo sviluppo della teoria economica e della metodologia econometrica per l'analisi di scelte discrete (conditional logit analysis): partendo da un'ottica microeconomica nella quale l'individuo massimizza una funzione di utilità per effettuare le sue scelte, e riconoscendo che il ricercatore può osservare solo alcuni dei fattori che hanno determinato tali scelte, le caratteristiche non osservabili vengono rappresentate da termini aleatori con una specifica distribuzione; dopodiché si ricava la probabilità che l'individuo scelga una data alternativa come funzione delle variabili osservabili e quindi si stimano i coefficienti che legano questa probabilità a esse. La conditional logit analysis è basata sulla proprietà di indipendenza dalle alternative non rilevanti, vale a dire sull'assunzione per la quale il rapporto tra le probabilità di scegliere due alternative è indipendente dalle caratteristiche di tutte le altre alternative. Poiché questa ipotesi risulta spesso troppo irrealistica, sono stati proposti vari perfezionamenti: il nested multinomial logit model permette una certa dipendenza tra le alternative, il generalized extreme value model include come caso particolare i modelli precedenti e il mixed logit model aggrega gli individui in base alle caratteristiche osservabili e modellizza le scelte di ogni sottogruppo in modo compatto. Nei micro-panel la dimensione cross-section generalmente supera di gran lunga la dimensione temporale, ossia l'eterogeneità tra unità campionarie ha un ruolo molto più importante rispetto alla variabilità nel tempo, ossia gli effetti temporali sono generalmente ritenuti non interessanti.
Negli ultimi anni molti studi hanno analizzato i dati americani dei panels del National Longitudinal Survey of Labor Market Experience (NLS) e del Michigan Panel Study of Income Dynamics (PSID), che comprendono informazioni su migliaia di individui osservati dal 1968 al presente; in Italia il panel INPS (Istituto Nazionale della Previdenza Sociale) raccoglie informazioni su circa un novantesimo della forza lavoro nel periodo dal 1985 fino al 1998. Il vantaggio fondamentale dell'analisi micro-panel rispetto a quella cross-section risiede nella maggiore flessibilità nella specificazione delle differenze tra individui; esse vengono rappresentate come effetti specifici all'individuo indipendenti dal tempo e, a seconda della natura deterministica o stocastica dell'elemento individuale o, in modo equivalente, a seconda della natura della relazione tra componente osservabile e non osservabile, si distingue tra modelli a effetti fissi o a effetti casuali. Alla base vi è sempre un problema di variabili omesse: quando nella rappresentazione di un certo fenomeno entrano, oltre alla variabile endogena e alle esplicative osservabili (per es., salari, età, livello di istruzione, reddito), alcune variabili non osservabili (capacità), il modello di regressione basato solo sulle variabili osservabili non risulta corretto. È quindi necessario utilizzare metodologie che permettano di ottenere indicazioni corrette anche in assenza di informazioni riguardo a variabili rilevanti. A seconda dell'assunzione riguardo la natura del legame tra la componente non osservabile e le variabili esplicative osservabili, si distingue tra modello a effetti casuali e modello a effetti fissi: nel primo caso si assume che la covarianza tra la componente non osservabile e le variabili esplicative sia nulla, mentre nel secondo caso non si esclude la presenza di una relazione. Per quanto riguarda la rappresentazione e i metodi di stima, nel modello a effetti casuali la componente non osservabile è contenuta nel termine di errore della regressione e ciò fa sì che la struttura di covarianza di esso non sia l'identità; in questo caso è quindi possibile ottenere stime corrette, consistenti ed efficienti, applicando le procedure di stima dei minimi quadrati generalizzati fattibili (FGLS, Feasible Generalized Least Squares). Nel caso di effetti fissi, la componente individuale è invece rappresentata da un'intercetta che varia tra individui. Essa è quindi eliminabile calcolando prima la media temporale per ciascun gruppo e poi gli scostamenti da essa; dopodiché risulta possibile stimare il vettore dei parametri relativi alle variabili osservabili con i minimi quadrati ordinari (fixed effect o within estimator) e infine ricavare le stime dei coefficienti relativi alla componente non osservabile.
Macroeconometria
L'approccio macroeconometrico tradizionale e maggiormente utilizzato è quello delle serie storiche, nel quale le osservazioni delle variabili economiche nel tempo sono pensate come realizzazioni di processi stocastici; il ricercatore osserva la realizzazione del processo stocastico per un dato arco temporale e in base a essa inferisce le proprietà di popolazione attraverso procedure di stima e di controllo d'ipotesi. I modelli autoregressivi e a media mobile univariati (ARMA, Autoregressive Moving Average) utilizzati per studiare le serie storiche (introdotti in economia dall'approccio di G.E.P. Box e G.M. Jenkins) hanno in larga parte lasciato il campo ai modelli multivariati autoregressivi (VAR, Vector Autoregressive) introdotti in economia da C. Sims negli anni Ottanta del 20° sec., i quali permettono di analizzare congiuntamente più serie economiche. In questi modelli la stima viene condotta sulla forma ridotta, superando così i problemi di identificazione propri dei modelli strutturali tradizionali della Cowles Commission, e solo successivamente vengono introdotte le assunzioni teoriche necessarie a interpretare strutturalmente il sistema, ossia a identificare le relazioni causali tra le variabili del modello. I risultati vengono presentati sotto forma di funzioni di risposta all'impulso, di scomposizione della varianza e di scomposizione storica; le funzioni di risposta all'impulso descrivono il meccanismo di propagazione di innovazioni che hanno senso economico (shock di politica monetaria, fiscale, di natura tecnologica o di preferenze) sulle variabili del sistema, la scomposizione della varianza fornisce informazioni riguardo alla rilevanza di queste innovazioni e la scomposizione storica permette di ricostruire l'andamento di queste innovazioni nel tempo.
Dal punto di vista delle applicazioni empiriche, la metodologia VAR viene utilizzata per studiare problemi macroeconomici quali gli effetti di politiche monetarie, fiscali, di mercato aperto su reddito, inflazione, struttura dei tassi d'interesse e di cambio. Un'assunzione fondamentale nell'e. delle serie storiche è quella di stazionarietà, per la quale i processi che si considerano devono avere 'memoria breve', ossia devono avere nel tempo un comportamento regolare e ripetitivo, indistinguibile tra periodo e periodo.
Le serie economiche raramente soddisfano questa assunzione, ossia sono in larga parte non stazionarie e devono essere differenziate per ottenere stazionarietà e poter applicare i metodi di analisi standard. Un'altra proprietà delle serie economiche, in particolare di quelle finanziarie ad alta frequenza, è che la volatilità non è costante nel tempo, ma periodi di alta volatilità si alternano a periodi di bassa volatilità. L'esplicita considerazione di queste caratteristiche ha dato vita ai due filoni di ricerca iniziati da C.W.J. Granger e da R.F. Engle che si sono rivelati molto prolifici e sono culminati nel raggiungimento del premio Nobel, nel 2003, a Granger per i metodi per analizzare serie con trends comuni (cointegrazione) e a Engle per i metodi per analizzare serie con volatilità variabile (ARCH, Autoregressive Conditional Heteroscedastic). Fino ai lavori di Granger e P. Newbold, non era chiaro che la presenza di variabili non stazionarie nelle regressioni portasse a risultati spuri, ossia a identificare relazioni statisticamente significative tra le variabili anche ove queste non sussistono. Mentre la risposta statistica al problema consisteva nel differenziare le serie e quindi applicare i metodi standard di analisi, contribuendo così ad allargare la distanza tra la teoria economica che normalmente specifica relazioni tra i livelli delle variabili e le equazioni stimate, la teoria della cointegrazione permette di distinguere tra variabili non stazionarie indipendenti e variabili non stazionarie che presentano invece trends stocastici comuni. Per le seconde è possibile trovare specifiche combinazioni lineari che risultano stazionarie e sono quindi interpretabili come le relazioni di equilibrio di lungo periodo specificate dalla teoria economica. In base a questa rappresentazione, la dinamica delle variabili in differenze è scomposta in una parte autoregressiva che rappresenta l'inerzia di breve periodo, e in un meccanismo di correzione dell'errore che rappresenta l'aggiustamento dei livelli rispetto alla relazione di equilibrio di lungo periodo (Granger representation theorem). Per quanto riguarda i campi di applicazione empirica, alcuni esempi classici sono lo studio delle relazioni di parità dei poteri di acquisto, i legami tra prezzi e tassi di cambio, tra consumo, reddito, dividendi e prezzi azionari, e gli studi sulla struttura dei tassi d'interesse a diverse maturità. Mentre l'e. delle serie storiche, e più in generale l'analisi di regressione, si concentra sul momento primo condizionato assumendo che il momento secondo non condizionato dell'errore sia costante, l'attenzione di Engle si è invece rivolta alla modellizzazione della volatilità condizionata, ossia al momento secondo condizionato dell'errore specificato come una funzione degli errori passati secondo l'idea che larghi scostamenti dalla media condizionata sono verosimilmente seguiti da altri di ampiezza rilevante.
Questi modelli, indicati dall'acronimo ARCH, hanno reso possibile lo studio delle caratteristiche sistematiche nella dinamica della volatilità e la stima dei parametri della varianza condizionata congiuntamente a quelli della media condizionata. Alcune delle estensioni del modello di base comprendono la generalizzazione della struttura di covarianza (GARCH, Generalized Autoregressive Conditional Heteroscedastic), i modelli ARCH-M (ARCH-in-mean) nei quali il momento primo condizionato è funzione del momento secondo condizionato, secondo l'idea per cui il livello delle variabili è influenzato dalla dinamica della volatilità, e i modelli multivariati che descrivono congiuntamente l'andamento delle variabili economiche e rendono possibile un'interpretazione strutturale dei risultati. Per quanto riguarda le applicazioni empiriche, oltre a serie macroeconomiche quali l'inflazione, il modello ARCH e le sue derivazioni si sono rivelati particolarmente adatti per studiare variabili finanziarie e per valutare diversi tipi di rischio; per es., nel modello CAPM (Capital Asset Pricing Model) è necessario stimare la covarianza tra un titolo e il portafoglio di mercato al fine di valutare il rischio legato a un certo rendimento azionario, nella formula di Black-Scholes è necessario stimare la volatilità del sottostante per prezzare un'opzione e, più in generale, i modelli ARCH si sono rivelati utili in tutte quelle situazioni in cui si vuole effettuare una previsione sulla volatilità di un'azione, indice o portafoglio finanziario.
Una linea di ricerca che combina la dimensione cross-section e quella temporale in macroeconometria, e che ha prodotto interessanti sviluppi metodologici e importanti risultati empirici, è quella dei modelli a fattori dinamici di M. Forni, M. Hallin, M. Lippi e L. Reichlin; questi modelli utilizzano un ampio numero di serie storiche osservate in diversi settori e Paesi, sono finalizzati a produrre un indicatore del ciclo economico in tempo reale, e sfruttano ampiamente sia l'informazione temporale sia quella cross-section. Le serie economiche utilizzate riguardano prodotto interno lordo, produzione industriale, condizioni del mercato del lavoro, prezzi al consumo e di produzione, aggregati finanziari, tassi d'interesse e di cambio, variabili finanziarie e di bilancia dei pagamenti, oltre che indagini sulla fiducia di consumatori e produttori; ciascuna di esse viene resa stazionaria attraverso l'applicazione di un filtro e poi rappresentata come la somma di due componenti, una comune a tutte e una idiosincrasica. La componente comune è guidata da un numero piccolo di fattori e a sua volta è divisa in una componente ciclica di lungo periodo e in una di breve periodo, a seconda delle frequenze dominanti ricavate con l'analisi spettrale. L'indicatore del ciclo economico è rappresentato dalla componente ciclica nella serie del prodotto interno lordo. La procedura di stima avviene in tre stadi: nel primo si stima la matrice di densità spettrale della componente comune, nel secondo si determina il numero e si stimano i fattori, mentre nell'ultimo stadio viene stimata la componente ciclica della parte comune e infine utilizzata quella della serie del prodotto interno lordo come indicatore del ciclo economico. Questo indicatore viene pubblicato mensilmente dal CEPR (Centre for Economic Policy Research).
Approcci non parametrici
Gli approcci descritti finora sono tutti parametrici, ossia sono tali per cui le forme funzionali delle relazioni economiche e le ipotesi distribuzionali sul termine di errore non osservabile sono esplicitamente specificate. Quando il ricercatore ritiene che assunzioni di questo genere siano troppo stringenti, può perseguire un approccio semiparametrico (solo le ipotesi distribuzionali sul termine di errore sono rimosse) o totalmente non parametrico (sono rimosse sia le ipotesi distribuzionali sia quelle sulla media condizionata). I metodi non parametrici permettono di ricavare la forma funzionale della relazione tra le variabili direttamente dai dati: le stime kernel forniscono una stima della funzione di densità congiunta pesando attraverso la funzione di kernel osservazioni 'vicine' secondo un qualche criterio, mentre con le reti neurali la forma funzionale viene derivata applicando algoritmi iterativi basati sui minimi quadrati non lineari. Tecniche semiparametriche e non parametriche vengono utilizzate in tutti i campi di comune applicazione microeconometrica, e anche in ambito macroeconometrico vengono utilizzate stime kernel, per fare un esempio, per la stima della distribuzione del reddito e di funzioni di domanda.
bibliografia
Sulla microeconometria:
D. McFadden, Conditional logit analysis of qualitative choice behaviour, in Frontiers in econometrics, ed. P. Zarembka, New York-London 1974.
J.J. Heckman, Sample selection bias as a specification error, in Econometrica, 1979, 47, pp. 153-61.
C. Hsiao, Analysis of panel data, Cambridge 1986, 20032.
M. Arellano, Panel data econometrics, New York-Oxford 2003.
Sulla macroeconometria:
C.W.J. Granger, P. Newbold, Spurious regressions in econometrics, in Journal of econometrics, 1974, 2, pp. 111-20.
R.F. Engle, C.W.J. Granger, Co-integration and error correction: representation, estimation, and testing, in Econometrica, 1987, 55, pp. 251-76.
S. Johansen, Likelihood-based inference in cointegrated vector autoregressive models, Oxford 1995.
R.F. Engle, The econometrics of ultra-high-frequency data, in Econometrica, 2000, 68, pp. 1-22.
M. Forni, M. Hallin, M. Lippi et al., The generalized dynamic-factor model: identification and estimation, in The review of economics and statistics, 2000, 82, pp. 540-54.
Sui modelli non parametrici:
A. Pagan, A. Ullah, Nonparametric econometrics, Cambridge 1999.