Dispensa di Econometria delle Serie Storiche Giulio Palomba (semilavorato) Ultima modifica: ottobre 2014 Premessa Queste pagine comprendono alcuni argomenti del programma del corso di Econometria delle Serie Storiche che non hanno trovato e/o che non trovano posto nella dispensa di Jack Lucchetti, Appunti di analisi delle serie storiche. Gli argomenti trattati in queste pagine perci`o appartengono di diritto al programma del corso e, come tali, possono costituire oggetto di domande all’esame. Gli argomenti esposti perci` o non seguono perci`o un filo/nesso logico, ma sono semplicemente presentati in ordine sparso. Indice 1 L’OLS come stimatore ML 1.1 Lo stimatore ML nel modello lineare classico . . . . . . . . . . . . . . . . . . . . . . . 1.2 Il modello OLS vincolato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 5 2 I test classici di verosimiglianza nel modello OLS 2.1 Test LR . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Test LM . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Test W . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Relazioni tra i test LR, LM, W . . . . . . . . . . . 2.5 Relazione dei test LR, LM, W con il test F . . . . 6 6 7 7 8 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Criteri informativi 9 4 Test di autocorrelazione 4.1 Test di Durbin-Watson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Test di Breusch-Godfrey . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Test di Ljung-Box . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 10 12 13 5 Test di radice unitaria 5.1 Test di Phillips-Perron . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Test KPSS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 13 14 6 Test di normalit` a 6.1 Test di Jarque-Bera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Test di Doornik-Hansen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 15 15 7 Variabili dummy 15 1 1 L’OLS come stimatore ML ` noto che una delle caratteristiche distintive del modello lineare classico o dei minimi quadrati ordinari E (OLS) `e quella che non occorre specificare una distribuzione per l’errore (ε) all’interno dell’equazione y = Xβ + ε, (1) dove y `e la variabile dipendente di dimensione T × 1, X `e la matrice dei regressori di dimensione T × k e β, vettore k × 1, `e l’incognito vettore dei parametri. In questo contesto, semplicemente imponendo le ipotesi “classiche” (incorrelazione tra regressori e termine d’errore, linearit`a del modello e rango colonna pieno di X), si ottiene lo stimatore βˆ = (X 0 X)−1 X 0 y (2) che, in campioni finiti, risulta essere corretto e Best Linear Unbiased Estimator (BLUE). Imponendo l’ulteriore ipotesi classica di omoschedasticit`a ε ∼ i.i.d.(0, σ 2 IT ), dove IT `e una matrice identit` a di dimensione T × T , non `e difficile dimostrare che, per T → ∞, lo stimatore gode delle fondamentali propriet`a della consistenza e della distribuzione asintotica normale. 1.1 Lo stimatore ML nel modello lineare classico Stimare i valori del parametro β e quello della varianza σ 2 attraverso lo stimatore (2) non `e l’unico metodo di stima applicabile nell’ambito del modello lineare classico. Un’alternativa possibile `e rappresentata dallo stimatore di massima verosimiglianza (ML) che, per definizione, ritorna anch’esso stime consistenti ed asintoticamente normali. Tuttavia, le propriet`a in campioni finiti di correttezza e di stimatore BLUE decadono, ma ci` o non ha grande rilevanza se si pensa che di norma l’inferenza statistica viene condotta utilizzando i risultati di teoria asintotica. Fermo restando la validit` a di tutte le ipotesi classiche, l’utilizzo dello stimatore ML necessariamente impone l’assegnazione di una qualche distribuzione al vettore ε. In questa sezione si discuter`a il caso standard in cui il termine di errore del modello OLS abbia distribuzione multinormale ε ∼ N (0, σ 2 IT ). (3) L’imposizione di questa condizione permette di applicare il metodo ML, quindi di determinare una forma analitica per la funzione di verosimiglianza costruita su ε che risulta essere: T Y 1 ε0 ε 2 −1 √ |σIT | exp − 2 L(y, X; β, σ ) = 2σ 2π i=1 T T (y − Xβ)0 (y − Xβ) = (2π)− 2 (σ 2 )− 2 exp − , (4) 2σ 2 dove |IT | = 1 `e il determinante della matrice identit`a. La log-verosimiglianza `e perci`o `(y, X; β, σ 2 ) = − T T (y − Xβ)0 (y − Xβ) ln(2π) − ln σ 2 − 2 2 2σ 2 (5) oppure, in forma pi` u compatta, T T ε0 ε ln(2π) − ln σ 2 − 2 . (6) 2 2 2σ Lo score si configura come il vettore gradiente contenente k + 1 derivate, k rispetto ai parametri contenuti in β a cui si aggiunge la derivata relativa a σ 2 ; dal punto di vista analitico si ottiene X 0 y − X 0 Xβ X 0ε σ2 σ2 2 s(y, X; β, σ ) = (7) = . T (y − Xβ)0 (y − Xβ) T ε0 ε − 2+ − 2+ 4 2σ 2σ 4 2σ 2σ `(y, X; β, σ 2 ) = − 2 Applicando le condizioni del primo ordine sullo score, si ottiene il sistema 0 X y − X 0 Xβ = 0 (8) 0 −T + (y − Xβ) (y − Xβ) σ2 dal quale si ottengono le soluzioni 0 −1 0 ˆ β = (X X) X y (9) εˆ0 εˆ σ ˆ2 = T dove εˆ = y − X βˆ `e il residuo ottenuto a seguito della stima OLS. Dalla prima equazione emerge chiaramente che, per i parametri relativi alla media condizionale E(y|X), la soluzione ottenuta attraverso lo stimatore ML sotto l’ipotesi di normalit`a dell’errore coincide esattamente con quella dello stimatore OLS. Dal punto di vista analitico, questa soluzione scaturisce essenzialmente dal fatto che la prima equazione dello score di cui alla (8) di fatto coincide con la condizione di ortogonalit` a imposta dal metodo OLS quando si cerca di ottenere il valore minimo della funzione obiettivo S(β) = ε0 ε = (y − Xβ)0 (y − Xβ). Nella seconda equazione lo stimatore per l’incognito parametro σ 2 `e dato dallo stimatore varianza campionaria che, come `e noto, non contiene il meccanismo di correzione per i g.d.l. previsto nel metodo OLS; ci`o significa che lo stimatore ottenuto non `e corretto in quanto E(ˆ σ 2 ) 6= σ 2 , resta comunque consistente, in quanto la distorsione δσˆ 2 = E(ˆ σ 2 − sˆ2 ) T −k 2 = σ − σ2 T k = − σ2 T tende a zero quando T → ∞. La matrice di informazione di Fisher pu`o essere calcolata in due modi diversi: (a) attraverso la matrice Hessiana 2 ∂ `(Y, X; β, σ 2 ) ∂β 2 2 I(β, σ ) = −E ∂ 2 `(Y, X; β, σ 2 ) ∂σ 2 ∂β 0 ∂ 2 `(Y, X; β, σ 2 ) 1 0 ∂β∂σ 2 2X X = σ 0 ∂ 2 `(Y, X; β, σ 2 ) 2 2 ∂(σ ) 0 T 2σ 4 (10) (b) attraverso l’Outer Product Gradient (OPG): 0 ∂`(Y, X; β, σ 2 ) ∂`(Y, X; β, σ 2 ) ∂β ∂β 2 I(β, σ ) = E ∂`(Y, X; β, σ 2 ) ∂`(Y, X; β, σ 2 ) 0 ∂σ 2 ∂β ∂`(Y, X; β, σ 2 ) ∂`(Y, X; β, σ 2 ) ∂β ∂σ 2 = E(S 0 S) 2 2 ∂`(Y, X; β, σ ) ∂`(Y, X; β, σ ) ∂σ 2 ∂σ 2 dove S = [s1 (y, X; β, σ 2 ) s2 (y, X; β, σ 2 ) 3 ... sT (y, X; β, σ 2 )]0 . Considerando la funzione score per la t-esima osservazione si ottiene perci`o It (β, σ 2 ) = E st (y, X; β, σ 2 )st (y, X; β, σ 2 )0 1 εt x t 0 σ2 x t εt 1 ε2t = E − 2+ 4 2 2 σ 2σ 2σ 1 ε − 2 + t4 2σ 2σ 1 ε2t 1 2 0 E(εt )xt xt − 2 + 4 E(εt xt ) σ4 2σ 2σ = 1 1 ε2t E(ε2t ) E(ε4t ) 0 E(εt xt ) − 2 + 4 − 2 + 2σ 2σ 4σ 4 4σ 6 4σ 8 1 0 0 σ 2 xt xt = 2 3 1 0 − + 0 4σ 4 4σ 4 4σ 4 dove εt e xt rappresentano rispettivamente la t-esima osservazione per il vettore ε e la t-esima colonna della matrice dei regressori X. Dato che, per le ipotesi del modello lineare classico, valgono E(x0t εt ) = 00 , E(εt xt ) = 0 e E(ε2t ) = σ 2 , mentre se εt ∼ N (0, σ 2 ) allora E(ε4t ) = 3σ 2 , risulta I(β, σ 2 ) = n X It (β, σ 2 ) i=1 1 0 n X x x 0 σ2 t t = 1 0 i=1 2σ 4 1 0 XX 0 = σ2 n 0 2σ 4 (11) Propriet`a: • generalmente le equazioni (10) e (11) non coincidono. Esse coincidono solo nel caso in cui la funzione di verosimiglianza sia correttamente specificata; • l’equazione (10) ha migliori propriet`a in campioni finiti; • l’equazione (11) richiede di valutare il contributo individuale di tutte le osservazioni. Di conseguenza, la matrice stimata delle covarianze dei parametri, che coincide con l’estremo di Cram´er-Rao, `e σ 2 (X 0 X)−1 0 I(β, σ 2 )−1 = (12) 2σ 4 . 0 T Da questa espressione derivano le seguenti distribuzioni asintotiche per gli stimatori ML di β e σ 2 √ √ d d T (βˆ − β) −→ N 0, σ 2 Σ−1 e T (ˆ σ 2 − σ 2 ) −→ N (0, 2σ 4 ), XX T 1 0 1X XX= xt x0t . T T t=1 Una volta ottenute tutte le grandezze ottenibili attraverso il metodo ML, `e possibile utilizzare gli strumenti standard di questo contesto per condurre opportuni procedimenti di inferenza statistica. dove ΣXX = 4 1.2 Il modello OLS vincolato L’equazione (2) `e quella dello stimatore ottenuto minimizzando la somma dei quadrati degli errori ` tuttavia possibile stimare lo stesso vettore dei rispetto ai valori contenuti all’interno del vettore β. E parametri del modello lineare in presenza di un vincolo introdotto attraverso l’imposizione di un’ipotesi nulla H0 . Il problema della stima dei minimi quadrati ordinari diviene perci`o un problema di ricerca di un minimo sotto vincolo, cio`e min ε0 ε = (y − Xβ)0 (y − Xβ) (13) sub H0 : g(β) = 0 R R dove g(β) : k −→ q `e una funzione continua e differenziabile in β che proietta lo spazio kdimensionale delle righe di β in un spazio con q ≤ k dimensioni; in altri termini, q `e il numero di vincoli imposti sulle k componenti di β. Per semplicit`a, e senza perdit`a di generalit`a, tutta l’analisi sar`a condotta nel caso di vincolo lineare contenuto all’interno dell’ipotesi nulla `e H0 : Rβ = r, (14) dove R `e una matrice q × k e r `e un vettore di dimensione q. Per determinare la soluzione del problema (13) si applica il metodo di Lagrange. Il Lagrangiano `e perci`o Λ(β, λ) = (y − Xβ)0 (y − Xβ) + λ0 (Rβ − r), dove λ `e il vettore di dimensione q contenente i moltiplicatori di Lagrange. In Economia essi vengono definiti come prezzi ombra: ciascun elemento del vettore λ rappresenta l’incremento della funzione obiettivo a seguito di una variazione “piccola” del vincolo corrispondente. Applicando le condizioni del primo ordine si ha ∂Λ(β, λ) =0 2X 0 (y − Xβ) + R0 λ = 0 ∂β ⇒ ∂Λ(β, λ) Rβ − r = 0, =0 ∂λ ∂(Rβ − r) dove R = `e la matrice Jacobiana di dimensione q × k. Dopo un po’ di algebra, le soluzioni ∂β sono 1 0 −1 0 β˜ = βˆ − (X X) R λ β˜ = βˆ − (X 0 X)−1 R0 [R(X 0 X)−1 R0 ]−1 (Rβˆ − r) 2 (15) ⇒ ˜ (Rβˆ − r) − 1 (X 0 X)−1 R0 λ = 0 λ = 2[R(X 0 X)−1 R0 ]−1 (Rβˆ − r), 2 dove βˆ `e lo stimatore OLS, mentre β˜ `e lo stimatore relativo al modello vincolato. Si noti che esso `e uno stimatore corretto solamente nel caso in cui il vincolo Rβ = r sia soddisfatto. Sfruttando la propriet`a X 0 εˆ = 0 e definendo inoltre il residuo del modello vincolato come ε˜ = y − X β˜ = y − X βˆ − X β˜ + X βˆ ˆ = εˆ − X(β˜ − β), si ottiene la seguente relazione relativa alla somma dei quadrati dei residui ˆ 0 [ˆ ˆ ε˜0 ε˜ = [ˆ ε − X(β˜ − β)] ε − X(β˜ − β)] ˆ 0 X 0 X(β˜ − β). ˆ = εˆ0 εˆ + (β˜ − β) 5 (16) Sostituendo a β˜ la sua definizione di cui alla (15), `e piuttosto semplice ottenere quanto segue ˆ 0 X 0 X(β˜ − β) ˆ ε˜0 ε˜ − εˆ0 εˆ = (β˜ − β) 0 −1 0 ˆ 0X 0 = {βˆ − (X X) R [R(X 0 X)−1 R0 ]−1 (Rβˆ − r) − β} ˆ X{βˆ − (X 0 X)−1 R0 [R(X 0 X)−1 R0 ]−1 (Rβˆ − r) − β} = (Rβˆ − r)[R(X 0 X)−1 R0 ]−1 R(X 0 X)−1 X 0 X(X 0 X)−1 R0 [R(X 0 X)−1 R0 ]−1 (Rβˆ − r) = (Rβˆ − r)[R(X 0 X)−1 R0 ]−1 (Rβˆ − r). (17) L’equazione (17) indica che la differenza tra la somma dei quadrati dei residui nel modello vincolato e la somma dei quadrati dei residui nel modello libero `e esprimibile come una forma quadratica (definita positiva) in Rβˆ − r; tale vettore risulta essere nullo solo nel caso in cui lo stimatore βˆ soddisfa il ˜ vincolo, quindi non `e significativamente diverso da β. Utilizzando inoltre la definizione di cui alla (15), risulta anche ˜ 0 R(X 0 X)−1 R0 λ, ˜ ε˜0 ε˜ − εˆ0 εˆ = λ (18) ˜ che vale zero solo questo si annulla. che corrisponde ad una forma quadratica nel vettore λ 2 I test classici di verosimiglianza nel modello OLS In questa sezione saranno fornite le equazioni dei tre test classici di verosimiglianza LR, LM e W. Come `e noto, asintoticamente i tre test sono equivalenti ed hanno distribuzione χ2q dove q `e il numero di vincoli imposti da H0 . Tuttavia, per campioni finiti e sotto l’ipotesi di normalit`a (3), vale la gerarchia (alfabetica) LM ≤ LR ≤ W. Anche nel contesto del modello OLS resta valida la propriet`a secondo la quale occorre conoscere il ˆ σ ˜ σ solo modello libero (β, ˆ , εˆ) nel caso del test W, del solo modello vincolato (β, ˜ , ε˜) nel caso del test LM ed entrambi i modelli nel caso del test LR. 2.1 Test LR Applicando semplicemente la definizione formale risulta ˆ σ ˜ σ LR = 2[`(y, X; β, ˆ 2 ) − `(y, X; β, ˜ 2 )] T εˆ0 εˆ T ε˜0 ε˜ 2 2 = 2 − ln σ ˆ − 2 + ln σ ˜ + 2 2 2ˆ σ 2 2˜ σ 2 2 Tσ ˆ Tσ ˜ ˜2 + 2 = −T ln σ ˆ 2 − 2 + T ln σ σ ˆ σ ˜ = T [ln σ ˜ 2 − ln σ ˆ2] 2 0 σ ˜ ε˜ ε˜ = T ln = T ln 0 . 2 σ ˆ εˆ εˆ 6 (19) 2.2 Test LM Applicando la definizione si ha ˜ σ ˜ σ ˜ σ LM = s(y, X; β, ˜ 2 )0 I(β, ˜ 2 )−1 s(y, X; β, ˜2) ˜ 2 (X 0 X)−1 0 σ 0 0 T ε˜ X ε˜ ε˜ = − 2 2˜ σ4 σ ˜ 2 2˜ σ4 σ ˜ 0 T 0 X ε˜ σ ˜2 0 ε˜ X(X 0 X)−1 0 = ε˜0 ε˜ T − 2 2˜ σ4 σ ˜ ε˜0 X(X 0 X)−1 X 0 ε˜ = σ ˜2 0 ε˜ X(X 0 X)−1 X 0 ε˜ = T ε˜0 ε˜ 0 ε˜ PX ε˜ = T 0 , ε˜ ε˜ X 0 ε˜ σ ˜2 ε˜0 ε˜ T − 2 4 2˜ σ σ ˜ (20) dove PX = X(X 0 X)−1 X 0 , `e la matrice simmetrica ed idempotente di proiezione per cui vale PX X = X 0 PX = X. In pratica, il test risulta essere LM = T R2 , (21) dove l’R2 `e quello di una regressione ausilaria di ε˜ su X. Questo risultato `e molto importante perch´e diversi test di specificazione e diagnostica in econometria sono test LM in cui la statistica test `e esprimibile come il prodotto della numerosit`a campionaria per l’indice di determinazione di un qualche regressione ausiliaria. ` possibile ottenere un’equazione alternativa del test LM come segue E LM = T = T = = = = = 2.3 ε˜0 PX ε˜ ε˜0 ε˜ ˜ 0 PX PX (y − βX) ˜ (y − βX) ε˜0 ε˜ y 0 PX PX y − 2β˜0 X 0 PX PX y + β˜0 X 0 PX PX X β˜ T ε˜0 ε˜ βˆ0 X 0 X βˆ − 2β˜0 X 0 X βˆ + β˜0 X 0 X β˜ T ε˜0 ε˜ 0 0 ˆ X X(β˜ − β) ˆ (β˜ − β) T 0 ε˜ ε˜ ε˜0 ε˜ − εˆ0 εˆ T ε˜0 ε˜ 2 σ ˜ −σ ˆ2 T σ ˜2 (22) Test W Poich´e la statistica test W `e definita come −1 ˆ ˆ ˆ W = g(β)[J(β)V ar(β)J(β)] g(β), 7 (23) imponendo il vincolo lineare g(β) = Rβ − r, si ha ˆ 0 ]−1 (Rβˆ − r) W = (Rβˆ − r)[RV ar(β)R (Rβˆ − r)[R(X 0 X)−1 R0 ]−1 (Rβˆ − r) = σ ˆ2 (Rβˆ − r)[R(X 0 X)−1 R0 ]−1 (Rβˆ − r) = T , εˆ0 εˆ (24) utilizzando l’equazione (17) risulta piuttosto agevole dimostrare che vale anche W=T 2.4 ε˜0 ε˜ − εˆ0 εˆ σ ˜2 − σ ˆ2 . =n 0 2 εˆ εˆ σ ˆ (25) Relazioni tra i test LR, LM, W Dalle equazioni (19), (22) e (25) risulta 2 σ ˜2 − σ ˆ2 W σ ˜ = T ln 1 + = T ln 1 + LR = T ln σ ˆ2 σ ˆ2 T σ ˆ2 σ ˜2 − σ ˆ2 = W LM = n σ ˜2 σ ˜2 σ ˜2 − σ ˆ2 W=T , 2 σ ˆ quindi • asintoticamente le tre statistiche test sono equivalenti, poich´e lim (LR − LM) = lim (LR − W) = lim (LM − W) = 0, n→∞ n→∞ n→∞ • in campioni finiti vale W – W≥LR ⇒ W ≥ T ln 1 + ⇒ T W σ ˆ2 ≥ 2W – LR≥LM ⇒ T ln 1 + T σ ˜ W T per ∀ W> 0; W 1+ T – LM≥W per la propriet` a transitiva. W W ≥ ln 1 + per ∀ W> 0; T T W 1 W ⇒ ln 1 + ≥ 2 T T σ ˜ +1−1 2 σ ˆ ⇒ W ln 1 + ≥ T 2.5 Relazione dei test LR, LM, W con il test F I tre test classici, oltre ad essere tra loro in relazione, possono essere espressi in funzione del test F. Partendo dalla definizione formale di quest’ultimo si ottiene Fq,T −k = = = ε˜0 ε˜ − εˆ0 εˆ T − k εˆ0 εˆ q σ ˜−σ ˆT −k σ ˆ q T −k W. Tq 8 (26) Calcolando la funzione inversa risulta q F LR = T ln 1 + q,T −k T −k T qFq,T −k W −1 T q σ ˆ Tq Fq,T −k = 1 − Fq,T −k = LM = σ ˜T −k T T −k T − k + qFq,T −k Tq W= Fq,T −k T −k (27) Per le propriet`a della v.c. F di Snedecor risulta che i test LR, LM e W hanno distribuzione χ2q quando T → ∞. 3 Criteri informativi I criteri informativi (IC) rappresentano degli strumenti sintetici molto utili nella fase di specificazione di un modello econometrico. Come `e noto, la scelta di quante (e quali) variabili esplicative utilizzare rappresenta la soluzione di un trade off : aggiungendo variabili (non collineari) infatti non si peggiora la capacit`a esplicativa del modello ma, dall’altro lato, si rischia di “imbottire” l’equazione di una o pi` u variabili che non migliorano tale capacit` a in maniera rilevante. In altri termini pi` u tecnici, l’aggiunta di variabili comporta che: (a) il valore della log-verosimiglianza non diminuisce, (b) il numero dei parametri incogniti da stimare aumenta, quindi il modello `e meno parsimonioso. I criteri informativi consistono in un’equazione pensata per gestire questa contraddizione, infatti la loro formulazione `e generalmente del tipo IC = f (`(θˆ), k ) (−) (28) (+) ˆ `e la log-verosimiglianza calcolata in corrispondenza del valore stimato per il vettore dei dove `(θ) parametri del modello, mentre k `e il numero dei parametri, quindi il numero delle componenti di θ. I segni indicati tra parentesi indicano la relazione esistente tra i valori assunti del criterio informativo e le variabili su cui esso `e determinato. La logica `e pertanto piuttosto semplice: dato che un aumento del numero dei parametri implica una non diminuzione della log-verosimiglianza, il criterio informativo `e costruito in maniera tale da diminuire al crescere della verosimiglianza, mentre cresce in valore quando il numero dei parametri k aumenta. Nello specifico, i tre criteri informativi pi` u utilizzati in letteratura sono i seguenti: ˆ + 2k, 1. Criterio di Akaike (1974): AIC= −2`(θ) ˆ + k log T , 2. Criterio di Schwarz (1978) o Criterio Bayesiano: BIC= −2`(θ) ˆ + 2k log log T . 3. Criterio di Hannan e Quinn (1979): HQC= −2`(θ) Dal punto di vista pratico, i tre criteri informativi vengono solitamente forniti dai software statisticoeconometrici in coda a ciascun modello stimato. Tra i diversi modelli stimati, la “migliore specificazione” corrisponde a quello per il quale i criteri informativi assumono valore minimo. Naturalmente, pu` o accadere che i tre criteri proposti siano in conflitto tra loro, selezionando diverse specificazioni: in questo caso, nella prassi si tende a preferire i criteri BIC e HQC poich´e `e nota la tendenza del criterio AIC a preferire modelli caratterizati da un numero di parametri molto pi` u elevato. La scelta tra i criteri BIC e HQC, molto simili dal punto d vista della loro definizione analitica, viene invece lasciata sostanzialmente all’utente, poich´e non esistono ragioni fondate per preferire un criterio rispetto all’altro. 9 4 Test di autocorrelazione 4.1 Test di Durbin-Watson Il primo tentativo di effettuare un test di autocorrelazione per un modello lineare di serie storiche del tipo yt = x0t β + εt con εt ∼ W N (0, σ 2 ) (29) `e molto conosciuto in letteratura ed `e noto come statistica di Durbin e Watson (1950). Tale approccio in realt`a non `e un vero e proprio test, ma rappresenta piuttosto una statistica i cui valori dovrebbero indicare se i residui del modello lineare mostrano una qualche autocorrelazione rilevante del prim’ordine. Oltre a costituire un “classico” nella fase di diagnostica relativa ad un modello lineare di serie storiche, la statistica di Durbin e Watson (DW) ha senza dubbio il merito di fornire in maniera rapida un’indicazione della presenza/assenza di autocorrelazione nei residui. Per questa ragione la quasi totalit`a dei pacchetti statistico-econometrici (quindi anche Gretl) ritorna il suo valore automaticamente all’interno delle regression statistic che fanno seguito alla stima del modello (29). La statistica DW si caratterizza per la propriet`a di avere una distribuzione nota in campioni finiti solamente sotto le seguenti ipotesi piuttosto restrittive (Verbeek, 2010): 1. deve essere possibile trattare le xt come deterministiche. Questa ipotesi `e fondamentale in quanto richiede che tutti che tutti i termini di errore εt siano indipendenti da tutte le variabili esplicative secondo la nota relazione (di Gauss-Markov) x0t ⊥ εt ≈ E(x0t εt ) = 0. (30) Ancora pi` u rilevante `e il fatto che questa condizione di fatto impedisce l’utilizzo di variabili dipendenti ritardate all’interno dei regressori; 2. i regressori xt devono necessariamente contenere un’intercetta. La struttura delle ipotesi per valutare la presenza di autocorrelazione attraverso l’utilizzo di DW `e la seguente: H0 : ρ1 = 0 assenza di autocorrelazione di ordine 1 (31) H0 : ρ1 6= 0 autocorrelazione di ordine 1 Dal punto di vista formale la statistica di Durbin-Watson (DW) `e data da T X DW = (ˆ εt − εˆt−1 )2 t=2 T X , (32) εˆ2t t=1 dove εˆt `e il residuo OLS. In pratica, questa statistica mette in rapporto la media campionaria dei quadrati della differenza tra le serie dei residui e quella ritardata di un periodo (da qui deriva il fatto che la sommatoria parte da t = 2) con la varianza campionaria o momento secondo campionario dei residui stessi. Con un po’ di algebra e per “elevati” valori della numerosit`a campionaria T si ottiene T X DW = εˆ2t −2 t=2 T X εˆt εˆt−1 + t=2 T X T X t=2 εˆ2t−1 2 ≈ εˆ2t t=1 DW ≈ 2 1 − T X T X εˆ2t −2 t=2 T X εˆt εˆt−1 t=2 T X εˆ2t t=1 εˆt εˆt−1 t=2 = 2(1 − ρˆ1 ), T X εˆ2t t=1 10 (33) dove ρˆ1 `e il coefficiente stimato di autocorrelazione del primo ordine. Analizzando i casi “estremi” `e piuttosto evidente che: • sotto H0 risulta ρˆ = 0, quindi DW≈ 2, • in caso di correlazione positiva perfetta risulta ρˆ = 1, quindi DW≈ 0, • in caso di correlazione negativa perfetta risulta ρˆ = −1, quindi DW≈ 4. Praticamente, un valore di DW prossimo al valore 2 di per s´e `e un ottimo indicatore dell’assenza di autocorrelazione del prim’ordine. Sfortunatamente, la statistica DW porta con s´e anche diversi problemi: 1. DW non `e in grado di rilevare autocorrelazioni di ordini superiori al primo; questo limite `e indicato chiaramente dalla struttura delle ipotesi di cui alla (31) e rappresenta la ragione principale per la quale questa statistica non pu` o essere considerato come un test di autocorrelazione a tutti gli effetti. Per ovviare a tale inconveniente occorre fare ricorso a vere e proprie procedure di test di autocorrelazione pi` u generali come ad esempio il test di Ljung e Box (1978) o, in alcuni casi1 , il test di Breusch-Godfrey (1979-1978). 2. come gi`a anticipato, la statistica DW non pu`o essere applicata quando tra i regressori appare la variabile dipendente ritardata. Nel caso dei modelli ARMA essa sottostima l’autocorrelazione e si configura perci` o come uno stimatore distorto per ρ1 . In presenza di grandi campioni un meccanismo di correzione `e fornito dalla statistica h di Durbin s T h = (1 − 0.5DW) , (34) 1 − T · V ar(φˆ1 ) dove T · V ar(φˆ1 ) < 1, mentre φˆ1 `e la stima del coefficiente associato alla variabile dipendente ritardata nel modello di regressione lineare. Quando T → ∞ la statistica h si distribuisce come una variabile casuale normale; 3. la statistica DW soffre del problema delle “zone d’ombra” (o regione di indeterminazione), ovvero esistono valori per i quali `e impossibile stabilire con esattezza se l’ipotesi nulla vada accettata o rifiutata. Ci` o accade in quanto le regioni di accettazione e di rifiuto di H0 non sono separate da un valore critico, bens`ı da un intervallo di valori critici. Intuitivamente, questo problema `e rappresentato in Figura 1. Sotto l’ipotesi nulla H0 : ρ1 = 0 la distribuzione di DW dipende dalla numerosit`a del campione (T ), dal numero di regressori (k) contenuti all’interno di x0t , ma anche dai valori effettivamente osservati dei regressori stessi: ci` o da un lato impedisce il calcolo puntuale dei valori critici, ma dall’altro la conoscenza di T e k ne permette la determinazione di un limite inferiore (dL ) ed uno superiore (dU ). Questi valori sono stati tabulati da Durbin e Watson (1950) e da Savin e White (1977) e sono disponibili in Gretl nel men` u Strumenti/Tavole Statistiche. Poich´e la distribuzione DW `e simmetrica, si possono pertanto generare le seguenti situazioni: - se 0 ≤ DW≤ dL ⇒ ρ1 > 0, quindi si rifiuta H0 , - se dL < DW< dU ⇒ il test non fornisce alcuna indicazione chiara (the test is inconclusive), - se dU ≤ DW≤ 4 − dU ⇒ ρ1 = 0 quindi si accetta H0 , - se 4 − dU < DW< 4 − dL ⇒ il test non fornisce alcuna indicazione chiara, - se 4 − dL ≤ DW≤ 4 ⇒ ρ1 < 0, quindi si rifiuta H0 . 1 Ad esempio, il test di Breusch-Godfrey non pu` o essere applicato in presenza della componente a media mobile nei modelli ARMA. 11 Figura 1: Distribuzione della statistica DW con k = 3 e T = 24 (tratta da Cappuccio e Orsi, 2005) Le zone d’ombra sono date perci` o dagli intervalli (dL , dU ) e (4 − dU , 4 − dL ) che diminuiscono la loro ampiezza quando aumenta il valore di T oppure diminuisce il valore di k; 4. la potenza del test DW normalmente `e scarsa per specificazioni dell’ipotesi alternativa differenti dal processo AR(1) εt = φ1 εt−1 + ut (si pensi ad esempio a H1 : εt ∼ MA(1) oppure H1 : εt ∼ RW). 4.2 Test di Breusch-Godfrey Il test di Breusch (1979)-Godfrey (1978), d’ora in avanti test BG, `e utile per stabilire se, all’interno di un modello lineare dinamico, esiste una qualche dipendenza seriale nelle variazioni della variabile dipendente. Contrariamente al test di Durbin e Watson (1950) questo test `e generale in quanto `e in grado di testare diversi ordini di autocorrelazione seriale e pu`o essere utilizzato anche quando i ritardi della variabile dipendente sono utilizzati come regressori. Dal punto di vista tecnico si parte dal modello lineare dinamico di cui all’equazione (29) attraverso il quale si ottengono i residui ˆ εˆt = yt − x0t β. (35) La logica del test `e la seguente: se c’`e un’autocorrelazione non “catturata” dal modello, allora i residui dovrebbero seguire un processo AR di un qualche ordine q > 0; si consideri pertanto la regressione ausiliaria εˆt = x0t δ + ρ1 εˆt−1 + ρ2 εˆt−2 + . . . + ρq εˆt−q + ηt (36) nella quale la variabile dipendente `e data dalla serie storica dei residui εˆt , mentre la lista dei regressori `e la stessa del modello di partenza a cui sono stati aggiunti tutti i ritardi dei residui fino all’ordine massimo q. La struttura delle ipotesi per valutare la presenza di autocorrelazione attraverso l’utilizzo del test BG `e perci`o la seguente: H0 : ρ1 = ρ2 = . . . = ρq = 0 (37) esiste almeno un ρi 6= 0, con i = 1, 2, . . . , q. Il test BG si ottiene come test dei moltiplicatori di Lagrange (test LM) calcolato attraverso la regressione ausiliaria (36): in particolare, la statistica test `e ottenuta attraverso una comoda approssimazione asintotica data da LMBG = T R2 ∼ χ2q , (38) 12 dove l’indice R2 si riferisce alla regressione ausiliaria e T `e l’ampiezza campionaria2 relativa alla stima dell’equazione (29). Poich´e `e concepito nel contesto del modello OLS, il test BG ha il limite di essere applicabile solo nel caso di modelli lineari dinamici. Ad esempio, questo test non `e mai applicabile in presenza di termini di media mobile: in questo caso nella regressione ausiliaria si avrebbe perfetta collinearit` a dovuta al fatto che i ritardi di εt sono contenuti all’interno del vettore x0t . 4.3 Test di Ljung-Box Il test di Ljung e Box (1978), d’ora in avanti test LB, rappresenta un test per stabilire se le osservazioni di una data serie storica sono autocorrelate. Analogamente agli altri test di autocorrelazione, l’ipotesi nulla prevede l’assenza di autocorrelazione, quindi risulta: H0 : ρ1 = ρ2 = . . . = ρq = 0 (39) esiste almeno un ρi 6= 0, con i = 1, 2, . . . , q, dove ρi (i = 1, 2, . . . , q) rappresenta l’autocorrelazione di ordine i tra le osservazioni. La statistica test `e q X ρˆi LB = T (T + 2) ∼ χ2q , (40) T −i i=1 dove ρˆi rappresenta l’i-esima autocorrelazione stimata. Rispetto al test BG, il test LB assume una connotazione pi` u generale, in quanto risulta essere applicabile anche per qualsiasi modello di tipo ARMA(p,q). In questo contesto occorre per`o tenere presente che l’applicazione del test LB avviene sui residui di un modello stimato e non direttamente sulla serie storica di interesse; in pratica, l’ipotesi nulla riguarda non implica q restrizioni al modello, bens`ı un numero inferiore che deve tenere conto della fisiologica perdita di g.d.l. dovuta al fatto che i residui sono stati ottenuti attrverso p + q ritardi nel modello ARMA stimato. In questo caso, la distribuzione limite da utilizzare nella procedura di test `e quella della v.c. χ2q−p−q . 5 Test di radice unitaria Questa sezione illustra molto brevemente le caratteristiche principali di due test alternativi al test di Dickey e Fuller (1979) o test ADF. 5.1 Test di Phillips-Perron Il test di Phillips e Perron (1988), d’ora in avanti test PP, permette di testare la presenza di una radice unitaria anche i presenza di dinamiche pi` u generali rispetto al processo AR(p) utilizzato per derivare il test ADF. Dal punto di vista analitico, la struttura delle ipotesi `e quella di un test ad una coda del tipo H0 : ∆yt = εt (41) H1 : ∆yt = (φ − 1)yt−1 + εt , dove φ < 1 rappresenta il coefficiente del modello AR(1) yt = φyt−1 + εt con εt ∼ W N (0, σ 2 ). La statistica test PP consiste sostanzialmente in una versione della statistica test di Dickey e ˆ viene utilizzata la varianza asintotica dello Fuller (1979) nella quale, al posto della varianza V ar(φ) stimatore ottenuta attraverso l’espressione m−1 X ˆ = AV ar(φ) κi γˆi (42) i=−m+1 2 In molti testi l’equazione (38) `e presentata nella versione LMBG = (T − q)R2 ∼ χ2q , in quanto la regressione ausiliaria `e effettuata su un campione di (T − q) osservazioni. In realt` a, affich´e la statistica test si distribuisca asintoticamente cone una v.c. chi quadrato, le prime q osservazioni mancanti devono essere sostituite con valori nulli. 13 dove γˆi `e l’i-esima autocovarianza stimata del processo εt , κi `e il peso assegnato a ciascuna autocovarianza, mentre m `e il parametro di troncamento che pu`o essere assegnato dall’utente. Il meccanismo di determinazione dei pesi segue lo schema denominato “tendina di Bartlett (1946)” dato dall’equazione i 1 − se |i| < m m κi = (43) 0 altrove Rispetto al test ADF, il test PP offre i seguenti vantaggi: (a) `e robusto all’eteroschedasticit` a dell’errore εt , (b) non richiede alcuna specificazione del numero dei ritardi all’interno del modello per yt . Dall’altro lato, Davidson e MacKinnon (2004) mostrano che il test ADF `e preferibile al test PP in campioni finiti. Analogamente al test ADF, la distribuzione asintotica della statistica test PP non `e standard, quindi i suoi valori critici sono estratti da una distribuzione propria per questo test. 5.2 Test KPSS Il test KPSS (acronimo derivante dalle iniziali dagli autori Kwiatkowski, Phillips, Schmidt e Shin, 1992) `e un test di radice unitaria non parametrico che si basa sulla seguente equazione yt = bt + µt + εt (44) µt = µt−1 + ut dove t `e il trend lineare, µt ∼RW, ut ∼ W N (0, σu2 ), mentre εt `e un processo a media nulla e varianza non necessariamente costante nel tempo (eteroschedasticit`a). Il KPSS si configura sostanzialmente come un test di azzeramento della varianza σu2 : sotto l’ipotesi nulla perci`o il processo µt `e costante nel tempo ed yt `e quindi stazionario. La struttura delle ipotesi `e perci`o l’inversa di quella dei test ADF e PP. In pratica, si ha la seguente struttura di test ad una coda yt ∼ I(0) H0 : σu2 = 0 (45) 2 H1 : σu > 0 yt ∼ I(1). La statistica test `e data da T 1 X KPSS = 2 ∗ St T γ0 (46) t=1 dove - εˆ = yt − µ ˆ − bt (µt `e costante sotto H0 ), - St = t X εˆi `e un ponte Browniano dato dai valori cumulati dei residui (si noti infatti che S0 = i=1 ST = 0), - γ0∗ `e la varianza asintorica calcolata attraverso lo stesso procedimento utilizzato per il test PP. La distribuzione asintotica di tale statistica non `e standard, quindi i valori critici per il KPSS sono calcolati attraverso una distribuzione propria per questo test. 6 Test di normalit` a In questa sezione vengono presentati brevemente i test di normalit`a pi` u noti in letteratura. Come `e noto, nei modelli dinamici di serie storiche questi test assumono importanza nella fase di diagnostica. 14 6.1 Test di Jarque-Bera Il test di Jarque e Bera (1980), d’ora in avanti test JB, `e un test per stabilire se una serie storica ha una distribuzione empirica approssimabile ad una distribuzione normale oppure no. In sintesi, la struttura delle ipotesi `e la seguente: H0 : la serie yt ha distribuzone marginale normale (47) H1 : la serie yt ha distribuzone marginale non normale La statistica di Jarque-Bera `e fornita dalla seguente espressione: 2 (γ4 − 3)2 γ3 ∼ χ22 , + JB = T 6 24 (48) dove γ3 e γ4 rappresentano gli indici di asimmetria e di curtosi campionari. La distribuzione asintotica `e quella di una v.c. χ22 , in quanto l’ipotesi nulla di normalit`a impone l’azzeramento congiunto per l’indice di asimmetria e per l’eccesso di curtosi (γ4 − 3). 6.2 Test di Doornik-Hansen da scrivere... 7 Variabili dummy Nell’ambito dei modelli econometrici di serie storiche, le variabili dummy dt vengono spesso impiegate come variabili esplicative per interpretare l’impatto di eventi di natura eccezionale come le guerre, le crisi o le svalutazioni monetarie che esauriscono il loro effetto in corrispondenza di poche osservazioni campionarie (generalmente una). Tecnicamente le variabili dummy si configurano come variabili dicotomiche che assumono valore unitario in corrispondenza della data in cui si osserva la realizzazione dell’evento eccezionale (o outlier ), mentre assumono valore nulla quando tale evento non si verifica. In riferimento ad un generico modello dinamico lineare nei parametri del tipo yt = x0t β + δdt + εt si ha che: yˆt = E(yt |It−1 ) = x0t βˆ ˆ t x0t βˆ + δd se dt = 0 (al tempo t non si verifica l’evento eccezionale) se dt = 1 (al tempo t si verifica l’evento eccezionale) dove It−1 rappresenta il set informativo al tempo (t − 1). Naturalmente il segno del parametro stimato δˆ indica se, rispetto al valore atteso condizionale di yt , l’outlier assume un valore decisamente pi` u alto o pi` u basso. Anche se le variabili dummy costituiscono un utile strumento per interpretare i picchi e/o i pavimenti che si osservano nel tempo all’interno dei grafici relativi alle serie storiche, tuttavia non `e una buona abitudine abusare del loro utilizzo. Ci`o deriva dal fatto che queste variabili non sono vere e proprie variabili esplicative perch´e vengono create ad hoc dall’utente per poter interpretare quei movimenti che le variabili esplicative “vere” non riescono a catturare. Un’altra raccomandazione `e quella secondo la quale bisogna utilizzare una diversa dummy per ciascun evento eccezionale. Questa scelta deriva sstanzialmente da due ragioni: dal punto di vista numerico, il coefficiente di una dummy impiegata congiuntamente per un picco ed un pavimento potrebbe risentire di un qualche effetto di compensazione tale per cui lo stesso coefficiente potrebbe risultare non significativo; dal punto di vista dell’interpretazione economica, l’utilizzo di una stessa dummy per pi` u di un outlier inficierebbe l’analisi perch´e sarebbe impossibile delineare l’effetto provocato dal singolo evento eccezionale. 15 Riferimenti bibliografici Akaike, H. (1974). A new look at the statistical model identification. IEEE Transactions on Automatic Control, 19(6): 716–723. Bartlett, M. S. (1946). On the theoretical specification and sampling properties of autocorrelated time series. Supplement to the Journal of the Royal Statistical Society, 8: 27–41. Breusch, T. S. (1979). Testing for autocorrelation in dynamic linear models. Australian Economic Papers, 17: 334–355. Cappuccio, N. e Orsi, R. (2005). Econometria. Il Mulino. Bologna. Davidson, R. e MacKinnon, J. G. (2004). Econometric Theory and Methods. Oxford University Press, New York. Dickey, D. A. e Fuller, W. A. (1979). Distribution of the estimators for autoregressive time series with a unit root. Journal of the American Statistical Association, 74(366): 427–431. Durbin, J. e Watson, G. (1950). Biometrika, 37: 409–428. Testing for serial correlation in least squares regression. Godfrey, L. G. (1978). Testing against general autoregressive and moving average error models when the regressors include lagged dependent variables. Econometrica, 46: 1293–1302. Hannan, E. J. e Quinn, B. G. (1979). The determina tion of the order of an autoregression. Journal of the Royal Statistical Society B, 41: 190–195. Jarque, C. M. e Bera, A. K. (1980). Efficient tests for normality, homoscedasticity and serial independence of regression residuals. Economics Letters, 6(3): 255–259. Kwiatkowski, D., Phillips, P. C. B., Schmidt, P. e Shin, Y. (1992). Testing the null hypothesis of stationarity against the alternative of a unit root. Journal of Econometrics, 54(1-3): 159–178. Ljung, G. M. e Box, G. E. P. (1978). On a measure of a lack of fit in time series models. Biometrika, 65(2): 297–303. Lucchetti, R. (2001). Appunti di analisi delle serie storiche. Disponibile su www2.econ.univpm. it/servizi/hpp/lucchetti/didattica/matvario/procstoc.pdf. Phillips, P. C. B. e Perron, P. (1988). Testing for a unit root in time series regression. Biometrika, 75(2): 335–346. Savin, N. E. e White, K. J. (1977). The Durbin-Watson test for serial correlation with extreme sample sizes or many regressors. Econometrica, 45: 1989–1996. Schwarz, G. E. (1978). Estimating the dimension of a model. Annals of Statistics, 6(2): 461–464. Verbeek, M. (2010). Econometria. Zanichelli. Bologna. 16
© Copyright 2024 ExpyDoc