Notas de Aulas Econometria I ** Eduardo P Ribeiro, 00 PARTE II Autocorrelação Autocorrelação: violação da hipótese: E [ε t ε t-s ] = 0, para s > 0, como por exemplo, ε t = ε t- + υ t, onde υ t é ruído branco) Neste caso E(εε )=Ω, Como esta hipótese é importante para demonstrar que V(b)=σ (X X) -, se violarmos a hipótese de independência dos erros, os pacotes estatísticos irão errar no cálculo do desvio padrão dos coeficientes e errar nos valores dos testes de hipótese Este é o principal problema da autocorrelação O estimador de MQO ainda irá gerar estimativas não viesadas, embora não mais eficientes (supondo a ordem de autocorrelação) Na verdade, V(b) = (X X) - X ΩX(X X) -, onde Ω é uma matriz complexa (desenvolvida abaixo) Para identificar o problema, é necessário fazer testes de especificação Este é o diagnóstico Os testes mais comuns são os de Durbin-Watson e de Breush-Godfey Para entender o teste, vamos especificar uma forma de classificação dos erros autorregressivos Há o caso geral de ε t = ε t- + ε t- + + p ε t-p + υ t chamado de modelo autoregressivo de ordem p (AR(p)) A regressão é sem constante, pois mantém-se a hipótese de que E[ε t ]=0) Para o caso especial de p=, ε t = ε t- + erro, H 0 : não há autocorrelação, => Ho: = 0 O teste de DW tem uma tabela específica, e o teste é calculado por T ( et et ) DW = ~ ( pˆ ) t= T e t= onde r = Σ T t=(e t - e t- ) /(Σ Τ t=e t- ), ou seja, uma regressão do resíduo em função do resíduo defasado um período A regra de decisão é :Rejeitamos Ho se DW < D (Lower); Aceitamos Ho se DW > D (Upper) e Inconclusivo se D (lower) < DW < D (upper), onde D(upper) e D(lower) são os valores tabulados Para o teste de Breusch-Godfrey, estimamos uma regressão do resíduo contra o residuo defasado p vezes e as explicativas e fazemos um teste F da significância dos coeficientes angulares dos resíduos defasados Obs: se as explicativas não incluem a dependente defasada Y t-, então o teste pode ser calculado da regressão de e t contra e t-,, e t-p apenas e pode-se usar o F de significância t ** OBS: Notas de aulas para o curso de Econometria I MFEE 00 Estas notas de aula servem para orientação do estudo apenas Este material não substitui a presença em sala de aula nem reproduz todo o conteúdo do curso As obras de referência para o material aqui apresentado estão citadas no programa do curso Material sujeito a revisão
Para entender melhor a matriz de variância-covariância, tomemos o caso de um modelo de regressão com erros AR(): Y = X β + ε, com ε t = ε t- + u t, onde u t ~ iid (0, σ ) Temos que b = (X X) - X Y, como sempre, mas V(b) σ (X X) - e na verdade, V(b) = (X X) - X ΩX(X X) -, onde ε ε ε ε ε ε ε Ω = E [εε ] = E ε nε ε ε n n Ω = σ u/(- ) T T T T As soluções para obter boas estimativas de β e estimativas de V(b) corretas são, primeiro, o uso de uma matriz de variância-covariância que acomoda a Autocorrelação (também chamada matriz de Newey-West, e apresentada como opção no Eviews na estimação por LS); segundo o uso de MQG, através de transformação das variáveis explicativas e explicada Ou seja, como antes, em heterocedasticidade, o problema de MQ é Min (Y - Xβ) Ω - (Y - Xβ), que gera estimativas b GLS = (X Ω - X) (X Ω Y), com V(b GLS ) = (X Ω - X) - Estas podem ser obtidas através de b GLS = (X * X * ) - (X * Y * ), onde X * = PX Y * = PY e onde P P = Ω Para o caso de autocorrelação de primeira ordem (para regressão simples) ( r) X * ( r) = ( r) x x 3 rx rx x T rx T y ry Y * = y T ry T + Há dois modos alternativos a MQG O primeiro é o método de Máxima Verossimilhança O segundo é uma Transformação do Modelo de regressao Tomando o exemplo de regressão simples, y t = α + β x t + ε t e ε t = ε t- + u t (*) onde u t ~ iid (0, σ ) e t =,, T Substituindo ε t = y t - α - β x t na segunda equação, temos: Y t α β X t = (Y t- α β X t- ) + u t 3
Y t = α( ) + Y t- + β X t β X t- + u t (**) Y t = α + Y t- + β 0 X t β X t- + u t O erro do modelo (**) é independente no tempo, ie, não tem autocorrelação Por isto, pode ser estimado por MQO sem problemas Note que se β = β 0, o modelo (**) pode ser escrito como (*) O modelo (**) é chamado ADL(,) Autoregressive Distributed Lag de ordem e Interpretação dos coeficientes: E [Y t Y t-, X t, X t- ] = α + Y t- + β 0 X t β X t- E [Y t ]/ X t = β 0 (curto prazo) lim T-> E [Y t ]/ X t = (β 0 + β )/( ) (longo prazo), onde < Para entender, lembre-se que, no steady-state (longo prazo), y t = y t- = = y e x t = x t- = = x na média da regressão Substituindo na expressão da média condicional, Y = α + Y+ β 0 X β X e Y = α/( ) + (β 0 + β )X/( ) Obs: O caso geral de ADL(p,q) é Y t = α + Y t- + + p Y t-p + β X t + + β q X t-q + u t O teste de COMFAC (common factor) é um teste para avaliar se um modelo dinâmico pode ser escrito como um modelo estático com erro autoregressivo O modelo autoregressivo (onde COMFAC é válido, isto é β = β 0 ) apresenta uma peculiaridade em relação aos efeitos de curto e longo prazo [qual?] Esta peculiaridade nos permite identificá-los O teste COMFAC é não linear e recomenda-se que seja feito via um teste de razão de verossimilhança Q= [loglik ADL(p,p) loglik AR(p) ], que segue uma distribuição qui-quadrado com p graus de liberdade 4
Multicolinearidade Multicolinearidade Perfeita: violação da hipótese As variáveis explicativas X,,X k não são combinações lineares entre si Em outras palavras, o posto da matriz X não é k+ Neste caso, não é possível obter estimativas por MQO Multicolinearidade: altíssima correlação entre variáveis explicativas Isto não gera estimativas viesadas ou altera a forma da matriz de variância-covariância Mas infla os desvios padrões de cada coeficiente (pela matriz (X X) - ter termos muito grandes) Este é o problema da multicolinearidade Com isto, passa a ser comum ter (pares) de coeficientes com estatísticas t pequenas, mas com testes F conjuntos de exclusão rejeitados Este é o sintoma de multicolinearidade Outro modo de identificar, seria através do cálculo do FIV(b k )=/( R k ), o fator de inflação da variância de um parâmetro b k e onde R k é o coeficiente de determinação da regressão de x k em x,, x k- Se este for alto, é possível que o problema da multicolinearidade esteja presente Diz-se possível, pois um alto FIC não é condição necessária nem suficiente para o problema de multicolinearidade, já que pode-se demonstrar que V(b k )=σ /(S kk ( R k )), onde S kk = Σ(x ki m xk ), O que ocorre é que há duas variáveis explicativas com o mesmo conteúdo informacional (variabilidade similar, ie, altamente correlacionada) Com isto, o método de mínimos quadrados não consegue distinguir entre os efeitos diretos e indiretos das variáveis Embora haja soluções ditas ad-hoc como o método de ridge regression e o uso de análise fatorial, talvez o mais razoável seja pensarmos no problema e identificarmos qual variável (dentre aquelas que tem, na prática, a mesma informação) é a mais importante e/ou a mais representativa Heterocedasticidade Heterocedasticidade: violação da hipótese do MCRL: V [ε i X] = σ, erros têm variância constante Agora, V [ε i X] = σ i = f(γ 0 + γ z i + + γ pz pi ) Como esta hipótese é importante para demonstrar que V(b)=σ (X X) -, se violarmos a hipótese de homocedasticidade, os pacotes estatísticos irão errar no cálculo do desvio padrão dos coeficientes e errar nos valores dos testes de hipótese Este é o problema da heterocedasticidade O estimador de MQO ainda irá gerar estimativas não viesadas Na verdade, V(b) = (X X) - X ΩX(X X) -, onde Ω é uma matriz diagonal com elemento da diagonal igual a σ i Para identificar o problema, é necessário fazer testes de especificação Este é o diagnóstico Os testes mais comuns são os de White e de Breush- Pagan, que são equivalentes, a grosso modo O teste busca avaliar a heterocedasticidade, através de um teste de H 0 :homocedasticidade; H a :heterocedasticidade ou H 0 : γ ==γ p =0 O teste supõe que f( ) acima é linear, que uma estimativa de σ i pode 5
ser dada por e i Os testes diferem pela hipótese de z: alguns usam as variáveis x, outros usam as variáveis x e seus quadrados Uma vez identificado o problema de heterocedasticidade, a solução têm duas formas Primeiro, o uso de uma matriz de variância-covariância dos coeficientes ajustada para heterocedasticidade (a chamada Matriz de White) que é uma estimativa de V(b) = (X X) - X ΩX(X X) -, implementada no EViews, como uma option em Least Squares na hora de Estimate Equation Segundo a transformação das variáveis explicativas e explicadas, para obter, de modo indireto, estimativas por mínimos quadrados generalizados (MQG ou GLS em inglês) O problema de MQG é obter estimativas de β, tal que, dado E(εε )=Ω, MQG: Min β Σε t w t ou Min (Y - Xβ) Ω - (Y - Xβ) b GLS = (X Ω - X) - (X Ω Y) com V(b GLS ) = (X Ω - X) - b GLS pode ser calculado através de transformação das explicativas e explicadas, tal que b GLS = (X * X * ) - (X * Y * ), onde X * = PX Y * = PY e onde P P = Ω Para o caso de heterocedasticidade, a sugestão é multiplicar cada observação por (/s i ), onde s i é obtido a partir da estimação do teste de White/Breush- Pagan, em um processo interativo Todavia, é possível demonstrar que este método de MQG factível gera estimativas viesadas, embora consistentes, quando temos o caso usual de σ i desconhecido O melhor é a estimação por Máxima Verossimilhança, se sabemos a distribuição dos erros e a forma da heterocedasticidade 6