MODELO DE EQUAÇÕES SIMULÂNEAS Fernando de Holanda Barbosa A interdependênia das variáveis e sua determinação simultânea nos modelos eonômios aarreta alguns problemas estatístios que têm de ser devidamente levados em onta na prátia eonométria. Este trabalho tem omo objetivo apresentar uma introdução suinta ao modelo tradiional de equações simultâneas, disutindo-se o problema de identifiação e examinando-se alguns métodos de estimação.. - Coneitos e Definições Básias Os oneitos e definições básias do modelo de equações simultâneas podem ser introduzidos de um modo didátio através de um exemplo onreto. Para tal finalidade onsidere-se um modelo de merado de um bem em que a quantidade e preço são determinados simultaneamente. Forma Estrutural do Modelo A equação de demanda de merado pelo bem é expressa por: d t () q p + β y + β S + u t t t t d onde o índie t refere-se ao período que a variável orresponde, q t é a quantidade demandada, p t é o preço de merado do bem, y t é a renda real dos onsumidores, S t é o preço de um bem substituto do bem em estudo, u t é o termo aleatório ujas propriedades sarão espeifiadas mais adiante e, β e β são os parâmetros estruturais da equação de demanda. A equação de oferta de merado do bem é dada por: s t () q p + β ω + β p + u t 3 t 4 t t onde q t s é a quantidade ofertada, ω t é o preço de um insumo utilizado na produção do bem, p t- é o preço do produto defasado de um período, u t é o termo aleatório e, β 3 e β 4 são os parâmetros estruturais da equação de oferta. Observe que na espeifiação () a quantidade ofertada é função do preço do bem no período t e do preço om um período de defasagem. Note-se, também, que algumas variáveis que apareem na equação de demanda não fazem parte da equação de oferta, e vie-versa. O equilíbrio de merado se dá quando a quantidade demandada for igual à quantidade ofertada. Em símbolos: d t s t (3) q q q t onde q t é a quantidade transaionada no merado.
As relações (), () e (3) são denominadas equações estruturais em virtude de desreverem a estrutura da eonomia, no aso a estrutura do merado do bem em análise. As três equações onjuntamente onstituem a forma estrutural do modelo. As equações estruturais, de um modo geral, podem ser lassifiadas em três tipos: a) equações de omportamento; b) equações ténias ou instituionais; e ) identidades ou igualdades. As identidades são definições de variáveis enquanto as igualdades produzem ondições de equilíbrio ou ajustamento entre variáveis. As equações ténias são equações do tipo função de produção e as instituionais refletem peuliaridades de organização instituional omo é o aso, por exemplo, de equações de impostos om suas alíquotas expressas em lei. As equações de omportamento, omo o nome india, prouram desrever o omportamento dos agentes eonômios. No modelo de merado desrito nos parágrafos anteriores, as duas primeiras equações são de omportamento e a tereira equação é uma igualdade que fornee a ondição de equilíbrio do modelo. Variáveis Endógenas, Exógenas e Predeterminadas As variáveis de um modelo estrutural são de três tipos: endógenas, endógenas defasadas e exógenas. As variáveis endógenas têm seus valores determinados através do modelo. As variáveis exógenas são determinadas "fora" do modelo. As variáveis endógenas defasadas, omo seu próprio nome india, são variáveis endógenas que entram em equações estruturais om valores defasados. As variáveis exógenas e endógenas defasadas são, onjuntamente, denominadas de variáveis predeterminadas. O que arateriza as variáveis exógenas é o fato de não estarem orrelaionadas om os termos aleatórios das equações do modelo dos quais partiipam. No modelo de merado formado pelas equações (), () e (3), as variáveis endógenas são o preço p t, a quantidade demandada q d t e a quantidade ofertada q s t. As variáveis exógenas são: a renda y t, o preço S t do bem substituto e o preço ω t do insumo. A variável endógena defasada aparee na equação de oferta e é o preço p t- do produto defasado de um período. As variáveis predeterminadas y t, S t, ω t e p t-, por hipótese, não estão orrelaionadas omos termos aleatórios u t e u t. Estrutura Estoástia No toante à estrutura estoástia do modelo admitiremos que os termos aleatórios u t e u t são serialmente independentes e que têm valores esperados iguais a zero: Eut Eut 0 A matriz de variânia-ovariânia independe do tempo t e é expressa por: u t E ut u t u t u u t t σ σ σ σ e obviamente σ σ. Forma Reduzida do Modelo
As identidades ou igualdades porventura existentes em um modelo estrutural podem ser eliminadas do modelo diminuindo-se o número de variáveis endógenas através da substituição de uma variável nas demais equações pelo seu valor na igualdade ou identidade. No nosso exemplo, a equação (3) pode ser eliminada do modelo substituindo-se q d t e q s t, nas duas primeiras equações por q t. O resultado a que se hega, em notação matriial, é o seguinte: (4) q β t p t 0 β 0 β 0 3 yt u 0 St + ω t u β 4 pt t t Pós multipliando-se ambos os lados desta equação pela matriz obtém-se yt qt (5) π St v π π3 π4 t + pt π t v π π 3 π ω 4 t pt onde: (6) π π 3 4 π π π π 3 π π 4 β β β 3 β β β β 3 β 4 4 e vt ut + u vt u t + u t t O sistema de equações (5) é denominado de forma reduzida do modelo por expressar ada variável endógena omo função das variáveis predeterminadas, e os oefiientes π ij são os parâmetros da forma reduzida. Os termos aleatórios v t e v t da forma reduzida não estão orrelaionados om as variáveis exógenas em virtude dessas variáveis não estarem orrelaionadas om os termos aleatórios u t e u t. Consequentemente, desde que as demais hipóteses do modelo de 3
regressão sejam satisfeitas pode-se apliar o método de mínimos quadrados ordinários na estimativa dos parâmetros de ada equação da foma reduzida (5).. - Identifiação do Modelo Uma vez que os parâmetros da forma reduzida do modelo sempre podem ser estimados surge, então, a questão de saber se a partir dessas estimativas os oefiientes da forma estrutural do modelo podem ou não serem estimados. Este tipo de indagação, onstitui-se no hamado problema de identifiação. Para estudar esse tipo de problema onsideremos, em primeiro lugar, a identifiação dos parâmetros da equação de demanda (). Subtraindo-se dos elementos da primeira linha da matriz que aparee no lado esquerdo de (6) os elementos da segunda linha, depois de multipliados pelo oefiiente, resulta: (7) π π β π π β π 3 π 3 0 π 4 π 4 0 Essas equações podem ser esritas na seguinte forma matriial: (8) Q π onde: π π 0 π π 0 π, Q, β π3 π 300 β π 4 π 400 A estimação da forma reduzida do modelo por mínimos quadrados ordinários permite que se obtenha estimativas do vetor π e da matriz Q. O problema de identifiação onsiste, então, em saber sob que ondições o vetor pode ser onheido a partir dessas estimativas. Formalmente, o problema reduz-se ao estabeleimento das ondições em que o sistema de equações lineares (8) tem solução. Observe-se que a primeira equação do modelo estrutural em estudo, a equação de demanda, ontém duas variáveis endógenas, L, e duas variáveis predeterminadas ( exógenas), K. O modelo ompleto, omo formalizado no sistema (4), tem duas variáveis endógenas, L, e quatro variáveis predeterminadas, K 4. A matriz Q é, portanto, de ordem K x (L - + K ), o vetor oluna π ontém K elementos e é um vetor om (L - + K ) elementos. 4
Condição de Posto Para Identifiação A ondição neessária e sufiiente para que os parâmetros da equação de demanda sejam identifiados é que o posto ( rank) da matriz Q seja igual ao seu número de olunas. Isto é: ρ ( Q ) L + K 3 onde ρ(q ) india o posto da matriz Q. Essa ondição é denominada de ondição de posto para identifiação. Condição de Ordem Para Identifiação Uma ondição neessária, embora não sufiiente, para que os parâmetros da equação da demanda sejam identifiados, denominada de ondição de ordem para identifiação, é que o número de olunas da matriz Q seja menor ou igual ao seu número de linhas. Obviamente, esta é uma ondição neessária para que o posto da matriz Q seja igual a L - + K. Em símbolos, a ondição de ordem é a seguinte: ou ainda: K L - + K K L - Esta última desigualdade foi obtida levando-se em onta que o número de variáveis predeterminadas do modelo é igual à soma do número de variáveis predeterminadas que apareem na equação de demanda e do número de variáveis predeterminadas que foram exluídas da referida equação: K K + K. A ondição de ordem é uma ondição de fáil verifiação pois requer apenas a ontagem do número de variáveis predeterminadas exluidas da equação e do número de variáveis endógenas inluidas na equação. Se o número de variáveis predeterminadas exluídas for maior ou igual ao número de variáveis endógenas inluídas na equação, menos, é possível que a equação seja identifiada. Caso ontrário, pode-se afirmar que a equação não é identifiada Equação Superidentifiada Admita que os oefiientes β 3 e β 4 sejam diferentes de zero. Portanto, de aordo om (6), os parâmetros π 3 e π 4 são, também, diferentes de zero. Segue-se, então, que o oefiiente pode ser obtido de duas maneiras diferentes, segundo (7), através das seguintes fórmulas: e π π π π 3 3 4 4 5
Observe-se que, neste aso, o número de linhas da matriz Q é maior do que o seu número de olunas pois K>L - +K. A equação de demanda é então dita superidentifiada em virtude de não existir solução únia para a estimativa do parâmetro a partir das estimativas dos parâmetros de forma reduzida. Cabe salientar que esse problema pode ser ontornado omo se mostrará mais adiante. Equação Exatamente Identifiada Admita-se agora que, por exemplo, o parâmetro β 4 seja igual a zero. Esta hipótese implia em que o oefiiente π 4 também é igual a zero. Assim, a última equação de (7) deixa de existir e a matriz Q passa a ser uma matriz quadrada de ordem igual ao número K de variáveis predeterminadas do modelo. Segue-se, então, que o parâmetro estrutural agora é alulado através de uma únia expressão, que é a seguinte: π π 3 3 A equação de demanda neste aso é dita exatamente identifiada em virtude do parâmetro ser obtido por um únia via. Equação Não Identifiada Suponha que tanto o oefiiente β 3 omo o oefiiente β 4 sejam iguais a zero, o que signifia dizer que π 3 π 4 0. Esta hipótese faz om que o sistema de equações (7) reduza-se a um sistema de duas equações e três inógnitas,,, β e β. A onlusão óbvia é de que é impossível estimar-se os parâmetros,, β e β, individualmente, a partir dos valores onheidos das estimativas dos parâmetros da forma reduzida do modelo. É interessante examinar-se om mais detalhes este aso para que se possa ompreender melhor o porquê da impossibilidade de identifiação dos parâmetros da equação de demanda, quando a quantidade ofertada é função apenas do preço do produto. A Figura mostra que, a não ser por hoques aleatórios, a urva de oferta permanee estável, enquanto a urva de demanda se desloa em virtude de mudanças na renda dos onsumidores e no preço do bem substituto. Estes desloamentos da urva de demanda geram observações de preços e quantidades que estão dispersos em torno da urva de oferta. Consequentemente, estes dados não permitirão que se obtenha os parâmetros da equação de demanda mas sim os parâmetros da urva de oferta. 6
Figura IDENIFICAÇÃO DA EQUAÇÃO DE OFERA Identifiação da Equação de Oferta Subtraindo-se dos elementos da primeira linha da matriz (6) os elementos da segunda linha, depois de serem multipliados pelo parâmetro estrutural, resulta no seguinte sistema de equações: π π 0 π π 0 π3 π 3 β π4 π 4 β4 3 Alternativamente, esta equação pode ser esrita em forma matriial do seguinte modo: onde: π Q π π π π π, Q π 3 π π 4 π, 3 4 0 0 0 0 0 β 3 0 β 4 7
Observe-se que a matriz Q é diferente da matriz Q. De maneira análoga ao que foi estabeleido para a equação de demanda, a ondição neessária e sufiiente para que os parâmetros da equação de oferta sejam identifiados é que o posto de matriz Q seja igual ao seu número de olunas. Isto é: ρ ( Q ) L + K onde L e K indiam, respetivamente, o número de variáveis endógenas e o número de variáveis predeterminadas inluídas na equação da oferta. Identifiação: Uma Regra Prátia A ondição de posto para identifiação, omo apresentada aqui, requer que se onheça uma matriz que tem omo alguns dos seus elementos oefiientes da forma reduzida do modelo. Este proedimento não é prátio em virtude das equações de um modelo de equações simultâneas serem espeifiadas, em geral, sob a forma estrutural. orna-se, portanto, bastante atrativo o estabeleimento de uma ondição de posto que neessite apenas do exame da matriz dos oefiientes da forma estrutural do modelo, o que ertamente failitará o estudo da identifiação de ada equação do modelo. O restante desta subseção é dediado a esse assunto. Considere-se um modelo de equações simultâneas om L variáveis endógenas e K variáveis predeterminadas. Imagine que se disponha de uma amostra de tamanho para estimar-se o modelo. A iésima equação do modelo, para o período t, será dada por: y + y + + y β x + + β x + u il t i t il Lt il t ik Kt it Em notação matriial, este sistema pode ser esrito da seguinte forma: (9) Y Γ B + U onde: y y Y y y y y y y L y L L x x xk x xx, x x xk K i,, L, t,, 8
y y Γ y L y y y y L y L y L LL β β β L β ββ L, B βk βk β LK uu u u U u u u u L u L L A matriz Y das variáveis endógenas é uma matriz de ordem x L, é uma matriz de ordem x K das variáveis predeterminadas, Γ é uma matriz quadrada de tamanho L ujos elementos são os oefiientes das variáveis endógenas, B é uma matriz de ordem K x L dos oefiientes das variáveis predeterminadas e U é uma matriz de ordem x L dos termos aleatórios. Observe que estamos adotando notação ontrária à usual em relação as matrizes aima: o primeiro índie india a oluna e o segundo refere-se à linha da matriz. Pósmultilpliando-se o sistema de equações (9), pela matriz inversa da matriz Γ, obtém-se a forma reduzida do modelo: (0) Y + V onde: e B Γ - ou Γ B V U Γ - onde e V são matrizes de ordens K x L e x L, respetivamente. Admitamos que a primeira equação do sistema (9) exlua algumas variáveis endógenas e predeterminadas do modelo e que seja expressa por: () y Y + β + u + u onde y é um vetor oluna om elementos, Y é uma matriz de ordem x L -, um vetor L - x, uma matriz de ordem x K, β um vetor K x, u um vetor x, Y, β. As matrizes Y,, U, Γ e B do sistema de equações (9) estão relaionadas om os vetores e matrizes que apareem em () através das seguintes partições: 9
Y [ y Y Y ], [ ], U [ u U ] Γ 0 Γ Γ Γ 3 β, B 0 B B Usando-se esta notação a forma reduzida (0) passa, então, a ser esrita omo: () [ y Y Y ] [ ] + [ v V ] V Como Γ B, tem-se que: 3 3 Γ Γ 0Γ3 βb 0B 3 3 Efetuando-se as multipliações indiadas aima hega-se ao seguinte resultado: Γ+ Γ+ 3Γ3 (3) β B 0 B Γ+ Γ+3Γ3 Comparando-se as primeiras olunas das duas matrizes aima onlui-se que: (4) + β Estas equações podem ser esritas omo: (5) Q π onde: π, Q I 0 Observe-se que π é um vetor om K elementos, e são matrizes de ordem K x (L -) e K x (L - ), respetivamente. A matriz Q é de ordem K x (L - + K ). A 0
ondição neessária e sufiiente para identifiação da primeira equação do modelo, omo vimos anteriormente, é que o posto da matriz Q seja igual L - + K. Esta ondição é equivalente a que o posto da matriz seja igual ao posto da matriz e igual a L -. Isto é: (6) ρ ρ ( ) L Considere a matriz * de ordem (K + L -L ) x L, definida por: 0 * 0 B Γ 3 ujo posto é,obviamente, igual ao posto da matriz B Γ 3 A matriz é uma matriz de ordem (K + L -L ) x (L-). Cabe salientar que a matriz é formada pelos oefiientes das variáveis endógenas predeterminadas e endógenas exluídas da equação, que se deseja saber se é ou não identifiada, e que entram nas demais equações do modelo. A matriz * é igual ao produto das seguintes matrizes: * 0 0 3 0 Γ Γ Γ 3 0 0 B Γ 3 É fáil verifiar-se este resultado om o auxílio de (3). Pós multipliando-se a matriz * pela matriz inversa de Γ resulta: * Γ 00I 3 Como o posto da matriz * Γ - é igual ao posto da matriz *, e omo o posto de * Γ -, segundo a expressão anterior é igual ao posto da submatriz adiionado ao posto da matriz identidade I, segue-se, então que: ρ ([ ]) +L ( *) ρ( * Γ ) ρ L Em virtude de (6) onluímos que o posto da matriz é igual a: ρ ( ) ρ ( *) L
Isto é, o posto da matriz deve ser igual ao número de variáveis endógenas do modelo, menos um, para que a primeira equação estrutural seja identifiada. Observe-se que a matriz tem (K + L -L ) linhas e (L-). olunas. Quando a equação for identifiada e o número de linhas de for maior que seu número de olunas, K > L -, a equação é dita superidentifiada. Quando a equação for identifiada e a matriz tiver um número de olunas igual ao número de linhas a equação é dita exatamente identifiada. Apliação da Regra ao Modelo de Oferta e Proura A matriz orrespondente à equação de demanda do modelo de merado (4) reduzse a um vetor oluna formado pelos oefiientes β 3 e β 4, tendo em vista que as duas variáveis endógenas do modelo são inluídas na equação. Assim, temos que: β 3 β 4 O posto de deve ser igual a L- - para que a equação de demanda seja identifiada. Cabe salientar que se ambos os oefiientes, β 3 e β 4, forem diferentes de zero, a equação de demanda é superidentifiada enquanto que se um destes oefiientes for nulo a equação é exatamente identifiada. No aso da equação de oferta a matriz é igual a: β β pois não existe variável endógena exluída da equação de oferta. O posto de será igual a um se pelo menos um dos oefiientes, β e β, for diferente de zero. Quando ambos os oefiientes forem nulos a equação de oferta não será identifiada. A equação de oferta será superidentifiada se ambos os oefiientes forem diferentes de zero e será exatamente identifiada se um desses oefiientes for nulo. É interessante observar que em um modelo om apenas duas variáveis endógenas, a exlusão de uma variável predeterminada de ada equação do modelo garante a sua identifiação..3 - Estimação de Parâmetros Estruturais A literatura eonométria ontém um bom número de diferentes estimadores para os parâmetros das equações estruturais de um modelo de equações simultâneas. Quanto à informação que utilizam, estes estimadores podem ser lassifiados em duas lasses: os de informação limitada e os estimadores de informação ompleta. Os estimadores de informação limitada levam em onta apenas a informação que diz respeito a uma equação partiular do modelo, enquanto os estimadores de informação ompleta inorporam toda a informação ontida no mesmo. Apresentaremos a seguir, três estimadores de informação limitada: mínimos quadrados indireto generalizado, mínimos quadrados em duas etapas e máxima verossimilhança.
O estimador de mínimos quadrados em duas etapas é bastante popular devido à sua fórmula simples omparada om outros estimadores. No que toa ao estimador indireto generalizado de mínimos quadrados a maioria dos livros textos de eonometria afirmam, erroneamente, que este estimador não pode ser apliado a equações superidentifiadas pois gerariam estimativas que não são únias. Disutiremos, também, nesta subseção os problemas que surgem quando se usa o método de mínimos quadrados ordinários na estimação dos parâmetros de uma equação estrutural. Veremos ainda a apliabilidade do método de mínimos quadrados ordinários quando o modelo de equações simultâneas for de um tipo partiular, o hamado modelo reursivo. Inonsistênia dos Estimadores de Mínimos Quadrados A equação da forma reduzida do modelo de oferta e proura que exprime o preço do produto omo função das variáveis predeterminadas, de aordo om (5), é dada por: u pt π yt + π St + π3 ωt + π4 pt + u t t A partir desta relação é fáil se onstatar que a ovariânia entre o preço p t e o termo aleatório u t é diferente de zero pois E p u t u E u u t t t t σ σ Na obtenção deste resultado levamos em onta que, por hipótese. as variáveis predeterminadas não estão orrelaionadas om u t. A expressão anterior mostra laramente que o preço pt e o termo aleatório u t estão orrelaionados. Este fato implia em que os estimadores de mínimos quadrados ordinários dos parâmetros da equação de demanda (), repetida aqui por onveniênia, q p + β y + β S + u t t t t t, serão tendeniosos e inonsistentes. O mesmo fato oorre om os estimadores de mínimos quadrados ordinários dos parâmetros da equação de oferta em virtude da ovariânia existente entre o preço p t e o termo aleatório u t : E p u t u E u u t t t t σ σ A onlusão a que se hega quanto à estimação dos parâmetros de uma equação estrutural, através do método de mínimos quadrados ordinários, é de que este método não é, em geral, reomendável fae à tendeniosidade e à inonsistênia dos estimadores daí resultante. Modelos Reursivos 3
Suponha agora que a quantidade ofertada independa do preço p t do produto no período t mas que ainda seja função do preço ω t do insumo e do preço p t- do produto om um período de defasagem. Isto é: (7) q β ω + β p + u t 3 t 4 t t A equação de demanda de merado ontinua sendo dada por (), porém, preferimos agora esrevê-la de maneira ligeiramente diferente, om preço p t do produto no lado esquerdo da equação: β u β (8) pt qt t St t Admita também a hipótese de que os termos aleatórios u t e u t não estejam orrelaionados. As variáveis endógenas do modelo de merado ontinuam sendo o preço p t e a quantidade q t. As variáveis predeterminadas, omo antes, são o preço ωt do insumo, o preço p t- do bem defasado de um período, a renda y t e o preço S t do bem substituto. A equação de oferta (7) além de estar na forma estrutural está, também, na forma reduzida, pois o lado direito daquela equação só ontém variáveis predeterminadas. Logo, a apliação de mínimos quadrados ordinários onduz a estimadores não tendeniosos dos seus parâmetros. O termo aleatório u t, por hipótese, não está orrelaionado om o termo aleatório u t. Segue-se, então, que a quantidade qt não está orrelaionada om o termo u t. Consequentemente, a apliação de mínimos quadrados ordinários na estimação dos parâmetros da equação de demanda onduz a estimadores não tendeniosos dos seus parâmetros. Observe que neste aso é importante prestar atenção para que a regressão seja feita do preço p t ontra as variáveis qt, y t e S t. A ordem das variáveis nos modelos reursivos é bastante importante e daí porque esrevemos a equação de demanda omo em (8). O sistema de equações formado por (7) e (8) é denominado reursivo em virtude do modelo ser resolvido reursivamente: a primeira equação fornee o valor da quantidade qt e, onheido este valor, a segunda equação nos dá o valor do preço pt. Em notação matriial, o modelo de merado expresso por (7) e (8) pode ser esrito omo: 0 q t 00β3β4 pt β β 0 0 yt S u t t + ωt u t pt Duas propriedades araterizam um modelo reursivo. A primeira é que a matriz dos oefiientes que multiplia o vetor das variáveis endógenas tem um formato partiular, qual seja, a de ser uma matriz triangular, que, no nosso exemplo, é igual a: 4
0 A segunda propriedade que arateriza um modelo omo reursivo é que a matriz de variânia dos termos aleatórios é uma matriz diagonal. No exemplo do modelo de merado, a hipótese de que E u t u t 0 implia que: u t E u tu t u t u u t t σ 0 0 σ Vale ressaltar que estas duas propriedades menionadas asseguram a onsistênia dos estimadores de mínimos quadrados ordinários dos parâmetros das equções de um modelo reursivo. Estimador de Mínimos Quadrados Indireto Generalizado A expressão (5), repetida aqui por onveniênia, Q π ontém um sistema de K equações lineares om (L + K - ) inógnitas, os elementos do vetor. A solução desta última é dada por: ( Q Q ) Q π O estimador de mínimos quadrados indireto generalizado é obtido quando substituímos os valores de Q e π na expressão aima pelos estimadores Q e π da forma reduzida. Isto é: ( ) Q Q Q π onde a matriz Q é igual a (9) Q D, e os estimadores e π da forma reduzida são: (0) ( ) Y π () ( ) y 5
6 e a matriz D é dada por: D 0 I Denominamos o estimador de estimador de mínimos quadrados indireto generalizado por dois motivos. Em primeiro lugar, porque este estimador é obtido indiretamente através dos estimadores e π. Em segundo lugar porque, no aso partiular de a equação estrutural ser exatamente identifiada, reduz-se ao tradiional estimador indireto de mínimos quadrados: π Q Cuidemos, agora, de obter expressões algébrias para o estimador em função das matrizes de observações e y Y. Usamos a relação (9) para esrever o estimador da seguinte forma: π D D D D D D Em seguida, substituímos os valores de e π dados em (0) e () na expressão anterior e obtemos: () ) ( ) ( ) ( I Y Y Y Y ) ( ) ( y Y Para se hegar a essa expressão levamos em onta que D Y ( ) A demonstração desta igualdade é bastante simples: D D Y D Y Y ( ) ( ) ( ) ( ) tendo em vista que D. De maneira similar alula-se o produto D. Usando-se uma notação mais simples a expressão () pode ser esrita omo: (3) ) ( ) ( y levando-se em onta que: D D I ( ) ( )
7 pois DD I. Propriedades do Estimador Substituímos o valor de y, dado pelo lado direito do segundo sinal de igualdade de (0), em (3), obtemos: (4) ( ) ( ) + u De aordo om algumas hipóteses tradiionais no estudo dos estimadores dos parâmetros de um sistema de equações simultâneas temos que limp é finita, e limp u é igual a zero. A notação limp denota o limite em probabilidade da variável indiada. Apliando-se estes resultados a (4) onluímos que: limp o que signifia dizer que o estimador indireto generalizado de mínimos quadrados é onsistente. A distribuição assintótia da variável aleatória ( ) pode ser obtida om o seguinte proedimento da expressão (4) temos que: u ) ( Por outro lado, as hipóteses a que nos referimos abaixo da expressão (4) nos possibilita afirmar que: limp G onde G é uma matriz ujos elementos são finitos. Em seguida, lançamos mão do teorema que afirma que a distribuição assintótia de u / é normal om valor esperado zero e Essas hipóteses estão listadas em H.heil (97), Priniples of Eonometris, John Wiley, apítulo 0.
matriz de variânia-ovariânia igual a σ limp. Podemos, então, onluir que a distribuição assintótia de é ( ) é normal om média zero e matriz de variâniaovariânia, Var, igual a: (5) σ G limp G Var (6) s A estatístia ( y ) ( y ) é um estimador onsistente da variânia σ. A prova dessa propriedade é bastante simples. Substituindo-se (0) na expressão anterior obtemos: u u u u s ( ( ) ) + ( ) ( ) A partir desta relação onluímos que: limp s u u limp σ baseados no fato de que limp ( ) 0 e de que limp u u / σ. É fáil derivar-se a partir de (5) e (6) os erros padrões (assintótios) da estimativa do estimador indireto generalizado de mínimos quadrados. Isto é, a partir destas expressões onluímos que os erros-padrões da estimativa dos elementos do vetor são dados pelas raízes quadradas dos elementos da diagonal prinipal da matriz 3 s ( ) ( ) ( ) Mínimos Quadrados Em Duas Etapas O estimador de mínimos quadrados em duas etapas pode ser derivado de diferentes maneiras. A seguir derivaremos este estimador om o auxílio do enfoque algébrio. da forma reduzida do modelo, expresso em (), temos que y + [ ] v Por outro lado, da equação (4) sabemos que: I 0 β 8
9 Substituindo-se esta relação na expressão anterior onluímos que: [ ] 0 v I y + β Se os valores de e fossem onheidos, poderíamos apliar o método de mínimos quadrados ordinários à equação anterior. O estimador assim obtido seria dado por: d Q Q Q y Entretanto, devido ao fato de que e serem parâmetros que têm de ser estimados, visto não serem onheidos a priori, o estimador aima não pode ser apliado na prátia. odavia, o problema é failmente ontornado usando-se a matriz 0 I Q ao invés da matriz Q, onde e são os estimadores de mínimos quadrados da forma reduzida do modelo. Dessa maneira, obtemos o estimador de mínimos quadrados em duas etapas: Q Q Q y Usamos a relação (9) para esrever este estimador na seguinte forma: ~ Y D D D D D Em seguida, substituindo-se o valor de dado por (0) na expressão aima resulta: ) ( ) ( ~ y Y Y Y Y Y Alternativamente, essa expressão pode ser esrita de maneira mais ompata do seguinte modo: ( ) ( ) y O enfoque que adotamos na derivação do estimador de mínimos quadrados em duas etapas não mostra o porque do seu nome. odavia, não é difíil entender qual a origem da palavra duas etapas no nome do estimador. Com efeito, observe que o valor previsto de Y
que denominamos por Y, é igual ao produto da matriz vezes a estimativa de mínimos quadrados ordinários,, da forma reduzida: Como, e: Y ( ) Y Y Y Y ( ) ( ) Y Y ( ) Y Y Y ( ) Y ( ) D Y D Y Segue-se que: Y Y Y ~ Y Y y Logo, a estimativa é também obtida pelo seguinte proedimento em duas etapas: a etapa: a partir da regressão de Y ontra obtém-se Y ; º etapa: faz-se, então, a regressão de y ontra Y e. Pode-se provar, de maneira análoga ao que foi feito para o estimador indireto generalizado de mínimos quadrados, que o estimador de mínimos quadrados em duas estapas é onsistente, limp i, e que ( ) tem uma distribuição asintótia normal om média zero e matriz de variânia-ovariânia igual a: σ limp Portanto, os erros padrões da estimativa dos elementos do vetor são dados pelas raízes quadradas dos elementos da diagonal prinipal da matriz: s ( ) A interpretação que aabamos de desrever do estimador de mínimos quadrados em duas etapas é bastante sugestiva, mas não deve ser levada ao pé da letra, sob pena de se ometer um erro importante no álulo dos erros padrões das estimativas dos parâmetros do modelo. Com efeito, suponhamos que um pesquisador não dispondo de um paote de 0
omputação que alulasse diretamente a estimativa de mínimos quadrados em duas etapas resolvesse apliar, em duas etapas, mínimos quadrados ordinários. Nestas irunstânias a estimativa da variânia σ seria forneida pela seguinte expressão: u u σ onde u y Y β. Como Y Y u u + V + V, segue-se então que: onde u y Y β. Com a finalidade de examinarmos se o estimador σ é onsistente proedermos do seguinte modo. O limite em probabilidade de σ é igual a: limp σ u limp lim ( ) ( u u + V u + V ) Alternativamente: u (7) limp u u v V V σ limp + limp + limp Como limp u u σ e provaremos em seguida que: u V u V V V V V limp ( limp ) limp limp segue-se, então, que em geral: limp σ σ A matriz de resíduos V é igual a: V Y Y Y ( ) Y I ( ) Y Como Y + V, a matriz V pode ser expressa por:
V I ( ) V M V ou ainda: Logo, V limp V V limp M M V V limp M V V V V V limp limp limp V Em virtude de V limp V 0 pois VΓ U e limp U 0, segue-se que: V limp V limp V V Por outro lado, limp u V U N M V limp onde u y N u, e N I ( ) ( ) Com um pouo de paiênia e álgebra pode-se, então, mostrar que: limp u N M V u V limp Utilizando-se a partição indiada antes da expressão (), obtém-se: v V u Consequentemente: u V limp limp (v V ) V v V V V limp limp Substituindo-se este resultado em (7), onlui-se que:
v limp V V V σ σ + ( limp ) ( limp ) Admitindo-se que no modelo de equações simultâneas a matriz de variâniaovariânia dos termos estoástios da matriz U da forma estrutural é dada por: E U U Σ a matriz de variânia-ovariânia da forma reduzida é igual a: EV V E( Γ ) U U Γ ( Γ ) Σ Γ Ω Logo, se a matriz for partiionada omo em () segue-se que: v E V V que é igual a: Portanto: [ v V V ] Ω EV V Ω Ω 3 Ω Ω Ω v vv V v V E V vv VV V V vv VV V 3 Ω Ω Ω 3 3 33 limp v V Ω e limp V V Ω e a inonsistênia do estimador σ está demonstrada. Isto é: limp σ σ + Ω Ω Máxima Verossimilhança: Informação Limitada O estimador de máxima verossimilhança de informação limitada dos parâmetros de uma equação estrutural do modelo de equações simultâneas na sua onepção é bastante simples, pois onsiste na apliação direta do método de máxima verossimilhança. Entretanto, sua obtenção requer um pouo de álgebra. Com a finalidade de tornar a dedução desse estimador menos ompliada omeemos por introduzir uma notação que failite as 3
manipulações algébrias. A equação estrutural (0), que deseja estimar, passa a ser então esrita omo: ou: [ y Y ] β+ u (8) Y β + u onde: Y [ y Y ] e A equação (), da forma reduzida do modelo de equações simultâneas,permite esrever (9) Y + + V onde: V v V As restrições (4) repetidas aqui por onveniênia, + β podem ser reesritas na nova notação do seguinte modo: (30) β (3) 0 A matriz V dos termos estoástios da forma reduzida segue uma distribuição normal om média igual a 0 e variânia-ovariânia igual a Ω, uja função de densidade de probabilidade é igual a: Mudamos, por onveniênia, a notação adotada até aqui: o símbolo representa agora outra matriz. 4
L / p( V ) ( ) ( trv V Ω exp Ω ) onde exp( ) india o número natural e elevado ao termo entre parênteses e o símbolo tr representa o traço da matriz. Como o Jaobiano da transformação de V para Y é igual a, o logaritmo da função de densidade de probabilidade de Y é igual a: (3) L log p ( Y /,, Ω, ) log log Ω tr ( Y )( Y ) Ω Uma vez onheidos os valores de Y esta função se transforma no logaritmo de função de verossimilhança, isto é: (33) log p (,, Ω / Y, ) A equação (30) não implia em nenhuma restrição sobre os elementos da matriz. Ela india apenas omo alular o vetor β quando e forem onheidos. O mesmo não oorre om a equação (3), pois ela impõe restrições sobre os elementos da matriz. Consequentemente, os parâmetros do modelo devem ser estimados levando-se em onta a restrição (3). O problema onsiste, então, em maximizar a função log p (,, Ω / Y, ) sujeito a restrição: 0 Antes de esrever a expressão de Lagrange deste problema de maximização ondiionada é interessante observar que a restrição não involve as matrizes e Ω. Este fato simplifia um pouo a solução do problema pois podemos derivar parialmente o logaritmo da função de verossimilhança em relação a e Ω, igualá-las a zero, e obter os valores de e Ω em função de, Y e. Isto é: 3 3 Apliamos aqui os seguintes resultados: tr ( Y )( Y ) Ω Ω ( Y ) log Ω Ω Ω tr V V Ω V V Ω e derivamos em relação a Ω, ao invés de Ω, pois a derivada é mais fáil e a propriedade de invariânia do método de máxima verossimilhança permite que isto seja feito. 5
( Ω ) ( Y ) Y 0 e Portanto, e Ω V V 0 Ω ( ) ( Y ) V V Ω Como V Y Y ( ) ( Y ) I ( ) ( Y ) M ( Y ) onde M I ( ), é uma matriz idempotente, segue-se que: Ω V V ( Y ) M( Y ) Substituindo-se esta expressão na função de verossimilhança obtém-se a função de verossimilhança onentrada: L log p ( /, ) log log ( Y ) M ( Y Y tr I Desprezando-se as onstantes que apareem nesta função, a maximização do log p (/Y,), sujeito à restrição 0, é equivalente ao seguinte problema: minimizar log ( Y ) M ( Y ) om relação, sujeito à restrição: 0 A expressão de Lagrange deste problema é igual a: 6
(34) L log ( Y ) M ( Y ) λ onde λ é o vetor formado pelos multipliadores de Lagrange. As derivadas pariais de L om relação a, λ e são dadas por: 4 (35) L ( M Y M ) W λ 0 (36) (37) L 0 λ L λ 0 onde W ( Y ) M ( Y ). A solução do sistema de equações formado por (35), (36) e (37) é um pouo intrinada e requer algumas manipulações algébrias. A partir da equação (35) temos que: (38) ( M ) ( M Y W) Logo: λ Como pela equação (36), λ 0, resulta que: ( M ) ( M Y λ W) λ M Y W 0 Substituindo-se este valor de λ em (38) obtém-se: (39) W W onde: ( M ) M Y 4 Apliamos aqui os seguintes resultados: log a b B B( B), B B ax ab e a x 7
A equação (37) implia em que λ 0. Substituindo-se os valores de e λ obtidos anteriormente nesta expressão, resulta que: W W ou alternativamente: M Y W (40) W MY MY 0 W onde: É fáil verifiar-se que M Y Y M Y W W ( Y ) M ( Y ) e denominando-se por: θ W 0 θ M Y a equação (40) transforma-se em: (4) θw Y M Y W 0 θ Levando-se o valor de, da equação (39), na expressão de W, obtém-se: (4) W W + θ θ W W Pós-multipliando-se ambos os lados desta equação pelo vetor resulta: W W + θ θ W W e daí obtém-se: (43) W W φ onde φ θ /θ Substituindo-se (43) em (4) hega-se a: 8
ou ainda: 5 ( Y M Y W φ W) 0 φ Alternativamente: ( Y M Y µ W ) 0 (44) ( Y M Y µ Y M Y ) 0 onde µ / φ. Para que este sistema de equações tenha uma solução diferente da solução trivial 0 é neessário que o valor de µ seja tal que: Y M Y µ Y M Y 0 Esta equação fornee um polinômio do grau L na variável µ, e portanto teremos L raízes, que são denominadas de raízes araterístias. Resta, então, saber qual dessas raízes minimiza a função de verossimilhança ondiionada. A seguir demonstraremos que o mínimo da função oorre para a menor raiz araterístia do polinômio. Para tal finalidade omeemos por substituir (43) em (4): W W + θ W W θ ( φ) Assoiado a ada raiz araterístia µ existe um vetor araterístio que, entretanto, não é únio, pois se for uma solução é fáil verifiar-se que k também é uma solução para qualquer valor de k 0. Consequentemente, para se ter valores únios para é preiso adotar-se uma regra de normalização. Adotaremos aqui a seguinte normalização: W O valor de θ passa, então, a ser dado por: W θ W φ φ W é igual a Y M Y,onde, M M M ( M ) M I ( ). Para provar a última igualdade basta desenvolver: 5 A matriz I usando-se resultados da inversa de uma matriz partiionada x. 9
Com esses dois últimos resultados a expressão anterior de W transforma-se em: (45) W W + ( µ ) W W pois θ φ θ µ-. Seja C a matriz formada de aordo om: C,,, () ( ) ( L ) onde (), ( ),, ( L ) são os vetores araterístios orrespondentes às raízes araterístias µ, µ,, µ L. Em virtude da normalização adotada temos que: C W C I Utilizando-se uma propriedade de determinantes resulta que: (46) CWC C W Por outro lado, pré-multipliando-se (45) por C e pós-multipliando-a por C obtemos: que é igual a: C W C C WC + ( µ ) C W WC CWC I+ ( µ ) e e k ( k) ( k) k k k em virtude da regra de normalização e do fato que C W (k) ek, onde e k ( 0,,, 0), om o valor na késima posição. Segue-se, então, que: CWC µ k Como CWC C W e levando-se em onta a expressão (46), onlui-se que: W µ W k Logo, a menor raiz araterístia forneerá o valor mínimo da função de verossimilhança ondiionada. Uma vez determinado o valor de os demais parâmetros do modelo, W,, e β, são failmente alulados. Cabe ainda observar que o método de máxima verossimilhança de informação limitada independe de qual é a variável esolhida para ser oloada no lado esquerdo na equação estrutural, fato este que não oorre om os demais métodos de estimação até aqui apresentados. Esta propriedade deorre do fato já assinalado anteriormente que a estimativa do parâmetro é determinada a menos de uma onstante de proporionalidade. 30
Estimador de Máxima Verossimilhança de Informação Limitada: Enfoque de Minimização da Razão da Variânia A equação (44) possibilita esrever µ do seguinte modo: µ Y M Y Y M Y Esta expressão pode ser interpretada de uma maneira bastante interessante. Com efeito, omo (47) Y β + µ Se fosse onheido, a soma dos quadrados dos resíduos desta regressão seria igual a : SQR Y M Y Por outro lado, se aresentássemos a matriz nos regressores da equação (47), Y Y β + β + u, a soma dos quadrados dos resíduos, na suposição de um valor onheido de, desta regressão seria igual a: SQR Y M Y O valor de µ é justamente igual à razão dessas duas somas de quadrados de resíduos: SQR Y M Y µ SQR Y M Y Como o vetor de oefiientes β é igual a zero, uma idéia de erto modo intuitiva é obter o valor de que minimiza a razão das somas dos quadrados dos resíduos, de sorte a se obter o menor valor para µ. Consequentemente, derivando-se µ em relação a, µ ( Y M Y ) M Y ( Y M Y ) Y M Y ( Y M Y ) e igualando-se este resultado a zero, obtém-se: ( Y M Y µ Y M Y ) 0 que nada mais é do que a equação (44). Uma vez determinado o valor de a estimativa de β é failmente alulada através de: β ( ) Y 3
Vale ressaltar que estas duas propriedades menionadas asseguram a onsistênia dos estimadores de mínimos quadrados ordinários dos parâmetros das equções de um modelo reursivo. Estimador de Mínimos Quadrados Indireto Generalizado A expressão (5), repetida aqui por onveniênia, Q π ontém um sistema de K equações lineares om (L + K - ) inógnitas, os elementos do vetor. A solução desta última é dada por: ( Q Q ) Q π O estimador de mínimos quadrados indireto generalizado é obtido quando substituímos os valores de Q e π na expressão aima pelos estimadores Q e π da forma reduzida. Isto é: ( ) Q Q Q π onde a matriz Q é igual a (9) Q D, e os estimadores e π da forma reduzida são: (0) ( ) Y π () ( ) y e a matriz D é dada por: I D 0 Denominamos o estimador de estimador de mínimos quadrados indireto generalizado por dois motivos. Em primeiro lugar, porque este estimador é obtido indiretamente através dos estimadores e π. Em segundo lugar porque, no aso partiular de a equação estrutural ser exatamente identifiada, reduz-se ao tradiional estimador indireto de mínimos quadrados: Q π 3
33 Cuidemos, agora, de obter expressões algébrias para o estimador em função das matrizes de observações e y Y. Usamos a relação (9) para esrever o estimador da seguinte forma: π D D D D D D Em seguida, substituímos os valores de e π dados em (0) e () na expressão anterior e obtemos: () ) ( ) ( ) ( I Y Y Y Y ) ( ) ( y Y Para se hegar a essa expressão levamos em onta que D Y ( ) A demonstração desta igualdade é bastante simples: D D Y D Y Y ( ) ( ) ( ) ( ) tendo em vista que D. De maneira similar alula-se o produto D. Usando-se uma notação mais simples a expressão () pode ser esrita omo: (3) ) ( ) ( y levando-se em onta que: D D I ( ) ( ) pois DD I. Propriedades do Estimador Substituímos o valor de y, dado pelo lado direito do segundo sinal de igualdade de (0), em (3), obtemos: (4) ( ) ( ) + u De aordo om algumas hipóteses tradiionais no estudo dos estimadores dos parâmetros de um sistema de equações simultâneas temos que 6 6 Essas hipóteses estão listadas em H.heil (97), Priniples of Eonometris, John Wiley, apítulo 0.
34 limp é finita, e limp u é igual a zero. A notação limp denota o limite em probabilidade da variável indiada. Apliando-se estes resultados a (4) onluímos que: limp o que signifia dizer que o estimador indireto generalizado de mínimos quadrados é onsistente. A distribuição assintótia da variável aleatória ( ) pode ser obtida om o seguinte proedimento da expressão (4) temos que: u ) ( Por outro lado, as hipóteses a que nos referimos abaixo da expressão (4) nos possibilita afirmar que: limp G onde G é uma matriz ujos elementos são finitos. Em seguida, lançamos mão do teorema que afirma que a distribuição assintótia de u / é normal om valor esperado zero e matriz de variânia-ovariânia igual a σ limp. Podemos, então, onluir que a distribuição assintótia de é ( ) é normal om média zero e matriz de variâniaovariânia, Var, igual a: (5) limp σ Var G G A estatístia (6) s y y ( ) ( )
é um estimador onsistente da variânia σ. A prova dessa propriedade é bastante simples. Substituindo-se (0) na expressão anterior obtemos: u u u u s ( ( ) ) + ( ) ( ) A partir desta relação onluímos que: limp s u u limp σ baseados no fato de que limp ( ) 0 e de que limp u u / σ. É fáil derivar-se a partir de (5) e (6) os erros padrões (assintótios) da estimativa do estimador indireto generalizado de mínimos quadrados. Isto é, a partir destas expressões onluímos que os erros-padrões da estimativa dos elementos do vetor são dados pelas raízes quadradas dos elementos da diagonal prinipal da matriz 3 s ( ) ( ) ( ) Mínimos Quadrados Em Duas Etapas O estimador de mínimos quadrados em duas etapas pode ser derivado de diferentes maneiras. A seguir derivaremos este estimador om o auxílio do enfoque algébrio. da forma reduzida do modelo, expresso em (), temos que y + [ ] v Por outro lado, da equação (4) sabemos que: I 0 β Substituindo-se esta relação na expressão anterior onluímos que: I y + 0 β [ ] v Se os valores de e fossem onheidos, poderíamos apliar o método de mínimos quadrados ordinários à equação anterior. O estimador assim obtido seria dado por: d Q Q Q y 35
Entretanto, devido ao fato de que e serem parâmetros que têm de ser estimados, visto não serem onheidos a priori, o estimador aima não pode ser apliado na prátia. odavia, o problema é failmente ontornado usando-se a matriz Q I 0 ao invés da matriz Q, onde e são os estimadores de mínimos quadrados da forma reduzida do modelo. Dessa maneira, obtemos o estimador de mínimos quadrados em duas etapas: Q Q Q y Usamos a relação (9) para esrever este estimador na seguinte forma: D ~ D D D Y D Em seguida, substituindo-se o valor de dado por (0) na expressão aima resulta: ~ Y ( ) Y Y Y Y ( ) y Alternativamente, essa expressão pode ser esrita de maneira mais ompata do seguinte modo: ( ) ( ) y O enfoque que adotamos na derivação do estimador de mínimos quadrados em duas etapas não mostra o porque do seu nome. odavia, não é difíil entender qual a origem da palavra duas etapas no nome do estimador. Com efeito, observe que o valor previsto de Y que denominamos por Y, é igual ao produto da matriz vezes a estimativa de mínimos quadrados ordinários,, da forma reduzida: Como, e: Y ( ) Y Y Y Y ( ) ( ) Y Y ( ) Y Y Y ( ) Y ( ) D Y D Y 36
Segue-se que: Y Y Y ~ Y Y y Logo, a estimativa é também obtida pelo seguinte proedimento em duas etapas: a etapa: a partir da regressão de Y ontra obtém-se Y ; º etapa: faz-se, então, a regressão de y ontra Y e. Pode-se provar, de maneira análoga ao que foi feito para o estimador indireto generalizado de mínimos quadrados, que o estimador de mínimos quadrados em duas estapas é onsistente, limp i, e que ( ) tem uma distribuição asintótia normal om média zero e matriz de variânia-ovariânia igual a: σ limp Portanto, os erros padrões da estimativa dos elementos do vetor são dados pelas raízes quadradas dos elementos da diagonal prinipal da matriz: s ( ) A interpretação que aabamos de desrever do estimador de mínimos quadrados em duas etapas é bastante sugestiva, mas não deve ser levada ao pé da letra, sob pena de se ometer um erro importante no álulo dos erros padrões das estimativas dos parâmetros do modelo. Com efeito, suponhamos que um pesquisador não dispondo de um paote de omputação que alulasse diretamente a estimativa de mínimos quadrados em duas etapas resolvesse apliar, em duas etapas, mínimos quadrados ordinários. Nestas irunstânias a estimativa da variânia σ seria forneida pela seguinte expressão: u u σ onde u y Y β. Como Y Y u u + V + V, segue-se então que: 37
onde u y Y β. Com a finalidade de examinarmos se o estimador σ é onsistente proedermos do seguinte modo. O limite em probabilidade de σ é igual a: limp σ u limp lim ( ) ( u u + V u + V ) Alternativamente: u (7) limp u u v V V σ limp + limp + limp Como limp u u σ e provaremos em seguida que: u V u V V V V V limp ( limp ) limp limp segue-se, então, que em geral: limp σ σ A matriz de resíduos V é igual a: V Y Y Y ( ) Y I ( ) Y Como Y + V, a matriz V pode ser expressa por: V I ( ) V M V ou ainda: Logo, V limp V V limp M M V V limp M V V V V V limp limp limp V Em virtude de V 38
limp V 0 pois VΓ U e limp U 0, segue-se que: V limp V limp V V Por outro lado, limp u V U N M V limp onde u y N u, e N I ( ) ( ) Com um pouo de paiênia e álgebra pode-se, então, mostrar que: limp u N M V u V limp Utilizando-se a partição indiada antes da expressão (), obtém-se: v V u Consequentemente: u V limp limp (v V ) V v V V V limp limp Substituindo-se este resultado em (7), onlui-se que: v limp V V V σ σ + ( limp ) ( limp ) Admitindo-se que no modelo de equações simultâneas a matriz de variâniaovariânia dos termos estoástios da matriz U da forma estrutural é dada por: E U U Σ a matriz de variânia-ovariânia da forma reduzida é igual a: EV V E( Γ ) U U Γ ( Γ ) Σ Γ Ω Logo, se a matriz for partiionada omo em () segue-se que: 39
v E V V que é igual a: Portanto: [ v V V ] Ω EV V Ω Ω 3 Ω Ω Ω v vv V v V E V vv VV V V vv VV V 3 Ω Ω Ω 3 3 33 limp v V Ω e limp V V Ω e a inonsistênia do estimador σ está demonstrada. Isto é: limp σ σ + Ω Ω Máxima Verossimilhança: Informação Limitada O estimador de máxima verossimilhança de informação limitada dos parâmetros de uma equação estrutural do modelo de equações simultâneas na sua onepção é bastante simples, pois onsiste na apliação direta do método de máxima verossimilhança. Entretanto, sua obtenção requer um pouo de álgebra. Com a finalidade de tornar a dedução desse estimador menos ompliada omeemos por introduzir uma notação que failite as manipulações algébrias. A equação estrutural (0), que deseja estimar, passa a ser então esrita omo: ou: [ y Y ] β+ u (8) Y β + u onde: Y [ y Y ] e 40
A equação (), da forma reduzida do modelo de equações simultâneas,permite esrever 7 (9) Y + + V onde: V v V As restrições (4) repetidas aqui por onveniênia, + β podem ser reesritas na nova notação do seguinte modo: (30) β (3) 0 A matriz V dos termos estoástios da forma reduzida segue uma distribuição normal om média igual a 0 e variânia-ovariânia igual a Ω, uja função de densidade de probabilidade é igual a: L / p( V ) ( ) ( trv V Ω exp Ω ) onde exp( ) india o número natural e elevado ao termo entre parênteses e o símbolo tr representa o traço da matriz. Como o Jaobiano da transformação de V para Y é igual a, o logaritmo da função de densidade de probabilidade de Y é igual a: (3) L log p ( Y /,, Ω, ) log log Ω tr ( Y )( Y ) Ω Uma vez onheidos os valores de Y esta função se transforma no logaritmo de função de verossimilhança, isto é: 7 Mudamos, por onveniênia, a notação adotada até aqui: o símbolo representa agora outra matriz. 4
(33) log p (,, Ω / Y, ) A equação (30) não implia em nenhuma restrição sobre os elementos da matriz. Ela india apenas omo alular o vetor β quando e forem onheidos. O mesmo não oorre om a equação (3), pois ela impõe restrições sobre os elementos da matriz. Consequentemente, os parâmetros do modelo devem ser estimados levando-se em onta a restrição (3). O problema onsiste, então, em maximizar a função log p (,, Ω / Y, ) sujeito a restrição: 0 Antes de esrever a expressão de Lagrange deste problema de maximização ondiionada é interessante observar que a restrição não involve as matrizes e Ω. Este fato simplifia um pouo a solução do problema pois podemos derivar parialmente o logaritmo da função de verossimilhança em relação a e Ω, igualá-las a zero, e obter os valores de e Ω em função de, Y e. Isto é: 8 ( Ω ) ( Y ) Y 0 e Portanto, e Ω V V 0 Ω ( ) ( Y ) V V Ω 8 Apliamos aqui os seguintes resultados: tr ( Y )( Y ) Ω Ω ( Y ) log Ω Ω Ω tr V V Ω V V Ω e derivamos em relação a Ω, ao invés de Ω, pois a derivada é mais fáil e a propriedade de invariânia do método de máxima verossimilhança permite que isto seja feito. 4
Como V Y Y ( ) ( Y ) I ( ) ( Y ) M ( Y ) onde M I ( ), é uma matriz idempotente, segue-se que: Ω V V ( Y ) M( Y ) Substituindo-se esta expressão na função de verossimilhança obtém-se a função de verossimilhança onentrada: L log p ( /, ) log log ( Y ) M ( Y Y tr I Desprezando-se as onstantes que apareem nesta função, a maximização do log p (/Y,), sujeito à restrição 0, é equivalente ao seguinte problema: minimizar log ( Y ) M ( Y ) om relação, sujeito à restrição: 0 A expressão de Lagrange deste problema é igual a: (34) L log ( Y ) M ( Y ) λ onde λ é o vetor formado pelos multipliadores de Lagrange. As derivadas pariais de L om relação a, λ e são dadas por: 9 (35) L ( M Y M ) W λ 0 (36) L 0 λ 9 Apliamos aqui os seguintes resultados: log a b B B( B), B B ax ab e a x 43
(37) L λ 0 onde W ( Y ) M ( Y ). A solução do sistema de equações formado por (35), (36) e (37) é um pouo intrinada e requer algumas manipulações algébrias. A partir da equação (35) temos que: (38) ( M ) ( M Y W) Logo: λ Como pela equação (36), λ 0, resulta que: ( M ) ( M Y λ W) λ M Y W 0 Substituindo-se este valor de λ em (38) obtém-se: (39) W W onde: ( M ) M Y A equação (37) implia em que λ 0. Substituindo-se os valores de e λ obtidos anteriormente nesta expressão, resulta que: W W ou alternativamente: M Y W (40) W MY MY 0 W onde: É fáil verifiar-se que M Y Y M Y W 0 44
W ( Y ) M ( Y ) e denominando-se por: θ W θ M Y a equação (40) transforma-se em: (4) θw Y M Y W 0 θ Levando-se o valor de, da equação (39), na expressão de W, obtém-se: (4) W W + θ θ W W Pós-multipliando-se ambos os lados desta equação pelo vetor resulta: W W + θ θ W W e daí obtém-se: (43) W W φ onde φ θ/θ Substituindo-se (43) em (4) hega-se a: ( Y M Y W φ W) 0 φ Alternativamente: ( Y M Y µ W ) ou ainda: 0 0 W é igual a Y M Y,onde, M M M ( M ) M I ( ). Para provar a última igualdade basta desenvolver: 0 A matriz I 45
(44) ( Y M Y µ Y M Y ) 0 onde µ / φ. Para que este sistema de equações tenha uma solução diferente da solução trivial 0 é neessário que o valor de µ seja tal que: Y M Y µ Y M Y 0 Esta equação fornee um polinômio do grau L na variável µ, e portanto teremos L raízes, que são denominadas de raízes araterístias. Resta, então, saber qual dessas raízes minimiza a função de verossimilhança ondiionada. A seguir demonstraremos que o mínimo da função oorre para a menor raiz araterístia do polinômio. Para tal finalidade omeemos por substituir (43) em (4): W W + θ W W θ ( φ) Assoiado a ada raiz araterístia µ existe um vetor araterístio que, entretanto, não é únio, pois se for uma solução é fáil verifiar-se que k também é uma solução para qualquer valor de k 0. Consequentemente, para se ter valores únios para é preiso adotar-se uma regra de normalização. Adotaremos aqui a seguinte normalização: W O valor de θ passa, então, a ser dado por: W θ W φ φ Com esses dois últimos resultados a expressão anterior de W transforma-se em: (45) W W + ( µ ) W W pois θ φ θ µ-. Seja C a matriz formada de aordo om: C,,, () ( ) ( L ) onde (), ( ),, ( L ) são os vetores araterístios orrespondentes às raízes araterístias µ, µ,, µ L. Em virtude da normalização adotada temos que: C W C I Utilizando-se uma propriedade de determinantes resulta que: usando-se resultados da inversa de uma matriz partiionada x. 46
(46) CWC C W Por outro lado, pré-multipliando-se (45) por C e pós-multipliando-a por C obtemos: que é igual a: C W C C WC + ( µ ) C W WC CWC I+ ( µ ) e e k ( k) ( k) k k k em virtude da regra de normalização e do fato que C W (k) ek, onde e k ( 0,,, 0), om o valor na késima posição. Segue-se, então, que: CWC µ k Como CWC C W e levando-se em onta a expressão (46), onlui-se que: W µ W k Logo, a menor raiz araterístia forneerá o valor mínimo da função de verossimilhança ondiionada. Uma vez determinado o valor de os demais parâmetros do modelo, W,, e β, são failmente alulados. Cabe ainda observar que o método de máxima verossimilhança de informação limitada independe de qual é a variável esolhida para ser oloada no lado esquerdo na equação estrutural, fato este que não oorre om os demais métodos de estimação até aqui apresentados. Esta propriedade deorre do fato já assinalado anteriormente que a estimativa do parâmetro é determinada a menos de uma onstante de proporionalidade. Estimador de Máxima Verossimilhança de Informação Limitada: Enfoque de Minimização da Razão da Variânia A equação (44) possibilita esrever µ do seguinte modo: µ Y M Y Y M Y Esta expressão pode ser interpretada de uma maneira bastante interessante. Com efeito, omo (47) Y β + µ Se fosse onheido, a soma dos quadrados dos resíduos desta regressão seria igual a : SQR Y M Y Por outro lado, se aresentássemos a matriz nos regressores da equação (47), 47
Y Y β + β + u, a soma dos quadrados dos resíduos, na suposição de um valor onheido de, desta regressão seria igual a: SQR Y M Y O valor de µ é justamente igual à razão dessas duas somas de quadrados de resíduos: SQR Y M Y µ SQR Y M Y Como o vetor de oefiientes β é igual a zero, uma idéia de erto modo intuitiva é obter o valor de que minimiza a razão das somas dos quadrados dos resíduos, de sorte a se obter o menor valor para µ. Consequentemente, derivando-se µ em relação a, µ ( Y M Y ) M Y ( Y M Y ) Y M Y ( Y M Y ) e igualando-se este resultado a zero, obtém-se: ( Y M Y µ Y M Y ) 0 que nada mais é do que a equação (44). Uma vez determinado o valor de a estimativa de β é failmente alulada através de: β ( ) Y 48