ESTIMAÇÃO PELO MÉTODO ORDINÁRIO DE MÍNIMOS QUADRADOS (OLS)

Documentos relacionados
FACULDADE DE ECONOMIA DO PORTO. Curso de Mestrado em Economia MÉTODOS ECONOMÉTRICOS (EC706)

FACULDADE DE ECONOMIA DO PORTO. Curso de Mestrado em Economia MÉTODOS ECONOMÉTRICOS (ECON703)

FACULDADE DE ECONOMIA DO PORTO. Licenciatura em Economia E C O N O M E T R I A II

FACULDADE DE ECONOMIA DO PORTO. Licenciatura em Economia E C O N O M E T R I A II

Segundo Trabalho de Econometria 2009

Gabarito Trabalho 2. Variable Coefficient Std. Error t-statistic Prob.

Nome: Turma: Processo

ECONOMETRIA EXERCÍCIOS DO CAPÍTULO 2

Licenciaturas em Economia e em Finanças Econometria ER 26/06/2015 Duração 2 horas

Nome: Turma: Processo

FACULDADE DE ECONOMIA DO PORTO. Licenciatura em Economia E C O N O M E T R I A II

ECONOMETRIA I. I (12 valores)

ECONOMETRIA I. I (11 valores)

INTRODUÇÃO A ECONOMETRIA

Capítulo 3. O Modelo de Regressão Linear Simples: Especificação e Estimação

Tabela 1 - Teste de Dickey-Fuller para série log-preço futuro. Teste ADF 0, ,61% Tabela 2 - Teste de Dickey-Fuller para série log-preço à vista

ECONOMETRIA EXERCÍCIOS DO CAPÍTULO 2

ANÁLISE ECONOMÉTRICA DO CONSUMO DE CARNE BOVINA NA REGIÃO METROPOLITANA DE BELÉM UTILIZADO O SOFTWARE EVIEWS 3.0.

LIMITES POLÍTICOS À INFLAÇÃO

Instituto Superior de Economia e Gestão Universidade Técnica de Lisboa Econometria Época Normal 9/01/2013 Duração 2 horas

Nome: Número: Espaço reservado para classificações

SÉRIE CADERNOS ECONÔMICOS

ÉLIA YATHIE MATSUMOTO (180720)

Observações sobre a política monetaria atual*

Instituto Superior de Economia e Gestão Universidade Técnica de Lisboa Econometria Época de Recurso 2/Julho/2013 Duração 2 horas

Análise de convergência de renda entre os municípios do Maranhão. Carlos Fernando Quartaroli

UNIVERSDADE AGOSTINHO NETO FACULDADE DE ECONOMIA. Maio 2018 Aula 7

7 Análise dos Dados e Cálculos

Faculdade de Economia da Universidade Agostinho Neto. Econometria. Paradigma de Trabalho Prático. Resolução. especimen. Grupo I

PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO DEPARTAMENTO DE ECONOMIA MONOGRAFIA DE FINAL DE CURSO

Exercícios de Econometria ISEG Universidade de Lisboa

O Câmbio e as Exportações de Manufaturas: um túnel no fim da luz. Francisco Eduardo Pires de Souza Seminário IE/UFRJ em 01/09/09

Explanatory factors of GDP growth Portuguese

O IBOVESPA E O CÂMBIO NOS DEZ ANOS DE TAXA

6 Benefícios da Certificação de Produtos: Avaliação de Impacto Econômico

CASUALIDADE E ELASTICIDADE DE TRANSMISSÃO DO TOMATE NO ESTADO DO CEARÁ 1995 A Palavras-chave: Casualidade, Elasticidade de Transmissão, Tomate.

Econometria. Econometria MQO MQO. Resíduos. Resíduos MQO. 1. Exemplo da técnica MQO. 2. Hipóteses do Modelo de RLM. 3.

Gabriela Septímio - UEPA. Marco Antonio Pinheiro - UEPA. Renata Barra UEPA. Heriberto Wagner Amanajás Pena UEPA. Resumo

TEXTO PARA DISCUSSÃO. No Medium run effects of short run inflation surprises: monetary policy credibility and inflation risk premium

Resumo. Palavras chave: arroz, eviews 3.0, preço. Abstract

Econometria. Econometria ( ) O modelo de regressão linear múltipla. O modelo de regressão linear múltipla. Aula 2-26/8/2010

EMPRESA EM ANÁLISE: JERÓNIMO MARTINS.

PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO DEPARTAMENTO DE ECONOMIA MONOGRAFIA DE FINAL DE CURSO

'HVFULomRH$QiOLVH([SORUDWyULDGRV'DGRV

Estatística II Licenciatura em Gestão. Parte I

MONOGRAFIA DE FINAL DE CURSO

ECONOMETRIA EXERCÍCIOS DO CAPÍTULO 6

PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO DEPARTAMENTO DE ECONOMIA MONOGRAFIA DE FINAL DE CURSO

ANDRADE, M. M. Introdução a Metodologia do Trabalho Científico. 7 ed. São Paulo: Atlas, 2005.

Estimação de Modelos ARMA e ARIMA

Análise Multivariada Aplicada à Contabilidade

Métodos Quantitativos Aplicados

Variável dependente Variável independente Coeficiente de regressão Relação causa-efeito

ANÁLISE ECONOMÉTRICA DA DEMANDA DE CARNE DE FRANGO A PARTIR DO EVIEWS 3.0

FICHA DE COMPONENTE CURRICULAR

AULA 17 - Variáveis binárias

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9

Universidade Federal de Pernambuco. Centro de Ciências Sociais Aplicadas. Departamento de Economia. Programa de Pós-Graduação em Economia Pimes

Noções sobre Regressão

Regressão linear múltipla. Regressão linear múltipla

Regression and Clinical prediction models

Estimativas do custo por turma do ensino básico (2º e 3º ciclos) e secundário

CONHECIMENTOS ESPECÍFICOS

Universidade Católica Portuguesa Faculdade de Ciências Económicas e Empresariais. ESTATÍSTICA MULTIVARIADA 2º. Semestre 2006/07

Estatística II Licenciatura em Gestão TESTE I

Instituto Superior de Economia e Gestão Universidade de Lisboa Econometria Época Normal 08/06/2017 Duração 2 horas

Notas de Aulas Econometria I ** Eduardo P. Ribeiro, 2010 PARTE II

Análise de dados em Geociências

Análise de Regressão Linear Simples e

Preços da habitação em Portugal uma análise pós crise. Seminar Seminar name

Econometria Semestre

Introdução Regressão linear Regressão de dados independentes Regressão não linear. Regressão. Susana Barbosa

p( y θ ) depende de um parâmetro desconhecido θ.

AULAS 17 E 18 Análise de regressão múltipla: estimação

Estimação de Variáveis Instrumentais e Mínimos Quadrados de Dois Estágios. Wooldridge, Cápítulo 15

Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica. Regressão. David Menotti.

ÍNDICE DE INTENÇÃO DE CONSUMO DAS FAMÍLIAS (ICF): UMA ESTIMAÇÃO POR MEIO DO MODELO ARIMA

Correlação e Regressão

FACULDADE DE ECONOMIA DO PORTO. Licenciatura em Economia E C O N O M E T R I A II

MUITO ALÉM DA ECONOMETRIA - UMA APLICAÇÃO DOS MODELOS ECONOMÉTRICOS NA CONSTRUÇÃO DE CENÁRIOS ECONÔMICOS

Correlação Serial e Heterocedasticidade em Regressões de Séries Temporais. Wooldridge, Cap. 12

REGRESSÃO MÚLTIPLA. constantes predeterminadas, sem erro;

Participação relativa da dívida pública interna na riqueza financeira dos agentes privados: um estudo exploratório 1

Aula 2 Uma breve revisão sobre modelos lineares

BIOESTATÍSTICA. Análise de regressão

Grupo I. (a) A função de probabilidade marginal de X, P (X = x), é dada por

CONHECIMENTOS ESPECÍFICOS

AULAS 21 E 22 Análise de Regressão Múltipla: Estimação

PARTE 1 ANÁLISE DE REGRESSÃO COM DADOS DE CORTE TRANSVERSAL CAPÍTULO 2 O MODELO DE REGRESSÃO SIMPLES

A Metodologia de Box & Jenkins

CONHECIMENTOS ESPECÍFICOS

Associação entre duas variáveis

Teste de Homocedasticidade.

ISCTE IUL Instituto Universitário de Lisboa. Licenciatura em Gestão Estatística I 1º Teste. 26 Outubro de 2013 Duração: 1h 30m

DETERMINANTES DA INFLAÇÃO EM ANGOLA

Métodos Quantitativos para Avaliação de Políticas Públicas

Regressões: Simples e MúltiplaM. Prof. Dr. Luiz Paulo Fávero 1

Análise de Regressão Linear Múltipla IX

6 Tratamento e análise dos dados

Transcrição:

ESTIMAÇÃO PELO MÉTODO ORDINÁRIO DE MÍNIMOS QUADRADOS (OLS) 1 No quadro abaixo, reproduzem-se os resultados de uma estimação realizada com o programa informático EViews. Alguma da informação fornecida pelo programa foi suprimida; reconstitua-a, apresentando os cálculos. Sample: 1 3 Included observations: 3 C 5.416354 3.819416?? X 0.830504 0.064008?? R-squared? Mean dependent var 49.88458 Adjusted R-squared? S.E. of regression? Sum squared resid 78.510 F-statistic? Durbin-Watson stat.096630 Prob(F-statistic)? E, relativamente ao exemplo do quadro seguinte, conseguiria também reconstituir a informação ocultada? Justifique. Sample: 1 8 Included observations: 8 C 7.19457 4.065095?? X 0.838313 0.064644?? X3-0.056367 0.076669?? R-squared? Mean dependent var 49.90676 Adjusted R-squared? S.E. of regression? Sum squared resid 170.443 F-statistic? Durbin-Watson stat.33693 Prob(F-statistic)? Suponha ter dois estimadores independentes e cêntricos, ˆ 1 e ˆ, de um certo parâmetro,, com variâncias diferentes, v 1 e v. Qual dos estimadores ˆ definidos pela combinação linear ˆ = c 1 ˆ 1 + c ˆ

é o estimador cêntrico de variância mínima de? (Greene (003), exercício 1, p.6) 3 Considere o modelo de regressão linear Y i = β 1 + β X i + u i, em que as perturbações u i têm função densidade de probabilidade f(u i ) = 1 ui e, u i 0, > 0. Note-se que se assume serem não negativas todas as perturbações e que é E(u i ) = e Var(u i ) = ; supõe-se também independência entre X i e u i. Prove que o estimador OLS de β é cêntrico e que o estimador OLS de β 1 é excêntrico. (Greene (003), exercício 4, p.63) 4 Considere o modelo de regressão linear Y i = β 1 + β X i + u i sob as hipóteses clássicas e a amostra {(X i, Y i ), i = 1,,..., n}. Verifique se são cêntricos os estimadores de β definidos nas alíneas seguintes: a) ~ Yi Yj =, quaisquer que sejam i e j, i j, e X i X j ; X X i j ~ 1 n Yi Yi 1 b) =, se X i X i-1, para todo i =, 3,..., n; n 1 X X i= i i 1 ~ 1 n Yi c) =, supondo X i 0, qualquer que seja i; n X i= 1 i d) ~ = n x i= 1 n x i= 1 i y 3 i i, em que x i = X i X, y i = Y i Y e x 0. n i= 1 3 i

ESTIMAÇÃO PELO MÉTODO GENERALIZADO DE MÍNIMOS QUADRADOS (GLS) 1 No modelo de regressão linear Y = X + u, as hipóteses clássicas requerem que seja nulo o coeficiente de correlação linear entre duas quaisquer componentes do vector de perturbações, u. No modelo de regressão linear generalizado, as hipóteses permitem afrouxar essa restrição. Mostre como. Nos quadros seguintes, apresentam-se resultados de uma estimação com o programa EViews: Sample: 1 33 Included observations: 33 C 0.5004 9.67376 0.69151 0.4946 X 0.41466 0.44694 0.97775 0.3609 X3 -.03783 0.4915-8.159689 0.0000 R-squared 0.69088 Mean dependent var -7.7875 Adjusted R-squared 0.671561 S.D. dependent var 108.3 S.E. of regression 6.0179 Akaike info criterion 11.17936 Sum squared resid 115401.1 Schwarz criterion 11.31540 Log likelihood -181.4594 F-statistic 33.715 Durbin-Watson stat 1.919310 Prob(F-statistic) 0.000000 White Heteroskedasticity Test: F-statistic 1.90133 Probability 0.17190 Obs*R-squared 8.593495 Probability 0.16419 Test Equation: Dependent Variable: RESID^ Sample: 1 33 Included observations: 33 C -166.350 5159.301-0.3157 0.7550 X 11.7835 178.5550 0.065994 0.9479 X^ 0.970494 1.51643 0.639989 0.576 X*X3-0.77119 1.405968-0.19710 0.845 X3 77.5680 113.4514 0.68371 0.5000 X3^ -0.53711 0.54614-0.958800 0.346 R-squared 0.60409 Mean dependent var 3497.00 Adjusted R-squared 0.13448 S.D. dependent var 5836.638 S.E. of regression 5464.515 Akaike info criterion 0.190 Sum squared resid 8.06E+08 Schwarz criterion 0.48500 Log likelihood -37.519 F-statistic 1.90133 Durbin-Watson stat.16856 Prob(F-statistic) 0.17190

Sample: 1 33 Included observations: 33 White Heteroskedasticity-Consistent Standard Errors & Covariance C 0.5004 18.8413 1.187 0.706 X 0.41466 0.447877 0.95838 0.3619 X3 -.03783 0.189870-10.70617 0.0000 R-squared 0.69088 Mean dependent var -7.7875 Adjusted R-squared 0.671561 S.D. dependent var 108.3 S.E. of regression 6.0179 Akaike info criterion 11.17936 Sum squared resid 115401.1 Schwarz criterion 11.31540 Log likelihood -181.4594 F-statistic 33.715 Durbin-Watson stat 1.919310 Prob(F-statistic) 0.000000 Comente os resultados, designadamente quanto aos aspectos seguintes: i) possível razão de ser da análise no segundo quadro; ii) conclusões que dessa análise se retiram; iii) possível razão de ser da regressão no terceiro quadro; iv) metodologia seguida na obtenção dos resultados desse quadro; v) justificação dessa metodologia. 3 Reproduz-se abaixo um pequeno programa escrito para EViews e, de seguida, os resultados das duas estimações pedidas no programa. Descreva o procedimento seguido, explique os seus objectivos e indique que conclusões retira dos resultados obtidos. workfile exemplo u 1 8 sort x smpl 1 11 equation eq01.ls y c x x3 smpl 18 8 equation eq0.ls y c x x3 Sample: 1 11 Included observations: 11 C 1.043904 1.35531 0.77078 0.4633 X 0.305780 0.054350 5.66095 0.0005 X3 0.43577 0.493036 0.883763 0.406 R-squared 0.839017 Mean dependent var 7.844034 Adjusted R-squared 0.798771 S.D. dependent var 4.570606 S.E. of regression.050307 Akaike info criterion 4.500857 Sum squared resid 33.63008 Schwarz criterion 4.609374 Log likelihood -1.75471 F-statistic 0.84733 Durbin-Watson stat.484511 Prob(F-statistic) 0.00067

Sample: 18 8 Included observations: 11 C -15.56554 67.70570-0.9900 0.839 X 0.3985 0.734685 0.5407 0.605 X3 0.79463 3.3087 0.45950 0.8119 R-squared 0.038309 Mean dependent var.04618 Adjusted R-squared -0.0113 S.D. dependent var 15.711 S.E. of regression 16.74340 Akaike info criterion 8.700886 Sum squared resid 4.73 Schwarz criterion 8.809403 Log likelihood -44.85487 F-statistic 0.15934 Durbin-Watson stat.308857 Prob(F-statistic) 0.855345 4 Os Quadros I a VI apresentam vários resultados obtidos na estimação do modelo Y t = β 1 + β X t + u t com base numa amostra de observações trimestrais. Quadro I: Sample: 1991:1 1995:4 Included observations: 0 C 31.6756 305.0190 0.759545 0.4574 X 1.38694 0.37148 5.399 0.0001 R-squared 0.60499 Mean dependent var 181.704 Adjusted R-squared 0.580415 S.D. dependent var 13.95 S.E. of regression 86.10105 Akaike info criterion 11.84356 Sum squared resid 133441.0 Schwarz criterion 11.94313 Log likelihood -116.4356 F-statistic 7.885 Durbin-Watson stat 3.77505 Prob(F-statistic) 0.000057 a) O Quadro I mostra os resultados da estimação do modelo por OLS e o Quadro II o correlograma dos resíduos dessa regressão. Que conclui dessas peças quanto à eventual existência e padrão de autocorrelação das perturbações do modelo? b) Relativamente aos quadros restantes, explique o propósito de cada uma das regressões, justifique os procedimentos usados e exponha as conclusões relevantes que retira da análise. (A variável dependente RESIDEQ01 refere-se aos resíduos de estimação da equação no Quadro I.)

Quadro II: Sample: 1991:1 1995:4 Included observations: 0 Autocorrelation Partial Correlation AC PAC Q-Stat Prob *****. *****. 1-0.668-0.668 10.37 0.001. *****. **. 0.66 0.36 19.917 0.000 ***.. *. 3-0.441 0.118 4.95 0.000. *. ****. 4 0.150-0.459 5.569 0.000.**. ***. 5-0.01-0.344 6.758 0.000... *. 6 0.044 0.105 6.817 0.000.**. ***. 7-0.05-0.359 8.33 0.000. **.. *. 8 0.34-0.148 30.37 0.000.**.. *. 9-0.99-0.110 33.813 0.000. ***.. 10 0.408-0.035 41.17 0.000.**.. *. 11-0.300-0.066 45.5 0.000. **..**. 1 0.97-0.18 50.390 0.000 Quadro III: Sample(adjusted): 1991: 1995:4 Included observations: 19 after adjusting endpoints C -179.090 86.3803-0.65144 0.5413 Y(-1) -0.74577 0.17508-4.53670 0.0007 X 1.38607 0.0030 6.63436 0.0000 X(-1) 1.9553 0.307141 4.1716 0.0007 R-squared 0.87816 Mean dependent var 1831.08 Adjusted R-squared 0.793379 S.D. dependent var 19.671 S.E. of regression 58.9431 Akaike info criterion 11.17569 Sum squared resid 5114.53 Schwarz criterion 11.3745 Log likelihood -10.1691 F-statistic 4.03867 Durbin-Watson stat 1.51691 Prob(F-statistic) 0.000006 Quadro IV: Dependent Variable: RESIDEQ01 Sample(adjusted): 1991: 1995:4 Included observations: 19 after adjusting endpoints RESIDEQ01(-1) -0.679671 0.169083-4.01975 0.0008 R-squared 0.471869 Mean dependent var 3.871054 Adjusted R-squared 0.471869 S.D. dependent var 84.439 S.E. of regression 61.7 Akaike info criterion 11.11810 Sum squared resid 67467.00 Schwarz criterion 11.16780 Log likelihood -104.619 Durbin-Watson stat 1.51303

Quadro V: +0.74577*Y(-1) Sample(adjusted): 1991: 1995:4 Included observations: 19 after adjusting endpoints C -95.5165 6.0740-0.364483 0.700 X+0.74577*X(-1) 1.464815 0.117056 1.51383 0.0000 R-squared 0.90071 Mean dependent var 3179.940 Adjusted R-squared 0.896311 S.D. dependent var 177.0701 S.E. of regression 57.01797 Akaike info criterion 11.0391 Sum squared resid 5567.83 Schwarz criterion 11.1333 Log likelihood -10.77 F-statistic 156.5959 Durbin-Watson stat 1.583191 Prob(F-statistic) 0.000000 Quadro VI: +0.679671*Y(-1) Sample(adjusted): 1991: 1995:4 Included observations: 19 after adjusting endpoints C -65.7831 63.014-0.5011 0.8055 X+0.679671*X(-1) 1.4568 0.107 11.90411 0.0000 R-squared 0.89885 Mean dependent var 3061.197 Adjusted R-squared 0.886584 S.D. dependent var 171.3839 S.E. of regression 57.71744 Akaike info criterion 11.04830 Sum squared resid 5663.16 Schwarz criterion 11.14771 Log likelihood -10.9588 F-statistic 141.7079 Durbin-Watson stat 1.796863 Prob(F-statistic) 0.000000 5 Considere o modelo Y i = X i + u i, em que Y i é uma variável binária codificada com os valores 1 ou 0 e u i é um erro aleatório com média nula. a) Mostre por que é esse modelo chamado um modelo linear de probabilidade. b) Que problemas suscita a estimação do modelo por OLS? c) Descreva com pormenor o procedimento que seguiria para estimar o modelo pelo método GLS exequível.

d) Se, em vez do par (0,1), tivesse sido usado outro par qualquer, (a,b), para codificar os dois valores possíveis da variável Y, seria ainda apropriada a qualificação do modelo em causa como um modelo linear de probabilidade? Justifique.

ESTIMAÇÃO PELO MÉTODO NÃO LINEAR DE MÍNIMOS QUADRADOS (NLS) 1 Considere a equação de regressão Y t = β 1 + β (X t β 3 X 3t ) + β 4 (X 4t β 3 X 5t ) + u t e admita que a perturbação u t verifica as hipóteses clássicas. a) Determine a expressão da equação de regressão linearizada obtida por uma aproximação de 1.ª ordem em série de Taylor da função f(β 1, β, β 3, β 4, X t, X 3t, X 4t, X 5t ) = β 1 + β (X t β 3 X 3t ) + β 4 (X 4t β 3 X 5t ). b) Descreva o processo de estimação por NLS dos coeficientes β 1, β, β 3 e β 4. c) Em alternativa ao procedimento que detalhou na questão anterior, suponha que é estimado por OLS o modelo Y t = δ 1 + δ X t + δ 3 X 3t + δ 4 X 4t + δ 5 X 5t + u t e testada a hipótese 3 5 =. Explique qual o interesse dessa hipótese. 4 Seja o modelo Y i = α + β X i + β X 3i + u i, para estimação do qual se dispõe de uma amostra de 1000 observações. a) Numa primeira abordagem, começou-se por estimar, em vez do modelo do enunciado, o modelo Y i = α + β X i + δ X 3i + v i, tendo-se obtido os resultados do Quadro I. Com eles, planeava-se testar a hipótese Comente. H 0 : δ = β. b) Mostre que, na regressão linearizada, é irrelevante a estimativa inicial de α.

Quadro I: Sample: 1 1000 Included observations: 1000 C 50.63595 0.6863 73.78934 0.0000 X -0.50070 0.011138-46.6930 0.0000 X3 0.64491 0.008898 9.7633 0.0000 R-squared 0.758560 Mean dependent var 3.11145 Adjusted R-squared 0.758076 S.D. dependent var 0.733 S.E. of regression 10.19779 Akaike info criterion 7.48515 Sum squared resid 103683.0 Schwarz criterion 7.499939 Log likelihood -3739.608 F-statistic 1566.198 Durbin-Watson stat.051965 Prob(F-statistic) 0.000000 c) Partindo de estimativas iniciais ˆ = ˆ = 0, procedeu~se à estimação do modelo pelo método da regressão linearizada. Os resultados das três primeiras iterações constam dos Quadros II, III e IV. Comente os aspectos que considere relevantes nesses resultados. Quadro II: Quadro III: 0_1 Sample: 1 1000 Included observations: 1000 C 58.18748 0.875083 66.49369 0.0000 Z0_1-0.5803 0.01585-34.54464 0.0000 R-squared 0.544569 Mean dependent var 3.11145 Adjusted R-squared 0.544113 S.D. dependent var 0.733 S.E. of regression 13.99895 Akaike info criterion 8.117840 Sum squared resid 195578.7 Schwarz criterion 8.17655 Log likelihood -4056.90 F-statistic 1193.33 Durbin-Watson stat.1094 Prob(F-statistic) 0.000000 0_ Sample: 1 1000 Included observations: 1000 C 50.40196 0.350677 143.774 0.0000 Z0_ -0.51653 0.006638-77.80877 0.0000 R-squared 0.858484 Mean dependent var 39.65774 Adjusted R-squared 0.85834 S.D. dependent var 7.08336 S.E. of regression 10.19349 Akaike info criterion 7.483373 Sum squared resid 103699.4 Schwarz criterion 7.493189 Log likelihood -3739.687 F-statistic 6054.04 Durbin-Watson stat.05070 Prob(F-statistic) 0.000000

Quadro IV: 0_3 Sample: 1 1000 Included observations: 1000 C 50.3977 0.353130 14.7157 0.0000 Z0_3-0.516471 0.006731-76.735 0.0000 R-squared 0.855065 Mean dependent var 39.3361 Adjusted R-squared 0.85490 S.D. dependent var 6.7609 S.E. of regression 10.19353 Akaike info criterion 7.483381 Sum squared resid 103700.1 Schwarz criterion 7.493196 Log likelihood -3739.690 F-statistic 5887.838 Durbin-Watson stat.050674 Prob(F-statistic) 0.000000 d) Por último, procedeu-se à estimação do modelo do enunciado por NLS; os resultados figuram no quadro abaixo. Comente-os. Quadro V: Sample: 1 1000 Included observations: 1000 Convergence achieved after 3 iterations Y=C(1)+C()*X+(C()^)*X3 Coefficient Std. Error t-statistic Prob. C(1) 50.3977 0.35314 14.7111 0.0000 C() -0.516471 0.006731-76.7743 0.0000 R-squared 0.75851 Mean dependent var 3.11145 Adjusted R-squared 0.75879 S.D. dependent var 0.733 S.E. of regression 10.19353 Akaike info criterion 7.483381 Sum squared resid 103700.1 Schwarz criterion 7.493196 Log likelihood -3739.690 Durbin-Watson stat.050674 3 No exercício 4 da secção sobre estimação por GLS citam-se vários resultados da estimação do modelo Y t = β 1 + β X t + u t com uma amostra de observações trimestrais; o quadro da página seguinte exibe resultados adicionais da análise, desta vez obtidos por recurso a estimadores NLS. a) Justifique o procedimento adoptado na regressão a que se refere esse quadro e interprete a informação obtida.

b) Confronte a metodologia seguida nessa regressão com a que resultaria do primeiro passo do método de Durbin para estimação de modelos com autocorrelação. Sample(adjusted): 1991: 1995:4 Included observations: 19 after adjusting endpoints Convergence achieved after 1 iterations Y=C(3)*Y(-1)+C(1)*(1-C(3))+C()*(X-C(3)*X(-1)) Coefficient Std. Error t-statistic Prob. C(3) -0.796915 0.164606-4.841358 0.000 C(1) -65.5347 15.8190-0.48836 0.6738 C() 1.47377 0.119173 1.3654 0.0000 R-squared 0.818488 Mean dependent var 1831.08 Adjusted R-squared 0.795800 S.D. dependent var 19.671 S.E. of regression 58.59693 Akaike info criterion 11.1318 Sum squared resid 54937.61 Schwarz criterion 11.730 Log likelihood -10.670 Durbin-Watson stat 1.43553

ESTIMAÇÃO PELO MÉTODO DA MÁXIMA VEROSIMILHANÇA (ML) 1 Suponha que Y é uma variável aleatória com função densidade de probabilidade f(y) = 1, 0 y. Com base numa amostra aleatória {Y 1, Y,..., Y n }, consegue determinar o estimador ML do parâmetro? Discuta a questão. Seja {Y 1, Y,..., Y n } uma amostra aleatória de uma variável Y i) com distribuição de Bernoulli e função de probabilidade f(y; ) = y 1 y (1 ), 0 1, y = 0 ou y = 1; ii) com distribuição de Poisson e função de probabilidade f(y; ) = y e y!, 0, y = 0, 1,,...; iii) com distribuição exponencial e função densidade de probabilidade f(y; ) = e -y, > 0, y > 0. Determine o estimador ML de em cada um desses casos. 3 Considere o modelo de regressão linear Y = X + u sob a hipótese u ~ N(0, I n ). a) Deduza a função logarítmica de verosimilhança, ln L(, ). b) Mostre que é ln L E ln L = 0.

c) Determine os estimadores ML de e de. d) Usando o resultado ln L Var ln L ln L ' = E ' ln L ln L, ln L ( ) determine a matriz de variâncias do estimador ML de e a variância do estimador ML de. 4 Considere o modelo * Y i = X i + u i, Y i = * 1, se Yi > 0, 0, em caso contrário u i ~ N(0, 1). e admita disponível uma amostra de n observações (X i, Y i ). a) Deduza a função logarítmica de verosimilhança, ln L(). b) Para o caso particular X i =, qualquer que seja i, deduza o estimador ML de. c) Sendo n 0 e n 1, respectivamente, o número de observações na amostra em que Y i = 0 e o número de observações com Y i = 1, mostre, para o caso particular analisado em b), que o valor máximo de ln L() pode ser determinado apenas pelo conhecimento de n 0 e n 1. 5 Considere o modelo * Y i = X i + u i,

* 1, se Yi > 0 Y i =, 0, em caso contrário e admita que u i é uma variável aleatória com função de distribuição F(u i ) = 1 1+ e ui. a) Prove que é Pr ob(yi ln Pr ob(yi = 1 Xi ) = 0 Xi ) = X i. Qual o interesse desse resultado? b) Para o caso particular X i =, qualquer que seja i, deduza o estimador ML de. c) No caso particular citado na alínea anterior, poderia usar o valor máximo da função logarítmica de verosimilhança para decidir qual das especificações probit ou logit seria mais adequada para uma dada amostra? Justifique. 6 Na estimação do modelo Y t = β 1 + β X t + u t, t = 1,,..., n, em que u t = u t-1, + t, sendo 1 < < 1 e { t } uma sequência de variáveis aleatórias independentes e identicamente distribuídas com média 0 e variância, é frequentemente um problema a questão do tratamento a dar à primeira observação, (X 1, Y 1 ). a) Na transformação do modelo de forma a repor as hipóteses clássicas, uma proposta (devida a Prais e Winsten) é a de que a variável dependente do modelo * transformado, Y t, seja definida por * Y t = 1 Y 1, Yt Yt 1, para t = 1 para t =, 3,..., n * e analogamente para X t. Mostre que, de facto, a transformação de Prais-Winsten permite preservar a homoscedasticidade no modelo.

b) Mostre que, sob a hipótese adicional de normalidade de, são diferentes as funções de verosimilhança para estimação dos parâmetros β 1, β e no modelo do enunciado e no modelo com t =, 3,..., n. Y t Y t-1 = β 1 (1 ) + β (X t X t-1 ) + t, 7 Relativamente a cada uma de um grupo de 100 mulheres casadas, dispõe-se de informação quanto às variáveis seguintes: NC: número de filhos; HW: salário do marido; ED: número de anos de educação completados; OW: salário da mulher. A variável OW foi codificada com o valor 0 se a mulher não tinha emprego remunerado. Admite-se que a decisão de participação da mulher no mercado de trabalho depende do número de filhos e do salário do marido, mas não do nível de escolaridade completado pela mulher, enquanto o salário auferido por trabalho no mercado depende apenas desse nível de habilitações (mas não do número de filhos ou do salário do cônjuge). Os quadros seguintes apresentam um conjunto de resultados obtidos na análise dessa amostra. Quadro I: Dependent Variable: OW Sample(adjusted): 13 100 IF OW>0 Included observations: 61 after adjusting endpoints C.161649 0.94084 7.350440 0.0000 ED 0.87039 0.0899 30.08534 0.0000 R-squared 0.938805 Mean dependent var 10.18009 Adjusted R-squared 0.937768 S.D. dependent var 3.891649 S.E. of regression 0.97087 Akaike info criterion.810901 Sum squared resid 55.60785 Schwarz criterion.880110 Log likelihood -83.7349 F-statistic 905.178 Durbin-Watson stat.48569 Prob(F-statistic) 0.000000 a) Que objecções lhe suscitam os resultados apresentados nos Quadros I e II?

Quadro II: Dependent Variable: OW Sample: 1 100 Included observations: 100 C 0.715668 1.6498 0.566060 0.576 ED 0.60441 0.16360 4.783313 0.0000 R-squared 0.18979 Mean dependent var 6.09855 Adjusted R-squared 0.181006 S.D. dependent var 5.838011 S.E. of regression 5.8398 Akaike info criterion 6.186776 Sum squared resid 735.498 Schwarz criterion 6.38879 Log likelihood -307.3388 F-statistic.88008 Durbin-Watson stat 0.40334 Prob(F-statistic) 0.000006 b) O Quadro III refere-se a um modelo probit em que a variável dependente, PART, é uma variável binária que assume o valor 1 se a mulher tem trabalho no mercado ou o valor 0 em caso contrário. Para uma mulher cujo marido tem um salário de 0, havendo um filho do casal, que influência estima venha a ter o nascimento do segundo filho sobre a participação no mercado de trabalho? E que influência estima se desse parto resultar um par de gémeos? Quadro III: Dependent Variable: PART Method: ML - Binary Probit Sample: 1 100 Included observations: 100 Convergence achieved after 5 iterations Covariance matrix computed using second derivatives Variable Coefficient Std. Error z-statistic Prob. C 5.403366 0.95919 5.835680 0.0000 NC -1.14181 0.49816-4.860308 0.0000 HW -0.15718 0.043715-4.93463 0.0000 Mean dependent var 0.610000 S.D. dependent var 0.49007 S.E. of regression 0.344499 Akaike info criterion 0.74354 Sum squared resid 11.51190 Schwarz criterion 0.81697 Log likelihood -34.17708 Hannan-Quinn criter. 0.77517 Restr. log likelihood -66.87481 Avg. log likelihood -0.341771 LR statistic ( df) 65.39546 McFadden R-squared 0.488939 Probability(LR stat) 6.33E-15 c) O Quadro IV, por sua vez, apresenta resultados da estimação de um modelo tobit para os salários. Especifique completamente o modelo e escreva a função de verosimilhança em que se baseou a estimação. d) O Quadro V contém resultados da estimação do modelo pelo método de Heckman em dois passos. Descreva o procedimento seguido. Que vantagens terá esse método sobre as alternativas?

Quadro IV: Dependent Variable: OW Method: ML - Censored Normal (TOBIT) Sample: 1 100 Included observations: 100 Left censoring (value) at zero Convergence achieved after 6 iterations Covariance matrix computed using second derivatives Coefficient Std. Error z-statistic Prob. C -.08836.060356-1.010911 0.311 ED 0.689779 0.00879 3.433796 0.0006 Error Distribution SCALE:C(3) 7.99745 0.811949 9.849444 0.0000 R-squared 0.18348 Mean dependent var 6.09855 Adjusted R-squared 0.16659 S.D. dependent var 5.838011 S.E. of regression 5.39590 Akaike info criterion 5.0465 Sum squared resid 755.39 Schwarz criterion 5.10061 Log likelihood -48.133 Hannan-Quinn criter. 5.054096 Avg. log likelihood -.48133 Left censored obs 39 Right censored obs 0 Uncensored obs 61 Total obs 100 Quadro V: Dependent Variable: OW Sample(adjusted): 13 100 IF OW>0 Included observations: 61 after adjusting endpoints C.433068 0.497969 4.885987 0.0000 ED 0.864308 0.03039 8.43831 0.0000 LAMBDA -0.1190 0.175783-0.677099 0.5010 R-squared 0.93985 Mean dependent var 10.18009 Adjusted R-squared 0.937191 S.D. dependent var 3.891649 S.E. of regression 0.975314 Akaike info criterion.835815 Sum squared resid 55.17174 Schwarz criterion.93968 Log likelihood -83.4935 F-statistic 448.639 Durbin-Watson stat.478685 Prob(F-statistic) 0.000000

ESTIMAÇÃO PELO MÉTODO DAS VARIÁVEIS INSTRUMENTAIS (IV) 1 Considere o modelo Y t = β 1 + β Y t-1 + u t. a) Prove que, se Y for uma variável estacionária (no sentido de fracamente estacionária), terá de ser < 1. b) Indique as propriedades do estimador OLS de β (i) caso u t seja uma variável aleatória de espectro branco e (ii) caso u t siga um processso auto-regressivo estacionário de 1ª ordem com média nula. c) Se houvesse razões para considerar insatisfatório o uso do método OLS na estimação do modelo, parece-lhe que o método das variáveis instrumentais constituirira uma boa alternativa? Discuta a questão. Dispõe-se de uma amostra de observações trimestrais das variáveis X t e Y t para o período 1981:1 a 1996:4, com as quais pretende estimar-se o modelo. Y t = β 1 + β Y t-1 + β 3 X t + u t. Alguns resultados da análise aparecem nos quadros seguintes: Quadro I: Sample(adjusted): 1981: 1996:4 Included observations: 63 after adjusting endpoints C 16.51403 4.58544 3.601405 0.0006 Y(-1) 0.587715 0.053186 11.0500 0.0000 X 0.1147 0.019199 6.315190 0.0000 R-squared 0.758569 Mean dependent var 78.73550 Adjusted R-squared 0.75051 S.D. dependent var 10.91760 S.E. of regression 5.453106 Akaike info criterion 6.76696 Sum squared resid 1784.18 Schwarz criterion 6.378750 Log likelihood -194.7159 F-statistic 94.5905 Durbin-Watson stat 0.453151 Prob(F-statistic) 0.000000 a) A avaliar pelo valor da estatística de Durbin-Watson no Quadro I, há autocorrelação das perturbações. Concorda? Se, de facto, existir autocorrelação, que críticas lhe merece a estimação?

Quadro II: Method: Two-Stage Least Squares Sample(adjusted): 198:1 1996:4 Included observations: 60 after adjusting endpoints Instrument list: C X X(-1) X(-) X(-3) X(-4) C 4.31340 13.38106 3.16186 0.005 Y(-1) 0.18346 0.16881 1.97505 0.1997 X 0.14596 0.06517 5.377637 0.0000 R-squared 0.534760 Mean dependent var 79.6837 Adjusted R-squared 0.518435 S.D. dependent var 10.66605 S.E. of regression 7.401693 Sum squared resid 31.748 F-statistic 16.5460 Durbin-Watson stat 0.16065 Prob(F-statistic) 0.00000 b) O Quadro II exibe resultados da estimação do modelo pelo método IV. Parecelhe adequada a escolha das variáveis instrumentais usadas? Justifique. c) Descreva, com rigor, o processo de estimação pelo método bietápico de mínimos quadrados que lhe permitiria obter as mesmas estimativas dos coeficientes β 1, β e β 3 que no Quadro II.

ESTIMAÇÃO PELO MÉTODO DOS MOMENTOS GENERALIZADO (GMM) 1 Retome o exemplo da questão na secção sobre a estimação IV. Os Quadros I e II fornecem resultados complementares. Quadro I: Quadro II: Method: Generalized Method of Moments Sample(adjusted): 198:1 1996:4 Included observations: 60 after adjusting endpoints No prewhitening Bandwidth: Fixed (3) Kernel: Bartlett Convergence achieved after: 7 weight matricies, 8 total coef iterations Instrument list: C X X(-1) X(-) X(-3) X(-4) C 4.71860 11.8449 3.6171 0.0006 Y(-1) 0.9977 0.116714 1.970430 0.0537 X 0.136466 0.07361 4.987645 0.0000 R-squared 0.544464 Mean dependent var 79.6837 Adjusted R-squared 0.58480 S.D. dependent var 10.66605 S.E. of regression 7.34093 Sum squared resid 3057.614 Durbin-Watson stat 0.137141 J-statistic 0.039943 Method: Generalized Method of Moments Sample(adjusted): 1981: 1996:4 Included observations: 63 after adjusting endpoints No prewhitening Bandwidth: Fixed (3) Kernel: Bartlett Convergence achieved after: 1 weight matrix, total coef iterations Instrument list: C X X(-1) C 4.10643 13.8971 3.09847 0.0036 Y(-1) 0.41 0.145794 1.55579 0.134 X 0.141930 0.03198 4.53480 0.0000 R-squared 0.568753 Mean dependent var 78.73550 Adjusted R-squared 0.554378 S.D. dependent var 10.91760 S.E. of regression 7.88038 Sum squared resid 3186.930 Durbin-Watson stat 0.157917 J-statistic 3.30E-7 a) As estimativas obtidas pelo método IV (ver Quadro II na questão supracitada da secção sobre esse método) e pelo método GMM (Quadro I desta questão) são diferentes. Explique porquê.

b) A avaliar pela estatística J (Quadro I), parecem~lhe adequadas as restrições de sobre-identificação impostas na estimação? Justifique. c) No Quadro II, são apresentados resultados da estimação GMM do modelo com um conjunto diferente de variáveis instrumentais. Discuta a estatística J fornecida nesse quadro. No modelo probit, sabe-se que é E(Y i X i ) = (X i ), em que, por (.), se designou a função cumulativa de distribuição normal reduzida. Poderia, então, usar a condição de ortogonalidade E[Y i (X i )] = 0 como base para a estimação GMM dos coeficientes do modelo? Discuta a questão. 3 Seja Y uma variável com distribuição do qui-quadrado com p graus de liberdade. a) Sabe-se que é E(Y) = p. Qual seria o estimador de p pelo método dos momentos? b) Também é Var(Y) = p. Se usasse esta condição, qual seria o estimador de p pelo método dos momentos? c) Escreva as condições de ortogonalidade e os momentos amostrais correspondentes às condições E(Y) = p e Var(Y) = p. 4 Seja {Y 1, Y,..., Y n } uma amostra aleatória de uma variável Y com distribuição t de Student com p graus de liberdade. 1 a) Planeia-se usar Y = Yi como estimador do parâmetro p. Que pensa disso? n b) Sugira um método alternativo para estimação de p. Justifique-o.

Soluções: Date: 1/0/04 Time: 17:15 Sample: 1 3 Included observations: 3 C 5.416354 3.819416 1.418110 0.1665 X 0.830504 0.064008 1.97507 0.0000 R-squared 0.848754 Mean dependent var 49.88458 Adjusted R-squared 0.84371 S.D. dependent var 4.1348 S.E. of regression 9.536788 Akaike info criterion 7.40865 Sum squared resid 78.510 Schwarz criterion 7.50060 Log likelihood -116.5384 F-statistic 168.354 Durbin-Watson stat.096630 Prob(F-statistic) 0.000000 Date: 1/0/04 Time: 17:18 Sample: 1 8 Included observations: 8 C 7.19457 4.065095 1.75383 0.0917 X 0.838313 0.064644 1.9684 0.0000 X3-0.056367 0.076669-0.735193 0.4691 R-squared 0.870710 Mean dependent var 49.90676 Adjusted R-squared 0.860366 S.D. dependent var 4.93499 S.E. of regression 9.317604 Akaike info criterion 7.40645 Sum squared resid 170.443 Schwarz criterion 7.545381 Log likelihood -100.6370 F-statistic 84.18160 Durbin-Watson stat.33693 Prob(F-statistic) 0.000000