Econometria Financeira

Documentos relacionados
Econometria IV Modelos Lineares de Séries Temporais. Fernando Chague

Econometria em Finanças e Atuária

ANÁLISE DE SÉRIES TEMPORAIS

ANÁLISE DE SÉRIES TEMPORAIS

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9

Modulo I. Séries Temporais: ARIMA

Estimação no Domínio do tempo: Covariâncias e modelos ARIMA

ANÁLISE DE SÉRIES TEMPORAIS

Metodologia de Box-Jenkins. Metodologia de Box-Jenkins. Metodologia de Box-Jenkins

A Metodologia de Box & Jenkins

Econometria em Finanças e Atuária

Séries Temporais. Fernando Lucambio. Agosto de Departamento de Estatística Universidade Federal do Paraná Curitiba/PR, , Brasil

Econometria Semestre

Análise e Previsão de Séries Temporais Aula 1: Introdução às séries temporais. Eraylson Galdino

Modelos para Séries Temporais Aula 1. Morettin e Toloi, 2006, Capítulo 2 Morettin, 2011, Capítulo 2 Bueno, 2011, Capítulo 2

= p(x 1 )p(x 2 x 1 )p(x n,..., x 3 x 2, x 1 ). = p(x 1 ) t=2. Em particular para um modelo ARMA(p, q), denotando o vetor de parâmetros. t=p+1.

Capítulo 3. Modelos Probabilísticos

Mestrado Profissionalizante em Finanças as e Economia Empresarial FGV / EPGE Prof. Eduardo Ribeiro Julho Setembro 2007

teoria de probabilidade e estatística, uma sequência de palavra série de tempo é usada alternativamente para

CONHECIMENTOS ESPECÍFICOS

Econometria em Finanças e Atuária

ANÁLISE DE REGRESSÃO. Ralph S. Silva. Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro

Aula 3 - Revisão de Probabilidade e Estatística: Esclarecimento de Dúvidas

Análise de Séries Temporais. Modelos estacionários Processos puramente aleatórios, AR(p), MA(q) ARIMA(p,q)

Séries de Tempo. José Fajardo. Agosto Fundação Getulio Vargas-EBAPE. José Fajardo (FGV-EBAPE) Fundamentos Estatísticos Agosto / 49

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.

Modelos ARCH e GARCH Aula 8. Morettin e Toloi, 2006, Capítulo 1 e 14 Morettin, 2011, Capítulo 1 e 5 Bueno, 2011, Capítulo 8

Aula 22/10/2018 José Luiz Padilha 22 de outubro de 2018

Conceitos Básicos de Séries Temporais para Modelagem Macroeconômica

Análise de Séries Temporais Financeiras

Ralph S. Silva

AULA 09 Regressão. Ernesto F. L. Amaral. 17 de setembro de 2012

'HVFULomRH$QiOLVH([SORUDWyULDGRV'DGRV

Análise de Regressão EST036

Econometria. Séries Temporais Lista de Exercícios

3 Metodologia 3.1. Tipo de pesquisa

ESTATÍSTICA COMPUTACIONAL

Inferência Estatistica

CONHECIMENTOS ESPECÍFICOS

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 4

Análise e Previsão de Séries Temporais Aula 2: Introdução às séries temporais. Eraylson Galdino

(iv) Ausência de correlação serial nos erros, dados dois valores quaisquer de X, X i e X j (i j), a correlação entre ε i e ε j é zero,, /,

Modelos de Regressão Linear Simples - parte I

4 Modelos de Regressão Dinâmica

Econometria. Econometria MQO MQO. Resíduos. Resíduos MQO. 1. Exemplo da técnica MQO. 2. Hipóteses do Modelo de RLM. 3.

Análise de Regressão EST036

CONHECIMENTOS ESPECÍFICOS

Uma aplicação do modelo ARIMA para os preços do real estate nos municípios de São Paulo e Rio de Janeiro

3 A Modelagem Univariada por Box & Jenkins

Cap. 8 - Intervalos Estatísticos para uma Única Amostra

ECONOMETRIA AVANÇADA Prova Intermediária - 09/04/2015

Econometria II. Notas de bolso! Propriedades da E(.), Var(.) e Cov(.) Temos que (a,b) são constantes e (X,Y) são variáveis aleatórias.

Modelo de Regressão Múltipla

2. Séries Temporais Definição

Vetores Auto-Regressivos (VAR) Cristian Rafael Pelizza Estágio de docência

Análise de regressão linear simples. Diagrama de dispersão

Introdução a Modelos VAR

Testes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Análise de Regressão Linear Simples e

Pode-se definir Value at Risk[28], VaR, como a perda máxima (ou pior perda) num determinado período de tempo a um nível de confiança

Métodos Quantitativos para Avaliação de Políticas Públicas

3 Modelos Comparativos: Teoria e Metodologia

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 6

Testes de Raiz Unitária para Dados em Painel

Antes de resolvermos a)-c), vamos relembrar a diferença entre esperança (variância) conditional e esperança (variância) incondicional.

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares

Regressão Linear Simples

Análise de variância para experimentos com dependência espacial entre parcelas: abordagem autoregressiva e Geoestatística

Distribuições Amostrais e Estimação Pontual de Parâmetros

Aplicação da metodologia Box & Jenkins para previsão de vendas de emulsificante

Modelos de Regressão Linear Simples - parte III

A análise de séries temporais é uma área da estatística dedicada ao estudo de dados orientados no tempo (MONTGOMERY, 2004).

Modelos de Regressão Linear Simples parte I

Análise da Regressão múltipla: MQO Assintótico y = β 0 + β 1 x 1 + β x +... β k x k + u 3. Propriedades assintóticas Antes, propriedades sobre amostra

Aula 1. Wilson Correa. June 27, 2017

CONHECIMENTOS ESPECÍFICOS

Modelos de Regressão Linear Simples - parte II

Testes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Distribuições Amostrais e Estimação Pontual de Parâmetros

Capítulo 9 - Regressão Linear Simples (RLS): Notas breves

Universidade Federal de Lavras

Econometria em Finanças e Atuária

Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados

TÉCNICAS DE AMOSTRAGEM

Estatística - Análise de Regressão Linear Simples. Professor José Alberto - (11) sosestatistica.com.br

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 12

Análise de previsão da inflação no período pós-plano Real

Tópicos de Estatística Espacial Geoestatística

EXAME NACIONAL DE SELEÇÃO 2010

AULA 9 - MQO em regressão múltipla: Propriedades Estatísticas (Valor Esperado)

Uso de séries temporais na análise da temperatura média mensal da cidade de Mossoró, RN

Os Mínimos Quadrados Ordinários Assintóticos

AULA 8 - MQO em regressão múltipla:

Prof. Lorí Viali, Dr.

PREVISÃO. Prever o que irá. acontecer. boas decisões com impacto no futuro. Informação disponível. -quantitativa: dados.

Modelos de Volatilidade Estatística. Danilo Kenji Ishizawa

Análise do volume útil do reservatório de Furnas via modelos de séries temporais

2. Modelos periódicos autorregressivos 2.1. Planejamento da Operação do Sistema Interligado Nacional

Transcrição:

Ralph S. Silva http://www.im.ufrj.br/ralph/econometriafinanceira.html Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Setembro-Dezembro/2015

Análise de séries temporais lineares e suas aplicações Análise de séries temporais lineares e suas aplicações Trataremos o retorno de um ativo como uma coleção de variáveis aleatórias sobre o tempo. Por exemplo, o log retorno r t de uma ação. Neste caso teremos uma série temporal {r t}. Análise de séries temporais lineares fornece uma maneira natural de estudar a estrutura de tais séries. Falaremos sobre Estacionariedade, Função de Autocorrelação, Modelagem e Previsão. Modelos Autoregressivos (AR), Médias Móveis (MA) e ARMA.

Estacionariedade Estacionariedade Uma série temporal {r t} é estritamente estacionária se a distribuição conjunta de (r t, r t+1,..., r t+k ) for identica a (r t+h, r t+1+h,..., r t+k+h ), para todo t, k e h inteiros positivos. Resumindo, a estacionariedade estrita requer que a distribuição conjunta seja invariante na mudança de intervalos de tempo. Esta condição é difícil de ser verificada empiricamente. A estacionariedade fraca é dada se a média e a variância de r t forem invariantes no tempo e a covariância de r t com r t+h depender somente de h. A estacionariedade fraca: E(r t) = µ, Var(r t) = σ 2 e Cov(r t, r t+h ) = γ(h), para h 0. Dada uma série observada, sob a hipótese de estacionariedade fraca, esperamos que os dados ao longo do tempo estejam em torno de um valor constante e com uma variação constante.

Estacionariedade y t 3 2 1 0 1 2 3 0 100 300 500 700 900 t (a) Modelo Ruído Branco com σ = 1. y t 4 2 0 2 4 0 100 300 500 700 900 t (b) Modelo AR(1) com φ = 0, 7 e σ = 1. Figura: Exemplos empíricos de séries temporais fracamente estacionárias.

Função de autocovariância Função de autocovariância A função de autocovariância de defasagem h é definida por γ(h) = Cov(r t, r t+h ). Temos que γ(0) = Var(r t); e Sob estacionariedade fraca temos que γ(h) = Cov(r t, r t+h ) = Cov(r t h, r t+h h ) = Cov(r t, r t h ) = γ( h), isto é, γ(h) = γ( h). Em várias aplicações, é comum a hipótese de que as séries de retornos de ativos sejam fracamente estacionárias.

Correlação Correlação O coeficiente de correlação entre duas variáveis aleatórias X e Y é definido por ρ(x, Y ) = Cov(X, Y ) E [(X µ X )(Y µ Y )] = Var(X)Var(Y ) E [(X µx ) 2 ] E [(Y µ Y ) 2 ] sendo µ X = E(X) e µ Y = E(Y ), e que as variâncias existam. O coeficiente de correlação, ρ(x, Y ), mede o grau de dependência linear entre X e Y. Pode ser mostrado que 1 ρ(x, Y ) 1 e que ρ(x, Y ) = ρ(y, X). As duas variáveis são não correlacionadas se ρ(x, Y ) = 0. Se X e Y têm distribuição normal (conjuntamente), então ρ(x, Y ) = 0 se, e somente se, X e Y forem independentes.

Correlação Estimação da correlação Dado uma amostra {(x t, y t)} T t=1, estimamos ρ(x, Y ) consistentemente por ˆρ(x, y) = T Ĉov(x, y) s 2 X s 2 Y = T T T t=1 (x t x)(y t ȳ), T t x) t=1(x 2 (y t ȳ) 2 t=1 sendo x = 1 t, ȳ = T t=1x 1 y t, T t=1 sx 2 = 1 T (x t x) 2, sy 2 = 1 T (y t ȳ) 2 e T 1 t=1 T 1 t=1 Ĉov(x, y) = 1 T (x t x)(y t ȳ), T 1 t=1 as médias, as variâncias e a covariância amostrais, respectivamente.

Função de autocorrelação Função de autocorrelação Considere uma série r t fracamente estacionária. Estamos interessados na correlação linear entre r t e seus valores passados r t h. O coeficiente de correlação entre r t e r t h é chamado de autocorrelação de defasagem (lag) h de r t. ρ(h) = Cov(r t, r t h ) Var(rt)Var(r t h ) = Cov(rt, r t h) = γ(h) Var(r t) γ(0), pois Var(r t) = Var(r t h ) pela hipótese de estacionariedade fraca. Temos que ρ(0) = 1, ρ(h) = ρ( h) e 1 ρ(h) 1 para todo h. Uma série fracamente estacionária r t não é correlacionada serialmente se, e somente se, ρ(h) = 0 para todo h > 0.

Função de autocorrelação Estimação da função de autocorrelação Para uma dada amostra de retornos {r t} T t=1, a autocorrelação de defasagem 1 de r t é ˆρ(1) = T t=2 T (r t r)(r t 1 r) t=1 (r t r) 2, sendo r = 1 T T Sob algumas condições gerais, ˆρ(1) é um estimador consistente de ρ(1). Se {r t} for uma sequência independente e identicamente distribuída (iid) e E(r 2 t ) <, então ˆρ(1) é assintoticamente normal com média 0 e variância 1/T. Para T suficientemente grande, temos ˆρ(1) T N (0, 1). Podemos testar H 0 : ρ(1) = 0 contra H 1 : ρ(1) 0. t=1 r t.

Função de autocorrelação Estimação da função de autocorrelação: defasagem h 0 A autocorrelação de defasagem h de r t é definida por ˆρ(h) = T t=h+1 T (r t r)(r t h r) t=1 (r t r) 2, para 0 h T 1. Se {r t} for uma sequência iid com E(r 2 t ) <, então ˆρ(h) é assintoticamente normal com média 0 e variância 1/T para todo inteiro positivo e fixo h. Para T suficientemente grande, temos ˆρ(h) T N (0, 1). Podemos testar H 0 : ρ(h) = 0 contra H 1 : ρ(h) 0 para h fixo.

Função de autocorrelação Se r t é uma série temporal fracamente estacionária satisfazendo r t = µ + q j=0 ψ ja t j, sendo ψ 0 = 1, q um inteiro não negativo e {a j} uma série gaussiana ruído branco (não correlacionada, média 0 e variância σ 2 constante), então ˆρ(h) é assintoticamente normal com média 0 e variância 1 T ( 1 + 2 q j=1 ) [ρ(j)] 2, para h > q. Podemos testar H 0 : ρ(h) = 0 contra H 1 : ρ(h) 0, utilizando a estatística ˆρ(h) T R(h) = 1 + 2. q j=1 [ρ(j)]2 Rejeitaremos H 0 se R(h) > z α/2, sendo α o nível de significância do teste e z α/2 o percentil 100(1 α/2) da distribuição normal padrão.

Função de autocorrelação Tendenciosidade do estimador da autocorrelação Em amostras finitas, ˆρ(h) é um estimador tendencioso de ρ(h). A tendência é da ordem de 1/T, o que pode ser significativo quando o tamanho amostral T é pequeno. Na maioria das aplicações financeiras, T é relativamente grande tal que a tendenciosidade não é séria.

Função de autocorrelação Teste de Portmanteau Queremos testar H 0 : ρ(1) = ρ(2) = = ρ(m) = 0 contra H 1 : ρ(j) 0 para algum j {1, 2,..., m}. A estatística do teste é Q (m) = T m j=1 [ˆρ(j)] 2, (Box e Pierce). Sob a hipótese que {r t} é uma sequência iid com certas condições dos momentos, Q (m) tem distribuição assintótica qui-quadrado com m graus de liberdade. Para amostras finitas, podemos aumentar o poder do teste ao considerar m [ˆρ(j)] 2 Q(m) = T (T + 2) j=1 T j, (Ljung e Box). Rejeitamos H 0 se Q(m) > χ m α, sendo χ m α o percentil 100(1 α) da distribuição qui-quadrado com m graus de liberdade. Na prática, geralmente escolhemos m ln(t ).

Função de autocorrelação Função de autocorrelação amostral As estatísticas ˆρ(1), ˆρ(2),... conjuntamente definem a função de autocorrelação amostral (ACF) de r t. Um modelo de série temporal linear pode ser caracterizado por sua ACF. A modelagem de séries temporais lineares faz uso da ACF amostral para capturar a dinâmica linear dos dados. Mostrar exemplo no R: aplicacao_03.r

Ruído branco e séries temporais lineares Ruído branco Uma série temporal r t é chamada de ruído branco se {r t} for uma sequência de variáveis aleatórias independentes e identicamente distribuídas com média zero e variância finita. Se r t tiver distribuição normal com média 0 e variância σ 2, a série é chamada ruído branco gaussiano. Para uma série ruído branco, todas as ACFs são zero (para todas as defasagens). Na prática, se todas ACFs amostrais são zero (para todas as defasagens), então a série é uma série ruído branco.

Ruído branco e séries temporais lineares Séries temporais lineares Uma série temporal r t é linear (por definição) se ela puder ser escrita como r t = µ + j=1 ψ ja t j, sendo µ a média de r t, ψ 0 = 1 e {a t} uma sequência iid de variáveis aleatórias com média zero e uma distribuição bem definida (i.e., {a t} uma série ruído branco). Estamos interessados nos casos em que a t é uma variável aleatória contínua. Nem todas as séries temporais financeiras são lineares. A estrutura dinâmica de r t é determinada pelos coeficientes ψ j.

Ruído branco e séries temporais lineares Se r t é fracamente estacionária, e dado que {a t} é ruído branco, então E(r t) = µ, Var(r t) = σ 2 a j=0 ψ 2 j, sendo σ 2 a a variância de a t. Como Var(r t) <, {ψj 2 } deve ser uma sequência convergente. (Para isto, necessariamente ψj 2 0 quando j.) Para uma série estacionária, o impacto de um choque remoto a t j no retorno r t desaparece quando j cresce.

Ruído branco e séries temporais lineares A autocovariância de defasagem h de r t é [( ) ( )] γ(h) = Cov(r t, r t h ) = E ja t j ψ ja t h j j=0ψ j=0 ( ) = E ψ jψ k a t ja t h k j,k=0 = ψ jψ j+h E ( ) at h j 2 = σ 2 a ψ jψ j+h j=0 Logo, a autocorrelação de defasagem h de r t é ρ(h) = γ(h) γ(0) = 1 + j=0 ψj 2 j=1 j=0 ψ jψ j+h, para h 0.

Modelos autoregressivos Modelos autoregressivos Um modelo autoregressivo simples é dado por r t = α + φr t 1 + a t, sendo a t um ruído branco com média zero e variância σa. 2 Este é um modelo autoregressivo de ordem 1, i.e. AR(1). Modelaremos a log volatilidade de r t com um processo AR(1). Em um modelo AR(1), temos que E(r t r t 1) = α + φr t 1, Var(r t r t 1) = Var(a t) = σ 2 a Temos a propriedade markoviana, i.e. condicional em r t 1 o retorno r t não é correlacionado com r t i para i > 1. Uma generalização do AR(1) é dada por r t = α + φ 1r t 1 + φ 2r t 2 + + φ pr t p + a t, chamado de AR(p), i.e. autoregressivo de ordem p, sendo p um inteiro não negativo.

Modelos autoregressivos Propriedades dos modelos autoregressivos: AR(1) Temos que E(r t) = α + φe(r t 1). Sob a hipótese de estacionariedade fraca, E(r t) = E(r t 1) = µ. Portanto, µ = α + φµ ou E(r t) = α 1 φ. A média de r t existe se φ 1. A média de r t é zero se, e somente se, α = 0. Seja α = (1 φ)µ. O modelo AR(1) pode ser reescrito como r t µ = φ(r t 1 µ) + a t ou r t = µ + φ(r t 1 µ) + a t Fazendo substituições repetidas, temos r t µ = a t + φa t 1 + φ 2 a t 2 + = Logo, r t µ é uma função linear de a t j para j 0. j=0 φ j a t j.

Modelos autoregressivos Temos que E[(r t µ)a t+1] = 0 pela independência da série {a t}. Pela hipótese de estacionariedade, temos Cov(r t 1, a t) = E[(r t 1 µ)a t] = 0. Calculando a variância de r t, obtemos Var(r t) = φ 2 Var(r t 1) + σ 2 a, sendo σ 2 a a variância de a t, e porque a correlação entre a t e r t 1 é zero. Sob a hipótese de estacionariedade, Var(r t) = Var(r t 1) tal que Var(r t) = σ2 a 1 φ 2 com φ 2 < 1. A condição necessária e suficiente para o modelo AR(1) ser fracamente estacionário é φ < 1 (ou equivalentemente 1 < φ < 1).

Modelos autoregressivos Função de autocorrelação de um AR(1) Multiplicando r t µ = φ(r t 1 µ) + a t por a t, e usando a independência entre a t e r t 1, temos E[a t(r t µ)] = φe(a t(r t 1 µ)) + E(a 2 t ) = E(a 2 t ) = σ 2 a, sendo σa 2 a variância de a t. por (r t h µ) e usando o resultado anterior, temos { φγ(1) + σ 2 γ(h) = a, se h = 0; φγ(h 1), se h > 0. Usamos também o fato que γ(h) = γ( h). Para o modelo AR(1), r t = α + φr t 1 + a t, temos que Var(r t) = γ(0) = σ2 a 1 φ 2 γ(h) = φγ(h 1) para h > 0. A ACF de r t satisfaz a ρ(h) = φρ(h 1) para h 0. Como ρ(0) = 1, temos que ρ(h) = φ h para h 0. A ACF de um série AR(1) fracamente estacionária decai exponencialmente.

Modelos autoregressivos ACF 1.0 0.5 0.0 0.5 1.0 0 2 4 6 8 10 12 14 Defasagem (a) φ = 0, 8. ACF 1.0 0.5 0.0 0.5 1.0 0 2 4 6 8 10 12 14 Defasagem (b) φ = 0, 8 Figura: Função de autocorrelação do modelo AR(1).

Modelos autoregressivos Modelo AR(2) Um modelo AR(2) tem a forma r t = α + φ 1r t 1 + φ 2r t 2 + a t, e E(r t) = µ = Usando α = (1 φ 1 φ 2)µ, obtemos α 1 φ 1 φ 2, para φ 1 + φ 2 1. r t µ = φ 1(r t 1 µ) + φ 2(r t 2 µ) + a t. Utilizando raciocínios análogos ao aplicado no modelo AR(1), obtemos ρ(h) = { φ1, 1 φ 2 se h = 1; φ 1ρ(h 1) + φ 2ρ(h 2), para h 2. O modelo AR(2) é fracamente estacionário se φ 1 + φ 2 < 1, φ 2 φ 1 < 1 e φ 2 < 1.

Modelos autoregressivos ACF 1.0 0.5 0.0 0.5 1.0 ACF 1.0 0.5 0.0 0.5 1.0 0 2 4 6 8 10 12 14 0 2 4 6 8 10 12 14 Defasagem Defasagem (a) φ 1 = 1, 2 e φ 2 = 0, 35 (b) φ 1 = 0, 6 e φ 2 = 0, 4 ACF 1.0 0.5 0.0 0.5 1.0 ACF 1.0 0.5 0.0 0.5 1.0 0 2 4 6 8 10 12 14 0 2 4 6 8 10 12 14 Defasagem Defasagem (c) φ 1 = 0, 2 e φ 2 = 0, 35 (d) φ 1 = 0, 2 e φ 2 = 0, 35 Figura: Função de autocorrelação do modelo AR(2).

Modelos autoregressivos Modelo AR(p) Um modelo AR(p) tem a forma r t = α + φ 1r t 1 + φ 2r t 2 + + φ pr t p + a t, e E(r t) = µ = α 1 φ 1 φ 2 φ p, para φ 1 + φ 2 + + φ p 1. Usando α = (1 φ 1 φ 2 φ p)µ, obtemos r t µ = φ 1(r t 1 µ) + φ 2(r t 2 µ) + + φ p(r t p µ) + a t. Um gráfico da ACF de um modelo AR(p) estacionário pode mostrar padrões senos e cosenos, e decaimento exponencial.

Função de autocorrelação parcial Função de autocorrelação parcial Considere os seguintes modelos autoregressivos: r t = α 0,1 + φ 1,1r t 1 + e 1t r t = α 0,2 + φ 1,2r t 1 + φ 2,2r t 2 + e 2t r t = α 0,3 + φ 1,3r t 1 + φ 2,3r t 2 + φ 3,3r t 3 + e 3t... sendo α 0,j, φ i,j e e jt são, respectivamente, o termo constante, o coeficiente de r t i e o termo de erro de um modelo AR(j). Podemos estimar tudo por mínimos quadrados (múltiplo) e aplicar um teste F parcial. A estimativa de ˆφ 1,1 da primeira equação é chamada de PACF amostral de defasagem 1 de r t. A estimativa de ˆφ 2,2 da segunda equação é chamada de PACF amostral de defasagem 2 de r t. A estimativa de ˆφ 3,3 da terceira equação é chamada de PACF amostral de defasagem 3 de r t. (E assim por diante.)

Função de autocorrelação parcial A PACF de defasagem 2 ˆφ 2,2 mostra a contribuição de r t 2 adicionada a r t sobre o modelo AR(1) r t = α + φ 1r t 1 + e t A PACF de defasagem 3 ˆφ 3,3 mostra a contribuição de r t 3 adicionada a r t sobre o modelo AR(2) r t = α + φ 1r t 1 + φ 2r t 2 + e t. (E assim por diante.) Portanto, para um modelo AR(p), a PACF amostral de defasagem p não deve ser zero. Mas ˆφ j,j deve estar perto de zero para todo j > p. Utilizamos esta propriedade para determinar a ordem p. Para um modelo AR(p) gaussiano estacionário, pode ser mostrado que a PACF amostral tem as seguintes propriedades: ˆφ p,p converge para φ p quando o tamanho da amostra T tende ao infinito. ˆφ k,k converge para zero para todo k > p. A variância assintótica de ˆφ k,k é 1/T para k > p.

Função de autocorrelação parcial Exemplo (Mostrar exemplo no R: aplicacao_04.r) PNB 2 1 0 1 2 3 4 1996 1998 2000 2002 2004 2006 2008 2010 Trimestre Figura: Razão de crescimento do PNB real trimestral americano entre 1947-2 e 1991-1. Os dados estão sazonalmente ajustados e em porcentagens.

Função de autocorrelação parcial ACF 0.2 0.0 0.2 0.4 0.6 0.8 1.0 0 2 4 6 8 10 12 14 Defasagem PACF 0.2 0.0 0.2 0.4 0.6 0.8 1.0 2 4 6 8 10 12 14 Defasagem (a) ACF (b) PACF Figura: ACF e PACF amostrais para o PNB real trimestral americano entre 1947-2 e 1991-1.

Critérios de informação baseados na função de verossimilhança Critérios de informação baseados na função de verossimilhança O critério de informação de Akaike é definido por AIC = 2 T ln(verossimilhança) + 2 (número de parâmetros). T sendo a função de verossimilhança avaliada na estimativa de máxima verossimilhança e T o tamanho da amostra. O critério de informação de bayesiana (Schwarz) é definido por AIC = 2 T ln(t ) ln(verossimilhança) + (número de parâmetros). T Em ambos os critérios, o primeiro termo mede a qualidade de ajuste do modelo AR(p) e o segundo termo penaliza pelo número de parâmetros (onde um difere do outro). O BIC tende a selecionar um modelo AR(p) de menor ordem comparado ao AIC para um tamanho de amostra moderado. Ajustamos os modelos AR(p), para p = {0, 1, 2,..., P}, e selecionamos o modelo com menor o AIC (ou BIC). Mostrar exemplo no R: aplicacao_04.r

Estimação dos parâmetros Estimação dos parâmetros O método de mínimos quadrados, condicionais as p primeiras observações, pode em geral ser aplicado a r t = α + φ 1r t 1 + + φ pr t p + a t, para t = p + 1, p + 2,..., T. Denotaremos a estimativa de α por ˆα, e φ i por ˆφ i, para i = 1, 2,..., p. O modelo ajustado é dado por r t = ˆα + ˆφ 1r t 1 + + ˆφ pr t p, e o resíduo associado é â t = r t ˆr t. A série {a t} é chamada de série residual da qual obtemos ˆσ 2 a = 1 T ât 2. T 2p 1 t=p+1 Se o método da verossimilhança condicional for empregado, as estimativas de φ i não se alteram, mas a estimativa de σ 2 a passa a ser σ 2 a = ˆσ 2 a(t 2p 1)/(T p).

Verificação do modelo Verificação do modelo Um modelo ajustado deve ser examinado cuidadosamente para verificar as possíveis inadequações do modelo. Se o modelo for adequado, então a série residual deve se comportar como um ruído branco. A ACF e o teste de Ljung-Box podem ser usados para verificar a hipótese de ruído branco. Para um modelo AR(p), a estatística Q(m) de Ljung-Box tem distribuição assintótica qui-quadrado com m g graus de liberdade, sendo g o número de coeficientes AR utilizados no modelo. Se julgamos um modelo como inadequado, devemos refiná-lo. Por exemplo, se alguns coeficientes não são significativamente diferente de zero, então o modelo deve ser simplificado tentando-se remover estes parâmetros não significativos. Se a ACF da série residual exibir evidências de correlação serial, então o modelo deve ser extendido para cuidar destas correlações. Para verificar a hipótese de normalidade podemos utilizar o teste de Jarque e Bera (após verificar a hipótese de independência). Mostrar exemplo no R: aplicacao_04.r

Previsão Previsão Suponha que estejamos no tempo h e interessados na previsão r h+k para k 1. h é a origem de previsão. k é o horizonte de previsão. Seja ˆr h (k) a previsão de r h+k usando a função de perda erro quadrático mínimo. Seja F h a informação disponível em h. A previsão ˆr l (k) é escolhida tal que E[(r h+k ˆr h (k)) 2 F h ] min E[(r h+k g) 2 F h ], g sendo g uma função da informação disponível no tempo h (inclusive). Chamamos ˆr h (k) de previsão k passos à frente de r t na origem de previsão h.

Previsão Previsão 1 passo à frente Do modelo AR(p), temos r h+1 = α + φ 1r h + + φ pr h+1 p + a h+1. Dado F n = {r h, r h 1,...}, a previsão pontual de r h+1 é dada por ˆr h (1) = E(r h+1 F n) = α + e o erro de previsão associado é p j=1 e h (1) = r h+1 ˆr h (1) = a h+1. A varância do erro de previsão 1 passo à frente é Var(e h (1)) = Var(a h+1 ) = σ 2 a. φ jr h+1 j Se a t é normalmente distribuído, então um intervalo de previsão de 1 passo à frente de 95% de r h+1 é ˆr h (1) ± 1, 96 σ a. Na prática, os parâmetros estimados são geralmente usados para calcular previsões pontual e intervalar.

Previsão Previsão 2 passos à frente Considere a previsão de r h+2 na origem de previsão h. Do modelo AR(p), temos r h+2 = α + φ 1r h+1 + + φ pr h+2 p + a h+2. Tomando a esperança condicional, temos ˆr h (2) = E(r h+2 F n) = α + φ 1ˆr h (1) + φ 2r h + + φ pr h+2 p e o erro de previsão dado por e h (2) = r h+2 ˆr h (2) = φ 1[r h+1 ˆr h (1)] + a h+2 = a h+2 + φ 1a h+1. A variância do erro de previsão é Var(e h (2)) = (1 + φ 2 )σ 2 a. Note que Var(e h (2)) Var(e h (1)). Mais incerteza sobre a previsão de r h+2 do que de r h+1 na origem de previsão h.

Previsão Previsão k passos à frente Temos A previsão é dada por r h+k = α + φ 1r h+k+1 + + φ pr h+k p + a h+k. ˆr h (k) = α + p j=1 φ jˆr h (k j), sendo que ˆr h (j) r h+j se j 0. O erro de previsão k passos à frente é dado por e h (k) = r h+k ˆr h (k). Pode ser mostrado que para um modelo AR(p) estacionário, ˆr h (k) converge para E(r t) quando k.

Previsão Exemplo (Mostrar exemplo no R: aplicacao_04.r) PNB 0.02 0.01 0.00 0.01 0.02 0.03 0.04 1996 2000 2004 2008 2012 Trimestre Figura: Razão de crescimento do PNB real trimestral americano entre 1947-2 e 1991-1. Os dados estão sazonalmente ajustados e em porcentagens.

Modelos médias móveis Modelos médias móveis Um modelos de médias móveis (MA) de ordem 1, ou simplesmente MA(1), é dado por r t = α + θa t 1 + a t. O modelo MA(q) é dado por r t = α + θ 1a t 1 + + θ qa t q + a t. Modelos de médias móveis são sempre estacionários porque são combinações lineares de uma sequência de ruídos brancos. Para um MA(q), temos E(r t) = α Var(r t) = (1 + θ 2 1 + θ 2 2 + + θ 2 q)σ 2 a.

Modelos médias móveis Modelos médias móveis: ACF A função de autocorrelação (ACF) para um MA(1) é dada por ρ(0) = 1, ρ(1) = θ, e ρ(h) = 0, para h > 1. 1 + θ2 A ACF para um MA(2) é dada por θ1 + θ1θ2 ρ(0) = 1, ρ(1) = 1 + θ1 2 +, ρ(2) = θ2 2 1 + θ1 2 +, e θ2 2 ρ(h) = 0, para h > 2. A ACF para um MA(q) na defasagem h, ρ(h), não é zero para h q, e é zero para h > q. Podemos utilizar o fato acima para identificar um modelo MA(q) através de sua ACF. Mostrar gráfico da ACF do SAFRA em aplicacao_03.r A estimação dos modelos MA é, em geral, feita pelo método da máxima verossimilhança. (Disponível no R através da biblioteca tseries e função arma, ou em geral na função arima.) θ 2

Modelos médias móveis Modelos ARMA Um modelo autoregressivo e médias móveis (ARMA) pode ser melhor que um AR simples ou um MA simples devido ao número reduzido de parâmetros necessários para se captar a estrutura de dependência dos dados. Obtemos um modelo ARMA ao se combinar os modelos AR e MA. Os modelos ARMA serão úteis na modelagem da volatilidade (modelos GARCH). O modelo ARMA(1,1) é dado por r t = α + φr t 1 + θa t 1 + a t, sendo a t um ruído branco e φ θ. O modelo ARMA(p, q) é dado por r t = α + φ 1r t 1 + + φ pr t p + θ 1a t 1 + + θ qa t q + a t. A estimação do modelo ARMA é feita, em geral, pelo método da máxima verossimilhança.

Exercício Mostrar exemplo no R: aplicacao_05.r Exercício (Trabalho II para entregar.) Faça a análise de DUAS das seguintes séries temporais dos fundos de investimentos: Safra, IB_FIC, Unibanco, Paribas, BB_F, Western e LeggM. A série de preços pode ser considerada como estacionária? A série de retornos pode ser considerada como estacionária? Calcule as ACFs e PACFs amostrais dos retornos do fundo. Análise o grau de dependência através destes gráficos e sugira modelos na família ARMA. Para a série, ajuste modelos ARMA até uma ordem máxima P e Q. Escolha o melhor modelo segundo o critério AIC ou BIC (leve também em consideração a significância dos parâmetros quando necessário). Após escolher o melhor ajuste, faça as análises pertinentes das hipóteses do modelo (análise de resíduos). Faça a previsão 5 passos à frente utilizando o melhor modelo ajustado.