Capítulo 3. Modelos Probabilísticos

Documentos relacionados
ANÁLISE DE SÉRIES TEMPORAIS

ANÁLISE DE SÉRIES TEMPORAIS

Modelos para Séries Temporais Aula 1. Morettin e Toloi, 2006, Capítulo 2 Morettin, 2011, Capítulo 2 Bueno, 2011, Capítulo 2

Econometria IV Modelos Lineares de Séries Temporais. Fernando Chague

ANÁLISE DE SÉRIES TEMPORAIS

Aula 1. Wilson Correa. June 27, 2017

Metodologia de Box-Jenkins. Metodologia de Box-Jenkins. Metodologia de Box-Jenkins

ECONOMETRIA AVANÇADA Prova Intermediária - 09/04/2015

Econometria em Finanças e Atuária

A Metodologia de Box & Jenkins

Séries de Tempo. José Fajardo. Agosto Fundação Getulio Vargas-EBAPE. José Fajardo (FGV-EBAPE) Fundamentos Estatísticos Agosto / 49

Modulo I. Séries Temporais: ARIMA

Conceitos Básicos de Séries Temporais para Modelagem Macroeconômica

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9

Análise e Previsão de Séries Temporais Aula 1: Introdução às séries temporais. Eraylson Galdino

ANÁLISE DE SÉRIES TEMPORAIS

Processos Estocásticos

Séries Temporais. Fernando Lucambio. Agosto de Departamento de Estatística Universidade Federal do Paraná Curitiba/PR, , Brasil

Econometria Semestre

2. Séries Temporais Definição

4 Modelos de Regressão Dinâmica

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 4

Modelos de previsão utilizando séries Temporais

Análise de Séries Temporais. Modelos estacionários Processos puramente aleatórios, AR(p), MA(q) ARIMA(p,q)

Módulo IV: Processos Aleatórios Estacionários, Cicloestaionaridade e Análise de Continuidade de Processos Aleatórios

Uso de séries temporais na análise da temperatura média mensal da cidade de Mossoró, RN

A análise de séries temporais é uma área da estatística dedicada ao estudo de dados orientados no tempo (MONTGOMERY, 2004).

Mestrado Profissionalizante em Finanças as e Economia Empresarial FGV / EPGE Prof. Eduardo Ribeiro Julho Setembro 2007

Análise e previsão das taxas da população ocupada em Fortaleza, Ceará, de setembro de 1991 a dezembro de 2008

Cadeias de Markov em Tempo Continuo

Econometria. Séries Temporais Lista de Exercícios

TE802 Processos Estocásticos em Engenharia. Processo Aleatório. TE802 Processos Aleatórios. Evelio M. G. Fernández. 18 de outubro de 2017

2 Metodologia. 2.1 Série Temporal

Modelos de Regressão Linear Simples - parte I

Análise e Previsão de Séries Temporais Aula 2: Introdução às séries temporais. Eraylson Galdino

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte II

Testes de Raiz Unitária para Dados em Painel

3 Modelos Comparativos: Teoria e Metodologia

Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos

IND 1115 Inferência Estatística Aula 6

Convergência em espaços normados

UTILIZAÇÃO DE MODELOS ARIMA PARA PREVISÃO DA ARRECADAÇÃO DE ICMS DO ESTADO DO RIO GRANDE DO SUL

Análise de previsão da inflação no período pós-plano Real

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:

PRE29006 LISTA DE EXERCÍCIOS #

p(x) Note que 1/p(x), que não depende de θ, funciona como uma constante normalizadora

Inferência Estatistica

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório?

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes

Métodos Quantitativos para Avaliação de Políticas Públicas

UNIVERSIDADE FEDERAL DO ABC

Processos estocásticos

Modelos de Regressão Linear Simples parte I

Modelos ARCH e GARCH Aula 8. Morettin e Toloi, 2006, Capítulo 1 e 14 Morettin, 2011, Capítulo 1 e 5 Bueno, 2011, Capítulo 8

SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS

Métodos de Alisamento (ou Suavização)

4. Experimentos em Blocos aleatorizados, quadrados latinos e experimentos relacionados

MAE0229 Introdução à Probabilidade e Estatística II

Processos de Poisson

O Triedro de Frenet. MAT Cálculo Diferencial e Integral II Daniel Victor Tausk

, (1) onde v é o módulo de v e b 1 e b 2 são constantes positivas.

INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o

ANÁLISE DE SÉRIES TEMPORAIS

Aula 2 Tópicos em Econometria I. Porque estudar econometria? Causalidade! Modelo de RLM Hipóteses

3 Metodologia 3.1. Tipo de pesquisa

Material Teórico - Módulo Equações do Segundo Grau. Equações de Segundo Grau: outros resultados importantes. Nono Ano do Ensino Funcamental

Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos

Ralph S. Silva

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 12

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios

)XQGDPHQWRVGHSUREDELOLGDGHHHVWDWtVWLFD

Equação da reta. No R 2 UNIVERSIDADE FEDERAL DO PARÁ CÁLCULO II - PROJETO NEWTON AULA 05

Processos Estocásticos. Luiz Affonso Guedes

ESTATÍSTICA COMPUTACIONAL

AJUSTE DE UM MODELO DE SÉRIES TEMPORAIS PARA PREVISÃO DA TEMPERATURA MÍNIMA DO AR PARA LAVRAS/MG EM 2011

Capítulo 5 Distribuições de Probabilidades. Seção 5-1 Visão Geral. Visão Geral. distribuições de probabilidades discretas

Transcrição:

Capítulo 3 Modelos Probabilísticos 3.1 Introdução Neste capítulo serão descritos vários modelos adequados para dados de séries temporais. Tais modelos são chamados de processos estocásticos. Matematicamente um processo estocástico pode ser definido como uma coleção de variáveis aleatórias ordenadas no tempo e definidas em um conjunto de pontos T, que pode ser contínuo ou discreto. Iremos denotar a variável aleatória no tempo t por X(t) no caso contínuo (usualmente < t < ), e por X t no caso discreto (usualmente t = 0, ±1, ±2,... ). O conjunto de possíveis valores do processo é chamado de espaço de estados que pode ser discreto (e.g. o número de chamadas que chegam a uma central telefônica a cada 2 horas) ou contínuo (e.g. a temperatura do ar em uma localidade observada em intervalos de 1 hora). Em análise de séries temporais a situação é bem diferente da maioria dos problemas estatísticos. Embora seja possível variar o tamanho da série observada, usualmente será impossível fazer mais do que uma observação em cada tempo. Assim, tem-se apenas uma realização do processo estocástico e uma única observação da variável aleatória no tempo t denotada por x(t) no caso contínuo e x t, para t = 1,..., N no caso discreto. Uma maneira de descrever um processo estocástico é através da distribuição de probabilidade conjunta de X(t 1 ),..., X(t k ) para qualquer conjunto de tempos t 1,..., t k e qualquer valor de k. Esta é uma tarefa extremamente complicada e na prática costuma-se descrever um processo estocástico através das funções média, variância e autocovariância. Estas funções são definidas a seguir para o caso contínuo sendo que definições similares se aplicam ao caso discreto. média µ(t) = E[X(t)] variância σ 2 (t) = V ar[x(t)] autocovariância γ(t 1, t 2 ) = E[X(t 1 ) µ(t 1 )][X(t 2 ) µ(t 2 )] 21

22 CAPÍTULO 3. MODELOS PROBABILÍSTICOS Note que a função de variância é um caso especial da função de autocovariância quando t 1 = t 2. Momentos de ordem mais alta do processo também ser definidos mas são raramente utilizados na prática e as funções µ(t) e γ(t 1, t 2 ) são em geral suficientes. 3.2 Processos Estacionários Uma importante classe de processos estocásticos são os chamados processos estacionários. A idéia intuitiva de estacionariedade foi introduzida no capítulo anterior e aqui será apresentada a definição formal. Definição 3.1 Um processo estocástico é dito ser estritamente estacionário se a distribuição de probabilidade conjunta de X(t 1 ),..., X(t k ) é a mesma de X(t 1 + τ),..., X(t k + τ). Ou seja, o deslocamento da origem dos tempos por uma quantidade τ não tem efeito na distribuição conjunta que portanto depende apenas dos intervalos entre t 1,..., t k. Em particular, para k = 1 a estacionariedade estrita implica que a distribuição de X(t) é a mesma para todo t de modo que, se os dois primeiros momentos forem finitos, temos que µ(t) = µ e σ 2 (t) = σ 2 são constantes que não dependem de t. Para k = 2 a distribuição conjunta de X(t 1 ) e X(t 2 ) depende apenas da distância t 2 t 1, chamada defasagem. A função de autocovariância γ(t 1, t 2 ) também depende apenas de t 2 t 1 e pode ser escrita como γ(τ) onde γ(τ) = E[X(t) µ][x(t + τ) µ] = Cov[X(t), X(t + τ)] é chamado de coeficiente de autocovariância na defasagem τ. Note que o tamanho de γ(τ) depende da escala em que X(t) é medida. Portanto, para efeito de interpretação, é mais útil padronizar a função de autocovariância dando origem a uma função de autocorrelação ρ(τ) = γ(τ)/γ(0) que mede a correlação entre X(t) e X(t+τ). No capítulo anterior foi apresentado o seu equivalente empírico r k para séries discretas. Note também que o argumento τ será discreto se a série temporal for discreta e contínuo se a série temporal for contínua.

3.3. A FUNÇÃO DE AUTOCORRELAÇÃO 23 Na prática é muito difícil usar a definição de estacionariedade estrita e costuma-se definir estacionariedade de uma forma menos restrita. Definição 3.2 Um processo estocástico {X(t), t T } é dito ser estacionário de segunda ordem ou fracamente estacionário se a sua função média é constante e sua função de autocovariância depende apenas da defasagem, i.e. E[X(t)] = µ e Cov[X(t), X(t + τ)] = γ(τ). Nenhuma outra suposição é feita a respeito dos momentos de ordem mais alta. Além disso, fazendo τ = 0 segue que V ar[x(t)] = γ(0), ou seja a variância do processo assim como a média também é constante. Note também que tanto a média quanto a variância precisam ser finitos. Esta definição mais fraca de estacionariedade será utilizada daqui em diante já que muitas propriedades dos processos estacionários dependem apenas da estrutura especificada pelo primeiro e segundo momentos. Uma classe importante de processos aonde isto se verifica é a classe de processos normais ou Gaussianos aonde a distribuição conjunta de X(t 1 ),..., X(t k ) é normal multivariada para todo conjunto t 1,..., t k. A distribuição normal multivariada fica completamente caracterizada pelo primeiro e segundo momentos, i.e. por µ(t) e γ(t 1, t 2 ), assim estacionariedade fraca implica em estacionariedade estrita para processos normais. Por outro lado, µ e γ(τ) podem não descrever adequadamente processos que sejam muito não-normais. 3.3 A Função de Autocorrelação Foi visto na Seção 2.4 que os coeficientes de autocorrelação amostral de uma série temporal observada são uma ferramenta importante para descrever a série. Analogamente, a função de autocorrelação teórica (fac) de um processo estocástico estacionário é uma ferramenta importante para assessar suas propriedades. A seguir serão apresentadas propriedades gerais da função de autocorrelação. Se um processo estocástico estacionário X(t) tem média µ e variância σ 2 então ρ(τ) = γ(τ)/γ(0) = γ(τ)/σ 2 e portanto ρ(0) = 1. As seguintes propriedades são facilmente verificáveis. 1. A correlação entre X(t) e X(t + τ) é a mesma que entre X(t) e X(t τ), ou seja ρ(τ) = ρ( τ). 2. 1 < ρ(τ) < 1.

24 CAPÍTULO 3. MODELOS PROBABILÍSTICOS 3. Embora um processo estocástico tenha uma estrutura de autocovariância única o contrário não é verdadeiro em geral. É possível encontrar vários processos com a mesma função de autocorrelação, o que dificulta ainda mais a interpretação do correlograma. 3.4 Alguns Processos Estocásticos Nesta seção serão apresentados alguns processos estocásticos que são utilizados com frequência na especificação de modelos para séries temporais. 3.4.1 Sequência Aleatória Um processo em tempo discreto é chamado puramente aleatório se consiste de uma sequência de variáveis aleatórias {ɛ t } independentes e identicamente distribuidas. Isto implica nas seguintes propriedades 1. E(ɛ t ) = E(ɛ t ɛ t 1, ɛ t 2,... ) = µ 2. V ar(ɛ t ) = V ar(ɛ t ɛ t 1, ɛ t 2,... ) = σ 2 ɛ 3. γ(k) = Cov(ɛ t, ɛ t+k ) = 0, k = ±1, ±2,.... Como a média e a função de autocovariância não dependem do tempo o processo é estacionário em segunda ordem. A função de autocorrelação é simplesmente ρ(k) = { 1, k = 0 0, k = ±1, ±2,.... Um processo puramente aleatório é as vezes chamado de ruído branco e pode ser útil por exemplo na construção de processos mais complicados. As propriedades acima podem ser entendidas como ausência de correlação serial e homocedasticidade condicional (variância condicional constante). 3.4.2 Passeio Aleatório Seja {ɛ t } um processo discreto puramente aleatório com média µ e variância σ 2 ɛ. Um processo {X t } é chamada de passeio aleatório se X t = X t 1 + ɛ t.

3.4. ALGUNS PROCESSOS ESTOCÁSTICOS 25 Fazendo-se substituições sucessivas obtém-se que X t = X t 2 + ɛ t 1 + ɛ t = X t 3 + ɛ t 2 + ɛ t 1 + ɛ t. = X 0 + e iniciando o processo em X 0 = 0 não é difícil verificar que t j=1 ɛ j E(X t ) = V ar(x t ) = t E(ɛ j ) = tµ j=1 t V ar(ɛ j ) = tσɛ 2. j=1 Além disso, a função de autocovariância é dada por Cov(X t, X t k ) = Cov(ɛ 1 + + ɛ t k + ɛ y k+1 + + ɛ t, ɛ 1 + + ɛ t k ) = (t k)σ 2 ɛ e portanto a função de autocorrelação fica ρ t (k) = t k. t Como a média, a variância e as autocovariâncias dependem de t este processo é não estacionário. No entanto, é interessante notar que a primeira diferença de um passeio aleatório é estacionária já que X t = X t X t 1 = ɛ t. O passeio aleatório também é conhecido como tendência estocástica pois uma realização do processo pode parecer uma tendência quando na verdade é uma soma de pequenas flutuações estocásticas. Como exemplo, na Figura 3.1 aparecem os valores simulados de dois passeios aleatórios e seus respectivos correlogramas. Os exemplos mais conhecidos de séries temporais que se comportam como um passeio aleatório são os preços de ações em dias sucessivos (ver por exemplo Morettin & Toloi 2004). 3.4.3 Processos de Média Móveis Seja {ɛ t } um processo discreto puramente aleatório com média zero e variância σ 2 ɛ. Um processo {X t } é chamado de processo de médias móveis de ordem q, ou

26 CAPÍTULO 3. MODELOS PROBABILÍSTICOS observacoes 2.0 1.0 0.0 autocorrelacoes 0.2 0.2 0.6 1.0 0 10 20 30 40 50 tempo 0 5 10 15 20 defasagem observacoes 2 4 6 8 10 autocorrelacoes 0.2 0.2 0.6 1.0 0 10 20 30 40 50 tempo 0 5 10 15 20 defasagem Figura 3.1: 50 observações simuladas segundo um passeio aleatório com σ 2 ɛ igual a 0.1 e 1 e as 20 primeiras autocorrelações amostrais. MA(q), se X t = ɛ t + β 1 ɛ t 1 + + β q ɛ t q, (3.1) sendo β i R, i = 1,..., q. Não é difícil verificar como ficam a média e a variância deste processo, E(X t ) = E(ɛ t ) + q β j E(ɛ t j ) = 0 j=1 V ar(x t ) = V ar(ɛ t ) + q βj 2 V ar(ɛ t j ) = (1 + β1 2 + + βq 2 ) σɛ 2. j=1

3.4. ALGUNS PROCESSOS ESTOCÁSTICOS 27 Além disso, como Cov(ɛ t, ɛ s ) = σɛ 2 para t = s e Cov(ɛ t, ɛ s ) = 0 para t s, a função de autocovariância é dada por γ(k) = Cov(X t, X t+k ) = Cov(ɛ t + β 1 ɛ t 1 + + β q ɛ t q, ɛ t+k + β 1 ɛ t+k 1 + + β q ɛ t+k q ) 0 k > q q k = β j β j+k k = 0,..., q (3.2) σ 2 ɛ j=0 γ( k) k < 0 com β 0 = 1. Como a média e a variância são constantes e γ(k) não depende de t o processo é (fracamente) estacionário para todos os possíveis valores de β 1,..., β q. Além disso, se os ɛ t s forem normalmente distribuidos os X t s também serão e portanto o processo será estritamente estacionário. A função de autocorrelação pode ser facilmente obtida dividindo-se (3.2) por γ(0), 1 k = 0 q k q β j β j+k/ βj 2 k = 1,..., q ρ(k) = j=0 j=0 0 k > q ρ( k) k < 0. Note que a função tem um ponto de corte na defasagem q, i.e. ρ(k) = 0 para k > q. Esta é uma característica específica de processos médias móveis e será útil na especificação do valor de q na prática (Box & Jenkins 1970, p. 170). Vamos analisar agora com mais detalhes o caso particular do processo MA(1). A função de autocorrelação fica 1 k = 0 ρ(k) = β 1 /(1 + β1) 2 k = ±1 0 k > 1. (3.3) O processo é estacionário para qualquer valor de β 1 mas em geral é desejável impor restrições para que ele satisfaça uma condição chamada inversibilidade. Considere os seguintes processos MA(1) X t = ɛ t + θɛ t 1 X t = ɛ t + 1 θ ɛ t 1. Substituindo em (3.3) não é difícil verificar que estes dois processos diferentes têm exatamente a mesma função de autocorrelação. Assim, não é possível identificar

28 CAPÍTULO 3. MODELOS PROBABILÍSTICOS um processo MA(1) único a partir da função de autocorrelação. Por outro lado, podemos fazer substituições sucessivas e reescrever estes dois processos colocando ɛ t em função de X t, X t 1,..., i.e. ɛ t = X t θx t 1 + θ 2 X t 2 θ 3 X t 3 +... ɛ t = X t 1 θ X t 1 + 1 θ 2 X t 2 1 θ 3 X t 3 +... Se θ < 1 a primeira série converge e o modelo é dito ser inversível mas a segunda não converge e o modelo é não inversível. Ou seja, a condição de inversibilidade (neste caso θ < 1) garante que existe um único processo MA(1) para uma dada função de autocorrelação. Outra consequência da inversibilidade é que o processo MA(1) pode ser reescrito como uma regressão de ordem infinita nos seus próprios valores defasados. Para um processo MA(q) esta condição pode ser melhor expressa usando-se o operador de retardo, denotado por B e definido como B j X t = X t j, para todo j. A equação (3.1) pode então ser reescrita como X t = (1 + β 1 B + β 2 B 2 + + β q B q )ɛ t = θ(b)ɛ t onde θ(b) é um polinômio de ordem q em B. Um processo MA(q) é inversível se as raízes da equação θ(b) = 1 + β 1 B + β 2 B 2 + + β q B q = 0 estiverem fora do círculo unitário. Ou seja, se δ 1,..., δ q são q soluções de θ(b) = 0 então o processo é inversível se δ i > 1, i = 1,..., q. Teremos então 2 q modelos com a mesma função de autocorrelação mas somente um deles será inversível. Finalmente, vale notar que uma constante µ qualquer pode ser adicionada ao lado direito de (3.1) dando origem a um processo com média µ, X t = µ + ɛ t + β 1 ɛ t 1 + + β q ɛ t q. O processo continuará sendo estacionário com E(X t ) = µ e em particular a função de autocorrelação não será afetada. 3.4.4 Processos Autoregressivos Suponha que {ɛ t } seja um processo puramente aleatório com média zero e variância σ 2 ɛ. Um processo {X t } é chamada de processo autoregressivo de ordem p,

3.4. ALGUNS PROCESSOS ESTOCÁSTICOS 29 ou AR(p), se X t = α 1 X t 1 + + α p X t p + ɛ t. (3.4) Note a similaridade com um modelo de regressão múltipla, onde os valores passados de X t fazem o papel das regressoras. Assim, processos AR podem ser usados como modelos se for razoável assumir que o valor atual de uma série temporal depende do seu passado imediato mais um erro aleatório. Por simplicidade vamos começar estudando em detalhes processos de primeira ordem, AR(1), i.e. X t = αx t 1 + ɛ t. (3.5) Note que existe uma estrutura Markoviana no processo AR(1) no sentido de que, dado X t 1, X t não depende de X t 2, X t 3,.... Fazendo subtituições sucessivas em (3.5) obtemos que X t = α(αx t 2 + ɛ t 1 ) + ɛ t = α 2 X t 2 + αɛ t 1 + ɛ t = α 2 (αx t 3 + ɛ t 2 ) + αɛ t 1 + ɛ t = α 3 X t 3 + α 2 ɛ t 2 + αɛ t 1 + ɛ t. r = α r+1 X t r 1 + α j ɛ t j. j=0 Se X t for estacionário com variância finita σ 2 X podemos escrever que E[X t r α j ɛ t j ] 2 = α 2r+2 E(Xt r 1) 2 = α 2r+2 σx 2 j=0 e se α < 1 temos que α 2r+2 0 quando r. Portanto, esta condição nos permite escrever X t como o seguinte processo MA infinito, X t = ɛ t + αɛ t 1 + α 2 ɛ t 2 +... e assim α < 1 é uma condição suficiente para que X t seja estacionário. Neste caso, reescrevendo o processo k períodos à frente, i.e. X t+k = ɛ t+k + αɛ t+k 1 + + α k ɛ t +... (3.6) note como o efeito de ɛ t sobre X t+k diminui a medida que k aumenta e por isso é chamado efeito transitório. Podemos também usar o operador de retardo reescrevendo a equação (3.5) como (1 αb)x t = ɛ t

30 CAPÍTULO 3. MODELOS PROBABILÍSTICOS ou equivalentemente X t = 1 (1 αb) ɛ t = (1 + αb + α 2 B 2 +... )ɛ t = ɛ t + αɛ t 1 + α 2 ɛ t 2 +... Escrevendo o processo AR(1) neste formato de MA infinito fica fácil ver que a sua média e variância são dados por E(X t ) = 0 e V ar(x t ) = σ 2 ɛ (1 + α 2 + α 4 +... ) = σ2 ɛ 1 α 2. A função de autocovariância pode ser obtida usando os resultados acima. Reescrevendo a equação (3.6) como X t+k = ɛ t+k + + α k 1 ɛ t+1 + α k ɛ t + α k+1 ɛ t 1 + α k+2 ɛ t 2 +... pode-se verificar que, para qualquer k = 1, 2,..., Portanto, Cov(ɛ t + αɛ t 1 + α 2 ɛ t 2 +..., ɛ t+k + + α k 1 ɛ t+1 ) = 0. E(X t X t+k ) = Cov(ɛ t + αɛ t 1 + α 2 ɛ t 2 +..., α k ɛ t + α k+1 ɛ t 1 + α k+2 ɛ t 2 +... ) = α k E(ɛ 2 t ) + α k+2 E(ɛ 2 t 1) + α k+4 E(ɛ 2 t 2) +... = α k σ 2 ɛ (1 + α 2 + α 4 +... ) = α k σ 2 ɛ 1 α 2 = αk σ 2 X = γ(k). Assim, a função de autocorrelação é ρ(k) = α k para k = 0, 1, 2,.... Assim, como a média e a variância são constantes e γ(k) não depende de t o processo AR(1) com α < 1 é estacionário. Na Figura 3.2 são mostradas graficamente as autocorrelações teóricas de um processo AR(1) até a defasagem k = 20 para α igual a 0,8, -0,8, 0,2 e -0,2. Note como a função de autocorrelação decai rapidamente para zero quando α = 0, 2 e se alterna entre valores positivos e negativos quando α = 0, 8. Ou seja sempre há um decaimento exponencial para zero mas este decaimento depende do sinal e magnitude de α. Generalizando os resultados acima para um processo AR(p) escrevemos novamente X t como um processo MA infinito com coeficientes ψ 0, ψ 1,..., i.e. X t = ψ 0 ɛ t + ψ 1 ɛ t 1 + ψ 2 ɛ t 2 + = (ψ 0 + ψ 1 B + ψ 2 B 2 +... )ɛ t = ψ(b)ɛ t. e em analogia com o caso AR(1) segue que o processo será estacionário se j ψ2 j <

3.4. ALGUNS PROCESSOS ESTOCÁSTICOS 31 0.0 0.2 0.4 0.6 0.8 0.8 0.2 0.2 0.6 5 10 15 20 5 10 15 20 0.00 0.10 0.20 5 10 15 20 0.20 0.10 0.00 5 10 15 20 Figura 3.2: As 20 primeiras autocorrelações teóricas de um processo AR(1) com (a) α = 0, 8, (b) α = 0, 8, (c) α = 0, 2 e (d) α = 0, 2.. Usando agora o operador de retardo a equação (3.4) fica (1 α 1 B α 2 B 2 α p B p )X t = ɛ t ou φ(b)x t = ɛ t e portanto o processo AR(p) pode ser escrito como X t = φ(b) 1 ɛ t = ψ(b)ɛ t. Assim, os coeficientes ψ j podem ser obtidos a partir dos coeficientes α j fazendo-se (1 α 1 B α 2 B 2 α p B p )(ψ 0 + ψ 1 B + ψ 2 B 2 +... ) = 1

32 CAPÍTULO 3. MODELOS PROBABILÍSTICOS Desenvolvendo-se esta expressão segue que ψ 0 + ψ 1 B + ψ 2 B 2 + α 1 ψ 0 B α 1 ψ 1 B 2 α 1 ψ 2 B 3... α 2 ψ 0 B 2 α 2 ψ 1 B 3 α 2 ψ 2 B 4.... α p ψ 0 B p α p ψ 1 B p+1 = 1 + 0B + 0B 2 +... e agora agrupando em termos de B, B 2,... ψ 0 + (ψ 1 α 1 ψ 0 )B + (ψ 2 α 1 ψ 1 α 2 ψ 0 )B 2 + = 1 + 0B + 0B 2 +... donde obtém-se os coeficientes MA recursivamente como ψ 0 = 1 ψ 1 = ψ 0 α 1 ψ 2 = ψ 1 α 1 + ψ 0 α 2 ψ 3 = ψ 2 α 1 + ψ 1 α 2 + ψ 0 α 3. ψ i = i ψ i j α j. j=1 O efeito de ɛ t sobre X t+k é dado por ψ k, k = 1, 2,.... Pode-se mostrar que (ver por exemplo Box, Jenkins, & Reinsel 1994) a condição de estacionariedade do processo X t é que todas as raízes de φ(b) = 0 estejam fora do círculo unitário. Em particular, para p = 1 temos que φ(b) = 1 αb = 0 implica que B = 1/α e a condição de estacionariedade fica α < 1 conforme já haviamos verificado. Para reescrever um processo AR(p) em forma vetorial, defina Z t = (X t 1,..., X t p ) e portanto Z t = ΦZ t 1 + u t sendo a matriz Φ definida como φ 1 φ 2... φ p 1 φ p 1 0... 0 0 Φ = 0 1... 0 0..... 0 0... 1 0

3.4. ALGUNS PROCESSOS ESTOCÁSTICOS 33 e u t = (ɛ t, 0,..., 0). Para obter a função de autocorrelação de um processo AR(p) é algebricamente mais simples assumir a priori que o processo é estacionário com E(X t ) = 0, V ar(x t ) = σx 2 e Cov(X t, X t k ) = γ(k). Neste caso, multiplicando a equação (3.4) por X t k, i.e X t X t k = α 1 X t 1 X t k + + α p X t p X t k + ɛ t X t k. e tomando o valor esperado obtemos que E(X t X t k ) = γ(k) = α 1 E(X t 1 X t k ) + + α p E(X t p X t k ) = α 1 γ(k 1) + + α p γ(k p), k > 0. Dividindo-se ambos os lados pela variância constante σ 2 X obtem-se que ρ(k) = α 1 ρ(k 1) + + α p ρ(k p), k > 0 chamadas equações de Yule-Walker. Por exemplo, para um processo AR(1) com coeficiente α segue que ρ(1) = α, ρ(2) = αρ(1) = α 2,..., ρ(k) = α k como já haviamos verificado. Para um processo AR(2) com coeficientes α 1 e α 2 segue que ρ(1) = α 1 ρ(0) + α 2 ρ(1) ρ(1) = α 1 /(1 α 2 ) e as outras autocorrelaçõs são obtidas iterativamente como Autocorrelações Parciais ρ(k) = α 1 ρ(k 1) + α 2 ρ(k 2), k 2 Para um processo AR(p), o último coeficiente α p mede o excesso de correlação na defasagem p que não é levado em conta por um modelo AR(p 1). Este é chamado de p-ésimo coeficiente de autocorrelação parcial. Assim, variando k = 1, 2,... temos a chamada função de autocorrelação parcial (FACP). Por outro lado, em um processo AR(p) não existe correlação direta entre X t e X t p 1, X t p 2,... e substituindo k = p + 1, p + 2,... nas equações de Yule- Walker obtem-se que todos os coeficientes de correlação parcial serão nulos para k > p. Por exemplo, substituindo-se k = p + 1 segue que ρ(p + 1) = α 1 ρ(p) + + α p ρ(1) + α p+1. O fato de que a facp é igual a zero para k > p é sugerido em Box and Jenkins (1970, p. 170) como uma ferramenta para determinar a ordem p do processo

34 CAPÍTULO 3. MODELOS PROBABILÍSTICOS autoregressivo para séries temporais observadas. 3.4.5 Modelos Mistos ARMA Combinando-se modelos AR e MA pode-se obter uma representação adequada com um número menor de parâmetros. Processos autoregressivos médias móveis (ARMA) formam um classe de modelos muito úteis e parcimoniosos para descrever dados de séries temporais. O modelo ARMA(p, q) é dado por X t = α 1 X t 1 + + α p X t p + ɛ t + β 1 ɛ t 1 + + β q ɛ t q onde {ɛ t } é um processo puramente aleatório com média zero e variância σ 2 ɛ. Note que, modelos AR ou MA podem ser obtidos como casos especiais quando p = 0 ou q = 0. Usando o operador de retardo o modelo pode ser reescrito como (1 α 1 B α 2 B 2 α p B p )X t = (1 + β 1 B + β 2 B 2 + + β q B q )ɛ t ou φ(b)x t = θ(b)ɛ t. Os valores de α 1,..., α p que tornam o processo estacionário são tais que as raízes de φ(b) = 0 estão fora do círculo unitário. Analogamente, os valores de β 1,..., β q que tornam o processo inversível são tais que as raízes de θ(b) = 0 estão fora do círculo unitário. Vale notar que as funções de autocorrelação e autocorrelação parcial ficam consideravelmente mais complicadas em processos ARMA. De um modo geral, para um processo ARMA(p, q) estacionário a função de autocorrelação tem um decaimento exponencial ou oscilatório após a defasagem q enquanto que a facp tem o mesmo comportamento após a defasagem p (Box & Jenkins 1970, p. 79). Em princípio este resultado pode ser utilizado para auxiliar na determinação da ordem (p, q) do processo mas na prática pode ser bastante difícil distinguir entre decaimentos exponenciais e oscilatórios através das estimativas destas funções. A Tabela 3.1 mostra as propriedades teóricas das funções de autocorrelação e autocorrelação parcial para alguns processos estacionários como auxiliar na identificação do modelo. 3.4.6 Modelos ARMA Integrados Os modelos discutidos até agora são apropriados para séries temporais estacionárias. Assim, para ajustar estes modelos a uma série temporal observada é necessário remover as fontes de variação não estacionárias. Por exemplo, se a série observada for não estacionária na média pode-se tentar remover a tendên-

3.4. ALGUNS PROCESSOS ESTOCÁSTICOS 35 Tabela 3.1: Propriedades teóricas da fac e facp. Processo FAC FACP série aleatória 0 0 AR(1), α > 0 decaimento exponencial 0, k 2 AR(1), α < 0 decaimento oscilatório idem AR(p) decaimento para zero 0, k > p MA(1) 0, k > 1 decaimento oscilatório ARMA(p, q) decaimento a partir de q decaimento a partir de p cia tomando-se uma ou mais diferenças (esta abordagem é muito utilizada em Econometria). Um modelo ARMA no qual X t é substituido pela sua d-ésima diferença d X t é capaz de descrever alguns tipos de séries não estacionárias. Denotando a série diferenciada por W t = d X t = (1 B) d X t o processo autoregressivo integrado médias móveis denotado ARIMA(p, d, q) é dado por W t = α 1 W t 1 + + α p W t p + ɛ t + β 1 ɛ t 1 + + β q ɛ t q ou, equivalentemente φ(b)(1 B) d X t = θ(b)ɛ t. (3.7) Da equação (3.7) acima pode-se notar que o modelo para X t é claramente não estacionário já que o polinômio autoregressivo φ(b)(1 B) d tem exatamente d raízes sobre o círculo unitário, ou d raízes unitárias. Um processo que se torna estacionário após d diferenças é dito ser não estacionário homogêneo, ou integrado de ordem d, I(d). Na prática valores pequenos são em geral especificados para d, sendo d = 1 o valor mais frequentemente utilizado e excepcionalmente d = 2. Note também que o passeio aleatório pode ser considerado um processo ARIMA(0,1,0). Vale notar que para dados reais um modelo ARIMA (e de fato qualquer modelo) é no máximo uma aproximação para o verdadeiro processo gerador dos dados. Na prática pode ser bem difícil distinguir entre um processo estacionário com memória longa (e.g. AR(1) com α 1) e um processo não estacionário homogêneo. Existe uma vasta literatura econométrica sobre testes de raíz unitária (ver por exemplo Hamilton 1994 e Bauwens, Lubrano, & Richard 1999). Mais recentemente, modelos da classe ARFIMA (ou ARIMA fracionários) tem sido utilizados para analisar séries com memória longa. Estes tópicos não serão abordados aqui

36 CAPÍTULO 3. MODELOS PROBABILÍSTICOS e o leitor interessado pode consultar por exemplo Brockwell & Davis (1991) além das referências acima.

3.4. ALGUNS PROCESSOS ESTOCÁSTICOS 37 Exercícios Nos exercícios a seguir {ɛ t } é um processo discreto puramente aleatório com média zero e variância σ 2 ɛ. 1. Encontre a fac do processo X t = ɛ t + 0, 7ɛ t 1 0, 2ɛ t 2. 2. Encontre a fac do processo X t µ = 0, 7(X t 1 µ) + ɛ t. 3. Encontre a fac do processo X t = 1 3 X t 1 + 2 9 X t 2 + ɛ t. 4. Se X t = µ + ɛ t + βɛ t 1 mostre que a fac do processo não depende de µ. 5. Reescreva cada um dos modelos abaixo em termos de operador de retardo B e verifique se o modelo é estacionário e/ou inversível: (a) X t = 0, 3X t 1 + ɛ t. (b) X t = ɛ t 1, 3 ɛ t 1 + 0, 4 ɛ t 2. (c) X t = 0, 5X t 1 + ɛ t 1, 3 ɛ t 1 + 0, 4 ɛ t 2. (d) X t = 0, 3 X t 1 + ɛ t 0, 6 ɛ t 1 (e) X t = X t 1 + ɛ t 1, 5ɛ t 1 6. Mostre que o processo X t = X t 1 + cx t 2 + ɛ t é estacionário se 1 < c < 0 e obtenha a fac para c = 3/16. 7. Mostre que o processo X t = X t 1 + cx t 2 cx t 3 + ɛ t é não estacionário para qualquer valor de c. 8. Descreva como deve se comportar a função de autocorrelação teórica para os seguintes processos, (a) AR(1) estacionário, para α = 0, 1, α = 0, 75 e α = 0, 99. (b) Médias móveis de ordem q. (c) Como deveriam ficar as funções de autocorrelação e autocorrelação parcial amostrais que identificam os processos acima? 9. Descreva como deveriam se comportar as funções de autocorrelação e autocorrelação parcial amostrais para processos AR, MA e ARMA não sazonais. 10. Para o modelo (1 B)(1 0, 2B)X t = (1 0, 5B)ɛ t, identifique os valores de p, q, e d e verifique se o processo é estacionário e inversível. 11. Mostre que a função de autocovariância de um processo AR(1) estacionário com variância σx 2 é dada por αk σx 2 (Sugestão: use a expressão (3.2) com q )

38 CAPÍTULO 3. MODELOS PROBABILÍSTICOS 12. Verifique se X t = t j=1 ɛ t é estacionário. 13. Mostre que a fac do processo X t = ax t 1 + ɛ t + bɛ t 1 é dada por ρ(1) = (1 + ab)(a + b) 1 + b 2 + 2ab ρ(k) = aρ(k 1), k = 2, 3,... 14. Obtenha a função de autocovarância do processo sendo que 0 < a < 1. X t = ɛ t + 1 a ɛ t 1 + 1 a 2 ɛ t 2 + + 1 a m ɛ t m 15. Se {X t } é um processo estacionário obtenha a função de autocovariância de Y t = X t X t 1. 16. Mostre que o processo X t = (α + 1)X t 1 αx t 2 + ɛ t tem exatamente uma raiz unitária e reescreva-o como um processo ARIMA(1,1,0). 17. Obtenha a função de autocorrelação do passeio aleatório X t = X t 1 + ɛ t com E(ɛ t ) = µ, V ar(ɛ t ) = σ 2 ɛ e Cov(ɛ t, ɛ s ) = 0, t s. 18. Verifique se o processo {Y t } tal que P (Y t = 1) = P (Y t = 1) = 1/2 é estacionário. Obtenha sua média, variância e covariância. 19. Sejam os processos Y t = ɛ t + θɛ t 1, θ > 1 e {X t } tal que X t = 1 se Y t 0 e X t = 1 se Y t < 0. Verifique se {X t } e {Y t } são estacionários. Calcule a função de autocorrelação de {X t }. 20. Verifique que o processo Y t = ( 1) t ɛ t é estacionário e que X t = Y t + ɛ t não é estacionário. 21. Se {X t } e {Y t } são independentes e estacionários verifique se Z t = αx t +βy t, α, β R também é estacionário. 22. Obtenha a representação MA( ) de um processo AR(2) estacionário. 23. Obtenha a representação AR( ) de um processo MA(1) inversível.