Modelos com Coeficientes Dinâmicos Variando no Espaço para Dados da Família Exponencial

Tamanho: px
Começar a partir da página:

Download "Modelos com Coeficientes Dinâmicos Variando no Espaço para Dados da Família Exponencial"

Transcrição

1 Modelos com Coeficientes Dinâmicos Variando no Espaço para Dados da Família Exponencial por Nícia Custódio Hansen DME - IM - UFRJ 2009

2 Modelos com Coeficientes Dinâmicos Variando no Espaço para Dados da Família Exponencial Nícia Custódio Hansen Dissertação submetida ao Corpo Docente do Instituto de Matemática - Departamento de Métodos Estatísticos da Universidade Federal do Rio de Janeiro - UFRJ, como parte dos requisitos necessários à obtenção do grau de Mestre em Estatística. Aprovada por: Prof. Flávia M. P. F. Landim. PhD - IM - UFRJ - Orientadora. Prof. Marina Silva Paez. PhD - IM - UFRJ - Orientadora. Prof. Dani Gamerman. PhD - IM - UFRJ. Prof. Mariane Branco Alves. PhD - DE - UERJ. Rio de Janeiro, RJ - Brasil 2009 ii

3 FICHA CATALOGRÁFICA Hansen, Nícia Custódio. Modelos com Coeficientes Dinâmicos Variando no Espaço para Dados da Família Exponencial \ Nícia Custódio Hansen. Rio de Janeiro: UFRJ, IM, DME, Dissertação - Universidade Federal do Rio de Janeiro, IM, DME. 1. Introdução. 2. Revisão de Literatura. 3. Modelos com Coeficientes Dinâmicos Variando no Espaço para Dados da Família Exponencial. 4. Estudos Simulados. 5. Aplicação. 6. Conclusões. (Mestrado-UFRJ/IM/DME) I. Landim, Flávia II. Universidade Federal do Rio de Janeiro III. Título. iii

4 iv Ao Fábio, por tudo.

5 Tu te tornas eternamente responsável por aquilo que cativas. Antoine de Saint-Exupéry. v

6 Agradecimentos A Deus, por me dar saúde e condições de chegar até aqui. Ao meu marido Fábio por ser uma pessoa fantástica, pela compreensão, apoio e paciência tão importantes para mim. Agradeço por estar sempre ao meu lado e por me ajudar em todos os momentos. Aos meus pais Sueli e Idelanir e à minha irmã Tainê por todo apoio e incentivo fundamentais para mais esta etapa da minha vida. Às minha orientadoras Flávia e Marina pela orientação, dedicação e competência. Agradeço também aos demais professores do departamento que tenham contribuído de alguma forma para minha formação e ao CNPQ por ter financiado meus estudos durante o período do Mestrado. Às minhas amigas da turma de Mestrado de 2007: Denise, Josiane, Mariana, Patrícia e Vera, e aos meus outros amigos do departamento: Alexandre, João, Targino, Valmária e Vinícius. Nunca me esquecerei dos nossos cafés. Muito obrigada pela amizade e pelos momentos divertidos. vi

7 Resumo O objetivo principal deste trabalho é propor uma classe de modelos hierárquicos para tratar dados da família exponencial observados em tempo discreto e espaço contínuo, em que os coeficientes de regressão variam suavemente no tempo e no espaço. Este tipo de modelo pode ser utilizado em situações em que o efeito de um ou mais processos explicativos na variável resposta apresenta uma heterogeneidade substancial em ambas dimensões. Uma motivação para este estudo é o fato de que modelos espaço-temporais têm sido muito utilizados nas últimas décadas, principalmente com conjuntos de dados ambientais, pois esse tipo de dado tem, em geral, transições suaves no tempo e no espaço. Em geral, entretanto, assume-se que esses dados têm distribuição normal, o que muitas vezes não é uma hipótese realista. Descrevemos como fazer inferência, previsão e interpolação espacial para esta classe de modelos utilizando técnicas de simulação. A performance do algoritmo para estimar os parâmetros do modelo e a previsão para um tempo fixo é investigada através de conjuntos de dados simulados. A metodologia proposta é utilizada para modelar médias anuais de quantidade de chuva em várias localizações da Austrália. Palavras Chaves: Dados exponenciais; Modelos dinâmicos; Modelos espaço-temporais; Estatística Bayesiana; Métodos de Monte Carlo. vii

8 Abstract The main objective of this work is to propose a class of hierarchical models to handle data from exponential family observed in discrete time and space continuum, where the regression coefficients vary smoothly in time and space. This kind of model is particularly appealing in situations where the effect of one or more explanatory processes on the response present substantial heterogeneity in both dimensions. One motivation for this study is the fact that space-time models have been used in recent decades, particularly with environmental data sets, because this type of data has in general smooth transitions in time and space. It is usual, however, to assume that the data has normal distribution, which is often not a realistic assumption. We describe how to perform inference, forecasting in time and interpolation in space for this class of models using simulation techniques. The performance of the algorithm to estimate the parameters of the model and to perform prediction in time is investigated with simulated data sets. The proposed methodology is used to model average annual amount of rain in several locations in Australia. Keywords: Exponential data; Dynamic models; Spatial-temporal models; Bayesian statistics; Monte Carlo methods. viii

9 Sumário 1 Introdução 1 2 Revisão de Literatura Noções de Inferência Bayesiana Teorema de Bayes Estimação de Parâmetros Modelos Dinâmicos Lineares Normais Modelo Polinomial de Primeira Ordem Modelo Polinomial de Segunda Ordem Inferência nos Modelos Dinâmicos Lineares Previsão no Tempo Modelos Dinâmicos Generalizados Família Exponencial Estrutura Geral do Modelo Inferência nos Modelos Dinâmicos Lineares Generalizados Previsão no Tempo Modelagem de Estruturas Espaciais Tipos de Dados Espaciais Modelos Geoestatísticos: Modelos para Dados Contínuos Monte Carlo via Cadeias de Markov (MCMC) Amostrador de Gibbs Algoritmo de Metropolis-Hastings Diagnósticos de Convergência ix

10 3 Modelos com Coeficientes Dinâmicos Variando no Espaço para Dados da Família Exponencial Modelo Geral Distribuição Poisson Modelo Modelo Distribuição Gama Modelo Modelo Estudos Simulados Distribuição Poisson Modelo Modelo Dsitribuição Gama Modelo Modelo Aplicação 67 6 Conclusões 78 x

11 Capítulo 1 Introdução A modelagem de conjuntos de dados ambientais tem sido o objetivo de várias pesquisas em estatística nas últimas décadas. Particularmente, modelos espaço-temporais têm sido utilizados para modelar esse tipo de dado, considerando o fato de que processos ambientais tem, em geral, transições suaves no tempo e no espaço. Este trabalho tem como objetivo principal propor uma classe de modelos hierárquicos para tratar dados da família exponencial observados em tempo discreto e espaço contínuo, em que os coeficientes de regressão variam suavemente no tempo e no espaço. Os modelos são formulados com transições dinâmicas no tempo, ou seja, apresentamos aqui uma classe de modelos dinâmicos para dados espaço-temporais. Gamerman e Migon (1993) propuseram modelos dinâmicos hierárquicos para respostas univariadas restringindo as variâncias do modelo a um fator de escala comum. Landim (1998) apresentou uma classe de modelos dinâmicos hierárquicos para observações matrizvariadas. Paez et al. (2008) exploraram a mesma ideia de Landim (1998), porém apresentando uma estrutura paramétrica que leva em consideração a correlação espacial entre as observações feitas em diferentes locais do espaço e especificando uma matriz espacialmente estruturada com um número pequeno de parâmetros. Com esta restrição, a correlação espacial pode ser capturada sem a necessidade de estimar matrizes de covariâncias completamente desconhecidas. Também em Paez et al., interceptos e coefi- 1

12 cientes de regressão podem variar no espaço e no tempo. Todos os trabalhos citados acima trataram de dados normalmente distribuídos. Estendendo a ideia de Paez et al. (2008) trataremos de dados univariados pertencentes à família exponencial. Neste trabalho utilizamos uma abordagem Bayesiana para fazer inferência paramétrica e assim previsões podem ser feitas naturalmente baseadas na descrição probabilística do modelo. A inferência é realizada através da estimação da distribuição a posteriori dos parâmetros do modelo utilizando métodos de MCMC (Gamerman e Lopes (2006)). O trabalho está organizado da seguinte maneira: no capítulo 2 apresentamos uma revisão de alguns conceitos que serão abordados. No capítulo 3 é feita a descrição do modelo aqui proposto, apresentamos resultados da inferência para os parâmetros desconhecidos assim como o algoritmo utilizado para gerar amostras das distribuições a posteriori. No capítulo 4 temos resultados de dois exemplos de aplicação do modelo com dados simulados. No primeiro caso geramos dados de contagem com distribuição Poisson, e no segundo caso o modelo foi aplicado a dados gerados da distribuição Gama. Na seção 5 apresentamos os resultados da aplicação do modelo a médias anuais de quantidade de chuva em algumas estações de monitoramento da Austrália e, finalmente, algumas considerações com base nos resultados obtidos são feitas no capítulo 6. 2

13 Capítulo 2 Revisão de Literatura No presente capítulo fazemos uma revisão de alguns conceitos que serão abordados ao longo deste trabalho: apresentamos os principais fundamentos da inferência sob o enfoque Bayesiano, definimos o modelo dinâmico linear normal e o modelo dinâmico linear generalizado e discutimos suas principais propriedades. Apresentamos também uma introdução à modelagem espaço-temporal, assim como alguns modelos espaço-temporais comumente encontrados na literatura. Por fim, apresentamos os métodos MCMC mais utilizados e algumas técnicas de diagnósticos de convergência. 2.1 Noções de Inferência Bayesiana A inferência estatística tem como objetivo tirar conclusões, a partir de um conjunto de dados, a respeito de quantidades não observadas. As conclusões obtidas através da inferência Bayesiana a respeito de um determinado parâmetro θ, ou dado não observado Ỹ, são baseadas em especificações probabilísticas. Tais especificações geralmente são feitas condicionalmente a uma amostra de valores observados, relacionados de alguma forma com as quantidades de interesse. A distribuição a priori é a única novidade introduzida pela análise Bayesiana em relação à frequentista, além da forma de interpretar probabilidades. Essa distribuição 3

14 representa o conhecimento a respeito do valor que o parâmetro θ assume antes de se obter o resultado do experimento Teorema de Bayes Gamerman e Migon (1999) enunciam o teorema de Bayes da seguinte forma: seja H a informação disponível inicialmente para alguma quantidade de interesse. Seja θ o vetor de parâmetros desconhecidos, que pode assumir valores em Θ. Supondo que a informação inicial pode ser expressa em termos probabilísticos p (θ H), temos uma descrição completa da incerteza a respeito de θ. Se a informação contida em H não for suficiente e for possível observar uma amostra x de um vetor aleatório X relacionado com θ, pode-se atualizar a informação disponível para fazer inferência a respeito de θ, que passará a ser H = H {X = x}. Conhecendo a distribuição amostral de X, dada por p (X θ, H), temos que: em que p (θ H ) = p (θ x, H) = p (x H) = p (θ, x H) p (x H) θ = p (x, θ H) dθ. p (x θ, H) p (θ H) p (x H) Esse resultado é conhecido como teorema de Bayes e gera uma regra para atualizar probabilidades a respeito de θ, começando em p (θ H) e levando a p (θ x, H) Estimação de Parâmetros Um dos principais problemas tratados pela inferência estatística é a da estimação de parâmetros. Vários estimadores já foram propostos satisfazendo propriedades desejáveis. 4

15 Estimação Pontual No contexto estatístico, a escolha de uma estimativa para um determinado parâmetro θ, que chamaremos de ˆθ, é uma decisão a ser tomada. Gamerman e Migon (1999) especificam um problema de decisão através da descrição de três espaços: espaço de parâmetros Θ; espaço de resultados possíveis de um experimento Ω; espaço de possíveis ações A. Uma regra de decisão δ é uma função definida em Ω com valores em A, tal que δ : Ω A. A função de perda deve estar associada a cada decisão δ(x) e cada possível valor de θ Θ, e pode ser interpretada como a punição por tomar a decisão δ quando θ é o verdadeiro valor do parâmetro. Essa função será denotada por L(δ, θ). O risco associado a uma regra de decisão, denotado por R(δ), é a perda esperada a posteriori, dada por R(δ) = E θ x [(δ, θ)]. Um estimador é uma regra de decisão ótima com respeito a uma dada função de perda. As principais funções de perda são a perda quadrática, definida por L 1 (δ, θ) = (δ θ) 2, a perda absoluta, definida por L 2 (δ, θ) = δ θ e a perda zero-um, definida por L 3 (δ, θ) = lim ɛ 0 I θ δ ([ɛ, ]), em que I x (A) é a função que assume o valor 1 se x A e 0, caso contrário. Os estimadores associados às perdas quadrática, absoluta e zero-um, são a média, a mediana e a moda a posteriori, respectivamente. Estimação por Intervalo Um inconveniente da estimação pontual é que ela não nos informa sobre a precisão da estimativa, e restringe toda informação presente na distribuição a posteriori a um único resultado. Uma forma de contornar este problema é através do cálculo de intervalos de 5

16 credibilidade. Os intervalos de credibilidade Bayesianos, ao contrário dos intervalos de confiança frequentistas, são calculados de forma natural através da distribuição a posteriori do parâmetro em questão. Suponha que θ seja um parâmetro desconhecido que pode assumir valores em Θ. Uma região C Θ é dita um intervalo de credibilidade Bayesiano 100(1 α)% para θ se p (θ C x) 1 α. Nesse caso, 1 α é chamado de nível de credibilidade. 2.2 Modelos Dinâmicos Lineares Normais Os modelos dinâmicos lineares (MDL) foram introduzidos por Harrison e Stevens (1976) e estão bem documentados em West e Harrison (1997). Esses modelos são caracterizados por um par de equações: equação observacional e equação de evolução, que são dadas respectivamente por Y t = F tθ t + ɛ t, ɛ t N(0, V t ) e (2.1) θ t = G t θ t 1 + w t, w t N(0, W t ), (2.2) em que Y t é uma sequência de observações feitas ao longo do tempo, condicionalmente independentes dada a sequência de parâmetros θ t ; F t é um vetor p 1 de variáveis explicativas; θ t é um vetor de parâmetros p 1; G t é uma matriz de evolução de dimensão p p e V t e W t são as variâncias dos erros ɛ t e w t. Resumindo, um modelo dinâmico linear é completamente especificado pela quádrupla {F t, G t, V t, W t }. A escolha de F t e G t depende do modelo e da natureza dos dados que estão sendo analisados. Casos particulares dos modelos dinâmicos lineares incluem o modelo de regressão (fazendo G t = I p, a matriz identidade de ordem p, e W t = 0), e modelos 6

17 lineares de séries temporais (fazendo F t = F, G t = G, V t = V e W t = W ). A seguir serão apresentados dois exemplos desses modelos Modelo Polinomial de Primeira Ordem O modelo mais simples em séries temporais é o modelo polinomial de primeira ordem. Esse modelo é completamente especificado pela quádrupla {1, ρ, V t, W t }, podendo ser escrito como Y t = θ t + ɛ t, ɛ t N(0, V t ), θ t = ρθ t 1 + w t, w t N(0, W t ). (2.3) Se ρ está no intervalo ( 1, 1), o modelo é estacionário, se ρ = ±1, o modelo é não estacionário. Apesar de sua simplicidade, esse modelo pode ser aplicado a uma série de problemas cujo objetivo é fazer previsão a curto prazo Modelo Polinomial de Segunda Ordem Esse modelo, um pouco mais elaborado que o anterior, é derivado após a inclusão de um parâmetro extra θ 2,t para descrever um processo de crescimento da média. Temos agora uma modificação do modelo (2.3), dada por Y t = θ 1,t + ɛ t, ɛ t N(0, V t ), θ 1,t = ρ 1 θ 2,t + w 1,t, w 1,t N(0, W 1,t ), θ 2,t = ρ 2 θ 2,t 1 + w 2,t, w 2,t N(0, W 2,t ). (2.4) De maneira análoga ao modelo polinomial de primeira ordem, temos que se um dos parâmetros ρ 1 e ρ 2 é igual a 1, alguma das equações é não estacionária. O parâmetro θ 1,t pode ser interpretado como o nível atual do processo. 7

18 2.2.3 Inferência nos Modelos Dinâmicos Lineares Os aspectos de inferência dos modelos dinâmicos lineares seguem os passos usuais da estatística Bayesiana, explorando seu aspecto sequencial e combinando duas operações principais: a evolução para construir a priori, e a atualização para incorporar a nova observação feita no tempo t. Vamos denotar toda informação obtida até o período de tempo t por D t = D t 1 {Y t }, incluindo θ t e G t, t, que são quantidades supostamente desconhecidas. A informação a priori é denotada por D 0. Para cada período de tempo t, as distribuições a priori, preditiva e posteriori são dadas respectivamente por: p (θ t D t 1 ) = p (Y t D t 1 ) = p (θ t θ t 1 ) p (θ t 1 D t 1 ) dθ t 1, (2.5) p (Y t θ t ) p (θ t D t 1 ) dθ t, e (2.6) p (θ t D t ) p (θ t D t 1 ) p (Y t θ t ), (2.7) sendo a última equação obtida através do teorema de Bayes. Quando (F, G, V, W ) t é conhecido, a constante de integração na especificação acima pode ser facilmente obtida através do Filtro de Kalman (Anderson e Moore (1979)). Neste caso, dados os valores de Y 1,..., Y t 1, é fácil predizer Y t e estimar os parâmetros de estado não observáveis θ 1,..., θ t 1 através das distribuições preditiva p (Y t D t 1 ) e posteriori p (θ t 1 D t 1 ), respectivamente. Quando Y t é observado, a estimativa de θ t 1 pode ser atualizada usando sua distribuição a posteriori dado D t. Abaixo apresentamos alguns resultados do modelo dinâmico linear normal com V t desconhecido. Por simplicidade fazemos V t = V, t. Vamos denotar a distribuição a posteriori de θ no tempo t 1 por (θ t 1 D t 1, V ) N (m t 1, V C t 1 ) em que N (m t 1, V C t 1 ) denota a distribuição Normal com média m t 1 e variância V C t 1, e a distribuição a posteriori marginal de φ = V 1 por (φ D t 1 ) G (n t 1 /2, n t 1 s t 1 /2) em que G (n t 1 /2, n t 1 s t 1 /2) denota a distribuição Gama com média n t 1 /2 n t 1 s t 1 /2 e variância n t 1 /2 (n t 1 s t 1 /2) 2. Além disso, supomos que a priori inicial em t = 0 é normal: (θ 0 D 0, V ) N (m 0, C 0 ), para algum vetor de médias m 0 e matriz de covariâncias C 0 conhecidos. Temos então que, 8

19 1. Condicionalmente a V: Evolução: A distribuição a priori no tempo t será (θ t D t 1, V ) N (a t, V R t ), sendo a t = G t m t 1 e R t = G t C t 1 G t + W t. A distribuição preditiva um passo a frente será (Y t D t 1, V ) N (f t, V Q t ), sendo f t = F ta t e Q t = F t RtFt V + 1. Atualização: A distribuição a posteriori no tempo t será (θ t D t, V ) N (m t, V C t ), com m t = a t + A t e t e C t = R t A t A tq t, onde A t = R t F t/q t e e t = Y t f t. 2. A precisão φ é atualizada através da relação (φ D t ) G (n t /2, n t s t /2), com n t = n t e n t s t = n t 1 s t 1 + e t 2 /Q t. 3. Incondicionalmente a V: (θ t D t 1 ) t nt 1 (a t, s t 1 R t ); (Y t D t 1 ) t nt 1 (f t, Q t ), com Q t = s t 1 Q t ; e (θ t D t ) t nt 1 (m t, s t C t ). Em que t ν (µ, σ 2 ) denota a distribuição t de Student com ν graus de liberdade, média µ e parâmetro de escala σ Previsão no Tempo Muitas vezes em modelos temporais existe o interesse em fazer previsões para tempos futuros. Suponha que estamos interessados na distribuição da variável resposta h passos a frente, dadas as observações passadas. Dessa forma, estamos interessados em obter 9

20 amostras da distribuição (Y T +h Y ), com Y = (Y 1, Y 2,..., Y T ). Considere o modelo geral descrito pelas equações (2.1) e (2.2), seja F t conhecido, e por simplicidade faça G t = G, V t = V e W t = W. Definindo θ = (θ 1, θ 2,..., θ T ) e Φ = {V, G, W, θ}, a distribuição conjunta a posteriori de Y T +h, θ T +h e Φ pode ser escrita como p (Y T +h, θ T +h, Φ Y ) = p (Y T +h, θ T +h Y, Φ, ) p (Φ Y ) = p (Y T +h θ T +h, Φ, Y ) p (θ T +h Φ, Y ) p (Φ Y ) (2.8) = p (Y T +h θ T +h, V, Y ) p (θ T +h θ T, W, G) p (Φ Y ). A distribuição de (Y T +h θ T +h, V, Y ) é conhecida e p (θ T +h θ T, W, G) pode ser facilmente encontrada através de repetidos usos da equação de evolução de θ t. A obtenção da distribuição a posteriori dos parâmetros Φ pode ser feita utilizando MCMC com passos de Metropolis. 2.3 Modelos Dinâmicos Generalizados Baseado nos modelos lineares generalizados de Nelder e Wedderburn (1972), os modelos dinâmicos generalizados foram propostos por West et al. (1985) permitindo observações na família exponencial como uma extensão aos modelos lineares dinâmicos. Antes de apresentar a estrutura geral do modelo, vamos definir a família de distribuições exponencial Família Exponencial Considere uma série temporal de observações Y t, (t = 1, 2,...), quantidades contínuas ou discretas tomando valores no espaço amostral Y. Se Y t tem uma distribuição amostral pertencente à família exponencial, então a densidade de Y t (se Y t for discreto, temos uma 10

21 função de probabilidade) pode ser descrita como segue. Para algumas quantidades η t e B t, e três funções conhecidas y t (Y t ), a(η t ) e b(y t, V t ), a densidade é p (Y t η t, B t ) = exp { B 1 t [y t (Y t )η t a(η t )] } b(y t, B t ), (Y t Y). (2.9) Algumas propriedades desta distribuição são: 1. Se y t (Y t ) = Y t, η t é o parâmetro natural da distribuição, uma quantidade contínua. 2. B t > 0 é um parâmetro de escala e o parâmetro de precisão da distribuição é definido como δ t = B 1 t. 3. Como uma função do parâmetro natural para um Y t fixo, a equação (2.9), vista como uma função de verossimilhança de η t, depende de Y t através do valor y t (Y t ). 4. A função a(η t ) é duas vezes diferenciável em η t. Segue que µ t = E [y t (Y t ) η t, B t ] = da(η t) dη t = ȧ(η t ). e V [y t (Y t ) η t, B t ] = B t ä(η t ). 5. Geralmente y t (.) é a função identidade. Em tais casos temos p (Y t η t, B t ) = exp { B 1 t [Y t η t a(η t )] } b(y t, B t ), (Y t Y). (2.10) Também: E [Y t η t, B t ] = µ t = ȧ(η t ), (2.11) V [Y t η t, B t ] = B t ä(η t ). (2.12) EXEMPLO 2.1: O modelo normal usual (Y t µ t, B t ) N(µ t, B t ) é um caso especial de distribuição que pertence à família exponencial. Aqui y t (Y t ) = Y t, a(η t ) = 0.5η t 2, então 11

22 µ t = η t e b(y t, B t ) = (2πB t ) 1/2 exp { 0.5B t 1 Y t 2 }. EXEMPLO 2.2: Considere o modelo binomial em que Y t é o número de sucessos em n t > 0 tentativas de Bernoulli com probabilidade de sucesso π t. Aqui Y é um conjunto de inteiros positivos e a função de probabilidade é p (Y t µ t, η t ) = η t Y t µ t Y t (1 µ t ) ηt Yt, (Y t = 0, 1,..., η t ), 0, caso contrário. Este é um caso especial de (2.10) com y t (Y t ) = Y t /η t, η t = log [µ t /(1 µ t )], B 1 t = δ t = η t, a(η t ) = log [1 + exp (η t )], e b (Y t, B t ) = η t. Muitas outras distribuições importantes, incluindo a Poisson e a Gama também são casos especiais. Y t Estrutura Geral do Modelo Defina as seguintes quantidades no tempo t: θ t um vetor de estados de dimensão n; F t um vetor de regressão conhecido de dimensão n; G t uma matriz de evolução n n conhecida; ω t um vetor de erros com média zero e matriz de covariâncias conhecida W t, ou seja, ω t [0, W t ]; λ t = F tθ t uma função linear dos parâmetros do vetor de estados; g(η t ) uma função contínua e monótona conhecida que leva η t à reta. 12

23 O modelo dinâmico linear generalizado para a série Y t, (t = 1, 2,...) é definido, assim como o modelo dinâmico linear normal, pela equação observacional e pela equação de evolução, que são dadas respectivamente por: p (Y t η t ) como em (2.10), g(η t ) = λ t = F tθ t, (2.13) θ t = G t θ t 1 + ω t, ω t [0, W t ]. (2.14) Inferência nos Modelos Dinâmicos Lineares Generalizados Aqui o desenvolvimento será feito em termos de (2.10). Em adição, o parâmetro de escala B t é considerado conhecido para todo t. A única quantidade desconhecida presente na densidade (2.10) é o parâmetro natural η t, ou equivalentemente, a média condicional de Y t, µ t. Note que a densidade de Y t de alguma maneira depende de D t 1 (em particular, através do valor de B t ), assim (2.10) fornece p (Y t η t, B t, D t 1 ). Por conveniência, e já que B t é assumido conhecido, a dependência explicita no condicionamento será omitida daqui para frente. Logo, a densidade (2.9) ou (2.10) é denotada simplesmente por p (Y t η t ), (Y t Y). Agora a única incerteza sobre a distribuição de Y t dado todo conhecimento passado D t 1 se deve à incerteza sobre η t. Segue que a distribuição preditiva um passo a frente é p (Y t D t 1 ) = p (Y t η t ) p (η t D t 1 ) dη t. (2.15) Similarmente, uma vez que Y t é observado, a priori é atualizada e a distribuição a posteriori de η t, pelo teorema de Bayes, é p (η t D t ) p (η t D t 1 ) p (Y t η t ). (2.16) Os cálculos em (2.15) e (2.16) são analiticamente tratáveis neste contexto de família exponencial quando a priori pertence a uma família de distribuições conjugada. 13

24 Com referência a (2.10), uma densidade a priori de uma família conjugada tem a forma: p (η t D t 1 ) = c(r t, s t )exp [r t η t s t a(η t )], (2.17) com quantidades definidas r t e s t (funções conhecidas de D t 1 ). Abaixo apresentamos alguns comentários e propriedades: 1. Dadas as quantidades r t e s t, a priori conjugada fica completamente especificada. Aqui s t > 0 e definindo x t = r t /s t, (2.17) pode ser escrita como p (η t D t 1 ) exp {s t [x t η t a(η t )]}. 2. s t é o parâmetro de precisão da priori; valores grandes de s t implicam uma priori muito concentrada em sua moda. Assumindo que r t e s t são especificados, é fácil ver que que a densidade preditiva (2.15) e a posteriori (2.16) são dadas por: p (Y t D t 1 ) = c(r t, s t )b(y t, B t ) c(r t + δ t Y t, s t + δ t ), (2.18) e p (η t D t ) = c(r t + δ t Y t, s t + δ t )exp [(r t + δ t Y t )η t (s t + δ t )a(η t )]. (2.19) A definição (2.13) e (2.14) fornece as equações observacional e de evolução do modelo no tempo t. Para completar a especificação deste modelo, precisamos definir mais dois componentes: (a) a distribuição do erro de evolução ω t ; e (b) p (θ t 1 D t 1 ) que sumariza toda a informação e análise a priori no tempo t. Nos modelos dinâmicos lineares, estas duas distribuições eram normais. No contexto de modelos dinâmicos generalizados, as distribuições a priori e a posteriori não serão normais. Uma suposição que se faz é considerar que a média e variância da distribuição a posteriori p (θ t 1 D t 1 ) sejam iguais às do modelo dinâmico linear normal, mas sem a suposição de normalidade da distribuição, ou seja 14

25 p (θ t 1 D t 1 ) [m t 1, C t 1 ], (2.20) Segue de (2.14) que os momentos da priori de θ t são p (θ t D t 1 ) [a t, R t ] (2.21) em que a t = G t m t 1 e R t = G t C t 1 G t + W t e m t 1 e C t 1 definidos como no caso dos modelos dinâmicos lineares normais. A distribuição a posteriori no tempo t será p (θ t D t ) = p (θ t λ t, D t 1 ) p (λ t D t ) dλ t. Infelizmente, devido à especificação incompleta da priori conjunta, estes momentos condicionais são desconhecidos, não lineares e funções indeterminadas de λ t. Uma sugestão para estimar estes parâmetros é o estimador linear de Bayes (Hartigan (1969); Goldstein (1976)) Previsão no Tempo No tempo t, os momentos a posteriori de θ t existem (θ t D t ) [m t, C t ], com m t = a t + R t F t (f t f t ) /q t, C t = R t R t F t F tr t (1 q t /q t ) /q t em que f t q t = V [g(η t ) D t ]. = E [g(η t ) D t ] e Da equação de evolução (2.14) aplicada nos tempos t+1,..., t+h, segue que (θ t+h D t ) [a t (h), R t (h)], com momentos definidos sequencialmente a t (h) = G t+h a t (h 1) e R t (h) = G t+h R t (h 1)G t+h + W t+h, em que a t (0) = m t e R t (0) = C t. λ t+h = F t+h θ t+h tem momentos (λ t+h D t ) [f t (h), q t (h)], em que f t (h) = F t+h a t(h) e q t (h) = F t+h R t(h)f t+h. Assim a distribuição preditiva h passos a frente será 15

26 p (Y t+h D t ) = c(r t(h), s t (h))b(y t+h, B t+h ) c(r t (h) + δ t+h Y t+h, s t (h) + δ t+h ). 2.4 Modelagem de Estruturas Espaciais Nesta seção serão apresentadas estruturas básicas que servem de ponto de partida para a elaboração de modelos mais complexos, que levam em consideração a correlação espaço-temporal presente nos dados. Apresentamos também os tipos de dados espaciais Tipos de Dados Espaciais De uma forma geral, há três tipos de dados espaciais: Dados Contínuos Suponha que observamos uma determinada característica de interesse em um conjunto de pontos no espaço que pode ser fixo ou aleatório, em T períodos de tempo. O espaço de observação da variável aleatória de interesse é contínuo no espaço e discreto no tempo. Vamos denotar as observações por Y t (s), para s S R 2 locais de observação no tempo t e t = 1,..., T períodos de tempo, suponha que uma amostra dessa variável é obtida pela medição de Y em N locais amostrais {s 1, s 2,..., s N }. Podemos escrever Y t (s i ), i = 1,..., N como Y t (s i ) = µ t (s i ) + ɛ t (s i ), em que µ t (s i ) é uma média que pode depender de s i ou não, e ɛ t = (ɛ t (s 1 ), ɛ t (s 2 ),..., ɛ t (s N )) são erros que não podem ser explicados por covariáveis. Note que os locais de observação podem ou não ser igualmente espaçados. Se µ t (.) for capaz de explicar a dependência espacial presente nos dados, um modelo de regressão simples ou múltiplo é uma escolha provavelmente adequada. Em muitos problemas, entretanto, a correlação espacial ainda está presente em ɛ t, fazendo-se necessário relaxar a hipótese de normalidade e independência dos erros. Exemplos de dados contínuos incluem índices de poluição, temperatura, pluviosidade e características atmosféricas em geral. Neste trabalho vamos trabalhar com este tipo de dado. 16

27 Processos Pontuais Os processos pontuais diferem dos dados contínuos pelo fato de que tempo e local de observação não vêm associados à realização de uma variável aleatória. O interesse aqui é a informação a respeito de quando e onde ocorreram determinados eventos. Um exemplo típico é o da ocorrência de doenças. Por exemplo, podemos estar interessados em estudar o padrão espaço-temporal da incidência de dengue em um determinado local, e para isso analisar o local e dia de registros de ocorrência da doença. Dados de Área Muitas vezes não é possível observar o local e tempo exatos de ocorrência da variável de interesse, mas pode-se obter informação a respeito dessa variável de uma forma mais agregada. A variável de interesse é então observada sob a forma de contagens ou médias, e é associada a uma área no espaço e a um intervalo de tempo. Esse tipo de dado é chamado de dado de área. Como exemplo de dados de área obtido pela agregação de processos pontuais podemos citar as contagens de casos de dengue em um município. Os dados de área também podem ser obtidos pela agregação de dados contínuos. A agregação pode ser feita, por exemplo, retalhando o espaço de interesse, e supondo que as respostas são constantes dentro de cada área. Na teoria essa técnica pode ser vantajosa sempre que as medições feitas dentro das áreas forem suficientemente homogêneas, simplificando a análise no caso de existirem grande número de estações monitoradoras. Outras vezes só existe informação sobre os dados agregados Modelos Geoestatísticos: Modelos para Dados Contínuos Os modelos geoestatísticos, introduzidos por Cressie (1993), são modelos espaciais com estrutura bastante simples, mas que são flexíveis o suficiente para abranger uma classe bem grande de problemas. Eles abrangem modelos para dados contínuos, obtidos através de agregações no espaço ou não, podendo estar localizados de forma espacialmente irregular. 17

28 Seja s R d um local no espaço euclidiano d-dimensional e seja Z(s) o valor da variável aleatória Z no local s. Agora faça s variar no conjunto S R d de forma a gerar o espaço aleatório {Z(s) : s S}. Poderíamos assumir que S, assim como Z, varia de realização para realização, somando outra fonte de variação ao problema. Vamos considerar, entretanto, que S é um subconjunto fixo de R d. Modelo Gaussiano Estacionário Um processo estocástico {Z(s), s S} é Gaussiano se a distribuição conjunta de (Z(s 1 ),..., Z(s N )) é normal multivariada, para qualquer inteiro N e qualquer conjunto de localidades {s 1,..., s N }. Esse processo é dito estacionário se a esperança e a variância de Z(s) são as mesmas para todo s e a correlação entre Z(s i ) e Z(s j ) depende somente de (s i s j ), para qualquer par de inteiros i, j = 1,..., N. Se, adicionalmente, essa correlação depender somente de d i,j = s i s j, a distância euclidiana entre s i e s j, dizemos que o processo além de estacionário é isotrópico. Para especificar o modelo precisamos apenas de seus momentos de 1 a e 2 a ordem, ou seja, a função da média, µ(s) = E [Z(s)], e a função de covariância γ(s i, s j ) = cov {Z(s i ), Z(s j )}. Sob as hipóteses de estacionariedade e isotropia, E [Z(s)] = µ, s, e cov {Z(s i ), Z(s j )} = γ( s i s j ). Sendo o processo estacionário, a variância de Z(s) é constante e podemos escrever a função de covariância como γ(s i, s j ) = σ 2 ρ(s i, s j ), 18

29 em que σ 2 é a variância de Z(s), s S e ρ(.) é a função de correlação dada por: ρ(s i, s j ) = cor {Z(s i ), Z(s j )}. Vamos denotar o processo Gaussiano estacionário com média µ, variância σ 2 e função de correlação ρ(s i, s j ) = cor {Z(s i ), Z(s j )} por Z(.) P G(µ, σ 2 ρ(.)). Note que a matriz de correlações especificada através da função ρ(.) precisa ser positiva definida para que, dados um inteiro m, um conjunto de localizações s i e constantes reais a i, a combinação linear m i=1 a iz(s i ) tenha sempre variância não-negativa. Famílias Paramétricas de Funções de Covariância Geralmente a especificação de ρ(.) é feita de forma a satisfazer certas propriedades desejáveis. São elas: 1. ρ(.) é monótona não crescente em d i,j = s i s j, s i, s j S, ou seja, a correlação entre duas medições decresce com aumento da distância entre suas localizações. 2. ρ 0 quando d i,j, ou seja, a correlação entre locais muito distantes no espaço tende a zero. 3. Pelo menos um parâmetro do modelo controla a taxa com que ρ(d i,j ) decai para zero, visto que essa taxa geralmente não é conhecida. portanto, mais ou menos lento, dependendo deste(s) parâmetro(s). O decaimento pode ser, Como um exemplo de família de funções de correlação que satisfaz essas propriedades, temos a família exponencial de potência (Oliveira et al. (1997)), definida por { ( ) α } di,j ρ(d i,j ; φ; α) = exp, com φ > 0 e 0 < α < 2. φ Quando α = 1, ρ(d i,j ; φ, 1) corresponde à chamada função de correlação exponencial, e quando α = 2 temos a função de correlação Gaussiana. Outro exemplo de família que satisfaz as propriedades acima é a família Matérn (Mátern (1986)). 19

30 2.5 Monte Carlo via Cadeias de Markov (MCMC) Os métodos computacionais de Monte Carlo via cadeias de Markov (MCMC) usando os algoritmos de amostrador de Gibbs e Metropolis-Hastings, entre outros, permitem a simulação de distribuições de forma indireta. A ideia é construir uma cadeia de Markov fácil de ser simulada e, com distribuição de equilíbrio igual à de interesse, onde cada estado pode ser atingido a partir de qualquer outro com um número finito de iterações. Após um número suficientemente grande de iterações, a cadeia converge para a distribuição de interesse, dando origem a uma amostra que pode ser usada para fazer inferência. Esses métodos são muito usados na estatística Bayesiana quando há interesse em simular amostras de uma determinada densidade a posteriori p(θ Y ), cuja geração direta é custosa ou complicada. Existem vários métodos propostos para a construção de cadeia de Markov. Nesta seção serão apresentados os métodos MCMC mais utilizados, o amostrador de Gibbs e o algoritmo de Metropolis-Hastings. Neste trabalho o algoritmo Metropolis-Hastings será aplicado como um passo dentro do amostrador de Gibbs permitindo a amostragem conjunta a posteriori dos parâmetros do modelo Amostrador de Gibbs O amostrador de Gibbs (Geman e Geman (1984); Gelfand e Smith (1990)) é um método de amostragem iterativo de uma cadeia de Markov, cuja transição de estado a outro é feito pela amostragem de cada parâmetro através de sua distribuição condicional aos demais parâmetros do modelo (conhecida como distribuição condicional completa). Assuma que a distribuição de interesse seja p(θ) em que θ = (θ 1,..., θ d ). Cada um dos componentes θ i pode ser um escalar, um vetor ou uma matriz. Considere também que as distribuições condicionais completas p i = p(θ i θ i ), i = 1,..., d são conhecidas, em que θ i = (θ 1,..., θ i 1, θ i+1,..., θ d ). 20

31 O problema a ser resolvido é amostrar de p quando a geração direta é custosa ou complicada, mas a geração de p i é possível. O amostrador de Gibbs fornece uma amostragem baseada em gerações sucessivas das distribuições condicionais completas. Pode ser descrito da seguinte forma: 1. inicialize o contador das iterações da cadeia j = 1 e dê valores iniciais θ (0) = (θ (0) 1,..., θ (0) d ) ; 2. obtenha um novo valor θ (j) = (θ (j) 1,..., θ (j) ) de θ (j 1) através de sucessivas gerações de valores: d θ (j) 1 p(θ 1 θ (j 1) 2,..., θ (j 1) d ), θ (j) 2 p(θ 2 θ (j) 1, θ (j 1) 3,..., θ (j 1) d ), θ (j) d. p(θ d θ (j) 1,..., θ (j) d 1 ); 3. mude o contador j para j + 1 e retorne ao passo 2 até que a convergência seja alcançada. À medida que o número de iterações aumenta, a cadeia se aproxima de sua condição de equilíbrio. Quando a convergência é alcançada, o valor resultante θ (j) é uma amostra de p. A forma canônica de se obter uma amostra de tamanho M de p é replicar a cadeia M vezes até a convergência. Alternativamente, após a convergência, todas as gerações de uma mesma cadeia são gerações da distribuição de equilíbrio e sucessivos valores dessa cadeia também formam uma amostra de p. A amostra de pontos obtida antes da convergência é chamada de amostra de aquecimento, sendo descartada das análises Algoritmo de Metropolis-Hastings O algoritmo de Metropolis-Hastings (Metropolis et al. (1953); Hastings (1970)) tal como o amostrador de Gibbs tem como finalidade gerar amostras de uma distribuição de probabilidades. Para isso utiliza a ideia de uma distribuição auxiliar q(.), conhecida como densidade de transição. Desta densidade de transição é gerado um valor proposto 21

32 para o parâmetro e este é preferido em relação ao valor corrente da cadeia, de acordo com uma determinada probabilidade α. Considerando q(θ,.) a densidade de transição proposta, p(.) uma distribuição de probabilidades (por exemplo, a distribuição condicional completa do parâmetro) e θ (j 1) o valor corrente da cadeia, podemos resumir o algoritmo de Metropolis-Hastings a seguir: 1. inicialize o contador das iterações da cadeia j = 1 e dê valor inicial θ (0) ; 2. faça j = 1 e sorteie um valor proposto θ para θ (j), utilizando q(θ (j 1),.); 3. aceite mover a cadeia para o valor proposto com probabilidade α(θ, θ (j 1) ) = min {1, R} em que R = p(θ )q(θ,θ (j 1) ) p(θ (j 1) )q(θ (j 1),θ ) é chamado de razão de Hastings e faça θ (j) = θ ou rejeite mover a cadeia com probabilidade 1 α(θ, θ (j 1) ) e, portanto, faça θ (j) = θ (j 1) ; 4. faça j = j + 1 e retorne ao passo 2. Pontos da cadeia devem ser simulados até que haja convergência. A partir daí os valores simulados podem ser considerados como amostras da densidade de interesse, sendo portanto usados para fazer inferência Diagnósticos de Convergência Segundo Gamerman e Lopes (2006) existem duas formas de abordar o problema da convergência. A primeira, mais teórica, busca o estabelecimento de cotas para funções de distribuição geradas em uma cadeia e distâncias entre elas. A segunda forma de estudar a convergência é mais empírica e procura estudar as propriedades estatísticas da série observada a partir de simulações da cadeia. Embora as duas formas de se estudar a convergência sejam válidas, resultados teóricos são mais difíceis de serem obtidos e aplicados a problemas práticos. 22

33 Monitoração Informal de Convergência Gelfand e Smith (1990) sugerem técnicas gráficas para a verificação de convergência. Após um número suficientemente grande N de iterações em M cadeias paralelas, forma-se uma amostra de θ e pode-se construir um histograma de qualquer uma de suas componentes (ou funções). O mesmo procedimento pode ser repetido após N + k iterações. Se não houver diferença visível a olho nu após N e após N + k iterações, então conclui-se que há convergência. O valor de k não pode ser muito pequeno, pois a correlação inerente à cadeia de Markov estará exercendo sua influência e não se poderá dizer se a não similaridade é em função da convergência ou em função da correlação do processo. O valor de k também não precisa ser muito grande, pois se há suspeita de convergência após N iterações então não há necessidade de simular a cadeia muito além disso apenas para uma verificação. Tipicamente, valores entre 10 e 50 iterações são apropriados. Uma outra forma gráfica de verificar a convergência é observar a trajetória de uma única cadeia ao longo das iterações. Se o gráfico após um período inicial apresenta repetidamente o mesmo comportamento qualitativo e quantitativo então pode se concluir pela convergência da cadeia. Tais técnicas devem ser usadas com cautela e sempre acompanhadas de alguma fundamentação teórica. Técnicas gráficas podem ser ilusórias indicando uma constância que pode não ser tão evidente sob outra escala. Além disso, muitas cadeias podem apresentar um comportamento similar ao da convergência sem que esta tenha sido atingida. Monitoração Formal de Convergência 1. Análise espectral Considere uma função real Φ = t(θ) e sua trajetória Φ (1), Φ (2),... construída a partir de Φ (j) = t(θ (j) ), j = 1, 2,... Essa trajetória define uma série temporal e técnicas usuais 23

34 podem ser usadas. Geweke (1992) sugere o uso de testes com médias ergódicas para verificar a convergência da cadeia baseados na série Φ (j). Considere m + n iterações da cadeia e calcule as seguintes médias: Φ b = 1 n b e Φ a = 1 n a m+n j=m+n n a+1 m+n b j=m+1 Φ (j) Φ (j) em que n b + n a < n. Se m é a quantidade de iterações descartadas, então Φ a e Φ b, as médias ergódicas do final e do início do período da convergência, devem ter um comportamento similar. A medida que n cresce e as razões n a /n e n b /n permanecem fixas então z G = Φ a Φ b N(0, 1). V ar(φ a ) + V ar(φ b ) Então, a diferença padronizada z G entre as médias ergódicas do início e do fim do período da convergência não deve ser grande se a convergência for atingida. Grandes diferenças indicam falta de convergência, mas diferenças pequenas não implicam em convergência. Geweke (1992) sugere o uso dos valores n b = 0.1n e n a = 0.5n e o uso de estimadores espectrais da densidade para as variâncias. Esta é uma técnica univariada, mas pode ser aplicada à densidade a posteriori utilizando t(θ) = 2log[p(θ)]. 24

35 2. Cadeias múltiplas Outro método simples de verificar a convergência é a utilização de cadeias paralelas começando de pontos diferentes. Com isso, evita-se que as cadeias se concentrem em regiões em torno de uma moda local, no caso de multimodalidade da posteriori. Além disso, em alguns casos, convergência lenta pode levar à percepção errônea de convergência ao utilizarmos uma única cadeia. Após a convergência todas as cadeias devem ter o mesmo comportamento qualitativo e quantitativo mas a verificação de convergência pode ser problemática se for analisada apenas uma cadeia. A verificação visual de similaridade entre as trajetórias das cadeias após algumas iterações certamente é um indício forte de convergência. Gelman e Rubin (1992) propuseram alguns métodos formais para a detecção de convergência além dessa verificação visual. Esses métodos são baseados em técnicas de análise de variância e preconizam a convergência da cadeia apenas quando a variância entre cadeias for bem menor que a variância dentro da cadeia ou, equivalentemente, quando histogramas das cadeias misturadas são similares aos histogramas de cada uma das cadeias isoladas. As cadeias são inicializadas em pontos que devem ser sobredispersos em relação à distribuição a posteriori. O número de cadeias deve ser maior que 1 mas não necessariamente muito maior que 1. Considerando m cadeias paralelas e uma função real Φ = t(θ), tem-se m trajetórias { } Φ (1) i, Φ (2) i,..., Φ (n) i, i = 1,..., m, para Φ. As variâncias entre as cadeias B e dentro das cadeias W são dadas por: B = n m 1 m (Φ i Φ) 2 e W = i=1 1 m(n 1) m i=1 n j=1 (Φ (j) i Φ i ) 2 em que Φ i é a média das observações da cadeia i, i = 1,..., m, e Φ é a média dessas médias. Sob convergência, todos os mn valores são gerados da posteriori e a variância de 25

36 Φ, σφ 2, pode ser estimada de forma não-viciada por σ2 Φ = (1 1/n)W + (1/n)B. Se as cadeias ainda não tiverem convergido então essa estimativa é maior que σ 2 Φ, pois os valores iniciais ainda estarão influenciando e eles foram escolhidos com dispersão maior que a da distribuição do equilíbrio. Por outro lado, W subestima a variância σφ 2, pois uma cadeia só não terá coberto toda a variabilidade de t(θ). Um indicador de convergência é dado pela redução potencial de escala estimada: que é sempre maior que 1. R = σ 2 Φ W À medida que n cresce ambos os estimadores acabarão convergindo para σ 2 Φ e R convergirá para 1. Logo, R pode ser usado como indicador de convergência pela avaliação de sua proximidade de 1. Gelman (1995) sugere aceitar a convergência quando o valor de R for da ordem de 1,1 a 1,2. Como anteriormente, podese tomar t(θ) = 2log[p(θ)] e assim monitorar também a convergência da posteriori. Quando a convergência está assegurada, utiliza-se a última metade dos valores gerados para inferência. 26

37 Capítulo 3 Modelos com Coeficientes Dinâmicos Variando no Espaço para Dados da Família Exponencial Como já dito aqui, a prática de modelagem de dados que possuem uma evolução temporal e são espacialmente referenciados está bastante disseminada hoje em dia. Este trabalho tem como objetivo lidar com dados que apresentam estas características e que, além disso, podem ser modelados por uma distribuição pertencente à família exponencial. Tais dados podem ser observados, por exemplo, em estudos epidemiológicos nos quais temos a contagem da ocorrência de uma doença em determinada região, durante um período específico. Outros exemplos podem ser encontrados na observação de estudos sócio-econômicos, na agronomia e em fenômenos meteorológicos. Este último exemplo será abordado no capítulo 5 como aplicação do modelo aqui proposto. Neste capítulo descrevemos uma classe geral de modelos espaço-temporais para modelar respostas univariadas cujas distribuições pertencem à família exponencial. Estes modelos podes ser descritos em notação matricial que tem como vantagem uma forma mais compacta. A seguir, dois modelos serão apresentados considerando duas distribuições diferentes: a distribuição Poisson e a Gama. 27

38 3.1 Modelo Geral Considere um conjunto de períodos de tempo discretos, t = 1,..., T, em que para cada t um processo aleatório y t (.) é observado em N locais amostrais {s 1,..., s N }. Seja x t (s i ), um vetor de covariáveis de dimensão p observado no tempo t e local s i, i = 1,..., N. Suponha que y t (.) tenha distribuição f(.) pertencente à família exponencial com média µ t (s). Suponha também que essa média possa ser modelada através de uma função de uma equação de regressão em que os efeitos das covariáveis variem suavemente ao longo do tempo e espaço. Esta função se chama função de ligação e liga o preditor linear à média da função da distribuição como no caso dos modelos lineares generalizados. Primeiramente consideramos o Modelo 1 em que a média é modelada apenas como função de covariáveis sem a inclusão de efeitos aleatórios, como especificado abaixo: y t (s i ) f(µ t (s i )), g(µ t ) = F 1,t θ 1,t, θ 1,t = F 2,t θ 2,t + ɛ 2,t, ɛ 2,t (.) P G(0, Σ λ ), θ 2,t = G t θ 2,t 1 + w t, w t N(0, W ), (3.1) para t = 1,..., T e {s 1,..., s N }. g(µ t ) é um vetor de dimensão N, θ 1,t é um vetor de dimensão N.p, θ 2,t é um vetor de dimensão p, a matriz F 1,t tem dimensão N N.p, F 2,t é matriz com dimensão N.p p e G t tem dimensão p p. Aqui o vetor θ 2,t é independente do vetor de erros ɛ 2,t, assim como θ 2,t 1 e w t são independentes. Suponha que a distribuição de ɛ 2,t (.) define uma estrutura de correlação espacial para estes erros, e consequentemente para θ 1,t. Assim a correlação espacial é dada somente através dos parâmetros de regressão θ 1,t. Muitas definições são possíveis para esta distribuição, incluindo os exemplos de famílias paramétricas de funções de covariância citados no capítulo 2. As matrizes F 1,t, F 2,t e G t são conhecidas, com F 1,t e F 2,t possivelmente incorporando covariáveis. Um modelo um pouco mais complexo será descrito a seguir. Neste modelo, a função que modela a média da distribuição pertencente à família exponencial contempla, além de uma função de covariáveis, um efeito aleatório que traz mais incerteza para o modelo. 28

39 Chamamos este modelo de Modelo 2 e ele pode ser escrito como: y t (s i ) f(µ t (s i )), g(µ t ) = F 1,t θ 1,t + ɛ 1,t, ɛ 1,t N(0, V ), θ 1,t = F 2,t θ 2,t + ɛ 2,t, ɛ 2,t (.) P G(0, Σ λ ), θ 2,t = G t θ 2,t 1 + w t, w t N(0, W ). (3.2) Neste estudo trabalharemos com um caso particular em que F 1,t = diag(x t(s 1 ),..., x t(s N )), F 2,t = 1 N I p, G t = I p, V = σ 2 I N e Σ = Σ λ,ρ sendo Σ λ,ρ (i, j) = ρ exp{ λd i,j } (com I p denotando a matriz identidade de ordem p e 1 N denotando o vetor coluna de tamanho N com todos os elementos iguais a 1). Trabalhando sob a hipótese de isotropia, a função de covariância depende de d i,j, a distância entre as localizações s i e s j. Outras formas mais gerais podem ser consideradas. Aqui consideramos g(µ t ) = log(µ t ), pois esta é a função de ligação canônica para o modelo Poisson. A seguir apresentaremos o Modelo 1 e o Modelo 2 nos casos em que Y t (s i ), i = 1,..., N tem distribuição Poisson e Gama, assim como a inferência, previsão e interpolação espacial. 3.2 Distribuição Poisson Modelo 1 Considere que Y t (s i ) tenha distribuição Poisson com média µ t (s i ), ou seja, sua função de probabilidade é dada por: p(y t (s i )) = µ t(s i ) yt(s i) e µt(s i) y t (s i )! O modelo (3.1) pode então ser reescrito da seguinte forma: 29

40 y t (s i ) P oisson(µ t (s i )), log(µ t (s i )) = x t(s i )θ 1,t (s i ), θ 1,t (s i ) = θ 2,t + ɛ 2,t (s i ), ɛ 2,t (.) N(0, Σ λ,ρ I p ), θ 2,t = θ 2,t 1 + w t, w t N(0, W ). (3.3) Distribuições Condicionais Completas Sob o modelo (3.3) e considerando o caso em que p > 1, as quantidades desconhecidas que devem ser estimadas são ρ, W, λ, θ 1,t, para t = 1,..., T e θ 2,t para t = 0,..., T. As distribuições a priori dos parâmetros são dadas por: θ 2,0 N(µ 0, C 0 ), ρ GI(α ρ, β ρ ), W W I(α W, β W ) e λ Ga(α λ, β λ ) em que GI(α ρ, β ρ ) denota a distribuição Gama inversa com média β ρ /(α ρ 1) e variância β 2 ρ/[(α ρ 1) 2 (α ρ 2)] e W I(α W, β W ) denota a distribuição Wishart invertida com média β W /(α W 2). Defina Y = {Y 1,..., Y T }, {θ 1 } = {θ 1,1,..., θ 1,T }, {θ 2 } = {θ 2,1,..., θ 2,T }, Ψ = {λ, ρ, W } e Φ como a coleção de todos os parâmetros, tal que Φ = {{θ 1 }, {θ 2 }, θ 2,0, Ψ}. A distribuição conjunta a posteriori dos parâmetros desconhecidos do modelo (3.3) é proporcional a: T N T N p(φ Y ) p(θ 2,0 )p(ρ)p(w )p(λ) p(y t (s i ) θ 1,t (s i )) p(θ 1,t (s i ) θ 2,t, λ, ρ) T p(θ 2,t θ 2,t 1, W ). t=1 t=1 i=1 t=1 i=1 (3.4) Para obtermos a distribuição condicional completa a posteriori de um determinado parâmetro, basta observamos na equação acima os termos que dependem do parâmetro em estudo. Assim as distribuições condicionais completas a posteriori dos parâmetros 30

41 desconhecidos do modelo (3.3) são dadas por: 1) Condicional completa para W Da equação (3.4) vemos que: p(w Y, {θ 1 }, {θ 2 }, θ 2,0, Ψ ( W ), X) p(w ) T t=1 p(θ 2,t θ 2,t 1, W ) W 1/2α W p exp { 1/2tr(W 1 β W )} T t=1 W 1/2 exp { 1/2(θ 2,t θ 2,t 1 ) W 1 (θ 2,t θ 2,t 1 )} { W 1/2α W p exp { 1/2tr(W 1 β W )} W T/2 exp 1/2 } T t=1 (θ 2,t θ 2,t 1 ) W 1 (θ 2,t θ 2,t 1 ) { [ W 1/2(α W +T ) p exp 1/2 tr(w 1 β W ) + ]} T t=1 (θ 2,t θ 2,t 1 ) W 1 (θ 2,t θ 2,t 1 ). Assim, temos o núcleo de uma distribuição Wishart invertida com α W + T graus de liberdade e matriz parâmetro de escala dada por β W + T t=1 (θ 2,t θ 2,t 1 )(θ 2,t θ 2,t 1 ). 2) Condicional completa para λ De maneira análoga, podemos, da equação (3.4) escrever: p(λ Y, {θ 1 }, {θ 2 }, θ 2,0, Ψ ( λ), X) p(λ) T t=1 p(θ 1,t θ 2,t, λ, ρ) λ αλ 1 exp { λβ λ } T t=1 I p Σ λ,ρ 1/2 exp { 1/2(θ 1,t 1 N I p θ 2,t ) (I p Σ λ,ρ ) 1 (θ 1,t 1 N I p θ 2,t )} { λ αλ 1 I p Σ λ,ρ T/2 exp λβ λ 1/2 } T t=1 (θ 1,t 1 N I p θ 2,t ) (I p Σ λ,ρ ) 1 (θ 1,t 1 N I p θ 2,t ). Da relação acima podemos concluir que a distribuição condicional completa para λ não tem forma analiticamente fechada. 3) Condicional completa para ρ De maneira análoga, podemos, da equação (3.4) escrever: p(ρ Y, {θ 1 }, {θ 2 }, θ 2,0, Ψ ( ρ), X) p(ρ) T t=1 p(θ 1,t θ 2,t, λ, ρ) { } ( 1 ρ )αρ+1 exp 1β T ρ ρ t=1 I p Σ λ,ρ 1/2 exp { 1(θ 2 1,t 1 N I p θ 2,t ) (I p Σ λ,ρ ) 1 (θ 1,t 1 N I p θ 2,t ) } { ( 1 ρ )αρ+1 I p Σ λ,ρ T/2 exp 1β } ρ ρ 1 T 2 t=1 (θ 1,t 1 N I p θ 2,t ) (I p Σ λ,ρ ) 1 (θ 1,t 1 N I p θ 2,t ). 31

42 Da relação acima podemos concluir que a distribuição condicional completa para ρ não tem forma analiticamente fechada. 4) Condicionais completas para θ 1,t, t = 1,..., T De maneira análoga, podemos, da equação (3.4) escrever: p(θ 1,t Y, {θ 1 } ( θ1,t ), {θ 2 }, θ 2,0, Ψ, X) p(θ 1,t θ 2,t, λ, ρ) N i=1 p(y t(s i ) θ 1,t (s i )) exp { 1 2 (θ 1,t 1 N I p θ 2,t ) (I p Σ λ,ρ ) 1 (θ 1,t 1 N I p θ 2,t ) } N i=1 [exp { exp {x t(s i )θ 1,t (s i )}} {exp {x t(s i )θ 1,t (s i )}} yt(s i) ] exp { 1(θ 2 1,t 1 N I p θ 2,t ) (I p Σ λ,ρ ) 1 (θ 1,t 1 N I p θ 2,t ) } { exp } N N { } i=1 [exp(x t(s i )θ 1,t (s i ))] i=1 [exp(x t(s i )θ 1,t (s i ))] yt(s i). Da relação acima podemos concluir que as distribuições condicionais completas para θ 1,t, t = 1,..., T não têm forma analiticamente fechada. 5) Condicionais completas para θ 2,t, t = 1,..., T 1 Neste caso, vemos da equação (3.4) que: p(θ 2,t Y, {θ 1 }, {θ 2 } ( θ2,t ), θ 2,0, Ψ, X) p(θ 2,t θ 2,t 1, W )p(θ 2,t+1 θ 2,t, W )p(θ 1,t θ 2,t, λ, ρ) exp { 1(θ 2 2,t θ 2,t 1 ) W 1 (θ 2,t θ 2,t 1 ) } exp { 1(θ 2 2,t+1 θ 2,t ) W 1 (θ 2,t+1 θ 2,t ) } exp { 1(θ 2 1,t 1 N I p θ 2,t ) (I p Σ λ,ρ ) 1 (θ 1,t 1 N I p θ 2,t ) }. Usando o fato de que as três distribuições no lado direito da equação acima são normais, é fácil ver que as distribuições condicionais para θ 2,t, t = 1,..., T 1 serão também normais com parâmetros B 2,t b 2,t e B 2,t, em que: B 2,t = [ (1 N I p ) (I p Σ λ,ρ ) 1 (1 N I p ) + 2W 1] 1, b 2,t = (1 N I p ) (I p Σ λ,ρ ) 1 θ 1,t + W 1 (θ 2,t 1 + θ 2,t+1 ). Este resultado pode ser provado da seguinte forma: 32

43 p(θ 2,t Y, {θ 1 }, {θ 2 } ( θ2,t ), θ 2,0, Ψ, X) exp { 1 2 [(θ 2,t θ 2,t 1 ) W 1 (θ 2,t θ 2,t 1 )+ +(θ 2,t+1 θ 2,t ) W 1 (θ 2,t+1 θ 2,t ) + (θ 1,t 1 N I p θ 2,t ) (I p Σ λ,ρ ) 1 (θ 1,t 1 N I p θ 2,t )]}, mas (θ 2,t θ 2,t 1 ) W 1 (θ 2,t θ 2,t 1 ) + (θ 2,t+1 θ 2,t ) W 1 (θ 2,t+1 θ 2,t )+ +(θ 1,t 1 N I p θ 2,t ) (I p Σ λ,ρ ) 1 (θ 1,t 1 N I p θ 2,t ) pode ser reescrito apenas como função de θ 2,t como (θ 2,t B 2,t b 2,t ) B 1 2,t (θ 2,t B 2,t b 2,t ) mais um termo que não depende de θ 2,t. acima. Assim temos o núcleo de uma distribuição normal com os parâmetros já especificados Para derivarmos as condicionais completas de θ 2,0 e θ 2,T, basta observarmos da equação (3.4) que: p(θ 2,0 Y, {θ 1 }, {θ 2 }, Ψ, X) p(θ 2,0 )p(θ 2,1 θ 2,0, W ); p(θ 2,T Y, {θ 1 }, {θ 2 } ( θ2,t ), θ 2,0, Ψ, X) p(θ 1,T θ 2,T, Σ λ,ρ )p(θ 2,T θ 2,T 1, W ). E, assim, com um raciocínio análogo ao usado para obter as distribuições condicionais completas para θ 2,t, t = 1,..., T 1 podemos concluir que: (θ 2,0 Y, {θ 1 }, {θ 2 }, Ψ, X) N(B 2,0 b 2,0, B 2,0 ) em que B 2,0 = [ C W 1] 1 e b 2,0 = C 1 0 µ 0 + W 1 θ 2,1 ; (θ 2,T Y, {θ 1 }, {θ 2 } ( θ2,t ), θ 2,0, Ψ, X) N(B 2,T b 2,T, B 2,T ) em que B 2,T = [ (1 N I p ) (I p Σ λ,ρ ) 1 (1 N I p ) + W 1] 1 e b 2,T = (1 N I p ) (I p Σ λ,ρ ) 1 θ 1,T + W 1 θ 2,T 1. Algoritmo para a Estimação de Modelos Dinâmicos Hierárquicos Como a distribuição a posteriori (3.4) não tem solução analítica, os parâmetros em Φ são amostrados através de um algoritmo que utiliza amostrador de Gibbs (Gamerman e Lopes (2006)). O algoritmo é descrito abaixo: 33

44 1. Dê valores iniciais para todos os parâmetros e faça j = Amostre W da distribuição condicional completa a posteriori deste parâmetro. 3. Amostre (θ 2,0, {θ 2 }) através do algoritmo FFBS (Carter e Kohn (1994) e Frühwirth- Schnatter (1994)). 4. Amostre λ, ρ e {θ 1 } através de passos de Metropolis-Hastings (Gamerman e Lopes (2006)), após especificar distribuições propostas adequadas. 5. Faça j = j + 1 e retorne ao passo 2 até que a convergência seja obtida. Para realizar o passo 3, note que: p({θ 2 } {θ 1 }, W, Σ λ,ρ ) = p(θ 2,T {θ 1 }, W, Σ λ,ρ ) T t=1 p(θ 2,T t θ 2,T t+1, {θ 1 }, W, Σ λ,ρ ) (3.5) A equação (3.5) mostra que para gerarmos uma observação da distribuição conjunta de {θ 2 }, podemos seguir os seguintes passos: 1. gerar θ 2,T de p(θ 2,T {θ 1 }, W, Σ λ,ρ ); 2. gerar θ 2,T 1 de p(θ 2,T 1 θ 2,T, {θ 1 }, W, Σ λ,ρ ), em que θ 2,T é substituído pelo valor que acabou de ser gerado; 3. gerar θ 2,T 2 de p(θ 2,T 2 θ 2,T 1, {θ 1 }, W, Σ λ,ρ ); 4. para t variando de T 3 até 1 repetir este procedimento até gerar θ 2,0 de p(θ 2,0 θ 2,1, {θ 1 }, W, Σ λ,ρ ). Portanto, tudo o que resta fazer é derivar a distribuição de (θ 2,t θ 2,t+1, {θ 1 }, W, Σ λ,ρ ). Pelo teorema de Bayes podemos escrever, p(θ 2,t θ 2,t+1, {θ 1 }, W, Σ λ,ρ ) p(θ 2,t+1 θ 2,t, {θ 1 }, W, Σ λ,ρ )p(θ 2,t {θ 1 }, W, Σ λ,ρ ) (3.6) As distribuições dos dois termos no lado direito da equação (3.6) são dadas por: 34

45 1. (θ 2,t {θ 1 }, W, Σ λ,ρ ) N(M t, C t ) com M t = M t 1 + R t (1 N I p ) Q t 1 (θ 1,t 1 N I p M t 1); C t = R t R t (1 N I p ) Q t 1 (1 N I p )R t onde Q t = (I p Σ λ,ρ ) + (1 N I p )R t (1 N I p ), R t = W + C t 1, M 0 = µ 0 e C 0 = C (θ 2,t+1 θ 2,t, {θ 1 }, W, Σ λ,ρ ) N(θ 2,t, W ). Então tem-se, p(θ 2,t θ 2,t+1, {θ 1 }, W, Σ λ,ρ ) exp { [ 1 (θ2,t M 2 t ) Ct 1 (θ 2,t Mt )+ +(θ 2,t+1 θ 2,t ) W 1 (θ 2,t+1 θ 2,t )]} exp { [ 1 (θ2,t h 2 t ) Ht 1 (θ 2,t h t ) ]} onde H t = [ C t 1 + W 1] 1 e h t = H t (C t 1 M t + W 1 θ 2,t+1 ). Portanto, (θ 2,t θ 2,t+1, {θ 1 }, W, Σ λ,ρ ) N(h t, H t ). Assim, para t variando de 1 até T, calculamos os valores de M t e C t e os armazenamos. Em seguida geramos θ 2,T geramos θ 2,t da distribuição N(h t, H t ). de N(MT, C T ). E, depois, para t variando de T 1 até zero, Previsão h Passos a Frente Uma aplicação interessante aqui é a realização de previsões a longo prazo usando os resultados obtidos na geração da amostra da distribuição a posteriori. A ideia por trás desta aplicação é bastante simples e, na verdade, implica em gerar observações da distribuição a posteriori conjunta de (Y T +h, θ 1,T +h, θ 2,T +h, Φ Y ). Podemos escrever: p(y T +h, θ 1,T +h, θ 2,T +h, Φ Y ) = p(y T +h, θ 1,T +h, θ 2,T +h Y, Φ)p(Φ Y ) = p(y T +h θ 1,T +h, θ 2,T +h, Φ, Y )p(θ 1,T +h θ 2,T +h, Φ, Y )p(θ 2,T +h Φ, Y )p(φ Y ) = p(y T +h θ 1,T +h )p(θ 1,T +h θ 2,T +h, λ, ρ)p(θ 2,T +h θ 2,T, W )p(φ Y ). 35

46 p(φ Y ) pode ser amostrado através do algoritmo descrito na seção anterior. As distribuições de (Y T +h θ 1,T +h ) e (θ 1,T +h θ 2,T +h, λ, ρ) são conhecidas, e p(θ 2,T +h θ 2,T, W ) pode ser facilmente encontrada através do uso repetido da equação θ 2,T = θ 2,T 1 + w T, com w T N(0, W ). Utilizando propriedades da distribuição normal, temos que: (θ 2,T +h θ 2,T, W ) N(θ 2,T, hw ). Assim, para gerar uma amostra da distribuição a posteriori de Y T +h é necessário adicionar um passo ao algoritmo apresentado anteriormente em que θ 2,T +h é amostrado de p(θ 2,T +h θ 2,T, W ), θ 1,T +h é amostrado de p(θ 1,T +h θ 2,T +h, λ, ρ) e finalmente Y T +h é amostrado de p(y T +h θ 1,T +h ). Interpolação Espacial Suponha que os dados são observados em um conjunto de regiões {s 1,..., s N }, e agora estamos interessados em interpolar variáveis respostas em outras r regiões, coletadas no conjunto {s N+1,..., s N+r }, para um dado período de tempo t. Seja Y t o vetor N-dimensional de valores observados e µ t o vetor N-dimensional que contém suas respectivas médias, e seja Y n t o vetor r-dimensional de valores a serem interpolados para um período de tempo t fixo e µ n t o vetor contendo suas respectivas médias. Do mesmo jeito defina F 1t como uma matriz de tamanho N N.p correspondendo à matriz de covariáveis relacionadas às variáveis respostas observadas e θ 1,t como seus coeficientes. Analogamente, defina F n 1t como uma matriz de tamanho r r.p correspondendo à matriz de covariáveis relacionadas às variáveis respostas não observadas e θ n 1,t como seus coeficientes Defina também ɛ 2,t = ( ɛ 2,t(s 1 ),..., ɛ 2,t(s N ) ) seja ψ = {λ, ρ, W }. Podemos escrever o modelo da seguinte maneira: e ɛ n 2,t = ( ɛ n 2,t(s N+1 ),..., ɛ n 2,t(s N+r ) ), e 36

47 y t (s i ) P oisson(µ t (s i )), i = {1,..., N} e t = {1,..., T }, yt n (s N+j ) P oisson(µ n t (s N+j )), j = {1,..., r} e t = {1,..., T }, log(µ t ) = F 1,t θ 1,t, log(µ n t ) F1,t n θ1,t n θ 1,t θ n 1,t = F 2,t F n 2,t θ 2,t + ɛ 2,t ɛ n 2,t θ 2,t = θ 2,t 1 + w t, w t N(0, W ),, ɛ 2,t ɛ n 2,t λ, ρ N 0, Σ λ,ρ Σ n λ,ρ Σ n λ,ρ Σ n λ,ρ I p, sendo Σ λ,ρ, Σ n λ,ρ, Σn λ,ρ e Σn λ,ρ partições de Σ λ,ρ, obtidas através da função que define a estrutura espacial de θ 1,t. Sob a hipótese de F 1,t e F n 1,t serem conhecidas, a distribuição conjunta a posteriori de Y n t, θ n 1,t, θ 1,t, θ 2,t e ψ é dada por: p(y n t, θ n 1,t, θ 1,t, θ 2,t, ψ Y t ) = p(y n t, θ n 1,t θ 1,t, θ 2,t, ψ, Y t )p(θ 1,t, θ 2,t, ψ Y t ) = p(y n t θ n 1,t, ψ)p(θ n 1,t θ 1,t, θ 2,t, ψ)p(θ 1,t, θ 2,t, ψ Y t ) esta distribuição é encontrada a partir do fato de que dados (θ n 1,t, ψ), Y n t θ 1,t, θ 2,t e Y t e dados (θ 1,t, θ 2,t, ψ), θ n 1,t não depende de Y t. não depende de Para amostrar desta distribuição amostramos de cada distribuição da equação acima separadamente. Primeiro, uma amostra de p(θ 1,t, θ 2,t, ψ Y t ) é obtida através do algoritmo descrito anteriormente. Então uma amostra da distribuição de (θ n 1,t θ 1,t, θ 2,t, ψ) é obtida utilizando o resultado abaixo, que é encontrado utilizando propriedades da distribuição normal: (θ n 1,t θ 1,t, θ 2,t, ψ) N(M, H) em que M = F n 2,tθ 2,t +(Σ n λ,ρ I p)(σ λ,ρ I p ) 1 (θ 1,t F 2,tθ 2,t ) e H = (Σ n λ,ρ Σn λ,ρ (Σ λ,ρ ) 1 Σ n λ,ρ ) I p. Finalmente amostramos de (Y n t θ n 1,t, ψ) sabendo que p(y n t θ n 1,t, ψ) = e que (Y n t (s N+j ) θ n 1,t(s N+j ), ψ) P oisson(µ n t (s N+j )). r j=1 p(y n t (s N+j ) θ n 1,t(s N+j ), ψ) 37

48 3.2.2 Modelo 2 Este modelo difere do Modelo 1, pois este apresenta, na função que modela a média da observação, um efeito aleatório que traz mais incerteza para o modelo. Vamos considerar aqui o modelo (3.2) descrito anteriormente. Ele pode ser reescrito da seguinte forma: y t (s i ) P oisson(µ t (s i )), log(µ t (s i )) = x t(s i )θ 1,t (s i ) + ɛ 1,t (s i ), ɛ 1,t (s i ) N(0, σ 2 ), θ 1,t (s i ) = θ 2,t + ɛ 2,t (s i ), ɛ 2,t (.) N(0, Σ λ,ρ I p ), θ 2,t = θ 2,t 1 + w t, w t N(0, W ). (3.7) Distribuições Condicionais Completas Sob o modelo (3.7) e considerando o caso em que p > 1, as quantidades desconhecidas que devem ser estimadas são σ 2, ρ, W, λ, µ t, θ 1,t, para t = 1,..., T e θ 2,t para t = 0,..., T. As distribuições a priori dos parâmetros são dadas por: θ 2,0 N(µ 0, C 0 ), σ 2 GI(α σ, β σ ), ρ GI(α ρ, β ρ ), W W I(α W, β W ) e λ Ga(α λ, β λ ). Defina Y = {Y 1,..., Y T }, {µ} = {µ 1,..., µ T }, {θ 1 } = {θ 1,1,..., θ 1,T }, {θ 2 } = {θ 2,1,..., θ 2,T }, Ψ = {σ 2, λ, ρ, W } e Φ como a coleção de todos os parâmetros, tal que Φ = {{µ}, {θ 1 }, {θ 2 }, θ 2,0, Ψ}. A distribuição conjunta a posteriori dos parâmetros desconhecidos do modelo (3.7) é proporcional a: p(φ Y ) p(θ 2,0 )p(ρ)p(w )p(λ)p(σ 2 ) T t=1 N i=1 p(µ t(s i ) θ 1,t (s i ), σ 2 ) T t=1 T t=1 i=1 N p(y t (s i ) µ t (s i )) N i=1 p(θ 1,t(s i ) θ 2,t, λ, ρ) T t=1 p(θ 2,t θ 2,t 1, W ). (3.8) Assim as distribuições condicionais completas a posteriori de W, λ, ρ e θ 2,t, t = 1,..., T são iguais às do caso anterior. Agora temos algumas distribuições a mais, como a dis- 38

49 tribuição de σ 2 e as distribuições de µ t (s i ), para t = 1,..., T e i = 1,..., N. Neste caso as distribuições completas a posteriori de θ 1,t para t = 1,..., T tem forma analítica fechada. As contas feitas para as distribuições completas a posteriori deste modelo podem ser vistas no apêndice 1. Algoritmo para Estimação de Modelos Dinâmicos Hierárquicos Como a distribuição a posteriori (3.8) não tem solução analítica, os parâmetros em Φ são amostrados através do mesmo algoritmo utilizado para o Modelo 1 com algumas mudanças: 1. No passo 2, além de W, amostramos os parâmetros σ 2 e {θ 1 } de suas distribuições condicionais completas. 2. No passo 4, além de amostrarmos λ e ρ através de Metropolis-Hastings, amostramos também os parâmetros em {µ}. Aqui, o passo 3 é realizado da mesma forma como feito no modelo 1. Previsão h Passos a Frente Podemos escrever: p(y T +h, µ T +h, θ 1,T +h, θ 2,T +h, Φ Y ) = p(y T +h, µ T +h, θ 1,T +h, θ 2,T +h Y, Φ)p(Φ Y ) = p(y T +h µ T +h, θ 1,T +h, θ 2,T +h, Φ, Y )p(µ T +h θ 1,T +h, θ 2,T +h, Φ, Y )p(θ 1,T +h θ 2,T +h, Φ, Y ) p(θ 2,T +h Φ, Y )p(φ Y ) = p(y T +h µ T +h )p(µ T +h θ 1,T +h, σ 2 )p(θ 1,T +h θ 2,T +h, λ, ρ)p(θ 2,T +h θ 2,T, W )p(φ Y ) p(φ Y ) pode ser amostrado através do algoritmo descrito na seção anterior. As distribuições de (Y T +h µ T +h ), (µ T +h θ 1,T +h, σ 2 ) e (θ 1,T +h θ 2,T +h, λ, ρ) são conhecidas, e p(θ 2,T +h θ 2,T, W ) pode ser facilmente encontrada do mesmo modo como foi feito no caso 39

50 anterior. Assim, para gerar uma amostra da distribuição a posteriori de Y T +h é necessário adicionar um passo ao algoritmo apresentado anteriormente em que θ 2,T +h é amostrado de p(θ 2,T +h θ 2,T, W ), θ 1,T +h é amostrado de p(θ 1,T +h θ 2,T +h, λ, ρ), µ T +h é amostrado de p(µ T +h θ 1,T +h, σ 2 ) e, finalmente, Y T +h é amostrado de p(y T +h µ T +h ). Interpolação Espacial De maneira análoga ao Modelo 1 e definindo ɛ 1,t = ( ɛ 1,t(s 1 ),..., ɛ 1,t(s N ) ) e ɛ n 1,t = ( ɛ n 1,t (s N+1 ),..., ɛ n 1,t(s N+r ) ) podemos escrever este modelo da seguinte maneira: y t (s i ) P oisson(µ t (s i )), i = {1,..., N} e t = {1,..., T }, yt n (s N+j ) P oisson(µ n t (s N+j )), j = {1,..., r} e t = {1,..., T }, log(µ t ) = F 1,t θ 1,t + ɛ 1,t, ɛ 1,t N(0, σ 2 I N+r ), log(µ n t ) F1,t n θ1,t n ɛ n 1,t ɛ n 1,t θ 1,t θ n 1,t = F 2,t F n 2,t θ 2,t + ɛ 2,t ɛ n 2,t θ 2,t = θ 2,t 1 + w t, w t N(0, W )., ɛ 2,t ɛ n 2,t λ, ρ N 0, Σ λ,ρ Σ n λ,ρ Σ n λ,ρ A distribuição conjunta a posteriori de Y n t, µ n t, µ t, θ n 1,t, θ 1,t, θ 2,t e ψ é dada por: Σ n λ,ρ I p, p(y n t, µ n t, µ t, θ n 1,t, θ 1,t, θ 2,t, ψ Y t ) = p(y n t, µ n t, θ n 1,t µ t, θ 1,t, θ 2,t, ψ, Y t )p(µ t, θ 1,t, θ 2,t, ψ Y t ) = p(y n t µ n t, θ n 1,t, ψ)p(log(µ n t ) log(µ t ), θ n 1,t, ψ) p(θ n 1,t, θ 1,t, θ 2,t, ψ)p(µ t, θ 1,t, θ 2,t, ψ Y t ). Para amostrar desta distribuição amostramos de cada distribuição da equação acima separadamente. Primeiro, uma amostra de p(µ t, θ 1,t, θ 2,t, ψ Y t ) é obtida através do algoritmo descrito anteriormente. Então uma amostra da distribuição de (θ n 1,t θ 1,t, θ 2,t, ψ) é obtida utilizando o resultado abaixo, que é encontrado utilizando propriedades da dis- 40

51 tribuição normal: (θ n 1,t µ t, θ 1,t, θ 2,t, ψ, Y t ) N(M, H) em que M = F n 2,tθ 2,t + (Σ n λ,ρ I p )(Σ λ,ρ I p ) 1 (θ 1,t F 2,tθ 2,t ) e H = (Σ n λ,ρ Σn λ,ρ (Σ λ,ρ ) 1 Σ n λ,ρ ) I p. E uma amostra de p(log(µ n t ) log(µ t ), θ n 1,t, ψ) é obtida utilizando um resultado análogo: (log(µ n t ) log(µ t ), θ n 1,t, ψ) N(M µ, H µ ) em que M µ = F n 1,tθ n 1,t e H µ = σ 2 I r. Finalmente amostramos de (Yt n µ n t, θ1,t, n ψ) utilizando o fato de que r p(yt n µ n t, θ1,t, n ψ) = p(yt n (s N+j ) µ n t (s N+j ), θ1,t(s n N+j ), ψ) e que j=1 (Yt n (s N+j ) µ n t (s N+j ), θ1,t(s n N+j ), ψ) P oisson(µ n t (s N+j )). 3.3 Distribuição Gama Modelo 1 Considere que Y t (s i ) tenha distribuição Gama com parâmetros α e β t (s i ), ou seja, sua função de probabilidade é dada por: com média igual a p(y t (s i )) = β t(s i ) α Γ(α) y t(s i ) α 1 exp { β t (s i )y t (s i )}, α β t (s i ) = µ t(s i ) e variância igual a α β t (s i ) 2. V ar(yt (s i )) Seja ν = E(y t (s i )) utilizando µ t (s i ) e ν. = 1 α. Podemos então reparametrizar a densidade de y t (s i ) Temos então que β t (s i ) = 1 ν 2 µ t (s i ) α β t (s i ) = µ t(s i ), β t (s i ) = α µ t (s i ) e 1 α = ν, α = e a densidade reparametrizada é dada por: p(y t (s i )) = ( 1 ν 2 µ t(s i ) ) 1 ν 2 Γ( 1 ν 2 ) { (y t (s i )) 1 ν 2 1 exp y } t(s i ). ν 2 µ t (s i ) ( ) 2 1. Portanto: ν Com essa nova parametrização, o modelo (3.1) pode ser reescrito da seguinte forma: 41

52 y t (s i ) Gama(µ t (s i ), ν), log(µ t (s i )) = x t(s i )θ 1,t (s i ), θ 1,t (s i ) = θ 2,t + ɛ 2,t (s i ), ɛ 2,t (.) N(0, Σ λ,ρ I p ), θ 2,t = θ 2,t 1 + w t, w t N(0, W ). (3.9) Distribuições Condicionais Completas Sob o modelo (3.9) e considerando o caso em que p > 1, as quantidades desconhecidas que devem ser estimadas são ν, ρ, W, λ, θ 1,t, para t = 1,..., T e θ 2,t para t = 0,..., T. As distribuições a priori dos parâmetros são dadas por: θ 2,0 N(µ 0, C 0 ), ν Ga(α ν, β ν ), ρ GI(α ρ, β ρ ), W W I(α W, β W ) e λ Ga(α λ, β λ ). Defina Y = {Y 1,..., Y T }, {θ 1 } = {θ 1,1,..., θ 1,T }, {θ 2 } = {θ 2,1,..., θ 2,T }, Ψ = {ν, λ, ρ, W } e Φ como a coleção de todos os parâmetros, tal que Φ = {{θ 1 }, {θ 2 }, θ 2,0, Ψ}. A distribuição conjunta a posteriori dos parâmetros desconhecidos do modelo (3.9) é proporcional a: p(φ Y ) p(θ 2,0 )p(ν)p(ρ)p(w )p(λ) T t=1 p(θ 2,t θ 2,t 1, W ). T t=1 i=1 N p(y t (s i ) θ 1,t (s i ), ν) T t=1 i=1 N p(θ 1,t (s i ) θ 2,t, λ, ρ) (3.10) Assim as distribuições condicionais completas a posteriori dos parâmetros desconhecidos do modelo (3.9) são dadas por: 1) Condicional completa para W Da equação (3.10) vemos que: p(w Y, {θ 1 }, {θ 2 }, θ 2,0, Ψ ( W ), X) p(w ) T t=1 p(θ 2,t θ 2,t 1, W ). 42

53 Assim, como nos casos anteriores, temos o núcleo de uma distribuição Wishart invertida com α W + T graus de liberdade e matriz parâmetro de escala dada por β W + T t=1 (θ 2,t θ 2,t 1 )(θ 2,t θ 2,t 1 ). 2) Condicional completa para ν Da equação (3.10) vemos que: p(ν Y, {θ 1 }, {θ 2 }, θ 2,0, Ψ ( ν), X) p(ν) T N t=1 i=1 p(y t(s i ) θ 1,t (s i ), ν) ( ) 1 ν αν 1 exp( νβ ν ) 1 ν T 2 } N ν 2 µ t (s i ) 1 t=1 i=1 [y Γ( 1 ) t (s i )] ν 2 1 exp { yt(s i) ν 2 ν 2 µ t(s i ) (ν) αν 1 exp { νβ ν } ( 1 ν 2 Γ ( ] 1 ] 1 1 N i=1 y ν t(s i ) 2 1 exp { 1 ν 2 T t=1 N i=1 2T N αν 1 (ν) ν 2 Γ ( 1 exp ν 2 ) T N y t(s i ) µ t(s i ) } { νβ ν 1 ν 2 T t=1 N i=1 ) [ T N T N ν 2 t=1 i=1 µ t(s i ) }. y t(s i ) µ t(s i ) ν 2 ) T N [ T t=1 N i=1 µ t(s i ) ] 1 ν 2 [ T t=1 ν 2 [ T t=1 ] 1 N i=1 y ν t(s i ) 2 1 Da relação acima podemos concluir que a distribuição condicional completa para ν não tem forma analiticamente fechada. 3) Condicional completa para λ De maneira análoga, podemos, da equação (3.10) escrever: p(λ Y, {θ 1 }, {θ 2 }, θ 2,0, Ψ ( λ), X) p(λ) T t=1 p(θ 1,t θ 2,t, λ, ρ). A distribuição condicional completa para λ continua tendo a mesma forma dos casos anteriores. 4) Condicional completa para ρ De maneira análoga, podemos, da equação (3.10) escrever: 43

54 p(ρ Y, {θ 1 }, {θ 2 }, θ 2,0, Ψ ( ρ), X) p(ρ) T t=1 p(θ 1,t θ 2,t, λ, ρ). A distribuição condicional completa para ρ continua tendo a mesma forma dos casos anteriores. 5) Condicionais completas para θ 1,t, t = 1,..., T De maneira análoga, podemos, da equação (3.10) escrever: p(θ 1,t Y, {θ 1 } ( θ1,t ), {θ 2 }, θ 2,0, Ψ, X) p(θ 1,t θ 2,t, λ, ρ) N i=1 p(y t(s i ) θ 1,t (s i ), ν) exp { 1(θ 2 1,t 1 N I p θ 2,t ) (I p Σ λ,ρ ) 1 (θ 1,t 1 N I p θ 2,t ) } [ ( N 1 i=1 µ t(s i ) exp { 1(θ 2 1,t 1 N I p θ 2,t ) (I p Σ λ,ρ ) 1 (θ 1,t 1 N I p θ 2,t ) } [ S s=1 µ t(s) { exp 1(θ 2 1,t 1 N I p θ 2,t ) (I p Σ λ,ρ ) 1 (θ 1,t 1 N I p θ 2,t ) 1 N ν 2 i=1 ) 1 ] 1 y t(s i ) µ t(s i ) { ν 2 exp Da relação acima podemos concluir que as distribuições condicionais completas para θ 1,t, t = 1,..., T não têm forma analiticamente fechada. yt(s i) ν 2 µ t(s i ) { ν 2 exp 1 } [ N i=1 µ t(s i ) } ] N y t(s i ) ν 2 i=1 µ t(s i ) ] 1 ν 2. } 6) Condicionais completas para θ 2,t, t = 1,..., T 1 Neste caso, vemos da equação (3.10) que: p(θ 2,t Y, {θ 1 }, {θ 2 } ( θ2,t ), θ 2,0, Ψ, X) p(θ 2,t θ 2,t 1, W )p(θ 2,t+1 θ 2,t, W )p(θ 1,t θ 2,t, λ, ρ). Usando o fato de que as duas distribuições no lado direito da equação acima são normais, é fácil ver que as distribuições condicionais para θ 2,t, t = 1,..., T 1 serão também normais com parâmetros B 2,t b 2,t e B 2,t, em que: B 2,t = [ (1 N I p ) (I p Σ λ,ρ ) 1 (1 N I p ) + 2W 1] 1, b 2,t = (1 N I p ) (I p Σ λ,ρ ) 1 θ 1,t + W 1 (θ 2,t 1 + θ 2,t+1 ). As condicionais completas de θ 2,0 e θ 2,T são iguais as dos modelos anteriores, de fato, temos que: 44

55 p(θ 2,0 Y, {θ 1 }, {θ 2 }, Ψ, X) p(θ 2,0 )p(θ 2,1 θ 2,0, W ); p(θ 2,T Y, {θ 1 }, {θ 2 } ( θ2,t ), θ 2,0, Ψ, X) p(θ 1,T θ 2,T, Σ λ,ρ )p(θ 2,T θ 2,T 1, W ). E, assim, com um raciocínio análogo ao usado para obter as distribuições condicionais completas para θ 2,t, t = 1,..., T 1 podemos concluir que: (θ 2,0 Y, {θ 1 }, {θ 2 }, Ψ, X) N(B 2,0 b 2,0, B 2,0 ) em que B 2,0 = [ C W 1] 1 e b 2,0 = C 1 0 µ 0 + W 1 θ 2,1 ; (θ 2,T Y, {θ 1 }, {θ 2 } ( θ2,t ), θ 2,0, Ψ, X) N(B 2,T b 2,T, B 2,T ) em que B 2,T = [ (1 N I p ) (I p Σ λ,ρ ) 1 (1 N I p ) + W 1] 1 e b 2,T = (1 N I p ) (I p Σ λ,ρ ) 1 θ 1,T + W 1 θ 2,T 1. Algoritmo para a Estimação de Modelos Dinâmicos Hierárquicos Como a distribuição a posteriori (3.10) não tem solução analítica, os parâmetros em Φ são amostrados através de um algoritmo de MCMC, como nos caso do Modelo 1 da distribuição Poisson, mas no passo 4 precisamos amostrar também o parâmetro ν através de passos de Metropolis-Hastings. O passo 3 é realizado da mesma forma como nos modelos anteriores. 45

56 Previsão h Passos a Frente Podemos escrever: p(y T +h, θ 1,T +h, θ 2,T +h, Φ Y ) = p(y T +h, θ 1,T +h, θ 2,T +h Y, Φ)p(Φ Y ) = p(y T +h θ 1,T +h, θ 2,T +h, Φ, Y )p(θ 1,T +h θ 2,T +h, Φ, Y )p(θ 2,T +h Φ, Y )p(φ Y ) = p(y T +h θ 1,T +h, ν)p(θ 1,T +h θ 2,T +h, λ, ρ)p(θ 2,T +h θ 2,T, W )p(φ Y ). p(φ Y ) pode ser amostrado através do algoritmo descrito na seção anterior. As distribuições de (Y T +h θ 1,T +h, ν) e (θ 1,T +h θ 2,T +h, λ, ρ) são conhecidas, e p(θ 2,T +h θ 2,T, W ) pode ser facilmente encontrada através do uso repetido da equação θ 2,T = θ 2,T 1 + w T, com w T N(0, W ). Utilizando propriedades da distribuição normal, temos que: (θ 2,T +h θ 2,T, W ) N(θ 2,T, hw ). Assim, para gerar uma amostra da distribuição a posteriori de Y T +h é necessário adicionar um passo ao algoritmo apresentado anteriormente em que θ 2,T +h é amostrado de p(θ 2,T +h θ 2,T, W ), θ 1,T +h é amostrado de p(θ 1,T +h θ 2,T +h, λ, ρ) e finalmente Y T +h é amostrado de p(y T +h θ 1,T +h, ν). Interpolação Espacial A interpolação espacial é feita de maneira análoga ao caso do Modelo 1 da distribuição Poisson Modelo 2 Este modelo difere do Modelo 1, pois este incorpora um efeito aleatória na função que modela a média da observação. Este efeito aleatório traz mais incerteza ao modelo. Vamos considerar aqui o modelo (3.2), que pode ser reescrito da seguinte forma: 46

57 y t (s i ) Gama(µ t (s i ), ν), log(µ t (s i )) = x t(s i )θ 1,t (s i ) + ɛ 1,t (s i ), ɛ 1,t (s i ) N(0, σ 2 ), θ 1,t (s i ) = θ 2,t + ɛ 2,t (s i ), ɛ 2,t (.) N(0, Σ λ,ρ I p ), θ 2,t = θ 2,t 1 + w t, w t N(0, W ). (3.11) Distribuições Condicionais Completas Sob o modelo (3.11) e considerando o caso em que p > 1, as quantidades desconhecidas que devem ser estimadas são ν, σ 2, ρ, W, λ, µ t, θ 1,t, para t = 1,..., T e θ 2,t para t = 0,..., T. As distribuições a priori dos parâmetros são dadas por: θ 2,0 N(µ 0, C 0 ), ν Ga(α ν, β ν ), σ 2 GI(α σ, β σ ), ρ GI(α ρ, β ρ ), W W I(α W, β W ) e λ Ga(α λ, β λ ). Defina Y = {Y 1,..., Y T }, {µ} = {µ 1,..., µ T }, {θ 1 } = {θ 1,1,..., θ 1,T }, {θ 2 } = {θ 2,1,..., θ 2,T }, Ψ = {ν, σ 2, λ, ρ, W } e Φ como a coleção de todos os parâmetros, tal que Φ = {{φ}, {θ 1 }, {θ 2 }, θ 2,0, Ψ}. A distribuição conjunta a posteriori dos parâmetros desconhecidos do modelo (3.11) é proporcional a: p(φ Y ) p(θ 2,0 )p(ν)p(ρ)p(w )p(λ)p(σ 2 ) T N t=1 i=1 p(µ t(s i ) θ 1,t (s i ), σ 2 ) T t=1 T t=1 i=1 N p(y t (s i ) µ t (s i ), ν) N i=1 p(θ 1,t(s i ) θ 2,t, λ, ρ) T t=1 p(θ 2,t θ 2,t 1, W ). (3.12) Assim as distribuições condicionais completas a posteriori dos parâmetros W, ν, λ, ρ, θ 2,t para t = 0,..., T são iguais às do caso anterior. Neste caso temos distribuições condicionais completas a posteriori para os parâmetros σ 2 e µ t (s i ) para t = 1,..., T e i = 1,..., N e temos distribuições condicionais completas a posteriori diferentes das distribuições encontradas no modelo 1 para os parâmetros θ 1,t, t = 1,..., T. As contas feitas 47

58 para estas distribuições se encontram no apêndice 1. Algoritmo para a Estimação de Modelos Dinâmicos Hierárquicos Como a distribuição a posteriori (3.12) não tem solução analítica, os parâmetros em Φ são amostrados através do mesmo algoritmo de MCMC descrito no caso do Modelo 2 da distribuição Poisson, mas no passo 4 precisamos amostrar também o parâmetro ν através de Metropolis-Hastings. Previsão h Passos a Frente Podemos escrever: p(y T +h, µ T +h, θ 1,T +h, θ 2,T +h, Φ Y ) = p(y T +h, µ T +h, θ 1,T +h, θ 2,T +h Y, Φ)p(Φ Y ) = p(y T +h µ T +h, θ 1,T +h, θ 2,T +h, Φ, Y )p(µ T +h θ 1,T +h, θ 2,T +h, Φ, Y )p(θ 1,T +h θ 2,T +h, Φ, Y ) p(θ 2,T +h Φ, Y )p(φ Y ) = p(y T +h µ T +h, ν)p(µ T +h θ 1,T +h, σ 2 )p(θ 1,T +h θ 2,T +h, λ, ρ)p(θ 2,T +h θ 2,T, W )p(φ Y ). p(φ Y ) pode ser amostrado através do algoritmo descrito na seção anterior. As distribuições de (Y T +h µ T +h, ν), (µ T +h θ 1,T +h, σ 2 ) e (θ 1,T +h θ 2,T +h, λ, ρ) são conhecidas, e p(θ 2,T +h θ 2,T, W ) pode ser facilmente encontrada do mesmo modo dos outros casos. Assim, para gerar uma amostra da distribuição a posteriori de Y T +h é necessário adicionar um passo ao algoritmo apresentado anteriormente em que θ 2,T +h é amostrado de p(θ 2,T +h θ 2,T, W ), θ 1,T +h é amostrado de p(θ 1,T +h θ 2,T +h, λ, ρ), µ T +h é amostrado de p(µ T +h θ 1,T +h, σ 2 ) e, finalmente, Y T +h é amostrado de p(y T +h µ T +h, ν). Interpolação Espacial A interpolação espacial é feita de maneira análoga ao caso do Modelo 2 da distribuição Poisson. 48

59 Capítulo 4 Estudos Simulados Neste capítulo faremos alguns estudos simulados a fim de investigar a performance do algoritmo na estimação dos parâmetros do modelo. Serão quatro conjuntos de dados: dois com distribuição Poisson e dois com distribuição Gama. Faremos a investigação nos quatro modelos apresentados anteriormente. Todas as rotinas computacionais foram executadas em Ox versão Para a confecção de gráficos, foi usado o software R versão Geramos conjuntos de dados com as seguintes características: apenas uma covariável foi considerada, tal que x t (s i ) U(0, 1), i = 1,..., N; a duração do processo é T = 103 e há N = 15 localidades no espaço; o parâmetro λ da matriz que define a estrutura espacial é igual a 0,5; o parâmetro ρ é igual a 2; a variância W é igual a 0,05; a variância σ 2 é igual a 1; o parâmetro de coeficiente de variação, ν, dos modelos com distribuição Gama, é igual a 0,8. 49

60 A especificação das prioris foi feita de forma que estas não fossem muito informativas. Assim, consideramos que θ 2,0 N(0; 1000), W GI(2, 001; 1, 001), σ 2 GI(2, 001; 1, 001), ρ GI(2, 001; 1, 001) e ν Ga(10 3 ; 10 3 ). Para λ assumimos uma distribuição Gama com parâmetros α λ = 0, 1 e β λ = 0, 1. Também, para verificar a performance do algoritmo, retiramos as 10 últimas observações da análise e fizemos suas respectivas previsões. Como já foi dito, a estimação dos parâmetros foi feita através de MCMC. A convergência foi verificada formalmente através da redução potencial de escala estimada considerando duas cadeias paralelas com tamanho igual a As primeiras iterações foram descartadas, das últimas armazenamos valores a cada 20 iterações. Assim, 2000 iterações foram utilizadas para calcular os resumos das distribuições a posteriori. Os exemplos com dados simulados mostraram que o algoritmo funciona ocorrendo convergência de forma relativamente rápida. Porém, no caso da distribuição Gama, se o valor do parâmetro ν for muito alto, a convergência fica prejudicada. 4.1 Distribuição Poisson Modelo 1 Considere aqui dados gerado do modelo (3.3). A figura (4.1) ilustra as séries de duas localidades distintas. 50

61 Figura 4.1: Dados gerados para duas localidades com 103 períodos de tempo. A tabela (4.1) apresenta um resumo da inferência para os parâmetros do modelo baseada no conjunto de dados gerado e nas prioris especificadas anteriormente e apresenta também o valor estimado da redução potencial de escala. parâmetro valor real média mediana quantil 2.5% quantil 97.5% R ρ λ W Tabela 4.1: Estimativas a posteriori dos parâmetros fixos. Podemos observar que todas as quantidades estão dentro do seu intervalo de credibilidade de 95%, com exceção de W. Este parâmetro foi superestimado. O parâmetro de correlação λ é bem difícil de se estimar e para este conjunto de dados há uma grande incerteza a respeito dele. As estimativas da redução potencial de escala são menores que 1,2, então podemos dizer que houve a convergência. A figura (4.2) ilustra a forma das distribuições marginais para os parâmetros fixos do modelo. 51

62 Figura 4.2: Histogramas das amostras das distribuições a posteriori dos parâmetros fixos. Podemos ver que as distribuições das variâncias ρ e W possuem uma ligeira assimetria positiva, o que é esperado para variâncias. A figura (4.3) mostra a trajetória dos elementos verdadeiros e estimados de θ 2, para t = 0,..., 103. Para t = 0,..., 93, os períodos de tempo observados, os valores reais estão em sua maioria contidos nos intervalos de credibilidade de 95% e a mediana a posteriori está bem próxima dos valores reais. Para t = 94,..., 103 o modelo fez previsões razoáveis. Já a figura (4.4) apresenta a trajetória dos elementos verdadeiros e estimados de θ 1, para t = 1,..., 103 para uma das localidades. Assim como aconteceu com θ 2 os valores reais estão contidos nos intervalos de credibilidade de 95% e as previsões estão razoáveis. 52

63 Figura 4.3: Quantis de 2.5%, 50% e 97.5% da amostra da distribuição a posteriori dos componentes de θ 2 com a trajetória verdadeira em negrito. 53

64 Figura 4.4: Quantis de 2.5%, 50% e 97.5% da amostra da distribuição a posteriori dos componentes de θ 1 para uma localidade com a trajetória verdadeira em negrito. 54

65 4.1.2 Modelo 2 Consideramos aqui um conjunto de dados gerado a partir do modelo (3.7). A figura (4.5) ilustra as séries de duas localidades distintas. Figura 4.5: Dados gerados para duas localidades com 103 períodos de tempo. A tabela (4.2) apresenta um resumo da inferência para os parâmetros do modelo baseada no conjunto de dados gerado e nas prioris especificadas anteriormente e apresenta também o valor estimado da redução potencial de escala. parâmetro valor real média mediana quantil 2.5% quantil 97.5% R σ ρ λ W Tabela 4.2: Estimativas a posteriori dos parâmetros fixos. Os resultados obtidos podem ser vistos também na figura (4.6). 55

66 Figura 4.6: Histogramas das amostras das distribuições a posteriori dos parâmetros fixos. Podemos observar que o único parâmetro incluído em seu intervalo de credibilidade de 95% é o λ, mas novamente este intervalo mostra uma grande incerteza a respeito do parâmetro em questão. Os valores verdadeiros dos outros parâmetros não pertencem a seus intervalos de credibilidade e as estimativas a posteriori estão um pouco distantes. Neste exemplo podemos aceitar a convergência já que os valores de R estão abaixo de 1,2. As figuras (4.7) e (4.8) mostram, respectivamente, a trajetória dos elementos verdadeiros e estimados de θ 2, para t = 0,..., 103 e a trajetória dos elementos verdadeiros e estimados de θ 1, para t = 1,..., 103 para uma localidade. Para t = 0,..., 93, os períodos de tempo observados, os valores reais estão em sua maioria contidos nos intervalos de credibilidade de 95% e a mediana a posteriori está bem próxima dos valores reais. Para t = 94,..., 103 os valores reais, em sua maioria, também estão contidos nos intervalos de credibilidade, porém as medianas dos valores preditos não estão muito próximas dos 56

67 valores reais. Figura 4.7: Quantis de 2.5%, 50% e 97.5% da amostra da distribuição a posteriori dos componentes de θ 2 com a trajetória verdadeira em negrito. 57

68 Figura 4.8: Quantis de 2.5%, 50% e 97.5% da amostra da distribuição a posteriori dos componentes de θ 1 para uma localidade com a trajetória verdadeira em negrito. 58

69 4.2 Dsitribuição Gama Modelo 1 Agora consideramos um conjunto de dados gerado a partir do modelo (3.10). A figura (4.9) ilustra as séries de duas localidades distintas. Figura 4.9: Dados gerados para duas localidades com 103 períodos de tempo. A tabela (4.3) apresenta um resumo da inferência para os parâmetros do modelo baseada no conjunto de dados gerado e nas prioris especificadas anteriormente e apresenta também o valor estimado da redução potencial de escala. parâmetro valor real média mediana quantil 2.5% quantil 97.5% R ν ρ λ W Tabela 4.3: Estimativas a posteriori dos parâmetros fixos. Os resultados obtidos podem ser vistos também na figura (4.10). 59

70 Figura 4.10: Histogramas das amostras das distribuições a posteriori dos parâmetros fixos. Aqui os parâmetros ν e ρ estão bem estimados. Novamente a inferência a respeito de λ é bem incerta, resultando em um intervalo de credibilidade bem largo. E, como anteriormente, o algoritmo superestimou o valor de W. As estimativas R estão abaixo de 1,2 implicando em convergência. A figura (4.11) mostra a trajetória dos elementos verdadeiros e estimados de θ 2, para t = 0,..., 103. Para t = 0,..., 93, os períodos de tempo observados, os valores reais estão em sua maioria contidos nos intervalos de credibilidade de 95% e a mediana a posteriori está bem próxima dos valores reais. A figura (4.12) mostra a trajetória dos elementos verdadeiros e estimados de θ 1, para t = 1,..., 103 de uma localidade. Este modelo também faz predições razoáveis para t = 94,..., 103 tanto para os elementos de θ 2 quanto para os elementos de θ 1. 60

71 Figura 4.11: Quantis de 2.5%, 50% e 97.5% da amostra da distribuição a posteriori dos componentes de θ 2 com a trajetória verdadeira em negrito. 61

72 Figura 4.12: Quantis de 2.5%, 50% e 97.5% da amostra da distribuição a posteriori dos componentes de θ 1 para uma localidade com a trajetória verdadeira em negrito. 62

73 4.2.2 Modelo 2 Consideramos aqui um conjunto de dados gerado do modelo (3.12). A figura (4.13) ilustra as séries de duas localidades distintas. Figura 4.13: Dados gerados para duas localidades com 103 períodos de tempo. A tabela (4.4) apresenta um resumo da inferência para os parâmetros do modelo baseada no conjunto de dados gerado e nas prioris especificadas anteriormente e apresenta também o valor estimado da redução potencial de escala. parâmetro valor real média mediana quantil 2.5% quantil 97.5% R ν σ ρ λ W Tabela 4.4: Estimativas a posteriori dos parâmetros fixos. Os resultados obtidos podem ser vistos também na figura (4.14). Aqui os parâmetros ν, σ 2, ρ e W não foram bem estimados. Seus valores verdadeiros estão longe de serem incluídos nos intervalos de credibilidade de 95%. Os valores estimados da redução potencial de escala estão abaixo de 1,2 então podemos aceitar a convergência. 63

74 Figura 4.14: Histogramas das amostras das distribuições a posteriori dos parâmetros fixos. A figura (4.15) mostra a trajetória dos elementos verdadeiros e estimados de θ 2, para t = 0,..., 103. Para t = 0,..., 93, os períodos de tempo observados, os valores reais estão em sua maioria contidos nos intervalos de credibilidade de 95% e a mediana a posteriori está bem próxima dos valores reais. A figura (4.16) ilustra a trajetória dos elementos verdadeiros e estimados de θ 1, para t = 1,..., 103. Neste gráfico observamos que as estimativas estão longe dos valores reais e muitos valores verdadeiros não estão incluídos 64

75 no intervalo de credibilidade. Nos dois gráficos abaixo podemos ver que o modelo não faz boas predições para t = 94,..., 103. Figura 4.15: Quantis de 2.5%, 50% e 97.5% da amostra da distribuição a posteriori dos componentes de θ 2 com a trajetória verdadeira em negrito. 65

76 Figura 4.16: Quantis de 2.5%, 50% e 97.5% da amostra da distribuição a posteriori dos componentes de θ 1 para uma localidade com a trajetória verdadeira em negrito. 66

77 Capítulo 5 Aplicação Neste capítulo faremos uma aplicação utilizando toda a teoria abordada nos capítulos anteriores. Todas as rotinas computacionais foram executadas em Ox versão Para a confecção de gráficos foi usado o software R versão Modelando a Chuva na Região Leste da Austrália A Austrália está entre os seis maiores países do mundo. É o território mais plano e árido do mundo. O relevo é formado por um planalto e várias planícies. É uma terra de contrastes, de paisagens e de climas. Na costa sudeste e na fértil, porém estreita planície da costa leste, vive a maior parte da população. O clima nessas regiões é temperado. De frente a este cenário e sabendo que a variabilidade do clima afeta a performance de muitos sistemas sensíveis, como por exemplo a agricultura, podemos querer modelar o fenômeno pluviométrico desta região. O conjunto de dados consiste em uma variável resposta que mede a quantidade de chuva mensal em 15 estações de monitoramento na Austrália do ano de 1900 a É razoável esperar correlação espacial e temporal quando se estuda este tipo de dados. A figura (5.1) mostra o mapa da Austrália com a localização das estações, que se apresentam razoavelmente bem espalhadas na região leste do país em estudo. 67

78 Figura 5.1: Mapa da Austrália com a localização das estações de monitoramento. Analisando a distribuição da chuva por mês (ver figura 5.2), a fim de identificar algum padrão sazonal da série, podemos visualizar uma maior ocorrência de chuva nos primeiros e últimos meses do ano. Devido a isto, resolvemos utilizar um novo conjunto de dados. Aqui y t (s i ) representa a quantidade média anual de chuva medida pela estação s i no ano t, totalizando 95 períodos de tempo para cada uma das 15 estações. 68

Técnicas computacionais em probabilidade e estatística II

Técnicas computacionais em probabilidade e estatística II Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco Métodos de Monte Carlo baseados em Cadeias de Markov:

Leia mais

Inferência Estatistica

Inferência Estatistica Inferência Estatistica Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Modelos e Inferência Um modelo é uma simplificação da realidade (e alguns

Leia mais

Influencia de Distribuições a priori na Analise Bayesiana em dados de contagem

Influencia de Distribuições a priori na Analise Bayesiana em dados de contagem Influencia de Distribuições a priori na Analise Bayesiana em dados de contagem Olinda Fátima dos Santos 1 Carla Regina Guimarães Brighenti 1 1-Introdução A utilização de informação a priori em inferência

Leia mais

Inferência Bayesiana

Inferência Bayesiana Inferência Bayesiana Joaquim Neto joaquim.neto@ufjf.edu.br www.ufjf.br/joaquim_neto Departamento de Estatística - ICE Universidade Federal de Juiz de Fora (UFJF) Versão 3.0 Joaquim Neto (UFJF) ICE - UFJF

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

Técnicas computacionais em probabilidade e estatística II

Técnicas computacionais em probabilidade e estatística II Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco AULA 1: Problemas Computacionais em Inferência Estatística.

Leia mais

Inferência Bayesiana Exata para Processos de Cox Level-Set

Inferência Bayesiana Exata para Processos de Cox Level-Set Inferência Bayesiana Exata para Processos de Cox Level-Set Bárbara da Costa Campos Dias 1 Flávio Bambirra Gonçalves 2 Resumo Este trabalho propõe uma metodologia de inferência exata para processos de Cox

Leia mais

Aula 2 Uma breve revisão sobre modelos lineares

Aula 2 Uma breve revisão sobre modelos lineares Aula Uma breve revisão sobre modelos lineares Processo de ajuste de um modelo de regressão O ajuste de modelos de regressão tem como principais objetivos descrever relações entre variáveis, estimar e testar

Leia mais

Metodologia de inversão

Metodologia de inversão 6 Metodologia de inversão Nesta tese, a transformação de velocidades em pressão de poros é encarada como um problema de inversão. Pela natureza do problema, essa transformação apresenta caráter não único

Leia mais

Econometria em Finanças e Atuária

Econometria em Finanças e Atuária Ralph S. Silva http://www.im.ufrj.br/ralph/especializacao.html Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Maio-Junho/2013 Motivação Motivação Por

Leia mais

CONHECIMENTOS ESPECÍFICOS

CONHECIMENTOS ESPECÍFICOS CONHECIMENTOS ESPECÍFICOS 2003 2004 2005 2006 2007 2008 2009 2010 X 39,0 39,5 39,5 39,0 39,5 41,5 42,0 42,0 Y 46,5 65,5 86,0 100,0 121,0 150,5 174,0 203,0 A tabela acima mostra as quantidades, em milhões

Leia mais

Introdução a Inferência Bayesiana

Introdução a Inferência Bayesiana Introdução a Inferência Bayesiana Helio S. Migon IM and COPPE - UFRJ migon@im.ufrj.br 2006 Conteúdo 1. Conceitos Básicos da Inferência 2. Distribuição a Priori 3. Sumariazação 4. Inferência Preditiva 1

Leia mais

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas. 1. Inferência Estatística Inferência Estatística é o uso da informção (ou experiência ou história) para a redução da incerteza sobre o objeto em estudo. A informação pode ou não ser proveniente de um experimento

Leia mais

Ralph S. Silva

Ralph S. Silva ANÁLISE ESTATÍSTICA MULTIVARIADA Ralph S Silva http://wwwimufrjbr/ralph/multivariadahtml Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Revisão:

Leia mais

Modelos Dinâmicos Bayesianos para Processos Pontuais Espaço-Temporais

Modelos Dinâmicos Bayesianos para Processos Pontuais Espaço-Temporais Universidade Federal do Rio de Janeiro Modelos Dinâmicos Bayesianos para Processos Pontuais Espaço-Temporais Edna Afonso Reis Rio de Janeiro 2008 Modelos Dinâmicos Bayesianos para Processos Pontuais Espaço-Temporais

Leia mais

Tópicos de Estatística Espacial Geoestatística

Tópicos de Estatística Espacial Geoestatística Tópicos de Estatística Espacial Geoestatística Anderson Castro Soares de Oliveira Geoestatística A geoestatística é uma análise espacial que considera que a variável em estudo se distribui continuamente

Leia mais

Cap. 4 - Estimação por Intervalo

Cap. 4 - Estimação por Intervalo Cap. 4 - Estimação por Intervalo Amostragem e inferência estatística População: consiste na totalidade das observações em que estamos interessados. Nº de observações na população é denominado tamanho=n.

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Inferência com dimensão variável Modelos com

Leia mais

RESOLUÇÃO Nº 01/2016

RESOLUÇÃO Nº 01/2016 Legislações Complementares: Resolução Nº 02/2016 Colegiado DEst Resolução Nº 03/2016 Colegiado DEst Resolução Nº 01/2017 Colegiado DEst RESOLUÇÃO Nº 01/2016 O Departamento de Estatística, tendo em vista

Leia mais

A Importância da Estatística na Pesquisa Científica e na Tomada de Decisão

A Importância da Estatística na Pesquisa Científica e na Tomada de Decisão A Importância da Estatística na Pesquisa Científica e na Tomada de Decisão Ricardo Alves de Olinda Universidade Estadual da Paraíba - UEPB Centro de Ciências e Tecnologia - CCT Departamento de Estatística

Leia mais

FAMÍLIA EXPONENCIAL DE DISTRIBUIÇÕES

FAMÍLIA EXPONENCIAL DE DISTRIBUIÇÕES FAMÍLIA EXPONENCIAL DE DISTRIBUIÇÕES 1 Os modelos lineares generalizados, propostos originalmente em Nelder e Wedderburn (1972), configuram etensões dos modelos lineares clássicos e permitem analisar a

Leia mais

Ajuste do modelo de regressão linear: Inferência Bayesiana, aspectos computacionais e seleção de variáveis.

Ajuste do modelo de regressão linear: Inferência Bayesiana, aspectos computacionais e seleção de variáveis. Ajuste do modelo de regressão linear: Inferência Bayesiana, aspectos computacionais e seleção de variáveis. João Daniel Nunes Duarte a, Vinícius Diniz Mayrink b a Estudante de Graduação, e-mail: joaodaniel@ufmg.br

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

p(x) Note que 1/p(x), que não depende de θ, funciona como uma constante normalizadora

p(x) Note que 1/p(x), que não depende de θ, funciona como uma constante normalizadora Capítulo 1 Introdução A informação que se tem sobre uma quantidade de interesse θ é fundamental na Estatística. O verdadeiro valor de θ é desconhecido e a idéia é tentar reduzir este desconhecimento. Além

Leia mais

1 Probabilidade - Modelos Probabilísticos

1 Probabilidade - Modelos Probabilísticos 1 Probabilidade - Modelos Probabilísticos Modelos probabilísticos devem, de alguma forma, 1. identificar o conjunto de resultados possíveis do fenômeno aleatório, que costumamos chamar de espaço amostral,

Leia mais

Gibbs Sampler para ANOVA e Misturas

Gibbs Sampler para ANOVA e Misturas Gibbs Sampler para ANOVA e Misturas Renato Assunção - DCC, UFMG Outubro de 014 1 Modelo ANOVA: componentes de variância Suponha que temos K grupos ou classes. Em cada grupo, temos um certo número de dados

Leia mais

Análise de Dados Longitudinais Aula

Análise de Dados Longitudinais Aula 1/35 Análise de Dados Longitudinais Aula 08.08.2018 José Luiz Padilha da Silva - UFPR www.docs.ufpr.br/ jlpadilha 2/35 Sumário 1 Revisão para dados transversais 2 Como analisar dados longitudinais 3 Perspectiva

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Escolha de modelos Até aqui assumimos que z

Leia mais

A análise de séries temporais é uma área da estatística dedicada ao estudo de dados orientados no tempo (MONTGOMERY, 2004).

A análise de séries temporais é uma área da estatística dedicada ao estudo de dados orientados no tempo (MONTGOMERY, 2004). 3 Séries temporais A análise de séries temporais é uma área da estatística dedicada ao estudo de dados orientados no tempo (MONTGOMERY, 2004). 3.1. Princípios fundamentais Conforme Box et al. (1994), uma

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Motivação Por exemplo, queremos analisar a série

Leia mais

MOQ-13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel

MOQ-13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel MOQ-13 PROBABILIDADE E ESTATÍSTICA Professor: Rodrigo A. Scarpel rodrigo@ita.br www.mec.ita.br/~rodrigo Programa do curso: Semanas 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 e 16 Introdução à probabilidade (eventos,

Leia mais

Econometria em Finanças e Atuária

Econometria em Finanças e Atuária Ralph S. Silva http://www.im.ufrj.br/ralph/especializacao.html Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Maio-Junho/2013 Modelos condicionalmente

Leia mais

CONHECIMENTOS ESPECÍFICOS

CONHECIMENTOS ESPECÍFICOS fonte de graus de soma de quadrado variação liberdade quadrados médio teste F regressão 1 1,4 1,4 46,2 resíduo 28 0,8 0,03 total 2,2 A tabela de análise de variância (ANOVA) ilustrada acima resulta de

Leia mais

Universidade Federal de Lavras

Universidade Federal de Lavras Universidade Federal de Lavras Departamento de Estatística Prof. Daniel Furtado Ferreira 6 a Lista de Exercícios Teoria da Estimação pontual e intervalar 1) Marcar como verdadeira ou falsa as seguintes

Leia mais

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9 em Econometria Departamento de Economia Pontifícia Universidade Católica do Rio de Janeiro Aula 9 Data Mining Equação básica: Amostras finitas + muitos modelos = modelo equivocado. Lovell (1983, Review

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Considere o problema de encontrar o valor que

Leia mais

Modelos Lineares Generalizados

Modelos Lineares Generalizados Modelos Lineares Generalizados Emilly Malveira de Lima Análise de Dados Categóricos Universidade Federal de Minas Gerais - UFMG 10 de Maio de 2018 Emilly Malveira (PGEST-UFMG) 10 de Maio de 2018 1 / 20

Leia mais

MAE 5882 aula 02. O log-retorno de período k (agregação temporal dos retornos)

MAE 5882 aula 02. O log-retorno de período k (agregação temporal dos retornos) Agregação de Retornos MAE 5882 aula 02 O log-retorno de período k (agregação temporal dos retornos) Agregação cross-section (transversal), para diversos ativos de uma carteira de investimentos, c: Suponha

Leia mais

Métodos Computacionais para inferência estatística

Métodos Computacionais para inferência estatística Métodos Computacionais para inferência estatística Wagner Hugo Bonat LEG: Laboratório de Estatística e Geoinformação Universidade Federal do Paraná 30 de julho de 2012 Bonat et. al (LEG/UFPR) MCIE 30 de

Leia mais

Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados

Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados Erica Castilho Rodrigues 23 de Maio de 207 Introdução 2 3 Vimos como encontrar o EMV usando algoritmos numéricos. Duas possibilidades:

Leia mais

AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC

AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC 1 / 1 AGA 0505- Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC Laerte Sodré Jr. 1o. semestre, 2018 2 / 1 Inferência Bayesiana inferência bayesiana consideremos um conjunto de dados D que

Leia mais

Distribuição Amostral e Estimação Pontual de Parâmetros

Distribuição Amostral e Estimação Pontual de Parâmetros Roteiro Distribuição Amostral e Estimação Pontual de Parâmetros 1. Introdução 2. Teorema Central do Limite 3. Conceitos de Estimação Pontual 4. Métodos de Estimação Pontual 5. Referências População e Amostra

Leia mais

CE062c - GAMLSS. Silva, J.P; Taconeli, C.A. 09 de outubro, Silva, J.P; Taconeli, C.A. CE062c - GAMLSS 09 de outubro, / 42

CE062c - GAMLSS. Silva, J.P; Taconeli, C.A. 09 de outubro, Silva, J.P; Taconeli, C.A. CE062c - GAMLSS 09 de outubro, / 42 CE062c - GAMLSS Silva, J.P; Taconeli, C.A. 09 de outubro, 2018 Silva, J.P; Taconeli, C.A. CE062c - GAMLSS 09 de outubro, 2018 1 / 42 Por que GAMLSS? Silva, J.P; Taconeli, C.A. CE062c - GAMLSS 09 de outubro,

Leia mais

Modelos Dinâmicos Hierárquicos Espaço-Temporais para Dados na Família Exponencial

Modelos Dinâmicos Hierárquicos Espaço-Temporais para Dados na Família Exponencial Modelos Dinâmicos Hierárquicos Espaço-Temporais para Dados na Família Exponencial Ana Carolina Carioca da Costa Universidade Federal do Rio de Janeiro Instituto de Matemática Departamento de Métodos Estatísticos

Leia mais

Alguns Aspectos Espaciais da Modelagem de Observações Provenientes das Áreas de SaúdeedoMeioAmbiente

Alguns Aspectos Espaciais da Modelagem de Observações Provenientes das Áreas de SaúdeedoMeioAmbiente Alguns Aspectos Espaciais da Modelagem de Observações Provenientes das Áreas de SaúdeedoMeioAmbiente Alexandra Mello Schmidt DME - IM - UFRJ Homepage: www.dme.ufrj.br/ alex Seminário Qualidade do Ar e

Leia mais

DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia

DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia ROTEIRO 1. Introdução; DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL. Teorema Central do Limite; 3. Conceitos de estimação pontual; 4. Métodos de estimação pontual; 5. Referências. 1 POPULAÇÃO E AMOSTRA População:

Leia mais

Aula 2. ESTATÍSTICA E TEORIA DAS PROBABILIDADES Conceitos Básicos

Aula 2. ESTATÍSTICA E TEORIA DAS PROBABILIDADES Conceitos Básicos Aula 2 ESTATÍSTICA E TEORIA DAS PROBABILIDADES Conceitos Básicos 1. DEFINIÇÕES FENÔMENO Toda modificação que se processa nos corpos pela ação de agentes físicos ou químicos. 2. Tudo o que pode ser percebido

Leia mais

AUTOCORRELAÇÃO ESPACIAL. Flávia F. Feitosa

AUTOCORRELAÇÃO ESPACIAL. Flávia F. Feitosa AUTOCORRELAÇÃO ESPACIAL Flávia F. Feitosa BH1350 Métodos e Técnicas de Análise da Informação para o Planejamento Junho de 2015 AULAS ANTERIORES A importância analítica do espaço para o Planejamento Territorial

Leia mais

IND 1115 Inferência Estatística Aula 6

IND 1115 Inferência Estatística Aula 6 Conteúdo IND 5 Inferência Estatística Aula 6 Setembro de 004 A distribuição Lognormal A distribuição Beta e sua relação com a Uniforme(0,) Mônica Barros mbarros.com mbarros.com A distribuição Lognormal

Leia mais

Modelos Lineares Generalizados - Componentes do Modelo

Modelos Lineares Generalizados - Componentes do Modelo Modelos Lineares Generalizados - Componentes do Modelo Erica Castilho Rodrigues 01 de Abril de 2014 3 Vejamos agora quais as componentes de um Modelo Linear Generalizado. Temos um conjunto de variáveis

Leia mais

Testes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Testes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Testes de Hipóteses Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Introdução e notação Em geral, intervalos de confiança são a forma mais

Leia mais

Universidade Federal do Rio de Janeiro

Universidade Federal do Rio de Janeiro Universidade Federal do Rio de Janeiro Uma Comparação entre Métodos de Aproximações Determinísticas e Estocástica para Inferência Bayesiana em Modelos Dinâmicos Lineares Generalizados Teresa Villanueva

Leia mais

Modelos Bayesianos. Ernesto F. L. Amaral Magna M. Inácio

Modelos Bayesianos. Ernesto F. L. Amaral Magna M. Inácio 1 Modelos Bayesianos Ernesto F. L. Amaral Magna M. Inácio 09 de dezembro de 2010 Tópicos Especiais em Teoria e Análise Política: Problema de Desenho e Análise Empírica (DCP 859B4) Objetivos 2 Apresentar

Leia mais

3 Filtro de Kalman Discreto

3 Filtro de Kalman Discreto 3 Filtro de Kalman Discreto As medidas realizadas por sensores estão sujeitas a erros, como pode ser visto no Capítulo 2. Os filtros são aplicados aos sinais medidos pelos sensores para reduzir os erros,

Leia mais

Modelo fatorial espacial dinâmico para dados pertencentes à família exponencial

Modelo fatorial espacial dinâmico para dados pertencentes à família exponencial Modelo fatorial espacial dinâmico para dados pertencentes à família exponencial Esther Salazar esalazar@dme.ufrj.br Departamento de Métodos Estatísticos Universidade Federal do Rio de Janeiro 18 o SINAPE

Leia mais

)XQGDPHQWRVGHSUREDELOLGDGHHHVWDWtVWLFD

)XQGDPHQWRVGHSUREDELOLGDGHHHVWDWtVWLFD )XQGDPHQWRVGHUREDELOLGDGHHHVWDWtVWLFD,QWURGXomR A história da estatística pode ser dividida em três fases. De acordo com PEANHA (00), a estatística inicialmente não mantinha nenhuma relação com a probabilidade,

Leia mais

MOQ 13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel

MOQ 13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel MOQ 3 PROBABILIDADE E ESTATÍSTICA Professor: Rodrigo A. Scarpel rodrigo@ita.br www.mec.ita.br/~rodrigo Programa do curso: Semanas 2 3 4 5 6 7 8 9 0 2 3 4 5 e 6 Introdução à probabilidade (eventos, espaço

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Introdução Solução de equações não lineares

Leia mais

Modelos Dinâmicos para Estimação de Ciclos: Um estudo sobre geração e ajuste de dados

Modelos Dinâmicos para Estimação de Ciclos: Um estudo sobre geração e ajuste de dados Universidade Federal do Rio de Janeiro Guido Alberti Moreira Modelos Dinâmicos para Estimação de Ciclos: Um estudo sobre geração e ajuste de dados Rio de Janeiro 2009 UFRJ Modelos Dinâmicos para Estimação

Leia mais

Capítulo 5 Distribuições de Probabilidades. Seção 5-1 Visão Geral. Visão Geral. distribuições de probabilidades discretas

Capítulo 5 Distribuições de Probabilidades. Seção 5-1 Visão Geral. Visão Geral. distribuições de probabilidades discretas Capítulo 5 Distribuições de Probabilidades 5-1 Visão Geral 5-2 Variáveis Aleatórias 5-3 Distribuição de Probabilidade Binomial 5-4 Média, Variância e Desvio Padrão da Distribuição Binomial 5-5 A Distribuição

Leia mais

4 Modelos de Regressão Dinâmica

4 Modelos de Regressão Dinâmica 4 Modelos de Regressão Dinâmica Nos modelos de regressão linear (Johnston e Dinardo, 1998) estudados comumente na literatura, supõe-se que os erros gerados pelo modelo possuem algumas características como:

Leia mais

Modelos espaço-temporais para óbitos por causas externas

Modelos espaço-temporais para óbitos por causas externas Universidade Federal do Rio de Janeiro Modelos espaço-temporais para óbitos por causas externas Luiz Ledo Mota Melo Junior Rio de Janeiro 2008 Luiz Ledo Mota Melo Junior Modelos espaço-temporais para óbitos

Leia mais

AMOSTRAGEM PREFERENCIAL EM PROCESSOS ESPACIAIS DISCRETOS: CASOS BERNOULLI E POISSON

AMOSTRAGEM PREFERENCIAL EM PROCESSOS ESPACIAIS DISCRETOS: CASOS BERNOULLI E POISSON UNIVERSIDADE FEDERAL DO RIO DE JANEIRO INSTITUTO DE MATEMÁTICA DEPARTAMENTO DE MÉTODOS ESTATÍSTICOS AMOSTRAGEM PREFERENCIAL EM PROCESSOS ESPACIAIS DISCRETOS: CASOS BERNOULLI E POISSON Dissertação de mestrado

Leia mais

Segunda Lista de Exercícios Cálculo de Probabilidades II Prof. Michel H. Montoril

Segunda Lista de Exercícios Cálculo de Probabilidades II Prof. Michel H. Montoril Exercício 1. Uma urna contém 4 bolas numeradas: {1, 2, 2, 3}. Retira-se dessa urna duas bolas aleatoriamente e sem reposição. Sejam 1 : O número da primeira bola escolhida; 2 : O número da segunda bola

Leia mais

Modelos de regressão para dados correlacionados. Cibele Russo

Modelos de regressão para dados correlacionados. Cibele Russo Modelos de regressão para dados correlacionados Cibele Russo cibele@icmc.usp.br ICMC USP Mini-curso oferecido no Workshop on Probabilistic and Statistical Methods 28 a 30 de janeiro de 2013 Cibele Russo

Leia mais

Exercícios de programação

Exercícios de programação Exercícios de programação Estes exercícios serão propostos durante as aulas sobre o Mathematica. Caso você use outra linguagem para os exercícios e problemas do curso de estatística, resolva estes problemas,

Leia mais

5 Avaliação dos estimadores propostos

5 Avaliação dos estimadores propostos 5 valiação dos estimadores propostos Este capítulo apresenta as medidas estatísticas usuais para avaliar a qualidade de estimadores e as expressões utilizadas para a estimação destas medidas, a partir

Leia mais

Modelos de Regressão Linear Simples - parte I

Modelos de Regressão Linear Simples - parte I Modelos de Regressão Linear Simples - parte I Erica Castilho Rodrigues 19 de Agosto de 2014 Introdução 3 Objetivos Ao final deste capítulo você deve ser capaz de: Usar modelos de regressão para construir

Leia mais

Fernando de Pol Mayer

Fernando de Pol Mayer Fernando de Pol Mayer Laboratório de Estatística e Geoinformação (LEG) Departamento de Estatística (DEST) Universidade Federal do Paraná (UFPR) Este conteúdo está disponível por meio da Licença Creative

Leia mais

Desalinhamento de Variáveis em Dados Espacialmente Referenciados

Desalinhamento de Variáveis em Dados Espacialmente Referenciados Dissertação de mestrado Desalinhamento de Variáveis em Dados Espacialmente Referenciados Autor: Estrela Sumário 1 Introdução 5 2 Revisão de Geoestatística 8 2.1 Dados Espacialmente Referenciados...................

Leia mais

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Geração de Números Aleatórios Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 61 Simulando de Distribuições Discretas Assume-se que um

Leia mais

Metodologia de Box-Jenkins. Metodologia de Box-Jenkins. Metodologia de Box-Jenkins

Metodologia de Box-Jenkins. Metodologia de Box-Jenkins. Metodologia de Box-Jenkins Programa de Pós-graduação em Engenharia de Produção Análise de séries temporais: Modelos de Box-Jenkins Profa. Dra. Liane Werner Metodologia de Box-Jenkins Para os modelos de decomposição e os modelos

Leia mais

Quantis residuais. Luziane Franciscon Acadêmica de Estatística Universidade Federal do Paraná

Quantis residuais. Luziane Franciscon Acadêmica de Estatística Universidade Federal do Paraná Quantis residuais Luziane Franciscon Acadêmica de Estatística Universidade Federal do Paraná Orientador: Fernando Lucambio Departamento de Estatística Universidade Federal do Paraná Resumo Uma etapa importante

Leia mais

Análise de Dados Categóricos

Análise de Dados Categóricos 1/43 Análise de Dados Categóricos Modelo de Regressão de Poisson Enrico A. Colosimo/UFMG http://www.est.ufmg.br/ enricoc/ Departamento de Estatística Universidade Federal de Minas Gerais 2/43 Revisão:

Leia mais

Apontamentos de Introdução às Probabilidades e à Estatística

Apontamentos de Introdução às Probabilidades e à Estatística i Índice 1. Introdução 1 1.1. Enquadramento e objectivos 2 1.2. Organização 5 1.3. Noções base da Estatística 7 1.3.1. Distinção entre população e amostra 8 1.3.2. Amostragem 10 1.3.3. Unidade estatística

Leia mais

Planejamento Amostral Ótimo em Geoestatística sob Efeito de Amostragem Preferencial

Planejamento Amostral Ótimo em Geoestatística sob Efeito de Amostragem Preferencial Planejamento Amostral Ótimo em Geoestatística sob Efeito de Amostragem Preferencial Tese de Doutorado por Gustavo da Silva Ferreira Departamento de Métodos Estatísticos Instituto de Matemática Universidade

Leia mais

2 Modelos em Espaço de Estado Lineares: Formulação Geral

2 Modelos em Espaço de Estado Lineares: Formulação Geral 2 Modelos em Espaço de Estado Lineares: Formulação Geral 2.1 Definição Geral de um Modelo Linear Apresenta-se uma definição de modelos em EE lineares que seja a mais geral e flexível possível, e que segue

Leia mais

CONHECIMENTOS ESPECÍFICOS

CONHECIMENTOS ESPECÍFICOS CONHECIMENTOS ESPECÍFICOS A distribuição dos tempos de permanência dos estudantes nos cursos de graduação de certa universidade é uma distribuição normal com média igual a 6 anos e desvio padrão igual

Leia mais

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33 Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto

Leia mais

CONHECIMENTOS ESPECÍFICOS

CONHECIMENTOS ESPECÍFICOS clientes em atraso (N) 45 0 0 3 meses em atraso (X) 0 3 4 A tabela acima mostra a distribuição de frequências do número de meses em atraso nos pagamentos das prestações dos financiamentos de crédito em

Leia mais

4 Conceitos Básicos de Estatística Bayesiana e Simulação Estocástica

4 Conceitos Básicos de Estatística Bayesiana e Simulação Estocástica 4 Conceitos Básicos de Estatística Bayesiana e Simulação Estocástica 4. Elementos de inferência Bayesiana Gamerman [34] define que tanto o modelo Bayesiano quanto o freqüentista trabalham na presença de

Leia mais

Notas de Aula. Copyright 2007 Pearson Education, Inc Publishing as Pearson Addison-Wesley.

Notas de Aula. Copyright 2007 Pearson Education, Inc Publishing as Pearson Addison-Wesley. Notas de Aula Estatística Elementar 10ª Edição by Mario F. Triola Tradução: Denis Santos Slide 1 Capítulo 5 Distribuições de Probabilidades 5-1 Visão Geral 5-2 Variáveis Aleatórias 5-3 Distribuição de

Leia mais

4 Modelos Lineares Generalizados

4 Modelos Lineares Generalizados 4 Modelos Lineares Generalizados Neste capítulo, serão apresentados arcabouços teóricos dos modelos lineares generalizados (MLGs) e como casos particulares desses modelos são aplicáveis ao problema da

Leia mais

Econometria IV Modelos Lineares de Séries Temporais. Fernando Chague

Econometria IV Modelos Lineares de Séries Temporais. Fernando Chague Econometria IV Modelos Lineares de Séries Temporais Fernando Chague 2016 Estacionariedade Estacionariedade Inferência estatística em séries temporais requer alguma forma de estacionariedade dos dados Intuição:

Leia mais

Introdução ao Planejamento e Análise Estatística de Experimentos 1º Semestre de 2013 Capítulo 3 Introdução à Probabilidade e à Inferência Estatística

Introdução ao Planejamento e Análise Estatística de Experimentos 1º Semestre de 2013 Capítulo 3 Introdução à Probabilidade e à Inferência Estatística Introdução ao Planejamento e Análise Estatística de Experimentos Capítulo 3 Introdução à Probabilidade e à Inferência Estatística Introdução ao Planejamento e Análise Estatística de Experimentos Agora,

Leia mais

A Metodologia de Box & Jenkins

A Metodologia de Box & Jenkins A Metodologia de Box & Jenins Aula 03 Bueno, 0, Capítulo 3 Enders, 009, Capítulo Morettin e Toloi, 006, Capítulos 6 a 8 A Metodologia Box & Jenins Uma abordagem bastante utilizada para a construção de

Leia mais

Introdução à Probabilidade e à Estatística II

Introdução à Probabilidade e à Estatística II Introdução à Probabilidade e à Estatística II Introdução à Inferência Estatística Capítulo 10, Estatística Básica (Bussab&Morettin, 7a Edição) Lígia Henriques-Rodrigues MAE0229 1º semestre 2018 1 / 36

Leia mais

5 Filtro de Kalman Aplicado ao Modelo de Schwartz e Smith (2000)

5 Filtro de Kalman Aplicado ao Modelo de Schwartz e Smith (2000) 5 Filtro de Kalman Aplicado ao Modelo de Schwartz e Smith (2000) A primeira parte deste capítulo, referente à passagem dos modelos estocásticos para as equações do Filtro de Kalman, já foi previamente

Leia mais

Inferência para CS Tópico 10 - Princípios de Estimação Pontual

Inferência para CS Tópico 10 - Princípios de Estimação Pontual Inferência para CS Tópico 10 - Princípios de Estimação Pontual Renato Martins Assunção DCC - UFMG 2013 Renato Martins Assunção (DCC - UFMG) Inferência para CS Tópico 10 - Princípios de Estimação Pontual

Leia mais

Análise de Regressão Linear Simples e

Análise de Regressão Linear Simples e Análise de Regressão Linear Simples e Múltipla Carla Henriques Departamento de Matemática Escola Superior de Tecnologia de Viseu Introdução A análise de regressão estuda o relacionamento entre uma variável

Leia mais

Modelos para Dados Categóricos com Estrutura Temporal

Modelos para Dados Categóricos com Estrutura Temporal Modelos para Dados Categóricos com Estrutura Temporal por Patrícia Lusié Coelho Velozo Universidade Federal do Rio de Janeiro Instituto de Matemática Departamento de Métodos Estatísticos 2009 MODELOS PARA

Leia mais

Estimadores, pontual e intervalar, para dados com censuras intervalar

Estimadores, pontual e intervalar, para dados com censuras intervalar Estimadores, pontual e intervalar, para dados com censuras intervalar Débora Ohara, Estela Maris Pereira Bereta, Teresa Cristina Martins Dias Resumo Dados com censura intervalar ocorrem com frequência

Leia mais

Fundação Oswaldo Cruz Escola Nacional de Saúde Pública Departamento de Epidemiologia. Estatística espacial. Padrão Pontual

Fundação Oswaldo Cruz Escola Nacional de Saúde Pública Departamento de Epidemiologia. Estatística espacial. Padrão Pontual Fundação Oswaldo Cruz Escola Nacional de Saúde Pública Departamento de Epidemiologia Estatística espacial Padrão Pontual Padrão de Pontos A análise de padrão de pontos, é o tipo mais simples de análise

Leia mais

Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017.

Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017. Professora Ana Hermínia Andrade Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Período 2017.1 Distribuições Amostrais O intuito de fazer uma amostragem

Leia mais

INTRODUÇÃO À ESTATÍSTICA ESPACIAL. Prof. Anderson Rodrigo da Silva

INTRODUÇÃO À ESTATÍSTICA ESPACIAL. Prof. Anderson Rodrigo da Silva INTRODUÇÃO À ESTATÍSTICA ESPACIAL Prof. Anderson Rodrigo da Silva anderson.silva@ifgoiano.edu.br Métodos Índices de agregação Métodos de quantificação da dependência especial Correlograma Variograma Métodos

Leia mais

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 12

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 12 em Econometria Departamento de Economia Pontifícia Universidade Católica do Rio de Janeiro Aula 12 Regressão com Variáveis Não-Estacionárias Considere três processos estocásticos definidos pelas seguintes

Leia mais

Cadeias de Markov em Tempo Continuo

Cadeias de Markov em Tempo Continuo Cadeias de Markov em Tempo Continuo Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 6 Taylor & Karlin 1 / 44 Análogo ao processo

Leia mais

MAE Modelos Lineares Generalizados 2 o semestre 2017

MAE Modelos Lineares Generalizados 2 o semestre 2017 MAE5763 - Modelos Lineares Generalizados 2 o semestre 2017 Prof. Gilberto A. Paula 3 a Lista de Exercícios 1. Supor y i ind FE(µ, φ i ) com φ i = α + γz i, para i = 1,..., n. Como ca a matriz modelo Z?

Leia mais

Estatística Descritiva e Exploratória

Estatística Descritiva e Exploratória Gledson Luiz Picharski e Wanderson Rodrigo Rocha 9 de Maio de 2008 Estatística Descritiva e exploratória 1 Váriaveis Aleatórias Discretas 2 Variáveis bidimensionais 3 Váriaveis Aleatórias Continuas Introdução

Leia mais