Planejamento Amostral Ótimo em Geoestatística sob Efeito de Amostragem Preferencial

Tamanho: px
Começar a partir da página:

Download "Planejamento Amostral Ótimo em Geoestatística sob Efeito de Amostragem Preferencial"

Transcrição

1 Planejamento Amostral Ótimo em Geoestatística sob Efeito de Amostragem Preferencial Tese de Doutorado por Gustavo da Silva Ferreira Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro 2013

2 Planejamento Amostral Ótimo em Geoestatística sob Efeito de Amostragem Preferencial Gustavo da Silva Ferreira Tese de Doutorado submetida ao Corpo Docente do Instituto de Matemática - Departamento de Métodos Estatísticos da Universidade Federal do Rio de Janeiro - UFRJ, como parte dos requisitos necessários à obtenção do grau de Doutor em Estatística. Orientador: Dani Gamerman Rio de Janeiro, Outubro de 2013

3 F383g Ferreira, Gustavo da Silva Planejamento amostral ótimo em geoestatística sob efeito de amostragem preferencial / Gustavo da Silva Ferreira. - Rio de Janeiro, f.: il.; 30cm. Orientador: Dani Gamerman Tese (doutorado) - UFRJ/Instituto de Matemática, Programa de Pós-graduação em Estatística, Referências: f Geologia-métodos estatísticos - Tese. 2. Amostragem (Estatística). I. Gamerman, Dani (Orient.). II. Universidade Federal do Rio de Janeiro, Instituto de Matemática, Programa de Pós-graduação em Estatística. III. Título. CDD

4 Planejamento Amostral Ótimo em Geoestatística sob Efeito de Amostragem Preferencial Gustavo da Silva Ferreira Tese de Doutorado submetida ao Corpo Docente do Instituto de Matemática - Departamento de Métodos Estatísticos da Universidade Federal do Rio de Janeiro - UFRJ, como parte dos requisitos necessários à obtenção do grau de Doutor em Estatística. Aprovada por: Prof. Dani Gamerman, Ph.D., UFRJ Prof. Helio S. Migon, Ph.D., UFRJ Prof. Fernando Antonio da Silva Moura, Ph.D., UFRJ Prof. Sergio Wechsler, Ph.D., USP Profa. Edna Afonso Reis, Ph.D., UFMG Rio de Janeiro, Outubro de 2013

5 Agradecimentos Aos professores Dani Gamerman e Helio Migon pelos conselhos e por terem acreditado no meu trabalho do início ao fim. Aos demais professores do DME/UFRJ pelo conhecimento transmitido e também aos professores Sergio Wechsler e Edna Reis pelas sugestões e comentários. Aos meus colegas de pós-graduação, em especial João, Jony, Kelly, Larissa, Valmária e Vera. Aos meus amigos, em especial Aline, Marinho, Cristiane e meus padrinhos Leo e Thais. Aos meus irmãos, Guilherme e Gisele, meus primos, tios, sogros e todos os parentes que torceram muito por mim. Aos meus pais, Glênio e Graziela, pois tudo que conquistei foi fruto do amor e da dedicação de vocês. À minha esposa Carla pelo amor, companheirismo, compreensão e apoio em todos os momentos e ao meu filho Davi que, mesmo sem saber, teve influência na conclusão deste trabalho. À Deus pela direção da minha vida. v

6 Resumo Esta tese analisa o efeito da amostragem preferencial em Geoestatística quando a escolha de um novo local amostral é o principal interesse do pesquisador. Um critério Bayesiano baseado na maximização de funções utilidade é utilizado. Estudos simulados são apresentados e evidenciam a grande influência da amostragem preferencial nas decisões. Dados de precipitação pluviométrica coletados durante a estação da Primavera no Rio de Janeiro são analisados e o planejamento amostral ótimo é obtido sob efeito de amostragem preferencial. A complexidade computacional da metodologia é tratada assumindo-se que o novo local amostral é um parâmetro do modelo e considerando que a decisão ótima é obtida via análise da sua distribuição a posteriori. Por fim, algumas modificações do modelo sob amostragem preferencial são realizadas a fim de se obter maior flexibilidade para situações práticas por meio da inclusão de efeitos de repulsão de pequenas escala. Os resultados mostraram que o planejamento amostral ótimo é substancialmente afetado sob efeito da amostragem preferencial. Adicionalmente, foi possível identificar outros aspectos interessantes relacionados aos efeitos da amostragem preferencial na estimação e predição em Geoestatística. Palavras-chave: planejamento amostral ótimo; Geoestatística; amostragem preferencial; processos pontuais. vi

7 Abstract This thesis analyses the effect of preferential sampling in Geostatistics when the choice of new sampling locations is the main interest of the researcher. A Bayesian criteria based on maximizing utility functions is used. Simulated studies are presented and highlighted the strong influence of preferential sampling in the decisions. Rainfall data collected during Spring in Rio de Janeiro are analysed and the optimal design is obtained under preferential sampling influence. The computacional complexity is faced by treating the new local sampling as a model parameter and the optimal choice is then made by analysing their posterior distribution. Finally, some modifications of the model under preferential sampling are made in order to achieve more flexibility in practical situations through inclusion of small-scale repulsion effects. The results showed that the optimal design is substantially changed under preferential sampling effects. Furthermore, it was possible to identify other interesting aspects related to preferential sampling effects in estimation and prediction in Geostatistics. keywords: optimal design; Geostatistics; preferential sampling; point process. vii

8 Lista de Figuras 5.1 Valores observados (círculos), preditos (linha) e respectivos IC 95% (linha tracejada) para a série de infestação do Aedes aegypti na cidade do Rio de Janeiro Histograma das amostras da distribuição artificial h(d), onde o eixo das abscissas representa o número de dias após a realização do último LIRAa Realização do processo simulado unidimensional S + µ (linha cheia) e valores observados (círculos) Histogramas das distribuições a posteriori dos parâmetros do modelo sob efeito da amostragem preferencial para o processo simulado unidimensional (os círculos representam os valores verdadeiros dos parâmetros) Histogramas das distribuições a posteriori dos parâmetros que configuram o efeito da amostragem preferencial para o processo simulado unidimensional (os círculos representam os valores verdadeiros dos parâmetros) Histogramas das distribuições a posteriori dos parâmetros do modelo sem considerar o efeito da amostragem preferencial para o processo simulado unidimensional (os círculos representam os valores verdadeiros dos parâmetros) viii

9 6.5 Medianas a posteriori e respectivos IC 95% dos variogramas estimados pelo modelo sob amostragem preferencial (esquerda) e sem considerar este efeito (direita) para o processo simulado unidimensional. Os círculos representam o variograma amostral observado e a linha preta representa o verdadeiro variograma Processo simulado (linha cheia), mediana a posteriori da distribuição preditiva (linha vermelha) e respectivos intervalos de 95% de credibilidade (linhas tracejadas) para S obtidos considerando (esquerda) e sem considerar (direita) o efeito da amostragem preferencial no processo simulado unidimensional Processo simulado (linha cheia), médias a posteriori da distribuição preditiva (linha vermelha) e respectivos intervalos de 95% de credibilidade (linhas tracejadas) para S obtidos pelas distribuições preditivas [S y, x, θ] (esquerda) e [S y, θ] (direita) para o processo simulado unidimensional Realização do processo simulado bidimensional I juntamente com as posições das amostras observadas (círculos) Histogramas das distribuições a posteriori dos parâmetros do modelo sob efeito da amostragem preferencial para o processo simulado bidimensional I (os círculos representam os valores verdadeiros dos parâmetros) Histogramas das distribuições a posteriori dos parâmetros que configuram o efeito da amostragem preferencial para o processo simulado bidimensional I (os círculos representam os valores verdadeiros dos parâmetros) Histogramas das distribuições a posteriori dos parâmetros do modelo sem considerar o efeito da amostragem preferencial para o processo simulado bidimensional I (os círculos representam os valores verdadeiros dos parâmetros) Mediana a posteriori e respectivos IC 95% dos variogramas estimados pelo modelo sob amostragem preferencial (esquerda) e sem considerar este efeito (direita) para o processo simulado bidimensional I. Os círculos representam o variograma amostral observado e a linha preta representa o verdadeiro variograma ix

10 6.13 Média a posteriori da distribuição preditiva de S considerando (esquerda) e sem considerar (direita) o efeito da amostragem preferencial para o processo simulado bidimensional I Realização do processo simulado bidimensional II juntamente com as posições das amostras observadas (círculos) Histogramas das distribuições a posteriori dos parâmetros do modelo sob efeito da amostragem preferencial para o processo simulado bidimensional II (os círculos representam os valores verdadeiros dos parâmetros) Histogramas das distribuições a posteriori dos parâmetros que configuram o efeito da amostragem preferencial para o processo simulado bidimensional II (os círculos representam os valores verdadeiros dos parâmetros) Histogramas das distribuições a posteriori dos parâmetros do modelo sem considerar o efeito da amostragem preferencial para o processo simulado bidimensional II (os círculos representam os valores verdadeiros dos parâmetros) Mediana a posteriori e respectivos IC 95% dos variogramas estimados pelo modelo sob amostragem preferencial (esquerda) e sem considerar este efeito (direita) para o processo simulado bidimensional II. Os círculos representam o variograma amostral observado e a linha preta representa o verdadeiro variograma Média a posteriori da distribuição preditiva de S considerando (esquerda) e sem considerar (direita) o efeito da amostragem preferencial para o processo simulado bidimensional II Boxplots dos Erros de Predição Locais (EPL) considerando (esquerda) e sem considerar (direita) os efeitos da amostragem preferencial no estudo simulado unidimensional x

11 6.21 Mapas com os Erros de Predição Locais (EPL) considerando (esquerda) e sem considerar (direita) os efeitos da amostragem preferencial nos estudos simulados bidimensionais I (acima) e II (abaixo) Histograma da pseudo-distribuição a posteriori de d considerando (esquerda) e sem considerar (direita) o efeito da amostragem preferencial no exemplo simulado unidimensional Pseudo-distribuição a posteriori de d considerando o efeito da amostragem preferencial para o exemplo simulado bidimensional I. Os valores da densidade desta pseudo-distribuição encontram-se multiplicados por 100 para melhor visualização Pseudo-distribuição a posteriori de d sem considerar o efeito da amostragem preferencial para o exemplo simulado bidimensional I. Os valores da densidade desta pseudo-distribuição encontram-se multiplicados por 100 para melhor visualização Pseudo-distribuição a posteriori de d considerando o efeito da amostragem preferencial para o exemplo simulado bidimensional II. Os valores da densidade desta pseudo-distribuição encontram-se multiplicados por 100 para melhor visualização Pseudo-distribuição a posteriori de d sem considerar o efeito da amostragem preferencial para o exemplo simulado bidimensional II. Os valores da densidade desta pseudo-distribuições encontra-se multiplicado por 100 para melhor visualização Locais ótimos apontados pelos modelos considerando (esquerda) e sem considerar (direita) os efeitos da amostragem preferencial no estudo simulado bidimensional I Média a posteriori da distribuição preditiva de S obtidos considerando (esquerda) e sem considerar (direita) o efeito da amostragem preferencial para o processo simulado bidimensional I após a obtenção do planejamento amostral ótimo Mapas com os Erros de Predição Locais (EPL) considerando (esquerda) e sem considerar (direita) o efeito da amostragem preferencial no exemplo simulado bidimensional I após a obtenção do planejamento amostral ótimo xi

12 8.1 Precipitação Pluviométrica na cidade do Rio de Janeiro em Out/2005 (as estações estão separadas de acordo com os quantis de 20%, 40%, 60% e 80% e agrupadas pelas cores azul, verde, amarelo, marrom e vermelho, respectivamente) Mediana a posteriori e respectivos IC 95% dos variogramas estimados pelo modelo considerando (esquerda) e sem considerar (direita) efeitos da amostragem preferencial para os dados de precipitação pluviométrica na cidade do Rio de Janeiro (os círculos representam o variograma amostral observado) Média a posteriori da distribuição preditiva de S obtida considerando (acima) e sem considerar (abaixo) o efeito da amostragem preferencial para os dados de precipitação pluviométrica na cidade do Rio de Janeiro Média a posteriori da distribuição preditiva de Y obtida considerando (acima) e sem considerar (abaixo) o efeito da amostragem preferencial para os dados de precipitação pluviométrica na cidade do Rio de Janeiro Pseudo-distribuição a posteriori de d obtida sob amostragem preferencial (acima) e sem considerar este efeito (abaixo) para os dados de precipitação pluviométrica na cidade do Rio de Janeiro Realização do processo simulado bidimensional sob efeito de amostragem preferencial com repulsão juntamente com as posições das amostras observadas (círculos) Histogramas das distribuições a posteriori dos parâmetros que configuram o efeito da amostragem preferencial para o processo simulado com efeito de repulsão (os círculos representam os valores verdadeiros dos parâmetros) Histogramas das distribuições a posteriori dos parâmetros que configuram o efeito da amostragem preferencial para o processo simulado sem efeito de repulsão (os círculos representam os valores verdadeiros dos parâmetros) xii

13 9.4 Mediana a posteriori e respectivos IC 95% dos variogramas estimados pelo modelo sob amostragem preferencial com repulsão (esquerda) e sem repulsão (direita) para o processo simulado. Os círculos representam o variograma amostral observado e a linha preta representa o verdadeiro variograma Média a posteriori da distribuição preditiva de S considerando (esquerda) e sem considerar (direita) o efeito da amostragem preferencial com repulsão para o processo simulado Curvas de nível da distribuição a posteriori conjunta de α e β, exceto por uma constante, condicional a S para a simulação que utiliza a região D discretizada em 16 sub-regiões Curvas de nível da distribuição a posteriori conjunta de α e β (exceto por uma constante) obtida utilizando as prioris A (esquerda) e B (direita) para a simulação que utiliza a região D discretizada em 16 sub-regiões. O ponto no mapa (em preto) representa o valor verdadeiro do par de parâmetros xiii

14 Lista de Tabelas 6.1 Erro de Predição Global (EPG) para cada uma das simulações realizadas Erro de Predição Global (EPG) no exemplo simulado bidimensional I após a obtenção do planejamento amostral ótimo apontado por cada um dos modelos considerados Média a posteriori e IC 95% (entre parêntesis) para os parâmetros de ambos os modelos xiv

15 Sumário 1 Introdução Motivação da tese Contribuição da tese na literatura Potenciais de aplicação Organização da tese Inferência Bayesiana Teorema de Bayes Estimação de parâmetros Distribuição preditiva Inferência via simulação estocástica Inferência via MCMC Amostrador de Gibbs Metropolis-Hastings Geoestatística 14 xv

16 3.1 Modelo Geoestatístico Processos Gaussianos estacionários e isotrópicos Inferência em processos Gaussianos Processos Pontuais Processos pontuais espaciais Processo de Cox e de Cox log-gaussiano Inferência em processos pontuais Efeitos da discretização na inferência Planejamento Amostral Ótimo Planejamento amostral ótimo em Geoestatística Exemplo: Planejamento amostral ótimo no estudo da série temporal de infestação pelo mosquito Aedes aegypti Geoestatística sob Efeito de Amostragem Preferencial Estudo de simulação unidimensional Estudo de simulação bidimensional I Estudo de simulação bidimensional II Considerações a respeito das simulações Planejamento Amostral Ótimo sob Efeito de Amostragem Preferencial Estudo de simulação unidimensional xvi

17 7.2 Estudo de simulação bidimensional I Estudo de simulação bidimensional II Considerações a respeito das simulações Análise da efetividade do planejamento amostral ótimo Aplicação à Dados de Precipitação Pluviométrica no Rio de Janeiro Predição espacial Planejamento amostral ótimo Amostragem Preferencial com Repulsão em Geoestatística Estudo de simulação Considerações sobre os resultados Conclusões 96 Referências Bibliográficas 100 xvii

18 Capítulo 1 Introdução 1.1 Motivação da tese O projeto de tese ora apresentado foi motivado pelo interesse especial que os efeitos da amostragem preferencial proporcionam às etapas de uma análise Geoestatística. Neste sentido, o trabalho de Diggle et al. (2010) trouxe uma perspectiva inédita dos efeitos da amostragem preferencial nos métodos tradicionais de inferência em Geoestatística. Em Geoestatística o pesquisador está interessado em estudar as características de um processo estocástico {S(x) : x D}, onde D representa uma região qualquer no espaço k-dimensional. Ao contrário do que usualmente se supõe na abordagem tradicional de Geoestatística, sob efeito de amostragem preferencial considera-se que os pontos amostrais x são dependentes do processo estocástico subjacente de interesse S(x). Mais especificamente, considera-se que, condicional a S, X é um processo de Cox log-gaussiano, com intensidade λ(x) = exp{α + βs(x)}. À luz deste trabalho, muitas outras perguntas puderam ser levantadas e uma delas diz respeito à influência da amostragem preferencial no processo de escolha ótima de novos locais 1

19 para amostragem. Este processo, também conhecido como design ótimo, é bastante difundido na literatura de Estatística. Sua aplicação no contexto de Geoestatística possui inúmeros artigos recentes, como os trabalhos de Zidek et al. (2000), Fernandez et al. (2005), Zhu e Stein (2005), Diggle e Lophaven (2006), Gumprecht et al. (2007), Müller e Stehlík (2008), Boukouvalas et al. (2009), entre outros. Os avanços produzidos por Müller (1999), Müller et al. (2004) e Müller et al. (2007), os quais baseiam o planejamento amostral ótimo na maximização de funções utilidades, são de especial interesse na pesquisa desenvolvida nesta tese. Por incorporar de forma natural a abordagem Bayesiana e a utilização de métodos de simulação intensivos, a metodologia proposta nestes trabalhos torna-se bastante vantajosa no contexto da Geoestatística. Utilizando-se a informação fornecida pela configuração espacial da amostra, pretende-se mostrar nesta tese que a decisão associada ao planejamento amostral ótimo é significativamente alterada quando estamos sob influência de amostragem preferencial. 1.2 Contribuição da tese na literatura Diggle et al. (2010) apresentaram uma metodologia para realizar a inferência no modelo Geoestatístico tradicional sob a hipótese de influência da amostragem preferencial. Neste artigo os autores consideraram que o processo de amostragem dos locais observados era governado por um processo de Cox log-gaussiano (Moller et al., 1998) e utilizaram métodos de simulação para produzir estimativas de máxima verossimilhança para os parâmetros do modelo. Adicionalmente, realizaram simulações para avaliar a influência da amostragem preferencial no processo de inferência para os parâmetros do modelo. Em todos os casos, as predições espaciais foram realizadas pelo método plug-in utilizando-se os métodos de krigagem tradicionais de Geoestatística, como àqueles descritos nos trabalhos clássicos de Cressie (1993) e Diggle et al. (1998). Pati et al. (2011) estendeu a metodologia proposta por Diggle et al. (2010) para o 2

20 enfoque Bayesiano e, paralelamente ao desenvolvimento desta tese, Gelfand et al. (2012) apresentaram um artigo avaliando aspectos da amostragem preferencial na predição espacial, sugerindo em suas conclusões que este impacto é mais significativo na predição do que na estimação de parâmetros. Nesta tese, detalha-se uma metodologia para realização da inferência em Geoestatística sob amostragem preferencial utilizando o método Markov Chain Monte Carlo (MCMC) e avalia-se, por meio de simulações, o impacto deste efeito na estimação de parâmetros, na predição espacial e na escolha do planejamento amostral ótimo. Em relação à estimação, as simulações permitiram avaliar a forma como os parâmetros do modelo Geoestatístico são impactados pelos efeitos da amostragem preferencial. Por outro lado, na avaliação do impacto deste efeito sobre a predição espacial, são evidenciadas as vantagens da utilização do arranjo amostral observado para realização das predições. Assim como nos resultados de Gelfand et al. (2012), as simulações realizadas nesta tese também sugerem um impacto maior da amostragem preferencial na predição. A avaliação do impacto da amostragem preferencial na estimação e predição de um processo Gaussiano subjacente são essenciais para a análise de sua influência na escolha de novos locais para amostragem, isto é, no planejamento amostral ótimo. Assim, a maior contribuição desta tese diz repeito à análise da influência da amostragem preferencial no processo de obtenção do planejamento amostral ótimo em modelos Geoestatísticos. Em situações onde a decisão do pesquisador baseia-se na maximização de funções utilidades (Muller, 1999), avalia-se a influência da amostragem preferencial no planejamento amostral ótimo. Em especial, serão avaliadas situações onde deseja-se obter uma redução da variância preditiva do processo Gaussiano subjacente ou nos casos em que existe o interesse no monitoramento de eventos extremos. Por fim, na tentativa de avaliar-se melhorias no modelo e torná-lo mais aplicável a determinadas situações práticas, serão também avaliados nesta tese alguns dos impactos da amostragem preferencial quando também considera-se a existência de um efeito de repulsão espacial de pequena escala. Neste caso, supõe-se adicionalmente que a observação de uma 3

21 amostra em um local x produz um efeito repulsivo que diminui a probabilidade de que outras amostras sejam observadas na sua vizinhança. 1.3 Potenciais de aplicação Os potenciais de aplicação englobam o estudo de fenômenos de difícil detecção primária e aqueles que, por interesse do pesquisador ou por escassez de recursos, só podem ser observados em locais considerados críticos. Dentre os fenômenos de difícil detecção pode-se destacar o monitoramento de infestação de mosquitos ou outras pragas que só tornam-se detectáveis nos locais em que sua ocorrência é muito elevada. O outro potencial de aplicação reside no monitoramento de fenômenos considerados críticos sob o ponto de vista do planejamento ou execução de atividades influenciadas por estes. Como exemplo, podemos citar o monitoramento da temperatura e precipitação nos locais próximos aos aeroportos ou ainda em locais onde objetiva-se estudar ocorrências extremas destes fenômenos. Em ambas as situações citadas, parece razoável inferir que a forma como o fenômeno é monitorado ou observado está intimamente relacionada com a intensidade do processo subjacente. A partir desta hipótese, o problema da escolha ótima de um novo local amostral para simples observação ou monitoramento sofre alterações significativas, uma vez que as regiões pouco amostradas tornam-se informativas para o pesquisador e produzem alterações na utilidade esperada de cada escolha possível. 1.4 Organização da tese No Capítulo 2 são apresentados os conceitos básicos de inferência Bayesiana e os aspectos computacionais gerais utilizados nesta tese. Os Capítulos 3 e 4 apresentam um pequeno resumo das grandes áreas da Estatística Espacial que serão abordados posteriormente, a sa- 4

22 ber, Geoestatística e Processos Pontuais. O Capítulo 5 trata da metodologia de obtenção do planejamento amostral ótimo baseada em maximização de funções utilidades. O Capítulo 6 apresenta os aspectos da Geoestatística sob Amostragem Preferencial e o Capítulo 7 combina esta metodologia com a obtenção do planejamento amostral ótimo. O Capítulo 8 apresenta uma aplicação no contexto de redes de monitoramento de precipitação pluviométrica e, por fim, o Capítulo 9 trata de uma extensão do modelo Geoestatístico sob amostragem preferencial incluindo efeitos de repulsão de pequena escala. 5

23 Capítulo 2 Inferência Bayesiana As conclusões obtidas através da inferência Bayesiana a respeito de um determinado parâmetro θ, ou de uma variável não observada y, são baseadas em especificacões probabilísticas. Tais especificações são feitas condicionalmente a uma amostra de valores observados, relacionados de alguma forma com as quantidades de interesse. 2.1 Teorema de Bayes Todo o processo de inferência Bayesiana é baseado na atualização da informação através do Teorema de Bayes. A descrição apresentada a seguir define o Teorema de Bayes no contexto da inferência Bayesiana (Migon e Gamerman, 1999): Seja H a informação disponível inicialmente para alguma quantidade de interesse. Seja θ o vetor de parâmetros desconhecidos que assume valores em Θ. Supondo que a informação inicial pode ser expressa em termos probabilísticos p(θ H), temos uma descrição completa da incerteza a respeito de θ condicionalmente à informação inicial H. Para atualizar a informação a respeito de θ, podemos observar uma amostra x de um 6

24 vetor aleatório X relacionado com θ. Assim, a informação disponível para a inferência passará a ser H = H {X = x}. Precisamos ainda conhecer a distribuição amostral de X para realizar a atualização. Esta distribuição, leva à função de verossimilhança p(x θ, H), que associa para cada valor de θ, a probabilidade de x ser observado. A partir da especificação dos elementos da inferência, temos: p(θ H ) = p(θ x, H) = p(θ, x H) p(x H) = p(x θ, H)p(θ H) p(x H) (2.1) onde p(θ H) e p(θ H ) representam as distribuições a priori e posteriori, respectivamente, e p(x H) = p(θ, x H)dθ. Como p(x H) não depende de θ e como H é comum a todos os termos, podemos reescrever o teorema da seguinte forma: p(θ x) p(x θ)p(θ). (2.2) O resultado apresentado em (2.2) é conhecido como Teorema de Bayes e se constitui como a base de todos os procedimentos da inferência Bayesiana. 2.2 Estimação de parâmetros O processo de estimação de parâmetros pode ser realizado a partir de uma estimação por ponto ou por intervalo. (i) Estimação Pontual 7

25 No contexto da inferência Bayesiana, a estimação pontual de um determinado parâmetro θ pode ser vista como um problema de decisão. Os elementos que compõem este problema de decisão são (Migon e Gamerman, 1999): espaço de parâmetros Θ; espaço de resultados do experimento Ω; espaço de ações possíveis A. Uma regra de decisão δ é uma função definida em Ω que assume valores em A, tal que δ : Ω A. Associamos então uma função perda L a cada regra de decisão δ(x), x Ω, e a cada possível valor de θ Θ. Assim, temos uma medida de quanto perdemos quando tomamos a decisão δ(x) e o valor verdadeiro do parâmetro é θ. O risco associado a uma determinada regra de decisão δ(x) é obtido tomando-se a esperança da função perda L(δ, θ) com relação a distribuição a posteriori de θ, ou seja, R(δ) = E θ x (L(δ, θ)). Um estimador pontual de θ é dado pela regra de decisão que minimiza o risco esperado segundo uma função perda especificada. Os estimadores pontuais associados às perdas quadráticas, perdas absolutas e perdas zero-um são a média, a mediana e a moda da distribuição a posteriori de θ, respectivamente. (i) Estimação por Intervalo Sob o ponto de vista Bayesiano, a forma mais adequada de avaliar a informação disponível a respeito de uma quantidade desconhecida θ é através da distribuição a posteriori (Migon e Gamerman, 1999). Assim, sumarizar a informação desta distribuição em um único valor não fornece ao pesquisador uma medida de quão preciso ele é. Uma alternativa para este problema é calcular intervalos de credibilidade para estes valores. Um intervalo de credibilidade Bayesiano é defindo da seguinte maneira: 8

26 Seja θ uma quantidade desconhecida em Θ. Uma região C Θ é um Intervalo de Credibilidade Bayesiano 100(1 α)% para θ se p(θ C x) 1 α. Desta forma, o Intervalo de Credibilidade Bayesiano, com nível de credibilidade (1 α), é denotado por IC 100(1 α)%. 2.3 Distribuição preditiva O processo de predição sob a perspectiva Bayesiana é tratado naturalmente através da análise da distribuição preditiva. A distribuição preditiva para um determinado valor y, baseada num conjunto de dados y, é dada por: p(y y) = p(y, θ y)dθ = p(y θ, y)p(θ y)dθ = p(y θ)p(θ y)dθ (2.3) onde a última igualdade segue da independência entre y e y dado θ. Analisando a forma de obtenção da distribuição preditiva, podemos ver que ela representa a verossimilhança esperada com relação a distribuição a posteriori de θ, ou seja, p(y y) = E θ y [p(y θ)]. 2.4 Inferência via simulação estocástica No contexto da inferência estatística, a simulação estocástica tem o objetivo de estimar características probabilísticas de modelos ou distribuições de interesse que não podem ser obtidas analiticamente. Na inferência Bayesiana, os métodos de simulação estão relacionados ao processo de obtenção de amostras de distribuições a posteriori. Nos casos em que lidamos com problemas 9

27 altamente complexos, em virtude do grande número de parâmetros envolvidos, geralmente temos de recorrer aos métodos de Monte Carlo via Cadeias de Markov para concluírmos o processo inferêncial. 2.5 Inferência via MCMC Os métodos computacionais baseados nos métodos de Monte Carlo via Cadeias de Markov (MCMC) têm sido amplamente utilizados na inferência Bayesiana quando o pesquisador está interessado em simular amostras de uma determinada distribuição a posteriori, cuja função densidade de probabilidade não possui forma conhecida ou é demasiadamente complicada. Em linhas gerais, a idéia básica do método é construir uma cadeia de Markov cuja distribuição de equilíbrio é igual à distribuição de interesse. Após um número finito de simulações desta cadeia, esperamos atingir a distribuição de equilíbrio e, a partir deste ponto, dar origem a uma amostra da distribuição de interesse. Considere que θ 1,..., θ p possuem densidade conjunta p(θ) = p(θ 1,..., θ p ) e que q(θ, θ ) define a distribuição condicional das transições do estado θ. Assim, é possível construir uma cadeia com probabilidades de transição invariantes no tempo, onde cada estado pode ser obtido de um outro estado com um número finito de iterações. Assim, independemente do estágio inicial, uma tragetória pode ser gerada e, consequentemente, pode-se alcançar a distribuição de equilíbrio p(θ). Dentre os métodos mais utilizados para a contrução da cadeia de Markov, temos o Amostrador de Gibbs, proposto por Geman e Geman (1984) e popularizado por Gelfand e Smith (1990), e o método de Metropolis-Hastings, proposto por Metropolis et al. (1953) e Hastings (1970). Gamerman e Lopes (2006) apresentam uma descrição detalhada dos métodos de simulação baseados nos métodos de Monte Carlo via Cadeias de Markov. 10

28 2.5.1 Amostrador de Gibbs O Amostrador de Gibbs é um esquema iterativo de amostragem de uma cadeia de Markov, cujas probabilidades de transição dos estados são realizadas a partir das distribuições condicionais completas. Considere p i (θ i θ i ) como a função densidade condicional de θ i, dados os valores de todos os outros θ j s (j i), e assuma que é possível amostrar valores destas distribuições para cada i = 1,..., p. A partir disto, especificamos valores iniciais θ 0 = (θ1, 0..., θp) 0 para todas as quantidades desconhecidas do modelo. Assim, na j-ésima iteração a cadeia se encontra no estado θ (j) e a posição da cadeia na iteração seguinte (j + 1) é obtida a partir dos seguintes passos: gerar θ (j+1) 1 de p 1 (θ 1 θ (j) 2,..., θ (j) p ); gerar θ (j+1) 2 de p 2 (θ 2 θ (j+1) 1, θ (j) 3,..., θ (j) p ); repetir sucessivamente os passos anteriores para i = 3,..., p, onde no último passo geramos θ (j+1) p de p p (θ p θ (j+1) 1, θ (j+1) 2,..., θ (j+1) p 1 ) obtendo-se então o vetor θ (j+1) = (θ (j+1) 1,..., θ (j+1) p ). Sob certas condições de regularidade, a distribuição limite de θ (j) é p(θ) Metropolis-Hastings Outro método bastante utilizado para a construção da cadeia é o algoritmo de Metropolis- Hastings, que é baseado na utilização de distribuições auxiliares. Considere q(θ, ) como um núcleo arbitrário de transição e assuma que na iteração (j) a cadeia se encontra no estado θ (j). Assim, a posição da cadeia na iteração (j + 1) será denotada por θ (j+1) e é obtida a partir dos seguintes passos: 11

29 proponha um movimento da cadeia para o estado θ a partir de q(θ (j), ); aceitar o movimento proposto com probabilidade { α(θ (j), θ ( ) ) = min 1, p(θ )/q(θ (j), θ ) p(θ (j) )/q(θ, θ (j) ) e fazer θ (j+1) = θ ou rejeitar o movimento com probabilidade 1 α(θ (j), θ ( ) ) e fazer θ (j+1) = θ (j) caso contrário. } Apesar do movimento da cadeia se fazer em blocos para todos os parâmetros do modelo, na prática é muito difícil encontrar funções q(θ, ) apropriadas quando trabalha-se com modelos de alta dimensionalidade. Uma variação do algoritmo resolve este problema movendo uma componente do vetor de parâmetros θ por vez. Assim, forma-se uma transição completa após o ciclo de p transições a partir de funções q(θ i, ), para i = 1,..., p. Alguns autores indicam como razoáveis taxas de aceitação entre 20% e 50% das propostas durante o MCMC (Gamerman e Lopes, 2006) e, em determinados cenários multidimensionais, Roberts et al. (1997) sugerem uma taxa ótima de 23.4%. Após decidido o método a ser utilizado e obtida uma simulação da cadeia, devemos nos certificar se a convergência foi obtida. Somente após esta confirmação poderemos formar a amostra da distribuição a posteriori das quantidades desconhecidas do modelo. Existem várias formas de se realizar uma análise da convergência da cadeia. Uma das formas é baseada em uma inspeção gráfica, onde analisa-se a trajetória de uma ou mais cadeias em períodos distintos de tempo. Neste estudo será utilizado um critério semelhante a este, onde o comportamento de duas cadeias com valores iniciais distintos será observado e concluir-se-á que a convergência foi alcançada quando ambas as cadeias permanecerem em torno de um mesmo ponto. Critérios mais formais também podem ser utilizados, como os métodos propostos por Gelman e Rubin (1992) e Geweke (1992). Após a obtenção da amostra, deve-se analisar a autocorrelação existente entre θ (j) e θ (j+1). Como estamos lidando com uma amostra de uma cadeia de Markov, temos uma amostra aleatória, mas não independente. Isto não afeta as estimativas dos parâmetros, 12

30 mas tem influência sobre as variâncias das estimativas resultantes desse procedimento de amostragem (Gamerman e Lopes, 1997). Portanto, nos casos em que, após verificada a convergência, for constatada uma forte correlação serial na cadeia, recomenda-se a retirada de uma amostra sistemática de seus valores para compor uma nova amostra. A forma como a amostragem sistemática será realizada pode ser baseada em um gráfico contendo a função de autocorrelação da cadeia. Após a verificação destes itens, a inferência tem prosseguimento a partir do método de Monte Carlo. A idéia básica deste método consiste em estimar o valor de uma integral a partir da obtenção de seu valor esperado com relação a alguma distribuição de probabilidade. Para se obter, por exemplo, uma estimativa para o valor esperado a posteriori de um parâmetro θ do modelo, basta tomar a média das j-ésimas componentes dos valores amostrados, ou seja, j ˆθ = θ j n. 13

31 Capítulo 3 Geoestatística Um processo estocástico definido sobre uma região D do espaço é chamado de processo espacial. O campo da estatística que lida com a inferência e a predição de fenômenos modelados via processos espaciais é conhecido como Estatística Espacial. Segundo Cressie (1993), a Estatística Espacial pode ser subdividida em três grandes áreas, a saber: Padrões de Pontos, Dados de Área e Geoestatística. Na análise de Padrões de Pontos lidamos com fenômenos que podem ser modelados segundo Processos Pontuais. Neste caso, o interesse do pesquisador reside na análise da intensidade de ocorrência de determinados eventos e na avaliação da existência de padrôes de agregação ou repulsão espacial. A análise da ocorrência de crimes em grandes cidades e o monitoramento do local de ocorrência de eventos raros são exemplos de fenômenos modelados via Processos Pontuais. No caso da análise de Dados de Área lidamos com fenômenos que, apesar de poderem se distribuir de forma contínua no espaço, são observados em sub-regiões que compõem uma partição da região de interesse. Neste caso, o pesquisador dispõe de medições individuais associadas à cada sub-região e possui o interesse em detectar padrões subjacentes ou quantificar o grau de correlação espacial na região. Dados econômicos agregados por bairros, municípios e Estados são exemplos de processos analisados via Dados de Área. 14

32 Por fim, a Geoestatística lida com processos estocásticos definidos em regiões do R d, onde d usualmente é o plano euclidiano bidimensional. Os Processos Gaussianos são os modelos mais utilizados em Geoestatística em virtude das facilidades provenientes das propriedades da distribuição Normal multivarida. Fenômenos climatológicos, como temperatura, umidade e precipitação são alguns dos exemplos onde aplicam-se modelos Geoestatísticos. O próximo Capítulo apresenta mais detalhes a respeito dos Processos Gaussianos e de sua utilização na Geoestatística. 3.1 Modelo Geoestatístico Seguindo a abordagem de Diggle et al. (1998), podemos supor que estamos interessados em estudar as características de um processo estocástico {S(x) : x D}, onde D representa uma região qualquer no espaço k-dimensional. Adicionalmente podemos supor que o S(x) possui variância constante σ 2 e função de autocorrelação ρ(s(x), S(x + h); φ), x D, a qual pode depender de um (φ) ou mais parâmetros. 3.2 Processos Gaussianos estacionários e isotrópicos O processo S é dito Gaussiano se todas as distribuições finito-dimensionais (S(x 1 ),..., S(x n )), n = 1, 2,..., são também Gaussianas. Diz-se que um processo estocástico é estritamente (ou fortemente) estacionário se as suas respectivas distribuições finito-dimensionais são invariantes à translação. Outro tipo de estacionariedade, conhecida como estacionariedade de segunda ordem (ou estacionariedade fraca), pressupõe apenas que E[S(x)] = µ, x D 15

33 e ρ(s(x), S(x + h); φ) = ρ( h ; φ), onde x, x + h D. No caso de um processo Gaussiano a estacionariedade de segunda ordem garante a estacionariedade estrita. Caso a função de autocorrelação não dependa da direção, isto é, for invariante à rotações, dizemos adicionalmente que o processo é isotrópico. Assim, um processo Gaussiano estacionário e isotrópico possui variância constante σ 2 e função de autocorrelação ρ(s(x), S(x + h); φ) = ρ( h ; φ), onde h representa a distância entre quaisquer dois pontos x e x + h. Inúmeras famílias de funções de autocorrelação podem ser encontradas na literatura, como em Cressie (1993) e Diggle e Ribeiro (2007). Sem perda de generalidade no que tange aos objetivos definidos no Capítulo 1, todos os desenvolvimentos e aplicações desta tese utitilizarão a função de autocorrelação exponencial, definida por: ( ) h ρ( h ; φ) = exp, φ onde φ > 0 é o parâmetro que representa o alcance da correlação espacial. Existem extensões deste modelo básico de Geoestatística, grande parte delas desenvolvidas para lidar com falta de estacionariedade ou para permitir o relaxamento da hipótese de Normalidade do processo estocástico subjacente. Dentre as abordagens para lidar com processos não-estacionários destacam-se: Hass (1995), que utiliza o conceito de janelas móveis estacionárias; Higdon et al. (1999), baseada na convolução de processos estacionários e idênticos; Fuentes e Smith (2001) e Fuentes (2002), baseadas na convolução de diferentes processos estacionários; e Sampson e Guttorp (1992) e Schmidt e O Hagan (2003), que utilizam a deformação do espaço para tornar o processo estacionário. Por outro lado, para lidar com a não-normalidade pode-se destacar o trabalho de Diggle et al. (1998), que introduziu 16

34 os modelos lineares generalizados para processos espaciais. Nesta tese nos restringiremos aos processos Gaussianos estacionários subjacentes. 3.3 Inferência em processos Gaussianos Assumindo que dispomos de observações Y i, i = 1,..., n, onde Y i = µ + S(x i ) + Z i E[Z i ] = 0, V ar[z i ] = τ 2, i, podemos interpretar Y = (Y 1,..., Y n ) como uma versão do processo S observada com ruído. Vamos supor que o vetor Z é Normalmente distribuído e independente do processo S. Sob o enfoque Bayesiano, precisamos obter as distribuições a posteriori para fazer inferência acerca dos parâmetros do modelo. Supondo que θ represente o conjunto de parâmetros desconhecidos do modelo, complementamos a verossimilhança p(y θ) com uma distribuição a priori p(θ) a fim de obtermos a posteriori p(θ y). A obtenção da distribuição a posteriori de [θ y] é obtida primeiramente verificando-se que θ = (φ, σ 2, τ 2, µ) e que p(θ y) p(y σ 2, τ 2, µ)p(φ)p(σ 2 )p(τ 2 )p(µ) onde [y σ 2, τ 2, µ] N(1µ, τ 2 I n +σ 2 R n ) e assumindo a independência a priori entre φ, σ 2, τ 2 e µ. A matriz de autocorrelações do processo S entre locais observados (S(x 1 ), S(x 2 ),..., S(x n )) é representada pela matriz R n. Para os parâmetros φ, σ 2 e τ 2 é usual atribuir-se distribuições a priori Gama e para µ uma distribuição Normal, todas pouco informativas. 17

35 Como as distribuições a posteriori destes parâmetros não possuem forma fechada, podemos aproximá-las utilizando o método MCMC. Quando existe o interesse adicional em obter-se predições do processo S em localizações não observadas da região de estudo D, os aspectos computacionais que envolvem o procedimento de inferência costumam ser implementados a partir da definição de uma grade de M pontos para predição na região em estudo D. Estes M pontos, por sua vez, podem então ser considerados como centróides de M sub-regiões ou células, as quais definem uma discretização de D. Assim, podemos redefinir o processo Gaussiano subjacente nos centróides destas subregiões, isto é, em S = {S 1,..., S M }. Adicionalmente, definimos a partição S = {S y, S N } para distinguir o processo subjacente associado aos locais observados e àquele associado aos locais não-observados. Esta discretização torna a distribuição de S uma Normal multivariada de dimensão M = n + N, com vetor de médias 0 e matriz de autocorrelação R M = R n R n,n R N,n R N, onde os elementos desta matriz são definidos pela função de autocorrelação ρ( ; φ) escolhida. O modelo completo é apresentado abaixo: [y S y, µ, τ 2 ] N(1µ + S y, τ 2 I n ) [S σ 2, φ] N(0, σ 2 R M ) µ N(0, k) τ 2 Gama(a τ, b τ ) σ 2 Gama(a σ, b σ ) φ Gama(a φ, b φ ), onde k, a τ, b τ, a σ, b σ, a φ e b φ representam hiperparâmetros considerados como conhecidos a priori. 18

36 As distribuições condicionais completas dos parâmetros µ, τ 2 e σ 2 são dadas por [µ τ 2, σ 2, S, φ, y] N ( ) n(ȳ Sy )k τ 2 + nk ; τ 2 k, τ 2 + nk ( [τ 2 µ, σ 2, S, φ, y] Gama a τ + n 2 ; b τ + (y 1µ S ) y) (y 1µ S y ) 2 e [σ 2 µ, τ 2, S, φ, y] Gama (a σ + M2 ; b σ + S R 1 M S 2 podendo ser atualizadas pelo método do Amostrador de Gibbs dentro do algoritmo do MCMC. Por outro lado, a distribuição condicional completa de S é Normal com vetor de médias e matriz de covariâncias dados por ), σ 2 R N,n (τ 2 I n + σ 2 R n ) 1 (y 1µ) (3.1) e σ 2 R N σ 2 R N,n (τ 2 I n + σ 2 R n ) 1 σ 2 R n,n, (3.2) respectivamente, podendo também ser atualizada pelo método do Amostrador de Gibbs dentro do algoritmo do MCMC. As expressões 3.1 e 3.2 são conhecidas como Preditor de Krigagem e Variância de Krigagem, respectivamente. O parâmetro de alcance φ da função de autocorrelação do processo possui distribuição condicional completa dada por 19

37 p(φ S, µ, τ 2, σ 2, α, β, y) R M 1/2 φ aφ 1 exp { S R 1 M S 2σ 2 } b φ φ e podemos gerar propostas no passo de Metropolis a partir de uma distribuição Lognormal com parâmetros q(φ prop φ) Lognormal (ln(φ) δ/2; δ), onde δ deve ser escolhido de forma a produzir uma taxa de aceitação razoável das propostas durante o MCMC. Neste caso, as probabilidades de aceitação das propostas no MCMC são dadas por ( ) 1/2 ( ) p φ = RM prop φ prop aφ R M φ } exp { (S R prop 1 M S S R 1 M S) + b 2σ 2 φ (φ φ prop ) (lnφ lnφprop +δ/2) 2 (lnφ prop lnφ+δ/2) 2. 2δ Alternativamente ao uso do MCMC, Ribeiro e Diggle (2001) desenvolveram um pacote para o ambiente do software R, chamado GeoR, que realiza o processo de inferência e predição a partir de versões discretizadas das distribuições a priori dos parâmetros do modelo Geoestatístico. 20

38 Capítulo 4 Processos Pontuais Neste Capítulo são apresentados os aspectos relevantes associados aos Processos Pontuais no espaço, assim como alguns dos avanços recentes na metodologia para realização da inferência. Em especial, será apresentado o processo de Cox log-gaussiano (Møller et al., 1998), o qual será a base para a construção do modelo Geoestatístico sob efeito de amostragem preferencial a ser apresentado no Capítulo Processos pontuais espaciais A utilização de processos pontuais para modelagem de padrões de pontos no espaço têm se intensificado nas últimas décadas, especialmente após a publicação dos textos clássicos de Ripley (1981) e Diggle (1983). A partir dos avanços computacionais recentes, os quais acabaram impulsionando o desenvolvimento de métodos estatísticos mais sofisticados como os métodos MCMC, o estudo dos processos pontuais evoluiu significativamente. Møller e Waagepetersen (2007) apresentam uma revisão completa dos modelos mais utilizados para a modelagem de processos pontuais espaciais e destacam inúmeras aplicações e aspectos computacionais associados à inferência. Um processo pontual espacial X pode ser entendido como um subcojunto aleatório finito 21

39 de uma determinada região limitada D R k, onde geralmente k = 1, 2 ou 3. Uma realização deste processo é chamada de padrão de pontos ou arranjo pontual, denotado x = (x 1,..., x n ). Na maior parte das aplicações a região D não é totalmente observável e o pesquisador acaba sendo obrigado a analisar apenas uma janela W D onde o arranjo pontual foi observado. Nas situações em que a região D pode ser considerada homogênea, costumase supor que o processo pontual espacial é estacionário e isotrópico, ou seja, que possui distribuição invariante a translações e rotações em R k. Entretanto, estas suposições não se mostram realistas para inúmeras situações práticas. Os conceitos de média e covariância dos processos pontuais espaciais são definidos em função dos efeitos de primeira e segunda ordem. Em particular, os efeitos de primeira ordem são analisados em termos da função intensidade de primeira ordem λ(x), ou seja, em termos do número de eventos esperado por unidade de área no ponto x. Assim, λ(x) = lim dx 0 { E[Y (dx)] onde dx representa uma pequena região em torno de x, dx representa a área ou volume desta região e Y (B) é a variável aleatória associada ao número de pontos observados em B D. Por outro lado, os efeitos de segunda ordem são utilizados como medida de dependência espacial e são definidos pela função intensidade de segunda ordem dada por dx }, λ 2 (x i, x j ) = lim dx i,dx j 0 { E[Y (dxi )Y (dx j )] dx i dx j onde x i e x j representam duas localizações em D. Para um processo pontual espacial, a estacionariedade de segunda ordem e a isotropia ocorrem quando λ 2 (x i, x j ) = λ 2 ( x i x j ). Além de analisar a intensidade de ocorrência dos eventos na região D, a modelagem dos padrões pontuais espaciais também procura classificá-los em algum dos padrões a seguir: }, 22

40 Padrão Aleatório: também conhecido como aleatoriedade espacial completa, está associado ao processo de Poisson homogêneo sobre toda a região em estudo D; Padrão de Agregação (ou clustered): neste caso, a ocorrência de um evento em determinado local x está associada à ocorrência de outros eventos em locais próximos; e Padrão Regular ou de Repulsão: neste caso, a ocorrência de um evento em um local x repele a ocorrência de eventos próximos, ocasionando um padrão regular do arranjo pontual. No contexto de processos espaciais com funções intensidade determinísticas, o processo de Poisson é um dos modelos mais conhecidos. Um processo de Poisson X, definido em D R k, com função intensidade λ(x), satisfaz: A variável aleatória Y (B), a qual representa o número de eventos em B D, possui distribuição Poisson com média µ(b) = λ(x)dx; B Condicional a Y (B), os pontos que ocorrem em B são independentes e identicamente distribuídos com densidade proporcional a λ(x), x B. A função de verossimilhança associada ao processo de Poisson, baseada em um conjunto de n pontos x = {x 1,..., x n }, é dada por ( ) n p(x λ) exp λ(x)dx λ(x i ). D i=1 Se λ(x) = λ, x D, dizemos que o processo de Poisson é homogêneo e sua função de verossimilhança deixa de depender das localizações dos eventos, resumindo-se a p(x λ) = p(n λ) exp{ D λ}( D λ) n, onde D é a área da região D. 23

41 O processo de Poisson pressupõe a não-existência de interações entre os pontos e, para regiões disjuntas B 1, B 2 D, as contagens são independentes. Todos os padrões de arranjos pontuais podem acontecer devido a diferentes intensidades ou por efeitos de associação entre os eventos. A seguir são apresentados dois importantes processos pontuais espaciais caracterizados por funções intensidades aleatórias, a saber: o processo de Cox e o processo de Cox log-gaussiano. 4.2 Processo de Cox e de Cox log-gaussiano Um processo pontual espacial, definido em uma região D R k, e governado por uma função aleatória não-negativa Λ = {Λ(x) : x R k }, é um processo de Cox se a distribuição condicional de X Λ = λ é um processo de Poisson com função intensidade λ(x). Se, adicionalmente, pudermos supor que Λ(x) = exp{z(x)}, onde Z = {Z(x) R k } é um processo Gaussiano, dizemos que o processo pontual espacial com função intensidade aleatória Λ é um processo de Cox log-gaussiano (Møller et al., 1998). Neste caso, a função de verossimilhança torna-se ( ) n p(x Z) exp exp{z(x)}dx exp{z(x i )}. (4.1) D i=1 Esta função não é analiticamente tratável e será de suma importância na definição do modelo Geoestatístico sob amostragem preferencial (Capítulo 7). Ao contrário do que acontece com os processos pontuais de função intensidade determinística, os processos de Cox e de Cox log-gaussiano não sofrem os efeitos negativos das bordas (edge effects). Estes efeitos nas bordas caracterizam-se pela impossibilidade de se 24

42 realizar a inferência de maneira satisfatória nas bordas de uma janela observável W, onde W D. Condicionais ao conhecimento de Λ(x) = λ(x), x D, a inferência nestes processos com função intensidade aleatória pode ser realizada normalmente independentemente da janela observável. 4.3 Inferência em processos pontuais Dependendo da escolha da função aleatória Λ, a inferência em processos de Cox pode se tornar bastante complexa. Por outro lado, a inferência em processos de Cox log-gaussianos pode ser realizada de forma razoavelmente simples por meio de métodos de simulação de Monte Carlo (Møller et al., 1998). Para isto, é necessário representar o domínio D do processo pontual como uma grade e realizar a aproximação do processo Gaussiano Z(x) de acordo com uma distribuição Normal finito-dimensional definida sobre a região discretizada. A inferência realizada sob a perspectiva Bayesiana, por meio dos métodos de MCMC, torna razoavelmente simples a obtenção de aproximações da função de verosimilhança p(x Z). Em contrapartida, o custo computacional associado é bastante elevado (Møller e Waagepetersen, 2007). 4.4 Efeitos da discretização na inferência Waagepetersen (2004) demonstrou que as posterioris aproximadas para processos de Cox log- Gaussianos convergem para as posterioris exatas quando o tamanho das células que compõem a grade tendem à zero. Ao modelar dados pontuais de infecção por doenças utilizando processos de Cox log- Gaussianos, Benes et al. (2002), concluíram que os resultados obtidos na inferência via MCMC podem variar consideravelmente dependendo da grade escolhida. Entretanto, segundo Møller et al. (1998), se o processo pontual espacial for razoavel- 25

43 mente agregado e de intensidade moderada, a escolha da grade não necessitará ser fina para produzir bons resultados na inferência, uma vez que nestes casos não seria esperado observar grandes áreas sem amostras na região de estudo. Apesar de vários autores trabalharem com partições da região D formando sub-regiões regulares, isto não é uma regra. Heikkinen e Arjas (1998 e 1999), por exemplo, utilizam uma partição denominada tesselagem de Voronoi, a qual particiona a região D em sub-regiões de diferentes tamanhos, mas procurando manter uma grade mais fina em locais com maior intensidade de ocorrência de eventos. A generalização dos processos pontuais espaciais para o caso espaço-temporal motiva o estudo do efeito da discretização e da agregação espacial e temporal dos dados. Alguns exemplos de aplicações que avaliam ou discutem estes efeitos são Brix e Diggle (2001), Paez e Diggle (2009) e Benes et al. (2002). 26

44 Capítulo 5 Planejamento Amostral Ótimo A definição do planejamento amostral ótimo é uma tarefa que costuma envolver metodologias para obtenção de máximos e mínimos de funções objetivo. Estas funções objetivos quantificam os ganhos e perdas associados às decisões possíveis a serem tomadas. Quando o fenômeno de interesse do pesquisador é estudado por meio da suposição de modelos estatísticos subjacentes, a metodologia para obtenção do planejamento amostral ótimo costuma se basear no conceito de Teoria da Decisão, onde precisamos decidir em quais locais, no tempo ou espaço, devemos planejar uma nova coleta amostral a fim de compreender melhor certas características do fenômeno. Em problemas da Teoria da Decisão que envolvem escolhas dependentes de resultados aleatórios, a combinação de uma decisão d com um resultado aleatório ω produz uma recompensa r. Adicionalmente, para cada recompensa r, associa-se uma utilidade U(r), a qual precisa satisfazer determinados pressupostos e pode ser interpretada como uma representação numérica das preferências do decisor. Assim, uma decisão será preferida em relação à outra se, e somente se, a utilidade esperada da recompensa obtida com a primeira for maior que aquela obtida com a segunda. Mais detalhes e formalizações a respeito destes pressupostos e outras propriedades das funções utilidades no contexto de Teoria da Decisão podem ser encontrados em DeGroot (1970). 27

45 Seguindo a abordagem de Müller (1999), o procedimento para obtenção do planejamento amostral ótimo deve ser realizado a partir da definição de uma função utilidade u(d, θ, y d ), onde d representa o novo ponto do plano amostral, θ o vetor de parâmetros e y d representa o vetor de futuras observações oriundas deste novo ponto amostral. Após a definição da função utilidade, temos que o ponto do planejamento amostral ótimo d é aquele que maximiza a função: U(d) = u(d, θ, y d )p d (y d θ)p(θ)dθdy d = E [θ,yd ][u(d, θ, y d )] (5.1) para o caso de um planejamento amostral a priori, e U(d) = u(d, θ, y d )p d (y d θ, y)p(θ y)dθdy d = E [θ,yd y][u(d, θ, y d )] (5.2) para o caso de um planejamento amostral após a observação de dados y. Em outras palavras, após obter o conjunto de observações y, o novo ponto do plano amostral ótimo será o valor d que maximixa a utilidade esperada. Dentre os critérios para escolha da função utilidade, destacam-se aqueles que buscam reduzir incertezas a respeito de parâmetros de interesse e aqueles que buscam reduzir variâncias preditivas associadas ao processo em estudo. No primeiro caso, costumam ser utilizadas funções que bonificam reduções da variância a posteriori de θ. Já no segundo caso, são mais apropriadas funções que bonificam reduções na variância preditiva de S. Zidek et al. (2000) utilizou o critério da entropia (medida que se assemelha à noção de variância de uma variável aleatória) para definição do planejamento amostral ótimo. A fim de evitar que sejam escolhidos pontos amostrais associados à elevados custos financeiros, materiais ou temporais, vários autores modificam suas funções utilidade a fim de penalizar estes pontos amostrais. Zidek et al. (2000) é um exemplo, onde utilizam-se os custos financeiros para penalizar as utilidades associadas à implantação de uma nova estação de monitoramento de poluição. 28

46 Outras estratégias para agregação de informação aos critérios de obtenção do planejamento amostral são encontradas na literatura. Especificamente em estudos de planejamento amostral no tempo, Stroud et al. (2001) utilizou covariáveis para reduzir as incertezas associadas aos parâmetros desconhecidos do modelo e, assim, definir o instante ótimo para retorno de um paciente em tratamento. Ding et al. (2008), por sua vez, utilizou uma modelagem hierárquica para relacionar os efeitos de diferentes tratamentos a fim de definir o planejamento amostral ótimo em estudos clínicos de um específico tratamento. Com relação às estratégias para otimização da utilidade esperada, Müller (1999) destaca as principais utilizadas: 1. Simulação a priori: neste caso, a partir de diferentes combinações dos parâmetros θ do modelo, geradas de p(θ) ou de p(θ y), calcula-se U(d) para diferentes candidados a local ótimo amostral d. Caso o procedimento tenha sido realizado avaliando-se U(d) para uma malha fina de valores de d, escolhe-se o ponto do plano amostral que forneceu maior utilidade esperada como d. Caso as avaliações de U(d) tenham sido feita para uma malha não tão fina, costuma-se ajustar uma curva Û(d), utilizando algum método não-paramétrico, e depois proceder à escolha de d que maximiza a função Û(d). Este método possui um elevado custo computacional e, nos casos em que d é um vetor, torna-se praticamente inviável. Müller et al. (2004) lida com o problema de integração e maximização da função utilidade para os casos em que a dimensão de d é alta. Para isso, utilizam uma versão do método de MCMC com simulated annealing onde a distribuição estacionária da cadeia de Markov varia (MCMC não-homogêneo); 2. MCMC em modelo aumentado: neste caso, o novo local do planejamento amostral é considerado como um parâmetro a ser estimado no modelo. Sendo assim, considera-se que d pode asssumir valores dentro de uma região fechada D, que u(d, θ, y d ) é nãonegativa e limitada e define-se a distribuição artificial h(d, θ, y d ) u(d, θ, y d )p d (y d θ)p(θ) (5.3) 29

47 em (d, θ, y d ). Sob estas suposições, temos que a distribuição marginal de d é proporcional a h(d) u(d, θ, y)p d (y d θ)p(θ)dθdy d = U(d), (5.4) ou seja, encontrar a moda de h(d) torna-se equivalente a maximizar a utilidade esperada de d. Assim, ganha-se tempo na simulação, já que os valores amostrados de d no algoritmo MCMC tenderão a se concentrar próximos de regiões com alta utilidade esperada. Desta forma, alteramos o nosso problema de otimização para um problema de busca de moda. Ainda dois outros pontos importantes precisam ser lembrados ao utilizar-se este método. O primeiro ponto é que a introdução deste modelo aumentado produz mudanças nas distribuições marginais de (θ, y d ). O segundo ponto está relacionado ao cuidado de escolha da distribuição que fornece os valores propostos de d no MCMC. Neste sentido, a utilização de distribuições simétricas, onde g ( d (i+1) d (i)) = g ( d (i) d (i+1)), acabam por simplificar a expressão da probabilidade de aceitação a cada iteração j do MCMC, reduzindo-a a { } u(d prop, θ j, y d prop) p d = min 1,. u(d j 1, θ j 1, y d j 1) 3. MCMC com simulated annealing: A utilização do método MCMC com o modelo aumentado, conforme descrita no item anterior, ainda não resolve totalmente o problema da otimização de U(d). Um dos problemas restantes está associado ao fato de que, em muitos casos, a função de utilidade esperada é pouco concentrada na vizinhança de sua moda, alocando utilidades semelhantes para uma grande quantidade de possíveis pontos do plano amostral. No caso em que d é unidimensional, a simples inspeção do gráfico ou histograma de U(d) pode não ser suficiente para obtenção de d. Já no caso multimensional, a situação é ainda mais complicada, uma vez que não teríamos como construir gráficos de U(d). Para lidar com este problema, incorporam-se as idéias de simulated annealing, onde substitui-se a função objetivo do problema por uma transformação potência dela, ou 30

48 seja, h(d) J. A escolha de J deve ser realizada com cuidado e, em certos casos, pode-se aumentar o valor de J após identificar clusters de pontos amostrais de maior utilidade, possivelmente concentrados em torno da moda de d. Vários procedimentos para obtenção de um planejamento amostral ótimo de k locais, k 2, podem ser empregados. A forma mais simples está contida na metodologia de Müller (1999), bastando para isto considerar um conjunto de decisões d = {d 1,..., d k } associadas a uma função utilidade u(d, θ, y d ). Neste caso, a cada iteração j do MCMC precisaríamos amostrar um vetor de decisões (ou locais) d j = (d j 1,..., d j k ) e aceitá-lo ou rejeitá-lo de acordo com a sua pseudo-distribuição no passo de Metropolis. Ao final, seria necessário encontrar d, ou seja, o conjunto de locais que produz a utilidade máxima. Entretanto, para k > 2 este procedimento torna-se demasiadamente complexo. Outra opção é considerar esta escolha como um problema de decisão sequencial, especificando regras de parada e custos de amostragem associados. DeGroot (1970) descreve os principais aspectos associados à problemas desta natureza. Para contornar problemas associados à decisões sequenciais no tempo dependentes de todas as decisões passadas, isto é, d t = f(d 1,..., d t 1, y 1,..., y t 1 ), Müller et al. (2007) utiliza estatísticas suficientes carregando a informação necessária obtida até o instante t 1, substituindo d t = f(d t 1, y t 1 ) por d t = f(s t (d t 1, y t 1 )). A utilização da abordagem de decisões sequenciais possui a vantagem de produzir, em geral, maiores utilidades esperadas. Entretanto, no contexto de planejamento amostral, decisões sequenciais só podem ser utilizadas quando o pesquisador pode aguardar cada observação antes de decidir o momento ou local de coletar uma nova observação. Além disso, os custos associados à decisões sequenciais podem ser muito mais elevados, sejam eles financeiros ou não. Na Seção 5.2 é apresentada uma função utilidade que quantifica os custos como forma de risco no contexto de infestação de mosquitos. 31

49 5.1 Planejamento amostral ótimo em Geoestatística Em Geoestatística é comum o foco do pesquisador concentrar-se muito mais na predição espacial do processo subjacente do que na inferência a respeito de seus parâmetros. Neste sentido, a variância de predição associada ao local x D, V (S(x) y), fornece ao pesquisador o grau de incerteza a respeito de suas predições após observar os dados y. Assim, reduzir esta variância ao longo da região de estudo D se constitui de um critério bastante razoável para escolha de um novo ponto d do plano amostral. Partindo-se deste princípio podemos definir a seguinte função utilidade para aplicação da abordagem de Müller (1999) no contexto de Geoestatística: u(d, θ, y d ) = [V (S(x) θ, y) V (S(x) θ, y, y d )]dx, (5.5) a qual pode ser interpretada como o ganho obtido ao se utilizar y d para redução da incerteza associada ao processo S, onde d R k. Para avaliação da integral existente na expressão de u(d, θ, y d ) pode-se aplicar a discretização da região em estudo D em M sub-regiões, conforme descrito no Capítulo anterior. Neste caso, após a discretização, temos que u(d, θ, y d ) é aproximada pela expressão u(d, θ, y d ) 1 M [V (S i θ, y) V (S i θ, y, y d )]. i Já as distribuições de [S i θ, y] e [S i θ, y, y d ] são normais com médias σ 2 r n(τ 2 I n + σ 2 R n ) 1 (y 1µ) e σ 2 r n+1(τ 2 I n+1 + σ 2 R n+1 ) 1 (ỹ 1µ) e variâncias 32

50 σ 2 σ 2 r n(τ 2 I n + σ 2 R n ) 1 σ 2 r n σ 2 σ 2 r n+1(τ 2 I n+1 + σ 2 R n+1 ) 1 σ 2 r n+1, respectivamente. Para verificar este resultado, defina ỹ = {y, y d } e S = {S y, S d }. Desta forma, temos [ỹ S, θ] N(1µ + S, τ 2 I n+1 ) [ S θ] N(0, σ 2 R n+1 ) de onde podemos obter a distribuição conjunta de [ỹ, S θ] ỹ S N 1µ 0, τ 2 I n+1 + σ 2 R n+1 σ 2 R n+1 σ 2 R n+1 σ 2 R n+1. Por fim, utilizando-se as propriedades da distribuição Normal condicional, obtém-se as respectivas médias e variâncias condicionais apresentadas acima. Alguns exemplos de funções utilidade empregadas no contexto de planejamento amostral ótimo que dependem de valores observados y, como a empregada aqui, podem ser encontrados em Cárdenas (2007) e Müller et al. (2004), entre outros. Dando seguimento ao procedimento de escolha do planejamento amostral ótimo, é necessário maximizar a função U(d) = u(d, θ, y d )p(y d, θ y)dθdy d = u(d, θ, y d )p(y d θ, y)p(θ y)dθdy d onde [θ y] = [φ, σ 2, τ 2, µ y]. Para obtermos a distribuição de [y d θ, y], podemos utilizar novamente a distribuição conjunta de [ỹ, S θ] ou, alternativamente, seguir os passos: 33

51 Note que [ỹ S, θ] N(1µ + S, τ 2 I n+1 ) e [ S θ] N(0, σ 2 R n+1 ); Como ỹ = 1µ + S + Z e Z é independente de S, temos que [ỹ θ] é Normal com média 1µ e matriz de covariâncias τ 2 I n+1 + σ 2 R n+1 ; Como [ỹ θ] = [y d, y θ], pelas propriedades da Normal Multivariada temos que [y d θ, y] é Normal com média µ + σ 2 r n(τ 2 I n + σ 2 R n ) 1 (y 1µ) e variância τ 2 + σ 2 σ 2 r n(τ 2 I n + σ 2 R n ) 1 σ 2 r n. Após a obtenção de todas as distribuições que compõem a função utilidade escolhida, o planejamento amostral ótimo pode ser obtido utilizando-se uma das propostas de Müller (1999) descritas neste Capítulo a partir das amostras a posteriori de θ. Uma revisão de outros procedimentos para a otimização de funções objetivo, em especial no contexto de redes de monitoramento ambiental e mapeamento de QTL (quantitative trait loci) pode ser encontrada em Cárdenas (2007). Por fim, é importante notar também que as expressões das variâncias preditivas empregadas na função utilidade apresentada u(d, θ, y d ) não dependem dos valores de y d, mas apenas de sua localização na região D. Esta característica das variâncias preditivas de krigagem evita a necessidade de se avaliar todos os possíveis valores de y d durante o processo de maximização de U(d), reduzindo significativamente o custo computacional envolvido. Entretanto, outras ponderações podem fazer parte da função de utilidade escolhida de forma que a utilização das amostras a posteriori de y d sejam imprescindíveis para obtenção do planejamento amostral ótimo. 34

52 5.2 Exemplo: Planejamento amostral ótimo no estudo da série temporal de infestação pelo mosquito Aedes aegypti No contexto da série histórica de infestação do mosquito Aedes aegypti, principal vetor de transmissão do vírus da dengue, o processo de seleção dos tempos de amostragem para obtenção de índices de infestação precisa levar em conta questões de praticidade, eficácia e economia de recursos. Pela praticidade e reprodutividade demonstrados, os índices de infestação baseados em larvas acabam sendo os mais empregados como medidas de infestação e como indicadores de risco de transmissão de dengue (Gomes, 1998). Dentre os mais conhecidos destacam-se o Índice Predial, que avalia o percentual de edifícios infestados, e o Índice de Breteau, que avalia o percentual de recipientes positivos com larvas por domicílio pesquisado. A fim de orientar os órgãos de saúde existentes no Brasil, a Secretaria de Vigilância em Saúde do Ministério da Saúde disponibilizou um documento contendo a metodologia para realização de um diagnóstico rápido conhecido como Levantamento de Índice Rápido de Infestação por Aedes aegypti - LIRAa (Ministério da Saúde, 2005). Na constante busca pela otimização dos recursos para avaliação dos índices de infestação, evidencia-se a necessidade de planejar a periodicidade com que os agentes de saúde serão enviados a campo para obtenção do LIRAa. O conhecimento do comportamento da série de infestação do mosquito pode ser útil para definir esta periodicidade. Um bom planejamento deve ser realizado a fim de mobilizar os recursos disponíveis para os períodos de maior risco de surtos de infestação do mosquito e de epidemias de dengue. Neste sentido, pode-se desenvolver um critério que auxilie no planejamento do momento ótimo no tempo para realização de novo LIRAa levando-se em conta fatores associados ao poder de predição e ao risco de surtos de infestação do mosquito. A fim de incorporar pesos diferentes aos candidatos a local amostral ótimo de acordo 35

53 com o seu poder preditivo e de acordo com o risco iminente de surto de infestações do mosquito, utilizou-se a seguinte função utilidade u(d, θ, y d ) = [V (S(t) θ, y) V (S(t) θ, y, y d )]dt + exp{ α(p [Y d > a y] p a ) 2 } Na função utilidade escolhida, o termo dentro da integral quantifica a redução da incerteza associada ao processo S após a escolha do instante d como novo ponto amostral. Por outro lado, o termo exponencial da expressão cumpre o papel de atribuir maior utilidade para os candidatos a novo ponto amostral que estejam associados a instantes de tempo onde as probabilidades de eventos extremos não são muito baixas e nem muito elevadas. No contexto de infestação pelo mosquito, estes critério evita a escolha de instantes associados aos períodos de baixo risco, onde os gastos com o trabalho de campo para obtenção do LIRAa poderiam ser desnecessários, e de extremo risco, onde a realização da coleta poderia ser realizada demasiadamente tarde. De uma maneira geral, esta componente do critério permite que o modelo aponte para um instante no tempo que antecipe a ocorrência de um surto de infestação. O grau de moderação é definido pelo parâmetro p a. Por fim, fixamos o parâmetro α a fim de ponderar o grau de influência desta componente de risco na função utilidade. Para o procedimento de inferência utilizou-se uma versão discretizada desta função a partir de uma partição da região D em estudo em M sub-intervalos. Utilizou-se a abordagem Bayesiana e aproximou-se esta integral a partir de simulações da distribuição a posteriori dos parâmetros do modelo e das respectivas distribuições preditivas. O modelo Geoestatístico apresentado no Capítulo 3 foi utilizado e o procedimento de inferência seguiu a abordagem de MCMC em modelo aumentado, conforme descrito na Seção anterior. Para a média do processo utilizou-se uma priori f lat e considerou-se prioris recíprocas para σ 2 e φ. Para τ 2 rel = τ 2 σ 2 utilizou-se uma distribuição U[0,1]. Para a realização da inferência foram utilizadas versões discretizadas aproximadas das distribuições dos parâmetros do modelo com o auxílio do pacote GeoR ( Os dados de infestação utilizados neste estudo referem-se aos estudos do LIRAa realiza- 36

54 dos entre 02/01/2005 e 05/11/2009 na cidade do Rio de Janeiro, totalizando 18 levantamentos (y 1,..., y 1 8). Estes dados estão disponibilizados do site da Secretaria Municipal de Saúde do município do Rio de Janeiro ( Para a análise dos dados realizou-se uma transformação na variável de infestação de forma a permitir o ajuste e as predições supondo um processo Gaussiano subjacente. Foram utilizadas 5000 amostras simuladas das distribuições a posteriori dos parâmetros do modelo para obtenção das distribuições preditivas e para o cálculo da função utilidade. A Figura 5.1 apresenta os índices de infestação observados bem como os valores preditos para o período estudado e seus respectivos intervalos de 95% de credibilidade. Figura 5.1: Valores observados (círculos), preditos (linha) e respectivos IC 95% (linha tracejada) para a série de infestação do Aedes aegypti na cidade do Rio de Janeiro. A redução na variância preditiva baseou-se em uma partição de 341 instantes de tempo entre nov/2009 e jun/2010 e as médias encontradas foram utilizadas no cálculo da função utilidade de cada candidato a ponto do plano amostral. O valor de a utilizado foi 4%, baseado nos patamares de alerta atualmente empregados e recomendados pelo Ministério da Saúde no Brasil. A probabilidade máxima aceitável para este risco foi fixada em p a = 0, 3. A Figura 5.2 apresenta a distribuição artificial de d obtida a partir de amostras simuladas considerando-se α = 100. Pode-se observar que a moda da distribuição encontra-se 37

55 no intervalo de 12/mar a 22/mar de 2010, evidenciando que o instante ótimo para realização de nova coleta deveria se dar em torno de 135 dias após a última coleta. Alguns estudos de simulação demonstraram que a decisão de escolha é sensível à escolha do valor de α. Figura 5.2: Histograma das amostras da distribuição artificial h(d), onde o eixo das abscissas representa o número de dias após a realização do último LIRAa. O elevado custo computacional ao se realizar simulações das distribuições preditivas para obtenção das variâncias preditivas médias é o principal desafio desta metodologia, o que nos evidencia a necessidade de utilização de métodos aproximados de inferência. As discretizações das distribuições a priori dos parâmetros do modelo permite a obtenção de distribuições a posteriori discretas, as quais são utilizadas para geração das distribuições preditivas de S. Apesar da metodologia depender do nível de discretização utilizado, estudos de sensibilidade mostraram que este efeito não alterava a escolha do novo instante para o planejamento amostral. Os parâmetros associados ao custo e ao risco de surtos de infestações se mostraram bastante flexíveis e se configuram como opção para atender as exigências de órgãos de saúde que necessitem otimizar seus recursos físicos e financeiros. 38

56 Capítulo 6 Geoestatística sob Efeito de Amostragem Preferencial Na literatura Geoestatística em geral, costuma-se considerar os pontos amostrais x como fixos ou, caso oriundos de um processo estocástico, independentes do processo S(x) (ver, por exemplo, Banerjee et al., 2004; Diggle e Ribeiro, 2007). No caso em que o planejamento amostral é estocástico, temos que especificar a distribuição de [Y, S, X]. Seguindo a abordagem de Diggle et al. (2010), temos um processo sob amostragem não-preferencial se [S, Y, X] = [Y S, X][S, X] = [Y S, X][S][X], isto é, o planejamento amostral é independente do processo espacial em estudo. Nesta situação, pode-se utilizar os métodos tradicionais de Geoestatística para realização da inferência para os parâmetros envolvidos. Por outro lado, denomina-se amostragem preferencial o caso onde [S, X] [S][X]. Assim, o modelo sob amostragem preferencial assume que o processo espacial S é observado com ruído em pontos do planejamento amostral oriundos de um processo pontual X, cuja 39

57 distribuição depende de S. A classe de modelos sob amostragem preferencial proposta por Diggle et al. (2010) adiciona as seguintes suposições ao modelo Geoestatístico apresentado no Capítulo 3: 1. Condicional à S, X é um processo de Cox log-gaussiano, com intensidade λ(x) = exp{α + βs(x)}; (6.1) 2. Condicional à [S, X], Y i N[µ + S(x i ), τ 2 ]. Quando β = 0, temos um processo de Poisson com intensidade exp(α). Adicionalmente, assumindo-se que µ = 0, pode-se mostrar que [S(x i ) x i, θ] N(βσ 2, σ 2 ) [Y i x i, θ] N(βσ 2, σ 2 + τ 2 ) nos locais x i onde foram tomadas observações Y i, i = 1,..., n. Em outras palavras, o valor do processo Gaussiano S em um local observado x i é influenciado de forma proporcional ao valor de β. Sob o ponto de vista Bayesiano, a inferência para os parâmetros θ = (µ, φ, σ 2, τ 2 ) é feita por meio da distribuição a posteriori p(θ y) p(x, y, θ) = p(x, y, θ, S)dS = p(y S, θ, x)p(x θ, S)p(S θ)p(θ)ds = p(y S y, θ)p(x S)p(S θ)p(θ)ds, 40

58 onde S y representa o vetor de valores de S associados aos locais x onde foram observados os valores y. Para os parâmetros α e β atribuímos prioris normais vagas. É importante notar que, para obtenção de p[x S], precisaríamos dos valores de S em todos os locais x D. Diggle et al. (2010) apresenta uma forma para avaliar esta distribuição utilizando uma fina discretização da região D. Neste caso, particiona-se a região em estudo em M células com centróides x i, i = 1,..., M, onde espera-se que, no máximo, um ponto amostral esteja localizado em cada célula. Neste caso, o modelo completo é modificado para p(x S, θ) [y S y, θ] N(1µ + S y, τ 2 I n ) n exp(α + βs(x i )) exp( i exp(α + βs(x i ))) i i=1 [S θ] N(0, σ 2 R M ), onde i representa o comprimento, a área ou volume da célula (ou sub-região) i, de acordo com a dimensão da região em estudo D. Uma dificuldade da abordagem de Diggle et al. (2008) ocorre na ausência de efeito pepita, isto é, quando τ 2 = 0. Como o método de inferência avalia a função de verossimilhança baseando-se em médias de simulações de S, as mesmas tornam-se incompatíveis com os valores observados Y na ausência deste efeito. O mesmo ocorre quando τ 2 /σ 2 é pequeno. Sob o enfoque Bayesiano, precisamos obter as distribuições a posteriori para fazer inferência acerca dos parâmetros do modelo. Como as distribuições a posteriori destes parâmetros não possuem forma fechada, podemos aproximá-las utilizando MCMC. Baseando-se no procedimento descrito por Diggle et al. (2010), podemos realizar a inferência sem a exigência de que apenas um ponto amostral pertença a cada célula. Procedendo desta forma, o número de eventos que ocorrem na sub-região i, condicional ao valor de S(x i ), terá uma distribuição Poisson e a função de verossimilhança de x será dada por 41

59 M p(x S, α, β) + βs(x i ))] i=1[exp(α ni exp( i i exp(α + βs(x i ))). (6.2) Os aspectos computacionais que envolvem o procedimento de inferência são implementados a partir desta partição. Supondo que a partição da região D seja regular, isto é, i =, i, temos o seguinte modelo completo: p(x S, α, β) [y S y, µ, τ 2 ] N(1µ + S y, τ 2 I n ), M M [exp(α + βs(x i ))] n i exp( exp(α + βs(x i ))), i=1 i=1 [S σ 2, φ] N(0, σ 2 R M ), onde as prioris para os parâmetros do modelo são µ N(0, k), τ 2 Gama(a τ, b τ ), σ 2 Gama(a σ, b σ ), φ Gama(a φ, b φ ), α N(0, k) e β N(0, k). As distribuições condicionais completas dos parâmetros µ, τ 2 e σ 2 são dadas pelas mesmas expressões obtidas no caso de amostragem não-preferencial. acontece com a distribuição condicional completa do parâmetro de alcance φ. O mesmo também Por outro lado, as distribuições condicionais completas de S, β e α tornam-se { p(s µ, τ 2, σ 2, φ, α, β, x, y) exp { } exp e α M exp(βs(x i )), 1 } [S 2τ ys 2 y 2S y(y µ1)] + βs n S R 1 M S 2σ 2 { p(β S, µ, τ 2, σ 2, φ, α, x, y) p(x S, α, β)p(β) exp βs yn e α M exp(βs(x i )) β2 2k }, { } p(α S, µ, τ 2, σ 2, φ, β, x, y) exp nα e α M exp(βs(x i )) α2 2k e são atualizadas por passos de Metropolis com propostas Gaussianas centradas nos valores 42

60 da iteração anterior, onde as probabilidades de aceitação das propostas no MCMC são, respectivamente, dadas por p S = exp { 1 [S prop 2τ 2 y Sy prop S ys y 2(Sy prop S y ) (y µ1)] + β(s prop S) n } exp { e α M [exp(βs(x i )) exp(βs(x i ) prop )] + (S R 1 M S S prop R 1 M Sprop ) 2σ 2 } { } p β = exp (β prop β)s yn + e α M (exp(βs(x i )) exp(β prop S(x i ))) + (β2 β 2prop ) 2k { p α = exp (α prop α)n + (e α e αprop ) M exp(βs(x i )) + (α2 α 2prop ) 2k }. Nas expressões acima, o vetor n = (n 1, n 2,..., n M ) representa o número de pontos observados em cada sub-região e considera-se que o número total de pontos observados em D é dado por M i=1 n i = n. A obtenção de p[x S] é bastante custosa computacionalmente e inúmeros procedimentos alternativos têm sido propostos na literatura para lidar com este problema. No Capítulo 9 são discutidas algumas destas propostas. Ho and Stoyan (2008) apresentam uma construção equivalente à metodologia de Diggle et al. (2010), baseada em processos pontuais marcados (marked point process). Neste caso, considera-se um processo com duas componentes independentes: um processo pontual X e um campo aleatório {Z(x)}, onde as marcas dos pontos x = {x 1,..., x n }, denotadas por m(x) = {m(x 1 ),..., m(x n )}, são dadas por m(x) = S(x) + ε(x), e podem ser interpretadas como os valores do processo Gaussiano subjacente perturbados por erros i.i.d. também Gaussianos. Os autores apresentam os efeitos destas suposições no procedimento de inferência sob o enfoque frequentista e obtém os momentos de primeira e segunda ordem associados a este modelo. 43

61 Diggle et al. (2010) avaliaram a influência da amostragem preferencial nas predições do processo Gaussiano subjacente utilizando a distribuição [S y]. Em outras palavras, utilizando o método plug-in, foram utilizadas as estimativas de θ nas expressões do preditor e da variância de krigagem para realização da predição espacial. Entretanto, apesar do efeito da amostragem preferencial ter sido mitigado no processo de estimação dos parâmetros do modelo, estas predições não levaram em conta a informação fornecida por x. Em contrapartida, a abordagem Bayesiana apresentada neste Capítulo fornece diretamente amostras da distribuição [S y, x], a qual é a correta distribuição preditiva do processo Gaussiano subjacente. No contexto frequentista, Zidek e Shaddick (2012) apresentam uma metodologia para correção do vício causado pela amostragem preferencial no contexto do monitoramento ambiental. Sob o enfoque Bayesiano, Pati et al. (2011) provaram que a utilização da priori imprópria p(β) 1 para β produz uma posteriori própria. Assim, estes autores demonstraram que os dados fornecem informação para a realização da inferência para este parâmetro no modelo, mesmo sob priori não informativa. 6.1 Estudo de simulação unidimensional Para ilustrar os efeitos da amostragem preferencial no processo de inferência a respeito dos parâmetros do processo S, foi realizado um estudo de simulação considerando uma região D unidimensional definida pelo intervalo [0, 100] e 100 sub-regiões de mesmo comprimento. Os parâmetros utilizados na simulação foram (α; β; µ; σ 2 ; φ; τ 2 ; ) = ( 3; 2; 12; 2; 20; 0.1; 1) e o tamanho da amostra obtido foi n = 18. A Figura 6.1 apresenta a realização do processo Gaussiano S simulado juntamente com os valores observados y 1,..., y 18. Uma vez que β > 0, as observações concentraram-se próximas dos locais onde o processo S apresentava maiores valores. 44

62 Figura 6.1: Realização do processo simulado unidimensional S +µ (linha cheia) e valores observados (círculos). A partir das observações y procedeu-se à inferência utilizando o método de MCMC apresentado neste Capítulo. Para permitir uma comparação, foi realizado também o procedimento de inferência via MCMC sem considerar que as observações foram obtidas sob efeito de amostragem preferencial. Em ambos os casos foram utilizados os mesmos hiperparâmetros nas distribuições a priori, a saber, µ α β N(0; 10 3 ), τ 2 σ 2 Gama(2; 0.5) e φ Gama(2; 0.05). Foram utilizadas iterações no algoritmo MCMC para ambos os modelos, das quais apenas as últimas foram utilizadas para compor as amostras das distribuições a posteriori dos parâmetros do modelo. A convergência das cadeias foi avaliada a partir de inspeção visual de diferentes cadeias geradas. As Figuras 6.2 e 6.3 apresentam histogramas das distribuições a posteriori de cada um dos parâmetros do modelo considerando o efeito da amostragem preferencial. Já a Figura 45

63 6.4 apresenta os mesmos resultados para o modelo sem considerar o efeito da amostragem preferencial. Figura 6.2: Histogramas das distribuições a posteriori dos parâmetros do modelo sob efeito da amostragem preferencial para o processo simulado unidimensional (os círculos representam os valores verdadeiros dos parâmetros). Analisando-se a Figura 6.2 pode-se observar que as distribuições a posteriori encontramse concentradas em torno dos valores verdadeiros dos parâmetros do modelo, exceto para o caso de σ 2. Entretanto, este parâmetro também foi subestimado pelo modelo sem considerar o efeito da amostragem preferencial. Conforme pode-se notar na análise da Figura 6.3, a inferência a respeito dos parâmetros que definem o efeito da amostragem preferencial, isto é α e β, foi satisfatória nesta simulação. 46

64 Figura 6.3: Histogramas das distribuições a posteriori dos parâmetros que configuram o efeito da amostragem preferencial para o processo simulado unidimensional (os círculos representam os valores verdadeiros dos parâmetros). A Figura 6.5 apresenta os variogramas estimados por ambos os modelos juntamente com os seus respectivos intervalos de 95% de credibilidade. Apesar de ambos estarem distantes do verdadeiro variograma (linha preta), o variograma estimado sob a hipótese de efeito de amostragem preferencial está um pouco mais próximo do variograma verdadeiro. Outras simulações realizadas sob as mesmas condições apontaram para resultados semelhantes e algumas destas simulações serão apresentadas nas seções subsequentes. Entretanto, quando analisamos as predições realizadas para o processo S, podemos observar que o modelo sem considerar o efeito da amostragem preferencial apresenta maior dificuldade em predizer corretamente valores extremos do processo S. Por outro lado, o modelo que considera o efeito da amostragem preferencial, utilizando-se da vantagem de extrair informação da configuração espacial dos pontos amostrais, permite corrigir suas predições de forma a acomodar valores extremos de S. A Figura 6.6 apresenta os valores preditos de S, representados pelas medianas a posteriori de S, e os respectivos intervalos de 95% de credibilidade para cada um dos dois modelos. Analisando-se a Figura 6.6 pode-se observar que somente os intervalos de credibilidade do modelo que considera o efeito da amostragem preferencial englobam a maior parte dos 47

65 Figura 6.4: Histogramas das distribuições a posteriori dos parâmetros do modelo sem considerar o efeito da amostragem preferencial para o processo simulado unidimensional (os círculos representam os valores verdadeiros dos parâmetros). valores extremos do processo simulado S, em especial no intervalo [0, 30]. Adicionalmente, pode-se observar que as estimativas pontuais de S nas regiões onde o processo foi pouco observado são melhor realizadas pelo modelo que considera o efeito da amostragem preferencial. Apesar da inferência a respeito dos parâmetros do modelo ter influenciado nas diferenças de predição observadas entre ambos os modelos, parece razoável concluir que grande parte destas diferenças é causada pelas diferençãs entre as distribuições [S y] e [S y, x] utilizadas na predição. A fim de avaliar a razoabilidade desta conclusão, procedeu-se a uma segunda simulação de inferência para ambos os modelos. A fim de isolar-se o efeito das diferenças 48

66 Figura 6.5: Medianas a posteriori e respectivos IC 95% dos variogramas estimados pelo modelo sob amostragem preferencial (esquerda) e sem considerar este efeito (direita) para o processo simulado unidimensional. Os círculos representam o variograma amostral observado e a linha preta representa o verdadeiro variograma. Figura 6.6: Processo simulado (linha cheia), mediana a posteriori da distribuição preditiva (linha vermelha) e respectivos intervalos de 95% de credibilidade (linhas tracejadas) para S obtidos considerando (esquerda) e sem considerar (direita) o efeito da amostragem preferencial no processo simulado unidimensional. entre as estimativas dos parâmetros, procedeu-se à predição S a partir dos verdadeiros valores dos parâmetros do modelo. A Figura 6.7 apresenta os resultados obtidos desta simulação. Como pode ser obser- 49

67 vado, mesmo que a predição seja feita de forma condicional ao conhecimento dos parâmetros do modelo, a utilização das distribuições preditivas [S y, x, θ] e [S y, θ] produz resultados significativamente diferentes. No caso específico desta simulação, pode-se observar que a incerteza associada às regiões que encontram-se razoavelmente distantes dos pontos amostrados é maior quando não consideramos o efeito da amostragem preferencial. Figura 6.7: Processo simulado (linha cheia), médias a posteriori da distribuição preditiva (linha vermelha) e respectivos intervalos de 95% de credibilidade (linhas tracejadas) para S obtidos pelas distribuições preditivas [S y, x, θ] (esquerda) e [S y, θ] (direita) para o processo simulado unidimensional. 6.2 Estudo de simulação bidimensional I A fim de avaliar os efeitos da amostragem preferencial quando D R 2 realizou-se uma simulação de um processo Gaussiano sobre a região D = [0, 100] [0, 100]. A região D foi particionada em 225 sub-regiões e os parâmetros utilizados foram os seguintes (α; β; µ; σ 2 ; φ; τ 2 ; ) = ( 8; 2; 12; 2; 20; 0.1; 20 ). 3 A Figura 6.8 apresenta a realização do processo Gaussiano S simulado sobre a região de estudo. A partir de um conjunto de 12 observações y procedeu-se à inferência para ambos 50

68 os casos estudados, isto é, considerando e deixando de considerar o efeito da amostragem preferencial. Figura 6.8: Realização do processo simulado bidimensional I juntamente com as posições das amostras observadas (círculos). Em ambos os casos foram utilizados os mesmos hiperparâmetros utilizados na simulação unidimensional. Foram monitoradas iterações no algoritmo MCMC para ambos os modelos e as últimas foram utilizadas para compor as amostras das distribuições a posteriori dos parâmetros do modelo. As Figuras 6.9 e 6.10 apresentam histogramas das distribuições a posteriori de cada um dos parâmetros do modelo sob amostragem preferencial e a Figura 6.11 apresenta os mesmos resultados para o modelo sem considerar o efeito da amostragem preferencial. Analisando-se as Figura 6.9 e 6.11 pode-se observar que as distribuições a posteriori não se encontram concentradas em torno dos valores verdadeiros de todos os parâmetros do modelo. Esta dificuldade é parcialmente justificada tendo-se em vista que o tamanho da amostra é muito pequeno. Entretanto, é interessante observar que, mesmo nestas condições, os resultados obtidos pelo modelo supondo a existência do efeito de amostragem preferencial foram mais satisfatórios. Isto pode ser claramente observado na análise das distribuições a posteriori de φ, µ e σ 2. Uma boa inferência para o parâmetro µ é de especial interesse, uma vez que este parâmetro tenderá a ser superestimado nas situações em que β > 0 (ou 51

69 Figura 6.9: Histogramas das distribuições a posteriori dos parâmetros do modelo sob efeito da amostragem preferencial para o processo simulado bidimensional I (os círculos representam os valores verdadeiros dos parâmetros). subestimado, quando β < 0). No que diz respeito aos parâmetros α e β, a Figura 6.10 evidencia que ambos foram estimados de forma satisfatória. A Figura 6.12 apresenta os variogramas estimados por ambos os modelos juntamente com os seus respectivos intervalos de 95% de credibilidade. Neste caso, o IC 95% obtido para o variograma estimado supondo a existência de efeito da amostragem preferencial engloba o verdadeiro variograma. Em contrapartida, o variograma estimado sem considerar este efeito se aproxima do variograma amostral, o qual encontra-se distante do verdadeiro. 52

70 Figura 6.10: Histogramas das distribuições a posteriori dos parâmetros que configuram o efeito da amostragem preferencial para o processo simulado bidimensional I (os círculos representam os valores verdadeiros dos parâmetros). Por fim, a Figura 6.13 apresenta as superfícies preditas de S, representadas pelas médias a posteriori obtidas por cada modelo. Analisando-se esta figura pode-se observar que apenas o modelo que considera o efeito da amostragem preferencial consegue captar regiões onde o processo subjacente declina. Apesar de também ser influenciado pela pequena amostra observada, este modelo consegue ir além das previsões em torno da média, conforme as predições tradicionalmente obtidas em Geoestatística. 6.3 Estudo de simulação bidimensional II A próxima simulação utiliza uma grade mais fina que a grade apresentada na simulação anterior, passando de 225 para 400 sub-regiões. Os parâmetros utilizados nesta simulação foram os mesmos utilizados na simulação bidimensional I, exceto = 5, e foram produzidas 17 observações sob efeito de amostragem preferencial. A Figura 6.14 apresenta a realização deste processo sobre a região de estudo. Mais uma vez procedeu-se à inferência pelos dois métodos utilizando-se os mesmos hi- 53

71 Figura 6.11: Histogramas das distribuições a posteriori dos parâmetros do modelo sem considerar o efeito da amostragem preferencial para o processo simulado bidimensional I (os círculos representam os valores verdadeiros dos parâmetros). perparâmetros das simulações anteriores. Foram monitoradas iterações no algoritmo MCMC para ambos os modelos e as últimas foram utilizadas para compor as amostras das distribuições a posteriori dos parâmetros do modelo. As Figuras 6.15, 6.16 e 6.17 apresentam os histogramas das distribuições a posteriori para cada um dos parâmetros dos modelos considerados. Analisando-se as distribuições a posteriori obtidas, pode-se concluir que, exceto para σ 2 e µ, os demais parâmetros foram razoavelmente bem estimados por ambos os modelos. Especificamente no caso do parâmetro µ, mais uma vez o modelo sem considerar o efeito da 54

72 Figura 6.12: Mediana a posteriori e respectivos IC 95% dos variogramas estimados pelo modelo sob amostragem preferencial (esquerda) e sem considerar este efeito (direita) para o processo simulado bidimensional I. Os círculos representam o variograma amostral observado e a linha preta representa o verdadeiro variograma. Figura 6.13: Média a posteriori da distribuição preditiva de S considerando (esquerda) e sem considerar (direita) o efeito da amostragem preferencial para o processo simulado bidimensional I. amostragem preferencial superestimou-o significativamente. Entretanto, ambos os modelos não foram capazes de estimar σ 2 de forma satisfatória, apesar de uma pequena vantagem para o modelo sob amostragem preferencial ter sido observada. No que diz respeito aos parâmetros α e β, considerou-se o resultado satisfatório, uma vez que os valores verdadeiros destes parâmetros encontram-se entre os quantis de 2.5 % e 95% das distribuições a posteriori 55

73 Figura 6.14: Realização do processo simulado bidimensional II juntamente com as posições das amostras observadas (círculos). obtidas. A Figura 6.18 apresenta os variogramas estimados por ambos os modelos juntamente com os seus respectivos intervalos de 95% de credibilidade. Apesar do variograma verdadeiro não estar contido dentro dos limites de 95% do intervalo de credibilidade, o modelo considerando o efeito da amostragem preferencial apresenta estimativas mais satisfatórias quando comparado com o modelo sem considerar este efeito. Por fim, comparou-se as superfícies preditas pela média a posteriori de S de ambos os modelos. Pode-se observar na Figura 6.19 que, apesar de ambas as predições suavizarem os valores de S, apenas o modelo que considera o efeito da amostragem preferencial consegue captar o padrão da distribuição espacial do processo subjacente, em especial na parte sul da região de estudo. 6.4 Considerações a respeito das simulações Após a realização das simulações foi possível concluir que a inferência realizada sob amostragem preferencial é complexa, dependendo de fatores ligados à intensidade deste efeito, da 56

74 Figura 6.15: Histogramas das distribuições a posteriori dos parâmetros do modelo sob efeito da amostragem preferencial para o processo simulado bidimensional II (os círculos representam os valores verdadeiros dos parâmetros). configuração do planejamento amostral e também do nível de discretização utilizado para obtenção das distribuições a posteriori. Em relação ao nível da discretização, as simulações evidenciaram que a utilização de 100 sub-regiões no caso unidimensional e 225 no caso bidimensional foram suficientes para produzir boas estimativas dos parâmetros envolvidos nos processos. Especificamente no caso bidimensional, uma discretização um pouco mais fina (simulação bidimensional II), com 400 sub-regiões, não produziu ganhos significativamente superiores aos obtidos com 225 (simulação bidimensional I). 57

75 Figura 6.16: Histogramas das distribuições a posteriori dos parâmetros que configuram o efeito da amostragem preferencial para o processo simulado bidimensional II (os círculos representam os valores verdadeiros dos parâmetros). Também é importante mencionar que as simulações apresentadas neste Capítulo refletiram situações onde o número de pontos amostrais observados não era elevado. Entretanto, mesmo nestas condições, a utilização dos modelos supondo a existência da amostragem preferencial produziu variogramas e superfícies de krigagem, em geral, mais próximas dos valores verdadeiros quando comparadas às estimativas produzidas sem considerar este efeito. Outra grande vantagem da utilização destes modelos está na correção produzida na inferência a respeito da média do processo subjacente µ. Este resultado foi satisfatório principalmente no caso de pequenas amostras, onde as estimativas tradicionais deste parâmetro tendem a ser superestimadas (ou subestimadas, quando β < 0). Por fim, também foi observada a capacidade que este modelo possui de identificar áreas da região de estudo onde o processo subjacente assume valores extremos, mesmo nas situações em que não dispomos de amostras próximas. A comparação entre as predições supondo θ conhecido reforçou a conclusão de que que um método baseado na simples correção de vício no variograma não é suficiente para reproduzir a verdadeira incerteza associada à distribuição preditiva do processo subjacente S. Conclusão equivalente foi obtida no caso da simulação unidimensional, onde a inferência 58

76 Figura 6.17: Histogramas das distribuições a posteriori dos parâmetros do modelo sem considerar o efeito da amostragem preferencial para o processo simulado bidimensional II (os círculos representam os valores verdadeiros dos parâmetros). para os parâmetros do modelo produziu resultados bastante semelhantes, mas o resultado da predição foi significativamente distinto. Realizando diferentes cenários simulados de predição sob efeito de amostragem preferencial, Gelfand et al. (2012) também concluíram que estes efeitos afetam de forma mais significativa a predição espacial do que a estimação dos parâmetros do modelo. Ainda neste artigo, eles discutem algumas formas de avaliar os efeitos da amostragem preferencial por meio da comparação de duas superfícies preditas. Uma das formas de comparação mencionada por estes autores está associada ao erro quadrático de predição, produzindo uma medida 59

77 Figura 6.18: Mediana a posteriori e respectivos IC 95% dos variogramas estimados pelo modelo sob amostragem preferencial (esquerda) e sem considerar este efeito (direita) para o processo simulado bidimensional II. Os círculos representam o variograma amostral observado e a linha preta representa o verdadeiro variograma. Figura 6.19: Média a posteriori da distribuição preditiva de S considerando (esquerda) e sem considerar (direita) o efeito da amostragem preferencial para o processo simulado bidimensional II. local e uma medida global de erro. O Erro de Predição Local associado ao local x 0, denotado EP L(x 0 ), é definido como EP L(x 0 ) = E[Ŝ(x 0) S(x 0 )] 2, 60

78 Tabela 6.1: Erro de Predição Global (EPG) para cada uma das simulações realizadas. Simulação Sem Amostragem Preferencial Sob Amostragem Preferencial Unidimensional Bidimensional I Bidimensional II onde Ŝ(x 0) representa o preditor de S no local x 0, isto é, [S(x 0 ) θ, y]. A partir dos EPL s, definimos o Erro de Predição Global como EP G = 1 EP L(x)dx. D D A Tabela 6.1 apresenta os valores de EPG para cada uma das simulações realizadas. Com base nesta tabela, pode-se observar a redução obtida ao se considerar os efeitos da amostragem preferencial. As Figuras 6.20 e 6.21 detalham um pouco mais este resultado apresentando a distribuição do EPL. Analisando-se a Figura 6.20, podemos observar que os erros de predição sofrem uma redução significativa para o modelo sob amostragem preferencial. Os mapas na Figura 6.21 fornecem conclusões semelhantes, uma vez que os erros continuam a ser menores nas regiões onde a magnitude de S é baixa quando o efeito da amostragem preferencial é levado em conta na modelagem. Outras simulações de utilização desta abordagem em situações onde efetivamente não há efeito de amostragem preferencial foram também realizadas. Nestes casos, em geral, a utilização desta abordagem produziu distribuições a posteriori de β centradas no valor zero e distribuições preditivas muito semelhantes àquelas obtidas sem considerar o efeito da amostragem preferencial. Esta observação evidencia a utilidade desta abordagem quando utilizada na forma de um teste de existência de efeito de amostragem preferencial. Em contrapartida, nas situações em que o planejamento amostral encontra-se irregu- 61

79 Figura 6.20: Boxplots dos Erros de Predição Locais (EPL) considerando (esquerda) e sem considerar (direita) os efeitos da amostragem preferencial no estudo simulado unidimensional. larmente espaçado, com grandes áreas sem amostras e sem nenhum indicativo de que exista justificativa teórica ou empírica para se assumir a existência de efeito de amostragem preferencial, a utilização desta abordagem pode produzir resultados enganosos. Nestes casos, a existência de grandes áreas da região D sem observações conduzirá à subestimação (quando ˆβ > 0) ou superestimação (quando ˆβ < 0) da média do processo e produzirá predições tendenciosas, uma vez que o enganoso padrão espacial das amostras será levado em conta na estimação e predição. 62

80 Figura 6.21: Mapas com os Erros de Predição Locais (EPL) considerando (esquerda) e sem considerar (direita) os efeitos da amostragem preferencial nos estudos simulados bidimensionais I (acima) e II (abaixo). 63

81 Capítulo 7 Planejamento Amostral Ótimo sob Efeito de Amostragem Preferencial Baseando-se na abordagem de Müller (1999) descrita no Capítulo 5, o problema de escolha do local ótimo d do planejamento amostral para processos espaciais cujas observações foram obtidas via amostragem preferencial baseia-se na otimização de U(d) = E θ,yd x,y[u(d, θ, y d )]. (7.1) Para o caso onde a avaliação de U(d) é realizada com base em simulações de θ a partir de p(θ), temos U(d) = E θ,yd [u(d, θ, y d )] = u(d, θ, y d )p(θ, y d )dθdy d = u(d, θ, y d )p(y d θ)p(θ)dθdy d ou seja, conforme esperado, o planejamento amostral ótimo a priori não depende do processo pontual gerador de pontos amostrais x. Sendo assim, a influência da amostragem preferencial 64

82 não impacta o planejamento amostral ótimo. Por outro lado, quando estão disponíveis observações x e y, utilizamos simulações de θ a partir de p(θ x, y) para avaliação de U(d). Assim, temos U(d) = E θ,yd x,y[u(d, θ, y d )] = u(d, θ, y d )p(θ, y d x, y)dθdy d = u(d, θ, y d )p(y d θ, x, y)p(θ x, y)dθdy d onde p(θ x, y) é obtida conforme apresentado no Capítulo 6. Por fim, dada a distribuição a posteriori de θ e a função utilidade, procede-se ao planejamento amostral ótimo por meio da obtenção da moda a posteriori da pseudo-distribuição de d. A dificuldade maior nesta etapa consiste em analisar os efeitos da amostragem preferencial na função utilidade u(d, θ, y d ). Em muitos casos, a própria avaliação desta função torna-se não-trivial. Conforme observado no Capítulo anterior, a amostragem preferencial impacta diretamente na estimação da média µ do processo Gaussiano subjacente. Se a função utilidade u(d, θ, y d ) depender diretamente deste parâmetro, como nos casos em que existe uma maior utilidade quando o processo assume valores extremos, o planejamento amostral ótimo será grandemente afetado. Por outro lado, seria esperado que a amostragem preferencial também afetasse significativamente funções utilidade definidas de forma a quantificar reduções de incerteza associadas ao ponto amostral escolhido. A razão para isto reside no fato da configuração espacial dos pontos amostrais também fornecer informação a respeito do processo subjacente. Em outras palavras, se β > 0 e em determinada sub-região D, D D, se observa que não há pontos amostrais observados, podemos concluir que a magnitude do processo subjacente S(x) é baixa em x D. Conclusões análogas podem ser obtidas caso β < 0. Utilizando como exemplo a função utilidade definida no Capítulo 5, precisaríamos in- 65

83 cluir a informação obtida por meio da configuração observada do processo pontual x, isto é, u(d, θ, y d ) = [V (S(x) θ, x, y) V (S θ, x, y, y d )]dx, (7.2) e precisaríamos conhecer a variância da distribuição de [S θ, x, y]. Apesar de obtermos amostras desta distribuição durante a implementação do MCMC descrito no Capítulo 6, não temos como obter diretamente estimativas desta variância a cada iteração do algoritmo. Para contornar esta dificuldade uma aproximação desta distribuição será obtida a fim de que seja possível avaliar os impactos da amostragem preferencial no planejamento amostral ótimo. Como alternativa, optou-se por realizar uma simples aproximação na função p(x S, α, β) M i=1[exp(α + βs(x i ))] ni exp( i exp(α + βs(x i ))). Mais especificamente, utilizando o resultado da expansão da função exponencial em séries de Taylor até o termo de segunda ordem em torno do ponto zero, foi obtida a seguinte aproximação i ( ) exp(α + βs(x i )) e α 1 M + β1 M S + β2 2 S S. Inserindo esta aproximação em p(x S, α, β), pode-se mostrar que a distribuição condicional completa de [S θ, y, x] torna-se Gaussiana com vetor de médias Θ e matriz de covariâncias Σ dados por Θ = Σ (y n µn)τ 2 + βn βe α n βe α 1 N (7.3) e 66

84 Σ = (τ 2 + β 2 e α )I n + Rn 1 R n,n A 1 R N,n R 1 A 1 R N,n R 1 n n + σ 2 R 1 n Rn 1 R n,n A 1 β 2 e α I N + A 1 1, (7.4) onde A = σ 2 R N σ 2 R N,n Rn 1 R n,n e os vetores n e y n representam o número de observações e os totais observados em cada sub-região de D. Assim, a variância preditiva para um local não-observado x Ni pode ser aproximada pelo elemento correspondente da diagonal de Σ, isto é, Σ Ni,N i. Caso β = 0, esta matriz torna-se equivalente à matriz de covariâncias da distribuição preditiva de S tradicionalmente obtida pelos métodos de inferência em Geoestatística, produzindo V (S Ni θ, y, x) σ 2 R N σ 2 R N,n (σ 2 R n + I n τ 2 ) 1 σ 2 R n,n, onde os índices n e N indicam os blocos da matriz de covariância associados aos locais observados e não-observados, respectivamente. 7.1 Estudo de simulação unidimensional Utilizando o exemplo simulado apresentado no Capítulo 6, vamos ilustrar os efeitos da amostragem preferencial no processo de definição do planejamento amostral ótimo unidimensional. Para posterior avaliação da função utilidade, foi utilizada ainda uma grade auxiliar de 83 pontos para o cálculo da redução média das variâncias preditivas. A partir das amostras das distribuições a posteriori foram obtidas as amostras da pseudo-distribuição u(d) no caso onde existe a influência da amostragem preferencial e para o caso onde este efeito não está presente. A Figura 7.1 apresenta os histogramas da pseudo-distribuição a posteriori do local amostral ótimo d para o caso onde supomos a presença do efeito da amostragem preferencial 67

85 e para o caso onde esta suposição não é realizada, respectivamente. Figura 7.1: Histograma da pseudo-distribuição a posteriori de d considerando (esquerda) e sem considerar (direita) o efeito da amostragem preferencial no exemplo simulado unidimensional. Analisando-se os histogramas pode-se notar que o planejamento amostral ótimo sem considerar o efeito da amostragem preferencial aponta fortemente para a escolha de um local na região menos amostrada da série, isto é, no intervalo [5, 35]. Por outro lado, quando o efeito da amostragem preferencial é captado, esta percepção é totalmente alterada. Neste caso, exceto no intervalo onde existem várias amostras observadas, os demais intervalos possuem utilidade esperada aproximadamente equivalentes. Em resumo, a consideração do efeito da amostragem preferencial alterou significativamente o processo decisório do planejamento amostral ótimo. 7.2 Estudo de simulação bidimensional I Partindo do caso bidimensional I analisado anteriormente, foram obtidas as amostras da pseudo-distribuição u(d) nos casos onde temos a influência da amostragem preferencial e para o caso onde este efeito não está presente. Foi utilizada ainda uma grade auxiliar de

86 pontos para o cálculo da redução média das variâncias preditivas para posterior avaliação da função utilidade. As Figuras 7.2 e 7.3 apresentam as pseudo-distribuições do local amostral ótimo d obtidas para os dois casos. Analisando-se ambas as figuras pode-se notar que as áreas com maior utilidade esperada são significativamente diferentes para os dois modelos. Conforme esperado, o planejamento amostral ótimo sem considerar o efeito da amostragem preferencial acaba sendo direcionado para os locais mais distantes dos pontos amostrais observados. Por outro lado, o modelo que considera estes efeitos distribui as maiores utilidades esperadas entre várias sub-regiões da região D, alocando baixa utilidade apenas nas sub-regiões onde foram observados os pontos amostrais. Figura 7.2: Pseudo-distribuição a posteriori de d considerando o efeito da amostragem preferencial para o exemplo simulado bidimensional I. Os valores da densidade desta pseudo-distribuição encontram-se multiplicados por 100 para melhor visualização. 69

87 Figura 7.3: Pseudo-distribuição a posteriori de d sem considerar o efeito da amostragem preferencial para o exemplo simulado bidimensional I. Os valores da densidade desta pseudo-distribuição encontram-se multiplicados por 100 para melhor visualização. 7.3 Estudo de simulação bidimensional II Por fim, as Figuras 7.4 e 7.5 apresentam as pseudo-distribuições do local amostral ótimo d obtidas para os dados da simulação bidimensional II no caso onde supomos a presença do efeito da amostragem preferencial e no caso onde esta suposição não é realizada, respectivamente. Foi utilizada ainda uma grade auxiliar de 400 pontos para o cálculo da redução média das variâncias preditivas para posterior avaliação da função utilidade. Assim como nas simulações anteriores, o padrão de alteração na decisão do planejamento amostral ótimo sob amostragem preferencial parece seguir a mesma direção, isto é, apontando para uma distribuição de utilidades mais homogênea entre os diferentes locais candidatos a novo ponto amostral. 70

88 Figura 7.4: Pseudo-distribuição a posteriori de d considerando o efeito da amostragem preferencial para o exemplo simulado bidimensional II. Os valores da densidade desta pseudo-distribuição encontram-se multiplicados por 100 para melhor visualização. 7.4 Considerações a respeito das simulações Após a realização das simulações pode-se concluir que a consideração do efeito da amostragem preferencial altera significativamente o processo decisório de escolha de um novo ponto amostral. Os três casos simulados envolviam processos cujos resultados obtidos no processo de inferência pelos dois modelos variavam significativamente. Curiosamente, mesmo no caso da simulação unidimensional, onde os variogramas estimados eram bastante próximos, o processo de obtenção do planejamento amostral ótimo conduziu à resultados significativamente distintos. Por outro lado, é importante lembrar que o tipo de função utilidade aplicado também pode produzir diferenças nos resultados. Apesar da função utilidade escolhida ser razoável 71

89 Figura 7.5: Pseudo-distribuição a posteriori de d sem considerar o efeito da amostragem preferencial para o exemplo simulado bidimensional II. Os valores da densidade desta pseudo-distribuições encontra-se multiplicado por 100 para melhor visualização. e intrinsicamente associada aos objetivos da Geoestatística, outras funções poderiam ser consideradas. De acordo com os resultados obtidos nesta tese, acredita-se que a utilização de funções utilidade que dependam da média do processo subjacente podem ser também bastante impactadas pelos efeitos da amostragem preferencial, conforme será evidenciado na aplicação descrita no Capítulo 8. Existem ainda outros fatores com elevado potencial de influência nos resultados, como a escolha da malha auxiliar (utilizada para avaliação da redução da variância preditiva), bem como o nível de discretização da região D em estudo. Entretanto, o elevado custo computacional associado à aplicação de metodologias de otimização de funções torna-se um desafio e uma barreira para a avaliação de grau de influência marginal de cada um destes efeitos. Como forma de auxiliar no processo de obtenção do planejamento amostral ótimo, 72

90 pode-se ainda utilizar a estratégia de MCMC com simulated annealing, descrita no Capítulo 5, para evitar a obtenção de pseudo-distribuições U(d) demasiadamente planas e auxiliar na identificação das áreas com maior utilidade esperada. 7.5 Análise da efetividade do planejamento amostral ótimo Após a obtenção do planejamento amostral ótimo segundo ambas as abordagens, podemos avaliar se o resultado indicado pelo modelo sob efeito da amostragem preferencial realmente produz uma maior redução na variância preditiva do processo subjacente S. Em outras palavras, é de grande interesse avaliar a efetividade da utilização desta metodologia em indicar um local para amostragem que produza maior utilidade (quantificada em termos da função objetivo) para o pesquisador. Com este intuito, procedeu-se à escolha dos locais apontados por ambos os modelos no estudo simulado bidimensional I. Os locais para amostragem ótima apontados pelos modelos foram x d = (90.00; 76.66), para o modelo sob amostragem preferencial, e x d = (30.00; 50.00) para o modelo sem considerar o efeito da amostragem preferencial. A Figura 7.6 apresenta os locais amostrados que foram considerados para cada modelo. Para a comparação entre as abordagens considerou-se também que y d = µ + S(x d ). Em outras palavras, as observações associadas aos locais ótimos foram tomadas sem incorporar o erro associado ao efeito pepita τ 2. Assim, os valores considerados foram y d = S(x d ) + 12 = e y d = S(x d ) + 12 = , para os modelos considerando e sem considerar o efeito da amostragem preferencial, respectivamente. A Figura 7.7 apresenta as predições realizadas após a observação do planejamento amostral ótimo para ambos os modelos. Assim como nas análises realizadas antes da escolha do planejamento amostral ótimo, os resultados obtidos para o modelo sob efeito de amostragem preferencial foram mais satisfatórios. É interessante notar também que a inclusão do 73

91 Figura 7.6: Locais ótimos apontados pelos modelos considerando (esquerda) e sem considerar (direita) os efeitos da amostragem preferencial no estudo simulado bidimensional I. local ótimo apontado pelo modelo sem efeito de amostragem preferencial produziu uma significativa melhora das previsões realizadas na vizinhança deste local. Contudo, esta escolha acabou também produzindo um aumento no erro de predição em locais cujo valor do processo subjacente S era elevado. Por este motivo, os erros de previsão associados ao modelo sob amostragem preferencial foram menos elevados. Esta constatação pode ser melhor explorada analisando-se a Figura 7.8. A Tabela 7.1 apresenta os Erros de Predição Globais (EPG) após a observação do planejamento amostral ótimo para ambos os modelos. A utilização do planejamento amostral ótimo apontado pelo modelo sob efeito de amostragem preferencial continou produzindo um erro de predição global inferior, apesar de apresentar um pequeno aumento em relação à análise anterior. Este aumento pode ser explicado em virtude da escolha do novo local ótimo de amostragem ter sido obtido de forma intencional. O fato da escolha não ter sido realizada a partir da consideração de um processo pontual subjacente exerce uma influência nas posterioris de α e β e provoca um aumento nos erros de predição. Por fim, para ilustrar outra vantagem do local ótimo apontado pelo modelo sob amostragem preferencial, procedeu-se à inferência incluindo-o na análise e assumindo o modelo Geoestatístico tradicional. Os resultados forneceram um EP G = , o qual representa 74

92 Figura 7.7: Média a posteriori da distribuição preditiva de S obtidos considerando (esquerda) e sem considerar (direita) o efeito da amostragem preferencial para o processo simulado bidimensional I após a obtenção do planejamento amostral ótimo. Figura 7.8: Mapas com os Erros de Predição Locais (EPL) considerando (esquerda) e sem considerar (direita) o efeito da amostragem preferencial no exemplo simulado bidimensional I após a obtenção do planejamento amostral ótimo. um valor inferior ao obtido utilizando-se o local apontado pelo modelo sem efeito de amostragem preferencial, conforme mostra a Tabela 7.1. Desta forma, podemos concluir que a utilização do local amostral ótimo proposto pelo modelo sob efeito de amostragem preferencial mostrou-se vantajosa mesmo quando a in- 75

93 Tabela 7.1: Erro de Predição Global (EPG) no exemplo simulado bidimensional I após a obtenção do planejamento amostral ótimo apontado por cada um dos modelos considerados. Modelo Sem efeito de amostragem pref. Sob efeito de amostragem pref. EPG ferência foi realizada via métodos tradicionais de Geoestatística. 76

94 Capítulo 8 Aplicação à Dados de Precipitação Pluviométrica no Rio de Janeiro A metodologia de obtenção do planejamento amostral ótimo foi aplicada a um cenário real no contexto de redes de monitoramento ambientais. Mais especificamente, serão analisados dados de precipitação pluviométrica obtidos de 32 estações de monitoramento localizadas na cidade do Rio de Janeiro. Os dados se referem à precipitação total (em mm) observada no período de 01 a 31 de Outubro de 2005 e foram obtidos junto ao Instituto Pereira Passos (IPP) pelo site (acessado em 04 de setembro de 2012). A análise da precipitação no mês de Outubro, época do ano na qual inicia-se a estação chuvosa na região Sudeste do Brasil, é de interesse especial para meteorologistas e órgãos governamentais (Alves et al., 2005). A Figura 8.1 apresenta o mapa da cidade do Rio de Janeiro juntamente com os respectivos níveis de precipitação (agrupados por quintis) observados no período de interesse. A análise da distribuição espacial das estações monitoradoras parece indicar uma maior concentração destas em locais onde os níveis de precipitação são mais elevados. Mais precisamente, o padrão pontual associado às estações parece ter sido observado segundo uma 77

95 Figura 8.1: Precipitação Pluviométrica na cidade do Rio de Janeiro em Out/2005 (as estações estão separadas de acordo com os quantis de 20%, 40%, 60% e 80% e agrupadas pelas cores azul, verde, amarelo, marrom e vermelho, respectivamente). realização de um processo de Cox log-gaussiano (com β > 0). Embora aspectos geográficos e econômicos da cidade também possam ser considerados como possíveis causas do planejamento amostral amostral observado, o emprego da metodologia de obtenção do planejamento amostral ótimo sob amostragem preferencial parece adequado para estes dados. 8.1 Predição espacial Primeiramente realizou-se a inferência no intuito de estudar os parâmetros da covariância espacial e obter a superfície predita de precipitação sobre a cidade. Para isto, foram utilizados o modelo Geoestatístico tradicional e o modelo sob efeito de amostragem preferencial. Para a inferência, foram utilizadas as mesmas prioris utilizadas nos estudos de simulação bidimensionais apresentados no Capítulo 6, exceto por alterações nos hiperparâmetros das prioris de τ 2 (a τ = 5; b τ = 5), σ 2 (a σ = 1; b σ = 1000) e uma alteração nos hiperparâmetros da priori para φ (a φ = 1; b φ = 0.1), tendo em vista a mudança de escala de D. Adicionalmente, 78

96 particionou-se a região em estudo em M = 332 sub-regiões. Foram monitoradas iterações no algoritmo MCMC para ambos os modelos e as primeiras amostras foram desprezadas. A convergência das cadeias foi realizada por meio de inspeção visual de cadeias que partiram de valores iniciais distintos. Para evitar taxas de aceitação muito baixas para as propostas de S durante o algoritmo MCMC, optou-se por amostrar as componentes S 1,..., S M individualmente. Sem perda de generalidade, suponha que S y = {S 1,..., S n } e S N = {S n+1,..., S M }, onde S = {S y, S N }. Neste caso, a distribuição condicional completa de S i torna-se { } p(s i S i, µ, τ 2, σ 2, φ, α, β, x, y) exp 1 [S 2 2τ 2 i 2S i (y i µ)] + βs i S R 1 M S 2σ 2 exp { e α+βs i}, i = 1,..., n para os locais onde amostras foram observadas e p(s i S i, µ, τ 2, σ 2, φ, α, β, x, y) exp } { S p R 1 M Sp e α+βs 2σ 2 i, i = n + 1,..., M para os locais onde não foram observadas amostras. Assim, os S i s são atualizados por passos de Metropolis com propostas Gaussianas unidimensionais centradas nos valores da iteração anterior, onde as probabilidades de aceitação das propostas no MCMC são, respectivamente, dadas por { } p Si = exp 1 [(S 2prop 2τ 2 i Si 2 ) 2(S prop i S i )(y i µ)] + β(s prop i S i ) S pr 1 M Sp S R 1 M S 2σ 2 exp { e α (e βsprop i e βs i ) }, i = 1,..., n e } p Si = exp { S p R 1 M Sp S R 1 M S e α (e βsprop 2σ 2 i e βs i ), i = n + 1,..., M. Na expressão desta distribuição condicional completa o vetor S p é dado por S p = ( ) S j 1, 1,..., S prop i,..., S j 1 onde j representa o número da iteração do MCMC. M A Tabela 8.1 apresenta as médias a posteriori e os respectivos intervalos de 95% de credibilidade para os parâmetros estimados considerando e sem considerar efeitos de amostragem preferencial. 79

97 Tabela 8.1: Média a posteriori e IC 95% (entre parêntesis) para os parâmetros de ambos os modelos. Parâmetros do modelo Sob Amostragem Preferencial Sem amostragem preferencial τ (0.49 ; 2.90) 1.32 (0.51 ; 3.45) σ ( ; ) ( ; ) µ (97.73 ; ) ( ; ) φ (4.27 ; 26.75) (4.51 ; 22.76) α (-4.24 ; -3.48) β (0.002 ; 0.014) Os resultados obtidos evidenciam a significância dos parâmetros associados ao efeito da amostragem preferencial, sugerindo uma possível associação entre o plano amostral amostral e a magnitude da precipitação no município. A inferência para os parâmetros da estrutura de covariância espacial resultou em resultados semelhantes, conforme pode ser observado nos variogramas estimados por ambos os modelos na Figura 8.2. Figura 8.2: Mediana a posteriori e respectivos IC 95% dos variogramas estimados pelo modelo considerando (esquerda) e sem considerar (direita) efeitos da amostragem preferencial para os dados de precipitação pluviométrica na cidade do Rio de Janeiro (os círculos representam o variograma amostral observado). 80

98 Em contrapartida, a distribuição a posteriori da média µ produziu estimativas significativamente distintas para ambos os modelos. A média estimada pelo modelo sob amostragem preferencial foi significativamente mais baixa do que a média estimada pelo modelo sem considerar este efeito ( contra , respectivamente). Este resultado é compatível com a significância do efeito da amostragem preferencial ( ˆβ > 0). Por fim, a Figura 8.3 apresenta as superfícies preditas de S, representadas pelas médias a posteriori obtidas por cada um dos modelos. Conforme observado nas simulações realizadas no Capítulo 6, a incorporação do efeito da amostragem preferencial produziu diferenças significativas nas superfícies preditas. A distinção entre as predições torna-se ainda mais evidente quando comparamos as distribuições preditivas [Y x, y] e [Y y] (ver Figura 8.4), uma vez que a média µ estimada para ambos os modelos difere significativamente. 8.2 Planejamento amostral ótimo Para a escolha do planejamento amostral ótimo foi utilizada a seguinte função utilidade u(d, θ, y d ) = P [Y (x d ) > 200 θ, x, y] = P [S(x d ) > 200 µ θ, x, y], (8.1) onde x d representa o local associado a y d. Esta função associa maior utilidade para locais onde exista maior probabilidade de que o nível de chuva seja elevado, isto é, com precipitação total no mês de Outubro superior a 200 mm. Esta função utilidade pode ser bastante útil quando o interesse do pesquisador é detectar o início da estação chuvosa por meio da alocação de estações de monitoramento em pontos da cidade mais sensíveis aos impactos desta alteração climática. As pseudo-distribuições a posteriori de d obtidas para cada modelo são apresentadas na Figura 8.5. Uma vez que a função utilidade favorece regiões com maior probabilidade de observação de eventos extremos, somado ao fato de que a média µ foi superestimada devido ao efeito da amostragem preferencial, o modelo tradicional de Geoestatística concentrou a distribuição a 81

99 Figura 8.3: Média a posteriori da distribuição preditiva de S obtida considerando (acima) e sem considerar (abaixo) o efeito da amostragem preferencial para os dados de precipitação pluviométrica na cidade do Rio de Janeiro. posteriori de d sobre uma pequena área da cidade. Por outro lado, considerando o efeito da amostragem preferencial, temos que esta distribuição encontra-se mais dispersa ao longo do sudoeste da cidade do Rio de Janeiro. Os diferentes resultados obtidos reforçam a conclusão de que a amostragem preferencial 82

100 Figura 8.4: Média a posteriori da distribuição preditiva de Y obtida considerando (acima) e sem considerar (abaixo) o efeito da amostragem preferencial para os dados de precipitação pluviométrica na cidade do Rio de Janeiro. produz grandes impactos na obtenção do planejamento amostral ótimo, em especial quando as funções utilidade empregadas dependem diretamente da média µ do processo subjacente. 83

101 Figura 8.5: Pseudo-distribuição a posteriori de d obtida sob amostragem preferencial (acima) e sem considerar este efeito (abaixo) para os dados de precipitação pluviométrica na cidade do Rio de Janeiro. 84

Metodologia de inversão

Metodologia de inversão 6 Metodologia de inversão Nesta tese, a transformação de velocidades em pressão de poros é encarada como um problema de inversão. Pela natureza do problema, essa transformação apresenta caráter não único

Leia mais

Influencia de Distribuições a priori na Analise Bayesiana em dados de contagem

Influencia de Distribuições a priori na Analise Bayesiana em dados de contagem Influencia de Distribuições a priori na Analise Bayesiana em dados de contagem Olinda Fátima dos Santos 1 Carla Regina Guimarães Brighenti 1 1-Introdução A utilização de informação a priori em inferência

Leia mais

AMOSTRAGEM PREFERENCIAL EM PROCESSOS ESPACIAIS DISCRETOS: CASOS BERNOULLI E POISSON

AMOSTRAGEM PREFERENCIAL EM PROCESSOS ESPACIAIS DISCRETOS: CASOS BERNOULLI E POISSON UNIVERSIDADE FEDERAL DO RIO DE JANEIRO INSTITUTO DE MATEMÁTICA DEPARTAMENTO DE MÉTODOS ESTATÍSTICOS AMOSTRAGEM PREFERENCIAL EM PROCESSOS ESPACIAIS DISCRETOS: CASOS BERNOULLI E POISSON Dissertação de mestrado

Leia mais

Técnicas computacionais em probabilidade e estatística II

Técnicas computacionais em probabilidade e estatística II Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco Métodos de Monte Carlo baseados em Cadeias de Markov:

Leia mais

Inferência Estatistica

Inferência Estatistica Inferência Estatistica Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Modelos e Inferência Um modelo é uma simplificação da realidade (e alguns

Leia mais

Técnicas computacionais em probabilidade e estatística II

Técnicas computacionais em probabilidade e estatística II Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco AULA 1: Problemas Computacionais em Inferência Estatística.

Leia mais

Introdução a Inferência Bayesiana

Introdução a Inferência Bayesiana Introdução a Inferência Bayesiana Helio S. Migon IM and COPPE - UFRJ migon@im.ufrj.br 2006 Conteúdo 1. Conceitos Básicos da Inferência 2. Distribuição a Priori 3. Sumariazação 4. Inferência Preditiva 1

Leia mais

Inferência Bayesiana Exata para Processos de Cox Level-Set

Inferência Bayesiana Exata para Processos de Cox Level-Set Inferência Bayesiana Exata para Processos de Cox Level-Set Bárbara da Costa Campos Dias 1 Flávio Bambirra Gonçalves 2 Resumo Este trabalho propõe uma metodologia de inferência exata para processos de Cox

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

Ajuste do modelo de regressão linear: Inferência Bayesiana, aspectos computacionais e seleção de variáveis.

Ajuste do modelo de regressão linear: Inferência Bayesiana, aspectos computacionais e seleção de variáveis. Ajuste do modelo de regressão linear: Inferência Bayesiana, aspectos computacionais e seleção de variáveis. João Daniel Nunes Duarte a, Vinícius Diniz Mayrink b a Estudante de Graduação, e-mail: joaodaniel@ufmg.br

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

Modelos Dinâmicos Bayesianos para Processos Pontuais Espaço-Temporais

Modelos Dinâmicos Bayesianos para Processos Pontuais Espaço-Temporais Universidade Federal do Rio de Janeiro Modelos Dinâmicos Bayesianos para Processos Pontuais Espaço-Temporais Edna Afonso Reis Rio de Janeiro 2008 Modelos Dinâmicos Bayesianos para Processos Pontuais Espaço-Temporais

Leia mais

Inferência Bayesiana

Inferência Bayesiana Inferência Bayesiana Joaquim Neto joaquim.neto@ufjf.edu.br www.ufjf.br/joaquim_neto Departamento de Estatística - ICE Universidade Federal de Juiz de Fora (UFJF) Versão 3.0 Joaquim Neto (UFJF) ICE - UFJF

Leia mais

Tópicos de Estatística Espacial Geoestatística

Tópicos de Estatística Espacial Geoestatística Tópicos de Estatística Espacial Geoestatística Anderson Castro Soares de Oliveira Geoestatística A geoestatística é uma análise espacial que considera que a variável em estudo se distribui continuamente

Leia mais

INTRODUÇÃO À ESTATÍSTICA ESPACIAL. Prof. Anderson Rodrigo da Silva

INTRODUÇÃO À ESTATÍSTICA ESPACIAL. Prof. Anderson Rodrigo da Silva INTRODUÇÃO À ESTATÍSTICA ESPACIAL Prof. Anderson Rodrigo da Silva anderson.silva@ifgoiano.edu.br Métodos Índices de agregação Métodos de quantificação da dependência especial Correlograma Variograma Métodos

Leia mais

CONHECIMENTOS ESPECÍFICOS

CONHECIMENTOS ESPECÍFICOS CONHECIMENTOS ESPECÍFICOS 2003 2004 2005 2006 2007 2008 2009 2010 X 39,0 39,5 39,5 39,0 39,5 41,5 42,0 42,0 Y 46,5 65,5 86,0 100,0 121,0 150,5 174,0 203,0 A tabela acima mostra as quantidades, em milhões

Leia mais

Universidade Federal de Lavras

Universidade Federal de Lavras Universidade Federal de Lavras Departamento de Estatística Prof. Daniel Furtado Ferreira 6 a Lista de Exercícios Teoria da Estimação pontual e intervalar 1) Marcar como verdadeira ou falsa as seguintes

Leia mais

RESOLUÇÃO Nº 01/2016

RESOLUÇÃO Nº 01/2016 Legislações Complementares: Resolução Nº 02/2016 Colegiado DEst Resolução Nº 03/2016 Colegiado DEst Resolução Nº 01/2017 Colegiado DEst RESOLUÇÃO Nº 01/2016 O Departamento de Estatística, tendo em vista

Leia mais

Modelos com Coeficientes Dinâmicos Variando no Espaço para Dados da Família Exponencial

Modelos com Coeficientes Dinâmicos Variando no Espaço para Dados da Família Exponencial Modelos com Coeficientes Dinâmicos Variando no Espaço para Dados da Família Exponencial por Nícia Custódio Hansen DME - IM - UFRJ 2009 Modelos com Coeficientes Dinâmicos Variando no Espaço para Dados da

Leia mais

A Bayesian Reassessment of Nearest-Neighbor Classification (2009)

A Bayesian Reassessment of Nearest-Neighbor Classification (2009) A Bayesian Reassessment of Nearest-Neighbor Classification (2009) Cucala, Marin, Robert e Titterington André Yoshizumi Gomes (IME/USP) Seminário ministrado no Insper 5 de fevereiro de 2016 O método knn

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Considere o problema de encontrar o valor que

Leia mais

3 Filtro de Kalman Discreto

3 Filtro de Kalman Discreto 3 Filtro de Kalman Discreto As medidas realizadas por sensores estão sujeitas a erros, como pode ser visto no Capítulo 2. Os filtros são aplicados aos sinais medidos pelos sensores para reduzir os erros,

Leia mais

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23 Noções de Simulação Ciências Contábeis - FEA - Noturno 2 o Semestre 2013 MAE0219 (IME-USP) Noções de Simulação 2 o Semestre 2013 1 / 23 Objetivos da Aula Sumário 1 Objetivos da Aula 2 Motivação 3 Geração

Leia mais

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas. 1. Inferência Estatística Inferência Estatística é o uso da informção (ou experiência ou história) para a redução da incerteza sobre o objeto em estudo. A informação pode ou não ser proveniente de um experimento

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Inferência com dimensão variável Modelos com

Leia mais

Universidade Federal do Rio de Janeiro. dos Casos de Dengue na Cidade do Rio de Janeiro no Período de 1986 a Gustavo da Silva Ferreira

Universidade Federal do Rio de Janeiro. dos Casos de Dengue na Cidade do Rio de Janeiro no Período de 1986 a Gustavo da Silva Ferreira Universidade Federal do Rio de Janeiro Análise Espaço-Temporal da Distribuição dos Casos de Dengue na Cidade do Rio de Janeiro no Período de 1986 a 2002 Gustavo da Silva Ferreira 2004 UFRJ Análise Espaço-Temporal

Leia mais

Predição Espacial Bayesiana Para Dados Composicionais

Predição Espacial Bayesiana Para Dados Composicionais Aluna de Doutorado: Orientador: Paulo Justiniano Ribeiro Junior Universidade Federal do Paraná Programa de Pós-Graduação em Métodos Numéricos em Engenharia 19 de outubro de 2009 Tese Motivação Dados Composicionais

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Escolha de modelos Até aqui assumimos que z

Leia mais

Introdução Variograma Modelos básicos de correlação espacial Modelação Interpolação espacial & Simulação. Geoestatística.

Introdução Variograma Modelos básicos de correlação espacial Modelação Interpolação espacial & Simulação. Geoestatística. Geoestatística Susana Barbosa Mestrado em Ciências Geofísicas 2012-2013 Geoestatística conjunto de técnicas matemáticas e numéricas para caracterizar fenómenos espaciais contínuos tendo em conta a correlação

Leia mais

Incerteza local e incerteza espacial SIMULAÇÃO

Incerteza local e incerteza espacial SIMULAÇÃO Incerteza local e incerteza espacial SIMULAÇÃO Situações em que o interesse na avaliação da incerteza não se resume a um ponto, mas a um conjunto de pontos simultaneamente. Com a krigagem é possível a

Leia mais

Gibbs Sampler para ANOVA e Misturas

Gibbs Sampler para ANOVA e Misturas Gibbs Sampler para ANOVA e Misturas Renato Assunção - DCC, UFMG Outubro de 014 1 Modelo ANOVA: componentes de variância Suponha que temos K grupos ou classes. Em cada grupo, temos um certo número de dados

Leia mais

Aula 2 Uma breve revisão sobre modelos lineares

Aula 2 Uma breve revisão sobre modelos lineares Aula Uma breve revisão sobre modelos lineares Processo de ajuste de um modelo de regressão O ajuste de modelos de regressão tem como principais objetivos descrever relações entre variáveis, estimar e testar

Leia mais

Desalinhamento de Variáveis em Dados Espacialmente Referenciados

Desalinhamento de Variáveis em Dados Espacialmente Referenciados Dissertação de mestrado Desalinhamento de Variáveis em Dados Espacialmente Referenciados Autor: Estrela Sumário 1 Introdução 5 2 Revisão de Geoestatística 8 2.1 Dados Espacialmente Referenciados...................

Leia mais

PARTE TEÓRICA Perguntas de escolha múltipla

PARTE TEÓRICA Perguntas de escolha múltipla PROBABILIDADES E ESTATÍSTICA MIEEC/FEUP PARTE TEÓRICA Perguntas de escolha múltipla 1 Dada a experiência aleatória ε define-se espaço amostral associado a ε como sendo: A O espaço físico onde se realiza

Leia mais

4 Conceitos Básicos de Estatística Bayesiana e Simulação Estocástica

4 Conceitos Básicos de Estatística Bayesiana e Simulação Estocástica 4 Conceitos Básicos de Estatística Bayesiana e Simulação Estocástica 4. Elementos de inferência Bayesiana Gamerman [34] define que tanto o modelo Bayesiano quanto o freqüentista trabalham na presença de

Leia mais

AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC

AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC 1 / 1 AGA 0505- Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC Laerte Sodré Jr. 1o. semestre, 2018 2 / 1 Inferência Bayesiana inferência bayesiana consideremos um conjunto de dados D que

Leia mais

p(x) Note que 1/p(x), que não depende de θ, funciona como uma constante normalizadora

p(x) Note que 1/p(x), que não depende de θ, funciona como uma constante normalizadora Capítulo 1 Introdução A informação que se tem sobre uma quantidade de interesse θ é fundamental na Estatística. O verdadeiro valor de θ é desconhecido e a idéia é tentar reduzir este desconhecimento. Além

Leia mais

5 Filtro de Kalman Aplicado ao Modelo de Schwartz e Smith (2000)

5 Filtro de Kalman Aplicado ao Modelo de Schwartz e Smith (2000) 5 Filtro de Kalman Aplicado ao Modelo de Schwartz e Smith (2000) A primeira parte deste capítulo, referente à passagem dos modelos estocásticos para as equações do Filtro de Kalman, já foi previamente

Leia mais

CONHECIMENTOS ESPECÍFICOS

CONHECIMENTOS ESPECÍFICOS CONHECIMENTOS ESPECÍFICOS As variáveis aleatórias X e Y seguem uma distribuição de Bernoulli com probabilidade de sucesso igual a 0,4. Considerando S = X + Y e que os eventos aleatórios A = [X = 1] e B

Leia mais

Capítulo 4. Métodos Aproximados. 4.1 Computação Bayesiana. 4.2 Uma Palavra de Cautela

Capítulo 4. Métodos Aproximados. 4.1 Computação Bayesiana. 4.2 Uma Palavra de Cautela Capítulo 4 Métodos Aproximados 4.1 Computação Bayesiana Existem várias formas de resumir a informação descrita na distribuição a posteriori. Esta etapa frequentemente envolve a avaliação de probabilidades

Leia mais

IND 1115 Inferência Estatística Aula 6

IND 1115 Inferência Estatística Aula 6 Conteúdo IND 5 Inferência Estatística Aula 6 Setembro de 004 A distribuição Lognormal A distribuição Beta e sua relação com a Uniforme(0,) Mônica Barros mbarros.com mbarros.com A distribuição Lognormal

Leia mais

Análise de variância para experimentos com dependência espacial entre parcelas: abordagem autoregressiva e Geoestatística

Análise de variância para experimentos com dependência espacial entre parcelas: abordagem autoregressiva e Geoestatística Análise de variância para experimentos com dependência espacial entre parcelas: abordagem autoregressiva e Geoestatística Diogo Francisco Rossoni (DES/UEM) Cristina Henriques Nogueira (DEX/UFLA) Renato

Leia mais

Laboratório Nº 5. A geoestatística permite descrever a continuidade espacial, a qual é uma característica

Laboratório Nº 5. A geoestatística permite descrever a continuidade espacial, a qual é uma característica Laboratório Nº 5 INTRODUÇAO A geoestatística permite descrever a continuidade espacial, a qual é uma característica essencial de muitos fenómenos naturais. Modelos inferenciais para este objetivo vêm sendo

Leia mais

ESTATÍSTICA BAYESIANA

ESTATÍSTICA BAYESIANA UNIVERSIDADE FEDERAL DE MINAS GERAIS INSTITUTO DE CIÊNCIAS EXATAS PET MATEMÁTICA Orientadora: Rosângela Helena Loschi ESTATÍSTICA BAYESIANA Marina Muniz de Queiroz INTRODUÇÃO A estatística clássica associa

Leia mais

Fundação Oswaldo Cruz Escola Nacional de Saúde Pública Departamento de Epidemiologia. Estatística espacial. Áreas

Fundação Oswaldo Cruz Escola Nacional de Saúde Pública Departamento de Epidemiologia. Estatística espacial. Áreas Fundação Oswaldo Cruz Escola Nacional de Saúde Pública Departamento de Epidemiologia Estatística espacial Áreas Áreas Na análise de áreas o atributo estudado é em geral resultando de uma contagem ou um

Leia mais

Aula 2. ESTATÍSTICA E TEORIA DAS PROBABILIDADES Conceitos Básicos

Aula 2. ESTATÍSTICA E TEORIA DAS PROBABILIDADES Conceitos Básicos Aula 2 ESTATÍSTICA E TEORIA DAS PROBABILIDADES Conceitos Básicos 1. DEFINIÇÕES FENÔMENO Toda modificação que se processa nos corpos pela ação de agentes físicos ou químicos. 2. Tudo o que pode ser percebido

Leia mais

Tópicos de Estatística Espacial Pontos

Tópicos de Estatística Espacial Pontos Tópicos de Estatística Espacial Pontos Anderson Castro Soares de Oliveira Análise de dados pontuais Definição (Padrão de pontos) O padrão de pontos é definido como uma base de dados contendo uma série

Leia mais

Cap. 4 - Estimação por Intervalo

Cap. 4 - Estimação por Intervalo Cap. 4 - Estimação por Intervalo Amostragem e inferência estatística População: consiste na totalidade das observações em que estamos interessados. Nº de observações na população é denominado tamanho=n.

Leia mais

Fundação Oswaldo Cruz Escola Nacional de Saúde Pública Departamento de Epidemiologia. Estatística espacial. Padrão Pontual

Fundação Oswaldo Cruz Escola Nacional de Saúde Pública Departamento de Epidemiologia. Estatística espacial. Padrão Pontual Fundação Oswaldo Cruz Escola Nacional de Saúde Pública Departamento de Epidemiologia Estatística espacial Padrão Pontual Padrão de Pontos A análise de padrão de pontos, é o tipo mais simples de análise

Leia mais

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Geração de Números Aleatórios Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 61 Simulando de Distribuições Discretas Assume-se que um

Leia mais

TE802 Processos Estocásticos em Engenharia. Processo Aleatório. TE802 Processos Aleatórios. Evelio M. G. Fernández. 18 de outubro de 2017

TE802 Processos Estocásticos em Engenharia. Processo Aleatório. TE802 Processos Aleatórios. Evelio M. G. Fernández. 18 de outubro de 2017 TE802 Processos Estocásticos em Engenharia Processos Aleatórios 18 de outubro de 2017 Processo Aleatório Processo Aleatório (ou Estocástico), X(t): Função aleatória do tempo para modelar formas de onda

Leia mais

Sumário. CAPÍTULO 1 Conceitos preliminares 1. CAPÍTULO 2 Descrição de dados: análise monovariada 47

Sumário. CAPÍTULO 1 Conceitos preliminares 1. CAPÍTULO 2 Descrição de dados: análise monovariada 47 CAPÍTULO 1 Conceitos preliminares 1 Introdução........................................................1 O que é estatística?.................................................. 4 Papel dos microcomputadores.........................................

Leia mais

Inferência Bayesiana para testes acelerados "step-stress" simples com dados de falha sob censura tipo II e distribuição Gama

Inferência Bayesiana para testes acelerados step-stress simples com dados de falha sob censura tipo II e distribuição Gama Inferência Bayesiana para testes acelerados "step-stress" simples com dados de falha sob censura tipo II e distribuição Gama Karlla Delalibera Chagas pósmac, Unesp Presidente Prudente, Brasil karlladelalibera@gmail.com

Leia mais

UTILIZAÇÃO DE GEOESTATÍSTICA PARA O ESTUDO DO ATRIBUTO COBRE NO SOLO. Gabriel Tambarussi Avancini 1 RESUMO

UTILIZAÇÃO DE GEOESTATÍSTICA PARA O ESTUDO DO ATRIBUTO COBRE NO SOLO. Gabriel Tambarussi Avancini 1 RESUMO UTILIZAÇÃO DE GEOESTATÍSTICA PARA O ESTUDO DO ATRIBUTO COBRE NO SOLO Gabriel Tambarussi Avancini 1 RESUMO Este trabalho teve como objetivo estudar a espacialização do atributo cobre, Cu, do solo utilizando

Leia mais

Aula 17. Aula de hoje. Aula passada. Problemas Monte Carlo na moda Caminho trilhado Desafios à frente Avaliação

Aula 17. Aula de hoje. Aula passada. Problemas Monte Carlo na moda Caminho trilhado Desafios à frente Avaliação Aula 17 Aula passada Otimização Caixeiro viajante Hill Climbing Distribuição de Boltzman Simulated Annealing De volta ao caixeiro Aula de hoje Problemas Monte Carlo na moda Caminho trilhado Desafios à

Leia mais

Modelos de redes sociais para dados de Migração

Modelos de redes sociais para dados de Migração Modelos de redes sociais para dados de Migração Gustavo da Silva Ferreira 20/Outubro/2016 Redes Sociais Uma rede social se estrutura por um conjunto de atores ounós (pessoas, objetos, locais ou eventos)

Leia mais

Um Estudo do Comportamento dos Gráficos de Controle Construídos Via Metodologia de Geoestatística

Um Estudo do Comportamento dos Gráficos de Controle Construídos Via Metodologia de Geoestatística XIII SIMPEP - Bauru, SP, Brasil, 6 a 8 de Novembro de 006 Um Estudo do Comportamento dos Gráficos de Controle Construídos Via Metodologia de Geoestatística Fabiane Renata de Santana Yassukawa (UFMG) fabianesy@yahoo.com.br

Leia mais

Análise Multivariada Aplicada à Contabilidade

Análise Multivariada Aplicada à Contabilidade Mestrado e Doutorado em Controladoria e Contabilidade Análise Multivariada Aplicada à Contabilidade Prof. Dr. Marcelo Botelho da Costa Moraes www.marcelobotelho.com mbotelho@usp.br Turma: 2º / 2016 1 Agenda

Leia mais

Teoria de decisão Bayesiana e clássica: determinação de preços

Teoria de decisão Bayesiana e clássica: determinação de preços Teoria de decisão Bayesiana e clássica: determinação de preços Mário Hissamitsu Tarumoto 1 Luan Cauê Cherubini 2 Olga L.Anglas R.Tarumoto 1 1 Introdução A teoria da decisão é uma abordagem sistemática

Leia mais

Ralph S. Silva

Ralph S. Silva ANÁLISE ESTATÍSTICA MULTIVARIADA Ralph S Silva http://wwwimufrjbr/ralph/multivariadahtml Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Revisão:

Leia mais

Inferência para CS Tópico 10 - Princípios de Estimação Pontual

Inferência para CS Tópico 10 - Princípios de Estimação Pontual Inferência para CS Tópico 10 - Princípios de Estimação Pontual Renato Martins Assunção DCC - UFMG 2013 Renato Martins Assunção (DCC - UFMG) Inferência para CS Tópico 10 - Princípios de Estimação Pontual

Leia mais

Comparação entre intervalos de confiança calculados com métodos bootstrap e intervalos assintóticos

Comparação entre intervalos de confiança calculados com métodos bootstrap e intervalos assintóticos Comparação entre intervalos de confiança calculados com métodos strap e intervalos assintóticos Selene Loibel Depto. de Estatística, Matemática Aplicada e Computação, IGCE, UNESP, Rio Claro, SP E-mail:sloibel@rc.unesp.br,

Leia mais

Classificadores. André Tavares da Silva.

Classificadores. André Tavares da Silva. Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:

Leia mais

Tópicos Especiais em Qualidade

Tópicos Especiais em Qualidade Tópicos Especiais em Qualidade Processos estocásticos, Distribuições de probabilidade e Ajustamento de dados Qualquer sistema real opera sempre em ambientes onde a incerteza impera, principalmente quando

Leia mais

Modelos bayesianos estáticos globais na construção de tábuas de mortalidade para a macrorregião do sul de Minas Gerais

Modelos bayesianos estáticos globais na construção de tábuas de mortalidade para a macrorregião do sul de Minas Gerais UNIVERSIDADE FEDERAL DE ALFENAS LARISSA DE ALCÂNTARA MONTEIRO Modelos bayesianos estáticos globais na construção de tábuas de mortalidade para a macrorregião do sul de Minas Gerais Varginha-MG 2016 RESUMO

Leia mais

Resumo. Parte 7 Processos Estocásticos. Ramiro Brito Willmersdorf

Resumo. Parte 7 Processos Estocásticos. Ramiro Brito Willmersdorf Parte 7 Processos Estocásticos Ramiro Brito Willmersdorf ramiro@willmersdorf.net Departamento de Engenharia Mecânica Universidade Federal de Pernambuco 2011.2 Resumo 1 Processos Estocásticos 2 Classicação

Leia mais

7 Conclusões e desenvolvimentos futuros

7 Conclusões e desenvolvimentos futuros 7 Conclusões e desenvolvimentos futuros 7.1 Conclusões Este trabalho apresentou novas soluções para a determinação da posição de terminais de comunicações móveis com base em medidas de ToA. Nos métodos

Leia mais

A análise de séries temporais é uma área da estatística dedicada ao estudo de dados orientados no tempo (MONTGOMERY, 2004).

A análise de séries temporais é uma área da estatística dedicada ao estudo de dados orientados no tempo (MONTGOMERY, 2004). 3 Séries temporais A análise de séries temporais é uma área da estatística dedicada ao estudo de dados orientados no tempo (MONTGOMERY, 2004). 3.1. Princípios fundamentais Conforme Box et al. (1994), uma

Leia mais

Incerteza local e incerteza espacial SIMULAÇÃO

Incerteza local e incerteza espacial SIMULAÇÃO Incerteza local e incerteza espacial SIMULAÇÃO Situações em que o interesse na avaliação da incerteza não se resume a um ponto, mas a um conjunto de pontos simultaneamente. Com a krigagem é possível a

Leia mais

O uso de técnicas geoestatísticas na espacialização da argila do solo

O uso de técnicas geoestatísticas na espacialização da argila do solo O uso de técnicas geoestatísticas na espacialização da argila do solo Elisângela Aparecida de Oliveira 1 Tiago Egídio Barreto 2 Ricardo Ribeiro Rodrigues 3 1 Introdução O termo estatística espacial é utilizado

Leia mais

INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA. Prof. Anderson Rodrigo da Silva

INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA. Prof. Anderson Rodrigo da Silva INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA Prof. Anderson Rodrigo da Silva anderson.silva@ifgoiano.edu.br Tipos de Pesquisa Censo: é o levantamento de toda população. Aqui não se faz inferência e sim uma descrição

Leia mais

Modelos de Regressão Linear Simples - Análise de Resíduos

Modelos de Regressão Linear Simples - Análise de Resíduos Modelos de Regressão Linear Simples - Análise de Resíduos Erica Castilho Rodrigues 1 de Setembro de 2014 3 O modelo de regressão linear é dado por Y i = β 0 + β 1 x i + ɛ i onde ɛ i iid N(0,σ 2 ). O erro

Leia mais

Estatística Descritiva e Exploratória

Estatística Descritiva e Exploratória Gledson Luiz Picharski e Wanderson Rodrigo Rocha 9 de Maio de 2008 Estatística Descritiva e exploratória 1 Váriaveis Aleatórias Discretas 2 Variáveis bidimensionais 3 Váriaveis Aleatórias Continuas Introdução

Leia mais

Universidade Federal do Rio de Janeiro SOBREVIVÊNCIA COM FRAGILIDADE ESPACIAL. Leonardo Soares Bastos

Universidade Federal do Rio de Janeiro SOBREVIVÊNCIA COM FRAGILIDADE ESPACIAL. Leonardo Soares Bastos Universidade Federal do Rio de Janeiro MODELOS DINÂMICOS E ESTATÍCOS DE SOBREVIVÊNCIA COM FRAGILIDADE ESPACIAL Leonardo Soares Bastos 2003 UFRJ Modelos Dinâmicos e Estáticos de Sobrevivência com Fragilidade

Leia mais

A Metodologia de Box & Jenkins

A Metodologia de Box & Jenkins A Metodologia de Box & Jenins Aula 03 Bueno, 0, Capítulo 3 Enders, 009, Capítulo Morettin e Toloi, 006, Capítulos 6 a 8 A Metodologia Box & Jenins Uma abordagem bastante utilizada para a construção de

Leia mais

Econometria IV Modelos Lineares de Séries Temporais. Fernando Chague

Econometria IV Modelos Lineares de Séries Temporais. Fernando Chague Econometria IV Modelos Lineares de Séries Temporais Fernando Chague 2016 Estacionariedade Estacionariedade Inferência estatística em séries temporais requer alguma forma de estacionariedade dos dados Intuição:

Leia mais

Uma Avaliação do Erro Tipo II no Uso do Teste t-student

Uma Avaliação do Erro Tipo II no Uso do Teste t-student Uma Avaliação do Erro Tipo II no Uso do Teste t-student Cleber Giugioli Carrasco Thiago Santana Lemes 1 Unidade Universitária de Ciências Exatas e Tecnológicas, Universidade Estadual de Goiás, UnUCET/UEG,

Leia mais

Introdução à Teoria de Resposta ao Item

Introdução à Teoria de Resposta ao Item Caio L. N. Azevedo, IMECC/Unicamp Dani Gamerman, DME/UFRJ I CONBRATRI, Florianópolis 9 de dezembro de 2009 Parte II Parte 2: Implementação computacional. Análise de dados 1. Modelo de 3 parâmetros via

Leia mais

Estudo sobre decodificação iterativa usando códigos de treliça

Estudo sobre decodificação iterativa usando códigos de treliça Revista de Engenharia e Pesquisa Aplicada, Volume 2, Número 1, 2016 Estudo sobre decodificação iterativa usando códigos de treliça Souza, I. M. M. Escola Politécnica de Pernambuco Universidade de Pernambuco

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Simulação O que é simulação? Reprodução de um

Leia mais

Especialização em Engenharia de Processos e de Sistemas de Produção

Especialização em Engenharia de Processos e de Sistemas de Produção Especialização em Engenharia de Processos e de Sistemas de Produção Projetos de Experimento e Confiabilidade de Sistemas da Produção Prof. Claudio Luis C. Frankenberg 3ª parte Conforme foi apresentado

Leia mais

Introdução aos Proc. Estocásticos - ENG 430

Introdução aos Proc. Estocásticos - ENG 430 Introdução aos Proc. Estocásticos - ENG 430 Fabrício Simões IFBA 16 de novembro de 2015 Fabrício Simões (IFBA) Introdução aos Proc. Estocásticos - ENG 430 16 de novembro de 2015 1 / 34 1 Motivação 2 Conceitos

Leia mais

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9 em Econometria Departamento de Economia Pontifícia Universidade Católica do Rio de Janeiro Aula 9 Data Mining Equação básica: Amostras finitas + muitos modelos = modelo equivocado. Lovell (1983, Review

Leia mais

CONHECIMENTOS ESPECÍFICOS

CONHECIMENTOS ESPECÍFICOS fonte de graus de soma de quadrado variação liberdade quadrados médio teste F regressão 1 1,4 1,4 46,2 resíduo 28 0,8 0,03 total 2,2 A tabela de análise de variância (ANOVA) ilustrada acima resulta de

Leia mais

Modelos de Regressão Linear Simples - Análise de Resíduos

Modelos de Regressão Linear Simples - Análise de Resíduos 1 Modelos de Regressão Linear Simples - Análise de Resíduos Erica Castilho Rodrigues 27 de Setembro de 2016 2 3 O modelo de regressão linear é dado por 3 O modelo de regressão linear é dado por Y i = β

Leia mais

Modelos para Séries Temporais Aula 1. Morettin e Toloi, 2006, Capítulo 2 Morettin, 2011, Capítulo 2 Bueno, 2011, Capítulo 2

Modelos para Séries Temporais Aula 1. Morettin e Toloi, 2006, Capítulo 2 Morettin, 2011, Capítulo 2 Bueno, 2011, Capítulo 2 Modelos para Séries Temporais Aula 1 Morettin e Toloi, 2006, Capítulo 2 Morettin, 2011, Capítulo 2 Bueno, 2011, Capítulo 2 Modelos para Séries Temporais Os modelos utilizados para descrever séries temporais

Leia mais

Processos Estocásticos

Processos Estocásticos Processos Estocásticos Luis Henrique Assumpção Lolis 26 de maio de 2014 Luis Henrique Assumpção Lolis Processos Estocásticos 1 Conteúdo 1 Introdução 2 Definição 3 Especificando um processo aleatório 4

Leia mais

DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia

DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia ROTEIRO 1. Introdução; DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL. Teorema Central do Limite; 3. Conceitos de estimação pontual; 4. Métodos de estimação pontual; 5. Referências. 1 POPULAÇÃO E AMOSTRA População:

Leia mais

Inferência Bayesiana - Aula 1 -

Inferência Bayesiana - Aula 1 - Inferência Bayesiana - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência

Leia mais

Modelos Dinâmicos para Estimação de Ciclos: Um estudo sobre geração e ajuste de dados

Modelos Dinâmicos para Estimação de Ciclos: Um estudo sobre geração e ajuste de dados Universidade Federal do Rio de Janeiro Guido Alberti Moreira Modelos Dinâmicos para Estimação de Ciclos: Um estudo sobre geração e ajuste de dados Rio de Janeiro 2009 UFRJ Modelos Dinâmicos para Estimação

Leia mais

Cristiane Duarte de Jesus

Cristiane Duarte de Jesus UMA ANÁLISE BAYESIANA PARA DADOS EDUCACIONAIS por Cristiane Duarte de Jesus Dissertação de Mestrado submetida ao programa de Pós-graduação em Estatística. Instituto de Matemática da Universidade Federal

Leia mais

Econometria em Finanças e Atuária

Econometria em Finanças e Atuária Ralph S. Silva http://www.im.ufrj.br/ralph/especializacao.html Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Maio-Junho/2013 Modelos condicionalmente

Leia mais

Análise Bayesiana de Dados - Aula 1 -

Análise Bayesiana de Dados - Aula 1 - Análise Bayesiana de Dados - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência

Leia mais

Exercícios de programação

Exercícios de programação Exercícios de programação Estes exercícios serão propostos durante as aulas sobre o Mathematica. Caso você use outra linguagem para os exercícios e problemas do curso de estatística, resolva estes problemas,

Leia mais

Modelagem Conjunta de Média e Variância: Uma Aplicação ao Problema de Estimação em Pequenos Domínios

Modelagem Conjunta de Média e Variância: Uma Aplicação ao Problema de Estimação em Pequenos Domínios Modelagem Conjunta de Média e Variância: Uma Aplicação ao Problema de Estimação em Pequenos Domínios por Joaquim Henriques Vianna Neto DME - IM - UFRJ 2007 Modelagem Conjunta de Média e Variância: Uma

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Se a integração analítica não é possível ou

Leia mais

MOQ-13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel

MOQ-13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel MOQ-13 PROBABILIDADE E ESTATÍSTICA Professor: Rodrigo A. Scarpel rodrigo@ita.br www.mec.ita.br/~rodrigo Programa do curso: Semanas 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 e 16 Introdução à probabilidade (eventos,

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Monte Carlo via cadeias de Markov: o OpenBUGS

Leia mais