ESTATÍSTICA COMPUTACIONAL

Documentos relacionados
ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

CC-226 Aula 07 - Estimação de Parâmetros

ESTATÍSTICA COMPUTACIONAL

Técnicas computacionais em probabilidade e estatística II

Análise de Dados e Simulação

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL

Inferência Bayesiana - Aula 3 -

Inferência Bayesiana para testes acelerados "step-stress" simples com dados de falha sob censura tipo II e distribuição Gama

Inferência Bayesiana Exata para Processos de Cox Level-Set

AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

ESTATÍSTICA COMPUTACIONAL

Distribuição Amostral e Estimação Pontual de Parâmetros

Gibbs Sampler para ANOVA e Misturas

Inferência Bayesiana

Introdução a Inferência Bayesiana

Estimação Bayesiana em Modelo de Regressão Logística Dicotômica

Universidade Federal de Viçosa Departamento de Estatística

Inferência Bayesiana - Aula 1 -

Estimadores, pontual e intervalar, para dados com censuras intervalar

Influencia de Distribuições a priori na Analise Bayesiana em dados de contagem

Métodos Computacionais para inferência estatística

Análise Bayesiana de Dados - Aula 1 -

Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017.

ESTATÍSTICA COMPUTACIONAL

Novembro/2018. Ajuste Automático ao Histórico em Simulação de Reservatórios

Distribuição Amostral e Estimação Pontual de Parâmetros

A Bayesian Reassessment of Nearest-Neighbor Classification (2009)

Distribuições Amostrais e Estimação Pontual de Parâmetros

Métodos para geração de variáveis aleatórias

p(x) Note que 1/p(x), que não depende de θ, funciona como uma constante normalizadora

Determinação do tamanho amostral: uma abordagem genuinamente Bayesiana

03/06/2014. Tratamento de Incertezas TIC Aula 18. Conteúdo Inferência Estatística Clássica

Aprendizado Bayesiano

Universidade Federal de Lavras

INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA

Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados

Capítulo 4. Métodos Aproximados. 4.1 Computação Bayesiana. 4.2 Uma Palavra de Cautela

Análise de Desempenho em Filas M/M/1 Usando uma Abordagem Bayesiana

Metodologia de inversão

Markov Switching Models. Profa. Airlane Alencar. Depto de Estatística - IME-USP. lane. Ref: Kim e Nelson (1999) e Hamilton (1990)

Estatística e Modelos Probabilísticos - COE241

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33

Aumentando a Eciência de Métodos Monte Carlo: Redução de Variâncias por Condicionamento

Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017.

DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia

Técnicas computacionais em probabilidade e estatística II

Inferência Estatistica

Modelos bayesianos estáticos globais na construção de tábuas de mortalidade para a macrorregião do sul de Minas Gerais

Estimação Frequentista e Bayesiana

AULA 7 - Inferência em MQO: ICs e Testes de

Classificadores. André Tavares da Silva.

Análise de Dados e Simulação

Inferência Bayesiana na distribuição Normal

Modelos Lineares Generalizados

Distribuições Amostrais e Estimação Pontual de Parâmetros

Estatísticas Inferenciais Distribuições Amostrais. Estatística

Introdução ao Processamento Estatístico de Sinais

CONHECIMENTOS ESPECÍFICOS

Modelos Multiparamêtricos via pacote LearnBayes e software R

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23

1) Considere Y N(1, 1) e X Y = y N(y, 4). A quantidade de interesse é θ = P (X > 1).

Probabilidade e Estatística. Estimação de Parâmetros Intervalo de Confiança

Estimação: (A) Propriedades e Distribuições Amostrais

TÉCNICAS DE AMOSTRAGEM

Cap. 8 - Intervalos Estatísticos para uma Única Amostra

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9

Ajuste do modelo de regressão linear: Inferência Bayesiana, aspectos computacionais e seleção de variáveis.

UNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição

Exercícios de programação

Análise Bayesiana de Dados - Aplicações 1 -

Amostra Aleatória. Tiago Viana Flor de Santana

COMPORTAMENTO ASSITÓTICO DE ESTIMADORES DE MÁXIMA VEROSSIMILHANÇA

PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1)

SME o semestre de Prof. Cibele Russo

Ricardo Sandes Ehlers

Testes paramétricos: médias variâncias, testes t e F

MEEMF-2010 Aula 01. Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana

Modelos Lineares Generalizados - Métodos de Estimação

3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente.

MAE0524: Análise Bayesiana de Dados

CE085 - Estatística Inferencial. derivadas. Prof. Wagner Hugo Bonat. 5 de setembro de Curso de Bacharelado em Estatatística

Aula 17. Aula de hoje. Aula passada. Problemas Monte Carlo na moda Caminho trilhado Desafios à frente Avaliação

Modelos Matemáticos e Aplicações (15/16)

Descodificação iterativa

6- Probabilidade e amostras: A distribuição das médias amostrais

Amostragem e distribuições por amostragem

ACH4513 INFERÊNCIA ESTATÍSTICA. 2º Sem/2017. Estimação. Prof. Marcelo S. Lauretto

Aula 4. Aula de hoje. Aula passada

Distribuições Amostrais e Estimação Pontual de Parâmetros

Rafael Izbicki 1 / 38

Distribuições Amostrais - Tamanho da Amostra

Métodos Estatísticos

1) Deseja-se usar o algoritmo de rejeição para simular de uma v.a. normal positiva, cuja densidade é dada por. 2 x > 0.

Métodos para Classificação: - Naïve Bayes.

Avaliação Monte Carlo do teste para comparação de duas matrizes de covariâncias normais na presença de correlação

Transcrição:

ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro

Sumário

Escolha de modelos Até aqui assumimos que z 1,..., z n seguem uma distribuição paramétrica conhecida. Por exemplo, z 1,..., z n N (µ, σ 2 ). Neste caso, a inferência está completa quando temos a distribuição a posteriori dos parâmetros desconhecidos. Mas, esse é o modelo mais adequado?

Introdução Considere um modelo para um conjunto de dados z. Podemos calcular a densidade preditiva dada por: f (z M) = f (z θ, M)f (θ M)dθ. Θ Note que f (z M) é a constante de normalização da densidade a posteriori de θ. A densidade preditiva pode ser vista como a verossimilhança do modelo M. Portanto, pode ser usada para fazer inferência sobre a escolha de um modelo.

Inferência para o modelo Considere o problema geral de escolher entre J modelos para um conjunto de dados observados z. Atribua probabilidades a priori para cada modelo possível: tal que J j=1 f (M j) = 1. f (M 1 ),..., f (M J ), Uma abordagem direta é estimar a probabilidade a posteriori dos modelo. Nesse caso, f (z M j )f (M j ) f (M j z) = J i=1 f (z M i)f (M i ), sendo f (z M j ) a verossimilhança marginal para os dados sob o modelo M j.

Cálculo da preditiva Para o modelo M j, nosso principal interesse é calcular f (z M j ) = f (z θ, M j )f (θ M j )dθ. Em muitos casos, a expressão da preditiva não pode ser obtida analiticamente devido a complexidade da integral acima. Θ Nestes casos, usamos métodos aproximados para obter a preditiva do modelo M j. Aproximando a preditiva Iremos considerar o método de Monte Carlo para aproximar a preditiva de interesse. Em alguns casos, iremos usar amostras da posteriori de θ obtidas usando Monte Carlo via cadeias de Markov para obter aproximações da preditiva de z.

Aproximação usando a distribuição a priori Considere um modelo M. Temos que a preditiva ée dada por f (z M) = f (z θ, M)f (θ M)dθ. Note que podemos escrever f (z M) = E (f (z θ, M)), Θ sob a distribuição a priori de θ. Aproximação baseada na distribuição a priori: ˆf1 (z M) = 1 N N f (z θ (i), M), i=1 sendo θ (1),..., θ (N) são gerados da distribuição a priori f (θ M).

Exemplo Considere z 1,..., z n com distribuição exponencial com parâmetro θ, f (z i θ) = θ exp{ θz i }, para z i > 0. Para a distribuição a priori θ G(a, b) temos que a preditiva é dada por f (z) = Γ(n + a) Γ(a) b a (b + nz) n+a. Podemos usar a aproximação baseada em gerações da distribuição a priori: Gerar θ (1),..., θ (N) da G(a, b). Calcular L(θ (k) z) = (θ (k) ) n exp{ θ (k) nz}, para k = 1,..., N. Calcular ˆf 1 (z) = 1 N L(θ (k) z). N k=1 (Mostrar exemplo no R: exemplo_55.r)

Estimador média harmônica Outra opção: usar uma densidade de importância. Estimador de média harmônica: [ ] 1 1 N 1 ˆf2 (z) =, N f (z θ (i) ) i=1 sendo θ (1),..., θ (i) gerados da posteriori de θ. Note que um valor de verossimilhança muito pequeno tem grande efeito sobre o estimador, tornando-o muito instável. (Mostrar exemplo no R: exemplo_55.r)

Amostragem por importância Estimador de Monte Carlo para I: Î = 1 N N i=1 h(x i ) f (x i) g(x i ), Iremos considerar uma alternativa que garante variância finita dos estimador Î. Considere o estimador N i=1 Î 2 = h(x i)f (x i )/g(x i ) N i=1 f (x. i)/g(x i ) Note que neste caso estamos substituindo N por N i=1 f (x i)/g(x i ), que é a soma dos pesos. Como N i=1 f (x i)/g(x i ) 1 quando N o estimador Î2 I pela Lei Forte dos Grandes Números.

Outro estimador Os problemas de f 1 e f 2 são opostos, de forma que uma solução é considerar uma mistura das duas propostas. ˆf3 (z) = sendo N i=1 f (z θ(i) )ω(θ (i) ) N i=1 ω(θ(i) ) ω(θ (i) ) = = N i=1 f (z θ(i) )[δf (z) + (1 δ)f (z θ (i) )] 1 N i=1 [δf (z) + (1 δ)f (z θ(i) )] 1, f (θ (i) ) δf (θ (i) ) + (1 δ)f (θ (i) z), δ é o peso da mistura e deve ser pequeno e θ (1),..., θ (N) são gerados da mistura δf (θ) + (1 δ)f (θ (i) z). Note que o estimador depende de f (z) que é desconhecido. Solução?

Algoritmo iterativo (0) 1. Inicializar ˆf 3. 2. Gerar δn valores da distribuição a priori e gerar (1 δ)n valores da distribuição a posteriori. 3. Para j de 1 até J faça ˆf (j) N 3 (z) = i=1 f (z θ(i) )[δf (j 1) 3 (z) + (1 δ)f (z θ (i) )] 1. (j 1) [δf 3 (z) + (1 δ)f (z θ (i) )] 1 N i=1 O algoritmo termina para um número máximo de iterações J. Note que precisamos gerar amostras da priori e também da posteriori. Solução? Usar somente as amostras da posteriori. (Mostrar exemplo no R: exemplo_55.r)

Amostragem ponte (bridge sampling) Considere uma função α(θ), chamada ponte. Temos a relação: f (z θ)f (θ) α(θ)g(θ) dθ = α(θ)g(θ)f (θ z)dθ. f (z) Então, f (z) = α(θ)f (θ)f (z θ)g(θ)dθ. α(θ)g(θ)f (θ z)dθ Considere (θ (1),..., θ (N 1) ) uma amostra da posteriori e ( θ (1),..., θ (N 2) ) uma amostra de g(θ). O estimador ponte proposto por Meng e Wong (1996) é dado por N2 j=1 ˆf α( θ (j) )f ( θ (j) )f (z θ (j) ) (z) = N1. j=1 α(θ(j) )g(θ (j) )

Estimador ótimo O estimador que minimiza o erro quadrático médio (EQM) tem α(θ) = N 2 N 1 f (θ z) + N 2 g(θ). Defina s 1 = N 1 /(N 1 + N 2 ) e s 2 = N 2 /(N 1 + N 2 ). Defina ω j = f (θ(j) )f (z θ (j) ) g(θ (j) ) e ω j = f ( θ (j) )f (z θ (j) ). g( θ (j) ) O estimador com erro quadrático médio mínimo é dado por e estima f (z). 1 N2 N ˆf (z) = 2 j=1 ω j[s 1 ω j + s 2ˆf (z)] 1 1 N1 N 1 j=1 [s 1ω j + s, 2ˆf (z)] 1 (Mostrar exemplo no R: exemplo_55.r)

Estimador gama deslocado Outra proposta é conhecida como estimador gama deslocada proposto por Raftery et al. (2007). Nessa proposta, as saídas de Monte Carlo (via cadeias de Markov) são utilizadas para calcular a sequência de valores da log-verossimilhança {l k : k = 1,..., n} e a distribuição a posteriori das log-verossimilhanças é dada por l max l k G(α, λ), sendo l max o máximo da log-verossimilhança, α = d/2 com d o número de parâmetros do modelo e λ < 1. Na prática, λ é próximo de 1.

Combinando a identidade da média harmônica ( ) 1 1 f (y) = E, f (y θ) com a distribuição gama para l max l k temos ln f (y) = l max + α ln(1 λ). Em geral, l max não é conhecido, então ˆl max = máx{ l + s 2 l, l k } é usado, sendo l + s 2 l o estimador de momentos de l max, l e s 2 l a média e variância amostrais de l k s, respectivamente. (Mostrar exemplo no R: exemplo_56.r)

Fator de Bayes O problema de escolher modelos também pode ser visto como um problema de testar hipóteses. Por exemplo, podemos usar o Fator de Bayes (Kass and Raftery, 1995) para medir a probabilidade a posteriori relativa dos modelos de interesse. Se consideramos dois modelos M 1 e M 0, então o Fator de Bayes é definido por B 10 = f (y M 1) f (y M 0 ). Resume a evidência fornecida pelos dados em favor de um modelo contra o outro. É usual considerar 2 vezes o log do Fator de Bayes pois nesse caso temos a mesma escala da Estatística do teste da razão de verossimilhança.

Fator de Bayes na prática Um guia foi fornecido no artigo Kass and Raftery (1995) para interpretação do Fator de Bayes B 10 que é a evidência em favor do modelo M 1 contra o modelo M 0. 2 ln(b 10 ) B 10 Evidência contra H 0 0 a 2 1 a 3 Não merece ser muito comentada 2 a 6 3 a 20 Positiva 6 a 10 20 a 150 Forte >10 >150 Muito forte

Exemplo: fator de Bayes Suponha que queremos comparar 2 modelos: M 0 : y LN (µ, σ 2 ) M 1 : y E(θ). Podemos calcular a preditiva f (y) para cada modelo e obter o fator de Bayes. (Mostrar exemplo no R: exemplo_57.r)

Referências Newton and Raftery (1994), Approximate Bayesian inference with the weighted likelihood bootstrap, Journal of the Royal Statistical Society, Series B. Verdinelli and Wasserman (1995), Computing Bayes factors using a generalization of the Savage-Dickey density ratio, Journal of the American Statistical Association, Jun 1995, Vol. 90, No. 430. Chib (1995), Marginal Likelihood from the Gibbs Output, Journal of the American Statistical Association, Vol. 90, No. 432. Green (1995), Reversible Jump Markov Chain Monte Carlo Computation and Bayesian Model Determination, Biometrika, Vol. 82, No. 4. Meng and Wong (1996), Simulating ratios of normalizing constants via a simple identity: a theoretical exploration, Statist. Sinica, 6.. Gneiting and Raftery (2007), Strictly Proper Scoring Rules, Prediction, and Estimation, Journal of the American Statistical Association, March 2007, Vol. 102, No. 477.