AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC
|
|
- Bento Castilhos Lemos
- 5 Há anos
- Visualizações:
Transcrição
1 1 / 1 AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC Laerte Sodré Jr. 1o. semestre, 2018
2 2 / 1 Inferência Bayesiana inferência bayesiana consideremos um conjunto de dados D que queremos explicar com um modelo M que tem um conjunto de parâmetros x que queremos determinar teorema de Bayes: P(D x, M)P(x M) P(x D, M) = P(D M) em geral P(D M) = P(D), mas nem sempre! cada termo tem um nome: P(x D, M): o posterior, ou probabilidade a posteriori de x P(D x, M): a verossimilhança (likelihood): a probabilidade dos dados com um modelo M e parâmetros x P(x M): o prior de x, a probabilidade a priori dos valores dos parâmetros; o que se sabe de x independentemente dos dados P(D M): a evidência dos dados: P(D M) = P(D x, M)P(x M)dx diferença entre a inferência bayesiana e máxima verossimilhança: inferência bayesiana: determina a distribuição de probabilidades dos parâmetros dado um modelo probabilístico (verossimilhança + prior) máxima verossimilhança: determina o valor que maximiza a verossimilhança estimativa bayesiana dos parâmetros: P(x D, M) P(D x, M)P(x M), já que a evidência não depende de x
3 3 / 1 Inferência Bayesiana que prior escolher? Bernoulli (1713): princípio da razão insuficiente se conseguimos enumerar um conjunto de possibilidades mutuamente exclusivas e não temos nenhuma razão para achar que uma é mais provável que outra, então devemos atribuir a mesma probabilidade a todas em alguns casos o prior é natural: problemas de sucesso/falha: distribuição binomial contagens: Poisson médias e variâncias: gaussiana exemplo: probabilidade de cada face de um dado: 1/6
4 4 / 1 Inferência Bayesiana que prior escolher? priores para parâmetros de localização: exemplo: a média de uma distribuição prior uniforme dentro de um intervalo de interesse: p(x) = { 1 b a se a < x < b 0 se x < a ou x > b priores para parâmetros de escala: exemplo: variância de uma distribuição priores próprios e impróprios: normalizados ou não Ex.: P(x) = 1/(b a) como acima vs P(x) = cte a forma do posterior não muda prior uniforme em log dentro de um intervalo de interesse ou P(x) 1/x priores como esses são chamados de não-informativos
5 5 / 1 Inferência Bayesiana que prior escolher? método da máxima entropia: quando se tem vínculos associados a uma distribuição de probabilidades (se, por exemplo, a média da distribuição é conhecida), deve-se escolher a distribuição que maximiza a entropia exemplo: joga-se um dado 6 vezes e obtém-se uma média de 4.5 (o normal é 3.5); qual é a distribuição esperada para os 6 valores do dado? a solução é a que maximiza a entropia 6 S = p i ln p i i=1 sujeita aos vínculos: 6 p i = 1 e i=1 6 ip i = 4.5 i=1 (Sivia & Skilling) usa-se o método dos multiplicadores de Lagrange para maximização de S sujeita aos vínculos do problema
6 6 / 1 Inferência Bayesiana que prior escolher? estimativa de parâmetros: sequencial ou conjunta temos um conjunto de dados D = {d i } que queremos modelar com um modelo que tem parâmetros x podemos estimar x via uma análise conjunta de todos os dados: p(x D) p(d x)p(x) ou sequencialmente, usando um dado de cada vez: chega um dado d 1 : chega um dado d 2 : p(x d 1 ) p(d 1 x)p(x) p(x d 1, d 2 ) p(d 1, d 2 x)p(x) se os dados são independentes: p(d 1, d 2 x) = p(d 1 x)p(d 2 x) logo, p(x d 1, d 2 ) p(d 1 x)p(d 2 x)p(x) p(d 2 x)p(x d 1 ) se chega um dado d 3, analogamente, teremos: p(x d 1, d 2, d 3 ) p(d 3 x)p(x d 1, d 2 ) note que, nesse caso, o prior da estimativa de um novo dado é o posterior da estimativa anterior priores conjugados: quando a forma do posterior é a mesma do prior: útil em aplicações sequenciais (updating bayesiano)
7 7 / 1 Inferência Bayesiana inferência dos parâmetros de uma gaussiana suponha que tenhamos um conjunto de dados que queiramos modelar como uma gaussiana de média x (desconhecida) e desvio padrão σ = 2: N(x, σ = 2) suponha que nosso prior seja uma gaussiana de média 3 e desvio padrão 1: p(x) = N(3, 1) obtemos um dado: x 1 = 5; qual é o posterior de x? Bayes: posterior proporcional à verossimilhança vezes o prior [ ] [ ] (5 x)2 (x 3)2 p(x x 1 ) p(x 1 x)p(x) exp exp 8 2 pode-se mostrar que este posterior também é gaussiano, de média 17/5 e variância 4/5
8 8 / 1 Inferência Bayesiana que prior escolher? regra de ouro: o prior não deve dominar o resultado; se isso acontece é porque os dados são pouco informativos
9 exemplos distribuição de Bernoulli distribuição de Bernoulli: queremos p(x D) com x = 0.25 e D = {TT}: com k = 0 ou 1 p(x; k) = x k (1 x) 1 k temos 3 tipos de moedas, com probabilidade de se tirar cara (H) de 0.25, 0.50 e 0.75 o número de moedas de cada tipo está na proporção 1:2:1 pega-se uma moeda ao acaso, joga-se 2 vezes e se obtém 2 coroas (TT) qual é a probabilidade de a moeda escolhida ter probabilidade de cara de 0.25? p(x D) = p(d x)p(x) p(d) p(d x) = p(x) = 1/4 p(d) = p(0.25 D)p(0.25) + p(0.50 D)p(0.50) + p(0.75 D)p(0.75) = logo, = / / /4 = 9/32 p(x D) = /4 9/32 = / 1
10 10 / 1 exemplos a função Beta como prior a função Beta é definida no intervalo [0, 1] como Beta(x; a, b) = a + b 1 (a 1)!(b 1)! xa 1 (1 x) b 1 = cx a 1 (1 x) b 1 e é um prior interessante para variáveis definidas entre 0 e 1 (por exemplo, se a = 1 e b = 1 temos um prior uniforme, não informativo) vamos supor que estamos examinando a fotometria de um conjunto de fontes puntuais para determinar quais são estrelas e quais são quasares x: probabilidade (desconhecida) do objeto ser estrela vamos assumir como prior para x a função Beta(x; 0.5, 0.5) D: suponha que analisamos 10 imagens e obtivemos 6 estrelas qual é a distribuição de p(x D)? verossimilhança: distribuição binomial com n = 10 e m = 6 o posterior fica ou ( ) n p(x; n, m) = x m (1 x) n m m p(x D) x 6 (1 x) 4 x 4 (1 x) 4 p(x D) x 10 (1 x) 8 Beta(x; 11, 9) note que, nesse caso, tanto o prior quanto o posterior são funções Beta: beta é um prior conjugado da distribuição binomial
11 11 / 1 exemplos inferência dos parâmetros de uma gaussiana Exemplo: temos um conjunto de dados D = {d i }, com i = 1,..., N, que queremos modelar como uma distribuição gaussiana: N(µ, σ) quais são as melhores estimativas para µ e σ? TB: p(µ, σ D) p(d µ, σ)p(µ, σ) p(d µ, σ): verossimilhança vamos supor que a probabilidade de medir um certo d k é p(d k µ, σ) e (d k µ) 2 2σ 2 se as N medidas são independentes, a verossimilhança total é o produto da verossimilhança de cada dado: p(d µ, σ) N k=1 e (d k µ) 2 2σ 2 e N (d k µ) 2 i=1 2σ 2
12 exemplos inferência dos parâmetros de uma gaussiana priores: vamos supor que não tenhamos nenhuma ideia sobre os valores esperados para µ e σ vamos supor que p(µ) tenha uma distribuição uniforme entre d min e d max : { d max d min 1 se µ está entre d min e d max p(µ) = 0 nos outros casos para p(σ): fdp uniforme entre 0 e σ 0 = max( d min, d max ): { σ 1 se σ está entre 0 e σ 0 p(σ) = 0 nos outros casos priores desse tipo (uniformes) são chamados não-informativos 12 / 1
13 exemplos inferência dos parâmetros de uma gaussiana para µ entre d min e d max e σ entre 0 e σ 0 o posterior fica p(µ, σ D) e N (d k µ) 2 i=1 2σ 2 d max d min N σ N que é uma distribuição gaussiana em µ (dentro de um certo intervalo) em log: N (d log p(µ, σ D) k µ) 2 2σ 2 N log σ os parâmetros do modelo que maximizam o posterior são: µ = 1 N d k N σ 2 = 1 N i=1 k=1 N (d k µ) 2 k=1 13 / 1
14 exemplos o problema do farol Sivia & Skilling, sec. 2.4 (Gull, 1988) um farol está em uma posição α ao longo de uma costa reta e a uma distância β no mar; girando, ele emite uma série de pulsos curtos altamente colimados em intervalos de tempo aleatórios (e portanto em azimutes também aleatórios); N destes pulsos são detectados por sensores na costa, mas só as posições {x k }, não as direções onde está o farol? farol θ k β mar costa α x k x 14 / 1
15 15 / 1 exemplos o problema do farol é razoável se atribuir um prior uniforme para o ângulo θ associado às medidas x k ; como para o pulso ser detectado ele deve ter sido emitido com π 2 θ k π 2, temos p(θ k α, β) = 1 π da geometria do problema: farol tgθ = (x α)/β ( π 2 < θ k < π 2 ) mas quero p(x α, β), não p(θ α, β): mudança de variáveis: p(x)dx = p(θ)dθ derivando em relação a x: d tgθ = sec 2 θ = 1 dx dθ β dθ logo, dθ dx = 1 β sec 2 θ = 1 β(1 + tg 2 θ) = dθ p(x α, β) = p(θ α, β) dx = β π[β 2 + (x α) 2 ] distribuição de Cauchy (ou Lorentziana) θ k β mar costa α x k x
16 16 / 1 exemplos o problema do farol distribuição de Cauchy β p(x α, β) = π[β 2 + (x α) 2 ] distribuição simétrica em relação a α e com FWHM = 2β vamos supor β conhecido e usar o TB para determinar α prior p(α D, β) = p(d α, β)p(α β) { A se α está entre α p(α β) = p(α) = min e α max 0 nos outros casos verossimilhança: N p(d α, β) = p(x k α, β) k=1 posterior: p(α D, β) p(d α, β)p(α β)
17 17 / 1 exemplos o problema do farol exemplo: simulação com N = 9, α = 0.5, β = 1.5; β conhecido log do posterior: y = ln p(α D, β), N y = cte ln[β 2 + (x k α) 2 ] k=1
18 18 / 1 exemplos o problema do farol
19 19 / 1 exemplos exercícios 1 Mostre que o posterior da página 7, [ ] [ ] (5 x)2 (x 3)2 p(x x 1 ) p(x 1 x)p(x) exp exp 8 2 é gaussiano de média 17/5 e variância 4/5. 2 Suponha que no problema binomial (pg. 10), o prior adotado seja Beta(x; 6, 8). Numa análise de 7 fontes, encontramos 5 estrelas e dois quasares. Qual é o posterior de x, a probabilidade de um objeto ser estrela? 3 Repita o problema do farol usando um prior gaussiano para α, com média 5 e desvio padrão 1. Compare o posterior obtido com simulações de 10, 100 e 1000 pontos. O que você conclui?
20 20 / 1 MCMC Markov Chain Monte Carlo
21 21 / 1 MCMC Markov Chain Monte Carlo MCMC: método(s) para amostrar distribuição de probabilidades, p(x) (x pode ser um vetor, etc) Amostragem de p(x) : p(x) obedece a p(x) > 0 p(x)dx = 1 as distribuições a serem simuladas não precisam estar normalizadas ideal para amostrar posteriores: não é preciso calcular a evidência! onde a integral é sobre o domínio de x valores esperados: E[x] = xp(x)dx E[g(x)] = g(x)p(x)dx no caso de uma distribuição discreta: excelente referência: Hogg & Foreman-MacKey (2017)- arxiv: E[x] 1 N x k N k=1 E[g(x)] 1 N g(x k ) N k=1 note que os valores esperados não dependem da evidência, isto é, de se ter p(x) normalizado!
22 22 / 1 MCMC o algoritmo de Metropolis-Hastings para amostrar uma distribuição de probabilidades p(x) duas coisas são relevantes: os pontos gerados, x 1, x 2,... obedecem uma cadeia de Markov: x i+1 depende apenas de x i pode-se mostrar que, nesse caso, para uma sequência infinita, cada ponto x é visitado com probabilidade p(x) uma função q(x i+1 x i ) que, dado x i, propõe um novo ponto, x i+1, que se aceita ou não como uma amostra de p(x) algoritmo: dada uma amostra x i, para se obter x i+1 : obtenha uma proposta x usando q(x x i ) obtenha um número aleatório 0 < r < 1 com distribuição uniforme se p(x )/p(x) > r, x i+1 = x se não, x i+1 = x i o algoritmo gera uma cadeia de amostras: x 1, x 2,... q(x x) obedece ao princípio do balanceamento detalhado: p(x )q(x x ) = p(x)q(x x) ( equilíbrio físico na transição x x ))
23 23 / 1 MCMC o algoritmo de Metropolis-Hastings exemplo: amostras distribuidas como p(x): gaussiana de média 2 e desvio padrão 2 distribuição de propostas q(x x): gaussiana de média x e desvio padrão 1
24 24 / 1 MCMC mcmc: alguns detalhes a escala do problema é importante: muitas vezes se quer amostrar o logaritmo de uma função: faça os ajustes necessários! burn-in: o algoritmo precisa ser inicializado; muitas vezes o ponto inicial não é típico e várias iterações são necessárias antes de se poder fazer inferências estatísticas essas iterações iniciais são denominadas burn-in e devem ser rejeitas nas análises estatísticas caso seja necessário se ajustar a função de distribuição de propostas q (para aumentar ou diminuir a taxa de aceitação de propostas), deve-se fazer isso no burn-in
25 25 / 1 MCMC mcmc: alguns detalhes devido à natureza markoviana do método, amostras próximas são correlacionadas: uma boa amostragem de p(x) pode exigir longas cadeias de amostras em alguns casos, onde a função é muiti-modal, pode ser necessário se rodar várias cadeias, cada uma começando de um ponto diferente até onde se deve rodar uma cadeia? na verdade, em geral, não dá para saber se uma cadeia convergiu; é necessário utilizar regras heurísticas plot de x i versus i diagnóstico de Gelman-Rubin: roda-se várias cadeias ao mesmo tempo e compara-se a variância de cada parâmetro dentro de uma cadeia com a variância deles entre cadeias (excluindo o burn-in) divide-se uma longa cadeia em pedaços, calcula-se a média e variância de cada parâmetro em cada pedaço e compara-se os resultados (excluindo o burn-in)
CC-226 Aula 07 - Estimação de Parâmetros
CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições
Leia maisAnálise de Dados em Astronomia. 4. Simulações de Monte Carlo
1 / 22 Análise de Dados em Astronomia 4. Simulações de Monte Carlo Laerte Sodré Jr. AGA0505, 1o. semestre 2019 2 / 22 introdução aula de hoje: o método de Monte Carlo 1 introdução 2 variáveis aleatórias
Leia maisAnálise de Dados em Astronomia. 3. Distribuições de Probabilidades
1 / 24 3. Distribuições de Probabilidades Análise de Dados em Astronomia 3. Distribuições de Probabilidades Laerte Sodré Jr. AGA0505, 1o. semestre 2019 introdução aula de hoje 1 2 a distribuição uniforme
Leia maisInferências bayesianas com probabilidade
Inferências bayesianas com probabilidade Qual é a relação entre inferência bayesiana e as distribuições probabiĺısticas recém descritas? Essa conexão é feita ao se estimar parâmetros da distribuição probabiĺıstica
Leia maisESTATÍSTICA BAYESIANA
UNIVERSIDADE FEDERAL DE MINAS GERAIS INSTITUTO DE CIÊNCIAS EXATAS PET MATEMÁTICA Orientadora: Rosângela Helena Loschi ESTATÍSTICA BAYESIANA Marina Muniz de Queiroz INTRODUÇÃO A estatística clássica associa
Leia maisAGA Análise de Dados em Astronomia I. 2. Probabilidades
1 / 26 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 2. Probabilidades Laerte Sodré Jr. 1o. semestre, 2019 2 / 26 aula de hoje: 1 o que são 2 distribuições de 3 a distribuição normal ou gaussiana
Leia maisUniversidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um
Leia maisAGA Análise de Dados em Astronomia I. 6. O Método da Máxima Verossimilhança- I
1 / 26 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 6. O Método da Máxima Verossimilhança- I Laerte Sodré Jr. 1o. semestre, 2019 introdução aula de hoje: 1 modelagem dos dados 2 a verossimilhança
Leia maisAGA Análise de Dados em Astronomia I. O método de Monte Carlo
1 / 16 AGA 0505- Análise de Dados em Astronomia I O método de Monte Carlo Laerte Sodré Jr. 1o. semestre, 2018 2 / 16 breve história método de resolução de problemas baseado em amostragem aleatória de distribuições
Leia maisAGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares
1 / 0 AGA 0505- Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares Laerte Sodré Jr. 1o. semestre, 018 modelos modelagem dos dados dado um conjunto de dados,
Leia maisAGA Análise de Dados em Astronomia I. 2. Probabilidades
1 / 20 AGA 0505- Análise de Dados em Astronomia I 2. Probabilidades Laerte Sodré Jr. 1o. semestre, 2018 2 / 20 tópicos 1 probabilidades - cont. 2 distribuições de probabilidades 1 binomial 2 Poisson 3
Leia maisTécnicas computacionais em probabilidade e estatística II
Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco AULA 1: Problemas Computacionais em Inferência Estatística.
Leia maisRef: H.Gould e J. Tobochnik. Para integrais em uma dimensão as regras do trapezóide e de Simpson são
Método de Monte Carlo Resolução de Integrais Ref: H.Gould e J. Tobochnik Para integrais em uma dimensão as regras do trapezóide e de Simpson são melhores, mais rápidas. A técnica de resolução de integrais
Leia maisAGA Análise de Dados em Astronomia I. 1. Introdução
1 / 22 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 1. Introdução Laerte Sodré Jr. 1o. semestre, 2019 2 / 22 introdução aula de hoje: Introdução 1 objetivo 2 o que é ciência 3 dados 4 o que
Leia maisTestes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Testes de Hipóteses Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Introdução e notação Em geral, intervalos de confiança são a forma mais
Leia maisMetodologia de inversão
6 Metodologia de inversão Nesta tese, a transformação de velocidades em pressão de poros é encarada como um problema de inversão. Pela natureza do problema, essa transformação apresenta caráter não único
Leia maisRicardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Geração de Números Aleatórios Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 61 Simulando de Distribuições Discretas Assume-se que um
Leia maisIntrodução a Inferência Bayesiana
Introdução a Inferência Bayesiana Helio S. Migon IM and COPPE - UFRJ migon@im.ufrj.br 2006 Conteúdo 1. Conceitos Básicos da Inferência 2. Distribuição a Priori 3. Sumariazação 4. Inferência Preditiva 1
Leia maisESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Escolha de modelos Até aqui assumimos que z
Leia maisTiago Viana Flor de Santana
ESTATÍSTICA BÁSICA DISTRIBUIÇÃO NORMAL DE PROBABILIDADE (MODELO NORMAL) Tiago Viana Flor de Santana www.uel.br/pessoal/tiagodesantana/ tiagodesantana@uel.br sala 07 Curso: MATEMÁTICA Universidade Estadual
Leia maisAULA 7 - Inferência em MQO: ICs e Testes de
AULA 7 - Inferência em MQO: ICs e Testes de Hipóteses Susan Schommer Econometria I - IE/UFRJ Nosso primeiro objetivo aqui é relembrar a diferença entre estimação de ponto vs estimação de intervalo. Vamos
Leia maisAnálise Bayesiana de Dados - Aula 1 -
Análise Bayesiana de Dados - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência
Leia maisInferência Bayesiana Exata para Processos de Cox Level-Set
Inferência Bayesiana Exata para Processos de Cox Level-Set Bárbara da Costa Campos Dias 1 Flávio Bambirra Gonçalves 2 Resumo Este trabalho propõe uma metodologia de inferência exata para processos de Cox
Leia maisTeoria das Filas aplicadas a Sistemas Computacionais. Aula 08
Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas
Leia maisIND 1115 Inferência Estatística Aula 6
Conteúdo IND 5 Inferência Estatística Aula 6 Setembro de 004 A distribuição Lognormal A distribuição Beta e sua relação com a Uniforme(0,) Mônica Barros mbarros.com mbarros.com A distribuição Lognormal
Leia maisInferência Bayesiana
Inferência Bayesiana Joaquim Neto joaquim.neto@ufjf.edu.br www.ufjf.br/joaquim_neto Departamento de Estatística - ICE Universidade Federal de Juiz de Fora (UFJF) Versão 3.0 Joaquim Neto (UFJF) ICE - UFJF
Leia maisInfluencia de Distribuições a priori na Analise Bayesiana em dados de contagem
Influencia de Distribuições a priori na Analise Bayesiana em dados de contagem Olinda Fátima dos Santos 1 Carla Regina Guimarães Brighenti 1 1-Introdução A utilização de informação a priori em inferência
Leia maisAnálise de Dados e Simulação
Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco Simulação de Variáveis Aleatórias Contínuas. O método da Transformada Inversa Teorema Seja U U (0,1). Para qualquer
Leia maisInferência Estatistica
Inferência Estatistica Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Modelos e Inferência Um modelo é uma simplificação da realidade (e alguns
Leia maisInferência Bayesiana - Aula 1 -
Inferência Bayesiana - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência
Leia maisSistemas Aleatórios. Um sistema é aleatório quando seu estado futuro só pode ser conhecido. jogar uma moeda ou um dado. decaimento de uma partícula
Sistemas Aleatórios Um sistema é aleatório quando seu estado futuro só pode ser conhecido pela realização de uma experiência. jogar uma moeda ou um dado decaimento de uma partícula trajetória de uma partícula
Leia maisNovembro/2018. Ajuste Automático ao Histórico em Simulação de Reservatórios
Ajuste Automático ao Histórico Simulação de Reservatórios Flavio Dickstein Paulo Goldfeld Renan V. Pinto IM/UFRJ IM/UFRJ LabMAPetro/UFRJ Novembro/2018 Simulação sob incerteza (i) O reservatório é inacessível
Leia maisMAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade
MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade Edson de Faria Departamento de Matemática IME-USP 28 de Agosto, 2013 Probabilidade: uma Introdução / Aula 8 1 Desigualdades de Markov e
Leia maisTestes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Testes de Hipóteses Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Introdução e notação Em geral, intervalos de confiança são a forma mais
Leia maisTratamento de dados em Física
Tratamento de dados em Física Métodos e testes estatísticos V. Oguri Departamento de Física Nuclear e Altas Energias (DFNAE) Programa de Pós-graduação em Física (PPGF) Instituto de Física Armando Dias
Leia maisDistribuições Amostrais e Estimação Pontual de Parâmetros
Distribuições Amostrais e Estimação Pontual de Parâmetros - parte I 2012/02 1 Introdução 2 3 4 5 Objetivos Ao final deste capítulo você deve ser capaz de: Entender estimação de parâmetros de uma distribuição
Leia maisESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Considere o problema de encontrar o valor que
Leia maisEstimação: (A) Propriedades e Distribuições Amostrais
Estimação: (A) Propriedades e Distribuições Amostrais Wagner H. Bonat Fernando P. Mayer Elias T. Krainski Universidade Federal do Paraná Departamento de Estatística Laboratório de Estatística e Geoinformação
Leia maisDistribuições Amostrais e Estimação Pontual de Parâmetros
Distribuições Amostrais e Estimação Pontual de Parâmetros - parte I 19 de Maio de 2011 Introdução Objetivos Ao final deste capítulo você deve ser capaz de: Entender estimação de parâmetros de uma distribuição
Leia maisStela Adami Vayego DEST/UFPR
Resumo 9 Modelos Probabilísticos Variável Contínua Vamos ver como criar um modelo probabilístico, o que é uma função densidade de probabilidade (fdp), e como calcular probabilidades no caso de variáveis
Leia maisTeoria das Filas aplicadas a Sistemas Computacionais. Aula 09
Teoria das Filas aplicadas a Sistemas Computacionais Aula 09 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas
Leia maisVariáveis Aleatórias Contínuas e Distribuição de Probabilidad
Variáveis Aleatórias Contínuas e Distribuição de Probabilidades - parte II 26 de Novembro de 2013 Distribuição Contínua Uniforme Média e Variância Objetivos Ao final deste capítulo você deve ser capaz
Leia maisDefinição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.
1. Inferência Estatística Inferência Estatística é o uso da informção (ou experiência ou história) para a redução da incerteza sobre o objeto em estudo. A informação pode ou não ser proveniente de um experimento
Leia maisPRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES
PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES Certas distribuições de probabilidades se encaixam em diversas situações práticas As principais são: se v.a. discreta Distribuição de Bernoulli Distribuição binomial
Leia maisESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Se a integração analítica não é possível ou
Leia maisp(x) Note que 1/p(x), que não depende de θ, funciona como uma constante normalizadora
Capítulo 1 Introdução A informação que se tem sobre uma quantidade de interesse θ é fundamental na Estatística. O verdadeiro valor de θ é desconhecido e a idéia é tentar reduzir este desconhecimento. Além
Leia maisINTRODUÇÃO À INFERÊNCIA ESTATÍSTICA
UFPE - Universidade Federal de Pernambuco Departamento de Estatística Disciplina: ET-406 Estatística Econômica Professor: Waldemar A. de Santa Cruz Oliveira Júnior INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA Podemos
Leia maisAGA Análise de Dados em Astronomia I. 2. Probabilidades - parte 1
1 / 14 AGA 0505- Análise de Dados em Astronomia I 2. Probabilidades - parte 1 Laerte Sodré Jr. 1o. semestre, 2018 2 / 14 o que são probabilidade: medida da plausibilidade de uma proposição quando não se
Leia maisEstatística e Probabilidade Aula 06 Distribuições de Probabilidades. Prof. Gabriel Bádue
Estatística e Probabilidade Aula 06 Distribuições de Probabilidades Prof. Gabriel Bádue Teoria A distribuição de Poisson é uma distribuição discreta de probabilidade, aplicável a ocorrências de um evento
Leia maisCálculo das Probabilidades I - Sexta Lista - Rio, 13/09/2014
Cálculo das Probabilidades I - Sexta Lista - Rio, 13/09/2014 1. O diâmetro X de{ um cabo elétrico é uma variável aleatória com densidade de probabilidade K(2x x dada por 2 ), 0 x 1 0, x < 0 ou x > 1. (a)
Leia mais1.1 Exemplo da diferença da média da população para a média amostral.
1 Estatística e Probabilidades Inferência Estatística consiste na generalização das informações a respeito de uma amostra, para a sua população. A Probabilidade considera modelos para estimar informações
Leia maisSumário. 2 Índice Remissivo 11
i Sumário 1 Principais Distribuições Contínuas 1 1.1 Distribuição Uniforme................................. 1 1.2 A Distribuição Normal................................. 2 1.2.1 Padronização e Tabulação
Leia maisGibbs Sampler para ANOVA e Misturas
Gibbs Sampler para ANOVA e Misturas Renato Assunção - DCC, UFMG Outubro de 014 1 Modelo ANOVA: componentes de variância Suponha que temos K grupos ou classes. Em cada grupo, temos um certo número de dados
Leia maisModelos Lineares Generalizados - Verificação do Ajuste do Modelo
1 Modelos Lineares Generalizados - Verificação do Ajuste do Modelo Erica Castilho Rodrigues 9 de Abril de 2015 2 3 Função Deviance Podemos ver o ajuste de um modelo a um conjunto de dados como: uma forma
Leia maisInferência Estatística: DEEST/UFOP Prof.: Spencer Barbosa da Silva
Inferência Estatística: Prof.: Spencer Barbosa da Silva Amostragem Estatística Descritiva Cálculo de Probabilidade Inferência Estatística Estimação Teste de Hipótese Pontual Por Intervalo Conceitos básicos
Leia maisModelos Lineares Generalizados - Modelos log-lineares para tabelas de contingência
Modelos Lineares Generalizados - Modelos log-lineares para tabelas de contingência Erica Castilho Rodrigues 12 de Agosto Introdução 3 Vimos como usar Poisson para testar independência em uma Tabela 2x2.
Leia maisModelos Lineares Generalizados - Modelos log-lineares para tabelas de contingência
Modelos Lineares Generalizados - Modelos log-lineares para tabelas de contingência Erica Castilho Rodrigues 12 de Agosto 3 Vimos como usar Poisson para testar independência em uma Tabela 2x2. Veremos
Leia maisESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Simulação O que é simulação? Reprodução de um
Leia mais6- Probabilidade e amostras: A distribuição das médias amostrais
6- Probabilidade e amostras: A distribuição das médias amostrais Anteriormente estudamos como atribuir probabilidades a uma observação de alguma variável de interesse (ex: Probabilidade de um escore de
Leia maisTécnicas computacionais em probabilidade e estatística II
Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco Métodos de Monte Carlo baseados em Cadeias de Markov:
Leia maisFunções Geradoras de Variáveis Aleatórias. Simulação Discreta de Sistemas - Prof. Paulo Freitas - UFSC/CTC/INE
Funções Geradoras de Variáveis Aleatórias 1 Funções Geradoras de Variáveis Aleatórias Nos programas de simulação existe um GNA e inúmeras outras funções matemáticas descritas como Funções Geradoras de
Leia maisCapítulo 2. Variáveis Aleatórias e Distribuições
Capítulo 2 Variáveis Aleatórias e Distribuições Experimento Aleatório Não existe uma definição satisfatória de Experimento Aleatório. Os exemplos dados são de fenômenos para os quais modelos probabilísticos
Leia maisANÁLISE BAYESIANA APLICADA À HIDROLOGIA
DIA 1 ANÁLISE BAYESIANA APLICADA À HIDROLOGIA Pedro Luiz Borges Chaffe, Debora Yumi de Oliveira e Paula Cunha David Florianópolis, 28 e 30 de novembro de 2017 SOBRE O MINICURSO Dia 28/11/2017 (14h-17h)
Leia maisMais sobre Modelos Continuos
Mais sobre Modelos Continuos Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 41 Transformação Linear da Uniforme Seja X uma variável aleatória
Leia maisMinera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33
Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto
Leia maisDistribuições de Probabilidade Contínuas 1/19
all Distribuições de Probabilidade Contínuas Professores Eduardo Zambon e Magnos Martinello UFES Universidade Federal do Espírito Santo DI Departamento de Informática CEUNES Centro Universitário Norte
Leia maisSexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo
Sexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo Antônio Carlos Roque da Silva Filho e Cristiano R. F. Granzotti 26 de junho de 2017 Os exercícios desta lista devem ser resolvidos
Leia maisExercícios de programação
Exercícios de programação Estes exercícios serão propostos durante as aulas sobre o Mathematica. Caso você use outra linguagem para os exercícios e problemas do curso de estatística, resolva estes problemas,
Leia maisESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Inferência com dimensão variável Modelos com
Leia maisIntrodução à Probabilidade e à Estatística II
Introdução à Probabilidade e à Estatística II Introdução à Inferência Estatística Capítulo 10, Estatística Básica (Bussab&Morettin, 7a Edição) Lígia Henriques-Rodrigues MAE0229 1º semestre 2018 1 / 36
Leia maisProbabilidade e Estatística
Probabilidade e Estatística Aula 7 Distribuição da Média Amostral Leitura obrigatória: Devore: Seções 5.3, 5.4 e 5.5 Chap 8-1 Inferência Estatística Na próxima aula vamos começar a parte de inferência
Leia maisMOQ-13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel
MOQ-13 PROBABILIDADE E ESTATÍSTICA Professor: Rodrigo A. Scarpel rodrigo@ita.br www.mec.ita.br/~rodrigo Programa do curso: Semanas 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 e 16 Introdução à probabilidade (eventos,
Leia maisSUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS
4 SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS Em muitos problemas de probabilidade que requerem o uso de variáveis aleatórias, uma completa especificação da função de densidade de probabilidade ou não está
Leia maisNoções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23
Noções de Simulação Ciências Contábeis - FEA - Noturno 2 o Semestre 2013 MAE0219 (IME-USP) Noções de Simulação 2 o Semestre 2013 1 / 23 Objetivos da Aula Sumário 1 Objetivos da Aula 2 Motivação 3 Geração
Leia maisALGUMAS DISTRIBUIÇÕES CONTÍNUAS DE PROBABILIDADE
ALGUMAS DISTRIBUIÇÕES CONTÍNUAS DE PROBABILIDADE 4. 1 INTRODUÇÃO Serão apresentadas aqui algumas distribuições de probabilidade associadas a v.a. s contínuas. A mais importante delas é a distribuição Normal
Leia maisCONHECIMENTOS ESPECÍFICOS
CONHECIMENTOS ESPECÍFICOS Julgue os itens que se seguem, acerca da estatística descritiva. 51 Na distribuição da quantidade de horas trabalhadas por empregados de certa empresa, é sempre possível determinar
Leia maisAula 14. Aula de hoje. Aula passada
Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema
Leia maisDistribuições Contínuas de Probabilidade
Distribuições Contínuas de Probabilidade Uma variável aleatória contínua é uma função definida sobre o espaço amostral, que associa valores em um intervalo de números reais. Exemplos: Espessura de um item
Leia maisO teorema de Bayes é uma igualdade simples que vem da afirmação de que prob(a e B) = prob(b e A): prob(a B) prob(b) prob(a)
O teorema de Bayes O teorema de Bayes é uma igualdade simples que vem da afirmação de que prob(a e B) = prob(b e A): prob(b A) = no qual o denominador é a probabilidade total. prob(a B) prob(b), (4) prob(a)
Leia maisMAE0229 Introdução à Probabilidade e Estatística II
Exercício Entre jovens atletas, um nível alto de colesterol pode ser considerado preocupante e indicativo para um acompanhamento médico mais frequente. Suponha que são classificados como tendo taxa de
Leia maisCadeias de Markov em Tempo Continuo
Cadeias de Markov em Tempo Continuo Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 6 Taylor & Karlin 1 / 44 Análogo ao processo
Leia maisSimulação com Modelos Teóricos de Probabilidade
Simulação com Modelos Teóricos de Probabilidade p. 1/21 Algumas distribuições teóricas apresentam certas características que permitem uma descrição correta de variáveis muito comuns em processos de simulação.
Leia maisVariáveis Aleatórias Bidimensionais &Teoremas de Limite 1/22
all Variáveis Aleatórias Bidimensionais & Teoremas de Limite Professores Eduardo Zambon e Magnos Martinello UFES Universidade Federal do Espírito Santo DI Departamento de Informática CEUNES Centro Universitário
Leia maisTestes paramétricos: médias variâncias, testes t e F
Testes paramétricos: médias variâncias, testes t e F Uma questão que aparece frequentemente quando se tem dois conjuntos de dados, ou conjunto e um modelo é se eles diferem em relação à locação e/ou espalhamento.
Leia mais3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente.
1 Universidade de São Paulo Escola Superior de Agricultura Luiz de Queiroz Departamento de Ciências Exatas Professores: Clarice Demétrio, Roseli Leandro e Mauricio Mota Lista 3- Distribuições Amostrais-
Leia maisProf. Eduardo Bezerra. 15 de setembro de 2017
Distribuições Amostrais Prof. Eduardo Bezerra Inferência Estatística 15 de setembro de 2017 Eduardo Bezerra (CEFET/RJ) Distribuições Amostrais 1 / 28 Roteiro Distribuições amostrais 1 Distribuições amostrais
Leia maisAGA Análise de Dados em Astronomia I. 1. Introdução
1 / 20 1. Introdução AGA 0505- Análise de Dados em Astronomia I 1. Introdução Laerte Sodré Jr. 1o. semestre, 2018 2 / 20 Informações gerais Análise de Dados em Astronomia webpage do curso: http://www.astro.iag.usp.br/
Leia maisMétodos Computacionais para inferência estatística
Métodos Computacionais para inferência estatística Wagner Hugo Bonat LEG: Laboratório de Estatística e Geoinformação Universidade Federal do Paraná 30 de julho de 2012 Bonat et. al (LEG/UFPR) MCIE 30 de
Leia mais1) Considere Y N(1, 1) e X Y = y N(y, 4). A quantidade de interesse é θ = P (X > 1).
1 Considere Y N1, 1 e X Y y Ny, 4. A quantidade de interesse é θ P X > 1. a Explique como obter uma estimativa de θ via simulação. Solução: Uma maneira simples de obter uma estimativa de θ é simulando
Leia maisp( y θ ) depende de um parâmetro desconhecido θ.
55Modelação, Identificação e Controlo Digital 55 Método de Máxima Verosimilhança (Maximum Likelihood) Seja y uma variável aleatória (v. a.) cuja densidade de probabilidade p( y θ ) depende de um parâmetro
Leia mais{ C(1 x 2 ), se x ( 1, 1), f(x) = Cxe x/2, se x > 0, x + k, se 0 x 3; 0, c.c. k, se 1 < x 2; kx + 3k, se 2 < x 3;
Universidade de Brasília Departamento de Estatística 4 a Lista de PE 1. Seja X uma variável aleatória com densidade { C(1 x 2 ), se x ( 1, 1), 0, se x / ( 1, 1). a) Qual o valor de C? b) Qual a função
Leia maisFundamentos da Teoria da Probabilidade
Fundamentos da Teoria da Probabilidade Edmar José do Nascimento (Princípios de Comunicações) http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Sinais Aleatórios
Leia maisCC-226 Aula 05 - Teoria da Decisão Bayesiana
CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos
Leia maisEstatística II Aula 2. Prof.: Patricia Maria Bortolon, D. Sc.
Estatística II Aula Prof.: Patricia Maria Bortolon, D. Sc. Distribuições Amostrais ... vocês lembram que: Antes de tudo... Estatística Parâmetro Amostra População E usamos estatíticas das amostras para
Leia mais3. Estimação pontual USP-ICMC-SME. USP-ICMC-SME () 3. Estimação pontual / 25
3. Estimação pontual USP-ICMC-SME 2013 USP-ICMC-SME () 3. Estimação pontual 2013 1 / 25 Roteiro Formulação do problema. O problema envolve um fenômeno aleatório. Interesse em alguma característica da população.
Leia maisLucas Santana da Cunha 12 de julho de 2017
DISTRIBUIÇÃO NORMAL Lucas Santana da Cunha http://www.uel.br/pessoal/lscunha/ Universidade Estadual de Londrina 12 de julho de 2017 Distribuição Normal Dentre todas as distribuições de probabilidades,
Leia maisControle Ótimo - Aula 8 Equação de Hamilton-Jacobi
Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos O problema de controle ótimo Considere
Leia maisALGUNS MODELOS DE VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS. Prof.: Idemauro Antonio Rodrigues de Lara
1 ALGUNS MODELOS DE VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS Prof.: Idemauro Antonio Rodrigues de Lara 2 Modelos de variáveis aleatórias discretas 1. Distribuição Uniforme Discreta 2. Distribuição Binomial
Leia maisESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Monte Carlo via cadeias de Markov: o OpenBUGS
Leia maisLucas Santana da Cunha de junho de 2018 Londrina
Distribuição Normal Lucas Santana da Cunha email: lscunha@uel.br http://www.uel.br/pessoal/lscunha/ 25 de junho de 2018 Londrina 1 / 17 Distribuição Normal Dentre todas as distribuições de probabilidades,
Leia mais