Estatística Bayesiana EST047 Michel Helcias Montoril Instituto de Ciências Exatas Universidade Federal de Juiz de Fora Conceitos iniciais; Distribuições condicionais
Conceitos iniciais
Questão Como incorporar de modo pleno algum conhecimento prévio existente, além da verossimilhança? Uma solução é atribuir a priori (ou seja, antes de realizar o experimento) probabilidades a cada valor do espaço paramétrico; É mais provável que o candidato A ganhe a eleição? Perca? Não se faz ideia? Em 1763, Richard Price publicou o artigo An Essay Towards Solving a Problem in the Doctrine of Chances, obra póstuma do Reverendo Thomas Bayes, que postulou o famoso Teorema de Bayes (ou Regra/Fórmula de Bayes).
Definições Partição Dizemos que a sequencia A 1, A 2,... forma uma partição do conjunto A se: A i A j =, i j; i A i = A. Probabilidade Condicional Seja (Ω, A, P) um espaço de probabilidade. Se A, B A e P(A) > 0, então P(A B) P(B A) =. P(A)
Teorema da Probabilidade Total Teorema da Probabilidade Total Considere o espaço de probabilidade (Ω, A, P). Se B A e se a sequência enumerável A 1, A 2,... A formar uma partição de Ω, então P(B) = P(B A i )P(A i ). i
Teorema da Probabilidade Total Exemplo 1 Uma empresa produz circuitos em três fábricas, denotadas por I, II e III. A fábrica I produz 40% dos circuitos, enquanto a II e a III produzem 30% cada uma. As probabilidades de que um circuito produzido por essas fábricas não funcione são 0.01, 0.04 e 0.03, respectivamente. Escolhido um circuito ao acaso da produção da empresa, qual a probabilidade do circuito não funcionar?
Teorema da Probabilidade Total Solução Consideremos os eventos A: O circuito ser produzido pela fábrica I, B: O circuito ser produzido pela fábrica II, C: O circuito ser produzido pela fábrica III e D: O circuito não funcionar. Observe que os conjuntos A, B e C formam uma partição do espaço amostral. Portanto, aplicando o teorema da probabilidade total, temos que P (D) = P (D A) P (A) + P (D B) P (B) + P (D C) P (C) = 0.01 0.4 + 0.04 0.3 + 0.03 0.3 = 0.025.
Definição Regra de Bayes Considere o espaço de probabilidade (Ω, A, P). Se B A e se a sequência enumerável A 1, A 2,... A formar uma partição de Ω, então P(A i B) = P(B A i)p(a i ) i P(B A i)p(a i )
Regra de Bayes Exemplo 2 Ainda de acordo com o exemplo anterior, se soubermos que o circuito selecionado não está funcionando, qual a probabilidade dele ter sido produzido pela fábrica I?
Regra de Bayes Exemplo 2 Ainda de acordo com o exemplo anterior, se soubermos que o circuito selecionado não está funcionando, qual a probabilidade dele ter sido produzido pela fábrica I? Solução Utilizando os resultados já obtidos do exemplo anterior, podemos aplicar a regra de Bayes e obter P (A D) = = P (D A) P (A) P (D A) P (A) + P (D B) P (B) + P (D C) P (C) 0.01 0.4 = 0.16 0.025
Regra de Bayes Exemplo 3 Uma pessoa vai ao médico reclamando de dores. O médico acredita que essa pessoa possa estar doente. Após avaliação, o médico observa seus sintomas e prescreve um exame laboratorial. Seja θ uma quantidade desconhecida que indica se o paciente está, ou não, doente. Se sim, θ = 1, caso contrário, θ = 0. O médico assume que P(θ = 1) = 0, 6 antes de saber o resultado do exame. Seja X uma variável aleatória associada ao resultado do exame, de modo que X = 1 indica que o exame constatou doença, e X = 0 caso contrário. O exame fornece um resultado incerto com as probabilidades P(X = 0 θ = 0) = 0, 90 (exame negativo quando o paciente não está doente) P(X = 1 θ = 1) = 0, 95 (exame positivo quando o paciente está doente) Sabendo que o exame acusou doença, qual a probabilidade do paciente estar de fato doente?
Regra de Bayes Observação A título de informação, vale destacar que a probabilidade P(X = 1 θ = 1) é conhecida na literatura como sensibilidade do exame e a probabilidade P(X = 0 θ = 0) é chamada especificidade.
Regra de Bayes Observação A título de informação, vale destacar que a probabilidade P(X = 1 θ = 1) é conhecida na literatura como sensibilidade do exame e a probabilidade P(X = 0 θ = 0) é chamada especificidade. Solução Pela regra de Bayes, temos que P(X = 1 θ = 1)P(θ = 1) P(θ = 1 X = 1) = P(X = 1 θ = 1)P(θ = 1) + P(X = 1 θ = 0)P(θ = 0) 0, 95 0, 6 = = 0, 9344262. 0, 95 0, 6 + 0, 1 0, 4
Regra de Bayes Exemplo 4 Recomenda-se que, a partir dos 40 anos, as mulheres façam mamografias anuais. Nesta idade, 1% das mulheres são portadoras de um tumor assintomático de mama. Seja θ uma quantidade desconhecida que indica se uma paciente (dessa faixa etária) tem a doença, ou não. Se ela possui a doença, então θ = 1, caso contrário, θ = 0. Assim, podemos assumir que P(θ = 1) = 0, 01 e P(θ = 0) = 0, 99. Sabe-se que a mamografia indica a doença em 80% das mulheres com câncer de mama, mas esse mesmo resultado ocorre também com 9,6% das mulheres sem o câncer. Assim, seja X uma variável aleatória associada ao resultado da mamografia, de modo que, se X = 1, o exame acusou a doença, e X = 0 caso contrário. Temos então que P(X = 1 θ = 0) = 0, 096 P(X = 1 θ = 1) = 0, 80 Imagine agora que você encontra uma amiga de 40 e poucos anos aos prantos, desesperada, porque fez uma mamografia de rotina e o exame acusou a doença. Qual a probabilidade de ela ter um câncer de mama?
Regra de Bayes Solução Note que P(θ = 1 X = 1) = = P(X = 1 θ = 1)P(θ = 1) P(X = 1 θ = 1)P(θ = 1) + P(X = 1 θ = 0)P(θ = 0) 0, 80 0, 01 = 0, 07763975 0, 80 0, 01 + 0, 096 0, 99 Portanto, a probabilidade dela ter a doença é de, aproximadamente, 7,8%. Nota Ao apresentar este problema a várias pessoas, inclusive estudantes de medicina, observa-se uma tendência a superestimar a probabilidade a posteriori da doença. Isto mostra que o raciocínio Bayesiano não é intuitivo. Parece haver uma tendência geral a ignorar o fato de que a probabilidade a priori de doença é pequena, fenômeno denominado falácia da probabilidade de base, pelo psicólogo norte-americano (de origem israelense) Daniel Kahneman, premiado com o Nobel de Economia em 2002 por estudos sobre o comportamento de investidores.
Regra de Bayes Exemplo 5 (Problema de Monty Hall) O problema de Monty Hall é um problema matemático que surgiu na década de 1970, de um concurso televisivo dos Estados Unidos da América chamado Lets Make a Deal. O jogo consiste no seguinte: três portas são apresentadas ao concorrente, uma contendo um prêmio bom e as outras duas com prêmios de pouco valor. Na 1 a etapa o concorrente escolhe uma porta (que ainda não é aberta); Em seguida, Monty (o apresentador) abre uma das outras duas portas que o concorrente não escolheu, mostrando que o prêmio bom não está lá; Agora, com duas portas apenas, o concorrente tem que decidir se permanece com a porta que escolheu no início do jogo, ou se muda para a outra porta remanescente. Qual é a estratégia mais lógica, ficar com a porta escolhida inicialmente, ou mudar de porta? Com qual das duas portas o concorrente tem mais chances de ganhar?
Regra de Bayes Solução Sem perda de generalidade, suponha que o concorrente tenha escolhido, inicialmente, a porta 3. Consideremos os eventos A 1 : O carro estar na primeira porta; A 2 : O carro estar na segunda porta; A 3 : O carro estar na terceira porta; e C: O apresentador abrir a primeira porta. Suponha, ainda, que o eventos A i, i = 1, 2, 3, sejam equiprováveis. Portanto, P(C A 1 ) = 0, P(C A 2 ) = 1 e P(C A 3 ) = 0.5. Assim, pelo teorema da probabilidade total, P(C) = P (C A 1 ) P (A 1 ) + P (C A 2 ) P (A 2 ) + P (C A 3 ) P (A 3 ) = 0 1 3 + 1 1 3 + 1 2 1 3 = 1 2. Agora, pela Regra de Bayes, P(A 1 C) = P(C A 1)P(A 1 ) P(C) P(A 2 C) = P(C A 2)P(A 2 ) P(C) P(A 3 C) = P(C A 3)P(A 3 ) P(C) = 0 1 3 1 2 = 1 1 3 1 2 1 2 = 1 3 1 2 = 0, = 2 3, = 1 3. Os resultados acima indicam que a melhor estratégia é mudar de porta.
Distribuições condicionais
Como era de se esperar, conceitos relacionados ao Teorema da Probabilidade Total e à Regra de Bayes se aplicam a distribuições de probabilidade; Vamos nos concentrar no caso de variáveis aleatórias contínuas, mas vale destacar que os resultados a seguir também valem para o caso discreto, realizando a troca da integral pelo somatório.
Definições Probabilidade condicional f (y x) = f (x, y) f (x). Teorema da Probabilidade Total { f (x y)f (y)dy, se y for uma v.a. contínua, f (x) = y f (x y)f (y), se y for uma v.a. discreta; Regra de Bayes f (y x) = f (y)f (x y) f (y)f (x y)dy, se y for uma v.a. contínua, f (y)f (x y) se y for uma v.a. discreta; f (x y)f (y), y
Conceitos de proporcionalidade Observe na regra de Bayes que o denominador depende apenas da variável condicionante, no caso, x; Esse valor é obtido a partir do teorema da probabilidade total, e é considerado uma constante de proporcionalidade (ou constante normalizadora) f (y x) = f (y)f (x y) ; C Temos que f (y x) é proporcional a f (y)f (x y), i.e., f (y x) f (y)f (x y); Isso pode facilitar bastante as contas, principalmente nos casos em que a distribuição é conhecida;
Conceitos de proporcionalidade Definição Uma função densidade de probabilidade (ou função de probabilidade) f pode ser representada da forma f (x) = g(x) C. O termo acima que depende do argumento, g(x), é chamado de núcleo, enquanto C é chamada de constante normalizadora. Observação Note que f (x) g(x), e R g(x)dx, C = x g(x), se y for uma v.a. contínua, se y for uma v.a. discreta;
Exemplos Considere as variáveis aleatórias X N(µ, σ 2 ), Y Exp(α), Z Gama(k, α), W Beta(r, s), U Poison(θ), V Binomial(n, p). Para cada uma das v.a. s, apresente: Sua função densidade de probabilidade (função de probabilidade); Seu núcleo; Sua constante normalizadora;