2.4. ESPERANÇA E DISTRIBUIÇÃO CONDICIONAIS 35 2.4 Esperança e distribuição condicionais Estendemos aqui o conceito de probabilidade condicional em (2.8) para obter a distribuição condicional e, posteriormente, definimos esperança condicional. Estes conceitos são extremamente complicados em situações gerais, porém nos casos discretos e absolutamente contínuos são mais intuitivos, justamente estas duas situações serão noso objeto de estudo. Definição 2.9. Seja Y uma variável aleatória no espaço de probabilidade (Ω,I,P) e seja A I um evento aleatório tal que P(A) > 0. Definimos a probabilidade condicional de Y dado o evento A por P(Y B A) = P([Y B] A), (2.5) P(A) para B B, a σ-álgebra dos boerelianos na reta. A função definida em (2.5) define, de fato, uma função de probabilidade na reta como demonstrado no teorema a seguir. Teorema 2.18. Seja (Ω,I,P) um espaço de probabilidade e A I tal que P(A) > 0. Então P( A) é uma probabilidade nos borelianos B(R) na reta, satisfazendo: (i) P(Y B A) 0 para qualquer evento B B. (ii) P(Y R A) = 1. (iii) Sejam B 1,B 2, borelianos disjuntos dois a dois, então P ( Demonstração. Exercício. Y ) B k A = k=1 P(Y B k A) Associado ao conceito na definição 2.9 temos as probabilidades acumuladas condicionais ou função de distribuição condicional. Podemos interpretar a distribuição condicional de Y dado o evento A como a nova distribuição que se atribui a Y quando se sabe da ocorrência do evento A. k=1
36 CAPÍTULO 2. DEFINIÇÃO AXIOMÁTICA DE PROBABILIDADE Definição 2.10. Seja (Ω,I,P) um espaço de probabilidade e A I tal que P(A) > 0. A função de distribuição associada à probabilidade condicional é chamada de função de distribuição condicional de Y dado A e definida por para todo y R. F Y A (y A) = P(Y y A) = P([Y y] A), (2.6) P(A) Definição 2.11. Seja (Ω,I,P) um espaço de probabilidade e A I tal que P(A) > 0. A esperança condicional de Y dado A é a esperança da distribuição condicional, definida por E(Y A) = ydf Y A (y A), (2.7) se esta integral existe. R Mais geral ainda, podemos definir a esperança condicional de uma variável aleatória dada uma outra. Definição 2.12. Sejam X e Y duas variáveis aleatórias definidas no espaço de probabilidade (Ω,I,P) e seja h uma função Borel mensurável. Consideremos que Eh(Y)} existe. Então, a esperança condicional de h(y) dado X, escrita como Eh(Y) X} é uma variável aleatória assumindo os valores Eh(Y) x} e definida por E(h(Y) x) = h(y)df Y X (y x), (2.8) se esta integral existe. R Uma definição semelhante pode ser dada para a esperança condicional Eh(X) Y}, desde que Eh(X)} exista. Os momentos da distribuição condicional são definidas da maneira usual. Assim, se EY r } existir para algum inteiro r, então EY r X} define o momento r-ésimo da distribuição condicional. Podemos definir os momentos centrais da distribuição condicional e, em particular, a variância. Não há maiores dificuldades em generalizar estes conceitos para as distribuições n-dimensionais quando n 2. Deixamos ao leitor fornecer os detalhes. O problema nestas definições é como calcular as integrais em (2.7) e (2.8). Em duas situações podemos calcular esta integral sem recorrer a novos conceitos matemáticos.
2.4. ESPERANÇA E DISTRIBUIÇÃO CONDICIONAIS 37 2.4.1 Caso discreto Sejam X e Y duas variáveis aleatórias discretas definidas no mesmo espaço de probabilidade (Ω,I,P). Sejam R X = x R : > 0} e R Y = y R : p Y (y) > 0}, onde p X ( ) e p Y ( ) denotam as funções de probabilidade marginais de X e Y, respectivamente. Logo, para cada x R X definimos a função de probabilidade condicional de Y dado X = x como p Y X (y x) = p XY(x,y), (2.9) isto segundo a definição de distribuição acumulada condiocional em (2.10). Para cada x R X fixo, a função em (2.9), é uma função de probabilidade devido a que p XY(x,y) p Y X (y x) = y R Y y R Y = 1 p X x p XY (x,y) = p X(x) = 1, y R Y e representa a distribuição condicional de Y uma vez conhecido o valor de X = x. No caso vetorial a definição é semelhante. Sejam X = X 1,,X k } e Y = Y 1,,Y h } vetores aleatórios discretos e R X = x R k : p X (x > 0}, podemos então definir p Y X (y x) = p XY(x,y), (2.10) para todo x R k. Isto permite calcular as probabilidades envolvendo Y quando sabemos que o evento X = x} aconteceu. De fato, se B B h (os borelianos em R h ) definimos P(Y B X = x) = y R Y B p Y X (y x) (2.11) Seja agora Y uma variável aleatória e X um vetor aleatório de dimensão k, ambos discretos. A esperança condicional de Y dado que X = x define-se utilizando a distribuição determinada em (2.11) e dada por E(Y X = x) = y R Y yp Y X (y x), (2.12)
38 CAPÍTULO 2. DEFINIÇÃO AXIOMÁTICA DE PROBABILIDADE e este valor representa a esperança condicional da variável Y quando se conhece que o vetor X assume o valor x. Observemos que se g(x) = E(Y X = x) temos que g(x) : R k R. Vamos definir agora uma variável aleatória que chamaremos de esperança condicional de Y dado vetor aleatório X, a qual denotaremos por E(Y X). Esta nova variável aleatória define-se por E(Y X) = g(x) (2.13) O seguinte teorema relaciona as esperanças definidas em (2.12) e (2.13). Teorema 2.19. Sejam X e Y duas variáveis aleatórias discretas definidas no mesmo espaço de probabilidade. Se Y tiver esperança finita, temos então que EE(Y X)} = E(Y) (2.14) Demonstração. Segundo a equação em (2.13) temos que EE(Y X)} = E(g(X)) = x R k g(x) Utilizando o fato que g(x) é definida por (2.12), temos que EE(Y X)} = ( ) yp Y X (y x) x R X y R Y = ( ) y p XY(x,y) x R X y R Y = ( ) yp XY (x,y) x R X y R Y = ( ) y p XY (x,y) y R Y x R X = yp Y (y) = E(Y) y R Y Trocar a ordem na soma é justificado pelo fato da soma ser convergente por hipóteses.
2.4. ESPERANÇA E DISTRIBUIÇÃO CONDICIONAIS 39 Exemplo 2.14. Suponhamos que fazemos uma primeira série de n lançamentos de uma moeda e seja X o número de caras obtidas. Com base no resultado da primeira série de lançamentos, inciamos uma segunda série de X lançamentos. Seja Y o número de caras obtidas nesta segunda série de lançamentos. Calcular E(Y). Se X = x, a distribuição de condicional de Y dado que X = x é Binomial(0.5,x). Logo E(Y X = x) = 0.5x. Construios então a variável aleatória E(Y X) = g(x) = 0.5X, e pela expressão (refe.e.cond) no Teorema 2.19 temos que E(Y) = EE(Y X)} = 0.5E(X). Dado que X B(0.5, n) então E(X) = 0.5n. Concluímos então que E(Y) = 0.25n. Teorema 2.20. Seja Y uma variável aleatória tal que P(Y = c) = 1, onde c é uma constante qualqer. Então, qualquer seja o vetor X temos que (i) p Y X (c x) = 1, (ii) E(Y X = x) = c. Demonstração. Exercício. Exemplo 2.15. Uma urna contém treis bolas vermelhas e duas bolas verdes. Uma amostra aleatória de duas bolas é atraído (a) com reposição e (b) sem reposição. Seja X = 0 se a primeira bola tirada é verde e X = 1 se a primeira bola tirada é vermelho. Definamos também Y = 0 se a segunda bola tirada é verde e Y = 1 se a segunda bola tirada é vermelha. Vamos obter as funções de probabilidade conjunta e as funções de probabilidade e esperanças condicionais. A função de probabilidade conjunta em cada caso é apresentada nas tabelas a seguir: (a) Com reposição X Y 0 1 0 4/25 6/25 2/5 1 6/25 9/25 3/5 2/5 3/5 1 (b) Sem reposição X Y 0 1 0 2/20 6/20 2/5 1 6/20 6/20 3/5 2/5 3/5 1 As funções de probabilidade condicional correspondentes assim como as esperanças condicionais são apresentadas a seguir.
40 CAPÍTULO 2. DEFINIÇÃO AXIOMÁTICA DE PROBABILIDADE (a) Com reposição P(Y = y 0)= P(Y = y 1)= 2/5, se y = 0 3/5, se y = 1, 2/5, se y = 0 3/5, se y = 1, P(X = x 0)= P(X = x 1)= 2/5, se x = 0 3/5, se x = 1, 2/5, se x = 0 3/5, se x = 1, E(Y X)= 3/5, se x = 0 3/5, se x = 1, E(X Y)= 3/5,se y = 0 3/5,se y = 1 (b) Sem reposição P(Y = y 0)= P(Y = y 1)= 1/4, se y = 0 3/4, se y = 1, 1/2, se y = 0 1/2, se y = 1, P(X = x 0)= P(X = x 1)= 1/4, se x = 0 3/4, se x = 1, 1/2, se x = 0 1/2, se x = 1, E(Y X)= 3/4, se x = 0 1/2, se x = 1, E(X Y)= 3/4, se y = 0 1/2, se y = 1 2.4.2 Caso absolutamente contínuo 2.4.3 Exercícios 1. Seja X uma variável aleatória com densidade normal de parâmetros µ e σ 2. Encontre E(X a < X < b), onde a e b são constantes. 2. Encontrar a expressão de EY E(Y X)} 2. 3. Sejam X e Y variáveis aleatórias e ϕ(x) uma outra variável aleatória. Assuma que E(Y) e Eϕ(Y)} existem. Mostre que (i) Eϕ(X) X} = ϕ(x), (ii) Eϕ(X)Y X} = ϕ(x)e(y X). 4. Sejam X e Y variáveis aleatórias tais que E(X 2 ) < e E(Y 2 ) <. Demonstre que Cov(X,Y) = CovX, E(Y X)}