GET00189 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidmensionais

Tamanho: px
Começar a partir da página:

Download "GET00189 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidmensionais"

Transcrição

1 Universidade Federal Fluminense Instituto de Matemática e Estatística GET89 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidmensionais Ana Maria Lima de Farias Jessica Quintanilha Kubrusly Mariana Albi de Oliveira Souza Departamento de Estatística

2 Conteúdo Probabilidade. Experimento aleatório, espaço amostral e evento Probabilidade: axiomas e propriedades Espaços amostrais finitos e igualmente prováveis Probabilidade condicional Regra da multiplicação Teorema da Probabilidade Total e Teorema de Bayes Independência de eventos Conjuntos limite e continuidade da probabilidade Variáveis Aleatórias 49. Variáveis aleatórias Função de distribuição acumulada Classificação de variáveis aleatórias Variáveis Aleatórias Discretas Função de probabilidade Funções de variáveis aleatórias discretas Esperança de variáveis aleatórias discretas Variância e desvio-padrão de variável aleatória Algumas Distribuições Discretas 9 4. Introdução Distribuição uniforme discreta Distribuição de Bernoulli i

3 ii CONTEÚDO 4.4 Distribuição binomial Distribuição geométrica Distribuição binomial negativa Distribuição hipergeométrica Distribuição de Poisson Mais exemplos Apêndice: Séries geométricas Apêndice: Limites envolvendo as funções exponencial e logarítmica Variáveis Aleatórias Contínuas Função densidade de probabilidade Esperança de variáveis aleatórias contínuas Variância Densidade simétrica Apêndice: Funções pares e ímpares Algumas Distribuições Contínuas Distribuição uniforme Distribuição exponencial Distribuição gama Distribuição beta Distribuição de Weibull Distribuição de Pareto Funções de Variáveis Aleatórias Contínuas Método da função de distribuição Método do jacobiano A Distribuição Normal Distribuição normal padrão Cálculo de probabilidades da normal padrão A distribuição normal

4 CONTEÚDO iii 8.4 Cálculo de probabilidades da normal Encontrando a abscissa da normal para uma probabilidade específica Exemplos de aplicação da distribuição normal A distribuição log-normal Apêndice: Integrais duplas com coordenadas polares Momentos e sua Função Geradora 3 9. Momentos Alguns coeficientes e suas interpretações Função geradora de momentos Algumas desigualdades importantes A Tabelas 47

5 Capítulo Probabilidade No nosso cotidiano, lidamos sempre com situações em que está presente a incerteza do resultado, embora, muitas vezes, os resultados possíveis sejam conhecidos. Por exemplo, se estamos interessados na face voltada para cima quando jogamos um dado, os resultados possíveis são,, 3, 4, 5, 6, mas só saberemos o resultado quando o experimento se completar, ou seja, quando o dado atingir a superfície sobre a qual foi lançado. Se nosso interesse é o tempo de duração, em minutos, de determinado tipo de lâmpada, sabemos que o resultado pode ser qualquer número positivo, que só será conhecido quando a lâmpada se queimar. É conveniente, então, dispormos de uma medida que exprima a incerteza presente em cada um destes acontecimentos. Tal medida é a probabilidade.. Experimento aleatório, espaço amostral e evento Um experimento que pode gerar diferentes resultados se realizado mais de uma vez, sob as mesmas condições, é chamado de experimento aleatório. Como exemplo de experimentos aleatórios temos: o lançamento de um dado e a observação da face superior; a observação do tempo de duração de um certo dispositivo eletrônico; lançamentos consecutivos de uma moeda até que saia a face cara. O conjunto formado por todos os possíveis resultados de um experimento aleatório é chamado de espaço amostral e é representado pela letra grega maiúscula Ω. Em geral usamos a letra grega minúscula ω para representar um resultado específico de um experimento aleatório. Nesse caso podemos escrever ω Ω. Se Ω é o espaço amostral de algum experimento aleatório, qualquer subconjunto A Ω será chamado de evento. Em particular, cada ω Ω é chamado de evento elementar. Exemplo. Para os experimentos aleatórios listados a seguir, defina um espaço amostral e apresente alguns eventos. (a) Lançamento de um dado e observação da face superior. (b) Lançamento de duas moedas e observação das duas faces superiores. (c) Lançamentos consecutivos de uma moeda até que saia a face cara. (d) Observação do tempo de duração de um certo dispositivo eletrônico.

6 CAPÍTULO. PROBABILIDADE (a) Ω {,, 3, 4, 5, 6}. Eventos: E { sair uma face par } {, 4, 6}; E { sair um número maior que } {, 3, 4, 5, 6}; E 3 { sair o número 3 } {3}; E 4, o evento vazio. (b) Ω {K K, KC, CK, CC}, em que K representa face superior cara e C, coroa. Eventos: E { faces iguais } {K K, CC}; E { pelo menos uma cara } {CK, KC, K K }; E { uma cara } {CK, KC}. (c) Ω {K, CK, CCK, CCCK, CCCCK,...}, em que, novamente, K representa face superior cara e C, coroa. Eventos: E { sair coroas } {CCK }; E { ocorrer mais de lançamentos da moeda } {CCK, CCCK,...}; E 3 { ocorrer menos de 5 lançamentos } {K, CK, CCK, CCCK }; E 4 { ocorrer pelo menos um lançamento } Ω, o próprio espaço amostral. (d) Ω {t R t }, onde t é o tempo de duração em minutos. Eventos: E { o dispositivo durar entre e 3 minutos } [, 3]; E { o dispositivo durar menos de 5 minutos } [, 5); E 3 { o dispositivo durar exatos 5 minutos e 3 segundos } {5.5}; E 4 { o dispositivo durar pelo menos hora } [6, ). Exemplo. Bolas em uma urna Uma urna contém 4 bolas, das quais duas são brancas (numeradas de a ) e duas são pretas (numeradas de 3 a 4). Duas bolas são retiradas dessa urna, sem reposição. Defina um espaço amostral apropriado para esse experimento e os seguintes eventos: A : B : C : a primeira bola é branca; a segunda bola é branca; ambas as bolas são brancas; Considerando a numeração das bolas, o espaço amostral pode ser definido como: Ω {(i, j) : i,, 3, 4; j,, 3, 4; i j} {(, ), (, 3), (, 4), (, ), (, 3), (, 4), (3, ), (3, ), (3, 4), (4, ), (4, ), (4, 3)} Os eventos são: A {(i, j) : i, ; j,, 3, 4; i j} {(, ), (, 3), (, 4), (, ), (, 3), (, 4)} B {(i, j) : i,, 3, 4; j, ; i j} {(, ), (3, ), (4, ), (, ), (3, ), (4, )}

7 .. EXPERIMENTO ALEATÓRIO, ESPAÇO AMOSTRAL E EVENTO 3 C {(i, j) : i, ; j, ; i j} {(, ), (, )} Exemplo.3 Cartas de um baralho especial Três cartas são retiradas, sem reposição, de um baralho que tem três cartas de cada uma das cores azul, vermelha, preta e branca. Dê um espaço amostral para esse experimento e liste os eventos: E : E : E 3 : E 4 : todas as cartas selecionadas são vermelhas; uma carta vermelha, uma carta azul e uma carta preta são selecionadas; três diferentes cores ocorrem; todas as quatro cores ocorrem. Vamos denotar por A, V, P e B o sorteio de uma carta das dores as cores azul, vermelha, preta e branca, respectivamente. Então Ω {(x, x, x 3 ) : x i A, V, P, B; i,, 3} Os eventos são: E {(V, V, V )} E {(V, A, P), (V, P, A), (A, V, P), (A, P, V ), (P, V, A), (P, A, V )} E 3 {(V, A, P), (V, P, A), (A, V, P), (A, P, V ), (P, V, A), (P, A, V ), (V, A, B), (V, B, A), (A, V, B), (A, B, V ), (B, V, A), (B, A, V ), (V, B, P), (V, P, B), (B, V, P), (B, P, V ), (P, V, B), (P, B, V ), (B, A, P), (B, P, A), (A, B, P), (A, P, B), (P, B, A), (P, A, B)} Como temos quatro cores diferentes e apenas três extrações, não é possível obter todas as cores; logo, E 4. Sendo os eventos subconjuntos do espaço amostral, outros eventos podem ser obtidos através de operações elementares de conjuntos. A interseção de dois eventos A e B é o evento A B {ω : ω A e ω B}, que corresponde à ocorrência simultânea de A e B. Se A B, os eventos A e B são disjuntos ou mutuamente exclusivos, o que significa que não podem ocorrer simultaneamente. A união de dois eventos A e B é o evento A B {ω : ω A ou ω B}, que corresponde à ocorrência de pelo menos um dos eventos A e B. O complementar de A é o evento A c {ω : ω / A}, que corresponde à não ocorrência de A. A diferença A B é o evento é A B {ω : ω A e ω / B}, que corresponde à ocorrência de A, mas não de B. A diferença B A é o evento é B A {ω : ω B e ω / A}, que corresponde à ocorrência de B, mas não de A. Assim como com números, a diferença não é comutativa. Note que podemos escrever A B A B c e B A B A c. (Veja as Figuras.e e.f)

8 4 CAPÍTULO. PROBABILIDADE (a) A B (b) A B (c) A B (d) A c (e) A B (f) B A Figura. Operações com eventos A seguir ilustramos as principais propriedades das operações com eventos aleatórios.. Identidade A A Ω Ω (.) A A A Ω A (.). Complementar Ω c c Ω (.3) A A c A A c Ω (.4) 3. Involução (A c ) c A 4. Idempotência A A A A A A (.5) 5. Comutatividade A B B A A B B A (.6)

9 .. EXPERIMENTO ALEATÓRIO, ESPAÇO AMOSTRAL E EVENTO 5 6. Associatividade (A B) C A (B C) (A B) C A (B C) (.7) 7. Distributividade A (B C) (A B) (A C) A (B C) (A B) (A C) (.8) 8. Absorção A (A B) A A (A B) A (.9) 9. Leis de De Morgan (A B) c A c B c (A B) c A c B c (.) ou mais geralmente ( ) c A i i ( ) c A i i i A c i Ai c (.) i Exemplo.4 Lançamento de duas moedas Consideremos o experimento do lançamento de duas moedas e observação das faces superiores. Sejam os eventos A exatamente cara, B duas faces iguais e C pelo menos cara. Determine A B, A B, A B, B A, A C, A C, A C, C A, B C, B C, B C, C B, A c, B c, C c, A (B C) e A B C. Como antes, vamos representar por K face superior cara e por C, coroa. Espaço amostral: Ω {K K, KC, CK, CC} Eventos: A {KC, CK } B {CC, K K } C {KC, CK, K K }. Logo, A B A B Ω A B A B A B A C A A C C A C C A {K K }. Note que A C. B C {K K } B C Ω B C {CC} C B {KC, CK } A c B B c A C c {CC} A (B C) (A B) (A C) Ω C C A B C Ω Nos exemplos acima, vimos que há vários eventos em um mesmo espaço amostral. Vamos apresentar, agora, uma classe de subconjuntos (eventos) que será fundamental no estudo da teoria de probabilidade.

10 6 CAPÍTULO. PROBABILIDADE Definição. σ-álgebra Seja Ω um espaço amostral de algum experimento aleatório. Uma classe F de subconjuntos de Ω é denominada uma σ-álgebra (lê-se sigma-álgebra) se satisfaz as seguintes propriedades: (S ) Ω F. (S ) Se A F então A c F. (S 3 ) Se A i F, i, então A i F. i Proposição. Se F é uma σ-álgebra de conjuntos de Ω, então (a) F ; (b) se A i F, i, então A i F. i Demonstração: (a) Pela Propriedade (S ), sabemos que Ω F. Logo, pela Propriedade (S ), temos que Ω c F. Mas Ω c F. ( ) c (b) A i F }{{} Ai c F }{{} Ai c F }{{} A i F }{{} A i F S S 3 i de Morgan i S i Exemplo.5 Seja Ω {,, 3} e considere as seguintes coleções de subconjuntos de Ω: Verifique se F e F são σ álgebras. F {, Ω, {3}, {, }} F {, Ω, {}, {3}, {, }}, {, 3}}} F Ω F S satisfeita c Ω F, Ω c F, {3} c {, } F, {, } c {3} F S satisfeita Ω Ω F, {3} {3} F, {, } {, } F, Ω {3} Ω {, } Ω F, {, } {3} Ω F As uniões de 3 ou 4 subconjuntos resultarão trivialmente em elementos de F. Logo, a propriedade S 3 é satisfeita.

11 .. PROBABILIDADE: AXIOMAS E PROPRIEDADES 7 F é σ álgebra. F Podemos ver que {} {3} {, 3} / F. Logo, F não é σ álgebra. Exemplo.6 A menor σ álgebra contendo A Sejam Ω um espaço amostral e A Ω um subconjunto qualquer. Mostre que F {, Ω, A, A c } é uma σ álgebra Ω F S satisfeita c Ω F, Ω c F, A c F, (A c ) c A F S satisfeita Ω Ω F, A A F, A c A c F, Ω A Ω A c Ω F, A A c Ω F As uniões de 3 ou 4 subconjuntos resultarão trivialmente em elementos de F. propriedade S 3 é satisfeita. Logo, a F é σ álgebra, que é chamada menor σ álgebra que contém A, no sentido de que qualquer outra σ álgebra que contiver A terá os mesmos elementos de F e, possivelmente, mais alguns. Se Ω é um espaço amostral, então temos duas σ álgebras canônicas: F {, Ω} F Ω em que Ω representa o conjunto de todos os subconjuntos de Ω, chamado de conjunto das partes de Ω. F e F são chamadas, respectivamente, de menor e maior σ álgebra de Ω.. Probabilidade: axiomas e propriedades Considere, mais uma vez, o experimento aleatório que consiste no lançamento de um dado equilibrado e consequente observação da face superior. Como já visto, o espaço amostral desse experimento é Ω {,, 3, 4, 5, 6}, e alguns eventos de interesse são A sair face, B sair face par etc. A questão que se coloca, agora, é como atribuir probabilidade a esses eventos. Ou seja, queremos determinar um número que expresse o quão provável é a ocorrência de cada um desses eventos. Um raciocínio intuitivo nos leva à resposta para a probabilidade de se obter uma face par. Afinal, metade das faces consiste em números pares e, assim P(face par) 3 6

12 8 CAPÍTULO. PROBABILIDADE O contexto subjacente a esse exemplo é um espaço amostral Ω finito em que todos os seus eventos elementares {}, {}, {3}, {4}, {5}, {6} são igualmente prováveis e tal contexto leva à definição clássica de probabilidade: P(A) #A (.) #Ω em que #A representa o número de elementos em A. Essa foi a primeira definição formal de probabilidade, explicitada por Girolamo Cardano (5-576). Embora intuitiva, essa definição, assim como outras (frequentista, geométrica), não tem o arcabouço matemático necessário para a formalização do conceito de probabilidade. Essa formalização vem com a definição axiomática dada por Kolmogorov por volta de 93. Os axiomas estabelecem propriedades mínimas que se espera sejam satisfeitas pela probabilidade de qualquer evento. Definição. Probabilidade Seja Ω um espaço amostral de um experimento aleatório e F uma σ-álgebra de subconjuntos de Ω. Uma função real P definida em F é uma probabilidade se satisfaz os seguintes axiomas, denominados Axiomas de Kolmogorov: (Ax ) P(Ω) ; (Ax ) Para todo evento A F, P(A) ; (Ax 3 ) Para toda sequência de eventos A, A,... F mutuamente exclusivos, isto é, tais que A i A j i j, ( ) P A i P(A i ). i i A trinca (Ω, F, P) é denominada espaço de probabilidade. Em alguns livros, por exemplo James (4), os autores fazem distinção entre evento e evento aleatório, definindo evento como qualquer subconjunto do espaço amostral e evento aleatório como qualquer evento ao qual é atribuída uma probabilidade, ou seja, os eventos da σ-álgebra. Neste texto, por se tratar de um primeiro curso de probabilidade, não faremos essa distinção. Sempre que qualquer um dos dois termos for mencionado, ele indicará um evento ao qual é atribuída uma probabilidade. Vamos, agora, apresentar propriedades da probabilidade que resultam dos Axiomas Ax a Ax 3. Proposição. Propriedades da Probabilidade Seja (Ω, F, P) um espaço de probabilidade. Sejam também A, B e A i eventos nesse espaço de probabilidade. Então valem as seguintes propriedades: (Pr ) P(A c ) P(A); (Pr ) P( ) ; (Pr 3 ) P(B A c ) P(B) P(B A); (Pr 4 ) Se A B P(A) P(B); Axioma: () Premissa imediatamente evidente que se admite como universalmente verdadeira sem exigência de demonstração. () Proposição que se admite como verdadeira porque dela se podem deduzir as proposições de uma teoria ou de um sistema lógico ou matemático. (dicionário Aurélio)

13 .. PROBABILIDADE: AXIOMAS E PROPRIEDADES 9 (Pr 5 ) P(A) ; (Pr 6 ) P(A B) P(A) + P(B) P(A B); ( ) (Pr 7 ) P A i i P(A i ). i Demonstração: (Pr ) Ω A A c }{{} P(Ω) P(A) + P(A c ) }{{} P(A) + P(A c ) P(A c ) P(A) (Ax 3 ) (Ax ) (Pr ) Ω Ω }{{} P(Ω) P(Ω) + P( ) P( ) (Ax 3 ) (Pr 3 ) Temos que (veja Figura.a) B (B A) (B A c ) }{{} P(B) P(B A) + P(B A c ) P(B A c ) P(B) P(B A) (Ax 3 ) (Pr 4 ) Como antes, temos que (veja Figuras.a e.b) B (B A) (B A c ) }{{} A (B A c ) }{{} P(B) P(A) + P(B A c ) P(B) P(A) }{{} A B (Ax 3 ) ;(Ax ) (Pr 5 ) A Ω }{{} P(A) P(Ω) }{{} P(A) (Pr 4 ) (Ax ) (Pr 6 ) Temos que (veja Figura.c A B A (B A c ) }{{} P(A B) P(A) + P(B A c ) }{{} P(A) + P(B) P(A B) (Ax 3 ) (Pr 3 ) (Pr 7 ) Vamos provar a propriedade por indução. O resultado vale para n, pois, pela Propriedade (Pr 6 ), P ( i ) A i P(A A ) P(A ) + P(A ) P(A A ) P(A }{{} ) + P(A ) P(A i ) i Suponhamos verdadeiro para n k, ou seja, nossa hipótese de indução é ( k ) P A i i k P(A i ) i Para n k + eventos, temos que k+ i ( k ) ( k A i A i A k+ i i ) c A i

14 CAPÍTULO. PROBABILIDADE e pelo Axioma (Ax 3 ), ( k+ ) ( k ) ( k P A i P A i + P A k+ i uma vez que i i ) c A i }{{} hip.ind. ( k k P(A i ) + P A k+ ( k ) c ( k ) c A k+ A i A k+ }{{} P A k+ A i P(A k+ ) i (Pr 4 ) i i i ) c k+ A i i P(A i ) (a) Decomposição de B (b) A B (c) Decomposição de A B Figura. Demonstração da Proposição. Exemplo.7 Prove que: Ou exclusivo P [(A B c ) (A c B)] P(A) + P(B) P(A B) Observe que a afirmação trata da probabilidade da ocorrência de exatamente um dos eventos A ou B. P [(A B c ) (A c B)] }{{} P(A B c )+P(A c B) }{{} P(A) P(A B)+P(B) P(A B) P(A)+P(B) P(A B) (Ax 3 ) (Pr 3 ) Exemplo.8 Atribuição de probabilidade Dado que Ω {,, }, verifique se é possível definir uma probabilidade em Ω tal que Justifique sua resposta. P ({, }), 6 P ({, }), 9 P ({, }), 5 Note que o evento {, } { } {}. Logo, as probabilidades dadas se transformam no seguinte sistema de 3 equações com 3 incógnitas: P({ }) + P({}), 6 P({}) + P({}), 9 P({ }) + P({}), 5

15 .. PROBABILIDADE: AXIOMAS E PROPRIEDADES Da primeira equação, obtemos P({}), 6 P({ }). Substituindo na segunda, obtemos o seguinte sistema de equações e incógnitas: ou Somando termo a termo, resulta Substituindo, obtemos Substituindo novamente, obtemos P({}) +, 6 P({ }), 9 P({ }) + P({}), 5 P({}) P({ }), 3 P({ }) + P({}), 5 P({}), 8 P({}), 4 P({ }), 5 P({}), 5, 4 P({ }), P({}), 6 P({ }), 6,, 5 Como todos os valores obtidos estão no intervalo [, ] e P(Ω) P({ }) + P({}) + P({}), a atribuição dada é válida. Exemplo.9 Se P (A) /3 e P (B c ) /4, A e B podem ser mutuamente exclusivos? P(B) P(B c ) 3 4. Se A e B fossem mutuamente exclusivos, teríamos que ter P(A B) P(A) + P(B) >. Logo, A e B têm que ter interseção, ou seja, A e B não podem ser mutuamente exclusivos. Exemplo. Sejam A e B eventos mutuamente exclusivos tais que P(A), 5 e P(B), 4. (a) Calcule P(A B). (b) Calcule P(B A c ). Do enunciado, concluímos que A B. Logo, (a) P(A B) P(A) + P(B), 5 +, 4, 9 (b) P(B A c ) P(B) P(A B), 4, 4

16 CAPÍTULO. PROBABILIDADE Exemplo. Sejam A, B e C eventos de um mesmo espaço de probabilidade (Ω, F, P). Obtenha uma expressão para P(A B C). P(A B C) P [(A B) C] P(A B) + P(C) P [(A B) C] P(A) + P(B) P(A B) + P(C) P [(A C) (B C)] P(A) + P(B) P(A B) + P(C) P(A C) P(B C) + P [(A C) (B C)] P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C) Exemplo. Se A, B e C são três eventos de um mesmo espaço de probabilidade, defina M A B c C c e N A (B C). Calcule as probabilidades de M e N sabendo que P(A), 7, P(B), 6, P(C), 5, P(A B), 45, P(A C), 35, P(B C), 5 e P(A B C), 5. P(M) P(A B c C c ) P[A (B c C c )] P[A (B C) c ] Lembrando que P(A B c ) P(A) P(A B), resulta que Por outro lado, P(M) P(A) P[A (B C)] P(A) P(N), 7 P(N) P(N) P[A (B C)] P[(A B) (A C)] P(A B) + P(A C) P[(A B) (A C)] P(A B) + P(A C) P[(A B C)], 45 +, 35, 5, 65 Logo, P(M), 7, 65, 5..3 Espaços amostrais finitos e igualmente prováveis Nesta seção vamos considerar o caso especial de espaços amostrais com um número finito de elementos. Seja, então, Ω {ω, ω,..., ω N } e associada a este Ω, a σ álgebra F Ω, o conjunto das partes de Ω. Para qualquer evento A F, temos que P(A) ω j A P(ω j ) Há situações em que, além de Ω ser finito, é também razoável supor que todos os elementos de Ω são igualmente prováveis, ou seja, P(ω j ) N

17 .3. ESPAÇOS AMOSTRAIS FINITOS E IGUALMENTE PROVÁVEIS 3 e, nesse caso, para qualquer evento A F P(A) ω j A em que #A representa o número de elementos de A. P(ω j ) #A #Ω Muitos problemas podem ser resolvidos usando-se essa abordagem, bastando que se conte o número de elementos de Ω e do evento A de interesse. Tal contagem, em geral, é feita com auxílio de técnicas de análise combinatória. Exemplo.3 Carta de um baralho Considere um baralho usual composto de 5 cartas divididas em 4 naipes: ouros, copas, paus e espadas, cada naipe com 3 cartas. As cartas dos primeiros naipes são vermelhas e as dos dois últimos, pretas. Em cada naipe, as cartas podem ser ás,, 3, 4, 5, 6, 7, 8, 9,, Valete, Dama e Rei. Essas três últimas são figuras que representam a realeza. Retira-se, ao acaso, uma carta desse baralho. Qual é a probabilidade de que seja (a) uma figura? (b) uma carta vermelha? (c) uma figura ou uma carta vermelha? O espaço amostral é formado pelas 5 cartas do baralho. Temos, assim, um espaço amostral finito em que os eventos elementares cada uma das cartas são igualmente prováveis, pois estamos retirando a carta aleatoriamente. Como há 5 cartas ao todo, #Ω 5. Vamos denotar por F o evento carta retirada é uma figura e por V o evento carta retirada é vermelha. (a) Em cada um dos 4 naipes há três figuras. Logo, o número total de figuras é 4 3, ou seja, #F. Logo, P(F) (b) Metade das cartas é de cor vermelha. Logo, P(V ) 6 5. (c) P(F V ) P(F) + P(V ) P(F V ) Exemplo.4 Escolha de um número Um número é escolhido aleatoriamente entre os primeiros inteiros, de a. probabilidade de que o número escolhido seja Qual é a (a) par? (b) primo?

18 4 CAPÍTULO. PROBABILIDADE (c) quadrado perfeito? Temos um espaço amostral finito com eventos elementares equiprováveis, pois estamos escolhendo o número aleatoriamente. (a) Vamos denotar por A o evento número par. Logo, (b) Seja R o evento número primo (c) Se Q é o evento quadrado perfeito, então, A {, 4, 6, 8,,, 4, 6, 8, } P(A) R {, 3, 5, 7,, 3, 7, 9} P(R) 8 5 Q {, 4, 9, 6} P(Q) 4 5 Exemplo.5 Extração de uma bola em uma urna Uma urna contém 6 bolas amarelas, bolas brancas e 8 bolas verdes. Uma bola é escolhida, ao acaso, desta urna. Qual é a probabilidade de que essa bola (a) não seja verde? (b) seja branca? (c) não seja nem branca nem verde? Temos um total de bolas. Logo, #Ω 6. Vamos denotar por A, B, V os eventos bola amarela, branca e verde, respectivamente. (a) P(V c ) P(V ) (b) P(B) #B #Ω 6 8 (c) P(B c V c ) P ((B V ) c ) P(B V ) [P(B) + P(V )] P(A) Se a bola não é branca nem verde, ela tem que ser amarela! Exemplo.6 Lançamento de dois dados Considere o lançamento de dois dados. Calcule a probabilidade dos eventos A soma das faces superiores é um número par, B soma das faces superiores é um número maior que 9, C soma das faces superiores é um número ímpar menor que 9.

19 .3. ESPAÇOS AMOSTRAIS FINITOS E IGUALMENTE PROVÁVEIS 5 O espaço amostral desse experimento é Ω{(i, j) i,..., 6 e j,..., 6} Uma visualização do espaço amostral desse experimento é dada na tabela a seguir, onde, para cada par possível de resultados, apresenta-se também a soma das faces: Dado (, ) (, ) 3 (, 3) 4 (, 4) 5 (, 5) 6 (, 6) 7 (, ) 3 (, ) 4 (, 3) 5 (, 4) 6 (, 5) 7 (, 6) 8 Dado 3 (3, ) 4 (3, ) 5 (3, 3) 6 (3, 4) 7 (3, 5) 8 (3, 6) 9 4 (4, ) 5 (4, ) 6 (4, 3) 7 (4, 4) 8 (4, 5) 9 (4, 6) 5 (5, ) 6 (5, ) 7 (5, 3) 8 (5, 4) 9 (5, 5) (5, 6) 6 (6, ) 7 (6, ) 8 (6, 3) 9 (6, 4) (6, 5) (6, 6) Podemos ver que : Logo, Ω A (, ), (, ), (, 3), (, 4), (, 5), (, 6), (, ), (, ), (, 3), (, 4), (, 5), (, 6), (3, ), (3, ), (3, 3), (3, 4), (3, 5), (3, 6), (4, ), (4, ), (4, 3), (4, 4), (4, 5), (4, 6), (5, ), (5, ), (5, 3), (5, 4), (5, 5), (5, 6), (6, ), (6, ), (6, 3), (6, 4), (6, 5), (6, 6) (, ), (, 3), (, 5), (, ), (, 4), (, 6), (3, ), (3, 3), (3, 5), (4, ), (4, 4), (4, 6), (5, ), (5, 3), (5, 5), (6, ), (6, 4), (6, 6) #Ω 36 #A 8 B {(4, 6), (5, 5), (5, 6), (6, 4), (6, 5), (6, 6)} #B 6 { } (, ), (, 4), (, 6), (, ), (, 3), (, 5), C #C (3, ), (3, 4), (4, ), (4, 3), (5, ), (6, ), P (A) 8 36 P (B) P (C) 36 3 Exemplo.7 Extrações sequencias de duas bolas de uma urna Em uma urna, há 4 bolas brancas e 3 verdes. Duas bolas são retiradas dessa urna, sequencialmente e sem reposição. Qual é a probabilidade de obtermos (a) bolas brancas? (b) bolas verdes? (c) bolas de cores diferentes? Vamos indicar por B, B, B 3 e B 4 as quatro bolas brancas e por V, V e V 3 as três bolas verdes. O espaço amostral para este experimento é Ω {(C, C ); C, C B, B, B 3, B 4, V, V, V 3 ; C C } A primeira bola pode ser qualquer uma, logo, há 7 bolas possíveis. Como a extração é sem reposição, para a segunda bola, só há 6 possibilidades. Assim, o número total de pares é 7 6 4, ou seja, #Ω 4.

20 6 CAPÍTULO. PROBABILIDADE (a) Para os pares do evento A bolas brancas, a primeira bola pode ser qualquer uma das brancas, e a segunda, qualquer uma das brancas restantes. Logo, (b) Analogamente, se B bolas verdes, #A 4 3 P(A) 4 7 #B 3 P(B) (c) O evento C bolas de cores diferentes é o complementar do evento D bolas de cores iguais. Por sua vez, D A B, e assim, como A e B são mutuamente exclusivos, temos P(D) P(A) + P(B) P(C) P(D) Exemplo.8 Extrações simultâneas de duas bolas de uma urna Resolva o exemplo anterior, com a seguinte alteração: em vez de extrações sequenciais, as bolas são retiradas simultaneamente. Em ambos os casos, as extrações são sem reposição, ou seja, a mesma bola não pode sair duas vezes. O que muda, então? Nas extrações simultâneas, não podemos diferenciar a ordem das bolas: por exemplo, os pares V V e V V são os mesmos. Dessa forma, a cardinalidade do espaço amostral fica reduzida por, que é!, número de maneiras de organizar as bolas. Se fossem 3 bolas, ficaria reduzido por 3! 6. Para ajudar na compreensão dessa diferença, vamos listar os eventos cuja união fornece o espaço amostral. Evento Extrações sequenciais Evento Extrações simultâneas bolas B B, B B 3, B B 4, bolas B B, B B 3, B B 4, brancas B B, B B 3, B B 4, brancas B B 3, B B 4, B 3 B, B 3 B, B 3 B 4, B 3 B 4, B 4 B, B 4 B, B 4 B 3, bolas V V, V V 3, bolas V V, V V 3, verdes V V, V V 3, verdes V V 3, V 3 V, V 3 V, Branca B V, B V, B V 3, Uma B V, B V, B V 3, e verde B V, B V, B V 3, branca B V, B V, B V 3, B 3 V, B 3 V, B 3 V 3, e uma B 3 V, B 3 V, B 3 V 3, B 4 V, B 4 V, B 4 V 3, verde B 4 V, B 4 V, B 4 V 3 Verde V B, V B, V B 3, V B 4, e V B, V B, V B 3, V B 4, branca V 3 B, V 3 B, V 3 B 3, V 3 B 4 Note que as probabilidades são as mesmas em ambos os casos: Extrações sequenciais P( verdes) P( brancas) P(cores diferentes) Extrações simultâneas

21 .3. ESPAÇOS AMOSTRAIS FINITOS E IGUALMENTE PROVÁVEIS 7 Exemplo.9 Questões certas em uma prova Em uma prova, caíram dois problemas. Sabe-se que 3 alunos acertaram o primeiro, 86 erraram o segundo, acertaram os dois e 54 acertaram apenas um. Sorteando-se, ao acaso, um desses alunos, qual é a probabilidade de que (a) não tenha acertado qualquer um dos dois problemas? (b) tenha acertado apenas o segundo problema? Vamos denotar por A e A os eventos aluno acerta problema e aluno acerta problema, respectivamente. Os dados do problema nos dão que: #(A A ) a (acertar os ) #A 3 a + b (acertar o primeiro) #A c 86 b + d (errar o segundo) # [(A A c ) (Ac A )] 54 b + d (acertar apenas um) Usando o resultado do Exemplo.7, tem-se que: # [(A A c ) (Ac A )] #A + #A #(A A ) #A #A 6 Logo, o número total de alunos é #Ω #(A A c ) #A + #A c (a) P (A c Ac ) }{{} P [(A A ) c ] }{{} P (A A ) }{{} [P(A ) + P(A ) P(A A )] de Morgan (Pr ) (Pr 6 ) (b) Pela Propriedade (Pr 3 ), tem-se que: P (A A c ) P(A ) P(A A ) Exemplo. Sorteio de bolsas de estudo Quatro bolsas de estudo serão sorteadas entre 3 estudantes, dos quais são do sexo masculino e 8 são do sexo feminino. Qual é a probabilidade de que haja entre os sorteados: (a) uma pessoa do sexo masculino? (b) no máximo uma pessoa do sexo feminino? (c) pelo menos uma pessoa de cada sexo? O espaço amostral consiste em todas as quádruplas de alunos; sendo assim, ( ) 3 #Ω 745 4

22 8 CAPÍTULO. PROBABILIDADE (a) Um homem sorteado significa também que 3 mulheres foram sorteadas. O número de maneiras de escolher homem é ( ) ( e o número de maneiras de escolher 3 mulheres é 8 ) 3. Pelo Princípio Fundamental ( da Multiplicação, o número de maneiras de escolher homem e 3 mulheres é )( 8 ) 3. Seja U o evento um homem é sorteado. Então ( )( 8 ) 3 86 P(U) (b) No máximo uma pessoa do sexo feminino significa nenhuma ou uma pessoa do sexo feminino e, portanto, 4 e 3 pessoas do sexo masculino, respectivamente. Seja X o evento no máximo uma pessoa do sexo feminino. Então ( ) ( 4 + )( 8 ) 3 P(X) (c) Ter pelo menos uma pessoa de cada sexo significa que não podemos ter todas as pessoas do mesmo sexo. Seja C pelo menos uma pessoa de cada sexo. Então ( ) ( ) P(C) Exemplo. Problema do Aniversário Em um grupo com r pessoas qual é a probabilidade de pelo menos duas fazerem aniversário no mesmo dia? Qual é o menor número de pessoas tal que a probabilidade de pelo menos duas fazerem aniversário no mesmo dia seja maior que,99? Para dar uma ideia intuitiva da solução, vamos considerar inicialmente um grupo de 5 pessoas, isto é, r 5. Nesse caso, o experimento pode ser definido como o sorteio de 5 datas de aniversário, entre as 365 possíveis, se ignorarmos os anos bissextos. Então, o espaço amostral para esse experimento pode ser representado por: Ω {(,,,, ), (,,,, ),..., (,,,, ),..., (, 4, 3,, 5),..., (365, 365, 365, 365, 365)}. O elemento (,,,, ) representa a saída em que todos os aniversários sorteados foram /jan, o elemento (365, 365, 365, 365, 365) representa a saída em que todos os aniversários sorteados foram 3/dez e o elemento ((, 4, 3,, 5) representa a saída em que um aniversário foi o segundo dia do ano (/jan), o segundo aniversário foi o quarto dia do ano (4/jan), e assim por diante. Note que #Ω O evento para o qual queremos encontrar a probabilidade é E {pelo menos duas pessoas no grupo de 5 fazem aniverário no mesmo dia}. Veja que (,, 3, 4, 5) / E, mas (,,,, ) E e (,,, 53, ) E. Supondo que todos os dias do ano sejam equiprováveis, a probabilidade associada a cada elemento de Ω será /365 5, pois nesse caso o espaço amostral será equiprovável. Então, para saber P(E) basta saber quantos elementos há em E. Mais fácil do que contar o número de elementos de E será contar o número de elementos de E c e usar a Propriedade (Pr ) para encontrar P(E). Note que E c {nenhum par de pessoas faz aniverário no mesmo dia}

23 .4. PROBABILIDADE CONDICIONAL 9 ou, dito de outra forma E c {as 5 pessoas fazem aniversário em dias diferentes} Note que #E c e, portanto, P(E c ) Para r qualquer, temos que , 979 P(E), 7. P(E) (365 r + ) 365 r No quadro a seguir e na Figura.3 apresentamos valores dessa probabilidade para r,..., 7. Note que, em um grupo de 3 pessoas, a probabilidade de que pelo menos façam aniversário no mesmo dia já é maior que,5. Com 57 ou mais pessoas, essa probabilidade é maior que,99. r P(E),7,8,64,7,45,56,743,946,7 r P(E),4,67,944,3,59,836,35,3469,379,44 r P(E),4437,4757,573,5383,5687,598,669,6545,68,763 r P(E),735,7534,775,7953,844,83,8487,864,878,89 r P(E),93,94,939,939,94,9483,9548,966,9658,974 r P(E),9744,978,98,9839,9863,9883,99,997,993,994 r P(E),995,9959,9966,997,9977,998,9984,9987,999,999 Figura.3 Problema do aniversário: P(E) em função de r.4 Probabilidade condicional Consideremos o lançamento de um dado equilibrado e o evento A sair face. Já vimos que o espaço amostral desse experimento é Ω {,, 3, 4, 5, 6} e, se não tivermos qualquer informação

24 CAPÍTULO. PROBABILIDADE além de o dado ser equilibrado, P(A) 6. Suponhamos, agora, que o dado tenha sido lançado e a seguinte informação fornecida: saiu uma face par. Qual é a probabilidade de ter saído a face? Note a diferença: agora nós temos uma informação parcial sobre o experimento e devemos usá-la para reavaliar a nossa estimativa. Mais precisamente, sabemos que ocorreu o evento B face par. Com essa informação, podemos nos concentrar no evento B {, 4, 6}, uma vez que as faces, 3, 5 ficam descartadas em função da informação dada. Dentre essas três possibilidades, a probabilidade do evento A passa a ser 3. Calculamos, assim, a probabilidade do evento A, sabendo que ocorreu o evento B. Essa probabilidade será denotada P (A B) (lê-se probabilidade de A dado B). Na Figura.4 ilustra-se essa situação: se sabemos que aconteceu o evento B, esse evento passa a ser o novo espaço amostral e, nesse novo espaço amostral, a única parte de A presente é A B a parte sombreada mais clara. Figura.4 Probabilidade condicional P(A B). Definição.3 Probabilidade condicional Sejam A e B eventos no espaço de probabilidade (Ω, F, P). Se P(B) >, define-se a probabilidade condicional do evento A, dada a ocorrência do evento B, por P(A B) Se P(B), então P(A B) P(A) por definição. P (A B) P (B) Observação: Alguns autores definem a probabilidade condicional P(A B) apenas quando P(B) >. É importante notar que a função P( B) satisfaz os axiomas de Kolmogorov, demonstrado na proposição a seguir. conforme Proposição.3 Probabilidade condicional como uma probabilidade Se B é um evento no espaço de probabilidade (Ω, F, P), então P( B) satisfaz os axiomas de Kolmogorov, isto é (AxC ) P(A B) ; (AxC ) P(Ω B) ;

25 .4. PROBABILIDADE CONDICIONAL (AxC 3 ) Para toda sequência de eventos A, A,... F mutuamente exclusivos, isto é, tais que A i A j i j, ( ) P A i B P(A i B). Demonstração: i i (AxC ) Se P(B) >, P(A B), pois é a razão de um número não negativo e outro positivo. Se P(B), então P(A B) P(A) P(Ω B) (AxC ) Se P(B) >, então P(Ω B) P(B) Se P(B), então P(Ω B) P(Ω) (AxC 3 ) Se P(B) >, P(B) P(B) [( ) ] P A i B i [( ) ] P A i B i P(B) [ ] P (A i B) i P(B) P(A i B) i P(B) P(A i B) i Se P(B), então [( ) ] [( )] P A i B P A i i i P(A i ) i P(A i B) i Observe que a definição de probabilidade condicional está vinculada ao evento condicionante B. Se condicionarmos a outro evento C, estaremos definindo uma outra probabilidade a probabilidade condicional em C. Sendo a probabilidade condicional uma probabilidade, todas as propriedades vistas anteriormente na Proposição., que eram consequências dos axiomas, valem também para a probabilidade condicional, conforme demonstraremos a seguir. Para facilitar a utilização da Proposição., vamos chamar de C o evento condicionante. Proposição.4 Propriedades da Probabilidade Condicional Seja (Ω, F, P) um espaço de probabilidade. Sejam também A, B, C e A i eventos nesse espaço de probabilidade. Então valem as seguintes propriedades: (PrC ) P(A c C) P(A C); (PrC ) P( C) ; (PrC 3 ) P(B A c C) P(B C) P(B A C); (PrC 4 ) Se A B P(A C) P(B C); (PrC 5 ) P(A C) ;

26 CAPÍTULO. PROBABILIDADE (PrC 6 ) P(A B C) P(A C) + P(B C) P(A B C); ( ) (PrC 7 ) P A i C P(A i C). i i Demonstração: Vamos supor que P(C) > ; a demonstração quando P(C) é imediata. (PrC ) P(A c C) P(Ac C) P(C) (PrC ) P( C) P( C) P(C) P(C) P(A C) P(C) P( ) P(C) P(C) P(A C) P(C) P(A C) (PrC 3 ) P(B C) P [(B A) (B A c ) C] }{{} P(B A C) + P(B A c B) (AxC 3 ) P(B A c C) P(B C) P(B A C) (PrC 4 ) B (B A) (B A c ) }{{} A (B A c ). Logo, A B P(B C) P [A (B A c ) C] }{{} P(A C) + P(B A c C) }{{} (AxC 3 ) ;(AxC ) (PrC 5 ) A Ω }{{} P(A C) P(Ω C) }{{} (PrC 4 ) (AxC ) (PrC 6 ) P(B C) P(A C) P(A B C) P [(A B) C] P [(A C) (B C)] P(C) P(C) P(A C) P(B C) P [(A B) C] + P(C) P(C) P(C) P(A C) + P(B C) P(A B C) P(C) P(A C) + P(B C) P(A B C) (PrC 7 ) ( ) P A i C i [( ) ] P A i C i P(C) [ ] P (A i C) i P(C) }{{} (Pr 7 ) P(A i C) i P(C) i P(A i C) P(C) P(A i C) i Exemplo. Lançamento de dois dados revisitado Consideremos, novamente, o lançamento de dois dados equilibrados e os eventos A soma das faces é par e B soma das faces é maior ou igual a 9. Se sabemos que ocorreu B, qual é a probabilidade de ter ocorrido A? Queremos calcular P(A B). Temos que { } (, ), (, 3), (, 5), (, ), (, 4), (, 6), (3, ), (3, 3), (3, 5), A (4, ), (4, 4), (4, 6), (5, ), (5, 3), (5, 5), (6, ), (6, 4), (6, 6)

27 .4. PROBABILIDADE CONDICIONAL 3 B {(3, 6), (4, 5), (4, 6), (5, 4), (5, 5), (5, 6), (6, 3), (6, 4), (6, 5), (6, 6)} Se ocorreu B, a única chance de ter ocorrido A é que tenha ocorrido o evento e, nesse caso, a probabilidade é 4, ou seja, A B {(4, 6), (5, 5), (6, 4), (6, 6)} P(A B) P(A B) P(B) Exemplo.3 Gênero e esporte Um grupo de alunos foi classificado quanto ao sexo e à atividade de lazer preferida, obtendo-se a distribuição dada na tabela a seguir. Sexo Atividade de lazer Total Cinema Praia Esporte Masculino 3 35 Feminino Total 5 53 (a) Qual é a probabilidade de que uma pessoa, escolhida ao acaso nesse grupo, seja do sexo masculino? (b) Se a pessoa escolhida prefere a praia como atividade de lazer, qual é a probabilidade de ser um homem? Vamos definir os seguintes eventos: M pessoa sorteada é do sexo masculino ; F pessoa sorteada é do sexo feminino ; C pessoa sorteada prefere cinema ; R pessoa sorteada prefere praia ; E pessoa sorteada prefere esporte. (a) O problema pede P(M). Como há 35 homens dentre as pessoas, (b) O problema pede P(M R). Por definição, P(M R) P(M) 35, 35 P(M R) P(R) 53, Note que a probabilidade do evento aluno do sexo masculino se modifica quando sabemos que a pessoa prefere ir à praia como atividade de lazer. Exemplo.4 Aposentadoria De um total de 5 empregados de uma empresa, possuem plano pessoal de aposentadoria complementar, 4 contam com o plano de aposentadoria complementar oferecido pela empresa e empregados possuem ambos os planos. Sorteia-se, aleatoriamente, um empregado dessa empresa.

28 4 CAPÍTULO. PROBABILIDADE (a) Qual é a probabilidade de que ele tenha algum plano de aposentadoria complementar? (b) Qual é a probabilidade de que ele não possua qualquer plano de aposentadoria complementar? (c) Se o empregado conta com o plano de aposentadoria complementar oferecido pela empresa, qual é a probabilidade de que ele tenha plano pessoal de aposentadoria complementar? (d) Se o empregado tem plano pessoal de aposentadoria complementar, qual é a probabilidade de que ele conte com o plano de aposentadoria complementar da empresa? Vamos denotar por E o evento empregado tem o plano aposentadoria complementar da empresa e por S o evento empregado possui plano pessoal de aposentadoria complementar. O problema nos dá P(S) 5 P(E) P(S E) Note que essas informações podem ser dispostas em forma de tabela, como exibido a seguir: Plano pessoal Total Sim Não Plano da Sim 4 Empresa Não Total 3 5 Os números em negrito são as informações dadas no problema. O restante é calculado observando-se os totais de linha e de coluna. (a) P(S E) P(S) + P(E) P(S E) (b) P(S c E c ) P((S E) c ) P(S E) (c) P(S E) (d) P(E S) P(S E) P(E) P(S E) P(S) Exemplo.5 Campanha publicitária A probabilidade de que uma nova campanha publicitária fique pronta antes do prazo estipulado pela diretoria foi estimada em,6. A probabilidade de que a diretoria aprove essa campanha é de,5. A probabilidade de que ambos os objetivos sejam atingidos é,3. (a) Qual é a probabilidade de que pelo menos um dos objetivos seja atingido? (b) Qual é a probabilidade de que nenhum objetivo seja atingido? (c) Se a campanha ficar pronta antes do prazo estipulado, qual é a probabilidade de ela ser a provada pela diretoria?

29 .5. REGRA DA MULTIPLICAÇÃO 5 Vamos definir os eventos R campanha pronta antes do prazo e A diretoria aprova campanha. O problema fornece as seguintes informações: P(R), 6 P(A), 5 P(A R), 3 (a) P(A R) P(A) + P(R) P(A R), 6 +, 5, 3, 8 (b) P(A c R c ) P [(A R) c ] P(A R), (c) P(A R) P(A R) P(R), 3, 6, 5..5 Regra da multiplicação A definição de probabilidade condicional leva a um resultado importante, estabelecido na seguinte proposição. Proposição.5 Regra de multiplicação ( n ) Se A, A,..., A n são eventos no espaço de probabilidade (Ω, F, P) tais que P A i >, então a regra da multiplicação é dada por Demonstração: P(A A A n ) P(A ) P(A A ) P(A 3 A A ) P(A n A A A n ) i Note que todos os eventos condicionantes no lado direito da equação dada na Proposição.5 n têm probabilidade positiva, pois A i, que tem probabilidade positiva por hipótese, está contido em cada um deles. i Vamos demonstrar a proposição usando o método da indução. O resultado vale para n. De fato: como P(A ) >, resulta que P(A A ) P(A A ) P(A ) P(A A ) P(A ) P(A A ) Suponhamos verdadeiro para n k. Assim, nossa hipótese de indução é P(A A A k ) P(A ) P(A A ) P(A 3 A A ) P(A k A A A k ) Vamos provar que vale para n k + P(A A A k A k+ ) P [(A A A k ) A k+ ] }{{} k P(A A A k ) P(A k+ A A A k ) }{{} hip.ind. P(A ) P(A A ) P(A 3 A A ) P(A k A A A k ) P(A k+ A A A k )

30 6 CAPÍTULO. PROBABILIDADE Esse resultado nos permite calcular a probabilidade da interseção de vários eventos e é muito útil para modelar experimentos que têm caráter sequencial, isto é, que são executados em etapas, uma seguida da outra. Em tais situações, pode ser útil desenhar um diagrama de árvore para ilustrar os eventos em questão. Vamos ver alguns exemplos. Exemplo.6 Radar Se um avião está presente em determinada área, um radar detecta sua presença com probabilidade,99. No entanto, se o avião não está presente, o radar detecta erradamente a presença de um avião com probabilidade,. A probabilidade de um avião estar presente nessa área é de,5. Qual é a probabilidade de um falso alarme? Qual é a probabilidade de o radar deixar de detectar a presença de um avião? (Note que esses são os dois erros possíveis nessa situação.) Vamos definir os seguintes eventos: A avião presente e D radar detecta presença de avião. Os eventos complementares são A c avião não está presente e D c radar não detecta avião. O enunciado nos fornece as seguintes informações: P (D A), 99 P (D A c ), P(A), 5 Pelo axioma do evento complementar, temos que P (D c A), P (D c A c ), 98 P(A c ), 95 O problema pede P(D A c ) (falso alarme) e P(D c A) Na Figura.5, este experimento é ilustrado através de um diagrama de árvore. Cada nó na árvore corresponde à ocorrência de um evento condicionada à ocorrência de todos os eventos representados pelos nós anteriores no caminho correspondente. Assim, o ramo superior da árvore corresponde à ocorrência do evento radar detecta avião, condicionada à ocorrência do evento avião presente. Já o ramo inferior corresponde à ocorrência do evento radar não detecta avião, condicionada à ocorrência do evento avião não está presente. Pela regra da multiplicação, temos: P(D A c ) P(A c ) P(D A c ), 95,, 9 P(D c A) P(A) P(D c A), 5,, 5 A probabilidade de um erro é a soma dessas probabilidades. Figura.5 Exemplo do radar

31 .5. REGRA DA MULTIPLICAÇÃO 7 Exemplo.7 Extração de duas cartas de um baralho Considere que duas cartas de um baralho (3 cartas de cada um dos naipes copas, paus, ouros, espadas) sejam extraídas, sem reposição, uma depois da outra. Qual é a probabilidade de (a) nenhuma das duas ser de copas? (b) pelo menos uma carta ser de copas? Para solucionar esse problema, devemos notar que as cartas no baralho são igualmente prováveis, antes e depois da primeira extração. Vamos definir os seguintes eventos: C copas na primeira extração C copas na segunda extração Na Figura.6, temos o diagrama de árvore que representa esse experimento. Figura.6 Extração de cartas de um baralho A parte superior da árvore corresponde à ocorrência de copas na primeira extração evento C e a parte inferior à não-ocorrência de copas na primeira extração evento C c. Na primeira extração, temos 3 cartas de copas e 39 que não são de copas. Logo, P(C ) 3 5 P(C c ) 39 5 Na segunda extração, dado que na primeira saiu copas, temos cartas de copas e 39 cartas que não são de copas em um baralho com 5. O evento representado pelo caminho superior da árvore é C C e sua probabilidade é P(C C ) P(C ) P(C C ) Continuando com a parte superior, vemos que P(C C c ) P(C ) P(C c C ) Note que, pela Propriedade ((PrC )), P(C C ) + P(C c C ).

32 8 CAPÍTULO. PROBABILIDADE Na parte inferior, temos: P(C c C ) P(C c ) P(C C c ) P(C c C c ) P(C c ) P(C c C c ) Novamente, pela propriedade do complementar, P(C C c ) + P(C c C c ). A partir desse diagrama de árvore podemos calcular qualquer probabilidade desejada. Por exemplo, o evento nenhuma carta de copas é o evento C c C c, e o evento pelo menos uma carta de copas, o complementar do evento nenhuma carta de copas. Exemplo.8 Extração de três cartas de um baralho Suponhamos, agora, a extração de três cartas sem reposição. Vamos calcular a probabilidade do evento N nenhuma carta de copas. Como antes, vamos definir os eventos C i carta de copas na i ésima extração, i,, 3. Veja a Figura.7, que ilustra o espaço amostral desse experimento. Figura.7 Extração de 3 cartas de um baralho Como antes, quando caminhamos ao longo de cada galho no diagrama de árvores, cada nó representa a ocorrência de um evento condicional à ocorrência dos eventos anteriores. Por exemplo, vamos considerar o galho superior: o primeiro nó corresponde ao evento C ; o segundo, ao evento C, condicionado à ocorrência de C ; e o terceiro e último, ao evento C 3, condicionado à ocorrência de C C. Quando multiplicamos as probabilidades desses 3 eventos, obtemos a seguinte probabilidade da interseção: P(C C C 3 ) P(C ) P(C C ) P(C 3 C C )

33 Analogamente, a probabilidade de não sair qualquer carta de copas nas 3 extrações é P(N) P(C c C c C 3 c ) P(C c ) P(C c C c ) P(C 3 c C c C c ) Exemplo.9 Transporte público e bandejão Em uma pesquisa realizada com um grupo de alunos da UFF, constatou-se que % dos estudantes não utilizam transporte público para ir às aulas e que 65% dos estudantes que utilizam o transporte público fazem refeições no bandejão do campus. Selecionando-se, aleatoriamente, um estudante desse grupo, calcule a probabilidade de que ele use transporte público e faça refeições no bandejão. Vamos definir os seguintes eventos: T aluno utiliza transporte público e B aluno faz refeição no bandejão. O problema nos fornece O problema pede P(T c ), P(B T ), 65 P(T B) P(T ) P(B T ) [ P(T c )] P(B T ), 9, 65, 585 Exemplo.3 Extração de três bolas de uma urna Uma urna contém seis bolas verdes e cinco bolas amarelas. Extraem-se, sequencialmente, três bolas dessa urna, sem reposição. Qual é a probabilidade de que as três bolas sejam da mesma cor? Vamos definir os eventos V i bola verde na extração i e A i bola amarela na extração i, i,, 3. Seja M 3 bolas de mesma cor. Então, M {(V V V 3 ) (A A A 3 )} e P(M) P(V V V 3 ) + P(A A A 3 ) P(V ) P(V V ) P(V 3 V V ) + P(A ) P(A A ) P(A 3 A A ) Teorema da Probabilidade Total e Teorema de Bayes Apresentaremos, agora, dois importantes teoremas da teoria das probabilidades e suas aplicações em diversas situações envolvendo tomadas de decisão. Esses teoremas, conhecidos como Teorema da Probabilidade Total e Teorema de Bayes, resultam diretamente da definição de probabilidade condicional e das propriedades já vistas da probabilidade. Sua apresentação será feita, inicialmente, através de exemplos, para que o contexto de sua aplicação seja bem compreendido. Em seguida, será apresentada a formulação geral desses teoremas.

34 3 CAPÍTULO. PROBABILIDADE Exemplo.3 Produção de duas máquinas Em uma linha de produção de certa fábrica, determinada peça é produzida em duas máquinas. A máquina, mais antiga, é responsável por 35% da produção, e os 65% restantes vêm da máquina. A partir dos dados passados e das informações do fabricante das máquinas, estima-se em 5% a proporção de peças defeituosas produzidas pela máquina e em,5% a proporção de peças defeituosas produzidas pela máquina. As peças produzidas pelas duas máquinas seguem para o departamento de armazenamento e embalagem para venda posterior, sem distinção de qual máquina a produziu. (a) Qual é a proporção de peças defeituosas colocadas no mercado por essa fábrica? (b) Se um cliente identificar uma peça defeituosa, qual será a probabilidade de ela ter sido produzida pela máquina? (a) Na Figura.8, representa-se a situação em análise. Nosso experimento aleatório é o sorteio de uma peça produzida por essa fábrica, e nosso espaço amostral, representado pelo retângulo, é o conjunto de todas as peças produzidas em determinado período. Podemos ver que o espaço amostral está dividido em eventos mutuamente exclusivos: M, peças produzidas pela máquina, e M, peças produzidas pela máquina, isto é, Ω M M e M M. Outro evento de interesse é D peça é defeituosa. Podemos ver que esse evento tem interseção com os eventos M e M, ou seja, há peças defeituosas produzidas na máquina e na máquina. Figura.8 Espaço amostral para o Exemplo.3 Pelos dados do problema, temos uma estimativa a priori antes de qualquer observação das peças das proporções de peças produzidas em cada máquina, ou seja, as probabilidades a priori dos eventos M e M são: P(M ), 35 P(M ), 65 Sabemos, também, a proporção de peças defeituosas produzidas por cada máquina. Essa proporção se traduz em uma probabilidade condicional: se a peça foi produzida pela máquina, existe 5% de chance de ser defeituosa. Para a máquina, essa chance reduz-se a,5%. Em termos de probabilidade, temos P(D M ), 5 P(D M ), 5

35 .6. TEOREMA DA PROBABILIDADE TOTAL E TEOREMA DE BAYES 3 Sabemos que M M Ω; então, podemos escrever D (D M ) (D M ) Como M e M são mutuamente exclusivos, (D M ) (parte sombreada mais escura) e (D M ) (parte sombreada mais clara) também o são. Assim, pelo Axioma (Ax 3 ), resulta que P(D) P [(D M ) (D M )] Usando, agora, a regra da multiplicação, obtemos P(D M ) + P(D M ) P(D) P(M ) P(D M ) + P(M ) P(D M ), 35, 5 +, 65, 5, 3375 Observe que a probabilidade de uma peça ser defeituosa é uma média ponderada das probabilidades de defeito em cada máquina. Os pesos são definidos de acordo com o nível de produção (probabilidade) de cada máquina. (b) Na segunda parte do exemplo, temos uma informação sobre a peça: ela é defeituosa, isto é, sabemos que ocorreu o evento D. O que o problema pede é que, com essa informação, reavaliemos a probabilidade de a peça ter sido produzida pela máquina. Essa probabilidade é chamada de probabilidade a posteriori, ou seja, é a probabilidade que calculamos com base em informação parcial obtida depois de realizado o experimento de sorteio e teste da peça. Em notação matemática, temos que calcular P(M D). Por definição, temos P(M D) P(M D) P(D) Usando a regra da multiplicação e o resultado encontrado no item anterior, resulta P(M D) P(M ) P(D M ) P(M ) P(D M ) + P(M ) P(D M ), 35, 5, 35, 5 +, 65, 5, 75, 585, 3375 Compare os resultados: Sem qualquer informação sobre o resultado do experimento, nossa estimativa para a probabilidade de ocorrência de M peça produzida pela máquina era,35. Com a informação de que a peça é defeituosa, a probabilidade de ter sido produzida pela máquina aumenta para,585. Exemplo.3 Produção de três máquinas Considere novamente a situação do Exemplo.3, mas com a seguinte modificação: as peças são produzidas em três máquinas, que são responsáveis por 3%, 35% e 35% da produção, respectivamente. As proporções de peças defeituosas produzidas por tais máquinas são 5%,,5% e %. (a) Qual é a proporção de peças defeituosas produzidas na fábrica?

36 3 CAPÍTULO. PROBABILIDADE (b) Se um cliente identificar uma peça defeituosa, qual será a probabilidade de ela ter sido produzida na máquina? E na máquina? E na máquina 3? (a) O espaço amostral desse experimento está ilustrado no diagrama de árvore da Figura.9. Como já visto, cada galho da árvore corresponde ao condicionamento do evento aos eventos dos galhos anteriores. Os dados do problema dão que P(M ), 3 P(D M ), 5 P(M ) P(M 3 ), 35 P(D M ), 5 P(D M 3 ), Figura.9 Espaço amostral Exemplo.3 M M M 3 Ω; logo, D (D M ) (D M ) (D M 3 ) M, M e M 3 são mutuamente exclusivos; logo, (D M ), (D M ) e (D M 3 ) também o são. Pelo Axioma (Ax 3 ) da probabilidade, resulta Usando a regra da multiplicação, obtemos P(D) P [(D M ) (D M ) (D M 3 )] P(D M ) + P(D M ) + P(D M 3 ) P(D) P(M ) P(D M ) + P(M ) P(D M ) + P(M 3 ) P(D M 3 ), 3, 5 +, 35, 5 +, 35,, 375 Como antes, a probabilidade de uma peça ser defeituosa é uma média ponderada das probabilidades de defeito em cada máquina, com os pesos definidos de acordo com o nível de produção de cada máquina. (b) Na segunda parte do exemplo, deseja-se saber P(M D), P(M D) e P(M 3 D). Por definição, temos P(M D) P(M D) P(D) Usando a regra da multiplicação e o resultado encontrado no item anterior, temos P(M D) P(M ) P(D M ) P(M ) P(D M ) + P(M ) P(D M ) + P(M 3 ) P(D M 3 ), 3, 5, 3, 5 +, 35, 5 +, 35,, 5, 48785, 375

37 .6. TEOREMA DA PROBABILIDADE TOTAL E TEOREMA DE BAYES 33 P(M D) P(M ) P(D M ) P(M ) P(D M ) + P(M ) P(D M ) + P(M 3 ) P(D M 3 ), 35, 5, 3, 5 +, 35, 5 +, 35,, 875, 84553, 375 P(M 3 D) P(M 3 ) P(D M 3 ) P(M ) P(D M ) + P(M ) P(D M ) + P(M 3 ) P(D M 3 ), 35,, 3, 5 +, 35, 5 +, 35,, 7, 764, 375 Note que, , , 764,. Esse resultado é imediato a partir do fato de que P(Ω). Se a peça sorteada é defeituosa, ela só pode ter vindo de umas das três máquinas. Exemplo.33 Teste clínico Sabe-se que um teste clínico para detecção de determinada doença, quando aplicado em um paciente, é 9% eficaz quando a pessoa tem a doença e 95% eficaz quando a pessoa não tem a doença. Um paciente é retirado aleatoriamente de uma população em que a taxa de incidência da doença é de em. pessoas. (a) Qual é a probabilidade de o teste dar o resultado correto? (b) Se o teste indica que o paciente tem a doença, qual é a probabilidade de que o paciente realmente tenha a doença? (a) Vamos definir os seguintes eventos (veja a Figura.): D paciente tem a doença e T teste indica presença da doença. Note que você deve definir os eventos de acordo com a execução do experimento. Ao se aplicar um teste clínico, a resposta será doença presente ou doença ausente e não teste certo ou teste errado. Errar ou acertar dependerá de o paciente ter ou não a doença. Os dados do problema dão que P(T D), 9 P(T c D c ), 95 P(D), Pela lei do complementar resulta P(T c D), P(T D c ), 5 P(D c ), 9999 Figura. Espaço amostral Exemplo.33

38 34 CAPÍTULO. PROBABILIDADE O espaço amostral pode ser decomposto como Ω D D c, eventos para os quais temos as probabilidades a priori. Seja o evento C teste fornece resultado correto. Note que o teste pode fornecer um diagnóstico correto, o paciente tendo ou não a doença, ou seja: Logo, C (D T ) (D c T c ) P(C) P(D T ) + P(D c T c ) P(D) P(T D) + P(D c ) P(T c D c ) (b) Queremos calcular P(D T ). Por definição, temos:,, 9 +, 9999, 95, P(D T ) P(D T ) P(T ) O teste pode dar positivo, tendo o paciente a doença (acerto do diagnóstico), ou não (falso positivo); logo, P(T ) P(T D) + P(T D c ) P(D) P(T D) + P(D c ) P(T D c ),, 9 +, 9999, 5, 585 P(D T ) P(D) P(T D),, 9, 9 Logo, P(D T ), 9, 797, 585 Note a alteração da probabilidade de, P(D) para,797 com a informação de um resultado positivo do teste. Exemplo.34 Três moedas Uma caixa contém três moedas. A moeda é honesta, a moeda tem duas caras e a moeda 3 é viciada de tal modo que cara é duas vezes mais provável que coroa. Uma moeda é escolhida ao acaso e lançada. (a) Qual é a probabilidade de observarmos cara e moeda? (b) Qual é a probabilidade de observarmos cara? (c) Se o resultado foi cara, qual é a probabilidade de que a moeda lançada tenha sido a moeda? Vamos definir os seguintes eventos: (ver Figura.) M i moeda i é sorteada i,, 3 K face superior da moeda lançada é cara C face superior da moeda lançada é coroa

39 .6. TEOREMA DA PROBABILIDADE TOTAL E TEOREMA DE BAYES 35 P(K M ) P(K M ) P(K M 3 ) P(C M 3 ) P(K M 3 ) 3 Escolha aleatória da moeda: P(M ) P(M ) P(M 3 ) 3 Figura. Espaço amostral Exemplo.34 (a) Aqui a solução é consequência direta da regra de multiplicação: P(K M ) P(M ) P(K M ) 3 6 (b) M M M 3 Ω. Logo, (c) O problema pede P(K ) P(K M ) + P(K M ) + P(K M 3 ) P(M ) P(K M ) + P(M ) P(K M ) + P(M 3 ) P(K M 3 ) ( ) P(M K ) P(K M ) P(K ) P(M ) P(K M ) P(K ) Exemplo.35 Decisão gerencial Um gerente de banco tem que decidir se concede ou não empréstimo aos clientes que o solicitam. Ele analisa diversos dados para estudar a possibilidade de o cliente vir a ficar inadimplente. Com base em dados passados, ele estima em 5% a taxa de inadimplência. Dentre os inadimplentes, ele tem 8% de chance de tomar a decisão certa, enquanto essa chance aumenta para 9% entre os clientes adimplentes. Esse gerente acaba de recusar um empréstimo. Qual é a probabilidade de ele ter tomado a decisão correta? Os fatos envolvidos nesse processo decisório são: cliente é inadimplente ou não e gerente concede ou não o empréstimo. Vamos definir os seguintes eventos (ver Figura.): I cliente é inadimplente C gerente concede empréstimo I c cliente é adimplente C c gerente não concede empréstimo Note que temos duas possibilidades de acerto e duas possibilidades de erro. Os acertos são cliente é inadimplente e gerente não concede o empréstimo e cliente é adimplente e gerente

40 36 CAPÍTULO. PROBABILIDADE concede o empréstimo. Os erros são: cliente é inadimplente e gerente concede o empréstimo e cliente é adimplente e gerente não concede o empréstimo. O espaço amostral é formado pelos clientes do banco, de modo que Ω I I c. As probabilidades dadas são P(I), 5 P(C c I), 8 P(C I c ), 9 Pelas propriedades do complementar P(I), 5 P(C c I), 8 P(C I c ), 9 Figura. Espaço amostral Exemplo.35 Com relação ao que o problema pede, temos que, dado que o gerente recusou o empréstimo, a decisão só será correta se o cliente for inadimplente. Logo, temos que calcular P(I C c ) P(I C c ) P(C c ) Mas o gerente pode recusar o empréstimo sendo o cliente inadimplente ou não, ou seja, P(C c ) P(C c I) + P(C c I c ) P(I) P(C c I) + P(I c ) P(C c I c ), 5, 8 +, 85,, 5 e P(I C c ) P(I C c ) P(C c ) P(I) P(C c I), 5, 8 P(I) P(C c I) + P(I c ) P(C c I c, 5854 ), 5 Em todos os exemplos acima, tínhamos uma coleção de eventos mutuamente exclusivos cuja união era o espaço amostral (máquinas, pacientes doentes e saudáveis, moedas, clientes de banco adimplentes e inadimplentes) e suas respectivas probabilidades, chamadas de probabilidades a priori. Isso nos leva à seguinte definição. Definição.4 Partição do espaço amostral Sejam A, A,..., A n eventos em um espaço de probabilidade (Ω, F, P). Dizemos que A, A,..., A n formam uma partição de Ω se A i A j i j n A i Ω i

41 .6. TEOREMA DA PROBABILIDADE TOTAL E TEOREMA DE BAYES 37 Em cada exemplo havia também um outro evento de interesse (peças defeituosas, resultado do teste clínico, face cara, concessão de empréstimo), cujas probabilidades condicionadas à ocorrência de cada evento da coleção eram conhecidas. Para cada exemplo foram calculadas basicamente duas probabilidades: (i) a probabilidade de ocorrência do evento de interesse (probabilidade de peça defeituosa, probabilidade de teste positivo, probabilidade de cara, probabilidade de concessão de empréstimo), uma probabilidade não condicional e (ii) a probabilidade de cada evento da coleção dada a ocorrência do evento de interesse, chamada probabilidade a posteriori. A fórmula de cálculo dessas duas probabilidades resulta de dois teoremas que serão apresentados a seguir. Teorema. Teorema da Probabilidade Total Seja A, A,..., A n uma partição de um espaço Ω tal que P(A i ) > i. Então, para qualquer evento B nesse espaço de probabilidade n P(B) P(A i ) P(B A i ) (.3) i Demonstração: Consulte a Figura.3, onde se ilustra o espaço amostral. Como a união de todos os A i s é o espaço amostral, segue que B n (A i B) (A B) (A B) (A n B). i O fato de alguns desses termos serem o conjunto vazio (por exemplo, B A ) não invalida o resultado, uma vez que A A. Por definição de partição, os A i s são mutuamente exclusivos dois a dois; logo, os eventos A i B também o são. Então, pelo Axioma ((Ax 3 )) resulta que ( n ) P(B) P (A i B) P [(A B) (A B) (A n B)] i n P(A i B) P (A B) + P (A B) + + P (A n B) i e a regra da multiplicação fornece P(B) P(A ) P(B A ) + P(A ) P(B A ) + + P(A n ) P(B A n ) n P(A i ) P(B A i ) i Figura.3 Partição do espaço amostral Como visto, a probabilidade P(A i ) é denominada probabilidade a priori do evento A i. Continuando no contexto da Figura.3, suponhamos, agora, que B tenha ocorrido. A probabilidade a posteriori do evento A i P(A i B) é dada pelo teorema a seguir.

42 38 CAPÍTULO. PROBABILIDADE Teorema. Teorema de Bayes Seja A, A,..., A n uma partição de um espaço Ω tal que P(A i ) > i. Então, para qualquer evento B nesse espaço de probabilidade com P(B) >, Demonstração: Por definição, temos P(A j B) P(A j) P(B A j ) n P(A i ) P(B A i ) i P ( A j B ) P ( A j B ) P(B) Usando a regra da multiplicação e o Teorema da Probabilidade Total, resulta que P(A j B) P(A j) P(B A j ) n P(A i ) P(B A i ) i É importante que, na resolução de exercícios e também na aplicação prática desses teoremas, você identifique os eventos de interesse, os que definem a partição do espaço amostral e quais são as probabilidades a priori. Em geral, são essas probabilidades que identificam a partição de Ω. Vamos considerar mais um exemplo para ilustrar esses pontos. Exemplo.36 Alunos e carros Em uma turma de Administração, 65% dos alunos são do sexo masculino. Sabe-se que 3% dos alunos têm carro, enquanto essa proporção entre as alunas se reduz para 8%. Sorteia-se ao acaso um estudante dessa turma usando o seu número de matrícula e constata-se que ele possui um carro. Qual é a probabilidade de que o estudante sorteado seja do sexo feminino? Os eventos em questão envolvem o sexo do aluno e a posse de um carro. Vamos defini-los da seguinte forma: H homem C possui carro M mulher C c não possui carro Note que H e M definem uma partição do espaço amostral, assim como C e C c. No entanto, as probabilidades a priori dadas referem-se a H e M (o fato de ter, ou não, carro, não altera o sexo do aluno). Assim, a partição de Ω será definida em termos desses eventos. Os dados do problema fornecem que P(H), 65 P(M), 35 P(C H), 3 P(C c H), 7 P(C M), 8 P(C c M), 8 O problema pede P(M C), e para calcular essa probabilidade, temos de calcular P(C). Pelo teorema da probabilidade total, sabemos que P(C) P(C M) + P(C H) P(M) P(C M) + P(H) P(C H), 35, 8 +, 65, 3, 58

43 .7. INDEPENDÊNCIA DE EVENTOS 39 Logo, P(M C) P(C M) P(M) P(C M) P(C) P(C), 35, 8, 6, 58.7 Independência de eventos Considere novamente um baralho usual, com 5 cartas, 3 de cada naipe, do qual será retirada uma carta. Vamos definir os seguintes eventos: Já vimos que P(C) ; P(R) C carta é de copas R carta é um rei V carta é vermelha e P(V ) 6 5. Vamos, agora, calcular as seguintes probabilidades condicionais: P(R C) e P(V C). No primeiro caso, estamos calculando a probabilidade de sair um rei, dado que a carta é de copas. No segundo caso, estamos calculando a probabilidade de sair uma carta vermelha, dado que saiu uma carta de copas. P(R C) P(V C) P(R C) P(C) P(V C) P(C) P(R) P(C) P(C) P(V ) No primeiro caso, saber que a carta é de copas não acrescentou informação útil para avaliarmos a probabilidade de sair rei, ou seja, saber ou não que saiu copas não altera a probabilidade de sair rei. Já no segundo caso, saber que saiu carta de copas faz com que mudemos a probabilidade de sair carta vermelha. Como podemos ver, se sabemos que saiu carta de copas, então a carta tem que ser vermelha. Esses exemplos ilustram um conceito importante. No primeiro caso, dizemos que os eventos R e C são independentes e, no segundo caso, que os eventos V e C são dependentes. No primeiro caso, o conhecimento da ocorrência de C não traz qualquer informação para reavaliarmos a probabilidade de R. Já no segundo caso, o conhecimento da ocorrência de C faz com que mudemos nossa estimativa da probabilidade de V. Definição.5 Independência de Dois Eventos Sejam A e B eventos de um espaço de probabilidade (Ω, F, P), com P(A) > e P(B) >. Então, A e B são independentes se P(A B) P(A) P(B A) P(B)

44 4 CAPÍTULO. PROBABILIDADE Essa definição tem algumas implicações importantes. Consideremos, inicialmente, que A e B sejam independentes, com P(B) >. Então, pela definição, temos P(A B) P(A) P(A B) P(B) P(A) P(A B) P(A) P(B) Reciprocamente, se P(A B) P(A) P(B), então P(A B) P(A B) P(B) P(A) P(B) P(B) P(A) ou seja, A e B são independentes. Provamos, então, que A e B são independentes se, e somente se, P(A B) P(A) P(B). Esse resultado nos permite estabelecer uma outra definição equivalente para a independência de dois eventos. Definição.6 Independência de Dois Eventos Sejam A e B eventos espaço de probabilidade (Ω, F, P). Então, A e B são independentes se P(A B) P(A) P(B) A Definição.6, embora menos intuitiva, tem várias vantagens, a saber: ela é simétrica, o que não ocorre com a Definição.5; vale mesmo que P(B), pois, como A B B, resulta que P(A B) P(A) P(B); e, o que é mais importante, permite generalização da definição para mais de dois eventos, conforme veremos mais adiante. É comum haver alguma confusão entre os conceitos de eventos independentes e eventos mutuamente exclusivos. Para analisar a relação entre essas definições, vamos considerar dois eventos A e B, com P(A) > e P(B) >, que é a situação mais usual. Se A e B são mutuamente exclusivos, então A B P(A B) P(A) P(B) > ou seja, A e B não são independentes. Reciprocamente, se A e B são independentes, então P(A B) P(A) P(B) > A B ou seja, A e B não são mutuamente exclusivos. Então, para eventos com probabilidade positiva, existe uma nítida separação entre os dois tipos de eventos: se eles são mutuamente exclusivos, eles não podem ser independentes. Reciprocamente, se eles são independentes, eles não podem ser mutuamente exclusivos.

45 .7. INDEPENDÊNCIA DE EVENTOS 4 Se um de dois eventos A e B tem probabilidade nula, então eles sempre são independentes, conforme visto acima. No entanto, eles podem, ou não, ser mutuamente exclusivos. O fato de P(A B) não significa que A B, conforme veremos através de exemplos posteriormente. O importante é entender que eventos mutuamente exclusivos não podem ocorrer simultaneamente e para eventos independentes, cada um não interfere na ocorrência do outro. Proposição.6 Independência e Complementariedade Sejam A e B eventos independentes do espaço de probabilidade (Ω, F, P). Então (a) A c e B são independentes; (b) A c e B c são independentes; Demonstração: (a) P(A c B) P(B) P(A B) P(B) P(A) P(B) P(B)[ P(A)] P(B) P(A c ) Por simetria, resulta que A e B c também são independentes. (b) P(A c B c ) P [(A B) c ] P(A B) P(A) P(B) + P(A B) P(A) P(B) + P(A) P(B) [ P(A)] P(B)[ P(A)] P(A c ) P(B) P(A c ) P(A c )[ P(B)] P(A c ) P(B c ) Exemplo.37 Aposentadoria, continuação No Exemplo.4, analisamos os dados reapresentados na tabela a seguir, referentes à participação de funcionários de uma empresa em planos de aposentadoria complementar: Plano pessoal Total Sim Não Plano da Sim 4 Empresa Não Total 3 5 Verifique se os eventos E empregado tem o plano de aposentadoria complementar da empresa e S empregado possui plano pessoal de aposentadoria complementar são independentes. Temos P(S) 5 P(S E) 5 P(E) 4 5 P(S) P(E)

46 4 CAPÍTULO. PROBABILIDADE Logo, os eventos S e E não são independentes. Outra forma de ver isso é P(E S) P(E) 4 5 Como dito anteriormente, a Definição.6 permite estender o conceito de independência para mais de dois eventos. Definição.7 Independência de n Eventos Os eventos A, A,, A n de um espaço de probabilidade (Ω, F, P) são independentes se para toda e qualquer coleção de índices i < i < < i k n e k n P(A i A i A ik ) P(A i ) P(A i ) P(A ik ) (.4) Note que essa definição requer que se examine a probabilidade da interseção de todas as duplas, triplas, quádruplas,..., n uplas de eventos, totalizando ( ) ( ) ( ) n n n n ( + n) 3 n interseções a serem consideradas. Note que n + se refere ao conjunto vazio e a todas as coleções com apenas um evento. A título de ilustração, para n 4, temos 4 4 interseções, que são as seguintes: A A A A 3 A A 4 A A 3 A A 4 A 3 A 4 A A A 3 A A A 4 A A 3 A 4 A A 3 A 4 A A A 3 A 4 Exemplo.38 Lançamento de dois dados Considere o lançamento de dois dados e os seguintes eventos: A : face par no primeiro dado; A : face par no segundo dado; A 3 : soma par das duas faces. Estude a independência dos três eventos. A seguir apresentamos um esquema dos três eventos, onde as células em cinza representam os elementos de cada evento. Podemos ver que P(A ) P(A ) P(A 3 ) P(A A ) P(A ) P(A ) P(A A 3 ) P(A ) P(A 3 ) P(A A 3 ) P(A ) P(A 3 ) P(A A A 3 ) P(A ) P(A ) P(A 3 ) 8 Vemos, assim, que saber que uma face é par nada nos diz sobre a probabilidade de sair face par no outro dado ou sobre a soma das duas faces, ou seja, os eventos são independentes dois a dois.

47 .8. CONJUNTOS LIMITE E CONTINUIDADE DA PROBABILIDADE 43 No entanto, saber que os dois dados exibem face par nos garante que a soma também é par, ou seja, os três eventos não são independentes. Este exemplo ilustra o fato de que independência aos pares não garante independência. D a d 3 o Dado D a d 3 o Dado D a d 3 o Dado Evento A Evento A Evento A 3.8 Conjuntos limite e continuidade da probabilidade Vimos que as definições de σ álgebra e de probabilidade envolvem, ambas, sequências infinitas de eventos. Então, da mesma forma que no estudo de sequências numéricas, iremos analisar, nesta seção, a convergência de tais sequências e também de suas probabilidades. Começamos apresentando as definições de limite superior e limite inferior de uma sequência de eventos, que são análogas às definições de limites superior e inferior de sequências numéricas. Vale lembrar que, se {a n } n N é uma sequência de números reais, os limites superior e inferior de tal sequência são definidos por lim sup a n inf n lim inf a n sup n sup a n N N n N inf a n N N n N Note que as sequências c n {sup a n } n N e d n {inf a n } n N são, respectivamente, não-crescente e não-decrescente, pois envolvem famílias cada vez menores de números reais. Definição.8 Conjuntos limite Seja A, A, uma sequência de eventos em um espaço de probabilidade (Ω, F, P). Definimos o limite superior da sequência {A n } como lim sup A n n n kn Definimos o limite inferiorda sequência {A n } como lim inf n A n n kn A k A k Note os seguintes fatos sobre tais definições.

48 44 CAPÍTULO. PROBABILIDADE Como cada A n pertence à σ ágebra F, sabemos que cada B n também pertencem a F; consequentemente, lim sup A n e lim inf A n são eventos em F. n n B n e Consideremos, inicialmente, o limite superior de {A n }. Temos que n A k e cada C n kn kn A k C n também pertencem a F, ou seja, lim sup A n (A A A 3 ) (A A 3 A 4 ) (A 3 A 4 A 5 ) n Seja ω lim sup A n. Então n ω (A A A 3 ) k tal que ω A k ω (A A 3 A 4 ) k tal que ω A k ω (A 3 A 4 A 5 ) k 3 tal que ω A k e assim sucessivamente. Então, n, existe k n tal que ω A k. Concluímos, então, que n ω lim sup A n ω pertence a um número infinito dos A n n Dito de outra forma, lim sup A n é o evento A n ocorre para uma infinidade de n s. n Consideremos, agora, o limite inferior de {A n }. Então, lim inf n A n (A A A 3 ) (A A 3 A 4 ) (A 3 A 4 A 5 ) ω lim inf n A n n tal que ω (A n A n+ A n+ ) n tal que ω A k ou seja, ω lim inf n A n ω A n para todo n suficientemente grande k n Dito de outra forma, lim inf n A n é o evento A n ocorre para todo n suficientemente grande. Das duas últimas observações acima, podemos concluir que lim inf A n lim sup A n (.5) n pois, se ω A n para todo n suficientemente grande, ω pertence a um número infinito de A n s. n Precisamos definir o que é convergência de uma sequência de eventos em uma σ-álgebra. Lembrando, da teoria de conjuntos, que se A B e B A, então A B, chegamos à seguinte definição. Definição.9 Limite de uma sequência de eventos Seja A, A,... uma sequência de eventos em um espaço de probabilidade (Ω, F, P). Se lim sup A n lim inf A n, o que é equivalente a lim inf n A n lim sup n n n A n, dizemos que lim A n n existe e lim A n lim inf A n lim sup A n n n n

49 .8. CONJUNTOS LIMITE E CONTINUIDADE DA PROBABILIDADE 45 Exemplo.39 Exemplo.4 Vamos estudar, agora, uma classe especial de sequências, as sequências monótonas. Definição. Sequências monótonas de eventos Seja A, A,... uma sequência de eventos em um espaço de probabilidade (Ω, F, P). Dizemos que {A n } é uma sequência monótona não-decrescente se A n A n+ para todo n. Notação: A n. Dizemos que{a n } é uma sequência monótona não-crescente se A n A n+ para todo n. Notação: A n. Analisemos, agora, a convergência de tais sequências. Proposição.7 Limites de sequências monótonas (i) Se {A n } é uma sequência monótona não-decrescente, então lim n A n existe e Notação: A n A lim A n A n (ii) Se {A n } é uma sequência monótona não-crescente, então lim n A n existe e Notação: A n A lim A n A n n n A n A n Demonstração: (i) Por hipótese, temos que A A. Logo (veja Figura.4a), kn A k A n lim inf n A n n kn A k n A n

50 46 CAPÍTULO. PROBABILIDADE Mas lembre-se que (A B) A; logo, Resulta que lim sup A n n lim sup A n lim inf n n kn n A n lim sup A k n k A k lim inf n A n A n lim inf n A n lim n A n (ii) Por hipótese, temos que A A. Logo (veja Figura.4b), kn Mas, lembre-se que (A B) A; logo, Resulta que A k A n lim sup A n n lim inf n A n lim sup A n lim inf n n kn A k n A n lim sup n n kn k A k n A k lim sup A n n A n A n lim inf n A n lim n A n n n A n A n (a) A A (b) A A Figura.4 Sequências monótonas de eventos Sendo A, A, uma sequência convergente de eventos, é natural que se pergunte: o que acontece com a sequência das probabilidades? Esse é o assunto abordado na próxima proposição.

51 .8. CONJUNTOS LIMITE E CONTINUIDADE DA PROBABILIDADE 47 Proposição.8 Continuidade por baixo e por cima da probabilidade (i) Se A n é uma sequência tal que A n A, então P(A n ) P(A), isto é, P(A n ) P(A n+ ) n N e lim n P(A n) P(A) (continuidade por baixo). (ii) Se A n é uma sequência tal que A n A, então P(A n ) P(A), isto é, P(A n ) P(A n+) e lim n P(A n) P(A) (continuidade por cima). Demonstração: (i) Se A n A, então A n A n+ n N e pela Proposição.7, lim A n A A n. Pela n n Propriedade (Pr 4 )), resulta que P(A ) P(A ), ou seja, {P(A n )} n é uma sequência real monótona e limitada ( P(A i ) ). Logo, lim P(A n). n Podemos escrever A n A n como união de eventos mutuamente exclusivos da seguinte forma: Mas A A n A (A A c ) (A 3 A c Ac ) (A k Ak c Ac ) n P(A) P(A ) + P(A A c ) + P(A 3 A c Ac ) + + P(A k A c k Ac ) + A k A c k Ac A k (A c k Ac ) }{{} Morgan Logo, A k (A A k ) c P(A) P(A ) + P(A A c ) + P(A 3 A c ) + + P(A k A c k ) + }{{} A n A k A c k ou seja, P(A) é a soma de uma série que é, então, convergente, já que P(A). A n ésima soma parcial da série que define P(A) é S n P(A ) + P(A A c ) + P(A 3 A c ) + + P(A n A c n ) + P(A n A c n ) P(A ) + [P(A ) P(A A )] + [P(A 3 ) P(A A 3 )] + + [P(A n ) P(A n A n )] + [P(A n ) P(A n A n )] }{{} P(A ) + [P(A ) P(A )] + [P(A 3 ) P(A )] + + [P(A n ) P(A n )] + [P(A n ) P(A n )] A n P(A n ) Por definição de convergência de uma série, resulta que o que completa a prova. P(A) lim n S n lim n P(A n) Uma série a n é convergente se n n ésima soma parcial de tal série. n a n S < e, nesse caso, S lim n S n, em que S n a + a + + a n é a

52 48 CAPÍTULO. PROBABILIDADE (ii) Se A n A, então A n A n+ n N e pela Proposição.7, lim A n A A n. n n Mas A n A n+ An c An+ c e novamente pela Proposição.7 ( ) c lim n Ac n An c }{{} A n A c n Morgan n Mas pelo item anterior, temos que lim n P(Ac n) P(A c ) lim [ P(A n)] P(A) lim P(A n) P(A) n n o que completa prova. Eis um resumo dos resultados vistos nesta seção: lim sup A n n lim inf n A n n kn n kn lim inf A n lim sup n n A k A k A n A n A A n A n+ e lim n A n A (A n ocorre para infinitos n s (A n ocorre para todo n suficientemente grande) n A n A P(A n ) P(A n+ ) e lim n P(A n) P(A). A n A A n A n+ e lim n A n A n A n A P(A n ) P(A n+ ) e lim n P(A n) P(A). A n A n Notação: P(A n ) P(A) Notação: P(A n ) P(A)

53 Capítulo Variáveis Aleatórias Neste capítulo será introduzido o conceito de variável aleatória, que permite a modelagem probabilística de fenômenos da vida real. Associada a cada variável aleatória está sua função de distribuição, que será também definida.. Variáveis aleatórias Considere o experimento aleatório definido pelo sorteio de uma amostra de funcionários de uma empresa que tem 5 funcionários. O espaço amostral deste experimento é formado por todas as amostras possíveis com funcionários da empresa. Como a ordem em que os funcionários são sorteados não importa e não deve haver repetição de funcionários em um sorteio, o número total de tais amostras é ( ) 5. Cada elemento desse espaço amostral é formado pela relação dos funcionários sorteados. Em situações como essa, em geral, o interesse não está no funcionário em si, mas, sim, em alguma característica deste funcionário, por exemplo, sua altura, se tem curso superior ou não, número de dependentes etc. Dessa forma, poderíamos calcular a altura média dos funcionários da amostra, o número médio de dependentes, a proporção de funcionários com curso superior etc. Então, a cada amostra possível, ou seja, a cada ponto do espaço amostral associamos um número. Essa é a definição de variável aleatória. Definição. Variável aleatória Seja (Ω, F, P) um espaço de probabilidade. Uma variável aleatória X é qualquer função X : Ω R tal que X (I) {ω Ω : X(ω) I} F para todo intervalo I R, ou seja, X é tal que sua imagem inversa de qualquer I R pertence à σ álgebra F. Dito de outra forma, uma variável aleatória é uma função real (isto é, que assume valores em R) definida no espaço amostral Ω de um experimento aleatório. Isso significa que uma variável aleatória é uma função que associa a cada elemento de Ω um número real. Por questões de simplicidade, muitas vezes abreviaremos a expressão variável aleatória por v.a.. A convenção usual para representar uma v.a. consiste em usar letras maiúsculas como X,

54 5 CAPÍTULO. VARIÁVEIS ALEATÓRIAS Y etc. Um valor específico, mas genérico, desta variável será representado pela letra minúscula correspondente: x, y etc. Como uma variável aleatória X é uma função, muitas vezes estaremos interessados na sua imagem, Im(X), que é definida pelo conjunto de valores que a variável aleatória pode assumir. Veja os exemplos a seguir. Exemplo. Considere o experimento de lançar três vezes uma moeda. Seja X a variável aleatória definida pelo número de caras nos três lançamentos. (a) Defina o espaço amostral Ω deste experimento. (b) Determine X(ω) para cada ω Ω. (c) Determine Im(X). Para definir o espaço amostral, vamos representar por K a ocorrência de cara em um lançamento e por C, a ocorrência de coroa. (a) Ω {K K K, K KC, KCK, KCC, CK K, CKC, CCK, CCC}. (b) X(K K K ) 3, X(K KC), X(KCK ), X(KCC), X(CK K ), X(CKC), X(CCK ), X(CCC). (c) Im(X) {,,, 3}. Exemplo. Jogo de Dardo Considere o experimento de lançar um dardo em um alvo formado por quatro círculos concêntricos de raios,, 3 e 4, como o da figura ao lado. Para esse experimento defina duas variáveis aleatórias X e Y : seja X a distância entre o dardo e o centro do alvo e Y a pontuação ganha no lançamento do dardo, indicada também na figura. Defina um espaço amostral do experimento e determine Im(X) e Im(Y ) Vamos supor que, se o dardo for lançado fora do alvo, o experimento é repetido. Nesse caso, podemos representar cada saída do experimento pelo ponto no plano que representa o local em que o dardo foi lançado dentro do alvo. Assim o espaço amostral será: Ω { (i, j) i + j 4 }. Lembre-se que i + j é a distância do ponto (i, j) à origem, isto é, ao centro do alvo. Como a v.a. X é definida justamente pela distância entre o dardo e o centro alvo podemos concluir que, (i, j) Ω, X(i, j) i + j. Além disso, a menor distância possível é e a maior é 4, logo X(i, j) 4 e Im(X) [, 4]. Já a v.a. Y, que é definida pelos pontos ganhos, só pode assumir os valores 4, 3, ou, de acordo com a pontuação indicada na figura. Então Im(Y ) {,, 3, 4}.

55 .. VARIÁVEIS ALEATÓRIAS 5 Exemplo.3 Considere o experimento de observar, durante um dia, o número de nascimentos e o sexo dos bebês em uma certa maternidade. Para esse experimento considere o evento A nasceram mais homens que mulheres no dia de observação. (a) Defina um espaço amostral para o experimento. (b) Defina o evento A a partir dos elementos de Ω. (c) Verifique que F {Ω,, A, A c } é uma σ-álgebra. (d) Verifique que a função I A, definida a seguir, é uma variável aleatória. {, se ω A I A (ω), se ω / A (e) Determine Im(I A ). (a) Vamos representar cada elemento de Ω por um par ordenado (x, y) em que x indica o número de nascimentos de bebês do sexo feminino e y o número de nascimentos de bebês do sexo masculino. Como tanto x quanto y indicam uma contagem, ambos têm que ser números naturais. Logo, Ω {(x, y) N }. (b) O evento A é definido pelo subconjunto de Ω tal que cada elemento representa mais nascimentos de meninos do que de meninas. Por exemplo, {(, ), (, 4), (, 3)} A e {(5, ), (, ), (, )} A. Podemos então definir A {(x, y) N x < y}. (c) Para verificar que F é σ-álgebra temos que verificar as propriedades A, A e A 3 da Definição.. A é imediata, pois Ω F. É imediato verificar que, para cada um dos 4 elementos F, seu complementar também pertence à F e, portanto, A é satisfeita. O mesmo vale para A 3, pois a união de quaisquer eventos de F também é elemento de F. (d) Para verificar que I A é v.a. é preciso verificar que a imagem inversa de qualquer intervalo I R pertence à σ-álgebra F. Seja I R um intervalo qualquer. Se I e I, então IA (I) Ω F. Se / I e / I, então I A (I) F. Se / I e I, então I A (I) A F. Se I e / I, então IA (I) Ac F. Logo, I A é variável aleatória. (e) Im(I A ) {, }. A função I A definida no Exemplo.3 é chamada de função indicadora do conjunto A. Sempre que A for um evento da σ-álgebra, I A será variável aleatória. Nesse caso, I A indica a ocorrência, ou não, do evento A. Veja a definição formal a seguir. Definição. Variável Aleatória Indicadora Seja A um evento qualquer no espaço de probabilidade (Ω, F, P). A função I A definida por {, se ω A I A (ω), se ω / A é uma variável aleatória, chamada de variável aleatória indicadora (ou v.a. binária). dummy, ou v.a.

56 5 CAPÍTULO. VARIÁVEIS ALEATÓRIAS. Função de distribuição acumulada Seja X uma variável aleatória definida no espaço de probabilidade (Ω, F, P). Veja que, pela própria definição de variável aleatória, qualquer que seja o intervalo I R E {ω Ω X(ω) I} é um evento e logo P(E) está bem definida, ou seja, podemos calcular P(E). Por abuso de notação, costuma-se escrever essa probabilidade da seguinte maneira, P(E) P({ω Ω X(ω) I}) P(X I), que é a probabilidade de X assumir valores no intervalo I. Em particular, podemos escolher o intervalo I (, x], qualquer que seja x R. Nesse caso, P(E) P(ω Ω X(ω) (, x]) P(X x). Se conhecermos P(X x) para todo x R, poderemos calcular a probabilidade de qualquer evento e isso torna a definição a seguir bastante importante. Definição.3 Função de Distribuição Acumulada Dada uma variável aleatória X, a função de distribuição acumulada de X, ou simplesmente função de distribuição, é definida por F X (x) P (X x) x R. É interessante notar que a função F X está definida para todo número real x, independente dos valores que a variável aleatória X possa assumir. Além disso, vale notar, também, que F X : R [, ]. Exemplo.4 Considere o experimento de lançar uma moeda. Para esse experimento seja X a v.a. indicadora da ocorrência da face cara, isto é, {, se sair cara; X, se sair coroa. Encontre a função de distribuição de X e esboce seu gráfico. Queremos encontrar F X (x) P(X x) x R. Note que Im(X) {, }, Assim, vamos analisar F X (x) para valores de x separadamente nos conjuntos (, ), {}, (, ), {} e (, ). Primeiro, veja que, se x (, ), x então X não pode assumir valores menores que x, pois todos os elementos de Im(X) estão à direita de x na reta acima. Então F X (x) sempre que x <. E se x? F X () P(X ) P(X < ) + P(X ) + P(X ) P(sair coroa) /. Vejamos, agora, a situação em que x (, ).

57 .. FUNÇÃO DE DISTRIBUIÇÃO ACUMULADA 53 x A única possibilidade de X assumir valores menores que x é quando X, conforme ilustrado acima. Então F X (x) P(X x) P(X ) / sempre que < x <. Se x, F X () P(X ) P(X ou X ) P(sair cara ou coroa) P(Ω). Para terminar, considere x >, isto é, x (, ). x Nesse caso F X (x) P(X x) P(X ou X ) P(sair cara ou coroa) P(Ω). Concluindo, apresentamos, a seguir, a função F X e seu gráfico. Note que o tamanho do salto em cada um dos pontos X e X (veja as linhas pontilhadas) é exatamente a sua probabilidade, ou seja, P(X ) e P(X )., se x < ; F X (x) /, se x < ;, se x Exemplo.5 Considere o experimento e a v.a. descritos no Exemplo.. Encontre e esboce o gráfico da função de distribuição de X, definida como o número de caras em 3 lançamentos de uma moeda. Já vimos que Im(X) {,,, 3}. Vamos, primeiro, determinar F X (x) para x (, ). x 3 Como no exemplo anterior, se x <, a v.a. X não pode assumir valores menores ou iguais a x, e, portanto, F X (x) P(X x). Já se x, temos F X () P(X ) P(X < ) + P(X ) P(X ) P(K K K ) /8. Vejamos, agora, o caso em que x (, ). x 3 Temos que F X (x) P(X x) P(X ) + P( < X < x) P(X ) + F X () P(K K K ) /8. Já se x, temos F X () P(X ) P(X < ) + P(X ) P(X ) + P(X ) /8 + P({K KC, KCK, CK K }) 4/8 /.

58 54 CAPÍTULO. VARIÁVEIS ALEATÓRIAS Suponha, agora, x (, ). x 3 Então, F X (x) P(X x) P(X ) + P( < X < x) 4/8 + /. Já se x temos F X () P(X ) P(X < ) + P(X ) 4/8 + P({K KC, KCK, CK K }) 7/8. De maneira análoga, se x (, 3), x 3 F X (x) P(X x) P(X ) + P( < X < 3) 7/8 + 7/8. Já se x 3, F X (3) P(X 3) P(X < 3) + P(X 3) 7/8 + P({K K K }) P(Ω). Para terminar, se x (3, ) 3 x F X (x) P(X x) P(X 3) + P(3 < X < x) + P(Ω). Concluindo, apresentamos, a seguir, a função F X e seu gráfico. Novamente, o tamanho dos saltos corresponde à probabilidade de cada um dos pontos de Im(X). F X (x), se x < ; /8, se x < ; /, se x < ; 7/8, se x < 3;, se x 3. 7/8 / /8 3 4 Exemplo.6 Suponha o experimento de sortear de forma aleatória um ponto no intervalo (, ). Para esse experimento defina X como sendo o ponto sorteado. Encontre a função de distribuição de X. Veja que Im(X) (, ). Dado x (, ) qualquer, P(X x) x. Se x, P(X x), pois não há números possíveis de serem sorteados menores que. Já se x, P(X x), pois todos os números possíveis de serem sorteados são menores ou iguais a. x Assim, a função de distribuição F X é definida por:

59 .. FUNÇÃO DE DISTRIBUIÇÃO ACUMULADA 55, se x ; F X (x) x, se < x < ;, se x. Proposição. Propriedades da Função de Distribuição Seja F X a função de distribuição de alguma variável aleatória X. Então F X satisfaz as seguintes propriedades. F. lim x F X (x) e lim x F X (x). F. F X é função não decrescente, isto é, se a < b F X (a) F X (b). F 3. F X é função contínua à direita, isto é, F X (b + ) lim h F X (b + h) F X (b). Demonstração: As propriedades a serem demonstradas são decorrentes dos axiomas e das propriedades da probabilidade, conforme Definição. e Proposição.. F. lim F X (x) lim P(X x) P(X ) P(Ω). x x lim F X (x) lim P(X x) P(X ) P( ). x x F. Se a < b, então o evento {X a} {X b} e, portanto, P({X a}) P({X b}), ou seja, F X (a) F X (b). F 3. ( F X b + ) limf X (b + h) lim P (X b + h) h h lim P (X < b b X b + h) lim {P(X < b) + P(b X b + h)} h h P(X < b) + lim P(b X b + h) P(X < b) + P(X b) P(X b) F X (b). h Conhecendo a função de distribuição de uma variável aleatória qualquer, é possível calcular a probabilidade de que essa variável aleatória pertença a qualquer intervalo da reta. Veja no Exemplo.7 alguns exemplos em que o cálculo de probabilidades são convertidos para cálculos com a função de distribuição. Exemplo.7 Cálculo de probabilidades a partir da função de distribuição Seja X uma v.a. e F X a sua função de distribuição. Sejam a e b números reais tais que a < b. Reescreva as probabilidades a seguir em termos de F X.

60 56 CAPÍTULO. VARIÁVEIS ALEATÓRIAS (a) P(X a) (b) P(X > a) (c) P(a < X b) (d) P(X a) (e) P(X < a) (f) P(X a) (g) P(a < X < b) (h) P(a X b) A ideia é transformar o evento para o qual queremos calcular a probabilidade em um evento do tipo {X c}, pois nesse caso sabemos que P(X c) F X (c). Para isso vamos usar as propriedades da probabilidade (Proposição.). (a) P(X a) F X (a). (b) P(X > a) P(X a) F X (a). (c) (d) P(a < X b) P({X b} {X > a}) P({X b} {X a} c P(X b) P({X b} {X a}) P(X b) P(X a) F X (b) F X (a). P(X a) P({X a} {X a}) P({X a} {X < a} c ) P({X a}) P({X a} {X < a}) P(X a) P(X < a) F X (a) lim h + P(X a h) F X (a) F X (a ) Note que essa diferença é o tamanho do salto da função F X no ponto a. (e) P(X < a) P(X a) P(X a) F X (a) P(X a). (f) P(X a) P(X < a) (F X (a) P(X a)) F X (a) + P(X a). (g) P(a < X < b) P(X < b) P(X a) F X (b) P(X b) F X (a). (h) P(a X b) P(X b) P(X < a) F X (b) (F X (a) P(X a)) F X (b) F X (a) + P(X a). O Exemplo.7 acima nos mostra que, conhecendo a função de distribuição de uma variável aleatória, podemos calcular qualquer probabilidade envolvendo essa variável. Ou seja, o comportamento de uma variável aleatória fica perfeitamente determinado pela sua função de distribuição. Exemplo.8 Seja X a v.a. que representa o tempo de vida (em dias) de um dispositivo elétrico. Suponha que {, x < ; F X (x) e x/, x. (a) Esboce o gráfico da função F X. (b) Verifique as propriedades da função de distribuição para F X (Proposição.). (c) Calcule a probabilidade de o dispositivo durar mais de 3 dias. (d) Calcule a probabilidade de o dispositivo durar entre e 3 dias. (e) Suponha que o dispositivo esteja em funcionamento há dias. Qual a probabilidade de seu tempo de vida ultrapassar os 3 dias?

61 .. FUNÇÃO DE DISTRIBUIÇÃO ACUMULADA 57 Figura. F X para o Exemplo.8 (a) Veja a Figura.. (b) As propriedades seguem diretamente das propriedades da função exponencial, que podem ser vistas no gráfico acima: os limites de F x quando x e x + são e, respectivamente; F X é contínua e não decrescente. (c) P(dispositivo durar mais de 3 dias) P(X > 3) P(X 3) F X (3) ( e 3/ ) e 3/, 3. (d) P(dispositivo durar entre e 3 dias) P( X 3) P(X 3) P(X < ) P(X 3) (P(X ) P(X )) F X (3) (F X () ) F X (3) F X () e 3/ + e / e / e 3/, 665, 3, (e) P(tempo de vida ultrapassar os 3 dias dispositivo está em funcionamento há dias) P(X > 3 X > ) P(X > 3 X > )/ P(X > ) P(X > 3)/ P(X > ) ( P(X 3))/( P(X )) ( F X (3))/( F X ()) e 3/ /e / e, Exemplo.9 Seja X uma v.a. cuja função de distribuição é definida por:, x < ; /5, x < ; F X (x) /5, x < ; 4/5, x < 4;, x 4. (a) Esboce o gráfico da função F X. (b) Verifique as quatro propriedades da função de distribuição para F X. (c) Calcule: P(X > ), P(X ), P(X ), P(X < ), P( < X < 4) e P(X > X ).. Veja a Figura... Da Figura. podemos ver que F X satisfaz as propriedades de uma função de distribuição.

62 58 CAPÍTULO. VARIÁVEIS ALEATÓRIAS Figura. F X para o Exemplo.9 3. P(X > ) P(X ) F X () /5 4/5. P(X ) F X () F X ( ) /5, pois não há salto no gráfico de F X em x. P(X ) F X () F X ( ) 4/5 /5 /5, que é o tamanho do salto no gráfico de F X em x. P(X < ) P(X ) P(X ) F X () P(X ) 4/5 /5 /5. P( < X < 4) P(X < 4) P(X ) P(X 4) P(X 4) P(X ) F X (4) (F X (4) F X (4 )) F X () ( 4/5) /5 4/5 /5 3/5 P(X > X ) P(X > X ) P( < X ) P(X ) P(X ) (P(X ) P(X )) (F X () F X ()) P(X ) F X () (4/5 /5) (4/5) 3/4.3 Classificação de variáveis aleatórias As variáveis aleatórias podem ser classificadas como discreta, contínua, singular ou mista. Neste curso, por se tratar de um curso introdutório da Teoria das Probabilidades, estudaremos apenas as variáveis discretas e contínuas. Definição.4 Variável Aleatória Discreta Uma variável aleatória X é classificada como discreta se a sua imagem é um conjunto finito ou enumerável. Nos Exemplos. e.3 as variáveis X e I A são discretas. Em ambos os casos a imagem delas é finita. Também no Exemplo. (problema do dardo) a variável Y, definida pela pontuação ganha, é uma variável aleatória discreta com imagem finita, mas a variável X, definida pela distância entre o dardo e o centro, não é variável aleatória discreta. Para ilustrar o caso de uma variável aleatória discreta com imagem infinita e enumerável, considere o experimento de lançar um dado até sair a face 6. Se X é a variável definida pelo número

63 .3. CLASSIFICAÇÃO DE VARIÁVEIS ALEATÓRIAS 59 de lançamentos desse dado, então Im(X) {,, 3,...}, um conjunto infinito, porém enumerável. Logo, a variável aleatória X é discreta. O gráfico da função de distribuição das variáveis aleatórias discretas sempre será do tipo escada. Assim, se o gráfico da função de distribuição de uma variável aleatória é do tipo escada, já sabemos que se trata de uma variável aleatória discreta. Os degraus dessa escada estão localizados nos elementos da imagem da variável aleatória. Além disso, o tamanho do salto no degrau localizado em X x é exatamente P(X x). Reveja o Exemplo.5 e verifique essa característica no gráfico de F X. Exemplo. Nota média de dois alunos Um curso tem cinco alunos com coeficiente de rendimento (CR) superior a 8,5. Os CRs desses alunos são: 8,8; 9,; 8,9; 9,5; 9,. Dentre esses cinco alunos, dois serão sorteados para receber uma bolsa de estudos. (a) Designando por A, B, C, D, E os alunos, defina um espaço amostral para o experimento definido pelo sorteio dos dois alunos que receberão a bolsa de estudos. Seja X CR médio dos alunos sorteados. (b) Defina Im(X). (c) Classifique X como variável aleatória discreta ou não. Justifique sua resposta. (d) Liste o evento {X 9, }, isto é, apresente os elementos de Ω que pertencem a esse evento. (e) Apresente a função de distribuição de X. (f) Calcule P(X 9). (a) Note que não importa a ordem em que os alunos são sorteados; logo, n(ω) ( 5 ). Mais especificamente, { } (A, B), (A, C), (A, D), (A, E), (B, C), Ω (B, D), (B, E), (C, D), (C, E), (D, E) (b) Usando uma tabela de duas entradas, podemos representar os valores de X da seguinte forma: A(8, 8) B(9, ) C(8, 9) D(9, 5) E(9, ) 8,8+9, A(8, 8) 9, 8, 85 9, 5 8, 9 B(9, ) 9, 5 9, 35 9, C(8, 9) 9, 8, 95 D(9, 5) 9, 5 E(9, ) Logo, Im(X) {8, 85, 8, 9, 8, 95, 9,, 9, 5, 9,, 9, 5, 9,, 9, 5, 9, 35}. Como Im(X) é um conjunto finito, em particular tem elementos, podemos dizer que X é variável aleatória discreta. (c) Como todos os pontos do espaço amostral são equiprováveis (o sorteio é aleatório), podemos afirmar que P(ω) / para qualquer ω Im(X). Usando as propriedades da função de distribuição de variáveis aleatórias discretas (já sabemos que é uma função escada) podemos concluir que:

64 6 CAPÍTULO. VARIÁVEIS ALEATÓRIAS (d) {X 9} {(A, B), (A, D), (B, C), (B, D), (B, E), (C, D), (D, E)}. F X (x), se x < 8, 85; /, se 8, 85 x < 8, 9; /, se 8, 9 x < 8, 95; 3/, se 8, 95 x < 9, ; 4/, se 9, x < 9, 5; 5/, se 9, 5 x < 9, ; 6/, se 9, x < 9, 5; 7/, se 9, 5 x < 9, ; 8/, se 9, x < 9, 5; 9/, se 9, 5 x < 9, 35;, se x 9, (e) Podemos calcular P (X 9) pela função de distribuição ou pela listagem do evento {X 9}. Pela função de distribuição, P(X 9) P(X < 9) [P(X 9) P(X 9)] F X (9) + P(X 9) 4 ( ) 7. Pela listagem do evento {X 9}, P(X 9) P [(A, B), (A, D), (B, C), (B, D), (B, E), (C, D), (D, E)] 7 7. Veremos a definição mais usual de variável aleatória contínua no Capítulo 5, mas a princípio temos como verificar se uma variável aleatória é contínua a partir da sua função de distribuição. Definição.5 Variável Aleatória Contínua Uma variável aleatória X é classificada como contínua quando a sua função de distribuição é uma função absolutamente contínua. Precisamos ter atenção com o termo função absolutamente contínua, que não é a mesma coisa que função contínua. Mas para facilitar o entendimento de variáveis aleatórias contínuas no contexto de um primeiro curso de Probabilidade, podemos usar o resultado apresentado na Proposição.. Proposição. Se F é uma função (i) contínua em R; (ii) diferenciável em R, exceto em um conjunto finito de pontos, então F é absolutamente contínua. Demonstração: A demostração desta proposição será omitida.

65 .3. CLASSIFICAÇÃO DE VARIÁVEIS ALEATÓRIAS 6 Então, combinando os resultados da Definição.5 e da Proposição., podemos afirmar que uma variável aleatória X é contínua se sua função de distribuição F satisfizer as condições (i) e (ii) da Proposição.. Note que a recíproca não é verdadeira, ou seja, pode existir variável aleatória contínua cuja função de distribuição F não satisfaz (i) ou (ii). Mas esses casos não serão tratados nesse curso. Nos Exemplos.6 e.8 as variáveis aleatórias definidas são contínuas. Veja que em ambos os exemplos a função de distribuição F X é contínua. Além disso F X só não é diferenciável em um conjunto finito de pontos: no Exemplo.6 F X só não é diferenciável em dois pontos, x e x, e no Exemplo.8 a função F x só não é diferenciável no ponto x. Já vimos que o comportamento de uma variável aleatória fica perfeitamente determinado pela sua função de distribuição. Além de calcular probabilidades envolvendo a variável aleatória em questão podemos, também, através do conhecimento da função de distribuição, encontrar a imagem da variável aleatória. No caso de X ser uma variável aleatória discreta, a imagem de X é formada pelos pontos do domínio de F X onde ocorrem os saltos no seu gráfico. Já se X é variável aleatória contínua, a sua imagem é formada pelos pontos do domínio de F X onde esta função é estritamente crescente, ou seja, não constante. Exemplo. Dada a função F(x), x < /, x < k, x < 3 3/4, 3 x < 4, x 4 em que k é uma constante, determine os possíveis valores de k para que F seja a função de distribuição acumulada de uma variável aleatória discreta X. Em seguida, determine a imagem de X. Como a função de distribuição de qualquer v.a. X tem que ser uma função não decrescente, concluímos que k tem que ser maior ou igual a. Pela mesma razão, k tem que ser menor ou igual a 3 4. Dessa forma, os possíveis valores de k pertencem ao intervalo [, 4] 3. Os valores possíveis da v.a. X correspondem aos pontos de descontinuidade da função F(x). Logo, Im(X) {,, 3, 4}. Exemplo. Dada a função, x < x F(x) /, x < kx, x <, x em que k é uma constante, determine os possíveis valores de k para que F seja a função de distribuição acumulada de uma variável aleatória contínua X. Em seguida, determine a imagem de X. Para que F seja função de distribuição de uma variável aleatória contínua é necessário que não haja saltos no gráfico de F. Para que isso ocorra o valor de k tem que ser tal que lim x F(x) lim x + F(x) e lim x F(x) lim x + F(x). Isto é, / k e k, ou seja, k /. Para terminar, a imagem de F é formada pelos valores do domínio onde a função é crescente, ou seja, Im(X) [, ].

66 6 CAPÍTULO. VARIÁVEIS ALEATÓRIAS Para terminar esse capítulo, vejamos um exemplo de uma variável aleatória que não é nem discreta nem contínua. Exemplo.3 Seja X variável aleatória com função de distribuição definida por:, x < F X (x) x, x < /, x x < / (a) Faça o gráfico de F X. (b) Verifique que F X é função de distribuição. (c) Calcule P(X > /3), P(X /4) e P(X /). (d) Verifique que X não é variável aleatória discreta. (e) Verifique que X não é variável aleatória contínua. (a) Segue o gráfico de F X. /.5 (b) Para verificar o que se pede precisamos verificar as propriedades da Proposição.. Primeiro veja, pelo gráfico, que lim x F X (x) e lim x F X (x). Podemos ver que F X é função crescente no intervalo (, /) e constante no restante da reta. Então F X é função não decrescente. O único ponto de descontinuidade de F X é o (/, /). Precisamos, então, mostrar que nesse ponto F X é contínua à direita. Seja {x i } uma sequencia tal que x i / e x i /, isto é, {x i } é uma sequência que converge para / pela direita, então F X (x i ) i. Logo a sequência {F X (x i )} é constante e igual a e por isso F X (x i ) F X (.5). Assim mostramos que F X é contínua a direita em.5. (c) P(X > /3) F X (/3) /3 /3. P(X /4) F X (/4) F X (/4 ). Veja que não existe salto no gráfico de F X em x /4. P(X /) F X (/) F X (/ ) /. Veja que o tamanho do salto no gráfico de F X em x / é /. (d) Veja que Im(X) [, /]. Como esse conjunto não é enumerável, X não é variável aleatória discreta. (e) Veja que o gráfico de F X não é contínuo. Logo X não é variável aleatória contínua.

67 Capítulo 3 Variáveis Aleatórias Discretas Nesse capítulo, vamos estudar em mais detalhes as variáveis aleatórias discretas. 3. Função de probabilidade Já vimos, no Capítulo, que uma variável aleatória é chamada de discreta quando a sua imagem é um conjunto finito ou enumerável. Nesse caso, o gráfico da sua função de distribuição é do tipo escada e o tamanho do degrau localizado em X x é exatamente P(X x). Além disso, o comportamento de uma variável aleatória qualquer, discreta ou não, é perfeitamente determinado pela sua função de distribuição. No caso das variáveis aleatórias discretas, temos outra opção para determinar o comportamento da variável aleatória, a função de probabilidade. Definição 3. Função de Probabilidade Seja X uma variável aleatória discreta. A função de probabilidade de X é a função p X definida por: p X (x) P (X x) x R Para encontrar a função de probabilidade de uma variável aleatória discreta, temos, primeiro, que encontrar a sua imagem e, em seguida, calcular a probabilidade de ocorrer cada elemento da imagem. Todos os valores reais que não pertencem à imagem têm probabilidade nula de ocorrer; logo, para esses valores a função de probabilidade também é nula. Sendo assim, na apresentação da função de probabilidade de uma variável aleatória discreta X, iremos nos concentrar apenas em p X (x) para x Im(X). Exemplo 3. Máximo entre dois dados Considere o lançamento de dois dados equilibrados. (a) Apresente um espaço amostral para este experimento, isto é, apresente Ω. Suponha que nosso interesse esteja no máximo das faces dos dois dados. variável aleatória X máximo das faces. Neste caso, defina a (b) Encontre X(ω) para todo ω Ω.

68 64 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS (c) Defina Im(X). (d) Verifique que X é v.a. discreta. (e) Encontre a função de probabilidade de X e esboce seu gráfico. (f) Encontre a função de distribuição de X e esboce o seu gráfico. (a) Ω {(i, j) i, j,, 3, 4, 5, 6} {(, ), (, ),..., (, 6), (, ), (, ),..., (, 6),..., (6, 6)}. (b) A Tabela 3. abaixo apresenta X(ω) para todo ω Ω. Tabela 3. Variável aleatória X máximo das faces de dados Pontos do espaço amostral (ω) Valor de X(ω) (,) (,)(,),(,) (,3),(,3),(3,3),(3,),(3,) 3 (,4),(,4),(3,4),(4,4),(4,3),(4,),(4,) 4 (,5),(,5),(3,5),(4,5),(5,5),(5,4),(5,3),(5,),(5,) 5 (,6),(,6),(3,6),(4,6),(5,6),(6,6),(6,5),(6,4),(6,3),(6,),(6,) 6 (c) De acordo com a Tabela 3., Im(X) {,, 3, 4, 5, 6}. (d) Veja que o conjunto Im(X) é finito, logo X é discreta. (e) Queremos calcular p X (x) P(X x) para todo x Im(X). Vamos começar com x : p X () P(X ) P({(, )}) /36, considerando que cada um dos 36 elementos de Ω tem mesma probabilidade de ocorrer. Vamos calcular, agora, p X para os demais elementos da Im(X): p X () P(X ) P({(, ), (, ), (, )}) 3/36. p X (3) P(X 3) P({(, 3), (3, ), (, 3), (3, ), (3, 3)}) 5/36. p X (4) P(X 4) P({(, 4), (4, ), (, 4), (4, ), (3, 4), (4, 3), (4, 4)}) 7/36. p X (5) P(X 5) P({(, 5), (5, ), (, 5), (5, ), (3, 5), (5, 3), (4, 5), (5, 4), (5, 5)}) 9/36. p X (6) P(X 6) P({(, 6), (6, ), (, 6), (6, ), (3, 6), (6, 3), (4, 6), (6, 4), (5, 6), (6, 5), (6, 6)}) /36. Então, p X (x) /36, se x 3/36, se x 5/36, se x 3 7/36, se x 4 9/36, se x 5 /36, se x 6, caso contrário. /36 9/36 7/36 5/36 3/36 / Também podemos apresentar a função de probabilidade p X (x) para x Im(X) em forma de uma tabela:

69 3.. FUNÇÃO DE PROBABILIDADE 65 x p X (x) /36 3/36 5/36 7/36 9/36 /36 (f) Como já conhecemos P(X x) para todo x Im(X), é fácil calcular a função de distribuição, acumulando as probabilidades. O gráfico, como já visto, é o de uma função escada, com os degraus ocorrendo em cada ponto x Im(X) e o tamanho do degrau equivalente a P(X x). F X (x), se x < ; /36, se x < ; 4/36, se x < 3; 9/36, se 3 x < 4; 6/36, se 4 x < 5; 5/36, se 5 x < 6;, se x 6. 5/36 6/36 9/36 4/36 / Proposição 3. Propriedades da Função de Probabilidade Seja p X a função de probabilidade de uma variável aleatória discreta qualquer. Então valem as seguintes propriedades: (i) p X (x) para todo x R; (ii) p X (x). x Im(X) Demonstração: Essas propriedades são decorrentes dos axiomas da probabilidade, apresentados na Definição.. (i) Como P(A) para todo A F, também é verdade que P(X x) para todo x R. Logo, p X (x) P(X x) para todo x R. (ii). p X (x) P(X x) P {X x} P(Ω) x Im(X) x Im(X) x Im(X) Exemplo 3. Demanda por produto A demanda por um certo produto pode ser vista como uma variável aleatória X cuja função de probabilidade p X é estimada por Número de unidades demandadas x 3 4 p X (x) P(X x), 5, 45, 5, 5 (a) Verifique que p X realmente define uma função de probabilidade. (b) Obtenha a função de distribuição acumulada de X.

70 66 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS (c) Usando a função de distribuição calculada no item anterior, calcule P(X 3, 5). (a) x P(X x), 5 +, 45 +, 5 +, 5 e todos os valores são não negativos. Logo, p X é uma função de probabilidade. (b) (c) Temos que F X (x) se x <,5 se x <,7 se x < 3,85 se 3 x < 4, se x 4 P(X 3, 5) F X (3, 5), 85 Exemplo 3.3 Uma variável aleatória discreta X tem a seguinte função de probabilidade onde k é uma constante real. k (x+)!, se x ou x p X (x), se x e x (a) Determine o valor de k para que p X seja realmente função de probabilidade. (b) Encontre a função de distribuição F X e esboce seu gráfico. (a) Os valores possíveis da v.a. são e, isto é, Im(X) {, }. Então, temos que ter p X () + p X () k! + k 3! k + k 6 3k + k 6 k Logo, p X () 3/ 3 4 e p X () 3/ 6 4. (b) A função de distribuição de X é, se x < ; F X (x) 3/4, se x < ;, se x. 3/

71 3.. FUNÇÃO DE PROBABILIDADE 67 Exemplo 3.4 Soma das faces de dois dados Considere novamente o experimento de lançar dois dados equilibrados e defina a variável aleatória X soma das faces. (a) Determine Im(X). (b) Verifique que X é v.a. discreta. (c) Encontre a função de probabilidade de X e esboce seu gráfico, verificando que são válidas as propriedades da função de probabilidade. (d) Encontre a função de distribuição de X e esboce o seu gráfico. (e) Calcule a probabilidade de que a soma das faces seja maior que 6. (a) Im(X) {, 3, 4, 5, 6, 7, 8, 9,,, }. (b) Como Im(X) é um conjunto finito, X é variável aleatória discreta. (c) Para encontrar p X precisamos encontrar P(X x) para todo x Im(X). O espaço amostral desse experimento é o mesmo do Exemplo 3., ou seja, ele tem 36 elementos, todos com a mesma probabilidade de ocorrência. p X () P(X ) P({(, )}) /36. p X (3) P(X 3) P({(, ), (, )}) /36. p X (4) P(X 4) P({(, 3), (3, ), (, )}) 3/36. p X (5) P(X 5) P({(, 4), (4, ), (, 3), (3, )}) 4/36. p X (6) P(X 6) P({(, 5), (5, ), (, 4), (4, ), (3, 3)}) 5/36. p X (7) P(X 7) P({(, 6), (6, ), (, 5), (5, ), (3, 4), (4, 3)}) 6/36. p X (8) P(X 8) P({(, 6), (6, ), (3, 5), (5, 3), (4, 4)}) 5/36. p X (9) P(X 9) P({(3, 6), (6, 3), (4, 5), (5, 4)}) 4/36. p X () P(X ) P({(4, 6), (6, 4), (5, 5)}) 3/36. p X () P(X ) P({(5, 6), (6, 5)}) /36. p X () P(X ) P({(6, 6)}) /36. Para qualquer outro valor x R temos p X (x). Podemos representar p X em forma de tabela: x p X (x) /36 /36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 /36 /36 Veja que p X (x) para todo x e que x Im(X) p X (x) Logo as propriedades são satisfeitas. O gráfico de p X é dado a seguir.. 6/36 5/36 4/36 3/36 /36 /

72 68 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS (d) A função de distribuição é calculada a partir de P(X x), acumulando as probabilidades: F X (x), se x < ; /36, se x < 3; 3/36, se 3 x < 4; 6/36, se 4 x < 5; /36, se 5 x < 6; 5/36, se 6 x < 7; /36, se 7 x < 8; 6/36, se 8 x < 9; 3/36, se 9 x < ; 33/36, se x < ; 35/36, se x < ;, se x. 35/36 33/36 3/36 6/36 /36 5/36 /36 6/36 3/36 / (e) Podemos calcular a probabilidade pedida através da função de probabilidade como P(X > 6) P(X 7 ou X 8 ou X 9 ou X ou X ou X ) P(X 7) + P(X 8) + P(X 9) + P(X ) + P(X ) + P(X ) p X (7) + p X (8) + p X (9) + p X () + p X () + p X () ou através da função de distribuição como. P(X > 6) P(X 6) F X (6) 5/36 /36 Exemplo 3.5 Um homem possui quatro chaves em seu bolso. Como está escuro, ele não consegue ver qual a chave correta para abrir a porta de sua casa, que se encontra trancada. Ele testa uma chave de cada vez até encontrar a correta. (a) Defina um espaço amostral para esse experimento. Defina a variável aleatória X número de chaves experimentadas até conseguir abrir a porta (inclusive a chave correta). (b) Encontre Im(X). (c) Encontre a função de probabilidade de X e esboce o seu gráfico. (d) Encontre a função de distribuição de X e esboce o seu gráfico. (e) Qual é a probabilidade de o homem experimentar no máximo duas chaves para abrir a porta? (a) Vamos representar por C o sorteio da chave correta, aquela que abre a porta, e por E o sorteio de uma chave errada, uma entre as 3 chaves que não abrem a porta. Então podemos representar o espaço amostral por: Ω {C, EC, EEC, EEEC}

73 3.. FUNÇÃO DE PROBABILIDADE 69 em que {C} representa situação em que o homem acertou a chave de primeira, {EC} em que errou na primeira tentativa e acertou na segunda, {EEC} em que errou as duas primeiras tentativas e acertou na terceira e {EEEC} a situação em que ele testou todas as chaves até achar aquela que abre a porta. (b) Veja que o homem pode experimentar de a 4 chaves antes de abrir a porta. Logo Im(X) {,, 3, 4}. (c) P(X ) P(C) /4. P(X ) P(EC) 3/4 /3 /4. P(X 3) P(EEC) 3/4 /3 / /4. P(X 4) P(EEEC) 3/4 /3 / /4. Logo, a função de probabilidade de X e o seu gráfico são definidos por: p X (x) { /4, se x,, 3, 4, caso contrário. /4 ou x 3 4 P(X x) /4 /4 /4 /4 3 4 (d) F X (x), se x < ; /4, se x < ; /, se x < 3; 3/4, se 3 x < 4;, se x 4. 3/4 / /4 3 4 (e) P(X ) P(X ) + P(X ) /4 + /4 /. Exemplo 3.6 Suponha agora que o homem com as 4 chaves não tenha controle das chaves que já foram experimentadas e por isso a cada nova tentativa ele escolhe, de forma aleatória, uma entre as quatro chaves. (a) Defina um espaço amostral para esse experimento. Defina a variável aleatória X número de chaves experimentadas até conseguir abrir a porta (inclusive a chave correta). (b) Encontre Im(X). (c) Encontre a função de probabilidade de X e esboce o seu gráfico. (d) Qual a probabilidade de o homem experimentar no máximo duas chaves para abrir a porta?

74 7 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS (a) Representando por C a seleção da chave correta e E a seleção de uma chave errada, Ω {C, EC, EEC, EEEC, EEEEC, EEEEEC,...} (b) Veja que, diferente do Exemplo 3.5, o homem pode experimentar mais de 4 chaves antes de encontrar a correta. Para esse exemplo temos Im(X) {,, 3, 4, 5, 6,...} N; esse é um exemplo de variável aleatória discreta com imagem infinita. Podemos dizer que X é discreta, uma vez que Im(X), apesar de infinito, é um conjunto enumerável. (c) Como a Im(X) é um conjunto infinito não vamos encontrar o valor de p X (x) para cada x Im(X). Vamos tentar encontrar uma expressão geral que represente p X. Para isso vamos começar calculando p X em alguns pontos. Note que, independente do número de chaves já testadas, em cada nova tentativa a probabilidade de o homem pegar a chave certa é /4 e de pegar uma chave errada é 3/4. P(X ) P(C) /4. P(X ) P(EC) 3/4 /4 3/4. P(X 3) P(EEC) 3/4 3/4 /4 3 /4 3. P(X 4) P(EEEC) 3/4 3/4 3/4 /4 3 3 /4 4. P(X 5) P(EEEEC) 3/4 3/4 3/4 3/4 /4 3 4 /4 5. De forma geral, P(X x) 3/4 3/4 3/4... 3/4 /4 3 x /4 x. Logo, a função de probabilidade de X e o seu gráfico são definidos por: 3 x p X (x) 4 x, se x,, 3,..., caso contrário. /4 3/4 3 / / / (d) P(X ) P(X ) + P(X ) /4 + 3/4 7/6. Exemplo 3.7 Verifique que são válidas as propriedades de uma função de probabilidade p X para a variável aleatória X definida no Exemplo 3.6. No Exemplo 3.6 encontramos 3 x p X (x) 4 x ( ) 3 x, se x,, 3, , caso contrário. Queremos mostrar que p X (x) para todo x R e que x Im(X) p X (x).

75 3.. FUNÇÃO DE PROBABILIDADE 7 Como a função exponencial de qualquer base é sempre positiva, resulta que p X (x) para todo x R. x Im(X) p X (x) x 3 x 4 x x 3 ( ) 3 x 4 3 x ( ) 3 x 4 }{{} 3 (4.4) Exemplo 3.8 Suponha que um dado equilibrado seja lançado quatro vezes. Seja X o número de lançamentos com resultado 6. (a) Defina um espaço amostral para o experimento, especificando seu número de elementos. (b) Encontre Im(X). (c) Encontre a função de probabilidade de X. (d) Verifique as propriedades de p X. (a) Aqui é importante notar que a ordem em que os dados são lançados importa. Sendo assim, podemos definir o espaço amostral por: (,,, ), (,,, ),... (,,, 6), (,,, ), (,,, ),... (,,, 6), Ω. (5, 6, 3, ), (5, 6, 3, ),... (5, 6, 3, 6), (5, 6, 4, ), (5, 6, 4, ),... (5, 6, 4, 6),. (6, 6, 5, ), (6, 6, 5, ),... (6, 6, 5, 6).(6, 6, 6, ), (6, 6, 6, ),... (6, 6, 6, 6). Para cada lançamento, há 6 resultados possíveis; pelo Princípio Fundamental da Multiplicação, conclui-se que o número de elementos de Ω é (b) Como são 4 lançamentos, os valores de X vão de X((,,, ) até 4 X(6, 6, 6, 6), ou seja, Im(X) {,,, 3, 4}. (c) Queremos encontrar P(X x) para todo x Im(X). Como estamos supondo que o dado é equilibrado, cada elemento ω Ω tem a mesma probabilidade de ocorrer, ou seja, P(ω) /96 para qualquer ω Ω. Além disso, em cada lançamento, a probabilidade de sair 6 é /6 e a probabilidade de sair outra face qualquer, evento que representaremos por 6 c, é 5/6. Vamos analisar cada valor de x separadamente. P(X ) P(nenhuma face 6 nos 4 lançamentos) Note que o evento {nenhuma face 6 nos 4 lançamentos} tem elementos. P(X 4) P(face 6 nos 4 lançamentos) O evento {face 6 nos 4 lançamentos} tem apenas um elemento, que é (6, 6, 6, 6). P(X ) P( face 6 e 3 faces diferentes de 6 nos 4 lançamentos). O evento { face 6 e 3 faces diferentes de 6} corresponde a uma única ocorrência da face 6 e essa única ocorrência pode ter sido em qualquer dos quatro lançamentos. Por exemplo, podemos ter (6, 6 c, 6 c, 6 c ) com probabilidade Não importa em qual lançamento saiu 6; a probabilidade será a mesma. Logo, P(X )

76 7 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS P(X ) P( faces 6 e faces diferentes de 6 nos 4 lançamentos). Nesse caso, o evento corresponde a dois lançamentos com face 6 e os outros dois com faces diferentes de 6. Por exemplo, podemos ter (6, 6, 6 c, 6 c ) com probabilidade Como antes, não importa em quais lançamentos saiu 6; a probabilidade será a mesma. Mas podemos escolher de ( 4 ) 6 maneiras diferentes quais os dois lançamentos que resultaram em 6 (e os outros automaticamente terão uma face diferente de 6). Logo, P(X ) De maneira análoga, concluímos que P(X 3) P(3 faces 6 e faces diferentes de 6 nos 4 lançamentos) Assim, a função de distribuição de X é x 3 4 p X (x) 65/96 5/96 5/96 /96 /96 (d) p X (x) para todo x R 4 p X (x) x 3. Funções de variáveis aleatórias discretas Dada uma variável aleatória discreta X, podemos obter outras variáveis aleatórias discretas através de funções de X e, da mesma forma que calculamos a função de probabilidade de X, podemos calcular a função de probabilidade dessas novas variáveis. Tenha claro que, se X é variável aleatória, então qualquer função real de X também será variável aleatória. Isto é, se X é variável aleatória, então Y g(x), com g função real, também é variável aleatória. Y continua sendo uma função do espaço amostral na reta, definida pela composição da função g com a função X: e X : Ω R ω X(ω) Y g(x( )) : Ω R R ω X(ω) g(x(ω)). Exemplo 3.9 Considere a variável aleatória X cuja função de probabilidade é dada na tabela abaixo: Defina Y g(x) X. x p X (x),,,,3,, (a) Encontre Im(Y ).

77 3.. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS DISCRETAS 73 (b) Encontre a função de probabilidade de Y, isto é, p Y. (a) Temos que Im(X) {,,,,, 3} e sempre que X assumir o valor x Im(X), a v.a. Y irá assumir o valor x. Assim, Im(Y ) {4,,, 9}. (b) Para calcular as probabilidades desses valores, temos que identificar os valores de X que originaram cada um deles. P (Y ) P (X ), P (Y ) P (X ) + P (X ), 5 P (Y 4) P (X ) + P (X ), P (Y 9) P (X 3), Podemos resumir essa função de probabilidade como y 4 9 p Y (y),,5,, Proposição 3. Função de variável aleatória discreta Seja X uma variável aleatória discreta com função de probabilidade p X. Se Y g(x), com g uma função real qualquer, então, (i) Y é variável aleatória discreta; (ii) a função de probabilidade de Y é calculada como p Y (y) P(Y y) p X (x) {x g(x)y} Demonstração: (i) Para mostrar que Y é variável aleatória discreta basta mostrar que Im(Y ) é um conjunto finito ou enumerável. Como X é v.a. discreta sabemos que Im(X) é um conjunto finito ou enumerável. Como Im(Y ) g(im(x)) {y R x Im(X) com y g(x)} podemos afirmar que a cardinalidade de Im(X) é sempre maior ou igual à cardinalidade de Im(Y ), pois cada elemento de Im(Y ) é associado a um ou mais elementos em Im(X). Então, como Im(X) é um conjunto finito ou enumerável, Im(Y ) só pode ser um conjunto finito ou enumerável. Com isso concluímos que Y é v.a. discreta. (ii) p Y (y) P(Y y) P(g(X) y) p X (x). {x g(x)y} Exemplo 3. No Exemplo 3.8 definimos X número de faces 6 em 4 lançamentos de um dado. Defina agora Y número de faces diferentes de 6 em 4 lançamentos de um dado. (a) Escreva Y como função de X.

78 74 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS (b) Defina Im(Y ) a partir de Im(X). (c) Encontre a função de probabilidade de Y. (a) Em quatro lançamentos do dado, o número de resultados diferentes de 6 é o total de lançamentos, 4, menos o número de resultados iguais a 6; logo, Y 4 X. (b) Vimos no Exemplo 3.8 que Im(X) {,,, 3, 4}. Im(Y ) {4, 3,,, }. (c) Também no Exemplo 3.8 encontramos a função de probabilidade de X: Quando X x, resulta Y 4 x, logo, x 3 4 p X (x) 65/96 5/96 5/96 /96 /96 P(Y y) P(4 X y) P(X 4 y). Então, P(Y ) P(X 4), P(Y ) P(X 3), P(Y ) P(X ), P(Y 3) P(X ) e P(Y 4) P(X ). Logo, a função de probabilidade de Y é y 3 4 p Y (y) /96 /96 5/96 5/96 65/96 Exemplo 3. Consideremos novamente o Exemplo 3.6, em que um homem com 4 chaves não tem controle das chaves que já foram experimentadas e por isso a cada nova tentativa ele escolhe, de forma aleatória, uma entre as quatro chaves. Naquele exemplo, definimos X número de chaves testadas até abrir a porta. Considerando as mesmas condições do experimento, defina agora Y número de chaves erradas até abrir a porta. (a) Escreva Y como função de X. (b) Defina Im(Y ) a partir de Im(X). (c) Encontre a função de probabilidade de Y. (d) Verifique as propriedades da função de probabilidade em p Y. (a) Note que a última chave testada será sempre a chave correta e todas as anteriores serão erradas. Dessa forma, Y X. (b) No Exemplo 3.6 encontramos Im(X) {,, 3, 4,...}. Então, Im(Y ) {,,, 3,...}. (c) No Exemplo 3.6 encontramos p X (x) { 3 x 4 x, se x,, 3, 4,..., caso contrário. Como p Y (y) P(Y y) P(X y) P(X y + ) p X (y + ), obtemos: { { 3 y+, se y +,, 3, 4,... 3 y, se y,,, 3,... p Y (y) p X (y + ) 4 y+ 4 y+, caso contrário., caso contrário. (d) Claramente p Y (y) para todo y R. 3 y p Y (y) 4 y+ ( ) 3 y y Im(Y ) y y y ( ) 3 y ( ) 4 }{{} 4 3/

79 3.3. ESPERANÇA DE VARIÁVEIS ALEATÓRIAS DISCRETAS Esperança de variáveis aleatórias discretas No estudo de variáveis aleatórias e suas distribuições de probabilidades, associamos números aos pontos do espaço amostral, ou seja, o resultado é sempre uma variável quantitativa (note que os resultados cara e coroa não definem uma variável aleatória; para tal, temos que associar números, e, por exemplo, a esses resultados). Sendo assim, faz sentido perguntar qual é o valor médio da variável aleatória X? A ideia de valor médio diz respeito à média dos valores da variável aleatória se o experimento fosse realizado infinitas vezes. Suponha que X seja variável aleatória discreta com Im(X) {x, x, x 3,...}. Suponha também que, ao realizar o experimento n vezes, a variável X assuma os seguintes valores na seguinte ordem: x, x 4, x 3, x 4, x, x, x,... Então o valor médio de X nas n realizações do experimento é: x + x 4 + x 3 + x 4 + x + x + x... n n x + n x + n 3 x 3 + n 4 x 4..., n onde n i representa o número de vezes que a variável X assumiu o valor x i. Chamamos de esperança o limite do valor médio de X quando n. Quando n, a frequência de vezes que X assume o valor x i, definida por n i n, converge para P(X x i). Assim, podemos escrever: n x + n x + n 3 x 3 + n 4 x 4... lim x P(X x ) + x P(X x ) + x 3 P(X x 3 ) +... n n Definição 3. Esperança de Variável Aleatória Discreta Seja X uma variável aleatória discreta. A esperança ou média da variável aleatória X é definida como E (X) xp X (x) x P(X x), (3.) desde que o somatório convirja. x Im(X) x Im(X) Podemos ver, então, que a esperança de X é uma média dos seus valores, ponderada pelas respectivas probabilidades. Quando Im(X) é um conjunto finito, E(X) é definida por um somatório com um número finito de parcelas que, portanto, sempre converge. Logo, E(X) existe e E(X) R. Mas quando Im(X) é um conjunto infinito e enumerável o somatório que define E(X) tem um número infinito de parcelas, ou seja, trata-se de uma série. Esta série pode convergir para um número real ou não. Sempre que essa série convergir para um número real, dizemos que E(X) existe e E(X) R. Caso contrário, dizemos que E(X) não existe. Assim, pode existir variável aleatória que não tem esperança. Um resultado simples e imediato é a esperança de uma constante, ou seja, a esperança de uma variável aleatória discreta que pode assumir um único valor com probabilidade, também chamada de variável aleatória degenerada. Proposição 3.3 Seja X uma variável aleatória tal que P(X c). Então E(X) c, ou seja, E(c) c. Demonstração: Como P(X c), temos Im(X) {c}. Então, E(X) c P(X c) c.

80 76 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS Exemplo 3. Vendas e comissões Em determinado setor de uma loja de departamentos, o número de produtos vendidos em um dia pelos funcionários é uma variável aleatória P com a seguinte distribuição de probabilidades (esses números foram obtidos dos resultados de vários anos de estudo): Número de produtos Probabilidade de venda,,4,,,,5,5 Cada vendedor recebe comissões de venda, distribuídas da seguinte forma: se ele vende até dois produtos em um dia, ele ganha uma comissão de R$, por produto vendido; a partir da terceira venda, a comissão passa para R$5, por produto. Qual é o número médio de produtos vendidos por cada vendedor em um dia de trabalho e qual a comissão diária média de cada um deles? O número médio de produtos vendidos em um dia por um funcionário é E(P). Veja que Im(P) {,,, 3, 4, 5, 6}, então E(P), +, 4 +, + 3, + 4, + 5, 5 + 6, 5, 5 ou seja, o número médio de produtos vendidos em um dia por cada funcionário é,5 unidades. Para encontrar a comissão média, precisamos, primeiro, definir a variável aleatória C comissão diária do funcionário e depois calcular E(C). Veja que C pode ser definida como função de P. A relação entre C e P, assim como as probabilidades associadas a cada valor dessas duas variáveis aleatórias, estão apresentadas na tabela a seguir. Número de produtos P Comissão C 7 7 Probabilidade de venda,,4,,,,5,5 Dessa forma vemos que Im(C) {,,, 7,, 7, } e também conhecemos a probabilidade de C assumir cada um desses valores. Podemos então calcular E(C): E(C), +, 4 +, + 7, +, + 7, 5 +, 5 46, 5 ou seja, a comissão média diária de cada vendedor é de R$ 46,5. Note que a esperança de X tem a mesma unidade de medida dos valores de X. Para o Exemplo 3. acima a unidade de medida da variável aleatória P é unidades de produtos, logo E(P) também terá essa mesma unidade de medida. Para a variável aleatória C, sua unidade de medida é reais, assim como a unidade de medida de E(C). Exemplo 3.3 Em um jogo de dados, Cláudio paga R$, para Lúcio e lança 3 dados. Se sair a face em um dos dados, Cláudio ganha R$, e sai do jogo sem prejuízo ou lucro. Se sair a face em dois dos dados, Cláudio ganha R$ 5,. Se sair a face nos três dados, Cláudio ganha R$8,. Se não sair face em qualquer dos dados, o ganho de Cláudio é nulo. Calcule o ganho médio de Cláudio no jogo. Você acha que vale a pena participar desse jogo? Se a variável aleatória X ganho do Cláudio, Im(X) {,, 3, 6}. Vamos, agora, calcular

81 3.3. ESPERANÇA DE VARIÁVEIS ALEATÓRIAS DISCRETAS 77 p X P(X x) para todo x Im(X). p X ( ) P(X ) P(não sair a face ) 5/6 5/6 5/6 5/6. p X () P(X ) P(sair a face em um dado) 3 /6 5/6 5/6 75/6. p X (3) P(X 3) P(sair a face em dois dados) 3 /6 /6 5/6 5/6. p X (6) P(X 6) P(sair a face nos três dados) /6 /6 /6 /6. Note que p X (x). x Im(X) E(X) ,. 6 Ou seja, em média Cláudio perde R$ 9, com o jogo. Isso significa que, se Cláudio tivesse bastante dinheiro para jogar muitas partidas seguidas desse jogo, ao final ele teria um prejuízo em torno de R$9,. Não vale a pena participar do jogo. Exemplo 3.4 Voltando ao Exemplo 3.8, considere X número de lançamentos cujo resultado foi 6 em quatro lançamentos de um dado. Calcule a esperança de X, ou seja, o número médio de faces iguais a 6 em quatro lançamentos de um dado. No Exemplo 3.8 obtivemos a distribuição de probabilidade de X: x 3 4 p X (x) 65/96 5/96 5/96 /96 /96 Então E(X) , Ou seja, o número médio de faces iguais a 6 em quatro lançamentos de um dado é,6636 face, menor que face. Exemplo 3.5 Calcule E(X) para X número de chaves testadas até conseguir abrir a porta, definida nos Exemplos 3.5 e 3.6. Vamos começar com X definida no Exemplo 3.5, onde X número de chaves testadas até abrir a porta, considerando que a cada nova tentativa as chaves já testadas são descartadas. Para esse caso encontramos Im(X) {,, 3, 4} e p X (x) /4 para todo x Im(X). Então, E(X) , 5. Ou seja, se as chaves já testadas forem descartadas nas próximas tentativas, em média o homem precisa de,5 tentativas para abrir a porta. Vejamos agora o caso do Exemplo 3.6, onde X número de chaves testadas até abrir a porta, considerando que a cada nova tentativa qualquer uma das quatro chaves pode ser selecionada com

82 78 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS a mesma probabilidade. Para esse caso encontramos Im(X) {,, 3, 4, 5, 6,...} e p X (x) 3x 4 para x todo x Im(X). Então, E(X) x Im(X) xp X (x) x x 3x 4 x x (x + ) 3x 4 x x 3 x 4 x } {{ } S + x (x ) 3x 4 x } {{ } S Primeiro veja que S, pois S x Im(X) p X (x) e pelas propriedades da função de probabilidade sabemos que essa soma tem que ser. Vamos agora calcular S. Para isso faremos a seguinte mudança de variável: y x. ) (x ) 3x 4 x y ( 3y 4 y y 3y 4 y+ y 3y 4 y+ 3 y 3y 4 4 y 3 4 E(X). x y Assim chegamos ao resultado: y E(X) S + S E(X) E(X) 3 4 E(X) E(X) E(X) 4. 4 Ou seja, se as chaves já testadas não forem descartadas nas próximas tentativas, em média o homem precisa de 4 tentativas para abrir a porta. Para as variáveis aleatórias definidas nos Exemplos 3.5, 3.6, 3.8 e 3.3 veja na Figura 3. os gráficos das funções de probabilidade e suas esperanças, já calculadas para cada variável aleatória. y y. E(X) 3 4 (a) Exemplo 3.5 E(X) (b) Exemplo E(X) E(X) 3 4 (c) Exemplo (d) Exemplo 3.3 Figura 3. Gráfico de algumas funções de probabilidade e sua esperança. Observando os gráficos da Figura 3. podemos ver que a esperança de uma variável aleatória X é o centro de gravidade da distribuição de probabilidades. Sendo assim, a esperança é uma medida de posição. Com isso temos o resultado intuitivo de que E(X) está sempre entre o menor e o maior valor do conjunto Im(X), resultado apresentado na Proposição 3.4 a seguir.

83 3.3. ESPERANÇA DE VARIÁVEIS ALEATÓRIAS DISCRETAS 79 Proposição 3.4 Seja X variável aleatória discreta, x min min{im(x)} e x max max{im(x)}. Se E(X) R então, x min E(X) x max. Demonstração: Primeiro vamos mostrar que x min E(X). E(X) xp X (x) x Im(X) x Im(X) x min p X (x) x min x Im(X) } {{ } p X (x) x min. Para mostrar que E(X) x max faremos um desenvolvimento análogo. E(X) xp X (x) x max p X (x) x max p X (x) x max. x Im(X) x Im(X) x Im(X) } {{ } Já vimos que é possível obter uma nova variável aleatória Y a partir de uma função de uma variável X, Y g(x). Também vimos que podemos obter a função de probabilidade de Y a partir da função de probabilidade de X. Sendo assim, podemos calcular a esperança de Y. O interessante é que podemos encontrar a esperança de Y sem precisar encontrar a sua função de probabilidade, conforme apresentado na Proposição 3.5 a seguir. O cálculo da esperança de Y pode ser feito somente com o conhecimento da função g que relaciona X e Y e da função de probabilidade de X, p X. Proposição 3.5 Esperança de funções de variável aleatória discreta Seja X uma variável aleatória discreta com função de probabilidade p X e Y g(x). Então, E (Y ) E (g (X)) g (x) p X (x), desde que o somatório convirja. x Im(X) Demonstração: E (Y ) yp Y (y) y P(Y y) y P(g(X) y) y Im(Y ) y Im(Y ) y {x g(x)y} y Im(Y ) P(X x) g(x)p X (x) y Im(Y ) {x g(x)y} x Im(X) y Im(Y ) y Im(Y ) {x g(x)y} g(x)p X (x). y P(X x) Exemplo 3.6 Considere as variáveis aleatórias X e Y X definidas no Exemplo 3.9. Encontre E(Y ) a partir de p Y e a partir de p X, usando o resultado da Proposição 3.5.

84 8 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS No Exemplo 3.9 foi dada p X e encontramos p Y, apresentadas novamente a seguir. x p X (x),,,,3,, y 4 9 p Y (y),,5,, Primeiro vamos encontrar E(Y ) a partir de p Y : E(Y ) yp Y (y), +, 5 + 4, + 9,,. y Im(Y ) Agora, usando a Proposição 3.5, temos: E(Y ) E(X ) x p X (x) x Im(X) ( ), + ( ), +, +, 3 +, + 3,,. Exemplo 3.7 Seja X variável aleatória discreta com função de distribuição definida por:, x < /8, x < F X (x) 5/8, x < 7/8, x < 4, x 4. Calcule E(X), E(X ), E(5 X) e E( X ). Já vimos que a Im(X) é o conjunto dos pontos de descontinuidade e p X (x) é o tamanho do salto. Então, Im(X) {,,, 4} e sua função de probabilidade p X (x) em cada x Im(X) é dada na tabela a seguir: x - 4 p X (x) /8 / /4 /8 Assim, E(X) E(X ) E(5 X) x Im(X) x Im(X) x Im(X) xp X (x) ( ) x p X (x) ( ) (5 x)p X (x) (5 ( )) 8 + (5 ) + (5 ) 4 + (5 4) E( X ) x p X (x) x Im(X)

85 3.3. ESPERANÇA DE VARIÁVEIS ALEATÓRIAS DISCRETAS 8 Proposição 3.6 Propriedade de Linearidade da Esperança Seja X uma variável aleatória discreta tal que E(X) R. Sejam a, b R. Então, E(aX + b) a E(X) + b. Demonstração: E(aX + b) x Im(X) x Im(X) x Im(X) a x Im(X) (ax + b)p X (x) (axp X (x) + bp X (x)) axp X (x) + x Im(X) xp X (x) +b } {{ } E(X) x Im(X) bp X (x) } {{ } p X (x) a E(X) + b. Exemplo 3.8 No Exemplo 3.6 definimos X número de chaves testadas até abrir a porta, considerando que a cada nova tentativa qualquer uma das quatro chaves pode ser selecionada com mesma probabilidade. No Exemplo 3.5 encontramos E(X) 4. Considere Y número de chaves erradas até abrir a porta definida no Exemplo 3.. Calcule Y de duas maneiras diferentes, primeiro usando p Y encontrada no Exemplo 3. e depois usando o resultado da Proposição 3.6. No Exemplo 3. encontramos p Y (y) { 3 y 4 y+, se y,,, 3,..., caso contrário. E(Y ) y Im(Y ) yp Y (y) (y + ) 3y y 4 y+ } {{ } S y y 3y 3 y 4 y+. y }{{} S 4 y+ (y + ) 3y 4 y+ y Note que S y 3y 4 y+ y Im(Y ) p Y (y). Para calcular S, faremos a troca de variável z y +. S (y + ) 3y 4 y+ z 3z 4 z 4 z 3z 3 4 z+ 4 z 3z 3 4 z+ 4 E(Y ). 3 y z z z }{{} E(Y ) Assim temos, E(Y ) 4 3 E(Y ) E(Y ) E(Y ) 3. 3 Chegamos no mesmo resultado, de forma bem mais simples, usando o resultado da Proposição 3.6. Já encontramos E(X) 4 no Exemplo 3.5 e Y X no Exemplo 3.. Logo E(Y ) E(X ) E(X) 4 3.

86 8 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS 3.4 Variância e desvio-padrão de variável aleatória Já vimos que a esperança de uma variável aleatória X é o centro de gravidade da distribuição de probabilidades, logo uma medida de posição. No entanto, é possível que duas variáveis bem diferentes tenham a mesma esperança, o que nos mostra que a esperança não é uma medida que descreva completamente a variável aleatória. Exemplo 3.9 Considere X e X variáveis aleatórias discretas com funções de probabilidade p X e p X definidas por: p X (x), 5, x,, 8, 9,, x 3, 7, 5, x 4, 6, 3, x 5, caso contrário;,, x 3, 7, 3, x 4, 6 p X (x),, x 5, caso contrário. (a) Mostre que E(X ) E(X ). (b) Esboce e compare os gráficos de p X e p X. O que você pode perceber de diferente entre essas duas variáveis? (a) Ambas as esperanças são iguais à 5: E(X ), 5+, 5+3, +4, 5+5, 3+6, 5+7, +8, 5+9, 5 5. E(X ) 3, + 4, 3 + 5, + 6, 3 + 7, 5. (b) A seguir estão os gráficos das funções de probabilidade de X e X. p X p X E(X ) E(X ) Uma diferença que pode ser notada de imediato é a dispersão dos valores de cada variável aleatória. Veja que X tem valores mais dispersos em torno da média que X, isto é, mais espalhados. Ou seja, os valores de Im(X ) estão mais concentrados em torno da média do que os valores de Im(X ). Existem várias maneiras de se medir a dispersão de uma variável aleatória. Vamos definir, inicialmente uma dessas medidas de dispersão, chamada de variância.

87 3.4. VARIÂNCIA E DESVIO-PADRÃO DE VARIÁVEL ALEATÓRIA 83 Definição 3.3 Variância de Variável Aleatória Discreta Seja X variável aleatória discreta tal que E(X) R. A variância de X é definida como Var (X) E [(X E (X)) ] (x E (X)) p X (x), (3.) desde que o somatório convirja. x Im(X) Veja que Var(X) é definida como E(g(X)), com g(x) (X E(X)). O termo X E(X) é chamado de desvio em torno da média. Sendo assim, a variância é a média dos desvios quadráticos em torno da média E(X). Veja também que, para existir Var(X), é necessário que exista E(X), isto é, que E(X) R. Além disso é necessário que o somatório (x E (X)) p X (x) convirja. x Im(X) A Proposição 3.7 a seguir apresenta uma expressão alternativa para o cálculo da variância, que em geral é mais usada do que a própria expressão apresentada na Definição 3.. Proposição 3.7 Seja X uma variável aleatória discreta tal que E(X) R e E(X ) R. Então, Var(X) R e Var(X) E(X ) (E(X)) Demonstração: Var (X) x Im(X) x Im(X) x Im(X) x Im(X) x Im(X) (x E (X)) p X (x) ( x x E(X) + (E(X)) ) p X (x) ( ) x p X (x) x E(X)p X (x) + (E(X)) p X (x) x p X (x) x Im(X) x p X (x) E(X) } {{ } E(X ) x E(X)p X (x) + x Im(X) } {{ } E(X) E(X ) E(X) E(X) + (E(X)) E(X ) (E(X)). x Im(X) xp X (x) + (E(X)) (E(X)) p X (x) x Im(X) p X (x) } {{ } O resultado da Proposição 3.7 pode ser lido, de maneira informal, como a variância é a esperança do quadrado menos o quadrado da esperança. Da definição de variância, resulta que sua unidade de medida é o quadrado da unidade de medida da variável em estudo, sendo assim, uma unidade sem significado físico. Para se ter uma

88 84 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS medida de dispersão na mesma unidade dos dados, define-se o desvio-padrão como a raiz quadrada da variância. Definição 3.4 Desvio-padrão O desvio-padrão de uma variável aleatória X é definido como a raiz quadrada de sua variância: DP (X) Var (X) Exemplo 3. Calcule Var(X ), DP(X ), Var(X ) e DP(X ) para as variáveis definidas no Exemplo 3.9 e comente os resultados. Primeiro X : Agora X : E(X ), 5 +, 5 + 3, + 4, 5 + 5, 3 + 6, 5 + 7, + 8, 5 + 9, 5 8, 6. Var(X ) E(X ) E(X ) 8, 6 5 3, 6. DP(X ) Var(X ) 3, 6, 9. E(X ) 3, + 4, 3 + 5, + 6, 3 + 7, 6, 4. Var(X ) E(X ) E(X ) 6, 4 5, 4. DP(X ) Var(X ), 4,. Como já comentado no Exemplo 3.9, a dispersão de X é maior que a dispersão de X, uma vez que Var(X ) > Var(X ), ou DP(X ) > DP(X ). Já vimos que se X é variável aleatória degenerada, isto é, X é tal que P(X c), então E(X) c (Proposição 3.3). Calculemos, agora, sua variância. Proposição 3.8 Seja X uma variável aleatória tal que P(X c). Então Var(X), ou seja, Var(c). Demonstração: Note que Y X também é variável aleatória degenerada, pois P(Y c ). Logo, E(Y ) E(X ) c e Var(X) E(X ) E(X) c c. Vejamos mais algumas propriedades da variância e do desvio-padrão, para qualquer variável aleatória.

89 3.4. VARIÂNCIA E DESVIO-PADRÃO DE VARIÁVEL ALEATÓRIA 85 Proposição 3.9 Propriedades da Variância e do Desvio-padrão Seja X variável aleatória tal que Var(X) R. Então valem as seguintes propriedades: (i) Var(X) (ii) DP(X) (iii) Var(aX + b) a Var(X) (iv) DP(aX + b) a DP(X) Demonstração: (i) Veja que Var(X) E(g(X)), com g(x) (X E(X)). Veja também que g(x) é variável aleatória não negativa, isto é, x min min{im(g(x))}. Logo, pela propriedade apresentada na Proposição 3.4, podemos afirmar que E(g(X)) x min. Então, Var(X). (ii) Como Var(X), DP(X) Var(X). (iii) Var(aX + b) E ((ax + b E(aX + b)) ) ( (ax E + b a E(X) b ) ) E ((ax a E(X)) ) E (a (X E(X)) ) a E ((X E(X)) ) a Var(X). (iv) DP(aX + b) Var(aX + b) a Var(X) a Var(X) a DP(X). Exemplo 3. Considere a v.a. Y com função de probabilidade dada por y p Y (y), 5, 3,,, 7, 5, 3 e seja Z Y 3. Vamos calcular a esperança e a variância de Y e Z. E(Y ) 3, 5, 3 +, +, + 5, 7 + 8, 5 + 9, 3, 7 E(Y ) 9, 5 +, 3 +, + 4, + 5, , 5 + 8, 3, 33 Var(Y ), 33, 7, 3 E(Z) E(Y ) 3, 7 3, 66 Var(Z) Var(Y ) 4, 44

90 86 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS Exemplo 3. Um lojista mantém extensos registros das vendas diárias de certo aparelho. O quadro a seguir dá a distribuição de probabilidades do número de aparelhos vendidos em uma semana. Se o lucro por unidade vendida é de R$5,, qual o lucro esperado em uma semana? Qual é o desvio-padrão do lucro? x número de aparelhos p X (x),,,,3,, Seja X o número de aparelhos vendidos. Vamos calcular a média e o desvio-padrão de X, isto é, do número de aparelhos vendidos. E (X), +, +, + 3, 3 + 4, + 5,, 7 aparelhos ( E X ), +, +, + 3, 3 + 4, + 5,, aparelhos Var (X), (, 7), 9 aparelhos DP (X), 76 aparelhos Seja L o lucro semanal. Note que L 5X e, portanto, E (L) 5 E (X) R$35, DP (L) 5 DP(X) R$85, 94 Exemplo 3.3 Seja X a variável aleatória definida no Exemplo 3.7, isto é, X é tal que F X (x), x < /8, x < 5/8, x < 7/8, x < 4, x 4. No Exemplo 3.7 calculamos E(X), E(X ), E(5 X) e E( X ). Agora calcule Var(X), Var(X ), Var(5 X) e Var( X ). Os resultados encontrados no Exemplo 3.7 foram: E(X) 5 4, E(X ) 4, E(5 X) 5 e E( X ) 7 4.

91 3.4. VARIÂNCIA E DESVIO-PADRÃO DE VARIÁVEL ALEATÓRIA 87 Vamos calcular o que se pede. Var(X) E(X ) (E(X)) 4 Var(X ) E(X 4 ) (E(X )) ( ) x Im(X) 39 6 x 4 p X (x) 4 ( ( ) ) 6 8 Var(5 X) 4 Var(X) Var( X ) E( X ) (E( X )) E(X ) (E( X )) 4 ( 3 8 ) 6 3 ( ) Exemplo 3.4 Seja uma v.a. X com função de probabilidade dada na tabela a seguir: x p X (x) p p p p p (a) Encontre o valor de p para que p X (x) seja, de fato, uma função de probabilidade. (b) Calcule P (X 4) e P (X < 3). (c) Calcule P ( X 3 ). (d) Calcule E(X) e Var(X). (a) Como x p X (x), temos que ter: 3p + p 3p + p p ± 4 + ± 4 p ou 6 6 p 3 Como p é uma probabilidade, temos que ter p. Logo, o valor correto é p 3. (b) P(X 4) P(X 4) + P(X 5) p + p Pr(X < 3) P(X ) + P(X ) p 9. (c) Aqui temos que notar o seguinte fato sobre a função módulo, ilustrado na Figura 3.. Valores y x no eixo vertical menores que k (abaixo da linha horizontal sólida) correspondem a valores de x no intervalo ( k, k) e valores y no eixo vertical maiores que k correspondem ou a x > k ou a x < k. Mais precisamente, x k x k ou x k x k k x k

92 88 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS x k k k Figura 3. Função módulo Usando esses fatos, temos que P ( X 3 ) P ({X 3 } {X 3 }) P (X 3 ) + P (X 3 ) P (X ) + P (X 5) P (X ) + P(X 5) p 9 (d) Temos que E(X) p + p + 3 p + 4 p + 5 p , E(X ) p + p + 3 p + 4 p + 5 p Var(X) 35 ( ) Exemplo 3.5 Jogo de dados Um jogador A paga R$5, a B e lança um dado. Se sair face 3, ganha R$,. Se sair face 4, 5, ou 6, perde. Se sair face ou, tem o direito de jogar novamente. Desta vez, lança dois dados. Se saírem duas faces 6, ganha R$5,. Se sair uma face 6, recebe o dinheiro de volta. Nos demais casos, perde. Seja L o lucro líquido do jogador A nesse jogo. Calcule a função de probabilidade de L e o lucro esperado do jogador A. Sabemos que o dado é honesto e que os lançamentos são independentes. O diagrama de para o espaço amostral desse experimento está apresentado na Figura 3.3. Para calcular a probabilidade dos eventos associados aos lançamentos dos dois dados (parte inferior da árvore), usamos o fato de que a probabilidade da interseção de eventos independentes é o produto das probabilidades.

93 3.4. VARIÂNCIA E DESVIO-PADRÃO DE VARIÁVEL ALEATÓRIA {3}, /6 {4, 5, 6}, / {, }, / {nenhum 6}, 5/36 {apenas um 6}, /36 {duas faces 6}, / Figura 3.3 Diagrama para o espaço amostral do Exemplo 3.5 No cálculo da probabilidade de uma face 6 temos: (/6) (5/6). Multiplicamos por, porque a face 6 pode estar em qualquer um dos dois dados. Vemos que os valores do lucro L são: -5; ; 5; 45 e a função de probabilidade de L é Lucro l P(L l) Assim, E(L) , 74. 6

94 9 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS

95 Capítulo 4 Algumas Distribuições Discretas 4. Introdução Considere as seguintes situações:. (a) Lança-se uma moeda viciada e observa-se o resultado obtido e (b) pergunta-se a um eleitor se ele vai votar no candidato A ou B.. (a) Lança-se uma moeda n vezes e observa-se o número de caras obtidas e (b) de uma grande população, extrai-se uma amostra de n eleitores e pergunta-se a cada um deles em qual dos candidatos A ou B eles votarão e conta-se o número de votos do candidato A. 3. (a) De uma urna com P bolas vermelhas e Q bolas brancas, extraem-se n bolas sem reposição e conta-se o número de bolas brancas e (b) de uma população com P pessoas a favor do candidato A e Q pessoas a favor do candidato B, extrai-se uma amostra de tamanho n sem reposição e conta-se o número de pessoas a favor do candidato A na amostra. Em cada uma das situações anteriores, os experimentos citados têm algo em comum: em certo sentido, temos a mesma situação, mas em contextos diferentes. Por exemplo, na situação, cada um dos experimentos tem dois resultados possíveis e observamos o resultado obtido. Na situação 3, temos uma população dividida em duas categorias e dela extraímos uma amostra sem reposição; o interesse está no número de elementos de uma determinada categoria. Na prática, existem muitas outras situações que podem se encaixar nos modelos acima e mesmo em outros modelos. O que veremos nesse capítulo são alguns modelos de variáveis aleatórias discretas que podem descrever situações como as listadas anteriormente. Nesse contexto, um modelo será definido por uma variável aleatória e sua função de probabilidade, explicitando-se claramente as hipóteses de validade. De posse desses elementos, poderemos analisar diferentes situações práticas para tentar encaixá-las em algum dos modelos dados. Neste capítulo, serão descritas as distribuições de probabilidade discretas mais usuais. A introdução de cada uma delas será feita através de um exemplo clássico (moeda, urna, baralho etc.) e, em seguida, serão explicitadas as características do experimento. Tais características são a ferramenta necessária para sabermos qual modelo se aplica a uma determinada situação prática. Definida a distribuição, calculam-se a média e a variância.

96 9 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS 4. Distribuição uniforme discreta Suponha que seu professor de Estatística decida dar de presente a um dos alunos um livro de sua autoria. Não querendo favorecer qualquer aluno em especial, ele decide sortear aleatoriamente o ganhador, dentre os 45 alunos da turma. Para isso, ele numera os nomes dos alunos que constam do diário de classe de a 45, escreve esses números em pedaços iguais de papel, dobrando-os ao meio para que o número não fique visível, e sorteia um desses papéis depois de bem misturados. Qual é a probabilidade de que você ganhe o livro? Qual é a probabilidade de que o aluno que tirou a nota mais baixa na primeira prova ganhe o livro? E o que tirou a nota mais alta? O importante a notar nesse exemplo é o seguinte: o professor tomou todos os cuidados necessários para não favorecer qualquer aluno em especial. Isso significa que todos os alunos têm a mesma chance de ganhar o livro. Temos, assim, um exemplo da distribuição uniforme discreta. Definição 4. Distribuição Uniforme Discreta Uma variável aleatória X tem distribuição Uniforme Discreta com parâmetro n se Im(X) é um conjunto finito com n elementos e a probabilidade de X assumir qualquer um do n elementos é a mesma. Note que, se X tem distribuição discreta uniforme, todos os valores de Im(X) são igualmente prováveis. O parâmetro n, por sua vez, é o número de valores que a variável aleatória pode assumir e por isso n pode ser qualquer valor no conjunto N. Chamamos de espaço paramétrico o conjunto de valores que o parâmetro de uma distribuição pode assumir. Nesse caso, o espaço paramétrico para o parâmetro n é o conjunto dos números naturais positivos, isto é, N. Vamos denotar a distribuição uniforme discreta com parâmetro n por Unif(n). Nesse caso, se quisermos indicar que uma variável aleatória X segue essa distribuição, podemos simplesmente escrever: X Unif(n) (lê-se: a variável aleatória X tem distribuição uniforme discreta com parâmetro n). Função de probabilidade e função de distribuição Seja X Unif(n) e suponha Im(X) {x, x,..., x n }. Logo a sua função de probabilidade é definida por p X (x i ) P(X x i ) n i,,..., n. (4.) Na Figura 4. a seguir estão os gráficos da função de probabilidade e da função de distribuição de uma variável aleatória uniforme discreta. Veja que, como a probabilidade associada a cada elemento x i de Im(X) é a mesmo i, os degraus no gráfico da função de distribuição têm o mesmo tamanho (Figura 4.b. Esperança e variância Seja X uma v.a. discreta uniforme que assume valores x, x,..., x n. De acordo com a Definição 3., E(X) n x + n x + + n x n x, (4.) ou seja, E(X) é a média aritmética dos valores possíveis de X.

97 4.. DISTRIBUIÇÃO UNIFORME DISCRETA 93 /n 3/n /n /n x x x 3... x n (a) Função de probabilidade x x x 3... x n (b) Função de distribuição Figura 4. Distribuição uniforme discreta Com relação à variância, temos a Definição 3., de onde tiramos que Var(X) E [X E(X)] n (x x) + n (x x) + + n (x n x) n n (x i x) σx (4.3) i Exemplo 4. Lançamento de uma moeda Considere o lançamento de uma moeda. Vamos definir a seguinte variável aleatória X associada a esse experimento: {, se ocorre coroa X, se ocorre cara Verifique se X é variável aleatória uniforme discreta e calcule sua média e variância. Para que essa v.a. tenha distribuição uniforme, é necessário supor que a moeda seja honesta e, nesse caso, p X () p X () E(X) + Var(X) ( ) + ( ) Exemplo 4. Conserto de máquina Uma máquina pode apresentar 5 tipos diferentes de defeitos, que ocorrem aproximadamente na mesma frequência. Dependendo do tipo de defeito, o técnico leva,, 3, 4 ou 5 horas para consertar a máquina. (a) Descreva o modelo probabilístico apropriado para representar a duração do tempo de reparo da máquina. (b) Qual é o tempo médio de reparo desta máquina? E o desvio-padrão deste tempo de reparo? (c) São 5 horas e acaba de ser entregue uma máquina para reparo. A jornada normal de trabalho do técnico termina às 7 horas. Qual é a probabilidade de que o técnico não precise fazer hora extra para terminar o conserto desta máquina?

98 94 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Seja T tempo de reparo, em horas. (a) Como os defeitos ocorrem na mesma frequência, o modelo probabilístico apropriado é uma distribuição uniforme: t (b) E(T ) p T (t) P(T t) 5 3 horas Var(T ) DP(T ), 4 horas (c) Seja E o evento técnico não terá que fazer hora extra. Então P(E) P(T ) 5, 4 ou seja, a probabilidade de que ele não tenha que fazer hora extra é, Distribuição de Bernoulli Considere o lançamento de uma moeda. A característica de tal experimento aleatório é que ele possui apenas dois resultados possíveis. Uma situação análoga surge quando da extração da carta de um baralho, em que o interesse está apenas na cor (preta ou vermelha) da carta sorteada. Definição 4. Experimento de Bernoulli Um experimento de Bernoulli, ou ensaio de Bernoulli, é um experimento aleatório com apenas dois resultados possíveis; por convenção, um deles é chamado sucesso e o outro, fracasso. Suponha que seja realizado um ensaio de Bernoulli e, com base nesse experimento, seja definida a seguinte variável aleatória X: {, se ocorre sucesso X, se ocorre fracasso X é chamada de v.a. de Bernoulli, como mostra a Definição 4.3. Definição 4.3 Distribuição de Bernoulli Uma variável aleatória X tem distribuição de Bernoulli com parâmetro p se ela é uma variável indicadora de algum evento, denominado sucesso, que tem probabilidade p de ocorrência. Note que, para qualquer ensaio de Bernoulli, é sempre possível definir uma v.a. de Bernoulli. Além disso, Im(X) {, }, uma vez que X é v.a. indicadora (Definição.), P(X ) p, probabilidade de sucesso, e P(X ) p, probabilidade de fracasso. Como p é uma probabilidade, o espaço paramétrico é o intervalo [, ]. É comum denotar a probabilidade de fracasso por q, isto é, q p e q.

99 4.3. DISTRIBUIÇÃO DE BERNOULLI 95 Vamos denotar a distribuição de Bernoulli com parâmetro p por Bern(p). Assim, para indicar que uma variável aleatória X segue essa distribuição, escrevemos X Bern(p) (lê-se: a variável aleatória X tem distribuição de Bernoulli com parâmetro p). Função de probabilidade e função de distribuição A função de probabilidade de X Bern(p) pode também ser escrita da seguinte forma: p X (x) P(X x) p x ( p) x x,. (4.4) Já a sua função de distribuição é dada por: se x < F X (x) p se x < se x (4.5) Na Figura 4., temos os gráficos da função de probabilidade e da função de distribuição de uma variável de Bernoulli. Como Im(X) é um conjunto com apenas dois elementos, Im(X) {, }, a função de distribuição de X só tem dois pontos de descontinuidade, em e em. p p p (a) Função de probabilidade (b) Função de distribuição Figura 4. Distribuição de Bernoulli Esperança e variância Seja X Bern(p). Então, Em resumo, se X Bern(p) temos E(X) ( p) + p p E(X ) ( p) + p p Var(X) E(X ) [E(X)] p p p( p) E(X) p (4.6) Var(X) p( p) (4.7) Exemplo 4.3 Lançamento de uma moeda Considere, assim como no Exemplo 4., o lançamento de uma moeda e a seguinte variável aleatória X associada a esse experimento: {, se ocorre coroa X, se ocorre cara

100 96 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Seja p a probabilidade de cara, < p <. Já vimos que, se p /, então X é uniforme discreta. Encontre a distribuição de X qualquer que seja o valor de p. Como Im(X) {, }, X tem distribuição de Bernoulli com parâmetro p, qualquer que seja p. Nesse caso, sucesso é definido como a saída de cara, que ocorre com probabilidade p, e fracasso é a saída de coroa. Note que a distribuição de Bernoulli com parâmetro p / é equivalente a uma distribuição uniforme. Exemplo 4.4 Auditoria da Receita Federal Um auditor da Receita Federal examina declarações de Imposto de Renda de pessoas físicas, cuja variação patrimonial ficou acima do limite considerado aceitável. De dados históricos, sabe-se que % dessas declarações são fraudulentas. Considere o experimento correspondente ao sorteio aleatório de uma dessas declarações e defina a v.a. indicadora do evento A foi sorteada uma declaração fraudulenta (Definição.). Encontre o modelo probabilístico adequado para essa v.a. Primeiro, veja que o experimento correspondente ao sorteio aleatório de uma dessas declarações com observação do tipo de declaração (fraudulenta ou não) é um experimento de Bernoulli. A v.a. indicadora do evento em questão pode ser definida por {, se a declaração sorteada é fraudulenta I A, caso contrário. Como Im(I A ) {, }, podemos dizer que esta v.a. tem distribuição de Bernoulli. O parâmetro p é a probabilidade de sucesso, que por definição é o evento associado ao valor da variável aleatória. Da forma com que I A foi construída, o sucesso para esse ensaio de Bernoulli é encontrar uma declaração fraudulenta. Então p,. Esse exemplo ilustra o fato de que sucesso, nesse contexto, nem sempre significa uma situação feliz na vida real. Aqui, sucesso é definido de acordo com o interesse estatístico no problema. 4.4 Distribuição binomial Vamos introduzir a distribuição binomial, uma das mais importantes distribuições discretas, através de dois exemplos. Em seguida, discutiremos as hipóteses feitas e apresentaremos os resultados formais sobre tal distribuição e novos exemplos. Exemplo 4.5 Lançamentos de uma moeda Considere o seguinte experimento: uma moeda é lançada 4 vezes. Seja p P(sair a face cara). Vamos definir a seguinte variável aleatória associada a este experimento: X número de caras nos quatro lançamentos da moeda Encontre a função de probabilidade da v.a. X.

101 4.4. DISTRIBUIÇÃO BINOMIAL 97 Como visto antes, cada lançamento da moeda representa um experimento de Bernoulli, e como o interesse está no número de caras, vamos definir sucesso cara. Para encontrar a função de probabilidade de X, o primeiro fato a notar é que os valores possíveis de X são:, que equivale à ocorrência de nenhuma cara e, portanto, de 4 coroas;, que equivale à ocorrência de apenas cara e, portanto, 3 coroas;, que equivale à ocorrência de caras e, portanto, coroas; 3, que equivale à ocorrência de 3 caras e coroa e, finalmente, 4, que equivale à ocorrência de 4 caras e nenhuma coroa. Assim, Im(X) {,,, 3, 4}. Vamos, agora, calcular a probabilidade de cada um desses valores, de modo a completar a especificação da função de probabilidade de X. Para isso, vamos representar por K i o evento cara no i-ésimo lançamento e por C i o evento coroa no i-ésimo lançamento. X Temos a seguinte equivalência de eventos: {X } C C C 3 C 4 É razoável supor que os lançamentos da moeda sejam eventos independentes, ou seja, o resultado de um lançamento não interfere no resultado de qualquer outro lançamento. Dessa forma, os eventos C i e K j são independentes para i j. (Note que os eventos C i e K i são mutuamente exclusivos e, portanto, não são independentes se sair cara em um lançamento específico, não é possível sair coroa nesse mesmo lançamento e vice-versa). Analogamente, os eventos C i e C j são independentes para i j, bem como os eventos K i e K j, i j. Pela regra da probabilidade da interseção de eventos independentes, resulta que X P (C C C 3 C 4 ) P(C ) P(C ) P(C 3 ) P(C 4 ) ( p) ( p) ( p) ( p) ( p) 4 O evento X corresponde à ocorrência de cara e, consequentemente, de 3 coroas. Uma sequência possível de lançamentos é K C C 3 C 4. Vamos calcular a probabilidade desse resultado. independentes e, portanto, Como antes, os lançamentos são eventos P(K C C 3 C 4 ) P(K ) P(C ) P(C 3 ) P(C 4 ) p ( p) ( p) ( p) p( p) 3 Mas qualquer sequência com cara resulta em X, ou seja, a face cara pode estar em qualquer uma das quatro posições e todas essas sequências resultam em X. Além disso, definida a posição da face cara, as posições das faces coroas já estão determinadas são as posições restantes. Então, temos a seguinte equivalência: {X } {K C C 3 C 4 } {C K C 3 C 4 } {C C K 3 C 4 } {C C C 3 K 4 }

102 98 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Mas os eventos que aparecem no lado direito da expressão anterior são eventos mutuamente exclusivos. Logo, X P(X ) P(K C C 3 C 4 ) + P(C K C 3 C 4 ) + P(C C K 3 C 4 ) + P(C C C 3 K 4 ) p ( p) ( p) ( p) + ( p) p ( p) ( p) +( p) ( p) p ( p) + ( p) ( p) ( p) p 4p( p) 3 O evento X corresponde à ocorrência de caras e, consequentemente, de coroas. Qualquer uma dessas sequências tem probabilidade p ( p). As sequências de lançamentos com caras e coroas são as seguintes: ou seja, temos a seguinte equivalência e, portanto, X 3 e X 4 K K C 3 C 4 K C K 3 C 4 K C C 3 K 4 C C K 3 K 4 C K C 3 K 4 C K K 3 C 4 {X } (K K C 3 C 4 ) (K C K 3 C 4 ) (K C C 3 K 4 ) (C C K 3 K 4 ) (C K C 3 K 4 ) (C K K 3 C 4 ) P(X ) P(K K C 3 C 4 ) + P(K C K 3 C 4 ) + P(K C C 3 K 4 ) + P(C C K 3 K 4 ) + P(C K C 3 K 4 ) + P(C K K 3 C 4 ) 6p ( p) Os casos X 3 e X 4 são análogos aos casos X e X, respectivamente; basta trocar caras por coroas e vice-versa. Assim, P(X 3) 4p 3 ( p) P(X 4) p 4 Dessa forma, a função de probabilidade de X é ( p) 4, se x 4p( p) 3, se x 6p p X (x) ( p), se x 4p 3 ( p), se x 3 p 4, se x 4, caso contrário. É importante notar que a hipótese de independência dos lançamentos da moeda foi absolutamente fundamental na solução do exemplo; foi ela que nos permitiu multiplicar as probabilidades dos resultados de cada lançamento para obter a probabilidade da sequência completa

103 4.4. DISTRIBUIÇÃO BINOMIAL 99 de n lançamentos. Embora essa hipótese seja muito razoável nesse exemplo, ainda assim é uma hipótese subjetiva. Outra propriedade utilizada foi a da probabilidade da união de eventos mutuamente exclusivos. Mas aqui essa propriedade é óbvia, ou seja, não há qualquer subjetividade: os eventos C K e K C são mutuamente exclusivos, pois no primeiro lançamento ou sai cara ou sai coroa; não pode sair cara e coroa no primeiro lançamento, ou seja, cada lançamento é um experimento de Bernoulli. Exemplo 4.6 Bolas em uma urna Uma urna contém quatro bolas brancas e seis bolas verdes. Três bolas são retiradas dessa urna, com reposição, isto é, depois de tirada a primeira bola, ela é recolocada na urna e sorteia-se a segunda, que também é recolocada na urna para, finalmente, ser sorteada a terceira bola. Vamos definir a seguinte variável aleatória associada a esse experimento: Encontre a função de probabilidade da v.a. X. X número de bolas brancas sorteadas. O importante a notar aqui é o seguinte: como cada bola sorteada é recolocada na urna antes da próxima extração, a composição da urna é sempre a mesma e o resultado de uma extração não afeta o resultado de outra extração qualquer. Dessa forma, em todas as extrações, a probabilidade de bola branca (e também bola verde) é a mesma e podemos considerar as extrações como independentes. Assim, temos uma situação análoga à do exemplo anterior: temos três repetições de um experimento (sorteio de uma bola), essas repetições são independentes, em cada uma delas há dois resultados possíveis bola branca (sucesso) ou bola verde (fracasso) e as probabilidades de sucesso e fracasso são as mesmas. Assim, cada extração equivale a um experimento de Bernoulli e como o interesse está nas bolas brancas, vamos considerar sucesso bola branca, e da observação anterior resulta que P(sucesso) 4 Como são feitas três extrações, Im(X) {,,, 3}. Vamos calcular a probabilidade de cada um desses valores. Como antes, vamos denotar por V i o evento bola verde na i-ésima extração e por B i o evento bola branca na i-ésima extração. Da discussão anterior, resulta que, para i j, os eventos V i e B j são independentes, assim como os eventos B i e B j e os eventos V i e V j. X Esse resultado equivale à extração de bolas verdes em todas as três extrações. Logo, X {X } {V V V 3 } P(X ) P(V V V 3 ) P(V ) P(V ) P(V 3 ) ( 6 ) 3

104 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Esse resultado equivale à extração de uma bola branca e, por consequência, duas bolas verdes. A bola branca pode sair em qualquer uma das três extrações e, definida a posição da bola branca, as posições das bolas verdes ficam totalmente estabelecidas. Logo, X e X 3 ( ) ( ) 4 6 P(X ) 3 Os casos X e X 3 são análogos aos casos X e X, respectivamente; basta trocar bola branca por bola verde e vice-versa. Assim, ( ) 4 ( ) 6 P(X ) 3 e P(X 3) ( ) 4 3 Esses dois exemplos ilustram a distribuição binomial, que depende de dois parâmetros: número de repetições n e a probabilidade de sucesso p de cada ensaio de Bernoulli. o Nos dois exemplos anteriores, tínhamos n repetições de um ensaio de Bernoulli, que eram independentes e, portanto, a probabilidade de sucesso p se mantinha constante ao longo de todas as repetições. Essas são as condições definidoras de um experimento binomial. No Exemplo 4.5, n 4 e uma probabilidade de sucesso qualquer p. No Exemplo 4.6, n 3 e p 4. Definição 4.4 Experimento Binomial Um experimento binomial consiste em um número fixo de repetições independentes de um ensaio de Bernoulli com probabilidade p de sucesso. Note que, como as repetições são independentes, a probabilidade p de sucesso (e por consequência, a probabilidade p de fracasso) permanece constante. Definição 4.5 Distribuição Binomial Uma variável aleatória X tem distribuição binomial com parâmetros n e p quando esta representa o número de sucessos em n repetições independentes de um experimento de Bernoulli com probabilidade p de sucesso. Se X tem distribuição binomial, então os valores possíveis de X são,,,..., n, isto é, Im(X) {,,,..., n}. O espaço paramétrico para o parâmetro n é o conjunto N e para o parâmetro p, o intervalo [, ]. Vamos denotar a distribuição binomial com parâmetros n e p por Bin(n; p). Nesse caso, para indicar que uma variável aleatória X segue essa distribuição, basta escrever X Bin(n; p) (lê-se: a variável aleatória X tem distribuição binomial com parâmetros n e p). Função de probabilidade Para obter a função de probabilidade de X Bin(n, p) para todo x Im(X), precisamos calcular P(X x) para x,,,..., n. Veja que o evento {X x} corresponde a todas as sequências de

105 4.4. DISTRIBUIÇÃO BINOMIAL resultados com x sucessos e, portanto, n x fracassos. Como as repetições são independentes, cada uma dessas sequências tem ( ) probabilidade p x ( p) n x. O número total de tais sequências é dado n pelo coeficiente binomial, apresentado na Definição 4.6. x Definição 4.6 Coeficiente Binomial ( ) n Para n e k inteiros define-se o coeficiente binomial como o número de maneiras com que k k elementos podem ser escolhidos dentro de um total de n elementos distintos. Para k n, esse número pode ser calculado por: ( ) n n! k k!(n k)!. ( ) n Por convenção definimos quando k > n, pois não há como escolher mais elementos do k que o total de elementos disponíveis. ( ) n Veja que pode ser interpretado como o número de subconjuntos com k elementos dentro k de um conjunto com n elementos. Lembre-se que n! representa o fatorial de n, definido como n! n (n ) (n ). Por definição,!. Dessa forma chegamos à função de probabilidade para X Bin(n; p). p X (x) P(X x) ( ) n p x ( p) n x, x,,,..., n. (4.8) x Vamos verificar que a expressão apresentada na Equação 4.8 realmente é uma função de probabilidade. Para isso é preciso mostrar que p X (x) para qualquer x R e x Im(X) p X (x). É imediato ver, da Equação 4.8, que p X (x). Para mostrar que a soma das probabilidades é, usaremos o Teorema 4. do Binômio de Newton. Teorema 4. Binômio de Newton Dados dois números reais quaisquer x e a e um inteiro qualquer n, então (x + a) n n k ( ) n a k x n k k Para X Bin(n; p), x Im(X) p X (x) n x ( ) n p x ( p) n x x }{{} [ + ( p)] n Teo. 4. Assim, a Equação 4.8 realmente define uma função de probabilidade.

106 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Esperança e variância Se X Bin(n; p), então E(X) n x P(X x) x n ( ) n x p x ( p) n x x x n n! x x!(n x)! px ( p) n x Quando x, a parcela correspondente no somatório é nula. Logo, podemos escrever (note o índice do somatório!): E(X) n n! x x!(n x)! px ( p) n x x x n n! x x(x )!(n x)! px ( p) n x e como x, podemos dividir o numerador e o denominador por x, o que resulta na simplificação E(X) n x np x n! (x )!(n x)! px ( p) n x n x Fazendo y x, temos que Logo, n x (n )! (x )!(n x)! px ( p) n x np x y + x y x n y n n ( n E(X) np y y n(n )! (x )!(n x)! p px ( p) n x n x ) p y ( p) n y } {{ } ( ) n p x ( p) n x x Veja que a expressão marcada com chaves é igual a, pois é o somatório da função de probabilidade de uma distribuição binomial com parâmetros (n ) e p para todos os valores possíveis dessa variável aleatória. Portanto, X Bin(n; p) E(X) np (4.9) Vamos, agora, calcular E ( X ), usando raciocínio análogo ao usado no cálculo da esperança. E(X ) }{{} yx n ( ) n x p x ( p) n x x x n x n x x n! x(x )!(n x)! px ( p) n x x n! x!(n x)! px ( p) n x n n! x (x )!(n x)! px ( p) n x x n n(n )! x (x )!(n x)! p px ( p) n x np x n np n (n )! x (x )!(n x)! px ( p) n x (n )! n ( n (y + ) y!(n y)! py ( p) n y np (y + ) y y x y ) p y ( p) n y

107 4.4. DISTRIBUIÇÃO BINOMIAL 3 Mas este último somatório é a esperança de Y +, em que Y Bin(n ; p); portanto, usando o resultado apresentado na Equação 4.9 e as propriedades da esperança, obtemos E(X ) np [E(Y ) + ] np [(n )p + ] n p np + np Logo, ou seja, Var (X) E(X ) [E(X)] n p np + np (np) np np X Bin(n, p) Var (X) np ( p) (4.) Note que a esperança e a variância da binomial são iguais à esperança e à variância da distribuição de Bernoulli, multiplicadas por n, o número de repetições. Pode-se pensar na distribuição de Bernoulli como uma distribuição binomial com parâmetros n e p. Exemplo 4.7 Tiro ao alvo Um atirador acerta, na mosca do alvo, % dos tiros. Se ele dá tiros, qual a probabilidade de ele acertar na mosca no máximo uma vez? Podemos pensar os tiros como experimentos de Bernoulli independentes, em que o sucesso é acertar no alvo com probabilidade,. Então, o problema pede P(X ), em que X número de acertos em tiros. Logo, X bin(;, ) e P(X ) P(X ) + P(X ) ( ) (, ) (, 8) +, 3758 ( ) (, ) (, 8) 9 Exemplo 4.8 Partidas de um jogo Dois adversários A e B disputam uma série de oito partidas de um determinado jogo. A probabilidade de A ganhar uma partida é,6 e não há empate. Qual é a probabilidade de A ganhar a série? Note que só podem ocorrer vitórias ou derrotas, o que significa que temos repetições de um experimento de Bernoulli com probabilidade,6 de sucesso (vitória do jogador A). Assumindo a independência das provas, se definimos X número de vitórias de A, então X bin(8;, 6) e o problema pede P (X 5), isto é, probabilidade de A ganhar mais partidas que B. P (X 5) P (X 5) + P (X 6) + P (X 7) + P (X 8) ( ) ( ) 8 8 (, 6) 5 (, 4) 3 + (, 6) 6 (, 4) ( ) ( ) (, 6) 7 (, 4) + (, 6) 8 (, 4) 7 8, Exemplo 4.9 Parâmetros da binomial Em uma distribuição binomial, sabe-se que a média é 4,5 e a variância é 3,5. Encontre os valores dos parâmetros da distribuição.

108 4 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Temos que np 4, 5 np( p) 3, 5 Substituindo a primeira equação na segunda, resulta Substituindo na primeira equação, obtemos que 4, 5( p) 3, 5 p, 7 p, 3 n 4, 5/, 3 5. Formas da distribuição binomial Se X bin(n; p), então, para x,,..., n, temos P(X x + ) P(X x) n! (x + )!(n x )! px+ ( p) n x n! x!(n x)! px ( p) n x (n x)p (x + )( p) ou seja, P(X x + ) (n x)p P(X x) x,,..., n (4.) (x + )( p) Temos, assim, uma forma recursiva de calcular probabilidades binomiais. Suponhamos, agora, que a probabilidade máxima ocorra em x. Usando o resultado dado na Equação (4.), temos que ter P(X x + ) (n x )p P(X x ) (x + )( p) np x p x x p + p np x + p x p(n + ) Analogamente, temos que ter P(X x ) [n (x )] p P(X x ) x ( p) x p(n + ) np x p + p x x p Resulta, então, que se x é ponto de máximo, então p(n + ) x p(n + ) e como x tem que ser inteiro, temos que ter x p(n + ) (4.)

109 4.4. DISTRIBUIÇÃO BINOMIAL 5 em que x representa o maior inteiro menor ou igual a x. Por exemplo, se n 7 e p,, temos que ter, 8 k, 8, ou seja,, 6 k, 6 e o ponto de máximo ocorre em x, que é o maior inteiro menor ou igual a,6. Note que, se p(n + ) for inteiro, então a distribuição será bimodal, com moda em x p(n + ) e x p(n + ) pois P [X p(n + )] P [X p(n + ) ] P(X np + p) [n (np + p )] p P(X np + p ) (np + p)( p) (n np p + )p (n + ) p(n + ) p(n + )( p) (n + )( p) (n + )( p) (n + )( p) Por exemplo, se p, 3 e n 9, então p(n + ) 3 e a distribuição é bimodal com modas x e x 3. Para o caso em que p, 5, esses resultados implicam que a distribuição será unimodal quando n + for ímpar e bimodal quando n + for par, ou seja, se p, 5, a distribuição é unimodal para n par e bimodal para n ímpar. Além disso, se p, 5, a distribuição será simétrica, pois P(X x) ( ) ( ) n n, 5 x (, 5) n x, 5 n x (, 5) n (n x) P(X n x) x n x Esses resultados estão ilustrados na Figura 4.3, onde temos gráficos da distribuição binomial para diferentes valores dos parâmetros n e p. Note que a distribuição é assimétrica quando p, 5 e a assimetria é positiva quando p <, 5 e negativa quando p >, (a) Bin(;, 5).4 (b) Bin(7;, 5) (c) Bin(7;, ) (d) Bin(7;, 8) Figura 4.3 Função de probabilidade da distribuição binomial

110 6 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS 4.5 Distribuição geométrica Considere as seguintes situações: (i) uma moeda com probabilidade p de cara é lançada até que apareça cara pela primeira vez; (ii) em uma população muito grande (pense na população mundial), p% das pessoas sofrem de uma rara doença desconhecida e portadores precisam ser encontrados para estudos clínicos. Quais são as semelhanças entre essas duas situações? No primeiro caso, matematicamente falando, poderíamos ter que fazer infinitos lançamentos. No segundo caso, muito grande pode ser uma aproximação para infinito. Em ambos os casos, temos repetições de um experimento de Bernoulli. No primeiro caso, as repetições certamente podem ser consideradas independentes. No segundo caso, também podemos assumir independência, desde que se garanta, por exemplo, sorteio entre famílias distintas, de modo que fatores genéticos não interfiram. Dessa forma, temos repetições independentes de um experimento de Bernoulli e nosso interesse pode ser o número de fracassos antes da ocorrência do primeiro sucesso (cara no caso da moeda, pessoa portadora no estudo epidemiológico). Vamos, agora, formalizar a definição de tal variável e obter a sua função de probabilidade. Definição 4.7 Distribuição Geométrica Uma variável aleatória X tem distribuição geométrica com parâmetro p quando esta representa o número de fracassos antes da ocorrência do primeiro sucesso em repetições independentes de um experimento de Bernoulli com probabilidade p de sucesso. Veja que os possíveis valores dessa variável aleatória são: (nenhum fracasso e, portanto sucesso na primeira repetição), (um fracasso antes do primeiro sucesso, que tem que ocorrer na segunda repetição), (dois fracassos antes do primeiro sucesso, que tem que ocorrer na terceira repetição) etc. Logo, Im(X) N. Esse é um exemplo de v.a. discreta em que o espaço amostral, enumerável, é infinito. O espaço paramétrico para o parâmetro p é o intervalo [, ], uma vez que p é a probabilidade de sucesso no experimento de Bernoulli. As características definidoras desse modelo são: repetições independentes de um experimento de Bernoulli com probabilidade p de sucesso, o que significa que em todas as repetições a probabilidade de sucesso (e, portanto, de fracasso) é a mesma. Vamos denotar a distribuição geométrica com parâmetro p por Geo(p). Assim, para indicar que uma variável aleatória X segue essa distribuição, escrevemos X Geo(p) (lê-se: a variável aleatória X tem distribuição geométrica com parâmetro p). Função de probabilidade Para calcular a probabilidade do evento X x, x,,,..., devemos notar que tal evento corresponde à ocorrência de fracassos nas x primeiras repetições e o primeiro sucesso sucesso na (x+)-ésima repetição. Denotando por F i e S i a ocorrência de fracasso e sucesso na i-ésima repetição respectivamente, temos a seguinte equivalência de eventos: {X x} {F F F x S x+ }

111 4.5. DISTRIBUIÇÃO GEOMÉTRICA 7 Como as repetições são independentes, segue que P (X x) P (F F F x S x+ ) P (F ) P (F ) P (F x ) P (S x+ ) ( p) ( p) ( p) p Ou seja, se X Geo(p), a sua função de probabilidade é definida por: p X (x) P(X x) ( p) x p x,,,... (4.3) É imediato ver que P(X x). Além disso, P(X x) x ( p) x p p x x ( p) x }{{} (4.38) ( p) Logo, (4.3) realmente define uma função de probabilidade. Esperança e variância Seja X Geo(p). Então E(X) x P(X x) x ( p) x x( p) x p x x( p) x p x x( p) x p }{{} ( p) yx (y + )( p) y p y Note que o somatório acima é a esperança de Y X + com X Geo(p). Pela propriedade de linearidade do valor esperado, o somatório é, então, E(X) +, o que nos dá E(X) ( p) [E(X) + ] E(X) ( p) E(X) + ( p) ( + p) E(X) p E(X) p p Logo, X Geo(p) E(X) p p (4.4) Com argumentos análogos, vamos calcular E(X ). Preste atenção nos índices dos somatórios!

112 8 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Logo, e, portanto, E(X ) x ( p) x p x x x ( p) x p x ( p) x ( p) x p ( p) (y + ) ( p) y p ( p) (y + y + )( p) y p y ( p) y ( p) y p + y( p) y p + ( p) y p y y [ ] ( p) E(X ) + E(X) + [ ( p) ( p) E(X ) + ( p) p ( p) E(X ( p)( p) ) + p [ ( p)] E(X ) ( p)( p) p y ] + E(X ) y ( p)( p) p Var(X) E(X ) [E(X)] Assim, ( p)( p) ( p) ( p)( p + p) p p p p p X Geo(p) Var(X) p p (4.5) Exemplo 4. Tiro ao alvo Um atirador acerta na mosca do alvo, % dos tiros. Qual é a probabilidade de ele acertar na mosca pela primeira vez no o tiro? E quantos tiros serão dados em média até que o atirador acerte na mosca? Podemos pensar os tiros como experimentos independentes de Bernoulli (acerta ou não acerta). A probabilidade de sucesso (acertar no alvo) é p,. Estamos querendo o número de tiros até o primeiro acerto e calcular a probabilidade de que esse número seja. Seja X número de tiros até primeiro acerto. Então, X Geo(, ) e P (X ), 8 9,, 684. O número médio de tiros até o primeiro acerto nada mais é que E(X). Equação 4.4 resulta E(X) p, 5. ou seja, em média, o atirador dará cinco tiros até acertar o alvo pela primeira vez. Pelo resultado da Exemplo 4. Lançamento de dado Joga-se um dado equilibrado. Qual é a probabilidade de serem necessários lançamentos até a primeira ocorrência de um seis?

113 4.5. DISTRIBUIÇÃO GEOMÉTRICA 9 Nesse caso, sucesso é a ocorrência de face seis. Logo, P(sucesso) p 6 e P(fracasso) p 5 6. Seja X número de lançamentos até o primeiro seis. Então, X Geo ( 6) e o problema pede P (X ) ( 5 6) 9 ( 6), 33. Função de distribuição A variável geométrica é uma das poucas variáveis aleatórias discretas para as quais é possível encontrar uma forma fechada para a sua função de distribuição. Para o seu cálculo, vamos usar novamente a notação x, que representa o maior inteiro menor ou igual a x. Então, para x <, F(x) e para x temos que Resumindo: x F(x) P(X x) P(X k) ( p) k p k ( p) x + p ( p) { F(x) x k se x < ( p) x + se x (4.6) Note que isso indica que F X é constante entre dois números inteiros consecutivos e dá um salto em x,,,.... Forma alternativa da distribuição geométrica Em vez de definir a variável geométrica como o número de fracassos antes do primeiro sucesso, podemos usar a seguinte definição alternativa: Y número de repetições até o primeiro sucesso Neste caso, Im(Y ) N e o Y y significa que foram feitas y repetições, sendo a última um sucesso, ou seja, ocorreram y fracassos antes do primeiro sucesso. Assim, temos a seguinte relação entre Y e a variável geométrica X apresentada anteriormente na Definição 4.7 X Y Y X + Essa distribuição de probabilidade é, às vezes, chamada distribuição geométrica deslocada (em inglês, shifted geometric distribution). Vamos usar a notação Y Geo (p) para denotar que a variável Y que representa o número de repetições de um experimento de Bernoulli até o primeiro sucesso. A distribuição de Y é e da relação entre as duas variáveis, resulta P(Y y) ( p) y p y,,... (4.7) E(Y ) E(X) + p p Var(Y ) Var(X) p p + p

114 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS A função de distribuição de Y é ou seja, { F Y (y) P(X + y) P(X y ) { F Y (y) se y < ( p) y + se y se y < ( p) y se y Propriedade da falta de memória Nessa seção, vamos apresentar o conceito de falta de memória de uma variável aleatória. Em seguida vamos mostrar que a distribuição geométrica satisfaz tal propriedade. Definição 4.8 Propriedade da Falta de Memória Sejam X uma variável aleatória e t, s números reais quaisquer não negativos. Se, P(X > t + s X > t) P(X > s) então dizemos que X tem a propriedade da falta de memória. Vamos mostrar, agora, que uma variável aleatória com distribuição geométrica satisfaz a propriedade da falta de memória. Sejam, então, X Geo(p) e m, n Im(X), isto é, m, n N. Então, P(X > m + n X > m) P(X > m + n) P(X > m) [ ( p)m+n ] [ ( p) m ] P(X m + n) P(X m) ( p)m+n ( p) m ( p)n P(X > n) ou seja, uma v.a. com distribuição geométrica satisfaz a propriedade da falta de memória. Na prática isso significa que, se já foram realizadas pelo menos m repetições do ensaio de Bernoulli sem nenhum sucesso, a probabilidade de que o primeiro sucesso ocorra pelo menos no m+n-ésimo ensaio é exatamente a mesma probabilidade de o primeiro sucesso ocorrer no n-ésimo ensaio, contado desde o início do experimento, ou seja, a variável esquece que já foram realizadas m repetições. Veja a Figura 4.4. Figura 4.4 Ilustração da propriedade da falta de memória da dsitribuição geométrica

115 4.6. DISTRIBUIÇÃO BINOMIAL NEGATIVA Por exemplo, se jogamos uma moeda 5 vezes e não saiu nenhuma cara, não significa que há mais chance de sair cara nos próximos 3 lançamento do que nos três primeiros lançamento da moeda. 4.6 Distribuição binomial negativa Consideremos novamente repetições independentes de um experimento de Bernoulli com probabilidade p de sucesso. Vamos considerar agora uma generalização da v.a. geométrica, no seguinte sentido: em vez de fixarmos o primeiro sucesso, vamos fixar um número qualquer r de sucessos, ou seja, definimos X número de fracassos antes da ocorrência do r-ésimo sucesso, r. Note que r corresponde à distribuição geométrica. Definição 4.9 Distribuição Binomial Negativa Uma variável aleatória X tem distribuição binomial negativa com parâmetros r e p quando esta representa o número de fracassos antes da ocorrência do r-ésimo sucesso em repetições independentes de um experimento de Bernoulli com probabilidade p de sucesso. Note que os possíveis valores de X são: (nenhum fracasso, e, portanto, sucessos nas r primeiras repetições), (um fracasso antes do r-ésimo sucesso), (dois fracassos antes do r-ésimo sucesso) etc. Logo, Im(X) N. Este é mais um exemplo de v.a. discreta cuja imagem é um conjunto infinito. Veja que o parâmetro r pode assumir qualquer valor inteiro positivo, logo seu espaço paramétrico é o conjunto N. Já para o parâmetro p, o espaço paramétrico é o intervalo [, ], uma vez que p é a probabilidade de sucesso do ensaio de Bernoulli. Vamos denotar a distribuição binomial negativa com parâmetros r e p por BinNeg(r; p). Assim, para indicar que uma variável aleatória X segue essa distribuição, escrevemos simplesmente X BinNeg(r; p) (lê-se: a variável aleatória X tem distribuição binomial negativa com parâmetros r e p). Função de probabilidade Seja X BinNeg(r; p); para qualquer x Im(X), o evento {X x} indica que foram obtidos x fracassos antes de se obter r sucessos, ou seja, foram realizadas x + r repetições, sendo a ultima um sucesso e r sucessos nas x + r repetições. Veja Figura 4.5). Uma sequência possível de resultados consiste em fracassos nas x primeiras repetições e sucesso nas próximas r repetições seguintes e o último sucesso na última repetição: F,..., F x, S x+,..., S x+r, S x+r A probabilidade de tal sequência é dada pelo produto das probabilidades, já que as repetições são independentes, isto é: P(F... F x S x+..., S x+r S x+r ( p) x p r p

116 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Figura 4.5 Ilustração dos resultados da binomial negativa Mas existem ( ) x+r x maneiras de arrumar x fracassos em x+r posições e as sequências resultantes têm todas a mesma probabilidade acima. Como elas constituem eventos mutuamente exclusivos, a probabilidade da união delas, que é P (X x), é a soma das probabilidades, ou seja: ( ) x + r p X (x) P(X x) p r ( p) x x,,,... (4.8) x Como nas seções anteriores, precisamos mostrar que a Equação (4.8) realmente define uma função de probabilidade. Como P (X x), para todo x R, temos que mostrar que P (X x) x ( ) x + r p r ( p) x. x x ou equivalentemente, p r x ( r + x x ) ( p) x. que: Usando o resultado da Equação 4.46) da Seção 4., com k r, i x e r p, obtemos ( r + x x x ) ( p) x [ ( p) r + ] p r e, portanto, P (X x) p r p r x Esperança e Variância Seja X BinNeg(r; p). Então,

117 4.6. DISTRIBUIÇÃO BINOMIAL NEGATIVA 3 E(X) ( ) x + r x p r ( p) x x x x x ( p) ( p) ( p) (x + r )! x x!(r )! pr ( p) x (x + r )! (x )!(r )! pr ( p) x r( p) p r( p) p x y y (x + r )! (x )!(r )! pr ( p) x (y + r)! y!(r )! pr ( p) y (y + r)! r p r ( p) y y!r! y (y + r)! p r+ ( p) y y!r! ( ) y + (r + ) p r+ ( p) y y y }{{} S Mas S é o somatório das probabilidades de todos os valores de uma variável BinNeg(r + ; p) e, portanto, S. Logo, X BinNeg(r; p) E(X) r( p) p (4.9) Obviamente, se r temos a esperança de uma geométrica, conforme Equação 4.4. De maneira análoga, vamos calcular E(X ), para, em seguida, obtermos Var(X). E(X ) x x ( ) x + r x p r ( p) x x x (x + r )! x x!(r )! pr ( p) x (x + r )! x (x )!(r )! pr ( p) x (x + r )! ( p) x (x )!(r )! pr ( p) x ( p) r( p) p (y + r)! (y + ) y!(r )! pr ( p) y y x ( ) y + (r + ) (y + ) p r+ ( p) y r y }{{} ( ) Mas ( ) é a função de probabilidade de uma variável aleatória Y BinNeg(r +; p) e, portanto

118 4 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS E(X ) r( p) p r( p) p (y + ) P(Y y) y r rp + p + p p r( p) p r( p) p E(Y + ) r( p) + p r( p) p ( (r + )( p) p r ( p) + r( p) p ) + ou seja, Segue então que, Var(X) E(X ) E(X) r ( p) + r( p) p r ( p) p X BinNeg(r; p) V ar(x) r p p (4.) Novamente, se r, temos a variância de uma distribuição geométrica, conforme Equação 4.5. Forma Alternativa da Distribuição Binomial Negativa Assim como no caso da distribuição geométrica, podemos definir a variável binomial negativa como Y número de repetições até o r-ésimo sucesso (4.) Para que haja r sucessos são necessárias pelo menos r repetições. Logo, Im(Y ) r, r +, r +,.... Para y Im(Y ), o evento {Y y} indica que foram necessárias y repetições para a obtenção de r sucessos, o r ésimo sucesso acontece na última repetição e os r sucessos restantes ocorrem entre as y primeiras repetições. Veja a Figura 4.6. Figura 4.6 Ilustração dos resultados da binomial negativa deslocada Resulta, então, que P(Y y) ( ) y p r ( p) y r k r, r +, r +,... (4.) r Essa distribuição é também conhecida como distribuição de Pascal. Para indicar que uma variável aleatória Y segue essa distribuição, escrevemos simplesmente Y BinNeg (r; p).

119 4.6. DISTRIBUIÇÃO BINOMIAL NEGATIVA 5 Analisando as Figuras 4.5 e 4.6 obtemos a seguinte relação: o que dá origem ao nome distribuição binomial negativa deslocada. Com essa forma alternativa, temos Y X + r (4.3) r( p) E(Y ) E(X + r) + r r p p (4.4) r( p) Var(Y ) Var(X + r) Var(X) p (4.5) Na distribuição binomial negativa deslocada, o número de repetições do experimento de Bernoulli é aleatório e o número de sucessos é um número fixo (pré-determinado); note o contraste com a distribuição binomial, em que o número de repetições é fixo e o número de sucessos é aleatório. Parâmetro Distribuição Binomial Binomial negativa deslocada Número de repetições fixo variável aleatória Número de sucessos variável aleatória fixo Exemplo 4. Fabricação de peças Deseja-se produzir 5 peças boas, em uma máquina que dá % de peças defeituosas. probabilidade de ser necessário fabricar 8 peças para se conseguir as 5 peças boas? Qual é a Seja X número de peças fabricadas até a obtenção de 5 boas (sucesso). Temos que P(peça boa) (, 8 e P(peça defeituosa),. Logo, X BinNeg (5;, 8). O problema pede P(X 8) 7 ) 4 (, 8) 5 (, ) 3, Por que binomial negativa? Quando definimos o número binomial ( n k), supusemos que n > e < k < n e vimos que ( ) n n! n(n ) [n (k )] (n k)! n(n ) (n k + ) k k!(n k)! k!(n k)! k! De forma análoga, definimos ( ) n k ( n)( n ) ( n k + ) k! que pode ser escrito como ( ) n k [( )(n)] [( )(n + )] [( )(n + k )] k! ( )k n(n + ) (n + k ) k!

120 6 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Vamos, agora, analisar o coeficiente binomial que aparece na expressão (4.8): ( ) x + r (x + r )! x x!(r )! (x + r )(x + r ) [x + r (x )] [x + r (x )] [x + r x)]! x! (r )! (x + r )(x + r ) (r + )(r) x! r(r + ) (r + x )(r + x ) x! [( )( r)] [( )( r )] [( )( r x + ] ( ) x! r ( ) x x Logo, uma outra forma de escrever a distribuição binomial negativa é ( ) r P(X x) ( ) x p r ( p) x k,,,... x daí o nome binomial negativa. 4.7 Distribuição hipergeométrica Vamos começar esta seção com um exemplo, antes de apresentar a formalização de uma nova distribuição. Exemplo 4.3 Bolas em uma urna Consideremos novamente a situação do Exemplo 4.6, em que 3 bolas são retiradas de uma urna composta por 4 bolas brancas e 6 bolas verdes e nossa variável aleatória de interesse é X número de bolas brancas sorteadas Naquele exemplo, consideramos extrações com reposição. Vamos analisar, agora, a função de probabilidade de X no caso em que as extrações são feitas sem reposição. A diferença fundamental entre os dois exemplos é que, sem reposição, a probabilidade em cada extração depende das extrações anteriores, ou seja, não temos mais independência ou probabilidades constantes. No entanto, como as extrações são aleatórias, todos os subconjuntos de 3 bolas são igualmente prováveis. O número total de subconjuntos de 3 bolas retiradas das bolas da urna é ) e, portanto, cada subconjunto tem probabilidade ). ( 3 Vamos determinar, agora, os possíveis valores de X, ou seja, Im(X). Como há 6 bolas verdes na urna, é possível que todas as três bolas extraídas sejam verdes, isto é, X é o valor mínimo. No outro extremo, como há 4 brancas na urna, é possível que todas as bolas extraídas sejam brancas, ou seja, X 3 é o valor máximo. É possível obter, também, ou bolas brancas. Logo, Im(X) {,,, 3}. Vamos calcular a probabilidade de cada um desses valores. ( 3 X

121 4.7. DISTRIBUIÇÃO HIPERGEOMÉTRICA 7 Ter bola branca na amostra, significa que todas as 3 bolas são verdes. Como há 6 bolas verdes, o número de maneiras que podemos retirar 3 bolas verdes é dado por ( 6 3). Logo, X P(X ) Ter bola branca na amostra significa que as outras são verdes. Como há 4 bolas brancas, o número de maneiras que podemos retirar bola branca é dado por ( 4 ). Analogamente, como há 6 bolas verdes, o número de maneiras que podemos retirar bolas verdes é ( 6 ). Pelo Princípio Fundamental da Multiplicação, o número de maneiras que podemos retirar bola branca e bolas verdes é ( ( 4 ) 6 ). Logo, P(X ) ( 6 3) ( ) 3 ( 4 ) ( 6 ) ( ) 3 X e X 3 Analogamente, P(X ) ( 4 ) ( 6 ) ( ) e P(X 3) 3 ( 4 ) ( 3 6 ( ) ) 3 Suponhamos que nossa amostra seja, agora, de 5 bolas. Como só há 4 bolas brancas, não é possível obter uma amostra formada apenas por bolas brancas. Mas, vamos pensar, por um momento, que pudéssemos ter X 5. Seguindo o raciocínio anterior, teríamos P(X 5) ( 4 ) ( 5 6 ( ) ) 5 uma vez que ( 4 5), segundo a Definição 4.6 do coeficiente binomial. Isso resulta em uma probabilidade nula para o evento impossível X 5. A generalização do contexto do exemplo anterior é a seguinte: temos uma população de tamanho N (a urna com as bolas) dividida em classes (duas cores). Uma das classes é considerada sucesso e a outra fracasso. Seja r o número de elementos da classe sucesso entre os N elementos da população; logo a classe fracasso possui N r elementos. Dessa população vamos extrair uma amostra de tamanho n sem reposição. A variável aleatória de interesse é X número de sucessos na amostra Essa variável aleatória tem distribuição hipergeométrica, como mostra a Definição 4. abaixo. Definição 4. Distribuição Hipergeométrica Uma variável aleatória X tem distribuição hipergeométrica com parâmetros N, r e n quando esta representa o número de sucessos em uma amostra de tamanho n extraída, sem reposição, de uma população de tamanho N formada por r sucessos e N r fracassos. Vamos primeiro analisar o espaço paramétrico para os parâmetros N, r e n. Como N é o tamanho da população, então N N. Sendo n o tamanho da amostra retirada da população de tamanho N, então n N. O parâmetro r indica o número de sucessos dentro da população de tamanho N, então r N.

122 8 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Para determinar os valores possíveis de X, isto é, Im(X), temos que considerar diferentes possibilidades para a composição da população em termos dos números de sucessos e fracassos relativos ao tamanho da amostra. Se for possível ter uma amostra só com sucessos ou só com fracassos, isto é, se r n e N r n, então os possíveis valores de X variam de (amostra formada só por fracassos) a n (amostra formada só por sucessos), ou seja, Im(X) {,..., n}. Exemplo: N 6, n 3, r 3 r n e N r n 3. Então podemos ter uma amostra só com sucessos ou só com fracassos. Nesse caso Im(X) {,,, 3}. Se for possível ter uma amostra só com sucessos, mas não só com fracassos, isto é, se r n e N r < n, então o número máximo de fracassos na amostra é N r e, portanto, o número mínimo de sucessos é n (N r). Logo, os valores de X variam de n (N r) a n, ou seja, Im(X) {n (N r),..., n}. Exemplo: N 6, n 3, r 4 N r 6 4 < n. Então o número máximo de fracassos na amostra é N r e, portanto, o número mínimo de sucessos é n (N r). r n. Podemos ter uma amostra só com sucessos, ou seja, o número máximo de sucessos é 3. Assim, Im(X) {,, 3}. Se for possível ter uma amostra só com fracassos, mas não só com sucessos, isto é, se N r > n e r < n, então o número mínimo de sucessos na amostra é e o número máximo é r, ou seja, Im(X) {,..., r}. Exemplo: N 6, n 3, r N r 6 4 n. Podemos ter uma amostra só de fracassos, ou seja, o número mínimo de sucessos é. r < n. O número máximo de sucessos na amostra é r. Assim, Im(X) {,, }. Vamos denotar a distribuição Hipergeométrica com parâmetros N, r e n por X HGeo(N; r; n), ou seja, para indicar que uma variável aleatória X segue essa distribuição, escrevemos X HGeo(N; r; n) (lê-se: a variável aleatória X tem distribuição hipergeométrica com parâmetros N, r e n). Alguns livros usam letras diferentes para representar cada parâmetro. Função de Probabilidade O número total de amostras de tamanho n que podem ser extraídas de uma população de tamanho N, sem reposição, é ( N n). Note que isso equivale ao número de subconjuntos de tamanho n do conjunto universo de tamanho N. Para calcular a probabilidade de k sucessos na amostra, P(X k), vamos considerar as 3 situações anteriores: Sucessos e fracassos suficientes: r n e N r n.

123 4.7. DISTRIBUIÇÃO HIPERGEOMÉTRICA 9 ) maneiras de tirarmos k sucessos e ( N r n k) maneiras de tirar os fracassos que completam Há ( r k a amostra. Logo, P (X k) Sucessos suficientes, mas não fracassos: r n e N r < n. ( )( ) r N r k n k ( ) N k,,..., n (4.6) n Vimos que os valores de X variam de n (N r) a n. Se k é tal que k < n (N r), então N r < n k e, pela Definição 4.6, ( N r n k) e a probabilidade dada pela Equação (4.6) será para esses valores impossíveis de k. Sendo assim, ainda podemos usar essa equação para o cálculo das probabilidades. Fracassos suficientes, mas não sucessos: N r > n e r < n. Vimos que os valores X variam de a r. Se k n é tal que k > r, o coeficiente binomial ( ) r k será, pela Definição 4.6 e a probabilidade dada pela Equação (4.6) será para esses valores impossíveis de k. Então, ainda podemos usar essa equação para calcular as probabilidades. Resumindo, se X HGeo(N; r; n) então a sua função de probabilidade é definida por: p X (x) P(X x) ( )( ) r N r x n x ( ) N x,..., n (4.7) n Para provar que a Equação 4.7 realmente define uma função de probabilidade, faremos uso da Fórmula de Euler apresentada na Proposição 4. a seguir. Proposição 4. Fórmula de Euler Sejam m, n e s inteiros tais que s < n + m. Então é verdade que: s k ( )( ) m n k s k ( ) m + n s Demonstração: Se m e n a igualdade é trivialmente satisfeita. Seja, então, m > ou n >. Seja C um conjunto não vazio com m + n elementos. Veja que C pode ser partido em dois conjuntos disjuntos com m e n elementos, respectivamente. Vamos denotar tais conjuntos por C n e C m, onde C n tem n elementos, C m tem m elementos, C n C m e C n C m C. Fixando k s, veja que ( ) m k representa o número de subconjuntos de Cm com k elementos e ( ) n s k representa o número de subconjuntos de Cn com s k elementos. Logo, ( )( m n k s k) representa o número de subconjuntos de C com s elementos tais que k elementos pertencem à C m e os outros s k elementos pertencem à C m. s ( )( ) m n Então, representa o número de subconjuntos de C com s elementos, isto é, k s k ( ) k m + n. s

124 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Para mostrar que a Equação (4.7) define uma função de probabilidade, note inicialmente que P (X x) x R. Além disso, n x ( )( ) r N r x n x ( ) N n n ( )( ) r N r x n x ( ) N n x n x ( r x )( ) N r n x ( ) N n Mas esta última equação é a fórmula de Euler com k x, m r, n N r e s n, o que resulta que n ( )( ) ( ) ( ) r N r r + N r N k n k n n k e isso completa prova de que a Equação 4.7 realmente define uma função de probabilidade. Esperança e Variância No cálculo da esperança e variância de X HGeo(N; r; n), faremos uso da seguinte identidade, que é facilmente verificada: k ( ) ( ) n n n k k (4.8) Vamos, agora, calcular E(X k ), que, como veremos, é o k ésimo momento de X. Pela Proposição 3.5, temos que ( )( ) r N r ( E X k) n x k x x n x ( ) N n Como o somatório é nulo para x, podemos escrever E (X) ( )( ) r N r n x n x x ( ) n ( ) x N N x x n n n ( ) r! N r ( ) x N x! (r x)! n x x n r ( ) N n n x (r )! (x )! (r x)! ( r x }{{} x ( ) N r n x )( ) N r n x ) ( N n Fazendo a mudança de variável y x no somatório acima, resulta n ( ) r(r )! N r x x(x )! (r x)! n x x E (X) ( r ) N n n y ( ) (r )! N r r y! (r y)! n y ( N n n ( )( ) r N r ) y n y y }{{}

125 4.7. DISTRIBUIÇÃO HIPERGEOMÉTRICA Mas na expressão destacada por podemos aplicar a Fórmula de Euler, Proposição 4., com n N r, m r, s n e isso nos dá (N )! E (X) ( r ( ) N (n )! ) r (N n)! N n N! n n! (N n)! r (N )! N! n! (n )! rn N Logo, X HGeo(N; r; n) E (X) n r N (4.9) De maneira análoga, vamos calcular E(X ). ( )( ) r N r ( E X ) n x x n x n ( ) N x x n }{{} yx x ( )( ) r N r x n x ( ) N n n ( )( ) r N r ( ) x n ( ) N x n x }{{} N x x x n n r n ( ) (r )! N r ( ) (y + ) N y! (r y)! n y y n ( ) ( )( ) N r N (r ) r n n y n y ( ) (y + ) ( ) N N y n n } {{ } ( ) x r(r )! x(x )! (r x)! ( r x )( ) N r n x Mas a expressão marcada com ( ) nada mais é que P(Y y) em que Y HGeo(N ; r ; n ) e, portanto, o somatório é e, portanto, Logo, ( E X ) r ( ) N n ( ) N n E(Y + ) E(Y ) + (n ) r N + [ (n ) r ] N + rn N Var (X) E(X ) [E(X)] rn (n ) (r ) + N N N rn [ (n ) (r ) + N N nr ] N N rn N [ nr n r + N N rn N [ nn Nr + N + nr N (N ) (n ) (r ) + N N n r N rn N [ nr n r + + N N nr ] N ] nr ] rn [ Nnr nn Nr + N N N Nnr + nr N (N ) ] n r N N (N n) r (N n) N (N ) n r N (N n) (N r) N (N )

126 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Ou seja, X HGeo(N; r; n) Var(X) n r N N r N N n N (4.3) Exemplo 4.4 Equipe de programadores Entre os 6 programadores de uma empresa, são do sexo masculino. A empresa decide sortear 5 programadores para fazer um curso avançado de programação. Qual é a probabilidade de que os 5 sorteados sejam do sexo masculino? Vamos definir sucesso sexo masculino. Se X número de homens sorteados, então X HGeo(6; ; 5) e o problema pede P (X 5) ( 5 ) ( 6 5 ) , Distribuição Binomial versus Distribuição Hipergeométrica Vamos fazer agora algumas comparações entre as distribuições binomial e hipergeométrica, considerando que elas descrevem a extração de uma amostra de tamanho n. No contexto da binomial, a amostra é retirada com reposição, enquanto na hipergeométrica as extrações são feitas sem reposição. A esperança da binomial é igual ao produto do tamanho da amostra pela probabilidade de sucesso; na hipergeométrica, a esperança também é o produto do tamanho da amostra pela probabilidade de sucesso, probabilidade essa tomada apenas na primeira extração. A variância da binomial é igual ao produto do tamanho da amostra pelas probabilidades de sucesso e fracasso. Na hipergeométrica, considerando apenas a primeira extração, a variância é igual a esse produto, mas corrigido pelo fator N n N. Em pesquisas estatísticas por amostragem, normalmente lidamos com amostragem sem reposição. No entanto, os resultados teóricos sobre amostragem com reposição são bem mais simples, pois envolvem variáveis independentes. Assim, costuma-se usar uma aproximação, sempre que possível. Ou seja, quando a população (tamanho N) é suficientemente grande (de modo que podemos encará -la como uma população infinita) e o tamanho da amostra é relativamente pequeno, podemos ignorar o fato de as extrações serem feitas sem reposição. Lembre-se que a probabilidade em extrações sucessivas são N, N,..., N n. Então, se N é grande e n é pequeno, temos que N N N n. Nessas condições, extrações com e sem reposição podem ser consideradas como equivalentes. O termo que aparece na variância da hipergeométrica, N n N, é chamado correção para populações finitas, exatamente porque, se a população é pequena, não podemos ignorar o fato de as extrações estarem sendo feitas sem reposição. 4.8 Distribuição de Poisson Suponhamos que estejamos observando um determinado fenômeno de interesse por um certo período de tempo de comprimento T com o interesse de contar o número de vezes X que um determinado evento ocorre.

127 4.8. DISTRIBUIÇÃO DE POISSON 3 Vamos fazer as seguintes hipóteses sobre a forma de ocorrência desse evento: H ) H ) H 3 ) Em um intervalo de tempo suficientemente curto, apenas ou evento ocorre, ou seja, ou mais ocorrências não podem acontecer simultaneamente. Então, em cada um desses intervalos temos um experimento de Bernoulli. A probabilidade de exatamente ocorrência nesse pequeno intervalo de tempo, de comprimento t, é proporcional a esse comprimento, ou seja, é λ t. Logo, a probabilidade de nenhuma ocorrência é λ t. As ocorrências em intervalos pequenos e disjuntos são experimentos de Bernoulli independentes. Estamos interessados na v.a. X número de ocorrências do evento no intervalo (, ]. Particionando esse intervalo em n pequenos subintervalos de comprimento t, temos que o número total de ocorrências será a soma do número de ocorrências em cada subintervalo. 3 n t n Mas em cada subintervalo podemos aplicar as hipóteses H, H e H 3. Logo, X é uma variável binomial com parâmetros n t (note que t /n) e probabilidade de sucesso p λ t pela hipótese H. Resulta, então, que np λ. Pela definição da v.a. X, temos que Im(X),,..., n. Vamos calcular a probabilidade de cada um desses valores. Seja, então, x Im(X). P(X x) ( n x ) (λ t) x ( λ t) n x n! x!(n x)! n x λx ( n x ) ( λ n ( λ n) n n(n ) (n x + )(n x)! (n x)! n(n ) (n x + ) n x ) x ( λ n n x λx ( λ ) x n ( x! ( λx x! n) λ n n n n n n x + λx n x! ) n x λ n) n ( λ n) x ( n) λ n ( λ ) x n ( λ ) x n Consideremos, agora, a situação em que t, ou equivalentemente, n. Nesse caso p, uma vez que p λ t. Vamos supor que λ np não divirja e nem convirja para, ou seja, vamos supor que λ permaneça uma constante não nula quando n. Nesse caso, a variável aleatória X pode assumir qualquer valor inteiro não negativo e [ n lim P(X x) lim n n n n n n x + ( λx n x! n) λ n ( λ ) x ] n λx x! lim n ( n) λ n λ x }{{} x! e λ (4.49) Temos, assim, uma aproximação para a função de probabilidade binomial. Ou seja, se X Bin(n, p) com n muito grande, p e λ np limitado, isto é, um número real, então P(X x) λx x! e λ.

128 4 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS A expressão acima também é uma função de probabilidade, como veremos mais adiante. A variável aleatória com essa função de probabilidade leva o nome de Poisson, como mostra a Definição 4. a seguir. Definição 4. Distribuição de Poisson Diz-se que uma variável aleatória X tem distribuição de Poisson com parâmetro λ se sua função de probabilidade é dada por P(X x) p X (x) λx x! e λ x,,,... O único parâmetro de uma variável aleatória de Poisson é o λ, que pode assumir qualquer valor real positivo. Veja que, de acordo com a hipótese H, a probabilidade de ocorrer uma vez o evento em questão dentro de um intervalo de comprimento t é λ t. Então, o espaço paramétrico para λ é R +. Como X representa o número de ocorrências de um certo evento no intervalo (, ], então X pode assumir os valores,,,.... Logo, Im(X) N. Esse é mais um exemplo de v.a. discreta cuja imagem é um conjunto infinito. Vamos denotar a distribuição de Poisson com parâmetro λ por Poi(λ). Assim, para indicar que uma variável aleatória X segue essa distribuição, escrevemos simplesmente X Poi(λ) (lê-se: a variável aleatória X tem distribuição de Poisson com parâmetro λ). Relação entre Binomial e Poisson A função de probabilidade de uma variável aleatória binomial converge para a função de probabilidade de uma Poisson sempre que n, p e np λ, com λ constante não nula, isto é, λ np não diverge e nem converge para. Na prática isso significa que se X Bin(n, p) com n muito grande, maior que em geral, e p então podemos usar a seguinte aproximação P(X x) λx x! e λ com λ np. (4.3) Se tais condições não forem satisfeitas, isto é, se n não for grande ou se p não for pequeno, a aproximação não será boa. Exemplo 4.5 Aproximação da Binomial pela Poisson Sabe-se que 5% das lâmpadas pisca-pisca para árvore de Natal são produzidas com defeito. O setor de qualidade de um fabricante seleciona uma amostra com 5 lâmpadas pisca-pisca, vindas direto da linha de produção. Qual é a probabilidade de a amostra recolhida pelo setor de qualidade conter mais de lâmpadas com defeito? Defina X número de lâmpadas pisca-pisca com defeito dentro da amostra de 5 lampadas. Então X Bin(n 5, p, 5). Queremos encontrar P(X ). Para isso é mais fácil encontrar P(X < ) e depois fazer P(X ) P(X < ).

129 4.8. DISTRIBUIÇÃO DE POISSON 5 Pela fórmula exata da distribuição de Poisson, temos que P(X < ) 9 ( ) 5, 5 x, 95 5 x x x ( ) 5, 5, ( 5 8 ), 5 8, ( 5 9 ), 5 9, Veja que as combinações acima são bem custosas de serem encontradas. Por exemplo, para chegar à resposta precisamos encontrar ( ) 5 5! !9! Com a ajuda de um computador chegamos à resposta final P(X < ), Vejamos, agora, como usar a aproximação da binomial pela Poisson para encontrar a resposta do problema. Para isso vamos usar a expressão apresentada na Equação 4.3 considerando λ np 5, 5 7, , 5 x P(X < ) x! e 7,5 x 7, 5 7,! e 7,5 58 7, ! e 7, ! e 7,5, A partir da distribuição exata, obtemos P(X ), , 965. Usando a aproximação de Poisson, obtemos P(X ), , Veja quão próximos são os dois resultados. Função de Probabilidade A própria definição de distribuição de Poisson já nos dá que, se X Poi(λ), a sua função de probabilidade é definida por: x p X (x) P(X x) λx x! e λ x,,,... (4.3) Como a função exponencial de qualquer base é sempre positiva, resulta que P(X x) x R. Além disso, λ x P(X x) x! e λ e λ λ x e λ e λ. (4.33) x! x x }{{} (4.5) Esperança e Variância Vamos agora calcular a esperança e a variância da distribuição de Poisson. E(X) }{{} x x λ x x λx x! e λ + x λ x (x )! e λ }{{} λ yx x λx x! e λ y x λλx x(x )! e λ x λ y y! e λ }{{} λ λ (4.33)

130 6 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Portanto, X Poi(λ) E (X) λ (4.34) Veja que o parâmetro λ da distribuição de Poisson é também a média dessa variável aleatória. Isso significa que, durante um intervalo de tempo de tamanho, acontecem, em média, λ ocorrências do evento em questão. A unidade de tempo não foi definida pois pode ser qualquer uma. O importante é que o valor de λ esteja de acordo com a unidade de tempo adotada. Veja alguns exemplos nos itens a seguir. Se X número de ocorrências de um certo evento em dia, então a unidade de tempo é dia e λ será o número médio de ocorrências em dia; Se X número de ocorrências de um certo evento em semana, então a unidade de tempo é semana e λ será o número médio de ocorrências em semana; Se X número de ocorrências de um certo evento em horas, então a unidade de tempo é horas e λ será o número médio de ocorrências em horas. Exemplo 4.6 Central telefônica Uma central telefônica recebe uma média de 5 chamadas por minuto. Supondo que as chamadas cheguem segundo uma distribuição de Poisson, qual é a probabilidade de a central telefônica (a) não receber qualquer chamada em um minuto? (b) receber no máximo chamadas em minutos? (a) Nesse item estamos interessados em saber o número de chamadas no intervalo de minuto. Então a unidade de tempo será minuto e vamos definir X número de chamadas por minuto. De acordo com o enunciado, X Poi(λ), onde λ é o número médio de chamadas durante minuto, ou seja, λ 5. Queremos encontrar P(X ). P(X ) 5! e 5 e 5, (b) Agora o nosso interesse é no número de ligações no intervalo de minutos. Então a unidade de tempo adotada será minutos. Vamos definir Y número de chamadas em minutos. De acordo com o enunciado, Y Poi(λ), onde λ é o número médio de chamadas em minutos, ou seja, λ 5. Queremos encontrar P(Y ). P(Y ) P(Y ) + P(Y ) + P(Y )! e +! e +! e, Vamos, agora, calcular Var(X), calculando inicialmente E(X ). E(X ) x λx x! e λ + x λx x! e λ }{{} x x x x λ x λx (x )! e λ }{{} λ (y + ) λy y! e λ x yx y }{{} ( ) x λλ x x(x )! e λ

131 4.8. DISTRIBUIÇÃO DE POISSON 7 A expressao marcada com ( ) é a função de probabilidade de Y Poi(λ); logo, o somatório é E(Y + ) E(Y ) + λ + Logo, ou seja, E(X ) λ(λ + ) λ + λ Var(X) E(X ) E(X) λ + λ λ λ A variável aleatória de Poisson tem média e variância iguais à λ. X Poi(λ) V ar(x) λ (4.35) Apesar de a motivação da distribuição de Poisson ter sido a contagem do número de ocorrências de um evento ao longo do tempo, como citado anteriormente, tal distribuição também pode ser usada para modelar situações que não necessariamente envolvam tempo, como mostra o Exemplo 4.7 a seguir. Mas o importante é saber que as características dessa distribuição são adequadas para modelar variáveis aleatórias de contagem. Exemplo 4.7 Fabricação de fita magnética Em um certo tipo de fabricação de fita magnética, ocorrem cortes a uma taxa de um corte por pés. Qual é a probabilidade de que um rolo com comprimento de 4 pés apresente (a) no máximo dois cortes? (b) pelo menos dois cortes? Seja Y número de cortes num rolo de 4. pés. Então a unidade usada é 4. pés. Como ocorre, em média, corte a cada. pés, a cada 4. pés ocorrem, em média, cortes. Logo, Y Poi(). (a) (b) Nesse item queremos P(Y ). P(Y ) P(Y ) + P(Y ) + P(Y ) exp( ) + exp( ) + exp( ), !!! P(Y ) P(Y < ) (P(Y ) + P(Y )) ( ) exp( ) +!! exp( ), Formas da Distribuição de Poisson Se X Poi(λ), então temos P(X k + ) P(X k) λ k+ (k + )! e λ λ k k! e λ λ k + Temos, assim, uma forma recursiva para calcular probabilidades de Poisson. k,,,... (4.36) Suponhamos, agora, que a probabilidade máxima ocorra em k. Usando o resultado acima, temos que ter P(X k + ) λ P(X k ) k + k λ

132 8 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS e também P(X k ) P(X k ) λ k k λ Resulta, então, que se k é ponto de máximo, então λ k λ e como k tem que ser inteiro, temos que ter k λ, ou seja, a moda ocorre no maior inteiro menor ou igual a λ. caso, Se λ for inteiro, então a distribuição é bimodal, com moda em k λ e k λ pois, nesse P(X λ) λλ λ! e λ λ λλ λ (λ )! e λ P(X λ ) Nas Figuras 4.7a e 4.7b ilustra-se a distribuição de Poisson para dois valores do parâmetro: λ (distribuição bimodal, com modas e ) e λ 4, 3 (distribuição unimodal, com moda 4) (a) λ (b) λ 4, 3 Figura 4.7 Função de Probabilidade da Distribuição de Poisson. 4.9 Mais exemplos Exemplo 4.8 Um grupo de 3 políticos, sendo do partido de esquerda, resolve formar, de forma aleatória, uma comissão com 5 políticos. Qual é a probabilidade de que políticos de esquerda sejam maioria na comissão? Defina X número de políticos de esquerda na comissão. Veja que X hiper(n 3, r, n 5).

133 4.9. MAIS EXEMPLOS 9 Queremos P(X 3) P(X 3) + P(X 4) + P(X 5). ( )( ) 3 ( )( 8 ) P(X x) x 5 x x 5 x ( ) ( ) ( )( 8 )! 8! P(X 3) ( ) 3!9!!6!..., ! 5 5!5! ( )( 8 )! 8! P(X 4) ( ) 4!8!!7!..., ! 5 5!5! P(X 5) ( )( ( 3 5 )! 8! ) 5!7!!8!..., 55 3! 5!5! Logo, P(X 3), 36 +, 65 +, 55, 34. Exemplo 4.9 Sabe-se que a eficácia de uma vacina para uma certa doença é de 9%. probabilidade de um indivíduo que tomou a vacina ser imunizado é de,9. Isso significa que a (a) Qual é a probabilidade de que, entre pacientes vacinados, no máximo não tenha sido imunizado? (b) Quantos indivíduos, em média, devem ser vacinados até que seja encontrado um que não tenha sido imunizado? (a) Nesse item queremos a probabilidade de ou paciente não ter sido imunizado, entre vacinados. Defina X número de pacientes não imunizados entre os que tomaram a vacina. Veja que X Bin(n, p, 8). Queremos P(X ). P(X ) ( ) ( ) P(X ) + P(X ), 8, 9 +, 8, 9 9, ,, 4764, (b) Já nesse item queremos o número médio de pacientes vacinados até encontrar o o que não foi imunizado. Defina Y número de pacientes vacinados até encontrarmos não imunizado. Então, Y Geo(p, 8). Queremos E(Y ) /p, 5. Ou seja, em média são vacinados,5 pacientes até que se encontre o o não imunizado. Exemplo 4. Uma rodovia registra, em média, acidentes por dia. Considere a variável aleatória X número de acidentes na rodovia.

134 3 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS (a) Indique uma distribuição adequada para a variável aleatória X. Justifique sua resposta. (b) Qual é a probabilidade de acontecer pelo menos acidente nas próximas 6 horas? (a) A distribuição de Poisson é adequada para dados de contagem. No caso estamos contando o número de acidentes por dia, então é razoável considerar X Poi(λ). (b) Estamos interessados no número de acidentes no período de 6 horas. Vamos definir então X número de acidentes no período de 6 horas e assim temos X Poi(λ), onde λ é o número médio de acidentes em 6 horas, no caso, λ 6, 5. Queremos P(X ). 4 P(X ) P(X < ) P(X ), 5! e, Exemplo 4. Suponha que em uma cidade 5% dos cidadãos votaram no vereador João. A fim de avaliar a satisfação de seus eleitores, João decide fazer uma pesquisa direcionada. Para isso, João aborda, de forma aleatória e com reposição, cidadãos na rua a fim de encontrar seus eleitores e realizar a pesquisa. (a) Qual é a probabilidade de que João não encontre qualquer eleitor seu nas primeiras abordagens? (b) Se João planeja entrevistar dos seus eleitores, em média, quantos cidadãos serão abordados? (a) Podemos resolver esse item de duas maneiras diferentes. Primeira solução. Seja Y número de eleitores de João entre os primeiros cidadãos abordados. Veja que Y B(n, p, 5). Queremos P(Y ). ( ) P(Y ), 5, 85, 85, Segunda solução. Considere X número de cidadãos abordados até encontrar o primeiro eleitor de João. Então X geo(p, 5). Queremos P(X > ) P(X ). P(X > ) P(X ) (P(X ) + P(X ) + + P(X )) P(X x), 5(, 85) x, 5 (, 85) x x, 85, 5, 5 x, 85, (b) Precisamos definir quantas abordagens, em média, serão realizadas até que João encontre de seus eleitores. Defina W número de abordagens até João encontrar de seus eleitores. Veja que W BinNeg(r, p, 5), sendo aqui a binomial negativa deslocada. Queremos E(W ) r/p /, 5 33, 33. Ou seja, em média, João vai precisar abordar em torno de 34 indivíduos para conseguir encontrar de seus eleitores. x

135 4.9. MAIS EXEMPLOS 3 Exemplo 4. Problema dos pontos - Exemplo.6 de Magalhães () Ensaios do tipo sucesso-fracasso são realizados de forma independente, sendo p a probabilidade de sucesso. Qual é a probabilidade de ocorrerem n sucessos antes de m fracassos? Primeira solução: Seja X número de fracassos antes do n-ésimo sucesso. Então X BinNeg(n; p) e P(X x) é dada pela Equação 4.9. Para que ocorram n sucessos antes de m freacasso, temos que ter, no máximo, m fracassos antes do n ésimo sucesso, ou seja, o problema pede m ( ) x + n P(X m ) p n ( p) x. x x Segunda solução: Seja Y número de tentativas até o n ésimo sucesso. Então Y tem distribuição binomial negativa deslocada com parâmetros n e p. Para termos n sucessos antes de m fracassos é necessário que os n tenham ocorrido antes da n + m-ésima tentativa, ou seja, o problema pede P(Y < n + m) n+m yn ( ) y p n ( p) y n. n Vejamos um caso numérico em que os ensaios são lançamentos de uma moeda honesta, ou seja, p /. Vamos definir a ocorrência de cara como sucesso e calcular a probabilidade de saírem 5 caras antes de 3 coroas. Temos n 5, m 3 e p /. Pela primeira solução temos, P(X ) ( ) ( ) x ( x x ( ) ( ) 4 5 ( ) ( ) ( 5 + ) x ) 5 ( ) + ( 6 ) ( ) 5 ( ) Pela segunda solução: P(Y < 8) 7 ( y y5 y ) ( ) 5 ( ) y 5 ( ) ( ) 4 5 ( ) ( ) ( ) 5 ( ) + ( 6 4 ) ( ) 5 ( )

136 3 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS 4. Apêndice: Séries geométricas Convergência Vamos estudar a convergência da série geométrica ar i (4.37) considerando os possíveis valores da razão r. Proposição 4. Série geométrica A série geométrica ar i diverge se r e converge se r < com i i ar i i a r se r <. (4.38) Demonstração: r Nesse caso, a série é a + a + a + e a n ésima soma parcial é s n a + a + + a (n + )a para a qual temos lim s n lim (n + )a ±a dependendo do sinal de a. Resulta, então, que n n a série geométrica (4.37) diverge. r Nesse caso, a série é a a+a a+a a+ e a sequência das somas parciais é a,, a,, a, que, obviamente, diverge. Logo, a série geométrica diverge se r. r A n ésima soma parcial é s n a + ar + ar ar n Multiplicando ambos os lados por r, obtemos que rs n ar + ar + ar ar n + ar n+ e, portanto, s n rs n (a + ar + ar ar n ) (ar + ar + ar ar n + ar n+ ) a ar n+ Logo, Como r, podemos escrever s n ( r) a( r n+ ) s n a( rn+ ) r (4.39)

137 4.. APÊNDICE: SÉRIES GEOMÉTRICAS 33 r < ( < r < ) Nesse caso, lim n rn+ e lim n s n ar i i a, ou seja, r a r se r <. r > Nesse caso, lim n rn+ o que implica que a sequência das somas parciais diverge, o mesmo ocorrendo com a série geométrica. r < Nesse caso, r n+ oscila entre valores negativos e positivos de magnitude crescente, o que implica novamente que a sequência das somas parciais diverge, o mesmo ocorrendo com a série geométrica. ou Note que podemos escrever (atenção aos índices dos somatórios!): ar i a + ar i a r a + ar i se r < i i ar i i a r a ar r i se r < (4.4) Derivadas Vamos considerar agora o caso particular em que a, para obtermos alguns resultados que serão úteis. Derivada primeira ( ) d r i dr i d dr ( + r + r + r 3 + r r n + ) + r + 3r + 4r nr n + [ ] + (r + r) + (r + r ) + (r 3 + 3r 3 ) + r n + (n )r n + [ ] ( + r + r + r r n + ) + r + r + 3r (n )r n + (r i + ir i ) i ( + i)r i i Como a série geométrica é convergente para r <, podemos igualar as derivadas, isto é: ( ( + i)r i d ) r i d ( ) se r < dr dr r i i

138 34 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS ou seja, Mas podemos escrever resultando que ( + i)r i i ( + i) ( + i i i ( + i) i! i! ) r i ( r) se r < (4.4) ( + i)! i!! ( ) + i i ( r) se r < (4.4) Derivada segunda ( d ) dr r i i d dr ( + r + r + r 3 + r r n + r n + r n+ ) d ( ) + r + 3r + 4r 3 + (n )r n + nr n + (n + )r n + dr + 3 r r + + (n )(n )r n 3 + n(n )r n + (n + )nr n + (i + )(i + )r i i Igualando as derivadas, obtemos: ou i (i + )(i + )r i d dr ( ) d ( r dr (i + )(i + )r i i Esse resultado pode ser escrito de outra forma: ( r) ) ( r)( ) ( r) 4 ( r) 3 (4.43) (i + )(i + )r i i i i (i + )(i + ) r i (i + )(i + )i! r i i! (i + )! i!! ri i ( ) i + r i i ( r) 3 ( r) 3 ( r) 3 ( r) 3 ( r) 3 Pela propriedade das relações complementares, sabemos que ( ) ( i+ i+ ) i e, portanto, resulta que ( ) i + ( ) i + r i r i i ( r) 3 (4.44) i i

139 4.. APÊNDICE: LIMITES ENVOLVENDO AS FUNÇÕES EXPONENCIAL E LOGARÍTMICA 35 Terceira derivada ( d 3 ) dr 3 r i d3 dr 3 ( + r + r + r 3 + r 4 + r r n + r n + r n+ ) i d ( ) dr + r + 3r + 4r 3 + 5r (n )r n + nr n + (n + )r n + d [ + 3 r r r (n )(n )r n 3 ] dr +n(n )r n + (n + )nr n r r + + (n )(n )(n 3)r n 4 + +n(n )(n )r n 3 + (n + )n(n )r n + (i + 3)(i + )(i + )r i i Igualando as derivadas: Logo, i Resultado geral i (i + 3)(i + )(i + )r i d3 dr 3 3 ( r) ( ) ( r) 6 (i + 3)(i + )(i + ) r i 3! i ( r) 4 ( ) 3 + i r i i i ( 3 + i i ( ) d ( r dr 3! ( r) 4 ( r) 3 (i + 3)(i + )(i + )i! r i 3! i! 3 ) r i ) ( r) 4 ( r) 4 (4.45) Continuando a derivar (note que podemos tomar derivadas de qualquer ordem!), obtém-se o seguinte resultado geral: ( ) k + i r i i i ( k + i i k ) r i ( r) k+ (4.46) 4. Apêndice: Limites envolvendo as funções exponencial e logarítmica lim h ( + h) h Demonstração e Da definição de derivada da função f(x) ln x, temos que f (x) ln(x + h) ln(x) lim h h ( x + h lim h ln x lim h ) h lim h ln ( ) x + h h ln x ( + h ) h x

140 36 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Como f (x) x, para x temos f () e, portanto, lim h ln ( + h) h Mas ( + h) h exp [ln ( + h) h ] Como a função exponencial é contínua, lim h ( + h) h [ ] lim exp ln ( + h) h h exp lim h ln ( + h) h exp() e ou seja, Fazendo h n na expressão acima, obtemos que lim h ( + h) h e (4.47) ( lim + n e (4.48) n n) ( lim + x n e x n n) Demonstração Fazendo t x, resulta que n ( lim + x n lim ( + t) n n) x [ t lim ( + t) /t] x t t Mas a função exponencial é contínua; logo, lim [( + t) /t] [ x t lim t ( + t)/t ] x e x Logo, lim x xk e x Demonstração ( lim + x ) n e x n n (4.49) Vamos mostrar esse resultado usando demonstração por indução e usando, também, a regra de L Hôpital. k que tem a forma x lim x xe x lim x e x e, portanto, podemos aplicar L Hôpital, que diz que lim x xe x lim x Logo, o resultado vale para k. x e x lim x x (e x ) lim x e x

141 4.. APÊNDICE: LIMITES ENVOLVENDO AS FUNÇÕES EXPONENCIAL E LOGARÍTMICA 37 Suponhamos verdadeiro para qualquer k; vamos mostrar que vale para k +. ( lim x xk+ e x x k+ x k+ ) (k + ) x k lim x e x lim x (e x ) lim x e x pela hipótese de indução. x k (k + ) lim (k + ) x ex A interpretação desse resultado pode ser vista na Figura 4.8 para o caso de x 3 : para valores de x maiores que a abscissa do ponto de interseção, o valor de e x é sempre maior que x 3 e, portanto o limite de x3 e é zero. Dito de outra forma, a função exponencial cresce muito mais rapidamente que x qualquer função polinomial. x Figura Ilustração do resultado lim x e x De maneira análoga, prova-se um resultado mais geral dado por: lim x xk e λx k > e λ > (4.5) Fórmula de Taylor Vamos ver, agora, a fórmula de Taylor para a função f(x) e x. Lembrando que a derivada de f(x) é a própria f(x) e que f(), podemos escrever: onde e x + x + x! + + xn n! + R n+ R n+ ez (n + )! xn+ para algum z entre e x. Se x >, então < z < x, o que implica que e z < e x e, portanto Mas lim n < R n+ < ex (n + )! xn+ e x (n + )! xn+ e x lim n x n+ (n + )! ex e, pelo teorema do sanduíche, lim R n+. Se x <, como z está entre x e, segue que z < ; logo, e z < e < R n+ < x n+ (n + )!

142 38 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Logo, também neste caso lim n R n+. Segue, então, que f(x) e x é representada pela série de Taylor, ou seja, podemos escrever e x k x k k! (4.5)

143 Capítulo 5 Variáveis Aleatórias Contínuas Já vimos, no Capítulo, conceitos iniciais sobre as variáveis aleatórias contínuas. Neste capítulo vamos aprofundar nosso estudo sobre esse tipo de variável aleatória. 5. Função densidade de probabilidade A definição de variável aleatória contínua normalmente apresentada nos livros de probabilidade não é a citada no Capítulo, que define X como contínua quando a sua função de distribuição acumulada é uma função absolutamente contínua. A forma mais comum de se definir variável aleatória contínua está na Definição 5. a seguir, onde se apresenta, também, o conceito de função densidade. Definição 5. Variável Aleatória Contínua e Função Densidade Uma variável aleatória X com função de distribuição F é classificada como contínua quando existe uma função não negativa f tal que F(x) x f(t)dt, para todo x R. Nesse caso, a função f é denominada função densidade de probabilidade, ou simplesmente função densidade, da variável aleatória X. Proposição 5. Propriedades da Função Densidade Seja f X a função densidade de alguma variável aleatória X. Então f X satisfaz as seguintes propriedades. (i) f X (x) x R. (ii) f(t)dt Demonstração: A função densidade é não negativa por definição. Para mostrar que f(t)dt veja que x f(t)dt lim f(t)dt lim F(x), x x pelas propriedades da função distribuição.

144 4 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS Já vimos como calcular P(a X b) a partir da função de distribuição de X (Exemplo.7). O que veremos agora é que esse cálculo também pode ser feito a partir da função densidade. Proposição 5. Seja X variável aleatória contínua com função densidade f X e a, b R tais que a b. Então P(a X b) b a f X (t)dt. Demonstração: Seja X variável aleatória contínua e F X a sua função de distribuição. Já vimos que: Pela Definição 5., temos que F X (a) a P(a X b) F X (b) F X (a). (5.) f X (t)dt e F X (b) As Equações 5. e 5., juntamente com propriedades da integral, resultam em: P(a X b) F X (b) F X (a) b f X (t)dt a b f X (t)dt. (5.) f X (t)dt b a f X (t)dt. Vemos, pela Proposição 5., que a probabilidade de X [a, b] é a área sob a curva da sua função densidade. Quando a b, a proposição ainda se aplica, fornecendo uma outra demonstração para um resultado já visto no Capítulo : Além disso, se a ou b P(X a) P(a X a) a P( X b) P(X b) F X (b) a f X (t)dt. b f X (t)dt a P(a X ) P(X a) F X (a) f X (t)dt uma vez que a f X (t)dt + a f X (t)dt f X (t)dt. a f X (t)dt Vemos, assim, que, tanto a função densidade quanto a função de distribuição de uma variável aleatória contínua contêm toda a informação sobre a variável aleatória. Mais que isso, conhecendo uma das funções F X ou f X é possível determinar a outra. A Definição 5. nos mostra como encontrar F X a partir de f X : F X (x) x f X (t)dt. Aplicando o Teorema Fundamental do Cálculo, concluímos que: f X (x) d dx F X (x). (5.3) No Capítulo, vimos que, se X é uma variável aleatória continua com função de distribuição F X, então Im(X) é formada pelos pontos do domínio de F X onde esta função é estritamente crescente. Usando a Equação (5.3), concluímos que Im(X) é formada pelos pontos em que sua função densidade f X é positiva.

145 5.. FUNÇÃO DENSIDADE DE PROBABILIDADE 4 Exemplo 5. Nas figuras a seguir são dados os gráficos das funções densidade f e g de duas variáveis aleatórias contínuas X e Y, respectivamente. (a) Encontre as expressões de f e g. (b) Encontre as funções de distribuição de X e Y, (a) A função f é constante no intervalo [, 3] e nula fora desse intervalo. Então, temos que ter 3 kdx kx 3 k 3 No intervalo [, 3], g(x) kx e é nula fora desse intervalo. Então, temos que ter 3 kxdx k x 3 k 9 (b) No intervalo [, 3] temos F X (x) P(X x) x 3 dt x 3 G Y (y) P(Y y) y 9 tdt y 9 y 9 Logo, x < F X (x) x/3 x < 3 x 3 y < G Y (y) y /9 y < 3 y Exemplo 5. Seja X variável aleatória contínua cuja função densidade é definida por: a( + x), se x < f X (x) a( x), se x, caso contrário.

146 4 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS (a) Faça um esboço do gráfico de f X. (b) Encontre o valor de a para que f X seja realmente função densidade. (c) Quais valores a variável aleatória X pode assumir, ou seja, qual é a imagem de X? (d) Calcule P(X > ), P(X ) e P( / X /). (e) Encontre a função de distribuição de X e esboce seu gráfico. (a) Veja a figura a seguir. (b) a( + x)dx + a( x)dx ) (x + x + ) (x x a a (c) Im(X) (, ), intervalo no qual f(x) >. (d) Por simetria e sabendo que a área total sob o gráfico de f X é, conclui-se que P(X > ), 5. Como já visto, P(X ). ( P X ) / (x + x a( + x)dx + ) / + / (x x a( x)dx ) / 3 4 (e) A função de distribuição será definida por partes, assim como a função densidade. Se x < : F X (x) P ( X x) x ) ( + t)dt (t + t x ) ( (x + x + ) x + x + (x + )

147 5.. FUNÇÃO DENSIDADE DE PROBABILIDADE 43 Se x < : Logo, F X (x) + P ( X x) x + ( t)dt ( ) + t t x ( ) + x x + x x x x ( ) F X (x) ( x) x < ( + x) x < ( x) x < x Exemplo 5.3 Seja X uma variável aleatória cuja função de distribuição é definida por:, se x < (x )/4, se x < 4 F X (x) /, se 4 x < 6 (x 4)/4, se 6 x < 8, se x 8 (a) Faça um esboço do gráfico de F X. (b) Quais valores a variável aleatória X pode assumir, ou seja, qual é a imagem de X? (c) Classifique a variável aleatória X. (d) Calcule P(X 3) e P(3 < X 5). (e) Encontre a função densidade de X, f X, e esboce seu gráfico. (f) Verifique as propriedades da função densidade. (g) Repita os itens (b) e (d) resolvendo agora a partir da função f X. (a) O gráfico de F X é dado a seguir.

148 44 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS (b) Im(X) {[, 4) [6, 8)} (c) Como F X é contínua com apenas 4 pontos em que não é diferenciável, a variável aleatória X é contínua. (d) P(X 3) P(X < 3) lim x 3 F X P(3 < X 5) P(X 5) P(X 3) F X (5) F X (3) 4 4 (e) f X (x) x < /4 x < 4 4 x < 6 /4 6 x < 8 x 8 (f) f X (x) e f x (x)dx é a soma das áreas de dois retângulos de base e altura /4 e, portanto, é igual a. (g) A função densidade é não nula nos intervalos [, 4) e [6, 8) que, portanto, definem Im(X). P(X 3) 3 f X (x)dx dx dx P(3 < X 5) 5 3 f X (x)dx dx dx 4 Exemplo 5.4 Seja X variável aleatória contínua tal que sua função densidade é definida por: { c(4x x f(x) ), se < x <, caso contrário. (a) Encontre o valor de c para que f seja realmente função densidade. (b) Esboce o gráfico de f. (c) Calcule P(X > ). (d) Encontre F X. (a) c(4x x )dx (b) O gráfico de f x é dado a seguir. ) (x x3 3 c 8 3 c c 3 8

149 5.. FUNÇÃO DENSIDADE DE PROBABILIDADE 45 (c) Analisando o gráfico de f X, podemos ver que P(X > ) P(X ), 5. (d) Se < x <, temos Logo, F X (x) F X (x) x < 3x x 3 x < 4 x x 3 8 (4x x )dx 3x x 3 4 Exemplo 5.5 O tempo de vida em horas de um certo dispositivo eletrônico pode ser considerado uma variável aleatória com função densidade definida por f X (x) e x/, x. (a) Qual a probabilidade de um desses dispositivos eletrônicos durar entre 5 e 5 horas? (b) Qual a probabilidade de um desses dispositivos eletrônicos durar menos de horas? (a) Seja Seja X tempo de vida em horas do dispositivo (b) P(5 < X < 5) 5 5 e x/ dx e x/ 5 e,5 + e,5, P(X < ) e x/ dx e x/ e, + e, e, 63 Exemplo 5.6 O tempo de vida em horas de um certo tipo de tubo de rádio é uma variável aleatória com função densidade {, se x > f(x) x, caso contrário. (a) Qual a probabilidade de um tubo desse tipo durar mais que 5h? (b) Qual a probabilidade de exatos entre 5 desses tubos terem que ser trocados antes de 5h de operação?

150 46 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS (a) Seja X tempo de vida em horas do tubo P(X > 5) 5 ( ) x dx x (b) Seja( Y número de tubos a serem trocados antes de 5 horas, dentre 5. bin 5; ) e 3 ( ) ( ) 5 ( ) 3 P(Y ) Então, Y 5. Esperança de variáveis aleatórias contínuas No Capítulo 3, foi apresentada a ideia de valor médio como a média dos valores da variável aleatória se o experimento fosse realizado infinitas vezes. Essa ideia pode ser utilizada, também, para o caso de variáveis aleatórias contínuas. Porém, no caso contínuo, não é possível termos a média ponderada dos valores da variável aleatória, com a ponderação definida pela probabilidade de cada um dos valores, uma vez que a probabilidade de cada um ocorrer é sempre nula. Mas essas ideias serão úteis para a definição do valor médio, ou esperança, no caso de variáveis aleatórias continuas. Sem perda de generalidade, suponha que X seja uma variável aleatória contínua com função densidade f X e Im(X) [, ]. Vamos dividir esse intervalo em subintervalos [x, x + dx], com dx /n e x, /n, /n,..., (n )/n,. Veja que se n for grande, então f X (x)dx P(x X x + dx) Seguindo a definição de esperança para o caso discreto, podemos supor, para o caso contínuo, que, se n for grande, E(X) x P(x X x + dx) xf X (x)dx x x Tomando o limite quando n, ou equivalentemente dx, temos E(X) lim x P(x X x + dx) lim xf X (x)dx xf X (x)dx. n dx Isso nos leva à Definição 5.. x x x Definição 5. Esperança de Variável Aleatória Contínua Seja X uma variável aleatória contínua com função densidade de probabilidade f X. A esperança (ou média ou valor esperado) de X é definida como E(X) desde que a integral esteja bem definida. + xf X (x)dx Exemplo 5.7 Calcule E(X) para os Exemplos 5. a 5.6.

151 5.. ESPERANÇA DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 47 Exemplo 5. E(X) x(+x)dx+ x( x)dx ( x + x3 3 ) + ( x x3 3 ) ( ) ( + 3 ) 3 Exemplo 5.3 E(X) 4 x 4 dx x 4 dx 4 x x [(6 4) + (64 36)] Exemplo 5.4 E(X) x 3 8 (4x x )dx 3 8 ) (4 x3 ( 3 x4 4 x3 3 ) 6 x Exemplo 5.5 E(X) x e x/ dx Para o cálculo desta integral, faremos uso do método de integração por partes com as seguintes definições: Logo, u x du dx dv e x/ v e x/ E(X) Exemplo 5.6 x e x/ dx xe x/ e x/ dx + ( e x/) E(X) Logo, a esperança de X não existe. x x dx x dx ln x lim ln x ln() x Assim como no caso discreto, se X é variável aleatória contínua e g é uma função real qualquer, então Y g(x) também é variável aleatória e o cálculo da sua esperança pode ser feito somente com o conhecimento da função g que relaciona X e Y e da função densidade de X, f X. Proposição 5.3 Esperança de funções de variável aleatória contínua Seja X uma variável aleatória contínua com função densidade f X e seja Y g(x). Então, desde que a integral esteja bem definida. E (Y ) E (g (X)) g(x)f X (x),

152 48 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS Demonstração: A demonstração será omitida. Exemplo 5.8 Seja X variável aleatória com função densidade definida por, se x < (x + ) f(x), se < x < x, se x <, se x > (a) Verifique as propriedades da função densidade e esboce o gráfico de f. (b) Calcule E(X). (c) Se Y /(X + ), calcule E(Y ). (a) f X (x), como pode ser visto no seu gráfico. f X (x)dx (x + )3 3 + ( 3 + ) 3 (x + ) dx + (x x3 3 ) ( x )dx (b) E(X) x(x + x + )dx + ( ) ( + 4 ( x x( x 4 )dx ) x3 3 + x ) ( ) x + x4 4 (c) E(Y ) x + f X (x)dx ( ) ( + ) (x + ) x + dx + ( ) ( x)( + x) x dx x + + x + ) (x x Assim como no caso discreto, continuam valendo, para o caso contínuo, as seguintes propriedades da esperança. Proposição 5.4 Seja X variável aleatória contínua, x min min{im(x)} e x max max{im(x)}. Se E(X) R então, x min E(X) x max.

153 5.3. VARIÂNCIA 49 Demonstração: Primeiro vamos mostrar que x min E(X). E(X) xf X (x) x min f X (x) x min f X (x) x min. }{{} Para mostrar que E(X) x max, faremos um desenvolvimento análogo. E(X) xf X (x) x max f X (x) x max f X (x) x max. }{{} Proposição 5.5 Propriedade de Linearidade da Esperança Seja X variável aleatória contínua tal que E(X) R. Sejam a, b R. Então, E(aX + b) a E(X) + b. Demonstração: E(aX + b) a (ax + b)f X (x)dx xf X (x)dx +b } {{ } E(X) (axf X (x) + bf X (x)) dx f X (x)dx a E(X) + b. } {{ } axf X (x)dx + bf X (x)dx 5.3 Variância A variância de uma variável aleatória, discreta ou contínua, é uma medida de dispersão em torno da média. O que muda do caso discreto para o contínuo é apenas a forma de cálculo. Definição 5.3 Variância de Variável Aleatória Contínua Seja X variável aleatória contínua tal que E(X) R. A variância de X é definida como [ Var (X) E (X E (X)) ] desde que a integral esteja bem definida. (x E (X)) f X (x)dx, (5.4) O desvio-padrão é definido como a raiz quadrada de sua variância, independente do tipo de variável. DP (X) Var (X)

154 5 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS Usando as propriedades do cálculo integral e representando por µ a esperança de X (note que µ é uma constante, um número real), temos que: Var(X) [x µ] f X (x)dx ( x µx + µ ) f X (x)dx x f X (x)dx µ + + xf X (x)dx + µ f X (x)dx Se definimos h(x) x, a primeira integral nada mais é que E(X ), pela Proposição 5.3. A segunda integral é E(X) µ e a terceira integral é igual a, pela definição de função densidade. Logo, Var(X) E(X ) µ + µ E(X ) µ o que nos leva ao resultado já visto para variáveis discretas: Var(X) E(X ) [E(X)] (5.5) De forma resumida: a variância é a esperança do quadrado de X menos o quadrado da esperança de X. As propriedades apresentadas na Proposição 3.9 valem também para o caso contínuo. Note que, na sua demonstração, em momento algum usou-se o fato de a variável ser discreta, apesar da proposição ter sido enunciada no capítulo sobre variáveis aleatórias discretas. Vejamos novamente tais propriedades. Se X variável aleatória tal que Var(X) R, então valem as seguintes propriedades: (i) Var(X) (ii) DP(X) (iii) Var(aX + b) a Var(X) (iv) DP(aX + b) a DP(X) Exemplo 5.9 Para a variável aleatória apresentada no Exemplo 5.8 calcule: Var(X), Var(3X + ) e Var(X ). No Exemplo 5.8, obtivemos E(X) /6. Vamos, agora, calcular E(X ) para, em seguida, obter Var(X). E(X ) x (x + x + )dx + ( ) ( ( x x ( x 5 )dx ) x4 4 + x3 3 ) ( ) x x5 5 Logo, Var(X) 6 ( 6 ) 5 36 Var(3X + ) Var(3X) 9 Var(X)

155 5.3. VARIÂNCIA 5 Seja Y X. Então, Var(Y ) E(Y ) [E(Y )] E(X 4 ) [ E(X ) ] Logo, E(X 4 ) x 4 (x + x + )dx + ( ) ( ( x x 4 ( x 7 )dx ) Var(X ) 5 ( ) x6 6 + x5 5 Exemplo 5. Função linear Seja X variável aleatória cuja função densidade f X está apresentada na Figura 5.. ) ( ) x x7 7 (a) Encontre o valor de k para que f X seja função densidade de probabilidade de uma variável aleatória contínua e determine a equação que define f X. (b) Calcule P( X 3). (c) Encontre a função de distribuição de X. (d) Determine o valor de q tal que P(X q), 6. (e) Calcule a esperanca e a variância de X. Figura 5. Função densidade para o Exemplo 5. (a) Usando a interpretação geométrica da integral como área sob a curva, o valor de k pode ser encontrado notando-se que essa área é a de um trapézio (veja Figura 5. com alturas k e, e base 5. Logo, 5 k +, k +,, 4 k, 3. No intervalo (, 5), f X é um segmento de reta que passa pelos pontos (;, ) e (6;, 3); temos, assim, o seguinte sistema de equações: {, a + b, 3 a + 6b Subtraindo a primeira equação da segunda, obtemos b, 4 e a, 6. Logo, {, 6 +, 4x se x 6 f X (x) caso contrário

156 5 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS (b) Veja a Figura 5.3, em que a área sombreada (área de um trapézio de bases f() e f(3) e altura ) corresponde à probabilidade pedida: P( X 3) f() + f(3), 4 +, 8, 6 3 ) (, 6 +, 4x)dx (, 6x +, 4 x 3 ( 9, 6 +, 4 4 ), 6 Figura 5. Área sob f X Exemplo 5. Figura 5.3 P( X 3) Exemplo 5. (c) Veja a Figura 5.4; aí podemos ver que, para x [, 6], F X (x) é a área de um trapézio de altura x e bases f X (x) e f X (),. Logo, para x [, 6] ou seja, F X (x) (, 6 +, 4x) +, (x ) (, 8 +, x)(x ) se x < F X (x), x +, 6x, 8 se x 6 se x > 6 Na Figura 5.5 é dado o gráfico da função de distribuição. Usando integral, temos que x ), 4t x F(x) (, 6 +, 4t)dt (, 6t + (, 6x +, x ) (, 6 +, ), x +, 6x, 8 x 6 Figura 5.4 F X como área Exemplo 5. Figura 5.5 F X Exemplo 5. (d) Queremos determinar q tal que F X (q), 6. Logo,, 6, q +, 6q, 8, q +, 6q, 68 q + 3q 34 q 3 ±

157 5.4. DENSIDADE SIMÉTRICA 53 A raiz que fornece resultado na Im(X) é q , 58 (e) Temos que E(X) 6 x ( ) ( 6 x dx ( ) x + 4 ( x 3 3 ) ) 6 E(X ) 6 ) x ( 6 x + 4 ( ( 6 dx ) x ( + ) x 4 ) 6 ( 4 x3 + ) 6 x Var(X) 69 ( ) Densidade simétrica Nos Exemplos 5., 5.3 e 5.4 as funções densidade eram simétricas em torno de, 5 e, respectivamente e vimos que as esperanças eram exatamente os pontos de simetria. Esses resultados não são coincidência; eles refletem um resultado mais geral sobre densidades simétricas, apresentado na Proposição 5.6 a seguir. Proposição 5.6 Seja X uma variável aleatória com função densidade f X (x) simétrica em torno de µ, isto é, Então, E(X) µ. f X (µ x) f X (µ + x). Demonstração: µ Nesse caso, f X (x) é uma função par, isto é, f X (x) f X ( x). Por definição, E(X) + xf X (x)dx Vamos denotar o integrando por h(x), isto é, h(x) xf X (x). Resulta da simetria de f X que h( x) xf X ( x) xf X (x) h(x)

158 54 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS ou seja, h(x) é uma função ímpar e pelo Teorema 5., + h(x)dx Provamos, assim, que se X é uma variável aleatória com densidade simétrica em torno de x então E(X). µ qualquer Vamos definir uma nova variável aleatória Y X µ. Então, F Y (y) P(Y y) P(X µ y) P(X µ + y) F X (µ + y) F Y (y) f Y (y) F X (µ + y) f X (µ + y) Como f X é simétrica em torno de µ, temos que f Y (y) f X (µ + y) f X (µ y) f Y ( y) ou seja, a densidade de Y é simétrica em torno de e, portanto, E(Y ) E(X µ) E(X) µ Podemos interpretar a função densidade de probabilidade de X como uma distribuição de massa na reta real e essa interpretação também nos permite concluir que, se f X é simétrica, então E(X) é o valor central que define o eixo de simetria. Exemplo 5. Densidade triangular Considere a função f X apresentada na Figura 5.6: Figura 5.6 Função densidade Exemplo 5. (a) Encontre o valor de k para que f X seja uma função densidade de probabilidade de uma v.a. X (note que o triângulo é isósceles). (b) Determine a equação que define f X. (c) Calcule P( X 3). (d) Encontre E(X). (e) Determine o valor de Q tal que P(X Q), 6. (f) Encontre a função de distribuição de X.

159 5.4. DENSIDADE SIMÉTRICA 55 (a) Por argumentos geométricos, a área tem que ser, ou seja (4 ) k k (b) A função f X é dada por dois segmentos de reta. O primeiro tem inclinação positiva e é determinado pelos pontos (, ) e (, ). Logo, para x [, ), fx (x) bx em que b y x /, ou seja, para [, ), f X (x) x 4. No intervalo [, 4], o segmento y a+bx tem inclinação negativa e é determinado pelos pontos (, ) e (4, ) e isso fornece o seguinte sistema de equações a + b 4 a + b Subtraindo a segunda equação da primeira, resulta: (a a) + (4b b) b 4 Substituindo na primeira equação, encontramos que a. Combinando os dois resultados, obtemos a seguinte expressão para f X : x se x < 4 f X (x) x se x 4 4 se x < ou x > 4 (c) A probabilidade pedida é a área sombreada em cinza-escuro na Figura 5.7. Figura 5.7 Cálculo de P( X 3) Os dois triângulos sombreados de cinza-claro têm a mesma área, por causa da simetria. Assim, podemos calcular a probabilidade usando a regra do complementar, uma vez que a área total é. A altura dos dois triângulos é 4 f X () f X (3). Logo, a área de cada um dos triângulos é 4 8 e, portanto, Usando integrais, temos que P( X 3)

160 56 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS P( X 3) 3 f X (x)dx ) + ( [( x 4 dx + ) 3 ( x ) dx x )] ( 4 8 (d) Como a função densidade é simétrica, resulta que E(X). ) (x x 3 4 (e) O primeiro ponto a observar é o seguinte: o ponto x divide a área ao meio, ou seja, x é a mediana da distribuição. Como temos que P(X Q), 6, resulta que Q tem que ser maior que. Veja a Figura 5.8: Figura 5.8 Cálculo do percentil Q P 6 Novamente, vamos usar a regra do complementar: como a área (probabilidade) abaixo de Q tem que ser,6, a área (probabilidade) acima de Q, dada pela área do triângulo superior, tem que ser,4. A altura desse triângulo é f(q) Q 4. Log, temos que, 4 ( (4 Q) Q ), 4 4 Q 8 ± , 8 ±, A raiz 8+, está fora de Im(X); logo, a solução é: Q 8, ) (4 Q Q + Q Q 8Q + 3, 4, 367 (f) Assim como a função densidade, a função de distribuição também será definida por partes. Para x [, ), F X (x) é a área do triângulo sombreado na Figura 5.9 e para x [, 4], F x (x) é a área sombreada na Figura 5.. Figura 5.9 F X (x) para x < Figura 5. F X (x) para x < 4 Logo, F X (x) (x ) x 4 x [, )

161 5.5. APÊNDICE: FUNÇÕES PARES E ÍMPARES 57 F X (x) ( (4 x) x ). 4 Combinando os resultados obtidos, resulta a seguinte expressão para F X : se x < F X (x) 8 x se x < 8 (4 x) se x 4 se x > 4 Veja a Figura 5.; para x <, o gráfico de F X é uma parábola côncava para cima; para x 4, o gráfico de F X é uma parábola côncava para baixo. Figura 5. Função de distribuição para a densidade triangular 5.5 Apêndice: Funções pares e ímpares Definição 5.4 Funções pares e ímpares Uma função f(x) é par se f ( x) f (x) Uma função f(x) é ímpar se f ( x) f (x) x x Teorema 5. Integral de funções pares e ímpares Se f(x) é par, então Se f(x) é ímpar, então f(x)dx f(x)dx (5.6) f(x)dx (5.7)

162 58 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS Demonstração: Podemos escrever f(x)dx Fazendo x t na primeira integral, tem-se que: f(x)dx + f(x)dx f(x)dx f( t)( dt) + f( t)dt + f(x)dx f(x)dx f( t)dt + f(x)dx Se a função é par, resulta que: f(x)dx f( t)dt + Se a função é ímpar, resulta que: f(x)dx f(t)dt + f(x)dx f(x)dx f(x)dx f( t)dt + f(t)dt + f(x)dx f(x)dx f(t)dt + f(x)dx

163 Capítulo 6 Algumas Distribuições Contínuas Assim como no caso discreto, algumas distribuições de variáveis aleatórias contínuas são bastante usadas e por isso merecem um estudo mais detalhado. Esse é o objetivo deste capítulo, estudar algumas distribuições contínuas. 6. Distribuição uniforme A motivação principal da distribuição Uniforme é definir a função densidade de uma variável aleatória X de forma que P(X I) dependa apenas do tamanho do intervalo I. Considere a função densidade f X apresentada na Figura 6., em que a e b são números conhecidos. Figura 6. Função densidade uniforme Note que, para dois subintervalos de mesmo comprimento contidos em [a, b], a área será igual, uma vez que temos áreas de retângulos com mesma altura. Assim, intervalos de mesmo comprimento têm a mesma probabilidade. Esse fato leva à denominação de tal densidade como densidade uniforme. Qual deve ser o valor de k para que f X seja função densidade? A primeira condição é a função densidade é uma função não-negativa, logo isso implica em k. A segunda condição é que a área sob a curva de f X tem que ser, o resulta em b a kdx kx b a k b a.

164 6 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Definição 6. Distribuição Uniforme Uma variável aleatória contínua X tem distribuição uniforme no intervalo (a, b) se sua função densidade é dada por, se x (a, b) f(x) b a, caso contrário. Os valores a e b são chamados parâmetros da distribuição uniforme. Note que ambos os parâmetros da densidade uniforme têm que ser finitos para que a integral seja igual a. Além disso, a b. Dessa forma, o espaço paramétrico para o vetor de parâmetros (a, b) é {a R, b R, a b}. Vamos denotar a distribuição uniforme com parâmetros a e b por U(a, b). Assim, para indicar que uma variável aleatória contínua X segue essa distribuição, escrevemos X U(a, b) (lê-se: a variável aleatória X tem distribuição uniforme no intervalo [a, b]). Quando a e b temos a distribuição uniforme padrão, denotada por U(, ). Função Densidade e Função de Distribuição Já vimos que, se X U(a, b) a sua função densidade é definida por: f(x) b a, se x (a, b), caso contrário. Por definição, a função de distribuição acumulada é F X (x) P (X x) e, para x (a, b), essa probabilidade é a área de um retângulo com base (x a) e altura, conforme ilustrado na Figura b a 6.. Figura 6. Função de distribuição da densidade uniforme como área Logo,

165 6.. DISTRIBUIÇÃO UNIFORME 6, se x a x a F X (x) b a, se a < x < b, se x b Esperança e Variância Das propriedades da esperança e das características da densidade uniforme (função simétrica), sabemos que E(X) é o ponto médio do intervalo (a, b). Logo X U(a, b) E (X) a + b (6.) Vamos, agora, calcular E(X ). E(X ) b a x f(x)dx b a x b a dx b3 a 3 3(b a) a + b + ab. 3 Logo, Var(X) a + b + ab 3 b ab + a ( ) a + b 4a + 4b + 4ab 3a 6ab 3b (b a). ou seja, X U(a, b) Var (X) (b a) (6.) Exemplo 6. Latas de coca-cola Latas de coca-cola são enchidas num processo automático segundo uma distribuição uniforme no intervalo (em ml) (345,355). (a) Qual é a probabilidade de uma lata conter mais de 353 ml? (b) Qual é a probabilidade de uma lata conter menos de 346 ml? (c) Qualquer lata com volume 4 ml abaixo da média pode gerar reclamação do consumidor e com volume 4 ml acima da média pode transbordar no momento de abertura, devido à pressão interna. Qual é a proporção de latas problemáticas? Seja X conteúdo da lata de coca-cola. Então, X U(345, 355) (a) Pede-se P(X > 353) ,

166 6 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS (b) Pede-se (c) Pede-se P(X < 346) , P(X < 35 4) + P(X > ) , Logo, a proporção de latas problemáticas é de %. Note que essa é uma proporção bastante alta! Exemplo 6. Determinação dos parâmetros Uma variável aleatória X tem distribuição uniforme no intervalo (a, b) com média 7,5 e variância 6,75. Determine os valores de a e b, sabendo que b > a >. a + b 7, 5 (b a) 6, 75 Da segunda equação, resulta que (b a) 8 e, portanto, b a 8. Como estamos supondo que a < b, resulta que b a 9, o que nos leva ao sistema { a + b 5 b a 9 cuja solução é a 3 e b, ou seja, X U(3, ). 6. Distribuição exponencial Uma das motivações para a uma nova distribuição de probabilidade, chamada distribuição exponencial, vem do estudo do tempo até a ocorrência do primeiro evento em um processo de Poisson. Suponha, então, que eventos ocorram ao longo do tempo e que o número de eventos ocorridos dentro de um intervalo de tempo unitário possa ser considerado uma variável aleatória com distribuição de Poisson de média λ. Seja T o instante em que ocorre o primeiro evento. Então, T é variável aleatória cuja imagem é Im(T ) (, ). Vamos analisar a função de distribuição de T. F T (t) P(T t) P(T > t) P(não ocorrer evento algum em (, t]). Seja X número de ocorrências dentro do intervalo (, t]. Então X Poi(λt) e p X (x) (λt) x e λt. Assim, x! P(T > t) P(X ) e λt F T (t) e λt.

167 6.. DISTRIBUIÇÃO EXPONENCIAL 63 o que nos leva à seguinte função densidade f T (t) d dt F T (t) λe λt t > Definição 6. Distribuição Exponencial Uma variável aleatória X contínua tem distribuição exponencial com parâmetro λ se sua função densidade de probabilidade é dada por { λe λx, x > f(x), x λ é o parâmetro da densidade exponencial. O espaço paramétrico para λ é (, ), uma vez que λ representa o número médio de ocorrências em um intervalo de tempo unitário. Usaremos a seguinte notação para indicar que uma variável aleatória tem distribuição exponencial com parâmetro λ: X Exp(λ). Função Densidade e Função de Distribuição Conforme visto no início desta seção, a função densidade e a função de distribuição de uma variável aleatória X Exp(λ) são dadas por f X (x) { λe λx, se x >, se x F X (x) { e λx, se x >, se x Nas Figuras 6.3a e 6.3b são exibidos os gráficos da função densidade e de distribuição, respectivamente, para X Exp(). (a) Função Densidade (b) Função de Distribuição Figura 6.3 Distribuição Exponencial com λ. Esperança e Variância O cálculo de E(X) e Var(X) para X Exp(λ) se faz com auxílio de integração por partes. E(X) xλe λx dx

168 64 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Fazendo u x e dv λe λx dx (o que significa que v e λx ), obtemos E(X) Portanto, xλe λx dx xe λx + e λx dx lim x xe λx + e λx λ λ. X Exp(λ) E (X) λ. (6.3) Usando novamente integração por partes com u x e dv λe λx dx, obtemos Logo, E(X ) x λe λx dx x e λx lim x x e λx xe λx dx λ xe λx dx xλe λx dx λ E(X) λ. Var(X) E(X ) E(X) λ λ λ ou seja, X Exp(λ) Var (X) λ. (6.4) Exemplo 6.3 Relação entre Poisson e Exponencial Suponha que o número de acidentes em uma rodovia seja uma variável aleatória de Poisson com média de acidente a cada 3 dias. (a) Qual a probabilidade do primeiro acidente do mês acontecer antes do terceiro dia? (b) Qual a probabilidade de não ser registrado acidente algum na primeira semana do mês? Cada um dos dois itens pode ser resolvido usando-se a distribuição de Poisson número de acidentes em um intervalo de tempo ou a distribuição exponencial tempo até o primeiro acidente. (a) Seja X número de acidentes nos primeiros dias do mês. Então, X Poi(/3) e queremos P(X > ) P(X ) e /3 Seja Y intervalo de tempo (em dias) até o primeiro acidente. Então Y Exp(/3) e queremos P(Y ) F Y () e /3 (b) Seja X número de acidentes na primeira semana. Então X Poi(7/3) e queremos Como antes, Y Exp(/3) e queremos P(X ) e 7/3 P(Y > 7) F Y (7) ( e 7/3 ) e 7/3. Exemplo 6.4 Seja X uma variável aleatória exponencial com média 4. Calcule

169 6.. DISTRIBUIÇÃO EXPONENCIAL 65 (a) P(X > ) (b) P( X ) (a) A função densidade de X é f X (x) 4 e x/4 e a função de distribuição é F(x) e x/4. Podemos resolver essa questão por integração da função densidade P(X > ) f(x)dx 4 e x 4 dx e x 4 ( e,5 ) e,5, 7788 ou pelo uso direto da função de distribuição P(X > ) P(X ) F() [ e /4 ] e,5, 7788 (b) P( X ) P(X ) P(X < ) P(X ) P(X ) F() F() [ e /4 ] [ e /4] e,5 e,5, 77 Parametrização Alternativa Muitos livros apresentam a distribuição exponencial em termos do parâmetro β λ caso, a função densidade passa a ser >. Neste f X (x) { β e x/β, x > x. e E(X) β, E(X ) β e Var(X) β. Exemplo 6.5 Seja X variável aleatória com distribuição exponencial. Calcule P [X > E(X)]. Usando a parametrização alternativa, temos que P [X > E(X)] P [X E(X)] F [E(X)] [ e β/β] e Note que essa é a probabilidade de uma variável aleatória exponencial ser maior que o seu valor médio; o que mostramos é que essa probabilidade é constante, qualquer que seja o parâmetro. Propriedade de Falta de Memória No Capítulo 4, vimos que uma variável aleatória X satisfaz a propriedade da falta de memória quando P(X > s + t X > t) P(X > s) (6.5)

170 66 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS em que s, t são números reais não negativos. Vamos mostrar, agora, que, assim como a distribuição geométrica, a distribuição exponencial também satisfaz essa propriedade. Seja X Exp(λ). P(X > t + s X > t) P(X > t + s) P(X > t) e λ(t+s) e λt P(X t + s) P(X t) e λs P(X > s). [ e λ(t+s)] [ e λt ] Exemplo 6.6 Ao comprar um carro usado você não perguntou para o antigo dono quando foi a última vez que ele trocou a bateria. O fabricante da bateria diz que o tempo de vida de cada bateria pode ser considerado uma variável aleatória exponencial com média de 4 anos. Sabendo que a bateria está funcionando quando o carro foi comprado, qual a probabilidade de você não precisar trocar essa bateria pelos próximos anos? Considere X tempo de vida (em anos) da bateria e a tempo (em anos) desde que a bateria atual foi instalada até a compra do carro. O que queremos encontrar é P(X > a + X > a). Sabemos que X Exp(/4), mas não conhecemos o valor de a. Porém, essa informação não é necessária, uma vez que a distribuição exponencial tem a propriedade de falta de memória. Nesse caso temos, pela propriedade 6.5, P(X > a + X > a) P(X > ) P(X ) F X () e 4 e, Distribuição gama A Função Gama Para apresentar a distribuição Gama primeiro precisamos conhecer a função Gama e suas propriedades. Definição 6.3 Função Gama Chama-se função gama a função de variável real, estritamente positiva, definida por: Γ(α) x α e x dx, α > É importante notar que que a função Γ está perfeitamente definida, ou seja, a integral que a define é um número real sempre que α >. A demonstração desse resultado não será apresentada aqui. Além disso, como x α e x quando x, a função Γ é não negativa. Outras propriedades interessantes e úteis da função gama são dadas a seguir. Proposição 6. São válidas as seguintes propriedades da função gama:

171 6.3. DISTRIBUIÇÃO GAMA 67 (G ) Dados α > e λ >, (G ) Dado α >, (G 3 ) Dado n N, Demonstração: x α e λx dx Γ(α) λ α Γ(α) (α )Γ(α ) Γ(n) (n )! (G ) Fazendo a mudança de variável y λx, temos que x α e λx dx ( y λ ) α e y dy λ λ α y α e y dy Γ(α) λ α (G ) Usando integração por partes com u x α du (α )x α dx e dv e x dx v e x, obtemos Γ(α) + x α e x dx x α e x e x (α )x α dx (α ) e x (α )x α dx x α e x dx (α )Γ(α ). (G 3 ) Vamos considerar α n inteiro positivo. Usando o resultado da Propriedade (G ) podemos demonstrar, por indução, que Γ(n) (n )!. Primeiro, veja que a afirmação é verdadeira para n, isto é, que Γ()!, pois Γ() x e x dx e x dx. Agora, suponhamos verdadeiro para n k qualquer, isto é, Γ(k) (k )!. Pela Propriedade (G ). Γ(k + ) kγ(k) k(k )! k! ou seja, o resultado vale para n k +, o que completa a prova por indução. Função Densidade Definição 6.4 Distribuição Gama Uma variável aleatória contínua X tem distribuição gama com parâmetros α > e λ > se sua função densidade é dada por λ α Γ(α) xα e λx, se x > f X (x), caso contrário. Note que, quando α, resulta a densidade exponencial com parâmetro λ, ou seja, a densidade exponencial é um caso particular da densidade gama.

172 68 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Os parâmetros da distribuição gama são α e λ. O espaço paramétrico para tais parâmetros é definido por α > e λ >. Usaremos a notação X Gama(α; λ) para indicar que a variável aleatória X tem distribuição gama com parâmetros α, λ. Para verificar que a função apresentada na Definição 6.4 realmente define uma função densidade, notamos inicialmente que f(x). Além disso, fazendo o uso da Propriedade (G ), apresentada na Proposição 6., temos f X (x)dx Γ(α) xα λ α e λx dx λα Γ(α) Logo, as duas condições para uma função densidade são satisfeitas. x α e λx dx. } {{ } Γ(α) λ α Esperança e Variância Seja X Gama(α, λ). Fazendo uso das Propriedades (G ) e (G ) apresentadas na Proposição 6., temos que E(X) λα Γ(α) xf X (x)dx Γ(α + ) λ α+ λα Γ(α) x Γ(α) xα λ α e λx dx αγ(α) λ α+ α λ λα Γ(α) x α e λx dx Portanto, X Gama(α, λ) E (X) α λ. (6.6) De modo análogo, vamos calcular E(X ). E(X ) λα Γ(α) x f X (x)dx Γ(α + ) λ α+ λα Γ(α) x Γ(α) xα λ α e λx dx λα Γ(α) α(α + )Γ(α) α(α + ) λ α+ λ x α+ e λx dx Logo, Var(X) E(X ) E(X) α(α + ) λ α α(α + ) α λ λ α λ Portanto, X Gama(α, λ) Var (X) α λ. (6.7)

173 6.3. DISTRIBUIÇÃO GAMA 69 Parametrização Alternativa Assim como no caso da distribuição exponencial, a distribuição gama também tem uma parametrização alternativa, onde se usa o parâmetro β λ >, em vez do parâmetro λ. Neste caso, a função densidade passa a ser f X (x) Γ(α)β α xα e x/β, se x >, caso contrário. e E(X) αβ, E(X ) α(α + )β e Var(X) αβ. Os Gráficos da Função Densidade da Gama Consideremos a função densidade da gama, definida, para x >, por f X (x) λα Γ(α) xα e λx com λ > e α >. Vamos, agora, estudar as possíveis formas do seu gráfico, analisando assíntotas, pontos de máximo ou mínimo, regiões de crescimento ou decrescimento, concavidade. Nessa análise, vamos ignorar a constante λα, uma vez que ela é positiva e não altera o sinal da função ou de suas Γ(α) derivadas. Assintotas Qualquer que seja λ >, temos que lim f X (x) x lim f(x) x, se α, se α < Derivada primeira f (x) (α )x α e λx λx α e λx (x α e λx )(α λx) (6.8) O sinal da derivada primeira depende apenas do sinal de g(x) α λx, uma vez que x α e λx > se x >. Vamos analisar a derivada primeira estudando o comportamento de g. α Como x >, resulta que f (x) <, ou seja, se α, a densidade gama é uma função estritamente decrescente.

174 7 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS α > f (x) x α λ f (x) > x < α λ f (x) < x > α λ f crescente f decrescente Logo, x α λ é um ponto de máximo Derivada segunda f (x) [ (α )x α 3 e λx λx α e λx] (α λx) + x α e λx ( λ) (α )(α )x α 3 e λx λ(α )x α e λx λ(α )x α e λx λ x α e [ λx λx α e λx ] x α 3 e λx (α )(α ) λ(α )x λx(α ) + λ x λx [ ] x α 3 e λx λ x λx(α + α + ) + (α )(α ) [ ] x α 3 e λx λ x λx(α ) + (α )(α ) xα 3 e λx [ λ x α ] (α )(α ) x + λ λ O sinal da derivada segunda depende do sinal de h(x) x α (α )(α ) x + λ λ que, por sua vez, depende do sinal do discriminante da equação de segundo grau que define h(x). α < (α ) (α )(α ) (α ) 4 λ 4 λ 4 λ (α α + ) 4 α λ Nesse caso, o discriminante é negativo e a equação não tem raízes reais e terá sempre o sinal do coeficiente do termo quadrático, que é. Assim, neste caso, a concavidade é para cima. Resumindo, se α < a densidade gama é estritamente decrescente com concavidade para cima. α < f (x) < - decrescente < f (x) > - concavidade para cima Sinal da derivada segunda - α <

175 6.3. DISTRIBUIÇÃO GAMA 7 α Nesse caso, o discriminante é nulo e h(x) x > se x > ; logo, a concavidade é para cima, ou seja, se α a densidade gama é estritamente decrescente com concavidade para cima. α > α f (x) < - decrescente f (x) > - concavidade para cima Sinal da derivada segunda - α Neste caso, o discriminante é sempre positivo, ou seja, temos duas raízes reais distintas, calculadas da seguinte forma: o que fornece as raízes x α λ ± α λ ± 4 α λ α λ α ( ) r α λ α ( ) r α + λ ± α Como o coeficiente do termo quadrático de h(x) é positivo, resulta que h(x) é negativa (sinal oposto ao de a) para valores de x entre as raízes, e positiva (mesmo sinal de a) fora das raízes: λ h(x) < se r < x < r h(x) > se x < r ou x > r A raiz é r é sempre positiva. Já a raiz r só será positiva se α >, ou seja, se α > e será nula ou negativa se α. Vamos analisar essas duas situações separadamente. α > h(x) tem duas raízes positivas. Temos, assim, dois pontos de inflexão na Im(X) : r er. α > f(x) tem um ponto de máximo > x < r ou x > r f (x) > - concavidade para cima r < x < r f (x) < - concavidade para baixo f(x) tem pontos de inflexão Sinal da derivada segunda - α > < α Se α, r e se < α <, r <. Logo, se < α, temos apenas um ponto de inflexão na Im(x) : r, pois, para x >, h(x) < se < x < r e h(x) > se x > r.

176 7 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS < α f(x) tem um ponto de máximo > x > r f (x) > - concavidade para cima < x < r f (x) < - concavidade para baixo f(x) tem ponto de inflexão Sinal da derivada segunda - < α α. Na Tabela 6. temos um resumo do comportamento da densidade gama em função do parâmetro Tabela 6. Características do gráfico da densidade gama em função do parâmetro α < α Estritamente decrescente Côncava para cima Ponto de inflexão: α ( α ) Ponto de máximo: r + λ Concavidade: < α x α λ para cima se x > r para baixo se x < r Crescente x < α Pontos de inflexão: λ α ( α ) r λ α ( α ) α > r + λ Decrescente Concavidade: x > α para cima se x < r ou x > r λ para baixo se r < x < r Nas Figuras 6.4e 6.5 são apresentados os gráficos da densidade gama para alguns valores dos parâmetros α e λ. Nesses gráficos estão marcados, também, os pontos de máximo e de inflexão, caso existam. Em cada uma das Figuras 6.4a e 6.4b, o parâmetro λ está fixo e temos o gráfico da função densidade para α,, 4. Nas Figuras 6.5a e 6.5b, fixamos o parâmetro α e variamos λ. Analisando esses gráficos, podemos ver que α tem grande influência sobre a forma da distribuição, enquanto λ afeta mais fortemente a dispersão. Por essas razões, α é chamado parâmetro de forma da densidade gama e λ é o parâmetro de escala.

177 6.3. DISTRIBUIÇÃO GAMA 73 (a) λ (b) λ 4 Figura 6.4 Efeito do parâmetro α na forma da densidade gama - α,, 4 (a) α (b) α 3 Figura 6.5 Efeito do parâmetro λ na forma da densidade gama - λ,, 3 Casos Particulares da Distribuição Gama Veremos a seguir três casos particulares da distribuição Gama, entre eles a distribuição Exponencial, como já comentado ao longo do texto. Distribuição Exponencial Quando, na distribuição gama, o parâmetro α temos a distribuição exponencial com parâmetro λ. Nesse caso, para x >, sua função densidade é definida por f X (x) Γ() x λ e λx λe λx. e E(X) λ e Var(X) λ. Esses são os mesmos resultados encontrados na seção 6.. Distribuição de Erlang Quando o parâmetro α da distribuição gama é um inteiro positivo, α k, a distribuição gama é conhecida como distribuição de Erlang de ordem k e sua função densidade, para x >, é definida por: f X (x) Γ(k) xk λ k e λx (k )! xk λ k e λx

178 74 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Ou seja, se X tem distribuição de Erlang de ordem k e parâmetro λ (notação: X Erl k (λ)), a sua função densidade é: f X (x) (k )! xk λ k e λx, se x > (6.9), caso contrário. Além disso, E(X) k λ e Var(X) k λ. Distribuição Qui-Quadrado Quando, na distribuição gama, o parâmetro de forma α é igual a n, com n inteiro positivo, e o parâmetro λ é a distribuição é chamada de distribuição qui-quadrado com n graus de liberdade e a sua função densidade, para x > é definida por: f X (x) Γ(n/) x(n/) ( ) n/ e (/)x Γ(n/) n/ x(n/) e x/. Ou seja, se X tem distribuição Qui-quadrado com n graus de liberdade (notação: X χ n), a sua função densidade é f X (x) Γ(n/) n/ x(n/) e x/, se x >, caso contrário. (6.) Além disso, E(X) n/ / n e Var(X) n/ (/) n. 6.4 Distribuição beta A Função Beta Antes de apresentarmos a distribuição Beta precisamos conhecer a função beta e suas propriedades. Definição 6.5 Função Beta Chama-se função beta a função B de duas variáveis, estritamente positiva, definida por: B(α, β) x α ( x) β dx, α > e β >. Pode-se provar que a função beta está perfeitamente definida, ou seja, se α >, β >, então a integral que define a função beta é um número real. Além disso, a função beta é comutativa, ou seja, B(α, β) B(β, α). De fato: por definição, temos que

179 6.4. DISTRIBUIÇÃO BETA 75 B(β, α) Fazendo a mudança de variável x t resulta x β ( x) α dx B(β, α) ( t) β t α ( dt) t α ( t) β dt t α ( t) β dt B(α, β) Proposição 6. Relação entre as funções Beta e Gama B(α, β) Γ(α)Γ(β) Γ(α + β). Demonstração: A demonstração desta proposição não será apresentada. Note que essa relação nos permite ver, de outra forma, que a função beta está bem definida e é comutativa. Função Densidade Definição 6.6 Distribuição Beta Uma variável aleatória contínua X tem distribuição beta com parâmetros α > e β > se sua função densidade é dada por f X (x) B(α, β) xα ( x) β, se < x <, caso contrário. Os parâmetros da distribuição Beta são α e β, e o espaço paramétrico é definido por: α > e β >. A notação usada para indicar que uma variável aleatória X segue a distribuição Beta é X Beta(α, β). Note que, se X Beta(α, β), então Im(X) (, ). X U(, ). Além disso, se X Beta(, ) então A função f X apresentada na Definição 6.6 é, de fato, função densidade, uma vez que f X (x) x R e f X (x)dx B(α, β) xα ( x) β dx B(α, β) x α ( x) β dx B(α, β). B(α, β) Usando a relação entre as funções Γ e Beta podemos reescrever a função densidade da distribuição Beta por: Γ(α + β) f X (x) Γ(α)Γ(β) xα ( x) β, se < x <, caso contrário.

180 76 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Na Figura 6.6a temos exemplos das diversas formas que a densidade beta pode tomar. Note que quando α β, a densidade beta é a densidade uniforme no intervalo (, ). Na Figura 6.6b ilustra-se a propriedade reflexiva: note o efeito da inversão dos valores de α e β. Na Figura 6.6c ilustra-se o fato de a densidade beta ser simétrica quando α β. (a) Exemplos diversos (b) Propriedade reflexiva (c) Simetria se α β Figura 6.6 Gráficos da densidade beta Esperança e Variância Para os cálculos a seguir vamos usar a relação entre as funções beta e gama, além das propriedades da função gama, já vistas na Propriedade 6.. E(X) xf X (x)dx x B(α, β) xα ( x) β dx x α ( x) β dx B(α +, β) B(α, β) B(α, β) Γ(α + ) Γ(β) Γ(α + + β) Γ(α + ) Γ(α + β) Γ(α) Γ(β) Γ(α) Γ(α + β + ) Γ(α + β) α Γ(α) Γ(α) Γ(α + β) (α + β) Γ(α + β) α (α + β). Portanto, X Beta(α, β) E (X) α α + β. (6.) O cálculo de E(X ) se faz de maneira análoga.

181 6.4. DISTRIBUIÇÃO BETA 77 E(X ) x f X (x)dx x B(α, β) xα ( x) β dx x α+ ( x) β dx B(α +, β) B(α, β) B(α, β) Γ(α + ) Γ(β) Γ(α + + β) Γ(α + ) Γ(α + β) Γ(α) Γ(β) Γ(α) Γ(α + β + ) Γ(α + β) (α + )α Γ(α) Γ(α) Γ(α + β) (α + β + )(α + β) Γ(α + β) (α + )α (α + β + )(α + β) Então, Var(X) E(X ) [E(X)] (α + )α (α + β + )(α + β) α (α + β) (α + )α(α + β) α (α + β + ) (α + β + )(α + β) α αβ (α + β + )(α + β). ( α + αβ + α + β α αβ α ) (α + β + )(α + β) Portanto, X Beta(α, β) Var (X) αβ (α + β + )(α + β). (6.) Exemplo 6.7 A percentagem de impurezas por lote, em um determinado produto químico, é uma variável aleatória com distribuição beta de parâmetros α 3 e β. Um lote com mais de 4% de impurezas não pode ser vendido. (a) Qual é a probabilidade de que um lote selecionado ao acaso não possa ser vendido por causa do excesso de impurezas? (b) Quantos lotes, em média, são selecionados ao acaso até que se encontre um que não pode ser vendido por causa do excesso de impurezas? (c) Qual a porcentagem média de impurezas nos lotes desse produto químico? (a) Seja Y percentagem de impurezas em um lote. Queremos encontrar P(Y >, 4). Pelo enunciado temos que Y Beta(3, ). Então, a função densidade de Y, para < y <, é definida por: f Y (y) B(3, ) y3 ( y) Γ(3 + ) Γ(3)Γ() y ( y) 4!!! y ( y) y ( y), < y <.

182 78 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Então, P(Y >, 4),4 f Y (y)dy,4 ( ) y 3 3 y4 4 4/ [ ( )] y ( y)dy [( 3 4 )],4 y y 3 dy 79, 88 [( 64 3 )] 56 4 (b) Seja W números de lotes selecionados ao acaso até que se encontre um que não pode ser vendido por excesso de impureza. Queremos E(W ). Veja que W Geo(p, 88). Então, E(W ) p, 8. (c) Nesse item queremos E(Y ). Como Y Beta(3, ) sabemos que E(Y ) 3 5, 6, ou seja, a porcentagem média de impurezas nos lotes desse produto químico é de 6%. 6.5 Distribuição de Weibull Assim como no caso das distribuições anteriores, a definição de uma variável aleatória com distribuição de Weibull será feita a partir da definição da sua função densidade. Função Densidade Definição 6.7 Distribuição de Weibull Uma variável aleatória X tem distribuição de Weibull com parâmetros α > e β > se sua função densidade de probabilidade é dada por f(x) α β α xα e ( x β ) α, x > (6.3) Logo, de acordo com a Definição 6.7, a distribuição de Weibull tem dois parâmetros, α e β, e o espaço paramétrico é α > e β >. Além disso, Se X tem distribuição de Weibull com parâmetros α e β X W eib(α, β) então Im(X) (, ). Alguns autores (ver Rohatgi (8), por exemplo) usam um novo parâmetro η em vez de β α ou λ em vez de /β α (ver Magalhães (), por exemplo). Para mostrar que (6.3) define uma densidade, basta mostrar que sua integral é, uma vez que f(x). Para tal, note que podemos reescrever 6.3 como Fazendo a mudança de variável: u f(x) α β ( ) x α ( ) x α e β, x > (6.4) β ( ) x α du α ( ) x α dx; x u e x u. β β β

183 6.5. DISTRIBUIÇÃO DE WEIBULL 79 Assim obtemos ( ) α x α ( ) x α e β dx e u du. β β Função de Distribuição No caso da distribuição de Weibull é possível encontrar a sua função de distribuição também parametrizada por α e β. Por definição, Fazendo a mudança de variável F(x) x ( ) α t α ( ) t α e β dt β β u ( ) t α du α ( ) t α ( ) x α dt; t u e t x u. β β β β Logo, F(x) x ( ) α t α ( ) t α ( ) α x e β β dt β β ( ) α e u du e u xβ ( ) α e xβ. Portanto, X W eibull(α, β) F X (x) {, x e (x/β)α, x > (6.5) Esperança e Variância Para encontrar a esperança e a variância de X W eibull(α, β) vamos calcular E(X r ) para qualquer r inteiro positivo. Assim, para achar E(X) basta fazer r e para encontrar E(X ) basta fazer r. ( ) E(X r α x α ( ) x α ) e β x r dx β β Fazendo u x β, resulta que x βu e dx βdu; logo E(X r ) ( ) α x α ( ) x α e β x r α dx β β β uα e uα β r u r βdu αu α e uα β r u r du Fazendo u α t resulta que u t /α e αu α du dt; logo, E(X r ) e t β r ( t /α) r dt β r β r t r/α+ e t dt β r t r/α e t dt t r+α α e t dt β r Γ ( r + α ) α Fazendo r, obtemos E(X): X W eibull(α, β) ( ) α + E(X) βγ α (6.6)

184 8 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Fazendo r obtemos E(X ) : ( ) α + E(X ) β Γ α e, portanto, ( ) ( )] α + α + X W eibull(α, β) Var(X) β [Γ Γ α α (6.7) 6.6 Distribuição de Pareto Uma nova variável aleatória será apresentada a partir da definição da sua função densidade. Função Densidade Definição 6.8 Densidade de Pareto Uma variável aleatória X tem distribuição de Pareto com parâmetros α > e b > se sua função densidade de probabilidade é dada por ( ) α b α+, se x b f(x) b x, se x < b Logo, de acordo com a Definição 6.8, a distribuição de Pareto tem dois parâmetros, α e b, e o espaço paramétrico é α > e b >. Além disso, se X tem distribuição de Pareto com parâmetros α e b (X Pareto(α, b)), os valores que X pode assumir estão no intervalo (b, ), isto é, Im(X) (b, ). Para mostrar que f(x) realmente define uma função densidade de probabilidade resta provar que a integral é, uma vez que f(x). b α b ( ) b α+ dx αb α x b x α dx αb α x α α Essa integral converge apenas se α < ou equivalentemente, α >, pois nesse caso lim lim x. Satisfeita esta condição, temos que xα αb α x α α b αb α b α α b x x α Função de Distribuição No caso da distribuição de Pareto, também é possível encontrar a sua função de distribuição parametrizada por α e β.

185 6.6. DISTRIBUIÇÃO DE PARETO 8 Por definição, F(x) P(X x) se x < b. Para x b, F(x) P(X x) x b α b b α ( x α b α) ( ) b α+ x dt αb α t ( ) b α. x b t α dt αb α t α α x b Portanto, {, se x < b X Pareto(α, b) F X (x) ( ) b α x, se x b (6.8) Na Figura 6.7 ilustra-se a função densidade e a função de distribuição de Pareto com parâmetros α 3 e b. (a) Função Densidade (b) Função de Distribuição Figura 6.7 Distribuição de Pareto com parâmetros α 3 e b. Esperança e Variância Se X Pareto(α, b) então E(X) b x α ( ) b α+ dx αb α x α dx αb α x α+ b x b α + b. Para que essa integral convirja, temos que ter α + <, ou seja, α >. Satisfeita esta condição, ( ) E(X) αb α b α+ αbα α+ αb α + α α. Portanto, αb, se α > X Pareto(α, b) E(X) α não existe, se α (6.9) E(X ) b x α ( ) b α+ dx αb α x α+ dx αb α x α+ b x b α + b.

186 8 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Para que essa integral convirja, temos que ter α + <, ou α >. Satisfeita esta condição, ( ) E(X ) αb α b α+ αbα α+ α + α αb α. Logo, se α >, ( ) Var(X) αb αb α αb (α ) α b (α ) α (α ) [ (α ) αb α α + α(α ) ] [ (α ) αb α α + α + α ] (α ) (α ) (α ) αb (α ) (α ) Portanto, X Pareto(α, b) αb Var(X) (α ), se α > (α ) não existe, se α (6.)

187 Capítulo 7 Funções de Variáveis Aleatórias Contínuas Na Seção 3., vimos que, se X é variável aleatória discreta e g é uma função real qualquer, então Y g(x) também é variável aleatória discreta e sua função de probabilidade pode ser obtida a partir da função de probabilidade de X. Nesta seção, iremos analisar a situação em que X é uma variável aleatória contínua. Uma primeira diferença é que Y g(x) não será necessariamente uma variável aleatória contínua; Y pode ser contínua, discreta e até mesmo uma variável aleatória que não seja nem discreta nem contínua. Sendo assim, iremos estudar a função de distribuição de Y, F Y (y) P(Y y), que está bem definida qualquer que seja o tipo da variável Y, e o primeiro método considerado para tratar este tipo de problema será o método da função de distribuição. 7. Método da função de distribuição Esse método consiste em calcular a função de distribuição de Y g(x) a partir da função de distribuição de X. Se Y for variável aleatória contínua, sua função densidade será obtida derivando-se a função de distribuição, já encontrada. Como no estudo de qualquer variável aleatória, o primeiro passo consiste em determinar a imagem de Y g(x). Para isso, pode ser útil construir o gráfico da função g e a partir dele, identificar os valores de g(x) para x Im(X). Identificada Im(Y ), sua função de distribuição é F Y (y) P(Y y) P(g(X) y). Manipulações algébricas levarão a uma relação entre F Y e F X. Vamos ilustrar o método através de vários exemplos, considerando os casos em que g é inversível e não inversível. g inversível Quando a função g que relaciona as variáveis X e Y é inversível, não será difícil encontrar a função de distribuição de Y ou a sua função densidade. Exemplo 7. Seja X exp(λ) e Y X + a, com a R e λ >. Encontre f Y e esboce seu gráfico.

188 84 CAPÍTULO 7. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS Sabemos que Im(X) (, ). Logo, Im(Y ) (a, ) Como X exp(λ), então F X (x) { e λx, sex >, se x, g(x) x + a F Y (y) P(Y y) P(X + a y) P(X y a) F X (y a) ou seja, F Y (y) { e λ(y a), se y > a, se y a. { e λ(y a), se y a >, se y a, A função densidade de Y é encontrada derivando-se F Y. f Y (y) d { λe dy F λ(y a), sey > a Y (y), se y a. Exemplo 7. Se X U(, ), calcule a função densidade de Y g(x) e X. Sabemos que Im(X) (, ). Logo, Im(Y ) (e, e ) g(x) e x As funções densidade e de distribuição de X U(, ) são {, se x f X (x), se < x < e F, caso contrário X (x) (x + ), se < x <, se x.

189 7.. MÉTODO DA FUNÇÃO DE DISTRIBUIÇÃO 85 ln y F Y (y) P(Y y) P(e X y) P(X ln y) F X (ln y) (ln y + ) < ln y < ln y ou seja y e F Y (y) (ln y + ) e < y < e y e e f Y (y) F Y (y) y e < y < e + caso contrário. Exemplo 7.3 Função densidade linear por partes Seja X variável aleatória cuja função densidade é definida por: f X (x) { ( x)/, se < x 3(x )/, se < x < Encontre f Y para Y X. Em seguida, esboce os gráficos de f X e f Y. Sabemos que Im(X) (, ). Logo, Im(Y ) (, ) g(x) x F Y (y) P(Y y) P( X y) P(X y) F X ( y). Derivando, obtemos a relação entre f Y e f X : f Y (y) d dy F Y (y) d dy ( F X ( y)) f X ( y). Então, f Y (y) f X ( y) { ( ( y))/, se < ( y) 3(( y) )/, se < ( y) <. { y/, se y < 3y/, se < y <. ou seja,

190 86 CAPÍTULO 7. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS f Y (y) { 3y/, se < y <. y/, se y < Esse método também nos permite demonstrar alguns resultados importantes, apresentado na Proposição 7. a seguir. como o Proposição 7. Sejam X Gama(α, λ), Y cx e c >. Então, Y Gama(α, λ/c). Demonstração: Note que g(x) cx é uma função inversível. Logo, ( F Y (y) P(Y y) P(cX y) P X y ) ( y ) F X. c c Como não conhecemos F X, e sim f X, vamos estabelecer uma relação entre f Y e f X derivando a função de distribuição. ( y ) f Y (y) F Y (y) F X ( y ) c c f X. c Sabemos que e, portanto, para y c f X (x) >, ou equivalentemente, y >, λα Γ(α) xα e λx, para x >, f Y (y) c λ α ( y ) ( ) α e λ y λ α c Γ(α) c c Γ(α) yα e λ c y, y >. ou seja, f Y (y) (λ/c)α Γ(α) yα e λ c y, y >. Podemos ver que Y Gama(α, λ/c). Corolário 7. Se X Exp(λ) e c >, então Y cx Exp(λ/c). g não inversível Quando a função g, que relaciona as variáveis X e Y, não é inversível, os cálculos devem ser feitos com bastante cuidado.

191 7.. MÉTODO DA FUNÇÃO DE DISTRIBUIÇÃO 87 Exemplo 7.4 Se X U(, ), calcule a função densidade das seguintes variáveis aleatórias (a) Y g(x) X (b) W h(x) X Como já vimos, as funções densidade e de distribuição de X U(, ) são: f X (x) {, se < x <, caso contrário, se x e F X (x) (x + ), se < x <, se x. Sabemos que Im(X) (, ). Logo, Im(Y ) Im(W ) [, ) g(x) x e h(x) x (a) Para calcular a densidade de Y g(x) X devemos notar que F Y (y) P(Y y) P(X y) se y P ( y X y ) se < y < se y se y ( ) ( ) F X y FX y se < y < se y e, portanto f Y (y) d [ ( )] d [ ( )] FX y FX y se < y < dy dy caso contrário { F X ( ) y y F X ( ) ( ) y y se < y < caso contrário { ( ) fx y y + f ( ) X y y se < y < caso contrário Como y < e < y, resulta que f X ( y ) fx ( y ). Logo f Y (y) y se < y < caso contrário

192 88 CAPÍTULO 7. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS (b) De modo análogo, para w < F W (w) P(W w) P( X w) se w P( w X w) se < w < se w se w F X (w) F X ( w) se < w < se w e, portanto { f W (w) F W F (w) X (w) F X ( w)( ) se < w < caso contrário { fx (w) + f X ( w) se < w < caso contrário Como w < e < w, resulta que f X (w) f X ( w). Logo Note que W U(, ). f W (w) { se < w < caso contrário Os dois exemplos a seguir mostram que, mesmo X sendo variável aleatória contínua, Y g(x) não necessariamente é contínua. Exemplo 7.5 Seja X U(, ) e Y {, se X p, se X > p para algum < p <. Encontre a função distribuição de Y e classifique esta variável aleatória. Veja que Im(Y ) {, }. Logo, já de início, sabemos que Y será variável aleatória discreta, pois a sua imagem é um conjunto finito. Nesse caso podemos encontrar primeiro P(Y ) e P(Y ), para depois encontrarmos a função de distribuição F Y. P(Y ) P(X > p) F X (p) p e P(Y ) P(X p) F X (p) p. Vemos, assim, que Y Bern(p) e, portanto, a sua função de distribuição é, se y < F Y (y) p, se y <, se y.

193 7.. MÉTODO DA FUNÇÃO DE DISTRIBUIÇÃO 89 Exemplo 7.6 James (4) ex.9a pág.89 Seja X uma v.a. contínua com função densidade {, x > f X (x) (+x), caso contrário. Defina Y g(x) max{x, c}, em que c >. Ache a função de distribuição de Y e classifique esta variável aleatória. Sabemos que Im(X) (, ). Logo, Im(Y ) (c, ) g(x) max {x, c} Queremos encontrar F Y. Veja que se y < c, F Y (y) P(Y y). Já se y c, de acordo com o gráfico, F Y (y) P(Y y) P(X y) F X (y). Então, F Y (y) {, se y < c F X (y), se y c. Vamos encontrar a função F X para então definir a função F Y. F X (x) x f X (t)dt {, se x < x dt, se x. (+t) Veja que, para x >, x +x ( + t) dt u du u +x + + x x + x. e Então, {, se x < F X (x) x +x, se x. {, se y < c F Y (y) y +y, se y c. Podemos ver que F Y é uma função que satisfaz as propriedades da função de distribuição (Proposição.). Mas F Y não é uma função contínua, e, portanto, Y não é variável aleatória contínua.

194 9 CAPÍTULO 7. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS Podemos ver, também, que Im(Y ) não é um conjunto enumerável, logo Y não é variável aleatória discreta. Então, a variável aleatória Y não é discreta nem contínua. Exemplo 7.7 Seja X variável aleatória tal que f(x) x 3 /64, x 4. Seja Y min{ X, X}. Encontre a função densidade de Y. Como Im(X) [, 4], resulta que Im(Y ) [, ] g(x) min { x, x } Queremos encontrar F Y. Se y <, F Y (y) e se y >, F Y (y). Vamos analisar, agora, o caso em que y. F Y (y) P(Y y) P (X y ou X ( y) ) (X ( y) ) P ( X y ) + P F X ( y ) + F X (( y) ). Assim, (, se y < F Y (y) F X y ) ( + F X ( y) ), se y, se y >. e f Y (y) { fx ( y ) y + f X ( ( y) ) ( y), se y, caso contrário. Substituindo pela expressão de f X, obtemos: { ( f Y (y) 3 y 7 + ( y) 7), se y, caso contrário. Note que essa função realmente define uma função densidade.

195 7.. MÉTODO DA FUNÇÃO DE DISTRIBUIÇÃO 9 Exemplo 7.8 Seja X variável aleatória tal que Defina Y X e encontre f Y. x+ 4, se < x f(x) 3 x 4, se < x < 3, caso contrário. Como Im(X) (, 3), resulta que Im(Y ) (, 3). g(x) x Queremos encontrar F Y. Se y <, F Y (y), e se y > 3, F Y (y). Vamos analisar, agora, o caso em que y 3, considerando separadamente os casos em que y e < y 3. Se y, Agora, se < y 3, F Y (y) P(Y y) P( y X y) F X (y) F X ( y). F Y (y) P(Y y) P(X y) F X (y). Assim,, se y < F F Y (y) X (y) F X ( y), se y F X (y), se < y 3, se y > 3. Derivando em relação a y, obtemos f X (y) + f X ( y), se y f Y (y) f X (y), se < y 3, caso contrário. Substituindo pela expressão de f X concluímos que /, se y f Y (y) (3 y)/4, se < y 3, caso contrário. Note que essa função realmente define uma função densidade.

196 9 CAPÍTULO 7. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 7. Método do jacobiano Quando a função g é inversível, é possível obter uma expressão para a função densidade de Y g(x) através do resultado apresentado no Teorema 7. a seguir. Teorema 7. Método do Jacobiano Seja X variável aleatória contínua com função densidade f X. Seja também g : R R uma função estritamente monótona e diferenciável no conjunto Im(X). Se Y g(x), então: (i) Im(Y ) g(im(x)) {y R x Im(X) com y g(x)}; (ii) Y é variável aleatória contínua. ( (iii) f Y (y) f X g (y) ) d, se y Im(Y ); dy g (y) Demonstração: Como Y é a composição da função X com a função g, os valores que Y pode assumir são os valores que g pode assumir partindo do conjunto Im(X), ou seja, Im(Y ) g(im(x)). A demonstração do item (ii) será omitida. A demonstração do item (iii) será feita seguindo o método da função de distribuição, isto é, calculando F Y (y) P(Y y). Consideremos inicialmente que g seja estritamente crescente. Neste caso, existe a inversa g, que é também uma função estritamente crescente. Assim, F Y (y) P(Y y) P[g(X) y] P[X g (y)] F X [g (y)]. Derivando em relação a y, encontramos a relação entre f Y e f X : f Y (y) d dy F X [g (y)] f X [g (y)] d dy g (y). Se g é estritamente decrescente, existe a inversa g, que é também uma função estritamente decrescente. Logo, F Y (y) P(Y y) P[g(X) y] P[X g (y)] F X [g (y)]. Derivando em relação a y, encontramos a relação entre f Y e f X : f Y (y) d ( ) F X [g (y)] f X [g (y)] d dy dy g (y). d Note que, no caso de g ser estritamente crescente, dy g (y) > para todo y e podemos escrever d dy g (y) d d dy g (y). Já quando g é estritamente decrescente, dy g (y) < para todo y e podemos escrever d dy g (y) d dy g (y). Dessa forma, qualquer que seja g estritamente monótona, f Y (y) f X [g (y)] d dy g (y).

197 7.. MÉTODO DO JACOBIANO 93 Exemplo 7.9 Seja X U(, ). Obtenha a função densidade de Y g(x) ln X. A função g(x) ln x é estritamente decrescente e podemos aplicar o Teorema 7.. Como Im(X) (, ), resulta que Im(Y ) (, ). A inversa de y g(x) ln x é g (y) e y e, portanto, g(x) ln x dg (y) dy e y Como < y <, então < e y < e a função densidade de Y é f Y (y) f X [ e y ] e y e y f Y (y) e y y (, ) uma vez que f X (x) no intervalo (, ). Note que Y Exp(). A partir do método do jacobiano podemos encontrar um resultado geral para transformações lineares de X, conforme mostra a Proposição 7. a seguir. Proposição 7. Transformação Linear Seja X variável aleatória contínua com função densidade f X e sejam a, b R. Defina Y ax + b. Então, ( ) y b f Y (y) f X a a. Demonstração: Consideremos a transformação Y ax + b, que é uma transformação linear e, portanto, monótona, o que permite a aplicação do Teorema 7. para calcular a função densidade de Y. A função inversa é cuja derivada é X g (Y ) Y b a dg (y) dy a Logo, aplicando o método do jacobiano, a função densidade de Y é ( ) y b f Y (y) f X a a.

198 94 CAPÍTULO 7. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS Exemplo 7. Se a função de densidade da variável aleatória X é dada por { 3x, se x f(x), caso contrário, calcule a função densidade de Y X 3 5, bem como sua esperança e sua variância. Temos que a e b, 6. Como x, resulta que, 6 y, 6. Logo, ( ) y +, 6 f Y (y) f X se, 6 y, 6 ou seja ( ) y +, 6 f Y (y) (y +, 6) se, 6 y, 6 E(Y ),6,6 y 3 8 (y +, 6) dy 3 8,6,6 ],6 ( ) y 3 +, y +, 36y dy 3 [ y 4 +, y3 +, 36y 8 4 3,6 3 [, 5 (, 6) 4 +, 4 (, 6) 3 +, 8 (, 6) ] 8 3 [, 5 (, 6) 4 +, 4 (, 6) 3 +, 8 (, 6) ] 8 3 [, 8 5, 68], 8 E(Y ),6,6 y 3 8 (y +, 6) dy 3 8,6,6 ],6 ( y 4 +, y 3 +, 36y ) dy 3 [ y 5 +, y4 +, 36y ,6 3 [, (, 6) 5 +, 3 (, 6) 4 +, (, 6) 3] 8 3 [, (, 6) 5 +, 3 (, 6) 4 +, (, 6) 3] [, 59 (, 659)] 3, 6 4, 56 8 Var(Y ) 4, 56,, 5 Para o cálculo da esperança e da variância de Y, poderíamos ter usado o fato de que E(Y ) E(X) 3 5 e Var(Y ) 4 Var(X). Temos que E(X) E(X ) x3x dx 3 4 x4 3, 75 4 x 3x dx 3 5 x5 3 5, 6 Var(X), 6, 565, 375

199 7.. MÉTODO DO JACOBIANO 95 e isso nos dá E(Y ) E(X) 3 (, 75), 6, 5 Var(Y ) 4 Var(X) 4, 375, 5 mesmos resultados obtidos anteriormente. Exemplo 7. Seja X variável aleatória cuja função densidade é { /3, se < x f X (x) 4( x)/3, se < x < Seja Y X. Encontre a função densidade de Y a partir do método da função de distribuição e também a partir do método do jacobiano. Vamos, primeiro, resolver usando o método do jacobiano. Note que, apesar de g(x) x não ser monótona em toda a reta, para x > a função é estritamente crescente. Como Im(X) (, ) (, ), podemos aplicar o Método do Jacobiano. Como Im(X) (, ), resulta que Im(Y ) (, 4). Para x Im(X), g (y) y e d dy g (y) y. Então, de acordo com o Teorema 7., Mas e, portanto f Y (y) f X ( y ) y, se < y < 4. { ( ) { /3, se < y /3, se < y f X y 4( y)/3, se < y < 4( y)/3, se < y < 4. f Y (y) 6 y 4( y) 6 y, se < y, se < y < 4. Agora, vamos resolver o problema usando o método da função de distribuição. Se y <, F Y (y) e se y > 4, F Y (y). Para y [, 4] Logo, Derivando com relação a y obtemos F Y (y) P(Y y) P(X y) P(X y) F X ( y)., se y < F Y (y) F X ( y), se y 4, se y > 4 f Y (y) { fx ( y) y, se y 4, caso contrário. que é a mesma expressão a que chegamos pelo método do jacobiano.

200 96 CAPÍTULO 7. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS Generalização do Método do Jacobiano Se Y g(x) não é monótona em R, podemos aplicar o Teorema 7. em cada um dos intervalos em que g é monótona, da seguinte forma:. Defina uma partição de R X formada pelos intervalos I, I,..., I k tais que a função g é monótona em cada I j, j,..., k.. Aplique o Teorema 7. a I j, obtendo f j (y) f X [g (y)] dg (y) dy 3. Finalmente, obtenha f Y (y) f (y) + f (y) + + f k (y) Exemplo 7. Para X U(, ), encontre a função densidade de Y X. Definindo a função indicadora de um conjunto A como I A (x) { se x A se x / A (7.) podemos escrever a função densidade de X como f X (x) I (,)(x). Note que Y X não é monótona em (, ), mas o é em (, ) e (, ). Assim, aplicamos o Teorema 7. a cada subintervalo e somamos os resultados parciais: (, ) X Y : f I (y) f X ( y) d( y) dy y 4 y < y < caso contrário (, ) X Y : f II (y) f X ( y) d y dy y 4 y < y < caso contrário Logo, f Y (y) f I (y) + f II (y) y I (,)(y)

201 Capítulo 8 A Distribuição Normal Neste capítulo, iremos estudar a distribuição normal, uma das principais distribuições contínuas, que tem varias aplicações na estatística. Começaremos o estudo com um caso particular, a distribuição normal padrão. 8. Distribuição normal padrão Função densidade Com o uso de coordenadas polares e integrais duplas, pode-se provar (ver Seção 8.8) que exp ) ( t π dt (8.) e, portanto, exp ) ( t dt π (8.) uma vez que a função e t / é par. Definição 8. Densidade Normal Padrão Diz-se que uma variável aleatória X tem densidade normal padrão se sua função densidade é dada por φ(x) ) exp ( x < x < (8.3) π Vamos denotar por N(; ) a densidade normal padrão e, se uma variável aleatória tem tal distribuição, é comum representá-la pela letra Z, de modo que estabelecemos a notação Z N(; ). Analisando a expressão de φ(z), podemos ver que ela é simétrica em torno de, ou seja, ela é uma função par: φ(z) φ( z). Na Figura 8. temos o gráfico de φ(z).

202 98 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL Figura 8. Gráfico da densidade normal padrão φ(z) Esperança e variância Seja Z N(, ). Como φ(z) é simétrica em torno do ponto x, sabemos, pela Proposição 5.6, que E(Z). Como E(Z), então Var(Z) E(Z ) + ) z exp ( z dz + π π z exp ) ( z dz uma vez que o integrando é par. Esta integral é calculada usando o método de integração por partes. Fazendo: z exp ) ) ( z dz dv v exp ( z z u dz du resulta que: z exp ) ( z [ )] exp ( z dz + z exp ) ( z dz (8.4) Pelos resultados (4.5) e (8.) π + z exp ) ( z dz z exp ) ( z π dz Logo, Var(Z) π π Var(Z) (8.5) Resumindo: Z N(; ) E(Z) Var(Z) (8.6)

203 8.. CÁLCULO DE PROBABILIDADES DA NORMAL PADRÃO 99 Função de distribuição A função de distribuição acumulada de qualquer variável aleatória X é definida por F X (X) P (X x). No caso da densidade normal padrão, essa função é dada pela integral z Φ(z) exp ( ) t dt (8.7) π para a qual não existe uma antiderivada em forma de função elementar. Assim, cálculos com a distribuição acumulada da normal padrão requerem integração numérica. Todos os pacotes estatísticos possuem rotinas especiais para esse cálculo. 8. Cálculo de probabilidades da normal padrão Vimos anteriormente que o cálculo de probabilidades associadas a variáveis aleatórias contínuas envolve cálculo de integrais da função densidade: P(a X b) b a f X (x)dx Isso, obviamente, continua valendo para a densidade normal. A diferença está no fato de que o cálculo de tais integrais para a densidade normal padrão requer métodos numéricos e, para facilitar esses cálculos, podemos usar uma tabela em que alguns valores já se encontram calculados. A tabela básica fornece probabilidades associadas à densidade normal padrão. Tabela : P( Z z) A Tabela do Apêndice A será usada para calcular probabilidades associadas a uma variável aleatória normal padrão Z. Assim, com essa tabela, poderemos calcular probabilidades do tipo P(Z > ), P(Z 3), P( Z ) etc. Vamos analisar cuidadosamente esta tabela. A partir do cabeçalho e do gráfico na tabela, podemos ver que as entradas no corpo da tabela fornecem probabilidades do tipo P( Z z). Com relação à abscissa z, seus valores são apresentados na tabela ao longo da coluna lateral à esquerda em conjunto com a linha superior. Na coluna à esquerda, temos a casa inteira e a primeira casa decimal; na linha superior, temos a segunda casa decimal. Por exemplo, ao longo da primeira linha da tabela, temos probabilidades associadas às abscissas,;,;,,...,,9; na segunda linha da tabela, temos probabilidades associadas às abscissas,;,;,;...,,9; na última linha da tabela, temos probabilidades associadas às abscissas 4,; 4,; 4,;... ; 4,9. A entrada, no canto superior esquerdo da tabela dá a seguinte probabilidade: P( Z, ), ou seja, P(Z ) e, como visto, essa probabilidade é nula, uma vez que, para qualquer variável aleatória contínua X, P(X x ). A segunda entrada na primeira linha,,4, corresponde a P( Z, ), que é a área sob a curva de densidade normal padronizada compreendida entre os valores e, (veja o gráfico na tabela). Note que esta tabela apresenta probabilidades correspondentes a abscissas positivas. Para calcular probabilidades associadas a abscissas negativas, teremos que usar o fato de a curva da densidade normal ser simétrica. Sempre faça um esboço do gráfico da função densidade, sombreando a área correspondente à probabilidade desejada; isso lhe ajudará no cálculo da probabilidade. Vamos terminar esta seção apresentando vários exemplos de cálculos de probabilidades para uma variável

204 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL aleatória Z com distribuição normal padrão, ou seja, no que segue, Z N(; ). Os exemplos apresentados cobrem todas as situações possíveis. Assim, é importante que você entenda bem a situação ilustrada em cada um dos exemplos, para poder aplicar o método de solução adequado. Exemplo 8. A partir da Tabela do Apêndice A calcule P( Z, ). Veja as Figuras 8. e 8.3. Essa probabilidade é dada diretamente na Tabela, utilizando a entrada correspondente à linha, e à coluna com o valor. O resultado é P( Z, ), 3888 e a. Decimal 3,,,4,8,,,398,438,478,57,9,359,386,3,338.,,343,3438,346,3485,,3643,3665,3686,378,,3849,3869,3888,397,3,43,449,466,48 Figura 8. P( Z, ) como área Figura 8.3 P( Z, ) - Uso da tabela Exemplo 8. A partir da Tabela do Apêndice A calcule P( Z ). Note que este exemplo trata da probabilidade entre duas abscissas positivas. Na Figura 8.4 ilustra-se a probabilidade desejada como a área sombreada. Note que esta área pode ser obtida pela diferença entre as áreas das Figuras 8.5 e 8.7, cujos valores são encontrados na Tabela conforme ilustram as Figuras 8.6 e 8.8. Figura 8.4 P( Z ) como área

205 8.. CÁLCULO DE PROBABILIDADES DA NORMAL PADRÃO e a. Decimal 3 4,,,4,8,,6,,398,438,478,57,557,,793,83,87,9,948,8,464,4649,4656,4664,467,9,473,479,476,473,4738,,477,4778,4783,4788,4793,,48,486,483,4834,4838 Figura 8.5 P( Z ) como área Figura 8.6 P( Z ) - Uso da tabela e a. Decimal 3 4,,,4,8,,6,,398,438,478,57,557,,793,83,87,9,948,8,88,9,939,967,995,9,359,386,3,338,364,,343,3438,346,3485,358,,3643,3665,3686,378,379 Figura 8.7 P( Z ) como área Figura 8.8 P( Z ) - Uso da tabela Concluímos, então, que P( Z ) P( Z ) P( Z ), 477, 343, 359 Exemplo 8.3 A partir da Tabela do Apêndice A calcule P(Z ). Note que este exemplo trata da probabilidade de Z ser maior que uma abscissa positiva. Na Figura 8.9 ilustra-se essa probabilidade como a área sombreada, que pode ser obtida pela diferença entre as áreas das Figuras 8. e 8.. A primeira área corresponde à probabilidade P(Z ) e é igual a,5, pois a média µ é o eixo de simetria e a área total é. Logo, P(Z ) P(Z ), 5. A segunda área vem direto da Tabela. Figura 8.9 P(Z )

206 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL Figura 8. P(Z ) Figura 8. P( Z ) Concluímos, então, que P(Z ) P(Z ) P( Z ), 5, 343, 587 Exemplo 8.4 A partir da Tabela do Apêndice A calcule P(Z ). Note que este exemplo trata da probabilidade de Z ser menor que uma abscissa positiva. Na Figura 8. ilustra-se a probabilidade desejada como a área sombreada, que pode ser obtida pela soma das áreas das Figuras 8.3 e 8.4. A primeira área corresponde à probabilidade P(Z ) e é igual a,5, conforme visto no exemplo anterior. Figura 8. P(Z ) Figura 8.3 P(Z ) Figura 8.4 P( Z ) Concluímos, então, que P(Z ) P(Z ) + P( Z ), 5 +, 343, 843

207 8.. CÁLCULO DE PROBABILIDADES DA NORMAL PADRÃO 3 Exemplo 8.5 A partir da Tabela do Apêndice A calcule P(Z, 5) Note que este exemplo trata da probabilidade de Z ser menor que uma abscissa negativa e, agora, começamos a trabalhar com abscissas negativas. Na Figura 8.5 ilustra-se a probabilidade desejada como a área sombreada. Pela simetria da curva de densidade normal, essa área é igual à área sombreada na Figura 8.6, que corresponde a P(Z, 5). Figura 8.5 P(Z, 5) Figura 8.6 P(Z, 5) Concluímos, então, que P(Z, 5) P(Z, 5), 5 P( Z <, 5), 5, 95, 385 Exemplo 8.6 A partir da Tabela do Apêndice A calcule P(Z, 5) Note que este exemplo trata da probabilidade de Z ser maior que uma abscissa negativa. Na Figura 8.7 ilustra-se essa probabilidade como a área sombreada, que é a soma das áreas sombreadas nas Figuras 8.8 e 8.9. Essa última área, por sua vez, é igual à área representada na Figura 8., pela simetria da curva de densidade. Figura 8.7 P(Z, 5) Figura 8.8 P(Z )

208 4 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL Figura 8.9 P(, 5 Z ) Figura 8. P() Z, 5) Concluímos, então, que P(Z, 5) P(, 5 Z ) + P(Z ) P( Z <, 5) +, 5, 95 +, 5, 695 Exemplo 8.7 A partir da Tabela do Apêndice A calcule calcule P(, Z, 4) Note que este exemplo trata da probabilidade de Z estar entre duas abscissas negativas. Na Figura 8. ilustra-se a probabilidade desejada como a area sombreada. Por simetria, essa área é igual à área ilustrada na Figura 8., já analisada no Exemplo 8.. Figura 8. P(, Z, 4) Figura 8. P(, 4 Z, ) Concluímos, então, que P(, Z, 4) P(, 4 Z, ) P( Z, ) P( Z, 4), 48, 49, 69 Exemplo 8.8 A partir da Tabela do Apêndice A calcule P(, Z, 4) Note que este exemplo trata da probabilidade de Z estar entre duas abscissas, uma negativa e outra positiva. Na Figura 8.3 ilustra-se a probabilidade como a area sombreada, que é a soma das áreas representadas nas Figuras 8.4 e 8.5. Por simetria, essa última área é igual à área sombreada na Figura 8.6, o que nos leva à conclusão de que P(, Z, 4) P( Z, 4) + P(, Z ) P( Z, 4) + P( Z, ), 48 +, 49, 93

209 8.. CÁLCULO DE PROBABILIDADES DA NORMAL PADRÃO 5 Figura 8.3 P(, Z, 4) Figura 8.4 P( Z, 4) Figura 8.5 P(, Z ) Figura 8.6 P( Z, ) Tabela : Φ(z) P(Z z) por: Muitos livros trabalham com a tabela da função de distribuição da normal padrão Φ, definida Φ(z) P(Z z). A Tabela do Apêndice A apresenta os valores de Φ(z) para z. Vamos usar essa tabela para refazer os exemplos vistos anteriormente, que serão apresentados em uma ordem diferente, mais didaticamente apropriada para o novo contexto. Exemplo 8.9 A partir da Tabela do Apêndice A calcule P(Z ) Essa probabilidade resulta diretamente da definição de distribuição acumulada: P(Z ) Φ(, ), 843 Exemplo 8. A partir da Tabela do Apêndice A calcule P(Z ) Pela lei do complementar, temos que P(Z ) P(Z < )

210 6 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL Mas, como Z é uma variável aleatória contínua, sabemos que P(Z z). Logo P(Z < z) P(Z z) Logo, P(Z ) P(Z < ) P(Z ) Φ(, ), 843, 587 Exemplo 8. A partir da Tabela do Apêndice A calcule P(Z, 5) Vimos, no Exemplo 8.5, que P(Z, 5) P(Z, 5) Logo, P(Z, 5) P(Z, 5) P(Z <, 5) P(Z, 5) Φ(, 5), 695, 385 Exemplo 8. A partir da Tabela do Apêndice A calcule P(Z, 5) Veja as Figuras 8.7 e 8.8. P(Z, 5) P(Z <, 5) P(Z >, 5) P(Z, 5) Φ(, 5), 695 Figura 8.7 P(Z, 5) Figura 8.8 P(Z, 5) Exemplo 8.3 A partir da Tabela do Apêndice A calcule P( Z, ) Veja as Figuras 8., 8.9 e 8.3. P( Z, ) P(Z, ) P(Z ) Φ(, ), 5, 8888, 5, 3888

211 8.. CÁLCULO DE PROBABILIDADES DA NORMAL PADRÃO 7 Figura 8.9 P(Z, ) Figura 8.3 P(Z ) Exemplo 8.4 A partir da Tabela do Apêndice A calcule P( Z ) Veja as Figuras 8.4, 8.3 e 8.3. P( Z ) P(Z ) P(Z < ) P(Z ) P(Z ) Φ(, ) Φ(, ), 977, 843, 359 Figura 8.3 P(Z, 5) Figura 8.3 P(Z, 5) Exemplo 8.5 A partir da Tabela do Apêndice A calcule P(, Z, 4) Usando os resultados do Exemplo 8.4, temos que P(, Z, 4) P(, 4 Z, ) Φ(, ) Φ(, 4), 98, 99, 69 Exemplo 8.6 A partir da Tabela do Apêndice A calcule P(, Z, 4) Usando os resultados do Exemplo 8., temos que P(, Z, 4) Φ(, 4) P(Z <, ) Φ(, 4) Φ(, ) Φ(, 4) [ Φ(, )], 99 [, 98], 93

212 8 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL 8.3 A distribuição normal Seja Z N(; ); vamos definir uma nova variável aleatória por X g(z) µ + σz, em que σ >. Usando a Proposição 7. temos que ( x µ ) f X (x) f Z σ σ [ exp ( x µ ) ] π σ σ ou ainda: f X (x) e essa é a densidade normal N(µ; σ ). [ exp πσ ( x µ ) ] σ Definição 8. Distribuição Normal Diz-se que, uma variável aleatória contínua X, definida para todos os valores em R, tem distribuição normal com parâmetros µ e σ, onde < µ < e < σ <, se sua função densidade de probabilidade é dada por f(x) [ ] exp (x µ) πσ σ < x <. Usaremos a seguinte notação para indicar que X tem distribuição normal com parâmetros µ e σ : X N(µ, σ ). Características da função densidade normal. Simétrica em torno de µ; note que f (µ x) f (µ + x).. Assíntotas: lim f(x) lim f(x) ; esse resultado segue diretamente das propriedades da x x função exponencial e do fato de que e x e x. 3. Ponto de máximo Para calcular a primeira e segunda derivadas de f(x), devemos lembrar que (e x ) e x e, pela regra da cadeia, (e g(x) ) e g(x) g (x). Aplicando esses resultados à densidade normal, obtemos que: f (x) [ exp πσ Derivando novamente, obtemos: ( x µ f (x) f (x) [ (x µ) f(x) σ 4 σ ) ] [ (x µ) σ f(x) σ [ ] f(x) σ f(x) (x µ) σ ] ( x µ f(x) [ (x µ) σ ( x µ ) f(x) σ )] [ x µ ] σ σ ] Analisando a equação (8.8) e lembrando que f(x) >, pode-se ver que: f (x) x µ σ 4 f(x) σ (8.8) (8.9)

213 8.3. A DISTRIBUIÇÃO NORMAL 9 e assim, x µ é um ponto crítico. Como f (x) > para x < µ e f (x) < para x > µ, então f é crescente à esquerda de µ e decrescente à direita de µ. Segue, então, que x µ é um ponto de máximo e nesse ponto f(µ) (8.) πσ 4. Pontos de inflexão Analisando a segunda derivada dada por (8.9), tem-se que: f (x) (x µ) σ x µ σ { x µ + σ x µ σ (8.) Além disso, f (x) > (x µ) > σ x µ > σ x µ > σ ou µ x > σ (8.) x > µ + σ ou x < µ σ e f (x) < (x µ) < σ x µ < σ σ < x µ < σ µ σ < x < µ + σ (8.3) Logo, f(x) é côncava para cima se x > µ + σ ou x < µ σ e é côncava para baixo quando µ σ < x < µ + σ. Na Figura 8.33 é apresentado o gráfico da densidade normal no caso em que µ 3 e σ. Aí a linha pontilhada central representa o eixo de simetria e as linhas pontilhadas laterais passam pelos pontos de inflexão 3 ±. Figura 8.33 Densidade normal com média µ 3 e variância σ Parâmetros da distribuição normal Se X N ( µ; σ ), então X µ + σz, em que Z N(; ). Das propriedades da média e da variância, resulta E(X) µ + σ E(Z) µ + E (X) µ

214 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL e Var (X) σ Var(Z) σ Var(X) σ Resumindo: X N ( µ; σ ) { E(X) µ Var(X) σ (8.4) Os parâmetros da densidade normal são, então, a média e a variância, que são medidas de posição e dispersão, respectivamente. Valores diferentes de µ deslocam o eixo de simetria da curva e valores diferentes de σ mudam a dispersão da curva. Quanto maior σ, mais espalhada é a curva, mas o ponto de máximo, dado pela equação (8.), é inversamente proporcional a σ. Logo, quanto maior σ, mais espalhada e mais achatada é a curva. O importante a observar é que a forma é sempre a de um sino. Na Figura 8.34 temos exemplos de densidades normais com a mesma variância, mas com médias diferentes. O efeito é o deslocamento do eixo de simetria da densidade. Já na Figura 8.35, temos duas densidades com a mesma média, mas variâncias diferentes. O efeito é que a densidade com maior variância é mais dispersa e achatada. Figura 8.34 Densidades normais com mesma variância e médias diferentes Figura 8.35 Densidades normais com mesma média e variâncias diferentes

215 8.4. CÁLCULO DE PROBABILIDADES DA NORMAL Função de distribuição A função de distribuição da densidade normal é dada pela integral F(x) x [ exp πσ ( ) ] t µ dt (8.5) σ Na Figura 8.36 apresentamos a função de distribuição associada às densidades N(; ), N(3; ) e N(3; 4). Note que, pela simetria da densidade em torno da média µ, sempre teremos F(µ), 5. Esse fato é ilustrado com as linhas pontilhadas na figura. Figura 8.36 Função de distribuição da N(; ), N(3; ) e N(3; 4) 8.4 Cálculo de probabilidades da normal Já foi visto que, se X N ( µ, σ ), então X µ + σz, onde Z N(, ). Vamos ver como utilizar esse resultado para calcular probabilidades da normal. Temos que ( P (X x) P (µ + σz x) P Z x µ ) ( x µ ) Φ σ σ (8.6) Nas Figuras 8.37 e 8.38 ilustra-se esse fato, utilizando as densidades Z N(; ) e X N(3; 4). No gráfico à esquerda, a área sombreada representa P(X 5) e no gráfico à direita, a área sombreada representa a probabilidade equivalente: ( X 3 P(X 5) P 5 3 ) P(Z ) O que o resultado diz é que essas probabilidades áreas são iguais.

216 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL Figura 8.37 X N(3; ) P(X 5) Figura 8.38 Z N(; ) P(Z, ) Isso significa que probabilidades para X N(µ; σ ) podem ser calculadas a partir da operação de padronização Z X µ (8.7) σ em que Z N(; ). É interessante lembrar que a transformação dada na Equação (8.7) corresponde ao cálculo do escore padronizado associado à abscissa x. Assim, cálculos de probabilidades de variáveis aleatórias normais sempre envolverão o cálculo do escore padronizado da(s) abscissa(s) de interesse. Exemplo 8.7 Se X N(3; 9), calcule P( X 4) P( X 4) P ( 3 X ) P (, 33 Z, 33) Φ(, 33) Φ(, 33) Φ(, 33) ( Φ(, 33)), 693 (, 98) P( Z, 33) + P( Z, 33), 93 +, 484, Exemplo 8.8 Se X N(; 5), calcule P( X 7) P( X 7) P ( X 7 ) P (, 45 Z, 4) Φ(, 4) Φ(, 45) Φ(, 4) [ Φ(, 45)], 9875 [, 67] P( Z, 4) + P( Z, 45), , 7, 6575 Exemplo 8.9 Se X N(5, ), calcule P(X > 7)

217 8.4. CÁLCULO DE PROBABILIDADES DA NORMAL 3 ( X 5 P(X > 7) P P(Z > ) > 7 5 ), Φ(, ),, 9775, 5 P( Z, ), 5, 4775, 75 Exemplo 8. A regra ,7 Seja X N(µ; σ ). Calcule P(µ kσ < X < µ + kσ), para k,, 3. Note que essa probabilidade corresponde à probabilidade de X estar a uma distância de k desviospadrão da média. ( µ kσ µ P(µ kσ X µ + kσ) P σ X µ σ µ + kσ µ ) P( k Z k) σ É importante observar que chegamos a uma probabilidade que não depende de µ ou σ, ou seja, esse resultado vale qualquer que seja a distribuição normal. k P(µ σ X µ + σ) P( Z ) tab(, ), 344, 688 k P(µ σ X µ + σ) P( Z ) tab(, ), 477, 9544 k 3 P(µ 3σ X µ + 3σ) P( 3 Z 3) tab(3, ), 4987, 9974 Essas probabilidades nos dizem que, para qualquer distribuição normal, 68,8% dos valores estão a um desvio-padrão da média, 95,44% estão a dois desvios-padrão e 99,73% dos valores estão a três desvios-padrão da média. Veja a Figura 8.39 para uma ilustração desses resultados. Figura 8.39 Ilustração da regra ,7

218 4 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL 8.5 Encontrando a abscissa da normal para uma probabilidade específica Nos exemplos vistos até o momento, consideramos situações em que tínhamos uma abscissa de uma distribuição normal e queríamos alguma probabilidade associada a essa abscissa. Agora, vamos lidar com a situação inversa: dada uma probabilidade, qual é a abscissa correspondente? Eis algumas situações que envolvem esse tipo de problema: Em uma turma de Estatística, os % melhores alunos receberão um livro de presente. Qual a menor nota que dá direito a um livro de presente? Em uma comunidade, as famílias com as 5% piores rendas irão receber um auxílio da prefeitura. Qual a renda familiar máxima que garante o auxílio da prefeitura? Como antes, vamos apresentar vários exemplos que ilustram essa situação. Exemplo 8. Se Z N(; ), determine o valor de k tal que P(Z k), 9. Vamos traduzir esse problema em termos probabilísticos: queremos encontrar a abscissa k da normal padrão tal que a probabilidade à esquerda dela seja,9. Como,9 é a área à esquerda de k, resulta que k tem que ser maior que zero, isto é, temos que ter k >. Veja a Figura 8.4: à esquerda de k temos área (probabilidade),9 e à esquerda de temos área (probabilidade),5. Logo, entre e k temos que ter área (probabilidade),4. Figura 8.4 Determinação de k tal que P(Z k), 9 Escrevendo essas observações em termos de probabilidades, temos: P(Z k), 9 P(Z ) + P( < Z k), 9, 5 + P( < Z k), 9 P( < Z k), 4 Esta última igualdade nos diz que k é a abscissa correspondente ao valor,4 na Tabela. Para identificar k, temos que buscar, no corpo dessa tabela, o valor mais próximo de,4. Na linha correspondente ao valor, encontramos as entradas,39973 e,447. Como a primeira está mais próxima de,4, olhamos qual é a abscissa correspondente: a linha é, e a coluna é 8, o que nos dá a abscissa de,8, ou seja, k, 8 e P(Z, 8), 9, completando a solução. Agora vamos olhar o mesmo exemplo, mas para uma distribuição normal qualquer.

219 8.5. ENCONTRANDO A ABSCISSA DA NORMAL PARA UMA PROBABILIDADE ESPECÍFICA 5 Exemplo 8. Se X N(3; 4), determine o valor de k tal que P(X k), 9. Como a probabilidade à esquerda de k é maior que,5, resulta que k tem que ser maior que a média. O primeiro passo na solução é escrever a probabilidade dada em termos da normal padrão. P(X k), 9 ( X 3 P k 3 ), 9 ( P Z k 3 ), 9 ( P(Z ) + P Z k 3 ), 9 (, 5 + P Z k 3 ), 9 ( P Z k 3 ), 4 k 3, 8 k 5, 56 Exemplo 8.3 Se X N(3; 4), determine o valor de k tal que P(X k), 5. À esquerda de k temos 5% da área total; logo, k tem que ser menor que a média, ou seja, temos que ter k < 3 e a abscissa padronizada correspondente tem que ser negativa (menor que a média ). P(X k), 5 ( X 3 P k 3 ), 5 ( P Z k 3 ), 5 Como a área (probabilidade) à esquerda de k 3 é menor que, 5, isso significa que k 3 tem que ser negativo. Veja a Figura 8.4. Para nos adequarmos às tabelas disponíveis, temos que trabalhar com abscissas positivas, ou seja, temos que usar a simetria da curva. Veja a Figura 8.4 e note que a abscissa simétrica a k 3 é k 3 3 k. Figura 8.4 P(Z k 3 k 3 ), 5 Figura 8.4 P(Z ), 5

220 6 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL Temos, então, a seguinte equivalência de probabilidades: ( P Z k 3 ), 5 ( P Z k 3 ), 5 ( P Z k 3 ), 45 O menor valor mais próximo de,45 no corpo da Tabela é,4495, que corresponde à abscissa,64, e isso nos dá que k 3, 64 k, 8 Exemplo 8.4 Se X N(3; 4), determine o valor de k tal que P( X 3 k), 95. Pelas propriedades da função módulo, sabemos que P( X 3 k), 95 P( k X 3 k), 95 P (3 k X k + 3), 95 ( 3 k 3 P X 3 k ), 95 ( P k Z k ), 95 Veja a Figura 8.43 para entender que ( P k Z k ), 95 P ( k ) ( Z + P Z k ), 95 ( P Z k ), 95 ( P Z k ), 475 k, 96 k 3, 9 Figura 8.43 Determinação de k tal que P( Z k ), 95

221 8.6. EXEMPLOS DE APLICAÇÃO DA DISTRIBUIÇÃO NORMAL 7 Note que, de forma mais direta, P( X 3 k), 95 ( X 3 P k ), 95 ( P Z k ), 95 ( P k Z k ), 95 ( P Z k ), 475 k, 96 k 3, 9 Na desigualdade inicial X 3 k, a média µ 3 já está subtraída; assim, só falta dividir pelo desvio-padrão para completar a operação de padronização. 8.6 Exemplos de aplicação da distribuição normal A distribuição normal é um modelo probabilístico que se aplica a diversas situações práticas. Assim, vamos finalizar este capítulo com alguns exemplos práticos. Exemplo 8.5 Saldo bancário O saldo médio dos clientes de um banco é uma variável aleatória com distribuição normal com média R$., e desvio-padrão R$ 5,. Os clientes com os % maiores saldos médios recebem tratamento VIP, enquanto aqueles com os 5% menores saldos médios receberão propaganda extra para estimular maior movimentação da conta. (a) Quanto você precisa de saldo médio para se tornar um cliente VIP? (b) Abaixo de qual saldo médio o cliente receberá a propaganda extra? Seja X saldo médio ; é dado que X N(; 5 ). (a) Temos que determinar o valor de k tal que P(X k),. Note que isso equivale a calcular o 9 o percentil da distribuição. A área à esquerda de k tem de ser,9; logo, k tem que ser maior que a média. ( X P(X k), P 5 ( P Z k ) P 5 ( Z k 5 k ) 5 (, P ( Z k 5, 9 P(Z ) + P ), 9, 5, 4 k 5 Z k ), 5 ), 9, 8 k 3 Os clientes com saldo médio maior ou igual a R$.3, terão tratamento VIP. (b) Temos que determinar o valor de k tal que P(X k), 5. Note que isso equivale a calcular o 5 o percentil da distribuição. A área à esquerda de k tem que ser,5; logo, k tem que ser

222 8 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL menor que a média. Na solução, teremos que usar a simetria da distribuição, invertendo o sinal da abscissa, para lidarmos com abscissas positivas da distribuição normal padrão. ( X P(X k), 5 P 5 ( P Z k ), 5 P P 5 ( Z k 5 ) k ), 5 5 ( Z k ), 5 5, 45 k 5, 64 k 59 Os clientes com saldo médio inferior a R$.59, receberão a propaganda extra. Na Figura 8.44 ilustra-se a solução do exercício. Figura 8.44 Solução do Exemplo 8.5 Exemplo 8.6 Regulagem de máquinas Uma máquina de empacotar determinado produto oferece variações de peso que se distribuem segundo uma distribuição normal com desvio-padrão de gramas. Em quanto deve ser regulado o peso médio desses pacotes para que apenas % deles tenham menos que 5 gramas? Esse é um exemplo clássico de aplicação da distribuição normal. Seja X o peso dos pacotes em gramas. Então, X N(µ; 4). Temos que ter P(X 5),. Note que o peso médio tem que ser superior a 5 g. Veja, na solução, a inversão do sinal da abscissa! ( X µ P(X 5), P 5 µ ), ( P Z 5 µ ) (, P Z 5 µ ), P ( Z µ 5 µ 5 ), P, 8 µ 55, 6 ( Z µ 5 ), 4 A máquina tem que ser regulada com um peso médio de 55,6g para que apenas % dos pacotes tenham peso inferior a 5g. Veja a Figura 8.45.

223 8.6. EXEMPLOS DE APLICAÇÃO DA DISTRIBUIÇÃO NORMAL 9 Figura 8.45 Solução do Exemplo 8.6 Exemplo 8.7 Mais sobre regulagem de máquinas Uma máquina fabrica tubos metálicos cujos diâmetros podem ser considerados uma variável aleatória normal com média mm e desvio-padrão mm. Verifica-se que 5% dos tubos estão sendo rejeitados como grandes e % como pequenos. (a) Quais são as tolerâncias de especificação para esse diâmetro? (b) Mantidas essas especificações, qual deverá ser a regulagem média da máquina para que a rejeição por diâmetro grande seja praticamente nula? Nesse caso, qual será a porcentagem de rejeição por diâmetro pequeno? Seja D diâmetro dos tubos. Então D N(, ). (a) Sejam k I e k S as especificações inferior e superior, respectivamente. Isso significa que tubos com diâmetro menor que k I são rejeitados como pequenos e tubos com diâmetro maior que k S são rejeitados como grandes. ( D P(D < k I ), P ( P Z > k ) I, P P ( Z < k I ) < k ) I ( Z > k I, 4 k I (, P ),, 8 k I 97, 44 Z < k I ), ( D P(D > k S ), 5 P ) P ( Z < k S, 35 k S > k ) S, 5, 3 k S, 6 Logo, tubos com diâmetro menor que 97,44 cm são rejeitados como pequenos e tubos com diâmetros maiores que,6 cm são rejeitados como grandes. (b) Com a nova regulagem, temos que D N(µ; ) e µ deve ser tal que

224 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL ( D µ P(D >, 6) P ) P ( Z >, 6 µ, 6 µ P 4, 5 µ 93, 6 ), 6 µ > ( Z, 6 µ ), 5 Com essa média, a porcentagem de rejeição por diâmetro pequeno é P(D < 97, 44) ( ) D 93, 6 97, 44 93, 6 P < P(Z <, 9) P(Z ) + P( < Z <, 9), 9857 Com essa nova regulagem, a rejeição por diâmetro grande é nula, mas a rejeição por diâmetro pequeno é muito alta! Veja as Figuras 8.46 e 8.47, nas quais ficam claros os resultados obtidos. Figura 8.46 original Exemplo regulagem Figura 8.47 Exemplo regulagem com % de tubos grandes Exemplo 8.8 Troca de lâmpadas Em um grande complexo industrial, o departamento de manutenção tem instruções para substituir as lâmpadas antes que se queimem. Os registros indicam que a duração das lâmpadas, em horas, tem distribuição normal, com média de 9 horas e desvio-padrão de 75 horas. Quando devem ser trocadas as lâmpadas, de modo que no máximo 5% delas queimem antes de serem trocadas? Seja T tempo de duração (em horas) das lâmpadas ; então, T N(9; 75 ). Temos que determinar t tal que P(T t), 5. ( T 9 P(T t), 5 P t 9 ), 5 75 ( P Z t 9 ), 5 P 75 ( P Z 9 t ) ( Z 9 t 75, 45 9 t 75 ), 5, 64 t 777 As lâmpadas devem ser trocadas com 777 horas de uso para que apenas 5% se queimem antes da troca. Aqui cabe a seguinte observação: em geral, não é apropriado utilizar-se a distribuição normal para modelar o tempo de sobrevivência de lâmpadas ou equipamentos em geral. Modelos tipo exponencial ou gama são mais adequados, pois atribuem probabilidade alta de sobrevivência no início da vida do equipamento e probabilidade decrescente à medida que o equipamento envelhece.

225 8.7. A DISTRIBUIÇÃO LOG-NORMAL Exemplo 8.9 Regulagem de máquinas controle da variabilidade Uma enchedora automática enche garrafas de acordo com uma distribuição normal de média ml. Deseja-se que no máximo uma garrafa em cada saia com menos de 9ml. Qual deve ser o maior desvio padrão tolerável? Se X conteúdo da garrafa (em ml), então X N(; σ ) e queremos que P(X < 9),. Seja σ o valor do desvio padrão de X tal que P(X < 9),. Então, qualquer valor de σ tal que σ < σ resulta em P(X < 9) <,. Veja a Figura 8.9. Figura 8.48 Solução do Exemplo 8.9 A área sombreada corresponde a P(X < 9), quando X N(; σ ) (curva de densidade mais espessa). As duas outras densidades correspondem a distribuições normais com desvios-padrão menores. Note que para essas distribuições, P(X < 9) <,. Assim, o desvio-padrão máximo tolerável é tal que: ( P(X < 9), P Z < ( P Z > ),, 5 P σ σ, 33 σ 4, 98, 33 ) 9 σ ( Z σ (, P ) Z >, P ) 9, σ ( Z ), 49 σ 8.7 A distribuição log-normal Vamos definir, agora, uma nova variável aleatória através de uma transformação de X N(µ; σ ).

226 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL Definição Definição 8.3 Distribuição log-normal Seja X N(µ, σ ). Se Y e X então a variável aleatória Y tem distribuição log-normal com parâmetros µ e σ. Reciprocamente, se Y tem distribuição log-normal, então X ln Y tem distribuição N(µ, σ ). Vamos calcular a função densidade de probabilidade de uma variável aleatória log-normal a partir de sua função de distribuição acumulada. Note que Y só pode assumir valores positivos. Temos que: ( ) F Y (y) P (Y y) P e X y ( X µ P ln y µ ) σ σ ( ) ln y µ Φ y > σ P (X ln y) ( Z ln y µ σ P ) Sabemos que f Y (y) F (y) e, também, no caso da normal padrão, Φ (z) φ(z). Logo, pela regra da cadeia, ( ln y µ f Y (y) Φ σ [ exp π ) ( ln y µ σy φ σ ( ) ] ln y µ σ σy ) σy ou ainda: f Y (y) [ y πσ exp ( ) ] ln y µ σ y > (8.8) Esperança A esperança de Y é: E(Y ) [ y y πσ exp ( ) ] ln y µ dy σ Fazendo a mudança de variável t ln y temos que dt y dy y et y t y t e, portanto

227 8.7. A DISTRIBUIÇÃO LOG-NORMAL 3 [ E(Y ) e t exp ( ) ] t µ [ dt exp ( ) t µ + t] dt πσ σ πσ σ [ exp t tµ + µ σ ] t πσ σ dt [ exp t t ( µ + σ ) ] + µ πσ σ dt exp [ t t ( µ + σ ) ] ) πσ σ exp ( µ σ dt ) exp ( µ σ exp [ t t ( µ + σ ) + ( µ + σ ) ( µ + σ ) ] πσ σ dt ) { exp ( µ [ ( t µ + σ )] } (( µ + σ ) ) σ exp πσ σ exp σ dt ( ( exp µ µ + σ ) ) [ { σ + [ ( t µ + σ )] } ] σ exp πσ σ dt Mas o termo entre os colchetes externos é a integral de uma densidade normal com média λ ( µ + σ ) e variância σ ; logo, essa integral é e, portanto ( ( E(Y ) exp µ µ + σ ) ) ( µ σ + + µ + µσ + σ 4 ) σ exp σ E(Y ) exp (µ + σ ) (8.9) Variância Vamos calcular de modo análogo E(Y ), usando a mesma transformação:

228 4 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL [ E(Y ) y y πσ exp ( ) ] ln y µ dy σ [ e t exp ( ) ] t µ [ dt exp ( ) t µ + t] dt πσ σ πσ σ [ exp t tµ + µ 4σ ] t πσ σ dt [ exp t t ( µ + σ ) ] + µ πσ σ dt exp [ t t ( µ + σ ) ] ) πσ σ exp ( µ σ dt ) exp ( µ σ exp [ t t ( µ + σ ) + ( µ + σ ) ( µ + σ ) ] πσ σ dt ) { exp ( µ [ ( t µ + σ )] } (( µ + σ ) ) σ exp πσ σ exp σ dt ( ( exp µ µ + σ ) ) [ { σ + [ ( t µ + σ )] } ] σ exp πσ σ dt Como antes, o termo entre os colchetes externos é porque é a integral de uma densidade normal com média µ + σ e variância σ. Logo, ( ( E(Y ) exp µ µ + σ ) ) ( µ σ + + µ + 4µσ + 4σ 4 ) σ exp σ E(Y ) exp (µ + σ ) e ( Var(Y ) exp µ + σ ) [ exp (µ + σ ( exp exp )] µ + σ ) [ exp (µ + σ )] ( µ + σ ) exp (µ + σ ) ( [ exp µ + σ ) exp ( µ + σ ) exp ( µ + σ ) ( exp exp µ + σ ) [ ( exp µ + σ µ σ ) ] ( µ + σ ) [ ] exp σ ] ( Definindo m E(X) exp µ + σ ), temos que m exp ( µ + σ ). Logo, [ ] Var(Y ) m e σ (8.)

229 8.8. APÊNDICE: INTEGRAIS DUPLAS COM COORDENADAS POLARES Apêndice: Integrais duplas com coordenadas polares No cálculo de integrais duplas, a utilização de coordenadas polares é bastante útil. No sistema cartesiano, cada ponto do plano é representado pela sua abscissa e sua ordenada. No sistema de coordenadas polares, em vez dos eixos x e y, trabalha-se com um polo ou origem, que é um ponto fixo do plano, e um eixo polar, que é uma semi-reta orientada, conforme ilustrado na Figura As coordenadas polares de um ponto P qualquer no plano são a distância r d(o, P) e o ângulo θ determinado pelo eixo polar e o segmento OP. Em geral, a coordenada θ é considerada positiva se é gerada por uma rotação anti-horária e negativa, caso contrário. Figura 8.49 Sistema de coordenadads polares As coordenadas polares de um ponto não são únicas, pois há vários ângulos com o mesmo lado terminal OP. Por exemplo, ( 3, π ) ( ) ( ) 4, 3, 9π 4 e 3, 7π 4 representam o mesmo ponto. Permite-se também que a coordenada r seja negativa. Se uma função de uma variável f está definida em um intervalo [a, b], a definição de integral (simples) requer a partição do intervalo [a, b] em subintervalos de comprimento x i, conforme ilustrado na Figura 8.5. Se denotamos por P a partição {x, x,..., x n }, então a integral definida de Riemann é definida como b a f(x)dx lim P f (wi ) x i Figura 8.5 Partição do intervalo [a, b] Para integrais duplas de funções definidas em coordenadas cartesianas, temos que ter a partição da região de definição R da função de duas variáveis f(x, y), conforme ilustrado na Figura 8.5. Nesse caso, a integral dupla é definida como R f(x, y)da lim P f (u i, v i ) A i e é calculada através de integrais parciais, isto é, calcula-se primeiro a integral com respeito a y,

230 6 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL mantendo x constante, e depois integra-se o resultado com relação a x : b d [ b ] d f(x, y)dydx f(x, y)dy dx a c a c O cálculo de integrais duplas de funções parametrizadas em termos de coordenadas polares requer que a partição da região de integração seja definida em termos de tais coordenadas, conforme ilustrado na Figura 8.5. Figura 8.5 Partição da região R coordenadas cartesianas Figura 8.5 Partição da região R coordenadas polares Vamos considerar uma região polar elementar, conforme ilustrado na Figura 8.53). Figura 8.53 Região polar elementar A área total de um círculo é dada por πr πr (π) r e a área de um setor circular correspondente a um ângulo θ e raio r é ( θ) r Então, a área da região polar elementar é A ( θ) r ( θ) r ) (r ( θ) r ( θ) (r + r ) (r r )

231 8.8. APÊNDICE: INTEGRAIS DUPLAS COM COORDENADAS POLARES 7 Definindo r (r + r ) r r r podemos escrever: A r θ r A integral em termos das coordenadas polares é, então: f(r, θ)da lim f(ri, θ i )r i θ i r i P R e calculada como f(r, θ)da f(r, θ)rdrdθ (8.) R R Exemplo 8.3 A função e t / Vamos calcular algumas integrais envolvendo essa função. ) A função f(t) exp ( t desempenha papel importante em probabilidade. Para calcular sua integral, não podemos aplicar o Teorema Fundamental do Cálculo pois f(t) não possui antiderivada. Mas podemos ver que f(t) é uma função par. Sabemos, então, que exp ) ( t dt exp ) ( t dt Temos, também, que [ ) exp ( dt] t ( exp ( t exp ( t + u ) ) ( dt exp ) dtdu ) ) ( u du Nessa integral dupla, a região de integração é o primeiro quadrante e a relação entre as coordenadas cartesianas (u, t) e as coordenadas polares (r, θ) nesse quadrante é (veja a Figura 8.54) u r cos θ u > r > t r sin θ t > <θ < π Temos também que t + u r e, então, podemos calcular a integral dupla usando coordenadas polares da seguinte forma: exp ( t + u ) dtdu π exp ) ( r rdθdr

232 8 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL Figura 8.54 Coordenadas cartesianas e polares no primeiro quadrante Fazendo r w, então rdr dw e w varia de a. Logo, [ ) π ) exp ( dt] t exp ( r rdθdr [ π ] dθ exp ( w) dw π exp ( w) dθdw π exp( w)dw π ( e w ) π Resulta que e, portanto, exp ) ( t π dt (8.) ou ainda exp ) ( t dt π (8.3) π exp ) ( t dt (8.4) Exemplo 8.3 Calcule Γ ( ) Por definição, Γ ( ) Usando a seguinte transformação de variável: e x x / dx x t e x x dx

233 8.8. APÊNDICE: INTEGRAIS DUPLAS COM COORDENADAS POLARES 9 obtemos dx tdt x t x t Logo, ou seja: Γ ( ) e t / t tdt Γ e t / dt π ( ) π (8.5)

234 3 CAPÍTULO 8. A DISTRIBUIÇÃO NORMAL

235 Capítulo 9 Momentos e sua Função Geradora 9. Momentos Na definição de variância, aparece a esperança do quadrado, seja dos desvios em torno da média, ou da própria variável. Esses são casos particulares de uma característica mais geral de uma variável aleatória, definida a seguir. Definição 9. Momentos O k ésimo momento de uma variável aleatória X, denotado por µ k, é definido como µ k E(X k ) desde que essa quantidade exista. O k ésimo momento central de uma variável aleatória X, denotado por µ k, é definido como µ k E[X E(X)] k sempre que essa quantidade existir. Note que E(X) µ e Var(X) µ µ (µ ). Temos também que, para qualquer variável aleatória, µ E[X E(X)]. Exemplo 9. Momentos da distribuição gama Calcule o k-ésimo momento de X Gama(α, β). E(X k ) x k βα β α Γ(α) xα e βx dx Γ(α) xα+k e βx dx Γ(α + k) β α+k Γ(α) Γ(α + k) β α β α+k Γ(α) β α β α+k Γ(α + k) xα+k e βx dx Γ(α + k) β k Γ(α) α(α + ) (α + k ) β k 3

236 3 CAPÍTULO 9. MOMENTOS E SUA FUNÇÃO GERADORA Exemplo 9. Momentos da distribuição de Weibull Calcule o k-ésimo momento de X W eibull(α, β). E(X k ) x k α β ( ) x α ( ) α e xβ dx β Fazendo a mudança de variável u ( ) x α β du α β ( ) x α dx β x α β α u x βu α obtemos E(X k ) ( βu α ) k ( ) e u du β k u ( α k α + k +) e u du β k Γ α Proposição 9. Seja X variável aleatória contínua com densidade simétrica em torno de µ. Então, sempre que k for ímpar. E(X µ) k Demonstração: Primeiro, veja que, se X tem densidade simétrica em torno de µ, então as variáveis aleatórias Y (X µ) e W (X µ) têm a mesma distribuição. De fato: F Y (Y ) P(Y y) P(X µ y) P(X µ + y) F X (µ + y) f Y (y) f X (µ + y). F W (w) P(W w) P( (X µ) w) P(X µ w) F X (µ w) f W (w) f X (µ w). Como f X é simétrica em torno de µ, f Y (y) f X (µ + y) f X (µ y) f W (y); logo Y e W têm a mesma distribuição. Se (X µ) e (X µ) têm a mesma distribuição, então (X µ) k e [ (X µ)] k também têm a mesma distribuição. Logo, Assim, se k for ímpar, E(X µ) k E[ (X µ)] k E[( ) k (X µ) k ] E(X µ) k E[ (X µ) k ] E(X µ) k E(X µ) k.

237 9.. ALGUNS COEFICIENTES E SUAS INTERPRETAÇÕES Alguns coeficientes e suas interpretações Já vimos interpretações para o primeiro momento, E(X), e para o segundo momento central, Var(X). Dessa forma, os dois primeiros momentos de uma variável aleatória X guardam informações sobre a localização e sobre a variação em torno da média dessa variável. Nesta seção, veremos a definição de dois novos coeficientes, que dependem do 3 o e do 4 o momentos centrais, e quais características da distribuição da variável aleatória eles descrevem. Definição 9. Coeficiente de Assimetria Seja X variável aleatória com E(X) µ e Var(X) σ. O coeficiente de assimetria de X, denotado por α 3, é definido por E(X µ)3 α 3 σ 3 supondo a existência dos momentos envolvidos. O coeficiente de assimetria, além de quantificar o grau de assimetria de uma distribuição, indica também o tipo de assimetria. Na Figura 9., os histogramas representam uma distribuição assimétrica à direita e uma assimétrica à esquerda, respectivamente. Em termos do coeficiente de assimetria, temos a seguinte caracterização: α 3 > assimetria positiva ou à direita α 3 assimetria nula ou simetria α 3 < assimetria negativa ou à esquerda (a) Assimetria à direita (b) Assimetria à esquerda Figura 9. Distribuições com diferentes coeficientes de assimetria Já vimos que se X é variável aleatória com densidade simétrica em torno de µ, todos os momentos centrais ímpares são nulos. Em particular, também será nulo o 3 o momento central. Logo, α 3, indicando que a variável aleatória é simétrica, como esperávamos. Vejamos agora a definição de outro coeficiente, que depende do 4 o momento central. Definição 9.3 Coeficiente de Curtose Seja X variável aleatória com E(X) µ e Var(X) σ. O coeficiente de curtose de X, denotado por α 4, é definido por α 4 E[(X µ)4 ] σ 4 3 supondo a existência dos momentos envolvidos.

238 34 CAPÍTULO 9. MOMENTOS E SUA FUNÇÃO GERADORA O coeficiente de curtose mede afastamentos em relação à distribuição normal, tanto em termos de pico, quanto em termos da espessura das caudas da distribuição. A subtração de 3 no coeficiente tem a ver com o fato de o coeficiente de curtose da distribuição normal ser 3; assim, um coeficiente indica total semelhança com a distribuição normal. Coeficientes positivos indicam distribuições leptocúrticas, que têm picos mais acentuados que a normal e coeficientes negativos indicam uma distribuição platicúrtica, que é mais achatada que a normal. Na Figura 9. ilustram-se algumas dessas distribuições. (a) Mesocúrtica - α 4, (b) Platicúrtica - α 4, (c) Leptocúrtica - α 4 3, 5 (d) Leptocúrtica - α 4, 98 Figura 9. Distribuições com diferentes coeficientes de curtose 9.3 Função geradora de momentos Definição 9.4 Função Geradora de Momentos Seja X uma variável aleatória qualquer. A função geradora de momentos (fgm) de X, denotada por M X, é definida por ( ) M X (t) E e tx, desde que essa esperança exista para todo t em alguma vizinhança de. Importante: a função geradora de momentos é função de t. Para ela existir basta que exista ε > tal que E ( e tx ) esteja bem definida para qualquer t ( ε, ε). Note também que, qualquer que seja a variável aleatória X, M X () E(e X ). Esse resultado pode ser útil para verificarmos se a função geradora de momentos encontrada está correta. Os histogramas foram gerados a partir de 5 observações simuladas das seguintes distribuições: t(), Uni(, ), Laplace e logística, ambas com parâmetro de escala igual a e parâmetro de localização.

239 9.3. FUNÇÃO GERADORA DE MOMENTOS 35 Tendo em mente a Definição 9., do momento de uma variável aleatória, o Teorema 9. a seguir justifica o nome da função M X. Teorema 9. Se X é variável aleatória com função geradora de momentos M X, então E (X k) dk dt k M x(t) t ou seja, o k-ésimo momento de X é igual à derivada de ordem k de M X avaliada em t. A demonstração do Teorema 9. acima será omitida, mas, a título de curiosidade, ela pode ser encontrada no Teorema 5. de Magalhães (). Exemplo 9.3 Distribuição de Bernoulli Seja X Bern(p). Encontre a sua função geradora de momentos e, a partir dela, calcule E(X) e Var(X). Se X Bern(p), M X (t) E(e tx ) e tx p x ( p) x x ( pe t ) x ( p) x p + pe t x Logo, Se X Bern(p) M X (t) p + pe t. (9.) Veja que M X (). Calculando as derivadas primeira e segunda, obtemos que e, portanto M X (t) M X (t) pet E(X) M X () p E(X ) M X Var(X) E(X ) [E(X)] p p p( p) Exemplo 9.4 Distribuição Binomial Seja X Bin(n, p). Encontre a sua função geradora de momentos e, a partir dela, calcule E(X) e Var(X). M X (t) E(e tx ) n x n e tx P(X x) x n ( ) n e tx p x ( p) n x x x ( ) n (pe t ) x ( p) n x [ pe t + ( p) ] n x

240 36 CAPÍTULO 9. MOMENTOS E SUA FUNÇÃO GERADORA pela fórmula do binômio de Newton. Logo, Se X B(n, p) M X (t) [ pe t + ( p) ] n. (9.) Veja que M X (). Para encontrar os dois primeiros momentos precisamos das duas primeiras derivadas. e, portanto M X (t) npet [ pe t + ( p) ] n M X (t) npet [ pe t + ( p) ] n + n(n )pe t [ pe t + ( p) ] n pe t npe t [ pe t + ( p) ] n [(pe t + p) + (n )pe t ] npe t [ pe t + ( p) ] n [ p + npe t ] E(X) M X () np [p + ( p)]n np E(X ) M X + n p Var(X) E(X ) [E(X)] np np np( p) Exemplo 9.5 Distribuição Geométrica Seja X Geo(p). Encontre a sua função geradora de momentos e, a partir dela, calcule E(X) e Var(X). M X (t) E(e tx ) e tx ( p) x [ p p e t ( p) ] x ( ) Então, se e t ( p) <, isto é, se e t ( p) < ou ainda, t < ln p temos que x M X (t) p e t ( p) x Logo, X Geo(p) M X (t) p e t ( p), se t < ln( p). (9.3) Note que a função geradora de momentos de X Geo(p) não está definida para todo t R, mas está bem definida para t < ln( p) e como ln( p) >, a função geradora de momentos está bem definida para t em uma vizinhança de zero. Veja que M X (). Calculando as derivadas primeira e segunda, temos que M X (t) p [ et ( p)] [ e t ( p)] pet ( p) [ e t ( p)]

241 9.3. FUNÇÃO GERADORA DE MOMENTOS 37 Logo, M X (t) pet ( p) [ e t ( p)] pe t ( p) [ e t ( p)] [ e t ( p)] [ e t ( p)] 4 pet ( p) [ e t ( p)] [ e t ( p) + e t ( p)] [ e t ( p)] 4 pet ( p) [ e t ( p)] [ + e t ( p)] [ e t ( p)] 4 pet ( p) [ e t ( p) ] [ e t ( p)] 4 E(X) M X p( p) () [ ( p)] p p E(X ) M X () p( p) [ ( p) ] p 4 p( p)(p p ) ( p)( p) p 4 p Var(X) mesmos resultados obtidos anteriormente. ( p)( p) ( p) p p 3p + p + p p p p p Proposição 9. Transformações Lineares Seja X uma variável aleatória com função geradora de momentos M X. Se Y ax + b, então, a função geradora de momentos de Y é M Y (t) e bt M X (at). Demonstração: M Y (t) E(e ty ) E ( e t(ax+b)) ( E e atx e bt) ( ) ( ) e bt E e atx e bt E e (at)x e bt M X (at) O resultado apresentado na Proposição 9. acima pode ser usado para encontrar a função geradora de momentos de uma variável aleatória definida como transformação linear de outra, da qual já conhecemos a função geradora de momentos. Veja uma aplicação desse resultado no Exemplo 9.6 a seguir. Exemplo 9.6 Distribuição Geométrica Alternativa Seja Y a variável aleatória definida como o número de repetições independentes de ensaios Bern(p) até a ocorrência do o sucesso. Encontre a função geradora de momentos de Y. Vimos, na Seção 4.5, que Y Geo (p) e, também, que Y X +, com X Geo(p). Pela Proposição 9. e por (9.3), resulta que M Y (t) e t M X (t) pe t e t ( p) se t < ln( p).

242 38 CAPÍTULO 9. MOMENTOS E SUA FUNÇÃO GERADORA Exemplo 9.7 Distribuição Binomial Negativa Se X BinNeg(r; p), calcule sua função geradora de momentos e, a partir dela, E(X) e V ar(x). ( ) x + r M X (t) E(e tx ) e tx p r ( p) x x x ( ) r + x [e p r t ( p) ] x x x Aqui fez-se uso do resultado (4.46) da Seção 4.. Concluímos, assim, que p r [ e t ( p)] r se e t ( p) < [ ] p r X BinNeg(r, p) M X (t) e t se t < ln( p) ( p o que garante que M X (t) está bem definida numa vizinhança de t. [ ] [ ] M X (t) r p r p [ e t ( p)] e t ( p) [ e t ( p)] rpr e t ( p) [ e t ( p)] r+ M X (t) rpr ( p) { } e t [ e t ( p)] r+ e t (r + ) [ e t ( p)] r [ e t ( p)] [ e t ( p)] r+ rp r ( p) et [ e t ( p)] r {[ e t ( p)] + (r + )e t ( p)} [ e t ( p)] r+ rpr ( p)e t [ e t ( p) + re t ( p) + e t ( p)] [ e t ( p)] r+ rpr ( p)e t [ + re t ( p)] [ e t ( p)] r+ Temos, então, que E(X) M X () rpr ( p) r( p) p r+ p E(X ) M X () rpr ( p) [ + r( p)] r( p)( + r rp) p r+ p r( p) + r ( p) p Var(X) r( p) + r ( p) p r ( p) r( p) p p Para a forma alternativa, Y número de repetições até o r ésimo sucesso, vimos que Y X +r, e, portanto,

243 9.3. FUNÇÃO GERADORA DE MOMENTOS 39 [ ] M Y (t) e rt M X (t) e rt p r [ pe t ] r e t ( p) e t se t < ln( p) ( p) Exemplo 9.8 Distribuição de Poisson Seja X Poisson(λ). Encontre a sua função geradora de momentos e, a partir dela, calcule E(X) e Var(X). Por definição, M X (t) x tx λx e x! e λ e λ x tx λx e x! e λ ( λe t ) x x x! e λ e λet. Logo, Se X Poisson(λ) M X (t) e λ(et ) (9.4) Veja que M X (). Vamos calcular as derivadas de ordem primeira e ordem segunda para calcular os respectivos momentos: Logo, M X (t) eλ(et ) λe t λe t e λ(et ) λe t+λ(e t ) M X (t) λet+λ(et ) ( + λe t) E(X) M X () λe+λ(e ) λ E(X ) M X () λe+λ(e ) ( + λe ) λ( + λ) λ + λ o que nos leva ao mesmo resultado anterior: Var(X) λ. Exemplo 9.9 Distribuição Exponencial Seja X exp(λ). Encontre a sua função geradora de momentos e, a partir dela, calcule E(X) e Var(X). Por definição M X (t) E(e tx ) e tx λe λx dx λe (λ t)x dx λ e (λ t)x (λ t) λ λ t lim x e (λ t)x + λ λ t O limite acima só será finito se λ t >, quando o limite será zero. Resulta, então, que X exp(λ) M X (t) λ λ t, t < λ (9.5) o que garante que M X (t) está bem definida numa vizinhança de t. Veja que M X (). As derivadas primeira e segunda são M X (t) λ (λ t) e M X λ (t) (λ t) (λ t) 4 λ (λ t) 3

244 4 CAPÍTULO 9. MOMENTOS E SUA FUNÇÃO GERADORA e os momentos de ordem e são: E(X) M X () λ e E(X ) M X () λ. o que nos dá, como antes, Var(X) λ λ λ. Exemplo 9. Distribuição Gama Seja X Gama(α, λ). Encontre a sua função geradora de momentos. Por definição M X (t) E(e tx ) λα Γ(α) e tx x α e λx dx λα Γ(α) x α e (λ t)x dx }{{} Veja que a integral destacada com as chaves pode ser considerara uma gama modificada somente se λ t >, ou seja, t < λ. Sob essa condição podemos seguir e concluir que Logo, M X (t) λα Γ(α) Γ(α) (λ t) α λα (λ t) α. X Gama(α, λ) M X (t) o que garante que M X (t) está bem definida numa vizinhança de t. ( ) λ α, t < λ. (9.6) λ t Veja que M X (). Veja também que, quando α, o resultado da Equação 9.6 coincide com a Equação 9.5, que apresenta a função geradora de momentos da exponencial. Exemplo 9. Distribuição Normal Padrão Seja Z N(, ). Encontre a sua função geradora de momentos. M Z (t) e tx e x / dx π [ exp π [ exp π [ exp π ( ) t exp [ exp π ( x tx + t t ( x tx + t )] dx ) ( t + ( x tx + t )] ( t e [ ] (x t) exp dx π } {{ } ( x tx )] dx ) dx )] dx Logo, ( ) t Se Z N(, ) M Z (t) exp. (9.7)

245 9.3. FUNÇÃO GERADORA DE MOMENTOS 4 Exemplo 9. Distribuição Normal Seja X N(µ; σ ). Encontre a sua função geradora de momentos e a partir dela calcule: E(X), Var(X), α 3 e α 4. Se X N(µ; σ ) então X σz + µ, com Z N(; ). Como X é uma transformação linear de Z resulta, da Proposição 9., que a função geradora de momentos de X é dada por M X (t) e µt M Z (σt) e µt e σ t / Logo, X N(µ, σ ) M X (t) exp (µt + σ t ). (9.8) Veja que M X (). Derivada primeira (primeiro momento esperança) M X (t) M X (t) (µ + tσ ) e, portanto, E(X) M X () M X () (µ) µ Derivada segunda (segundo momento variância) M X (t) M X (µ (t) + tσ ) + σ M X (t) M X (t)(µ + tσ ) + σ M X (t) M X (t) [(µ + tσ ) + σ ] Logo, e, portanto E(X ) M X () µ + σ Var(X) E(X ) [E(X)] µ + σ µ σ Derivada terceira (terceiro momento assimetria) M X (t) M X [(µ (t) + tσ ) + σ ] + M X (t)σ (µ + tσ ) ( M X (t) µ + tσ ) [ (µ + tσ ) + σ ] + M X (t)σ (µ + tσ ) M X (t)(µ + tσ ) [(µ + tσ ) + 3σ ] [ ] M X (t) (µ + tσ ) 3 + 3σ (µ + tσ ) Logo, e, portanto, o coeficiente de assimetria é E(X 3 ) M X () µ3 + 3µσ α 3 E(X µ)3 σ 3 E(X 3 3X µ + 3Xµ µ 3 ) σ 3 µ3 + 3µσ 3µ(µ + σ ) + 3µ µ µ 3 σ 3 Esse resultado já era esperado, uma vez que a densidade normal é simétrica em torno de µ.

246 4 CAPÍTULO 9. MOMENTOS E SUA FUNÇÃO GERADORA Derivada quarta (quarto momento curtose) Logo, [ M (iv) X (t) M x(t) (µ + tσ ) 3 + 3σ (µ + tσ) ] + M X (t) [3σ (µ + tσ ) + 3σ 4] [ M x (t)(µ + tσ ) (µ + tσ ) 3 + 3σ (µ + tσ) ] + M X (t) [3σ (µ + tσ ) + 3σ 4] M X (t) [(µ + tσ ) 4 + 6σ (µ + tσ ) + 3σ 4] e, portanto, o coeficiente de curtose é E(X 4 ) M (iv) X () µ4 + 6µ σ + 3σ 4 α 4 E(X µ)4 σ 4 3 E(X 4 4X 3 µ + 6X µ 4Xµ 3 + µ 4 ) σ 4 3 µ4 + 6µ σ + 3σ 4 4µ(µ 3 + 3µσ ) + 6µ (µ + σ ) 4µ 3 µ + µ 4 σ σ 4 σ 4 3 Embora o cálculo de médias e variâncias algumas vezes fique mais simples com o uso do Teorema 9., uma aplicação mais importante das funções geradoras de momentos se baseia no seguinte teorema, cuja demostração será omitida por estar além do nível dessas notas de aula. Teorema 9. Se duas variáveis aleatórias têm funções geradoras de momentos que existem, e são iguais, então elas têm a mesma função de distribuição. O Teorema 9. nos diz que, se duas variáveis aleatórias têm a mesma função geradora de momentos, então estas variáveis aleatórias são identicamente distribuídas. Isso significa que a função geradora de momentos, quando existe, caracteriza completamente a distribuição de uma variável aleatória, da mesma forma que a função de distribuição, a função densidade ou a função de probabilidade. Exemplo 9.3 Seja X Gama(α, λ). Se Y cx com c >, encontre a função geradora de momentos de Y e identifique sua distribuição. Como X Gama(α, λ) já sabemos que a sua função geradora de momentos é definida por: M X (t) λα (λ t) α, t < λ. Pelo Teorema 9., M Y (t) M X (tc) λ α (λ tc) α, tc < λ

247 9.4. ALGUMAS DESIGUALDADES IMPORTANTES 43 Ou seja, M Y (t) (λ/c)α (λ/c t) α, t < λ/c. Mas essa é a função geradora de momentos de uma variável aleatória com distribuição Gama(α, λ/c). Logo, pelo Teorema 9., concluímos que Y gama(α, λ/c). Essa é uma outra forma de demonstrar a Proposição 7.. O resultado apresentado na Proposição 9.3 a seguir tem várias aplicações práticas.. Proposição 9.3 Transformação Linear de N(µ; σ ) Seja X N(µ, σ ). Se Y ax + b, com a, b R, então Y N(aµ + b, a σ ). Demonstração: Como X N(µ; σ ) sabemos, pela Equação 9.8, que M X (t) exp (µt + σ t ). Usando o resultado da Proposição 9., temos M Y (t) e tb M X (ta) e tb exp (µta + σ (ta) ) exp (tb + µta + σ (ta) ) exp ((b + aµ)t + a σ t ) Mas essa é a função geradora de momentos de uma variável aleatória normal de média b + aµ e variância a σ. Logo, Y N(b + aµ, a σ ). 9.4 Algumas desigualdades importantes Conhecendo a função distribuição de uma variável aleatória, é possível calcular qualquer probabilidade envolvendo essa varável aleatória. Se conhecemos a função geradora de momentos, podemos calcular qualquer momento de uma variável aleatória e, também, identificar a sua distribuição). Mas se conhecemos apenas alguns momentos de X, não não é possível encontrar a sua distribuição e nem a sua função geradora de momentos. Consequentemente, não sabemos calcular probabilidades envolvendo X. Apesar disso, o conhecimento do o e do o momentos nos dá alguma informação sobre o comportamento de X, como veremos nesta seção. Proposição 9.4 Desigualdade de Markov (ou Desigualdade Básica de Chebyshev) Seja X uma variável aleatória tal que P(X ), ou seja, X assume apenas valores não negativos. Então, t >, P(X t) E(X). t

248 44 CAPÍTULO 9. MOMENTOS E SUA FUNÇÃO GERADORA Demonstração: Primeiro vamos mostrar que a desigualdade vale quando X é variável aleatória discreta. E(X) x x t xp X (x) xp X (x) + xp X (x) x<t x t }{{} xp X (x) x t, pois X tp X (x) t x t p X (x) t P(X t). Analogamente, se X é variável aleatória contínua E(X) xf X (x)dx xf X (x)dx + x<t }{{} x t xf X (x)dx, pois X x t x t tf X (x)dx t xf X (x)dx x t f X (x)dx t P(X t). Exemplo 9.4 (Magalhães (), Exemplo 4.7 ) Numa empresa com funcionários o número médio de usuários simultâneos de Internet, num certo período do dia, é de aproximadamente 3. Atualmente, existem 3 linhas telefônicas disponíveis para conexão. Avalie a necessidade de se aumentar esse número. Seja X número de usuários simultâneos na Internet. Como há 3 linhas disponíveis, a probabilidade de um usuário ficar sem acesso à Internet é P(X > 3). Se esse valor for grande, o aumento no número de linhas disponíveis deve ser considerado. Sabemos que X é variável aleatória não negativa e, além disso, E(X) 3. Então, usando a Desigualdade de Markov, obtemos P(X > 3) P(X 3) E(X)/3, Nesse caso a desigualdade não ajudou muito, o que é razoável, já que 3 é o número médio de usuários simultâneos. Mas se aumentarmos o número de linhas disponíveis para 4, a probabilidade de um usuário ficar sem Internet será P(X > 4) e P(X > 4) P(X 4) E(X)/4, 737. Veja que já temos alguma informação! Vamos calcular as cotas superiores para a probabilidade de um usuário ficar sem Internet para outros números de linhas disponíveis: N o de linhas disponíveis Desigualdade de Markov Cota superior 3 P(X 3), % 4 P(X 4), % 5 P(X 5), % 6 P(X 6), 498 5% 7 P(X 7), 45 43% 8 P(X 8), %

249 9.4. ALGUMAS DESIGUALDADES IMPORTANTES 45 Essas informações podem ser usadas para se decidir sobre a expansão do número de linhas disponíveis. Observe, por exemplo, a partir de 6 linhas, a probabilidade já é menor que,5. Proposição 9.5 Desigualdade Clássica de Chebyshev Seja X variável aleatória qualquer tal que E(X) µ e Var(X) σ existem e são finitas. Então, Demonstração: Observe, inicialmente, que P( X µ t) σ t. P( X µ t) P( X µ t ), pois a função f(x) x é estritamente crescente para x >. Além disso, X µ é variável aleatória não negativa, o que nos permite aplicar a Desigualdade de Markov para obter P( X µ t ) E( X µ t σ t. Mas P( X µ t) P( X µ t ); logo P( X µ t) σ t. Corolário 9.3 Seja X variável aleatória qualquer tal que E(X) µ e Var(X) σ existem e são finitas. Então, P( X µ < t) σ t Demonstração: Pela Desigualdade de Chebyshev, P( X µ t) σ t P( X µ t) σ t P( X µ t) σ σ P( X µ < t) t t Exemplo 9.5 Continuando o Exemplo 9.4, suponha que o desvio-padrão do número de usuários simultâneos na Internet é. Use essa informação para melhorar as aproximações encontradas no Exemplo 9.4. Temos, agora, mais uma informação, o desvio-padrão. Clássica de Chebyshev. Com isso, podemos usar a Desigualdade A probabilidade de um usuário ficar sem Internet quando há k linhas disponíveis é P(X > k) P(X k + ) P(X 3 k 9) P(X 3 k 9) + P [X 3 (k 9)] P( X 3 k 9) σ (k 9) (k 9).

250 46 CAPÍTULO 9. MOMENTOS E SUA FUNÇÃO GERADORA Logo, P(X k + ) (k 9). Com isso podemos recalcular as cotas superiores. N o de linhas disponíveis Desigualdade Cota superior 3 P(X 3) 5 % 4 P(X 4), % 5 P(X 5), 67 3% 6 P(X 6), 4 % 7 P(X 7), 595 6% 8 P(X 8), 384 4% Exemplo 9.6 Seja X é uma variável aleatória com média µ < e variância σ <. Encontre uma cota superior para P( X µ σ) (ou uma cota inferior para P( X µ σ)). Encontre também uma cota superior para P( X µ 3σ) (ou uma cota inferior para P( X µ 3σ)). Podemos usar a Desigualdade de Chebyshev. P( X µ σ), 5 P( X µ σ), 75 ou seja, para qualquer variável aleatória com média e variância finitas, a porcentagem de valores a uma distância de desvios-padrão da média é de pelo menos 75%. Para a distribuição normal, vimos, no Exemplo 8., que essa proporção é de 95%. P( X µ 3σ), P( X µ 3σ), ou seja, para qualquer v.a. com média e variância finitas, a porcentagem de valores a uma distância de 3 desvios-padrão da média é de pelo menos 88, 89%. Para a distribuição normal, vimos, no Exemplo 8., que essa proporção é de 99,7%.

251 Apêndice A Tabelas Tabela Distribuição normal padrão p P( Z z) Tabela Distribuição acumulada da normal padrão Φ(z) P(Z z), z Tabela 3 Valores críticos χ n,α da qui-quadrado P(χ n > χ n,α) α) 47

252 48 APÊNDICE A. TABELAS.

253 49 Tabela Distribuição normal padrão p P( Z z) Casa inteira a. casa decimal e a.decimal ,,,4,8,,6,99,39,79,39,359,,398,438,478,57,557,596,636,675,74,753,,793,83,87,9,948,987,6,64,3,4,3,79,7,55,93,33,368,46,443,48,57,4,554,59,68,664,7,736,77,88,844,879,5,95,95,985,9,54,88,3,57,9,4,6,57,9,34,357,389,4,454,486,57,549,7,58,6,64,673,74,734,764,794,83,85,8,88,9,939,967,995,33,35,378,36,333,9,359,386,3,338,364,389,335,334,3365,3389,,343,3438,346,3485,358,353,3554,3577,3599,36,,3643,3665,3686,378,379,3749,377,379,38,383,,3849,3869,3888,397,395,3944,396,398,3997,45,3,43,449,466,48,499,45,43,447,46,477,4,49,47,4,436,45,465,479,49,436,439,5,433,4345,4357,437,438,4394,446,448,449,444,6,445,4463,4474,4484,4495,455,455,455,4535,4545,7,4554,4564,4573,458,459,4599,468,466,465,4633,8,464,4649,4656,4664,467,4678,4686,4693,4699,476,9,473,479,476,473,4738,4744,475,4756,476,4767,,477,4778,4783,4788,4793,4798,483,488,48,487,,48,486,483,4834,4838,484,4846,485,4854,4857,,486,4864,4868,487,4875,4878,488,4884,4887,489,3,4893,4896,4898,49,494,496,499,49,493,496,4,498,49,49,495,497,499,493,493,4934,4936,5,4938,494,494,4943,4945,4946,4948,4949,495,495,6,4953,4955,4956,4957,4959,496,496,496,4963,4964,7,4965,4966,4967,4968,4969,497,497,497,4973,4974,8,4974,4975,4976,4977,4977,4978,4979,4979,498,498,9,498,498,498,4983,4984,4984,4985,4985,4986,4986 3,,4987,4987,4987,4988,4988,4989,4989,4989,499,499 3,,499,499,499,499,499,499,499,499,4993,4993 3,,4993,4993,4994,4994,4994,4994,4994,4995,4995,4995 3,3,4995,4995,4995,4996,4996,4996,4996,4996,4996,4997 3,4,4997,4997,4997,4997,4997,4997,4997,4997,4997,4998 3,5,4998,4998,4998,4998,4998,4998,4998,4998,4998,4998 3,6,4998,4998,4999,4999,4999,4999,4999,4999,4999,4999 3,7,4999,4999,4999,4999,4999,4999,4999,4999,4999,4999 3,8,4999,4999,4999,4999,4999,4999,4999,4999,4999,4999 3,9,5,5,5,5,5,5,5,5,5,5 4,,5,5,5,5,5,5,5,5,5,5

254 5 APÊNDICE A. TABELAS Tabela Distribuição acumulada da normal padrão p P(Z z) Casa inteira a. casa decimal e a.decimal ,,5,54,58,5,56,599,539,579,539,5359,,5398,5438,5478,557,5557,5596,5636,5675,574,5753,,5793,583,587,59,5948,5987,66,664,63,64,3,679,67,655,693,633,6368,646,6443,648,657,4,6554,659,668,6664,67,6736,677,688,6844,6879,5,695,695,6985,79,754,788,73,757,79,74,6,757,79,734,7357,7389,74,7454,7486,757,7549,7,758,76,764,7673,774,7734,7764,7794,783,785,8,788,79,7939,7967,7995,83,85,878,86,833,9,859,886,8,838,864,889,835,834,8365,8389,,843,8438,846,8485,858,853,8554,8577,8599,86,,8643,8665,8686,878,879,8749,877,879,88,883,,8849,8869,8888,897,895,8944,896,898,8997,95,3,93,949,966,98,999,95,93,947,96,977,4,99,97,9,936,95,965,979,99,936,939,5,933,9345,9357,937,938,9394,946,948,949,944,6,945,9463,9474,9484,9495,955,955,955,9535,9545,7,9554,9564,9573,958,959,9599,968,966,965,9633,8,964,9649,9656,9664,967,9678,9686,9693,9699,976,9,973,979,976,973,9738,9744,975,9756,976,9767,,977,9778,9783,9788,9793,9798,983,988,98,987,,98,986,983,9834,9838,984,9846,985,9854,9857,,986,9864,9868,987,9875,9878,988,9884,9887,989,3,9893,9896,9898,99,994,996,999,99,993,996,4,998,99,99,995,997,999,993,993,9934,9936,5,9938,994,994,9943,9945,9946,9948,9949,995,995,6,9953,9955,9956,9957,9959,996,996,996,9963,9964,7,9965,9966,9967,9968,9969,997,997,997,9973,9974,8,9974,9975,9976,9977,9977,9978,9979,9979,998,998,9,998,998,998,9983,9984,9984,9985,9985,9986,9986 3,,9987,9987,9987,9988,9988,9989,9989,9989,999,999 3,,999,999,999,999,999,999,999,999,9993,9993 3,,9993,9993,9994,9994,9994,9994,9994,9995,9995,9995 3,3,9995,9995,9995,9996,9996,9996,9996,9996,9996,9997 3,4,9997,9997,9997,9997,9997,9997,9997,9997,9997,9998 3,5,9998,9998,9998,9998,9998,9998,9998,9998,9998,9998 3,6,9998,9998,9999,9999,9999,9999,9999,9999,9999,9999 3,7,9999,9999,9999,9999,9999,9999,9999,9999,9999,9999 3,8,9999,9999,9999,9999,9999,9999,9999,9999,9999,9999 3,9,,,,,,,,,, 4,,,,,,,,,,,

GET00189 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidimensionais

GET00189 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidimensionais Universidade Federal Fluminense Instituto de Matemática e Estatística GET89 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidimensionais Ana Maria Lima de Farias Jessica Quintanilha Kubrusly Mariana

Leia mais

GET00189 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidimensionais

GET00189 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidimensionais Universidade Federal Fluminense Instituto de Matemática e Estatística GET89 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidimensionais Ana Maria Lima de Farias Jessica Quintanilha Kubrusly Mariana

Leia mais

Se Ω é o espaço amostral de algum experimento aleatório, qualquer subconjunto A Ω será chamado de evento.

Se Ω é o espaço amostral de algum experimento aleatório, qualquer subconjunto A Ω será chamado de evento. Capítulo 1 Probabilidade No nosso cotidiano, lidamos sempre com situações em que está presente a incerteza do resultado, embora, muitas vezes, os resultados possíveis sejam conhecidos. Por exemplo, se

Leia mais

Fundamentos de Estatística Aplicada. Módulo II: Probabilidade

Fundamentos de Estatística Aplicada. Módulo II: Probabilidade Universidade Federal Fluminense Instituto de Matemática e Estatística Fundamentos de Estatística Aplicada Módulo II: Probabilidade Ana Maria Lima de Farias Departamento de Estatística Sumário 1 Probabilidade:

Leia mais

Seja A um evento de um espaço amostral Ω finito, cujos elementos são igualmente prováveis. Define-se a probabilidade do evento A como

Seja A um evento de um espaço amostral Ω finito, cujos elementos são igualmente prováveis. Define-se a probabilidade do evento A como Aula 7 Probabilidade Nesta aula você aprenderá a definição de probabilidade, estudará os axiomas e propriedades de uma lei de probabilidade e fará revisão dos seguintes conceitos de análise combinatória:

Leia mais

Fundamentos de Estatística Aplicada. Módulo II: Probabilidade

Fundamentos de Estatística Aplicada. Módulo II: Probabilidade Universidade Federal Fluminense Instituto de Matemática e Estatística Fundamentos de Estatística Aplicada Módulo II: Probabilidade Ana Maria Lima de Farias Departamento de Estatística Sumário 1 Probabilidade:

Leia mais

Aula 8 Probabilidade condicional e independência de eventos

Aula 8 Probabilidade condicional e independência de eventos Aula 8 Probabilidade condicional e independência de eventos Nesta aula você aprenderá os conceitos de probabilidade condicional e independência de eventos. Você verá também que esses são conceitos importantes

Leia mais

1 Definição Clássica de Probabilidade

1 Definição Clássica de Probabilidade Centro de Ciências e Tecnologia Agroalimentar - Campus Pombal Disciplina: Estatística Básica - 2013 Aula 4 Professor: Carlos Sérgio UNIDADE 2 - Probabilidade: Definições (Notas de aula) 1 Definição Clássica

Leia mais

Teoria das Probabilidades

Teoria das Probabilidades Universidade Federal do Pará Instituto de Tecnologia Estatística Aplicada I Prof. Dr. Jorge Teófilo de Barros Lopes Campus de Belém Curso de Engenharia Mecânica 08:8 ESTATÍSTICA APLICADA I - Teoria das

Leia mais

GET00189 Probabilidade I Gabarito da lista de exercícios - Capítulo 1 Profa. Ana Maria Lima de Farias

GET00189 Probabilidade I Gabarito da lista de exercícios - Capítulo 1 Profa. Ana Maria Lima de Farias GET00189 Probabilidade I Gabarito da lista de exercícios - Capítulo 1 Profa. Ana Maria Lima de Farias SEÇÃO 1.1 Experimento aleatório, espaço amostral e evento 1. Vamos definir os seguinte eventos: K lançamento

Leia mais

Teoria das Probabilidades

Teoria das Probabilidades 08/06/07 Universidade Federal do Pará Instituto de Tecnologia Estatística Aplicada I Prof. Dr. Jorge Teófilo de Barros Lopes Campus de Belém Curso de Engenharia Mecânica Universidade Federal do Pará Instituto

Leia mais

NOÇÕES DE PROBABILIDADE

NOÇÕES DE PROBABILIDADE NOÇÕES DE PROBABILIDADE Experimento Aleatório Experimento Aleatório: procedimento que, ao ser repetido sob as mesmas condições, pode fornecer resultados diferentes Exemplos:. Resultado no lançamento de

Leia mais

Probabilidade. Probabilidade e Estatística. Prof. Dr. Narciso Gonçalves da Silva

Probabilidade. Probabilidade e Estatística. Prof. Dr. Narciso Gonçalves da Silva Probabilidade e Estatística Prof. Dr. Narciso Gonçalves da Silva http://paginapessoal.utfpr.edu.br/ngsilva Probabilidade Probabilidade Experimento Aleatório Um experimento é dito aleatório quando satisfaz

Leia mais

Introdução à Estatística

Introdução à Estatística Introdução à Estatística Prof a. Juliana Freitas Pires Departamento de Estatística Universidade Federal da Paraíba - UFPB juliana@de.ufpb.br Introdução a Probabilidade Existem dois tipos de experimentos:

Leia mais

Escola Superior de Agricultura "Luiz de Queiroz", Departamento de Ciências Exatas. Probabilidades. Cristian Villegas

Escola Superior de Agricultura Luiz de Queiroz, Departamento de Ciências Exatas. Probabilidades. Cristian Villegas Probabilidades Cristian Villegas clobos@usp.br Setembro de 2013 Apostila de Estatística (Cristian Villegas) 1 Introdução Escola Superior de Agricultura "Luiz de Queiroz", Departamento de Ciências Exatas

Leia mais

Prof.Letícia Garcia Polac. 26 de setembro de 2017

Prof.Letícia Garcia Polac. 26 de setembro de 2017 Bioestatística Prof.Letícia Garcia Polac Universidade Federal de Uberlândia UFU-MG 26 de setembro de 2017 Sumário 1 2 Probabilidade Condicional e Independência Introdução Neste capítulo serão abordados

Leia mais

ELEMENTOS DE PROBABILIDADE. Prof. Paulo Rafael Bösing 25/11/2015

ELEMENTOS DE PROBABILIDADE. Prof. Paulo Rafael Bösing 25/11/2015 ELEMENTOS DE PROBABILIDADE Prof. Paulo Rafael Bösing 25/11/2015 ELEMENTOS DE PROBABILIDADE Def.: Um experimento é dito aleatório quando o seu resultado não for previsível antes de sua realização, ou seja,

Leia mais

Aula 10 Variáveis aleatórias discretas

Aula 10 Variáveis aleatórias discretas AULA 0 Aula 0 Variáveis aleatórias discretas Nesta aula você aprenderá um conceito muito importante da teoria de probabilidade: o conceito de variável aleatória. Você verá que as variáveis aleatórias e

Leia mais

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Probabilidade Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Experimento aleatório Definição. Qualquer experimento cujo resultado não pode

Leia mais

Probabilidades. Wagner H. Bonat Elias T. Krainski Fernando P. Mayer

Probabilidades. Wagner H. Bonat Elias T. Krainski Fernando P. Mayer Probabilidades Wagner H. Bonat Elias T. Krainski Fernando P. Mayer Universidade Federal do Paraná Departamento de Estatística Laboratório de Estatística e Geoinformação 06/03/2018 WB, EK, FM ( LEG/DEST/UFPR

Leia mais

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Probabilidade Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Introdução Experimento aleatório Definição Qualquer experimento cujo resultado

Leia mais

Sumário. 2 Índice Remissivo 12

Sumário. 2 Índice Remissivo 12 i Sumário 1 Definições Básicas 1 1.1 Fundamentos de Probabilidade............................. 1 1.2 Noções de Probabilidade................................ 3 1.3 Espaços Amostrais Finitos...............................

Leia mais

PROBABILIDADE E ESTATÍSTICA PROBABILIDADES

PROBABILIDADE E ESTATÍSTICA PROBABILIDADES PROBABILIDADE E ESTATÍSTICA PROBABILIDADES Bruno Baierle Maurício Furigo Prof.ª Sheila Regina Oro (orientadora) Edital 06/2013 - Produção de Recursos Educacionais Digitais Revisando - Análise combinatória

Leia mais

Probabilidade. Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise

Probabilidade. Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Probabilidade Professora Ana Hermínia Andrade Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Período 2016.2 Você reconhece algum desses experimentos? Alguns

Leia mais

1 Probabilidade: Axiomas e Propriedades

1 Probabilidade: Axiomas e Propriedades 1 Probabilidade: Axiomas e Propriedades 1.1 Definição Frequentista Considere um experimento aleatório que consiste no lançamento de um dado honesto. O espaço amostral desse experimento é Ω = {1, 2, 3,

Leia mais

2. Nas Figuras 1a a 1d, assinale a área correspondente ao evento indicado na legenda. Figura 1: Exercício 2

2. Nas Figuras 1a a 1d, assinale a área correspondente ao evento indicado na legenda. Figura 1: Exercício 2 GET00189 Probabilidade I Lista de exercícios - Capítulo 1 Profa. Ana Maria Lima de Farias SEÇÃO 1.1 Experimento aleatório, espaço amostral e evento 1. Lançam-se três moedas. Enumere o espaço amostral e

Leia mais

2 a Lista de PE Solução

2 a Lista de PE Solução Universidade de Brasília Departamento de Estatística 2 a Lista de PE Solução 1. a Ω {(d 1, d 2, m : d 1, d 2 {1,..., 6}, m {C, K}}, onde C coroa e K cara. b Ω {0, 1, 2,...} c Ω {(c 1, c 2, c 3, c 4 : c

Leia mais

Probabilidade em espaços discretos. Prof.: Joni Fusinato

Probabilidade em espaços discretos. Prof.: Joni Fusinato Probabilidade em espaços discretos Prof.: Joni Fusinato joni.fusinato@ifsc.edu.br jfusinato@gmail.com Probabilidade em espaços discretos Definições de Probabilidade Experimento Espaço Amostral Evento Probabilidade

Leia mais

3 NOÇÕES DE PROBABILIDADE

3 NOÇÕES DE PROBABILIDADE 3 NOÇÕES DE PROILIDDE 3.1 Conjuntos Um conjunto pode ser considerado como uma coleção de objetos chamados elementos do conjunto. Em geral denota-se conjunto por letras maiúsculas,, C,... e a sua representação

Leia mais

GET00143 TEORIA DAS PROBABILIDADES II Variáveis Aleatórias Unidmensionais

GET00143 TEORIA DAS PROBABILIDADES II Variáveis Aleatórias Unidmensionais Universidade Federal Fluminense Instituto de Matemática e Estatística GET43 TEORIA DAS PROBABILIDADES II Variáveis Aleatórias Unidmensionais Ana Maria Lima de Farias Jessica Quintanilha Kubrusly Mariana

Leia mais

Noções sobre Probabilidade

Noções sobre Probabilidade Noções sobre Probabilidade Introdução Vimos anteriormente como apresentar dados em tabelas e gráficos, e também como calcular medidas que descrevem características específicas destes dados. Mas além de

Leia mais

PROBABILIDADES PROBABILIDADE DE UM EVENTO EM UM ESPAÇO AMOSTRAL FINITO

PROBABILIDADES PROBABILIDADE DE UM EVENTO EM UM ESPAÇO AMOSTRAL FINITO PROBABILIDADES Probabilidade é um conceito filosófico e matemático que permite a quantificação da incerteza, permitindo que ela seja aferida, analisada e usada para a realização de previsões ou para a

Leia mais

2. Nas Figuras 1a a 1d, assinale a área correspondente ao evento indicado na legenda. Figura 1: Exercício 2

2. Nas Figuras 1a a 1d, assinale a área correspondente ao evento indicado na legenda. Figura 1: Exercício 2 GET00116 Fundamentos de Estatística Aplicada Lista de exercícios Probabilidade Profa. Ana Maria Lima de Farias Capítulo 1 Probabilidade: Conceitos Básicos 1. Lançam-se três moedas. Enumere o espaço amostral

Leia mais

AULA 08 Probabilidade

AULA 08 Probabilidade Cursinho Pré-Vestibular da UFSCar São Carlos Matemática Professora Elvira e Monitores Ana Carolina e Bruno AULA 08 Conceitos e assuntos envolvidos: Espaço amostral Evento Combinação de eventos Espaço Amostral

Leia mais

T o e r o ia a da P oba ba i b lida d de

T o e r o ia a da P oba ba i b lida d de Teoria da Probabilidade Prof. Joni Fusinato Teoria da Probabilidade Consiste em utilizar a intuição humana para estudar os fenômenos do nosso cotidiano. Usa o princípio básico do aprendizado humano que

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aulas passadas Espaço Amostral Álgebra de Eventos Axiomas de Probabilidade Análise Aula de hoje Probabilidade Condicional Independência de Eventos Teorema

Leia mais

Teoria das Probabilidades

Teoria das Probabilidades Capítulo 2 Teoria das Probabilidades 2.1 Introdução No capítulo anterior, foram mostrados alguns conceitos relacionados à estatística descritiva. Neste capítulo apresentamos a base teórica para o desenvolvimento

Leia mais

NOÇÕES DE PROBABILIDADE

NOÇÕES DE PROBABILIDADE NOÇÕES DE PROBABILIDADE ALEATORIEDADE Menino ou Menina me? CARA OU COROA? 3 Qual será o rendimento da Caderneta de Poupança no final deste ano? E qual será a taxa de inflação acumulada em 014? Quem será

Leia mais

Matemática & Raciocínio Lógico

Matemática & Raciocínio Lógico Matemática & Raciocínio Lógico para concursos Prof. Me. Jamur Silveira www.professorjamur.com.br facebook: Professor Jamur PROBABILIDADE No estudo das probabilidades estamos interessados em estudar o experimento

Leia mais

CAPÍTULO 3 PROBABILIDADE

CAPÍTULO 3 PROBABILIDADE CAPÍTULO 3 PROBABILIDADE 1. Conceitos 1.1 Experimento determinístico Um experimento se diz determinístico quando repetido em mesmas condições conduz a resultados idênticos. Exemplo 1: De uma urna que contém

Leia mais

PROBABILIDADE. Aula 2 Probabilidade Básica. Fernando Arbache

PROBABILIDADE. Aula 2 Probabilidade Básica. Fernando Arbache PROBABILIDADE Aula 2 Probabilidade Básica Fernando Arbache Probabilidade Medida da incerteza associada aos resultados do experimento aleatório Deve fornecer a informação de quão verossímil é a ocorrência

Leia mais

Conceitos básicos de teoria da probabilidade

Conceitos básicos de teoria da probabilidade Conceitos básicos de teoria da probabilidade Experimento Aleatório: procedimento que, ao ser repetido sob as mesmas condições, pode fornecer resultados diferentes Exemplos:. Resultado no lançamento de

Leia mais

Experiências Aleatórias. Espaço de Resultados. Acontecimentos

Experiências Aleatórias. Espaço de Resultados. Acontecimentos Experiências Aleatórias. Espaço de Resultados. Acontecimentos Experiência Aleatória É uma experiência em que: não se sabe exactamente o resultado que se virá a observar; conhece-se o universo dos resultados

Leia mais

2. INTRODUÇÃO À PROBABILIDADE

2. INTRODUÇÃO À PROBABILIDADE 2. INTRODUÇÃO À PROBABILIDADE 2019 Conceitos básicos Experimento aleatório ou fenômeno aleatório Situações ou acontecimentos cujos resultados não podem ser previstos com certeza. Um experimento ou fenônemo

Leia mais

Aula 4. NOÇÕES DE PROBABILIDADE

Aula 4. NOÇÕES DE PROBABILIDADE Aula 4. NOÇÕES DE PROBABILIDADE ? CARA? OU? COROA? ? Qual será o rendimento da Caderneta de Poupança até o final deste ano??? E qual será a taxa de inflação acumulada em 013???? Quem será o próximo prefeito

Leia mais

TEORIA DAS PROBABILIDADES

TEORIA DAS PROBABILIDADES TEORIA DAS PROBABILIDADES 1.1 Introdução Ao estudarmos um fenômeno coletivo, verificamos a necessidade de descrever o próprio fenômeno e o modelo matemático associado ao mesmo, que permita explicá-lo da

Leia mais

Fernando de Pol Mayer. Laboratório de Estatística e Geoinformação (LEG) Departamento de Estatística (DEST) Universidade Federal do Paraná (UFPR)

Fernando de Pol Mayer. Laboratório de Estatística e Geoinformação (LEG) Departamento de Estatística (DEST) Universidade Federal do Paraná (UFPR) Fernando de Pol Mayer Laboratório de Estatística e Geoinformação (LEG) Departamento de Estatística (DEST) Universidade Federal do Paraná (UFPR) Este conteúdo está disponível por meio da Licença Creative

Leia mais

Probabilidades. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Probabilidades. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Probabilidades Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 41 Noções Básicas Os métodos estatísticos para análise de dados estão associados

Leia mais

P(A i ) (n 1) i=1. Sorteia-se um homem desse grupo. Qual é a probabilidade de que seja paulista recém-formado, mas não pediatra?

P(A i ) (n 1) i=1. Sorteia-se um homem desse grupo. Qual é a probabilidade de que seja paulista recém-formado, mas não pediatra? GET0089 Probabilidade I Aula de exercícios - 4/08/08 Profa. Ana Maria Lima de Farias. Prove, por indução, a desigualdade de Bonferroni. Se A, A,..., A n são eventos de um espaço de probabilidade (Ω, F,

Leia mais

Probabilidade - 7/7/2018. Prof. Walter Tadeu

Probabilidade - 7/7/2018. Prof. Walter Tadeu Probabilidade - 7/7/018 Prof. Walter Tadeu www.professorwaltertadeu.mat.br Espaço Amostral (): conjunto de todos os resultados possíveis de um experimento aleatório. Exemplos: 1. Lançamento de um dado.

Leia mais

Lista de exercícios de Matemática Eventos, espaço amostral e definição de probabilidade. Probabilidade condicional. Exercícios gerais.

Lista de exercícios de Matemática Eventos, espaço amostral e definição de probabilidade. Probabilidade condicional. Exercícios gerais. p: João Alvaro w: www.matemaniacos.com.br e: joao.baptista@iff.edu.br. No lançamento de dois dados, D e D 2, tem-se o seguinte espaço amostral, dado em forma de tabela de dupla entrada. Lista de exercícios

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aulas passadas Espaço Amostral Álgebra de Eventos Axiomas de Probabilidade Análise Combinatória Aula de hoje Probabilidade Condicional Independência de Eventos

Leia mais

Aulas particulares. Conteúdo

Aulas particulares. Conteúdo Conteúdo Capítulo 6...2 Probabilidade...2 Exercícios...4 Restpostas...9 Capítulo 7... 12 Análise combinatória... 12 Fatorial... 12 Arranjo... 13 Combinação... 16 Exercícios... 17 Respostas... 22 1 Capítulo

Leia mais

Exercícios de Probabilidade - Lista 1. Profa. Ana Maria Farias

Exercícios de Probabilidade - Lista 1. Profa. Ana Maria Farias Exercícios de Probabilidade - Lista 1 Profa. Ana Maria Farias 1. Lançam-se três moedas. Enumere o espaço amostral e os eventos A = faces iguais ; B = cara na primeira moeda ; C = coroa na segunda e terceira

Leia mais

Teoria das Probabilidades

Teoria das Probabilidades Teoria das Prof. Eduardo Bezerra (CEFET/RJ) 23 de fevereiro de 2018 Eduardo Bezerra (CEFET/RJ) Teoria das 2018.1 1 / 54 Roteiro Experimento aleatório, espaço amostral, evento 1 Experimento aleatório, espaço

Leia mais

Aula 9 Teorema da probabilidade total e teorema de Bayes

Aula 9 Teorema da probabilidade total e teorema de Bayes Aula 9 Teorema da probabilidade total e teorema de Bayes Nesta aula você estudará dois importantes teoremas de probabilidade e verá suas aplicações em diversas situações envolvendo a tomada de decisão.

Leia mais

Prof.: Joni Fusinato

Prof.: Joni Fusinato Introdução a Teoria da Probabilidade Prof.: Joni Fusinato joni.fusinato@ifsc.edu.br jfusinato@gmail.com Teoria da Probabilidade Consiste em utilizar a intuição humana para estudar os fenômenos do nosso

Leia mais

3 a Lista de PE Solução

3 a Lista de PE Solução Universidade de Brasília Departamento de Estatística 3 a Lista de PE Solução. Se X representa o ganho do jogador, então os possíveis valores para X são,, 0, e 4. Esses valores são, respectivamente, correspondentes

Leia mais

Probabilidades- Teoria Elementar

Probabilidades- Teoria Elementar Probabilidades- Teoria Elementar Experiência Aleatória Experiência aleatória é uma experiência em que: não se sabe exactamente o resultado que se virá a observar, mas conhece-se o universo dos resultados

Leia mais

MA12 - Unidade 18 Probabilidade Condicional

MA12 - Unidade 18 Probabilidade Condicional MA12 - Unidade 18 Probabilidade Condicional Paulo Cezar Pinto Carvalho PROFMAT - SBM 4 de Abril de 2014 Um dado honesto é lançado duas vezes. a) Qual é a probabilidade de sair 1 no 1 o lançamento? b) Qual

Leia mais

NOÇÕES DE PROBABILIDADE

NOÇÕES DE PROBABILIDADE NOÇÕES DE PROBABILIDADE Qual a razão para esta mudança? (isto é, para passarmos de Análise Descritiva para Cálculo de Probabilidades?) ALEATORIEDADE Menino ou Menina me? 3 CARA? OU COROA? 4 ? Qual será

Leia mais

Teoria da Probabilidade

Teoria da Probabilidade Teoria da Probabilidade Luis Henrique Assumpção Lolis 14 de fevereiro de 2014 Luis Henrique Assumpção Lolis Teoria da Probabilidade 1 Conteúdo 1 O Experimento Aleatório 2 Espaço de amostras 3 Álgebra dos

Leia mais

NOÇÕES DE PROBABILIDADE

NOÇÕES DE PROBABILIDADE NOÇÕES DE PROBABILIDADE ? CARA? OU? COROA? 2 ? Qual será o rendimento da Caderneta de Poupança até o final deste ano??? E qual será a taxa de inflação acumulada em 2011???? Quem será o próximo prefeito

Leia mais

Estatística (MAD231) Turma: IGA. Período: 2017/2

Estatística (MAD231) Turma: IGA. Período: 2017/2 Estatística (MAD231) Turma: IGA Período: 2017/2 Aula #01 de Probabilidade: 27/09/2017 1 Probabilidade: incerteza? como medir e gerenciar a Introdução Os jornais informaram que há uma chance de 60% de chover

Leia mais

BIOESTATISTICA. Unidade IV - Probabilidades

BIOESTATISTICA. Unidade IV - Probabilidades BIOESTATISTICA Unidade IV - Probabilidades 0 PROBABILIDADE E DISTRIBUIÇÃO DE FREQUÊNCIAS COMO ESTIMATIVA DA PROBABILIDADE Noções de Probabilidade Após realizar a descrição dos eventos utilizando gráficos,

Leia mais

Pode ser a observação de um fenômeno natural:

Pode ser a observação de um fenômeno natural: MAE 116 Introdução à Probabilidade FEA -2º Semestre de 2017 1 Experimento Designaremos por Experimento todo processo que nos fornece dados: Pode ser a observação de um fenômeno natural: 4observação astronômica

Leia mais

REGRAS PARA CÁLCULO DE PROBABILIDADES

REGRAS PARA CÁLCULO DE PROBABILIDADES REGRAS PARA CÁLCULO DE PROBABILIDADES Prof. Dr. Lucas Santana da Cunha http://www.uel.br/pessoal/lscunha/ 15 de abril de 2019 Londrina 1 / 17 As probabilidades sempre se referem a ocorrência de eventos

Leia mais

Probabilidade e Estatística

Probabilidade e Estatística Probabilidade e Estatística Distribuições Discretas de Probabilidade Prof. Narciso Gonçalves da Silva www.pessoal.utfpr.edu.br/ngsilva Introdução Distribuições Discretas de Probabilidade Muitas variáveis

Leia mais

Estatística Aplicada. Prof. Carlos Alberto Stechhahn PARTE I ESPAÇO AMOSTRAL - EVENTOS PROBABILIDADE PROBABILIDADE CONDICIONAL.

Estatística Aplicada. Prof. Carlos Alberto Stechhahn PARTE I ESPAÇO AMOSTRAL - EVENTOS PROBABILIDADE PROBABILIDADE CONDICIONAL. Estatística Aplicada Administração p(a) = n(a) / n(u) PARTE I ESPAÇO AMOSTRAL - EVENTOS PROBABILIDADE PROBABILIDADE CONDICIONAL Prof. Carlos Alberto Stechhahn 2014 1. Noções de Probabilidade Chama-se experimento

Leia mais

3. Probabilidade P(A) =

3. Probabilidade P(A) = 7 3. Probabilidade Probabilidade é uma medida numérica da plausibilidade de que um evento ocorrerá. Assim, as probabilidades podem ser usadas como medidas do grau de incerteza e podem ser expressas de

Leia mais

Universidade Federal de Lavras

Universidade Federal de Lavras Universidade Federal de Lavras Departamento de Estatística Prof. Daniel Furtado Ferreira 13 a Lista de Exercícios Práticos Conceitos Básicos de Probabilidade 1) Considere um experimento que consiste em

Leia mais

Probabilidade e Estatística Probabilidade Condicional

Probabilidade e Estatística Probabilidade Condicional Introdução Probabilidade e Estatística Probabilidade Condicional Em algumas situações, a probabilidade de ocorrência de um certo evento pode ser afetada se tivermos alguma informação sobre a ocorrência

Leia mais

Probabilidade I. Departamento de Estatística. Universidade Federal da Paraíba

Probabilidade I. Departamento de Estatística. Universidade Federal da Paraíba Probabilidade I Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Probabilidade Condicional 08/16 1 / 56 Introdução É provável que você ganhe um aumento....

Leia mais

1 Noções de Probabilidade

1 Noções de Probabilidade Noções de Probabilidade Já vimos que para se obter informações sobre alguma característica da população, podemos utilizar uma amostra. Estudaremos agora a probabilidade, que é uma ferramenta usada e necessária

Leia mais

Probabilidade Condicional (grupo 2)

Probabilidade Condicional (grupo 2) page 39 Capítulo 5 Probabilidade Condicional (grupo 2) Veremos a seguir exemplos de situações onde a probabilidade de um evento émodificadapelainformação de que um outro evento ocorreu, levando-nos a definir

Leia mais

MAT 461 Tópicos de Matemática II Aula 5: Resumo de Probabilidade

MAT 461 Tópicos de Matemática II Aula 5: Resumo de Probabilidade MAT 461 Tópicos de Matemática II Aula 5: Resumo de Probabilidade Edson de Faria Departamento de Matemática IME-USP 26 de Agosto, 2013 Probabilidade: uma Introdução / Aula 5 1 Variáveis aleatórias Definição

Leia mais

MATEMÁTICA MÓDULO 4 PROBABILIDADE

MATEMÁTICA MÓDULO 4 PROBABILIDADE PROBABILIDADE Consideremos um experimento com resultados imprevisíveis e mutuamente exclusivos, ou seja, cada repetição desse experimento é impossível prever com certeza qual o resultado que será obtido,

Leia mais

Tipos de Modelo. Exemplos. Modelo determinístico. Causas. Efeito. Exemplos. Modelo probabilístico. Causas. Efeito. Determinístico.

Tipos de Modelo. Exemplos. Modelo determinístico. Causas. Efeito. Exemplos. Modelo probabilístico. Causas. Efeito. Determinístico. Tipos de Modelo Sistema Real Determinístico Prof. Lorí Viali, Dr. viali@mat.ufrgs.br http://www.mat.ufrgs.br/~viali/ Probabilístico Modelo determinístico Exemplos Gravitação F GM 1 M 2 /r 2 Causas Efeito

Leia mais

Probabilidade Condicional

Probabilidade Condicional 18 Probabilidade Condicional Sumário 18.1 Introdução....................... 2 18.2 Probabilidade Condicional............... 2 1 Unidade 18 Introdução 18.1 Introdução Nessa unidade, é apresentada mais uma

Leia mais

Probabilidade e Estatística

Probabilidade e Estatística Aula 3 Professora: Rosa M. M. Leão Probabilidade e Estatística Conteúdo: 1.1 Por que estudar? 1.2 O que é? 1.3 População e Amostra 1.4 Um exemplo 1.5 Teoria da Probabilidade 1.6 Análise Combinatória 3

Leia mais

Conteúdo: Aula 2. Probabilidade e Estatística. Professora: Rosa M. M. Leão

Conteúdo: Aula 2. Probabilidade e Estatística. Professora: Rosa M. M. Leão Aula 2 Professora: Rosa M. M. Leão Probabilidade e Estatística Conteúdo: 1.1 Por que estudar? 1.2 O que é? 1.3 População e Amostra 1.4 Um exemplo 1.5 Teoria da Probabilidade 1.6 Análise Combinatória 3

Leia mais

Prof. Herivelto Tiago Marcondes dos Santos

Prof. Herivelto Tiago Marcondes dos Santos PROBABILIDADES Algumas ocorrências de nosso cotidiano de certos fenômenos naturais não podem ser previstos antecipadamente. Há nessas ocorrências o interesse em estudar a intensidade de chuvas em uma determinada

Leia mais

Estatística (MAD231) Turma: IGA. Período: 2018/2

Estatística (MAD231) Turma: IGA. Período: 2018/2 Estatística (MAD231) Turma: IGA Período: 2018/2 Aula #03 de Probabilidade: 19/10/2018 1 Variáveis Aleatórias Considere um experimento cujo espaço amostral é Ω. Ω contém todos os resultados possíveis: e

Leia mais

INTRODUÇÃO À PROBABILIDADE

INTRODUÇÃO À PROBABILIDADE INTRODUÇÃO À PROBABILIDADE Foto extraída em http://www.alea.pt Profª Maria Eliane Universidade Estadual de Santa Cruz USO DE PROBABILIDADES EM SITUAÇÕES DO COTIDIANO Escolhas pessoais Previsão do tempo

Leia mais

Introdução a Probabilidade

Introdução a Probabilidade Introdução a Probabilidade Universidade Estadual de Santa Cruz Ivan Bezerra Allaman Cronograma 1. Origem e história 2. Introdução 3. Definições básicas 4. Conceituação de probabilidade 5. Probabilidade

Leia mais

Probabilidade Aula 03

Probabilidade Aula 03 0303200 Probabilidade Aula 03 Magno T. M. Silva Escola Politécnica da USP Março de 2017 Sumário Teorema de Bayes 2.5 Independência Teorema de Bayes Sejam A 1,,A k uma partição de S (eventos disjuntos)

Leia mais

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina Notes. Processos Estocásticos em Engenharia Conteúdo Notes.

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina Notes. Processos Estocásticos em Engenharia Conteúdo Notes. TE802 Processos Estocásticos em Engenharia Conceitos Básicos de Teoria de Probabilidade 7 de março de 2016 Informação sobre a disciplina Terças e Quintas feiras das 09:30 às 11:20 horas Professor: Evelio

Leia mais

MATEMÁTICA A - 12o Ano Probabilidades - Teoremas e operações com conjuntos Propostas de resolução

MATEMÁTICA A - 12o Ano Probabilidades - Teoremas e operações com conjuntos Propostas de resolução MATEMÁTICA A - 12o Ano Probabilidades - Teoremas e operações com conjuntos Propostas de resolução Exercícios de exames e testes intermédios 1. Como P (B) = 1 P ( B ) = P (B) P (A B) vem que P (B) = 1 0,7

Leia mais

Os experimentos que repetidos sob as mesmas condições produzem resultados geralmente diferentes serão chamados experimentos aleatórios.

Os experimentos que repetidos sob as mesmas condições produzem resultados geralmente diferentes serão chamados experimentos aleatórios. PROBABILIDADE A teoria das Probabilidades é o ramo da Matemática que cria, desenvolve e em geral pesquisa modelos que podem ser utilizados para estudar experimentos ou fenômenos aleatórios. Os experimentos

Leia mais

Aula 6 Revisão de análise combinatória

Aula 6 Revisão de análise combinatória Aula 6 Revisão de análise combinatória Conforme você verá na próxima aula, a definição clássica de probabilidade exige que saibamos contar o número de elementos de um conjunto. Em algumas situações, é

Leia mais

2 Conceitos Básicos de Probabilidade

2 Conceitos Básicos de Probabilidade CE003 1 1 Introdução No capítulo anterior, foram mostrados alguns conceitos relacionados à estatística descritiva. Neste capítulo apresentamos a base teórica para o desenvolvimento de técnicas estatísticas

Leia mais

Probabilidade Parte 1. Camyla Moreno

Probabilidade Parte 1. Camyla Moreno Probabilidade Parte 1 Camyla Moreno Probabilidade A teoria das probabilidades é um ramo da Matemática que cria, elabora e pesquisa modelos para estudar experimentos ou fenômenos aleatórios. Principais

Leia mais

PROBABILIDADE. Curso: Logística e Transportes Disciplina: Estatística Profa. Eliane Cabariti

PROBABILIDADE. Curso: Logística e Transportes Disciplina: Estatística Profa. Eliane Cabariti Curso: Logística e Transportes Disciplina: Estatística Profa. Eliane Cabariti PROBABILIDADE Dizemos que a probabilidade é uma medida da quantidade de incerteza que existe em um determinado experimento.

Leia mais

Probabilidade. Definição de Probabilidade Principais Teoremas Probabilidades dos Espaços Amostrais Espaços Amostrais Equiprováveis.

Probabilidade. Definição de Probabilidade Principais Teoremas Probabilidades dos Espaços Amostrais Espaços Amostrais Equiprováveis. Probabilidade Definição de Probabilidade Principais Teoremas Probabilidades dos Espaços Amostrais Espaços Amostrais Equiprováveis Renata Souza Probabilidade É um conceito matemático que permite a quantificação

Leia mais

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina. TE802 Conceitos Básicos de Teoria de Probabilidade. Evelio M. G.

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina. TE802 Conceitos Básicos de Teoria de Probabilidade. Evelio M. G. TE802 Processos Estocásticos em Engenharia Conceitos Básicos de Teoria de Probabilidade 23 de agosto de 2017 Informação sobre a disciplina Segundas e Quartas feiras das 09:30 às 11:20 horas Professor:

Leia mais

Probabilidade. Objetivos de Aprendizagem. UFMG-ICEx-EST. Cap. 2 - Probabilidade Espaços Amostrais e Eventos. 2.1.

Probabilidade. Objetivos de Aprendizagem. UFMG-ICEx-EST. Cap. 2 - Probabilidade Espaços Amostrais e Eventos. 2.1. 2 ESQUEMA DO CAPÍTULO 2.1 ESPAÇOS AMOSTRAIS E EVENTOS 2.2 INTERPRETAÇÕES E AXIOMAS DE PROBABILIADE 2.3 REGRAS DE ADIÇÃO 2.4 PROBABILIDADE CONDICIONAL 2.5 REGRAS DA MULTIPLICAÇÃO E DA PROBABILIDADE TOTAL

Leia mais