GET00189 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidimensionais

Tamanho: px
Começar a partir da página:

Download "GET00189 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidimensionais"

Transcrição

1 Universidade Federal Fluminense Instituto de Matemática e Estatística GET89 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidimensionais Ana Maria Lima de Farias Jessica Quintanilha Kubrusly Mariana Albi de Oliveira Souza Departamento de Estatística Agosto de 8

2 Conteúdo Probabilidade. Experimento aleatório, espaço amostral e evento Probabilidade: axiomas e propriedades Espaços amostrais finitos e igualmente prováveis Probabilidade condicional Regra da multiplicação Teorema da probabilidade total e teorema de Bayes Independência de eventos Conjuntos limite e continuidade da probabilidade Variáveis Aleatórias 5. Variáveis aleatórias Função de distribuição Classificação de variáveis aleatórias Variáveis Aleatórias Discretas Função de probabilidade Funções de variáveis aleatórias discretas Esperança de variáveis aleatórias discretas Variância e desvio-padrão de variável aleatória Momentos e sua função geradora Funções de probabilidade simétricas Algumas Distribuições Discretas 4. Introdução i

3 ii CONTEÚDO 4. Distribuição uniforme discreta Distribuição de Bernoulli Distribuição binomial Distribuição geométrica Distribuição binomial negativa Distribuição hipergeométrica Distribuição de Poisson Mais exemplos Variáveis Aleatórias Contínuas Função densidade de probabilidade Funções de variáveis aleatórias contínuas Esperança de variáveis aleatórias contínuas Variância e desvio-padrão de variáveis aleatórias contínuas Momentos e sua função geradora Algumas desigualdades importantes Densidade simétrica Algumas Distribuições Contínuas 8 6. Distribuição uniforme Distribuição exponencial Distribuição gama Distribuição beta Distribuição de Weibull Distribuição de Pareto A Distribuição Normal 7. Distribuição normal padrão Cálculo de probabilidades da normal padrão A distribuição normal Coeficiente de curtose Cálculo de probabilidades da normal

4 CONTEÚDO iii 7.6 Encontrando a abscissa da normal para uma probabilidade específica Exemplos de aplicação da distribuição normal A distribuição log-normal A Alguns Resultados de Cálculo 4 A. Séries geométricas A. A função logarítmica natural A.3 A função exponencial natural A.4 Função exponencial de base a A.5 A função logarítmica de base a A.6 Limites envolvendo as funções exponencial e logarítmica A.7 Funções pares e ímpares A.8 Integrais duplas com coordenadas polares A.9 A função gama B Tabelas 65 Índice Remissivo 7

5 Capítulo Probabilidade No nosso cotidiano, lidamos sempre com situações em que está presente a incerteza do resultado, embora, muitas vezes, os resultados possíveis sejam conhecidos. Por exemplo, se estamos interessados na face voltada para cima quando jogamos um dado, os resultados possíveis são,, 3, 4, 5, 6, mas só saberemos o resultado quando o experimento se completar, ou seja, quando o dado atingir a superfície sobre a qual foi lançado. Se nosso interesse é o tempo de duração, em minutos, de determinado tipo de lâmpada, sabemos que o resultado pode ser qualquer número positivo, que só será conhecido quando a lâmpada se queimar. É conveniente, então, dispormos de uma medida que exprima a incerteza presente em cada um destes acontecimentos. Tal medida é a probabilidade.. Experimento aleatório, espaço amostral e evento Um experimento que pode gerar diferentes resultados se realizado mais de uma vez, sob as mesmas condições, é chamado de experimento aleatório. Como exemplo de experimentos aleatórios temos: o lançamento de um dado e a observação da face superior; a observação do tempo de duração de um certo dispositivo eletrônico; lançamentos consecutivos de uma moeda até que saia a face cara. O conjunto formado por todos os possíveis resultados de um experimento aleatório é chamado de espaço amostral e será representado pela letra grega maiúscula Ω. Em geral, usamos a letra grega minúscula ω para representar um resultado específico de um experimento aleatório. Nesse caso podemos escrever ω Ω. Se Ω é o espaço amostral de algum experimento aleatório, qualquer subconjunto A Ω será chamado de evento. Em particular, cada ω Ω é chamado de evento elementar. Exemplo. Para os experimentos aleatórios listados a seguir, defina um espaço amostral e apresente alguns eventos. (a) Lançamento de um dado e observação da face superior. (b) Lançamento de duas moedas e observação das duas faces superiores. (c) Lançamentos consecutivos de uma moeda até que saia a face cara. (d) Observação do tempo de duração de um certo dispositivo eletrônico.

6 CAPÍTULO. PROBABILIDADE (a) Ω {,, 3, 4, 5, 6}. Eventos: E { sair uma face par } {, 4, 6}; E { sair um número maior que } {, 3, 4, 5, 6}; E 3 { sair o número 3 } {3}; E 4, o evento vazio. (b) Ω {K K, KC, CK, CC}, em que K representa face superior cara e C, coroa. Eventos: E { faces iguais } {K K, CC}; E { pelo menos uma cara } {CK, KC, K K }; E { uma cara } {CK, KC}. (c) Ω {K, CK, CCK, CCCK, CCCCK,...}, em que, novamente, K representa face superior cara e C, coroa. Eventos: E { sair coroas } {CCK }; E { ocorrer mais de lançamentos da moeda } {CCK, CCCK,...}; E 3 { ocorrer menos de 5 lançamentos } {K, CK, CCK, CCCK }; E 4 { ocorrer pelo menos um lançamento } Ω, o próprio espaço amostral. (d) Ω {t R t }, onde t é o tempo de duração em minutos. Eventos: E { o dispositivo durar entre e 3 minutos } [, 3]; E { o dispositivo durar menos de 5 minutos } [, 5); E 3 { o dispositivo durar exatos 5 minutos e 3 segundos } {5, 5}; E 4 { o dispositivo durar pelo menos hora } [6, ). Exemplo. Extração de bolas em uma urna Uma urna contém 4 bolas, das quais duas são brancas (numeradas de a ) e duas são pretas (numeradas de 3 a 4). Duas bolas são retiradas dessa urna, sem reposição. Defina um espaço amostral apropriado para esse experimento e os seguintes eventos: A : B : C : a primeira bola é branca; a segunda bola é branca; ambas as bolas são brancas; Considerando a numeração das bolas, o espaço amostral pode ser definido como: Os eventos são: Ω {(i, j) : i,, 3, 4; j,, 3, 4; i j} {(, ), (, 3), (, 4), (, ), (, 3), (, 4), (3, ), (3, ), (3, 4), (4, ), (4, ), (4, 3)} A {(i, j) : i, ; j,, 3, 4; i j} {(, ), (, 3), (, 4), (, ), (, 3), (, 4)} B {(i, j) : i,, 3, 4; j, ; i j} {(, ), (3, ), (4, ), (, ), (3, ), (4, )} C {(i, j) : i, ; j, ; i j} {(, ), (, )}

7 .. EXPERIMENTO ALEATÓRIO, ESPAÇO AMOSTRAL E EVENTO 3 Exemplo.3 Extração de cartas de um baralho especial Três cartas são retiradas, sem reposição, de um baralho que tem três cartas de cada uma das cores azul, vermelha, marrom e branca. Dê um espaço amostral para esse experimento e liste os eventos: E : E : E 3 : E 4 : todas as cartas selecionadas são vermelhas; uma carta vermelha, uma carta azul e uma carta marrom são selecionadas; as três cartas têm cores diferentes; cartas de todas as quatro cores são selecionadas. Vamos denotar por A, V, M e B o sorteio de uma carta da cor azul, vermelha, marrom ou branca, respectivamente. Então Ω {(x, x, x 3 ) : x i A, V, M, B; i,, 3} Os eventos são: E {(V, V, V )} E {(V, A, M), (V, M, A), (A, V, M), (A, M, V ), (M, V, A), (M, A, V )} E 3 {(V, A, M), (V, M, A), (A, V, M), (A, M, V ), (M, V, A), (M, A, V ), (V, A, B), (V, B, A), (A, V, B), (A, B, V ), (B, V, A), (B, A, V ), (V, B, M), (V, M, B), (B, V, M), (B, M, V ), (M, V, B), (M, B, V ), (B, A, M), (B, M, A), (A, B, M), (A, M, B), (M, B, A), (M, A, B)} Como temos quatro cores diferentes e apenas três extrações, não é possível obter todas as cores; logo, E 4. Sendo os eventos subconjuntos do espaço amostral, outros eventos podem ser obtidos através de operações elementares de conjuntos (veja a Figura.). A interseção de dois eventos A e B é o evento A B {ω : ω A e ω B}, que corresponde à ocorrência simultânea de A e B. Se A B, os eventos A e B são disjuntos ou mutuamente exclusivos, o que significa que não podem ocorrer simultaneamente. A união de dois eventos A e B é o evento A B {ω : ω A ou ω B}, que corresponde à ocorrência de pelo menos um dos eventos A e B. O complementar de A é o evento A c {ω : ω / A}, que corresponde à não ocorrência de A. A diferença A B é o evento A B {ω : ω A e ω / B}, que corresponde à ocorrência de A, mas não de B. A diferença B A é o evento é B A {ω : ω B e ω / A}, que corresponde à ocorrência de B, mas não de A. Assim como com números, a diferença não é comutativa. Note que podemos escrever A B A B c e B A B A c. (Veja as Figuras.e e.f) A seguir apresentamos as principais propriedades das operações com eventos aleatórios.

8 4 CAPÍTULO. PROBABILIDADE (a) A B (b) A B (c) A B (d) A c (e) A B (f) B A Figura. Operações com eventos. Identidade A A Ω Ω (.) A A A Ω A (.). Complementar Ω c c Ω (.3) A A c A A c Ω (.4) 3. Involução (A c ) c A 4. Idempotência A A A A A A (.5) 5. Comutatividade A B B A A B B A (.6)

9 .. EXPERIMENTO ALEATÓRIO, ESPAÇO AMOSTRAL E EVENTO 5 6. Associatividade (A B) C A (B C) (A B) C A (B C) (.7) 7. Distributividade A (B C) (A B) (A C) A (B C) (A B) (A C) (.8) 8. Absorção A (A B) A A (A B) A (.9) 9. Leis de De Morgan (A B) c A c B c (A B) c A c B c (.) ou mais geralmente ( ) c A i i i i i A c i ( ) c A i Ai c (.) Note que A i é o conjunto formado pelos elementos que estão contidos em pelo menos um i dos conjuntos A i, i,,... e A i é o conjunto formado pelos elementos que estão contidos i em todos os conjuntos A i, i,,.... Exemplo.4 Lançamento de duas moedas Consideremos o experimento do lançamento de duas moedas e observação das faces superiores. Sejam os eventos A exatamente cara, B duas faces iguais e C pelo menos cara. Determine A B, A B, A B, B A, A C, A C, A C, C A, B C, B C, B C, C B, A c, B c, C c, A (B C) e A B C. Como antes, vamos representar por K face superior cara e por C, coroa. Espaço amostral: Ω {K K, KC, CK, CC} Eventos: A {KC, CK } B {CC, K K } C {KC, CK, K K }. Logo, A B A B Ω A B A B A B A C A A C C A C C A {K K }. Note que A C. B C {K K } B C Ω B C {CC} C B {KC, CK } A c B B c A C c {CC} A (B C) (A B) (A C) Ω C C A B C Ω

10 6 CAPÍTULO. PROBABILIDADE Nos exemplos acima, vimos que há vários eventos em um mesmo espaço amostral. Vamos apresentar, agora, uma classe de subconjuntos (eventos) que será fundamental no estudo da teoria de probabilidade. Definição. σ-álgebra Seja Ω um espaço amostral de algum experimento aleatório. Uma classe F de subconjuntos de Ω é denominada uma σ-álgebra (lê-se sigma-álgebra) se satisfaz as seguintes propriedades: (S ) Ω F. (S ) Se A F então A c F. (S 3 ) Se A i F, i,,..., então A i F. i Proposição. Se F é uma σ-álgebra de conjuntos de Ω, então (a) F ; (b) se A i F, i, então A i F. i Demonstração: (a) Pela Propriedade (S ), sabemos que Ω F. Logo, pela Propriedade (S ), temos que Ω c F. Mas Ω c F. ( ) c (b) A i F }{{} Ai c F }{{} Ai c F }{{} A i F }{{} A i F S S 3 i Morgan i S i Exemplo.5 Seja Ω {,, 3} e considere as seguintes coleções de subconjuntos de Ω: Verifique se F e F são σ-álgebras. F {, Ω, {3}, {, }} F {, Ω, {}, {3}, {, }}, {, 3}}} F Ω F S satisfeita

11 .. EXPERIMENTO ALEATÓRIO, ESPAÇO AMOSTRAL E EVENTO 7 c Ω F, Ω c F, {3} c {, } F, {, } c {3} F S satisfeita Ω Ω F, {3} {3} F, {, } {, } F, Ω {3} Ω {, } Ω F, {, } {3} Ω F As uniões de 3 ou 4 subconjuntos resultarão trivialmente em elementos de F. Logo, a propriedade S 3 é satisfeita. F é σ-álgebra. F Podemos ver que {} {3} {, 3} / F. Logo, F não é σ-álgebra. Exemplo.6 A menor σ-álgebra contendo A Sejam Ω um espaço amostral e A Ω um subconjunto qualquer. Mostre que F {, Ω, A, A c } é uma σ-álgebra Ω F S satisfeita c Ω F, Ω c F, A c F, (A c ) c A F S satisfeita Ω Ω F, A A F, A c A c F, Ω A Ω A c Ω F, A A c Ω F As uniões de 3 ou 4 subconjuntos resultarão trivialmente em elementos de F. propriedade S 3 é satisfeita. Logo, a F é σ-álgebra, que é chamada menor σ-álgebra que contém A, no sentido de que qualquer outra σ-álgebra que contiver A terá os mesmos elementos de F e, possivelmente, mais alguns. Exemplo.7 σ-álgebras canônicas Se Ω é um espaço amostral, então temos duas σ-álgebras canônicas: F {, Ω} F Ω em que Ω representa o conjunto de todos os subconjuntos de Ω, chamado de conjunto das partes de Ω. F e F são chamadas, respectivamente, de menor e maior σ-álgebra de Ω. Em todos os exemplos e situações abordadas nesse curso iremos considerar a σ-álgebra F Ω. Não apresentaremos aqui a demonstração de que F é uma σ-álgebra. imediata. A verificação para F é

12 8 CAPÍTULO. PROBABILIDADE Exemplo.8 Considere o experimento aleatório que consiste em lançar uma moeda até que apareça cara pela primeira vez. No Exemplo., vimos que Ω {K, CK, CCK, CCCK, CCCCK,...}, em que K representa face superior cara e C, coroa. Vamos definir as seguintes sequências de eventos na σ-álgebra Ω : A n a primeira cara ocorre, ou no n o lançamento, ou depois do n o lançamento B n a primeira cara ocorre, ou no n o lançamento, ou antes do n o lançamento Vamos analisar A i, A i, B i, B i. i i i i A {(K ), (CK ), (CCK ), (CCCK ), (CCCCK ),...} Ω A {(CK ), (CCK ), (CCCK ), (CCCCK ),...} A 3 {(CCK ), (CCCK ), (CCCCK ),...}. Como A A A 3 A 4, resulta que A i Ω i A i i B {(K )} B {(K ), (CK )} B 3 {(K ), (CK ), (CCK )} B 4 {(K ), (CK ), (CCK ), (CCCK )}. Como B B B 3 B 4, resulta que B i Ω i B i B i Muitos experimentos aleatórios têm intervalos da reta ou o próprio R como espaço amostral e aí também consideraremos o conjunto das partes como a σ-álgebra subjacente. Mas, a título de curiosidade, existem outras possibilidades, e uma delas é a σ-álgebra de Borel em R, que é a menor σ-álgebra que contém todos os intervalos da reta e é representada por B. Ou seja, B é a σ-álgebra formada por todos os intervalos da reta, seus complementares, uniões e interseções finitas e infinitas desses conjuntos. Por exemplo, veja que x, y R temos (, x), (, x], (x, y) B, já que todos são intervalos. Também é verdade que o conjunto unitário {x} B qualquer que seja x R, uma vez que (x i ], x {x}. No entanto, a σ-álgebra de Borel não é o conjunto das partes, ou i seja, existem subconjuntos de R que não podem ser obtidos através de uniões ou interseções, finitas ou infinitas, de intervalos. A demonstração de tal fato, no entanto, está muito além do escopo desta disciplina.

13 .. PROBABILIDADE: AXIOMAS E PROPRIEDADES 9. Probabilidade: axiomas e propriedades Considere, mais uma vez, o experimento aleatório que consiste no lançamento de um dado equilibrado e consequente observação da face superior. Como já visto, o espaço amostral desse experimento é Ω {,, 3, 4, 5, 6}, e alguns eventos de interesse são A sair face, B sair face par etc. A questão que se coloca, agora, é como atribuir probabilidade a esses eventos. Ou seja, queremos determinar um número que expresse o quão provável é a ocorrência de cada um desses eventos. Um raciocínio intuitivo nos leva à resposta para a probabilidade de se obter uma face par. Afinal, metade das faces consiste em números pares e, assim P(face par) 3 6 O contexto subjacente a esse exemplo é um espaço amostral Ω finito em que todos os seus eventos elementares {}, {}, {3}, {4}, {5}, {6} são igualmente prováveis e tal contexto leva à definição clássica de probabilidade : P(A) #A (.) #Ω em que #A representa o número de elementos em A. Essa foi a primeira definição formal de probabilidade, explicitada por Girolamo Cardano (5-576). Embora intuitiva, essa definição, assim como outras (frequentista, geométrica), não tem o arcabouço matemático necessário para a formalização do conceito de probabilidade. Essa formalização vem com a definição axiomática dada por Kolmogorov por volta de 93. Os axiomas estabelecem propriedades mínimas que se espera sejam satisfeitas pela probabilidade de qualquer evento. Definição. Probabilidade Seja Ω um espaço amostral de um experimento aleatório e F uma σ-álgebra de subconjuntos de Ω. Uma função real P definida em F é uma probabilidade se satisfaz os seguintes axiomas, denominados Axiomas de Kolmogorov: (Ax ) P(Ω) ; (Ax ) Para todo evento A F, P(A) ; (Ax 3 ) Para toda sequência de eventos A, A,... F mutuamente exclusivos, isto é, tais que A i A j i j, ( ) P A i P(A i ). i i A trinca (Ω, F, P) é denominada espaço de probabilidade. Em alguns livros, por exemplo James (4), os autores fazem distinção entre evento e evento aleatório, definindo evento como qualquer subconjunto do espaço amostral e evento aleatório como qualquer evento ao qual é atribuída uma probabilidade, ou seja, os eventos da σ-álgebra. Neste texto, por se tratar de um primeiro curso de probabilidade, não faremos essa distinção. Sempre Axioma: () Premissa imediatamente evidente que se admite como universalmente verdadeira sem exigência de demonstração. () Proposição que se admite como verdadeira porque dela se podem deduzir as proposições de uma teoria ou de um sistema lógico ou matemático. (dicionário Aurélio)

14 CAPÍTULO. PROBABILIDADE que qualquer um dos dois termos for mencionado, ele indicará um evento ao qual é atribuída uma probabilidade. Vamos, agora, apresentar propriedades da probabilidade que resultam dos Axiomas Ax a Ax 3. Proposição. Propriedades da probabilidade Seja (Ω, F, P) um espaço de probabilidade. Sejam também A, B e A i, I,, 3,... eventos nesse espaço de probabilidade. Então valem as seguintes propriedades: (Pr ) P(A c ) P(A); (Pr ) P( ) ; (Pr 3 ) P(B A c ) P(B) P(B A); (Pr 4 ) Se A B P(A) P(B); (Pr 5 ) P(A) ; (Pr 6 ) P(A B) P(A) + P(B) P(A B); ( ) (Pr 7 ) P A i i P(A i ). i Demonstração: (Pr ) Ω A A c }{{} P(Ω) P(A) + P(A c ) }{{} P(A) + P(A c ) P(A c ) P(A) (Ax 3 ) (Ax ) (Pr ) Ω Ω }{{} P(Ω) P(Ω) + P( ) P( ) (Ax 3 ) (Pr 3 ) Temos que (veja Figura.a) B (B A) (B A c ) }{{} P(B) P(B A) + P(B A c ) P(B A c ) P(B) P(B A) (Ax 3 ) (Pr 4 ) Como antes, temos que (veja Figuras.a e.b) B (B A) (B A c ) }{{} A (B A c ) }{{} P(B) P(A) + P(B A c ) P(B) P(A) }{{} A B (Ax 3 ) ;(Ax ) (Pr 5 ) A Ω }{{} P(A) P(Ω) }{{} P(A) (Pr 4 ) (Ax ) (Pr 6 ) Temos que (veja Figura.c) A B A (B A c ) }{{} P(A B) P(A) + P(B A c ) }{{} P(A) + P(B) P(A B) (Ax 3 ) (Pr 3 ) (Pr 7 ) Vamos provar a propriedade por indução. O resultado vale para n, pois, pela Propriedade (Pr 6 ), ( ) P A i P(A A ) P(A ) + P(A ) P(A A ) P(A }{{} ) + P(A ) P(A i ) i i

15 .. PROBABILIDADE: AXIOMAS E PROPRIEDADES Suponhamos verdadeiro para n k, ou seja, nossa hipótese de indução é ( k ) k P A i P(A i ) Para n k + eventos, temos que ( k+ k ) ( k A i A i A k+ i i e pelo Axioma (Ax 3 ), ( k+ ) ( k ) ( k P A i P A i + P A k+ i uma vez que i i i ) c A i i }{{} hip.ind. i ) c A i ( k k P(A i ) + P A k+ ( k ) c ( k ) c A k+ A i A k+ }{{} P A k+ A i P(A k+ ) i (Pr 4 ) i i i ) c k+ A i i P(A i ) (a) Decomposição de B (b) A B (c) Decomposição de A B Figura. Demonstração da Proposição. Exemplo.9 Prove que: Ou exclusivo P [(A B c ) (A c B)] P(A) + P(B) P(A B) Essa afirmação trata da probabilidade da ocorrência de exatamente um dos eventos A ou B. P [(A B c ) (A c B)] }{{} P(A B c )+P(A c B) }{{} P(A) P(A B)+P(B) P(A B) P(A)+P(B) P(A B) (Ax 3 ) (Pr 3 ) Exemplo. Atribuição de probabilidade Dado que Ω {,, }, verifique se é possível definir uma probabilidade em Ω tal que Justifique sua resposta. P ({, }), 6 P ({, }), 9 P ({, }), 5

16 CAPÍTULO. PROBABILIDADE Note que o evento {, } { } {}. Logo, as probabilidades dadas se transformam no seguinte sistema de 3 equações com 3 incógnitas: P({ }) + P({}), 6 P({}) + P({}), 9 P({ }) + P({}), 5 Da primeira equação, obtemos P({}), 6 P({ }). Substituindo na segunda, obtemos o seguinte sistema de equações e incógnitas: ou Somando termo a termo, resulta Substituindo, obtemos Substituindo novamente, obtemos P({}) +, 6 P({ }), 9 P({ }) + P({}), 5 P({}) P({ }), 3 P({ }) + P({}), 5 P({}), 8 P({}), 4 P({ }), 5 P({}), 5, 4 P({ }), P({}), 6 P({ }), 6,, 5 Como todos os valores obtidos estão no intervalo [, ] e P(Ω) P({ }) + P({}) + P({}), a atribuição dada é válida. Exemplo. Se P (A) /3 e P (B c ) /4, A e B podem ser mutuamente exclusivos? P(B) P(B c ) 3 4. Se A e B fossem mutuamente exclusivos, teríamos que ter P(A B) P(A) + P(B) >. Logo, A e B têm que ter interseção, ou seja, A e B não podem ser mutuamente exclusivos. Exemplo. Sejam A e B eventos mutuamente exclusivos tais que P(A), 5 e P(B), 4. (a) Calcule P(A B). (b) Calcule P(B A c ).

17 .3. ESPAÇOS AMOSTRAIS FINITOS E IGUALMENTE PROVÁVEIS 3 Do enunciado, concluímos que A B. Logo, (a) P(A B) P(A) + P(B), 5 +, 4, 9 (b) P(B A c ) P(B) P(A B), 4, 4 Exemplo.3 Sejam A, B e C eventos de um mesmo espaço de probabilidade (Ω, F, P). Obtenha uma expressão para P(A B C). P(A B C) P [(A B) C] P(A B) + P(C) P [(A B) C] P(A) + P(B) P(A B) + P(C) P [(A C) (B C)] P(A) + P(B) P(A B) + P(C) P(A C) P(B C) + P [(A C) (B C)] P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C) Exemplo.4 Se A, B e C são três eventos de um mesmo espaço de probabilidade, defina M A B c C c e N A (B C). Calcule as probabilidades de M e N sabendo que P(A), 7, P(B), 6, P(C), 5, P(A B), 45, P(A C), 35, P(B C), 5 e P(A B C), 5. P(M) P(A B c C c ) P[A (B c C c )] P[A (B C) c ] Lembrando que P(A B c ) P(A) P(A B), resulta que Por outro lado, P(M) P(A) P[A (B C)] P(A) P(N), 7 P(N) P(N) P[A (B C)] P[(A B) (A C)] P(A B) + P(A C) P[(A B) (A C)] P(A B) + P(A C) P[(A B C)], 45 +, 35, 5, 65 Logo, P(M), 7, 65, 5..3 Espaços amostrais finitos e igualmente prováveis Nesta seção vamos considerar o caso especial de espaços amostrais com um número finito de elementos. Seja, então, Ω {ω, ω,..., ω N } e associada a este Ω, a σ-álgebra F Ω, o conjunto das partes de Ω. Para qualquer evento A F, temos que P(A) ω j A P(ω j )

18 4 CAPÍTULO. PROBABILIDADE Há situações em que, além de Ω ser finito, é também razoável supor que todos os elementos de Ω são igualmente prováveis, ou seja, e, nesse caso, para qualquer evento A F P(A) ω j A P(ω j ) N P(ω j ) #A #Ω em que #A representa o número de elementos de A. Como já visto, essa é a definição clássica de probabilidade. Muitos problemas podem ser resolvidos usando-se essa abordagem, bastando que se conte o número de elementos de Ω e do evento A de interesse. Tal contagem, em geral, é feita com auxílio de técnicas de análise combinatória. Exemplo.5 Extração de uma carta de um baralho Considere um baralho usual composto de 5 cartas divididas em 4 naipes: ouros, copas, paus e espadas, cada naipe com 3 cartas. As cartas dos primeiros naipes são vermelhas e as dos dois últimos, pretas. Em cada naipe, as cartas podem ser ás,, 3, 4, 5, 6, 7, 8, 9,, Valete, Dama e Rei. Essas três últimas são figuras que representam a realeza. Retira-se, ao acaso, uma carta desse baralho. Qual é a probabilidade de que seja (a) uma figura? (b) uma carta vermelha? (c) uma figura ou uma carta vermelha? O espaço amostral é formado pelas 5 cartas do baralho. Temos, assim, um espaço amostral finito em que os eventos elementares cada uma das cartas são igualmente prováveis, pois estamos retirando a carta aleatoriamente. Como há 5 cartas ao todo, #Ω 5. Vamos denotar por F o evento carta retirada é uma figura e por V o evento carta retirada é vermelha. (a) Em cada um dos 4 naipes há três figuras. Logo, o número total de figuras é 4 3, ou seja, #F. Logo, P(F) (b) Metade das cartas é de cor vermelha. Logo, P(V ) 6 5 (c) P(F V ) P(F) + P(V ) P(F V ) Exemplo.6 Escolha de um número Um número é escolhido aleatoriamente entre os primeiros inteiros, de a. probabilidade de que o número escolhido seja Qual é a

19 .3. ESPAÇOS AMOSTRAIS FINITOS E IGUALMENTE PROVÁVEIS 5 (a) par? (b) primo? (c) quadrado perfeito? Temos um espaço amostral finito com eventos elementares equiprováveis, pois estamos escolhendo o número aleatoriamente. (a) Vamos denotar por A o evento número par. Logo, (b) Seja R o evento número primo. Então (c) Se Q é o evento quadrado perfeito, então, A {, 4, 6, 8,,, 4, 6, 8, } P(A) R {, 3, 5, 7,, 3, 7, 9} P(R) 8 5 Q {, 4, 9, 6} P(Q) 4 5 Exemplo.7 Extração de uma bola em uma urna Uma urna contém 6 bolas amarelas, bolas brancas e 8 bolas verdes. Uma bola é escolhida, ao acaso, desta urna. Qual é a probabilidade de que essa bola (a) não seja verde? (b) seja branca? (c) não seja nem branca nem verde? Temos um total de bolas. Logo, #Ω 6 e todas as bolas são igualmente prováveis, pois o sorteio é aleatório. Vamos denotar por A,B e V os eventos bola amarela, branca e verde, respectivamente. (a) P(V c ) P(V ) (b) P(B) #B #Ω 6 8 (c) P(B c V c ) P ((B V ) c ) P(B V ) [P(B) + P(V )] P(A) Se a bola não é branca nem verde, ela tem que ser amarela! Exemplo.8 Lançamento de dois dados Considere o lançamento de dois dados. Calcule a probabilidade dos eventos A soma das faces superiores é um número par, B soma das faces superiores é um número maior que 9, C soma das faces superiores é um número ímpar menor que 9.

20 6 CAPÍTULO. PROBABILIDADE O espaço amostral desse experimento é e cada um dos 36 pares é igualmente provável. Ω{(i, j) i,..., 6 e j,..., 6} Uma visualização do espaço amostral desse experimento é dada na tabela a seguir, onde, para cada par possível de resultados, apresenta-se também a soma das faces: Dado (, ) (, ) 3 (, 3) 4 (, 4) 5 (, 5) 6 (, 6) 7 (, ) 3 (, ) 4 (, 3) 5 (, 4) 6 (, 5) 7 (, 6) 8 3 (3, ) 4 (3, ) 5 (3, 3) 6 (3, 4) 7 (3, 5) 8 (3, 6) 9 4 (4, ) 5 (4, ) 6 (4, 3) 7 (4, 4) 8 (4, 5) 9 (4, 6) 5 (5, ) 6 (5, ) 7 (5, 3) 8 (5, 4) 9 (5, 5) (5, 6) 6 (6, ) 7 (6, ) 8 (6, 3) 9 (6, 4) (6, 5) (6, 6) Podemos ver que : Ω A (, ), (, ), (, 3), (, 4), (, 5), (, 6), (, ), (, ), (, 3), (, 4), (, 5), (, 6), (3, ), (3, ), (3, 3), (3, 4), (3, 5), (3, 6), (4, ), (4, ), (4, 3), (4, 4), (4, 5), (4, 6), (5, ), (5, ), (5, 3), (5, 4), (5, 5), (5, 6), (6, ), (6, ), (6, 3), (6, 4), (6, 5), (6, 6) (, ), (, 3), (, 5), (, ), (, 4), (, 6), (3, ), (3, 3), (3, 5), (4, ), (4, 4), (4, 6), (5, ), (5, 3), (5, 5), (6, ), (6, 4), (6, 6) #Ω 36 #A 8 B {(4, 6), (5, 5), (5, 6), (6, 4), (6, 5), (6, 6)} #B 6 { } (, ), (, 4), (, 6), (, ), (, 3), (, 5), C #C (3, ), (3, 4), (4, ), (4, 3), (5, ), (6, ), Logo, P (A) 8 36 P (B) P (C) 36 3 Exemplo.9 Extrações sequenciais de duas bolas de uma urna Em uma urna, há 4 bolas brancas e 3 verdes. Duas bolas são retiradas dessa urna, sequencialmente e sem reposição. Qual é a probabilidade de obtermos (a) bolas brancas? (b) bolas verdes? (c) bolas de cores diferentes? Vamos indicar por B, B, B 3 e B 4 as quatro bolas brancas e por V, V e V 3 as três bolas verdes. O espaço amostral para este experimento é Ω {(C, C ); C, C B, B, B 3, B 4, V, V, V 3 ; C C }

21 .3. ESPAÇOS AMOSTRAIS FINITOS E IGUALMENTE PROVÁVEIS 7 A primeira bola pode ser qualquer uma, logo, há 7 bolas possíveis. Como a extração é sem reposição, para a segunda bola, só há 6 possibilidades. Assim, o número total de pares é 7 6 4, ou seja, #Ω 4. (a) Para os pares do evento A bolas brancas, a primeira bola pode ser qualquer uma das brancas, e a segunda, qualquer uma das brancas restantes. Logo, (b) Analogamente, se B bolas verdes, #A 4 3 P(A) 4 7 #B 3 P(B) (c) O evento C bolas de cores diferentes é o complementar do evento D bolas de cores iguais. Por sua vez, D A B, e assim, como A e B são mutuamente exclusivos, temos P(D) P(A) + P(B) P(C) P(D) Exemplo. Extrações simultâneas de duas bolas de uma urna Resolva o exemplo anterior, com a seguinte alteração: em vez de extrações sequenciais, as bolas são retiradas simultaneamente. Em ambos os casos, as extrações são sem reposição, ou seja, a mesma bola não pode sair duas vezes. O que muda, então? Nas extrações simultâneas, não podemos diferenciar a ordem das bolas: por exemplo, os pares V V e V V são os mesmos. Dessa forma, a cardinalidade do espaço amostral fica reduzida por, que é!, número de maneiras de organizar as bolas. Se fossem 3 bolas, ficaria reduzido por 3! 6. Para ajudar na compreensão dessa diferença, vamos listar os eventos cuja união fornece o espaço amostral. Evento Extrações sequenciais Evento Extrações simultâneas bolas B B, B B 3, B B 4, bolas B B, B B 3, B B 4, brancas B B, B B 3, B B 4, brancas B B 3, B B 4, B 3 B, B 3 B, B 3 B 4, B 3 B 4, B 4 B, B 4 B, B 4 B 3, bolas V V, V V 3, bolas V V, V V 3, verdes V V, V V 3, verdes V V 3, V 3 V, V 3 V, Branca B V, B V, B V 3, Uma B V, B V, B V 3, e verde B V, B V, B V 3, branca B V, B V, B V 3, B 3 V, B 3 V, B 3 V 3, e uma B 3 V, B 3 V, B 3 V 3, B 4 V, B 4 V, B 4 V 3, verde B 4 V, B 4 V, B 4 V 3 Verde V B, V B, V B 3, V B 4, e V B, V B, V B 3, V B 4, branca V 3 B, V 3 B, V 3 B 3, V 3 B 4 Note que as probabilidades são as mesmas em ambos os casos:

22 8 CAPÍTULO. PROBABILIDADE Extrações sequenciais P( verdes) P( brancas) P(cores diferentes) Extrações simultâneas Exemplo. Questões certas em uma prova Em uma prova, caíram dois problemas. Sabe-se que 3 alunos acertaram o primeiro, 86 erraram o segundo, acertaram os dois e 54 acertaram apenas um. Sorteando-se, ao acaso, um desses alunos, qual é a probabilidade de que (a) não tenha acertado qualquer um dos dois problemas? (b) tenha acertado apenas o segundo problema? Vamos denotar por A e A os eventos aluno acerta problema e aluno acerta problema, respectivamente. Os dados do problema nos dão que (veja Figura.3): #(A A ) a (acertar os ) #A 3 a + b (acertar o primeiro) #A c 86 b + d (errar o segundo) # [(A A c ) (Ac A )] 54 b + c (acertar apenas um) Figura.3 Solução do Exemplo. Usando o resultado do Exemplo.9, tem-se que: # [(A A c ) (Ac A )] #A + #A #(A A ) #A #A 6 Logo, o número total de alunos é #Ω #(A A c ) #A + #A c (a) P (A c Ac ) }{{} Morgan P [(A A ) c ] }{{} (Pr ) P (A A ) }{{} (Pr 6 ) [P(A ) + P(A ) P(A A )]

23 .3. ESPAÇOS AMOSTRAIS FINITOS E IGUALMENTE PROVÁVEIS 9 (b) Pela Propriedade (Pr 3 ), tem-se que: P (A A c ) P(A ) P(A A ) Exemplo. Sorteio de bolsas de estudo Quatro bolsas de estudo serão sorteadas entre 3 estudantes, dos quais são do sexo masculino e 8 são do sexo feminino. Qual é a probabilidade de que haja entre os sorteados: (a) uma pessoa do sexo masculino? (b) no máximo uma pessoa do sexo feminino? (c) pelo menos uma pessoa de cada sexo? O espaço amostral consiste em todas as quádruplas de alunos; sendo assim, ( ) 3 #Ω (a) Um homem sorteado significa também que 3 mulheres foram sorteadas. O número de maneiras de escolher homem é ( ) ( e o número de maneiras de escolher 3 mulheres é 8 ) 3. Pelo Princípio Fundamental )( da Multiplicação, o número de maneiras de escolher homem e 3 mulheres é 8 ) 3. Seja U o evento um homem é sorteado. Então ( P(U) ( )( ) (b) No máximo uma pessoa do sexo feminino significa nenhuma ou uma pessoa do sexo feminino e, portanto, 4 e 3 pessoas do sexo masculino, respectivamente. Seja X o evento no máximo uma pessoa do sexo feminino. Então P(X) ( ) ( 4 + )( 8 ) (c) Ter pelo menos uma pessoa de cada sexo significa que não podemos ter todas as pessoas do mesmo sexo. Seja C pelo menos uma pessoa de cada sexo. Então P(C) ( 4 ) ( ) Exemplo.3 Problema do Aniversário Em um grupo com r pessoas qual é a probabilidade de pelo menos duas fazerem aniversário no mesmo dia? Qual é o menor número de pessoas tal que a probabilidade de pelo menos duas fazerem aniversário no mesmo dia seja maior que,99? Para dar uma ideia intuitiva da solução, vamos considerar inicialmente um grupo de 5 pessoas, isto é, r 5. Nesse caso, o experimento pode ser definido como o sorteio de 5 datas de aniversário, entre

24 CAPÍTULO. PROBABILIDADE as 365 possíveis, se ignorarmos os anos bissextos. Então, o espaço amostral para esse experimento pode ser representado por: Ω {(,,,, ), (,,,, ),..., (,,,, ),..., (, 4, 3,, 5),..., (365, 365, 365, 365, 365)}. O elemento (,,,, ) representa a saída em que todos os aniversários sorteados foram /jan, o elemento (365, 365, 365, 365, 365) representa a saída em que todos os aniversários sorteados foram 3/dez e o elemento ((, 4, 3,, 5) representa a saída em que um aniversário foi o segundo dia do ano (/jan), o segundo aniversário foi o quarto dia do ano (4/jan), e assim por diante. Note que #Ω O evento para o qual queremos encontrar a probabilidade é E {pelo menos duas pessoas no grupo de 5 fazem aniverário no mesmo dia}. Veja que (,, 3, 4, 5) / E, mas (,,,, ) E e (,,, 53, ) E. Supondo que todos os dias do ano sejam equiprováveis, a probabilidade associada a cada elemento de Ω será /365 5, pois nesse caso o espaço amostral será equiprovável. Então, para saber P(E) basta saber quantos elementos há em E. Mais fácil do que contar o número de elementos de E será contar o número de elementos de E c e usar a Propriedade (Pr ) para encontrar P(E). Note que E c {nenhum par de pessoas faz aniverário no mesmo dia} ou, dito de outra forma E c {as 5 pessoas fazem aniversário em dias diferentes} Note que #E c e, portanto, P(E c ) , 979 P(E), 7. Para r qualquer, temos que P(E) (365 r + ) 365 r No quadro a seguir e na Figura.4 apresentamos valores dessa probabilidade para r,..., 6. Note que, em um grupo de 3 pessoas, a probabilidade de que pelo menos façam aniversário no mesmo dia já é maior que,5. Com 57 ou mais pessoas, essa probabilidade é maior que,99.

25 .4. PROBABILIDADE CONDICIONAL r P(E),7,8,64,7 r P(E),45,56,743,946,7 r P(E),4,67,944,3,59 r P(E),836,35,3469,379,44 r P(E),4437,4757,573,5383,5687 r P(E),598,669,6545,68,763 r P(E),735,7534,775,7953,844 r P(E),83,8487,864,878,89 r P(E),93,94,939,939,94 r P(E),9483,9548,966,9658,974 r P(E),9744,978,98,9839,9863 r P(E),9883,99,997,993,994 Figura.4 Problema do aniversário: P(E) em função de r.4 Probabilidade condicional Consideremos o lançamento de um dado equilibrado e o evento A sair face. Já vimos que o espaço amostral desse experimento é Ω {,, 3, 4, 5, 6} e, se não tivermos qualquer informação além de o dado ser equilibrado, P(A) 6. Suponhamos, agora, que o dado tenha sido lançado e a seguinte informação fornecida: saiu uma face par. Qual é a probabilidade de ter saído a face? Note a diferença: agora nós temos uma informação parcial sobre o experimento e devemos usála para reavaliar a probabilidade. Mais precisamente, sabemos que ocorreu o evento B face par. Com essa informação, podemos nos concentrar no evento B {, 4, 6}, uma vez que as faces, 3, 5 ficam descartadas em função da informação dada. Dentre essas três possibilidades, a probabilidade do evento A passa a ser 3. Calculamos, assim, a probabilidade do evento A, sabendo que ocorreu o evento B. Essa probabilidade será denotada P (A B) (lê-se probabilidade de A dado B). Na Figura.5 ilustra-se essa situação: se sabemos que aconteceu o evento B, esse evento passa a ser o novo espaço amostral e, nesse novo espaço amostral, a única parte de A presente é A B a parte sombreada mais clara.

26 CAPÍTULO. PROBABILIDADE Figura.5 Probabilidade condicional P(A B). Definição.3 Probabilidade condicional Sejam A e B eventos no espaço de probabilidade (Ω, F, P). Se P(B) >, define-se a probabilidade condicional do evento A, dada a ocorrência do evento B, por P(A B) Se P(B), então P(A B) P(A) por definição. P (A B) P (B) Observação: Alguns autores definem a probabilidade condicional P(A B) apenas quando P(B) >. É importante notar que a função P( B) satisfaz os axiomas de Kolmogorov, demonstrado na proposição a seguir. conforme Proposição.3 Probabilidade condicional como uma probabilidade Se B é um evento no espaço de probabilidade (Ω, F, P), então P( B) satisfaz os axiomas de Kolmogorov, isto é (AxC ) P(A B) ; (AxC ) P(Ω B) ; (AxC 3 ) Para toda sequência de eventos A, A,... F mutuamente exclusivos, isto é, tais que A i A j i j, ( ) P A i B P(A i B). i i Demonstração: (AxC ) Se P(B) >, P(A B), pois é a razão de um número não negativo e outro positivo. Se P(B), então P(A B) P(A) (AxC ) Se P(B) >, então P(Ω B) P(Ω B) P(B) Se P(B), então P(Ω B) P(Ω) P(B) P(B) (AxC 3 ) Se P(B) >,

27 .4. PROBABILIDADE CONDICIONAL 3 [( ) ] P A i B i [( ) ] P A i B i P(B) [ ] P (A i B) i P(B) P(A i B) i P(B) P(A i B) i Se P(B), então [( ) ] [( )] P A i B P A i i i P(A i ) i P(A i B) i Observe que a definição de probabilidade condicional está vinculada ao evento condicionante B. Se condicionarmos a outro evento C, estaremos definindo uma outra probabilidade a probabilidade condicional em C. Sendo a probabilidade condicional uma probabilidade, todas as propriedades vistas anteriormente na Proposição., que eram consequências dos axiomas, valem também para a probabilidade condicional, conforme demonstraremos a seguir. Para facilitar a utilização da Proposição., vamos chamar de C o evento condicionante. Proposição.4 Propriedades da probabilidade condicional Seja (Ω, F, P) um espaço de probabilidade. Sejam também A, B, C e A i, i,,..., eventos nesse espaço de probabilidade. Então valem as seguintes propriedades: (PrC ) P(A c C) P(A C); (PrC ) P( C) ; (PrC 3 ) P(B A c C) P(B C) P(B A C); (PrC 4 ) Se A B P(A C) P(B C); (PrC 5 ) P(A C) ; (PrC 6 ) P(A B C) P(A C) + P(B C) P(A B C); ( ) (PrC 7 ) P A i C P(A i C). i i Demonstração: Vamos supor que P(C) > ; a demonstração quando P(C) é imediata. (PrC ) P(A c C) P(Ac C) P(C) (PrC ) P( C) P( C) P(C) P(C) P(A C) P(C) P( ) P(C) P(C) P(A C) P(C) P(A C) (PrC 3 ) P(B C) P [(B A) (B A c ) C] }{{} (AxC 3 ) P(B A C) + P(B A c B) P(B A c C) P(B C) P(B A C)

28 4 CAPÍTULO. PROBABILIDADE (PrC 4 ) B (B A) (B A c ) }{{} A (B A c ). Logo, A B P(B C) P [A (B A c ) C] }{{} P(A C) + P(B A c C) }{{} (AxC 3 ) ;(AxC ) (PrC 5 ) A Ω }{{} P(A C) P(Ω C) }{{} (PrC 4 ) (AxC ) (PrC 6 ) P(B C) P(A C) P [(A B) C] P(A B C) P(C) P [(A C) (B C)] P(C) P(A C) + P(B C) P(A B C) P(C) P(A C) P(B C) P [(A B) C] + P(C) P(C) P(C) P(A C) + P(B C) P(A B C) (PrC 7 ) ( ) P A i C i [( ) ] P A i C i i P(C) P(A i C) P(C) [ ] P (A i C) i P(A i C) i P(C) }{{} (Pr 7 ) P(A i C) i P(C) Exemplo.4 Lançamento de dois dados revisitado Consideremos, novamente, o lançamento de dois dados equilibrados e os eventos A soma das faces é par e B soma das faces é maior ou igual a 9. Se sabemos que ocorreu B, qual é a probabilidade de ter ocorrido A? Queremos calcular P(A B). Temos que { } (, ), (, 3), (, 5), (, ), (, 4), (, 6), (3, ), (3, 3), (3, 5), A (4, ), (4, 4), (4, 6), (5, ), (5, 3), (5, 5), (6, ), (6, 4), (6, 6) B {(3, 6), (4, 5), (4, 6), (5, 4), (5, 5), (5, 6), (6, 3), (6, 4), (6, 5), (6, 6)} Se ocorreu B, a única chance de ter ocorrido A é que tenha ocorrido o evento e, nesse caso, a probabilidade é 4, ou seja, A B {(4, 6), (5, 5), (6, 4), (6, 6)} P(A B) P(A B) P(B)

29 .4. PROBABILIDADE CONDICIONAL 5 Exemplo.5 Gênero e esporte Um grupo de alunos foi classificado quanto ao sexo e à atividade de lazer preferida, obtendo-se a distribuição dada na tabela a seguir. Sexo Atividade de lazer Total Cinema Praia Esporte Masculino 3 35 Feminino Total 5 53 (a) Qual é a probabilidade de que uma pessoa, escolhida ao acaso nesse grupo, seja do sexo masculino? (b) Se a pessoa escolhida prefere a praia como atividade de lazer, qual é a probabilidade de ser um homem? Vamos definir os seguintes eventos: M pessoa sorteada é do sexo masculino ; F pessoa sorteada é do sexo feminino ; C pessoa sorteada prefere cinema ; R pessoa sorteada prefere praia ; E pessoa sorteada prefere esporte. (a) O problema pede P(M). Como há 35 homens dentre as pessoas, (b) O problema pede P(M R). Por definição, P(M) 35, 35 P(M R) P(M R) P(R) 53, Note que a probabilidade do evento aluno do sexo masculino se modifica quando sabemos que a pessoa prefere ir à praia como atividade de lazer. Exemplo.6 Aposentadoria De um total de 5 empregados de uma empresa, possuem plano pessoal de aposentadoria complementar, 4 contam com o plano de aposentadoria complementar oferecido pela empresa e empregados possuem ambos os planos. Sorteia-se, aleatoriamente, um empregado dessa empresa. (a) Qual é a probabilidade de que ele tenha algum plano de aposentadoria complementar? (b) Qual é a probabilidade de que ele não possua qualquer plano de aposentadoria complementar? (c) Se o empregado conta com o plano de aposentadoria complementar oferecido pela empresa, qual é a probabilidade de que ele tenha plano pessoal de aposentadoria complementar? (d) Se o empregado tem plano pessoal de aposentadoria complementar, qual é a probabilidade de que ele conte com o plano de aposentadoria complementar da empresa?

30 6 CAPÍTULO. PROBABILIDADE Vamos denotar por E o evento empregado tem o plano aposentadoria complementar da empresa e por S o evento empregado possui plano pessoal de aposentadoria complementar. O problema nos dá P(S) 5 P(E) P(S E) Note que essas informações podem ser dispostas em forma de tabela, como exibido a seguir: Plano pessoal Total Sim Não Plano da Sim 4 Empresa Não Total 3 5 Os números em negrito são as informações dadas no problema. O restante é calculado observando-se os totais de linha e de coluna. (a) P(S E) P(S) + P(E) P(S E) (b) P(S c E c ) P((S E) c ) P(S E) (c) P(S E) P(S E) P(E) (d) P(E S) P(S E) P(S) 5 5 Exemplo.7 Campanha publicitária A probabilidade de que uma nova campanha publicitária fique pronta antes do prazo estipulado pela diretoria foi estimada em,6. A probabilidade de que a diretoria aprove essa campanha é de,5. A probabilidade de que ambos os objetivos sejam atingidos é,3. (a) Qual é a probabilidade de que pelo menos um dos objetivos seja atingido? (b) Qual é a probabilidade de que nenhum objetivo seja atingido? (c) Se a campanha ficar pronta antes do prazo estipulado, qual é a probabilidade de ela ser aprovada pela diretoria? Vamos definir os eventos R campanha pronta antes do prazo e A diretoria aprova campanha. O problema fornece as seguintes informações: P(R), 6 P(A), 5 P(A R), 3 (a) P(A R) P(A) + P(R) P(A R), 6 +, 5, 3, 8 (b) P(A c R c ) P [(A R) c ] P(A R), (c) P(A R) P(A R) P(R), 3, 6, 5.

31 .5. REGRA DA MULTIPLICAÇÃO 7.5 Regra da multiplicação A definição de probabilidade condicional leva a um resultado importante, estabelecido na seguinte proposição. Proposição.5 Regra da multiplicação ( n ) Se A, A,..., A n são eventos no espaço de probabilidade (Ω, F, P) tais que P A i >, então a i regra da multiplicação é dada por P(A A A n ) P(A ) P(A A ) P(A 3 A A ) P(A n A A A n ) Demonstração: Note que todos os eventos condicionantes no lado direito da equação dada na Proposição.5 n têm probabilidade positiva, pois A i, que tem probabilidade positiva por hipótese, está contido em cada um deles. i Vamos demonstrar a proposição usando o método da indução. O resultado vale para n. De fato: como P(A ) >, resulta que P(A A ) P(A A ) P(A ) P(A A ) P(A ) P(A A ) Suponhamos verdadeiro para n k. Assim, nossa hipótese de indução é P(A A A k ) P(A ) P(A A ) P(A 3 A A ) P(A k A A A k ) Vamos provar que vale para n k + P(A A A k A k+ ) P [(A A A k ) A k+ ] }{{} k P(A A A k ) P(A k+ A A A k ) }{{} hip.ind. P(A ) P(A A ) P(A 3 A A ) P(A k A A A k ) P(A k+ A A A k ) Esse resultado nos permite calcular a probabilidade da interseção de vários eventos e é muito útil para modelar experimentos que têm caráter sequencial, isto é, que são executados em etapas, uma seguida da outra. Em tais situações, pode ser útil desenhar um diagrama de árvore para ilustrar os eventos em questão. Vamos ver alguns exemplos. Exemplo.8 Radar Se um avião está presente em determinada área, um radar detecta sua presença com probabilidade

32 8 CAPÍTULO. PROBABILIDADE,99. No entanto, se o avião não está presente, o radar detecta erradamente a presença de um avião com probabilidade,. A probabilidade de um avião estar presente nessa área é de,5. Qual é a probabilidade de um falso alarme? Qual é a probabilidade de o radar deixar de detectar a presença de um avião? (Note que esses são os dois erros possíveis nessa situação.) Vamos definir os seguintes eventos: A avião presente e D radar detecta presença de avião. Os eventos complementares são A c avião não está presente e D c radar não detecta avião. O enunciado nos fornece as seguintes informações: P (D A), 99 P (D A c ), P(A), 5 Pela Propriedade arefprop:prcomplcond, temos que P (D c A), P (D c A c ), 98 P(A c ), 95 O problema pede P(D A c ) (falso alarme) e P(D c A) Na Figura.6, este experimento é ilustrado através de um diagrama de árvore. Cada nó na árvore corresponde à ocorrência de um evento condicionada à ocorrência de todos os eventos representados pelos nós anteriores no caminho correspondente. Assim, o ramo superior da árvore corresponde à ocorrência do evento radar detecta avião, condicionada à ocorrência do evento avião presente. Já o ramo inferior corresponde à ocorrência do evento radar não detecta avião, condicionada à ocorrência do evento avião não está presente. Pela regra da multiplicação, temos: P(D A c ) P(A c ) P(D A c ), 95,, 9 P(D c A) P(A) P(D c A), 5,, 5 A probabilidade de um erro é a soma dessas probabilidades. Figura.6 Exemplo do radar Exemplo.9 Extração de duas cartas de um baralho Considere que duas cartas de um baralho (3 cartas de cada um dos naipes copas, paus, ouros, espadas) sejam extraídas, sem reposição, uma depois da outra. Qual é a probabilidade de (a) nenhuma das duas ser de copas? (b) pelo menos uma carta ser de copas?

33 .5. REGRA DA MULTIPLICAÇÃO 9 Para solucionar esse problema, devemos notar que as cartas no baralho são igualmente prováveis, antes e depois da primeira extração. Vamos definir os seguintes eventos: C copas na primeira extração C copas na segunda extração Na Figura.7, temos o diagrama de árvore que representa esse experimento. Figura.7 Extração de cartas de um baralho A parte superior da árvore corresponde à ocorrência de copas na primeira extração evento C e a parte inferior à não-ocorrência de copas na primeira extração evento C c. Na primeira extração, temos 3 cartas de copas e 39 que não são de copas. Logo, P(C ) 3 5 P(C c ) 39 5 Na segunda extração, dado que na primeira saiu copas, temos cartas de copas e 39 cartas que não são de copas em um baralho com 5. O evento representado pelo caminho superior da árvore é C C e sua probabilidade é P(C C ) P(C ) P(C C ) Continuando com a parte superior, vemos que P(C C c ) P(C ) P(C c C ) Note que, pela Propriedade ((PrC )), P(C C ) + P(C c C ). Na parte inferior, temos: P(C c C ) P(C c ) P(C C c ) P(C c C c ) P(C c ) P(C c C c ) Novamente, pela propriedade do complementar, P(C C c ) + P(C c C c ).

34 3 CAPÍTULO. PROBABILIDADE A partir desse diagrama de árvore podemos calcular qualquer probabilidade desejada. Por exemplo, o evento nenhuma carta de copas é o evento C c C c, e o evento pelo menos uma carta de copas, o complementar do evento nenhuma carta de copas. Exemplo.3 Extração de três cartas de um baralho Suponhamos, agora, a extração de três cartas sem reposição. Vamos calcular a probabilidade do evento N nenhuma carta de copas. Como antes, vamos definir os eventos C i carta de copas na i ésima extração, i,, 3. Veja a Figura.8, em que o diagrama de árvore ilustra o espaço amostral desse experimento. Figura.8 Extração de 3 cartas de um baralho Como antes, quando caminhamos ao longo de cada galho no diagrama de árvore, cada nó representa a ocorrência de um evento condicionada à ocorrência dos eventos anteriores. Por exemplo, vamos considerar o galho superior: o primeiro nó corresponde ao evento C ; o segundo, ao evento C, condicionado à ocorrência de C ; e o terceiro e último, ao evento C 3, condicionado à ocorrência de C C. Quando multiplicamos as probabilidades desses 3 eventos, obtemos a seguinte probabilidade da interseção: P(C C C 3 ) P(C ) P(C C ) P(C 3 C C ) Analogamente, a probabilidade de não sair qualquer carta de copas nas 3 extrações é P(N) P(C c C c C 3 c ) P(C c ) P(C c C c ) P(C 3 c C c C c )

35 Exemplo.3 Transporte público e bandejão Em uma pesquisa realizada com um grupo de alunos da UFF, constatou-se que % dos estudantes não utilizam transporte público para ir às aulas e que 65% dos estudantes que utilizam o transporte público fazem refeições no bandejão do campus. Selecionando-se, aleatoriamente, um estudante desse grupo, calcule a probabilidade de que ele use transporte público e faça refeições no bandejão. Vamos definir os seguintes eventos: T aluno utiliza transporte público e B aluno faz refeição no bandejão. O problema nos fornece O problema pede P(T c ), P(B T ), 65 P(T B) P(T ) P(B T ) [ P(T c )] P(B T ), 9, 65, 585 Exemplo.3 Extração de três bolas de uma urna Uma urna contém seis bolas verdes e cinco bolas amarelas. Extraem-se, sequencialmente, três bolas dessa urna, sem reposição. Qual é a probabilidade de que as três bolas sejam da mesma cor? Vamos definir os eventos V i bola verde na extração i e A i bola amarela na extração i, i,, 3. Seja M 3 bolas de mesma cor. Então, M {(V V V 3 ) (A A A 3 )} e P(M) P(V V V 3 ) + P(A A A 3 ) P(V ) P(V V ) P(V 3 V V ) + P(A ) P(A A ) P(A 3 A A ) Teorema da probabilidade total e teorema de Bayes Apresentaremos, agora, dois importantes teoremas da teoria das probabilidades e suas aplicações em diversas situações envolvendo tomada de decisão. Esses teoremas, conhecidos como Teorema da Probabilidade Total e Teorema de Bayes, resultam diretamente da definição de probabilidade condicional e das propriedades já vistas da probabilidade. Sua apresentação será feita, inicialmente, através de exemplos, para que o contexto de sua aplicação seja bem compreendido. Em seguida, será apresentada a formulação geral desses teoremas. Exemplo.33 Produção de duas máquinas Em uma linha de produção de certa fábrica, determinada peça é produzida em duas máquinas. A máquina, mais antiga, é responsável por 35% da produção, e os 65% restantes vêm da máquina. A partir dos dados passados e das informações do fabricante das máquinas, estima-se em 5% a proporção de peças defeituosas produzidas pela máquina e em,5% a proporção de peças defeituosas produzidas pela máquina. As peças produzidas pelas duas máquinas seguem para o departamento de armazenamento e embalagem para venda posterior, sem distinção de qual máquina a produziu.

36 3 CAPÍTULO. PROBABILIDADE (a) Qual é a proporção de peças defeituosas colocadas no mercado por essa fábrica? (b) Se um cliente identificar uma peça defeituosa, qual será a probabilidade de ela ter sido produzida pela máquina? (a) Na Figura.9, representa-se a situação em análise. Nosso experimento aleatório é o sorteio de uma peça produzida por essa fábrica, e nosso espaço amostral, representado pelo retângulo, é o conjunto de todas as peças produzidas em determinado período. Podemos ver que o espaço amostral está dividido em eventos mutuamente exclusivos: M, peças produzidas pela máquina, e M, peças produzidas pela máquina, isto é, Ω M M e M M. Outro evento de interesse é D peça é defeituosa. Podemos ver que esse evento tem interseção com os eventos M e M, ou seja, há peças defeituosas produzidas na máquina e na máquina. Figura.9 Espaço amostral para o Exemplo.33 Pelos dados do problema, temos uma estimativa a priori antes de qualquer observação das peças das proporções de peças produzidas em cada máquina, ou seja, as probabilidades a priori dos eventos M e M são: P(M ), 35 P(M ), 65 Sabemos, também, a proporção de peças defeituosas produzidas por cada máquina. Essa proporção se traduz em uma probabilidade condicional: se a peça foi produzida pela máquina, existe 5% de chance de ser defeituosa. Para a máquina, essa chance reduz-se a,5%. Em termos de probabilidade, temos P(D M ), 5 P(D M ), 5 Sabemos que M M Ω; então, podemos escrever D (D M ) (D M ) Como M e M são mutuamente exclusivos, (D M ) (parte sombreada mais escura) e (D M ) (parte sombreada mais clara) também o são. Assim, pelo Axioma (Ax 3 ), resulta que P(D) P [(D M ) (D M )] Usando, agora, a regra da multiplicação, obtemos P(D M ) + P(D M ) P(D) P(M ) P(D M ) + P(M ) P(D M ), 35, 5 +, 65, 5, 3375

37 .6. TEOREMA DA PROBABILIDADE TOTAL E TEOREMA DE BAYES 33 Observe que a probabilidade de uma peça ser defeituosa é uma média ponderada das probabilidades de defeito em cada máquina. Os pesos são definidos de acordo com o nível de produção (probabilidade) de cada máquina. (b) Na segunda parte do exemplo, temos uma informação sobre a peça: ela é defeituosa, isto é, sabemos que ocorreu o evento D. O que o problema pede é que, com essa informação, reavaliemos a probabilidade de a peça ter sido produzida pela máquina. Essa probabilidade é chamada de probabilidade a posteriori, ou seja, é a probabilidade que calculamos com base em informação parcial obtida depois de realizado o experimento de sorteio e teste da peça. Em notação matemática, temos que calcular P(M D). Por definição, temos P(M D) P(M D) P(D) Usando a regra da multiplicação e o resultado encontrado no item anterior, resulta P(M ) P(D M ) P(M D) P(M ) P(D M ) + P(M ) P(D M ), 35, 5, 35, 5 +, 65, 5, 75, 585, 3375 Compare os resultados: Sem qualquer informação sobre o resultado do experimento, nossa estimativa para a probabilidade de ocorrência de M peça produzida pela máquina era,35. Com a informação de que a peça é defeituosa, a probabilidade de ter sido produzida pela máquina aumenta para,585. Exemplo.34 Produção de três máquinas Considere novamente a situação do Exemplo.33, mas com a seguinte modificação: as peças são produzidas em três máquinas, que são responsáveis por 3%, 35% e 35% da produção, respectivamente. As proporções de peças defeituosas produzidas por tais máquinas são 5%,,5% e %. (a) Qual é a proporção de peças defeituosas produzidas na fábrica? (b) Se um cliente identificar uma peça defeituosa, qual será a probabilidade de ela ter sido produzida na máquina? E na máquina? E na máquina 3? (a) O espaço amostral desse experimento está ilustrado no diagrama de árvore da Figura.. Como já visto, cada galho da árvore corresponde ao condicionamento do evento aos eventos dos galhos anteriores.

38 34 CAPÍTULO. PROBABILIDADE Os dados do problema dão que P(M ), 3 P(D M ), 5 P(M ) P(M 3 ), 35 P(D M ), 5 P(D M 3 ), Figura. Espaço amostral Exemplo.34 M M M 3 Ω; logo, D (D M ) (D M ) (D M 3 ) M, M e M 3 são mutuamente exclusivos; logo, (D M ), (D M ) e (D M 3 ) também o são. Pelo Axioma (Ax 3 ) da probabilidade, resulta Usando a regra da multiplicação, obtemos P(D) P [(D M ) (D M ) (D M 3 )] P(D M ) + P(D M ) + P(D M 3 ) P(D) P(M ) P(D M ) + P(M ) P(D M ) + P(M 3 ) P(D M 3 ), 3, 5 +, 35, 5 +, 35,, 375 Como antes, a probabilidade de uma peça ser defeituosa é uma média ponderada das probabilidades de defeito em cada máquina, com os pesos definidos de acordo com o nível de produção de cada máquina. (b) Na segunda parte do exemplo, deseja-se saber P(M D), P(M D) e P(M 3 D). Por definição, temos P(M D) P(M D) P(D) Usando a regra da multiplicação e o resultado encontrado no item anterior, temos P(M ) P(D M ) P(M D) P(M ) P(D M ) + P(M ) P(D M ) + P(M 3 ) P(D M 3 ), 3, 5, 3, 5 +, 35, 5 +, 35,, 5, 48785, 375 P(M ) P(D M ) P(M D) P(M ) P(D M ) + P(M ) P(D M ) + P(M 3 ) P(D M 3 ), 35, 5, 3, 5 +, 35, 5 +, 35,, 875, 84553, 375

39 .6. TEOREMA DA PROBABILIDADE TOTAL E TEOREMA DE BAYES 35 P(M 3 ) P(D M 3 ) P(M 3 D) P(M ) P(D M ) + P(M ) P(D M ) + P(M 3 ) P(D M 3 ), 35,, 3, 5 +, 35, 5 +, 35,, 7, 764, 375 Note que, , , 764,. Esse resultado é imediato a partir do fato de que P(Ω). Se a peça sorteada é defeituosa, ela só pode ter vindo de umas das três máquinas. Exemplo.35 Teste clínico Sabe-se que um teste clínico para detecção de determinada doença, quando aplicado em um paciente, é 9% eficaz quando a pessoa tem a doença e 95% eficaz quando a pessoa não tem a doença. Um paciente é retirado aleatoriamente de uma população em que a taxa de incidência da doença é de em. pessoas. (a) Qual é a probabilidade de o teste dar o resultado correto? (b) Se o teste indica que o paciente tem a doença, qual é a probabilidade de que o paciente realmente tenha a doença? (a) Vamos definir os seguintes eventos (veja a Figura.): D paciente tem a doença e T teste indica presença da doença. Note que você deve definir os eventos de acordo com a execução do experimento. Ao se aplicar um teste clínico, a resposta será doença presente ou doença ausente e não teste certo ou teste errado. Errar ou acertar dependerá de o paciente ter ou não a doença. Os dados do problema dão que P(T D), 9 P(T c D c ), 95 P(D), Pela Propriedade prop:prcomplcond resulta P(T c D), P(T D c ), 5 P(D c ), 9999 Figura. Espaço amostral Exemplo.35 O espaço amostral pode ser decomposto como Ω D D c, eventos para os quais temos as probabilidades a priori.

40 36 CAPÍTULO. PROBABILIDADE Seja o evento C teste fornece resultado correto. Note que o teste pode fornecer um diagnóstico correto, o paciente tendo ou não a doença, ou seja: C (D T ) (D c T c ) Logo, P(C) P(D T ) + P(D c T c ) P(D) P(T D) + P(D c ) P(T c D c ),, 9 +, 9999, 95, (b) Queremos calcular P(D T ). Por definição, temos: P(D T ) P(D T ) P(T ) O teste pode dar positivo, tendo o paciente a doença (acerto do diagnóstico), ou não (falso positivo); logo, P(T ) P(T D) + P(T D c ) P(D) P(T D) + P(D c ) P(T D c ),, 9 +, 9999, 5, 585 P(D T ) P(D) P(T D),, 9, 9 Logo, P(D T ), 9, 797, 585 Note a alteração da probabilidade de, P(D) para,797 com a informação de um resultado positivo do teste. Exemplo.36 Três moedas Uma caixa contém três moedas. A moeda é honesta, a moeda tem duas caras e a moeda 3 é viciada de tal modo que cara é duas vezes mais provável que coroa. Uma moeda é escolhida ao acaso e lançada. (a) Qual é a probabilidade de observarmos cara e moeda? (b) Qual é a probabilidade de observarmos cara? (c) Se o resultado foi cara, qual é a probabilidade de que a moeda lançada tenha sido a moeda? Vamos definir os seguintes eventos: (ver Figura.) M i moeda i é sorteada i,, 3 K face superior da moeda lançada é cara C face superior da moeda lançada é coroa

41 .6. TEOREMA DA PROBABILIDADE TOTAL E TEOREMA DE BAYES 37 P(K M ) P(K M ) P(K M 3 ) P(C M 3 ) P(K M 3 ) 3 Escolha aleatória da moeda: P(M ) P(M ) P(M 3 ) 3 Figura. Espaço amostral Exemplo.36 (a) Aqui a solução é consequência direta da regra de multiplicação: P(K M ) P(M ) P(K M ) 3 6 (b) M M M 3 Ω. Logo, (c) O problema pede P(K ) P(K M ) + P(K M ) + P(K M 3 ) P(M ) P(K M ) + P(M ) P(K M ) + P(M 3 ) P(K M 3 ) ( ) P(M K ) P(K M ) P(K ) P(M ) P(K M ) P(K ) Exemplo.37 Decisão gerencial Um gerente de banco tem que decidir se concede ou não empréstimo aos clientes que o solicitam. Ele analisa diversos dados para estudar a possibilidade de o cliente vir a ficar inadimplente. Com base em dados passados, ele estima em 5% a taxa de inadimplência. Dentre os inadimplentes, ele tem 8% de chance de tomar a decisão certa, enquanto essa chance aumenta para 9% entre os clientes adimplentes. Esse gerente acaba de recusar um empréstimo. Qual é a probabilidade de ele ter tomado a decisão correta? Os fatos envolvidos nesse processo decisório são: cliente é inadimplente ou não e gerente concede ou não o empréstimo. Vamos definir os seguintes eventos (ver Figura.3): I cliente é inadimplente C gerente concede empréstimo I c cliente é adimplente C c gerente não concede empréstimo Note que temos duas possibilidades de acerto e duas possibilidades de erro. Os acertos são cliente é inadimplente e gerente não concede o empréstimo e cliente é adimplente e gerente

42 38 CAPÍTULO. PROBABILIDADE concede o empréstimo. Os erros são: cliente é inadimplente e gerente concede o empréstimo e cliente é adimplente e gerente não concede o empréstimo. O espaço amostral é formado pelos clientes do banco, de modo que Ω I I c. As probabilidades dadas são P(I), 5 P(C c I), 8 P(C I c ), 9 Pelas propriedades do complementar P(I), 5 P(C c I), 8 P(C I c ), 9 Figura.3 Espaço amostral Exemplo.37 Com relação ao que o problema pede, temos que, dado que o gerente recusou o empréstimo, a decisão só será correta se o cliente for inadimplente. Logo, temos que calcular P(I C c ) P(I C c ) P(C c ) Mas o gerente pode recusar o empréstimo sendo o cliente inadimplente ou não, ou seja, P(C c ) P(C c I) + P(C c I c ) P(I) P(C c I) + P(I c ) P(C c I c ), 5, 8 +, 85,, 5 e P(I C c ) P(I C c ) P(C c ) P(I) P(C c I), 5, 8 P(I) P(C c I) + P(I c ) P(C c I c, 5854 ), 5 Em todos os exemplos acima, tínhamos uma coleção de eventos mutuamente exclusivos cuja união era o espaço amostral (máquinas, pacientes doentes e saudáveis, moedas, clientes de banco adimplentes e inadimplentes) e suas respectivas probabilidades, chamadas de probabilidades a priori. Isso nos leva à seguinte definição. Definição.4 Partição do espaço amostral Sejam A, A,..., A n eventos em um espaço de probabilidade (Ω, F, P). Dizemos que A, A,..., A n formam uma partição de Ω se A i A j i j n A i Ω i

43 .6. TEOREMA DA PROBABILIDADE TOTAL E TEOREMA DE BAYES 39 Em cada exemplo havia também um outro evento de interesse (peças defeituosas, resultado do teste clínico, face cara, concessão de empréstimo), cujas probabilidades condicionadas à ocorrência de cada evento da coleção eram conhecidas. Para cada exemplo foram calculadas basicamente duas probabilidades: (i) a probabilidade de ocorrência do evento de interesse (probabilidade de peça defeituosa, probabilidade de teste positivo, probabilidade de cara, probabilidade de concessão de empréstimo), uma probabilidade não condicional e (ii) a probabilidade de cada evento da coleção dada a ocorrência do evento de interesse, chamada probabilidade a posteriori. A fórmula de cálculo dessas duas probabilidades resulta de dois teoremas que serão apresentados a seguir. Teorema. Teorema da probabilidade total Seja A, A,..., A n uma partição de um espaço Ω tal que P(A i ) > i. Então, para qualquer evento B nesse espaço de probabilidade n P(B) P(A i ) P(B A i ) (.3) Demonstração: Consulte a Figura.4, onde se ilustra o espaço amostral. i Figura.4 Partição do espaço amostral Como a união de todos os A i s é o espaço amostral, segue que n B (A i B) (A B) (A B) (A n B). i O fato de alguns desses termos serem o conjunto vazio (por exemplo, B A ) não invalida o resultado, uma vez que A A. Por definição de partição, os A i s são mutuamente exclusivos dois a dois; logo, os eventos A i B também o são. Então, pelo Axioma ((Ax 3 )) resulta que ( n ) P(B) P (A i B) P [(A B) (A B) (A n B)] i n P(A i B) P (A B) + P (A B) + + P (A n B) i e a regra da multiplicação fornece P(B) P(A ) P(B A ) + P(A ) P(B A ) + + P(A n ) P(B A n ) n P(A i ) P(B A i ) Como visto, a probabilidade P(A i ) é denominada probabilidade a priori do evento A i. Continuando no contexto da Figura.4, suponhamos, agora, que B tenha ocorrido. A probabilidade a posteriori do evento A i P(A i B) é dada pelo teorema a seguir. i

44 4 CAPÍTULO. PROBABILIDADE Teorema. Teorema de Bayes Seja A, A,..., A n uma partição de um espaço Ω tal que P(A i ) > i. Então, para qualquer evento B nesse espaço de probabilidade com P(B) >, Demonstração: Por definição, temos P(A j B) P(A j) P(B A j ) n P(A i ) P(B A i ) i P ( A j B ) P ( A j B ) P(B) Usando a regra da multiplicação e o Teorema da Probabilidade Total, resulta que P(A j B) P(A j) P(B A j ) n P(A i ) P(B A i ) i É importante que, na resolução de exercícios e também na aplicação prática desses teoremas, você identifique os eventos de interesse, os que definem a partição do espaço amostral e quais são as probabilidades a priori. Em geral, são essas probabilidades que identificam a partição de Ω. Vamos considerar mais um exemplo para ilustrar esses pontos. Exemplo.38 Alunos e carros Em uma turma de Administração, 65% dos alunos são do sexo masculino. Sabe-se que 3% dos alunos têm carro, enquanto essa proporção entre as alunas se reduz para 8%. Sorteia-se ao acaso um estudante dessa turma usando o seu número de matrícula e constata-se que ele possui um carro. Qual é a probabilidade de que o estudante sorteado seja do sexo feminino? Os eventos em questão envolvem o sexo do aluno e a posse de um carro. Vamos defini-los da seguinte forma: H homem C possui carro M mulher C c não possui carro Note que H e M definem uma partição do espaço amostral, assim como C e C c. No entanto, as probabilidades a priori dadas referem-se a H e M (o fato de ter, ou não, carro, não altera o sexo do aluno). Assim, a partição de Ω será definida em termos desses eventos. Os dados do problema fornecem que P(H), 65 P(M), 35 P(C H), 3 P(C c H), 7 P(C M), 8 P(C c M), 8 O problema pede P(M C), e para calcular essa probabilidade, temos de calcular P(C). Pelo teorema da probabilidade total, sabemos que P(C) P(C M) + P(C H) P(M) P(C M) + P(H) P(C H), 35, 8 +, 65, 3, 58

45 .7. INDEPENDÊNCIA DE EVENTOS 4 Logo, P(M C) P(C M) P(M) P(C M) P(C) P(C), 35, 8, 6, 58.7 Independência de eventos Considere novamente um baralho usual, com 5 cartas, 3 de cada naipe, do qual será retirada uma carta. Vamos definir os seguintes eventos: Já vimos que P(C) ; P(R) C carta é de copas R carta é um rei V carta é vermelha e P(V ) 6 5. Vamos, agora, calcular as seguintes probabilidades condicionais: P(R C) e P(V C). No primeiro caso, estamos calculando a probabilidade de sair um rei, dado que a carta é de copas. No segundo caso, estamos calculando a probabilidade de sair uma carta vermelha, dado que saiu uma carta de copas. P(R C) P(R C) P(C) P(R) P(V C) P(V C) P(C) P(C) P(C) P(V ) No primeiro caso, saber que a carta é de copas não acrescentou informação útil para avaliarmos a probabilidade de sair rei, ou seja, saber ou não que saiu copas não altera a probabilidade de sair rei. Já no segundo caso, saber que saiu carta de copas faz com que mudemos a probabilidade de sair carta vermelha. Como podemos ver, se sabemos que saiu carta de copas, então a carta tem que ser vermelha. Esses exemplos ilustram um conceito importante. No primeiro caso, dizemos que os eventos R e C são independentes e, no segundo caso, que os eventos V e C são dependentes. No primeiro caso, o conhecimento da ocorrência de C não traz qualquer informação para reavaliarmos a probabilidade de R. Já no segundo caso, o conhecimento da ocorrência de C faz com que mudemos nossa estimativa da probabilidade de V. Definição.5 Independência de dois eventos Sejam A e B eventos de um espaço de probabilidade (Ω, F, P), com P(A) > e P(B) >. Então, A e B são independentes se P(A B) P(A) P(B A) P(B)

46 4 CAPÍTULO. PROBABILIDADE Essa definição tem algumas implicações importantes. Consideremos, inicialmente, que A e B sejam independentes, com P(B) >. Então, pela definição, temos P(A B) P(A) P(A B) P(B) P(A) P(A B) P(A) P(B) Reciprocamente, se P(A B) P(A) P(B), então P(A B) P(A B) P(B) P(A) P(B) P(B) P(A) ou seja, A e B são independentes. Provamos, então, que A e B são independentes se, e somente se, P(A B) P(A) P(B). Esse resultado nos permite estabelecer uma outra definição equivalente para a independência de dois eventos. Definição.6 Independência de dois eventos Sejam A e B eventos espaço de probabilidade (Ω, F, P). Então, A e B são independentes se P(A B) P(A) P(B) A Definição.6, embora menos intuitiva, tem várias vantagens, a saber: ela é simétrica, o que não ocorre com a Definição.5; vale mesmo que P(B), pois, como A B B, resulta que P(A B) P(A) P(B); e, o que é mais importante, permite generalização da definição para mais de dois eventos, conforme veremos mais adiante. É comum haver alguma confusão entre os conceitos de eventos independentes e eventos mutuamente exclusivos. Para analisar a relação entre essas definições, vamos considerar dois eventos A e B, com P(A) > e P(B) >, que é a situação mais usual. Se A e B são mutuamente exclusivos, então A B P(A B) P(A) P(B) > ou seja, A e B não são independentes. Reciprocamente, se A e B são independentes, então P(A B) P(A) P(B) > A B ou seja, A e B não são mutuamente exclusivos. Então, para eventos com probabilidade positiva, existe uma nítida separação entre os dois tipos de eventos: se eles são mutuamente exclusivos, eles não podem ser independentes. Reciprocamente, se eles são independentes, eles não podem ser mutuamente exclusivos.

47 .7. INDEPENDÊNCIA DE EVENTOS 43 Se um de dois eventos A e B tem probabilidade nula, então eles sempre são independentes, conforme visto acima. No entanto, eles podem, ou não, ser mutuamente exclusivos. O fato de P(A B) não significa que A B, conforme veremos através de exemplos posteriormente. O importante é entender que eventos mutuamente exclusivos não podem ocorrer simultaneamente e para eventos independentes, cada um não interfere na ocorrência do outro. Proposição.6 Independência e complementariedade Sejam A e B eventos independentes do espaço de probabilidade (Ω, F, P). Então (a) A c e B são independentes; (b) A c e B c são independentes; Demonstração: (a) P(A c B) P(B) P(A B) P(B) P(A) P(B) P(B)[ P(A)] P(B) P(A c ) Por simetria, resulta que A e B c também são independentes. (b) P(A c B c ) P [(A B) c ] P(A B) P(A) P(B) + P(A B) P(A) P(B) + P(A) P(B) [ P(A)] P(B)[ P(A)] P(A c ) P(B) P(A c ) P(A c )[ P(B)] P(A c ) P(B c ) Exemplo.39 Aposentadoria, continuação No Exemplo.6, analisamos os dados reapresentados na tabela a seguir, referentes à participação de funcionários de uma empresa em planos de aposentadoria complementar: Plano pessoal Total Sim Não Plano da Sim 4 Empresa Não Total 3 5 Verifique se os eventos E empregado tem o plano de aposentadoria complementar da empresa e S empregado possui plano pessoal de aposentadoria complementar são independentes. Temos P(S) 5 P(E) 4 5 P(S E) 5 P(S) P(E) Logo, os eventos S e E não são independentes. Outra forma de ver isso é P(E S) P(E) 4 5

48 44 CAPÍTULO. PROBABILIDADE Como dito anteriormente, a Definição.6 permite estender o conceito de independência para mais de dois eventos. Definição.7 Independência de n eventos Os eventos A, A,, A n de um espaço de probabilidade (Ω, F, P) são independentes se para toda e qualquer coleção de índices i < i < < i k n e k n P(A i A i A ik ) P(A i ) P(A i ) P(A ik ) (.4) Note que essa definição requer que se examine a probabilidade da interseção de todas as duplas, triplas, quádruplas,..., n uplas de eventos, totalizando ( ) n + ( ) n ( ) n n ( + n) n interseções a serem consideradas. Note que n + se refere ao conjunto vazio e a todas as coleções com apenas um evento. A título de ilustração, para n 4, temos 4 4 interseções, que são as seguintes: A A A A 3 A A 4 A A 3 A A 4 A 3 A 4 A A A 3 A A A 4 A A 3 A 4 A A 3 A 4 A A A 3 A 4 Exemplo.4 Lançamento de dois dados Considere o lançamento de dois dados e os seguintes eventos: A : face par no primeiro dado; A : face par no segundo dado; A 3 : soma par das duas faces. Estude a independência dos três eventos. A seguir apresentamos um esquema dos três eventos, onde as células em cinza representam os elementos de cada evento. Podemos ver que P(A ) P(A ) P(A 3 ) P(A A ) P(A ) P(A ) P(A A 3 ) P(A ) P(A 3 ) P(A A 3 ) P(A ) P(A 3 ) P(A A A 3 ) P(A ) P(A ) P(A 3 ) 8 Vemos, assim, que saber que uma face é par nada nos diz sobre a probabilidade de sair face par no outro dado ou sobre a soma das duas faces, ou seja, os eventos são independentes dois a dois. No entanto, saber que os dois dados exibem face par nos garante que a soma também é par, ou seja, os três eventos não são independentes. Este exemplo ilustra o fato de que independência aos pares não garante independência.

49 .8. CONJUNTOS LIMITE E CONTINUIDADE DA PROBABILIDADE 45 D a d 3 o Dado D a d 3 o Dado D a d 3 o Dado Evento A Evento A Evento A 3.8 Conjuntos limite e continuidade da probabilidade Vimos que as definições de σ-álgebra e de probabilidade envolvem, ambas, sequências infinitas de eventos. Então, da mesma forma que no estudo de sequências numéricas, iremos analisar, nesta seção, a convergência de tais sequências e também de suas probabilidades. Começamos apresentando as definições de limite superior e limite inferior de uma sequência de eventos, que são análogas às definições de limites superior e inferior de sequências numéricas. Vale lembrar que, se {a n } n N é uma sequência de números reais, os limites superior e inferior de tal sequência são definidos por lim sup a n inf n lim inf n a n sup sup a n N N n N inf a n N N n N Note que as sequências c n {sup a n } n N e d n {inf a n } n N são, respectivamente, não-crescente e não-decrescente, pois envolvem famílias cada vez menores de números reais. Definição.8 Conjuntos limite Seja A, A, uma sequência de eventos em um espaço de probabilidade (Ω, F, P). Definimos o limite superior da sequência {A n } como lim sup A n n n kn Definimos o limite inferior da sequência {A n } como lim inf n A n n kn A k A k Note os seguintes fatos sobre tais definições. Como cada A n pertence à σ-álgebra F, sabemos que cada B n A k e cada C n kn kn A k

50 46 CAPÍTULO. PROBABILIDADE também pertencem a F; consequentemente, lim sup A n e lim inf A n são eventos em F. n n B n e Consideremos, inicialmente, o limite superior de {A n }. Temos que n C n também pertencem a F, ou seja, lim sup A n (A A A 3 ) (A A 3 A 4 ) (A 3 A 4 A 5 ) n Seja ω lim sup A n. Então n ω (A A A 3 ) k tal que ω A k ω (A A 3 A 4 ) k tal que ω A k ω (A 3 A 4 A 5 ) k 3 tal que ω A k e assim sucessivamente. Então, n, existe k n tal que ω A k. Concluímos, então, que n ω lim sup A n ω pertence a um número infinito dos A n n Dito de outra forma, lim sup A n é o evento A n ocorre para uma infinidade de n s. n Consideremos, agora, o limite inferior de {A n }. Então, lim inf n A n (A A A 3 ) (A A 3 A 4 ) (A 3 A 4 A 5 ) ω lim inf n A n n tal que ω (A n A n+ A n+ ) n tal que ω A k k n ou seja, ω lim inf n A n ω A n para todo n suficientemente grande Dito de outra forma, lim inf n A n é o evento A n ocorre para todo n suficientemente grande. Das duas últimas observações acima, podemos concluir que lim inf A n lim sup A n (.5) n pois, se ω A n para todo n suficientemente grande, ω pertence a um número infinito de A n s. n Sabemos, da teoria de conjuntos, que se A B e B A, então A B. Então, se lim sup A n lim inf A n, teremos lim inf A n lim sup A n e isso nos leva à seguinte definição. n n n n Definição.9 Limite de uma sequência de eventos Seja A, A,... uma sequência de eventos em um espaço de probabilidade (Ω, F, P). lim sup A n lim inf A n, dizemos que lim A n existe e n n n Se lim A n lim inf A n lim sup n n n A n

51 .8. CONJUNTOS LIMITE E CONTINUIDADE DA PROBABILIDADE 47 Exemplo.4 Vamos analisar a convergência das sequências {A n } e {B n } definidas no Exemplo.8: A n a primeira cara ocorre, ou no n o lançamento, ou depois do n o lançamento B n a primeira cara ocorre, ou no n o lançamento, ou antes do n o lançamento Vimos que A A A 3 A 4 ; logo, A k A n kn e, portanto, como visto no Exemplo.8. Temos também que e, portanto, lim sup A n n n kn A k A k kn lim inf n A n n kn A n n A k Concluímos, então, que lim n A n. Como B B B 3 B 4, resulta que B k B n kn e, portanto, como visto no Exemplo.8. Temos também que e, portanto, lim inf n B n n kn B k B k Ω kn lim sup B n n n kn B n Ω n B k Ω Concluímos, então, que lim n B n Ω. Vamos estudar, agora, uma classe especial de sequências, as sequências monótonas.

52 48 CAPÍTULO. PROBABILIDADE Definição. Sequências monótonas de eventos Seja A, A,... uma sequência de eventos em um espaço de probabilidade (Ω, F, P). Dizemos que {A n } é uma sequência monótona não-decrescente se A n A n+ para todo n. Notação: A n. Dizemos que{a n } é uma sequência monótona não-crescente se A n A n+ para todo n. Notação: A n. As sequências {A n } e {B n } definidas no Exemplo.8 são não-crescente e não decrescente, respectivamente. Analisemos, agora, a convergência de tais sequências. Proposição.7 Limites de sequências monótonas (i) Se {A n } é uma sequência monótona não-decrescente, então lim n A n existe e Notação: A n A lim A n A n n A n (ii) Se {A n } é uma sequência monótona não-crescente, então lim n A n existe e Notação: A n A lim A n A n n A n Demonstração: (i) Por hipótese, temos que A A. Logo (veja Figura.5a), kn Mas, lembre-se que (A B) A; logo, Resulta que A k A n lim inf n A n lim sup A n n lim sup A n lim inf n n kn n A n lim sup A k n n kn k A k n A n A k lim inf n A n A n lim inf n A n lim n A n (ii) Por hipótese, temos que A A. Logo (veja Figura.5b), kn A k A n lim sup A n n n kn A k n A n n A n

53 .8. CONJUNTOS LIMITE E CONTINUIDADE DA PROBABILIDADE 49 Mas, lembre-se que (A B) A; logo, Resulta que lim inf n A n lim sup A n lim inf n n kn A k n A n lim sup n k A k lim sup A n n A n lim inf n A n lim n A n n A n (a) A A (b) A A Figura.5 Sequências monótonas de eventos Sendo {A n } uma sequência convergente de eventos, é natural que se pergunte: o que acontece com a sequência das probabilidades? Esse é o assunto abordado na próxima proposição. Proposição.8 Continuidade por baixo e por cima da probabilidade (i) Se {A n } é uma sequência tal que A n A, então P(A n ) P(A) (continuidade por baixo), isto é, P(A n ) P(A n+ n N lim P(A n) P(A) n (ii) Se A n é uma sequência tal que A n A, então P(A n ) P(A) (continuidade por cima), isto é, Demonstração: P(A n ) P(A n+) n N lim P(A n) P(A) n (i) Se A n A, então A n A n+ n N e pela Proposição.7, lim A n A A n. Pela n n Propriedade (Pr 4 )), resulta que P(A ) P(A ), ou seja, {P(A n )} n é uma sequência real monótona e limitada ( P(A i ) ). Logo, lim P(A n). n

54 5 CAPÍTULO. PROBABILIDADE Podemos escrever A Mas Logo, A n A n como união de eventos mutuamente exclusivos da seguinte forma: A n A (A A c ) (A 3 A c Ac ) (A k Ak c Ac ) n P(A) P(A ) + P(A A c ) + P(A 3 A c Ac ) + + P(A k A c k Ac ) + A k A c k Ac A k (A c k Ac ) }{{} Morgan A k (A A k ) c P(A) P(A ) + P(A A c ) + P(A 3 A c ) + + P(A k A c k ) + }{{} A n A k A c k ou seja, P(A) é a soma de uma série que é, então, convergente, já que P(A). A n ésima soma parcial da série que define P(A) é S n P(A ) + P(A A c ) + P(A 3 A c ) + + P(A n A c n ) + P(A n A c n ) P(A ) + [P(A ) P(A A )] + [P(A 3 ) P(A A 3 )] + + [P(A n ) P(A n A n )] + [P(A n ) P(A n A n )] }{{} P(A ) + [P(A ) P(A )] + [P(A 3 ) P(A )] + + [P(A n ) P(A n )] + [P(A n ) P(A n )] A n P(A n ) Por definição de convergência de uma série, resulta que o que completa a prova. P(A) lim n S n lim n P(A n) (ii) Se A n A, então A n A n+ n N e pela Proposição.7, lim A n A A n. n n Mas A n A n+ An c An+ c e novamente pela Proposição.7 ( Pelo item anterior, temos que lim n Ac n n A c n }{{} Morgan n A n ) c A c lim n P(Ac n) P(A c ) lim [ P(A n)] P(A) lim P(A n) P(A) n n o que completa prova. Uma série a n é convergente se n n ésima soma parcial de tal série. n a n S < e, nesse caso, S lim n S n, em que S n a + a + + a n é a

55 Capítulo Variáveis Aleatórias Neste capítulo será introduzido o conceito de variável aleatória, que permite a modelagem probabilística de fenômenos da vida real. Associada a cada variável aleatória está sua função de distribuição, que será também definida.. Variáveis aleatórias Considere o experimento aleatório definido pelo sorteio de uma amostra de funcionários de uma empresa que tem 5 funcionários. O espaço amostral deste experimento é formado por todas as amostras possíveis com funcionários da empresa. Como a ordem em que os funcionários são sorteados não importa e não deve haver repetição de funcionários em um sorteio, o número total de tais amostras é ( ) 5. Cada elemento desse espaço amostral é formado pela relação dos funcionários sorteados. Em situações como essa, em geral, o interesse não está nos funcionários em si, mas, sim, em alguma característica destes funcionários, por exemplo, sua altura, se tem curso superior ou não, número de dependentes etc. Dessa forma, poderíamos calcular, para cada amostra, a altura média dos funcionários, o número médio de dependentes, a proporção de funcionários com curso superior etc. Então, a cada amostra possível, ou seja, a cada ponto do espaço amostral associamos um número. Essa é a ideia de variável aleatória. Definição. Variável aleatória Seja (Ω, F, P) um espaço de probabilidade. Uma variável aleatória X é qualquer função X : Ω R tal que X (I) {ω Ω : X(ω) I} F para todo intervalo I R, ou seja, X é tal que a imagem inversa de qualquer I R é um evento na σ álgebra F. Sendo assim, uma variável aleatória é uma função real (isto é, que assume valores em R) definida no espaço amostral Ω de um experimento aleatório, ou seja, é uma função que associa a cada elemento de Ω um número real. A convenção usual para representar uma variável aleatória consiste em usar letras maiúsculas como X, Y etc. Um valor específico, mas genérico, desta variável será representado pela letra 5

56 5 CAPÍTULO. VARIÁVEIS ALEATÓRIAS minúscula correspondente: x, y etc. expressão variável aleatória por v.a.. Por questões de simplicidade, muitas vezes abreviaremos a A imagem de uma variável aleatóriax, que representaremos por Im(X), é de interesse primordial no estudo do comportamento probabilístico de X, pois é o conjunto de valores que X pode assumir. Veja os exemplos a seguir. Exemplo. Considere o experimento que consiste em lançar três vezes uma moeda e observar a sequência dos resultados obtidos. Seja X a variável aleatória definida pelo número de caras nos três lançamentos. (a) Defina o es paço amostral Ω deste experimento. (b) Determine X(ω) para cada ω Ω. (c) Determine Im(X). Para definir o espaço amostral, vamos representar por K a ocorrência de cara em um lançamento e por C, a ocorrência de coroa. (a) Ω {K K K, K KC, KCK, KCC, CK K, CKC, CCK, CCC}. (b) X(K K K ) 3, X(K KC), X(KCK ), X(KCC), X(CK K ), X(CKC), X(CCK ), X(CCC). (c) Im(X) {,,, 3}. Exemplo. Jogo de dardo Considere o experimento que consiste em lançar um dardo em um alvo formado por quatro círculos concêntricos de raios,, 3 e 4, como o da figura ao lado. Para esse experimento, defina duas variáveis aleatórias X e Y : X é a distância entre o dardo e o centro do alvo e Y, a pontuação ganha no lançamento do dardo, indicada também na figura. Defina um espaço amostral do experimento e determine Im(X) e Im(Y ) Vamos supor que, se o dardo for lançado fora do alvo, o experimento é repetido. Nesse caso, podemos representar cada saída do experimento pelo ponto no plano que representa o local em que o dardo foi lançado dentro do alvo. Assim o espaço amostral será: Ω { (i, j) i + j 4 }. Lembre-se que i + j é a distância do ponto (i, j) à origem, isto é, ao centro do alvo. Como a v.a. X é definida justamente pela distância entre o dardo e o centro alvo podemos concluir que, (i, j) Ω, X(i, j) i + j. Além disso, a menor distância possível é e a maior é 4, logo X(i, j) 4 e Im(X) [, 4]. Já a v.a. Y, que é definida pelos pontos ganhos, só pode assumir os valores 4, 3, ou, de acordo com a pontuação indicada na figura. Então Im(Y ) {,, 3, 4}.

57 .. VARIÁVEIS ALEATÓRIAS 53 Exemplo.3 Considere o experimento de observar, diariamente, o número de recém-nascidos do sexo masculino e do sexo feminino em uma certa maternidade. Para esse experimento, considere o evento A nasceram mais homens que mulheres em um dia. (a) Defina um espaço amostral para o experimento. (b) Defina o evento A a partir dos elementos de Ω. (c) Verifique que a função I A, definida a seguir, é uma variável aleatória. (d) Determine Im(I A ). I A (ω) {, se ω A, se ω / A (a) Vamos representar cada elemento de Ω por um par ordenado (x, y) em que x indica o número de nascimentos de bebês do sexo feminino e y o número de nascimentos de bebês do sexo masculino. Como tanto x quanto y indicam uma contagem, ambos têm que ser números naturais. Logo, Ω {(x, y) N }. (b) O evento A é definido pelo subconjunto de Ω tal que cada elemento representa mais nascimentos de meninos do que de meninas. Por exemplo, {(, ), (, 4), (, 3)} A e {(5, ), (, ), (, )} A. Podemos então definir A {(x, y) N x < y}. Na figura a seguir, representamos o espaço amostral, bem como o evento A, que é formado pelos pontos acima da reta y x, e seu complementar A c, que é representado pelos pontos sobre e abaixo da reta y x. (c) Para verificar que I A é variável aleatória, é preciso verificar que a imagem inversa de qualquer intervalo I R pertence à σ-álgebra do conjunto das partes F Ω. Seja I R um intervalo qualquer. Se I e I, então IA (I) Ω F. Se / I e / I, então I A (I) F. Se / I e I, então IA (I) A F. Se I e / I, então I A (I) Ac F. Logo, I A é variável aleatória. (d) Im(I A ) {, }. A função I A definida no Exemplo.3 é chamada de função indicadora do conjunto A. Sempre que A for um evento da σ-álgebra, I A será variável aleatória. Nesse caso, I A indica a ocorrência, ou não, do evento A. Veja a definição formal a seguir.

58 54 CAPÍTULO. VARIÁVEIS ALEATÓRIAS Definição. Variável aleatória indicadora Seja A um evento qualquer no espaço de probabilidade (Ω, F, P). A função I A definida por {, se ω A I A (ω), se ω / A é uma variável aleatória, chamada de variável aleatória indicadora (ou v.a. binária). dummy, ou v.a.. Função de distribuição Seja X uma variável aleatória definida no espaço de probabilidade (Ω, F, P). Veja que, pela própria definição de variável aleatória, qualquer que seja o intervalo I R E {ω Ω X(ω) I} é um evento e, assim, P(E) está bem definida, ou seja, podemos calcular P(E). Por abuso de notação, costuma-se escrever essa probabilidade da seguinte maneira, P(E) P({ω Ω X(ω) I}) P(X I), que é a probabilidade de X assumir valores no intervalo I. Em particular, podemos escolher o intervalo I (, x], qualquer que seja x R. Nesse caso, P(E) P(ω Ω X(ω) (, x]) P(X x). Se conhecermos P(X x) para todo x R, poderemos calcular a probabilidade de qualquer evento e isso torna a definição a seguir bastante importante. Definição.3 Função de distribuição Dada uma variável aleatória X, a função de distribuição de X, ou função de distribuição acumulada, é definida por F X (x) P (X x) x R. É interessante notar que a função F X está definida para todo número real x, independente dos valores que a variável aleatória X possa assumir. Além disso, vale notar, também, que F X : R [, ]. Outras propriedades da função de distribuição são dadas a seguir. Proposição. Propriedades da Função de Distribuição Seja F X a função de distribuição de alguma variável aleatória X. Então F X satisfaz as seguintes propriedades. F. lim F X (x) e lim F X (x). x x F. F X é função não decrescente, isto é, se a < b F X (a) F X (b). F 3. F X é função contínua à direita, isto é, F X (b + ) lim h F X (b + h) F X (b).

59 .. FUNÇÃO DE DISTRIBUIÇÃO 55 Demonstração: As propriedades da função de distribuição são decorrentes dos axiomas e das propriedades da probabilidade, conforme Definição. e Proposição.. F. lim F X (x) lim P(X x) P(X < ) P(Ω). x x lim F X (x) lim P(X x) P(X < ) P( ). x x F. Se a < b, então o evento {X a} {X b} e, portanto, P({X a}) P({X b}), ou seja, F X (a) F X (b). F 3. F X ( b + ) lim h F X (b + h) lim h P (X b + h) lim P ({X < b} {b X b + h}) lim [P(X < b) + P(b X b + h)] h h P(X < b) + lim P(b X b + h) P(X < b) + P(X b) P(X b) F X (b) h Conhecendo a função de distribuição de uma variável aleatória, é possível calcular a probabilidade de que essa variável aleatória pertença a qualquer intervalo da reta. Veja no Exemplo.4 alguns exemplos em que os cálculos de probabilidades são convertidos para cálculos com a função de distribuição. Exemplo.4 Cálculo de probabilidades a partir da função de distribuição Sejam X uma v.a. e F X a sua função de distribuição. Sejam a e b números reais tais que a < b. Reescreva as probabilidades a seguir em termos de F X. (a) P(X a) (b) P(X > a) (c) P(a < X b) (d) P(X a) (e) P(X < a) (f) P(X a) (g) P(a < X < b) (h) P(a X b) A ideia é transformar o evento para o qual queremos calcular a probabilidade em um evento do tipo {X c}, pois nesse caso sabemos que P(X c) F X (c). Para isso vamos usar as propriedades da probabilidade (Proposição.). (a) P(X a) F X (a). (b) P(X > a) P(X a) F X (a). (c) (d) P(a < X b) P({X b} {X > a}) P({X b} {X a} c ) P(X b) P({X b} {X a}) P(X b) P(X a) F X (b) F X (a). P(X a) P({X a} {X a}) P({X a} {X < a} c ) P({X a}) P({X a} {X < a}) P(X a) P(X < a) F X (a) lim h + P(X a h) F X (a) F X (a )

60 56 CAPÍTULO. VARIÁVEIS ALEATÓRIAS (e) P(X < a) P({X a} {X a} c ) P(X a) P({X a} {X a}) (f) P(X a) P(X < a) F X (a ) P(X a) P(X a) F X (a) P(X a) F X (a ) (g) P(a < X < b) P(X < b) P(X a) F X (b ) F X (a). (h) P(a X b) P(X b) P(X < a) F X (b) F X (a ) O Exemplo.4 acima nos mostra que, conhecendo a função de distribuição de uma variável aleatória, podemos calcular qualquer probabilidade envolvendo essa variável. Ou seja, o comportamento de uma variável aleatória fica perfeitamente determinado pela sua função de distribuição. Exemplo.5 Considere o experimento que consiste em lançar uma moeda e observar a face superior. Para esse experimento, seja X a v.a. indicadora da ocorrência da face cara, isto é, {, se sair cara; X, se sair coroa. Encontre a função de distribuição de X e esboce seu gráfico. Queremos encontrar F X (x) P(X x) x R. Note que Im(X) {, }, Assim, vamos analisar F X (x) para valores de x separadamente nos conjuntos (, ), {}, (, ), {} e (, ). Primeiro, veja que, se x (, ), x então X não pode assumir valores menores que x, pois todos os elementos de Im(X) estão à direita de x na reta acima. Então F X (x) sempre que x <. E se x? F X () P(X ) P({X < } {X }) P(X < ) + P(X ) + P(X ) P(sair coroa) /. Vejamos, agora, a situação em que x (, ). x A única possibilidade de X assumir valores menores que x é quando X, conforme ilustrado acima. Então F X (x) P(X x) P(X ) / sempre que < x <. Se x, F X () P(X ) P({X } {X }) P(sair cara ou coroa) P(Ω). Para terminar, considere x >, isto é, x (, ).

61 .. FUNÇÃO DE DISTRIBUIÇÃO 57 x Nesse caso F X (x) P(X x) P({X } {X }) P(sair cara ou coroa) P(Ω). Concluindo, apresentamos, a seguir, a função F X e seu gráfico, que é uma função escada, com dois pontos de descontinuidade, x e x, correspondentes à Im(X). Nesses pontos, F X é contínua à direita, mas descontínua à esquerda e a altura do degrau (veja as linhas pontilhadas) é F X (x) F X (x ) que, conforme visto no Exemplo.4, é P(X x). Sendo assim, a altura dos dois degraus nos dá P(X ) F X () F X ( ), 5, 5 e P(X ) F X () F X ( ), 5, 5., se x < ; F X (x) /, se x < ;, se x Exemplo.6 Considere o experimento e a v.a. descritos no Exemplo.. Encontre e esboce o gráfico da função de distribuição de X, definida como o número de caras observadas em 3 lançamentos de uma moeda honesta. Já vimos que Im(X) {,,, 3}. Vamos, primeiro, determinar F X (x) para x (, ). x 3 Como no exemplo anterior, se x <, a v.a. X não pode assumir valores menores ou iguais a x, e, portanto, F X (x) P(X x). Já se x, temos F X () P(X ) P(X < ) + P(X ) P(X ) P({K K K }) /8. Vejamos, agora, o caso em que x (, ). x 3 Temos que F X (x) P(X x) P(X ) + P( < X < x) P(X ) + F X () P({K K K }) /8. Já se x, temos F X () P(X ) P(X < ) + P(X ) P(X ) + P(X ) /8 + P({K KC, KCK, CK K }) 4/8 /. Suponha, agora, x (, ). x 3 Uma função escada é aquela que pode ser escrita como combinação linear finita de funções indicadoras de intervalos, ou mais informalmente, é uma função constante por partes com número finito de partes.

62 58 CAPÍTULO. VARIÁVEIS ALEATÓRIAS Então, F X (x) P(X x) P(X ) + P( < X < x) 4/8 + /. Já se x temos F X () P(X ) P(X < ) + P(X ) 4/8 + P({K KC, KCK, CK K }) 7/8. De maneira análoga, se x (, 3), x 3 F X (x) P(X x) P(X ) + P( < X < 3) 7/8 + 7/8. Já se x 3, F X (3) P(X 3) P(X < 3) + P(X 3) 7/8 + P({K K K }) P(Ω). Para terminar, se x (3, ) 3 x F X (x) P(X x) P(X 3) + P(3 < X < x) + P(Ω). Concluindo, apresentamos a função F X e seu gráfico. Novamente, temos uma função escada, com pontos de descontinuidade em x Im(X) e o tamanho dos degraus corresponde à probabilidade de cada um desses pontos: P(X ) 8 8 P(X ) P(X ) P(X 3) F X (x), se x < ; /8, se x < ; /, se x < ; 7/8, se x < 3;, se x 3. 7/8 / /8 3 4 Exemplo.7 Considere o experimento de sortear, de forma aleatória, um ponto no intervalo (, ) e defina X como sendo o ponto sorteado. Encontre a função de distribuição de X. Veja que Im(X) (, ). Então, se x, P(X x), pois não é possível sortear números menores que. Para x (, ) qualquer, P(X x) x e se x, P(X x), pois todos os números possíveis de serem sorteados são menores ou iguais a.

63 .. FUNÇÃO DE DISTRIBUIÇÃO 59 x Assim, a função de distribuição F X é definida por:, se x ; F X (x) x, se < x < ;, se x. Note que F X é contínua x R e, portanto, P(X x) F X (x) F X (x ). Exemplo.8 Seja X a v.a. que representa o tempo de vida (em dias) de um dispositivo elétrico. Suponha que {, x < ; F X (x) e x/, x. (a) Esboce o gráfico da função F X e verifique as propriedades da função de distribuição para F X (Proposição.). (b) Calcule a probabilidade de o dispositivo durar mais de 3 dias. (c) Calcule a probabilidade de o dispositivo durar dias. (d) Calcule a probabilidade de o dispositivo durar entre e 3 dias. (e) Suponha que o dispositivo esteja em funcionamento há dias. Qual a probabilidade de seu tempo de vida ultrapassar os 3 dias? (a) O gráfico de F X é apresentado na Figura.. As propriedades seguem diretamente das propriedades da função exponencial, que podem ser vistas no gráfico: os limites de F x quando x e x + são e, respectivamente; F X é contínua e não decrescente. (b) O dispositivo durar mais de 3 dias equivale a X > 3. P(X > 3) P(X 3) F X (3) ( e 3/) e 3/, 3 (c) P(X ) F X () F X ( ) }{{} F X () F X () F X contínua (d) O dispositivo durar entre e 3 dias equivale a X 3. P( X 3) P(X 3) P(X < ) P(X 3) [P(X ) P(X )] F X (3) [F X () ] F X (3) F X () e 3/ + e / e / e 3/, 665, 3, 3834

64 6 CAPÍTULO. VARIÁVEIS ALEATÓRIAS Figura. F X para o Exemplo.8 (e) Se o dispositivo já está funcionando há dias, isso significa que temos que ter X >. Como o problema pede a probabilidade de funcionar mais de 3 sabendo que já está funcionando há dias, temos que calcular uma probabilidade condicional, ou seja, P(X > 3 X > ) P({X > 3} {X > }) P(X > ) F X (3) F X () e 3/ e / e, 3679 P(X > 3) P(X 3) P(X > ) P(X ) Exemplo.9 Seja X uma v.a. cuja função de distribuição é definida por: F X (x), x < ; /5, x < ; /5, x < ; 4/5, x < 4;, x 4. (a) Esboce o gráfico da função F X. (b) Verifique que são válidas as propriedades da função de distribuição dadas na Proposição.. (c) Calcule: P(X > ), P(X ), P(X ), P(X < ), P( < X < 4) e P(X > X ).. Veja a Figura... Da Figura. podemos ver que F X satisfaz as propriedades de uma função de distribuição. 3. P(X > ) P(X ) F X () /5 4/5. P(X ) F X () F X ( ) /5 /5, pois não há descontinuidade no gráfico de F X em x. P(X ) F X () F X ( ) 4/5 /5 /5, que é o tamanho do degrau no gráfico de F X em x. P(X < ) P(X ) P(X ) F X () P(X ) 4/5 /5 /5.

65 .3. CLASSIFICAÇÃO DE VARIÁVEIS ALEATÓRIAS 6 Figura. F X para o Exemplo.9 P( < X < 4) P(X < 4) P(X ) P(X 4) P(X 4) P(X ) F X (4) (F X (4) F X (4 )) F X () ( 4/5) /5 4/5 /5 3/5 P(X > X ) P({X > } {X }) P(X ) P(X ) P(X ) P(X ) P( < X ) P(X ) F X () F X () F X () 4/5 /5 (4/5) 3/4.3 Classificação de variáveis aleatórias As variáveis aleatórias podem ser classificadas como discreta, contínua, singular ou mista. Neste curso, por se tratar de um curso introdutório da Teoria das Probabilidades, estudaremos apenas as variáveis discretas e contínuas. Definição.4 Variável aleatória discreta Uma variável aleatória X é classificada como discreta se a sua imagem é um conjunto finito ou enumerável. Nos Exemplos. e.3 as variáveis X e I A são discretas. Em ambos os casos, a imagem delas é finita. Também no Exemplo. (problema do dardo) a variável Y, definida pela pontuação ganha, é uma variável aleatória discreta com imagem finita, mas a variável X, definida pela distância entre o dardo e o centro, não é variável aleatória discreta. Para ilustrar o caso de uma variável aleatória discreta com imagem infinita e enumerável, considere o experimento de lançar um dado até sair a face 6. Se X é a variável definida pelo número de lançamentos desse dado, então Im(X) {,, 3,...}, um conjunto infinito, porém enumerável. Logo, a variável aleatória X é discreta. A função de distribuição de uma variável aleatória discreta sempre será uma função escada e isso caracteriza claramente uma variável aleatória discreta. Os pontos de descontinuidade dessa Um conjunto A é enumerável se existe uma função bijetora entre A e o conjunto N dos números naturais.

66 6 CAPÍTULO. VARIÁVEIS ALEATÓRIAS função escada correspondem aos pontos da imagem da variável aleatória e a altura do degrau em x Im(X) é exatamente P(X x). Reveja o Exemplo.6 e verifique essas características no gráfico de F X. Exemplo. Nota média de dois alunos Um curso tem cinco alunos com coeficiente de rendimento (CR) superior a 8,5. Os CRs desses alunos são: 8,8; 9,; 8,9; 9,5; 9,. Dentre esses cinco alunos, dois serão sorteados para receber uma bolsa de estudos. (a) Designando por A, B, C, D, E os alunos, defina um espaço amostral para o experimento definido pelo sorteio dos dois alunos que receberão a bolsa de estudos. Seja X CR médio dos alunos sorteados. (b) Defina Im(X). (c) Classifique X como variável aleatória discreta ou não. Justifique sua resposta. (d) Liste o evento {X 9, }, isto é, apresente os elementos de Ω que pertencem a esse evento. (e) Apresente a função de distribuição de X. (f) Calcule P(X 9). (a) Note que não importa a ordem em que os alunos são sorteados; logo, #(Ω) ( 5 ). Mais especificamente, Ω { (A, B), (A, C), (A, D), (A, E), (B, C), (B, D), (B, E), (C, D), (C, E), (D, E) } (b) Na tabela a seguir, temos os valores de X para cada ω Ω. ω X(ω) ω X(ω) 8,8+9, (A, B) 9, (B, D) 9,35 (A, C) 8,85 (B, E) 9, (A, D) 9,5 (C, D) 9, (A, E) 8,9 (C, E) 8,95 (B, C) 9,5 (D, E) 9,5 Logo, Im(X) {8, 85, 8, 9, 8, 95, 9,, 9, 5, 9,, 9, 5, 9,, 9, 5, 9, 35}. (c) Como Im(X) é um conjunto finito, em particular tem elementos, podemos dizer que X é variável aleatória discreta. (d) Como todos os pontos do espaço amostral são equiprováveis (o sorteio é aleatório), podemos afirmar que P(ω) / para qualquer ω Ω. Usando as propriedades da função de distribuição de variáveis aleatórias discretas (já sabemos que é uma função escada) podemos concluir que:

67 .3. CLASSIFICAÇÃO DE VARIÁVEIS ALEATÓRIAS 63 F X (x), se x < 8, 85; /, se 8, 85 x < 8, 9; /, se 8, 9 x < 8, 95; 3/, se 8, 95 x < 9, ; 4/, se 9, x < 9, 5; 5/, se 9, 5 x < 9, ; 6/, se 9, x < 9, 5; 7/, se 9, 5 x < 9, ; 8/, se 9, x < 9, 5; 9/, se 9, 5 x < 9, 35;, se x 9, (e) Podemos calcular P(X 9) pela função de distribuição (veja o Exemplo.4) ou pela listagem dos elementos do evento {X 9}. Pela função de distribuição, Pela listagem do evento {X 9}, P(X 9) P(X < 9) F X (9 ) 3 7 P(X 9) P [(A, B), (A, D), (B, C), (B, D), (B, E), (C, D), (D, E)] 7 7 Vamos, agora, apresentar a definição de variável aleatória contínua a partir de características da sua função de distribuição. No entanto, a definição mais usual será apresentada no Capítulo 5. Definição.5 Variável aleatória contínua Uma variável aleatória X é classificada como contínua quando a sua função de distribuição é uma função absolutamente contínua. É importante notar que os termos função absolutamente contínua e função contínua não têm o mesmo significado ou definição. Toda função absolutamente continua é continua, mas a recíproca não é verdadeira. Para facilitar o entendimento de variáveis aleatórias contínuas no contexto de um primeiro curso de Probabilidade, usaremos o resultado apresentado na Proposição. para verificar se uma função é absolutamente contínua. Proposição. Se F é uma função (i) contínua em R; (ii) diferenciável em R, exceto em um conjunto finito de pontos, então F é absolutamente contínua. Demonstração: A demostração desta proposição será omitida.

68 64 CAPÍTULO. VARIÁVEIS ALEATÓRIAS Então, combinando os resultados da Definição.5 e da Proposição., podemos afirmar que, se a função de distribuição F X de uma variável aleatória X satisfaz as condições (i) e (ii) da Proposição., então X é variável aleatória contínua. Mas se F X não satisfazer as condições (i) e (ii), não podemos afirmar que X não é contínua, ou seja, existe variável aleatória contínua cuja função de distribuição F não satisfaz a condição (ii). Mas esses casos não serão tratados nesse curso. Nos Exemplos.7 e.8 as variáveis aleatórias definidas são contínuas. Veja que em ambos os exemplos a função de distribuição F X é contínua. Além disso F X só não é diferenciável em um conjunto finito de pontos: no Exemplo.7 F X só não é diferenciável em dois pontos, x e x, e no Exemplo.8 a função F x só não é diferenciável no ponto x. Exemplo. Cálculo de probabilidades de v.a. contínuas a partir da função de distribuição Vimos, no Exemplo.4, como calcular probabilidades de qualquer variável aleatória a partir da sua função de distribuição. Vamos explicitar, agora, esses cálculos para uma variável aleatória contínua. O importante a notar é que, se X é variável aleatória continua, então sua função de distribuição é uma função absolutamente contínua e, portanto, contínua. Isso significa que F X (a ) F X (a), qualquer que seja a R. Sendo assim, a principal mudança nos resultados vistos é: P(X a) F X (a) F X (a ) e isso nos leva às seguintes equivalências (admita que a < b): P(X < a) P(X a) F X (a) P(X a) P(X > a) F X (a) P(a < X < b) P(a < X b) P(a X < b) P(a X b) F X (b) F X (a) Já vimos que o comportamento de uma variável aleatória fica perfeitamente determinado pela sua função de distribuição. Além de calcular probabilidades envolvendo a variável aleatória em questão, podemos, também, através do conhecimento da função de distribuição, encontrar a imagem da variável aleatória. No caso de X ser uma variável aleatória discreta, a imagem de X é formada pelos pontos de descontinuidade de F X. Se X é variável aleatória contínua, a sua imagem é formada pelos pontos do domínio de F X onde esta função é estritamente crescente, ou seja, não constante. Exemplo. Dada a função F(x), x < /, x < k, x < 3 3/4, 3 x < 4, x 4 em que k é uma constante, determine os possíveis valores de k para que F seja a função de distribuição de uma variável aleatória discreta X. Em seguida, determine a imagem de X. Como a função de distribuição de qualquer v.a. X tem que ser uma função não decrescente, concluímos que k tem que ser maior ou igual a. Pela mesma razão, k tem que ser menor ou igual a 3 4. Dessa forma, os possíveis valores de k pertencem ao intervalo [, 3 4]. Os valores possíveis da v.a. X correspondem aos pontos de descontinuidade da função F(x). Logo, se k (, 3 4), então Im(X) {,, 3, 4}. Se k, Im(X) {, 3, 4} e se k 3 4, Im(X) {,, 4}

69 .3. CLASSIFICAÇÃO DE VARIÁVEIS ALEATÓRIAS 65 Exemplo.3 Dada a função, x < x F(x) /, x < kx, x <, x em que k é uma constante, determine os possíveis valores de k para que F seja a função de distribuição de uma variável aleatória contínua X. Em seguida, determine a imagem de X. Para que F seja função de distribuição de uma variável aleatória contínua é necessário que F seja absolutamente continua; em particular, F tem que ser contínua. Para que isso ocorra o valor de k tem que ser tal que lim F(x) lim F(x) e lim F(x) lim F(x). Isto é, / k e k, ou seja, x x + x x + k /. A imagem de X é Im(X) [, ], intervalo em que F X é estritamente crescente. Para terminar esse capítulo, vejamos um exemplo de uma variável aleatória que não é nem discreta nem contínua. Exemplo.4 Seja X variável aleatória com função de distribuição definida por:, x < F X (x) x, x < /, x / (a) Faça o gráfico de F X. (b) Verifique que F X é função de distribuição. (c) Calcule P(X > /3), P(X /4) e P(X /). (d) Verifique que X não é variável aleatória discreta. (e) Verifique que X não é variável aleatória contínua. (a) Segue o gráfico de F X. /.5 (b) Para verificar o que se pede precisamos verificar as propriedades da Proposição.. Primeiro veja, pelo gráfico, que lim F X (x) e lim F X (x). x x

70 66 CAPÍTULO. VARIÁVEIS ALEATÓRIAS Podemos ver que F X é função crescente no intervalo (, /) e constante no restante da reta. Então F X é função não decrescente. O único ponto de descontinuidade de F X é o (/, /). Precisamos, então, mostrar que nesse ponto F X é contínua à direita. Seja {x i } uma sequencia tal que x i / e x i /, isto é, {x i } é uma sequência que converge para / pela direita, então F X (x i ) i. Logo a sequência {F X (x i )} é constante e igual a e por isso F X (x i ) F X (/). Assim mostramos que F X é contínua a direita em /. (c) P(X > /3) F X (/3) /3 /3. P(X /4) F X (/4) F X (/4 ). Não existe salto no gráfico de F X em x /4. P(X /) F X (/) F X (/ ) /. O tamanho do salto no gráfico de F X em x / é /. (d) Podemos ver F X não é constante apenas no intervalo [, /). Logo, Im(X) [, /). Como esse não é um conjunto enumerável, X não é variável aleatória discreta. (e) Podemos ver, pelo gráfico, que F X não é contínua e, portanto, não é absolutamente contínua. Logo, X também não é variável aleatória contínua.

71 Capítulo 3 Variáveis Aleatórias Discretas Nesse capítulo, vamos estudar em mais detalhes as variáveis aleatórias discretas. 3. Função de probabilidade Já vimos, no Capítulo, que uma variável aleatória é chamada de discreta quando a sua imagem é um conjunto finito ou enumerável. Nesse caso, a função de distribuição é uma função escada e o tamanho do degrau localizado em X x é exatamente P(X x). Além disso, o comportamento de uma variável aleatória qualquer, discreta ou não, é perfeitamente determinado pela sua função de distribuição. No caso das variáveis aleatórias discretas, temos outra opção para determinar o comportamento da variável aleatória, a função de probabilidade. Definição 3. Função de Probabilidade Seja X uma variável aleatória discreta. A função de probabilidade de X é a função p X definida por: p X (x) P (X x) x R Para encontrar a função de probabilidade de uma variável aleatória discreta, temos, primeiro, que encontrar a sua imagem e, em seguida, calcular a probabilidade de ocorrer cada elemento da imagem. Todos os valores reais que não pertencem à imagem têm probabilidade nula de ocorrer; logo, para esses valores a função de probabilidade também é nula. Sendo assim, na apresentação da função de probabilidade de uma variável aleatória discreta X, iremos nos concentrar apenas em p X (x) para x Im(X). Exemplo 3. Máximo entre dois dados Considere o lançamento de dois dados equilibrados. (a) Apresente um espaço amostral para este experimento, isto é, apresente Ω. Suponha que nosso interesse esteja no máximo das faces dos dois dados. variável aleatória X máximo das faces. Neste caso, defina a (b) Encontre X(ω) para todo ω Ω. 67

72 68 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS (c) Defina Im(X). (d) Verifique que X é v.a. discreta. (e) Encontre a função de probabilidade de X e esboce seu gráfico. (f) Encontre a função de distribuição de X e esboce o seu gráfico. (a) Ω {(i, j) i, j,, 3, 4, 5, 6} {(, ), (, ),..., (, 6), (, ), (, ),..., (, 6),..., (6, 6)}. (b) A Tabela 3. abaixo apresenta X(ω) para todo ω Ω. Tabela 3. Variável aleatória X máximo das faces de dados Pontos do espaço amostral (ω) Valor de X(ω) (,) (,)(,),(,) (,3),(,3),(3,3),(3,),(3,) 3 (,4),(,4),(3,4),(4,4),(4,3),(4,),(4,) 4 (,5),(,5),(3,5),(4,5),(5,5),(5,4),(5,3),(5,),(5,) 5 (,6),(,6),(3,6),(4,6),(5,6),(6,6),(6,5),(6,4),(6,3),(6,),(6,) 6 (c) De acordo com a Tabela 3., Im(X) {,, 3, 4, 5, 6}. (d) Como Im(X) é finito, X é discreta. (e) Queremos calcular p X (x) P(X x) para todo x Im(X). Vamos começar com x : p X () P(X ) P({(, )}) /36, considerando que cada um dos 36 elementos de Ω tem mesma probabilidade de ocorrer. Vamos calcular, agora, p X para os demais elementos da Im(X): p X () P(X ) P({(, ), (, ), (, )}) 3/36 p X (3) P(X 3) P({(, 3), (3, ), (, 3), (3, ), (3, 3)}) 5/36 p X (4) P(X 4) P({(, 4), (4, ), (, 4), (4, ), (3, 4), (4, 3), (4, 4)}) 7/36 p X (5) P(X 5) P({(, 5), (5, ), (, 5), (5, ), (3, 5), (5, 3), (4, 5), (5, 4), (5, 5)}) 9/36 p X (6) P(X 6) P({(, 6), (6, ), (, 6), (6, ), (3, 6), (6, 3), (4, 6), (6, 4), (5, 6), (6, 5), (6, 6)}) /36 Então, p X (x) /36, se x 3/36, se x 5/36, se x 3 7/36, se x 4 9/36, se x 5 /36, se x 6, caso contrário. /36 9/36 7/36 5/36 3/36 / Também podemos apresentar a função de probabilidade p X (x) para x Im(X) em forma de uma tabela:

73 3.. FUNÇÃO DE PROBABILIDADE 69 x p X (x) /36 3/36 5/36 7/36 9/36 /36 (f) Como já conhecemos P(X x) para todo x Im(X), é fácil calcular a função de distribuição, acumulando as probabilidades. O gráfico, como já visto, é o de uma função escada, com os degraus ocorrendo em cada ponto x Im(X) e o tamanho do degrau equivalente a P(X x). F X (x), se x < ; /36, se x < ; 4/36, se x < 3; 9/36, se 3 x < 4; 6/36, se 4 x < 5; 5/36, se 5 x < 6;, se x 6. 5/36 6/36 9/36 4/36 / Proposição 3. Propriedades da Função de Probabilidade Seja p X a função de probabilidade de uma variável aleatória discreta qualquer. Então valem as seguintes propriedades: (i) p X (x) para todo x R; (ii) p X (x). x Im(X) Demonstração: Essas propriedades são decorrentes dos axiomas da probabilidade, apresentados na Definição.. (i) Como P(A) para todo A F, também é verdade que P(X x) para todo x R. Logo, p X (x) P(X x) para todo x R. (ii). p X (x) P(X x) P {X x} P(Ω) x Im(X) x Im(X) x Im(X) Exemplo 3. Demanda por produto A demanda por um certo produto pode ser vista como uma variável aleatória X cuja função de probabilidade p X é estimada por Número de unidades demandadas x 3 4 p X (x) P(X x), 5, 45, 5, 5 (a) Verifique que p X realmente define uma função de probabilidade. (b) Obtenha a função de distribuição acumulada de X.

74 7 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS (c) Usando a função de distribuição calculada no item anterior, calcule P(X 3, 5). (a) x P(X x), 5 +, 45 +, 5 +, 5 e todos os valores são não negativos. Logo, p X é uma função de probabilidade. (b) (c) Temos que F X (x) se x <,5 se x <,7 se x < 3,85 se 3 x < 4, se x 4 P(X 3, 5) F X (3, 5), 85 Exemplo 3.3 Uma variável aleatória discreta X tem a seguinte função de probabilidade k, se x ou x (x + )! p X (x), se x e x onde k é uma constante real. (a) Determine o valor de k para que p X seja realmente função de probabilidade. (b) Encontre a função de distribuição F X e esboce seu gráfico. (a) Os valores possíveis da v.a. são e, isto é, Im(X) {, }. Então, temos que ter p X () + p X () k! + k 3! k + k 6 3k + k 6 k Logo, p X () 3/ 3 4 e p X () 3/ 6 4. (b) A função de distribuição de X é, se x < ; F X (x) 3/4, se x < ;, se x. 3/

75 3.. FUNÇÃO DE PROBABILIDADE 7 Exemplo 3.4 Soma das faces de dois dados Considere novamente o experimento de lançar dois dados equilibrados e defina a variável aleatória X soma das faces. (a) Determine Im(X). (b) Verifique que X é v.a. discreta. (c) Encontre a função de probabilidade de X e esboce seu gráfico, verificando que são válidas as propriedades da função de probabilidade. (d) Encontre a função de distribuição de X e esboce o seu gráfico. (e) Calcule a probabilidade de que a soma das faces seja maior que 6. (a) Im(X) {, 3, 4, 5, 6, 7, 8, 9,,, }. (b) Como Im(X) é um conjunto finito, X é variável aleatória discreta. (c) Para encontrar p X precisamos encontrar P(X x) para todo x Im(X). O espaço amostral desse experimento é o mesmo do Exemplo 3., ou seja, ele tem 36 elementos, todos com a mesma probabilidade de ocorrência. p X () P(X ) P({(, )}) /36. p X (3) P(X 3) P({(, ), (, )}) /36. p X (4) P(X 4) P({(, 3), (3, ), (, )}) 3/36. p X (5) P(X 5) P({(, 4), (4, ), (, 3), (3, )}) 4/36. p X (6) P(X 6) P({(, 5), (5, ), (, 4), (4, ), (3, 3)}) 5/36. p X (7) P(X 7) P({(, 6), (6, ), (, 5), (5, ), (3, 4), (4, 3)}) 6/36. p X (8) P(X 8) P({(, 6), (6, ), (3, 5), (5, 3), (4, 4)}) 5/36. p X (9) P(X 9) P({(3, 6), (6, 3), (4, 5), (5, 4)}) 4/36. p X () P(X ) P({(4, 6), (6, 4), (5, 5)}) 3/36. p X () P(X ) P({(5, 6), (6, 5)}) /36. p X () P(X ) P({(6, 6)}) /36. Para qualquer outro valor x R temos p X (x). Podemos representar p X em forma de tabela: x p X (x) /36 /36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 /36 /36 Veja que p X (x) para todo x e que x Im(X) p X (x) Logo as propriedades são satisfeitas. O gráfico de p X é dado a seguir.. 6/36 5/36 4/36 3/36 /36 /

76 7 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS (d) A função de distribuição é calculada a partir de P(X x), acumulando as probabilidades: F X (x), se x < ; /36, se x < 3; 3/36, se 3 x < 4; 6/36, se 4 x < 5; /36, se 5 x < 6; 5/36, se 6 x < 7; /36, se 7 x < 8; 6/36, se 8 x < 9; 3/36, se 9 x < ; 33/36, se x < ; 35/36, se x < ;, se x. 35/36 33/36 3/36 6/36 /36 5/36 /36 6/36 3/36 / (e) Podemos calcular a probabilidade pedida através da função de probabilidade como P(X > 6) P(X 7 ou X 8 ou X 9 ou X ou X ou X ) P(X 7) + P(X 8) + P(X 9) + P(X ) + P(X ) + P(X ) p X (7) + p X (8) + p X (9) + p X () + p X () + p X () ou através da função de distribuição como. P(X > 6) P(X 6) F X (6) 5/36 /36 Exemplo 3.5 Um homem possui quatro chaves em seu bolso. Como está escuro, ele não consegue ver qual a chave correta para abrir a porta de sua casa, que se encontra trancada. Ele testa uma chave de cada vez até encontrar a correta. (a) Defina um espaço amostral para esse experimento. Defina a variável aleatória X número de chaves experimentadas até conseguir abrir a porta (inclusive a chave correta). (b) Encontre Im(X). (c) Encontre a função de probabilidade de X e esboce o seu gráfico. (d) Encontre a função de distribuição de X e esboce o seu gráfico. (e) Qual é a probabilidade de o homem experimentar no máximo duas chaves para abrir a porta? (a) Vamos representar por C o sorteio da chave correta, aquela que abre a porta, e por E o sorteio de uma chave errada, uma entre as 3 chaves que não abrem a porta. Então podemos representar o espaço amostral por: Ω {C, EC, EEC, EEEC}

77 3.. FUNÇÃO DE PROBABILIDADE 73 em que {C} representa situação em que o homem acertou a chave de primeira, {EC} em que errou na primeira tentativa e acertou na segunda, {EEC} em que errou as duas primeiras tentativas e acertou na terceira e {EEEC} a situação em que ele testou todas as chaves até achar aquela que abre a porta. (b) Veja que o homem pode experimentar de a 4 chaves antes de abrir a porta. Logo Im(X) {,, 3, 4}. (c) P(X ) P(C) /4. P(X ) P(EC) 3/4 /3 /4. P(X 3) P(EEC) 3/4 /3 / /4. P(X 4) P(EEEC) 3/4 /3 / /4. Logo, a função de probabilidade de X e o seu gráfico são definidos por: p X (x) { /4, se x,, 3, 4, caso contrário. /4 ou x 3 4 P(X x) /4 /4 /4 /4 3 4 (d) F X (x), se x < ; /4, se x < ; /, se x < 3; 3/4, se 3 x < 4;, se x 4. 3/4 / /4 3 4 (e) P(X ) P(X ) + P(X ) /4 + /4 /. Exemplo 3.6 Suponha agora que o homem com as 4 chaves não tenha controle das chaves que já foram experimentadas e por isso a cada nova tentativa ele escolhe, de forma aleatória, uma entre as quatro chaves. (a) Defina um espaço amostral para esse experimento. Defina a variável aleatória X número de chaves experimentadas até conseguir abrir a porta (inclusive a chave correta). (b) Encontre Im(X). (c) Encontre a função de probabilidade de X e esboce o seu gráfico. (d) Qual a probabilidade de o homem experimentar no máximo duas chaves para abrir a porta?

78 74 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS (a) Representando por C a seleção da chave correta e E a seleção de uma chave errada, Ω {C, EC, EEC, EEEC, EEEEC, EEEEEC,...} (b) Veja que, diferente do Exemplo 3.5, o homem pode experimentar mais de 4 chaves antes de encontrar a correta. Para esse exemplo temos Im(X) {,, 3, 4, 5, 6,...} N; esse é um exemplo de variável aleatória discreta com imagem infinita. Podemos dizer que X é discreta, uma vez que Im(X), apesar de infinito, é um conjunto enumerável. (c) Como a Im(X) é um conjunto infinito não vamos encontrar o valor de p X (x) para cada x Im(X). Vamos tentar encontrar uma expressão geral que represente p X. Para isso vamos começar calculando p X em alguns pontos. Note que, independente do número de chaves já testadas, em cada nova tentativa a probabilidade de o homem pegar a chave certa é /4 e de pegar uma chave errada é 3/4. P(X ) P(C) /4. P(X ) P(EC) 3/4 /4 3/4. P(X 3) P(EEC) 3/4 3/4 /4 3 /4 3. P(X 4) P(EEEC) 3/4 3/4 3/4 /4 3 3 /4 4. P(X 5) P(EEEEC) 3/4 3/4 3/4 3/4 /4 3 4 /4 5. De forma geral, P(X x) 3/4 3/4 3/4... 3/4 /4 3 x /4 x. Logo, a função de probabilidade de X e o seu gráfico são definidos por: 3 x p X (x) 4 x, se x,, 3,..., caso contrário. /4 3/4 3 / / / (d) P(X ) P(X ) + P(X ) /4 + 3/4 7/6. Exemplo 3.7 Verifique que são válidas as propriedades de uma função de probabilidade p X para a variável aleatória X definida no Exemplo 3.6. No Exemplo 3.6 encontramos 3 x p X (x) 4 x ( ) 3 x, se x,, 3, , caso contrário. Temos que mostrar que p X (x) para todo x R e que x Im(X) p X (x).

79 3.. FUNÇÃO DE PROBABILIDADE 75 Como a função exponencial de qualquer base é sempre positiva, resulta que p X (x) para todo x R. x Im(X) p X (x) x 3 x 4 x x 3 ( ) 3 x 4 3 x ( ) 3 x 4 }{{} 3 (A.4) Exemplo 3.8 Suponha que um dado equilibrado seja lançado quatro vezes. Seja X o número de lançamentos com resultado 6. (a) Defina um espaço amostral para o experimento, especificando seu número de elementos. (b) Encontre Im(X). (c) Encontre a função de probabilidade de X. (d) Verifique as propriedades de p X. (a) Aqui é importante notar que a ordem em que os dados são lançados importa. Sendo assim, podemos definir o espaço amostral por: (,,, ), (,,, ),... (,,, 6), (,,, ), (,,, ),... (,,, 6), Ω. (5, 6, 3, ), (5, 6, 3, ),... (5, 6, 3, 6), (5, 6, 4, ), (5, 6, 4, ),... (5, 6, 4, 6),. (6, 6, 5, ), (6, 6, 5, ),... (6, 6, 5, 6).(6, 6, 6, ), (6, 6, 6, ),... (6, 6, 6, 6). Para cada lançamento, há 6 resultados possíveis; pelo Princípio Fundamental da Multiplicação, conclui-se que o número de elementos de Ω é (b) Como são 4 lançamentos, os valores de X vão de X((,,, ) até 4 X(6, 6, 6, 6), ou seja, Im(X) {,,, 3, 4}. (c) Queremos encontrar P(X x) para todo x Im(X). Como estamos supondo que o dado é equilibrado, cada elemento ω Ω tem a mesma probabilidade de ocorrer, ou seja, P(ω) /96 para qualquer ω Ω. Além disso, em cada lançamento, a probabilidade de sair 6 é /6 e a probabilidade de sair outra face qualquer, evento que representaremos por 6 c, é 5/6. Vamos analisar cada valor de x separadamente. P(X ) P(nenhuma face 6 nos 4 lançamentos) Note que o evento {nenhuma face 6 nos 4 lançamentos} tem elementos. P(X 4) P(face 6 nos 4 lançamentos) O evento {face 6 nos 4 lançamentos} tem apenas um elemento, que é (6, 6, 6, 6). P(X ) P( face 6 e 3 faces diferentes de 6 nos 4 lançamentos). O evento { face 6 e 3 faces diferentes de 6} corresponde a uma única ocorrência da face 6 e essa única ocorrência pode ter sido em qualquer dos quatro lançamentos. Por exemplo, podemos ter (6, 6 c, 6 c, 6 c ) com probabilidade Não importa em qual lançamento saiu 6; a probabilidade será a mesma. Logo, P(X )

80 76 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS P(X ) P( faces 6 e faces diferentes de 6 nos 4 lançamentos). Nesse caso, o evento corresponde a dois lançamentos com face 6 e os outros dois com faces diferentes de 6. Por exemplo, podemos ter (6, 6, 6 c, 6 c ) com probabilidade Como antes, não importa em quais lançamentos saiu 6; a probabilidade será a mesma. Mas podemos escolher de ( 4 ) 6 maneiras diferentes quais os dois lançamentos que resultaram em 6 (e os outros automaticamente terão uma face diferente de 6). Logo, P(X ) De maneira análoga, concluímos que P(X 3) P(3 faces 6 e faces diferentes de 6 nos 4 lançamentos) Assim, a função de distribuição de X é x 3 4 p X (x) 65/96 5/96 5/96 /96 /96 (d) p X (x) para todo x R 4 p X (x) x 3. Funções de variáveis aleatórias discretas Dada uma variável aleatória discreta X, podemos obter outras variáveis aleatórias discretas através de funções de X e, da mesma forma que calculamos a função de probabilidade de X, podemos calcular a função de probabilidade dessas novas variáveis. Tenha claro que, se X é variável aleatória, então qualquer função real de X também será variável aleatória. Isto é, se X é variável aleatória, então Y g(x), com g função real, também é variável aleatória. Y continua sendo uma função do espaço amostral na reta, definida pela composição da função g com a função X: e X : Ω R ω X(ω) Y g(x( )) : Ω R R ω X(ω) g(x(ω)). Exemplo 3.9 Considere a variável aleatória X cuja função de probabilidade é dada na tabela abaixo: Defina Y g(x) X. x p X (x),,,,3,, (a) Encontre Im(Y ).

81 3.. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS DISCRETAS 77 (b) Encontre a função de probabilidade de Y, isto é, p Y. (a) Temos que Im(X) {,,,,, 3} e sempre que X assumir o valor x Im(X), a v.a. Y irá assumir o valor x. Assim, Im(Y ) {4,,, 9} ou Im(Y ) {,, 4, 9} (b) Para calcular as probabilidades desses valores, temos que identificar os valores de X que originaram cada um deles. P (Y ) P (X ), P (Y ) P (X ) + P (X ), 5 P (Y 4) P (X ) + P (X ), P (Y 9) P (X 3), Podemos resumir essa função de probabilidade como y 4 9 p Y (y),,5,, Proposição 3. Função de variável aleatória discreta Seja X uma variável aleatória discreta com função de probabilidade p X. Se Y g(x), com g uma função real qualquer, então, (i) Y é variável aleatória discreta; (ii) a função de probabilidade de Y é calculada como p Y (y) P(Y y) p X (x) {x g(x)y} Demonstração: (i) Para mostrar que Y é variável aleatória discreta basta mostrar que Im(Y ) é um conjunto finito ou enumerável. Como X é v.a. discreta sabemos que Im(X) é um conjunto finito ou enumerável. Como Im(Y ) g(im(x)) {y R x Im(X) com y g(x)} podemos afirmar que a cardinalidade de Im(X) é sempre maior ou igual à cardinalidade de Im(Y ), pois cada elemento de Im(Y ) é associado a um ou mais elementos em Im(X). Então, como Im(X) é um conjunto finito ou enumerável, Im(Y ) só pode ser um conjunto finito ou enumerável. Com isso concluímos que Y é v.a. discreta. (ii) p Y (y) P(Y y) P(g(X) y) p X (x). {x g(x)y} Exemplo 3. No Exemplo 3.8 definimos X número de faces 6 em 4 lançamentos de um dado. Defina agora Y número de faces diferentes de 6 em 4 lançamentos de um dado. (a) Escreva Y como função de X.

82 78 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS (b) Defina Im(Y ) a partir de Im(X). (c) Encontre a função de probabilidade de Y. (a) Em quatro lançamentos do dado, o número de resultados diferentes de 6 é o total de lançamentos, 4, menos o número de resultados iguais a 6; logo, Y 4 X. (b) Vimos no Exemplo 3.8 que Im(X) {,,, 3, 4}. Im(Y ) {4, 3,,, }. (c) Também no Exemplo 3.8 encontramos a função de probabilidade de X: Quando X x, resulta Y 4 x, logo, x 3 4 p X (x) 65/96 5/96 5/96 /96 /96 P(Y y) P(4 X y) P(X 4 y). Então, P(Y ) P(X 4), P(Y ) P(X 3), P(Y ) P(X ), P(Y 3) P(X ) e P(Y 4) P(X ). Logo, a função de probabilidade de Y é y 3 4 p Y (y) /96 /96 5/96 5/96 65/96 Exemplo 3. Consideremos novamente o Exemplo 3.6, em que um homem com 4 chaves não tem controle das chaves que já foram experimentadas e por isso a cada nova tentativa ele escolhe, de forma aleatória, uma entre as quatro chaves. Naquele exemplo, definimos X número de chaves testadas até abrir a porta. Considerando as mesmas condições do experimento, defina agora Y número de chaves erradas até abrir a porta. (a) Escreva Y como função de X. (b) Defina Im(Y ) a partir de Im(X). (c) Encontre a função de probabilidade de Y. (d) Verifique as propriedades da função de probabilidade em p Y. (a) Note que a última chave testada será sempre a chave correta e todas as anteriores serão erradas. Dessa forma, Y X. (b) No Exemplo 3.6 encontramos Im(X) {,, 3, 4,...}. Então, Im(Y ) {,,, 3,...}. (c) No Exemplo 3.6 encontramos p X (x) { 3 x 4 x, se x,, 3, 4,..., caso contrário. Como p Y (y) P(Y y) P(X y) P(X y + ) p X (y + ), obtemos: { { 3 y+, se y +,, 3, 4,... 3 y, se y,,, 3,... p Y (y) p X (y + ) 4 y+ 4 y+, caso contrário., caso contrário. (d) Claramente p Y (y) para todo y R. 3 y p Y (y) 4 y+ 4 y Im(Y ) y y ( 3 4 ) y 4 y ( ) 3 y ( ) 4 }{{} 4 3/ A.

83 3.3. ESPERANÇA DE VARIÁVEIS ALEATÓRIAS DISCRETAS Esperança de variáveis aleatórias discretas No estudo de variáveis aleatórias e suas distribuições de probabilidades, associamos números aos pontos do espaço amostral, ou seja, o resultado é sempre uma variável quantitativa (note que os resultados cara e coroa não definem uma variável aleatória; para tal, temos que associar números, e, por exemplo, a esses resultados). Sendo assim, faz sentido perguntar qual é o valor médio da variável aleatória X? A ideia de valor médio diz respeito à média dos valores da variável aleatória se o experimento fosse realizado infinitas vezes. Suponha que X seja variável aleatória discreta com Im(X) {x, x, x 3,...}. Suponha também que, ao realizar o experimento n vezes, a variável X assuma os seguintes valores na seguinte ordem: x, x 4, x 3, x 4, x, x, x,... Então o valor médio de X nas n realizações do experimento é: x + x 4 + x 3 + x 4 + x + x + x... n n x + n x + n 3 x 3 + n 4 x 4..., n onde n i representa o número de vezes que a variável X assumiu o valor x i. Chamamos de esperança o limite do valor médio de X quando n. Quando n, a frequência de vezes que X assume o valor x i, definida por n i n, converge para P(X x i). Assim, podemos escrever: n x + n x + n 3 x 3 + n 4 x 4... lim x P(X x ) + x P(X x ) + x 3 P(X x 3 ) +... n n Definição 3. Esperança de Variável Aleatória Discreta Seja X uma variável aleatória discreta. A esperança ou média da variável aleatória X é definida como E (X) xp X (x) x P(X x), (3.) desde que o somatório convirja. x Im(X) x Im(X) Podemos ver, então, que a esperança de X é uma média dos seus valores, ponderada pelas respectivas probabilidades. Quando Im(X) é um conjunto finito, E(X) é definida por um somatório com um número finito de parcelas que, portanto, sempre converge. Logo, E(X) existe e E(X) R. Mas quando Im(X) é um conjunto infinito e enumerável, o somatório que define E(X) tem um número infinito de parcelas, ou seja, trata-se de uma série. Esta série pode convergir para um número real ou não. Sempre que essa série convergir para um número real, dizemos que E(X) existe e E(X) R. Caso contrário, dizemos que E(X) não existe. Assim, pode existir variável aleatória que não tem esperança. Um resultado simples e imediato é a esperança de uma constante, ou seja, a esperança de uma variável aleatória discreta que pode assumir um único valor com probabilidade, também chamada de variável aleatória degenerada. Proposição 3.3 Seja X uma variável aleatória tal que P(X c). Então E(X) c, ou seja, E(c) c. Demonstração: Como P(X c), temos Im(X) {c}. Então, E(X) c P(X c) c.

84 8 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS Exemplo 3. Vendas e comissões Em determinado setor de uma loja de departamentos, o número de produtos vendidos em um dia pelos funcionários é uma variável aleatória R com a seguinte distribuição de probabilidades (esses números foram obtidos dos resultados de vários anos de estudo): Número de produtos Probabilidade de venda,,4,,,,5,5 Cada vendedor recebe comissões de venda, distribuídas da seguinte forma: se ele vende até dois produtos em um dia, ele ganha uma comissão de R$, por produto vendido; a partir da terceira venda, a comissão passa para R$5, por produto. Qual é o número médio de produtos vendidos por cada vendedor em um dia de trabalho e qual a comissão diária média de cada um deles? O número médio de produtos vendidos em um dia por um funcionário é E(PR). Veja que Im(R) {,,, 3, 4, 5, 6}, então E(R), +, 4 +, + 3, + 4, + 5, 5 + 6, 5, 5 ou seja, o número médio de produtos vendidos em um dia por cada funcionário é,5 unidades. Para encontrar a comissão média, precisamos, primeiro, definir a variável aleatória C comissão diária do funcionário e depois calcular E(C). Veja que C pode ser definida como função de R. A relação entre C e R, assim como as probabilidades associadas a cada valor dessas duas variáveis aleatórias, estão apresentadas na tabela a seguir. Número de produtos R Comissão C 7 7 Probabilidade de venda,,4,,,,5,5 Dessa forma vemos que Im(C) {,,, 7,, 7, } e também conhecemos a probabilidade de C assumir cada um desses valores. Podemos então calcular E(C): E(C), +, 4 +, + 7, +, + 7, 5 +, 5 46, 5 ou seja, a comissão média diária de cada vendedor é de R$ 46,5. Note que a esperança de X tem a mesma unidade de medida dos valores de X. Para o Exemplo 3. acima a unidade de medida da variável aleatória R é unidades de produtos, logo E(R) também terá essa mesma unidade de medida. Para a variável aleatória C, sua unidade de medida é reais, assim como a unidade de medida de E(C). Exemplo 3.3 Em um jogo de dados, Cláudio paga R$, para Lúcio e lança 3 dados. Se sair a face em um dos dados, Cláudio ganha R$, e sai do jogo sem prejuízo ou lucro. Se sair a face em dois dos dados, Cláudio ganha R$ 5,. Se sair a face nos três dados, Cláudio ganha R$8,. Se não sair face em qualquer dos dados, o ganho de Cláudio é nulo. Calcule o ganho médio de Cláudio no jogo. Você acha que vale a pena participar desse jogo? Se a variável aleatória X ganho do Cláudio, Im(X) {,, 3, 6}. Vamos, agora, calcular

85 3.3. ESPERANÇA DE VARIÁVEIS ALEATÓRIAS DISCRETAS 8 p X P(X x) para todo x Im(X). p X ( ) P(X ) P(não sair a face ) 5/6 5/6 5/6 5/6. p X () P(X ) P(sair a face em um dado) 3 /6 5/6 5/6 75/6. p X (3) P(X 3) P(sair a face em dois dados) 3 /6 /6 5/6 5/6. p X (6) P(X 6) P(sair a face nos três dados) /6 /6 /6 /6. Note que p X (x). x Im(X) E(X) ,. 6 Ou seja, em média Cláudio perde R$ 9, com o jogo. Isso significa que, se Cláudio tivesse bastante dinheiro para jogar muitas partidas seguidas desse jogo, ao final ele teria um prejuízo em torno de R$9,. Não vale a pena participar do jogo. Exemplo 3.4 Voltando ao Exemplo 3.8, considere X número de lançamentos cujo resultado foi 6 em quatro lançamentos de um dado. Calcule a esperança de X, ou seja, o número médio de faces iguais a 6 em quatro lançamentos de um dado. No Exemplo 3.8 obtivemos a distribuição de probabilidade de X: x 3 4 p X (x) 65/96 5/96 5/96 /96 /96 Então E(X) , Ou seja, o número médio de faces iguais a 6 em quatro lançamentos de um dado é,6636 face, menor que face. Exemplo 3.5 Calcule E(X) para X número de chaves testadas até conseguir abrir a porta, definida nos Exemplos 3.5 e 3.6. Vamos começar com X definida no Exemplo 3.5, onde X número de chaves testadas até abrir a porta, considerando que a cada nova tentativa as chaves já testadas são descartadas. Para esse caso encontramos Im(X) {,, 3, 4} e p X (x) /4 para todo x Im(X). Então, E(X) , 5. Ou seja, se as chaves já testadas forem descartadas nas próximas tentativas, em média o homem precisa de,5 tentativas para abrir a porta. Vejamos agora o caso do Exemplo 3.6, onde X número de chaves testadas até abrir a porta, considerando que a cada nova tentativa qualquer uma das quatro chaves pode ser selecionada com

86 8 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS a mesma probabilidade. Para esse caso encontramos Im(X) {,, 3, 4, 5, 6,...} e p X (x) 3x 4 para x todo x Im(X). Então, E(X) x Im(X) xp X (x) x x 3x 4 x x (x + ) 3x 4 x x 3 x 4 x } {{ } S + x (x ) 3x 4 x } {{ } S Primeiro veja que S, pois S x Im(X) p X (x) e pelas propriedades da função de probabilidade sabemos que essa soma tem que ser. Vamos agora calcular S. Para isso faremos a seguinte mudança de variável: y x. ) (x ) 3x 4 x y ( 3y 4 y y 3y 4 y+ y 3y 4 y+ 3 y 3y 4 4 y 3 4 E(X). x y Assim chegamos ao resultado: y E(X) S + S E(X) E(X) 3 4 E(X) E(X) E(X) 4. 4 Ou seja, se as chaves já testadas não forem descartadas nas próximas tentativas, em média o homem precisará de 4 tentativas para abrir a porta. Para as variáveis aleatórias definidas nos Exemplos 3.5, 3.6, 3.8 e 3.3 veja na Figura 3. os gráficos das funções de probabilidade e suas esperanças, já calculadas para cada variável aleatória. y y. E(X) 3 4 (a) Exemplo 3.5 E(X) (b) Exemplo E(X) E(X) 3 4 (c) Exemplo (d) Exemplo 3.3 Figura 3. Gráfico de algumas funções de probabilidade e sua esperança. Observando os gráficos da Figura 3. podemos ver que a esperança de uma variável aleatória X é o centro de gravidade da distribuição de probabilidades. Sendo assim, a esperança é uma medida de posição. Com isso temos o resultado intuitivo de que E(X) está sempre entre o menor e o maior valor do conjunto Im(X), resultado apresentado na Proposição 3.4 a seguir.

87 3.3. ESPERANÇA DE VARIÁVEIS ALEATÓRIAS DISCRETAS 83 Proposição 3.4 Limites do valor da esperança Seja X variável aleatória discreta, x min min{im(x)} e x max max{im(x)}. Se E(X) R então, x min E(X) x max. Demonstração: Primeiro vamos mostrar que x min E(X). E(X) xp X (x) x Im(X) x Im(X) x min p X (x) x min x Im(X) } {{ } p X (x) x min. Para mostrar que E(X) x max faremos um desenvolvimento análogo. E(X) xp X (x) x max p X (x) x max p X (x) x max. x Im(X) x Im(X) x Im(X) } {{ } Já vimos que é possível obter uma nova variável aleatória Y a partir de uma função de uma variável X, Y g(x). Também vimos que podemos obter a função de probabilidade de Y a partir da função de probabilidade de X. Sendo assim, podemos calcular a esperança de Y. O interessante é que podemos encontrar a esperança de Y sem precisar encontrar a sua função de probabilidade, conforme apresentado na Proposição 3.5 a seguir. O cálculo da esperança de Y pode ser feito somente com o conhecimento da função g que relaciona X e Y e da função de probabilidade de X, p X. Proposição 3.5 Esperança de funções de variável aleatória discreta Seja X uma variável aleatória discreta com função de probabilidade p X e Y g(x). Então, E (Y ) E (g (X)) g (x) p X (x), desde que o somatório convirja. x Im(X) Demonstração: E (Y ) yp Y (y) y P(Y y) y P(g(X) y) y Im(Y ) y Im(Y ) y {x g(x)y} y Im(Y ) P(X x) g(x)p X (x) y Im(Y ) {x g(x)y} x Im(X) y Im(Y ) y Im(Y ) {x g(x)y} g(x)p X (x). y P(X x) Exemplo 3.6 Considere as variáveis aleatórias X e Y X definidas no Exemplo 3.9. Encontre E(Y ) a partir de p Y e a partir de p X, usando o resultado da Proposição 3.5.

88 84 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS No Exemplo 3.9 foi dada p X e encontramos p Y, apresentadas novamente a seguir. x p X (x),,,,3,, y 4 9 p Y (y),,5,, Primeiro vamos encontrar E(Y ) a partir de p Y : E(Y ) yp Y (y), +, 5 + 4, + 9,,. y Im(Y ) Agora, usando a Proposição 3.5, temos: E(Y ) E(X ) x p X (x) x Im(X) ( ), + ( ), +, +, 3 +, + 3,,. Exemplo 3.7 Seja X variável aleatória discreta com função de distribuição definida por:, x < /8, x < F X (x) 5/8, x < 7/8, x < 4, x 4. Calcule E(X), E(X ), E(5 X) e E( X ). Já vimos que a Im(X) é o conjunto dos pontos de descontinuidade e p X (x) é o tamanho do salto. Então, Im(X) {,,, 4} e sua função de probabilidade p X (x) em cada x Im(X) é dada na tabela a seguir: Assim, E(X) E(X ) x Im(X) x Im(X) E(5 X) x Im(X) x - 4 p X (x) /8 / /4 /8 xp X (x) ( ) x p X (x) ( ) (5 x)p X (x) (5 ( )) 8 + (5 ) + (5 ) 4 + (5 4) E( X ) x p X (x) x Im(X)

89 3.3. ESPERANÇA DE VARIÁVEIS ALEATÓRIAS DISCRETAS 85 Proposição 3.6 Propriedade de Linearidade da Esperança Seja X uma variável aleatória discreta tal que E(X) R. Sejam a, b R. Então, E(aX + b) a E(X) + b. Demonstração: E(aX + b) x Im(X) x Im(X) x Im(X) a x Im(X) (ax + b)p X (x) (axp X (x) + bp X (x)) axp X (x) + x Im(X) xp X (x) +b } {{ } E(X) x Im(X) bp X (x) } {{ } p X (x) a E(X) + b. Exemplo 3.8 No Exemplo 3.6 definimos X número de chaves testadas até abrir a porta, considerando que a cada nova tentativa qualquer uma das quatro chaves pode ser selecionada com mesma probabilidade. No Exemplo 3.5 encontramos E(X) 4. Considere Y número de chaves erradas até abrir a porta definida no Exemplo 3.. Calcule Y de duas maneiras diferentes, primeiro usando p Y encontrada no Exemplo 3. e depois usando o resultado da Proposição 3.6. No Exemplo 3. encontramos p Y (y) E(Y ) y Im(Y ) { 3 y 4 y+, se y,,, 3,..., caso contrário. yp Y (y) (y + ) 3y y 4 y+ } {{ } S y y 3y 3 y 4 y+. y }{{} S 4 y+ (y + ) 3y 4 y+ Note que S y 3y 4 y+ y Im(Y ) p Y (y). Para calcular S, faremos a troca de variável z y +. S (y + ) 3y 4 y+ z 3z 4 z 4 z 3z 3 4 z+ 4 z 3z 3 4 z+ 4 E(Y ). 3 y z z z }{{} E(Y ) y Assim temos, E(Y ) 4 3 E(Y ) E(Y ) E(Y ) 3. 3 Chegamos ao mesmo resultado, de forma bem mais simples, usando o resultado da Proposição 3.6. Já encontramos E(X) 4 no Exemplo 3.5 e Y X no Exemplo 3.. Logo E(Y ) E(X ) E(X) 4 3.

90 86 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS 3.4 Variância e desvio-padrão de variável aleatória Já vimos que a esperança de uma variável aleatória X é o centro de gravidade da distribuição de probabilidades, logo uma medida de posição. No entanto, é possível que duas variáveis bem diferentes tenham a mesma esperança, o que nos mostra que a esperança não é uma medida que descreva completamente a variável aleatória. Exemplo 3.9 Considere X e X variáveis aleatórias discretas com funções de probabilidade p X e p X definidas por: p X (x), 5, x,, 8, 9,, x 3, 7, 5, x 4, 6, 3, x 5, caso contrário;,, x 3, 7, 3, x 4, 6 p X (x),, x 5, caso contrário. (a) Mostre que E(X ) E(X ). (b) Esboce e compare os gráficos de p X e p X. O que você pode perceber de diferente entre essas duas variáveis? (a) Ambas as esperanças são iguais à 5: E(X ), 5+, 5+3, +4, 5+5, 3+6, 5+7, +8, 5+9, 5 5. E(X ) 3, + 4, 3 + 5, + 6, 3 + 7, 5. (b) A seguir estão os gráficos das funções de probabilidade de X e X. p X p X E(X ) E(X ) Uma diferença que pode ser notada de imediato é a dispersão dos valores de cada variável aleatória. Veja que X tem valores mais dispersos em torno da média que X, isto é, mais espalhados. Ou seja, os valores de Im(X ) estão mais concentrados em torno da média do que os valores de Im(X ). Existem várias maneiras de se medir a dispersão de uma variável aleatória. Vamos definir, inicialmente uma dessas medidas de dispersão, chamada de variância.

91 3.4. VARIÂNCIA E DESVIO-PADRÃO DE VARIÁVEL ALEATÓRIA 87 Definição 3.3 Variância de Variável Aleatória Discreta Seja X variável aleatória discreta tal que E(X) R. A variância de X é definida como Var (X) E [X E (X)] [x E (X)] p X (x), (3.) desde que o somatório convirja. x Im(X) Veja que Var(X) é definida como E [g(x)], com g(x) [X E(X)]. O termo X E(X) é chamado de desvio em torno da média. Sendo assim, a variância é a média dos desvios quadráticos em torno da média E(X). Veja também que, para existir Var(X), é necessário que exista E(X), isto é, que E(X) R. Além disso é necessário que o somatório (x E (X)) p X (x) convirja. x Im(X) A Proposição 3.7 a seguir apresenta uma expressão alternativa para o cálculo da variância, que em geral é mais usada do que a própria expressão apresentada na Definição 3.. Proposição 3.7 Seja X uma variável aleatória discreta tal que E(X) R e E(X ) R. Então, Var(X) R e Var(X) E(X ) [E(X)] Demonstração: Var (X) x Im(X) x Im(X) x Im(X) x Im(X) x Im(X) [x E (X)] p X (x) [ x x E(X) + [E(X)] ] p X (x) [ ] x p X (x) x E(X)p X (x) + [E(X)] p X (x) x p X (x) x Im(X) x p X (x) E(X) } {{ } E(X ) x E(X)p X (x) + x Im(X) } {{ } E(X) E(X ) E(X) E(X) + [E(X)] E(X ) [E(X)]. x Im(X) xp X (x) + [E(X)] [E(X)] p X (x) x Im(X) p X (x) } {{ } O resultado da Proposição 3.7 pode ser lido, de maneira informal, como a variância é a esperança do quadrado de X menos o quadrado da esperança de X. Da definição de variância, resulta que sua unidade de medida é o quadrado da unidade de medida da variável em estudo, sendo assim, uma unidade sem significado físico. Para se ter uma

92 88 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS medida de dispersão na mesma unidade dos dados, define-se o desvio-padrão como a raiz quadrada da variância. Definição 3.4 Desvio-padrão O desvio-padrão de uma variável aleatória X é definido como a raiz quadrada de sua variância: DP (X) Var (X) Exemplo 3. Calcule Var(X ), DP(X ), Var(X ) e DP(X ) para as variáveis definidas no Exemplo 3.9 e comente os resultados. Primeiro X : E(X ), 5 +, 5 + 3, + 4, 5 + 5, 3+ 6, 5 + 7, + 8, 5 + 9, 5 8, 6. Var(X ) E(X ) E(X ) 8, 6 5 3, 6. DP(X ) Var(X ) 3, 6, 9 Agora X : E(X ) 3, + 4, 3 + 5, + 6, 3 + 7, 6, 4 Var(X ) E(X ) E(X ) 6, 4 5, 4 DP(X ) Var(X ), 4, Como já comentado no Exemplo 3.9, a dispersão de X é maior que a dispersão de X, uma vez que Var(X ) > Var(X ), ou DP(X ) > DP(X ). Já vimos que se X é variável aleatória degenerada, isto é, X é tal que P(X c), então E(X) c (Proposição 3.3). Calculemos, agora, sua variância. Proposição 3.8 Seja X uma variável aleatória tal que P(X c). Então Var(X), ou seja, Var(c). Demonstração: Note que Y X também é variável aleatória degenerada, pois P(Y c ). Logo, E(Y ) E(X ) c e Var(X) E(X ) [E(X)] c c. Vejamos mais algumas propriedades da variância e do desvio-padrão, para qualquer variável aleatória. Proposição 3.9 Propriedades da Variância e do Desvio-padrão Seja X variável aleatória tal que Var(X) R. Então valem as seguintes propriedades:

93 3.4. VARIÂNCIA E DESVIO-PADRÃO DE VARIÁVEL ALEATÓRIA 89 (i) Var(X) (ii) DP(X) (iii) Var(aX + b) a Var(X) (iv) DP(aX + b) a DP(X) Demonstração: (i) Veja que Var(X) E [g(x)], com g(x) [X E(X)]. Veja também que g(x) é variável aleatória não negativa, isto é, x min min{im(g(x))}. Logo, pela propriedade apresentada na Proposição 3.4, podemos afirmar que E [g(x)] x min. Então, Var(X). (ii) Como Var(X), DP(X) Var(X). (iii) Var(aX + b) E [(ax + b) E(aX + b)] E [ax + b a E(X) b] E [a (X E(X))] a E [X E(X)] a Var(X) (iv) DP(aX + b) Var(aX + b) a Var(X) a Var(X) a DP(X). Exemplo 3. Considere a v.a. Y com função de probabilidade dada por y p Y (y), 5, 3,,, 7, 5, 3 e seja Z Y 3. Vamos calcular a esperança e a variância de Y e Z. E(Y ) 3, 5, 3 +, +, + 5, 7 + 8, 5 + 9, 3, 7 E(Y ) 9, 5 +, 3 +, + 4, + 5, , 5 + 8, 3, 33 Var(Y ), 33, 7, 3 E(Z) E(Y ) 3, 7 3, 66 Var(Z) Var(Y ) 4, 44

94 9 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS Exemplo 3. Um lojista mantém extensos registros das vendas diárias de certo aparelho. O quadro a seguir dá a distribuição de probabilidades do número de aparelhos vendidos em uma semana. Se o lucro por unidade vendida é de R$5,, qual o lucro esperado em uma semana? Qual é o desvio-padrão do lucro? x número de aparelhos p X (x),,,,3,, Seja X o número de aparelhos vendidos. Vamos calcular a média e o desvio-padrão de X, isto é, do número de aparelhos vendidos. E (X), +, +, + 3, 3 + 4, + 5,, 7 aparelhos ( E X ), +, +, + 3, 3 + 4, + 5,, aparelhos Var (X), (, 7), 9 aparelhos DP (X), 76 aparelhos Seja L o lucro semanal. Note que L 5X e, portanto, E (L) 5 E (X) R$35, DP (L) 5 DP(X) R$85, 94 Exemplo 3.3 Seja X a variável aleatória definida no Exemplo 3.7, isto é, X é tal que F X (x), x < /8, x < 5/8, x < 7/8, x < 4, x 4. No Exemplo 3.7 calculamos E(X), E(X ), E(5 X) e E( X ). Agora calcule Var(X), Var(X ), Var(5 X) e Var( X ). Os resultados encontrados no Exemplo 3.7 foram: E(X) 5 4, E(X ) 4, E(5 X) 5 e E( X ) 7 4.

95 3.4. VARIÂNCIA E DESVIO-PADRÃO DE VARIÁVEL ALEATÓRIA 9 Vamos calcular o que se pede. Var(X) E(X ) (E(X)) 4 Var(X ) E(X 4 ) (E(X )) ( ) x Im(X) 39 6 x 4 p X (x) 4 ( ( ) ) 6 8 Var(5 X) 4 Var(X) Var( X ) E( X ) (E( X )) E(X ) (E( X )) 4 ( 3 8 ) 6 3 ( ) Exemplo 3.4 Seja uma v.a. X com função de probabilidade dada na tabela a seguir: x p X (x) p p p p p (a) Encontre o valor de p para que p X (x) seja, de fato, uma função de probabilidade. (b) Calcule P (X 4) e P (X < 3). (c) Calcule P ( X 3 ). (d) Calcule E(X) e Var(X). (a) Como x p X (x), temos que ter: 3p + p 3p + p p ± 4 + ± 4 p ou 6 6 p 3 Como p é uma probabilidade, temos que ter p. Logo, o valor correto é p 3. (b) P(X 4) P(X 4) + P(X 5) p + p Pr(X < 3) P(X ) + P(X ) p 9. (c) Aqui temos que notar o seguinte fato sobre a função módulo, ilustrado na Figura 3.. Valores y x no eixo vertical menores que k (abaixo da linha horizontal sólida) correspondem a valores de x no intervalo ( k, k) e valores y no eixo vertical maiores que k correspondem ou a x > k ou a x < k. Mais precisamente, x k x k ou x k x k k x k

96 9 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS x k k k Figura 3. Função módulo Usando esses fatos, temos que P ( X 3 ) P ({X 3 } {X 3 }) P (X 3 ) + P (X 3 ) P (X ) + P (X 5) P (X ) + P(X 5) p 9 (d) Temos que E(X) p + p + 3 p + 4 p + 5 p , E(X ) p + p + 3 p + 4 p + 5 p Var(X) 35 ( ) Exemplo 3.5 Jogo de dados Um jogador A paga R$5, a B e lança um dado. Se sair face 3, ganha R$,. Se sair face 4, 5, ou 6, perde. Se sair face ou, tem o direito de jogar novamente. Desta vez, lança dois dados. Se saírem duas faces 6, ganha R$5,. Se sair uma face 6, recebe o dinheiro de volta. Nos demais casos, perde. Seja L o lucro líquido do jogador A nesse jogo. Calcule a função de probabilidade de L e o lucro esperado do jogador A. Sabemos que o dado é honesto e que os lançamentos são independentes. O diagrama de para o espaço amostral desse experimento está apresentado na Figura 3.3. Para calcular a probabilidade dos eventos associados aos lançamentos dos dois dados (parte inferior da árvore), usamos o fato de que a probabilidade da interseção de eventos independentes é o produto das probabilidades.

97 3.5. MOMENTOS E SUA FUNÇÃO GERADORA {3}, /6 {4, 5, 6}, / {, }, / {nenhum 6}, 5/36 {apenas um 6}, /36 {duas faces 6}, / Figura 3.3 Diagrama para o espaço amostral do Exemplo 3.5 No cálculo da probabilidade de uma face 6 temos: (/6) (5/6). Multiplicamos por, porque a face 6 pode estar em qualquer um dos dois dados. Vemos que os valores do lucro L são: -5; ; 5; 45 e a função de probabilidade de L é Lucro l P(L l) Assim, E(L) , Momentos e sua função geradora Na definição de variância, aparece a esperança do quadrado, seja dos desvios em torno da média, ou da própria variável. Esses são casos particulares de uma característica mais geral de uma variável aleatória, definida a seguir. Definição 3.5 Momentos O k ésimo momento de uma variável aleatória X, denotado por µ k, é definido como µ k E(X k ) desde que essa quantidade exista. O k ésimo momento central de uma variável aleatória X, denotado por µ k, é definido como µ k E[X E(X)] k sempre que essa quantidade existir.

98 94 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS Note que E(X) µ e Var(X) µ µ (µ ). Temos também que, para qualquer variável aleatória, µ E[X E(X)]. Pela Propriedade 3.5, o k ésimo momento de uma variável aleatória discreta X é calculado como µ k E(X k ) x Im(X) x k P(X x) Exemplo 3.6 Seja X variável aleatória discreta com a seguinte função de probabilidade: x p X (x) /6 /8 /6 /8 /8 /8 /6 /8 /6 Vamos calcular os três primeiros momentos de X. µ E(X) µ E(X ) µ 3 E(X 3 ) Apresentamos, a seguir, a definição da função geradora de momentos, que, como veremos, é uma função que caracteriza a distribuição de uma variável aleatória, desde que exista. Definição 3.6 Função Geradora de Momentos Seja X uma variável aleatória qualquer. A função geradora de momentos (fgm) de X, denotada por M X, é definida por ( ) M X (t) E e tx, desde que essa esperança exista para todo t em alguma vizinhança de. Importante: a função geradora de momentos é função de t. Para ela existir basta que E ( e tx ) esteja bem definida em uma vizinhança t. Para uma variável aleatória discreta, a função geradora de momentos é calculada como M X (t) x Im(X) e tx P(X x) Note também que, qualquer que seja a variável aleatória X, M X () E(e X ).

99 3.5. MOMENTOS E SUA FUNÇÃO GERADORA 95 Esse resultado pode ser útil para verificarmos se a função geradora de momentos encontrada está correta. Tendo em mente a Definição 3.5, do momento de uma variável aleatória, o Teorema 3. a seguir justifica o nome da função M X. Teorema 3. Se X é variável aleatória com função geradora de momentos M X, então E (X k) dk dt k M x(t) ou seja, o k-ésimo momento de X é igual à derivada de ordem k de M X avaliada em t. A demonstração do Teorema 3. acima será omitida, mas, a título de curiosidade, ela pode ser encontrada no Teorema 5. de Magalhães (). t Exemplo 3.7 Considere novamente a variável aleatória X definida no Exemplo 3.6. geradora de momentos de X e, a partir dela, os três primeiros momentos. Vamos calcular a função m X (t) E (e ) tx e t 6 + et 8 + et et et et et et + 6 e3t + 6 e4t e5t + 6 e6t + 6 e7t + 6 e9t + 6 et m X (t) 6 et e3t e4t + 6 e5t + 6 e6t e7t e9t + 6 et m X (t) 6 et e3t e4t + 6 e5t e6t e7t e9t + 6 et 6 + et et m X (t) 6 et e3t e4t e5t e6t e7t e9t + 6 et 6 Logo, µ E(X) M X () µ E(X ) M X () µ 3 E(X 3 ) M X ()

100 96 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS Neste tipo de exemplo, o cálculo dos momentos através da função geradora fica tão ou mais difícil que o cálculo direto dos momentos. No entanto, veremos que, em outras situações, a função geradora facilitará bastante o cálculo dos momentos da variável aleatória. Mas esta não é a única aplicação da função geradora de momentos. Uma aplicação ainda mais importante se baseia no seguinte teorema, cuja demostração será omitida por estar além do nível dessas notas de aula. Teorema 3. Se duas variáveis aleatórias têm funções geradoras de momentos que existem, e são iguais, então elas têm a mesma função de distribuição. O Teorema 3. nos diz que, se duas variáveis aleatórias têm a mesma função geradora de momentos, então estas variáveis aleatórias são identicamente distribuídas. Isso significa que a função geradora de momentos, quando existe, caracteriza completamente a distribuição de uma variável aleatória, da mesma forma que a função de distribuição ou a função de probabilidade no caso de variáveis discretas. Vimos, na Seção 3., que podemos definir novas variáveis aleatórias através de transformações de uma variável aleatória. Quando a transformação é do tipo linear, é possível obter a função geradora de momentos da variável transformada a partir da função geradora de momentos da variável original, conforme se demonstra a seguir. Proposição 3. Transformações Lineares Seja X uma variável aleatória com função geradora de momentos M X. Se Y ax + b, então, a função geradora de momentos de Y é M Y (t) e bt M X (at). Demonstração: M Y (t) E(e ty ) E ( [e t(ax+b)) [ E e atx e bt] [ ] [ ] e bt E e atx e bt E e (at)x e bt M X (at) Exemplo 3.8 Consideremos novamente a variável X cuja função geradora de momentos foi calculada no Exemplo 3.7. Vamos calcular a função geradora de momentos de Y X + 3. m Y (t) e 3t M X (t) [ e 3t et + e3 t + e4 t + 4 e5 t + e6 t + e7 t + e9 t + ] e t [ e 3t et + 6 e6t + 6 e8t et + 6 et + 6 e4t + 6 e8t + ] 6 et m Y (t) 3e3t [ et + 6 e6t + 6 e8t et + 6 et + 6 e4t + 6 e8t + e 3t [ 4 6 et e6t e8t et et e4t e8t + 6 et ] 6 et ( ) ( ) m Y () E(Y ) E(X) ] +

101 3.6. FUNÇÕES DE PROBABILIDADE SIMÉTRICAS 97 resultado já esperado pela propriedade de linearidade da esperança. Naturalmente, M Y (t) poderia ser mais facilmente calculada como M Y (t) 3e3t M X (t)+e 3t M X (t) M Y () E(Y ) 3M X ()+M X () 3 + E(X) 3+ E(X) 3.6 Funções de probabilidade simétricas Considere a variável aleatória apresentada no Exemplo 3.6, cuja função de probabilidade é representada graficamente a seguir. Podemos ver que a função é simétrica em torno de x 5. 4/6 3/6 /6 / Como já visto, a esperança de uma variável aleatória discreta é o centro de massa da distribuição de probabilidade; assim, se a distribuição é simétrica, a esperança será o ponto de simetria e esse resultado foi obtido no exemplo: µ E(X) 5. Na verdade, esse é um caso particular de um resultado mais geral, que apresentamos a seguir. Proposição 3. Seja X variável aleatória discreta com função de probabilidade simétrica em torno de µ. Então, sempre que k for ímpar. E(X µ) k Demonstração: Dizer que X tem tem função de probabilidade simétrica em torno de µ significa dizer que P(X µ x) P(X µ + x) x Neste caso, as variáveis aleatórias Y (X µ) e W (X µ) têm a mesma distribuição. De fato: P(Y y) P(X µ y) P(X µ + y) P(W y) P [ (X µ) y] P(X µ y) }{{} P(X µ + y) P(Y y) simetria Se (X µ) e (X µ) têm a mesma distribuição, então (X µ) k e [ (X µ)] k também têm a mesma distribuição. Logo, E(X µ) k E[ (X µ)] k E[( ) k (X µ) k ]

102 98 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS Assim, se k for ímpar, E(X µ) k E[ (X µ) k ] E(X µ) k E(X µ) k. Note que, para k, resulta E(X µ) E(X) µ E(X) µ. Esta característica dos momentos de ordem ímpar de uma função de probabilidade simétrica leva à definição de um coeficiente de assimetria, que permite diferenciar curvas simétricas de curvas assimétricas, assim como diferentes tipos de assimetria, ilustrados nas Figuras 3.4 e Figura 3.4 Assimetria à direita Figura 3.5 Assimetria à esquerda Definição 3.7 Coeficiente de Assimetria Seja X variável aleatória com E(X) µ e Var(X) σ. O coeficiente de assimetria de X, denotado por α 3, é definido por E(X µ)3 α 3 σ 3 supondo a existência dos momentos envolvidos. Note que o numerador do coeficiente de assimetria pode ser escrito em função dos momentos de ordem, e 3. Lembrando que µ E(X) µ, temos que E(X µ) 3 E(X 3 3X µ + 3Xµ µ 3 ) E(X 3 ) 3µ E(X ) + 3µ E(X) µ 3 µ 3 3µ µ + 3(µ ) µ (µ )3 µ 3 3µ µ + (µ )3 E(X 3 ) 3 E(X ) E(X) + [E(X)] 3 Nas Figuras 3.4 e 3.5, os gráficos representam uma distribuição assimétrica à direita e uma assimétrica à esquerda, respectivamente. Em termos do coeficiente de assimetria, temos a seguinte caracterização: α 3 > α 3 α 3 < assimetria positiva ou à direita assimetria nula ou simetria assimetria negativa ou à esquerda

103 3.6. FUNÇÕES DE PROBABILIDADE SIMÉTRICAS 99 Exemplo 3.9 Considere as funções de probabilidade p (x) e p (x) dadas a seguir, cujos gráficos estõo representados nas Figuras 3.4 e 3.5. x p (x),5,35,5,,8,5, p (x),,5,8,,5,35,5 Vamos calcular os coeficientes de assimetria de p e p, assim como da função de probabilidade apresentada no Exemplo 3.6. p (x) E(X), 5 +, , 5 + 4, + 5, 8 + 6, 5 + 7,, 84 E(X ), 5 +, , 5 + 4, + 5, 8 + 6, 5 + 7,, 8 E(X 3 ) 3, 5 + 3, , , + 5 3, , , 43, 76 σ E(X ) [E(X)], 8, 84, 44 p (x) α 3 43, 76 3, 8, 84 + (, 84)3, 44, 44, E(X), +, 5 + 3, 8 + 4, + 5, 5 + 6, , 5 5, 6 E(X ), +, 5 + 3, 8 + 4, + 5, 5 + 6, , 5 8, 74 E(X 3 ) 3, + 3, , , + 5 3, , , 5 67, 8 σ E(X ) [E(X)] 8, 74 5, 6, 44 α 3 67, 8 3 8, 74 5, 6 + (5, 6)3, 44, 44, No Exemplo 3.6 foram calculados os momentos da distribuição, que nos levam ao seguinte coeficiente de assimetria: E(X µ)3 α 3 σ 3 ( 945 σ ) σ 3 8 como era de se esperar, tendo em vista a simetria da distribuição.

104 CAPÍTULO 3. VARIÁVEIS ALEATÓRIAS DISCRETAS

105 Capítulo 4 Algumas Distribuições Discretas 4. Introdução Considere as seguintes situações:. (a) Lança-se uma moeda viciada e observa-se o resultado obtido e (b) pergunta-se a um eleitor se ele vai votar no candidato A ou B.. (a) Lança-se uma moeda n vezes e observa-se o número de caras obtidas e (b) de uma grande população, extrai-se uma amostra de n eleitores e pergunta-se a cada um deles em qual dos candidatos A ou B eles votarão e conta-se o número de votos do candidato A. 3. (a) De uma urna com P bolas vermelhas e Q bolas brancas, extraem-se n bolas sem reposição e conta-se o número de bolas brancas e (b) de uma população com P pessoas a favor do candidato A e Q pessoas a favor do candidato B, extrai-se uma amostra de tamanho n sem reposição e conta-se o número de pessoas a favor do candidato A na amostra. Em cada uma das situações anteriores, os experimentos citados têm algo em comum: em certo sentido, temos a mesma situação, mas em contextos diferentes. Por exemplo, na situação, cada um dos experimentos tem dois resultados possíveis e observamos o resultado obtido. Na situação 3, temos uma população dividida em duas categorias e dela extraímos uma amostra sem reposição; o interesse está no número de elementos de uma determinada categoria. Na prática, existem muitas outras situações que podem se encaixar nos modelos acima e mesmo em outros modelos. O que veremos nesse capítulo são alguns modelos de variáveis aleatórias discretas que podem descrever situações como as listadas anteriormente. Nesse contexto, um modelo será definido por uma variável aleatória e sua função de probabilidade, explicitando-se claramente as hipóteses de validade. De posse desses elementos, poderemos analisar diferentes situações práticas para tentar encaixá-las em algum dos modelos dados. Neste capítulo, serão descritas as distribuições de probabilidade discretas mais usuais. A introdução de cada uma delas será feita através de um exemplo clássico (moeda, urna, baralho etc.) e, em seguida, serão explicitadas as características do experimento. Tais características são a ferramenta necessária para sabermos qual modelo se aplica a uma determinada situação prática. Definida a distribuição, calculam-se os momentos da distribuição.

106 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS 4. Distribuição uniforme discreta Suponha que seu professor de Estatística decida dar de presente a um dos alunos um livro de sua autoria. Não querendo favorecer qualquer aluno em especial, ele decide sortear aleatoriamente o ganhador, dentre os 45 alunos da turma. Para isso, ele numera os nomes dos alunos que constam do diário de classe de a 45, escreve esses números em pedaços iguais de papel, dobrando-os ao meio para que o número não fique visível, e sorteia um desses papéis depois de bem misturados. Qual é a probabilidade de que você ganhe o livro? Qual é a probabilidade de que o aluno que tirou a nota mais baixa na primeira prova ganhe o livro? E o que tirou a nota mais alta? O importante a notar nesse exemplo é o seguinte: o professor tomou todos os cuidados necessários para não favorecer qualquer aluno em especial. Isso significa que todos os alunos têm a mesma chance de ganhar o livro. Temos, assim, um exemplo da distribuição uniforme discreta. Definição 4. Distribuição uniforme discreta Uma variável aleatória X tem distribuição uniforme uiscreta com parâmetro n se Im(X) é um conjunto finito com n elementos e a probabilidade de X assumir qualquer um do n elementos é a mesma. Note que, se X tem distribuição discreta uniforme, todos os valores de Im(X) são igualmente prováveis. O parâmetro n, por sua vez, é o número de valores que a variável aleatória pode assumir e por isso n pode ser qualquer valor no conjunto N. Chamamos de espaço paramétrico o conjunto de valores que o parâmetro de uma distribuição pode assumir. Nesse caso, o espaço paramétrico para o parâmetro n é o conjunto dos números naturais positivos, isto é, N. Vamos denotar a distribuição uniforme discreta com parâmetro n por Unif(n). Nesse caso, se quisermos indicar que uma variável aleatória X segue essa distribuição, podemos simplesmente escrever: X Unif(n) (lê-se: a variável aleatória X tem distribuição uniforme discreta com parâmetro n). Função de probabilidade e função de distribuição Seja X Unif(n) e suponha Im(X) {x, x,..., x n }. Logo a sua função de probabilidade é definida por p X (x i ) P(X x i ) n i,,..., n. (4.) Na Figura 4. a seguir estão os gráficos da função de probabilidade e da função de distribuição de uma variável aleatória uniforme discreta. Veja que, como a probabilidade associada a cada elemento x i de Im(X) é a mesmo i, os degraus no gráfico da função de distribuição têm a mesma altura (Figura 4.b). Esperança e variância Seja X uma v.a. discreta uniforme que assume valores x, x,..., x n. De acordo com a Definição 3., E(X) n x + n x + + n x n x, (4.) ou seja, E(X) é a média aritmética dos valores possíveis de X.

107 4.. DISTRIBUIÇÃO UNIFORME DISCRETA 3 /n 3/n /n /n x x x 3... x n (a) Função de probabilidade x x x 3... x n (b) Função de distribuição Figura 4. Distribuição uniforme discreta Com relação à variância, temos a Definição 3., de onde tiramos que Var(X) E [X E(X)] n (x x) + n (x x) + + n (x n x) n n (x i x) σx (4.3) i Exemplo 4. Lançamento de uma moeda Considere o lançamento de uma moeda. Vamos definir a seguinte variável aleatória X associada a esse experimento: {, se ocorre coroa X, se ocorre cara Verifique se X é variável aleatória uniforme discreta e calcule sua média e variância. Para que essa v.a. tenha distribuição uniforme, é necessário supor que a moeda seja honesta e, nesse caso, p X () p X () E(X) + Var(X) ( ) + ( ) Exemplo 4. Conserto de máquina Uma máquina pode apresentar 5 tipos diferentes de defeitos, que ocorrem aproximadamente na mesma frequência. Dependendo do tipo de defeito, o técnico leva,, 3, 4 ou 5 horas para consertar a máquina. (a) Descreva o modelo probabilístico apropriado para representar a duração do tempo de reparo da máquina. (b) Qual é o tempo médio de reparo desta máquina? E o desvio-padrão deste tempo de reparo?

108 4 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS (c) São 5 horas e acaba de ser entregue uma máquina para reparo. A jornada normal de trabalho do técnico termina às 7 horas. Qual é a probabilidade de que o técnico não precise fazer hora extra para terminar o conserto desta máquina? Seja T tempo de reparo, em horas. (a) Como os defeitos ocorrem na mesma frequência, o modelo probabilístico apropriado é uma distribuição uniforme: t (b) E(T ) p T (t) P(T t) 5 3 horas Var(T ) DP(T ), 4 horas (c) Seja E o evento técnico não terá que fazer hora extra. Então P(E) P(T ) 5, 4 ou seja, a probabilidade de que ele não tenha que fazer hora extra é, Distribuição de Bernoulli Considere o lançamento de uma moeda. A característica de tal experimento aleatório é que ele possui apenas dois resultados possíveis. Uma situação análoga surge quando da extração da carta de um baralho, em que o interesse está apenas na cor (preta ou vermelha) da carta sorteada. Definição 4. Experimento de Bernoulli Um experimento de Bernoulli, ou ensaio de Bernoulli, é um experimento aleatório com apenas dois resultados possíveis; por convenção, um deles é chamado sucesso e o outro, fracasso. Suponha que seja realizado um ensaio de Bernoulli e, com base nesse experimento, seja definida a seguinte variável aleatória X: {, se ocorre sucesso X, se ocorre fracasso X é chamada de v.a. de Bernoulli, como mostra a Definição 4.3. Definição 4.3 Distribuição de Bernoulli Uma variável aleatória X tem distribuição de Bernoulli com parâmetro p se ela é uma variável indicadora de algum evento, denominado sucesso, que tem probabilidade p de ocorrência. Note que, para qualquer ensaio de Bernoulli, é sempre possível definir uma v.a. de Bernoulli. Além disso, Im(X) {, }, uma vez que X é v.a. indicadora (Definição.), P(X ) p,

109 4.3. DISTRIBUIÇÃO DE BERNOULLI 5 probabilidade de sucesso, e P(X ) p, probabilidade de fracasso. Como p é uma probabilidade, o espaço paramétrico é o intervalo [, ]. Note que, se p ou p, então X é constante; assim, o espaço paramétrico de real interesse é (, ). É comum denotar a probabilidade de fracasso por q, isto é, q p e q. Vamos denotar a distribuição de Bernoulli com parâmetro p por Bern(p). Assim, para indicar que uma variável aleatória X segue essa distribuição, escrevemos X Bern(p) (lê-se: a variável aleatória X tem distribuição de Bernoulli com parâmetro p). Função de probabilidade e função de distribuição A função de probabilidade de X Bern(p) pode também ser escrita da seguinte forma: p X (x) P(X x) p x ( p) x x,. (4.4) Já a sua função de distribuição é dada por: se x < F X (x) p se x < se x (4.5) Na Figura 4., temos os gráficos da função de probabilidade e da função de distribuição de uma variável de Bernoulli. Como Im(X) é um conjunto com apenas dois elementos, Im(X) {, }, a função de distribuição de X só tem dois pontos de descontinuidade, em e em. p p p (a) Função de probabilidade (b) Função de distribuição Figura 4. Distribuição de Bernoulli Esperança e variância Seja X Bern(p). Então, E(X) ( p) + p p E(X ) ( p) + p p Var(X) E(X ) [E(X)] p p p( p) Em resumo, se X Bern(p) temos E(X) p (4.6) Var(X) p( p) (4.7)

110 6 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Função geradora de momentos Se X Bern(p), então sua função geradora de momentos é M X (t) E(e tx ) e tx p x ( p) x ( pe t ) x ( p) x p + pe t x x Logo, Se X Bern(p) M X (t) p + pe t. (4.8) Veja que M X (). Calculando as derivadas, obtemos que e, portanto, para p (, ), M X (t) M X (t) M X (t) pet E(X) M X () p E(X ) M X () p E(X 3 ) M X () p Var(X) E(X ) [E(X)] p p p( p) p 3pp + p3 α 3 p( p) p( p) 3p + p ( p) ( p)(, 5 p) p( p) ( p) (, 5 p) p( p) p( p) Vemos, assim, que X Bern(p) será simétrica se p, 5 e será assimétrica à direita ou à esquerda se p <, 5 ou p >, 5, respectivamente. Exemplo 4.3 Lançamento de uma moeda Considere, assim como no Exemplo 4., o lançamento de uma moeda e a seguinte variável aleatória X associada a esse experimento: {, se ocorre coroa X, se ocorre cara Seja p a probabilidade de cara, < p <. Já vimos que, se p /, então X é uniforme discreta. Encontre a distribuição de X qualquer que seja o valor de p. Como Im(X) {, }, X tem distribuição de Bernoulli com parâmetro p, qualquer que seja p. Nesse caso, sucesso é definido como a saída de cara, que ocorre com probabilidade p, e fracasso é a saída de coroa. Note que a distribuição de Bernoulli com parâmetro p / é equivalente a uma distribuição uniforme. Exemplo 4.4 Auditoria da Receita Federal Um auditor da Receita Federal examina declarações de Imposto de Renda de pessoas físicas, cuja variação patrimonial ficou acima do limite considerado aceitável. De dados históricos, sabe-se que % dessas declarações são fraudulentas. Considere o experimento correspondente ao sorteio aleatório de uma dessas declarações e defina a v.a. indicadora do evento A foi sorteada uma declaração fraudulenta (Definição.). Encontre o modelo probabilístico adequado para essa v.a.

111 4.4. DISTRIBUIÇÃO BINOMIAL 7 Primeiro, veja que o experimento correspondente ao sorteio aleatório de uma dessas declarações com observação do tipo de declaração (fraudulenta ou não) é um experimento de Bernoulli. A v.a. indicadora do evento em questão pode ser definida por {, se a declaração sorteada é fraudulenta I A, caso contrário. Como Im(I A ) {, }, podemos dizer que esta v.a. tem distribuição de Bernoulli. O parâmetro p é a probabilidade de sucesso, que por definição é o evento associado ao valor da variável aleatória. Da forma com que I A foi construída, o sucesso para esse ensaio de Bernoulli é encontrar uma declaração fraudulenta. Então p,. Esse exemplo ilustra o fato de que sucesso, num contexto probabilístico, nem sempre significa uma situação feliz na vida real. Aqui, sucesso é definido de acordo com o interesse estatístico no problema. 4.4 Distribuição binomial Vamos introduzir a distribuição binomial, uma das mais importantes distribuições discretas, através de dois exemplos. Em seguida, discutiremos as hipóteses feitas e apresentaremos os resultados formais sobre tal distribuição e novos exemplos. Exemplo 4.5 Lançamentos de uma moeda Considere o seguinte experimento: uma moeda é lançada 4 vezes. Seja p P(sair a face cara). Vamos definir a seguinte variável aleatória associada a este experimento: X número de caras nos quatro lançamentos da moeda Encontre a função de probabilidade da v.a. X. Como visto antes, cada lançamento da moeda representa um experimento de Bernoulli, e como o interesse está no número de caras, vamos definir sucesso cara. Para encontrar a função de probabilidade de X, o primeiro fato a notar é que os valores possíveis de X são:, que equivale à ocorrência de nenhuma cara e, portanto, de 4 coroas;, que equivale à ocorrência de apenas cara e, portanto, 3 coroas;, que equivale à ocorrência de caras e, portanto, coroas; 3, que equivale à ocorrência de 3 caras e coroa e, finalmente, 4, que equivale à ocorrência de 4 caras e nenhuma coroa. Assim, Im(X) {,,, 3, 4}. Vamos, agora, calcular a probabilidade de cada um desses valores, de modo a completar a especificação da função de probabilidade de X. Para isso, vamos representar por K i o evento cara no i-ésimo lançamento e por C i o evento coroa no i-ésimo lançamento. X Temos a seguinte equivalência de eventos: {X } C C C 3 C 4

112 8 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS É razoável supor que os lançamentos da moeda sejam eventos independentes, ou seja, o resultado de um lançamento não interfere no resultado de qualquer outro lançamento. Dessa forma, os eventos C i e K j são independentes para i j. (Note que os eventos C i e K i são mutuamente exclusivos e, portanto, não são independentes se sair cara em um lançamento específico, não é possível sair coroa nesse mesmo lançamento e vice-versa). Analogamente, os eventos C i e C j são independentes para i j, bem como os eventos K i e K j, i j. Pela regra da probabilidade da interseção de eventos independentes, resulta que X P (C C C 3 C 4 ) P(C ) P(C ) P(C 3 ) P(C 4 ) ( p) ( p) ( p) ( p) ( p) 4 O evento X corresponde à ocorrência de cara e, consequentemente, de 3 coroas. Uma sequência possível de lançamentos é K C C 3 C 4. Vamos calcular a probabilidade desse resultado. independentes e, portanto, Como antes, os lançamentos são eventos P(K C C 3 C 4 ) P(K ) P(C ) P(C 3 ) P(C 4 ) p ( p) ( p) ( p) p( p) 3 Mas qualquer sequência com cara resulta em X, ou seja, a face cara pode estar em qualquer uma das quatro posições e todas essas sequências resultam em X. Além disso, definida a posição da face cara, as posições das faces coroas já estão determinadas são as posições restantes. Então, temos a seguinte equivalência: {X } {K C C 3 C 4 } {C K C 3 C 4 } {C C K 3 C 4 } {C C C 3 K 4 } Mas os eventos que aparecem no lado direito da expressão anterior são eventos mutuamente exclusivos. Logo, X P(X ) P(K C C 3 C 4 ) + P(C K C 3 C 4 ) + P(C C K 3 C 4 ) + P(C C C 3 K 4 ) p ( p) ( p) ( p) + ( p) p ( p) ( p) + ( p) ( p) p ( p) + ( p) ( p) ( p) p 4p( p) 3 O evento X corresponde à ocorrência de caras e, consequentemente, de coroas. Qualquer uma dessas sequências tem probabilidade p ( p). As sequências de lançamentos com caras e coroas são as seguintes: K K C 3 C 4 K C K 3 C 4 K C C 3 K 4 C C K 3 K 4 C K C 3 K 4 C K K 3 C 4

113 4.4. DISTRIBUIÇÃO BINOMIAL 9 ou seja, temos a seguinte equivalência e, portanto, X 3 e X 4 {X } (K K C 3 C 4 ) (K C K 3 C 4 ) (K C C 3 K 4 ) (C C K 3 K 4 ) (C K C 3 K 4 ) (C K K 3 C 4 ) P(X ) P(K K C 3 C 4 ) + P(K C K 3 C 4 )+ P(K C C 3 K 4 ) + P(C C K 3 K 4 )+ P(C K C 3 K 4 ) + P(C K K 3 C 4 ) 6p ( p) Os casos X 3 e X 4 são análogos aos casos X e X, respectivamente; basta trocar caras por coroas e vice-versa. Assim, P(X 3) 4p 3 ( p) P(X 4) p 4 Dessa forma, a função de probabilidade de X é p X (x) ( p) 4, se x 4p( p) 3, se x 6p ( p), se x 4p 3 ( p), se x 3 p 4, se x 4, caso contrário. É importante notar que a hipótese de independência dos lançamentos da moeda foi absolutamente fundamental na solução do exemplo; foi ela que nos permitiu multiplicar as probabilidades dos resultados de cada lançamento para obter a probabilidade da sequência completa de n lançamentos. Embora essa hipótese seja muito razoável nesse exemplo, ainda assim é uma hipótese subjetiva. Outra propriedade utilizada foi a da probabilidade da união de eventos mutuamente exclusivos. Mas aqui essa propriedade é óbvia, ou seja, não há qualquer subjetividade: os eventos C K e K C são mutuamente exclusivos, pois no primeiro lançamento ou sai cara ou sai coroa; não pode sair cara e coroa no primeiro lançamento, ou seja, cada lançamento é um experimento de Bernoulli. Exemplo 4.6 Bolas em uma urna Uma urna contém quatro bolas brancas e seis bolas verdes. Três bolas são retiradas dessa urna, com reposição, isto é, depois de tirada a primeira bola, ela é recolocada na urna e sorteia-se a segunda, que também é recolocada na urna para, finalmente, ser sorteada a terceira bola. Vamos definir a seguinte variável aleatória associada a esse experimento: Encontre a função de probabilidade da v.a. X. X número de bolas brancas sorteadas.

114 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS O importante a notar aqui é o seguinte: como cada bola sorteada é recolocada na urna antes da próxima extração, a composição da urna é sempre a mesma e o resultado de uma extração não afeta o resultado de outra extração qualquer. Dessa forma, em todas as extrações, a probabilidade de bola branca (e também bola verde) é a mesma e podemos considerar as extrações como independentes. Assim, temos uma situação análoga à do exemplo anterior: temos três repetições de um experimento (sorteio de uma bola), essas repetições são independentes, em cada uma delas há dois resultados possíveis bola branca (sucesso) ou bola verde (fracasso) e as probabilidades de sucesso e fracasso são as mesmas. Assim, cada extração equivale a um experimento de Bernoulli e como o interesse está nas bolas brancas, vamos considerar sucesso bola branca, e da observação anterior resulta que P(sucesso) 4 Como são feitas três extrações, Im(X) {,,, 3}. Vamos calcular a probabilidade de cada um desses valores. Como antes, vamos denotar por V i o evento bola verde na i-ésima extração e por B i o evento bola branca na i-ésima extração. Da discussão anterior, resulta que, para i j, os eventos V i e B j são independentes, assim como os eventos B i e B j e os eventos V i e V j. X Esse resultado equivale à extração de bolas verdes em todas as três extrações. Logo, X {X } {V V V 3 } P(X ) P(V V V 3 ) P(V ) P(V ) P(V 3 ) ( 6 Esse resultado equivale à extração de uma bola branca e, por consequência, duas bolas verdes. A bola branca pode sair em qualquer uma das três extrações e, definida a posição da bola branca, as posições das bolas verdes ficam totalmente estabelecidas. Logo, X e X 3 ( ) ( ) 4 6 P(X ) 3 Os casos X e X 3 são análogos aos casos X e X, respectivamente; basta trocar bola branca por bola verde e vice-versa. Assim, ( ) 4 ( ) 6 P(X ) 3 ) 3 e P(X 3) ( ) 4 3 Esses dois exemplos ilustram a distribuição binomial, que depende de dois parâmetros: número de repetições n e a probabilidade de sucesso p de cada ensaio de Bernoulli. o Nos dois exemplos anteriores, tínhamos n repetições de um ensaio de Bernoulli, que eram independentes e, portanto, a probabilidade de sucesso p se mantinha constante ao longo de todas as

115 4.4. DISTRIBUIÇÃO BINOMIAL repetições. Essas são as condições definidoras de um experimento binomial. No Exemplo 4.5, n 4 e uma probabilidade de sucesso qualquer p. No Exemplo 4.6, n 3 e p 4. Definição 4.4 Experimento binomial Um experimento binomial consiste em um número fixo de repetições independentes de um ensaio de Bernoulli com probabilidade p de sucesso. Note que, como as repetições são independentes, a probabilidade p de sucesso (e por consequência, a probabilidade p de fracasso) permanece constante. Definição 4.5 Distribuição binomial Uma variável aleatória X tem distribuição binomial com parâmetros n e p quando esta representa o número de sucessos em n repetições independentes de um experimento de Bernoulli com probabilidade p de sucesso. Se X tem distribuição binomial, então os valores possíveis de X são,,,..., n, isto é, Im(X) {,,,..., n}. O espaço paramétrico para o parâmetro n é o conjunto N e para o parâmetro p, o intervalo [, ]. Como na distribuição de Bernoulli, o espaço paramétrico de real interesse é o intervalo, ). Vamos denotar a distribuição binomial com parâmetros n e p por Bin(n; p). Nesse caso, para indicar que uma variável aleatória X segue essa distribuição, basta escrever X Bin(n; p) (lê-se: a variável aleatória X tem distribuição binomial com parâmetros n e p). Função de probabilidade Para obter a função de probabilidade de X Bin(n, p) para todo x Im(X), precisamos calcular P(X x) para x,,,..., n. Veja que o evento {X x} corresponde a todas as sequências de resultados com x sucessos e, portanto, n x fracassos. Como as repetições são independentes, cada uma dessas sequências tem probabilidade p x ( p) n x. O número total de tais sequências é dado pelo coeficiente binomial, definido a seguir. Definição 4.6 Coeficiente binomial ( ) n Para n e k inteiros define-se o coeficiente binomial como o número de maneiras com que k k elementos podem ser escolhidos dentro de um total de n elementos distintos. Para k n, esse número pode ser calculado por: ( ) n n! k k!(n k)!. ( ) n Por convenção definimos quando k > n, pois não há como escolher mais elementos do k que o total de elementos disponíveis.

116 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS ( ) n Veja que pode ser interpretado como o número de subconjuntos com k elementos de k um conjunto com n elementos. Lembre-se que n! representa o fatorial de n, definido como n! n (n ) (n ). Por definição,!. Assim, chegamos à função de probabilidade para X Bin(n; p). ( ) n p X (x) P(X x) p x ( p) n x, x,,,..., n. (4.9) x Vamos verificar que a expressão apresentada na Equação 4.9 realmente é uma função de probabilidade. Para isso é preciso mostrar que p X (x) para qualquer x R e x Im(X) p X (x). É imediato ver, da Equação 4.9, que p X (x). Para mostrar que a soma das probabilidades é, usaremos o Teorema 4. do Binômio de Newton. Teorema 4. Binômio de Newton Dados dois números reais quaisquer x e a e um inteiro qualquer n, então (x + a) n n k ( ) n a k x n k k Para X Bin(n; p), x Im(X) p X (x) n x ( ) n p x ( p) n x x }{{} [ + ( p)] n Teo. 4. Assim, a Equação 4.9 realmente define uma função de probabilidade. Esperança e variância Se X Bin(n; p), então E(X) n x P(X x) x n ( ) n x p x ( p) n x x x n n! x x!(n x)! px ( p) n x Quando x, a parcela correspondente no somatório é nula. Logo, podemos escrever (note o índice do somatório!): E(X) n n! x x!(n x)! px ( p) n x x x n n! x x(x )!(n x)! px ( p) n x e como x, podemos dividir o numerador e o denominador por x, o que resulta na simplificação E(X) n x np n! (x )!(n x)! px ( p) n x n x x n x (n )! (x )!(n x)! px ( p) n x np n(n )! (x )!(n x)! p px ( p) n x n x ( ) n p x ( p) n x x

117 4.4. DISTRIBUIÇÃO BINOMIAL 3 Fazendo y x, temos que x y + x y x n y n Logo, n ( ) n E(X) np p y ( p) n y y y }{{} Veja que a expressão marcada com chaves é igual a, pois é o somatório da função de probabilidade de uma distribuição binomial com parâmetros (n ) e p para todos os valores possíveis dessa variável aleatória. Portanto, X Bin(n; p) E(X) np (4.) Vamos, agora, calcular E ( X ), usando raciocínio análogo ao usado no cálculo da esperança. E(X ) n ( ) n x p x ( p) n x x x n x n x x n! x(x )!(n x)! px ( p) n x x n! x!(n x)! px ( p) n x n n! x (x )!(n x)! px ( p) n x x n n(n )! x (x )!(n x)! p px ( p) n x np x }{{} yx n np n (n )! x (x )!(n x)! px ( p) n x (n )! n ( n (y + ) y!(n y)! py ( p) n y np (y + ) y y x y ) p y ( p) n y Mas este último somatório é a esperança de Y +, em que Y Bin(n ; p); portanto, usando o resultado apresentado na Equação 4. e as propriedades da esperança, obtemos Logo, ou seja, E(X ) np [E(Y ) + ] np [(n )p + ] n p np + np Var (X) E(X ) [E(X)] n p np + np (np) np np X Bin(n, p) Var (X) np ( p) (4.) Note que a esperança e a variância da binomial são iguais à esperança e à variância da distribuição de Bernoulli, multiplicadas por n, o número de repetições. Pode-se ver que a distribuição de Bernoulli é uma distribuição binomial com parâmetros n e p. Função geradora de momentos Seja X Bin(n, p). Sua função geradora de momentos é n n ( ) n M X (t) E(e tx ) e tx P(X x) e tx p x ( p) n x x n x x x ( ) n (pe t ) x ( p) n x [ pe t + ( p) ] n x

118 4 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS pela fórmula do binômio de Newton. Logo, Veja que M X (). derivadas. X Bin(n, p) M X (t) [ pe t + ( p) ] n. (4.) Para encontrar os três primeiros momentos precisamos das três primeiras M X (t) npet [ pe t + ( p) ] n M X (t) M X (t) + n(n )p e t [ pe t + ( p) ] n M X (t) M X (t) + n(n )p e t [ pe t + ( p) ] n + n(n )(n )p 3 e 3t [ pe t + ( p) ] n 3 e, portanto E(X) M X () np [p + ( p)]n np E(X ) M X () M X () + n(n )p np + n p np E(X 3 ) M X () M X () + n(n )p + n(n )(n )p 3 n 3 p 3 3n p 3 + np 3 + 3n p 3np + np e Logo, Var(X) E(X ) [E(X)] np np np( p) E(X µ) 3 n 3 p 3 3n p 3 + np 3 + 3n p 3np + np 3np(np + n p np ) + n 3 p 3 np 3 3np + np np(p 3p + ) np( p)(, 5 p) Para p (, ), o coeficiente de assimetria é α 3 np( p)(, 5 p) np( p) np( p) p np( p) e a distribuição será simétrica se p, 5 e assimétrica à direita ou à esquerda se p <, 5 ou p >, 5, respectivamente. Note que o cálculo da esperança e da variância de uma binomial fica mais simples com o uso da função geradora de momentos. Formas da distribuição binomial Se X bin(n; p), então, para x,,..., n, temos P(X x + ) P(X x) n! (x + )!(n x )! px+ ( p) n x n! x!(n x)! px ( p) n x (n x)p (x + )( p) ou seja, P(X x + ) (n x)p P(X x) x,,..., n (4.3) (x + )( p) Temos, assim, uma forma recursiva de calcular probabilidades binomiais.

119 4.4. DISTRIBUIÇÃO BINOMIAL 5 Suponhamos, agora, que a probabilidade máxima ocorra em x. Usando o resultado dado na Equação (4.3), temos que ter P(X x + ) P(X x ) (n x )p (x + )( p) np x p x x p + p np x + p x p(n + ) Analogamente, temos que ter P(X x ) P(X x ) [n (x )] p np x p + p x x p x ( p) x p(n + ) Resulta, então, que se x é ponto de máximo, então e como x tem que ser inteiro, temos que ter p(n + ) x p(n + ) x p(n + ) (4.4) em que x representa o maior inteiro menor ou igual a x. Por exemplo, se n 7 e p,, temos que ter, 8 k, 8, ou seja,, 6 k, 6 e o ponto de máximo ocorre em x, que é o maior inteiro menor ou igual a,6. Note que, se p(n + ) for inteiro, então a distribuição será bimodal, com moda em x p(n + ) e x p(n + ) pois P [X p(n + )] P(X np + p) [n (np + p )] p P [X p(n + ) ] P(X np + p ) (np + p)( p) (n np p + )p (n + ) p(n + ) p(n + )( p) (n + )( p) (n + )( p) (n + )( p) Por exemplo, se p, 3 e n 9, então p(n + ) 3 e a distribuição é bimodal com modas x e x 3. Para o caso em que p, 5, esses resultados implicam que a distribuição será unimodal quando n + for ímpar e bimodal quando n + for par, ou seja, se p, 5, a distribuição é unimodal para n par e bimodal para n ímpar. Além disso, se p, 5, P(X x) ( ) ( ) n n, 5 x (, 5) n x, 5 n x (, 5) n (n x) P(X n x) x n x confirmando que a distribuição é simétrica, conforme já visto. Esses resultados estão ilustrados na Figura 4.3, onde temos gráficos da distribuição binomial para diferentes valores dos parâmetros n e p. Note que a distribuição é assimétrica quando p, 5 e a assimetria é positiva quando p <, 5 e negativa quando p >, 5. Exemplo 4.7 Tiro ao alvo Um atirador acerta, na mosca do alvo, % dos tiros. Se ele dá tiros, qual a probabilidade de ele acertar na mosca no máximo uma vez?

120 6 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS (a) Bin(;, 5).4 (b) Bin(7;, 5) (c) Bin(7;, ) (d) Bin(7;, 8) Figura 4.3 Função de probabilidade da distribuição binomial Podemos pensar os tiros como experimentos de Bernoulli independentes, em que o sucesso é acertar no alvo com probabilidade,. Então, o problema pede P(X ), em que X número de acertos em tiros. Logo, X bin(;, ) e P(X ) P(X ) + P(X ) ( ) (, ) (, 8) +, 3758 ( ) (, ) (, 8) 9 Exemplo 4.8 Partidas de um jogo Dois adversários A e B disputam uma série de oito partidas de um determinado jogo. A probabilidade de A ganhar uma partida é,6 e não há empate. Qual é a probabilidade de A ganhar a série? Note que só podem ocorrer vitórias ou derrotas, o que significa que temos repetições de um experimento de Bernoulli com probabilidade,6 de sucesso (vitória do jogador A). Assumindo a independência das provas, se definimos X número de vitórias de A, então X bin(8;, 6) e o problema pede P (X 5), isto é, probabilidade de A ganhar mais partidas que B. P (X 5) P (X 5) + P (X 6) + P (X 7) + P (X 8) ( ) ( ) ( ) ( ) (, 6) 5 (, 4) 3 + (, 6) 6 (, 4) + (, 6) 7 (, 4) + (, 6) 8 (, 4),

121 4.5. DISTRIBUIÇÃO GEOMÉTRICA 7 Exemplo 4.9 Parâmetros da binomial Em uma distribuição binomial, sabe-se que a média é 4,5 e a variância é 3,5. Encontre os valores dos parâmetros da distribuição. Temos que np 4, 5 np( p) 3, 5 Substituindo a primeira equação na segunda, resulta Substituindo na primeira equação, obtemos que 4, 5( p) 3, 5 p, 7 p, 3 n 4, 5/, Distribuição geométrica Considere as seguintes situações: (i) uma moeda com probabilidade p de cara é lançada até que apareça cara pela primeira vez; (ii) em uma população muito grande (pense na população mundial), p% das pessoas sofrem de uma rara doença desconhecida e portadores precisam ser encontrados para estudos clínicos. Quais são as semelhanças entre essas duas situações? No primeiro caso, matematicamente falando, poderíamos ter que fazer infinitos lançamentos. No segundo caso, muito grande pode ser uma aproximação para infinito. Em ambos os casos, temos repetições de um experimento de Bernoulli. No primeiro caso, as repetições certamente podem ser consideradas independentes. No segundo caso, também podemos assumir independência, desde que se garanta, por exemplo, sorteio entre famílias distintas, de modo que fatores genéticos não interfiram. Dessa forma, temos repetições independentes de um experimento de Bernoulli e nosso interesse pode ser o número de fracassos antes da ocorrência do primeiro sucesso (cara no caso da moeda, pessoa portadora no estudo epidemiológico). Vamos, agora, formalizar a definição de tal variável e obter a sua função de probabilidade. Definição 4.7 Distribuição geométrica Uma variável aleatória X tem distribuição geométrica com parâmetro p quando esta representa o número de fracassos antes da ocorrência do primeiro sucesso em repetições independentes de um experimento de Bernoulli com probabilidade p de sucesso. Veja que os possíveis valores dessa variável aleatória são: (nenhum fracasso e, portanto sucesso na primeira repetição), (um fracasso antes do primeiro sucesso, que tem que ocorrer na segunda repetição), (dois fracassos antes do primeiro sucesso, que tem que ocorrer na terceira repetição) etc. Logo, Im(X) N. Esse é um exemplo de v.a. discreta em que o espaço amostral, enumerável, é infinito. O espaço paramétrico para o parâmetro p é o intervalo [, ], uma vez que p é a probabilidade de sucesso no experimento de Bernoulli e nosso interesse estará no caso em que p (, ).

122 8 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS As características definidoras desse modelo são: repetições independentes de um experimento de Bernoulli com probabilidade p de sucesso, o que significa que em todas as repetições a probabilidade de sucesso (e, portanto, de fracasso) é a mesma. Vamos denotar a distribuição geométrica com parâmetro p por Geo(p). Assim, para indicar que uma variável aleatória X segue essa distribuição, escrevemos X Geo(p) (lê-se: a variável aleatória X tem distribuição geométrica com parâmetro p). Função de probabilidade Para calcular a probabilidade do evento X x, x,,,..., devemos notar que tal evento corresponde à ocorrência de fracassos nas x primeiras repetições e o primeiro sucesso na (x + )- ésima repetição. Denotando por F i e S i a ocorrência de fracasso e sucesso na i-ésima repetição respectivamente, temos a seguinte equivalência de eventos: {X x} {F F F x S x+ } Como as repetições são independentes, segue que P (X x) P (F F F x S x+ ) P (F ) P (F ) P (F x ) P (S x+ ) ( p) ( p) ( p) p Ou seja, se X Geo(p), a sua função de probabilidade é definida por: p X (x) P(X x) ( p) x p x,,,... (4.5) É imediato ver que P(X x). Além disso, P(X x) x ( p) x p p x x ( p) x }{{} (A.) ( p) Logo, (4.5) realmente define uma função de probabilidade. Esperança e variância Seja X Geo(p). Então E(X) x P(X x) x ( p) x x( p) x p x x( p) x p x x( p) x p }{{} ( p) yx (y + )( p) y p Note que o somatório acima é a esperança de Y X + com X Geo(p). Pela propriedade de linearidade do valor esperado, o somatório é, então, E(X) +, o que nos dá E(X) ( p) [E(X) + ] E(X) ( p) E(X) + ( p) ( + p) E(X) p E(X) p p y

123 4.5. DISTRIBUIÇÃO GEOMÉTRICA 9 Logo, X Geo(p) E(X) p p (4.6) Com argumentos análogos, vamos calcular E(X ). Preste atenção nos índices dos somatórios! Logo, e, portanto, E(X ) x ( p) x p x x x ( p) x p x ( p) x ( p) x p ( p) (y + ) ( p) y p ( p) (y + y + )( p) y p y y y y ( p) y ( p) y p + y( p) y p + ( p) y p [ ] ( p) E(X ) + E(X) + [ ( p) ( p) E(X ) + ( p) p ( p) E(X ( p)( p) ) + p [ ( p)] E(X ) ( p)( p) p ] + E(X ) y ( p)( p) p Var(X) E(X ) [E(X)] ( p)( p) ( p) ( p)( p + p) p p p p p Assim, X Geo(p) Var(X) p p (4.7) Função geradora de momentos Seja X Geo(p) em que p (, ). M X (t) E(e tx ) e tx ( p) x [ p p e t ( p) ] x ( ) Então, se e t ( p) <, isto é, se e t ( p) < ou ainda, t < ln p Logo, x M X (t) X Geo(p) M X (t) p e t ( p) p e t ( p) x temos que, se t < ln( p). (4.8)

124 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Note que a função geradora de momentos de X Geo(p) não está definida para todo t R, mas está bem definida para t < ln( p) e como ln( p) >, a função geradora de momentos está bem definida para t em uma vizinhança de zero. Veja que M X (). As derivadas de M X (t) são Logo, M X (t) p [ et ( p)] [ e t ( p)] pet ( p) [ e t ( p)] M e t ( p) X (t) e t ( p) M X (t) M X (t) e t [ ( p) e t e t ( p) + M ( p)[ e t ( p)] e t ( p)[ e t ] ( p)] X (t) [ e t ( p)] M X (t) e t ( p) e t ( p) + M X (t) + M e t ( p) X (t) [ e t ( p)] M X (t) e t ( p) + M e t ( p) X (t) [ e t ( p)] M X (t) e t ( p) + M X (t) e t ( p) e t ( p) M X (t) + et ( p) e t ( p) E(X) M X () p p E(X ) M X () M X () p p Var(X) mesmos resultados obtidos anteriormente. ( p)( p) p ( p)( p) p ( p) ) p 3p + p + p p p Vamos, agora, calcular a terceira derivada, que nos dará E(X 3 ). p p Logo, M X (t) M X (t) + et ( p) e t ( p) + ( p)][ e t ( p)] [ + e t ( p)][ e t ( p)] M X (t)[et [ e t ( p)] M X (t) + et ( p) e t ( p) + M X (t) [e t ( p)] [ e t ( p)] E(X 3 ) M X () M X () p + M p X () p p ( p)( p) ( p) p 3 + p 3 6 p + 7p p 3 p 3 E(X µ) 3 E(X 3 ) 3 E(X ) E(X) + [E(X)] 3 6 p + 7p p 3 p 3 3 ( p) ( p) ( p)3 p 3 + p 3 ( p)( p) p 3

125 4.5. DISTRIBUIÇÃO GEOMÉTRICA O coeficiente de assimetria é, então α 3 ( p)( p) p 3 p p p p p p (4.9) que é sempre positivo, ou seja, a distribuição geométrica é sempre assimétrica à direita. Quanto menor p, maior o coeficiente de assimetria, ou seja, mais a cauda direita da distribuição se prolonga. Veja a Figura 4.4. Note, também, que P(X x + ) P(X x) ( p) (4.) e como p <, a distribuição geométrica é sempre decrescente (a) Geo(, 8) (b) Geo(, ) Figura 4.4 Função de probabilidade da distribuição geométrica Função de distribuição A variável geométrica é uma das poucas variáveis aleatórias discretas para as quais é possível encontrar uma forma fechada para a sua função de distribuição. Para o seu cálculo, vamos usar novamente a notação x, que representa o maior inteiro menor ou igual a x. Então, para x <, F(x) e para x temos que Resumindo: x F(x) P(X x) P(X k) ( p) k p k ( p) x + p ( p) { F(x) x k se x < ( p) x + se x (4.) Note que isso indica que F X é constante entre dois números inteiros consecutivos e dá um salto em x,,,.... Definição alternativa da distribuição geométrica Em vez de definir a variável geométrica como o número de fracassos antes do primeiro sucesso, podemos usar a seguinte definição alternativa: Y número de repetições até o primeiro sucesso

126 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Neste caso, Im(Y ) N e Y y significa que foram feitas y repetições, sendo a última um sucesso, ou seja, ocorreram y fracassos antes do primeiro sucesso. Assim, temos a seguinte relação entre Y e a variável geométrica X apresentada anteriormente na Definição 4.7 X Y Y X + Essa distribuição de probabilidade é, às vezes, chamada distribuição geométrica deslocada (em inglês, shifted geometric distribution). Vamos usar a notação Y Geo (p) para denotar que a variável Y representa o número de repetições de um experimento de Bernoulli até o primeiro sucesso. A distribuição de Y é P(Y y) ( p) y p y,,... (4.) e da relação entre as duas variáveis, resulta que, se Y Geo (p), M Y (t) e t pe t M X (t) e t ( p) E(Y ) E(X) + p + p p se t < ln( p) (4.3) (4.4) Var(Y ) Var(X) p p (4.5) α 3Y α 3X p p (4.6) A função de distribuição de Y é { F Y (y) P(X + y) P(X y ) se y < ( p) y + se y ou seja, { F Y (y) se y < ( p) y se y (4.7) Propriedade da falta de memória Nessa seção, vamos apresentar o conceito de falta de memória de uma variável aleatória. Em seguida vamos mostrar que a distribuição geométrica satisfaz tal propriedade. Definição 4.8 Propriedade da Falta de Memória Sejam X uma variável aleatória e t, s números reais quaisquer não negativos. Se, P(X > t + s X > t) P(X > s) então dizemos que X tem a propriedade da falta de memória. Vamos mostrar, agora, que uma variável aleatória com distribuição geométrica satisfaz a propriedade da falta de memória. Sejam, então, X Geo(p) e m, n Im(X), isto é, m, n N.

127 4.5. DISTRIBUIÇÃO GEOMÉTRICA 3 Então, P(X > m + n X > m) P(X > m + n) P(X > m) [ ( p)m+n ] [ ( p) m ] P(X m + n) P(X m) ( p)m+n ( p) m ( p)n P(X > n) ou seja, uma v.a. com distribuição geométrica satisfaz a propriedade da falta de memória. Na prática isso significa que, se já foram realizadas pelo menos m repetições do ensaio de Bernoulli sem nenhum sucesso, a probabilidade de que o primeiro sucesso ocorra pelo menos no m+n-ésimo ensaio é exatamente a mesma probabilidade de o primeiro sucesso ocorrer no n-ésimo ensaio, contado desde o início do experimento, ou seja, a variável esquece que já foram realizadas m repetições. Veja a Figura 4.5. Figura 4.5 Ilustração da propriedade da falta de memória da distribuição geométrica Por exemplo, se jogamos uma moeda 5 vezes e não saiu nenhuma cara, não significa que há mais chance de sair cara nos próximos 3 lançamento do que nos três primeiros lançamento da moeda. Exemplo 4. Tiro ao alvo Um atirador acerta na mosca do alvo, % dos tiros. Qual é a probabilidade de ele acertar na mosca pela primeira vez no o tiro? E quantos tiros serão dados em média até que o atirador acerte na mosca? Podemos pensar os tiros como experimentos independentes de Bernoulli (acerta ou não acerta). A probabilidade de sucesso (acertar no alvo) é p,. Seja X número de tiros até primeiro acerto. Então, X Geo (, ) e P (X ), 8 9,, 684. O número médio de tiros até o primeiro acerto nada mais é que E(X). Pelo resultado da Equação 4.4 resulta E(X) p, 5. ou seja, em média, o atirador dará cinco tiros até acertar o alvo pela primeira vez. Exemplo 4. Lançamento de dado Joga-se um dado equilibrado. Qual é a probabilidade de serem necessários lançamentos até a primeira ocorrência de um seis? Nesse caso, sucesso é a ocorrência de face seis. Logo, P(sucesso) p 6 e P(fracasso) p 5 6. Seja X número de lançamentos até o primeiro seis. Então, X Geo ( 6) e o problema pede P (X ) ( 5 6) 9 ( 6), 33.

128 4 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS 4.6 Distribuição binomial negativa Consideremos novamente repetições independentes de um experimento de Bernoulli com probabilidade p de sucesso. Vamos considerar agora uma generalização da v.a. geométrica, no seguinte sentido: em vez de fixarmos o primeiro sucesso, vamos fixar um número qualquer r de sucessos, ou seja, definimos X número de fracassos antes da ocorrência do r-ésimo sucesso, r. Note que r corresponde à distribuição geométrica. Definição 4.9 Distribuição binomial negativa Uma variável aleatória X tem distribuição binomial negativa com parâmetros r e p quando esta representa o número de fracassos antes da ocorrência do r-ésimo sucesso em repetições independentes de um experimento de Bernoulli com probabilidade p de sucesso. Note que os possíveis valores de X são: (nenhum fracasso, e, portanto, sucessos nas r primeiras repetições), (um fracasso antes do r-ésimo sucesso), (dois fracassos antes do r-ésimo sucesso) etc. Logo, Im(X) N. Este é mais um exemplo de v.a. discreta cuja imagem é um conjunto infinito. Veja que o parâmetro r pode assumir qualquer valor inteiro positivo, logo seu espaço paramétrico é o conjunto N. Já para o parâmetro p, o espaço paramétrico é o intervalo [, ], uma vez que p é a probabilidade de sucesso do ensaio de Bernoulli. Vamos denotar a distribuição binomial negativa com parâmetros r e p por BinNeg(r; p). Assim, para indicar que uma variável aleatória X segue essa distribuição, escrevemos simplesmente X BinNeg(r; p) (lê-se: a variável aleatória X tem distribuição binomial negativa com parâmetros r e p). Função de probabilidade Seja X BinNeg(r; p); para qualquer x Im(X), o evento {X x} indica que foram obtidos x fracassos antes de se obter r sucessos, ou seja, foram realizadas x + r repetições, sendo a ultima um sucesso e r sucessos nas x + r repetições. Veja Figura 4.6). Uma sequência possível de resultados consiste em fracassos nas x primeiras repetições e sucesso nas próximas r repetições seguintes e o último sucesso na última repetição: F,..., F x, S x+,..., S x+r, S x+r A probabilidade de tal sequência é dada pelo produto das probabilidades, já que as repetições são independentes, isto é: P(F... F x S x+..., S x+r S x+r ( p) x p r p Mas existem ( ) x+r x maneiras de arrumar x fracassos em x+r posições e as sequências resultantes têm todas a mesma probabilidade acima. Como elas constituem eventos mutuamente exclusivos, a probabilidade da união delas, que é P (X x), é a soma das probabilidades, ou seja: ( ) x + r p X (x) P(X x) p r ( p) x x,,,... (4.8) x

129 4.6. DISTRIBUIÇÃO BINOMIAL NEGATIVA 5 Figura 4.6 Ilustração dos resultados da binomial negativa Como nas seções anteriores, precisamos mostrar que a Equação (4.8) realmente define uma função de probabilidade. Como P (X x), para todo x R, temos que mostrar que P (X x) x ( ) x + r p r ( p) x. x x ou equivalentemente, p r x ( r + x x ) ( p) x. que: Usando o resultado da Equação A.) da Seção A., com k r, i x e r p, obtemos ( r + x x x ) ( p) x [ ( p) r + ] p r e, portanto, P (X x) p r p r x Esperança e Variância Seja X BinNeg(r; p). Então,

130 6 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS E(X) ( ) x + r x p r ( p) x (x + r )! x x x!(r )! pr ( p) x x x ( p) x (x + r )! (x )!(r )! pr ( p) x ( p) r( p) p r( p) p y x (y + r)! y!(r )! pr ( p) y ( p) y (y + r)! p r+ ( p) y y!r! (x + r )! (x )!(r )! pr ( p) x r y ( ) y + (r + ) p r+ ( p) y y y }{{} S (y + r)! p r ( p) y y!r! Mas S é o somatório das probabilidades de todos os valores de uma variável BinNeg(r + ; p) e, portanto, S. Logo, r( p) X BinNeg(r; p) E(X) (4.9) p Obviamente, se r temos a esperança de uma geométrica, conforme Equação 4.6. De maneira análoga, vamos calcular E(X ), para, em seguida, obtermos Var(X). E(X ) x x ( ) x + r x p r ( p) x x x (x + r )! x x!(r )! pr ( p) x (x + r )! x (x )!(r )! pr ( p) x (x + r )! ( p) x (x )!(r )! pr ( p) x ( p) r( p) p (y + r)! (y + ) y!(r )! pr ( p) y y x ( ) y + (r + ) (y + ) p r+ ( p) y r y }{{} ( ) Mas ( ) é a função de probabilidade de uma variável aleatória Y BinNeg(r +; p) e, portanto E(X ) r( p) p r( p) p (y + ) P(Y y) y r rp + p + p p r( p) p r( p) p E(Y + ) r( p) + p r( p) p ( (r + )( p) p r ( p) + r( p) p ) + Segue então que, Var(X) E(X ) E(X) r ( p) + r( p) p r ( p) p

131 4.6. DISTRIBUIÇÃO BINOMIAL NEGATIVA 7 ou seja, X BinNeg(r; p) V ar(x) r p p (4.3) Novamente, se r, temos a variância de uma distribuição geométrica, conforme Equação 4.7. Função geradora de momentos Se X BinNeg(r; p), sua função geradora de momentos é ( ) x + r M X (t) E(e tx ) e tx p r ( p) x x x ( ) r + x [e p r t ( p) ] x x x Aqui fez-se uso do resultado (A.) da Seção A.. Concluímos, assim, que X BinNeg(r, p) M X (t) p r [ e t ( p)] r se e t ( p) < o que garante que M X (t) está bem definida numa vizinhança de t. Veja que M X (). As derivadas de M X (t) são p r [ e t ( p)] r se t < ln( p) (4.3) M X (t) pr r[ e t ( p)] r [ e t ( p)] [ e t ( p)] r p r [ e t ( p)] r re t ( p) e t ( p) M re t ( p) X (t) e t ( p) Logo, M X (t) M X (t) re t ( p) e t ( p) + M X (t) M X (t) ret ( p)[ e t ( p)] [ e t ( p)] M X ( p) + e t ( p) (t)ret e t ( p) M X (t) + ret ( p) e t ( p) E(X) M X r( p) () p mesmos resultados obtidos anteriormente. + M X (t) e t ( p) e t ( p) E(X ) M X () rp M X ()r r ( p) + r( p) p p Var(X) r ( p) + r( p) p r ( p) ) r( p) p p Vamos, agora, calcular a terceira derivada, que nos dará E(X 3 ).

132 8 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Logo, M X (t) M X (t) + ret ( p) e t ( p) + ( p)][ e t ( p)] [ + re t ( p)][ e t ( p)] M X (t)[ret [ e t ( p)] M X (t) + ret ( p) e t ( p) + M X (t)[(r + )et ( p)] [ e t ( p)] M X (t) [ + re t ( p) e t ( p) ] + M X (t)[(r + )et ( p)] [ e t ( p)] M X (t) [ [ e t ( p)] + 3re t ( p) + r e t ( p) + e t ( p) E(X 3 ) M X r( p) [ ] () p 3 + 3r( p) + r ( p) + ( p) e E(X µ) 3 r( p) [ ] p 3 + 3r( p) + r ( p) + ( p) 3 r ( p) + r( p) r( p) p + r3 ( p) 3 p p 3 r( p) + 3r ( p) + r 3 ( p) 3 + r( p) ) 3r 3 ( ) 3 3r ( p) + r 3 ( p) O coeficiente de assimetria é, então α 3 r( p)( p) p 3 r( p) r( p) p p e, assim, a distribuição binomial negativa é sempre assimétrica à direita. p 3 ] p r( p) (4.3) Definição Alternativa da Distribuição Binomial Negativa Assim como no caso da distribuição geométrica, podemos definir a variável binomial negativa como Y número de repetições até o r-ésimo sucesso (4.33) Para que haja r sucessos são necessárias pelo menos r repetições. Logo, Im(Y ) r, r +, r +,.... Para y Im(Y ), o evento {Y y} indica que foram necessárias y repetições para a obtenção de r sucessos, o r ésimo sucesso acontece na última repetição e os r sucessos restantes ocorrem entre as y primeiras repetições. Veja a Figura 4.7. Resulta, então, que P(Y y) ( ) y p r ( p) y r k r, r +, r +,... (4.34) r Essa distribuição é também conhecida como distribuição de Pascal. Para indicar que uma variável aleatória Y segue essa distribuição, escrevemos simplesmente Y BinNeg (r; p). Analisando as Figuras 4.6 e 4.7 obtemos a seguinte relação: Y X + r (4.35)

133 4.6. DISTRIBUIÇÃO BINOMIAL NEGATIVA 9 Figura 4.7 Ilustração dos resultados da binomial negativa deslocada o que dá origem ao nome distribuição binomial negativa deslocada. Com essa forma alternativa, temos [ M Y (t) e rt pe t ] r M X (t) e t ( p) se t < ln( p) (4.36) E(Y ) E(X) + r p + r r p p (4.37) r( p) Var(Y ) Var(X) p (4.38) α 3Y α 3X p r( p) (4.39) Na distribuição binomial negativa deslocada, o número de repetições do experimento de Bernoulli é aleatório e o número de sucessos é um número fixo (pré-determinado); note o contraste com a distribuição binomial, em que o número de repetições é fixo e o número de sucessos é aleatório. Parâmetro Distribuição Binomial Binomial negativa deslocada Número de repetições fixo variável aleatória Número de sucessos variável aleatória fixo Exemplo 4. Fabricação de peças Deseja-se produzir 5 peças boas, em uma máquina que dá % de peças defeituosas. probabilidade de ser necessário fabricar 8 peças para se conseguir as 5 peças boas? Qual é a Seja X número de peças fabricadas até a obtenção de 5 boas (sucesso). Temos que P(peça boa) (, 8 e P(peça defeituosa),. Logo, X BinNeg (5;, 8). O problema pede P(X 8) 7 ) 4 (, 8) 5 (, ) 3, 9754.

134 3 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Por que binomial negativa? Quando definimos o número binomial ( n k), supusemos que n > e < k < n e vimos que ( ) n n! n(n ) [n (k )] (n k)! n(n ) (n k + ) k k!(n k)! k!(n k)! k! De forma análoga, definimos que pode ser escrito como ( ) n k ( ) n k ( n)( n ) ( n k + ) k! [( )(n)] [( )(n + )] [( )(n + k )] k! ( )k n(n + ) (n + k ) k! Vamos, agora, analisar o coeficiente binomial que aparece na expressão (4.8): ( ) x + r (x + r )! x x!(r )! (x + r )(x + r ) [x + r (x )] [x + r (x )] [x + r x)]! x! (r )! (x + r )(x + r ) (r + )(r) x! r(r + ) (r + x )(r + x ) x! [( )( r)] [( )( r )] [( )( r x + ] ( ) x! r ( ) x x Logo, uma outra forma de escrever a distribuição binomial negativa é daí o nome binomial negativa. P(X x) ( ) x ( r x ) p r ( p) x k,,, Distribuição hipergeométrica Vamos começar esta seção com um exemplo, antes de apresentar a formalização de uma nova distribuição. Exemplo 4.3 Bolas em uma urna Consideremos novamente a situação do Exemplo 4.6, em que 3 bolas são retiradas de uma urna composta por 4 bolas brancas e 6 bolas verdes e nossa variável aleatória de interesse é X número de bolas brancas sorteadas Naquele exemplo, consideramos extrações com reposição. Vamos analisar, agora, a função de probabilidade de X no caso em que as extrações são feitas sem reposição.

135 4.7. DISTRIBUIÇÃO HIPERGEOMÉTRICA 3 A diferença fundamental entre os dois exemplos é que, sem reposição, a probabilidade em cada extração depende das extrações anteriores, ou seja, não temos mais independência ou probabilidades constantes. No entanto, como as extrações são aleatórias, todos os subconjuntos de 3 bolas são igualmente prováveis. O número total de subconjuntos de 3 bolas retiradas das bolas da urna é ) e, portanto, cada subconjunto tem probabilidade ). ( 3 Vamos determinar, agora, os possíveis valores de X, ou seja, Im(X). Como há 6 bolas verdes na urna, é possível que todas as três bolas extraídas sejam verdes, isto é, X é o valor mínimo. No outro extremo, como há 4 brancas na urna, é possível que todas as bolas extraídas sejam brancas, ou seja, X 3 é o valor máximo. É possível obter, também, ou bolas brancas. Logo, Im(X) {,,, 3}. Vamos calcular a probabilidade de cada um desses valores. ( 3 X Ter bola branca na amostra, significa que todas as 3 bolas são verdes. Como há 6 bolas verdes, o número de maneiras que podemos retirar 3 bolas verdes é dado por ( 6 3). Logo, ( 6 3) X P(X ) Ter bola branca na amostra significa que as outras são verdes. Como há 4 bolas brancas, o número de maneiras que podemos retirar bola branca é dado por ( 4 ). Analogamente, como há 6 bolas verdes, o número de maneiras que podemos retirar bolas verdes é ( 6 ). Pelo Princípio Fundamental da Multiplicação, o número de maneiras que podemos retirar bola branca e bolas verdes é ( ( 4 ) 6 ). Logo, X e X 3 Analogamente, P(X ) P(X ) ( 4 ) ( 6 ) ( ) 3 ( 4 ) ( 6 ) ( ) 3 ( ) e P(X 3) 3 ( 4 ) ( 3 6 ( ) ) 3 Suponhamos que nossa amostra seja, agora, de 5 bolas. Como só há 4 bolas brancas, não é possível obter uma amostra formada apenas por bolas brancas. Mas, vamos pensar, por um momento, que pudéssemos ter X 5. Seguindo o raciocínio anterior, teríamos ) ( 6 ) P(X 5) ( 4 5 ( ) 5 uma vez que ( 4 5), segundo a Definição 4.6 do coeficiente binomial. Isso resulta em uma probabilidade nula para o evento impossível X 5. A generalização do contexto do exemplo anterior é a seguinte: temos uma população de tamanho N (a urna com as bolas) dividida em classes (duas cores). Uma das classes é considerada sucesso e a outra fracasso. Seja r o número de elementos da classe sucesso entre os N elementos da população; logo a classe fracasso possui N r elementos. Dessa população vamos extrair uma amostra de tamanho n sem reposição. A variável aleatória de interesse é X número de sucessos na amostra

136 3 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Essa variável aleatória tem distribuição hipergeométrica, como mostra a Definição 4. abaixo. Definição 4. Distribuição hipergeométrica Uma variável aleatória X tem distribuição hipergeométrica com parâmetros N, r e n quando esta representa o número de sucessos em uma amostra de tamanho n extraída, sem reposição, de uma população de tamanho N formada por r sucessos e N r fracassos. Vamos primeiro analisar o espaço paramétrico para os parâmetros N, r e n. Como N é o tamanho da população, então N N. Sendo n o tamanho da amostra retirada da população de tamanho N, então n N. O parâmetro r indica o número de sucessos dentro da população de tamanho N, então r N. Para determinar os valores possíveis de X, isto é, Im(X), temos que considerar diferentes possibilidades para a composição da população em termos dos números de sucessos e fracassos relativos ao tamanho da amostra. Se for possível ter uma amostra só com sucessos ou só com fracassos, isto é, se r n e N r n, então os possíveis valores de X variam de (amostra formada só por fracassos) a n (amostra formada só por sucessos), ou seja, Im(X) {,..., n}. Exemplo: N 6, n 3, r 3 r n e N r n 3. Então podemos ter uma amostra só com sucessos ou só com fracassos. Nesse caso Im(X) {,,, 3}. Se for possível ter uma amostra só com sucessos, mas não só com fracassos, isto é, se r n e N r < n, então o número máximo de fracassos na amostra é N r e, portanto, o número mínimo de sucessos é n (N r). Logo, os valores de X variam de n (N r) a n, ou seja, Im(X) {n (N r),..., n}. Exemplo: N 6, n 3, r 4 N r 6 4 < n. Então o número máximo de fracassos na amostra é N r e, portanto, o número mínimo de sucessos é n (N r). r n. Podemos ter uma amostra só com sucessos, ou seja, o número máximo de sucessos é 3. Assim, Im(X) {,, 3}. Se for possível ter uma amostra só com fracassos, mas não só com sucessos, isto é, se N r > n e r < n, então o número mínimo de sucessos na amostra é e o número máximo é r, ou seja, Im(X) {,..., r}. Exemplo: N 6, n 3, r N r 6 4 n. Podemos ter uma amostra só de fracassos, ou seja, o número mínimo de sucessos é. r < n. O número máximo de sucessos na amostra é r. Assim, Im(X) {,, }. Vamos denotar a distribuição Hipergeométrica com parâmetros N, r e n por X HGeo(N; r; n), ou seja, para indicar que uma variável aleatória X segue essa distribuição, escrevemos X HGeo(N; r; n) (lê-se: a variável aleatória X tem distribuição hipergeométrica com parâmetros N, r e n). Alguns livros usam letras diferentes para representar cada parâmetro.

137 4.7. DISTRIBUIÇÃO HIPERGEOMÉTRICA 33 Função de Probabilidade O número total de amostras de tamanho n que podem ser extraídas de uma população de tamanho N, sem reposição, é ( N n). Note que isso equivale ao número de subconjuntos de tamanho n do conjunto universo de tamanho N. Para calcular a probabilidade de k sucessos na amostra, P(X k), vamos considerar as 3 situações anteriores: Sucessos e fracassos suficientes: r n e N r n. Há ( ) ( r k maneiras de tirarmos k sucessos e N r n k) maneiras de tirar os fracassos que completam a amostra. Logo, ( )( ) r N r P (X k) k n k ( ) N k,,..., n (4.4) n Sucessos suficientes, mas não fracassos: r n e N r < n. Vimos que os valores de X variam de n (N r) a n. Se k é tal que k < n (N r), então N r < n k e, pela Definição 4.6, ( N r n k) e a probabilidade dada pela Equação (4.4) será para esses valores impossíveis de k. Sendo assim, ainda podemos usar essa equação para o cálculo das probabilidades. Fracassos suficientes, mas não sucessos: N r > n e r < n. Vimos que os valores X variam de a r. Se k n é tal que k > r, o coeficiente binomial ( ) r k será, pela Definição 4.6 e a probabilidade dada pela Equação (4.4) será para esses valores impossíveis de k. Então, ainda podemos usar essa equação para calcular as probabilidades. Resumindo, se X HGeo(N; r; n) então a sua função de probabilidade é definida por: ( )( ) r N r p X (x) P(X x) x n x ( ) N x,..., n (4.4) n Para provar que a Equação 4.4 realmente define uma função de probabilidade, faremos uso da Fórmula de Euler apresentada na Proposição 4. a seguir. Proposição 4. Fórmula de Euler Sejam m, n e s inteiros tais que s < n + m. Então é verdade que: s k ( )( ) m n k s k ( ) m + n s Demonstração: Se m e n a igualdade é trivialmente satisfeita. Seja, então, m > ou n >. Seja C um conjunto não vazio com m + n elementos. Veja que C pode ser partido em dois conjuntos disjuntos com m e n elementos, respectivamente. Vamos denotar tais conjuntos por C n e C m, onde C n tem n elementos, C m tem m elementos, C n C m e C n C m C.

138 34 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Fixando k s, veja que ( ) m k representa o número de subconjuntos de Cm com k elementos e ( ) n s k representa o número de subconjuntos de Cn com s k elementos. Logo, ( )( m n k s k) representa o número de subconjuntos de C com s elementos tais que k elementos pertencem à C m e os outros s k elementos pertencem à C m. s ( )( ) m n Então, representa o número de subconjuntos de C com s elementos, isto é, k s k ( ) k m + n. s Para mostrar que a Equação (4.4) define uma função de probabilidade, note inicialmente que P (X x) x R. Além disso, n x ( )( ) r N r x n x ( ) N n n ( )( ) r N r x n x ( ) N n x n x ( r x )( ) N r n x ( ) N n Mas esta última equação é a fórmula de Euler com k x, m r, n N r e s n, o que resulta que n ( )( ) ( ) ( ) r N r r + N r N k n k n n k e isso completa prova de que a Equação 4.4 realmente define uma função de probabilidade. Esperança e Variância No cálculo da esperança e variância de X HGeo(N; r; n), faremos uso da seguinte identidade, que é facilmente verificada: k ( ) ( ) n n n k k (4.4) E (X) ( )( ) r N r n x n x x ( ) N x ( ) N n ( r ) N n n n r! x x! (r x)! x n x ( r n x x x (r )! (x )! (r x)! ( ) N r n x )( ) N r n x ( ) n ( r ( ) x N N x x n n n r(r )! }{{} ( ) N x x x x(x )! (r x)! n ( ) N r n x )( ) N r n x ( ) N r n x

139 4.7. DISTRIBUIÇÃO HIPERGEOMÉTRICA 35 Fazendo a mudança de variável y x no somatório acima, resulta E (X) ( r ) N n n y ( ) (r )! N r r y! (r y)! n y ( N n n ( )( ) r N r ) y n y y }{{} Mas na expressão destacada por podemos aplicar a Fórmula de Euler, Proposição 4., com n N r, m r, s n e isso nos dá E (X) (N )! ( r ( ) N (n )! ) r (N n)! N n N! n n! (N n)! r (N )! N! n! (n )! rn N Logo, X HGeo(N; r; n) E (X) n r N (4.43) De maneira análoga, vamos calcular E(X ). ( E X ) n x x ( r x )( ) N r n x ( ) N n n x x ( )( ) r N r x n x ( ) N n ( n ( )( ) r N r ) x n ( ) N x n x }{{} N x x x n n r n ( ) (r )! N r }{{} ( ) (y + ) N y! (r y)! n y yx y n ( ) ( )( ) N r N (r ) r n n y n y ( ) (y + ) ( ) N N y n n }{{} ( ) x r(r )! x(x )! (r x)! ( ) N r n x A expressão marcada com ( ) nada mais é que P(Y y) em que Y HGeo(N ; r ; n ) e, portanto, o somatório é e, portanto, ( E X ) r ( ) N n ( ) N n E(Y + ) E(Y ) + (n ) r N + [ (n ) r ] N + rn N (n ) (r ) + N N

140 36 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Logo, Var (X) E(X ) [E(X)] rn (n ) (r ) + N N N rn [ (n ) (r ) + N N nr ] N N rn N [ nr n r + N N rn N [ nn Nr + N + nr N (N ) n r N rn N [ nr n r + + N N nr ] N ] nr ] rn [ Nnr nn Nr + N N N Nnr + nr N (N ) ] n r N N (N n) r (N n) N (N ) n r N (N n) (N r) N (N ) Ou seja, X HGeo(N; r; n) Var(X) n r N N r N N n N (4.44) Não calcularemos a função geradora de momentos da distribuição hipergeométrica, tendo em vista sua complexidade. Exemplo 4.4 Equipe de programadores Entre os 6 programadores de uma empresa, são do sexo masculino. A empresa decide sortear 5 programadores para fazer um curso avançado de programação. Qual é a probabilidade de que os 5 sorteados sejam do sexo masculino? Vamos definir sucesso sexo masculino. Se X número de homens sorteados, então X HGeo(6; ; 5) e o problema pede P (X 5) ( 5 ) ( 6 5 ) , Distribuição Binomial versus Distribuição Hipergeométrica Vamos fazer agora algumas comparações entre as distribuições binomial e hipergeométrica, considerando que elas descrevem a extração de uma amostra de tamanho n. No contexto da binomial, a amostra é retirada com reposição, enquanto na hipergeométrica as extrações são feitas sem reposição. A esperança da binomial é igual ao produto do tamanho da amostra pela probabilidade de sucesso; na hipergeométrica, a esperança também é o produto do tamanho da amostra pela probabilidade de sucesso, probabilidade essa tomada apenas na primeira extração. A variância da binomial é igual ao produto do tamanho da amostra pelas probabilidades de sucesso e fracasso. Na hipergeométrica, considerando apenas a primeira extração, a variância é igual a esse produto, mas corrigido pelo fator N n N. Em pesquisas estatísticas por amostragem, normalmente lidamos com amostragem sem reposição. No entanto, os resultados teóricos sobre amostragem com reposição são bem mais simples, pois envolvem variáveis independentes. Assim, costuma-se usar uma aproximação, sempre

141 4.8. DISTRIBUIÇÃO DE POISSON 37 que possível. Ou seja, quando a população (tamanho N) é suficientemente grande (de modo que podemos encará -la como uma população infinita) e o tamanho da amostra é relativamente pequeno, podemos ignorar o fato de as extrações serem feitas sem reposição. Lembre-se que a probabilidade em extrações sucessivas são N, N,..., N n. Então, se N é grande e n é pequeno, temos que N N N n. Nessas condições, extrações com e sem reposição podem ser consideradas como equivalentes. O termo que aparece na variância da hipergeométrica, N n N, é chamado correção para populações finitas, exatamente porque, se a população é pequena, não podemos ignorar o fato de as extrações estarem sendo feitas sem reposição. 4.8 Distribuição de Poisson Suponhamos que estejamos observando um determinado fenômeno de interesse, por um certo período de tempo de comprimento T com o interesse de contar o número de vezes X que um determinado evento ocorre. Vamos fazer as seguintes hipóteses sobre a forma de ocorrência desse evento: H. Em um intervalo de tempo suficientemente curto, apenas ou evento ocorre, ou seja, ou mais ocorrências não podem acontecer simultaneamente. Então, em cada um desses intervalos temos um experimento de Bernoulli. H. A probabilidade de exatamente ocorrência nesse pequeno intervalo de tempo, de comprimento t, é proporcional a esse comprimento, ou seja, é λ t. Logo, a probabilidade de nenhuma ocorrência é λ t. H 3. As ocorrências em intervalos pequenos e disjuntos são experimentos de Bernoulli independentes. Estamos interessados na variável aleatória X número de ocorrências do evento no intervalo (, ]. Particionando esse intervalo em n pequenos subintervalos de comprimento t, temos que o número total de ocorrências será a soma do número de ocorrências em cada subintervalo. 3 n t n Mas em cada subintervalo podemos aplicar as hipóteses H, H e H 3. Logo, X é uma variável binomial com parâmetros n t (note que t /n) e probabilidade de sucesso p λ t pela hipótese H. Resulta, então, que np λ. Pela definição de X, temos que Im(X),,..., n. Vamos

142 38 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS calcular a probabilidade de cada um desses valores. Seja, então, x Im(X). P(X x) ( ) n (λ t) x ( λ t) n x x n! x!(n x)! n x λx ( n x ) ( λ n ( λ n) n n(n ) (n x + )(n x)! (n x)! n(n ) (n x + ) n x ) x ( λ ) n x n n x λx ( λ ) x n ( x! ( λx x! n) λ n n n n n n x + λx n x! λ n) n ( λ n) x ( n) λ n ( λ ) x n ( λ ) x n Consideremos, agora, a situação em que t, ou equivalentemente, n. Nesse caso p, uma vez que p λ t. Vamos supor que λ np não divirja e nem convirja para, ou seja, vamos supor que λ permaneça uma constante não nula quando n. Nesse caso, a variável aleatória X pode assumir qualquer valor inteiro não negativo e [ n lim P(X x) lim n n n n n n x + n λx x! lim n ( λx x! n) λ n ( λ ) x ] n ( n) λ n λ x }{{} x! e λ (A.4) Temos, assim, uma aproximação para a função de probabilidade binomial. Ou seja, se X Bin(n, p) com n muito grande, p e λ np limitado, isto é, um número real, então P(X x) λx x! e λ. A expressão acima também é uma função de probabilidade, como veremos mais adiante. A variável aleatória com essa função de probabilidade leva o nome de Poisson, como mostra a Definição 4. a seguir. Definição 4. Distribuição de Poisson Diz-se que uma variável aleatória X tem distribuição de Poisson com parâmetro λ > se sua função de probabilidade é dada por P(X x) p X (x) λx x! e λ x,,,... O único parâmetro de uma variável aleatória de Poisson é o λ, que pode assumir qualquer valor real positivo. Veja que, de acordo com a hipótese H, a probabilidade de ocorrer uma vez o evento em questão dentro de um intervalo de comprimento t é λ t. Então, o espaço paramétrico para λ é R +. Como X representa o número de ocorrências de um certo evento no intervalo (, ], então X pode assumir os valores,,,.... Logo, Im(X) N. Esse é mais um exemplo de variável aleatória discreta cuja imagem é um conjunto infinito.

143 4.8. DISTRIBUIÇÃO DE POISSON 39 Vamos denotar a distribuição de Poisson com parâmetro λ por Poi(λ). Assim, para indicar que uma variável aleatória X segue essa distribuição, escrevemos simplesmente X Poi(λ) (lê-se: a variável aleatória X tem distribuição de Poisson com parâmetro λ). Relação entre Binomial e Poisson A função de probabilidade de uma variável aleatória binomial converge para a função de probabilidade de uma Poisson sempre que n, p e np λ, com λ constante não nula, isto é, λ np não diverge e nem converge para. Na prática, isso significa que, se X Bin(n, p) com n muito grande, maior que em geral, e p, então podemos usar a seguinte aproximação P(X x) λx x! e λ com λ np. (4.45) Se tais condições não forem satisfeitas, isto é, se n não for grande ou se p não for pequeno, a aproximação não será boa. Exemplo 4.5 Aproximação da Binomial pela Poisson Sabe-se que 5% das lâmpadas pisca-pisca para árvore de Natal são produzidas com defeito. O setor de qualidade de um fabricante seleciona uma amostra com 5 lâmpadas pisca-pisca, vindas direto da linha de produção. Qual é a probabilidade de a amostra recolhida pelo setor de qualidade conter mais de lâmpadas com defeito? Defina X número de lâmpadas pisca-pisca com defeito dentro da amostra de 5 lampadas. Então X Bin(n 5, p, 5). Queremos encontrar P(X ). Para isso é mais fácil encontrar P(X < ) e depois fazer P(X ) P(X < ). Pela fórmula exata da distribuição de Poisson, temos que P(X < ) 9 ( ) 5, 5 x, 95 5 x x ( 5 x ), 5, ( 5 8 ), 5 8, ( 5 9 ), 5 9, Veja que as combinações acima são bem custosas de serem encontradas. Por exemplo, para chegar à resposta precisamos encontrar ( ) 5 5! !9! Com a ajuda de um computador chegamos à resposta final P(X < ), Vejamos, agora, como usar a aproximação da binomial pela Poisson para encontrar a resposta do problema. Para isso vamos usar a expressão apresentada na Equação 4.45 considerando λ np 5, 5 7, , 5 x P(X < ) x! e 7,5 x 7, 5 7,! e 7,5 58 7, ! e 7, ! e 7,5, A partir da distribuição exata, obtemos P(X ), , 965. Usando a aproximação de Poisson, obtemos P(X ), , Veja quão próximos são os dois resultados.

144 4 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Função de Probabilidade A própria definição de distribuição de Poisson já nos dá que, se X Poi(λ), a sua função de probabilidade é definida por: x p X (x) P(X x) λx x! e λ x,,,... (4.46) Como a função exponencial de qualquer base é sempre positiva, resulta que P(X x) x R. Além disso, λ x P(X x) x! e λ e λ λ x e λ e λ. (4.47) x! x x }{{} (A.6) Esperança e Variância Vamos agora calcular a esperança e a variância da distribuição de Poisson. E(X) x x λx x! e λ + x λ x }{{} λ (x )! e λ }{{} λ x x yx x λx x! e λ y x λλx x(x )! e λ x λ y y! e λ }{{} λ λ (4.47) Portanto, X Poi(λ) E (X) λ (4.48) Veja que o parâmetro λ da distribuição de Poisson é também a média dessa variável aleatória. Isso significa que, durante um intervalo de tempo de tamanho, acontecem, em média, λ ocorrências do evento em questão. A unidade de tempo não foi definida, pois pode ser qualquer uma. O importante é que o valor de λ esteja de acordo com a unidade de tempo adotada. Veja alguns exemplos nos itens a seguir. Se X número de ocorrências de um certo evento em dia, então a unidade de tempo é dia e λ será o número médio de ocorrências em dia; Se X número de ocorrências de um certo evento em semana, então a unidade de tempo é semana e λ será o número médio de ocorrências em semana; Se X número de ocorrências de um certo evento em horas, então a unidade de tempo é horas e λ será o número médio de ocorrências em horas. Exemplo 4.6 Central telefônica Uma central telefônica recebe uma média de 5 chamadas por minuto. Supondo que as chamadas cheguem segundo uma distribuição de Poisson, qual é a probabilidade de a central telefônica (a) não receber qualquer chamada em um minuto? (b) receber no máximo chamadas em minutos?

145 4.8. DISTRIBUIÇÃO DE POISSON 4 (a) Nesse item estamos interessados em saber o número de chamadas no intervalo de minuto. Então a unidade de tempo será minuto e vamos definir X número de chamadas por minuto. De acordo com o enunciado, X Poi(λ), onde λ é o número médio de chamadas durante minuto, ou seja, λ 5. Queremos encontrar P(X ). P(X ) 5! e 5 e 5, (b) Agora o nosso interesse é no número de ligações no intervalo de minutos. Então a unidade de tempo adotada será minutos. Vamos definir Y número de chamadas em minutos. De acordo com o enunciado, Y Poi(λ), onde λ é o número médio de chamadas em minutos, ou seja, λ 5. Queremos encontrar P(Y ). P(Y ) P(Y ) + P(Y ) + P(Y )! e +! e +! e, Vamos, agora, calcular Var(X), calculando inicialmente E(X ). E(X ) x x λx x! e λ + x x λx x! e λ x x λλ x }{{} λ x λx (x )! e λ }{{} λ (y + ) λy y! e λ x x yx y }{{} ( ) x(x )! e λ A expressão marcada com ( ) é a função de probabilidade de Y Poi(λ); logo, o somatório é E(Y + ) E(Y ) + λ + Logo, E(X ) λ(λ + ) λ + λ Var(X) E(X ) E(X) λ + λ λ λ ou seja, X Poi(λ) V ar(x) λ (4.49) A variável aleatória de Poisson tem média e variância iguais à λ. Apesar de a motivação da distribuição de Poisson ter sido a contagem do número de ocorrências de um evento ao longo do tempo, como citado anteriormente, tal distribuição também pode ser usada para modelar situações que não necessariamente envolvam tempo, como mostra o Exemplo 4.7 a seguir. Mas o importante é saber que as características dessa distribuição são adequadas para modelar variáveis aleatórias de contagem. Exemplo 4.7 Fabricação de fita magnética Em um certo tipo de fabricação de fita magnética, ocorrem cortes a uma taxa de um corte por pés. Qual é a probabilidade de que um rolo com comprimento de 4 pés apresente (a) no máximo dois cortes? (b) pelo menos dois cortes?

146 4 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Seja Y número de cortes num rolo de 4. pés. Então a unidade usada é 4. pés. Como ocorre, em média, corte a cada. pés, a cada 4. pés ocorrem, em média, cortes. Logo, Y Poi(). (a) (b) Nesse item queremos P(Y ). P(Y ) P(Y ) + P(Y ) + P(Y ) exp( ) + exp( ) + exp( ), !!! P(Y ) P(Y < ) (P(Y ) + P(Y )) ( ) exp( ) +!! exp( ), Função geradora de momentos Vamos, agora, calcular a função geradora de momentos da distribuição de Poisson. ( tx λx M X (t) e x! e λ e λ tx λx λe t ) x e x! e λ e λ e λet. x! x x x Logo, X Poisson(λ) M X (t) e λ(et ) (4.5) Veja que M X (). Vamos calcular as derivadas primeira, segunda e terceira para calcular os respectivos momentos: Logo, M X (t) eλ(et ) λe t λe t M X (t) M X (t) M X (t)λet + M X (t) M X (t)[λet + ] M X (t)[λ e t + λe t ] M X (t) M X (t)[λ e t + λe t ] + M X (t)[λ e t + λe t ] M X (t)[λ 3 e 3t + 3λ e t + λe t ] E(X) M X () λe M X () λ E(X ) λ + λ Var(X) λ + λ λ λ ou seja, se X Poi(λ) E(X 3 ) λ 3 + 3λ + λ α 3 λ3 + 3λ + λ 3(λ + λ)λ + λ 3 λ λ λ α 3 λ (4.5) A distribuição de Poisson é, então, sempre assimétrica à direita.

147 4.9. MAIS EXEMPLOS 43 Formas da Distribuição de Poisson Se X Poi(λ), então temos P(X k + ) P(X k) λ k+ (k + )! e λ λ k k! e λ λ k + Temos, assim, uma forma recursiva para calcular probabilidades de Poisson. k,,,... (4.5) Suponhamos, agora, que a probabilidade máxima ocorra em k. Usando o resultado acima, temos que ter P(X k + ) λ P(X k ) k + k λ e também P(X k ) P(X k ) λ k k λ Resulta, então, que se k é ponto de máximo, então λ k λ k λ (4.53) pois k tem que ser inteiro. Assim, a moda ocorre no maior inteiro menor ou igual a λ. caso, Se λ for inteiro, então a distribuição é bimodal, com moda em k λ e k λ pois, nesse P(X λ) λλ λ! e λ λ λλ λ (λ )! e λ P(X λ ) Nas Figuras 4.8a e 4.8b ilustra-se a distribuição de Poisson para dois valores do parâmetro: λ (distribuição bimodal, com modas e ) e λ 4, 3 (distribuição unimodal, com moda 4) (a) λ (b) λ 4, 3 Figura 4.8 Função de Probabilidade da Distribuição de Poisson. 4.9 Mais exemplos Exemplo 4.8 Um grupo de 3 políticos, sendo do partido de esquerda, resolve formar, de forma aleatória, uma comissão com 5 políticos. Qual é a probabilidade de que políticos de esquerda sejam maioria na comissão?

148 44 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Defina X número de políticos de esquerda na comissão. Veja que X hiper(n 3, r, n 5). Queremos P(X 3) P(X 3) + P(X 4) + P(X 5). P(X x) ( x )( ) 3 5 x ( ) 3 5 ( x )( ) 8 5 x ( ) 3 5 P(X 3) ( )( ) ( ) 3 5! 8! 3!9!!6! 3! 5!5!..., 36 P(X 4) ( )( ) ( ) 3 5! 8! 4!8!!7! 3! 5!5!..., 65 P(X 5) ( )( ) ( ) 3 5! 8! 5!7!!8! 3! 5!5!..., 55 Logo, P(X 3), 36 +, 65 +, 55, 34. Exemplo 4.9 Sabe-se que a eficácia de uma vacina para uma certa doença é de 9%. probabilidade de um indivíduo que tomou a vacina ser imunizado é de,9. Isso significa que a (a) Qual é a probabilidade de que, entre pacientes vacinados, no máximo não tenha sido imunizado? (b) Quantos indivíduos, em média, devem ser vacinados até que seja encontrado um que não tenha sido imunizado? (a) Nesse item queremos a probabilidade de ou paciente não ter sido imunizado, entre vacinados. Definindo X número de pacientes não imunizados entre os que tomaram a vacina resulta que X Bin(n, p, 8). P(X ) P(X ) + P(X ) ( ), 8, 9 +, ,, 4764, 965 ( ), 8, 9 9 (b) Já nesse item queremos o número médio de pacientes vacinados até encontrar o o que não foi imunizado. Definindo Y número de pacientes vacinados até encontrarmos não imunizado, resulta que Y Geo (p, 8) e E(Y ) /p, 5. Ou seja, em média são vacinados,5 pacientes até que se encontre o o não imunizado.

149 4.9. MAIS EXEMPLOS 45 Exemplo 4. Uma rodovia registra, em média, acidentes por dia. Considere a variável aleatória X número de acidentes na rodovia. (a) Indique uma distribuição adequada para a variável aleatória X. Justifique sua resposta. (b) Qual é a probabilidade de acontecer pelo menos acidente nas próximas 6 horas? (a) A distribuição de Poisson é adequada para dados de contagem. No caso estamos contando o número de acidentes por dia, então é razoável considerar X Poi(λ). (b) Estamos interessados no número de acidentes no período de 6 horas. Vamos definir então X número de acidentes no período de 6 horas e assim temos X Poi(λ), onde λ é o número médio de acidentes em 6 horas, no caso, λ 6, 5. Queremos P(X ). 4 P(X ) P(X < ) P(X ), 5! e,5, Exemplo 4. Suponha que em uma cidade 5% dos cidadãos votaram no vereador João. A fim de avaliar a satisfação de seus eleitores, João decide fazer uma pesquisa direcionada. Para isso, João aborda, de forma aleatória e com reposição, cidadãos na rua a fim de encontrar seus eleitores e realizar a pesquisa. (a) Qual é a probabilidade de que João não encontre qualquer eleitor seu nas primeiras abordagens? (b) Se João planeja entrevistar dos seus eleitores, em média, quantos cidadãos serão abordados? (a) Podemos resolver esse item de duas maneiras diferentes. Primeira solução. Seja Y número de eleitores de João entre os primeiros cidadãos abordados. Veja que Y Bin(;, 5). Queremos P(Y ). ( ) P(Y ), 5, 85, 85, 969. Segunda solução. Considere X número de cidadãos abordados até encontrar o primeiro eleitor de João. Então X Geo (p, 5). Queremos P(X > ) P(X ). P(X > ) P(X ) (P(X ) + P(X ) + + P(X )) P(X x), 5 (, 85) x, 85, 5, 5 x x, 85, 969 (b) Definindo W número de abordagens até João encontrar de seus eleitores, resulta que W BinNeg (r, p, 5) e E(W ) r/p /, 5 33, 33. Ou seja, em média, João vai precisar abordar em torno de 34 indivíduos para conseguir encontrar de seus eleitores.

150 46 CAPÍTULO 4. ALGUMAS DISTRIBUIÇÕES DISCRETAS Exemplo 4. Problema dos pontos - Exemplo.6 de Magalhães () Ensaios do tipo sucesso-fracasso são realizados de forma independente, sendo p a probabilidade de sucesso. Qual é a probabilidade de ocorrerem n sucessos antes de m fracassos? Primeira solução: Seja X número de fracassos antes do n-ésimo sucesso. Então X BinNeg(n; p) e P(X x) é dada pela Equação 4.9. Para que ocorram n sucessos antes de m freacasso, temos que ter, no máximo, m fracassos antes do n ésimo sucesso, ou seja, o problema pede m ( ) x + n P(X m ) p n ( p) x. x x Segunda solução: Seja Y número de tentativas até o n ésimo sucesso. Então Y tem distribuição binomial negativa deslocada com parâmetros n e p. Para termos n sucessos antes de m fracassos é necessário que os n tenham ocorrido antes da n + m-ésima tentativa, ou seja, o problema pede P(Y < n + m) n+m yn ( ) y p n ( p) y n. n Vejamos um caso numérico em que os ensaios são lançamentos de uma moeda honesta, ou seja, p /. Vamos definir a ocorrência de cara como sucesso e calcular a probabilidade de saírem 5 caras antes de 3 coroas. Temos n 5, m 3 e p /. Pela primeira solução temos, P(X ) Pela segunda solução: P(Y < 8) ( ) ( ) x ( x x ( ) ( ) 4 5 ( ) ( ) ( 5 + ) x ( y y5 y ) ( ) 5 ( ) y 5 ( ) ( ) 4 5 ( ) ( ) ( ) 5 ( ) + ) 5 ( ) + ( 6 ( 6 4 ) ( ) ( ) 5 ( ) ) 5 ( )

151 Capítulo 5 Variáveis Aleatórias Contínuas Já vimos, no Capítulo, conceitos iniciais sobre as variáveis aleatórias contínuas. Neste capítulo vamos aprofundar nosso estudo sobre esse tipo de variável aleatória. 5. Função densidade de probabilidade A definição de variável aleatória contínua normalmente apresentada nos livros de probabilidade não é a citada no Capítulo, que define X como contínua quando a sua função de distribuição é uma função absolutamente contínua. A forma mais comum de se definir variável aleatória contínua está na Definição 5. a seguir, onde se apresenta, também, o conceito de função densidade. Definição 5. Variável aleatória contínua e função densidade Uma variável aleatória X com função de distribuição F é classificada como contínua quando existe uma função não negativa f tal que F(x) x f(t)dt, para todo x R. Nesse caso, a função f é denominada função densidade de probabilidade, ou simplesmente função densidade, da variável aleatória X. Proposição 5. Propriedades da função densidade Seja f X a função densidade de alguma variável aleatória X. Então f X satisfaz as seguintes propriedades. (i) f X (x) x R. (ii) f(t)dt Demonstração: A função densidade é não negativa por definição. Para mostrar que f(t)dt veja que x f(t)dt lim f(t)dt lim F(x), x x pelas propriedades da função distribuição. 47

152 48 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS Já vimos como calcular probabilidades de qualquer variável aleatória continua a partir da sua função de distribuição (Exemplo 5.). O que veremos agora é que esse cálculo também pode ser feito a partir da função densidade. Proposição 5. Seja X variável aleatória contínua com função densidade f X e a, b R tais que a b. Então P(a X b) b a f X (t)dt. Demonstração: Seja X variável aleatória contínua e F X a sua função de distribuição. Já vimos que: Pela Definição 5., temos que F X (a) a P(a X b) F X (b) F X (a). (5.) f X (t)dt e F X (b) As Equações?? e 5., juntamente com propriedades da integral, resultam em: b f X (t)dt. (5.) P(a X b) F X (b) F X (a) b a f X (t)dt f X (t)dt b a f X (t)dt. Vemos, pela Proposição 5., que a probabilidade de X [a, b] é a área sob a curva da sua função densidade. Vamos ver, agora, como calcular outras probabilidades a partir da função densidade. Exemplo 5. Cálculo de probabilidades de v.a. contínuas a partir da função densidade Vamos refazer os cálculos apresentados no Exemplo 5. a partir da função densidade. Sendo X contínua, resulta que P(X a) P(a X a) a a f X (t)dt P(a < X < b) P(a < X b) P(a X < b) P(a X b) Quando um dos limites do intervalo é infinito, temos b a f X (t)dt ou P( < X b) P(X b) F X (b) P(a X < ) P(X a) F X (a) b f X (t)dt a f X (t)dt f X (t)dt a f X (t)dt Vemos, assim, que, tanto a função densidade quanto a função de distribuição de uma variável aleatória contínua contêm toda a informação sobre a variável aleatória. Mais que isso, conhecendo uma das funções F X ou f X é possível determinar a outra.

153 5.. FUNÇÃO DENSIDADE DE PROBABILIDADE 49 A Definição 5. nos mostra como encontrar F X a partir de f X : F X (x) x f X (t)dt. Aplicando o Teorema Fundamental do Cálculo, concluímos que: f X (x) d dx F X (x). (5.3) No Capítulo, vimos que, se X é uma variável aleatória continua com função de distribuição F X, então Im(X) é formada pelos pontos do domínio de F X onde esta função é estritamente crescente. Usando a Equação (5.3), concluímos que Im(X) é formada pelos pontos em que sua função densidade f X é positiva. Exemplo 5. Nas figuras a seguir são dados os gráficos das funções densidade f e g de duas variáveis aleatórias contínuas X e Y, respectivamente. (a) Encontre as expressões de f e g. (b) Encontre as funções de distribuição de X e Y, (a) A função f é constante, igual a k, no intervalo [, ] e nula fora desse intervalo. Então, temos que ter ou seja, kdx kx k f(x) {, se x, caso contrário No intervalo [, ], g(x) a + bx, um segmento de reta determinado pelos pontos (, ) e (, k). Substituindo as coordenadas dos dois pontos, obtemos o seguinte sistema: { a + b( ) k a + b() b k a b k ou seja,

154 5 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS g(x) Para ser função densidade, temos que ter { k(x+), se x, caso contrário Logo, k (x + )dx g(x) (x + )dx ( ) x k + x { (x+), se x, caso contrário k k (b) No intervalo [, ] temos F X (x) P(X x) x dt x + G Y (y) P(Y y) y ( ) t y + t t + dt y + y + 4 Logo, F X (x), se x < x+, se x <, se x G Y (y), se y < (y+) 4, se y <, se y Exemplo 5.3 Seja X variável aleatória contínua cuja função densidade é definida por: a( + x), se x < f X (x) a( x), se x, caso contrário.

155 5.. FUNÇÃO DENSIDADE DE PROBABILIDADE 5 (a) Faça um esboço do gráfico de f X. (b) Encontre o valor de a para que f X seja realmente função densidade. (c) Quais valores a variável aleatória X pode assumir, ou seja, qual é a imagem de X? (d) Calcule P(X > ), P(X ) e P( / X /). (e) Encontre a função de distribuição de X e esboce seu gráfico. (a) Veja a figura a seguir. (b) a( + x)dx + a( x)dx ) (x + x + ) (x x a a (c) Im(X) (, ), intervalo no qual f(x) >. (d) Por simetria e sabendo que a área total sob o gráfico de f X é, conclui-se que P(X > ), 5. Como já visto, P(X ). ( P X ) ) (x + x + / / (x x a( + x)dx + ) / 3 4 / a( x)dx (e) A função de distribuição será definida por partes, assim como a função densidade. Se x < : F X (x) P ( X x) x ( + t)dt ) ( (x + x + ) x + x + Se x < : F X (x) + P ( X x) x + ( t)dt ( ) + t t x ( ) + x x + x x x x ( ) ) (t + t x (x + ) ( x)

156 5 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS Logo, F X (x), se x < (+x), se x < ( x), se x <, se x Exemplo 5.4 Seja X variável aleatória contínua com função densidade definida por: { e x, se x > f X (x), caso contrário. (a) Faça um esboço do gráfico de f X. (b) Mostre que f X é realmente função densidade. (c) Encontre a função de distribuição de X e esboce seu gráfico. (a) Na figura a seguir ilustra-se o gráfico de f X. (b) Por definição da função exponencial, temos que f X (x) >. Além disso, e, portanto, f X define uma função densidade. (c) Para x >, temos que Logo, F X (x) P(X x) ( ) e x dx lim x e x x e t dt e t x ( e x ) e x { F X (x), se x e x, se x >

157 5.. FUNÇÃO DENSIDADE DE PROBABILIDADE 53 Exemplo 5.5 Seja X uma variável aleatória cuja função de distribuição é definida por: F X (x), se x < x 4, se x < 4, se 4 x < 6 x 4 4, se 6 x < 8, se x 8 (a) Faça um esboço do gráfico de F X. (b) Quais valores a variável aleatória X pode assumir, ou seja, qual é a imagem de X? (c) Classifique a variável aleatória X. (d) Calcule P(X 3) e P(3 < X 5). (e) Encontre a função densidade de X, f X, e esboce seu gráfico. (f) Verifique as propriedades da função densidade. (g) Repita os itens (b) e (d) resolvendo agora a partir da função f X. (a) O gráfico de F X é dado a seguir. (b) Im(X) {[, 4) [6, 8)} (c) Como F X é contínua com apenas 4 pontos em que não é diferenciável, a variável aleatória X é contínua. (d) P(X 3) P(X < 3) lim x 3 F X P(3 < X 5) P(X 5) P(X 3) F X (5) F X (3) 4 4 (e) f X (x), se x < 4, se x < 4, se 4 x < 6 4, se 6 x < 8, se x 8 (f) f X (x) e f x (x)dx é a soma das áreas de dois retângulos de base e altura /4 e, portanto, é igual a.

158 54 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS (g) A função densidade é não nula nos intervalos [, 4) e [6, 8) que, portanto, definem Im(X). P(X 3) 3 P(3 < X 5) f X (x)dx f X (x)dx 8 4 dx dx dx dx 4 Exemplo 5.6 Seja X variável aleatória contínua tal que sua função densidade é definida por: f(x) { c(4x x ), se < x <, caso contrário. (a) Encontre o valor de c para que f seja realmente função densidade. (b) Esboce o gráfico de f. (c) Calcule P(X > ). (d) Encontre F X. (a) c(4x x )dx ) (x x3 3 c 8 3 c c 3 8 (b) O gráfico de f x é dado a seguir. (c) Analisando o gráfico de f X, podemos ver que ela é simétrica em torno de x e, portanto, P(X > ) P(X ), 5. (d) Se < x <, temos Logo, F X (x) x 3 8 (4x x )dx 3x x 3 4 F X (x), se x < 3x x 3 4, se x <, se x

159 Exemplo 5.7 O tempo de vida em horas de um certo tipo de tubo de rádio é uma variável aleatória com função densidade {, se x > f(x) x, caso contrário. (a) Qual a probabilidade de um tubo desse tipo durar mais que 5h? (b) Qual a probabilidade de exatos entre 5 desses tubos terem que ser trocados antes de 5h de operação? (a) Seja X tempo de vida em horas do tubo P(X > 5) 5 ( ) x dx x (b) Seja( Y número de tubos a serem trocados antes de 5 horas, dentre 5. bin 5; ) e 3 Então, Y P(Y ) ( 5 ) ( 3 ) ( ) Exemplo 5.8 O tempo de vida em horas de um certo dispositivo eletrônico pode ser considerado uma variável aleatória com função densidade definida por f X (x) e x/, x. (a) Qual a probabilidade de um desses dispositivos eletrônicos durar entre 5 e 5 horas? (b) Qual a probabilidade de um desses dispositivos eletrônicos durar menos de horas? (a) Seja Seja X tempo de vida em horas do dispositivo (b) P(5 < X < 5) P(X < ) 5 5 e x/ dx e x/ 5 e,5 + e,5, e x/ dx e x/ e, + e, e, 63

160 56 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS 5. Funções de variáveis aleatórias contínuas Na Seção 3., vimos que, se X é variável aleatória discreta e g é uma função real qualquer, então Y g(x) também é variável aleatória discreta e sua função de probabilidade pode ser obtida a partir da função de probabilidade de X. Nesta seção, iremos analisar a situação em que X é uma variável aleatória contínua. Uma primeira diferença é que Y g(x) não será necessariamente uma variável aleatória contínua; Y pode ser contínua, discreta e até mesmo uma variável aleatória que não seja nem discreta nem contínua. Sendo assim, iremos estudar a função de distribuição de Y, F Y (y) P(Y y), que está bem definida qualquer que seja o tipo da variável Y, razão pela qual o método é denominado método da função de distribuição. Como no estudo de qualquer variável aleatória, o primeiro passo consiste em determinar a imagem de Y g(x). Para isso, pode ser útil construir o gráfico da função g e a partir dele, identificar os valores de g(x) para x Im(X). Identificada Im(Y ), sua função de distribuição é F Y (y) P(Y y) P(g(X) y). Manipulações algébricas levarão a uma relação entre F Y e F X. Vamos ilustrar o método através de vários exemplos, considerando casos em que g é inversível ou não inversível. g inversível Quando a função g que relaciona as variáveis X e Y é inversível, não será difícil encontrar a função de distribuição de Y ou a sua função densidade. Exemplo 5.9 Seja X variável aleatória com função densidade dada no Exemplo 5.4. Se Y X + a, com a R, encontre f Y e esboce seu gráfico. Do Exemplo 5.4, temos que f X (x) e x se x >. Sabemos que Im(X) (, ). Logo, Im(Y ) (a, ) g(x) x + a Vimos também que F X (x) { e x, sex >, se x, F Y (y) P(Y y) P(X + a y) P(X y a) F X (y a) { e (y a), se y a >, se y a,

161 5.. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 57 ou seja, F Y (y) { e (y a), se y > a, se y a f Y (y) d { e dy F (y a), sey > a Y (y), se y a Nas figuras a seguir, ilustram-se as densidades para a > e a <. Exemplo 5. Seja X variável aleatória contínua com função densidade f X definida no Exemplo 5.. Calcule a função densidade de Y g(x) e X. Do Exemplo 5., temos que as funções densidade e de distribuição de X são {, se x f X (x), se < x < e F, caso contrário X (x) (x + ), se < x <, se x. Sabemos que Im(X) (, ). Logo, Im(Y ) (e, e ) F Y (y) P(Y y) P(e X y) P(X ln y) F X (ln y) ou seja F Y (y), se y e (ln y + ), se e < y < e, se y e g(x) e x, se ln y (ln y + ), se < ln y <, se ln y f Y (y) F Y (y) { y, se e < y < e +, caso contrário

162 58 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS Exemplo 5. Função densidade linear por partes Seja X variável aleatória cuja função densidade é definida por: f X (x) { x, se < x 3(x ), se < x < Encontre f Y para Y X. Em seguida, esboce os gráficos de f X e f Y. Sabemos que Im(X) (, ). Logo, Im(Y ) (, ) g(x) x F Y (y) P(Y y) P( X y) P(X y) F X ( y). Derivando, obtemos a relação entre f Y e f X : f Y (y) d dy F Y (y) d dy ( F X ( y)) f X ( y). ou seja, Então, f Y (y) f X ( y) ( ( y), se < ( y) 3[( y) ], se < ( y) < y, se y < 3y, se < y <. { 3y f Y (y), se < y <. y, se y < Exemplo 5. Quando a função g é inversível, é possível obter uma expressão para a função densidade de Y g(x). Consideremos, então, uma variável aleatória contínua X com função densidade f X e Y g(x), em que g : R R é uma função estritamente monótona e diferenciável no conjunto Im(X). Vamos encontrar a função densidade de Y. Como Y é a composição da função X com a função g, os valores que Y pode assumir são os valores que g pode assumir partindo do conjunto Im(X), ou seja, Im(Y ) g(im(x)). Seja, então, y Im(Y ). Consideremos inicialmente que g seja estritamente crescente. Neste caso, existe a inversa g, que é também uma função estritamente crescente. Assim, F Y (y) P(Y y) P[g(X) y] P[X g (y)] F X [g (y)].

163 5.. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 59 Derivando em relação a y, encontramos a relação entre f Y e f X : f Y (y) d dy F X [g (y)] f X [g (y)] d dy g (y). Se g é estritamente decrescente, existe a inversa g, que é também uma função estritamente decrescente. Logo, F Y (y) P(Y y) P[g(X) y] P[X g (y)] F X [g (y)]. Derivando em relação a y, encontramos a relação entre f Y e f X : f Y (y) d ( ) F X [g (y)] f X [g (y)] d dy dy g (y). d Note que, no caso de g ser estritamente crescente, dy g (y) > para todo y e podemos escrever d dy g (y) d d dy g (y). Já quando g é estritamente decrescente, dy g (y) < para todo y e podemos escrever d dy g (y) d dy g (y). Dessa forma, qualquer que seja g estritamente monótona, f Y (y) f X [g (y)] d dy g (y) (5.4) Esse resultado é conhecido como método do Jacobiano e sua versão generalizada será bastante útil no estudo de vetores aleatórios. Note que quando g(x) a + bx, isto é, uma função linear, (5.5) se transforma em f Y (y) f X (dfracy ab) b (5.5) Exemplo 5.3 Seja X tal que sua função densidade é constante e igual a no intervalo (, ) e fora desse intervalo. Obtenha a função densidade de Y g(x) ln X. A função g(x) ln x é estritamente decrescente e podemos aplicar o resultado visto no Exemplo 5.. f X (x) {, se < x <, caso contrario Como Im(X) (, ), resulta que Im(Y ) (, ). g(x) ln x

164 6 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS A inversa de y g(x) ln x é g (y) e y e, portanto, dg (y) dy e y Como < y <, então < e y < e a função densidade de Y é f Y (y) f X [ e y ] e y e y f Y (y) e y y (, ) uma vez que f X (x) no intervalo (, ). Exemplo 5.4 Se a função densidade da variável aleatória X é dada por f(x) calcule a função densidade de Y X. { 3x, se x, caso contrário, A função g é uma função linear e, portanto inversível. Y X X Y + Como x, resulta que 3 y. Logo, pelo resultado do Exemplo 5., ( ) y + f Y (y) f X se 3 y ou seja ( ) y +, 6 f Y (y) (y + ) se 3 y g não inversível Quando a função g, que relaciona as variáveis X e Y, não é inversível, os cálculos devem ser feitos com bastante cuidado. Exemplo 5.5 Seja X variável aleatória contínua com função densidade f X definida no Exemplo 5.. Calcule a função densidade das seguintes variáveis aleatórias (a) Y g(x) X (b) W h(x) X

165 5.. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 6 Como já vimos, as funções densidade e de distribuição de X são: {, se x f X (x), se < x < e F, caso contrário X (x) (x + ), se < x <, se x. Sabemos que Im(X) (, ). Logo, Im(Y ) Im(W ) [, ) g(x) x e h(x) x (a) Para calcular a densidade de Y g(x) X devemos notar que F Y (y) P(Y y) P(X y), se y P ( y X y ), se < y <, se y, se y F X ( y ) FX ( y ), se < y <, se y e, portanto f Y (y) { d [ ( )] d FX y dy dy F X ( y ) y F X { fx ( y ) y + f X [ FX ( y )], se < y <, caso contrário ( ) ( ) y y, se < y <, caso contrário ( ) y y, se < y <, caso contrário Como y < e < ( ) ( ) y, resulta que f X y fx y. Logo { f Y (y) y, se < y <, caso contrário (b) De modo análogo, para w < F W (w) P(W w) P( X w), se w P( w X w), se < w <, se w, se w F X (w) F X ( w), se < w <, se w

166 6 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS e, portanto { f W (w) F W F (w) X (w) F X ( w)( ), se < w <, caso contrário { fx (w) + f X ( w), se < w <, caso contrário Como w < e < w, resulta que f X (w) f X ( w). Logo f W (w) {, se < w <, caso contrário Note que a função densidade de W é constante no intervalo (, ). Os dois exemplos a seguir mostram que, mesmo X sendo variável aleatória contínua, Y g(x) não será necessariamente contínua. Exemplo 5.6 Mais uma vez, seja X variável aleatória contínua com função densidade f X definida no Exemplo 5.. Defina {, se X p Y, se X > p para algum < p <. Encontre a função de distribuição de Y e classifique esta variável aleatória. Veja que Im(Y ) {, }. Logo, já de início, sabemos que Y será variável aleatória discreta, pois a sua imagem é um conjunto finito. Sendo assim, podemos encontrar primeiro P(Y ) e P(Y ), para depois encontrarmos a função de distribuição F Y. e P(Y ) P(X > p) F X (p) p + P(Y ) P(X p) F X (p) p +. p A função de distribuição de Y é F Y (y), se y < p, se y <, se y Exemplo 5.7 James (4) ex.9a pág.89 Seja X uma v.a. contínua com função densidade {,, se x > f X (x) (+x), caso contrário. Defina Y g(x) max{x, c}, em que c >. Ache a função de distribuição de Y e classifique esta variável aleatória.

167 5.. FUNÇÕES DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 63 Sabemos que Im(X) (, ). Logo, Im(Y ) (c, ) g(x) max {x, c} Veja que, se y < c, F Y (y) P(Y y). Se y c, de acordo com o gráfico, F Y (y) P(Y y) P(X y) F X (y). Então, F Y (y) {, se y < c F X (y), se y c. Por outro lado, F X (x) x f X (t)dt { x, se x < d, se x. (+t) Para x >, x +x ( + t) dt u du u +x + + x x + x. e Então, {, se x < F X (x) x +x, se x {, se y < c F Y (y) y +y, se y c Podemos ver que F Y é uma função que satisfaz as propriedades da função de distribuição (Proposição.). Mas F Y não é uma função contínua, e, portanto, Y não é variável aleatória contínua. Podemos ver, também, que Im(Y ) não é um conjunto enumerável, logo Y não é variável aleatória discreta. Então, a variável aleatória Y não é discreta, nem contínua. Exemplo 5.8 Seja X é variável aleatória com função densidade dada por { x 3 f X (x) 64, se x 4, caso contrário encontre a função densidade de Y min{ X, X}.

168 64 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS Como Im(X) [, 4], resulta que Im(Y ) [, ] g(x) min { x, x } Queremos encontrar F Y. Se y <, F Y (y) e se y >, F Y (y). Vamos analisar, agora, o caso em que y. ( F Y (y) P(Y y) P ( P X y ) + P F X ( y ) + F X [ ( y) ] ) {X y } {X ( y) } (X ( y) ) Assim, (, se y < F Y (y) F X y ) ( + F X ( y) ), se y, se y > e f Y (y) { fx ( y ) y + f X ( ( y) ) ( y), se y, caso contrário. Substituindo pela expressão de f X, obtemos: f Y (y) { 3 ( y 7 + ( y) 7), se y, caso contrário. Note que essa função realmente define uma função densidade. Exemplo 5.9 Seja X variável aleatória tal que Defina Y X e encontre f Y. x+ 4, se < x f(x) 3 x 4, se < x < 3, caso contrário.

169 5.3. ESPERANÇA DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 65 Como Im(X) (, 3), resulta que Im(Y ) (, 3). g(x) x Se y <, F Y (y), e se y > 3, F Y (y). Vamos analisar, agora, o caso em que y 3, considerando separadamente os casos em que y e < y 3. Se y, Agora, se < y 3, F Y (y) P(Y y) P( y X y) F X (y) F X ( y). F Y (y) P(Y y) P(X y) F X (y). Assim,, se y < F F Y (y) X (y) F X ( y), se y F X (y), se < y 3, se y > 3. Derivando em relação a y, obtemos f X (y) + f X ( y), se y f Y (y) f X (y), se < y 3, caso contrário. Substituindo pela expressão de f X, concluímos que f Y (y), se y 3 y 4, se < y 3, caso contrário. Note que essa função realmente define uma função densidade. 5.3 Esperança de variáveis aleatórias contínuas No Capítulo 3, foi apresentada a ideia de valor médio como a média dos valores da variável aleatória, se o experimento fosse realizado infinitas vezes. Essa ideia pode ser utilizada, também, para o caso de variáveis aleatórias contínuas. Porém, no caso contínuo, não é possível termos a média ponderada dos valores da variável aleatória, com a ponderação definida pela probabilidade de cada um dos valores, uma vez que a probabilidade de cada um ocorrer é sempre nula. Mas essas ideias serão úteis para a definição do valor médio, ou esperança, no caso de variáveis aleatórias continuas.

170 66 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS Sem perda de generalidade, suponha que X seja uma variável aleatória contínua com função densidade f X e Im(X) [, ]. Vamos dividir esse intervalo em subintervalos [x, x + dx], com dx /n e x, /n, /n,..., (n )/n,. Veja que se n for grande, então f X (x)dx P(x X x + dx) Seguindo a definição de esperança para o caso discreto, podemos supor, para o caso contínuo, que, se n for grande, E(X) x P(x X x + dx) xf X (x)dx x x Tomando o limite quando n, ou equivalentemente dx, temos E(X) lim x P(x X x + dx) lim xf X (x)dx xf X (x)dx. n dx Isso nos leva à Definição 5.. x x x Definição 5. Esperança de variável aleatória contínua Seja X uma variável aleatória contínua com função densidade de probabilidade f X. A esperança (ou média ou valor esperado) de X é definida como E(X) desde que a integral esteja bem definida. + xf X (x)dx Exemplo 5. Calcule E(X) para os Exemplos 5.3 a 5.7. Exemplo 5.3 E(X) x(+x)dx+ x( x)dx ( x + x3 3 ) + ( x x3 3 ) ( ) ( + 3 ) 3 Exemplo 5.4 E(X) xe x dx Para o cálculo desta integral, faremos uso do método de integração por partes com as seguintes definições: Logo, E(X) u x du dx x e x dx xe x dv e x dx v e x e x dx + ( e x) Exemplo 5.5 E(X) 4 x 4 dx x 4 dx 4 x x [(6 4) + (64 36)]

171 5.3. ESPERANÇA DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 67 Exemplo 5.6 E(X) x 3 8 (4x x )dx 3 8 ) (4 x3 ( 3 x4 4 x3 3 ) 6 x Exemplo 5.7 E(X) Logo, a esperança de X não existe. x x dx x dx ln x lim ln x ln() x Assim como no caso discreto, se X é variável aleatória contínua e g é uma função real qualquer, então Y g(x) também é variável aleatória e o cálculo da sua esperança pode ser feito conhecendose apenas a função g, que relaciona X e Y, e a função densidade de X, f X. Proposição 5.3 Esperança de funções de variável aleatória contínua Seja X uma variável aleatória contínua com função densidade f X e seja Y g(x). Então, desde que a integral esteja bem definida. E (Y ) E [g (X)] g(x)f X (x)dx Demonstração: A demonstração será omitida. Exemplo 5. Seja X variável aleatória com função densidade definida por, se x < (x + ) f(x), se < x < x, se x <, se x > (a) Verifique as propriedades da função densidade e esboce o gráfico de f. (b) Calcule E(X). (c) Se Y /(X + ), calcule E(Y ). (a) f X (x) (veja gráfico a seguir) f X (x)dx (x + )3 3 + (x + ) dx + (x x3 3 ( x )dx ) ( 3 + ) 3

172 68 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS (b) (c) E(X) x(x + x + )dx + ( ) ( + 4 ( x x( x 4 )dx ) x3 3 + x ) ( ) x + x4 4 E(Y ) x + f (x + ) X (x)dx x + dx + ( x)( + x) dx x + ( ) x ) + x + (x x ( ) ( + ) As mesmas propriedades da esperança vistas para variáveis aleatórias discretas continuam valendo para o caso contínuo. Proposição 5.4 Seja X variável aleatória contínua, x min min{im(x)} e x max max{im(x)}. Se E(X) R então, x min E(X) x max. Demonstração: Primeiro vamos mostrar que x min E(X). E(X) xf X (x) x min f X (x) x min f X (x) x min. }{{} Para mostrar que E(X) x max, faremos um desenvolvimento análogo. E(X) xf X (x) x max f X (x) x max f X (x) x max. }{{} Proposição 5.5 Propriedade de linearidade da esperança Seja X variável aleatória contínua tal que E(X) R. Sejam a, b R. Então, E(aX + b) a E(X) + b. Demonstração: E(aX + b) a (ax + b)f X (x)dx xf X (x)dx +b } {{ } E(X) (axf X (x) + bf X (x)) dx f X (x)dx a E(X) + b. } {{ } axf X (x)dx + bf X (x)dx

173 5.4. VARIÂNCIA E DESVIO-PADRÃO DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS Variância e desvio-padrão de variáveis aleatórias contínuas A variância de uma variável aleatória, discreta ou contínua, é uma medida de dispersão em torno da média. O que muda do caso discreto para o contínuo é apenas a forma de cálculo. Definição 5.3 Variância de variável aleatória contínua Seja X variável aleatória contínua tal que E(X) R. A variância de X é definida como Var (X) E [X E (X)] desde que a integral esteja bem definida. [x E (X)] f X (x)dx, (5.6) O desvio-padrão é definido como a raiz quadrada de sua variância, independente do tipo de variável. DP (X) Var (X) Usando as propriedades do cálculo integral e representando por µ a esperança de X (note que µ é uma constante, um número real), temos que: Var(X) + + [x µ] f X (x)dx x f X (x)dx µ + + ( x µx + µ ) f X (x)dx + xf X (x)dx + µ f X (x)dx Se definimos h(x) x, a primeira integral nada mais é que E(X ), pela Proposição 5.3. A segunda integral é E(X) µ e a terceira integral é igual a, pela definição de função densidade. Logo, Var(X) E(X ) µ + µ E(X ) µ o que nos leva ao resultado já visto para variáveis discretas: Var(X) E(X ) [E(X)] (5.7) Informalmente, a variância é a esperança do quadrado de X menos o quadrado da esperança de X. Na demonstração da Proposição 3.9, que trata das propriedades da variância e do desviopadrão, não se fez uso do fato de a variável ser discreta. Sendo assim, essas propriedades também valem para variáveis aleatorias contínuas. Proposição 5.6 Propriedades da Variância e do Desvio-padrão Seja X variável aleatória tal que Var(X) R. Então valem as seguintes propriedades: (i) Var(X) (ii) DP(X) (iii) Var(aX + b) a Var(X) (iv) DP(aX + b) a DP(X)

174 7 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS Exemplo 5. Para a variável aleatória apresentada no Exemplo 5. calcule Var(X), Var(3X + ) e Var(X ). No Exemplo 5., obtivemos E(X) /6. Vamos, agora, calcular E(X ) para, em seguida, obter Var(X). E(X ) Var(X) 6 ( 6 x (x + x + )dx + ( ) 5 36 ) ( Var(3X + ) Var(3X) 9 Var(X) ( x x ( x 5 )dx ) x4 4 + x3 3 ) ( ) x x5 5 Seja Y X. Então, Var(Y ) E(Y ) [E(Y )] E(X 4 ) [ E(X ) ] E(X 4 ) Var(X ) 5 x 4 (x + x + )dx + ( ( ) ) ( ( x x 4 ( x 7 )dx ) x6 6 + x5 5 ) ( ) x x7 7 Exemplo 5.3 Função linear Seja X variável aleatória cuja função densidade f X está apresentada na Figura 5.. (a) Encontre o valor de k para que f X seja função densidade de probabilidade de uma variável aleatória contínua e determine a equação que define f X. (b) Calcule P( X 3). (c) Encontre a função de distribuição de X. (d) Determine o valor de q tal que P(X q), 6. (e) Calcule a esperança e a variância de X. (a) Usando a interpretação geométrica da integral como área sob a curva, o valor de k pode ser encontrado notando-se que essa área é a de um trapézio (veja Figura 5. com alturas k e, e base 5. Logo, 5 k +, k +,, 4 k, 3.

175 5.4. VARIÂNCIA E DESVIO-PADRÃO DE VARIÁVEIS ALEATÓRIAS CONTÍNUAS 7 Figura 5. Função densidade para o Exemplo 5.3 No intervalo (, 5), f X é um segmento de reta que passa pelos pontos (;, ) e (6;, 3); temos, assim, o seguinte sistema de equações: {, a + b, 3 a + 6b Subtraindo a primeira equação da segunda, obtemos b, 4 e a, 6. Logo, {, 6 +, 4x se x 6 f X (x) caso contrário (b) Veja a Figura 5.3, em que a área sombreada (área de um trapézio de bases f() e f(3) e altura ) corresponde à probabilidade pedida: f() + f(3), 4 +, 8 P( X 3), 6 3 ) (, 6 +, 4x)dx (, 6x +, 4 x 3 ( 9, 6 +, 4 4 ), 6 Figura 5. Área sob f X Exemplo 5.3 Figura 5.3 P( X 3) Exemplo 5.3 (c) Veja a Figura 5.4; aí podemos ver que, para x [, 6], F X (x) é a área de um trapézio de altura x e bases f X (x) e f X (),. Logo, para x [, 6] ou seja, F X (x) (, 6 +, 4x) +, (x ) (, 8 +, x)(x ), se x < F X (x), x +, 6x, 8, se x 6, se x > 6 Na Figura 5.5 é dado o gráfico da função de distribuição.

176 7 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS Usando integral, temos que F(x) x ), 4t x (, 6 +, 4t)dt (, 6t + (, 6x +, x ) (, 6 +, ), x +, 6x, 8, se x 6 Figura 5.4 F X como área Exemplo 5.3 Figura 5.5 F X Exemplo 5.3 (d) Queremos determinar q tal que F X (q), 6. Logo,, 6, q +, 6q, 8, q +, 6q, 68 q + 3q 34 q 3 ± A raiz que fornece resultado na Im(X) é q , 58 (e) Temos que E(X) E(X ) 6 x ( ) ( 6 x dx ( ) x + 4 ( ) x ( 6 x + 4 ( ( 6 dx ) x 3 3 ) x ( + ) ) 6 x 4 ) 6 ( 4 x3 + ) 6 x Var(X) 69 ( )

177 5.5. MOMENTOS E SUA FUNÇÃO GERADORA Momentos e sua função geradora As definições e propriedades de momentos e sua função geradora são as mesmas vistas no Capítulo 3, mudando apenas a forma de cálculo, conforme explicitado a seguir. Seja, então, X uma variável aleatória contínua com função densidade f X. µ k E(X k ) sempre que essas integrais existirem. µ k E[X E(X)] k A função geradora de momentos é x k f X (x)dx (5.8) ( ) M X (t) E e tx [µ E(X)] k f X (x)dx (5.9) desde que essa integral exista para todo t em alguma vizinhança de. e tx f X (x)dx (5.) Exemplo 5.4 Calcule a função geradora de momentos para a função densidade apresentada no Exemplo 5.4 e, a partir dela, obtenha E(X) e Var(X). Por definição, M X (t) E(e tx ) e tx e x dx e ( t)x dx }{{} λ e ( t)x ( t) t t lim x e ( t)x + t O limite acima só será finito se t >, quando o limite será zero. Resulta, então, que M X (t) t, t < o que garante que M X (t) está bem definida numa vizinhança de t. Vamos calcular as derivadas primeira e segunda de M X (t). e, portanto, M X (t) ( t) M X ( t) (t) ( t) 4 ( t) 3 E(X) M X () E(X ) M X () Var(X)

178 74 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS 5.6 Algumas desigualdades importantes Conhecendo a função de distribuição de uma variável aleatória, é possível calcular qualquer probabilidade envolvendo essa varável aleatória. Se conhecemos a função geradora de momentos, podemos calcular qualquer momento de uma variável aleatória e, também, identificar a sua distribuição. Mas se conhecemos apenas alguns momentos de X, não é possível encontrar a sua distribuição e nem a sua função geradora de momentos. Consequentemente, não sabemos calcular probabilidades envolvendo X. Apesar disso, o conhecimento do o e do o momentos nos dá alguma informação sobre o comportamento de X, como veremos nesta seção. Proposição 5.7 Desigualdade de Markov (ou Desigualdade Básica de Chebyshev) Seja X uma variável aleatória tal que P(X ), ou seja, X assume apenas valores não negativos. Então, t >, P(X t) E(X). t Demonstração: Primeiro vamos mostrar que a desigualdade vale quando X é variável aleatória discreta. E(X) x x t xp X (x) xp X (x) + xp X (x) x<t x t }{{} xp X (x) x t, pois x tp X (x) t x t p X (x) t P(X t). Analogamente, se X é variável aleatória contínua E(X) xf X (x)dx xf X (x)dx + x<t }{{} x t xf X (x)dx, pois x x t x t tf X (x)dx t xf X (x)dx x t f X (x)dx t P(X t). Exemplo 5.5 (Magalhães (), Exemplo 4.7 ) Em uma empresa com funcionários, o número médio de usuários simultâneos de Internet, em um certo período do dia, é de aproximadamente 3. Atualmente, existem 3 linhas telefônicas disponíveis para conexão. Avalie a necessidade de se aumentar esse número. Seja X número de usuários simultâneos na Internet. Como há 3 linhas disponíveis, a probabilidade de um usuário ficar sem acesso à Internet é P(X > 3). Se esse valor for grande, o aumento no número de linhas disponíveis deve ser considerado. Sabemos que X é variável aleatória não negativa e, além disso, E(X) 3. Então, usando a Desigualdade de Markov, obtemos P(X > 3) P(X 3) E(X)/3, 9677.

179 5.6. ALGUMAS DESIGUALDADES IMPORTANTES 75 Nesse caso a desigualdade não ajudou muito, o que é razoável, já que 3 é o número médio de usuários simultâneos. Mas se aumentarmos o número de linhas disponíveis para 4, a probabilidade de um usuário ficar sem Internet será P(X > 4) P(X 4) E(X)/4, 737. Veja que já temos alguma informação! Vamos calcular as cotas superiores para a probabilidade de um usuário ficar sem Internet para outros números de linhas disponíveis: N o de linhas disponíveis Desigualdade de Markov Cota superior 3 P(X 3), % 4 P(X 4), % 5 P(X 5), % 6 P(X 6), 498 5% 7 P(X 7), 45 43% 8 P(X 8), % Essas informações podem ser utilizadas para se decidir sobre a expansão do número de linhas disponíveis. Observe, por exemplo, que, a partir de 6 linhas, a probabilidade já é menor que,5. Proposição 5.8 Desigualdade Clássica de Chebyshev Seja X variável aleatória qualquer tal que E(X) µ e Var(X) σ existem e são finitas. Então, P( X µ t) σ t. Demonstração: Observe, inicialmente, que P( X µ t) P( X µ t ) pois a função f(x) x é estritamente crescente para x >. Além disso, X µ é variável aleatória não negativa, o que nos permite aplicar a Desigualdade de Markov para obter P( X µ t ) E( X µ t σ t Mas P( X µ t ) P( X µ t); logo P( X µ t) σ t. Corolário 5. Seja X variável aleatória qualquer tal que E(X) µ e Var(X) σ existem e são finitas. Então, P( X µ < t) σ t

180 76 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS Demonstração: Pela Desigualdade de Chebyshev, P( X µ t) σ σ σ P( X µ t) P( X µ < t) t t t Exemplo 5.6 Continuando o Exemplo 5.5, suponha que o desvio-padrão do número de usuários simultâneos na Internet é. Use essa informação para melhorar as aproximações encontradas no Exemplo 5.5. Temos, agora, mais uma informação, o desvio-padrão. Clássica de Chebyshev. Com isso, podemos usar a Desigualdade A probabilidade de um usuário ficar sem Internet quando há k linhas disponíveis é P(X > k) P(X k + ) P(X 3 k 9) P(X 3 k 9) + P [X 3 (k 9)] P( X 3 k 9) σ (k 9) (k 9). Logo, P(X k + ) (k 9). Com isso podemos recalcular as cotas superiores. N o de linhas disponíveis Desigualdade Cota superior 3 P(X 3) 5 % 4 P(X 4), % 5 P(X 5), 67 3% 6 P(X 6), 4 % 7 P(X 7), 595 6% 8 P(X 8), 384 4% Exemplo 5.7 Seja X é uma variável aleatória com média µ < e variância σ <. Encontre uma cota superior para P( X µ σ) (ou uma cota inferior para P( X µ σ)). Encontre também uma cota superior para P( X µ 3σ) (ou uma cota inferior para P( X µ 3σ)). Podemos usar a Desigualdade de Chebyshev. P( X µ σ), 5 P( X µ σ), 75 ou seja, para qualquer variável aleatória com média e variância finitas, a porcentagem de valores a uma distância de desvios-padrão da média é de pelo menos 75%. P( X µ 3σ) 3, P( X µ 3σ), 8889 ou seja, para qualquer variável aleatória com média e variância finitas, a porcentagem de valores a uma distância de 3 desvios-padrão da média é de pelo menos 88, 89%.

181 5.7. DENSIDADE SIMÉTRICA Densidade simétrica Nos Exemplos 5.3, 5.5 e 5.6 as funções densidade eram simétricas em torno de, 5 e, respectivamente e vimos que as esperanças eram exatamente os pontos de simetria. Esses resultados não são coincidência; eles refletem um resultado mais geral sobre densidades simétricas, apresentado na proposição a seguir. Proposição 5.9 Seja X variável aleatória contínua com função densidade simétrica em torno de µ. Então, sempre que k for ímpar. E(X µ) k Demonstração: Dizer que uma variável aleatória continua X tem função densidade f X simétrica em torno de µ significa dizer que f X (µ x) f X (µ + x) x Se X tem densidade simétrica em torno de µ, então as variáveis aleatórias Y (X µ) e W (X µ) têm a mesma distribuição. De fato: F Y (Y ) P(Y y) P(X µ y) P(X µ + y) F X (µ + y) f Y (y) f X (µ + y) F W (y) P(W y) P( (X µ) y) P(X µ y) F X (µ y) f W (w) f X (µ w)( ) f X (µ w) Como f X é simétrica em torno de µ, f Y (y) f X (µ + y) f X (µ y) f W (y); logo Y e W têm a mesma distribuição. Se (X µ) e (X µ) têm a mesma distribuição, então (X µ) k e [ (X µ)] k também têm a mesma distribuição. Logo, E(X µ) k E[ (X µ)] k E[( ) k (X µ) k ] Assim, se k for ímpar, E(X µ) k E[ (X µ) k ] E(X µ) k E(X µ) k. Em particular, se k, então E(X µ) E(X) µ Podemos interpretar a função densidade de probabilidade de X como uma distribuição de massa na reta real e essa interpretação também nos permite concluir que, se f X é simétrica, então E(X) é o valor central que define o eixo de simetria. Exemplo 5.8 Densidade triangular Considere a função f X apresentada na Figura 5.6: (a) Encontre o valor de k para que f X seja uma função densidade de probabilidade de uma v.a. X (note que o triângulo é isósceles). (b) Determine a equação que define f X.

182 78 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS Figura 5.6 Função densidade Exemplo 5.8 (c) Calcule P( X 3). (d) Encontre E(X). (e) Determine o valor de Q tal que P(X Q), 6. (f) Encontre a função de distribuição de X. (a) Por argumentos geométricos, a área tem que ser, ou seja (4 ) k k (b) A função f X é dada por dois segmentos de reta. O primeiro tem inclinação positiva e é determinado pelos pontos (, ) e (, ). Logo, para x [, ), fx (x) bx em que b y x /, ou seja, para [, ), f X (x) x 4. No intervalo [, 4], o segmento y a + bx tem inclinação negativa e é determinado pelos pontos (, ) e (4, ) e isso fornece o seguinte sistema de equações a + b 4 a + b Subtraindo a segunda equação da primeira, resulta: (a a) + (4b b) b 4 Substituindo na primeira equação, encontramos que a. Combinando os dois resultados, obtemos a seguinte expressão para f X : x 4, se x < f X (x) x 4, se x 4, se x < ou x > 4 (c) A probabilidade pedida é a área sombreada em cinza-escuro na Figura 5.7. Os dois triângulos sombreados de cinza-claro têm a mesma área, por causa da simetria. Assim, podemos calcular a probabilidade usando a regra do complementar, uma vez que a área total é.

183 5.7. DENSIDADE SIMÉTRICA 79 Figura 5.7 Cálculo de P( X 3) A altura dos dois triângulos é 4 f X () f X (3). Logo, a área de cada um dos triângulos é 4 8 e, portanto, P( X 3) Usando integrais, temos que P( X 3) 3 f X (x)dx ) + ( [( x 4 dx + ) 3 ( x ) dx x )] ( 4 8 (d) Como a função densidade é simétrica, resulta que E(X). ) (x x 3 4 (e) O primeiro ponto a observar é o seguinte: o ponto x divide a área ao meio, ou seja, x é a mediana da distribuição. Como P(X Q), 6, resulta que Q tem que ser maior que. Veja a Figura 5.8: Figura 5.8 Cálculo do percentil Q P 6 Novamente, vamos usar a regra do complementar: como a área (probabilidade) abaixo de Q tem que ser,6, a área (probabilidade) acima de Q, dada pela área do triângulo superior, tem que ser,4. A altura desse triângulo é f(q) Q 4. Logo, temos que, 4 ( (4 Q) Q ), 4 4 Q 8 ± , 8 ±, ) (4 Q Q + Q Q 8Q + 3, 4

184 8 CAPÍTULO 5. VARIÁVEIS ALEATÓRIAS CONTÍNUAS A raiz 8+, está fora de Im(X); logo, a solução é: Q 8,, 367 (f) Assim como a função densidade, a função de distribuição também será definida por partes. Para x [, ), F X (x) é a área do triângulo sombreado na Figura 5.9 e para x [, 4], F x (x) é a área sombreada na Figura 5.. Figura 5.9 F X (x) para x < Figura 5. F X (x) para x < 4 Logo, F X (x) (x ) x 4 se x [, ) F X (x) ( (4 x) x ) 4 se x (, 4] Combinando os resultados obtidos, resulta a seguinte expressão para F X :, se x < F X (x) 8 x, se x < 8 (4 x), se x 4, se x > 4 Veja a Figura 5.; para x <, o gráfico de F X é uma parábola côncava para cima; para x 4, o gráfico de F X é uma parábola côncava para baixo. Figura 5. Função de distribuição para a densidade triangular

185 Capítulo 6 Algumas Distribuições Contínuas Assim como no caso discreto, algumas distribuições de variáveis aleatórias contínuas são bastante usadas e por isso merecem um estudo mais detalhado. Esse é o objetivo deste capítulo, estudar algumas distribuições contínuas. 6. Distribuição uniforme A motivação principal da distribuição Uniforme é definir a função densidade de uma variável aleatória X de forma que P(X I) dependa apenas do tamanho do intervalo I. Considere a função densidade f X apresentada na Figura 6., em que a e b são números conhecidos. Figura 6. Função densidade uniforme Note que, para dois subintervalos de mesmo comprimento contidos em [a, b], a área será igual, uma vez que temos áreas de retângulos com mesma altura. Assim, intervalos de mesmo comprimento têm a mesma probabilidade. Esse fato leva à denominação de tal densidade como densidade uniforme. Qual deve ser o valor de k para que f X seja função densidade? A primeira condição é que a função densidade tem que ser não-negativa e isso implica em k. A segunda condição é que a área sob a curva de f X tem que ser, o resulta em b a kdx kx b a k b a. 8

186 8 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Definição 6. Distribuição Uniforme Uma variável aleatória contínua X tem distribuição uniforme no intervalo (a, b) se sua função densidade é dada por, se x (a, b) f(x) b a, caso contrário. Os valores a e b são chamados parâmetros da distribuição uniforme. Note que ambos os parâmetros da densidade uniforme têm que ser finitos para que a integral seja igual a. Além disso, a b. Dessa forma, o espaço paramétrico para o vetor de parâmetros (a, b) é {a R, b R, a b}. Vamos denotar a distribuição uniforme com parâmetros a e b por U(a, b). Assim, para indicar que uma variável aleatória contínua X segue essa distribuição, escrevemos X U(a, b) (lê-se: a variável aleatória X tem distribuição uniforme no intervalo [a, b]). Quando a e b temos a distribuição uniforme padrão, denotada por U(, ). Função Densidade e Função de Distribuição A função densidade da uniforme foi apresentada na própria definição. Quanto à função de distribuição acumulada, por definição, é F X (x) P (X x) e, para x (a, b), essa probabilidade é a área de um retângulo com base (x a) e altura, conforme ilustrado na Figura 6.. b a Figura 6. Função de distribuição da densidade uniforme como área Logo, F X (x), se x a, se a < x < b, se x b x a b a

187 6.. DISTRIBUIÇÃO UNIFORME 83 Esperança e Variância Das propriedades da esperança e das características da densidade uniforme (função simétrica), sabemos que E(X) é o ponto médio do intervalo (a, b). Logo X U(a, b) E (X) a + b (6.) Vamos, agora, calcular E(X ). Logo, E(X ) b a x f(x)dx Var(X) a + b + ab 3 b ab + a b a x b a dx b3 a 3 3(b a) a + b + ab. 3 ( ) a + b 4a + 4b + 4ab 3a 6ab 3b (b a). ou seja, X U(a, b) Var (X) (b a) (6.) Exemplo 6. Latas de refrigerante Latas de refrigerante são enchidas num processo automático de modo que o volume (em ml) é uma distribuição uniforme no intervalo (345,355). (a) Qual é a probabilidade de uma lata conter mais de 353 ml? (b) Qual é a probabilidade de uma lata conter menos de 346 ml? (c) Qualquer lata com volume 4 ml abaixo da média pode gerar reclamação do consumidor e com volume 4 ml acima da média pode transbordar no momento de abertura, devido à pressão interna. Qual é a proporção de latas problemáticas? Seja X conteúdo da lata de refrigerante. Então, X U(345, 355) (a) P(X > 353) (b) P(X < 346) (c) Pede-se , , P(X < 35 4) + P(X > ) , Logo, a proporção de latas problemáticas é de %. Note que essa é uma proporção bastante alta!

188 84 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Exemplo 6. Determinação dos parâmetros Uma variável aleatória X tem distribuição uniforme no intervalo (a, b) com média 7,5 e variância 6,75. Determine os valores de a e b, sabendo que b > a >. { a+b 7, 5 (b a) 6, 75 Da segunda equação, resulta que (b a) 8 e, portanto, b a 8. Como estamos supondo que a < b, resulta que b a 9, o que nos leva ao sistema { a + b 5 b a 9 cuja solução é a 3 e b, ou seja, X U(3, ). 6. Distribuição exponencial Uma das motivações para uma nova distribuição de probabilidade, chamada distribuição exponencial, vem do estudo do tempo até a primeira ocorrência do evento em um processo de Poisson. Suponha, então, que temos ocorrências de um determinado evento ao longo do tempo e que o número de ocorrências em um intervalo de tempo unitário possa ser considerado uma variável aleatória com distribuição de Poisson de média λ, ou seja, em média, temos λ ocorrências do evento em um intervalo de tempo unitário. Seja T o instante da primeira ocorrência. Então, T é uma variável aleatória cuja imagem é Im(T ) (, ). Vamos analisar a função de distribuição de T. F T (t) P(T t) P(T > t) P(não ocorrer evento algum em (, t]). Se X número de ocorrências dentro do intervalo (, t], sabemos, então, que X Poi(λt) e p X (x) (λt)x e λt. Assim, x! P(T > t) P(X ) e λt F T (t) e λt. o que nos leva à seguinte função densidade f T (t) d dt F T (t) λe λt t > Definição 6. Distribuição exponencial Uma variável aleatória X contínua tem distribuição exponencial com parâmetro λ > se sua função densidade de probabilidade é dada por { λe λx, x > f(x), x λ é o parâmetro da densidade exponencial.

189 6.. DISTRIBUIÇÃO EXPONENCIAL 85 Como λ representa o número médio de ocorrências em um intervalo de tempo unitário, o espaço paramétrico para λ tem que ser (, ). Usaremos a seguinte notação para indicar que uma variável aleatória tem distribuição exponencial com parâmetro λ: X Exp(λ). Função Densidade e Função de Distribuição Conforme visto no início desta seção, a função densidade e a função de distribuição de uma variável aleatória X Exp(λ) são dadas por f X (x) { λe λx, se x >, se x F X (x) { e λx, se x >, se x Nas Figuras 6.3a e 6.3b são exibidos os gráficos da função densidade e de distribuição, respectivamente, para X Exp(). (a) Função densidade (b) Função de distribuição Figura 6.3 Distribuição exponencial com λ. Esperança e variância O cálculo de E(X) e Var(X) para X Exp(λ) se faz com auxílio de integração por partes. E(X) xλe λx dx Fazendo u x e dv λe λx dx (o que significa que v e λx ), obtemos E(X) xλe λx dx xe λx + e λx dx lim x xe λx + e λx λ Portanto, λ. X Exp(λ) E (X) λ. (6.3) Usando novamente integração por partes com u x e dv λe λx dx, obtemos E(X ) x λe λx dx x e λx lim x x e λx xe λx dx λ xe λx dx xλe λx dx λ E(X) λ.

190 86 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Logo, Var(X) E(X ) E(X) λ λ λ ou seja, X Exp(λ) Var (X) λ. (6.4) Função geradora de momentos Se X exp(λ), sua função geradora de momentos é M X (t) E(e tx ) e tx λe λx dx λe (λ t)x dx λ e (λ t)x (λ t) O limite acima só será finito se λ t >, quando, então, o limite será zero. Logo, λ λ t lim x e (λ t)x + λ λ t X exp(λ) M X (t) λ λ t, t < λ (6.5) o que garante que M X (t) está bem definida numa vizinhança de t. Veja que M X (). As derivadas primeira, segunda e terceira são M X (t) M X λ (λ t) e os respectivos momentos de ordem, e 3 são: λ (t) (λ t) (λ t) 4 λ (λ t) 3 M X (t) λ 3(λ t) ( ) (λ t) 6 6λ (λ t) 4 M X () E(X) λ M X () E(X ) λ M X () E(X 3 ) 6 λ 3 e, como antes, Var(X) λ λ. O coeficiente de assimetria é λ α 3 6 λ 3 3 λ λ + ( ) 3 λ λ 3 resultando, assim, que a distribuição exponencial é sempre assimétrica à direita. Exemplo 6.3 Relação entre Poisson e Exponencial Suponha que o número de acidentes em uma rodovia seja uma variável aleatória de Poisson com média de acidente a cada 3 dias. (a) Qual é a probabilidade de o primeiro acidente do mês acontecer antes do terceiro dia?

191 6.. DISTRIBUIÇÃO EXPONENCIAL 87 (b) Qual é a probabilidade de não ser registrado acidente algum na primeira semana do mês? Cada um dos dois itens pode ser resolvido usando-se a distribuição de Poisson número de acidentes em um intervalo de tempo ou a distribuição exponencial tempo até o primeiro acidente. (a) Seja X número de acidentes nos primeiros dias do mês. Então, X Poi(/3) e queremos P(X > ) P(X ) e /3 Seja Y intervalo de tempo (em dias) até o primeiro acidente. Então Y Exp(/3) e queremos P(Y ) F Y () e /3 (b) Seja X número de acidentes na primeira semana. Então X Poi(7/3) e queremos P(X ) e 7/3 Como antes, Y Exp(/3) e queremos P(Y > 7) F Y (7) ( e 7/3 ) e 7/3. Exemplo 6.4 Seja X uma variável aleatória exponencial com média 4. Calcule (a) P(X > ) (b) P( X ) (a) A função densidade de X é f X (x) 4 e x/4 e a função de distribuição é F(x) e x/4. Podemos resolver essa questão por integração da função densidade P(X > ) f(x)dx ou pelo uso direto da função de distribuição 4 e x 4 dx e x 4 ( e,5 ) e,5, 7788 P(X > ) P(X ) F() [ e /4 ] e,5, 7788 (b) P( X ) P(X ) P(X < ) P(X ) P(X ) F() F() [ e /4 ] [ e /4] e,5 e,5, 77

192 88 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Parametrização Alternativa Muitos livros apresentam a distribuição exponencial em termos do parâmetro β λ caso, a função densidade passa a ser f X (x) β e x/β, x > x. >. Neste com função de distribuição F X (x) { x e x/β, x > A função geradora de momentos é M X (t) β e tx e x/β dx β ( ) e x β t dx Essa integral existirá apenas se β t >, resultando que M X (t) se t < βt β M X (t) β ( βt) M X (t) M X (t) β ( βt) 3 6β3 ( βt) 4 E(X) β E(X ) β Var(X) β E(X 3 ) 6β 3 α 3 6β3 3 β β + β 3 β 3 ou seja, com essa parametrização, o parâmetro β é a média da distribuição, uma interpretação mais intuitiva para o parâmetro. Exemplo 6.5 Seja X variável aleatória com distribuição exponencial. Calcule P [X > E(X)]. Usando a parametrização alternativa, temos que [ P [X > E(X)] P [X E(X)] F X [E(X)] e β/β] e Note que essa é a probabilidade de uma variável aleatória exponencial ser maior que o seu valor médio; o que mostramos é que essa probabilidade é constante, qualquer que seja o parâmetro.

193 6.3. DISTRIBUIÇÃO GAMA 89 Propriedade de falta de memória No Capítulo 4, vimos que uma variável aleatória X satisfaz a propriedade da falta de memória quando P(X > s + t X > t) P(X > s) (6.6) em que s, t são números reais não negativos. Vamos mostrar, agora, que, assim como a distribuição geométrica, a distribuição exponencial também satisfaz essa propriedade. Seja X Exp(λ). P(X > t + s X > t) P(X > t + s) P(X > t) e λ(t+s) e λt P(X t + s) P(X t) e λs P(X > s). [ e λ(t+s)] [ e λt ] Exemplo 6.6 Ao comprar um carro usado você não perguntou para o antigo dono quando foi a última vez que ele trocou a bateria. O fabricante da bateria diz que o tempo de vida de cada bateria pode ser considerado uma variável aleatória exponencial com média de 4 anos. Sabendo que a bateria está funcionando quando o carro foi comprado, qual a probabilidade de você não precisar trocar essa bateria pelos próximos anos? Considere X tempo de vida (em anos) da bateria e a tempo (em anos) desde que a bateria atual foi instalada até a compra do carro. O que queremos encontrar é P(X > a + X > a). Sabemos que X Exp(/4), mas não conhecemos o valor de a. Porém, essa informação não é necessária, uma vez que a distribuição exponencial tem a propriedade de falta de memória. Nesse caso temos, pela propriedade 6.6, P(X > a + X > a) P(X > ) P(X ) F X () e 4 e, Distribuição gama A Função gama Para apresentar a distribuição Gama primeiro precisamos conhecer a função Gama e suas propriedades. Definição 6.3 Função gama Chama-se função gama a função de variável real, estritamente positiva, definida por: Γ(α) x α e x dx, α > É importante notar que que a função Γ está perfeitamente definida, ou seja, a integral que a define é um número real sempre que α >. A demonstração desse resultado não será apresentada aqui. Além disso, como x α e x quando x, a função Γ é não negativa.

194 9 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Outras propriedades interessantes e úteis da função gama são dadas a seguir. Proposição 6. São válidas as seguintes propriedades da função gama: (G ) Dados α > e λ >, (G ) Dado α >, x α e λx dx Γ(α) λ α Γ(α) (α )Γ(α ) (G 3 ) Dado n N, Γ(n) (n )! Demonstração: (G ) Fazendo a mudança de variável y λx, temos que x α e λx dx ( y λ ) α e y dy λ λ α y α e y dy Γ(α) λ α (G ) Usando integração por partes com u x α du (α )x α dx e dv e x dx v e x, obtemos Γ(α) + x α e x dx x α e x e x (α )x α dx (α ) e x (α )x α dx x α e x dx (α )Γ(α ). (G 3 ) Vamos considerar α n inteiro positivo. Usando o resultado da Propriedade (G ) podemos demonstrar, por indução, que Γ(n) (n )!. Primeiro, veja que a afirmação é verdadeira para n, isto é, que Γ()!, pois Γ() x e x dx e x dx. Agora, suponhamos verdadeiro para n k qualquer, isto é, Γ(k) (k )!. Pela Propriedade (G ). Γ(k + ) kγ(k) k(k )! k! ou seja, o resultado vale para n k +, o que completa a prova por indução. Função Densidade Definição 6.4 Distribuição gama Uma variável aleatória contínua X tem distribuição gama com parâmetros α > e λ > se sua função densidade é dada por λ α Γ(α) xα e λx, se x > f X (x), caso contrário.

195 6.3. DISTRIBUIÇÃO GAMA 9 Note que, quando α, resulta a densidade exponencial com parâmetro λ, ou seja, a densidade exponencial é um caso particular da densidade gama. Os parâmetros da distribuição gama são α e λ. O espaço paramétrico para tais parâmetros é definido por α > e λ >. Usaremos a notação X Gama(α; λ) para indicar que a variável aleatória X tem distribuição gama com parâmetros α, λ. Para verificar que a função apresentada na Definição 6.4 realmente define uma função densidade, notamos inicialmente que f(x). Além disso, fazendo o uso da Propriedade (G ), apresentada na Proposição 6., temos f X (x)dx Γ(α) xα λ α e λx dx λα Γ(α) Logo, as duas condições para uma função densidade são satisfeitas. x α e λx dx. } {{ } Γ(α) λ α Esperança e Variância Seja X Gama(α, λ). Fazendo uso das Propriedades (G ) e (G ) apresentadas na Proposição 6., temos que E(X) λα Γ(α) xf X (x)dx Γ(α + ) λ α+ λα Γ(α) x Γ(α) xα λ α e λx dx αγ(α) λ α+ α λ λα Γ(α) x α e λx dx Portanto, X Gama(α, λ) E (X) α λ. (6.7) De modo análogo, vamos calcular E(X ). E(X ) λα Γ(α) x f X (x)dx Γ(α + ) λ α+ λα Γ(α) x Γ(α) xα λ α e λx dx λα Γ(α) α(α + )Γ(α) α(α + ) λ α+ λ x α+ e λx dx Logo, Var(X) E(X ) E(X) α(α + ) λ α α(α + ) α λ λ α λ Portanto, X Gama(α, λ) Var (X) α λ. (6.8) Função geradora de momentos M X (t) E(e tx ) λα Γ(α) e tx x α e λx dx λα Γ(α) x α e (λ t)x dx

196 9 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Essa integral existe apenas se λ t >, ou seja, t < λ. Sob essa condição e fazendo u (λ t)x, resulta M X (t) λα Γ(α) ( u ) α e u du λ t λ t λα Γ(α) (λ t) α u α e u du λα Γ(α) Γ(α) (λ t) α λα (λ t) α. Logo, X Gama(α, λ) M X (t) o que garante que M X (t) está bem definida numa vizinhança de t. Note que podemos escrever também ( ) λ α, t < λ. (6.9) λ t M X (t) ( ) t α, t < λ (6.) λ Veja que M X (). Veja também que, quando α, o resultado da Equação 6.9 coincide com a Equação 6.5, que apresenta a função geradora de momentos da exponencial. Logo, Vamos calcular as três primeiras derivadas. ( ) λ α M X (t) α λ λ t (λ t) α (λ t) M X (t) M X (t) α (λ t) M X (t) + α (λ t) M X (t) α + α (λ t) M X (t) M X (t) α + α (λ t) M X (t) + (α + α)(λ t) (λ t) 4 M X (t) α3 + α (λ t) 3 M X (t) + α + α (λ t) 3 M X (t) α3 + 3α + α (λ t) 3 M X (t) e o coeficiente de assimetria é α 3 E(X) M X () α λ E(X ) M X () α + α λ Var(X) α λ E(X 3 ) M X () α3 + 3α + α λ 3 α 3 + 3α + α λ 3 3 α + α λ α α λ λ α λ + α3 λ 3 α (6.) Assim, a densidade gama é sempre assimétrica à direita; no entanto, à medida que α, a distribuição se torna mais simétrica. Exemplo 6.7 Seja X Gama(α, λ). Se Y cx com c >, encontre a função geradora de momentos de Y e identifique sua distribuição.

197 6.3. DISTRIBUIÇÃO GAMA 93 Como X Gama(α, λ) já sabemos que a sua função geradora de momentos é definida por: M X (t) λα (λ t) α, t < λ. Pela Proposição 3., ou seja, M Y (t) M X (tc) M Y (t) λ α (λ tc) α, tc < λ ( λ c ) α ( λ c t) α, se t < λ/c Mas essa é a função geradora de momentos de uma variável aleatória com distribuição Gama ( α, λ c ). Logo, pelo Teorema 3., concluímos que Y Gama ( α, λ c ). Como a distribuição exponencial com parâmetro λ é uma Gama(, λ), segue que, se X exp(λ) e Y cx, então Y exp ( ) λ Parametrização Alternativa Assim como no caso da distribuição exponencial, a distribuição gama também tem uma parametrização alternativa, onde se usa o parâmetro β λ >, em vez do parâmetro λ. Neste caso, a função densidade passa a ser f X (x) Γ(α)β α xα e x/β, se x > e, a partir da Equação (6.), obtemos facilmente que, caso contrário. Assim, com essa parametrização, ( ) α M X (t) βt M X (t) αβ βt M X (t) M X (t) α β + αβ ( βt) M X (t) M X (t) α3 β 3 + 3α β 3 + αβ 3 ( βt) 3 M X (t) E(X) αβ E(X ) α β + αβ Var(X) αβ E(X 3 ) α 3 β 3 + 3α β 3 + αβ 3 α 3 α

198 94 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Formas da densidade gama Consideremos a função densidade gama, definida, para x >, por f X (x) λα Γ(α) xα e λx com λ > e α >. Vamos, agora, estudar as possíveis formas do seu gráfico, analisando assíntotas, pontos de máximo ou mínimo, regiões de crescimento ou decrescimento, concavidade. Nessa análise, vamos ignorar a constante λα, uma vez que ela é positiva e não altera o sinal da função ou de suas Γ(α) derivadas. Assíntotas Qualquer que seja λ >, temos que lim f X (x) x lim f(x) x, se α, se α < Derivada primeira f (x) (α )x α e λx λx α e λx (x α e λx )(α λx) (6.) O sinal da derivada primeira depende apenas do sinal de g(x) α λx, uma vez que x α e λx > se x >. Vamos, então, analisar a derivada primeira estudando o comportamento de g. α Como x >, resulta que f (x) <, ou seja, se α, a densidade gama é uma função estritamente decrescente. α > f (x) x α λ f (x) > x < α λ f (x) < x > α λ f crescente f decrescente Logo, x α λ é um ponto de máximo

199 6.3. DISTRIBUIÇÃO GAMA 95 Derivada segunda f (x) [ (α )x α 3 e λx λx α e λx] (α λx) + x α e λx ( λ) (α )(α )x α 3 e λx λ(α )x α e λx λ(α )x α e λx λ x α e λx λx α e λx [ ] x α 3 e λx (α )(α ) λ(α )x λx(α ) + λ x λx [ ] x α 3 e λx λ x λx(α + α + ) + (α )(α ) [ ] x α 3 e λx λ x λx(α ) + (α )(α ) xα 3 e λx [ λ x α ] (α )(α ) x + λ λ O sinal da derivada segunda depende do sinal de h(x) x α (α )(α ) x + λ λ que, por sua vez, depende do sinal do discriminante da equação de segundo grau que define h(x). α < (α ) (α )(α ) (α ) 4 λ 4 λ 4 λ (α α + ) 4 α λ Nesse caso, o discriminante é negativo e a equação não tem raízes reais e terá sempre o sinal do coeficiente do termo quadrático, que é. Assim, neste caso, a concavidade é para cima. Resumindo, se α < a densidade gama é estritamente decrescente com concavidade para cima. α α < f (x) < - decrescente < f (x) > - concavidade para cima Sinal da derivada segunda para α < Nesse caso, o discriminante é nulo e h(x) x > se x > ; logo, a concavidade é para cima, ou seja, se α a densidade gama é estritamente decrescente com concavidade para cima. α f (x) < - decrescente f (x) > - concavidade para cima Sinal da derivada segunda para α

200 96 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS α > Neste caso, o discriminante é sempre positivo, ou seja, temos duas raízes reais distintas, calculadas da seguinte forma: x α λ ± α λ ± 4 α λ α α ± λ λ o que fornece as raízes α ( ) r α λ α ( ) r α + λ Como o coeficiente do termo quadrático de h(x) é positivo, resulta que h(x) é negativa (sinal oposto ao de a) para valores de x entre as raízes, e positiva (mesmo sinal de a) fora das raízes: h(x) < se r < x < r h(x) > se x < r ou x > r A raiz é r é sempre positiva. Já a raiz r só será positiva se α >, ou seja, se α > e será nula ou negativa se α. Vamos analisar essas duas situações separadamente. α > h(x) tem duas raízes positivas. Temos, assim, dois pontos de inflexão na Im(X) : r er. α > f(x) tem um ponto de máximo > x < r ou x > r f (x) > - concavidade para cima r < x < r f (x) < - concavidade para baixo f(x) tem pontos de inflexão Sinal da derivada segunda para α > < α Se α, r e se < α <, r <. Logo, se < α, temos apenas um ponto de inflexão na Im(x) : r, pois, para x >, h(x) < se < x < r e h(x) > se x > r. < α f(x) tem um ponto de máximo > x > r f (x) > - concavidade para cima < x < r f (x) < - concavidade para baixo f(x) tem ponto de inflexão Sinal da derivada segunda - < α

201 6.3. DISTRIBUIÇÃO GAMA 97 α. Na Tabela 6. temos um resumo do comportamento da densidade gama em função do parâmetro Tabela 6. Características do gráfico da densidade gama em função do parâmetro α < α Estritamente decrescente Côncava para cima Ponto de inflexão: α ( α ) Ponto de máximo: r + λ Concavidade: < α x α λ para cima se x > r para baixo se x < r Crescente x < α Pontos de inflexão: λ α ( α ) r λ α ( α ) α > r + λ Decrescente Concavidade: x > α para cima se x < r ou x > r λ para baixo se r < x < r Nas Figuras 6.4e 6.5 são apresentados os gráficos da densidade gama para alguns valores dos parâmetros α e λ. Nesses gráficos estão marcados, também, os pontos de máximo e de inflexão, caso existam. Em cada uma das Figuras 6.4a e 6.4b, o parâmetro λ está fixo e temos o gráfico da função densidade para α,, 4. Nas Figuras 6.5a e 6.5b, fixamos o parâmetro α e variamos λ. Analisando esses gráficos, podemos ver que α tem grande influência sobre a forma da distribuição, enquanto λ afeta mais fortemente a dispersão. Por essas razões, α é chamado parâmetro de forma da densidade gama e λ é o parâmetro de escala. (a) λ (b) λ 4 Figura 6.4 Efeito do parâmetro α na forma da densidade gama - α,, 4

202 98 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS (a) α (b) α 3 Figura 6.5 Efeito do parâmetro λ na forma da densidade gama - λ,, 3 Casos particulares da distribuição gama Veremos a seguir três casos particulares da distribuição gama, entre eles a distribuição exponencial, como já comentado ao longo do texto. Distribuição Exponencial Quando, na distribuição gama, o parâmetro α temos a distribuição exponencial com parâmetro λ. Nesse caso, para x >, sua função densidade é definida por f X (x) Γ() x λ e λx λe λx. e E(X) λ e Var(X) λ. Esses são os mesmos resultados encontrados na seção 6.. Distribuição de Erlang Quando o parâmetro α da distribuição gama é um inteiro positivo, α k, a distribuição gama é conhecida como distribuição de Erlang de ordem k e sua função densidade, para x >, é definida por: f X (x) Γ(k) xk λ k e λx (k )! xk λ k e λx Ou seja, se X tem distribuição de Erlang de ordem k N e parâmetro λ > [notação: X Erl k (λ)], a sua função densidade é: f X (x) (k )! xk λ k e λx, se x >, caso contrário. (6.3) Além disso, E(X) k λ e Var(X) k λ.

203 6.4. DISTRIBUIÇÃO BETA 99 Distribuição Qui-Quadrado Quando, na distribuição gama, o parâmetro de forma α é igual a n, com n inteiro positivo, e o parâmetro λ é a distribuição é chamada de distribuição qui-quadrado com n graus de liberdade e a sua função densidade, para x > é definida por: f X (x) Γ(n/) x(n/) ( ) n/ e (/)x Γ(n/) n/ x(n/) e x/. Ou seja, se X tem distribuição Qui-quadrado com n graus de liberdade (notação: X χn), a sua função densidade é f X (x) Γ(n/) n/ x(n/) e x/, se x > (6.4), caso contrário. Além disso, E(X) n/ / n e Var(X) n/ (/) n. 6.4 Distribuição beta A Função Beta Antes de apresentarmos a distribuição Beta precisamos conhecer a função beta e suas propriedades. Definição 6.5 Função beta Chama-se função beta a função B de duas variáveis definida por: B(α, β) x α ( x) β dx, α > e β >. Pode-se provar que a função beta está perfeitamente definida, ou seja, a integral que a define é um número real sempre que α >, β > e é estritamente positiva. A demonstração desse resultado não será apresentada aqui. Outras propriedades interessantes e úteis da função beta são dadas a seguir. Proposição 6. Algumas propriedades da função beta São válidas as seguintes propriedades da função beta: (B ) B(α, β) Γ(α)Γ(β) Γ(α + β) (B ) B(α, β) B(β, α) (B 3 ) B(α, β) B(α +, β) + B(α, β + ) (B 4 ) B(α +, β) B(α, β) α α + β

204 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS (B 5 ) B(α, β + ) B(α, β) Demonstração: β α + β (B ) A demonstração não será apresentada aqui, por envolver integração dupla. Mas note que essa relação nos permite ver que a função beta está bem definida e é estritamente positiva. (B ) Por definição, temos que B(β, α) Fazendo a mudança de variável x t resulta x β ( x) α dx (B 3 ) B(β, α) ( t) β t α ( dt) B(α +, β) + B(α, β + ) B(α, β) t α ( t) β dt x α+ ( x) β dx + [ x α ( x) β + x α ( x) β] dx x α ( x) β [x + x] dx t α ( t) β dt B(α, β) x α ( x) β+ (B 4 ) Usando a relação entre as funções beta e gama, assim como propriedades da função gama, temos Γ(α + )Γ(β) B(α +, β) Γ(α + + β) αγ(α)γ(β) (α + β)γ(α + β) B(α, β) α α + β (B 5 ) Pelas propriedades anterior e da simetria, temos que B(α, β + ) B(β +, α) B(β, α) β α + β B(α, β) β α + β Função densidade Definição 6.6 Distribuição beta Uma variável aleatória contínua X tem distribuição beta com parâmetros α > e β > se sua função densidade é dada por f X (x) B(α, β) xα ( x) β, se < x <, caso contrário.

205 6.4. DISTRIBUIÇÃO BETA Os parâmetros da distribuição Beta são α e β, e o espaço paramétrico é definido por: α > e β >. A notação usada para indicar que uma variável aleatória X segue a distribuição Beta será X Beta(α, β). Note que, se X Beta(α, β), então Im(X) (, ). X U(, ). Além disso, se X Beta(, ) então A função f X apresentada na Definição 6.6 é, de fato, função densidade, uma vez que f X (x) x R e f X (x)dx B(α, β) xα ( x) β dx B(α, β) x α ( x) β dx B(α, β). B(α, β) Usando a relação entre as funções gama e beta, podemos reescrever a função densidade da distribuição beta como: Γ(α + β) f X (x) Γ(α)Γ(β) xα ( x) β, se < x <, caso contrário. (6.5) Na Figura 6.6a temos exemplos das diversas formas que a densidade beta pode tomar. Note que quando α β, a densidade beta é a densidade uniforme no intervalo (, ). Na Figura 6.6b ilustra-se a propriedade reflexiva: note o efeito da inversão dos valores de α e β. Na Figura 6.6c ilustra-se o fato de a densidade beta ser simétrica quando α β. (a) Exemplos diversos (b) Propriedade reflexiva (c) Simetria se α β Figura 6.6 Gráficos da densidade beta Momentos Para os cálculos a seguir vamos usar a relação entre as funções beta e gama, além das propriedades da função gama, já vistas na Propriedade 6..

206 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS E(X k ) B(α, β) x k f X (x)dx x k B(α, β) xα ( x) β dx x α+k ( x) β dx B(α + k, β B(α, β) Temos, assim, a seguinte fórmula recursiva para o cálculo dos momentos da distribuição beta: E(X k+ E(X k ) B(α + k +, β) B(α, β) B(α + k, β) B(α, β) Γ(α + k + )Γ(β) Γ(α + β + k + ) Γ(α + k)γ(β) Γ(α + β + k (α + k)γ(α + k) Γ(α + k) B(α + k +, β) B(α + k, β ) Γ(α + k + ) Γ(α + k) Γ(α + β + k) (α + β + k)γ(α + β + k) Γ(α + β + k) Γ(α + β + k + ) Logo, E(X k+ ) E(X k ) α + k α + β + k (6.6) Fazendo k obtemos X Beta(α, β) E (X) α α + β. (6.7) e, portanto, Fazendo k obtemos E(X ) α + α + β + E(X) α + α + β + Var(X) E(X ) [E(X)] (α + )α (α + β + )(α + β) α (α + β) (α + )α(α + β) α (α + β + ) (α + β + )(α + β) α α α + β (α + )α (α + β + )(α + β) ( α + αβ + α + β α αβ α ) (α + β + )(α + β) ou seja, X Beta(α, β) Var (X) αβ (α + β + )(α + β). (6.8) Fazendo k obtemos E(X 3 ) α + α + β + E(X ) (α + )(α + )α (α + β + )(α + β + )(α + β)

207 6.4. DISTRIBUIÇÃO BETA 3 O momento centrado de ordem 3 é Logo, E(X µ) 3 E(X 3 ) 3 E(X ) E(X) + [E(X)] 3 ( ) (α + )(α + )α (α + β + )(α + β + )(α + β) 3 (α + )α (α + β + )(α + β) α α 3 α + β + α + β α 3 + 3α + α (α + β)(α + β + )(α + β + ) 3α 3 + 3α (α + β) (α + β + ) + α3 (α + β) 3 (α 3 + 3α + α)(α + β) (α + β) 3 (α + β + )(α + β + ) (3α3 + 3α )(α + β)(α + β + ) (α + β) 3 (α + β + )(α + β + ) + α3 (α + β + )(α + β + ) (α + β) 3 (α + β + )(α + β + ) α 5 + α 4 β + α 3 β + 3α 4 + 6α 3 β + 3α β + α 3 + 4α β + αβ (α + β) 3 (α + β + )(α + β + ) 3α5 + 6α 4 β + 3α 3 β + 6α 4 + 6α 3 β + 3α 4 + 6α 3 β + 3α β + 6α 3 + 6α β (α + β) 3 (α + β + )(α + β + ) + α5 + α 4 β + 4α 4 + α 4 β + α 3 β + 4α 3 β + α 4 + α 3 β + 4α 3 (α + β) 3 (α + β + )(α + β + ) α β + αβ (α + β) 3 (α + β + )(α + β + ) αβ(β α) (α + β) 3 (α + β + )(α + β + ) α 3 αβ(β α) (α + β) 3 (α + β + )(α + β + ) αβ (α + β + )(α + β) ou seja, o coeficiente de assimetria da distribuição beta é αβ (α + β) α + β + α 3 (β α) α + β + (α + β + ) αβ (6.9) e aí podemos ver que a distribuição e simétrica quando α β, conforme ilustrado na Figura 6.6c. Exemplo 6.8 A percentagem de impurezas por lote, em um determinado produto químico, é uma variável aleatória com distribuição beta de parâmetros α 3 e β. Um lote com mais de 4% de impurezas não pode ser vendido. (a) Qual é a probabilidade de que um lote selecionado ao acaso não possa ser vendido por causa do excesso de impurezas? (b) Quantos lotes, em média, são selecionados ao acaso até que se encontre um que não pode ser vendido por causa do excesso de impurezas? (c) Qual a porcentagem média de impurezas nos lotes desse produto químico? (a) Seja Y percentagem de impurezas em um lote. Queremos encontrar P(Y >, 4).

208 4 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Pelo enunciado temos que Y Beta(3, ). Então, a função densidade de Y, para < y <, é definida por: Então, P(Y >, 4) f Y (y) B(3, ) y3 ( y) Γ(3 + ) Γ(3)Γ() y ( y),4 4!!! y ( y) y ( y), < y <. f Y (y)dy,4 ( ) y 3 3 y4 4 4/ [ ( )] y ( y)dy [( 3 4 )],4 y y 3 dy 79, 88 [( 64 3 )] 56 4 (b) Seja W números de lotes selecionados ao acaso até que se encontre um que não pode ser vendido por excesso de impureza. Queremos E(W ). Veja que W Geo (, 88). Então, E(W ) p, 8. (c) Nesse item queremos E(Y ). Como Y Beta(3, ) sabemos que E(Y ) 3 5, 6, ou seja, a porcentagem média de impurezas nos lotes desse produto químico é de 6%. 6.5 Distribuição de Weibull Assim como no caso das distribuições anteriores, a definição de uma variável aleatória com distribuição de Weibull será feita a partir da definição da sua função densidade. Função Densidade Definição 6.7 Distribuição de Weibull Uma variável aleatória X tem distribuição de Weibull com parâmetros α > e β > se sua função densidade de probabilidade é dada por f(x) α β α xα e ( x β ) α, x > (6.) Logo, de acordo com a Definição 6.7, a distribuição de Weibull tem dois parâmetros, α e β, e o espaço paramétrico é α > e β >. Além disso, Se X tem distribuição de Weibull com parâmetros α e β [X W eib(α, β)], então Im(X) (, ). Alguns autores (ver Rohatgi (8), por exemplo) usam um novo parâmetro η em vez de β α ou λ em vez de /β α (ver Magalhães (), por exemplo).

209 6.5. DISTRIBUIÇÃO DE WEIBULL 5 Para mostrar que (6.) define uma densidade, basta mostrar que sua integral é, uma vez que f(x). Para tal, note que podemos reescrever 6. como Fazendo a mudança de variável: u f(x) α β ( ) x α ( ) x α e β, x > (6.) β ( ) x α du α ( ) x α dx; x u e x u. β β β Assim obtemos ( ) α x α ( ) x α e β dx e u du. β β Função de Distribuição No caso da distribuição de Weibull é possível encontrar a sua função de distribuição também parametrizada por α e β. Por definição, Fazendo a mudança de variável F(x) x ( ) α t α ( ) t α e β dt β β u ( ) t α du α ( ) t α ( ) x α dt; t u e t x u. β β β β Logo, F(x) x ( ) α t α ( ) t α ( ) α x e β β dt β β ( ) α e u du e u xβ ( ) α e xβ. Portanto, X W eibull(α, β) F X (x) {, x e (x/β)α, x > (6.) Momentos Vamos calcular os momentos da distribuição, E(X k ), para qualquer k inteiro positivo. E(X k ) x k α β ( ) x α ( ) x α e β dx β Fazendo a mesma mudança de variável u ( x β ) α resulta que ou seja, E(X k ) β k u α k e u du β k u α k + e u du β k u α+k α e u du β k Γ ( ) α + k α

210 6 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS X W eibull(α, β) ( ) α + k E(X k ) β k Γ α Fazendo k, obtemos E(X): X W eibull(α, β) ( ) α + E(X) βγ α (6.3) (6.4) Fazendo k obtemos E(X ) : ( ) α + E(X ) β Γ α e, portanto, ( ) ( ( )) ] α + α + X W eibull(α, β) Var(X) β [Γ Γ α α (6.5) Formas da distribuição de Weibull Assíntotas ( ) α < α < lim x xα e xβ lim + ( ) α e xβ x + x α lim x + f X (x) α lim x + f X (x) β β α > lim x + f(x) α, β lim x f(x) Derivada primeira f X (x) α ( ) α β α (α )xα e xβ α ( ) α β α xα e xβ α α ( ) α [ β α xα e xβ α α ] β xα ( ) x α β β Vemos, assim, que se α, então f X (x), o que significa que f X (x) é sempre decrescente. Note que, quando α, a distribuição de Weibull coincide com a distribuição exponencial.

211 6.6. DISTRIBUIÇÃO DE PARETO 7 Consideremos, agora, o caso em que α >. f X (x) xα α α β x f X (x) < xα > α α β x > f X (x) > xα > α α β x < [ (α )β α [ (α )β α [ (α )β [ ] (α )β α Vemos, assim, que se α >, então f X (x) tem um ponto de máximo em x. α Na Figura 6.7 ilustram-se as diferentes formas da distribuição de Weibull, bem como a influência dos parâmetros α e β, chamados parâmetros de forma e escala, respectivamente. α ] α ] α ] α (a) X W ei(α, ) (b) X W ei(, β) Figura 6.7 Gráficos da densidade de Weibull 6.6 Distribuição de Pareto Uma nova variável aleatória será apresentada a partir da definição da sua função densidade. Função Densidade Definição 6.8 Densidade de Pareto Uma variável aleatória X tem distribuição de Pareto com parâmetros α > e b > se sua função densidade de probabilidade é dada por ( ) α b α+, se x b f(x) b x, se x < b Logo, de acordo com a Definição 6.8, a distribuição de Pareto tem dois parâmetros, α e b, e o espaço paramétrico é α > e b >. Além disso, se X tem distribuição de Pareto com parâmetros α e b (X Pareto(α, b)), os valores que X pode assumir estão no intervalo (b, ), isto é, Im(X) (b, ).

212 8 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS Para mostrar que f(x) realmente define uma função densidade de probabilidade resta provar que a integral é, uma vez que f(x). ( ) α b α+ dx αb α x α dx αb α x α b x α b Essa integral converge apenas se α < ou equivalentemente, α >, pois nesse caso lim lim x x α. Satisfeita esta condição, temos que αb α x α α b b αb α b α α b x x α Função de Distribuição No caso da distribuição de Pareto, também é possível encontrar a sua função de distribuição parametrizada por α e β. Por definição, F(x) P(X x) se x < b. Para x b, x ( ) α b α+ x F(x) P(X x) dt αb α b t b α ( x α b α) b ( ) b α. x b t α dt αb α t α α x b Portanto, {, se x < b X Pareto(α, b) F X (x) ( ) b α x, se x b (6.6) Na Figura 6.8 ilustra-se a função densidade e a função de distribuição de Pareto com parâmetros α 3 e b. (a) Função Densidade (b) Função de Distribuição Figura 6.8 Distribuição de Pareto com parâmetros α 3 e b. Esperança e Variância Se X Pareto(α, b) então E(X) x α ( ) b α+ dx αb α x α dx αb α x α+ b b x b α + b.

213 6.6. DISTRIBUIÇÃO DE PARETO 9 Para que essa integral convirja, temos que ter α + <, ou seja, α >. Satisfeita esta condição, ( ) E(X) αb α b α+ αbα α+ αb α + α α. Portanto, αb, se α > X Pareto(α, b) E(X) α não existe, se α (6.7) E(X ) b x α ( ) b α+ dx αb α x α+ dx αb α x α+ b x b α + b. Para que essa integral convirja, temos que ter α + <, ou α >. Satisfeita esta condição, ( ) E(X ) αb α b α+ αbα α+ α + α αb α. Logo, se α >, ( ) Var(X) αb αb α αb (α ) α b (α ) α (α ) [ (α ) αb α α + α(α ) ] [ (α ) αb α α + α + α ] (α ) (α ) (α ) αb (α ) (α ) Portanto, X Pareto(α, b) αb Var(X) (α ), se α > (α ) não existe, se α (6.8)

214 CAPÍTULO 6. ALGUMAS DISTRIBUIÇÕES CONTÍNUAS

215 Capítulo 7 A Distribuição Normal Neste capítulo, iremos estudar a distribuição normal, uma das principais distribuições contínuas, que tem varias aplicações na estatística. Começaremos o estudo com um caso particular, a distribuição normal padrão. 7. Distribuição normal padrão Função densidade e função de distribuição Com o uso de coordenadas polares e integrais duplas, pode-se provar (ver Seção A.8) que exp ) ( t π dt (7.) e, portanto, exp ) ( t dt π (7.) uma vez que a função e t / é par. Isso nos leva à seguinte definição. Definição 7. Densidade Normal Padrão Diz-se que uma variável aleatória X tem densidade normal padrão se sua função densidade é dada por φ(x) ) exp ( x < x < π Vamos denotar por N(; ) a densidade normal padrão e, se uma variável aleatória tem tal distribuição, é comum representá-la pela letra Z, de modo que estabelecemos a notação Z N(; ). A função de distribuição é dada pela integral Φ(z) z exp ( ) t dt (7.3) π

216 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL para a qual não existe uma antiderivada em forma de função elementar. Assim, cálculos com a distribuição acumulada da normal padrão requerem integração numérica. Todos os pacotes estatísticos possuem rotinas especiais para esse cálculo. Analisando a expressão de φ(z), podemos ver que ela é simétrica em torno de, ou seja, ela é uma função par: φ(z) φ( z). Sendo assim, a média e a mediana da distribuição normal são iguais a e, portanto, Φ() P(Z ), 5. Na Figura 7. temos o gráfico das funções densidade e de distribuição normal padrão. (a) Função densidade (b) Função de distribuição Figura 7. Distribuição normal padrão Esperança e variância Seja Z N(, ). Como φ(z) é simétrica em torno do ponto x, sabemos, pela Proposição 5.9, que E(Z). Como E(Z), então Var(Z) E(Z ) + ) z exp ( z dz + π π z exp ) ( z dz uma vez que o integrando é par. Esta integral é calculada usando o método de integração por partes. Fazendo: z exp ) ) ( z dz dv v exp ( z z u dz du resulta que: z exp ) ( z Pelos resultados (A.5) e (A.3) π + z exp [ )] exp ( z dz + ) ( z dz z exp z exp ) ( z dz (7.4) ) ( z π dz Logo, Var(Z) π π Var(Z) (7.5)

217 7.. CÁLCULO DE PROBABILIDADES DA NORMAL PADRÃO 3 Resumindo: Z N(; ) E(Z) Var(Z) (7.6) Função geradora de momentos ou seja, Seja Z N(; ); então, sua função geradora de momentos é M Z (t) e tx [ ( e x / x )] tx dx exp dx π π [ ( x tx + t t )] exp dx π [ ( x tx + t ) ( )] t exp + dx π [ ( x tx + t )] ( ) t exp e dx π ( ) t [ ] (x t) exp exp dx π }{{} ( ) t Z N(, ) M Z (t) exp. (7.7) As derivadas primeira, segunda e terceira de M Z (t) são M Z (z) tm Z (t) M Z (z) M Z (t) + tm Z (z) ( + t )M Z (t) M Z (z) tm Z (t) + ( + t )M Z (z) (3t + t3 )M Z (t) e daí obtemos os resultados já vistos anteriormente: E(Z) M Z () E(Z ) Var(Z) E(Z 3 ) α Cálculo de probabilidades da normal padrão Vimos anteriormente que o cálculo de probabilidades associadas a variáveis aleatórias contínuas envolve cálculo de integrais da função densidade: P(a X b) b a f X (x)dx Isso, obviamente, continua valendo para a densidade normal. A diferença está no fato de que o cálculo de tais integrais para a densidade normal padrão requer métodos numéricos e, para facilitar esses cálculos, podemos usar uma tabela em que alguns valores já se encontram calculados. A tabela básica fornece probabilidades associadas à densidade normal padrão.

218 4 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL Tabela : P( Z z) A Tabela do Apêndice B será usada para calcular probabilidades associadas a uma variável aleatória normal padrão Z. Assim, com essa tabela, poderemos calcular probabilidades do tipo P(Z > ), P(Z 3), P( Z ) etc. Vamos analisar cuidadosamente esta tabela. A partir do cabeçalho e do gráfico na tabela, podemos ver que as entradas no corpo da tabela fornecem probabilidades do tipo P( Z z). Com relação à abscissa z, seus valores são apresentados na tabela ao longo da coluna lateral à esquerda em conjunto com a linha superior. Na coluna à esquerda, temos a casa inteira e a primeira casa decimal; na linha superior, temos a segunda casa decimal. Por exemplo, ao longo da primeira linha da tabela, temos probabilidades associadas às abscissas,;,;,,...,,9; na segunda linha da tabela, temos probabilidades associadas às abscissas,;,;,;...,,9; na última linha da tabela, temos probabilidades associadas às abscissas 4,; 4,; 4,;... ; 4,9. A entrada, no canto superior esquerdo da tabela dá a seguinte probabilidade: P( Z, ), ou seja, P(Z ) e, como visto, essa probabilidade é nula, uma vez que, para qualquer variável aleatória contínua X, P(X x ). A segunda entrada na primeira linha,,4, corresponde a P( Z, ), que é a área sob a curva de densidade normal padronizada compreendida entre os valores e, (veja o gráfico na tabela). Note que esta tabela apresenta probabilidades correspondentes a abscissas positivas. Para calcular probabilidades associadas a abscissas negativas, teremos que usar o fato de a curva da densidade normal ser simétrica. Sempre faça um esboço do gráfico da função densidade, sombreando a área correspondente à probabilidade desejada; isso lhe ajudará no cálculo da probabilidade. Vamos terminar esta seção apresentando vários exemplos de cálculos de probabilidades para uma variável aleatória Z com distribuição normal padrão, ou seja, no que segue, Z N(; ). Os exemplos apresentados cobrem todas as situações possíveis. Assim, é importante que você entenda bem a situação ilustrada em cada um dos exemplos, para poder aplicar o método de solução adequado. Exemplo 7. A partir da Tabela do Apêndice B calcule P( Z, ). Veja as Figuras 7.a e 7.b. Essa probabilidade é dada diretamente na Tabela, utilizando a entrada correspondente à linha, e à coluna com o valor. O resultado é. P( Z, ), 3888 (a) Interpretação como área (b) Uso da tabela Figura 7. Cálculo de P( Z, ) Exemplo 7. A partir da Tabela do Apêndice B calcule P( Z ).

219 7.. CÁLCULO DE PROBABILIDADES DA NORMAL PADRÃO 5 Note que este exemplo trata da probabilidade entre duas abscissas positivas. Na Figura 7.3a ilustrase a probabilidade desejada como a área sombreada, que pode ser obtida pela diferença entre as áreas das Figuras 7.3b e 7.3d, cujos valores são encontrados na Tabela conforme ilustram as Figuras 7.3c e 7.3e. (a) P( Z ) (b) P( Z ) (c) Uso da tabela (d) P( Z ) (e) Uso da tabela Figura 7.3 Cálculo de P( Z ) Exemplo 7.3 A partir da Tabela do Apêndice B calcule P(Z ). Note que este exemplo trata da probabilidade de Z ser maior que uma abscissa positiva. Na Figura 7.4a ilustra-se essa probabilidade como a área sombreada, que pode ser obtida pela diferença entre as áreas das Figuras 7.4b e 7.4c. A primeira área corresponde à probabilidade P(Z ) e é igual a,5, pois a média µ é o eixo de simetria e a área total é. Logo, P(Z ) P(Z ), 5. A segunda área vem direto da Tabela. (a) P(Z ) (b) P(Z ) (c) P( Z ) Figura 7.4 Cálculo de P(Z ) Exemplo 7.4 A partir da Tabela do Apêndice B calcule P(Z ). Note que este exemplo trata da probabilidade de Z ser menor que uma abscissa positiva. Na Figura

220 6 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL 7.5a ilustra-se a probabilidade desejada como a área sombreada, que pode ser obtida pela soma das áreas das Figuras 7.5b e 7.5c. A primeira área corresponde à probabilidade P(Z ) e é igual a,5, conforme visto no exemplo anterior. (a) P(Z ) (b) P(Z ) (c) P( Z ) Figura 7.5 Cálculo de P(Z ) Concluímos, então, que P(Z ) P(Z ) + P( Z ), 5 +, 343, 843 Exemplo 7.5 A partir da Tabela do Apêndice B calcule P(Z, 5) Note que este exemplo trata da probabilidade de Z ser menor que uma abscissa negativa e, agora, começamos a trabalhar com abscissas negativas. Na Figura 7.6a ilustra-se a probabilidade desejada como a área sombreada. Pela simetria da curva de densidade normal, essa área é igual à área sombreada na Figura 7.6b, que corresponde a P(Z, 5). (a) P(Z, 5) (b) Simetria: P(Z, 5) Figura 7.6 Cálculo de P(Z, 5) Concluímos, então, que P(Z, 5) P(Z, 5), 5 P( Z <, 5), 5, 95, 385 Exemplo 7.6 A partir da Tabela do Apêndice B calcule P(Z, 5) Note que este exemplo trata da probabilidade de Z ser maior que uma abscissa negativa. Na Figura 7.7a ilustra-se essa probabilidade como a área sombreada, que é a soma das áreas sombreadas nas

221 7.. CÁLCULO DE PROBABILIDADES DA NORMAL PADRÃO 7 (a) P(Z, 5) (b) P(Z ) (c) P(, 5 Z ) (d) Simetria: P(Z Z, 5) Figura 7.7 Cálculo de P(Z, 5) Figuras 7.7b e 7.7c. Essa última área, por sua vez, é igual à área representada na Figura 7.7d, pela simetria da curva de densidade. Concluímos, então, que P(Z, 5) P(, 5 Z ) + P(Z ) P( Z <, 5) +, 5, 95 +, 5, 695 Exemplo 7.7 A partir da Tabela do Apêndice B calcule calcule P(, Z, 4) Note que este exemplo trata da probabilidade de Z estar entre duas abscissas negativas. Na Figura 7.8a ilustra-se a probabilidade desejada como a area sombreada. Por simetria, essa área é igual à área ilustrada na Figura 7.8b, já analisada no Exemplo 7.. (a) P(, Z, 4) (b) Simetria: P(, 4 Z, ) Figura 7.8 Cálculo de P(, Z, 4) Concluímos, então, que P(, Z, 4) P(, 4 Z, ) P( Z, ) P( Z, 4), 48, 49, 69

222 8 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL Exemplo 7.8 A partir da Tabela do Apêndice B calcule P(, Z, 4) Note que este exemplo trata da probabilidade de Z estar entre duas abscissas, uma negativa e outra positiva. Na Figura 7.9a ilustra-se a probabilidade como a area sombreada, que é a soma das áreas representadas nas Figuras 7.9b e 7.9c. Por simetria, essa última área é igual à área sombreada na Figura 7.9d, o que nos leva à conclusão de que P(, Z, 4) P( Z, 4) + P(, Z ) P( Z, 4) + P( Z, ), 48 +, 49, 93 (a) P(, Z, 4) (b) P( Z, 4) (c) P(, Z ) (d) Simetria: Simetria: P( Z, ) Figura 7.9 Cálculo de P(, Z, 4) Tabela : Φ(z) P(Z z) por: Muitos livros trabalham com a tabela da função de distribuição da normal padrão Φ, definida Φ(z) P(Z z). A Tabela do Apêndice B apresenta os valores de Φ(z) para z. Vamos usar essa tabela para refazer os exemplos vistos anteriormente, que serão apresentados em uma ordem diferente, mais didaticamente apropriada para o novo contexto. Exemplo 7.9 A partir da Tabela do Apêndice B calcule P(Z ) Essa probabilidade resulta diretamente da definição de distribuição acumulada: P(Z ) Φ(, ), 843

223 7.. CÁLCULO DE PROBABILIDADES DA NORMAL PADRÃO 9 Exemplo 7. A partir da Tabela do Apêndice B calcule P(Z ) Pela lei do complementar, temos que P(Z ) P(Z < ) Mas, como Z é uma variável aleatória contínua, sabemos que P(Z z). Logo P(Z < z) P(Z z) Logo, P(Z ) P(Z < ) P(Z ) Φ(, ), 843, 587 Exemplo 7. A partir da Tabela do Apêndice B calcule P(Z, 5) Vimos, no Exemplo 7.5, que Logo, P(Z, 5) P(Z, 5) P(Z, 5) P(Z, 5) P(Z <, 5) P(Z, 5) Φ(, 5), 695, 385 Exemplo 7. A partir da Tabela do Apêndice B calcule P(Z, 5) Veja as Figuras 7.a e 7.b. P(Z, 5) P(Z <, 5) P(Z >, 5) P(Z, 5) Φ(, 5), 695 (a) P(Z, 5) (b) Simetria: P(Z, 5) Figura 7. Cálculo de P(Z, 5) Exemplo 7.3 A partir da Tabela do Apêndice B calcule P( Z, )

224 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL (a) P(Z, ) (b) Simetria: P(Z ) Figura 7. Cálculo de P(Z, ) Veja as Figuras 7.a, 7.a e 7.b. P( Z, ) P(Z, ) P(Z ) Φ(, ), 5, 8888, 5, 3888 Exemplo 7.4 A partir da Tabela do Apêndice B calcule P( Z ) Veja as Figuras 7.3a, 7.a e 7.b. P( Z ) P(Z ) P(Z < ) P(Z ) P(Z ) Φ(, ) Φ(, ), 977, 843, 359 (a) P(Z, ) (b) Simetria: P(Z, ) Figura 7. Cálculo de P( Z ) Exemplo 7.5 A partir da Tabela do Apêndice B calcule P(, Z, 4) Usando os resultados do Exemplo 7.4, temos que P(, Z, 4) P(, 4 Z, ) Φ(, ) Φ(, 4), 98, 99, 69 Exemplo 7.6 A partir da Tabela do Apêndice B calcule P(, Z, 4)

225 7.3. A DISTRIBUIÇÃO NORMAL Usando os resultados do Exemplo 7., temos que P(, Z, 4) Φ(, 4) P(Z <, ) Φ(, 4) Φ(, ) Φ(, 4) [ Φ(, )], 99 [, 98], A distribuição normal Seja Z N(; ); vamos definir uma nova variável aleatória por X g(z) µ + σz, em que σ > e calcular sua função densidade. ( F X (x) P(X x) P(µ + σz x) P Z x µ ) ( x µ ) Φ σ σ Logo, f X (x) ( x µ ) σ φ σ e essa é a densidade normal N(µ; σ ). [ exp πσ ( x µ ) ] σ Definição 7. Distribuição Normal Diz-se que, uma variável aleatória contínua X, definida para todos os valores em R, tem distribuição normal com parâmetros µ e σ, onde < µ < e < σ <, se sua função densidade de probabilidade é dada por f(x) [ ] exp (x µ) πσ σ < x <. Usaremos a seguinte notação para indicar que X tem distribuição normal com parâmetros µ e σ : X N(µ, σ ). Características da função densidade normal. Simétrica em torno de µ; note que f (µ x) f (µ + x).. Assíntotas: lim f(x) lim f(x) ; esse resultado segue diretamente das propriedades da x x função exponencial e do fato de que e x e x. 3. Ponto de máximo Para calcular a primeira e segunda derivadas de f(x), devemos lembrar que (e x ) e x e, pela regra da cadeia, (e g(x) ) e g(x) g (x). Aplicando esses resultados à densidade normal, obtemos que: f (x) [ exp πσ ] [ (x µ) σ (x µ) σ ] ( x µ ) f(x) σ (7.8)

226 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL Derivando novamente, obtemos: ( x µ f (x) f (x) [ (x µ) f(x) σ 4 σ ) f(x) σ [ ] f(x) σ f(x) ( x µ f(x) [ (x µ) σ σ 4 )] [ x µ ] σ σ ] f(x) σ (7.9) Analisando a equação (7.8) e lembrando que f(x) >, pode-se ver que: f (x) x µ e assim, x µ é um ponto crítico. Como f (x) > para x < µ e f (x) < para x > µ, então f é crescente à esquerda de µ e decrescente à direita de µ. Segue, então, que x µ é um ponto de máximo e nesse ponto f(µ) (7.) πσ 4. Pontos de inflexão Analisando a segunda derivada dada por (7.9), tem-se que: f (x) (x µ) σ x µ σ { x µ + σ x µ σ (7.) Além disso, f (x) > (x µ) > σ x µ > σ x > µ + σ ou x < µ σ (7.) e f (x) < (x µ) < σ x µ < σ µ σ < x < µ + σ (7.3) Logo, f(x) é côncava para cima se x > µ + σ ou x < µ σ e é côncava para baixo quando µ σ < x < µ + σ. Na Figura 7.3 é apresentado o gráfico da densidade normal no caso em que µ 3 e σ. Aí a linha pontilhada central representa o eixo de simetria e as linhas pontilhadas laterais passam pelos pontos de inflexão 3 ±. Figura 7.3 Densidade normal com média µ 3 e variância σ

227 7.3. A DISTRIBUIÇÃO NORMAL 3 Parâmetros da distribuição normal Se X N ( µ; σ ), então X µ + σz, em que Z N(; ). Das propriedades da média e da variância, resulta E(X) µ + σ E(Z) µ + E (X) µ e Var (X) σ Var(Z) σ Var(X) σ Resumindo: X N ( µ; σ ) { E(X) µ Var(X) σ (7.4) Os parâmetros da densidade normal são, então, a média e a variância, que são medidas de posição e dispersão, respectivamente. Valores diferentes de µ deslocam o eixo de simetria da curva e valores diferentes de σ mudam a dispersão da curva. Quanto maior σ, mais espalhada é a curva, mas o ponto de máximo, dado pela equação (7.), é inversamente proporcional a σ. Logo, quanto maior σ, mais espalhada e mais achatada é a curva. O importante a observar é que a forma é sempre a de um sino. Na Figura 7.4a temos exemplos de densidades normais com a mesma variância, mas com médias diferentes. O efeito é o deslocamento do eixo de simetria da densidade. Já na Figura 7.4b, temos duas densidades com a mesma média, mas variâncias diferentes. O efeito é que a densidade com maior variância é mais dispersa e achatada. (a) Variâncias iguais, médias diferentes (b) Médias iguais, variâncias diferentes Figura 7.4 Efeito dos parâmetros sobre a forma da densidade normal Função de distribuição A função de distribuição da densidade normal é dada pela integral F(x) x [ exp πσ ( ) ] t µ dt (7.5) σ Na Figura 7.5 apresentamos a função de distribuição associada às densidades N(; ), N(3; ) e N(3; 4). Note que, pela simetria da densidade em torno da média µ, sempre teremos F(µ), 5, pois a mediana também é µ. Esse fato é ilustrado com as linhas pontilhadas na figura.

228 4 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL Figura 7.5 Função de distribuição da N(; ), N(3; ) e N(3; 4) Função geradora de momentos Como X é uma transformação linear de Z resulta, da Proposição 3., que a função geradora de momentos de X é dada por M X (t) e µt M Z (σt) e µt e σ t / Logo, X N(µ, σ ) M X (t) exp (µt + σ t ). (7.6) Veja que M X (). Vamos calcular as três primeiras derivadas e os respectivos momentos. M X (t) M X (t) (µ + tσ ) M X (t) M X (t) (µ + tσ ) + σ M X (t) M X (t)(µ + tσ ) + σ M X (t) M X (t) M e, portanto, X (t) M X [(µ (t) + tσ ) + σ ] + M X (t)σ (µ + tσ ) ( M X (t) µ + tσ ) [ (µ + tσ ) + σ ] + M X (t)σ (µ + tσ ) M X (t)(µ + tσ ) [(µ + tσ ) + 3σ ] [ ] M X (t) (µ + tσ ) 3 + 3σ (µ + tσ ) E(X) M X () µ E(X ) M X () µ + σ Var(X) µ + σ µ σ [(µ + tσ ) + σ ] E(X 3 ) M X () µ3 + 3µσ α 3 µ3 + 3µσ 3µ(µ + σ ) + 3µ µ µ 3 σ 3 Esse resultado já era esperado, uma vez que a densidade normal é simétrica em torno de µ. O resultado apresentado na Proposição 7. a seguir tem várias aplicações práticas.. Proposição 7. Transformação Linear de N(µ; σ ) Seja X N(µ, σ ). Se Y ax + b, com a, b R, então Y N(aµ + b, a σ ).

229 7.4. COEFICIENTE DE CURTOSE 5 Demonstração: Como X N(µ; σ ) sabemos, pela Equação 7.6, que Usando o resultado da Proposição 3., temos M X (t) exp (µt + σ t ). M Y (t) e tb M X (ta) e tb exp (µta + σ (ta) ) exp (tb + µta + σ (ta) ) exp ((b + aµ)t + a σ t ) Mas essa é a função geradora de momentos de uma variável aleatória normal de média b + aµ e variância a σ. Logo, Y N(b + aµ, a σ ). 7.4 Coeficiente de curtose A distribuição normal tem várias aplicações na estatística. Sendo assim, é importante identificar se uma distribuição se parece com a distribuição normal. Uma das medidas utilizadas para isso é o coeficiente de curtose. Definição 7.3 Coeficiente de Curtose Seja X variável aleatória com E(X) µ e Var(X) σ. O coeficiente de curtose de X, denotado por α 4, é definido por α 4 E[(X µ)4 ] σ 4 3 supondo a existência dos momentos envolvidos. O coeficiente de curtose mede afastamentos em relação à distribuição normal, tanto em termos de pico, quanto em termos da espessura das caudas da distribuição. A subtração de 3 no coeficiente tem a ver com o fato de o momento centrado de ordem 4 da distribuição normal ser 3, conforme mostraremos em seguida; assim, um coeficiente indica total semelhança com a distribuição normal. Coeficientes positivos indicam distribuições leptocúrticas, que têm picos mais acentuados que a normal e coeficientes negativos indicam uma distribuição platicúrtica, que é mais achatada que a normal. Na Figura 7.6 ilustram-se algumas dessas distribuições. Exemplo 7.7 Coeficiente de curtose da distribuição normal Vamos calcular o coeficiente de curtose de X N(µ; σ ). O coeficiente de curtose envolve o momento de ordem quatro; sendo assim, vamos calcular a derivada Os histogramas foram gerados a partir de 5 observações simuladas das seguintes distribuições: t(), Uni(, ), Laplace e logística, ambas com parâmetro de escala igual a e parâmetro de localização.

230 6 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL (a) Mesocúrtica - α 4, (b) Platicúrtica - α 4, (c) Leptocúrtica - α 4 3, 5 (d) Leptocúrtica - α 4, 98 Figura 7.6 Distribuições com diferentes coeficientes de curtose de ordem quatro da função geradora de momentos de X. [ M (iv) X (t) M x(t) (µ + tσ ) 3 + 3σ (µ + tσ) ] + M X (t) [3σ (µ + tσ ) + 3σ 4] [ M x (t)(µ + tσ ) (µ + tσ ) 3 + 3σ (µ + tσ) ] + M X (t) [3σ (µ + tσ ) + 3σ 4] M X (t) [(µ + tσ ) 4 + 6σ (µ + tσ ) + 3σ 4] Logo, e, portanto, o coeficiente de curtose é α 4 E(X 4 ) M (iv) X () µ4 + 6µ σ + 3σ 4 E(X µ)4 σ 4 3 E(X 4 4X 3 µ + 6X µ 4Xµ 3 + µ 4 ) σ 4 3 (7.7) µ4 + 6µ σ + 3σ 4 4µ(µ 3 + 3µσ ) + 6µ (µ + σ ) 4µ 3 µ + µ 4 σ 4 3 (7.8) 3 σ 4 σ 4 3 (7.9) 7.5 Cálculo de probabilidades da normal Já foi visto que, se X N ( µ, σ ), então X µ + σz, onde Z N(, ). Vamos ver como utilizar esse resultado para calcular probabilidades da normal. Temos que ( P (X x) P (µ + σz x) P Z x µ ) ( x µ ) Φ σ σ (7.)

231 7.5. CÁLCULO DE PROBABILIDADES DA NORMAL 7 Nas Figuras 7.7a e 7.7b ilustra-se esse fato, utilizando as densidades Z N(; ) e X N(3; 4). No gráfico à esquerda, a área sombreada representa P(X 5) e no gráfico à direita, a área sombreada representa a probabilidade equivalente: ( X 3 P(X 5) P 5 3 ) P(Z ) O que o resultado diz é que essas probabilidades áreas são iguais. (a) P(X 5) (b) P(Z ) Figura 7.7 P(X 5) P(Z ) X N(3; ) Isso significa que probabilidades para X N(µ; σ ) podem ser calculadas a partir da operação de padronização Z X µ (7.) σ em que Z N(; ). É interessante lembrar que a transformação dada na Equação (7.) corresponde ao cálculo do escore padronizado associado à abscissa x. Assim, cálculos de probabilidades de variáveis aleatórias normais sempre envolverão o cálculo do escore padronizado da(s) abscissa(s) de interesse. Exemplo 7.8 Se X N(3; 9), calcule P( X 4) P( X 4) P ( 3 X ) P (, 33 Z, 33) Φ(, 33) Φ(, 33) Φ(, 33) ( Φ(, 33)), 693 (, 98) P( Z, 33) + P( Z, 33), 93 +, 484, Exemplo 7.9 Se X N(; 5), calcule P( X 7)

232 8 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL ( P( X 7) P X 7 ) P (, 45 Z, 4) Φ(, 4) Φ(, 45) Φ(, 4) [ Φ(, 45)], 9875 [, 67] P( Z, 4) + P( Z, 45), , 7, 6575 Exemplo 7. Se X N(5, ), calcule P(X > 7) ( X 5 P(X > 7) P > 7 5 ) P(Z > ), Φ(, ),, 9775, 5 P( Z, ), 5, 4775, 75 Exemplo 7. A regra ,7 Seja X N(µ; σ ). Calcule P(µ kσ < X < µ + kσ), para k,, 3. Note que essa probabilidade corresponde à probabilidade de X estar a uma distância de k desviospadrão da média. ( µ kσ µ P(µ kσ X µ + kσ) P σ X µ σ µ + kσ µ ) P( k Z k) σ É importante observar que chegamos a uma probabilidade que não depende de µ ou σ, ou seja, esse resultado vale qualquer que seja a distribuição normal. k P(µ σ X µ + σ) P( Z ) tab(, ), 344, 688 k P(µ σ X µ + σ) P( Z ) tab(, ), 477, 9544 k 3 P(µ 3σ X µ + 3σ) P( 3 Z 3) tab(3, ), 4987, 9974 Essas probabilidades nos dizem que, para qualquer distribuição normal, 68,8% dos valores estão a um desvio-padrão da média, 95,44% estão a dois desvios-padrão e 99,73% dos valores estão a três desvios-padrão da média. Veja a Figura 7.8 para uma ilustração desses resultados.

233 7.6. ENCONTRANDO A ABSCISSA DA NORMAL PARA UMA PROBABILIDADE ESPECÍFICA 9 No Exemplo 5.7 vimos que, para qualquer distribuição com média e variância finitas, as porcentagens de valores a uma distância de e 3 desvios-padrão da média eram pelo menos 75% e 88,89%, respectivamente. Saber que a distribuição é normal permite refinar essas probabilidades. Figura 7.8 Ilustração da regra ,7 7.6 Encontrando a abscissa da normal para uma probabilidade específica Nos exemplos vistos até o momento, consideramos situações em que tínhamos uma abscissa de uma distribuição normal e queríamos alguma probabilidade associada a essa abscissa. Agora, vamos lidar com a situação inversa: dada uma probabilidade, qual é a abscissa correspondente? Eis algumas situações que envolvem esse tipo de problema: Em uma turma de Estatística, os % melhores alunos receberão um livro de presente. Qual a menor nota que dá direito a um livro de presente? Em uma comunidade, as famílias com as 5% piores rendas irão receber um auxílio da prefeitura. Qual a renda familiar máxima que garante o auxílio da prefeitura? Como antes, vamos apresentar vários exemplos que ilustram essa situação. Exemplo 7. Se Z N(; ), determine o valor de k tal que P(Z k), 9. Vamos traduzir esse problema em termos probabilísticos: queremos encontrar a abscissa k da normal padrão tal que a probabilidade à esquerda dela seja,9. Como,9 é a área à esquerda de k, resulta que k tem que ser maior que zero, isto é, temos que ter k >. Veja a Figura 7.9: à esquerda de k temos área (probabilidade),9 e à esquerda de temos área (probabilidade),5. Logo, entre e k temos que ter área (probabilidade),4.

234 3 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL Figura 7.9 k P(Z k), 9 Escrevendo essas observações em termos de probabilidades, temos: P(Z k), 9 P(Z ) + P( < Z k), 9, 5 + P( < Z k), 9 P( < Z k), 4 Esta última igualdade nos diz que k é a abscissa correspondente ao valor,4 na Tabela. Para identificar k, temos que buscar, no corpo dessa tabela, o valor mais próximo de,4. Na linha correspondente ao valor, encontramos as entradas,39973 e,447. Como a primeira está mais próxima de,4, olhamos qual é a abscissa correspondente: a linha é, e a coluna é 8, o que nos dá a abscissa de,8, ou seja, k, 8 e P(Z, 8), 9, completando a solução. Agora vamos olhar o mesmo exemplo, mas para uma distribuição normal qualquer. Exemplo 7.3 Se X N(3; 4), determine o valor de k tal que P(X k), 9. Como a probabilidade à esquerda de k é maior que,5, resulta que k tem que ser maior que a média. O primeiro passo na solução é escrever a probabilidade dada em termos da normal padrão. P(X k), 9 ( X 3 P k 3 ), 9 ( P Z k 3 ), 9 ( P(Z ) + P Z k 3 ), 9 (, 5 + P Z k 3 ), 9 ( P Z k 3 ), 4 k 3, 8 k 5, 56 Exemplo 7.4 Se X N(3; 4), determine o valor de k tal que P(X k), 5.

235 7.6. ENCONTRANDO A ABSCISSA DA NORMAL PARA UMA PROBABILIDADE ESPECÍFICA 3 À esquerda de k temos 5% da área total; logo, k tem que ser menor que a média, ou seja, temos que ter k < 3 e a abscissa padronizada correspondente tem que ser negativa (menor que a média ). P(X k), 5 ( X 3 P k 3 ), 5 ( P Z k 3 ), 5 Como a área (probabilidade) à esquerda de k 3 é menor que, 5, isso significa que k 3 tem que ser negativo. Veja a Figura 7.a. Para nos adequarmos às tabelas disponíveis, temos que trabalhar com abscissas positivas, ou seja, temos que usar a simetria da curva. Veja a Figura 7.b e note que a abscissa simétrica a k 3 é k 3 3 k. (a) P ( Z k 3 ) ( ), 5 (b) Simetria: P Z k 3, 5 Figura 7. k P(X k), 5 Temos, então, a seguinte equivalência de probabilidades: ( P Z k 3 ), 5 ( P Z k 3 ), 5 ( P Z k 3 ), 45 O menor valor mais próximo de,45 no corpo da Tabela é,4495, que corresponde à abscissa,64, e isso nos dá que k 3, 64 k, 8 Exemplo 7.5 Se X N(3; 4), determine o valor de k tal que P( X 3 k), 95.

236 3 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL Pelas propriedades da função módulo, sabemos que P( X 3 k), 95 P( k X 3 k), 95 P (3 k X k + 3), 95 ( 3 k 3 P X 3 k ), 95 ( P k Z k ), 95 Veja a Figura 7. para entender que ( P k Z k ), 95 P ( k ) ( Z + P Z k ), 95 ( P Z k ), 95 ( P Z k ), 475 k, 96 k 3, 9 Note que, de forma mais direta, Figura 7. k P ( Z k ), 95 P( X 3 k), 95 ( X 3 P k ), 95 ( P Z k ), 95 ( P k Z k ), 95 ( P Z k ), 475 k, 96 k 3, 9 Na desigualdade inicial X 3 k, a média µ 3 já está subtraída; assim, só falta dividir pelo desvio-padrão para completar a operação de padronização.

237 7.7. EXEMPLOS DE APLICAÇÃO DA DISTRIBUIÇÃO NORMAL Exemplos de aplicação da distribuição normal A distribuição normal é um modelo probabilístico que se aplica a diversas situações práticas. Assim, vamos finalizar este capítulo com alguns exemplos práticos. Exemplo 7.6 Saldo bancário O saldo médio dos clientes de um banco é uma variável aleatória com distribuição normal com média R$., e desvio-padrão R$ 5,. Os clientes com os % maiores saldos médios recebem tratamento VIP, enquanto aqueles com os 5% menores saldos médios receberão propaganda extra para estimular maior movimentação da conta. (a) Quanto você precisa de saldo médio para se tornar um cliente VIP? (b) Abaixo de qual saldo médio o cliente receberá a propaganda extra? Seja X saldo médio ; é dado que X N(; 5 ). (a) Temos que determinar o valor de k tal que P(X k),. Note que isso equivale a calcular o 9 o percentil da distribuição. A área à esquerda de k tem de ser,9; logo, k tem que ser maior que a média. ( X P(X k), P 5 ( P Z k ) P 5 ( Z k 5 k ) 5 (, P ( Z k 5, 9 P(Z ) + P ), 9, 5, 4 k 5 Z k ), 5 ), 9, 8 k 3 Os clientes com saldo médio maior ou igual a R$.3, terão tratamento VIP. (b) Temos que determinar o valor de k tal que P(X k), 5. Note que isso equivale a calcular o 5 o percentil da distribuição. A área à esquerda de k tem que ser,5; logo, k tem que ser menor que a média. Na solução, teremos que usar a simetria da distribuição, invertendo o sinal da abscissa, para lidarmos com abscissas positivas da distribuição normal padrão. ( X P(X k), 5 P 5 ( P Z k ), 5 P P 5 ( Z k 5 ) k ), 5 5 ( Z k ), 5 5, 45 k 5, 64 k 59 Os clientes com saldo médio inferior a R$.59, receberão a propaganda extra. Na Figura 7. ilustra-se a solução do exercício.

238 34 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL Figura 7. Solução do Exemplo 7.6 Exemplo 7.7 Regulagem de máquinas Uma máquina de empacotar determinado produto oferece variações de peso que se distribuem segundo uma distribuição normal com desvio-padrão de gramas. Em quanto deve ser regulado o peso médio desses pacotes para que apenas % deles tenham menos que 5 gramas? Esse é um exemplo clássico de aplicação da distribuição normal. Seja X o peso dos pacotes em gramas. Então, X N(µ; 4). Temos que ter P(X 5),. Note que o peso médio tem que ser superior a 5 g. Veja, na solução, a inversão do sinal da abscissa! ( X µ P(X 5), P 5 µ ), ( P Z 5 µ ) (, P Z 5 µ ), P ( Z µ 5 µ 5 ), P, 8 µ 55, 6 ( Z µ 5 ), 4 A máquina tem que ser regulada com um peso médio de 55,6g para que apenas % dos pacotes tenham peso inferior a 5g. Veja a Figura 7.3. Figura 7.3 Solução do Exemplo 7.7 Exemplo 7.8 Mais sobre regulagem de máquinas Uma máquina fabrica tubos metálicos cujos diâmetros podem ser considerados uma variável aleatória normal com média mm e desvio-padrão mm. Verifica-se que 5% dos tubos estão sendo rejeitados como grandes e % como pequenos.

239 7.7. EXEMPLOS DE APLICAÇÃO DA DISTRIBUIÇÃO NORMAL 35 (a) Quais são as tolerâncias de especificação para esse diâmetro? (b) Mantidas essas especificações, qual deverá ser a regulagem média da máquina para que a rejeição por diâmetro grande seja praticamente nula? Nesse caso, qual será a porcentagem de rejeição por diâmetro pequeno? Seja D diâmetro dos tubos. Então D N(, ). (a) Sejam k I e k S as especificações inferior e superior, respectivamente. Isso significa que tubos com diâmetro menor que k I são rejeitados como pequenos e tubos com diâmetro maior que k S são rejeitados como grandes. ( D P(D < k I ), P ( P Z > k ) I, P k I, 8 k I 97, 44 < k ) I ( Z > k I (, P ) Z < k ) I, (, P Z < k ) I, 4 ( D P(D > k S ), 5 P ) P ( Z < k S, 35 k S > k ) S, 5, 3 k S, 6 Logo, tubos com diâmetro menor que 97,44 cm são rejeitados como pequenos e tubos com diâmetros maiores que,6 cm são rejeitados como grandes. (b) Com a nova regulagem, temos que D N(µ; ) e µ deve ser tal que ( D µ P(D >, 6) P ) P ( Z >, 6 µ, 6 µ P 4, 5 µ 93, 6 ), 6 µ > ( Z, 6 µ Com essa média, a porcentagem de rejeição por diâmetro pequeno é ( D 93, 6 P(D < 97, 44) P < ) 97, 44 93, 6 ), 5 P(Z <, 9) P(Z ) + P( < Z <, 9), 9857 Com essa nova regulagem, a rejeição por diâmetro grande é nula, mas a rejeição por diâmetro pequeno é muito alta! Veja as Figuras 7.4a e 7.4b, nas quais ficam claros os resultados obtidos.

240 36 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL (a) regulagem original (b) regulagem com % de tubos grandes Figura 7.4 Exemplo regulagem de máquinas Exemplo 7.9 Troca de lâmpadas Em um grande complexo industrial, o departamento de manutenção tem instruções para substituir as lâmpadas antes que se queimem. Os registros indicam que a duração das lâmpadas, em horas, tem distribuição normal, com média de 9 horas e desvio-padrão de 75 horas. Quando devem ser trocadas as lâmpadas, de modo que no máximo 5% delas queimem antes de serem trocadas? Seja T tempo de duração (em horas) das lâmpadas ; então, T N(9; 75 ). Temos que determinar t tal que P(T t), 5. ( T 9 P(T t), 5 P 75 ( P Z t 9 ), 5 P P 75 ( Z 9 t 75 ), 45 9 t 75 t 9 ), 5 75 ( Z 9 t ), 5 75, 64 t 777 As lâmpadas devem ser trocadas com 777 horas de uso para que apenas 5% se queimem antes da troca. Aqui cabe a seguinte observação: em geral, não é apropriado utilizar-se a distribuição normal para modelar o tempo de sobrevivência de lâmpadas ou equipamentos em geral. Modelos tipo exponencial ou gama são mais adequados, pois atribuem probabilidade alta de sobrevivência no início da vida do equipamento e probabilidade decrescente à medida que o equipamento envelhece. Exemplo 7.3 Regulagem de máquinas controle da variabilidade Uma enchedora automática enche garrafas de acordo com uma distribuição normal de média ml. Deseja-se que no máximo uma garrafa em cada saia com menos de 9ml. Qual deve ser o maior desvio padrão tolerável? Se X conteúdo da garrafa (em ml), então X N(; σ ) e queremos que P(X < 9),. Seja σ o valor do desvio padrão de X tal que P(X < 9),. Então, qualquer valor de σ tal que σ < σ resulta em P(X < 9) <,. Veja a Figura 7.3.

241 7.8. A DISTRIBUIÇÃO LOG-NORMAL 37 Figura 7.5 Solução do Exemplo 7.3 A área sombreada corresponde a P(X < 9), quando X N(; σ ) (curva de densidade mais espessa). As duas outras densidades correspondem a distribuições normais com desvios-padrão menores. Note que para essas distribuições, P(X < 9) <,. Assim, o desvio-padrão máximo tolerável é tal que: ( P(X < 9), P Z < ( P Z > ),, 5 P σ σ, 33 σ 4, 98, 33 ) 9 σ ( Z σ (, P ) Z >, P ) 9, σ ( Z ), 49 σ 7.8 A distribuição log-normal Vamos definir, agora, uma nova variável aleatória através de uma transformação de X N(µ; σ ). Definição Definição 7.4 Distribuição log-normal Seja X N(µ, σ ). Se Y e X então a variável aleatória Y tem distribuição log-normal com parâmetros µ e σ. Reciprocamente, se Y tem distribuição log-normal, então X ln Y tem distribuição N(µ, σ ). Vamos calcular a função densidade de probabilidade de uma variável aleatória log-normal a partir de sua função de distribuição acumulada. Note que Y só pode assumir valores positivos. Temos

242 38 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL que: ( ) F Y (y) P (Y y) P e X y ( X µ P ln y µ ) σ σ ( ) ln y µ Φ y > σ P (X ln y) ( Z ln y µ σ P ) Sabemos que f Y (y) F (y) e, também, no caso da normal padrão, Φ (z) φ(z). Logo, pela regra da cadeia, ( ) ln y µ f Y (y) Φ ( ) ln y µ σ σy φ σ σy [ exp ( ) ] ln y µ π σ σy ou ainda: f Y (y) [ y πσ exp ( ) ] ln y µ σ y > (7.) Esperança A esperança de Y é: E(Y ) [ y y πσ exp ( ) ] ln y µ dy σ Fazendo a mudança de variável t ln y temos que dt y dy y et y t y t e, portanto [ E(Y ) e t exp ( ) ] t µ [ dt exp ( ) t µ + t] dt πσ σ πσ σ [ exp t tµ + µ σ ] t πσ σ dt [ exp t t ( µ + σ ) ] + µ πσ σ dt exp [ t t ( µ + σ ) ] ) πσ σ exp ( µ σ dt ) exp ( µ σ exp [ t t ( µ + σ ) + ( µ + σ ) ( µ + σ ) ] πσ σ dt ) { exp ( µ [ ( t µ + σ )] } (( µ + σ ) ) σ exp πσ σ exp σ dt ( ( exp µ µ + σ ) ) [ { σ + [ ( t µ + σ )] } ] σ exp πσ σ dt

243 7.8. A DISTRIBUIÇÃO LOG-NORMAL 39 Mas o termo entre os colchetes externos é a integral de uma densidade normal com média λ ( µ + σ ) e variância σ ; logo, essa integral é e, portanto ( ( E(Y ) exp µ µ + σ ) ) ( µ σ + + µ + µσ + σ 4 ) σ exp σ E(Y ) exp (µ + σ ) (7.3) Variância Vamos calcular de modo análogo E(Y ), usando a mesma transformação: [ E(Y ) y y πσ exp ( ) ] ln y µ dy σ [ e t exp ( ) ] t µ [ dt exp ( ) t µ + t] dt πσ σ πσ σ [ exp t tµ + µ 4σ ] t πσ σ dt [ exp t t ( µ + σ ) ] + µ πσ σ dt exp [ t t ( µ + σ ) ] ) πσ σ exp ( µ σ dt ) exp ( µ σ exp [ t t ( µ + σ ) + ( µ + σ ) ( µ + σ ) ] πσ σ dt ) { exp ( µ [ ( t µ + σ )] } (( µ + σ ) ) σ exp πσ σ exp σ dt ( ( exp µ µ + σ ) ) [ { σ + [ ( t µ + σ )] } ] σ exp πσ σ dt Como antes, o termo entre os colchetes externos é porque é a integral de uma densidade normal com média µ + σ e variância σ. Logo, ( ( E(Y ) exp µ µ + σ ) ) ( µ σ + + µ + 4µσ + 4σ 4 ) σ exp σ E(Y ) exp (µ + σ )

244 4 CAPÍTULO 7. A DISTRIBUIÇÃO NORMAL e ( Var(Y ) exp µ + σ ) [ exp (µ + σ ( exp exp )] µ + σ ) [ exp (µ + σ )] ( µ + σ ) exp (µ + σ ) ( [ exp µ + σ ) exp ( µ + σ ) exp ( µ + σ ) ( exp exp µ + σ ) [ ( exp µ + σ µ σ ) ] ( µ + σ ) [ ] exp σ ] ( Definindo m E(X) exp µ + σ ), temos que m exp ( µ + σ ). Logo, [ ] Var(Y ) m e σ (7.4)

245 Apêndice A Alguns Resultados de Cálculo A. Séries geométricas Convergência Vamos estudar a convergência da série geométrica ar i i (A.) considerando os possíveis valores da razão r. Proposição A. Série geométrica A série geométrica ar i diverge se r e converge se r < com i ar i i a r se r <. (A.) Demonstração: r Nesse caso, a série é a + a + a + e a n ésima soma parcial é s n a + a + + a (n + )a para a qual temos lim s n lim (n + )a ±a dependendo do sinal de a. Resulta, então, que n n a série geométrica (A.) diverge. r Nesse caso, a série é a a+a a+a a+ e a sequência das somas parciais é a,, a,, a, que, obviamente, diverge. Logo, a série geométrica diverge se r. r A n ésima soma parcial é s n a + ar + ar ar n 4

246 4 APÊNDICE A. ALGUNS RESULTADOS DE CÁLCULO Multiplicando ambos os lados por r, obtemos que rs n ar + ar + ar ar n + ar n+ e, portanto, s n rs n (a + ar + ar ar n ) (ar + ar + ar ar n + ar n+ ) a ar n+ Logo, Como r, podemos escrever s n ( r) a( r n+ ) s n a( rn+ ) r (A.3) r < ( < r < ) Nesse caso, lim n rn+ e lim n s n r > ar i i a, ou seja, r a r se r <. Nesse caso, lim n rn+ o que implica que a sequência das somas parciais diverge, o mesmo ocorrendo com a série geométrica. r < Nesse caso, r n+ oscila entre valores negativos e positivos de magnitude crescente, o que implica novamente que a sequência das somas parciais diverge, o mesmo ocorrendo com a série geométrica. Note que podemos escrever (atenção aos índices dos somatórios!): ar i a + ar i i i a r a + ar i se r < i ou ar i i a r a ar r se r < (A.4) Derivadas Vamos considerar agora o caso particular em que a, para obtermos alguns resultados que serão úteis. Derivada primeira

247 A.. SÉRIES GEOMÉTRICAS 43 ( ) d r i dr i d dr ( + r + r + r 3 + r r n + ) + r + 3r + 4r nr n + [ ] + (r + r) + (r + r ) + (r 3 + 3r 3 ) + r n + (n )r n + [ ] ( + r + r + r r n + ) + r + r + 3r (n )r n + (r i + ir i ) i ( + i)r i i Como a série geométrica é convergente para r <, podemos igualar as derivadas, isto é: ( ( + i)r i d ) r i d ( ) se r < dr dr r i i ou seja, Mas podemos escrever resultando que ( + i)r i i ( + i) ( + i i i ( + i) i! i! ) r i ( r) se r < (A.5) ( + i)! i!! ( ) + i i ( r) se r < (A.6) Derivada segunda ( d ) dr r i i d dr ( + r + r + r 3 + r r n + r n + r n+ ) d ( ) + r + 3r + 4r 3 + (n )r n + nr n + (n + )r n + dr + 3 r r + + (n )(n )r n 3 + n(n )r n + (n + )nr n + (i + )(i + )r i i Igualando as derivadas, obtemos: ou i (i + )(i + )r i d dr ( ) d ( r dr (i + )(i + )r i i ( r) ) ( r)( ) ( r) 4 ( r) 3 (A.7)

248 44 APÊNDICE A. ALGUNS RESULTADOS DE CÁLCULO Esse resultado pode ser escrito de outra forma: (i + )(i + )r i i i i (i + )(i + ) r i (i + )(i + )i! r i i! (i + )! i!! ri i ( ) i + r i i ( r) 3 ( r) 3 ( r) 3 ( r) 3 ( r) 3 Pela propriedade das relações complementares, sabemos que ( ) ( i+ i+ ) i e, portanto, resulta que ( ) i + ( ) i + r i r i i ( r) 3 (A.8) Terceira derivada i i ( d 3 ) dr 3 r i d3 dr 3 ( + r + r + r 3 + r 4 + r r n + r n + r n+ ) i d ( ) dr + r + 3r + 4r 3 + 5r (n )r n + nr n + (n + )r n + d [ + 3 r r r (n )(n )r n 3 ] dr +n(n )r n + (n + )nr n r r + + (n )(n )(n 3)r n 4 + +n(n )(n )r n 3 + (n + )n(n )r n + (i + 3)(i + )(i + )r i i Igualando as derivadas: Logo, i i (i + 3)(i + )(i + )r i d3 dr 3 3 ( r) ( ) ( r) 6 (i + 3)(i + )(i + ) r i 3! ( r) 4 ( ) 3 + i r i i i i ( 3 + i i ( ) d ( r dr 3! ( r) 4 ( r) 3 (i + 3)(i + )(i + )i! r i 3! i! 3 ) r i ) ( r) 4 ( r) 4 (A.9)

249 A.. A FUNÇÃO LOGARÍTMICA NATURAL 45 Resultado geral Continuando a derivar (note que podemos tomar derivadas de qualquer ordem!), obtém-se o seguinte resultado geral: ( ) k + i r i i i ( k + i i k ) r i ( r) k+ (A.) A. A função logarítmica natural Definição e propriedades Definição A. Função logarítmica natural A função logarítmica natural, denotada por ln, é definida como ln(x) x dt x > (A.) t A condição x > é necessária pois, se tivéssemos x, o domínio de integração incluiria t, onde a função f(t) t não está definida. Pelo Teorema Fundamental do Cálculo, vemos que ln(x) é uma antiderivada de x, isto é d dx ln(x) x x > Isso significa que ln(x) é diferenciável e sua derivada é positiva no seu domínio de definição. Resulta, então, que ln(x) é uma função contínua (porque ela é diferenciável) e crescente (porque sua derivada é sempre positiva). Proposição A. Propriedades da função logarítmica A função ln(x) satisfaz as seguintes propriedades: (a) ln() (b) Se p > e q >, então ln(pq) ln(p) + ln(q) ( ) (c) Se p >, então ln ln(p) p ( ) p (d) Se p > e q >, então ln ln(p) ln(q) q (e) Se p > e r é um número racional qualquer, então ln(p r ) r ln p Demonstração: (a) ln() t dt

250 46 APÊNDICE A. ALGUNS RESULTADOS DE CÁLCULO (b) d dx ln(px) px.p x Isso significa que ln(px) e ln(x) são ambas antiderivadas de x constante, ou seja: ln(px) ln(x) + C Fazendo x, resulta que ln(p) + C e, portanto e, portanto, diferem por uma Fazendo x q, prova-se o resultado desejado. ln(px) ln(x) + ln(p) x >, p > (c) Fazendo q p no resultado anterior obtemos: Como ln(), segue o resultado. ( ln p ) ( ) ln() ln(p) + ln p p (d) Usando os resultados anteriores temos que ( ) ( p ln ln p ) ( ) ln(p) + ln ln(p) ln(q) q q q (e) Usando a regra da cadeia, temos que d dp ln (pr ) p r rpr r Daí vê-se que ln(p r ) e r ln(p) têm a mesma derivada; logo ( ) r d p dp ln(p) d (r ln p) dp ln(p r ) r ln(p) + C Fazendo p obtém-se que C e, portanto ln(p r ) r ln(p) Gráfico Como ln(x) é contínua e crescente, e ln(), resulta que para x >, ln x > e para < x <, ln x <. Além disso, d dx ln(x) d ( ) dx x x < Logo, a função ln(x) é côncava para baixo. Vamos ver, agora, o comportamento assintótico de ln(x). Para x >, a função f(x) é positiva e, portanto, a integral definida pode ser interpretada x como área sob a curva. Analisando a Figura A., podemos ver que a área sob a curva de f entre e 4 é a área dos retângulos em cinza escuro mais a área em cinza claro. Os três retângulos (cinza

251 A.. A FUNÇÃO LOGARÍTMICA NATURAL 47 Figura A. Gráfico da função f(x) x escuro) têm vértices superiores à direita sobre a curva. Isso significa que a área sob a curva entre e 4 é maior que a área dos três retângulos, ou seja, 4 t dt > > Logo, ln(4) > e se M é um número racional positivo qualquer, ( M ln(4) > M ln 4 M) > M Tomando x > 4 M, como ln(x) é uma função crescente, teremos ( ln(x) > ln 4 M) > M Como M é qualquer racional positivo, isso significa que podemos fazer ln(x) tão grande quanto desejado, bastando para isso tomar x suficientemente grande, donde se conclui que Como ln lim (ln x) x ( ) ( ) ln(x), segue que ln x ln e, portanto, x x ( lim (ln x) lim ln ) x + x + x Mas quando x +, x e, pelo resultado acima, ln ( ) x e, portanto, ln. Isso x significa que lim (ln x) x + Na Figura A. temos o gráfico da função f(x) ln(x).

252 48 APÊNDICE A. ALGUNS RESULTADOS DE CÁLCULO Figura A. Gráfico da função f(x) ln(x) A.3 A função exponencial natural Definindo f(x) ln(x), vimos que f : R + R é uma função contínua estritamente crescente tal que lim ln(x) e lim ln(x). Com base nesses resultados, podemos provar o seguinte x x + teorema: Teorema A. A cada número real x existe um único número real positivo y tal que ln y x. Demonstração: Se x, então ln() e é o único valor de y para o qual ln(y), uma vez que ln é estritamente crescente. Se x >, como lim x ln(x), podemos escolher um número b tal que ln() < x < ln(b). Como ln é contínua, o Teorema do Valor Intermediário garante a existência de um número y entre e b tal que ln(y) x e esse número é único porque ln é crescente. Se x <, como lim ln(x), existe um número b > tal que ln(b) < x < ln(). Como antes, x + o Teorema do Valor Intermediário e a continuidade de ln garantem a existência de um único número y entre b e tal que ln(y) x. O teorema acima nos permite definir uma função de R em R +, uma vez que a cada x R podemos associar um único número y R +. Definição A. A função exponencial natural A função exponencial natural, denotada por exp, é definida como exp(x) y se e somente se ln(y) x (A.) para todo x e y >. Proposição A.3 Propriedades da função exponencial A função exponencial satisfaz as seguintes propriedades:

253 A.3. A FUNÇÃO EXPONENCIAL NATURAL 49 (a) A função f(x) exp(x) é biunívoca. (b) As funções exp e ln são uma a inversa da outra. Demonstração: (a) Se exp(x ) exp(x ) b, então, por definição, ln b x e ln b x e, portanto, x x, pois ln(x) é estritamente crescente. (b) exp(ln(x)) y ln(y) ln(x) y x exp(ln(x)) x ln(exp(x)) y exp(y) exp(x) y x ln(exp x) x O número neperiano O número neperiano é também conhecido como número de Euler, em homenagem ao matemático suíço Leonard Euler. Definição A.3 O número neperiano O número neperiano e é definido como o o único número real positivo tal que ln e Usando a regra do trapezoidal, pode-se mostrar que,7,8 x dx < < x dx o que significa que ou ainda, ln(, 7) < ln(e) < ln(, 8), 7 < e <, 8 uma vez que ln é crescente. Se r é qualquer número racional, então ln(e r ) r ln(e) r Comparando esse resultado com a definição da função exponencial, concluímos que e r exp(r), o que nos leva a uma outra definição.

254 5 APÊNDICE A. ALGUNS RESULTADOS DE CÁLCULO Definição A.4 Se x é qualquer número real, então e x é o único número real y tal que ln(y) x. Comparando as definições, concluímos que e isso nos diz que exp(x) e x e x y ln(y) x (A.3) (A.4) Proposição A.4 Mais propriedades da função exponencial São válidas as seguintes propriedades da função exponencial. (a) Se p e q são números reais, então e p e q e p+q (b) Se p e q são números reais, então ep e q ep q (c) Se p é um número real e r é um número racional, então (e p ) r e pr. Demonstração: (a) (b) (c) ln(e p e q ) ln(e p ) + ln(e q ) p + q ln(e p+q ) e p e q e p+q ( ) e p ln e q ln(e p ) ln(e q ) p q ln(e p q ) ep e q ep q ln (e p ) r r ln e p rp ln(e pr ) (e p ) r e pr Derivada e gráfico O Teorema da Função Inversa estabelece que, se f é uma função diferenciável com inversa g e f (g(c)), então g é diferenciável em c e g (c) f (g(c)). Vamos aplicar este resultado para a função f(x) ln(x). Sabemos que f é diferenciável com derivada f (x) x, positiva para todo x >. Vimos também que f (x) g(x) e x. Pelo Teorema da Função Inversa, resulta que a função g(x) e x também é diferenciável e sua derivada é dada por (e x ) g (x) f (g(x)) g(x) e x (A.5) e x

255 A.4. FUNÇÃO EXPONENCIAL DE BASE A 5 ou seja, a função exponencial é sua própria derivada! Como e x >, segue que as derivadas primeira e segunda são positivas; logo, e x é uma função crescente com concavidade para cima. Além disso, x ln(e x ) e x lim x ex O gráfico da função g(x) e x está na Figura A.3. (A.6) (A.7) x ln(e x ) e x lim x ex Note que, como a função e x é a inversa da função ln(x), o gráfico da função exponencial é uma reflexão do gráfico da função logarítmica através da reta y x. Veja a Figura A.4. Figura A.3 Gráfico da função f(x) e x Figura A.4 Funções logarítmica e exponencial naturais - reflexão através a reta y x A.4 Função exponencial de base a Vimos que, se r é um número racional e a >, então ln a r r ln a a r e r ln a Iremos usar este resultado para definir a função exponencial com base a. Definição A.5 Função exponencial com base a Se x é qualquer número real e a é qualquer número real define-se a x e x ln a (A.8) A função f(x) a x é chamada a função exponencial com base a. Com essa definição, podemos generalizar as propriedades da função exponencial natural vista anteriormente. Proposição A.5 Propriedades da função exponencial São válidas as seguintes propriedades da função exponencial com base a. (a) Se u é um número real qualquer e a >, então ln a u u ln a

256 5 APÊNDICE A. ALGUNS RESULTADOS DE CÁLCULO (b) Se u e v são números reais quaisquer e a >, então a u a v a u+v. (c) Se u e v são números reais quaisquer e a >, então au a v a u v. (d) Se u e v são números reais quaisquer e a >, então (a u ) v a uv. Demonstração: (a) (b) (c) (d) ln a u ln e u ln a u ln a a u a v e u ln a e v ln a e u ln a+v ln a e (u+v) ln a e ln a(u+v) a u+v a u a v eu ln a e v ln a eu ln a v ln a e (u v) ln a ln a(u v) e a u v (a u ) v e v ln au e vu ln a e ln a(uv) a uv Derivada e gráfico da função exponencial Para calcular a derivada da função exponencial com base a, vamos usar a regra da cadeia e o fato de a derivada da função exp ser a própria função: d dx (ax ) d ( e x ln a) e x ln a d dx dx (x ln a) (ln a) ex ln a ln ax (ln a) e ou seja d dx (ax ) a x ln a (A.9) Se a >, ln a > e a x é uma função crescente para x R (note que a x > para todo a, pela definição). Se < a <, ln a < e a x é uma função decrescente para x R. Note também que, se a > e se < a < lim x ax lim x ex ln a lim x ax lim x ex ln a lim x ax lim x ex ln a lim x ax lim x ex ln a Na Figura A.5 ilustra-se o gráfico de f(x) a x para a e a. O gráfico da função exponencial com base a sempre terá essas formas, dependendo se a > ou < a <.

257 A.5. A FUNÇÃO LOGARÍTMICA DE BASE A 53 Figura A.5 Gráfico de f(x) a x para a e a A.5 A função logarítmica de base a Se a, a função f(x) a x é bijetora e, portanto, admite uma inversa. Essa inversa será denotada por log a, o que nos leva à seguinte definição. Definição A.6 Função logarítmica de base a A função logarítmica de base a, a, denotada por log a é a inversa da função exponencial de base a e, portanto, log a x y x a y (A.) Note que, quando a e, temos a função logarítmica natural. Proposição A.6 Propriedades da função logarítmica São válidas as seguintes propriedades da função logarítmica. (a) log a x ln x ln a (b) Se p > e q > são números reais, então log a pq log a p + log a q. (c) Se p > e q > são números reais, então log a p q log a p log a q. (d) Se p > e x é número real qualquer, então log a p x x log a p. Demonstração: (a) log a x y x a y ln x y ln a y ln x ln a log a x ln x ln a (b) log a pq ln pq ln a ln p + ln q ln a ln p ln a + ln q ln a log a p + log a q

258 54 APÊNDICE A. ALGUNS RESULTADOS DE CÁLCULO (c) (d) p q p log a q ln ln a ln p ln q ln a log a p x ln p ln a ln q ln a log a p log a q ln px ln a x ln p ln a x log a p Derivada e gráfico ou seja, Vamos calcular a derivada de f(x) log a x. log a x ln x ln a d dx ( loga x ) d dx ( ln x ln a d ( loga x ) dx x ln a ) ln a x (A.) Como no caso das funções exponencial e logarítmica naturais, os gráficos de f(x) a x g(x) log a x são um a reflexão do outro através da reta y x, conforme ilustrado na Figura A.6. e Figura A.6 Funções logarítmica e exponencial de base a - reflexão através a reta y x A.6 Limites envolvendo as funções exponencial e logarítmica lim h ( + h) h Demonstração e Da definição de derivada da função f(x) ln x, temos que f (x) ln(x + h) ln(x) lim h h ( x + h lim h ln x lim h ) h lim h ln ( ) x + h h ln x ( + h ) h x

259 A.6. LIMITES ENVOLVENDO AS FUNÇÕES EXPONENCIAL E LOGARÍTMICA 55 Como f (x) x, para x temos f () e, portanto, lim h ln ( + h) h Mas ( + h) h exp [ln ( + h) h ] Como a função exponencial é contínua, lim h ( + h) h [ ] lim exp ln ( + h) h h exp lim h ln ( + h) h exp() e ou seja, Fazendo h n na expressão acima, obtemos que lim h ( + h) h e (A.) ( lim + n e (A.3) n n) ( lim + x n e x n n) Demonstração Fazendo t x, resulta que n ( lim + x n lim ( + t) n n) x [ t lim ( + t) /t] x t t Mas a função exponencial é contínua; logo, lim [( + t) /t] [ x t lim t ( + t)/t ] x e x Logo, lim x xk e x Demonstração ( lim + x ) n e x n n (A.4) Vamos mostrar esse resultado usando demonstração por indução e usando, também, a regra de L Hôpital. k que tem a forma x lim x xe x lim x e x e, portanto, podemos aplicar L Hôpital, que diz que lim x xe x lim x Logo, o resultado vale para k. x e x lim x x (e x ) lim x e x

260 56 APÊNDICE A. ALGUNS RESULTADOS DE CÁLCULO Suponhamos verdadeiro para qualquer k; vamos mostrar que vale para k +. ( lim x xk+ e x x k+ x k+ ) (k + ) x k lim x e x lim x (e x ) lim x e x pela hipótese de indução. x k (k + ) lim (k + ) x ex A interpretação desse resultado pode ser vista na Figura A.7 para o caso de x 3 : para valores de x maiores que a abscissa do ponto de interseção, o valor de e x é sempre maior que x 3 e, portanto o limite de x3 e é zero. Dito de outra forma, a função exponencial cresce muito mais rapidamente que x qualquer função polinomial. x Figura A.7 3 Ilustração do resultado lim x e x De maneira análoga, prova-se um resultado mais geral dado por: lim x xk e λx k > e λ > (A.5) Fórmula de Taylor Vamos ver, agora, a fórmula de Taylor para a função f(x) e x. Lembrando que a derivada de f(x) é a própria f(x) e que f(), podemos escrever: onde e x + x + x! + + xn n! + R n+ R n+ ez (n + )! xn+ para algum z entre e x. Se x >, então < z < x, o que implica que e z < e x e, portanto Mas lim n < R n+ < ex (n + )! xn+ e x (n + )! xn+ e x lim n x n+ (n + )! ex e, pelo teorema do sanduíche, lim R n+. Se x <, como z está entre x e, segue que z < ; logo, e z < e < R n+ < x n+ (n + )!

261 A.7. FUNÇÕES PARES E ÍMPARES 57 Logo, também neste caso lim n R n+. Segue, então, que f(x) e x é representada pela série de Taylor, ou seja, podemos escrever e x k x k k! (A.6) A.7 Funções pares e ímpares Definição A.7 Funções pares e ímpares Uma função f(x) é par se f ( x) f (x) Uma função f(x) é ímpar se f ( x) f (x) x x Teorema A. Integral de funções pares e ímpares Se f(x) é par, então Se f(x) é ímpar, então Demonstração: Podemos escrever f(x)dx f(x)dx Fazendo x t na primeira integral, tem-se que: f(x)dx f(x)dx + f(x)dx f(x)dx (A.7) (A.8) f(x)dx f( t)( dt) + f( t)dt + f(x)dx f(x)dx f( t)dt + f(x)dx Se a função é par, resulta que: f(x)dx f( t)dt + Se a função é ímpar, resulta que: f(x)dx f(t)dt + f(x)dx f(x)dx f(x)dx f( t)dt + f(t)dt + f(x)dx f(x)dx f(t)dt + f(x)dx

262 58 APÊNDICE A. ALGUNS RESULTADOS DE CÁLCULO A.8 Integrais duplas com coordenadas polares No cálculo de integrais duplas, a utilização de coordenadas polares é bastante útil. No sistema cartesiano, cada ponto do plano é representado pela sua abscissa e sua ordenada. No sistema de coordenadas polares, em vez dos eixos x e y, trabalha-se com um polo ou origem, que é um ponto fixo do plano, e um eixo polar, que é uma semi-reta orientada, conforme ilustrado na Figura A.8. As coordenadas polares de um ponto P qualquer no plano são a distância r d(o, P) e o ângulo θ determinado pelo eixo polar e o segmento OP. Em geral, a coordenada θ é considerada positiva se é gerada por uma rotação anti-horária e negativa, caso contrário. Figura A.8 Sistema de coordenadads polares As coordenadas polares de um ponto não são únicas, pois há vários ângulos com o mesmo lado terminal OP. Por exemplo, ( 3, π ) ( ) ( ) 4, 3, 9π 4 e 3, 7π 4 representam o mesmo ponto. Permite-se também que a coordenada r seja negativa. Se uma função de uma variável f está definida em um intervalo [a, b], a definição de integral (simples) requer a partição do intervalo [a, b] em subintervalos de comprimento x i, conforme ilustrado na Figura A.9. Se denotamos por P a partição {x, x,..., x n }, então a integral definida de Riemann é definida como b a f(x)dx lim P f (wi ) x i Figura A.9 Partição do intervalo [a, b] Para integrais duplas de funções definidas em coordenadas cartesianas, temos que ter a partição da região de definição R da função de duas variáveis f(x, y), conforme ilustrado na Figura A.. Nesse caso, a integral dupla é definida como R f(x, y)da lim P f (u i, v i ) A i e é calculada através de integrais parciais, isto é, calcula-se primeiro a integral com respeito a y,

263 A.8. INTEGRAIS DUPLAS COM COORDENADAS POLARES 59 mantendo x constante, e depois integra-se o resultado com relação a x : b d [ b ] d f(x, y)dydx f(x, y)dy dx a c a c O cálculo de integrais duplas de funções parametrizadas em termos de coordenadas polares requer que a partição da região de integração seja definida em termos de tais coordenadas, conforme ilustrado na Figura A.. Figura A. Partição da região R coordenadas cartesianas Figura A. Partição da região R coordenadas polares Vamos considerar uma região polar elementar, conforme ilustrado na Figura A.). Figura A. Região polar elementar A área total de um círculo é dada por πr πr (π) r e a área de um setor circular correspondente a um ângulo θ e raio r é ( θ) r Então, a área da região polar elementar é A ( θ) r ( θ) r ) (r ( θ) r ( θ) (r + r ) (r r )

264 6 APÊNDICE A. ALGUNS RESULTADOS DE CÁLCULO Definindo r (r + r ) r r r podemos escrever: A r θ r A integral em termos das coordenadas polares é, então: f(r, θ)da lim f(ri, θ i )r i θ i r i P R e calculada como f(r, θ)da f(r, θ)rdrdθ (A.9) R R Exemplo A. A função e t / Vamos calcular algumas integrais envolvendo essa função. ) A função f(t) exp ( t desempenha papel importante em probabilidade. Para calcular sua integral, não podemos aplicar o Teorema Fundamental do Cálculo pois f(t) não possui antiderivada. Mas podemos ver que f(t) é uma função par. Sabemos, então, que exp ) ( t dt exp ) ( t dt Temos, também, que [ ) exp ( dt] t ( exp ( t exp ( t + u ) ) ( dt exp ) dtdu ) ) ( u du Nessa integral dupla, a região de integração é o primeiro quadrante e a relação entre as coordenadas cartesianas (u, t) e as coordenadas polares (r, θ) nesse quadrante é (veja a Figura A.3) u r cos θ u > r > t r sin θ t > <θ < π Temos também que t + u r e, então, podemos calcular a integral dupla usando coordenadas polares da seguinte forma: exp ( t + u ) dtdu π exp ) ( r rdθdr

265 A.9. A FUNÇÃO GAMA 6 Figura A.3 Coordenadas cartesianas e polares no primeiro quadrante Fazendo r w, então rdr dw e w varia de a. Logo, [ ) π ) exp ( dt] t exp ( r rdθdr [ π ] dθ exp ( w) dw π exp ( w) dθdw π exp( w)dw π ( e w ) π Resulta que e, portanto, ou ainda exp ) ( t π dt exp π ) ( t dt π exp ) ( t dt (A.3) (A.3) (A.3) A.9 A função gama A função gama é definida pela seguinte integral: Γ(α) e x x α dx α (A.33) A função gama tem a seguinte propriedade recursiva: Γ(α + ) αγ(α). Para demonstrar esse resultado, iremos usar integração por partes. Γ(α + ) e x x α dx

266 6 APÊNDICE A. ALGUNS RESULTADOS DE CÁLCULO Fazendo u x α du αx α dv e x dx v e x Logo, Γ(α + ) x α e x Γ(α + ) + α e x αx α dx Γ(α + ) αγ(α) e x x α dx (A.34) Aqui usamos o resultado dado em (A.5). Vamos trabalhar, agora, com α n inteiro. Γ() e x x dx e x dx Γ() Γ()! Γ(3) Γ()! Γ(4) 3 Γ(3) 3 3! Γ(5) 4 Γ(4) 4 3 4! Em geral, se n é inteiro, Γ(n) (n )! (A.35) Exemplo A. Gama modificada Se λ >, calcule xα e λx dx Fazendo a mudança de variável u λx, temos que x α e λx dx ( u λ ) α e u λ du λ α u α e u du Logo, x α e λx dx Γ(α) λ α (A.36) Exemplo A.3 Calcule Γ ( ) Por definição, Γ ( ) e x x / dx e x x dx

267 A.9. A FUNÇÃO GAMA 63 Usando a seguinte transformação de variável: obtemos x t dx tdt x t x t Logo, ou seja: Γ ( ) e t / t tdt Γ e t / dt π ( ) π (A.37)

268 64 APÊNDICE A. ALGUNS RESULTADOS DE CÁLCULO

269 Apêndice B Tabelas Tabela Distribuição normal padrão p P( Z z) Tabela Função de distribuição da normal padrão Φ(z) P(Z z), z Tabela 3 Valores críticos χ n,α da qui-quadrado P(χ n > χ n,α) α) 65

270 66 APÊNDICE B. TABELAS.

271 67 Tabela Distribuição normal padrão p P( Z z) Casa inteira a. casa decimal e a.decimal ,,,4,8,,6,99,39,79,39,359,,398,438,478,57,557,596,636,675,74,753,,793,83,87,9,948,987,6,64,3,4,3,79,7,55,93,33,368,46,443,48,57,4,554,59,68,664,7,736,77,88,844,879,5,95,95,985,9,54,88,3,57,9,4,6,57,9,34,357,389,4,454,486,57,549,7,58,6,64,673,74,734,764,794,83,85,8,88,9,939,967,995,33,35,378,36,333,9,359,386,3,338,364,389,335,334,3365,3389,,343,3438,346,3485,358,353,3554,3577,3599,36,,3643,3665,3686,378,379,3749,377,379,38,383,,3849,3869,3888,397,395,3944,396,398,3997,45,3,43,449,466,48,499,45,43,447,46,477,4,49,47,4,436,45,465,479,49,436,439,5,433,4345,4357,437,438,4394,446,448,449,444,6,445,4463,4474,4484,4495,455,455,455,4535,4545,7,4554,4564,4573,458,459,4599,468,466,465,4633,8,464,4649,4656,4664,467,4678,4686,4693,4699,476,9,473,479,476,473,4738,4744,475,4756,476,4767,,477,4778,4783,4788,4793,4798,483,488,48,487,,48,486,483,4834,4838,484,4846,485,4854,4857,,486,4864,4868,487,4875,4878,488,4884,4887,489,3,4893,4896,4898,49,494,496,499,49,493,496,4,498,49,49,495,497,499,493,493,4934,4936,5,4938,494,494,4943,4945,4946,4948,4949,495,495,6,4953,4955,4956,4957,4959,496,496,496,4963,4964,7,4965,4966,4967,4968,4969,497,497,497,4973,4974,8,4974,4975,4976,4977,4977,4978,4979,4979,498,498,9,498,498,498,4983,4984,4984,4985,4985,4986,4986 3,,4987,4987,4987,4988,4988,4989,4989,4989,499,499 3,,499,499,499,499,499,499,499,499,4993,4993 3,,4993,4993,4994,4994,4994,4994,4994,4995,4995,4995 3,3,4995,4995,4995,4996,4996,4996,4996,4996,4996,4997 3,4,4997,4997,4997,4997,4997,4997,4997,4997,4997,4998 3,5,4998,4998,4998,4998,4998,4998,4998,4998,4998,4998 3,6,4998,4998,4999,4999,4999,4999,4999,4999,4999,4999 3,7,4999,4999,4999,4999,4999,4999,4999,4999,4999,4999 3,8,4999,4999,4999,4999,4999,4999,4999,4999,4999,4999 3,9,5,5,5,5,5,5,5,5,5,5 4,,5,5,5,5,5,5,5,5,5,5

272 68 APÊNDICE B. TABELAS Tabela Função de distribuição da normal padrão p P(Z z) Casa inteira a. casa decimal e a.decimal ,,5,54,58,5,56,599,539,579,539,5359,,5398,5438,5478,557,5557,5596,5636,5675,574,5753,,5793,583,587,59,5948,5987,66,664,63,64,3,679,67,655,693,633,6368,646,6443,648,657,4,6554,659,668,6664,67,6736,677,688,6844,6879,5,695,695,6985,79,754,788,73,757,79,74,6,757,79,734,7357,7389,74,7454,7486,757,7549,7,758,76,764,7673,774,7734,7764,7794,783,785,8,788,79,7939,7967,7995,83,85,878,86,833,9,859,886,8,838,864,889,835,834,8365,8389,,843,8438,846,8485,858,853,8554,8577,8599,86,,8643,8665,8686,878,879,8749,877,879,88,883,,8849,8869,8888,897,895,8944,896,898,8997,95,3,93,949,966,98,999,95,93,947,96,977,4,99,97,9,936,95,965,979,99,936,939,5,933,9345,9357,937,938,9394,946,948,949,944,6,945,9463,9474,9484,9495,955,955,955,9535,9545,7,9554,9564,9573,958,959,9599,968,966,965,9633,8,964,9649,9656,9664,967,9678,9686,9693,9699,976,9,973,979,976,973,9738,9744,975,9756,976,9767,,977,9778,9783,9788,9793,9798,983,988,98,987,,98,986,983,9834,9838,984,9846,985,9854,9857,,986,9864,9868,987,9875,9878,988,9884,9887,989,3,9893,9896,9898,99,994,996,999,99,993,996,4,998,99,99,995,997,999,993,993,9934,9936,5,9938,994,994,9943,9945,9946,9948,9949,995,995,6,9953,9955,9956,9957,9959,996,996,996,9963,9964,7,9965,9966,9967,9968,9969,997,997,997,9973,9974,8,9974,9975,9976,9977,9977,9978,9979,9979,998,998,9,998,998,998,9983,9984,9984,9985,9985,9986,9986 3,,9987,9987,9987,9988,9988,9989,9989,9989,999,999 3,,999,999,999,999,999,999,999,999,9993,9993 3,,9993,9993,9994,9994,9994,9994,9994,9995,9995,9995 3,3,9995,9995,9995,9996,9996,9996,9996,9996,9996,9997 3,4,9997,9997,9997,9997,9997,9997,9997,9997,9997,9998 3,5,9998,9998,9998,9998,9998,9998,9998,9998,9998,9998 3,6,9998,9998,9999,9999,9999,9999,9999,9999,9999,9999 3,7,9999,9999,9999,9999,9999,9999,9999,9999,9999,9999 3,8,9999,9999,9999,9999,9999,9999,9999,9999,9999,9999 3,9,,,,,,,,,, 4,,,,,,,,,,,

GET00189 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidimensionais

GET00189 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidimensionais Universidade Federal Fluminense Instituto de Matemática e Estatística GET89 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidimensionais Ana Maria Lima de Farias Jessica Quintanilha Kubrusly Mariana

Leia mais

GET00189 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidmensionais

GET00189 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidmensionais Universidade Federal Fluminense Instituto de Matemática e Estatística GET89 PROBABILIDADE I Probabilidade e Variáveis Aleatórias Unidmensionais Ana Maria Lima de Farias Jessica Quintanilha Kubrusly Mariana

Leia mais

Se Ω é o espaço amostral de algum experimento aleatório, qualquer subconjunto A Ω será chamado de evento.

Se Ω é o espaço amostral de algum experimento aleatório, qualquer subconjunto A Ω será chamado de evento. Capítulo 1 Probabilidade No nosso cotidiano, lidamos sempre com situações em que está presente a incerteza do resultado, embora, muitas vezes, os resultados possíveis sejam conhecidos. Por exemplo, se

Leia mais

Fundamentos de Estatística Aplicada. Módulo II: Probabilidade

Fundamentos de Estatística Aplicada. Módulo II: Probabilidade Universidade Federal Fluminense Instituto de Matemática e Estatística Fundamentos de Estatística Aplicada Módulo II: Probabilidade Ana Maria Lima de Farias Departamento de Estatística Sumário 1 Probabilidade:

Leia mais

Seja A um evento de um espaço amostral Ω finito, cujos elementos são igualmente prováveis. Define-se a probabilidade do evento A como

Seja A um evento de um espaço amostral Ω finito, cujos elementos são igualmente prováveis. Define-se a probabilidade do evento A como Aula 7 Probabilidade Nesta aula você aprenderá a definição de probabilidade, estudará os axiomas e propriedades de uma lei de probabilidade e fará revisão dos seguintes conceitos de análise combinatória:

Leia mais

Fundamentos de Estatística Aplicada. Módulo II: Probabilidade

Fundamentos de Estatística Aplicada. Módulo II: Probabilidade Universidade Federal Fluminense Instituto de Matemática e Estatística Fundamentos de Estatística Aplicada Módulo II: Probabilidade Ana Maria Lima de Farias Departamento de Estatística Sumário 1 Probabilidade:

Leia mais

Aula 8 Probabilidade condicional e independência de eventos

Aula 8 Probabilidade condicional e independência de eventos Aula 8 Probabilidade condicional e independência de eventos Nesta aula você aprenderá os conceitos de probabilidade condicional e independência de eventos. Você verá também que esses são conceitos importantes

Leia mais

1 Definição Clássica de Probabilidade

1 Definição Clássica de Probabilidade Centro de Ciências e Tecnologia Agroalimentar - Campus Pombal Disciplina: Estatística Básica - 2013 Aula 4 Professor: Carlos Sérgio UNIDADE 2 - Probabilidade: Definições (Notas de aula) 1 Definição Clássica

Leia mais

GET00189 Probabilidade I Gabarito da lista de exercícios - Capítulo 1 Profa. Ana Maria Lima de Farias

GET00189 Probabilidade I Gabarito da lista de exercícios - Capítulo 1 Profa. Ana Maria Lima de Farias GET00189 Probabilidade I Gabarito da lista de exercícios - Capítulo 1 Profa. Ana Maria Lima de Farias SEÇÃO 1.1 Experimento aleatório, espaço amostral e evento 1. Vamos definir os seguinte eventos: K lançamento

Leia mais

Teoria das Probabilidades

Teoria das Probabilidades Universidade Federal do Pará Instituto de Tecnologia Estatística Aplicada I Prof. Dr. Jorge Teófilo de Barros Lopes Campus de Belém Curso de Engenharia Mecânica 08:8 ESTATÍSTICA APLICADA I - Teoria das

Leia mais

NOÇÕES DE PROBABILIDADE

NOÇÕES DE PROBABILIDADE NOÇÕES DE PROBABILIDADE Experimento Aleatório Experimento Aleatório: procedimento que, ao ser repetido sob as mesmas condições, pode fornecer resultados diferentes Exemplos:. Resultado no lançamento de

Leia mais

Probabilidade. Probabilidade e Estatística. Prof. Dr. Narciso Gonçalves da Silva

Probabilidade. Probabilidade e Estatística. Prof. Dr. Narciso Gonçalves da Silva Probabilidade e Estatística Prof. Dr. Narciso Gonçalves da Silva http://paginapessoal.utfpr.edu.br/ngsilva Probabilidade Probabilidade Experimento Aleatório Um experimento é dito aleatório quando satisfaz

Leia mais

Teoria das Probabilidades

Teoria das Probabilidades 08/06/07 Universidade Federal do Pará Instituto de Tecnologia Estatística Aplicada I Prof. Dr. Jorge Teófilo de Barros Lopes Campus de Belém Curso de Engenharia Mecânica Universidade Federal do Pará Instituto

Leia mais

Sumário. 2 Índice Remissivo 12

Sumário. 2 Índice Remissivo 12 i Sumário 1 Definições Básicas 1 1.1 Fundamentos de Probabilidade............................. 1 1.2 Noções de Probabilidade................................ 3 1.3 Espaços Amostrais Finitos...............................

Leia mais

Prof.Letícia Garcia Polac. 26 de setembro de 2017

Prof.Letícia Garcia Polac. 26 de setembro de 2017 Bioestatística Prof.Letícia Garcia Polac Universidade Federal de Uberlândia UFU-MG 26 de setembro de 2017 Sumário 1 2 Probabilidade Condicional e Independência Introdução Neste capítulo serão abordados

Leia mais

ELEMENTOS DE PROBABILIDADE. Prof. Paulo Rafael Bösing 25/11/2015

ELEMENTOS DE PROBABILIDADE. Prof. Paulo Rafael Bösing 25/11/2015 ELEMENTOS DE PROBABILIDADE Prof. Paulo Rafael Bösing 25/11/2015 ELEMENTOS DE PROBABILIDADE Def.: Um experimento é dito aleatório quando o seu resultado não for previsível antes de sua realização, ou seja,

Leia mais

Introdução à Estatística

Introdução à Estatística Introdução à Estatística Prof a. Juliana Freitas Pires Departamento de Estatística Universidade Federal da Paraíba - UFPB juliana@de.ufpb.br Introdução a Probabilidade Existem dois tipos de experimentos:

Leia mais

Aula 10 Variáveis aleatórias discretas

Aula 10 Variáveis aleatórias discretas AULA 0 Aula 0 Variáveis aleatórias discretas Nesta aula você aprenderá um conceito muito importante da teoria de probabilidade: o conceito de variável aleatória. Você verá que as variáveis aleatórias e

Leia mais

Escola Superior de Agricultura "Luiz de Queiroz", Departamento de Ciências Exatas. Probabilidades. Cristian Villegas

Escola Superior de Agricultura Luiz de Queiroz, Departamento de Ciências Exatas. Probabilidades. Cristian Villegas Probabilidades Cristian Villegas clobos@usp.br Setembro de 2013 Apostila de Estatística (Cristian Villegas) 1 Introdução Escola Superior de Agricultura "Luiz de Queiroz", Departamento de Ciências Exatas

Leia mais

PROBABILIDADE E ESTATÍSTICA PROBABILIDADES

PROBABILIDADE E ESTATÍSTICA PROBABILIDADES PROBABILIDADE E ESTATÍSTICA PROBABILIDADES Bruno Baierle Maurício Furigo Prof.ª Sheila Regina Oro (orientadora) Edital 06/2013 - Produção de Recursos Educacionais Digitais Revisando - Análise combinatória

Leia mais

Probabilidades. Wagner H. Bonat Elias T. Krainski Fernando P. Mayer

Probabilidades. Wagner H. Bonat Elias T. Krainski Fernando P. Mayer Probabilidades Wagner H. Bonat Elias T. Krainski Fernando P. Mayer Universidade Federal do Paraná Departamento de Estatística Laboratório de Estatística e Geoinformação 06/03/2018 WB, EK, FM ( LEG/DEST/UFPR

Leia mais

2 a Lista de PE Solução

2 a Lista de PE Solução Universidade de Brasília Departamento de Estatística 2 a Lista de PE Solução 1. a Ω {(d 1, d 2, m : d 1, d 2 {1,..., 6}, m {C, K}}, onde C coroa e K cara. b Ω {0, 1, 2,...} c Ω {(c 1, c 2, c 3, c 4 : c

Leia mais

1 Probabilidade: Axiomas e Propriedades

1 Probabilidade: Axiomas e Propriedades 1 Probabilidade: Axiomas e Propriedades 1.1 Definição Frequentista Considere um experimento aleatório que consiste no lançamento de um dado honesto. O espaço amostral desse experimento é Ω = {1, 2, 3,

Leia mais

AULA 08 Probabilidade

AULA 08 Probabilidade Cursinho Pré-Vestibular da UFSCar São Carlos Matemática Professora Elvira e Monitores Ana Carolina e Bruno AULA 08 Conceitos e assuntos envolvidos: Espaço amostral Evento Combinação de eventos Espaço Amostral

Leia mais

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Probabilidade Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Introdução Experimento aleatório Definição Qualquer experimento cujo resultado

Leia mais

Noções sobre Probabilidade

Noções sobre Probabilidade Noções sobre Probabilidade Introdução Vimos anteriormente como apresentar dados em tabelas e gráficos, e também como calcular medidas que descrevem características específicas destes dados. Mas além de

Leia mais

2. Nas Figuras 1a a 1d, assinale a área correspondente ao evento indicado na legenda. Figura 1: Exercício 2

2. Nas Figuras 1a a 1d, assinale a área correspondente ao evento indicado na legenda. Figura 1: Exercício 2 GET00189 Probabilidade I Lista de exercícios - Capítulo 1 Profa. Ana Maria Lima de Farias SEÇÃO 1.1 Experimento aleatório, espaço amostral e evento 1. Lançam-se três moedas. Enumere o espaço amostral e

Leia mais

GET00143 TEORIA DAS PROBABILIDADES II Variáveis Aleatórias Unidmensionais

GET00143 TEORIA DAS PROBABILIDADES II Variáveis Aleatórias Unidmensionais Universidade Federal Fluminense Instituto de Matemática e Estatística GET43 TEORIA DAS PROBABILIDADES II Variáveis Aleatórias Unidmensionais Ana Maria Lima de Farias Jessica Quintanilha Kubrusly Mariana

Leia mais

Probabilidade em espaços discretos. Prof.: Joni Fusinato

Probabilidade em espaços discretos. Prof.: Joni Fusinato Probabilidade em espaços discretos Prof.: Joni Fusinato joni.fusinato@ifsc.edu.br jfusinato@gmail.com Probabilidade em espaços discretos Definições de Probabilidade Experimento Espaço Amostral Evento Probabilidade

Leia mais

Probabilidade. Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise

Probabilidade. Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Probabilidade Professora Ana Hermínia Andrade Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Período 2016.2 Você reconhece algum desses experimentos? Alguns

Leia mais

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Probabilidade Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Experimento aleatório Definição. Qualquer experimento cujo resultado não pode

Leia mais

Matemática & Raciocínio Lógico

Matemática & Raciocínio Lógico Matemática & Raciocínio Lógico para concursos Prof. Me. Jamur Silveira www.professorjamur.com.br facebook: Professor Jamur PROBABILIDADE No estudo das probabilidades estamos interessados em estudar o experimento

Leia mais

PROBABILIDADES PROBABILIDADE DE UM EVENTO EM UM ESPAÇO AMOSTRAL FINITO

PROBABILIDADES PROBABILIDADE DE UM EVENTO EM UM ESPAÇO AMOSTRAL FINITO PROBABILIDADES Probabilidade é um conceito filosófico e matemático que permite a quantificação da incerteza, permitindo que ela seja aferida, analisada e usada para a realização de previsões ou para a

Leia mais

T o e r o ia a da P oba ba i b lida d de

T o e r o ia a da P oba ba i b lida d de Teoria da Probabilidade Prof. Joni Fusinato Teoria da Probabilidade Consiste em utilizar a intuição humana para estudar os fenômenos do nosso cotidiano. Usa o princípio básico do aprendizado humano que

Leia mais

3 NOÇÕES DE PROBABILIDADE

3 NOÇÕES DE PROBABILIDADE 3 NOÇÕES DE PROILIDDE 3.1 Conjuntos Um conjunto pode ser considerado como uma coleção de objetos chamados elementos do conjunto. Em geral denota-se conjunto por letras maiúsculas,, C,... e a sua representação

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aulas passadas Espaço Amostral Álgebra de Eventos Axiomas de Probabilidade Análise Aula de hoje Probabilidade Condicional Independência de Eventos Teorema

Leia mais

Teoria das Probabilidades

Teoria das Probabilidades Capítulo 2 Teoria das Probabilidades 2.1 Introdução No capítulo anterior, foram mostrados alguns conceitos relacionados à estatística descritiva. Neste capítulo apresentamos a base teórica para o desenvolvimento

Leia mais

CAPÍTULO 3 PROBABILIDADE

CAPÍTULO 3 PROBABILIDADE CAPÍTULO 3 PROBABILIDADE 1. Conceitos 1.1 Experimento determinístico Um experimento se diz determinístico quando repetido em mesmas condições conduz a resultados idênticos. Exemplo 1: De uma urna que contém

Leia mais

NOÇÕES DE PROBABILIDADE

NOÇÕES DE PROBABILIDADE NOÇÕES DE PROBABILIDADE ALEATORIEDADE Menino ou Menina me? CARA OU COROA? 3 Qual será o rendimento da Caderneta de Poupança no final deste ano? E qual será a taxa de inflação acumulada em 014? Quem será

Leia mais

2. Nas Figuras 1a a 1d, assinale a área correspondente ao evento indicado na legenda. Figura 1: Exercício 2

2. Nas Figuras 1a a 1d, assinale a área correspondente ao evento indicado na legenda. Figura 1: Exercício 2 GET00116 Fundamentos de Estatística Aplicada Lista de exercícios Probabilidade Profa. Ana Maria Lima de Farias Capítulo 1 Probabilidade: Conceitos Básicos 1. Lançam-se três moedas. Enumere o espaço amostral

Leia mais

Conceitos básicos de teoria da probabilidade

Conceitos básicos de teoria da probabilidade Conceitos básicos de teoria da probabilidade Experimento Aleatório: procedimento que, ao ser repetido sob as mesmas condições, pode fornecer resultados diferentes Exemplos:. Resultado no lançamento de

Leia mais

PROBABILIDADE. Aula 2 Probabilidade Básica. Fernando Arbache

PROBABILIDADE. Aula 2 Probabilidade Básica. Fernando Arbache PROBABILIDADE Aula 2 Probabilidade Básica Fernando Arbache Probabilidade Medida da incerteza associada aos resultados do experimento aleatório Deve fornecer a informação de quão verossímil é a ocorrência

Leia mais

Aula 4. NOÇÕES DE PROBABILIDADE

Aula 4. NOÇÕES DE PROBABILIDADE Aula 4. NOÇÕES DE PROBABILIDADE ? CARA? OU? COROA? ? Qual será o rendimento da Caderneta de Poupança até o final deste ano??? E qual será a taxa de inflação acumulada em 013???? Quem será o próximo prefeito

Leia mais

Fernando de Pol Mayer. Laboratório de Estatística e Geoinformação (LEG) Departamento de Estatística (DEST) Universidade Federal do Paraná (UFPR)

Fernando de Pol Mayer. Laboratório de Estatística e Geoinformação (LEG) Departamento de Estatística (DEST) Universidade Federal do Paraná (UFPR) Fernando de Pol Mayer Laboratório de Estatística e Geoinformação (LEG) Departamento de Estatística (DEST) Universidade Federal do Paraná (UFPR) Este conteúdo está disponível por meio da Licença Creative

Leia mais

Probabilidade - 7/7/2018. Prof. Walter Tadeu

Probabilidade - 7/7/2018. Prof. Walter Tadeu Probabilidade - 7/7/018 Prof. Walter Tadeu www.professorwaltertadeu.mat.br Espaço Amostral (): conjunto de todos os resultados possíveis de um experimento aleatório. Exemplos: 1. Lançamento de um dado.

Leia mais

2. INTRODUÇÃO À PROBABILIDADE

2. INTRODUÇÃO À PROBABILIDADE 2. INTRODUÇÃO À PROBABILIDADE 2019 Conceitos básicos Experimento aleatório ou fenômeno aleatório Situações ou acontecimentos cujos resultados não podem ser previstos com certeza. Um experimento ou fenônemo

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aulas passadas Espaço Amostral Álgebra de Eventos Axiomas de Probabilidade Análise Combinatória Aula de hoje Probabilidade Condicional Independência de Eventos

Leia mais

Lista de exercícios de Matemática Eventos, espaço amostral e definição de probabilidade. Probabilidade condicional. Exercícios gerais.

Lista de exercícios de Matemática Eventos, espaço amostral e definição de probabilidade. Probabilidade condicional. Exercícios gerais. p: João Alvaro w: www.matemaniacos.com.br e: joao.baptista@iff.edu.br. No lançamento de dois dados, D e D 2, tem-se o seguinte espaço amostral, dado em forma de tabela de dupla entrada. Lista de exercícios

Leia mais

P(A i ) (n 1) i=1. Sorteia-se um homem desse grupo. Qual é a probabilidade de que seja paulista recém-formado, mas não pediatra?

P(A i ) (n 1) i=1. Sorteia-se um homem desse grupo. Qual é a probabilidade de que seja paulista recém-formado, mas não pediatra? GET0089 Probabilidade I Aula de exercícios - 4/08/08 Profa. Ana Maria Lima de Farias. Prove, por indução, a desigualdade de Bonferroni. Se A, A,..., A n são eventos de um espaço de probabilidade (Ω, F,

Leia mais

Experiências Aleatórias. Espaço de Resultados. Acontecimentos

Experiências Aleatórias. Espaço de Resultados. Acontecimentos Experiências Aleatórias. Espaço de Resultados. Acontecimentos Experiência Aleatória É uma experiência em que: não se sabe exactamente o resultado que se virá a observar; conhece-se o universo dos resultados

Leia mais

Aulas particulares. Conteúdo

Aulas particulares. Conteúdo Conteúdo Capítulo 6...2 Probabilidade...2 Exercícios...4 Restpostas...9 Capítulo 7... 12 Análise combinatória... 12 Fatorial... 12 Arranjo... 13 Combinação... 16 Exercícios... 17 Respostas... 22 1 Capítulo

Leia mais

TEORIA DAS PROBABILIDADES

TEORIA DAS PROBABILIDADES TEORIA DAS PROBABILIDADES 1.1 Introdução Ao estudarmos um fenômeno coletivo, verificamos a necessidade de descrever o próprio fenômeno e o modelo matemático associado ao mesmo, que permita explicá-lo da

Leia mais

NOÇÕES DE PROBABILIDADE

NOÇÕES DE PROBABILIDADE NOÇÕES DE PROBABILIDADE ? CARA? OU? COROA? 2 ? Qual será o rendimento da Caderneta de Poupança até o final deste ano??? E qual será a taxa de inflação acumulada em 2011???? Quem será o próximo prefeito

Leia mais

BIOESTATISTICA. Unidade IV - Probabilidades

BIOESTATISTICA. Unidade IV - Probabilidades BIOESTATISTICA Unidade IV - Probabilidades 0 PROBABILIDADE E DISTRIBUIÇÃO DE FREQUÊNCIAS COMO ESTIMATIVA DA PROBABILIDADE Noções de Probabilidade Após realizar a descrição dos eventos utilizando gráficos,

Leia mais

Universidade Federal de Lavras

Universidade Federal de Lavras Universidade Federal de Lavras Departamento de Estatística Prof. Daniel Furtado Ferreira 13 a Lista de Exercícios Práticos Conceitos Básicos de Probabilidade 1) Considere um experimento que consiste em

Leia mais

Teoria da Probabilidade

Teoria da Probabilidade Teoria da Probabilidade Luis Henrique Assumpção Lolis 14 de fevereiro de 2014 Luis Henrique Assumpção Lolis Teoria da Probabilidade 1 Conteúdo 1 O Experimento Aleatório 2 Espaço de amostras 3 Álgebra dos

Leia mais

Teoria das Probabilidades

Teoria das Probabilidades Teoria das Prof. Eduardo Bezerra (CEFET/RJ) 23 de fevereiro de 2018 Eduardo Bezerra (CEFET/RJ) Teoria das 2018.1 1 / 54 Roteiro Experimento aleatório, espaço amostral, evento 1 Experimento aleatório, espaço

Leia mais

Probabilidades. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Probabilidades. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Probabilidades Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 41 Noções Básicas Os métodos estatísticos para análise de dados estão associados

Leia mais

REGRAS PARA CÁLCULO DE PROBABILIDADES

REGRAS PARA CÁLCULO DE PROBABILIDADES REGRAS PARA CÁLCULO DE PROBABILIDADES Prof. Dr. Lucas Santana da Cunha http://www.uel.br/pessoal/lscunha/ 15 de abril de 2019 Londrina 1 / 17 As probabilidades sempre se referem a ocorrência de eventos

Leia mais

3. Probabilidade P(A) =

3. Probabilidade P(A) = 7 3. Probabilidade Probabilidade é uma medida numérica da plausibilidade de que um evento ocorrerá. Assim, as probabilidades podem ser usadas como medidas do grau de incerteza e podem ser expressas de

Leia mais

NOÇÕES DE PROBABILIDADE

NOÇÕES DE PROBABILIDADE NOÇÕES DE PROBABILIDADE Qual a razão para esta mudança? (isto é, para passarmos de Análise Descritiva para Cálculo de Probabilidades?) ALEATORIEDADE Menino ou Menina me? 3 CARA? OU COROA? 4 ? Qual será

Leia mais

Probabilidades- Teoria Elementar

Probabilidades- Teoria Elementar Probabilidades- Teoria Elementar Experiência Aleatória Experiência aleatória é uma experiência em que: não se sabe exactamente o resultado que se virá a observar, mas conhece-se o universo dos resultados

Leia mais

Exercícios de Probabilidade - Lista 1. Profa. Ana Maria Farias

Exercícios de Probabilidade - Lista 1. Profa. Ana Maria Farias Exercícios de Probabilidade - Lista 1 Profa. Ana Maria Farias 1. Lançam-se três moedas. Enumere o espaço amostral e os eventos A = faces iguais ; B = cara na primeira moeda ; C = coroa na segunda e terceira

Leia mais

MAT 461 Tópicos de Matemática II Aula 5: Resumo de Probabilidade

MAT 461 Tópicos de Matemática II Aula 5: Resumo de Probabilidade MAT 461 Tópicos de Matemática II Aula 5: Resumo de Probabilidade Edson de Faria Departamento de Matemática IME-USP 26 de Agosto, 2013 Probabilidade: uma Introdução / Aula 5 1 Variáveis aleatórias Definição

Leia mais

Probabilidade e Estatística Probabilidade Condicional

Probabilidade e Estatística Probabilidade Condicional Introdução Probabilidade e Estatística Probabilidade Condicional Em algumas situações, a probabilidade de ocorrência de um certo evento pode ser afetada se tivermos alguma informação sobre a ocorrência

Leia mais

3 a Lista de PE Solução

3 a Lista de PE Solução Universidade de Brasília Departamento de Estatística 3 a Lista de PE Solução. Se X representa o ganho do jogador, então os possíveis valores para X são,, 0, e 4. Esses valores são, respectivamente, correspondentes

Leia mais

Estatística (MAD231) Turma: IGA. Período: 2018/2

Estatística (MAD231) Turma: IGA. Período: 2018/2 Estatística (MAD231) Turma: IGA Período: 2018/2 Aula #03 de Probabilidade: 19/10/2018 1 Variáveis Aleatórias Considere um experimento cujo espaço amostral é Ω. Ω contém todos os resultados possíveis: e

Leia mais

Probabilidade e Estatística

Probabilidade e Estatística Probabilidade e Estatística Distribuições Discretas de Probabilidade Prof. Narciso Gonçalves da Silva www.pessoal.utfpr.edu.br/ngsilva Introdução Distribuições Discretas de Probabilidade Muitas variáveis

Leia mais

Probabilidade Condicional (grupo 2)

Probabilidade Condicional (grupo 2) page 39 Capítulo 5 Probabilidade Condicional (grupo 2) Veremos a seguir exemplos de situações onde a probabilidade de um evento émodificadapelainformação de que um outro evento ocorreu, levando-nos a definir

Leia mais

MA12 - Unidade 18 Probabilidade Condicional

MA12 - Unidade 18 Probabilidade Condicional MA12 - Unidade 18 Probabilidade Condicional Paulo Cezar Pinto Carvalho PROFMAT - SBM 4 de Abril de 2014 Um dado honesto é lançado duas vezes. a) Qual é a probabilidade de sair 1 no 1 o lançamento? b) Qual

Leia mais

Probabilidade Parte 1. Camyla Moreno

Probabilidade Parte 1. Camyla Moreno Probabilidade Parte 1 Camyla Moreno Probabilidade A teoria das probabilidades é um ramo da Matemática que cria, elabora e pesquisa modelos para estudar experimentos ou fenômenos aleatórios. Principais

Leia mais

Estatística (MAD231) Turma: IGA. Período: 2017/2

Estatística (MAD231) Turma: IGA. Período: 2017/2 Estatística (MAD231) Turma: IGA Período: 2017/2 Aula #01 de Probabilidade: 27/09/2017 1 Probabilidade: incerteza? como medir e gerenciar a Introdução Os jornais informaram que há uma chance de 60% de chover

Leia mais

MATEMÁTICA MÓDULO 4 PROBABILIDADE

MATEMÁTICA MÓDULO 4 PROBABILIDADE PROBABILIDADE Consideremos um experimento com resultados imprevisíveis e mutuamente exclusivos, ou seja, cada repetição desse experimento é impossível prever com certeza qual o resultado que será obtido,

Leia mais

Prof.: Joni Fusinato

Prof.: Joni Fusinato Introdução a Teoria da Probabilidade Prof.: Joni Fusinato joni.fusinato@ifsc.edu.br jfusinato@gmail.com Teoria da Probabilidade Consiste em utilizar a intuição humana para estudar os fenômenos do nosso

Leia mais

INTRODUÇÃO À PROBABILIDADE

INTRODUÇÃO À PROBABILIDADE INTRODUÇÃO À PROBABILIDADE Foto extraída em http://www.alea.pt Profª Maria Eliane Universidade Estadual de Santa Cruz USO DE PROBABILIDADES EM SITUAÇÕES DO COTIDIANO Escolhas pessoais Previsão do tempo

Leia mais

1 Noções de Probabilidade

1 Noções de Probabilidade Noções de Probabilidade Já vimos que para se obter informações sobre alguma característica da população, podemos utilizar uma amostra. Estudaremos agora a probabilidade, que é uma ferramenta usada e necessária

Leia mais

PROBABILIDADE. Curso: Logística e Transportes Disciplina: Estatística Profa. Eliane Cabariti

PROBABILIDADE. Curso: Logística e Transportes Disciplina: Estatística Profa. Eliane Cabariti Curso: Logística e Transportes Disciplina: Estatística Profa. Eliane Cabariti PROBABILIDADE Dizemos que a probabilidade é uma medida da quantidade de incerteza que existe em um determinado experimento.

Leia mais

Estatística Aplicada. Prof. Carlos Alberto Stechhahn PARTE I ESPAÇO AMOSTRAL - EVENTOS PROBABILIDADE PROBABILIDADE CONDICIONAL.

Estatística Aplicada. Prof. Carlos Alberto Stechhahn PARTE I ESPAÇO AMOSTRAL - EVENTOS PROBABILIDADE PROBABILIDADE CONDICIONAL. Estatística Aplicada Administração p(a) = n(a) / n(u) PARTE I ESPAÇO AMOSTRAL - EVENTOS PROBABILIDADE PROBABILIDADE CONDICIONAL Prof. Carlos Alberto Stechhahn 2014 1. Noções de Probabilidade Chama-se experimento

Leia mais

Pode ser a observação de um fenômeno natural:

Pode ser a observação de um fenômeno natural: MAE 116 Introdução à Probabilidade FEA -2º Semestre de 2017 1 Experimento Designaremos por Experimento todo processo que nos fornece dados: Pode ser a observação de um fenômeno natural: 4observação astronômica

Leia mais

Tipos de Modelo. Exemplos. Modelo determinístico. Causas. Efeito. Exemplos. Modelo probabilístico. Causas. Efeito. Determinístico.

Tipos de Modelo. Exemplos. Modelo determinístico. Causas. Efeito. Exemplos. Modelo probabilístico. Causas. Efeito. Determinístico. Tipos de Modelo Sistema Real Determinístico Prof. Lorí Viali, Dr. viali@mat.ufrgs.br http://www.mat.ufrgs.br/~viali/ Probabilístico Modelo determinístico Exemplos Gravitação F GM 1 M 2 /r 2 Causas Efeito

Leia mais

Aula 9 Teorema da probabilidade total e teorema de Bayes

Aula 9 Teorema da probabilidade total e teorema de Bayes Aula 9 Teorema da probabilidade total e teorema de Bayes Nesta aula você estudará dois importantes teoremas de probabilidade e verá suas aplicações em diversas situações envolvendo a tomada de decisão.

Leia mais

Probabilidade I. Departamento de Estatística. Universidade Federal da Paraíba

Probabilidade I. Departamento de Estatística. Universidade Federal da Paraíba Probabilidade I Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Probabilidade Condicional 08/16 1 / 56 Introdução É provável que você ganhe um aumento....

Leia mais

? CARA? OU? COROA? 2

? CARA? OU? COROA? 2 NOÇÕES DE PROBABILIDADE ? CARA? OU? COROA? 2 ?Q Qual será o rendimento da Caderneta de Poupança até o final deste ano??? E qual será a taxa de inflação acumulada em 2011???? Quem será o próximo prefeito

Leia mais

Probabilidade. Objetivos de Aprendizagem. UFMG-ICEx-EST. Cap. 2 - Probabilidade Espaços Amostrais e Eventos. 2.1.

Probabilidade. Objetivos de Aprendizagem. UFMG-ICEx-EST. Cap. 2 - Probabilidade Espaços Amostrais e Eventos. 2.1. 2 ESQUEMA DO CAPÍTULO 2.1 ESPAÇOS AMOSTRAIS E EVENTOS 2.2 INTERPRETAÇÕES E AXIOMAS DE PROBABILIADE 2.3 REGRAS DE ADIÇÃO 2.4 PROBABILIDADE CONDICIONAL 2.5 REGRAS DA MULTIPLICAÇÃO E DA PROBABILIDADE TOTAL

Leia mais

Material Teórico - Módulo Probabilidade Condicional. Probabilidade Condicional - Parte 1. Segundo Ano do Ensino Médio

Material Teórico - Módulo Probabilidade Condicional. Probabilidade Condicional - Parte 1. Segundo Ano do Ensino Médio Material Teórico - Módulo Probabilidade Condicional Probabilidade Condicional - Parte 1 Segundo Ano do Ensino Médio Autor: Prof. Fabrício Siqueira Benevides Revisor: Prof. Antonio Caminha M. Neto 1 Probabilidade

Leia mais

Ciclo 3 Encontro 2 PROBABILIDADE. Nível 3 PO: Márcio Reis 11º Programa de Iniciação Científica Jr.

Ciclo 3 Encontro 2 PROBABILIDADE. Nível 3 PO: Márcio Reis 11º Programa de Iniciação Científica Jr. 1 Ciclo 3 Encontro 2 PROBABILIDADE Nível 3 PO: Márcio Reis 11º Programa de Iniciação Científica Jr. Probabilidade 2 Texto: Módulo Introdução à Probabilidade O que é probabilidade? parte 1 de Fabrício Siqueira

Leia mais

Probabilidade e Estatística

Probabilidade e Estatística Aula 3 Professora: Rosa M. M. Leão Probabilidade e Estatística Conteúdo: 1.1 Por que estudar? 1.2 O que é? 1.3 População e Amostra 1.4 Um exemplo 1.5 Teoria da Probabilidade 1.6 Análise Combinatória 3

Leia mais

Conteúdo: Aula 2. Probabilidade e Estatística. Professora: Rosa M. M. Leão

Conteúdo: Aula 2. Probabilidade e Estatística. Professora: Rosa M. M. Leão Aula 2 Professora: Rosa M. M. Leão Probabilidade e Estatística Conteúdo: 1.1 Por que estudar? 1.2 O que é? 1.3 População e Amostra 1.4 Um exemplo 1.5 Teoria da Probabilidade 1.6 Análise Combinatória 3

Leia mais

probabilidade PE-MEEC 1S 09/10 16 Capítulo 2 - de probabilidade 2.1 Experiências aleatórias. resultados. Acontecimentos probabilidade.

probabilidade PE-MEEC 1S 09/10 16 Capítulo 2 - de probabilidade 2.1 Experiências aleatórias. resultados. Acontecimentos probabilidade. Capítulo 2 - Noções básicas de probabilidade 2.1 Experiências aleatórias. Espaço de resultados. Acontecimentos 2.2 Noção de probabilidade. Interpretações de Laplace, frequencista e subjectivista. Axiomas

Leia mais

Aula 6 Revisão de análise combinatória

Aula 6 Revisão de análise combinatória Aula 6 Revisão de análise combinatória Conforme você verá na próxima aula, a definição clássica de probabilidade exige que saibamos contar o número de elementos de um conjunto. Em algumas situações, é

Leia mais

Os experimentos que repetidos sob as mesmas condições produzem resultados geralmente diferentes serão chamados experimentos aleatórios.

Os experimentos que repetidos sob as mesmas condições produzem resultados geralmente diferentes serão chamados experimentos aleatórios. PROBABILIDADE A teoria das Probabilidades é o ramo da Matemática que cria, desenvolve e em geral pesquisa modelos que podem ser utilizados para estudar experimentos ou fenômenos aleatórios. Os experimentos

Leia mais

2 Conceitos Básicos de Probabilidade

2 Conceitos Básicos de Probabilidade CE003 1 1 Introdução No capítulo anterior, foram mostrados alguns conceitos relacionados à estatística descritiva. Neste capítulo apresentamos a base teórica para o desenvolvimento de técnicas estatísticas

Leia mais

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina Notes. Processos Estocásticos em Engenharia Conteúdo Notes.

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina Notes. Processos Estocásticos em Engenharia Conteúdo Notes. TE802 Processos Estocásticos em Engenharia Conceitos Básicos de Teoria de Probabilidade 7 de março de 2016 Informação sobre a disciplina Terças e Quintas feiras das 09:30 às 11:20 horas Professor: Evelio

Leia mais

Processos Estocásticos. Luiz Affonso Guedes

Processos Estocásticos. Luiz Affonso Guedes Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Variáveis Aleatórias Funções de Uma Variável Aleatória Funções de Várias Variáveis Aleatórias Momentos e Estatística Condicional Teorema

Leia mais

MATEMÁTICA A - 12o Ano Probabilidades - Teoremas e operações com conjuntos Propostas de resolução

MATEMÁTICA A - 12o Ano Probabilidades - Teoremas e operações com conjuntos Propostas de resolução MATEMÁTICA A - 12o Ano Probabilidades - Teoremas e operações com conjuntos Propostas de resolução Exercícios de exames e testes intermédios 1. Como P (B) = 1 P ( B ) = P (B) P (A B) vem que P (B) = 1 0,7

Leia mais

Introdução a Probabilidade

Introdução a Probabilidade Introdução a Probabilidade Universidade Estadual de Santa Cruz Ivan Bezerra Allaman Cronograma 1. Origem e história 2. Introdução 3. Definições básicas 4. Conceituação de probabilidade 5. Probabilidade

Leia mais