M501 Probabilidade, Estatística e Processos Estocásticos

Tamanho: px
Começar a partir da página:

Download "M501 Probabilidade, Estatística e Processos Estocásticos"

Transcrição

1 Notas de aula M501 Probabilidade, Estatística e Processos Estocásticos Dayan Adionel Guimarães Novembro de 007

2 Agradecimento Aos professores: Dr. José Marcos Câmara Brito Dr. Carlos Alberto Ynoguti M.Sc. Estevan Marcelo Lopes agradeço muito por terem gentilmente disponibilizado suas notas de aula, apostilas e slides sobre Probabilidade, Estatística e Processos Estocásticos, a partir dos quais estas notas de aula foram elaboradas.

3 Aula nº Data Tema Teoria de conjuntos Introdução. Teoria de conjuntos: Lei de De Morgan. Princípio da Dualidade. Conteúdo Definições para probabilidade: por freqüência relativa, axiomática e clássica. Ao final da aula os alunos deverão ser capazes de: 1) definir corretamente os conceitos de experimento, resultado, evento e espaço amostral; ) realizar operações Objetivos com conjuntos. 3) conceituar probabilidade. 4) realizar cálculos simples relacionando probabilidade com a teoria de conjuntos. Definição de experimento, resultado, evento e espaço amostral. Seja o EPERIMENTO correspondente ao lance de uma moeda, para o qual são esperados, obviamente, os RESULTADOS cara e coroa. Vamos definir o EVENTO correspondente à ocorrência de cara nos dois primeiros lances da moeda, num total de 3 lances. Então teremos o ESPAÇO AMOSTRAL: CCC CCK CKC CKK KCC KCK KKC KKK Onde C = cara e K = coroa. O número de possíveis resultados é 3 = 8. Quantas vezes o evento definido ocorre? Resposta: duas vezes. Perceba que posso me referir ao resultado correspondente aos possíveis eventos e, neste caso, teremos os 8 possíveis resultados listados acima, que compõem o espaço amostral. Conjuntos Seja o lance de um dado e o evento correspondente à observação de um número de pontos menor que 4. Na figura, S é o espaço amostral e A é o conjunto referente ao evento definido. Seja um outro evento referente à observação de um número de pontos maior que 1: 3

4 Aqui A + B = 1,, 3, 4, 5 e 6, que corresponde ao espaço amostral, neste caso, por coincidência. AB é o conjunto com os elementos e 3. Lei de de-morgan Vamos aplicar a lei de de-morgan na igualdade abaixo: A( B + C) = AB + AC Ao aplicarmos a forma genérica de de-morgan, devemos ter cuidado com a interpretação. Aplicando esta forma, nós simplesmente MANTEMOS A IGUALDADE ENTRE OS TERMOS. Isto não significa que, ao aplicarmos a regra genérica, mantemos a igualdade com a expressão original. Portanto, se não quisermos modificar o resultado da expressão original, temos que fazer como acima, ou seja, aplicar a forma específica do de-morgan. O que é mais importante? Reposta: as relações c c A i = A i e i i c c A i = A i. i i Teoremas com conjuntos. Exemplo: vamos mostrar a validade de 4

5 Exercício: mostrar a validade dos demais teoremas referentes a conjuntos. Definição de probabilidade por freqüência relativa Exemplo: suponha que você tenha a tarefa de determinar se uma moeda é justa ou não. Se efetuarmos um número bastante grande de lances da moeda, registrando um dos resultados (por exemplo, a ocorrência de cara) no final do experimento vamos obter o número de resultados favoráveis, n A e o número de lances, n. Dividindo n A por n obteremos uma estimativa da probabilidade de ocorrência de cara. Se este valor estiver convergindo para 0,5 à medida que aumentamos n, podemos afirmar que a moeda é justa. Caso contrário podemos afirmar que ela não justa. Perceba que nossa inferência estatística (opinião a partir do resultado) será tão mais precisa quanto maior o valor de n. Exercício: uma aplicação direta deste conceito em telecomunicações é na determinação da probabilidade de erro de bit em um sistema qualquer. Esta probabilidade de erro é normalmente denominada na prática de BER (bit error rate) ou taxa de erro de bit. Descreva um procedimento que lhe permita estimar a BER em um sistema real, utilizando o conceito de freqüência relativa. Definição clássica de probabilidade Seja novamente o EPERIMENTO correspondente ao lance de uma moeda, para o qual são esperados os RESULTADOS cara e coroa. Vamos definir o EVENTO correspondente à ocorrência duas caras num total de 3 lances. Então teremos o ESPAÇO AMOSTRAL: CCC CCK CKC CKK KCC KCK KKC KKK No espaço amostral podemos notar a ocorrência de 3 eventos favoráveis, contra 8 possíveis. Portanto, a probabilidade de ocorrência de caras é de 3/8. 5

6 Exemplo: Uma célula em um sistema de comunicações móveis possui 5 canais, que podem estar livres (L) ou ocupados (O). Tem-se que: a) O espaço amostral consiste de 3 combinações de 5 canais com as possíveis opções L e O em cada um dos canais, o que leva a 3 pontos. Seja 0 canal livre e 1 canal ocupado. Então teremos os possíveis resultados: b) Admitindo que os pontos do espaço amostral são EQUIPROVÁVEIS, ou seja, têm a mesma probabilidade de ocorrência, a probabilidade de uma chamada do tipo conferência, que precisa de 3 canais livres para ser completada, ser bloqueada por falta de canal livre é de: Podemos observar no espaço amostral que temos 16 ocorrências favoráveis ao evento definido (3 ou mais canais ocupados, o que levará ao bloqueio da chamada) em 3 situações possíveis. Portanto, a probabilidade de bloqueio é de 16/3 = 0,5. FIM DA AULA 6

7 Aula nº Data Tema Teorema de Bayes Probabilidade conjunta. Probabilidade condicional e a Regra de Bayes. Conteúdo Eventos Independentes. Ao final da aula os alunos deverão ser capazes de: 1) Definir corretamente os Objetivos conceitos de probabilidade conjunta e condicional. ) Saber escrever a expressão do Teorema de Bayes e utilizá-la. 3) Conceituar eventos independentes. Probabilidade conjunta Como o nome sugere, esta probabilidade refere-se à ocorrência conjunta de dois ou mais eventos. Exemplo Num jogo de dados, vamos analisar a probabilidade conjunta referente a dois lances do dado. Os possíveis números de pontos observados são: S 1,1 1, 1,3 1,4 1,5 1,6,1,,3,4,5,6 3,1 3, 3,3 3,4 3,5 3,6 4,1 4, 4,3 4,4 4,5 4,6 5,1 5, 5,3 5,4 5,5 5,6 6,1 6, 6,3 6,4 6,5 6,6 A partir dessas possibilidades e do conceito clássico de probabilidade, podemos realizar cálculos. Por exemplo, vamos determinar a probabilidade de um número ímpar de pontos no primeiro lance e um número 3 no segundo lance. Então a probabilidade procurada P[ímpar, 3] = 3/36. Probabilidades marginais Utilizando o conceito de probabilidades marginais é possível obter, a partir do conhecimento de probabilidades conjuntas, probabilidades simples (ou marginais). Por exemplo, dada uma probabilidade conjunta P[A,B], podemos obter P[A] ou P[B]. Obtemos P[A] somando todas as probabilidades conjuntas em que A é fixo e B é qualquer. Assim, obtemos P[B] somando as probabilidades conjuntas em que B é fixo e A é qualquer dos possíveis valores. 7

8 No exemplo anterior, podemos, a partir de P[ímpar, 3], obter a probabilidade de o segundo lance apresentar o número 3 somando todas as probabilidades correspondentes a 3 no segundo lance e qualquer valor no primeiro, ou seja: Probabilidade condicional É uma probabilidade de ocorrência de um evento, obtida tendo-se o conhecimento de que um outro evento ocorreu. Em outras palavras, é a probabilidade obtida sobre um evento, com uma informação adicional sobre a ocorrência de outro. Representa-se a probabilidade de ocorrência de um evento A, dado que um evento B ocorreu por P[A B] => lê-se probabilidade de A dado B. A probabilidade condicional relaciona-se com a probabilidade conjunta por meio da importante relação: Verificando: Exemplo: Em uma caixa há 100 resistores cujas resistências e tolerâncias são mostradas na tabela a seguir. Um resistor é selecionado da caixa ao acaso. Calcule a probabilidade do resistor ser de 47 ohms dado que ele tem tolerância de 5% e calcule a probabilidade dele ter tolerância de 5% dado que a resistência é de 100 ohms. Perceba que neste exemplo temos uma sutil diferença em ralação ao cálculo da probabilidade conjunta. O cálculo de P[47, 5%] corresponde ao seguinte experimento: se retirarmos da caixa um resistor qualquer, a probabilidade dele ser de 47 ohms E ter tolerância 5% é P[47, 5%] = 8/100. Já o cálculo 8

9 de P[47 5%] significa que retiramos um resistor da caixa, constatamos que sua tolerância é de 5% e queremos, DADA esta informação adicional, calcular a probabilidade do resistor ter valor 47 ohms. P[47 5%] = P[47, 5%]/ P[5%] = (8/100)/(6/100) = 8/6. Exercício Determinar a probabilidade do resultado da jogada de um dado ser um número menor do que 4 nas seguintes situações: a) se não temos nenhuma informação. b) se sabemos que o resultado foi ímpar. Os possíveis resultados são: e 6. a) queremos calcular P[D < 4] = 3/6 b) agora queremos calcular P[D < 4 D ímpar] = P[D < 4, D ímpar]/p[d ímpar] = (/6)/(3/6) = /3. Desafio A partir do entendimento da lógica do experimento computacional Prob_Conjunta.vsm, implementado no VisSim/Comm, implemente um experimento capaz de estimar as probabilidades calculadas no exercício 1. Exercício para casa Utilizando a teoria de conjuntos e a relação entre probabilidade condicional e conjunta, mostre a validade da expressão: Teorema de Bayes Este importante teorema permite que calculemos a probabilidade condicional P[A B] a partir do conhecimento de P[B A]: Exemplo Um transmissor envia um bit zero (evento A0) ou um bit 1 (evento A1) através de um um canal de comunicação binário simétrico. O canal ocasionalmente causa erro, de modo que um zero transmitido pode ser recebido como 1 e um 1 transmitido pode ser recebido como 0. A probabilidade de erro é p = 0.1, independente do bit transmitido. A probabilidade de um bit 0 ser transmitido é 0.6. Sejam B0 e B1 os eventos: um bit 0 foi recebido e um bit 1 foi recebido, respectivamente. Calcule as seguintes probabilidades: P(B0), P(B1), P(B1 A0), P(A0 B0), P(A0 B1), P(A1 B0), P(A1 B1). Este canal tem a representação abaixo: 9

10 P[B0] é a probabilidade de receber 0. P[B1 A0] é a probabilidade de receber 1, tendo transmitido 0 = p. P[A1 B0] é a probabilidade de ter transmitido 1, tendo recebido 0, e assim por diante... Eventos independentes Dois eventos são ditos independentes se ocorrência de um deles não tem influência na ocorrência dos demais. Em outras palavras, o dado sobre a ocorrência de um determinado evento não adiciona nenhuma informação à determinação da probabilidade de ocorrência de outro evento, ou seja: P[A B] = P[A]. Substituindo este resultado na expressão que relaciona probabilidade conjunta com condicional obtemos: P[A,B] = P[A B]P[B] = P[A]P[B] O que significa que, para eventos independentes, a probabilidade de ocorrência conjunta dos eventos é o produto das probabilidades de cada evento. Exemplo O lance de duas moedas corresponde a eventos independentes (não há nenhuma influência do resultado de um lance no resultado do outro lance). Sendo assim, a probabilidade de ocorrência de cara no primeiro lance e de cara no segundo é de 0,5x0,5 = 0,5. Perceba que já havíamos calculado este mesmo valor a partir da definição clássica de probabilidade: 1 ocorrência sobre 4 possíveis = ¼ = 0,5. FIM DA AULA 10

11 Aula nº Data Tema Métodos de contagem - 1 Conteúdo Métodos de contagem: amostragem com e sem reposição, com e sem ordenação. Objetivos Ao final da aula os alunos deverão ser capazes de utilizar a teoria dos métodos de contagem para resolver problemas sobre probabilidade. Definição de amostragem A amostragem se refere à escolha aleatória de um número k de objetos dentro de uma população com n objetos. Definição de reposição Realizamos uma reposição quando retornamos um objeto selecionado à população sob análise, antes que um próximo objeto seja selecionado. Seja, por exemplo, o processo de seleção de bolas de um conjunto de 5 bolas numeradas. Suponhamos que a primeira bola retirada tenha o número 3. Se o experimento é COM reposição, significa que a próxima bola a ser retirada poderá ser, inclusive, a própria bola de número 3. Se não houver reposição, a bola 3 (neste exemplo) estará fora das opções de escolha da segunda bola. Definição de ordenação Dizemos que um experimento é COM ordenação, quando a ordem dos objetos é relevante, ou seja, diferentes ordenações de um mesmo conjunto de objetos geram diferentes resultados para o experimento. Como exemplo, se retirarmos na primeira tentativa a bola de número 3 e na segunda a bola de número 5 num experimento COM ordenação, significa que retirar a bola 5 e depois a bola 3 corresponde a um outro resultado possível. Se não nos preocupamos com a ordenação, os resultados (3,5) e (5,3) são idênticos. Princípio fundamental da contagem Definição geral: Seja um experimento E, composto de sub-experimentos E 1, E,..., E k, com os números de possibilidades n 1, n,..., n k. O número de possibilidades do experimento E é dado por ni. Por exemplo, seja uma prova com 4 questões (4 sub-experimentos), onde o número de possíveis respostas para as questões é 3,, 4 e 6, respectivamente. Então, o número de possíveis formas distintas (experimento) de se resolver tal prova é de 3 x x 4 x 6 = 144. i Exemplo 1.8 Yates: Seja um experimento correspondente ao lance de uma moeda. Obviamente este experimento tem duas possibilidades (cara e coroa). Seja um outro experimento, correspondente ao lance de um dado. Este experimento possui 6 possibilidades. O experimento combinado lançar a moeda e lançar o dado terá então x 6 = 1 possibilidades: (cara, 1), (cara, ), (cara, 3), (cara, 4), (cara, 5), (cara, 6), (coroa, 1), (coroa, ), (coroa, 3), (coroa, 4), (coroa, 5) e (coroa, 6). 11

12 Amostragem COM reposição e COM ordenação Teorema 1.14 do Yates: Dado um conjunto com n objetos distintos, há n k maneiras diferentes de selecionar k objetos, com reposição e levando-se em conta a ordenação. Exemplo 1.34 Yates: de quantas formas possíveis podemos gerar seqüências binárias com 10 bits? Resposta: n = (temos um conjunto com dois bits: 0 e 1) e queremos selecionar, com reposição, 10 bits. Então teremos 10 = 1.04 possíveis formas diferentes de selecionar estes 10 bits. Exemplo 1.35 Yates: Quantas palavras de 4 letras podem ser produzidas a partir do alfabeto (A Z)? Resposta: o conjunto tem 6 letras = n. Estamos selecionando palavras de 4 letras e, portanto, k = 4. Então teremos 6 4 = palavras. Dos dois exemplos anteriores podemos extrair uma regra interessante: para sabermos quantas palavras existem em um alfabeto de tamanho n, simplesmente elevamos n ao tamanho da palavra. Exemplo slide 31: Num conjunto de 5 bolas numeradas temos 5 = 5 possibilidades de seleção de bolas com reposição e considerando a ordenação, como podemos verificas abaixo: Amostragem SEM reposição e COM ordenação (permutação) Exemplo slide 3: Como exemplo, seja determinar o número de possibilidades de retirada de bolas de um conjunto de 5, sem reposição e levando em conta a ordenação. Teremos os resultados: A este tipo de contagem denominamos PERMUTAÇÃO de objetos distintos em 5. Genericamente seu valor é dado por n(n 1)(n )...(n k +1) Para o exemplo acima teremos: 5x4 = 0 possíveis permutações dos números de bolas retiradas em 5. Exemplo slide 33: Vamos ver o que acontece se em n objetos selecionarmos sem reposição e com ordenação os n objetos. Basta fazer k = n na expressão anterior, o que leva a n!. Assim, com 5 bolas temos 5! = 10 possíveis formas de selecionar 5 bolas, considerando a ordem e sem reposição. 1

13 Multiplicando o numerador e o denominador da expressão anterior por (n k)! obtemos uma forma alternativa de cálculo na amostragem sem reposição e com ordenação: ( n k)! n! n( n 1)( n )...( n k + 1) = n( n 1)( n )...( n k + 1) = ( n k )! ( n k )! Exemplo 1.30 Yates: Quantas possibilidades existem na seleção de três cartas de um baralho, sem reposição? Resposta: neste caso n = 5 e k = 3, num processo de amostragem sem reposição e com ordenação. Então teremos n(n 1)(n )...(n k +1) = 5x51x50 = possibilidades. Fórmula de Stirling: certas calculadoras e até softwares de matemática têm sua limitação no cálculo fatorial. Quando o argumento for muito elevado, a fórmula de Stirling apresenta-se como uma ótima aproximação. Ela é dada por: n + 1 n n! π n e Amostragem SEM reposição e SEM ordenação (combinação) Exemplo slide 35: no exemplo das 5 bolas retirando-se, suponha que não nos importamos com a ordenação, ou seja, os resultados (,3) e (3,), por exemplo, são idênticos. Desta forma teremos as possibilidades: O cálculo destas possibilidades é chamado de COMBINAÇÃO e é realizado por meio do chamado coeficiente binomial: n n! = k k!( n k)! Dizemos que estamos interessados no número de combinações de k elementos em n elementos. Para o exemplo logo acima teremos: 5!/(!3!) = 10/1 = 10. Exemplo 1.31 Yates: Qual é o número de diferentes mãos de 5 cartas num jogo de poker? Resposta: 5!/(5!47!) = Na próxima aula veremos mais um exemplo de utilização da amostragem sem reposição e sem ordenação no jogo da Mega-Sena. Em seguida finalizaremos o assunto referente aos métodos de contagem e faremos alguns exercícios de fixação. FIM DA AULA 13

14 Aula nº Data Tema Métodos de contagem - Conteúdo Continuação do estudo dos métodos de contagem referentes a amostragem com e sem reposição, com e sem ordenação. Objetivos Ao final da aula os alunos deverão ser capazes de: utilizar a teoria dos métodos de contagem para resolver problemas sobre probabilidade. Exemplo: SenaM501 e Mega-Sena: Suponha que você esteja criando seu próprio jogo da SENA. Ele contém N números e os sorteios são de K números. Um jogador pode tentar a sorte apostando em J números. Numa primeira versão do jogo, à qual você denominou SENA-M501, foi estipulado que N = 6, K = e J = ou 3. Pede-se então: a) Calcule C, o número possível de combinações de dois números na SENA-M501. Liste as possíveis combinações. N 6 C = = = 15 K (1,) (1,3) (1,4) (1,5) (1,6) (,3) (,4) (,5) (,6) (3,4) (3,5) (3,6) (4,5) (4,6) (5,6) b) Calcule P, a probabilidade de um jogador ganhar na SENA-M501 apostando em dois números. Se apostarmos em qualquer par de números, poderemos observar que haverá um evento favorável contra 15 eventos possíveis e, portanto, P = 1/15. c) Calcule P 3, a probabilidade de um jogador ganhar na SENA-M501 apostando em três números. Observamos abaixo que, por exemplo, se o jogador apostar nos números, 3 e 5 ele terá 3 eventos favoráveis à sua premiação. Portanto P 3 = 3/15 = 1/5. Observando os números apostados e as possibilidades de acertar no sorteio, percebemos que as três possibilidades marcadas acima nada mais são do que o número de combinações de elementos em 3, ou seja 14

15 3 3! 3 = =!(3 )! d) A partir dos resultados dos itens b e c determine a expressão de cálculo de P J, a probabilidade de um jogador ganhar em uma versão genérica da SENA-M501 que contenha N números, sorteios de K números e apostas de J números. Observando os resultados b e c, percebemos que na definição clássica de probabilidade o numerador, J correspondente ao número de eventos favoráveis, será K e o denominador, correspondente ao J N K número total de possibilidades, será K. Então, a probabilidade procurada será: PJ = N K e) Mostrar que n k n j n = j k j k k. f) Sabendo que a MEGA-SENA real possui 60 números e sorteios de 6 números, calcule P 6, P 7, P 8, P 9 e P 10, as probabilidades de um jogador ganhar apostando em 6, 7, 8, 9 e 10 números. Para facilitar a interpretação dos resultados, faça um gráfico com os valores encontrados. 15

16 J 6 7 K 6 6 PJ = P6 = = 1.997E-8, P7 = = 1.398E-7 N K P8 = = 5.593E-7, P9 = = 1.678E-6, P10 = = 4.195E No gráfico ao lado a escala logarítmica no eixo das probabilidades torna mais fácil a leitura dos valores envolvidos. Isto acontece em situações em que os valores de probabilidade não seguem um comportamento linear, caso em que uma escala linear seria mais adequada. Com o objetivo de se acostumar a este tipo de representação logarítmica, muito utilizado em telecomunicações, faça como exercício a leitura dos valores de probabilidade da forma mais precisa que puder. Compare sua leitura com os valores exatos obtidos anteriormente. Amostragem COM reposição e SEM ordenação O número de modos diferentes de escolher k objetos de um conjunto de n objetos distintos com reposição e sem ordenação é dado por: Exemplo slide 35, porém com reposição: no exemplo das 5 bolas numeradas, suponha que retiramos uma bola da caixa aleatoriamente e, após recolocá-la de volta, selecionamos a segunda bola. Qual o número de possibilidades de escolha das duas bolas, sem nos preocuparmos com a ordem em que elas são escolhidas? As possibilidades serão: 16

17 De onde concluímos que, de fato há n 1+ k ! possibilidades k = = = = =!(6 )! 48 Podemos resolver também assim: n 1 + k ( n 1 + k)! 6! 15 possibilidades k = = = k!( n 1 + k k)!!4! Experimentos seqüenciais e diagrama de árvore Como complemento estude o item 1.8 da apostila, p , objetivando entender como se aplica o diagrama em árvore na solução de problemas com experimentos seqüenciais. Refaça os exemplos 1.13 a 1.16 para certificar-se de que entendeu o que estudou. O diagrama de árvore pode ser considerado como uma ferramenta para a solução de problemas probabilísticos em que o experimento sob análise consiste de uma seqüência de sub-experimentos. Nesta seqüência, um sub-experimento depende do resultado de sub-experimentos anteriores. A utilização dessa ferramenta em M501 não é obrigatória, podendo ser vista apenas como uma forma adicional que os alunos poderão utilizar para resolver exercícios ou questões de provas. FIM DA AULA 17

18 Aula nº Data Tema Exercícios de fixação Conteúdo Exercícios de fixação sobre probabilidade. Objetivos Permitir que os alunos revisitem os conceitos teóricos e conheçam exemplos de aplicação destes conceitos na solução de problemas. 1) Estabelecer a relação entre a PERMUTAÇÃO de k objetos em k, a COMBINAÇÃO de k objetos em n e o número de POSSÍVEIS k-uplas ORDENADAS DISTINTAS em n. Como exemplo, seja os n elementos, n = 4: 1,, 3 e 4, com k =. n 4 As possíveis combinações são = = 6: k 1, 1, 3, 1,4,3,4 3,4 Os possíveis pares ordenados distintos são n(n 1)(n )...(n k + 1) = 4x3 = 1: 1, 1,3, 1,4,1,3,4 3,1 3, 3,4 4,1 4, 4,3 O número de permutações possíveis com cada combinação é k! =! =. Por analogia verificamos então que: n(n 1)(n )...(n k + 1) = n k! k ) Mostre que se P(A) = P(B) = 1, então P(A B) = 1. Percebemos que se P[A] = P[B] = 1, a única possibilidade de fazer com que P(A B) seja um resultado válido em termos de probabilidade é ter P(A B) = 1. Neste caso, então P(A B) = 1. 3) Mostre que P[A c ] = 1 P[A]. 18

19 4) Usando diagramas de Venn, faça um exemplo que mostre que P(A B) = P(A) + P(B) P(A B). Seja o exemplo abaixo, onde S = {0, 1,, 3, 4, 5, 6, 7}, A = {1,, 3}, B = {3, 4, 5, 6}, A B = {3} e A B = {1,, 3, 4, 5, 6}. Percebemos que P(A B) é a probabilidade de ocorrência dos elementos {1,, 3, 4, 5, 6}. Nas probabilidades de ocorrência dos elementos e A e dos elementos de B, o número 3 aparece duas vezes e, portanto, precisa ser eliminado da dupla contagem retirando-se a interseção entre A e B. Vejamos os valores numéricos: P[A] = 3/8, P[B] = 4/8, P[A B] = 6/8, P(A B) = 1/8. De fato P(A B) = P(A) + P(B) P(A B): 6/8 = 3/8 + 4/8 1/8. 5) Usando diagramas de Venn, faça um exemplo que mostre que P(A B) P(A) + P(B). Utilizando os resultados do exercício anterior concluímos que P(A B) = P(A) + P(B) se não houver interseção entre os eventos A e B. Por outro lado, P(A B) < P(A) + P(B) se existir alguma interseção. Portanto, com estas únicas possibilidades mostramos o que o exercício pede, ou seja P(A B) P(A) + P(B). 6) Mostre que para eventos A, B e C quaisquer: P[A B C] = P[A] + P[B] + P[C] P[A B] P[A C] P[B C] + P[A B C]. OBS: repita o exercício utilizando diagramas de Venn. 7) Um sistema de comunicação de microondas conecta os equipamentos de edição de uma emissora de rádio ao sistema de transmissão por meio de três links, conforme ilustrado a seguir. Tais links podem falhar de forma independente com probabilidades P1, P e P3. Qual a probabilidade de falha no sistema de comunicação como um todo? 19

20 Solução por 1 P[sistema não falhar] Solução pela união dos eventos individuais de falha A probabilidade de falha em um sistema serial como este é a probabilidade da UNIÃO dos eventos de falha. Vejamos: P[falha] = P[falha link1 falha link falha link 3] = P1 + P + P3 P1P PP3 P1P3 + P1PP3. 8) Repita o exercício 7 considerando que os links estão em paralelo. Da solução deste exercício você tirará uma conclusão muito útil à solução de problemas deste tipo. Agora o sistema falhará se todos os links falharem ao mesmo tempo. Portanto estamos interessados na probabilidade conjunta de falha dos links. Como os eventos de falha são independentes, P[falha] = P[falha link 1 falha link falha link 3] = P[falha link1, falha link, falha link 3] = P1 P P3. Assim, concluímos: sistemas em paralelo têm probabilidade de falha igual à INTERSEÇÃO dos eventos de falha (probabilidade conjunta). Sistemas e série têm probabilidade de falha igual à UNIÃO dos eventos de falha. Sistemas combinados têm probabilidades de falha calculadas pela combinação destes eventos de falha. Outros exercícios para casa 9) Se retirarmos, de uma única vez, 3 bolas de uma caixa com 10 bolas numeradas, qual a probabilidade de retirarmos o conjunto de bolas (1,, 3), nesta ordem? 10) Se retirarmos, de uma única vez, 3 bolas de uma caixa com 10 bolas numeradas, qual a probabilidade de retirarmos o conjunto de bolas (1,, 3), em qualquer ordem? 11) Num sorteio, 60 bolas numeradas de 1 a 60 são misturadas em uma gaiola rotativa e depois, uma a uma, são retiradas. Qual a probabilidade de se retirar os números 1, 33, 7, 45, 46 e 59 nas primeiras 6 retiradas? 1) Num sorteio, 60 bolas numeradas de 1 a 60 são misturadas em uma gaiola rotativa e depois, uma a uma, são retiradas. Qual a probabilidade de se acertar 6 números em 6 retiradas, apostando 7 números? 0

21 13) Associar a coluna da esquerda à coluna da direita, apresentando os cálculos pertinentes aos três casos listados na coluna da direita. (A) 70 (B) 56 (C) (D) (E) 10 (F) 10 (G) 30 (H) ( ) é o número de possíveis resultados de uma corrida com 10 competidores, listando-se apenas as três primeiras posições (pódio de 3 lugares). ( ) é o número de diferentes palavras de 8 bits que pode ser formado a partir de 5 uns e 3 zeros. ( ) é o número de resultados diferentes que podem ser obtidos lançando-se 5 dados de uma vez e observando a soma do número de pontos de cada lance. FIM DA AULA 1

22 Aula nº Data Tema Variáveis aleatórias - 1 Conteúdo Introdução às variáveis aleatórias. Ao final da aula os alunos deverão ser capazes de: 1) definir corretamente o Objetivos conceito de variável aleatória (v.a.). ) realizar cálculos de probabilidade por meio da Função de Distribuição Cumulativa (FDC). Variável aleatória definição simplificada Uma variável aleatória (v.a.) nada mais é do que o mapeamento dos resultados aleatórios de um experimento em números que vão ser, por conseqüência, aleatórios. Como exemplo, seja o experimento de se lançar uma moeda vezes consecutivas e seja o evento correspondente à contagem do número de caras observado. Podemos então definir uma variável aleatória que corresponda a este evento. A variável aleatória terá aqui os seguintes valores {0, 1 e }. Eventos equivalentes Quando calculamos probabilidades a partir de representações com diagramas de Venn obtemos resultados idênticos àqueles obtidos por meio das variáveis aleatórias correspondentes. Por exemplo, o conjunto referente à ocorrência de cara em dois lances consecutivos no exemplo anterior tem associação equivalente à ocorrência do valor da variável aleatória definida. Função de Distribuição Cumulativa (FDC) Num primeiro momento, vamos nos contentar apenas com a definição matemática da FDC, que é: onde a letra F (sempre maiúscula) indica que estamos nos referindo a uma FDC; o sobrescrito (sempre maiúsculo) está associado à variável aleatória a que a FDC se refere; x (sempre minúsculo) significa um valor específico para a variável aleatória e P[ x] é a probabilidade da variável aleatória assumir um valor menor ou igual a x. Exemplo: Vamos determinar a FDC da v.a., sendo o número de caras (C) em três arremessos de uma moeda ideal, ou seja, assume apenas os valores 0, 1, e 3. Para uma moeda justa, as probabilidades para cada resultado são 1/8, 3/8, 3/8 e 1/8, respectivamente, valores estes obtidos por meio da definição clássica de probabilidade, seja operando no espaço amostral de caras e coroas ou com os valores da variável aleatória. Por exemplo, 3/8 é a probabilidade de ocorrência de duas caras: este valor pode ser obtido dividindo-se o número de eventos favoráveis à aparição de duas caras (3) pelo número total de possibilidades (8) ou dividindo-se o número de eventos favoráveis à aparição do valor da v.a. (3) pelo número total de possibilidades (8).

23 F (x) é simplesmente a soma das probabilidades de ocorrência dos resultados que são menores ou iguais a x, ou seja: P[ 0] = 1/8, P[ 1] = 1/8 + 3/8 = 1/, P[ ] = 1/8 + 3/8 + 3/8 = 7/8 e P[ 3] = 1/8 + 3/8 + 3/8 + 1/8 = 1. Como resultado temos a FDC ilustrada a seguir: Propriedades da FDC 0 F ( x) 1 Estes são os possíveis valores para a FDC F x lim ( x) = 0 A FDC começa sempre em zero, não importa o quanto à esquerda do gráfico. lim ( x) = 1 F x A FDC termina sempre em um, não importa o quanto à direita do gráfico. A FDC é uma função não decrescente de x, isto é, se a < b, então F (a) F (b). Em outras palavras, se a < b o valor da FDC no ponto a será sempre menor ou igual ao valor da FDC no ponto b. P[ a < b] = F ( b) F ( a) Podemos utilizar esta propriedade para calcular probabilidades. Por exemplo, na FDC abaixo seja calcular a probabilidade da v.a. assumir os valores entre e 3, ou seja, queremos calcular P[ 3] = F (3) F () = 0,9 0,5 = 0,4. 3

24 Se a FDC é contínua em um ponto b, então o evento { = b} tem probabilidade nula. Isto significa que a probabilidade de ocorrência de um valor específico de uma v.a. que tem FDC contínua é nula. No exemplo logo acima, se fizermos o ponto da esquerda, a, se aproximar cada vez mais do ponto 3, teremos F (3) F (a) cada vez menor. No limite, quando estivermos a um valor infinitesimal distante do ponto 3, F (3) F (a) será P[ = 3] = 0. P[ a b] = F ( b) F ( a ) Esta propriedade, de aplicação bastante útil, diz que a probabilidade da v.a. assumir valores entre a e b é determinada pela subtração do valor da FDC no ponto b do valor da FDC imediatamente à esquerda de a. Para o exemplo anterior, P[ 3] = F (3) F ( ) = 0,9 0,5 = 0,4. No caso do jogo das moedas, suponha que quiséssemos a probabilidade de assumir o valor. Então teríamos: P[ = ] = P[] P[ ] = 7/8 1/ = 3/8. Se a FDC é contínua, P[ a < < b] = P[ a < b] = P[ a < b] = P[ a b]. Isto significa que incluir ou não os valores específicos de a e b no cálculo de probabilidades não altera o resultado. Podemos também interpretar esta propriedade lembrando que a probabilidade de ocorrência de um valor específico de uma v.a. cuja FDC é contínua é nula e, portanto, incluir ou não este valor nulo no cálculo torna-se indiferente. Exercício para casa Para a FDC abaixo, pede-se: a) Recalcular P[ x 1 > 1/ ] = 1 P[1/ 3/ ] = 1 [ F (3/ ) F (1/ )] = 7 /16. b) Calcular P[ = 1,5]. Tipos de variáveis aleatórias Os tipos de v.a. estão associados às possibilidades para os valores da v.a.. Por exemplo, numa transmissão de dados, a variável aleatória pode ser a ocorrência dos bits zeros e uns. Portanto, e obviamente, os valores desta v.a. são discretos e iguais a 0 ou 1. Por conseqüência, a correspondente FDC será também discreta: 4

25 Uma variável aleatória contínua pode assumir quaisquer valores dentre os números reais na faixa em que tal v.a. existe. Por exemplo, suponha que a vazão máxima no cano da COPASA que alimenta sua residência com água seja de 1 m 3 /hora e a mínima seja de 0. Em um determinado momento, a vazão poderá ter qualquer valor real entre 0 e 1 m 3 /hora, como ilustrado pela FDC da v.a. em questão: Uma variável aleatória mista, como o nomesugere, pode assumir valores discretos e contínuos. Sua FDC é, portanto, composta de partes discretas e de partes contínuas, conforme ilustração a seguir: Na próxima aula iniciaremos com o estudo da função densidade de probabilidade (FDP), a qual possui associação direta com a FDC. Em seguida estudaremos vários tipos de variáveis aleatórias discretas e contínuas. FIM DA AULA 5

26 Aula nº Data Tema Variáveis aleatórias - Conteúdo Função densidade de probabilidade para v.a. contínuas e discretas. Densidades condicionais. Objetivos Continuação do estudo de variáveis aleatórias: Função densidade de probabilidade para variáveis aleatórias discretas e contínuas. Densidades condicionais. Histograma. Função massa de probabilidade (FMP) A função massa de probabilidade simplesmente representa em um gráfico as probabilidades de ocorrência de cada um dos valores de uma v.a. discreta. Como exemplo, seja uma v.a. que pode assumir os valores {0, 1,, 3} com probabilidades 0.3, 0., 0.4 e 0.1, respectivamente. Teremos a seguinte FMP e correspondente FDC: Matematicamente: p (x k ) = P[ = x k ] Função densidade de probabilidade (FDP) Para entendermos o conceito de FDP, vamos analisar um exemplo: suponha que coletamos a estatura de 100 alunos do Inatel, obtendo os mais variados valores. Suponha que, dentro da faixa de valores encontrados, criamos 7 sub-faixas (ou classes) e contamos quantos alunos têm estatura dentro daquela sub-faixa. Um possível resultado seria: 6

27 Com este exemplo acabamos aprendendo o conceito de HISTOGRAMA, ou seja, a figura acima é o histograma que mostra a distribuição da estatura dos alunos consultados. Se, no limite, fizermos cada sub-faixa ter uma largura tendendo a zero, teremos como resultado uma função contínua que mostrará, mais uma vez, como as estaturas dos alunos consultados se distribui. A esta função contínua damos o nome de função densidade de probabilidade. Para o exemplo, teremos: 4 Freqüência relativa Valores de A relação entra uma função densidade de probabilidade e uma função de distribuição cumulativa é dada por: f df ( x) ( x) = dx ou seja, determinamos a FDP de uma v.a. por meio da derivada da função de distribuição cumulativa. Portanto, a FDC é determinada pela integral da FDP. Função densidade de probabilidade (FDP) para v.a. discretas A FDP de uma v.a. discreta é determinada simplesmente substituindo os traços da FMP por funções impulso, conforme ilustrado a seguir. O uso de representações diferentes de um impulso, na figura, não corresponde a um erro. Matematicamente, p ( x) = p ( xk ) δ ( x xk ) k 7

28 Função densidade de probabilidade (FDP) para v.a. contínuas Aproveitando a definição de FDP dada anteriormente, definimos a FDP de uma variável aleatória contínua por meio de uma função contínua de área unitária. A FDP representa a densidade de probabilidade no ponto x no seguinte sentido: é a probabilidade de estar em um intervalo pequeno na vizinhança de x: Na definição de histograma, vimos um exemplo referente à estatura de um grupo de alunos do Inatel. Vimos, naquele exemplo, que fazendo as sub-faixas tenderem a zero teríamos como resultado uma função contínua. Se normalizarmos esta função resultante de forma que tenha área unitária, o resultado será uma forma aproximada da FDP da estatura dos alunos do Inatel. Propriedades de uma PDF Para v.a. contínuas temos as seguintes propriedades: A primeira propriedade diz que uma FDP não pode ter valores negativos, o que implicaria em valores negativos de probabilidade. A segunda propriedade permite que calculemos probabilidades a partir de uma FDP. Por exemplo, a probabilidade da v.a. estar entre os valores a e b, denotada por P[ a b], é calculada pela integral da FDP entre os pontos a e b. A terceira propriedade apenas repete o que já estudamos, ou seja, a FDC é a integral da FDP e a FDP é a derivada da FDC. 8

29 A última propriedade é uma condição para que possamos calcular probabilidades a partir do cálculo de área sob a FDP. Como exemplo, suponha que uma v.a. tenha valores somente entre 1,4 e. Portanto, a probabilidade de estar entre 1,4 e será a área da FDP correspondente entre os pontos 1,4 e. Este valor dever ser, obviamente, igual a 1. Para v.a. discretas temos as seguintes propriedades: A primeira propriedade diz que uma FDP não pode ter valores negativos, o que implicaria em valores negativos de probabilidade. A segunda propriedade permite que calculemos probabilidades a partir de uma FDP. Por exemplo, a probabilidade da v.a. assumir os valores 1, e 7 é dada pela soma das probabilidades de ocorrência dos valores 1, e 7, lidas diretamente no eixo vertical da FDP. A terceira propriedade apenas repete o que já estudamos, ou seja, a FDC é a integral da FDP, agora na versão discreta em que a integral se torna um somatório. Assim, para determinarmos a FDC a partir da FDP, basta ir acumulando os valores de probabilidade a cada valor da v.a. discreta. Para determinarmos a FDP a partir da FDC, basta plotar no eixo horizontal, em cada valor da v.a., um impulso cuja amplitude é igual ao correspondente salto da FDC. A última propriedade é uma condição para que possamos calcular probabilidades a partir do cálculo de área sob a FDP. Como exemplo, suponha que uma v.a. tenha valores somente entre 1,4 e. Portanto, a probabilidade de estar entre 1,4 e será a área da FDP correspondente entre os pontos 1,4 e. Este valor dever ser, obviamente, igual a 1. Densidades condicionais Densidades condicionais são aquelas que nos permitem obter informações probabilísticas sobre uma v.a. com um conhecimento adicional sobre o experimento correspondente. Por exemplo, ao fazermos apostas em um hipódromo, se sabemos que um determinado cavalo está machucado ou doente, mesmo sendo um campeão, diminuímos nossa confiança em apostar nele. A função de distribuição condicional de uma v.a., dado o conhecimento do evento B é definida por: P[ x, B] F ( x B) = P[ x B] = P[ B] 9

30 Determina-se a função densidade de probabilidade de uma v.a. contínua da mesma forma que definimos anteriormente, ou seja, pela derivada da FDC: d f ( x B) = F ( x B) dx Para uma v.a. discreta, a FMP condicional é dada por: p ( x B) = P[ = x B] = k k P[ = xk, B] P[ B] Exemplo: o tempo de vida de uma máquina tem distribuição exponencial. Vamos determinar a FDC e a FDP condicionadas ao evento A = { > t}, ou seja, a máquina ainda se encontra em funcionamento no instante t: F ( x > t) = P[ x > t] = [{ } { > }] P x t P[ > t] Por meio da figura a seguir percebemos que os eventos no numerador acima não têm interseção quando x t e têm interseção quando x > t em t < x. Então teremos a FDC condicional: 0, F ( x > t) = F ( x) F ( t), 1 F ( t) x t x > t Diferenciando a FDC em relação a x obtemos a FDP condicional: f ( x) f ( x > t) =, x t 1 F ( t) Exercício para casa: usando o resultado do exemplo anterior, determine a estimativa do tempo de vida da máquina estar entre,5 a 3 unidades de tempo, conhecendo-se ou não conhecendo-se o dado adicional: a máquina está em funcionamento em t =. Conceito de histograma estudo dirigido Faça uma pesquisa sobre o conceito de HISTOGRAMA em livros e/ou páginas da Internet sobre estatística. Como sugestão, tente resolver a questão por meio da enciclopédia Wikipedia: Faça um resumo sobre o assunto, contendo ao menos um 30

31 exemplo da utilização de histogramas em análises estatísticas. Estabeleça a relação entre um histograma e uma função densidade de probabilidade em termos de seu formato e da sua normalização para probabilidade total unitária (área unitária). Histograma FDP Suponha que temos um conjunto de 100 valores de uma variável aleatória discreta e queremos, a partir deste conjunto, determinar a FMP da v.a. em questão. Contando o número de ocorrências de cada valor e construindo o correspondente histograma obtivemos o resultado: 60 Freqüência de ocorrência Valores de Utilizando o conceito de probabilidade por freqüência relativa, podemos calcular a probabilidade de ocorrência de cada valor dividindo o número de ocorrências de um valor pelo número total de valores, o que nos levaria a: 0.6 Probabilidade Valores de Entretanto, pelo fato de termos utilizado um número muito pequeno de amostras, as probabilidades estimadas podem ter valores bastante incorretos. Vejamos o que acontece se aumentarmos o número de valores disponíveis para Com este valor as estimativas de probabilidade por freqüência relativa se tornarão bastante precisas e, por conseqüência, a FMP estimada será também bastante precisa, conforme ilustrado a seguir: 6000 Freqüência de ocorrência Valores de 31

32 0.6 Probabilidade Valores de Para uma variável aleatória contínua, a regra que pode ser extraída do exemplo anterior também é válida: quanto maior o número de valores da v.a. considerados na construção do histograma, mais este histograma se assemelhará à FDP da v.a. em questão. Não devemos nos esquecer, no entanto, que a aproximação do histograma da FDP se dará com as medidas adicionais: largura das sub-faixas (ou classes) tão pequenas quanto possível e normalização do histograma para que tenha área unitária. A seguir temos o histograma de uma v.a. contínua, construído a partir de 100 amostras desta v.a.. 5 Freqüência de ocorrência Valores de Veja agora o histograma construído com amostras da v.a. contínua, normalizado para área unitária e com classes bem estreitas. Observe a grande semelhança com a FDP real da v.a. em questão. FIM DA AULA 3

33 Aula nº Data Tema Variáveis aleatórias - 3 Conteúdo Continuação do estudo de variáveis aleatórias: Variáveis aleatórias discretas mais comuns; Variáveis aleatórias contínuas mais comuns. Objetivos Ao final da aula os alunos deverão ser capazes de: 1) realizar cálculos de probabilidade envolvendo as variáveis aleatórias discretas e contínuas estudadas. Variável aleatória discreta de Bernoulli É utilizada para modelar qualquer fenômeno aleatório que possa ser descrito como tendo dois estados. Por exemplo: ligado/desligado, aceso/apagado, cara/coroa, bit0/bit1, etc... Adicionalmente, uma v.a. de Bernoulli pode modelar qualquer fenômeno aleatório ao qual se possa associar a um evento de interesse A uma probabilidade de ocorrência p = P[A], a partir de uma função indicadora I A que assume o valor 1 sempre que o evento de interesse ocorrer e 0 quando não ocorrer. Por exemplo, suponha que associamos o valor 1 à ocorrência de uma descarga elétrica dentro do Campus do Inatel e 0 fora do Campus. Se p é a probabilidade de um raio atingir o Campus, o evento em questão pode ser modelado por uma v.a. de Bernoulli com probabilidade de sucesso p. Abaixo temos a FMP para esta variável. Variável aleatória discreta Binomial Esta variável está associada ao número de sucessos em n testes de Bernoulli. Por exemplo, suponha que a probabilidade de uma lâmpada queimar é p. Portanto, para este experimento, sucesso significa a lâmpada queimar. Num conjunto de n lâmpadas, a probabilidade de x lâmpadas queimarem é dada pela distribuição Binomial. A FMP para uma v.a. Binomial é dada a seguir. 33

34 Num outro exemplo, suponha que queremos calcular a probabilidade de termos mais de 5 bits errados em um bloco de n bits, num sistema de comunicação em que o canal causa erros de bit com uma probabilidade p. Neste caso, o sucesso no teste de Bernoulli corresponde a um erro de bit. Então, a probabilidade de termos 5 ou mais erros em n bits será calculada por: 4 n x n x P[ 5] = 1 P[ < 5] = 1 p (1 p ) x= 0 x. Variável aleatória discreta de Poisson Uma v.a. de Poisson modela fenômenos aleatórios em um intervalo de observação. Por exemplo, a taxa de solicitações de chamadas telefônicas encaminhadas a uma central de comutação é de λ solicitações por segundo. Em um determinado intervalo de observação T, o número de solicitações segue uma distribuição de Poisson. Nesta distribuição α = λt é o número médio de ocorrências do evento no intervalo considerado. Num outro exemplo, o número de clientes que chegam a uma fila de espera em um Banco durante um determinado intervalo de observação T segue uma distribuição de Poisson, onde α = λt é o número médio de clientes que chegam ao banco neste intervalo e λ é a taxa de chegada dos clientes (clientes/segundo). Aproximação de Poisson para a distribuição Binomial Quando n é grande os cálculos envolvendo a distribuição Binomial apresentam um complicador que é o cálculo fatorial presente no coeficiente binomial. Nestes casos, adicionalmente quando p tem valor pequeno, a distribuição de Poisson aproxima-se da distribuição Binomial, ou seja: x n x n x α α p ( x) = p ( 1 p) e, α np x = x! Como exemplo, suponha que queremos calcular a probabilidade de um bloco de bits ter 5 ou mais bits em erro, num sistema de comunicação em que a probabilidade de erro de bit é de Neste exemplo o sucesso no teste de Bernoulli, que corresponde à probabilidade p = está associado ao erro em um bit. Aqui, se tentarmos aplicar diretamente a distribuição Binomial, que modela eventos como o descrito, teremos problema para calcular o valor do coeficiente binomial por causa do valor de n = Como p tem valor pequeno,podemos usar a aproximação de Binomial para Poisson, com α = np =

35 Variável aleatória discreta Geométrica Usamos esta distribuição sempre que queremos modelar um experimento no qual estamos interessados em contar o número de insucessos antes que o primeiro sucesso ocorra. Por exemplo, suponha que queremos determinar, o número necessário de lances de um dado antes que o número 3 (3 pontos) aparece pela primeira vez. A variável aleatória tem distribuição Geométrica. Esta variável é dita SEM MEMÓRIA. Para ilustrar este conceito, no exemplo do dado se ainda não ocorreu um sucesso após lançar-se o dado um determinado número de vezes, o número de insucessos adicionais até a ocorrência do primeiro sucesso continua tendo uma distribuição Geométrica. Por exemplo, se após lançarmos o dado 5 vezes não observamos a ocorrência de um sucesso (3 pontos, para o caso), a probabilidade de aparecer 3 pontos após mais 3 lances continua sendo calculada por p (x) para x = 3. Variável aleatória contínua Uniforme Uma v.a. contínua tem distribuição Uniforme quando as probabilidades de ocorrência da v.a estão uniformemente distribuídas dentro da faixa de valores onde ela existe. Por exemplo, na FDP abaixo, se calcularmos a probabilidade da v.a. assumir valores entre a e a +, encontraremos o mesmo valor que entre b e b. Como exemplo, quando amostras de um sinal de áudio são quantizadas, gera-se um erro entre a amostra quantizada e o valor real da amostra do sinal. Este erro tem distribuição Uniforme de q/ a +q/, onde q é o passo de quantização (distância entre um nível de quantização e seus vizinhos mais próximos). Num outro exemplo, quando transmitimos um sinal num canal de comunicação móvel sem fio, como acontece em sistemas celulares, a fase do sinal recebido é aleatória com distribuição Uniforme entre π 35

36 e π, ou seja, o sinal recebido pode assumir qualquer valor de fase dentro destes limites, com a mesma probabilidade. Variável aleatória contínua Exponencial Utilizamos uma distribuição Exponencial para modelar eventos que, com o passar do tempo, têm menor probabilidade de ocorrência. Por exemplo, a duração de uma chamada telefônica é uma v.a. com distribuição exponencial, pois a probabilidade de uma chamada durar menos tempo é maior que a probabilidade de durar mais tempo. A v.a. exponencial é também utilizada para modelar o tempo de vida de algumas máquinas e equipamentos. Neste caso, quanto mais o tempo passar, menor a probabilidade de ocorrência de falha. Assim, um automóvel, por exemplo, tem mais chance de apresentar defeito nos primeiros dois meses de uso do que nos dois meses seguintes ao primeiro ano de uso. Obviamente este modelo se aplica ao intervalo de tempo antes que falhas começam a aparecer por envelhecimento ou desgaste de peças. Como vimos anteriormente, o número de chegadas de clientes em uma fila tem distribuição de Poisson. Neste caso, o intervalo entre as chegadas tem distribuição Exponencial, ou seja, é mais provável que os intervalos entre chegadas consecutivas sejam menores; intervalos elevados entre chegadas consecutivas são mais raros. A seguir tem-se a FDP para a variável aleatória Exponencial. Variável aleatória contínua Gaussiana A distribuição Gaussiana tem uso muito freqüente em várias áreas do conhecimento. Por exemplo, ela caracteriza grande parte dos fenômenos aleatórios naturais e o ruído térmico em sistemas de telecomunicações. Adicionalmente, sob uma grande faixa de condições a variável aleatória Gaussiana pode ser usada para aproximar a distribuição da soma de um grande número de variáveis aleatórias independentes com distribuição qualquer. A seguir tem-se a FDP para a variável aleatória Gaussiana, onde podemos notar a presença dos parâmetros µ (média) e σ (desvio padrão). A média, ou valor mais provável, corresponde à posição central da PDF. O desvio padrão está associado à dispersão da FDP, ou seja, quanto maior o valor de σ, mais dispersos os valores da v.a. em questão estarão em relação à sua média. 36

37 Cálculo numérico de área de uma Gaussiana via função erfc(x) ou Q(x) Quando os problemas sobre probabilidade envolvendo uma v.a. Gaussiana demandam cálculos de área da FDP, nos deparamos com um obstáculo: o cálculo da área sob a cauda de uma Gaussiana não tem solução analítica exata. Nestes casos utilizamos as funções erfc(x) e Q(x) cujo objetivo é permitir um cálculo numérico dessa área. Tais funções são definidas por meio das expressões: erfc( x) = exp u du x π 1 u Q( x) = exp du π x Estas funções se relacionam por meio de: ( ) erfc( x) = Q x 1 x Q( x) = erfc. Muitos softwares de cálculo e até calculadoras mais modernas contêm ao menos uma dessas funções embutidas. Ainda assim, muitas referências contêm tabelas de valores destas funções para uma grande faixa de argumentos. Como alternativa, a expressão a seguir corresponde à expansão da função erfc(x) em uma série. Para 50 ou mais termos no somatório, o valor obtido com a série se aproxima bastante do valor exato da função. Verifique esta afirmação como exercício. A função Q(x) possui algumas aproximações, conforme ilustrado na figura a seguir, onde se pode identificar claramente em que faixa de valores do argumento tais aproximações são mais ou menos precisas. 37

38 Na apostila define-se ainda a função x u π 1 Φ ( x) = exp du, para a qual se apresenta uma tabela de valores no Apêndice F desta apostila. Portanto, observando a definição da função Q(x) dada anteriormente, facilmente chegamos à relação: Φ ( x) = 1 Q( x) Então, para uma v.a. Gaussiana de média µ e desvio padrão σ, a FDC pode ser calculada por meio de: x µ x µ F ( x) = Φ = 1 Q σ σ FIM DA AULA 38

39 Aula nº Data Tema Variáveis aleatórias - 4 Conteúdo Variáveis aleatórias múltiplas. Funções e transformações de variáveis aleatórias. Ao final da aula os alunos deverão ser capazes de: 1) realizar cálculos de Objetivos probabilidade envolvendo variáveis aleatórias múltiplas, funções de variáveis aleatórias e transformações de variáveis aleatórias. Variáveis aleatórias múltiplas Variáveis aleatórias múltiplas surgem em problemas nos quais estamos interessados no evento combinado de dois ou mais experimentos ou no evento combinado referente à repetição de um mesmo experimento. Como exemplo, quando analisamos o lance de um dado definimos uma única variável aleatória. Se lançarmos dois dados ou repetirmos o lance de um único dado, criaremos duas variáveis aleatórias sobre as quais poderemos extrair informações probabilísticas. A função de distribuição cumulativa conjunta para duas v.a. contínuas é definida por: Através desta função conseguimos obter probabilidades associadas à ocorrência conjunta das variáveis em questão. Independência de variáveis aleatórias Se as variáveis aleatórias em questão são independentes, encontramos a FDC ou a FDP conjuntas pela multiplicação das FDCs ou FDPs de cada uma das v.a. envolvidas, ou seja: Como exemplo, sejam duas variáveis aleatórias Gaussianas e Y, independentes e de mesmo desvio padrão. A FDP conjunta será dada pelo produto das correspondentes FDPs. O resultado será: f ( x, y) = f ( x) f ( y) Y Y 1 ( x µ ) 1 ( y µ Y ) = exp exp πσ σ πσ σ 1 ( x µ ) + ( y µ Y ) = exp πσ σ 39

40 Se esboçarmos esta função teremos como resultado a curva a seguir: Assim como qualquer FDP, a integral em todas as variáveis deve ter valor unitário: Obtendo densidades marginais a partir de densidades conjuntas A partir do conhecimento de densidades conjuntas, podemos determinar a FDC ou a FDP de cada uma das v.a. envolvidas. Nestes casos as FDPs ou FDCs obtidas são denominadas de densidades marginais. Para v.a. contínuas, encontramos a FDP de uma das variáveis integrando a FDP conjunta na outra variável: Para variáveis aleatórias discretas, encontramos a FMP (ou FDP) de uma das variáveis somando todas as probabilidades referentes à outra variável, ou seja: f ( x ) = f ( x, y ) f ( y ) f ( x, y ) i Y i j j= = Y i Y i j i= Transformação de FPDs A transformação de FDPs é uma ferramenta bastante útil para que tenhamos condições de conhecer a FDP simples (unidimensional) ou conjunta (multidimensional) de variáveis aleatórias que foram geradas pela modificação de outras variáveis aleatórias. Embora haja ferramentas que permitem a transformação de FDPs conjuntas com qualquer número de variáveis aleatórias, veremos apenas os casos particulares nos quais: a) um valor de uma das variáveis 40

41 corresponde a um único valor da outra e b) um par de valores de uma das variáveis conjuntas corresponde a um único par de valores da outra. Transformação de FPDs de primeira ordem Sejam e Y duas v.a. relacionadas por meio de Y = g(), onde g() é qualquer função que mapeia um valor da v.a. em um único valor da v.a. Y. Encontramos a FDP de Y utilizando a expressão: onde g () é o módulo da derivada de g() e g 1 (y) é a função inversa de y, ou seja, é simplesmente a função g() reescrita de tal forma que a variável x fique isolada. Por exemplo, se y = g(x) = ax + b, g 1 (y) = x = (y b)/a. Transformação de FDPs de segunda ordem Quando o problema de transformação envolve duas variáveis aleatórias, respeitada a condição acima, ou seja, um par de valores das variáveis U e V têm somente um par de valores correspondentes das variáveis e Y, e vice-versa, utilizamos as expressões a seguir: onde J(. ) é denominado Jacobiano da transformação e é dado pelo determinante: Apenas para relembrar, o determinante de uma matriz é calculado da seguinte maneira: a b ad bc c d = FIM DA AULA 41

42 Aula nº Data Tema Exercícios de fixação Conteúdo Exercícios de fixação sobre variáveis aleatórias. Objetivos Permitir que os alunos revisitem os conceitos teóricos e conheçam exemplos de aplicação destes conceitos na solução de problemas. 1) O tempo de espera,, para transmissão em um sistema de comunicação varia segundo um comportamento exponencial parametrizado por λ, isto é P[ > x] = e -λx, x > 0. Encontre a FDC de. Encontre P[T < T] para T = 1/λ. Solução no slide 14 ) O tempo de espera de um usuário em um sistema de filas é zero se ele encontra o sistema livre e é exponencialmente distribuído se ele encontra o sistema ocupado. As probabilidades de ele encontrar o sistema livre ou ocupado são p e (1 p), respectivamente. Encontre a FDC de. Solução no Slide 16 3) Um sistema de comunicação transmite informação binária através de um canal que introduz erros aleatoriamente distribuídos com probabilidade e = O transmissor transmite cada bit de informação três vezes (código de repetição) e o receptor decide sobre o bit transmitido com base em uma lógica majoritária. Qual seria a probabilidade do receptor errar a decisão? Solução no Slide 4 4) As solicitações de chamadas em ligações telefônicas chegam à central de comutação numa taxa de λ solicitações por segundo. Sabendo que o número de solicitações em um determinado intervalo é uma variável de Poisson, encontre a probabilidade de não haver solicitações de chamadas em um intervalo de t segundos. Encontre também a probabilidade de haver n ou mais solicitações nesse intervalo. Solução no Slide 7 5) O número de acessos a uma página da Internet em qualquer intervalo de observação é uma v.a. de Poisson. Suponha que a página do Inatel recebe em média acessos por segundo. Pede-se: a) Qual a probabilidade de não haver nenhum acesso no intervalo de 0,5 segundos? b) Qual a probabilidade de haver não mais que acessos no intervalo de 1 segundo? Solução a Seja N(T) o número de acessos em T segundos. Para T = 0,5 s, α = λt = acessos/segundo 0,5 segundo = 0,5 acessos. P[N(0,5) = 0] = p 0 0,5 0,5 (0) = e = 0, 607 0! Solução b Para T = 1 s, α = λt = acessos/segundo 1 segundo = acessos. 0 1 P[N(1) ] = p ( x) = e + e + e = 0,677 0! 1!! x= 0 4

43 6) Usando a aproximação da distribuição Binomial com a distribuição de Poisson, resolva: a probabilidade de erro de bit em um sistema de comunicação é de Encontre a probabilidade de um bloco de bits ter 5 ou mais bits em erro. Solução Neste caso temos um típico exemplo onde a distribuição Binomial parece ser aplicável, pois queremos encontrar a probabilidade de ocorrência de um determinado número de sucessos (erros de bit), x, em um número n de eventos de Bernoulli. Entretanto, no cálculo com a distribuição Binomial há o coeficiente binomial que requer que n! seja determinado. Neste exercício, como n = 1.000, o cálculo exato seria impraticável. Em situações como esta podemos aproximar a distribuição Binomial pela distribuição de Poisson, quando, adicionalmente, p tem valor pequeno. Para calcularmos P[ 5] torna-se mais fácil calcular 1 P[ < 5]: O parâmetro α é, neste caso, o número médio de bits em erro em um bloco de bits. Portanto, α = np = = 1. Então, 7) O tempo de vida de uma máquina tem distribuição exponencial. Determine a FDC e a FDP condicionadas ao evento A = { > t}, ou seja, a máquina ainda se encontra em funcionamento no instante t. Solução parcial no Slide 44. Dica para encontrar o intervalo de interseção: ver notas da aula 17. Para a solução deste problema precisamos lembrar, do Capítulo 1, que: P[A B] = P[A,B]/P[B] = P[A B]/P[B]. Assim podemos escrever: [{ },{ > }] [{ } { > }] P x t P x t F ( x > t) = P[ x > t] = = P[ > t] P[ > t] Para determinarmos a interseção contida na expressão acima vamos utilizar a figura a seguir, de onde P { x} { > t} = 0 para x t. Para percebemos que não haverá interseção enquanto x t. Então, [ ] x > t temos que calcular P[t < < x] = F (x) F (t). Então teremos: 0, F ( x > t) = F ( x) F ( t), 1 F ( t) x t x > t 43

44 Finalmente, derivando a FDC encontraremos a FDP de : d 1 d f ( x) f ( x) = F ( x) = ( F ( x) F ( t) ) = dx 1 F ( t) dx 1 F ( t) para x > t e f (x) = 0 em caso contrário. 8) Usando o resultado do exercício anterior, estime de forma aproximada a probabilidade de o tempo de vida da máquina estar entre,5 a 3 unidades de tempo, conhecendo ou não se conhecendo o dado adicional: a máquina está em funcionamento em t =. Solução A seguir temos as FDPs e FDCs referentes ao problema. Ambas foram plotadas de acordo com a distribuição exponencial em sua versão original e em sua versão condicionada, de acordo com o exercício anterior. Podemos calcular P[,5 3] pela área sob as FDPs ou por meio da subtração dos valores das FDCs nos pontos 3 e,5, como ilustrado nas figuras. Curiosamente P[,5 3 > ] é maior que P[,5 3]. Este resultado nos diz que o fato de conhecermos a situação de funcionamento da máquina no instante t = eleva a expectativa de que a máquina esteja funcionando entre,5 e 3 unidades de tempo. Por outro lado, se estivéssemos interessados na probabilidade da máquina estar funcionando num intervalo de 0,5 unidades de tempo após o instante 0 e após o instante, tendo notado que a máquina ainda não apresentou falha até o instante, chegaríamos aos mesmos resultados. 44

45 Estes exemplos nos mostram que uma v.a. com distribuição Exponencial não tem memória sobre as ocorrências do passado, ou seja, enquanto o evento de interesse não ocorrer, a probabilidade de ocorrência futura deste evento é a mesma que aquela que seria calculada considerando-se o instante 0 como referência. Por esta razão a v.a. com distribuição Exponencial é dita sem memória. Perceba que temos a mesma denominação dada á variável com distribuição Geométrica, o que faz sentido, pois podemos dizer que a Geométrica é a versão discreta da Exponencial. Outros exercícios para casa 1) Estude o Exemplo 1.1 na página 15 da apostila e, por indução, a partir dos resultados P[k = 0], P[k = 1], P[k = ] e P[k = 3], comprove a validade da expressão para a função densidade de probabilidade da distribuição Binomial apresentada no slide 3 do Capítulo. ) Sabendo que a estatura dos alunos do Inatel segue uma distribuição Gaussiana de média 1,65 m e desvio padrão de 0,1 m, determine a probabilidade de um estudante escolhido aleatoriamente ter estatura maior ou igual a 1,90 m. 3) Esboce, utilizando uma FDP Gaussiana f (x), os significados dos cálculos realizados pelas funções erfc(u), Φ(u) e Q(u) em termos de área sob f (x). 4) Dada a FDP conjunta abaixo, onde e Y são v.a. contínuas independentes, determine f (x). Dica: para resolver a integral que faz parte da solução do problema, reescreva-a utilizando a última diretiva do Apêndice A.5 da apostila, página 36. f Y 1 ( x µ ) + ( y µ Y ) ( x, y) = exp πσ σ 5) Duas linhas de produção fabricam certo tipo de peça. A capacidade de produção em qualquer dia é de 5 peças na linha I e de 3 peças na linha II. O número de peças realmente produzido em cada dia pelas duas linhas é uma v.a., onde (,Y) representa o número de peças produzidas pela linha I e pela linha II, conjuntamente. A tabela a seguir fornece a distribuição de probabilidades conjunta de (,Y). Calcule as probabilidades marginais e esboce as correspondentes FMPs. A título de curiosidade, veja como ficaria a FMP conjunta para o problema em questão: 45

46 6) As v.a. e Y têm FDP conjunta dada pela expressão a seguir. Pede-se: a) determine as FDPs marginais de e de Y. b) com base nos resultados obtidos, responda: as v.a. em questão são independentes? Justifique. Dica: utilize como auxílio a 4ª diretiva de integrais indefinidas do Apêndice A.4 da apostila, página 35. f Y ( λ x µ y λµ e + ), x 0, y 0 ( x, y) = 0, caso contrário 7) Seja uma v.a Gaussiana com FDP dada pela expressão abaixo. Pede-se: a) determine a FDP de Y = a + b. b) a partir do resultado obtido, determine µ Y e σ Y por comparação com a expressão de f (x). f 1 ( x µ ) ( x) = exp πσ σ 8) As variáveis aleatórias R e Θ têm a FDP conjunta dada a seguir. Utilizando as relações entre as variáveis, Y, R e Θ também dadas abaixo, determine a FDP conjunta de e Y, pede-se: a) determine as FDPs marginais de e de Y. b) responda: e Y são ou não são v.a. independentes? Justifique. f RΘ r r ( r, θ ) = exp πσ σ ( ) R Y Y R = + Θ = arctan / = cos Θ 9) Seja uma v.a. Gaussiana com FDP dada pela expressão abaixo e seja Y = ( µ)/σ. Mostre que f Y (y) é uma v.a. Gaussiana de média 0 e desvio padrão 1. f 1 ( x µ ) ( x) = exp πσ σ 10) Para melhor fixar os conceitos, refaça os exemplos da apostila e dos slides, referentes aos assuntos estudados no Capítulo. FIM DA AULA 46

47 Aula nº Data Tema Médias estatísticas - 1 Médias Estatísticas de Variáveis Aleatórias: média de variáveis aleatórias Conteúdo discretas e contínuas, média de funções de variáveis aleatórias, média da soma e do produto de variáveis aleatórias, momentos. Ao final da aula os alunos deverão ser capazes de: 1) conceituar o significado de média de uma v.a. discreta ou contínua. ) calcular a média para v.a. discretas ou contínuas. 3) calcular a média da soma e do produto de v.a. discretas ou contínuas. Objetivos 4) calcular os momentos de ordem n de uma v.a. discreta ou contínua. 5) interpretar os momentos de 1ª e ª ordens para v.a. de tensão ou de corrente. 6) aplicar os conceitos acima em cálculos de probabilidade. Conceito de média de uma variável aleatória A importância deste conceito reside no fato de que um determinado experimento aleatório não permite que conheçamos um resultado futuro qualquer, mas, se conhecemos algum comportamento de tendência média referente a este experimento é melhor que não conhecer nada. Em outras palavras, fenômenos aleatórios não permitem que tenhamos conhecimento preciso sobre um valor futuro, mas, felizmente, permite que tenhamos um conhecimento sobre seu comportamento médio. Seja uma v.a. que pode assumir K valores x 1,..., x K. Suponha que o experimento foi repetido N vezes, sendo m 1,..., m K o número de tentativas favoráveis aos resultados x 1,..., x K, respectivamente. Então o valor médio de é dado por: 1 m1 m m ( 1 1 ) K K K 1 K = m x + m x + + m x = x + x + + x N N N N No limite, quando N, m i /N tende à probabilidade de ocorrer x i. Portanto tem-se: K = i= 1 x p ( x ) i i O valor médio de uma v.a. é muitas vezes denominado de valor esperado e é representado pelo operador E[], onde se lê: média de, valor esperado de, ou ainda esperança de. A letra grega µ (mu) também é muito utilizada para identificar a média de uma variável aleatória. A média indica, em grande parte dos casos, a região da FDP ou da FMP com valores mais prováveis para a v.a. em questão. Excluem-se desta interpretação as variáveis aleatórias com distribuição uniforme e outras cuja densidade ou a função massa de probabilidade não sejam maiores em torno da média. Exemplo Usando o histograma a seguir, estime o valor médio da v.a. Binomial com parâmetros n = 10 e p = 0,. Compare com o cálculo exato de E[], lembrando que a FMP Binomial é dada por: n x p ( x) = p (1 p) x n x 47

48 Realizando o cálculo aproximado teremos: E[ ] E[ ] 1,947 Realizando o cálculo exato a partir da FMP Binominal teremos: 10 E xp x x x= 0 x= 0 x x 10 x [ ] = ( ) = 0, 0,8 = Como conclusão, observamos que o cálculo por meio do histograma se aproximou muito do cálculo exato da média da v.a. Binomial em questão. Exemplo Sendo x 1 correspondente ao valor 1 da v.a. Binomial, ou seja x 1 = 1, calcule a probabilidade P[ = x 1 ] e compare com o valor m 1 /N estimado a partir do histograma do exemplo anterior. Realizando o cálculo aproximado pela definição de probabilidade por freqüência relativa, teremos: P[ = 1] = 0, Realizando o cálculo exato a partir da FMP Binomial teremos: P [ = 1] = 0, 0,8 = 0, 68 Mais uma vez observamos a similaridade entre os resultados obtidos por meio do cálculo aproximado e do cálculo teórico. 48

49 Média de uma variável aleatória discreta e de uma função de uma v.a. discreta Os exemplos anteriores são, nitidamente, exemplos associados a v.a. discretas. Então podemos formalizar os resultados obtidos afirmando que a média de uma v.a. discreta qualquer pode ser calculada por: K E[ ] x p ( x ) = = i= 1 i i Se a variável em questão é função de uma outra variável, ou seja, se Y = g(), á média é calculada por meio de: Média de uma variável aleatória contínua e de uma função de uma v.a. contínua E[ ] x f ( x) = = Se a variável em questão é função de uma outra variável, ou seja, se Y = g(), á média é calculada por meio de: x Exemplo Calcular a média de uma v.a. contínua com distribuição Uniforme entre q/+µ e +q/+µ. Média da soma de variáveis aleatórias A média da soma de variáveis aleatórias é igual à soma das médias individuais. Para duas v.a. teremos: 49

50 E[ + Y ] = E[ ] + E[ Y ] Exemplo Sejam dois conjuntos de blocos de madeira. A altura dos blocos do primeiro conjunto é uma v.a. e a altura dos blocos do segundo conjunto é uma v.a. Y, cujas médias são E[] e E[Y]. Suponha agora que colocamos, um a um, os blocos do segundo conjunto sobre os blocos do primeiro. A altura dos blocos compostos será uma v.a. Z = + Y, cuja média será, obviamente, E[Z] = E[ + Y] = E[] + E[Y]. Média do produto de variáveis aleatórias independentes Se as v.a. são independentes, a média do produto destas variáveis é igual ao produto das médias individuais. Para duas variáveis teremos: E[ Y ] = E[ ] E[ Y ] Exemplo Suponha que o seguinte jogo seja inventado: lança-se uma moeda 3 vezes por rodada, definindo-se a v.a. como sendo o número de caras obtido a cada rodada. Os possíveis valores desta v.a. serão x i = 0, 1, e 3. Faz-se a mesma coisa com outra moeda, agora associada à v.a. Y. Ganha o jogo quem acertar o número de caras do evento combinado W = Y. Para aumentar suas chances de ganhar você poderia apostar no valor E[Y]. Então vejamos: calcule este valor para: a) moedas justas e b) moedas com probabilidade de cara p = 0,4. c) interprete os resultados e a influência da probabilidade de cara ou coroa de cada moeda na sua aposta. Nitidamente as v.a. em questão são independentes, pois o lance de uma moeda não influencia o lance da outra. Então, E[Y] = E[]E[Y]. Adicionalmente, percebemos que cada v.a. conta o número de sucessos (caras) em n = 3 experimentos de Bernoulli. Portanto, e Y são v.a. Binomiais. Assim teremos: a) Obviamente E[Y] terá o mesmo valor. Então E[W] = E[]E[Y] =,5 b) Para este caso, [W] = E[]E[Y] = 1,44 50

51 c) Observe que os valores das médias individuais e da média de W não são números inteiros, ou seja, neste caso as médias não representam os valores mais prováveis, dado que não é possível que o número de caras seja 1.5,.5, 1. ou Para uma análise mais aprofundada, em sendo independentes os eventos em questão, a densidade de probabilidade conjunta é o produto das densidades individuais. Para o problema teremos o produto de duas Binomiais com n = 3 e p = 0,5 para o item a e n = 3 e p = 0,4 para o item b. A seguir têm-se as distribuições de probabilidade p Y (x,y), para x = 0, 1, e 3 e y = 0, 1, e 3. Observe que para p = 0,5 os valores mais prováveis são 1 e, tanto para quanto para Y. Portanto, apostar nos resultados 1, ou 4 para o produto você teria a mesma chance de ganhar. Observe agora que para p = 0,4 os valores mais prováveis são 1 para e para Y. Portanto, apostar no resultado 1 para o produto aumentará sua chance de ganhar. p = 0,5 p = 0,4 Como complemento, veja as correspondentes FMPs. As barras de maior amplitude (em vermelho) indicam os valores mais prováveis para o experimento. p = 0,5 p = 0,4 Momentos para uma variável aleatória A média de uma v.a. não tem somente o significado estudado até aqui. Se modificarmos uma v.a., por exemplo elevando-a a um expoente inteiro, definimos um outro tipo de média cujo significado físico dependerá da natureza da v.a. em questão. Médias calculadas desta maneira são genericamente 51

52 denominadas de momentos. Mais adiante veremos alguns significados físicos de interesse para o nosso curso, quando as v.a. sob análise são obtidas a partir de sinais aleatórios de tensão ou de corrente. O n-ésimo momento de uma v.a. é definido como o valor esperado da n-ésima potência de : = n n E[ ] x f ( x) dx O n-ésimo momento central de uma v.a. é seu momento ao redor de seu valor médio m, e é dado por: n n E[( ) ] = ( x ) f ( x) dx O segundo momento central de uma v.a. é chamado de variância e é calculado por meio de: var[ ] = [( ) ] = σ = ( ) ( ) E x f x dx Observe que o cálculo do valor esperado de uma v.a. contínua corresponde à integral do produto da sua FDP pelo argumento A do operador E(A), substituindo as v.a. em letra maiúscula pela variável minúscula correspondente. Para v.a. discreta faz-se observação análoga. Vamos agora expandir a expressão de definição da variância: ( ) De onde tiramos o importante resultado: σ = E E[ ] = E E[ ] + E [ ] [ ] [ ] [ ] = + = E E E E E [ ] E E σ = E[ ] E [ ] Exemplo Usando o resultado anterior vamos determinar a variância de uma variável aleatória Gaussiana. Encontraremos como resultado: [ ] ( ) var( ) = E E = σ + µ µ = σ. Propriedades da variância A variância de uma constante é nula: se = a sempre, var[] = var[a] = 0. A variância independe da média: Se Y = + b, var[y] = var[] + var[b] = var[]. Se Y = a, var[y] = a var[]. 5

53 Alguns significados físicos para os momentos Considere um sinal aleatório de tensão ou corrente (t) e suas possíveis realizações (t,ζ 1 )... (t,ζ 4 ), conforme ilustração a seguir. Se amostrarmos este conjunto de formas de onda em t 1 e t, o conjunto de amostras comporá as variáveis aleatórias (t 1 ), ou simplesmente 1 e (t ), ou simplesmente, com valores x 1 e x. Suponha adicionalmente que as características estatísticas de 1 e não dependem dos valores específicos de t 1 e t, mas dependem somente do intervalo t t 1. Poderemos ter os seguintes significados físicos envolvendo, se o sinal amostrado for um sinal aleatório de tensão: FIM DA AULA 53

54 Aula nº Data Tema Médias estatísticas - Médias Estatísticas de Variáveis Aleatórias continuação: momentos conjuntos, Conteúdo variáveis aleatórias descorrelacionadas, ortogonais e independentes, coeficiente de correlação. Ao final da aula os alunos deverão ser capazes de: 1) conceituar momentos conjuntos, especialmente o primeiro momento conjunto (correlação) e o primeiro momento conjunto central (covariância). ) realizar, na prática, estimativas de um Objetivos momento qualquer a partir de amostras. 3) conceituar o significado do coeficiente de correlação, calcular seu valor e interpretar o resultado. 4) conceituar o significado de variáveis aleatórias descorrelacionadas, ortogonais e independentes. Momentos conjuntos Os momentos conjuntos para um par de variáveis aleatórias são definidos por: Os momentos conjuntos centralizados (desconsiderando-se as médias) são definidos por: Como estimar na prática os momentos de uma variável aleatória Em grande parte dos problemas práticos não temos conhecimento prévio das densidades de probabilidade das variáveis aleatórias envolvidas, o que nos impede de realizar os cálculos exatos dos momentos de interesse. Ainda assim, se tivermos um número suficientemente grande de amostras das v.a. sob análise podemos estimar seus momentos e, utilizando histogramas, estimar até suas densidades de probabilidade para que cálculos futuros ou a comprovação das estimativas possam ser realizados. Pois bem, inicialmente perceba que todos os momentos estudados têm em sua definição um cálculo de valor esperado do tipo E[Y] = E[g()]. Recorde agora que o valor esperado nada mais é do que a média da v.a. definida segundo o argumento g(). Então, se tivermos uma grande quantidade de amostras da v.a. original, podemos aplicar a eles a transformação dada por g() e tentar realizar um cálculo tão próximo quanto possível de: N N 1 1 E[ Y ] = E[ g( )] = lim y = lim g( xi ) N N i N i= 1 N i= 1 Exemplo Vamos estimar alguns momentos para uma v.a. para a qual foram obtidas as amostras x i, i = 1, , mostradas no quadro a seguir. Suponha que tais amostras foram obtidas a partir da medida da estatura de 100 alunos do Inatel. 54

55 Média = primeiro momento: E[ ] = µ xi = 1, Valor quadrático médio = segundo momento: Variância = segundo momento central: i= 1 1 E[ ] ( ) =, xi 100 i= 1 1 E[( µ ) ] = var[ ] ( x µ ) = 7, i 100 i= 1 Desvio padrão = raiz quadrada da variância: σ Cálculo alternativo da variância: σ = E[ ] E [ ] =,773 1,663 = 3 var[ ] = = 7, , 085 7, Abaixo se tem o histograma para a v.a. em questão e uma função densidade de probabilidade gaussiana sobreposta. Embora possamos supor que tal v.a. tem distribuição Gaussiana, apenas um número bastante elevado de amostras permitiria que o histograma convergisse, em formato, para a FDP procurada. Talvez chegássemos à conclusão que tal v.a. não é Gaussiana... Correlação entre variáveis aleatórias A correlação entre duas v.a. é dada pelo primeiro momento conjunto destas variáveis, ou seja: 55