Probabilidade Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Experimento aleatório Definição. Qualquer experimento cujo resultado não pode ser previsto com certeza absoluta é chamado de experimento aleatório. Alguns exemplos, 1. Em uma linha de produção selecionar lotes de peças e contar o número de defeituosas. 2. Contar o número de chamadas que chegam a uma central telefônica por hora. 3. Medir o tempo de duração de lâmpadas selecionadas de uma linha de produção.
Espaço Amostral e Eventos O espaço amostral é conjunto de todos os possíveis resultados de um experimento aleatório, que aqui será denotado por S. Qualquer subconjunto A de S (i.e. A S) é chamado de evento.
Alguns Exemplos 1. Lançamento de uma moeda e observação da face superior. S = {cara, coroa}, A = {cara}. 2. Lançamento de um dado e observação da face superior. S = {1, 2, 3, 4, 5, 6}, A = {2, 4, 6} 3. Contagem do número de peças defeituosas em um lote com 100 peças. S = {0, 1, 2,..., 100}, A = {0, 1,..., 10} 4. Medição do tempo de vida de um equipamento eletrônico em horas. S = (0, ), A = (0, 100].
Operações com Eventos Para dois eventos A e B quaisquer, A união entre eles (A B) ocorre se somente se pelo menos um deles ocorre. Em outras palavras, se ocorre apenas o evento A, ou ocorre apenas o evento B, ou ambos ocorrem simultaneamente. Podemos dizer ainda que A ou B ocorrem. A interseção entre eles (A B) ocorre se somente se ambos ocorrem simultaneamente, isto é, A e B ocorrem. Em particular, se A B = dizemos que A e B são mutuamente exclusivos. Se A não ocorre dizemos que ocorre o seu complementar, A.
As operações de interseção e união são comutativas, A B = B A e A B = B A. A e B são iguais se somente se A B e B A. As definições valem para um conjunto enumerável de eventos A 1, A 2,... e i=1 A i Por exemplo, A 1 A 2 A 3 ocorre se ocorre A 1 ou A 2 ou A 3 ou A 1 A 2 ou A 1 A 3 ou A 2 A 3 ou A 1 A 2 A 3. i=1 A i
Sejam A, B e C eventos quaisquer. Valem as propriedades, A S = A, A S = S, A = e A = A. A A =, A A = S, A A = A e A A = A. A B = A B e A B = A B. A = (A B) (A B).
Definições de Probabilidade A cada possivel evento A S podemos associar um número real P(A) denominado probabilidade do evento A tal que, 1. 0 P(A) 1, 2. P(S) = 1, 3. P(A 1 A 2 ) = P(A 1 ) + P(A 2 ), se A 1 A 2 =. Generalização, P(A 1 A 2 A n ) = P(A 1 ) + P(A 2 ) + + P(A n ), se A i A j =, para todo i j.
Definição Clássica de Probabilidade Neste caso, obter P(A) consiste em contar o número de resultados favoráveis ao evento A e dividir pelo número de resultados possiveis do experimento. P(A) = número de resultados favoráveis a A número de resultados possiveis Esta definição só faz sentido quando o espaço amostral é finito de modo que possamos fazer as contagens requeridas, e se todos os possiveis resultados tem a mesma chance de ocorrer.
A partir destes axiomas outras propriedades bastante úteis podem ser obtidas, por exemplo 1. P(A) = 1 P(A) onde A é o evento complementar de A. 2. P(A A) = 1 3. P( ) = 0. 4. Se A B então P(A) P(B). 5. P(A B) = P(A) + P(B) P(A B).
Probabilidade Condicional e Independência Para dois eventos A e B, sendo que P(B) > 0, definimos a probabilidade condicional de A dado que B ocorreu como P(A B) = P(A B). P(B) Todas as propriedades vistas anteriormente continuam válidas para probabilidades condicionais. Por exemplo, P(A B) = 1 P(A B).
A partir desta definição obtemos a chamada regra do produto de probabilidades, P(A B) = P(A B)P(B). P(A B), P(A, B) ou P(AB) é a probabilidade conjunta dos eventos A e B. P(A) e P(B) são chamadas probabilidades marginais dos eventos A e B.
Exemplo. Duas bolas são retiradas ao acaso de uma urna contendo 2 bolas brancas (B) e 3 vermelhas (V ), sem reposição. Os possíveis resultados do experimento são {BB, BV, VB, VV } e suas probabilidades são, P(B B) = P(B)P(B B) = 2 5 1 4 = 2 20 P(B V ) = P(B)P(V B) = 2 5 3 4 = 6 20 P(V B) = P(V )P(B V ) = 3 5 2 4 = 6 20 P(V V ) = P(V )P(V V ) = 3 5 2 4 = 6 20.
Imagine agora que as retiradas são feitas com reposição. Neste caso a informação sobre a cor da bola na primeira retirada não altera em nada chances de obtermos uma bola branca na segunda retirada. Em outras palavras, P(B V ) = P(B B) = P(B) e dizemos que as retiradas são independentes.
Em geral dizemos que dois eventos A e B são independentes se e somente se P(A B) = P(A) e P(B A) = P(B) e isto também equivalente a dizer que P(A B) = P(A)P(B). O conceito de independência pode ser estendido a um número qualquer de eventos, i.e. P(A 1 A k ) = P(A 1 )... P(A k ) se somente se os eventos A 1,..., A k forem independentes.
Regra do produto para n eventos Uma forma de escrever a probabilidade conjunta dos eventos A 1, A 2,..., A n, P(A!, A 2,..., A n ) = P(A! A 2,..., A n )P(A 2,..., A n ) = P(A! A 2,..., A n )P(A 2 A 3,..., A n )P(A 3,..., A n ). = P(A! A 2,..., A n )P(A 2 A 3,..., A n ) P(A n 1,..., A n )P(A n )
Teorema de Bayes Suponha que os eventos A 1, A 2,..., A k são dois a dois mutuamente exclusivos e a união deles é o próprio espaço amostral. Um destes eventos necessariamente irá ocorrer porém dois deles não podem ocorrer simultaneamente, A 1 A 2 A k = S e A i A j =, i j. Qualquer outro evento B pode ser escrito como B = (B A 1 ) (B A 2 ) (B A k ) sendo que estes k eventos do lado direito também são mutuamente exclusivos (verifique!).
Além disso, P(B A j ) = P(B A j )P(A j ), j = 1,... k e portanto podemos escrever que, P(B) = P(B A 1 ) + P(B A 2 ) + + P(B A k ) = P(B A 1 )P(A 1 ) + P(B A 2 )P(A 2 ) + + P(B A k )P(A k ) = k P(B A j )P(A j ). j=1
Em muitas aplicações conhecemos as probabilidades do lado direito desta igualdade e estaremos interessados em calcular a probabilidade de um dos eventos A i ocorrer dado que B ocorreu, P(A i B) = P(A i B) P(B) = P(B A i )P(A i ) k j=1 P(B A j)p(a j ).
Chamamos esta última igualdade de teorema de Bayes ou regra de Bayes, que nos mostra como atualizar a nossa crença no evento A i após receber novas informações (i.e. que B ocorreu). P(A i ) é a probabilidade a priori do evento A i, porque antecede a informação sobre o evento B. P(A i B) é a probabilidade a posteriori do evento A i porque é calculada após termos informação sobre B. Para um valor específico de B, P(B A i ) é chamada função de verossimilhança de A i.
Exemplo. Um médico, ao examinar uma pessoa, desconfia que ela possa ter uma certa doença. Baseado na sua experiência, ele assume que a probabilidade do paciente ter a doença é 0.7. Para aumentar sua quantidade de informação sobre a doença o médico aplica um teste que tem probabilidades 0.4 e 0.95 de dar resultado positivo em pessoas sadias e pessoas doentes respectivamente. Sabendo que o teste deu positivo como fica a probabilidade da pessoa ter a doença?
Aqui o evento de interesse é A= o paciente tem a doença e definimos o evento B= teste deu resultado positivo. Assim, P(B Ā) = 0.4 e P(B A) = 0.95. É bem intuitivo que a probabilidade de doença deve ter aumentado após este resultado e a questão aqui é quantificar este aumento. Usando o teorema de Bayes segue que, P(A B) = = P(B A)P(A) P(B A)P(A) + P(B A)P(A) (0.95)(0.7) (0.95)(0.7) + (0.40)(0.30) = 0.847.
Exemplo. Duas bolas foram retiradas ao acaso de uma urna contendo 2 bolas brancas (B) e 3 vermelhas (V ), mas não sabemos se as retiradas foram com ou sem reposição. Definindo o evento A= retiradas com reposição gostariamos de calcular a probabilidade de A à luz do resultado do experimento (B B). Suponha que antes do sorteio não temos informação sobre o tipo de experimento (com ou sem reposição) e atribuimos a probabilidade a priori P(A) = 0.5.
Usando o Teorema de Bayes obtemos que, P(A BB) = = P(BB A)P(A) P(BB A)P(A) + P(BB A)P(A) 0.16 0.5 0.16 0.5 + 0.1 0.5 = 0.615. Assim, é mais provável agora (a posteriori) que o experimento tenha sido com reposição.
Exemplo. Dentre N moedas em uma caixa, sabe-se que uma delas tem 2 caras. Uma moeda é selecionada ao acaso da caixa e é lançada k vezes. Se o resultado foi cara nos k lançamentos, qual a probabilidade de que a moeda de 2 caras tenha sido selecionada?
Denotamos por A k o evento de que a moeda selecionada foi lançada e resultou em k caras. Sejam também os eventos H 1 : a moeda tem 2 caras e H 2 : a moeda é honesta. As probabilidades a priori são P(H 1 ) = 1 N e P(H 2) = N 1 N e as probabilidades condicionais são P(A k H 1 ) = 1, k = 1,..., N e P(A k H 2 ) = 1 2 k. Portanto, pela fórmula de probabilidade total segue que P(A k ) = P(A k H 1 )P(H 1 ) + P(A k H 2 )P(H 2 ) = 2k + N 1 2 k N e finalmente, P(H 1 A k ) = 2 k 2 k + N 1.
Em muitas situações podemos estar interessados em comparar probabilidades a posteriori através da razão, P(A i B) P(A j B). Quanto o evento A i é mais provável do que o evento A j após observar o evento B? Aplicando o teorema de Bayes ao numerador e denominador e notando que P(B) se cancela obtemos que P(A i B) P(A j B) }{{} razão de chances a posteriori = P(B A i) P(B A j ) }{{} fator de Bayes P(A i ) P(A j ). }{{} razão de chances a priori
Exemplo. No exemplo da doença. 1. ter a doença era 2.33 vezes mais provável do que não ter a doença antes de realizar o teste. 2. Após realizar o teste e obter resultado positivo, o fator de Bayes indicou que ter a doença era 2.37 vezes mais plausível do que não ter. 3. Combinando estas duas informações conclui-se que ter a doença ficou 5.54 vezes mais provável a posteriori.
Exemplo. No exemplo da urna temos que, P(A BB) P(A BB) = 0.615 1 0.615 = 1.597 Portanto, é 1.597 vezes mais provável que o experimento tenha sido com reposição.