Probabilidade Revisão de Conceitos Espaço de Amostras A totalidade dos possíveis resultados de um experimento aleatório. Exemplo: jogar dados S = {(1,1),(1,),... (,1),(,)... (6,6)} S é dito o número de elementos de S Propriedades: pode ser finito, contável infinito (pode-se fazer uma relação com números naturais), não contável (não enumerável ou contínuo). Evento Um evento é uma coleção de pontos de amostra. Exemplo: as jogadas de dois dados cuja soma é 7 (evento E) Probabilidades associadas a eventos Dado um evento E, P(E) é a medida de probabilidade associada ao evento E. Para E equivalendo a um ponto de amostra (s): P(E) = P(s) Para E equivalendo a vários pontos de amostra: Exemplo: E acima é {(1,6),(,5),(3,4),(4,3),(5,),(6,1)} P(E)=6/36=1/6 Amostras ordenadas e reposição P ( E) = P( s ) O exemplo acima supõe amostras ordenadas, com reposição. Ordenada significa que a ordem importa, por exemplo: (,5) é diferente de (5,), sendo dois pontos amostrais. Reposição significa que o mesmo elemento do alfabeto pode constar na amostra: (,). No entanto temos situações onde amostras são desordenadas e onde não há reposição. Amostras ordenadas sem reposição: Exemplo: Qual a probabilidade de uma seqüência aleatória de 3 letras não ter nenhuma repetida? Para tal temos que saber o número total de seqüências aleatórias de 3 letras ( S ) e saber o número de seqüências aleatória de 3 letras sem repetição ( E ). Sendo o alfabeto de 6 (n=6) e o tamanho da amostra 3 (k=3) letras: 3 S = n k = 6 s E i i
O número de amostras sem repetição é: n! E = 6 * 5 * 4 = n * ( n 1) * ( n ) = ( n k )! (ou a permutação de n elementos k a k) E Finalmente, P ( E) = S Amostras não ordenadas sem reposição: Para alguns experimentos, a ordem da amostra não importa. Exemplo: Uma caixa tem 75 chips bons e 5 defeituosos. 1 chips são selecionados de maneira aleatória. Qual a probabilidade de ao menos um chip selecionado ser defeituoso? Nem sempre os dados do problema são mapeados diretamente para um modelo matemático. Neste caso é mais fácil pensar na probabilidade de nenhum chip escolhido ser E defeituoso ( E ) e calcular o complemento, onde P ( E) = S S é o número de combinações de 100 elementos 1 a 1 E é o número de combinações de 75 elementos 1 a 1 n n! A combinação de n elementos, k a k, é dada por = k k!*( n k )! Por fim, P( E) = 1 P( E) Exercício: Qual a probabilidade de ao menos pessoas fazerem aniversário no mesmo dia, em um universo de n pessoas? Quer-se uma resposta matemática que sirva para qualquer n positivo. Sabe-se que: se n<, P=0 se n>365 P=1 e para os outros casos? Novamente, Solução deixada é mais para fácil o aluno! calcular a probabilidade de pessoas não fazerem aniversário no mesmo dia e então aplicar o complemento. Esta é dada por: 365 1 365 365 3 P( E) = (1* * * 365 365 365 n 1 365 i = i= 0 365 Por fim, P( E) = 1 P( E) *... * 365 ( n 1) ) = 365
Probabilidade Condicional Considere que uma caixa tem 5000 chips. 1000 feitos pela cia. e o resto por cia. Y. 10% dos chips feitos por são defeituosos e 5% dos feitos por Y são defeituosos. Suponha que você aleatoriamente tira um chip da caixa e que o mesmo é defeituoso, qual a probabilidade deste chip ter sido fabricado pela cia.? Este problema fica bem modelado com probabilidades condicionais. Defina-se o evento A como sendo chip feito por e evento B como sendo chip defeituoso e calcule-se a P(A B). A solução é deixada ao aluno. Ver [Tri0], pág 5. Independência de Eventos Se a probabilidade de um evento A não muda caso um evento B tenha acontecido (ou não), os eventos são ditos independentes: P(A B)=P(A) Variáveis Aleatórias Tratar o espaço de amostras de um experimento pode ser trabalhoso. Muitas vezes se faz necessária uma forma mais compacta de descrever um experimento. Além disso, para o tratamento matemático do problema, é interessante poder associar valores com os possíveis resultados de um experimento. Variáveis aleatórias são então introduzidas. Seja S o espaço associado ao experimento. Uma função, que associe a cada elemento s S um número real (s) é denominada variável aleatória. Ou seja, uma variável aleatória é uma função. s Variável aleatória (s) Exemplo 1: seja o experimento o lançamento de duas moedas; : nº de caras obtidas nas duas moedas; S={(c,c), (c,r), (r,c),(r,r)} =0 corresponde ao evento (r,r) com probabilidade ¼ = 1 corresponde aos eventos (r,c), (c,r) com probabilidade /4 = corresponde ao evento (c,c) com probabilidade ¼.
Assim, uma variável aleatória mapeia um espaço de amostras em um conjunto de eventos mutuamente exclusivos (um ponto amostral não pertence a dois eventos distintos) e coletivamente exaustivo (todo conjunto S é mapeado). Variáveis Aleatórias Discretas Uma função, definida sobre o espaço amostral e assumindo valores num conjunto enumerável de pontos do conjunto real, é dita uma variável aleatória discreta. Uma variável aleatória do tipo discreto estará bem caracterizada se indicarmos os possíveis valores x 1, x,, x k que ela pode assumir e as respectivas probabilidades p(x 1 ), p(x ),, p(x k ), ou seja, se conhecemos a sua função de probabilidade (x; p(), onde p( = P( = = ( s ) = x P( s) Dada a função de probabilidade, chamamos de função de distribuição de probabilidade ou função cumulativa de probabilidade a: F ( t) = P( x t Esta função ajuda a calcular a probabilidade de um conjunto de eventos de interesse. Por exemplo, a probabilidade de obter uma ou menos caras no lançamento de duas moedas é dado por: 3 F (1) = P( = P( = 0) + P( = 1) = x 1 4 Assim, informalmente, t é o ponto até onde se acumula a probabilidade. Com isto pode-se calcular probabilidades para intervalos: P( a p b) = P( b) P( a) = F ( b) F ( a) Relembrando: Dada a v.a. discreta, assumindo os valores x 1, x,, x k, chamamos esperança matemática de ao valor: Chamamos variância de ao valor: e de desvio padrão de a E( ) = x p( Var( ) = E( onde E( ) [ E( )] ) = x p( DP ( ) = Var( )
Variáveis Aleatórias Contínuas Uma variável aleatória cujos valores são expressos em uma escala contínua é dita uma variável aleatória contínua. Podemos construir modelos teóricos para v.a. s contínuas escolhendo adequadamente a função de densidade de probabilidade (f.d.p.), que é uma função indicadora da probabilidade nos possíveis valores de. Teoricamente, qualquer função f( que seja não negativa e cuja área total sob a curva seja igual à unidade, ou seja, f ( dx =1 caracterizará uma v.a. contínua. Assim, a área sob a f.d.p. entre dois pontos a e b nos dá a probabilidade da variável assumir valores entre a e b, conforme ilustrado na figura 1 a seguir. P(a<<b) Figura 1 Probabilidade como área sob a curva entre dois pontos Portanto, podemos escrever: Se é uma v.a. contínua com f.d.p. f( definimos a sua função de distribuição acumulada F( como: Relembrando: Dada a v.a. contínua, assumindo os valores no intervalo entre a e b, chamamos valor médio ou esperança matemática de ao valor b a E ( ) = x f ( dx a b P ( a < < b) = f ( dx x F ( = P( = f ( t) dt b a
Chamamos variância de ao valor Var( ) = E( onde E( e de desvio padrão de a b ) [ E( )] ) = x f ( dx a DP ( ) = Var( ) Distribuições Discretas de Probabilidade Distribuição de Binomial Um experimento de Bernoulli é um experimento aleatório onde o resultado pode ser um Sucesso (s) (se acontecer o evento que nos interessa) ou um Fracasso ( f) (o evento não se realiza). Seja a variável aleatória: Sucesso (1) ou Fracasso (0), p = P( = 1) q = 1 p = P( q p = 0) x < 0 0 F( = 0 x p 1 1 x 1 1 p+q=1 q q 0 1 Função de probabilidade 0 1 Função de distribuição de probabilidade Considere o experimento de Bernoulli repetido n vezes de maneira independente, tendo probabilidade de sucesso p em cada tentativa. A distribuição binomial diz a probabilidade de k sucessos, k de 1 a n. Como exemplo, temos a seguinte função de probabilidade (para n=10 e p=0,75) e distribuição de probabilidade consequente:
1, 1 0,8 CDF 0,6 0,4 0, 0 0 1 3 4 5 6 7 8 9 10 x Distribuição Geométrica Considere que você está fazendo tentativas de Bernoulli, mas quer medir o número de tentativas necessárias para obter o primeiro sucesso. S é contável infinito. Esta é a distribuição geométrica. Dada a independência das tentativas, a probabilidade de cada tentativa ter resultado sucesso ou fracasso é a mesma. Desta forma: a probabilidade da tentativa 0 ter sucesso é p; a probabilidade de obter sucesso na tentativa 1 é q.p (ou seja a probabilidade de um fracasso * a probabilidade de um sucesso), a probabilidade de obter sucesso na tentativa é q.q.p (ou seja a probabilidade de dois fracassos * a probabilidade de um sucesso), a probabilidade de obter sucesso na i-ésima tentativa é q i p (ou seja a probabilidade de i fracassos * a probabilidade de um sucesso),
Assim, fica definida a função de probabilidade e a função de distribuição de probabilidade como: O atrativo da distribuição geométrica é que ela é a única distribuição discreta com a característica sem memória ( memoryless ). Isto quer dizer que o resultado futuro é independente de eventos passados. Exemplos de aplicações: A probabilidade de um produto ser gerado com defeito é p, independentemente de resultados anteriores. A probabilidade do i-ésimo produto ter defeito é regida pela fórmula px(i) acima. Ao final de um time-slice a probabilidade de um processo ter acabado sua execução é p. A função de probabilidade indica o número de time-slices adicionais necessários para acabar a execução. O número de consultas locais a um banco de dados entre acessos sucessivos a uma base de dados remota. O número de pacotes transmitidos com sucesso entre os pacotes que necessitem retransmissão. O número de bits sem erros entre bits com erro em um pacote recebido de um enlace com ruído. 0,5 P=0,50 0,4 0,3 0, 0,1 0 1 3 4 5. Função de probabilidade Distribuições Contínuas de Probabilidade Distribuição exponencial A distribuição exponencial é de especial interesse nesta disciplina pois, assim como a distribuição geométrica (discreta), apresenta também a característica de ser memoryless. Esta distribuição é comum em cálculos de confiabilidade e teoria das filas. Exemplos de variáveis aleatórias modeladas com distribuição exponencial são: Tempo entre chegadas de jobs sucessivos a um servidor;
Tempo de serviço em uma fila de espera; Tempo para uma falha de um componente. Como estamos tratando em um universo contínuo, não podemos, a exemplo da distribuição exponencial, pensar em probabilidade de sucesso na próxima tentativa, mas sim podemos pensar em unidades, de uma escala contínua, necessárias para que o evento ocorra. Isto é mais naturalmente associado aa escala de tempo (exemplos acima). Assim, as funções densidade de probabilidade e de distribuição acumulada são, respectivamente: Onde 1 / λ é a média de tempo entre eventos de interesse. Ou seja, a medida que λ aumenta, aumenta a freqüência de ocorrências do evento. Se aumenta a freqüência de ocorrência de evento, aumenta a possibilidade do evento acontecer em pouco tempo. Assim, no gráfico abaixo, para curvas com λ maior nota-se o aumento da área da curva nos valores iniciais de x, que representa o tempo para um próximo evento de interesse.
Processos Estocásticos Um processo estocástico é uma família de variáveis aleatórias {(t) t E T}, onde T é um conjunto índice, podendo ser contínuo. Os valores assumidos por (t) são os estados. A totalidade destes estados forma o espaço de estados. Uma variável aleatória é uma função definida no espaço de amostras S. Assim, a família de variáveis aleatórias é uma família de funções {(t,s) s E S, t E T}. A cada instante ti temos ti(s)=(ti,s) uma variável aleatória. Espaço de estados e tempo podem ser discretos ou contínuos. Estado discreto: processo também é chamado cadeia ( cadeias de Markov). Exemplo: Considere um sistema computacional com jobs chegando aleatoriamente no tempo, sendo enfileirados para serviço, e saindo do sistema depois de serem servidos. Random arrivals Inter arrival time distribution fn. F Y Queue (waiting station) m servers Service time distribution fn. F S
1) seja Nk o número de jobs no sistema no tempo da saída do k-ésimo job, o processo estocástico Nk tem tempo e espaço discretos. ) Seja (t) o número de jobs no sistema ao longo do tempo t. Este processo estocástico é espaço discreto e tempo contínuo.
3) Seja Wn o tempo que o n-ésimo job espera no sistema antes de receber o serviço. Este processo é tempo discreto e espaço contínuo. 4) Seja Y(t) denotando a totalidade de recursos necessários (exemplo, tempo de cpu) de todos os jobs no tempo t, este processo é dito estado contínuo e tempo contínuo. Classificação de Processos Estocásticos Processo estacionário: quanto não muda com o avançar do tempo t. Processo de Markov: Ou seja, se o próximo estado do processo depende somente do estado atual, i.e., os estados passados não importam na determinação do estado futuro. Bibliografia [Tri0] Trivedi, Kishor S. Probability and Statistics with Reliability, Queuing and Computer Science Applications. a Edição. New York. John Wiley & SONS, INC. 00.
[TriAp] Material de apresentações de Kishor S. Trivedi disponíveis na Internet. http://www.cse.iitk.ac.in/users/cs698g/short_course/lecture_notes/, acessado em 03/08/04. [Lucio] Material de aula cedido por Lucio Duarte. [Sonia] Notas de aula de Sonia Maria Barros Barbosa Correa, PUC Minas, disponíveis na Internet., acessado em 0/03/04