Algoritmos Probabilsticos. Jair Donadelli

Documentos relacionados
CAMINHOS, CIRCUITOS, CAMINHOS MÍNIMOS E CONEXIDADE

Métodos Estatísticos Básicos

Sumário. 2 Índice Remissivo 12

Espaço amostral Ω: Conjunto enumerável de todos os possíveis resultados de um experimento aleatório. um evento elementar. E = E[X j ] X j.

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina. TE802 Conceitos Básicos de Teoria de Probabilidade. Evelio M. G.

TE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina Notes. Processos Estocásticos em Engenharia Conteúdo Notes.

1.2 Subgrafos. 8 Conceitos Basicos

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:

Reviso de Teoria da Medida e Elementos Bsicos de Probabilidade

Teoria da Probabilidade

GBC083 - Segurança da Informação Aula 2 - Sigilo Perfeito. 28 de Março de 2016

2 Conceitos de Teoria da Probabilidade

PROVA 2 DE MATEMÁTICA DISCRETA 2O. SEMESTRE DE 2008

Probabilidades. Wagner H. Bonat Elias T. Krainski Fernando P. Mayer

Resumo. Parte 2 Introdução à Teoria da Probabilidade. Ramiro Brito Willmersdorf Introdução.

Capítulo 1. Fundamentos

AKS: um algoritmo para identificar números primos

Complexidade computacional

MATRIZES - PARTE Mais exemplos Multiplicação de duas matrizes AULA 26

Processos de Markov a Tempo Contínuo e Sistemas de Partículas Parte 2

Ciclo 3 Encontro 2 PROBABILIDADE. Nível 3 PO: Márcio Reis 11º Programa de Iniciação Científica Jr.

ELEMENTOS DE PROBABILIDADE. Prof. Paulo Rafael Bösing 25/11/2015

Estatística e Modelos Probabilísticos - COE241

Uma breve introdução a probabilidade

CAMINHOS, CIRCUITOS E CAMINHOS MÍNIMOS

PCC104 - Projeto e Análise de Algoritmos

EST029 Cálculo de Probabilidade I Cap. 3: Probabilidade Condicional e Independência

= (365 k + 1). (365 k)! = 1.

1 Probabilidade: Axiomas e Propriedades

INTRODUÇÃO À PROBABILIDADE

MAT Álgebra Linear I Física - Diurno Exercícios para a 1ªProva

Capítulo 1. Fundamentos

Estatística e Modelos Probabilísticos - COE241

Existem infinitos números de Carmichael, mas não provaremos isso neste curso.

Aula - Introdução a Teoria da Probabilidade

1 Introdução. 2 Preliminares. Séries de Hilbert de algumas álgebras associadas a grafos em níveis via cohomologia de conjuntos parcialmente ordenados

Base Matemática Probabilidade

REGRAS PARA CÁLCULO DE PROBABILIDADES

Métodos Quantitativos para Ciência da Computação Experimental. Jussara Almeida DCC-UFMG 2016

03 Análise de Algoritmos (parte 3) SCC201/501 - Introdução à Ciência de Computação II

AGA Análise de Dados em Astronomia I. 2. Probabilidades

Teste à Primalidade. (Método de Monte Carlo) Geração de Números Primos (Grandes)

Probabilidade. Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise

Introduzir os conceitos de base e dimensão de um espaço vetorial. distinguir entre espaços vetoriais de dimensão fnita e infinita;

Aula 4. Aula de hoje. Aula passada

PROBABILIDADE. Aula 2 Probabilidade Básica. Fernando Arbache

Capítulo 6: Transformações Lineares e Matrizes

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Métodos Quantitativos para Ciência da Computação Experimental. Jussara Almeida DCC-UFMG 2013

Teoria das Probabilidades

3 NOÇÕES DE PROBABILIDADE

AGA Análise de Dados em Astronomia I. 2. Probabilidades - parte 1

Lista 8 de Análise Funcional - Doutorado 2018

PICME/IME/USP COMBINATÓRIA NOTAS (SEMESTRE 1) 1. Conjuntos equiláteros 12/04/2011

Probabilidade Condicional e Independência

Probabilidade. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Algoritmos probabilísticos

Modelos de Distribuição PARA COMPUTAÇÃO

Probabilidade Condicional e Independência

Lista de exercícios sobre contagem de operações Prof. João B. Oliveira

Anéis quocientes k[x]/i

Capítulo 2. Variáveis Aleatórias e Distribuições

GABRIEL BUJOKAS

PK - Public Key RSA. Segurança RSA

2 a Lista de PE Solução

Probabilidade Aula 03

Produtos de potências racionais. números primos.

Teoremas de uma, duas e três séries de Kolmogorov

A = B, isto é, todo elemento de A é também um elemento de B e todo elemento de B é também um elemento de A, ou usando o item anterior, A B e B A.

Escola Superior de Agricultura "Luiz de Queiroz", Departamento de Ciências Exatas. Probabilidades. Cristian Villegas

Probabilidade - aula II

Estatística Bayesiana EST047

Probabilidade. Sumário Introdução Conceitos Básicos... 2

Algoritmo AKS Primalidade de um Número em Tempo Polinomial

Introdução a Probabilidade

Referências e materiais complementares desse tópico

OPRM a Fase Nível 3 01/09/18 Duração: 4 horas

Ideais em anéis de grupo

CONCEITOS BÁSICOS EM GRAFOS

Colóquio Brasileiro de Matemática - Exercícios de Algoritmos Randomizados

MA11 - Unidade 4 Representação Decimal dos Reais Semana 11/04 a 17/04

Capítulo 8: O problema da parada. Decidibilidade e computabilidade. José Lucas Rangel Introdução.

4.1. ESPERANÇA x =, x=1

3 O Teorema de Ramsey

σ-álgebras, geradores e independência

Aula 1: Introdução ao curso

Aula 14. Aula de hoje. Aula passada

Estatística (MAD231) Turma: IGA. Período: 2018/2

Lista 1. 9 Se 0 < x < y e n N então 0 < x n < y n.

Estatística e Modelos Probabilísticos - COE241

Complexidade de Tempo

Annealing Simulado! Metaheurstica de otimizac~ao baseada em conceitos da Fsica Estatstica Fsica Estatstica: Lida com sistemas de muitas partculas (mui

Definimos a soma de seqüências fazendo as operações coordenada-a-coordenada:

Aula 10 Variáveis aleatórias discretas

O espaço das Ordens de um Corpo

MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade

Probabilidade & Estatística Elementos de Probabilidade (Capítulo 2)

Transcrição:

Algoritmos Probabilsticos Jair Donadelli

\Numbers that fool the Fermat test are called Carmichael numbers, and little is known about them other than that they are extremely rare. There are 255 Carmichael numbers below 100,000,000. The smallest few are 561, 1105, 1729, 2465, 2821, and 6601. In testing primality of very large numbers chosen at random, the chance of stumbling upon a value that fools the Fermat test is less than the chance that cosmic radiation will cause the computer to make an error in carrying out a "correct"algorithm. Considering an algorithm to be inadequate for the rst reason but not for the second illustrates the dierence between mathematics and engineering." Abelson & Sussman

3 [Rosencrantz and Guildenstern are riding horses down a path - they pause ] R: Umm, uh... [Guildenstern rides away, and Rosencrantz follows. Rosencrantz spots a gold coin on the ground] R: Whoa - whoa, whoa. [Gets o horse and starts ipping the coin ] R: Hmmm. Heads. Heads. Heads. Heads. Heads. Heads. Heads. Heads. Heads. Heads. Heads. Heads. Heads. Heads. Heads. Heads. Heads. Heads. [Guildenstern grabs the coin, checks both sides, then tosses it back to Rosencrantz ] R: Heads. [Guildenstern pulls a coin out of his own pocket and ips it ] R: Bet? Heads I win? [Guildenstern looks at coin and tosses it to Rosencrantz ] R: Again? Heads. [... ] R: Heads G: A weaker man might be moved to re-examine his faith, if in nothing else at least in the law of probability. R: Heads G: Consider. One, probability is a factor which operates within natural forces. Two, probability is not operating as a factor. Three, we are now held within um...sub or supernatural forces. Discuss! R: What? [... ] R: Heads, getting a bit of a bore, isn't it? [... ] R: 78 in a row. A new record, I imagine. G: Is that what you imagine? A new record? R: Well... G: No questions? Not a icker of doubt? R: I could be wrong. G: No fear? R: Fear? G: Fear!

4 R: Seventy nine. [... ] G: I don't suppose either of us was more than a couple of gold pieces up or down. I hope that doesn't sound surprising because its very unsurprisingness is something I am trying to keep hold of. The equanimity of your average tosser of coins depends upon a law, or rather a tendency, or let us say a probability, or at any rate a mathematically calculable chance, which ensures that he will not upset himself by losing too much nor upset his opponent by winning too often. This made for a kind of harmony and a kind of condence. It related the fortuitous and the ordained into a reassuring union which we recognized as nature. The sun came up about as often as it went down, in the long run, and a coin showed heads about as often as it showed tails. Tom Stoppard, Rosenkrantz and Guildenstern are dead (1996).

SUM ARIO 1 Introdução à probabilidade discreta 13 1.1 Probabilidade discreta.......................... 13 1.1.1 Identidade polinomial...................... 15 1.2 Probabilidade condicional e Independ^encia............... 16 1.2.1 Espaco produto.......................... 21 1.2.2 Identidade polinomial revisitada................ 22 1.2.3 Igualdade do produto de matrizes............... 24 1.3 Teorema de Bayes............................ 26 1.3.1 Sigilo perfeito........................... 27 1.3.2 Spam............................... 30 1.4 Variaveis aleatorias discretas...................... 31 1.4.1 Distribuic~oes de Bernoulli, binomial, geometrica e uniforme. 34 1.4.2 MAX 3-SAT........................... 36 1.4.3 Quicksort............................. 38 Analise de caso medio....................... 40 1.4.4 Gerador de provaveis primos.................. 41 2 Computação probabilística 49 2.1 Modelos de Computac~ao......................... 49 2.1.1 Maquinas de Turing....................... 50 2.1.2 Circuitos booleanos........................ 52 Maquina de Acesso Aleatorio RAM.............. 52 Algoritmos............................. 53 2.1.3 Algoritmos aleatorizados..................... 54

6 SUM ARIO Maquina de Turing probabilstica o-line........... 55 2.2 Classes de complexidade......................... 55 2.2.1 BPP esta na Hierarquia Polinomial............... 63 2.3 Desaleatorizac~ao de BPP......................... 66 2.3.1 Desaleatorizac~ao usando geradores pseudoaleatorios..... 68 2.3.2 Construc~oes de sequ^encias k-a-k independentes........ 70 Sequ^encias com distribuic~ao uniforme e independ^encia 2-a-2. 70 Sequ^encias com distribuic~ao uniforme e independ^encia k-a-k. 73 2.3.3 Hash Universal.......................... 74 3 Estruturas de dados 79 3.1 Hashing.................................. 79 3.1.1 Hashing universal........................ 81 3.1.2 Desigualdades de Markov, Chebyshev e Cherno....... 81 3.2 Skip lists................................. 84 3.3 Treaps................................... 86 3.4 Mais de Markov, Chebyshev e Cherno............... 89 3.4.1 Exist^encia de geradores pseudoaleatorios............ 93 4 Passeios aleatórios 95 4.1 Cadeias de Markov homog^eneas..................... 95 4.1.1 2-SAT............................... 97 4.1.2 Cadeias estacionarias....................... 99 4.2 Passeio aleatorio em grafos....................... 104 4.2.1 s t conexidade em grafos................... 106 4.2.2 Passeio aleatorio em grafos regulares.............. 108 4.3 Passeios aleatorios em grafos expansores................ 111 Expander mixing lemma.................... 112 4.3.1 Desaleatorizac~ao com grafos expansores............ 113 4.4 Passeio aleatorio na WEB: PageRank................. 115 5 Algoritmos distribuídos aleatorizados 121 5.1 O Jantar dos Filosofos.......................... 121 Soluc~ao probabilstica...................... 123 5.2 Eleic~ao de Lder............................. 128 Soluc~ao probabilstica...................... 129 5.3 Generais Bizantinos........................... 135

SUM ARIO 7 Soluc~ao probabilstica...................... 136 6 Testes de primalidade e Criptografia de chave pública 143 6.1 Aritmetica modular: introduc~ao e algoritmos............. 144 6.1.1 Algoritmo de Euclides...................... 144 O algoritmo de Euclides..................... 145 O algoritmo de Euclides Estendido............... 146 6.1.2 Inteiros modulo n........................ 147 Soluc~oes de equac~oes modulo n................. 149 Invertveis modulo n....................... 151 O anel dos inteiros modulo n.................. 154 6.1.3 Exponenciac~ao modular..................... 155 6.2 Troca de chaves.............................. 157 6.2.1 Razes primitivas......................... 158 6.3 O sistema criptograco Elgamal..................... 160 6.4 O sistema criptograco RSA....................... 162 6.5 Assinaturas digitais............................ 165 6.5.1 RSA................................ 165 6.5.2 Elgamal.............................. 165 6.5.3 DSA................................ 165 6.6 Testes de primalidade aleatorizados................... 166 6.6.1 Teste de Fermat......................... 168 6.6.2 Teste de Miller{Rabin...................... 170 6.6.3 Teste baseado em fatorac~ao................... 175 6.6.4 Como gerar de numeros primos................. 176 Usando o teste de primalidade de Miller{Rabin........ 177 Usando o teste de Fermat.................... 178 A Séries e desigualdades 187 B Teoria dos Grafos 189 B.1 Grafo................................... 189 B.1.1 Grau................................ 189 B.1.2 Matriz de adjac^encias de G................... 190 B.1.3 Grafo bipartido.......................... 190 B.2 Arvore geradora.............................. 191 B.3 Trilha Euleriana............................. 191

8 SUM ARIO C Álgebra 193 C.1 Uma hierarquia de estruturas algebricas................ 193 C.1.1 Ideal e Anel quociente...................... 194 C.2 Grupos e subgrupos........................... 195 C.2.1 Considerac~oes computacionais a respeito de ordem em Z n e Z n................................ 197 C.3 Polin^omios................................ 198 C.3.1 Como gerar polin^omios irredutveis............... 199 Teste de irredutibilidade de Rabin............... 201 C.3.2 Teste primalidade de Agrawal{Biswas............. 202 Indice Remissivo................................ 210 Indice de Smbolos............................... 214

SUM ARIO 9 Apresentação Algoritmos aleatorizados s~ao usados ha muito tempo em disciplinas da Estatstica e Fsica, para amostragem (sampling) e simulac~ao (metodos de Monte Carlo 1 ) e foram introduzidos na Computac~ao na decada de 70 com o objetivo de projetar algoritmos ecientes; os resultados pioneiros foram os algoritmos de Miller (1975), Rabin (1980a) e Solovay and Strassen (1977) para testar primalidade. Estes algoritmos utilizam uma fonte de bits aleatorios que gera bits com probabilidade uniforme em tempo constante. Desde ent~ao, o numero de aplicac~oes desses algoritmos vem crescendo. Atualmente s~ao conhecidas soluc~oes aleatorizadas para problemas que n~ao admitem soluc~ao determinstica, como compartilhamento de recursos em sistemas distribudos. A aleatorizac~ao e gura central em alguma areas, como a Criptograa e gerou um sub-area rica da Complexidade Computacional com resultados fascinantes. O objetivo deste texto e exibir alguns desses resultados em Computac~ao. Um dos atrativos dos algopritmos aleatorizados reside em que varios problemas computacionais admitem algoritmo aleatorizado simples e eciente enquanto que algoritmos determinsticos de tempo subexponencial n~ao s~ao conhecidos. Por exemplo Dado : p, q polin^omios de grau d sobre Q[x 1, x 2,..., x n ]. Devolve: decidir se p q. Problema da identidade entre polin^omios. onde signica que quando os polin^omios s~ao escritos como combinac~ao linear de mon^omios os coecientes s~ao os mesmos; esse, por exemplo, e o caso quando precisamos decidir se σ S n sinal ( 1 i<j n ) n (σ(j) σ(i)) x σ(i) 1 i i=1 1 i<j n (x j x i )? (1) onde S n e o grupo das permutac~oes de {1, 2,..., n} (A identidade da equac~ao (1) e verdadeira, o lado esquerdo e o determinante da matriz de Vandermonde.) Esse e um problema para o qual n~ao se conhece algoritmo determinstico de tempo subexponencial no tamanho da entrada e uma soluc~ao probabilstica de 1 O estudo sistematico desse metodo ganhou forca com a invenc~ao do computador, sendo que as primeiras simulac~oes foram feitas pelos fdp do Projeto Manhattan que construiu a primeira bomba at^omica.

10 SUM ARIO tempo polinomial e, para d e para um subconjunto nito S Q xos, Algoritmo 2: Identidade entre polin^omios. Dado : f Q[x 1,..., x n ] de grau no maximo d. Devolve: sim se f 0 e n~ao caso contrario. 1 2 3 escolha (x 1, x 2,..., x n ) em S n uniformemente; se f(x 1, x 2,..., x n ) = 0 então devolva sim; senão devolva n~ao. Note que se f 0 ent~ao o algoritmo sempre responde sim. Por outro lado, mesmo se f 0 pode ocorrer que resposta seja sim. Qu~ao frequente e isso? A resposta e n~ao muito, no maximo 1 em cada 3 vezes: Seja f Q[x 1,..., x n ] um polin^omio de grau d > 0, f 0. Dado (x 1,..., x n ) {1, 2,..., 3d} n escolhido com distribuic~ao uniforme, temos que a probabilidade de f(x 1,..., x n ) = 0 e no maximo 1/3. Isso e sucientemente conavel? Se n~ao for, basta notarmos que se repetirmos k vezes o algoritmo acima e em todas obtemos a resposta sim ent~ao a probabilidade da resposta estar errada e no maximo (1/3) k ; a repetic~ao 15 vezes resulta em chance de erro de 0, 00000007, aproximadamente 2 Essa caracterstica de aliar conanca e eci^encia e determinante no estabelecimento da tecnica probabilstica. Outro exemplo e o problema de decidir se um numero e primo. O teste de primalidade de Miller Rabin e um algoritmo que recebe um inteiro e responde primo ou composto. A resposta composto sempre e certa. A resposta primo, por outro lado, pode estar errada, mas a probabilidade desse erro e controlada. Pode-se tornar a probabilidade da resposta errada arbitrariamente pequena as custas do aumento no tempo de execuc~ao. A probabilidade de erro e t~ao pequena e o algoritmo t~ao eciente 3 que mesmo apos a descoberta de um algoritmo determinstico de tempo polinomial para o problema 30 anos depois 4, esse teste desenvolvido na decada de 70 continua sendo amplamente utilizado. Algoritmos aleatorizados, como nos exemplos acima, com tempo de execuc~ao que depende somente da entrada e n~ao dos sorteios e que podem responder errado, s~ao conhecidos na literatura como algoritmos Monte Carlo. A complexidade de tempo usada para medir o desempenho e a de pior caso. 2 Isso e dez vezes menos provavel do que ter sido atingido por um raio no Brasil em 2003. 3 A complexidade de pior caso para decidir primalidade de n em k rodadas e O(k log 3 n) e a probabilidade de erro e < (1/4) k. 4 Agrawal, Kayal e Saxena publicaram em 2004 um algoritmo determinstico com complexidade de pior caso O(log 12 n) Agrawal, Kayal, and Saxena (2004).

SUM ARIO 11 Outra modalidade de algoritmos aleatorizados s~ao os chamados de Las Vegas. Esses algoritmos tem probabilidade pequena de executarem por muito tempo, ou seja, a complexidade de tempo depende dos sorteios feitos durante a execuc~ao. Em outras palavras, a complexidade e uma variavel aleatoria e, idealmente, o algoritmo e eciente em media com alta probabilidade. Nos algoritmos Las Vegas, a resposta sempre esta correta. Um exemplo de algoritmo dessa classe e o Quicksort aleatorizado que com probabilidade maior que 1 1/n 6 ordena n elementos em tempo O(n log n). Algoritmo 3: Quicksort aleatorizado Dado : uma sequ^encia de numeros S = (x 1, x 2,..., x n ). Devolve: os elementos de S em ordem crescente. 1 2 3 4 5 6 7 8 se S = 1 então devolva S senão escolha um piv^o x S uniformemente; para cada y S, y x faça se y < x então insira y em S 1 senão insira y em S 2 ; ordene, recursivamente, S 1 e S 2 ; devolva (S 1, x, S 2 ). Do ponto de vista teorico, o algoritmo para identidade polinomial pode ser desaleatorizado e o modo mais trivial de fazer isso e rodar o algoritmo para todas os possveis numeros aleatorios. Obviamente isso resulta num algoritmo exponencial. N~ao se sabe se desaleatorizac~ao de algoritmos ecientes pode ser feita de modo eciente (veja Kabanets and Impagliazzo (2004)). Em outras palavras, n~ao se sabe responder P=BPP? onde P e a classe do problemas computacionais que podem ser decididos por um algoritmo determinstico de tempo polinomial e BPP e a classe dos problemas computacionais que podem ser decididos por algoritmo aleatorizado de tempo polinomial com probabilidade de erro menor que 1/3. Um exemplo de desaleatorizac~ao eciente e o algoritmo AKS para teste de primalidade Agrawal et al. (2004), ele e resultado de uma desaleatorizac~ao do algoritmo Agrawal{Biswas Agrawal and Biswas (2003), ou seja, o AKS e a desaleatorizac~ao

12 SUM ARIO de um teste probabilstico de identidade polinomial, entretanto, essa desaleatorizac~ao so funciona no caso especco, uma tecnica geral de desaleatorizac~ao de identidades polinomiais teria grande impacto na Teoria da Computac~ao. Por outro lado, se existe f que pode ser computado por um algoritmo de tempo de pior caso 2 O(n) e tal que todo circuito booleano que computa f tem pelo menos 2 Ω(n) portas logicas ent~ao P=BPP, ou seja, se existem func~oes que s~ao genuinamente difceis de computar ent~ao desaleatorizac~ao e facil Kabanets and Impagliazzo (2004). Notação assintótica Sejam f n e g n sequ^encias de numeros reais, onde f n > 0 para todo n sucientemente grande. Usaremos as seguintes notac~oes para o comportamento assintotico dessas sequ^encias: ˆ ˆ g n = O(f n ), quando n, se existem constantes positivas c R e n 0 N tais que g n cf n, para todo n n 0 ; g n = Ω(f n ), quando n, se existem constantes positivas C R e n 0 N tais que g n Cf n, para todo n n 0 ; ˆ g n = Θ(f n ), quando n, se existem constantes positivas c, C R e n 0 N tais que Cf n g n cf n, para todo n n 0 ; ˆ g n = o(f n ) se g n /f n 0, quando n. Fatos e notações utilizados ˆ Se A B ent~ao A denota o conjunto B \ A. ˆ se x < 1 ent~ao n 0 x n = (1 x) 1. ˆ se x < 1 ent~ao n k x n = x k (1 x) 1. ˆ se x < 1 ent~ao n 1 nx n = x(1 x) 2. ˆ n 1 n 2 = π/6. ˆ ( n k ) k ( n k ) ( e n k ) k ˆ (1 x) e x. ˆ GRAFOS

CAPÍTULO 1 Introduc~ao a probabilidade discreta Conteúdo 1.1 Probabilidade discreta.................... 13 1.1.1 Identidade polinomial..................... 15 1.2 Probabilidade condicional e Independência........ 16 1.2.1 Espaco produto......................... 21 1.2.2 Identidade polinomial revisitada............... 22 1.2.3 Igualdade do produto de matrizes.............. 24 1.3 Teorema de Bayes....................... 26 1.3.1 Sigilo perfeito.......................... 27 1.3.2 Spam.............................. 30 1.4 Variáveis aleatórias discretas................ 31 1.4.1 Distribuic~oes de Bernoulli, binomial, geometrica e uniforme 34 1.4.2 MAX 3-SAT.......................... 36 1.4.3 Quicksort............................ 38 1.4.4 Gerador de provaveis primos................. 41 1.1 Probabilidade discreta Neste texto consideraremos triplas (Ω, E, P) que denem um espaço de probabilidade discreto, ou seja, (i) Ω e um conjunto enumeravel, chamado espaço amostral;

14 Introduc~ao a probabilidade discreta (ii) E = 2 Ω e a σ-algebra de eventos, (iii) P: E R e tal que (a) 0 P(E) 1 para todo evento E E; (b) P(Ω) = 1; (c) para qualquer sequ^encia enumeravel ( E i de eventos disjuntos, mutuamente, vale )i 1 ( ) P E i = P(E i ). (1.1) i 1 i 1 Observac~ao 1. O lado esquerdo da equac~ao (1.1) n~ao depende de uma enumerac~ao particular dos conjuntos e um teorema do calculo (veja Bartle (1976)) garante o mesmo para o lado direito, ou seja, que se uma serie de termos n~ao-negativos converge ent~ao qualquer rearranjo dos termos resulta numa serie que converge para o mesmo valor. Como E = 2 Ω = {E: E Ω} esta xo por todo o texto, escrevemos somente (Ω, P). No caso de espacos discretos a func~ao de probabilidade P ca denida pelos valores de P(ω) para todo ω Ω pois decorre de (1.1) que P(E) = P(a) a E para todo A Ω. Com isso, podemos denir P: Ω [0, 1] e, usualmente, n~ao escrevemos as chaves nos eventos unitarios, por exemplo, no exemplo 2 a seguir usamos P(coroa) para P({coroa}). Exemplo 2 (lancamento de moeda equilibrada). Quando nos referimos ao lancamento de uma moeda equilibrada, estamos considerando o espaco de probabilidade dado por Ω = {cara, coroa}, com E = {, {cara}, {coroa}, Ω} e P( ) = 0, P(cara) = P(coroa) = 1/2, P(Ω) = 1. Exemplo 3. Suponha que uma moeda equilibrada e lancada ate sair cara; o espaco amostral que representa esse experimento e o conjunto das sequencias ω n = (c 1, c 2,..., c n ) tal que para cada n 1 temos c n = cara e c i = coroa para 1 i < n, logo Ω = {ω n : n 1}. Esse conjunto e claramente enumeravel, a enumerac~ao e dada pelo numero de lancamentos; uma func~ao de probabilidade e P(ω n ) = ( ) n 1 2

1.1. PROBABILIDADE DISCRETA 15 que de fato dene um espaco de probabilidade pois 0 < P(ω n ) < 1 para todo ω n e P(ω) = 2 i = 1. ω Ω i 1 Se a Ω, com Ω nito, e P(a) = 1/ Ω ent~ao escrevemos a R Ω e dizemos que a e uma escolha aleatoria em Ω. Nos algoritmos, nos vamos assumir a possibilidade de se fazer escolhas aleatorias, ou seja, assumir que os algoritmos disp~oem de uma fonte de bits aleatorios com a escolha de cada bit com custo constante, isto e, em tempo O(1) tem-se a R {0, 1}. Nos algoritmos usaremos a instruc~ao a R {0, 1} para indicar que a variavel a recebe o resultado de uma escolha aleatoria em {0, 1}. Seja P a descric~ao de un evento P Ω, ent~ao as vezes escreveremos P ω Ω [ P ] = P ( {ω Ω: ω satisfaz a propriedade P} ) (1.2) para P(P) e evidenciar o espaco amostral, por exemplo, quando consideramos a probabilidade de um determinado algoritmo responder errado, escrevemos P ω R {0,1} [erro] para a probabilidade de P = {ω Ω: ω e uma sequ^encia de bits que faz com que o algoritmo responda errado}. Exerccio 4. Prove que P(E 1 E 2 ) = P(E 1 ) + P(E 2 ) P(E 1 E 2 ), para quaisquer eventos E 1 e E 2 num espaco de probabilidade discreto. Exerccio 5. Prove que para qualquer sequ^encia enumeravel (E i ) i 1 de eventos num espaco discreto vale ( ) P E i P(E i ). i 1 i>1 1.1.1 Identidade polinomial Consideremos o problema de decidir se f 0, onde f Q[x] e um polin^omio n~ao-nulo de grau no maximo d > 0. O espaco amostral da escolha aleatoria na linha 1 do algoritmo 2 e S com probabilidade 1/ S. Agora, consideremos o evento E = E(f) = {r S: r e raiz de f}. A probabilidade do algoritmo 2 falhar e igual a P(E) = E / S, portanto, P ω R S [ erro ] = P(E) grau(f)/ S pois f tem no maximo grau(f) razes em Q, pelo teorema fundamental da algebra.

16 Introduc~ao a probabilidade discreta Lema 6. Seja f Q[x] um polin^omio de grau no maximo d, f 0. Ent~ao P x R S [ f(x) = 0 ] d/ S. Corolário 7. Se S = {1, 2,..., 3d} ent~ao o algoritmo 2, pagina 10, erra com probabilidade no maximo 1/3 no caso de polin^omios de uma variavel. 1.2 Probabilidade condicional e Independência Num espaco (Ω, P), a probabilidade condicional do evento E dado o evento A com P(A) > 0 e denida por P(E A) = P(A E). (1.3) P(A) Exemplo 8. Dois dados, um azul e outro verde, s~ao lancados e cada uma das seis faces s~ao equiprovaveis nos dois dados (dizemos que os dados s~ao equilibrados). Qual e a probabilidade do dado verde ter resultado 6 dado que a soma dos resultados foi 8? O espaco amostral tem 36 elementos equiprovaveis, formado pelos pares ordenados (azul, verde) dos resultados possveis. O evento \a soma e 8" e A = {(2, 6), (3, 5), (4, 4), (5, 3), (6, 2)} logo a probabilidade e 1/5. De outro modo, E = {(x, 6): 1 x 6, x N} e P(E A) = P(A E) P(A) = P ({ (2, 6) }) P(A) = 1/36 5/36 = 1 5. Exerccio 9. Prove que (A, P A ), onde P A (E) = P(E A) e um espaco de probabilidade. Exemplo 10. Numa c^omoda ha tr^es gavetas e em cada gaveta um par de meias. Na primeira gaveta ha um par de meias brancas, na segunda um par de meias pretas e na gaveta que resta um par com um pe de cada cor, preta e branca. Uma gaveta e escolhida aleatoriamente e, sem olhar para o interior da gaveta, um pe de meia e escolhido aleatoriamente e a gaveta e fechada. O pe de meia retirado e branco. Qual a probabilidade de o outro pe que cou sozinho na gaveta ser preto? Consideramos o espaco amostral formado pelos pares (gaveta, cor da meia retirada) {1, 2, 3} {branca, preta} com as probabilidades de cada par dadas por branca preta 1 1/3 0 2 0 1/3 3 1/6 1/6

1.2. PROBABILIDADE CONDICIONAL E INDEPEND ^ENCIA 17 Se A e o evento \retirou uma meia branca", A = { ( 1, branca), (3, branca)} e E o evento \cou uma meia preta", E = {(2, preta), (3, branca)}, ent~ao P(E A) = P(A E) P(A) = 1/6 1/3 + 1/6 = 1 3. Exerccio 11 (Lei das probabilidades totais). Prove que se E 1,..., E m e uma partic~ao de Ω ent~ao para todo evento B P(B) = m P(B E i ) = i=1 m P(B E i )P(E i ). (1.4) i=1 Exemplo 12 (Monty Hall). Esse exemplo e baseado num programa de um canal de televis~ao norte-americano chamado \let's make a deal" apresentado por Monty Hall, da vem o nome do problema. Esse problema e bastante conhecido e ja causou muita controversia. Em um programa de auditorio, um convidado deve escolher uma dentre tr^es portas. Atras de uma das portas ha um carro e atras de cada uma das outras duas ha um bode. O convidado ganhara como pr^emio o objeto que estiver atras da porta que ele escolher. O protocolo do jogo e o seguinte: o convidado escolhe, provisoriamente, uma das tr^es portas. Neste momento o apresentador do programa, que sabe o que ha atras de cada porta, abre uma das outras duas portas sempre revelando um dos bodes. O convidado agora tem a opc~ao de car com a primeira porta que ele escolheu ou trocar pela outra porta fechada. Que estrategia o convidado deve adotar pra ter mais chance de ganhar o carro? Se o convidado ca com a porta que escolheu inicialmente, ent~ao a probabilidade de ganhar um carro e 1/3, que e a probabilidade dele ter escolhido a porta certa logo de incio. Vamos supor que o convidado troca de porta. Denotamos por E o evento \ganha o carro" e por A o evento \a primeira escolha era a correta", isto e, era a porta que escondia um carro. Claramente, P(A) = 1/3. Agora, se a primeira escolha era a correta ent~ao o convidado n~ao ganha o carro, ou seja, P(E A) = 0, caso contrario o convidado ganha o carro, ou seja, P(E A) = 1. Com isso temos P(E) = P(E A) + P(E A) = P(E A)P(A) + P(E A)P(A) = 2 3 portanto, e melhor trocar de porta. Tente voc^e mesmo.

18 Introduc~ao a probabilidade discreta Exerccio 13. Sejam A 1, A 2,..., A n eventos num espaco de probabilidade. Prove que ( n ) ( ) ( n 1 ) n 2 P A i = P A n A i P A n 1 A i P ( ) A 2 A 1 P (A1 ). i=1 i=1 i=1 Dizemos que os eventos A e B s~ao independentes se P(A B) = P(A)P(B). (1.5) Uma colec~ao de eventos E 1,..., E n e k-a-k independente se para todo subconjunto de ndices {i 1, i 2,, i k } {1, 2,..., n} ( k ) P E il = l=1 k P(E il ) (1.6) l=1 e, essa colec~ao e mutuamente independente se se e k-a-k independente para todo k, onde 2 k n. Exemplo 14. Considere tr^es lancamentos de uma moeda equilibrada, E 12 e o evento \o resultado da primeira e da segunda coincidem", E 13 o evento \o resultado da primeira e da terceira coincidem" e E 23 o evento \o resultado da segunda e da terceira coincidem". Os eventos s~ao 2-a-2 independentes, por exemplo, E 12 E 13 = {(cara, cara, cara), (coroa, coroa, coroa)} com probabilidade 1/4 e P(E 12 ) = P(E 13 ) = P(E 23 ) = 1/2, entretanto esses eventos n~ao s~ao mutuamente independentes pois P(E 12 E 13 E 23 ) = 1/4. Exemplo 15 (k-corte-mínimo, Karger (1993)). Seja G = (V, E) um grafo. Sem perda de generalidade podemos supor que V = {1, 2,..., n}. Um subconjunto de arestas de G da forma E(A, A) = { } {u, v} E(G): u A e v A (1.7) e chamado de corte definido por A em G. Um corte mínimo em G e um corte com mincut(g) = min E(A, A) A V arestas. O problema que estamos interessados e determinar se mincut(g) k, dados um grafo G e um inteiro positivo k. Um multigrafo e um par (V, E) onde V e um conjunto nito cujos elementos s~ao chamados de vertices e E e um multiconjunto nito onde cada elemento e chamado de aresta e e formado por dois vertices distintos. Seja M um multigrafo. Em M

1.2. PROBABILIDADE CONDICIONAL E INDEPEND ^ENCIA 19 denimos por contrac~ao da aresta e E(M) a operac~ao que resulta no multigrafo com os extremos de e identicados e os lacos sobre esses extremos removidos, o multigrafo resultante e denotado por M/e. A ideia do algoritmo que apresentaremos a seguir para determinar se mincut(g) k e repetir na sequ^encia de operac~oes ˆ sortear aresta, ˆ contrair a aresta sorteada, ate que restem 2 vertices. As arestas que ligam esses 2 vertices s~ao arestas de um corte no grafo original. A gura 1.1 representa uma sequ^encia de tr^es contrac~oes de arestas, a aresta que sofre a contrac~ao esta em negrito. 2 3 2 3 2 3 2, 3 1 4 5 6 1, 4 5 6 6 6 1, 4, 5 1, 4, 5 Figura 1.1: Exemplo de contrac~ao de arestas. Se no proximo passo identicarmos os vertices 1, 4, 5 com o 2, 3 ent~ao temos o corte denido por {6} em G (g. 1.2 (a)), que tem duas arestas e e um corte mnimo. Por outro lado, se identicarmos 2, 3 e 6 ent~ao temos o corte denido por {2, 3, 6} e que tem 4 arestas (g. 1.2 (b)). 2, 3 1, 4, 5 2, 3 6 1, 2, 3, 4, 5 6 2, 3, 6 6 1, 4, 5 1, 4, 5 Figura 1.2: Duas possveis continuac~oes para as contrac~oes da gura 1.1. O seguinte algoritmo recebe (G, k) e se mincut(g) > k ent~ao ele responde n~ao com probabilidade 1, pois o resultado das contrac~oes dene um corte em G (exerccio 18) e todos os cortes t^em mais que k arestas. Entretanto, se mincut(g) k pode ocorrer do algoritmo n~ao descobrir um corte com menos que k arestas e

20 Introduc~ao a probabilidade discreta responder n~ao. Algoritmo 4: Corte mnimo Dado : um grafo G de ordem n 3 e k N. 1 2 3 4 5 6 7 8 9 Devolve: sim se ha corte com k arestas, n~ao caso contrario. repita i 0; G o G; repita escolha e E(G i ) aleatoriamente; G i+1 G i /e; i i + 1; até que i = n 2 ; se E(G n 2 ) k então devolva sim; até que complete ( n 10 2) rodadas ; 11 devolva n~ao. Lema 16. Fixado um corte mnimo C num grafo G com pelo menos tr^es vertices, a probabilidade do algoritmo 4 determinar C no laco da linha 4 e pelo menos 1/ ( n 2). Demonstrac~ao. Seja G = (V, E) um grafo e C = E(A, A) um corte mnimo em G denido por A V com m arestas. Notemos que de mincut(g) m o grau mnimo de um vertice em G e pelo menos m e que, portanto, G tem pelo menos mn/2 arestas. O algoritmo devolve C se nas n 2 iterac~oes somente contrai arestas com ambos os extremos em A ou ambos extremos em A. O espaco amostral das n 2 rodadas do repita da linha 4 e Ω = i E(G i). Seja B i o evento \no i-esimo sorteio da linha 5, e C", isto e, B i = {(e 1,..., e n 2 ) Ω: e i C}. A probabilidade de escolher uma aresta de C no primeiro sorteio e C / E(G 0 ) m/(nm/2), logo P(B 1 ) 1 m mn/2 = 1 2 n. Agora, a probabilidade de escolher uma aresta de C no segundo sorteio dado uma aresta de C n~ao foi escolhida no primeiro e C / E(G 1 ) m/(m(n 1)/2) pois o multigrafo tem n 1 vertice e grau mnimo pelo menos m, logo P(B 2 B 1 ) 1 m m(n 1)/2

1.2. PROBABILIDADE CONDICIONAL E INDEPEND ^ENCIA 21 e, genericamente, ( ) i 1 2 P B i B j 1 n i + 1. j=1 A probabilidade de nenhuma aresta sorteada ser de C e P exerccio 13, pagina 18, temos que ( n 2 ) n 2 P B i i=1 i=1 ( ) n i 1 = n i + 1 e o lema segue da denic~ao de coeciente binomial. 2 n(n 1) ( n 2 ) i=1 B i e pelo Teorema 17. Supondo que as rodadas do laco da linha 1 sejam independentes temos P [ erro ] < 1/2. Demonstrac~ao. Se G tem um corte com no maximo k arestas, ent~ao a probabilidade do algoritmo n~ao encontrar um tal corte em nenhuma das iterac~oes do laco na linha 1 e no maximo ( 1 2 n(n 1) ) ( n 2) ( exp 2 n(n 1) ) ( n 2) = 1 e < 1 2. Exerccio 18. Prove que apos um numero qualquer de contrac~oes de arestas, um corte no multigrafo resultante e um corte no grafo original. Conclua que a sequ^encia de operac~oes (i) sortear aresta, (ii) contrair a aresta sorteada ate que restem 2 vertices num grafo G termina com um corte de G. Exerccio 19. Seja G um multigrafo tal que mincut(g) m. Prove que o grau mnimo de um vertice em G e m e que G tem pelo menos mn/2 arestas. 1.2.1 Espaço produto Se (Ω i, P i ), para 1 i n, s~ao espacos de probabilidade ent~ao o espaço produto e o espaco ( n i=1 Ω i, P) com P(ω 1, ω 2,..., ω n ) = n P i (ω i ) i=1 para todo (ω 1, ω 2,..., ω n ) Ω 1 Ω 2 Ω n. Exerccio 20. Prove que escolher (d 1, d 2,..., d n ) em {0, 1} n aleatoriamente e equivalente a escolher aleatoriamente d i escolhas mutuamente independentes. em {0, 1} para cada i, 1 i n, com as

22 Introduc~ao a probabilidade discreta Exemplo 21 (Gerador de números aleatórios). Dado um inteiro positivo M, queremos gerar um numero inteiro entre 0 e M 1 aleatoriamente a partir de uma fonte de bits aleatorios. Algoritmo 5: Gerador de numeros aleatorios Dado : inteiro positivo M > 0. Devolve: um inteiro escolhido uniformemente em {0, 1,..., M 1}. 1 2 3 4 5 6 7 seja k o numero de bits de M; repita para cada i {0,..., k 1} faça d i R {0, 1}; N i d i2 i ; até que N < M ; devolva N. O resultado dos sorteios na linha 4, a sequ^encia d k 1 d k 2... d 0, e qualquer numero em Ω = {0, 1,..., 2 k 1} na representac~ao binaria; a probabilidade de ocorrer uma sequ^encia particular de bits e (1/2) k. Seja A = {0, 1,..., M 1}, ent~ao a probabilidade do algoritmo responder t, para algum t A e P({t} A) = P({t}) P(A) = (1/2)k M/2 k = 1 M. Observac~ao 22. Note que n~ao ha, a princpio, garantia que o algoritmo acima termine. Voltaremos a esse fato adiante (veja o exerccio 54), mas deixamos registrado que o algoritmo para com probabilidade 1. Exerccio 23. Mostre que gerar um numero n de k bits e devolver n mod M, o que evitaria a execuc~ao de mais que uma iterac~ao do repita, n~ao resulta em uma resposta em {0,..., M 1} com probabilidade 1/M. Observac~ao 24. Para obtermos n R {a,..., b} basta executar o algoritmo 5 acima com M = b a e devolver N + a. Com isso, introduzimos a instruc~ao x R {a,..., b} que signica que a variavel x recebe o valor retornado pelo algoritmo que gera um numero de {a,..., b} com probabilidade 1/(b a + 1). 1.2.2 Identidade polinomial revisitada Lembremos que se p e q s~ao polin^omios ent~ao escrevemos p q se os coeciente do polin^omios s~ao iguais aos escrevermo-os como combinac~ao linear de mon^omios.

1.2. PROBABILIDADE CONDICIONAL E INDEPEND ^ENCIA 23 Por exemplo, o determinante da matriz de Vandermonde, equac~ao ( 1), e o polin^omio 1 i<j n (x i x j ) que como combinac~ao linear de mon^omios resulta numa express~ao da forma z1 z 2 z ( n 1 2 ) z ( n 2) onde z {x, y}, com a soma de 2 n parcelas totalizado uma express~ao de tamanho O(n 2 2 n ), contra a express~ao original de tamanho O(n 2 ), ou seja, somente a escrita da expans~ao ja toma tempo exponencial. Teorema 25 (Schwartz-Zippel). Seja f Q[x 1,..., x n ] um polin^omio de grau d, d > 0 e f 0 e S Q nito. Ent~ao, temos P (x1,...,x n ) RS n [ f(x 1,..., x n ) = 0 ] d S. Demonstrac~ao. Fixamos S Q nito e consideremos todos elementos de S equiprovaveis. Denimos, para cada n N, o espaco produto Ω n = S n com P n (ω 1,..., ω n ) = (1/ S ) n para todo (ω 1, ω 2,..., ω n ) Ω n. Seja f Q[x 1,..., x n ] um polin^omio n~ao-nulo de grau no maximo d, d > 0 e denimos evento E n (f) Ω n E n (f) = { (r 1,..., r n ) Ω n : (r 1,..., r n ) e raiz de f } A prova e por induc~ao em n. Para n = 1 vimos na sec~ao 1.1.1 que P 1 (E 1 (f)) = P x1 RS [ f(x 1 ) = 0 ] d S. (1.8) Para n > 1, seja k o maior grau de x n em f e escreva f(x 1,..., x n ) = g 0 x n 0 + g 1 x n 1 + + g k x n k (1.9) com g i Q[x 1,..., x n 1 ] de grau d i e 0 < k d. Assuma que P(E n 1 (g k )) = P (x1,...,x n 1 ) RS [ n 1 g k(x 1,..., x n 1 ) = 0 ] d k. (1.10) S e vamos provar que P n (E n (f)) d/ S. Dena o evento E Ω n por E = {(a 1, a 2,..., a n ): g k (a 1,..., a n 1 ) = 0} = E n 1 (g k ) S. e temos P n (E n (f)) = P ( E n (f) E ) + P ( E n (f) E ). Agora, P ( E n (f) E ) P n (E ) = P n 1 (E n 1 (g k ))P 1 (S) = P n 1 (E n 1 (g k )) (d k)/ S, pela hipotese (1.10).

24 Introduc~ao a probabilidade discreta Ainda, para cada (a 1,..., a n 1 ) Ω n 1 tal que g k (a 1,..., a n 1 ) 0 temos, por (1.9), que f e um polin^omio de grau k em Q[x n ] logo P ( E n (f) E ) = P ( {(x 1, x 2,..., x n ): f(x 1, x 2,..., x n ) = 0 e g k (x 1, x 2,..., x n 1 ) 0 ) k S. Assim, P(E n (f)) d k S + k S = d S. Corolário 26. Se S = {1, 2,..., 3d} ent~ao o algoritmo 2 erra com probabilidade no maximo 1/3. Finalmente, podemos usar rodadas independentes para reduzir a probabilidade de erro. Algoritmo 6: Teste de identidade entre polin^omios. Dado : d > 0 e f Q[x 1,..., x n ] de grau (total) no maximo d e o numero de rodadas k. Devolve: sim se f 0 ou n~ao, caso contrario. repita para cada i {0,..., k 1} faça x i R {1, 2,..., 3d}; se f(x 1, x 2,..., x n ) 0 então devolva n~ao; até que complete k rodadas ; devolva sim. Pelos resultados acima P [ f(x 1,..., x n ) = 0 f 0 ] = 1 P [ f(x 1,..., x n ) = 0 f 0 ] 1/3; se f 0 ent~ao o algoritmo responde sim somente se nas k iterac~oes (independentes) do repita foi sorteada uma raiz de f, ou seja, ocorreu o evento E n (f). Como as iterac~oes s~ao mutuamente independentes P [ erro ] = P ( E n (f) E n (f) ) = k P ( E n (f) ) i=1 ( ) k 1. 3 1.2.3 Igualdade do produto de matrizes Dadas as matrizes A, B, C quadradas de dimens~ao n sobre Q queremos decidir se vale a igualdade AB = C. Para isso, xamos S Q nito e construmos o

1.2. PROBABILIDADE CONDICIONAL E INDEPEND ^ENCIA 25 algoritmo Algoritmo 7: Teste de produto de matrizes. Dado : matrizes A, B, C quadradas de ordem n. Devolve: sim se AB = C ou n~ao, caso contrario. v R S n ; se ABv = Cv então devolva sim; senão devolva n~ao que sorteia um vetor v = (r 1,..., r n ) R S n testa se ABv = Cv; se valer a igualdade ent~ao responde sim, sen~ao responde n~ao. Assim, se de fato AB = C ent~ao o algoritmo responde certo, mas se AB C ent~ao pode ser que uma escolha ruim de v leve o algoritmo a responder sim, um falso positivo. Para analisar a probabilidade de erro vamos introduzir uma estrategia chamada princpio da decis~ao adiada. Seja D = AB C, escreva D = (d i,j ) e assuma que D 0. Queremos estimar P [ erro ] = P v R S n [ Dv = 0 ]. De D 0, existem l e c tais que d l,c 0. Como n j=1 d l,jr j = 0 temos r c = n j=1 d l,jr j d l,c e, se consideramos que cada coordenada foi sorteada independentemente, podemos assumir que r i, para todo i c, foi sorteado antes de r c (a decis~ao de r c foi adiada), ent~ao o lado direito da igualdade acima ca determinado e a probabilidade de sortear r c que satisfaca a igualdade e no maximo 1/ S. Portanto, P [ erro ] 1 S. Pondo em outra forma, sejam E = { v S n : Dv = 0 } { E = (r 1, r 2,..., r n ) S n : r c = j d } l,jr j, d l,c onde D, l e c s~ao como acima. Podemos particionar o espaco amostral S n denindo para cada (n 1)-upla de elementos de S, (r 1,..., r n 1 ) {0, 1}n 1, o evento A r 1,...,r n 1 = { (r 1,..., r c 1, s, r c,..., r n 1): s S } e assim, para cada v = (r 1,..., r n ) S n existe um, e so um, (r 1,..., r n 1 ) Sn 1 tal que v A r 1,...,r n. Pela lei das probabilidades totais e de E E 1 P(E) = P(E A r 1,...,r ) P(E A n 1 r 1,...,r ) n 1 (r 1,...,r n 1 ) Sn 1 (r 1,...,r n 1 ) Sn 1 = P(E A r 1,...,r )P(A n 1 r 1,...,r ) n 1 (r 1,...,r n 1 ) Sn 1

26 Introduc~ao a probabilidade discreta da independ^encia das coordenadas temos ({ P(E A r 1,...,r n ) = P s S: s = j d l,jr }) j 1 1 d l,c S assim P(E) (r 1,...,r n 1 ) Sn 1 1 S P(A r 1,...,r n 1 ) = 1 S. Exerccio 27. Um baralho de 52 cartas e embaralhado de modo que a disposic~ao nal e qualquer uma as 52! possibilidades com igual probabilidade, em seguida e dividido em 13 montes de 4 cartas cada, todo monte tem um rotulo tomado em A,2,3,...,9,10,J,Q,K arbitrariamente. No primeiro movimento abrimos uma carta do monte K, e o resultado (ignoramos o naipe) indica o proximo monte donde abriremos uma carta, e assim por diante. O jogo acaba quando uma jogada indica um monte vazio. Vencemos o jogo quando abrimos todas as cartas do baralho. Use o princpio da decis~ao adiada para provar que a probabilidade de vencermos o jogo e 1/13. Exerccio 28. Um baralho de 52 cartas e embaralhado de modo que a disposic~ao nal e qualquer uma dentre as 52! possibilidades com igual probabilidade. Denote por E o evento \a carta do topo e de espadas" e F e o evento \a quarta carta a partir do topo e espada". Use o princpio da decis~ao adiada para provar que P(E) = P(F). Exerccio 29. Lancamos dez dados equilibrados. Supondo os resultados independentes, use o princpio da decis~ao adiada para determinar a probabilidade da soma dos resultados ser divisvel por 6. 1.3 Teorema de Bayes Exerccio 30 (Teorema de Bayes). Prove que se E 1,..., E m e uma partic~ao do espaco amostral, ent~ao P(E j A) = P(A E j )P(E j ) m i=1 P(A E i)p(e i ). (1.11) Exemplo 31. Suponha que probabilite e uma doenca que afeta 1% da populac~ao, que existe um teste para detectar probabilite e que n~ao e perfeito: ha 3% de falsos positivos e 2% de falsos negativos. Dado que o teste para um determinado paciente deu positivo, qual e a probabilidade que ele tenha de fato a doenca?

1.3. TEOREMA DE BAYES 27 A lenda diz que a maioria dos medicos respondem 97% sem pestanejar, ja que ha 3% de falsos positivos. Certamente, essa justicativa esta errada, vamos determinar essa probabilidade usando o teorema de Bayes. Bayes Seja A o evento \o exame deu positivo" e B o evento \tem probabilite". Por P(B A) = P(A B)P(B) P(A B)P(B) + P(A B)P(B) = 0, 98 0, 01 0, 98 0, 01 + 0, 03 0, 99 ou seja, P(B A) = 0, 24810126582278, a chance de ter a doenca dado que o teste foi positivo e menor que 25%. Agora, suponha que o paciente foi ao medico por que estava com dor de cabeca e o teste deu positivo. E sabido que todos que tem probabilite apresentam dor de cabeca, enquanto que 10% da populac~ao apresenta dor de cabeca; tambem e sabido que o evento C, \ter dor de cabeca", n~ao afeta a precis~ao do teste. Com esse fato, a probabilidade de estar doente dado que o teste deu positivo e o paciente tem dor de cabeca e P(B A C) = P(A C B)P(B) P(A C B)P(B) + P(A C B)P( B) = P(A B)P(C B)P(B) P(A B)P(C B)P(B) + P(A B)P(C B)P(B) = 0, 98 1 0, 01 = 0, 76742364917776 0, 98 1 0, 01 + 0, 03 0, 1 0, 99 ou seja, mais que 75% de chance de ter a doenca. Estima-se que 90% da populac~ao tera algum tipo de dor de cabeca durante a vida. Se uma pessoa com dor de cabeca ter um teste positivo para probabilite, qual a probabilidade dessa pessoa estar doente? A seguir veremos duas aplicac~oes em computac~ao. 1.3.1 Sigilo perfeito Um sistema de codicac~ao e uma quina (P, C, K, D, E) de conjuntos, onde P e o espaco dos textos comuns (plaintext); C e o espaco dos textos cifrados (chipertext); K e o espaco das chaves; E e o espaco das func~oes de codicac~ao E k : P C, onde k K; D e o espaco das func~oes de decodicac~ao D k : C P, onde k K; tais que para cada e K existe d K tal que D d (E e (p)) = p. Exemplo 32 (Cifra de Cesar). Essa cifra identica o alfabeto com o Z 26, assim K = Z 26 e P, C = {a, b,..., z}. Para e, d Z 26 temos as func~oes E e (x) = (x + e) mod 26 e D d (x) = (x d) mod 26.

28 Introduc~ao a probabilidade discreta Agora, estenda o sistema para que os textos sejam sequ^encias de de letras do alfabeto. Por exemplo, para a chave e = d = 3 Normal: essaauladasono Cifrado: hvvddzodgdvrqr Exemplo 33 (one-time pad). Gilbert Sandford Vernam inventou o seguinte sistema de codicac~ao: dada uma chave k, escolhida previamente E k (x) = x xor k e D k (y) = y xor k. (1.12) O fato da chave ser re-usada tornava o sistema inseguro. Pouco tempo depois Joseph Mauborgne prop^os que a chave fosse aleatoria e usada uma unica vez (onetime pad). Claude Shannon provou que o one-time pad e uma codicac~ao \inquebravel". A ideia de sigilo perfeito pode ser interpretada da seguinte: escolhemos um texto P P de acordo com a distribuic~ao P P (baseada, por exemplo, na frequ^encia com que as letras aparecem nas palavras em uma determinada lngua) e o ciframos. Entregamos ao adversario o texto cifrado C e perguntamos qual a probabilidade do texto que foi cifrado? Se o adversario n~ao pode fazer melhor do que responder P P (P), ou seja, o conhecimento de C n~ao torna uns textos mais provaveis e outros menos provaveis do que eles s~ao, signica que ele n~ao ganhou informac~ao com o conhecimento de C e temos sigilo perfeito. Fixamos um sistema com P, K, C nitos e uma func~ao de probabilidade P P : P [0, 1] tal que P P (P) > 0 ( P P). Tomamos o espaco produto (K P, P) com probabilidade P K nas chaves e P P nos textos e denimos as func~oes sobre o espaco amostral k: K P K p: K P P c: K P C (1.13) (K, P) K (K, P) P (K, P) E K (P) dessa forma P [ p = P ] = P ({ (K, P): k K }) e P [ c = C ] = P ({ (K, P): E K (P) = C }). Notemos que P [ p = P ] = P P (P). Um sistema de codicac~ao nas condic~oes acima tem sigilo perfeito se para todo P P e todo C C P [ p = P ] c = C = P [ p = P ]. (1.14)

1.3. TEOREMA DE BAYES 29 Exemplo 34. O seguinte sistema de codicac~ao n~ao tem sigilo perfeito. Tome P = {α, β} com P P (α) = 1/4 e P P (β) = 3/4, os textos cifrados C = {a, b} e chaves K = {0, 1} com P K (0) = 1/4 e P K (1) = 3/4. A cifra E K (P) e dada por P\ K 0 1 α a b β b a resulta em P [ c = a ] = 5/8 e P [ c = b ] = 3/8. As probabilidades condicionais no lado esquerdo de (1.14) s~ao dadas abaixo [p = α c = a] [p = β c = a] [p = α c = b] [p = β c = b] P[p = P c = C] 1/10 9/10 1/2 1/2 Esse sistema de codicac~ao n~ao tem sigilo perfeito pois se o adversario recebe c = a ent~ao ele tem quase certeza de que o texto cifrado foi β. Exemplo 35. Um exemplo de sistema com sigilo perfeito e o One-time pad com P = K = C ={0, 1} 2. A seguinte tabela tem entradas P [ c = C p = P ]; xado P as possveis cifras s~ao P xor K onde K R K, portanto, independente de P as cifras s~ao equiprovaveis. P P (P) A tabela abaixo mostra P [ p = P c = C ], P C 00 01 10 11 1/6 00 1/4 1/4 1/4 1/4 1/3 01 1/4 1/4 1/4 1/4 1/4 10 1/4 1/4 1/4 1/4 1/4 11 1/4 1/4 1/4 1/4 P P (P) P C 00 01 10 11 1/6 00 1/6 1/6 1/6 1/6 1/3 01 1/3 1/3 1/3 1/3 1/4 10 1/4 1/4 1/4 1/4 1/4 11 1/4 1/4 1/4 1/4 Nesse exemplo temos sigilo perfeito pra essa distribuic~ao particular P P. Lema 36. Para o one-time pad com as chaves equiprovaveis P [ c = C p = P ] = 1 2 n

30 Introduc~ao a probabilidade discreta para qualquer P P, qualquer C {0, 1} n e qualquer distribuic~ao de probabilidades sobre P. Demonstrac~ao. Fixado P, temos C = P xor K se e so se K = P xor C. Como K e escolhida aleatoriamente a probabilidade e (1/2) n. Teorema 37. O one-time pad tem sigilo perfeito. Demonstrac~ao. Usando o teorema de Bayes P [ c = C p = P ] P [ p = P ] P [ p = P c = C ] = X P P [ c = C p = X ] P [ p = X ] = 2 n P [ p = P ] X P 2 n P [ p = X ] = P P(P) Observac~ao 38. O one-time pad n~ao e o unico sistema que possui sigilo perfeito, mas foi o primeiro a ser descoberto. Exerccio 39. Prove ou refute: a cifra de Cesar, exemplo 32, tem sigilo perfeito se em K as chaves s~ao equiprovaveis. Exerccio 40 (Teorema de Shannon). Dados um sistema com P, K, C nitos e K = C e dada uma distribuic~ao de probabilidade P P : P [0, 1] tal que P P (P) > 0, para todo P P, esse sistema tem sigilo perfeito se e somente se as chaves s~ao equiprovaveis e se para todo P P e todo C C existe um unico K K tal que E K (P) = C. 1.3.2 Spam Agora mostraremos uma aplicac~ao do teorema de Bayes na classicac~ao de mensagens eletr^onicas que s~ao spam. O espaco amostral e dado por {0, 1} n de modo que cada coordenada indica se uma mensagem tem (1) ou n~ao tem (0) uma determinada caracterstica e a primeira coordenada, especicamente, e 1 se a mensagem e spam e 0 caso, contrario. Assim o evento S dado por {1} {0, 1} n 1 e o evento \e spam" e S = {0} {0, 1} n 1 e o evento \n~ao e spam". Denotamos por C i o evento \tem a caracterstica i" que corresponde a todos os vetores cuja i-esima coordenada e 1. Vamos assumir que as caractersticas 2, 3..., n s~ao mutuamente independentes condicionalmente ( ) P C i S = P ( ) C i S i I i I ( ) P C i S = P ( ) C i S, i I i I

1.4. VARI AVEIS ALEAT ORIAS DISCRETAS 31 para todo I {2, 3,..., n}, o que pode n~ao ser uma hipotese muito realista. Por exemplo, se a caracterstica 2 e conter a palavra watch e a caracterstica 3 e conter a palavra replica ent~ao um email que contem replica tem muito mais chance de conter watch. 1 Exerccio 41. Prove que ( P S ) i I C i = P(S C i) i I i I P(S C i) + ( P(S)/P(S) ) I 1 i I P(S C i). (1.15) (Dica: teorema de Bayes com S, S e i C i.) Agora, suponha que temos 1.000 mensagens, 500 spams e 500 n~ao spams. O trabalho inicial e denir caractersticas das mensagens que s~ao spams das que n~ao s~ao. Por exemplo, nas minhas mensagens muitos dos spams t^em a palavra watch enquanto que muitos dos n~ao spams t^em a palavra 'reuni~ao'; a maioria das mensagens t^em a palavra 'a', tantos as spams quanto as n~ao spams, logo 'a' n~ao deve ser uma caracterstica classicatoria. Para a caracterstica i, seja k i a quantidade de spams que t^em a caracterstica i e seja l i a quantidade de n~ao spams que t^em a caracterstica i; denimos P ( C i S) = k i 500 e P ( C i S) = l i 500 e pelo teorema de Bayes P(S C i ) = P ( C i S ) P(S) P(C i S)P(S) + P(C i S)P(S) = k i P(S) k i P(S) + l i P(S). Recebida uma mensagem, ltramo-la para determinar suas caractersticas, digamos C i com i I, e (1.15) determina a probabilidade dessa mensagem ser spam. 1.4 Variáveis aleatórias discretas Uma variável aleatória discreta X e uma func~ao qualquer X: Ω R, onde Ω e o espaco amostral de um espaco de probabilidade discreto (Ω, P). Escrevemos [X = t] para o evento {ω Ω: X(ω) = t}. Notemos que (Im(X), P X ) com P X (t) = P [ X = t ] e um espaco de probabilidade. 1 O meu endereco de email recebe varias dessas mensagens que anunciam replica de relogios e watch so aparece nesses spam s. inglesa. Esse pode n~ao ser o caso de um relojoeiro num pas de lngua

32 Introduc~ao a probabilidade discreta Sejam X 1, X 2,..., X n variaveis aleatorias denidas sobre o mesmo espaco amostral. Essas variaveis s~ao independentes k-a-k se para qualquer I {1, 2,..., n}, I = k, e para quaisquer x i, i I, ( [ ] ) P Xi = x i = P ([ ]) X i = x i i I i I (1.16) e essas variaveis s~ao mutuamente independentes se s~ao k-a-k independente para todo k, com 2 k n. A esperança, ou valor médio, da variavel aleatoria X, que denotamos por E X, e dado por E X = ω Ω X(ω)P(ω) quando ω X(ω) P(ω) converge2, e nesse caso tambem dizemos que a esperanca e nita, caso contrario dizemos que a esperanca n~ao existe ou que n~ao e nita. Podemos rearranjar os termos da soma de modo que E X = ip(ω) = ip [ X = i ]. i Im(X) ω Ω X(ω)=i i Im(X) No caso innito enumeravel E X acima existe quando i i P [ X = i ] converge. Exemplo 42. Seja X uma variavel aleatoria inteira e positiva tal que P [ X = i ] = (ci 3 ) 1, onde c e o valor da serie i 1 1/i3. Essa variavel tem media E X = i 1 ip [ X = i ] = i 1 1 ci 2 = π2 6c. Por outro lado, E X 2 = i 2 P [ X = i ] = 1 ci =. i 1 i 1 Exemplo 43. Seja X o numero de lancamentos de uma moeda equilibrada ate sair cara (veja exemplo 3), ent~ao E X = i 1 ip [ X = i ] = i 1 i 2 i = 2. Se a moeda e viciada e p e a probabilidade de sair cara, ent~ao a probabilidade de ω n, denido no exemplo 3, supondo que os resultados s~ao independentes e (1 p) n 1 p e E X = i 1 ip [ X = i ] = i 1 i(1 p) i 1 p = p i 1 i(1 p) i 1 = 1 p. 2 Exigimos que a serie convirja absolutamente. Essa hipotese n~ao e necessaria no caso de espacos nitos.

1.4. VARI AVEIS ALEAT ORIAS DISCRETAS 33 Teorema 44 (Linearidade da esperanca). Se X e Y s~ao variaveis aleatorias nitas sobre Ω e c R uma constante qualquer ent~ao E(cX + Y) = c E X + E Y. (1.17) Demonstrac~ao. Usando a denic~ao e a converg^encia absoluta no caso de variavel sobre um espaco innito (isso permite rearranjar os termos da serie) E(cX + Y) = ω (cx(ω) + Y(ω))P(ω) = ω cx(ω)p(ω) + ω Y(ω)P(ω) = c E X + E Y. O teorema acima estende-se, facilmente, usando induc~ao para provar que se X = n i=1 X i ent~ao E X = n E X i, e, tambem pode-se provar que se X = i 1 X i e i 1 E X i converge, ent~ao i=1 E X = i 1 E X i. Exemplo 45. Considere os inteiros positivos com probabilidade P(n) = 2 n e a as variaveis aleatorias {X n } n 1 dadas por 2 n, se j = n, X n (j) = 2 n+1, se j = n + 1, 0, caso contrario. Logo E X n = j 1 X n (j)p(j) = 2 n 2 n + ( 2 n+1) 2 n+1 = 0, portanto, n 1 E X n = 0. No entanto, para a variavel aleatoria X = n 1 X n temos X(1) = 2 e X(j) = n 1 X n (j) = 0 + + 0 + ( 2) j + 2 j + 0 + 0 + = 0 para todo j 2, portanto, E X = n 1 X(n)P(n) = 2 1 + 0 + 0 + = 1. Logo, n~ao 2 vale que E n X n = n E X n.