MAB-515 Avaliação e Desempenho (DCC/UFRJ)

Documentos relacionados
MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade

TE802 Processos Estocásticos em Engenharia. Valores Esperados de Somas de Variáveis Aleatórias. TE802 Somas de Variáveis Aleatórias

Fundamentos de Estatística

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba

TE802 Processos Estocásticos em Engenharia. Valores Esperados de Somas de Variáveis Aleatórias Notes. PDF da Soma de Duas Variáveis Aleatórias.

Modelagem e Análise de Sistemas de Computação Aula 19

Variáveis Aleatórias Bidimensionais &Teoremas de Limite 1/22

Distribuições de Probabilidade. Distribuição Uniforme Distribuição Exponencial Distribuição Normal

Sumário. 2 Índice Remissivo 11

Distribuições de Probabilidade. Distribuição Normal

Tiago Viana Flor de Santana

Aula 4. Aula de hoje. Aula passada

Variáveis Aleatórias Contínuas e Distribuições de Probabilidade

Modelos Lineares Distribuições de Probabilidades Distribuição Normal Teorema Central do Limite. Professora Ariane Ferreira

Distribuições de Probabilidade Contínuas 1/19

Probabilidade e Estatística

3 a Lista de PE Solução

AULA 17 - Distribuição Uniforme e Normal

CC-226 Aula 07 - Estimação de Parâmetros

Variáveis Aleatórias. Probabilidade e Estatística. Prof. Dr. Narciso Gonçalves da Silva

Processos Estocásticos

Probabilidades e Estatística

Aproximação da binomial pela normal

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 09

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório?

Prof. Lorí Viali, Dr.

Teorema do Limite Central

LEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100%

Variável Aleatória. O conjunto de valores. Tipos de variáveis. Uma função X que associa a cada

Cap. 8 - Variáveis Aleatórias

Estatística e Modelos Probabilísticos - COE241

Variáveis Aleatórias Contínuas e Distribuição de Probabilidad

a) o time ganhe 25 jogos ou mais; b) o time ganhe mais jogos contra times da classe A do que da classe B.

Probabilidade e Estatística. stica. Prof. Dr. Narciso Gonçalves da Silva pessoal.utfpr.edu.

Modelos de Distribuição PARA COMPUTAÇÃO

Aula de hoje. administração. São Paulo: Ática, 2007, Cap. 3. ! Tópicos. ! Referências. ! Distribuição de probabilidades! Variáveis aleatórias

5 a Lista de PE Solução

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08

IND 1115 Inferência Estatística Aula 7

Distribuições Amostrais e Estimação Pontual de Parâmetros

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes

Variáveis Aleatórias Contínuas e Distribuição de Probabilidad

Processos Estocásticos. Luiz Affonso Guedes

Inferência Estatistica

Distribuições Amostrais e Estimação Pontual de Parâmetros

EST012 - Estatística Econômica I Turma A - 1 o Semestre de 2019 Lista de Exercícios 3 - Variável aleatória

Prof. Lorí Viali, Dr.

Estatísticas Inferenciais Distribuições Amostrais. Estatística

Valor Esperado. Vítor H. Nascimento. 29 de outubro de 2015

Aproximação da binomial pela normal

Processos Estocásticos

Modelos Probabilísticos Teóricos Discretos e Contínuos. Bernoulli, Binomial, Poisson, Uniforme, Exponencial, Normal

Módulo III: Processos de Poisson, Gaussiano e Wiener

Solução: A distribuição normal. Representação gráfica. Cálculo de probabilidades. A normal padrão. σ Será uma N(0; 1).

2. EXERCÍCIOS PROPOSTOS SOBRE V.A. E DISTRIB.PROBAB.

MAB-515 Avaliação e Desempenho (DCC/UFRJ)

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte I

COS767 - Modelagem e Análise Aula 3 - Simulação

Mais sobre Modelos Continuos

Probabilidade e Estatística

Capítulo 4 - Variáveis aleatórias e distribuições contínuas

Estimação: (A) Propriedades e Distribuições Amostrais

Probabilidades e Estatística MEEC, LEIC-A, LEGM

1.1.1 Distribuição binomial

TEOREMAS LIMITE EM PROBABILIDADE RENATO ASSUNÇÃO DCC - UFMG

PARTE TEÓRICA Perguntas de escolha múltipla

Módulo II: Cálculo dos Momentos de um Processo Estocástico, Processo de Bernoulli, Processo Random Walk

Estatística e Modelos Probabilísticos - COE241

Capítulo 5 - Distribuições conjuntas de probabilidade e complementos 3

Distribuições Contínuas. Estatística. 7 - Distribuição de Probabilidade de Variáveis Aleatórias Contínuas UNESP FEG DPD

Aproximação da binomial pela normal

Princípios de Modelagem Matemática Aula 10

5. PRINCIPAIS MODELOS CONTÍNUOS

A figura 5.1 ilustra a densidade da curva normal, que é simétrica em torno da média (µ).

PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES

AULA 15 - Distribuição de Bernoulli e Binomial

Professora Ana Hermínia Andrade. Período

Verificar como a distribuição normal pode ser utilizada para calcular, l de forma aproximada, probabilidades associadas a uma variável aleatória com

Estatística Aplicada II. } Revisão: Probabilidade } Propriedades da Média Amostral

Variáveis Aleatórias Discretas 1/1

Variáveis Aleatórias

Distribuições Importantes. Distribuições Contínuas

Distribuição Normal. Prof. Herondino

6. Amostragem e estimação pontual

Neste capítulo, introduzimos as variáveis aleatórias e suas distribuições de probabilidade.

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte II

Estatística I Aula 8. Prof.: Patricia Maria Bortolon, D. Sc.

4.1. ESPERANÇA x =, x=1

MAE0229 Introdução à Probabilidade e Estatística II

PROBABILIDADE E ESTATÍSTICA DISTRIBUIÇÕES DE PROBABILIDADES PARTE I

5. PRINCIPAIS MODELOS CONTÍNUOS

Modelagem e Análise de Sistemas de Computação Aula 20

Cap. 5 Variáveis aleatórias discretas

Probabilidade e Estatística

Distribuições conjuntas de probabilidades e complementos

Vetor de Variáveis Aleatórias

Transcrição:

MAB-515 Avaliação e Desempenho (DCC/UFRJ) Aula 6: Desigualdades, Limites e

1 Normalização Desigualdade de Chebyshev Lei dos Grandes Números 2 3

Normalização Sumário Normalização Desigualdade de Chebyshev Lei dos Grandes Números Seja {X i } um conjunto de variáveis aleatórias (i.i.d), tais que E[X i ] = E[X] e σ 2 X i = σ 2 X. Média das Amostras ou Sample Mean S n S n = X 1+X 2 + +X n E[S n ] = E[X] σ 2 S n = σ 2 X /n n = n i=1 X i n Se Y = n i=1 X i, então E[Y] = ne[x] e σ 2 Y = nσ2 X. Lembrar que V(aX) = a 2 V(X).

Desigualdade de Chebyshev Normalização Desigualdade de Chebyshev Lei dos Grandes Números P( X E[X] x) σ2 X x 2 Aplicando Chebyshev a S n P( S n E[X] x) σ2 S n x 2 = σ2 X nx 2 Significado: a média aritmética de um conjunto de amostras tende para a média da distribuição à medida que o número de observações cresce.

Normalização Desigualdade de Chebyshev Lei dos Grandes Números Aplicação da Desigualdade de Chebyshev Problema: Um jogador pode ganhar 6 ou perder 1, ou 2, ou 3, com probabilidade 1/4 para cada evento, por jogada. Quantas vezes o jogador deve jogar para manter a sua perda ou ganho médio por jogada menor do que 2 com probabilidade de pelo menos 0,95? Solução aproximada por Chebyshev Seja X i o ganho ou perda de uma jogada. Então, E[X i ] = 0 e V(X i ) = E[X 2 ] = 50/4. Fazendo ǫ = 2, obtemos n 63. ( P 1 ) Xi ǫ σ2 n nǫ 2 ( 1 P 1 ) Xi < ǫ σ2 n nǫ 2 ( P 1 ) Xi < ǫ 1 σ2 n nǫ 2 = 0,95

Lei dos Grandes Números Normalização Desigualdade de Chebyshev Lei dos Grandes Números Lei Fraca dos Grandes Números lim P( S n E[X] ǫ) = 0 n Lei Forte dos Grandes Números lim S n = E[X] com probabilidade 1 n A Lei Forte garante que a média das amostras não somente converge para a média verdadeira, mas que se torna ela com 100% de probabilidade. A Lei Fraca decorre diretamente de Chebyshev.

Normalização Desigualdade de Chebyshev Lei dos Grandes Números Função de Gauss ou Distribuição Normal Uma variável aleatória X com PDF Φ X (x) = x 1 2π e y2 2 dy, possui E[X] = 0 e V(X) = 1, e é chamada distribuição normal unitária ou N(0, 1). Em geral, uma v.a. X com distribuição normal com média E[X] = µ e variância V(X) = σ 2 (σ > 0), designada N(µ,σ 2 ), tem pdf f X (x) = PDF F X (x) = 1 2πσ e (x µ)2 2σ 2, x 1 x 2πσ e (y µ)2 2σ 2 dy, x.

Normalização Desigualdade de Chebyshev Lei dos Grandes Números Função de Gauss ou Distribuição Normal Transformada de Laplace da N(µ,σ 2 ) E[e sx ] = = 1 2πσ 1 2πσ sµ+s2 σ2 = e 2 sµ+s2 σ2 = e 2. e sx e (x µ)2 2σ 2 dx e (x (µ σ2 s)) 2 +µ 2 (µ σ 2 s) 2 2σ 2 dx 1 2πσ e (x (µ σ2 s)) 2 2σ 2 dx Por esta expressão é fácil verificar que a soma de variáveis com distribuição Normal é também uma variável Normal com média igual à soma das médias e variância igual à soma das variâncias.

Seja {X i } um conjunto de n variáveis aleatórias independentes e identicamente distribuídas (i.i.d), tais que E[X i ] = E[X] e σx 2 i = σx 2. Defina Y = n i=1 X i, com E[Y] = ne[x] e V(Y) = σy 2 = nv(x) = nσ2 X. n i=1 X i ne[x] A variável aleatória Z n = Y E[Y] σ Y = σ X n soma normalizada das variáveis aleatórias X i. Observe que E[Z n ] = 0 e V(Z n ) = 1. é chamada

O afirma que: lim P(Z n x) = Φ(x) n A soma normalizada de variáveis aleatórias independentes se aproxima da distribuição normal unitária. Não é necessário que todas as variáveis aleatórias tenham a mesma pdf; na prática, sempre que uma variável aleatória é a soma de um número grande de variáveis aleatórias bem comportadas, então a soma normalizada tem distribuição normal unitária. Exemplo: ruído sideral.

Aplicação do Problema: Em um milhão de lançamentos de uma moeda, qual a probabilidade de se obter mais de 510.000 caras? Solução Exata A probabilidade de se obter exatamente 510.000 caras em 10 6 lançamentos é: ( 10 6 ) (0,5) 510.000 (0,5) 490.000 = 1.08978 10 90 510.000 P(# de caras > 510.000) = 10 6 k=510.001 ( 10 6 k ) (0,5) 106 = 26,642 10 90 Solução pode ser obtida através de um programa.

Aplicação do Solução pelo Tratando como um experimento de Bernoulli, o resultado do i-ésimo lançamento é uma variável X i, com valores 1 (cara) ou 0 (coroa) com probabilidade = 0,5. E[X i ] = 0,5, V(X i ) = 0,25 e σ Xi = 0,5. Y = 10 6 i=1 X i expressa o número de caras obtido. Seja Z n = Y 106 0,5 0,5 10 3. Verifica-se diretamente que P(Y > 510.000) = P(Z n > 20). Da tabela da normal: P(Z n > 20) = 1 Φ(20) = 25 10 90. Comparando o resultado obtido com a solução exata, vemos que o é uma excelente aproximação.

Aplicação do Solução usando a Desigualdade de Chebyshev P( S n E[X] x) σ2 X nx 2 P( ns n ne[x] nx) = P( Y 500.000 10 6 x) Fazendo 10 6 x = 10.000, obtemos x = 0.01. Então: σx 2 P( Y 500.000 10.000) 10 6 10 4 = 0,25 10 2, e então P(Y 500.000 10.000) 12,5 10 4 Se aproximarmos o valor da probabilidade pelo limite superior dado por Chebyshev verificamos que teremos uma resposta extremamente incorreta, pois o limite de Chebyshev para este caso é muito frouxo.

Aplicação do Aproximando Distribuiccões Uma v.a. Poisson Y pode ser vista como a soma de n v.as. Poisson X i : Y = n i=1 X i, com E[X] = λ i = λ/n = V(X). Pelo Z = Y E[Y] σ Y = Y λ λ = N(0,1) P(Z z) = Φ(z) ( P(Y k) = P Z k λ ) ( ) k λ = Φ λ λ Para efeito de aproximação, como Poisson é uma variável discreta( e Φ é contínua, ) usa-se uma correção de continuidade e adota-se : P(Y k) = Φ k+1/2 λ λ Esta aproximação melhora com aumento de λ.

Prova do Um resultado importante envolvendo momentos e T.L. E[e sx ( sx) i ] = E[ ] = i! i=0 ( s) i E[X i ] i! i=0 E[e sx ] = 1 se[x]+ s2 2 E[X2 ] s3 3! E[X3 ]+

Prova do Demonstração: O resultado do pode ser demonstrado de maneira simples usando o conceito de transformada. Z n = 1 n σ X n i=1 (X i E[X]) = 1 n σ X n i=1 W i, onde as variáveis W i,1 i n, são i.i.d, com E[W i ] = 0 e V(W i ) = E[Wi 2 ] = V(X) = σx 2. E [ e szn] = E [e s ni=1 ] ( ]) W σ X n i = E [e s n ( ( )) W σ X n i = Wi s n. σ X n W i (s) = 1 sew i ]+ s2 2 E[W2 i ] s3 3! E[W3 i ]+ = 1+ s2 2 E[W2 i ]+o(s 2 ) Aproximando Wi (s) = 1+ s2 2 E[W2 i ] = 1+ s2 2 σ2 X, obtemos n. E[e szn ] = (1+ 2n) s2 Para n, E [ e szn] = e s2 2 (T.L. da N(0,1)), ou seja, Z n N(0,1) com n. CQD.

Sumário {X 1,X 2,,X n } é o conjunto de n observações (ou amostras) independentes da v.a. X, que tem média u, variância σ 2 e pdf f(x). Estimador da Média ˆµ = 1 n n i=1 X i é a variável aleatória denominada média das amostras (ou sample mean) e é um estimador de µ. Estimador da Variância ˆσ 2 = 1 n n 1 i=1 (X i ˆµ) 2

Propriedades dos Não Tendencioso ou Unbiased: esperança do estimador é igual ao valor estimado E[ˆµ] = 1 n n i=1 E[X i] = E[X i ] = µ E [ˆσ 2] = σ 2 Consistente: variância do estimador tende a zero com aumento do número de amostras V(ˆµ) = V ( 1 n n i=1 X ) i = 1 n n 2 i=1 V(X i) = σ2 n V(ˆµ) = σ2 n 0 com n V(ˆσ 2 ) 0 com n