28 de dezembro de 2007

Documentos relacionados
27 de dezembro de 2007

1 de janeiro de UFRPE e UFPE. Curso de Teoria Assintótica. Gauss Cordeiro. Roteiro. Expansões de Laplace

26 de dezembro de 2007

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

COMPARAÇÃO DAS EXPANSÕES DE EDGEWORTH, LUGANNANI-RICE, DANIELS E CORDEIRO-FERRARI COM

Modelos Lineares Distribuições de Probabilidades Distribuição Normal Teorema Central do Limite. Professora Ariane Ferreira

Definições Matemáticas

Lucas Santana da Cunha de junho de 2018 Londrina

ESTATÍSTICA COMPUTACIONAL

Inferência para CS Modelos univariados contínuos

Probabilidades e Estatística MEEC, LEIC-A, LEGM

5. PRINCIPAIS MODELOS CONTÍNUOS

ESTATÍSTICA COMPUTACIONAL

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9

Probabilidade e Estatística. stica. Prof. Dr. Narciso Gonçalves da Silva pessoal.utfpr.edu.

Lucas Santana da Cunha 12 de julho de 2017

Lucas Santana da Cunha de junho de 2018 Londrina

Distribuições derivadas da distribuição Normal. Distribuição Normal., x real.

Análise de Dados e Simulação

ESTATÍSTICA COMPUTACIONAL

Vetor de Variáveis Aleatórias

Distribuições de Probabilidade. Distribuição Uniforme Distribuição Exponencial Distribuição Normal

Par de Variáveis Aleatórias

Estatísticas Inferenciais Distribuições Amostrais. Estatística

Revisões de Matemática e Estatística

Prof. Lorí Viali, Dr.

Gabarito da G3 de Equações Diferenciais

LEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100%

exercícios de análise numérica II

MAB-515 Avaliação e Desempenho (DCC/UFRJ)

Respostas da Série de Exercícios Funções Multivariadas e outras. Lista 3A

CONHECIMENTOS ESPECÍFICOS

Seja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma:

UFABC - Pós-graduação em Física - FIS Mecânica Estatística Curso Prof. Germán Lugones CAPITULO 1. Variáveis Aleatórias

AULA 17 - Distribuição Uniforme e Normal

canal para sinais contínuos

Polinômios de Legendre

Técnicas computacionais em probabilidade e estatística II

ANÁLISE COMPLEXA E EQUAÇÕES DIFERENCIAIS. Apresente e justifique todos os cálculos

Redes de Computadores sem Fio

Sumário. 2 Índice Remissivo 11

MAE0229 Introdução à Probabilidade e Estatística II

Distribuição Normal. Diz-se que uma variável aleatória X tem distribuição normal, se a sua função densidade de probabilidade for dada por:

Departamento de Matemática Escola Superior de Tecnologia de Viseu

VARIÁVEIS ALEATÓRIAS

COMPORTAMENTO ASSITÓTICO DE ESTIMADORES DE MÁXIMA VEROSSIMILHANÇA

Variável Aleatória Contínua (v.a.c)

Distribuições Contínuas de Probabilidade

Funções Geradoras de Variáveis Aleatórias. Simulação Discreta de Sistemas - Prof. Paulo Freitas - UFSC/CTC/INE

Outras distribuições contínuas. Gama Qui-quadrado t-student F-Snedecor Pareto Weibull Beta Log-Normal Meia-normal Cauchy etc...

MIEEC Probabilidades e Estatística 1 a Chamada 10/01/2008. Parte Prática

Cadeias de Markov em Tempo Continuo

4.1. ESPERANÇA x =, x=1

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08

Mais sobre Modelos Continuos

Testes de Hipótese para uma única Amostra - parte II

Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados

)XQGDPHQWRVGHSUREDELOLGDGHHHVWDWtVWLFD

Distribuições Amostrais e Estimação Pontual de Parâmetros

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios

Variáveis Aleatórias Contínuas e Distribuição de Probabilidad

Aproximação da binomial pela normal

Módulo III: Processos de Poisson, Gaussiano e Wiener

ANÁLISE DE SÉRIES TEMPORAIS

ALGUMAS DISTRIBUIÇÕES CONTÍNUAS DE PROBABILIDADE

Universidade Federal de Lavras

Métodos de Runge-Kutta

2 Descrição do Problema

Probabilidade 2 - ME310 - Lista 4

Avaliação e Desempenho Aula 5

Introdução à probabilidade e à estatística II. Prof. Alexandre G Patriota Sala: 298A Site:

AGA Análise de Dados em Astronomia I. 2. Probabilidades

EXERCICIOS RESOLVIDOS - INT-POLIN - MMQ - INT-NUMERICA - EDO

Sabendo que f(x) é um polinômio de grau 2, utilize a formula do trapézio e calcule exatamente

EXAMES DE ANÁLISE MATEMÁTICA III

ALGUNS MODELOS DE VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS. Prof.: Idemauro Antonio Rodrigues de Lara

ANÁLISE DE SÉRIES TEMPORAIS

First exam October 23, 2006 Statistics II

O teorema de Bayes é uma igualdade simples que vem da afirmação de que prob(a e B) = prob(b e A): prob(a B) prob(b) prob(a)

Estatística I Aula 8. Prof.: Patricia Maria Bortolon, D. Sc.

PROVAS Ciência da Computação. 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta)

ANÁLISE DE ALGORITMOS: PARTE 4

Bioestatística e Computação I

MINISTÉRIO DA EDUCAÇÃO UNIVERSIDADE FEDERAL DE LAVRAS

Aula 11. Variáveis Aleatórias Contínuas Bidimensionais

CONHECIMENTOS ESPECÍFICOS

MOQ 13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel

Estatística e Modelos Probabilísticos - COE241

Distribuições de Probabilidade. Distribuição Normal

TESTES DE HIPÓTESES Notas de aula. Prof.: Idemauro Antonio Rodrigues de Lara

MAP CÁLCULO NUMÉRICO (POLI) Lista de Exercícios sobre Interpolação e Integração. φ(x k ) ψ(x k ).

IND 1115 Inferência Estatística Aula 6

Derivadas. Slides de apoio sobre Derivadas. Prof. Ronaldo Carlotto Batista. 21 de outubro de 2013

Distribuições de probabilidade

Métodos para geração de variáveis aleatórias

Métodos Experimentais em Ciências Mecânicas

Módulo II: Cálculo dos Momentos de um Processo Estocástico, Processo de Bernoulli, Processo Random Walk

Probabilidade e Estatística

Transcrição:

Curso de UFRPE e UFPE 28 de dezembro de 2007

1 2 3 4 5 6

Seja f (y) uma função densidade conhecida, cujos cumulantes são dados por κ 1, κ 2,.... O interesse reside em usar f (y) para aproximar uma função densidade g(y) (em geral desconhecida) a partir da aplicação de um operador T(D) a f (y). O operador é formulado como T(D) = exp ǫ j ( D) j /j! j=1 e a aproximação para g(y) é definida por g(y) = T(D) f (y), em que D é o operador diferencial, ou seja, D j f (y) = d j f (y)/dy j.

Os cumulantes de g(y) são determinados como os coeficientes de t r /r! na expansão de { + } log e ty g(y)dy. Expandindo o operador T(D) em série de Taylor vem T(D) = i=0 1 i! ǫ j ( D) j de onde se conclui que os cumulantes de g(y) são dadas por κ 1 + ǫ 1, κ 2 + ǫ 2,.... A função g(y) pode não satisfazer a condição g(y) 0 para todo y, mas seus cumulantes κ r + ǫ r são definidos mesmo que esta condição não seja satisfeita. j=1 j!

De g(y) = T(D) f (y) obtém-se, pela expansão de T(D), g(y) = f (y) ǫ 1 Df (y) + 1 2 (ǫ2 1 + ǫ 2)D 2 f (y) 1 6 (ǫ3 1 + 3ǫ 1ǫ 2 + ǫ 3 )D 3 f (y) + 1 24 (ǫ4 1 + 6ǫ2 1 ǫ 2 + 4ǫ 1 ǫ 3 + ǫ 4 )D 4 f (y) +

Em muitos casos, D j f (y) = P j (y)f (y), em que onde P j (y) é um polinômio de grau j em y. Esses polinômios são geralmente ortogonais com relação à distribuição associada a f (y), ou seja, P j (y)p k (y)f (y) = 0, para j k.

No caso em que f (y) é a função densidade φ(y) da distribuição normal reduzida, ( 1) j P j (y) é o polinômio de Hermite H j (y) de grau j definido pela identidade ( D) r φ(y) = H r (y)φ(y). Os primeiros polinômios de Hermite são H 0 (y) = 1, H 1 (y) = y, H 2 (y) = y 2 1, H 3 (y) = y 3 3y, H 4 (y) = y 4 6y 2 + 3, H 5 (y) = y 5 10y 3 + 15y, H 6 (y) = y 6 15y 4 + 45y 2 15.

Esses polinômios têm propriedades interessantes decorrentes da identidade exp(ty t 2 t j /2) = j! H j(y), tais como: j=0 d dy H r(y) = r H r 1 (y), D j H r (y) = r (j) H r j (y) para r j, em que r (j) = r(r 1) (r j + 1). Satisfazem ainda a relação de recorrência H r (y) = y H r 1 (y) (r 1) H r 2 (y) (r 2).

Caso especial de maior aplicabilidade: f (y) é a função densidade φ(y) da distribuição N(0, 1). Neste caso, κ r = 0 para r > 2 e ǫ 3, ǫ 4,... são iguais aos cumulantes de g(y). Assim, g(y) = φ(y)[1 + ǫ 3 3! H 3 (y) + ǫ 4 4! H 4 (y) + ǫ 5 5! H 5 (y) + (ǫ 6+10ǫ 2 3 ) 6! H 6 (y) + ]. Esta expansão é denominada expansão para a densidade.

Integrando e usando a relação H r (y)φ(y)dy = H r 1 (y)φ(y)(r 1) vem G(y) = Φ(y) φ(y)[ ǫ 3 3! H 2 (y) + ǫ 4 4! H 3 (y) + ǫ 5 5! H 4 (y) + (ǫ 6+10ǫ 2 3 ) 6! H 5 (y) + ], em que Φ(y) é a função de distribuição da normal reduzida.

Seja Y uma variável aleatória com funções densidade f (y) e geratriz de cumulantes K(t). Os cumulantes padronizados de Y são ρ r = κ r /κ r/2 2 para r 2. Tem-se κ 1 = E(y) = µ e κ 2 = Var(Y ) = σ 2. Suponha que Y 1,...,Y n são realizações iid de Y e sejam as somas S n = n i=1 Y i, e S n = (S n nµ)/(σ n). Como as variáveis aleatórias são iid, as funções geratrizes de cumulantes de S n e S n são dadas por K Sn (t) = nk(t) e respectivamente. ( ) nµt t K S n (t) = + nk σ σ, (1) n

A expansão de K(t) em série de Taylor equivale a uma soma de funções dos cumulantes padronizados de Y K(t) = µt + σ 2 t 2 /2 + ρ 3 σ 3 t 3 /6 + ρ 4 σ 4 t 4 /24 + que substituída em (1) implica K S n (t) = t 2 /2 + ρ 3 t 3 /(6 n) + ρ 4 t 4 /(24n) + O(n 3/2 ). (2) A função geratriz de momentos M S n (t) de S n é obtida de (2) tomando exponenciais. Logo, M S n (t) = exp(t 2 /2){1 + ρ 3 t 3 /(6 n) + ρ 4 t 2 /(24n) +ρ 2 3t 6 /(72n) + O(n 3/2 )}.

Para obter a função densidade de S n, a equação anterior deve ser invertida termo a termo usando a identidade e ty φ(y)h r (y)dy = t r exp(t 2 /2). Então, a função densidade de S n é dada por f S n (y) = φ(y){1 + ρ 3 6 n H 3(y) + ρ 4 24n H 4(y) + ρ2 3 72n H 6(y)} + O(n 3/2 ). (3)

A integral de (3) produz a expansão da função de distribuição de S n como F S n (y) = Φ(y) φ(y)[ ρ 3 6 n H 2(y) + ρ 4 24n H 3(y) + ρ2 3 72n H 5(y)] + O(n 3/2 ). (4) As fórmulas (3) e (4) são as expansões de para as funções densidade e de distribuição de uma soma padronizada S n, respectivamente. É importante salientar que a expansões acima seguem diretamente das expansões, pois os cumulantes de S n são, simplesmente, ǫ r = O(n 1 r/2 ) para r 3 com ǫ 3 = ρ 3 / n e ǫ 4 = ρ 4 /n.

Sejam Y 1,...,Y n variáveis aleatórias iid com distribuição exponencial de média um. A função densidade exata de S n é dada por π S n (y) = n(n + y n) n 1 exp( n y n)/(n 1)!. Para obter a expansão de tem-se E(S n ) = n, Var(S n ) = n, ρ 3 = 2 e ρ 4 = 6. Logo, { f S n (y) = φ(y) 1 + H 3(y) 3 n + H 4(y) + H } 6(y) + O(n 3/2 ). 4n 18n

Na Tabela 1 compara-se para n = 5 o valor exato π S n (y) com a aproximação normal φ(y) (termo principal) e com aquelas expansões f S n (y) obtidas da equação anterior considerando apenas o termo O(n 1/2 ) e com aqueles dois termos de ordem O(n 1 ).

Tabela 1: Aproximações de para a função densidade da soma padronizada de 5 variáveis exponenciais iid de y Exato Normal até O(n 1/2 ) até O(n 1 ) -2 0,0043 0,0540 0,0379 0,0178-1,5 0,1319 0,1295 0,1512 0,1480-1,0 0,3428 0,2420 0,3141 0,3329-0,5 0,4361 0,3521 0,4242 0,4335 0 0,3924 0,3989 0,3989 0,3922 1 0,1840 0,2420 0,1698 0,1887 2 0,0577 0,0540 0,0701 0,0500 3 0,0144 0,0044 0,0163 0,0181

Este exemplo ilustra o desempenho da expansão de no contexto discreto. Seja S n a soma de n variáveis aleatórias iid com distribuição de Poisson de média 1. Assim, S n tem distribuição de Poisson de média n. Todos os cumulantes da distribuição de Poisson são iguais e, então, ρ 3 = ρ 4 = 1. A soma padronizada S n = (S n n)/ n tem função de distribuição aproximada, decorrente de (4), dada por { H2 (y) F S n (y) = Φ(y) φ(y) 6 n + H 3(y) 24n + H } 5(y) +O(n 3/2 ). 72n

No uso desta expansão para aproximar P(S n r), pode-se adotar uma correção de continuidade como y = (r n + 0, 5)/ n de modo que P(S n r) = F S n (y). A Tabela 2 compara a aproximação Φ(y) e as expansões de F S n (y) até ordens O(n 1/2 ) e O(n 1 ) com o valor exato de P(S n r) quando n = 8. Ambas as expansões de aproximam melhor P(S n r) do que a função de distribuição normal Φ(y).

Tabela 2: Aproximações para a função de distribuição de Poisson de média n = 8. de r Exato Normal até O(n 1/2 ) até O(n 1 ) 2 0,0138 0,0259 0,0160 0,0148 4 0,0996 0,1079 0,1021 0,1011 6 0,3134 0,2981 0,3128 0,3141 8 0,5926 0,5702 0,5926 0,5919 10 0,8159 0,8116 0,8151 0,8146 12 0,9362 0,9442 0,9340 0,9374 14 0,9827 0,9892 0,9820 0,9824

Suponha que uma variável aleatória contínua padronizada Y tem média zero, variância um e cumulantes ρ j de ordens O(n 1 j/2 ) para j 3. Neste caso, a expansão de para P(Y y) segue diretamente de (4). Suponha agora que y α e u α são definidos por. P(Y y α ) = Φ(u α ) = 1 α As expansões de são duas expansões assintóticas relacionando os quantis y α e u α : uma expansão normalizadora que expressa u α como função de y α e sua expansão inversa dando y α em termos de u α.

Expandindo Φ(u α ) em série de Taylor vem (u α y α ) r Φ(u α ) = Φ{y α +(u α y α )} = Φ(y α )+ D r Φ(y α ) r! (5) e, então, (u α y α ) r Φ(u α ) = Φ(y α ) + ( 1) r 1 H r 1 (y α )φ(y α ). (6) r! r=1 r=1

Igualando P(Y y α ) proveniente de (5) à equação (6), pode-se expressar u α em função de y α até ordem O(n 1 ) como um polinômio do terceiro grau u α = p(y α ) = y α ρ 3 6 n (y2 α 1) + ρ2 3 36n (4y2 α 7y α ) ρ 4 24n (y3 α 3y α ). (7) O polinômio p(y ) de representa a transformação normalizadora da variável Y até ordem O(n 1 ), isto é, p(y ) N(0, 1) + O p (n 3/2 ).

O objetivo da expansão inversa de é expressar os quantis y α de Y como função dos correspondentes quantis u α da distribuição normal reduzida. A inversão da expansão (7) para calcular y α em termos do quantil u α da normal reduzida é obtida expandido y α = u α + g(y α ) em termos de u α como y α u α = g(u α ) + Dg2 (u α ) + D2 g 3 (u α ) + (8) 2! 3! Identificando g(y α ) = y α p(y α ) em (7), substituindo em (8) e calculando as potências de g(u α ) e suas derivadas, obtém-se y α em função de u α até ordem O(n 1 ) como y α = u α + ρ 3 6 n (u2 α 1) ρ2 3 36n (2u3 α 5u α ) + ρ 4 24n (u3 α 3u α ). (9)

Suponha que Z χ 2 n e seja Y = (Z n)/ 2n a variável aleatória qui-quadrado padronizada, cujos terceiro e quarto cumulantes são ρ 3 = 2 2 e ρ 4 = 12. Logo, P(Z z α ) = P(Y (z α n)/ 2n) e, portanto, juntando os dois termos de ordem n 1 em (9) vem z α = n + { } 2 2n u α + 3 n (u2 α 1) + 1 18n (u3 α 7u α ). A Tabela 3 mostra a adequação das aproximações para z α provenientes da equação acima usando apenas o termo de ordem O(1)(u α ) e aquelas incluindo os termos O(n 1/2 ) e O(n 1 ). Observa-se desta tabela que a correção O(n 1/2 ) já melhora substancialmente a aproximação normal, sendo que esta aproximação é ruim mesmo para n = 100, ao nível de significância de 1%.

Tabela 3: Comparação das expansões de para os quantis da χ 2 n até α n Exato O(1) O(n 1/2 ) O(n 1 ) 5 15,09 12,36 15,20 15,07 10 23,21 20,40 23,34 23,25 0,01 50 76,15 73,26 76,20 76,16 100 135,81 132,90 135,84 135,81 5 9,24 9,65 9,48 9,24 10 15,99 15,73 16,16 15,99 0,10 50 63,17 62,82 63,24 63,16 100 118,50 118,12 118,55 118,50

Daniels, H. E. (1954). Saddlepoint Approximations in Statistics. The Ann. Math. Statistics, 25, 631 650. Daniels, H. E. (1987). Tail Probability Approximations. International Statistical Review, 55, 1, 37 48., G.M. (1999). à teoria assintótica. 22o Colóquio Brasileiro de Matemática, IMPA, 70 77., G.M. (1992). à teoria da verossimilhança. Capítulo 3, Seção 3.8, 90 95. Goutis, C. e Casella, G. (1999) Explaining the Saddlepoint Approximation. The American Satistician, 53, n. 3, 216 224.

Curso de Hinkley, D. V., Reid, N. e Snell, E. J. (1990). Statistical Theory and Modelling. In honour of Sir David Cox, FRS. Chapman and Hall. Jensen, J. L. (1988). Uniform Saddlepoint Approximations. Adv. Appl. Prob., 20, 622 634. Kolassa, J. E. (1997). Series Approximation Methods in Statistics. Lecture Notes in Statistics, 88, second edition, Springer, 58 81. Lugannani, R. e Rice, S. (1980). Saddle Point Approximation for The Distribution of The Sum of Independent Random Variables. Adv. Appl. Prob., 12, 475 490.