M. Eisencraft 4.6 Distribuição e densidade de uma soma de variáveis aleatórias57. + w y. f X,Y (x,y)dxdy (4.24) w y

Documentos relacionados
5.3 Variáveis aleatórias gaussianas conjuntas

Processos aleatórios - características

M. Eisencraft 6.3 Funções de correlação 81. R YX (τ) R YY (τ). (6.19) R XY (τ) = R YX ( τ) (6.20)

2.3 Operações sobre uma variável aleatória - Esperança matemática

Neste capítulo é introduzido um conceito que permite definir eventos de uma forma mais

5.7 Amostragem e alguns teoremas sobre limites

Aula 11. Variáveis Aleatórias Contínuas Bidimensionais

MP-208: Filtragem Ótima com Aplicações Aeroespaciais

Operações sobre uma variável aleatória

Eisencraft e Loiola 2.1 Probabilidade 37. Para resolver problemas de probabilidades são necessários 3 passos:

Par de Variáveis Aleatórias

TE802 Processos Estocásticos em Engenharia

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório?

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes

Processos Estocásticos. Luiz Affonso Guedes

PRE29006 LISTA DE EXERCÍCIOS #

M. Eisencraft 6.5 Processos aleatórios gaussianos 86. t1 +T. x(t)y(t+τ)dt. (6.35) t 1 T. x(t)y(t+τ)dt R xy (τ) = R XY (τ). (6.36)

TE802 Processos Estocásticos em Engenharia

Princípios de Comunicação - s.7

M. Eisencraft 2.5 Outros exemplos de distribuições e densidades 29. Densidade e distribuição uniforme. 0 a b x. 0 a b x

Módulo II: Cálculo dos Momentos de um Processo Estocástico, Processo de Bernoulli, Processo Random Walk

Probabilidade e Variáveis Aleatórias. Prof. Walter Fetter Lages 4 de outubro de 2004

3 3. Variáveis Aleatórias

Análise de Dados e Simulação

Princípios de Modelagem Matemática Aula 10

Variáveis Aleatórias Bidimensionais &Teoremas de Limite 1/22

Variáveis Aleatórias. Departamento de Matemática Escola Superior de Tecnologia de Viseu

Fundamentos da Teoria da Probabilidade

Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos

Variáveis Aleatórias Discretas 1/1

A estacionariedade prova-se de maneira semel- hante.

Processos Aleatórios e Ruído


Departamento de Matemática Escola Superior de Tecnologia de Viseu. Engenharia e Gestão Industrial

Seja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma:

Motivação. VA n-dimensional. Distribuições Multivariadas VADB. Em muitas situações precisamos

Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos

CE085 - Estatística Inferencial

TE802 Processos Estocásticos em Engenharia. Valores Esperados de Somas de Variáveis Aleatórias Notes. PDF da Soma de Duas Variáveis Aleatórias.

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios

Notas de Probabilidades e Estatística

canal para sinais contínuos

1.4.2 Probabilidade condicional

Estatística Matemática I

2.2 A variável aleatória

1.3.2 Sistemas LIT - a integral de convolução

TE802 Processos Estocásticos em Engenharia. Valores Esperados de Somas de Variáveis Aleatórias. TE802 Somas de Variáveis Aleatórias

Estatística Descritiva e Exploratória

VARIÁVEIS ALEATÓRIAS E DISTRIBUIÇÕES DE PROBABILIDADE

2 Conceitos de Teoria da Probabilidade

Variância, DP e Desigualdades

Capítulo 5 - Distribuições conjuntas de probabilidade e complementos 3

Probabilidades e Estatística TODOS OS CURSOS

Vetor de Variáveis Aleatórias

Aula 3 - Revisão de Probabilidade e Estatística: Esclarecimento de Dúvidas

Reviso de Teoria da Medida e Elementos Bsicos de Probabilidade

Prof. Lorí Viali, Dr.

Teoria da Informação

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 01 / Introdução

Variáveis Aleatórias. Henrique Dantas Neder. April 26, Instituto de Economia - Universidade Federal de Uberlândia

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 01 / Introdução

Probabilidade Aula 11

Conteúdo Teórico: 04 Esperança

MESTRADO INTEGRADO EM ENGENHARIA ELECTROTÉCNICA E DE COMPUTADORES PROBABILIDADES E ESTATÍSTICA. 1ª Chamada 10/01/2008.

Lista de Exercícios #5 Assunto: Variáveis Aleatórias Multidimensionais Contínuas

5 a Lista de PE Solução

Universidade Federal do ABC. Processos Estocásticos. Profs. Marcio Eisencraft e Murilo Loiola

AULA 11 - Valor esperado e suas propriedades

Vetor de Variáveis Aleatórias

Motivação. VA n-dimensional. Distribuições Multivariadas VADB

Capítulo 2. Variáveis Aleatórias e Distribuições

SUMÁRIO. 1.1 Introdução, Conceitos Fundamentais, 2

Processos Estocásticos

Processos estocásticos

Aula 15 Propriedades da TFD

Momentos: Esperança e Variância. Introdução

Variáveis Aleatórias Contínuas e Distribuição de Probabilidad

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Redes de Computadores sem Fio

4.1. ESPERANÇA x =, x=1

Estimativas e Erros. Propagação de erros e Ajuste de funções

PARTE TEÓRICA Perguntas de escolha múltipla

Introdução ao Processamento Estatístico de Sinais

Distribuições de probabilidade contínuas

Nome: N. o : f(u) du para todo o x (V) d) Se F (x) tiver pontos de descontinuidade, então X é discreta (F)

Mais sobre Modelos Continuos

Inferência para CS Modelos univariados contínuos

SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS

Modelagem Estocástica e Quantificação de Incertezas

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte I

Cálculo II (Primitivas e Integral)

Distribuições derivadas da distribuição Normal. Distribuição Normal., x real.

AGA Análise de Dados em Astronomia I. 2. Probabilidades

Distribuições de Probabilidade Contínuas 1/19

DISTRIBUIÇÃO CONJUNTA (parte II)

{ C(1 x 2 ), se x ( 1, 1), f(x) = Cxe x/2, se x > 0, x + k, se 0 x 3; 0, c.c. k, se 1 < x 2; kx + 3k, se 2 < x 3;

Aula 1 - Revisão de Probabilidade e Estatística

Transcrição:

M. Eisencraft 4.6 Distribuição e densidade de uma soma de variáveis aleatórias57 Assim, e usando a Eq. (4.17), F W (w) = F W (w) = + w y + x= f X,Y (x,y)dxdy (4.24) w y f Y (y)dy f X (x)dx (4.25) x= Diferenciando a Eq. 4.25 e usando a regra de Leibniz chega-se à função densidade desejada f W (w) = + f Y (y)f X (w y)dy. (4.26) Esta expressão é uma integral de convolução. Consequentemente, mostrou-se que a função densidade da soma de duas variáveis aleatórias estatísticamente independentes é a convolução das suas densidades individuais. Exercício 4.8. Calcule a densidade de W = X + Y em que as densidades de X e Y são, respectivamente, f X (x) = 1 [u(x) u(x a)] a (4.27) f Y (y) = 1 [u(y) u(y b)] b (4.28) com 0 < a < b. 4.6.2 Soma de diversas variáveis aleatórias Quando deseja-se considerar a soma Y de N variáveis aleatórias X 1, X 2,..., X N, pode-se extender os resultados acima. Continuando o processo encontra-se que a função densidade de Y = X 1 +X 2 +...+X N é a convolução das funções densidade individuais: f Y (y) = f XN (x N ) f XN 1 (x N 1 ) f X1 (x 1 ). (4.29)

M. Eisencraft 4.7 Teorema do Limite Central 58 4.7 Teorema do Limite Central De forma geral, o teorema do limite central diz que a função distribuição de probabilidades da soma de um grande número de VAs aproxima-se de uma distribuição gaussiana. Seja X i e σ 2 X i as médias e variâncias, respectivamente, de N variáveis aleatórias X i, i = 1,2,...,N que podem ter densidades de probabilidade arbitrárias. O teorema do limite central estabelece que a soma Y N = X 1 +X 2 + +X N, que tem média Y N = X 1 + X 2 + + X N e variância σ 2 Y = σ2 X 1 +σ 2 X 2 + +σ 2 X N tem uma distribuição de probabilidade que se aproxima de uma gaussiana para N. A importância prática do teorema do limite central não reside tanto na exatidão da distribuição gaussiana quando N porque a variância de Y N torna-se infinita, mas sim no fato de que Y N para N finito ter distribuição muito próxima de uma gaussiana. Exercício 4.9. Use o Matlab R para traçar histogramas da variável aleatória Y = X 1 +X 2 + +X N, sendo que cada uma das VAs X i tem distribuição uniforme no intervalo [0,1]. Veja o que ocorre para diversos valores de N.

Capítulo 5 Operações sobre múltiplas variáveis aleatórias Nessa seção, estende-se o conceito de valor esperado para o caso de duas ou mais variáveis aleatórias. 5.1 Valor esperado de uma função de variáveis aleatórias O valor esperado de uma função de uma variável aleatória foi definido na Seção 3.1 por E[g(X)] = g(x)f X (x)dx. (5.1) Quando mais de uma variável aleatória é envolvida, o valor esperado deve ser tomado em relação atodasasvariáveis envolvidas. Por exemplo, seg(x,y) éuma função deduas variáveis aleatórias X e Y, o valor esperado de g(.,.) é dado por g = E[g(X,Y)] = g(x,y)f X,Y (x,y)dxdy. (5.2) Para N variáveis aleatórias X 1, X 2,..., X N e uma função dessas variáveis denotada por 59

M. Eisencraft 5.1 Valor esperado de uma função de variáveis aleatórias 60 g(x1,...,x N ), o valor esperado dessa função se torna: g = E[g(X 1,...,X N )] = g(x 1,...,x N )f X1,...,X N (x 1,...,x N )dx 1...dx N. (5.3) Um resultado que segue diretamente da definição acima é que o valor esperado de uma soma ponderada de variáveis aleatórias g(x 1,...,X N ) = N α i X i (5.4) é a soma ponderada de seus valores médios: [ N ] g = E α i X i = N α i E[X i ] (5.5) 5.1.1 Momentos conjuntos em torno da origem Uma importante aplicação do valor esperado é na definição de momentos conjuntos em torno da origem. Eles são denotados por m nk e são definidos por m nk = E [ X n Y k] = x n y k f X,Y (x,y)dxdy (5.6) para o caso de duas variáveis aleatórias X e Y. Claramente, m n0 = E[X n ] são os momentos m n de X e m 0k = E [ Y k] são os momentos de Y. A soma n + k é chamada de ordem dos momentos. Assim, m 02, m 20 e m 11 são todos momentos de segunda ordem de X e Y. Os momentos de primeira ordem m 01 = E[Y] = Y e m 10 = E[X] = X são os valores esperados de X e Y respectivamente e são as coordenadas do centro de gravidade da função f X,Y (x,y). O momento de segunda ordem m 11 = E[XY] é chamado de correlação de X e Y. Ele é tão

M. Eisencraft 5.1 Valor esperado de uma função de variáveis aleatórias 61 importante que recebe um símbolo especial R XY. Assim, R XY = m 11 = E[XY] = xyf X,Y (x,y)dxdy. (5.7) Se a correlação puder ser escrita na forma R XY = E[X] E[Y], (5.8) então X e Y são ditas não-correlacionadas. A independência estatística de X e Y é suficiente para garantir que elas são não-correlacionadas. Porém, o contrário não é verdade em geral. Ou seja, independência implica não-correlação, mas não-correlação não implica independência. Se R XY = 0 as variáveis X e Y são ditas ortogonais. Resumindo: f X,Y (x,y) = f X (x) f Y (y) X e Y são independentes R XY = E[X] E[Y] X e Y são não-correlacionadas R XY = 0 X e Y são ortogonais X e Y são independentes X e Y são não-correlacionadas Exercício 5.1. Seja X uma variável aleatória com valor médio X = E[X] = 3 e variância σ 2 X = 2 e uma outra variável Y dada por Y = 6X +22. Pede-se: a E[X 2 ] b Y c R XY d as variáveis são correlacionadas? e as variáveis são ortogonais?

M. Eisencraft 5.1 Valor esperado de uma função de variáveis aleatórias 62 5.1.2 Momentos conjuntos centrais Uma outra aplicação importante da definição de valores esperado é a definição de momentos centrais conjuntos. Para duas variáveis aleatórias X e Y, estes momentos denotados por µ n,k são dados por: [ (X ) n ( ) k ] µ nk = E X Y Y = ( x X ) n ( y Y ) kfx,y (x,y)dxdy (5.9) Os momentos centrais de segunda ordem [ (X ) 2 ] µ 20 = E X = σx 2 (5.10) [ (Y ) 2 ] µ 02 = E Y = σy 2 (5.11) (5.12) são as variâncias de X e Y. Omomento conjuntodesegundaordemµ 11 émuitoimportante. Échamadodeco-variância de X e Y é simbolizado por C XY. Assim, C XY = µ 11 = E [( X X )( Y Y )] = ( x X )( y Y ) fx,y (x,y)dxdy. (5.13) Expandindo-se o produto ( X X )( Y Y ) esta integral se reduz a C XY = R XY X Y = R XY E[X] E[Y] (5.14) SeX ey foremindependentes ounão-correlacionadas, entãor XY = E[X] E[Y]eC XY = 0. Se X e Y forem ortogonais, então C XY = E[X] E[Y]. Claramente, C XY = 0 se X ou Y também tiverem média nula além de serem ortogonais.

M. Eisencraft 5.2 Funções características conjuntas 63 O momento de segunda ordem normalizado ρ = µ 11 µ20 µ 02 = C XY σ X σ Y (5.15) é conhecido como coeficiente de correlação de X e Y. Pode-se mostrar [1] que 1 ρ 1. Uma aplicação direta das definições acima é que se X é uma soma ponderada de variáveis aleatórias X i, X = N α ix i, então E[X] = N α i X i (5.16) N σx 2 = αi 2 σ2 X i. (5.17) Exercício 5.2. [1] Num sistema de controle, sabe-se que uma tensão aleatória X tem média X = m 1 = 2V e momento de segunda ordem X 2 = m 2 = 9V 2. Se a tensão X é amplificada por um amplificador que fornece como saída Y = 1,5X +2, encontre σ 2 X, Y, Y 2, σ 2 Y e R XY. 5.2 Funções características conjuntas A função característica conjunta de duas VAs X e Y é definida por Φ X,Y (ω 1,ω 2 ) = E [ e jω 1X+jω 2 Y ] (5.18) em que ω 1 e ω 2 são números reais. Uma forma equivalente é Φ X,Y (ω 1,ω 2 ) = f X,Y (x,y)e jω 1x+jω 2 y dxdy. (5.19) Esta expressão é a transformada de Fourier bidimensional (com os sinais de ω 1 e ω 2 trocados) [3]. Fazendo ω 2 = 0 ou ω 1 = 0 na Eq. (5.19), a função característica de X ou Y é obtida,

M. Eisencraft 5.2 Funções características conjuntas 64 respectivamente. São as chamadas funções características marginais: Φ X (ω 1 ) = Φ X,Y (ω 1,0) (5.20) Φ Y (ω 2 ) = Φ X,Y (0,ω 2 ) (5.21) Os momentos conjuntos m nk podem ser encontrados a partir da função característica conjunta por: m nk = ( j) n+k n+k Φ X,Y (ω 1,ω 2 ) ω n 1 ω k 2 ω1 =0,ω 2 =0 (5.22) Esta expressão é a generalização bidimensional da Eq. (3.16). Exercício 5.3. Duas variáveis aleatórias X e Y tem função característica conjunta Φ X,Y (ω 1,ω 2 ) = exp ( 2ω 2 1 8ω3 2 ) (5.23) Mostre que X e Y têm média nula é que elas são não correlacionadas.

Referências Bibliográficas [1] P. Z. P. Jr., Probability, Random Variables And Random Signal Principles, 4th ed. New York: Mcgraw-Hill, 2001. [2] B. P. Lathi, Modern Digital and Analog Communication Systems, 3rd ed. New York, NY, USA: Oxford University Press, Inc., 1998. [3] A. V. Oppenheim, A. S. Willsky, and S. H. Nawab, Sinais e sistemas, 2nd ed. São Paulo: Pearson Prentice Hall, 2010. 65