37 PROCESSOS ESTOCÁSTICOS O resultado de muitas experiências aleatórias é função do tempo ou de uma (ou mais) coordenada espacial. Ex: i) O valor da temperatura média diária ou semanal numa cidade. O acontecimento aleatório é a escolha de uma cidade e para cada cidade ficará definido um conjunto de variáveis aleatórias para cada dia ou semana do ano. ii) O valor instantâneo da tensão nos terminais de uma resistência. O acontecimento aleatório é o início da medição e para cada instante de medição ficará definida uma variável aleatória. iii) O número de clientes numa fila de espera. O acontecimento aleatório é também o início da medição e para cada instante de medição ficará definida uma variável aleatória.
38 iv) O valor da luminância num ponto de uma imagem. O acontecimento aleatório é a escolha da imagem e para cada ponto definido por um par de coordenadas fica definida uma variável aleatória. Vêmos assim nestes exemplos, que ao resultado de uma experiência aleatória fica associado um valor aleatório que varia com uma variável temporal ou espacial. Iremos então introduzir o conceito de processo aleatório, que nos vai permitir analisar situações do tipo das que foram anteriormente apresentadas. Definição: Seja S um espaço de amostragem e I um qualquer subconjunto de R. Se para qualquer t I e ζ S se definir a variável aleatória ( ζ,t ) ao conjunto { ( ζ,t ):t I } chama-se um processo aleatório. Se a variável real t for uma variável temporal, o processo aleatório designa-se como processo estocástico.
Um processo estocástico é pois um conjunto de variáveis aleatórias indexadas a uma variável temporal pertencente a um dado subconjunto real. 39 S ξ ξ (t,ξ ) (t,ξ ) ξ 3 (t,ξ 3 ) t t t 3 t 4 Se a variável temporal for contínua (pertencente a um conjunto compacto), o processo estocástico é contínuo; se for discreta (pertencente a um conjunto numerável), o processo estocástico é discreto.
Para cada valor ζ i S, o conjunto de valores { ( ζ i,t ):t I } chama-se realização do processo ou função amostra do processo. 40 Exemplo : ( ζ,t ) = ζ sen ( πt ), t [ 0, [ e ζ ~ U(,) (t) = sen(πt) 0.8 0.6 0.4 0. 0-0. -0.4 (t) = -0.*sen(πt) -0.6-0.8-0 0.5.5.5 3 (t) = 0,4*sen(πt)
4 Exemplo : ( ζ,t ) = sen ( πt + ζ ), t [ 0, [ e ζ ~ U( 0, π) (t) = sen(*π*t +,5) 0.8 0.6 0.4 0. 0-0. -0.4-0.6-0.8-0 0.5.5.5 3 (t) = sen(*π*t + 0,4) (t) = sen(*π*t) Temos na figura acima três realizações do processo para ξ = 0, 0.4 e.5 e para t < 3.
Exemplo 3: Seja [ 0, ] ζ o resultado de uma experiência aleatória e sejam b, b, os dígitos da representação binária de ζ, ou seja: 4 ζ = i = b i i, b i { 0,} e defina-se o processo aleatório ( ζ,n ) = b, n ℵ B n Temos a seguir três realizações deste processo para ξ = 0.35, 0.4 e 0.65 e n 0. 0,5 0 0 4 6 8 0 4 6 8 0 ξ = 0.35
43 0,5 0 0 4 6 8 0 4 6 8 0 ξ = 0.4 0,5 ξ = 0.65 0 0 4 6 8 0 4 6 8 0 ξ = 0.65 Exercício: Obter f (t)( x) para os exemplos e.
CARACTERIZAÇÃO DE PROCESSOS ESTOCÁSTICOS 44 Uma vez que um processo estocástico é um conjunto de variáveis aleatórias, a sua caracterização faz-se especificando as diferentes variáveis aleatórias que o constituem e o seu comportamento conjunto. Seja t, t,, t instantes em que se definem as variáveis,,,. O processo estocástico fica caracterizado se se conhecerem todas as funções de distribuição conjunta F ( )... x,x,..., x para qualquer e para qualquer escolha dos instantes t, t,, t. Se o processo for discreto então será caracterizado por todas as funções de probabilidade conjunta: p ( ) = = =... x,x,...,x P x,..., x
para qualquer e para qualquer escolha dos instantes t, t,, t. 45 Se o processo for contínuo então será caracterizado por todas as funções densidade de probabilidade conjunta: f... ( x,x,..., x ) para qualquer e para qualquer escolha dos instantes t, t,, t. Esta forma de definir o processo estocástico é designada por caracterização estatística completa de ordem e de um modo geral não é fácil construir e especificar todas as funções anteriormente referidas. Ex: Consideremos a figura da página 39, fazendo: t = t e (t ) = a função de distribuição acumulada é definida como: F ( x,t ) = P( ( t ) x )
e temos assim a função distribuição de ª ordem do processo (t). Para a função de distribuição de ª ordem de (t) vem: F ( x, x ; t,t ) = P( ( t ) x ; ( t ) x ) notação equivalente a : F ( x, x ) = P( x ; x ) 46 em que (t ) = e (t ) = A função de distribuição de ordem de (t) é então definida por: F ( x, x,, x ; t,t,, t ) = ( ( t ) x ; ( t ) x ; ;( t ) ) = P x Daqui resulta que as funções densidade de probabilidade conjunta de ª ordem, ª ordem e ordem são respectivamente:
47 ( x,t ) f = d F ( x,t ) d x f ( x, x ; t,t ) = F ( x, x ; t,t ) x x f ( x, x,,x ; t,t,, t ) = = F ( x, x,, x ; t,t,,t ) x x x Situações particulares: i) Se para qualquer e qualquer escolha dos instantes de amostragem t < t < < t as variáveis ( t ) ( t ),, ( t ) ( t ) forem independentes o processo será de incrementos independentes. Ex: processo de Poisson e processo de Wiener
48 ii) Se o futuro do processo, dado o presente, é independente do passado, isto é, se para qualquer e qualquer escolha dos instantes de amostragem t < t < < t e qualquer x,x,..., x, f ( = x ) = ( ) x ( t ) = x,...,( t) t = f [ x ] ( ) x ( t ) t = ou: P [ ( t ) x ( t ) = x,...,( t ) = x ] = = = P [ ( t ) = x ( t ) x ] = e o processo será de Marov. Ex: processo random wal e processo de Wiener
49 MÉDIA, AUTOCORRELAÇÃO E AUTOCOVARIÂNCIA Uma vez que um processo estocástico é um conjunto de variáveis aleatórias, pode definirse para cada uma das suas variáveis ou para cada par das suas variáveis os seguintes conjuntos de parâmetros: Média: m ( t) = E[ ( t) ] = + x( t) f( t) ( x( t) ) dx( t) Nota: seja (t ) =, então: + ( ) = ( ) = ( ) = ( ) E m E t x f x ;t dx t Autocorrelação: momento conjunto de ( t ) e ( ) R = + t [ ]= ( t,t ) E ( t ) ( t ) + x = ( t ) x( t ) f ( ) ( )( x( t ),x( t )) dx( t ) dx( ) t t t
Autocovariância: momento central conjunto de ( ) e ( ) t t 50 C ( t,t ) = E[ ( ( t ) m ( t ))( ( t ) m ( t ))] ou de forma equivalente: C ( t,t ) = R ( t,t ) m ( t ) m ( t ) pode ainda definir-se: Variância de ( t) : Var [ ] C ( t,t) ( ( t) ) = E ( ( t) m ( t) ) = Coeficiente de correlação de ( t) : ρ (,t ) t = C C ( t, t ) ( t, t ) C ( t, t )
Nota: A média, a autocorrelação e a autocovariância isoladas ou em conjunto apenas caracterizam parcialmente o processo estocástico. Uma classe importante de processos é o dos processos Gausseanos. Um processo aleatório diz-se gausseano se todas as variáveis que o constituem forem conjuntamente gausseanas para qualquer número e escolha dos instantes de amostragem. Uma vez que o comportamento conjunto de variáveis gausseanas fica completamente definido pela média e matriz de covariância, um processo estocástico gausseano fica totalmente definido pela média e pela autocovariância. 5 Se se pretender estudar o comportamento conjunto de dois processos estocásticos tem de se recorrer ainda às seguintes definições:
5 Independência de ( t) e ( t) Y : Os processos aleatórios ( t) e ( t) Y são independentes se os vectores de variável ' ' t,..., Y t,...,y e ( ( ) ( ) aleatória ( ( ) ( )) t t j forem independentes para qualquer escolha de e j e qualquer escolha dos instantes t, t,, t e t, t,, t j. Correlação cruzada de ( t) e ( t) Y Y : ( t,t ) E[ ( t ) Y( t )] R = se para todos os t e t, R Y ( t,t ) 0 ( t) e Y ( t) são ortogonais. = então Covariância cruzada de ( t) e ( t) Y : C Y ( t,t ) = E[ ( ( t ) m ( t ))( Y( t ) m ( t ))] Y se para todos os t e t, C Y ( t,t ) 0 ( t) e Y ( t) são não correlacionados. = então
53 PROCESSOS INDEPENDENTES E IDENTICAMENTE DISTRIBUIDOS Um processo será do tipo IID se as variáveis que o constituem forem IID. Neste caso as funções de distribuição conjunta serão:... ( x,x,...,x ) F ( x ) F ( x )...F ( x ) F = Assim se o processo for discreto teremos:... ( x,x,...,x ) p ( x ) p ( x )...p ( x ) p = e se for contínuo:... ( x,x,...,x ) f ( x ) f ( x )...f ( x ) f =
54 ESTACIONARIEDADE é estacionário (ou estritamente estacionário Strict-Sense Stationary (S.S.S)) se as suas propriedades estatísticas são invariantes a qualquer translação da origem dos tempos. Isto significa Um processo estocástico ( t) que os processos ( t) e ( t c) + têm as mesmas estatísticas qualquer que seja c. A definição de estacionariedade significa que a função de distribuição conjunta obedece a: F ( ) ( )... ( ) ( ) = t t t x,x,..., x = F ( + ) ( + ) ( x,...,x ) t c... t c para qualquer translação temporal c, qualquer e qualquer escolha dos instantes t < t < <t. Então, para um processo estacionário de ª ordem temos que: ( ) ( ) f x,t f x,t + c, c
Se, em particular, c = - t, temos que: ( x,t) f ( x) f = ( ) isto é, f ( x,t) é independente de t. Daqui resulta que: + [ ( t) ] = xf ( x) dx = µ cons tante E x = ( ) De modo análogo, para um processo estacionário de ª ordem vem que: ( x,x,t,t ) f( x,x,t + c,t + c), τ f 55 então, para c = - t : f ( x,x,t,t ) f ( x,x,t t ) ( ) isto é, a função densidade de probabilidade de ª ordem depende apenas da diferença t -t = τ. Neste caso a função de autocorrelação R ( t,t ) E[ ( t ) ( t )] = = Só depende de τ = t -t e portanto, + = + x ( x,x, τ = t t ) dx xf dx [ ( t ) ( t + τ) ] = ( τ) = R E ( )
Nota: As equações ( ) e ( ) são uma consequência de considerarmos o processo estocástico como um processo estacionário (em sentido estrito) de ª e ª ordem respectivamente. Por outro lado, as condições a verificar para classificar desse modo o processo estocástico ( equações ( ) e ( )) são de um modo geral, difíceis de verificar. Por esta razão, definimos uma nova condição de estacionariedade, menos exigente, que se designa por estacionariedade em sentido lato (Wide-Sense Stationarity (W.S.S)), isto é, o processo estocástico (t) diz-se estacionário em sentido lato se: i) [ ( t) ] = µ E (a média for conatante); ii) [ ( t ) ( t )] R ( t t ) = ( τ) E = R (a função de autocorrelação depender apenas da diferença entre t e t ). 56 Estacionário de ª ordem Estacionário em sentido lato