Se por outro lado (U 1, U 2,...) é IID então mostremos que X n U 1 + + U n tem incrementos independentes e estacionários. De facto, dados n > m temos que X n X m U m+1 + + U n. Tome-se quaisquer n 1 < n 2 < < n k. Uma vez que U 1, U 2,... são IID segue que os incrementos X n2 X n1, X n3 X n2,..., X nk X nk 1 A estacionariedade prova-se de maneira semel- são independentes. hante. Num processo estacionário {X t : t T } com incrementos independentes e estacionários, se sabemos a função de densidade de probabilidade de X t para todo t T então podemos determinar a função de densidade conjunta f t1,...,t n de qualquer vector aleatório (X t1,..., X tn ). Proposição 6.10. Seja X {X t : t T } um processo estacionário com incrementos independentes e estacionários tal que X 0 0 e X t tem função densidade de probabilidade f t para todo t T. Se t i T, i 1,..., n, tal que então 0 < t 1 < t 2 < < t n f t1,t 2,...,t n (x 1, x 2,..., x n ) f t1 (x 1 )f t2 t 1 (x 2 x 1 ) f tn t n 1 (x n x n 1 ). Demonstração. Seja U 1 X t1 e U i X ti X ti 1 para i 2,..., n. Então (X t1, X t2,..., X tn ) (U 1, U 1 + U 2,..., U 1 + U 2 + + U n ). Segue de o processo ter incrementos estacionários e independentes que as variáveis aleatórias U 1, U 2,..., U n são independentes e têm funções de densidade marginais f t1, f t2 t 1..., f tn t n 1. Logo, f U1,...,U n (x 1,..., x n ) f t1 (x 1 )f t2 t 1 (x 2 ) f tn t n 1 (x n ). Seja X (X t1, X t2,..., X tn ), U (U 1,..., U 2 ) e considere a função h : R n R n definida por h(x 1,..., x n ) (x 1, x 1 + x 2,..., x 1 + x 2 + + x n ). 81
Segue do teorema da mudança de variável que, g dp X g h dp U R n R n g h f U dm n R n g(x 1, x 1 + x 2,..., x 1 + + x n )f U (x 1,..., x n ) dm n R n g(x 1,..., x n )f U (x 1, x 2 x 1,..., x n x n 1 ) dm n R n Como a função g é arbitrária concluímos que dp X dm n (x 1,..., x n ) f U (x 1, x 2 x 1,..., x n x n 1 ). Proposição 6.11. Seja X {X t : t T } um processo estocástico com incrementos independentes e estacionários tal que X 0 0 e E(X 2 t ) < para todo t T. Então existem constantes µ R e σ 0 tal que 1. E(X t ) µt para t T. 2. Cov(X s, X t ) σ 2 min {s, t} para todo t, s T 2. Demonstração. 1. Define-se a função g(t) E(X t ). Note-se que dados t, s T tal que t + s T, as variáveis aleatórias X t+s X s e X t X 0 são identicamente distribuídas. Logo, g(t + s) E(X t+s ) E(X t+s X s + X s ) E(X t+s X s ) + E(X s ) E(X t X 0 ) + E(X s ) E(X t ) + E(X s ) g(t) + g(s). Portanto, g é uma função aditiva. É possível provar que as únicas funções aditivas e limitadas em intervalos limitados são as funções lineares g(t) µt para algum µ R (ver [1]). Logo, E(X t ) µt. 2. Demonstração análoga à anterior. Exercício 54. Seja X {X t : t T } um processo estocástico com incrementos independentes e estacionários tal que X 0 0 e E(X 2 t ) < para todo t T. Mostre que existe uma constante positiva σ tal que Var(X t X s ) σ 2 t s. 82
6.4 Processo de Markov Um processo de Markov é um processo estocástico em que o futuro é independente do passado quando se conhece o presente. Definição 6.10. Um processo estocástico X {X t : t T } é um processo de Markov se satisfizer a propriedade de Markov, P (X t B X t1,..., X tn ) P (X t B X tn ), sempre que t 1 < t 2 < < t n < t T e para todo o Boreliano B de R. Observação 6.12. Note-se que P (X B Y ) P (X 1 (B) σ(y )) é a probabilidade condicionada do acontecimento {X B} dado a informação de Y, como foi definida anteriormente. Exemplo 6.13 (Passeio aleatório é um processo de Markov). Considerese o passeio aleatório S n X 1 + + X n, onde X 1, X 2,... são variáveis aleatórias IID tais que X i { 1, 1}. Uma vez que S n+1 S n + X n+1, onde X n+1 é independente de S i, i 1,..., n temos que P (S n+1 s S 1 s 1,..., S n s n ) P (S n + X n+1 s S 1 s 1,..., S n s n ) Por outro lado, Logo, P (X n+1 s s n S 1 s 1,..., S n s n ) P (X n+1 s s n ). P (S n+1 s S n s n ) P (S n + X n+1 s S n s n ) P (X n+1 s s n S n s n ) P (X n+1 s s n ). P (S n+1 s S 1 s 1,..., S n s n ) P (S n+1 s S n s n ) de onde se pode verificar com facilidade a propriedade de Markov. Generalizando o exemplo anterior obtem-se o seguinte resultado. Proposição 6.14. Um processo estocástico X {X t : t T } de incrementos independentes com T [0, [ ou T {0, 1, 2,...} é um processo de Markov. 83
Demonstração. Deixa-se como exercício. Exemplo 6.15. No entanto existem processos não Markovianos, como é o caso do processo autoregressivo de ordem 2, designado por AR(2), Y n a 1 Y n 1 + a 2 Y n 2 + X n, onde X n é uma sucessão de variáveis IID. Quando o conjunto de estados do processo de Markov X é finito ou numerável então diz-se que X é uma cadeia de Markov. Note-se que dependendo da natureza do conjunto dos parâmetros, uma cadeia de Markov pode ser a tempo discreto ou contínuo. Quando o conjunto de estados e dos parâmetros é um intervalo diz-se que X é um processo de difusão. 6.5 Processo de Wiener O processo de Wiener é um processo de difusão usado para modelar o movimento Browniano, isto é, o movimento descrito por uma partícula imersa num líquido quando esta colide com as moléculas do líquido. O processo de Wiener é também amplamente utilizado em matemática financeira. Definição 6.11. Um processo estocástico a tempo contínuo W {W t : t [0, [} diz-se um processo de Wiener sse: 1. W 0 0, P -q.c. 2. as trajectórias t W t são contínuas P -q.c. 3. para quaisquer 0 < t 1 < < t n o vector aleatório (W t1,..., W tn ) tem função de densidade conjunta, f t1,...,t n (x 1,..., x n ) p t1 (x 1 )p t2 t 1 (x 2 x 1 ) p tn t n 1 (x n x n 1 ), onde p t (x) 1 2πt e x2 2t, é a função de densidade da distribuição Gaussiana. Exercício 55. Mostre que a função de densidade de W t é f t (x) 1 2πt e x2 2t, e calcule E(W t ) e Var(W t ). 84
Proposição 6.16. Para quaisquer 0 s < t o incremento W t W s tem distribuição normal com valor esperado 0 e variância t s. Demonstração. Segue da terceira condição da definição do processo de Wiener que a função de densidade conjunta de (W s, W t ) é Logo, Logo, P (W t W s z) f s,t (x, y) p s (x)p t s (y x). {y x z} + z+x z + z p s (x)p t s (y x) dxdy p t s (y) dy 1 f t s (y) e 2π(t s) p s (x)p t s (y x) dydx p s (x)p t s (y) dxdy y2 2(t s) Proposição 6.17. Um processo de Wiener tem incrementos independentes. Demonstração. Para quaisquer 0 < t 1 < t 2 < < t n queremos mostrar que os incrementos, W t1 W 0, W t2 W t1,..., W tn W tn 1 são independentes. É possível demonstrar que se X 1,..., X n são variáveis aleatórias que seguem uma distribuição normal então são independentes sse não são correlacionadas, ou seja, Cov(X i, X j ) 0 para todo i j. Portanto, como o valor esperado dos incrementos é nulo, é suficiente mostrar que, E [(W u W t )(W s W r )] 0, t u r s. Mas para s t temos que, E(W s W t ) + + + + xp s (x) xyp s (x)p t s (y x) dxdy ( + x 2 p s (x) dx s. 85 ) yp t s (y x) dy dx
Logo, E [(W u W t )(W s W r )] E(W u W s ) E(W u W r ) E(W t W s ) + E(W t W r ) u u t + t 0 Segue das proposições anteriores que, Corolário 6.18. Um processo de Wiener tem incrementos independentes e estacionários. Exercício 56. Mostre que um processo de Wiener é estacionário em média, mas não tem covariâncias estacionárias. Referências [1] Robert B. Ash, Catherine A. Doléans-Dade, Probability and Measure Theory. Academic Press 2nd Edition, 1999. [2] Daniel Müller, Probabilidade e processos estocásticos: uma abordagem rigorosa com vista aos modelos em finanças. Coimbra, Almedina, 2011. 86