Movimento Browniano, Integral de Itô e Estocásticas

Documentos relacionados
t X s db s, I t (X) :=

Continuidade de processos gaussianos

Reviso de Teoria da Medida e Elementos Bsicos de Probabilidade

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:

ÁLGEBRA LINEAR I - MAT0032

O movimento Browniano

DANIEL V. TAUSK. se A é um subconjunto de X, denotamos por A c o complementar de

SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS

o mesmo jeito, podemos Observação 1.1. (1) As denições acima incluem a possibilidade de I ser

Teoria da Medida e Integração (MAT505)

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte I

A estacionariedade prova-se de maneira semel- hante.

2 Conceitos de Teoria da Probabilidade

UNIVERSIDADE FEDERAL DE PERNAMBUCO DEPARTAMENTO DE ESTATÍSTICA. Medida e Probabilidade

Processos estocásticos

Teoria da Medida e Integração (MAT505)

Um espaço métrico incompleto 1

Prova: Usando as definições e propriedades de números reais, temos λz = λx + iλy e

Topologia. Fernando Silva. (Licenciatura em Matemática, 2007/2008) 13-agosto-2018

Teoria da Medida e Integração (MAT505)

g(s, X n s )ds + t f (s, X s ) 2 ds <, P-q.s. t f (s, X s )db s, t 0.

4.1. ESPERANÇA x =, x=1

Universidade Federal de Minas Gerais Instituto de Ciências Exatas Departamento de Matemática. O Teorema de Arzelá. José Renato Fialho Rodrigues

Produtos de potências racionais. números primos.

2.4 Esperança e distribuição condicionais

O Teorema de Peano. f : D R n. uma função contínua. Vamos considerar o seguinte problema: Encontrar um intervalo I R e uma função ϕ : I R n tais que

Lista 4. Esta lista, de entrega facultativa, tem três partes e seus exercícios versam sobre séries, funções contínuas e funções diferenciáveis em R.

Probabilidade IV. Ulisses U. dos Anjos. Departamento de Estatística Universidade Federal da Paraíba. Período

σ-álgebras, geradores e independência

3 3. Variáveis Aleatórias

Probabilidade de Ruína e Processos de Lévy α-estáveis

Notas Sobre Sequências e Séries Alexandre Fernandes

Capítulo 1. Fundamentos

Capítulo 2. Variáveis Aleatórias e Distribuições

Convergência em espaços normados

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte II

1 Limites e Conjuntos Abertos

Exercício 18. Demonstre a proposição anterior. (Dica: use as definições de continuidade e mensurabilidade)

Teoremas de uma, duas e três séries de Kolmogorov

Noções de Álgebra Linear

Módulo III: Processos de Poisson, Gaussiano e Wiener

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório?

{ 1 se x é racional, 0 se x é irracional. cos(k!πx) = cos(mπ) = ±1. { 1 se x Ak

Interbits SuperPro Web

Apontamentos III. Espaços euclidianos. Álgebra Linear aulas teóricas. Lina Oliveira Departamento de Matemática, Instituto Superior Técnico

Demonstração. Ver demonstração em [1]. . Para que i j se tem µ i µ j? Determine a derivada no sentido de Radon-Nikodym em cada caso.

1.3 Conjuntos de medida nula

No que segue, X sempre denota um espaço topológico localmente compacto

Equação Geral do Segundo Grau em R 2

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31

MAT 5798 Medida e Integração IME 2017

Parte II. Análise funcional II

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes

Lista 8 de Análise Funcional - Doutorado 2018

As leis dos grandes números

Uma breve análise do movimento Browniano

VARIÁVEIS ALEATÓRIAS

Faremos aqui uma introdução aos espaços de Banach e as diferentes topologías que se podem definir nelas.

Provas de Análise Real - Noturno - 3MAT003

Matemática I. 1 Propriedades dos números reais

O Teorema de Radon-Nikodým

1 Álgebra linear matricial

Lista de Exercícios da Primeira Semana Análise Real

Processos de Markov a Tempo Contínuo e Sistemas de Partículas Parte 2

Construção de espaços de probabilidade. básicos

3 Apresentação do processo e resultados preliminares

A DEFINIÇÃO AXIOMÁTICA DO CONJUNTO DOS NÚMEROS NATURAIS.

PROBABILIDADE PGE950

Processos Estocásticos. Luiz Affonso Guedes

SISTEMAS LINEARES PROF. EDÉZIO

Fabio Augusto Camargo

Processos de Lévy: Preliminares

Capítulo 1. Fundamentos

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte I

DCC008 - Cálculo Numérico

Álgebra Linear Exercícios Resolvidos

Notas Para o Curso de Medida e. Daniel V. Tausk

1 Diferenciabilidade e derivadas direcionais

Universidade Federal de Goiás Campus Catalão Departamento de Matemática Disciplina: Fundamentos de Análise

Notas de Teoria da Probabilidade e Processos Estocásticos

Quinta lista de Exercícios - Análise Funcional, período Professor: João Marcos do Ó. { 0 se j = 1 y j = (j 1) 1 x j 1 se j 2.

CM005 Álgebra Linear Lista 3

Variáveis Aleatórias. Departamento de Matemática Escola Superior de Tecnologia de Viseu

Material Teórico - Módulo de Função Exponencial. Primeiro Ano - Médio. Autor: Prof. Angelo Papa Neto Revisor: Prof. Antonio Caminha M.

Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II

MEDIDAS COM SINAL.. Uma medida com sinal σ-aditiva (ou, simplesmente, uma medida com sinal) µ(a n ) def = lim

Cadeias de Markov em Tempo Continuo

TEORIA ERGÓDICA, SISTEMAS DINÂMICOS E MEDIDAS INVARIANTES

) a sucessão definida por y n

ANÁLISE COMPLEXA E EQUAÇÕES DIFERENCIAIS. Apresente e justifique todos os cálculos

Aula 7 Os teoremas de Weierstrass e do valor intermediário.

Conteúdo Teórico: 04 Esperança

Topologia do espaço Euclidiano

1 Grupos (23/04) Sim(R 2 ) T T

1 A Equação Fundamental Áreas Primeiras definições Uma questão importante... 7

O espaço das Ordens de um Corpo

MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade

A Projeção e seu Potencial

Notas de Análise Real. Jonas Renan Moreira Gomes

Transcrição:

Universidade Federal do Rio Grande do Sul Instituto de Matemática Programa de Pós-Graduação em Matemática Movimento Browniano, Integral de Itô e Introdução às Equações Diferenciais Estocásticas Ricardo Misturini Dissertação de Mestrado Porto Alegre, 8 de Julho de 1.

Dissertação submetida por Ricardo Misturini 1 como requisito parcial para a obtenção do grau de Mestre em Matemática pelo Programa de Pós-Graduação em Matemática do Instituto de Matemática da Universidade Federal do Rio Grande do Sul. Professor Orientador: Dr. Rafael Rigão Souza UFRGS Banca Examinadora: Dr. Artur Oscar Lopes UFRGS Dr. Elismar da Rosa Oliveira UFRGS Dr. Rogério Ricardo Steffenon UNISINOS Data da Apresentação: 8 de Julho de 1. 1 Bolsista da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Capes

Agradecimentos Primeiramente, agradeço à minha família Mãe, Pai, Dé e Tiago e à Cari. Não apenas por me incentivarem nos estudos. Por tudo. Saber que eu sempre tenho com quem contar torna tudo mais fácil. Dedico a vocês esta conquista. Agradeço aos colegas, em especial ao Matheus, um baita parceiro, e a meu primo Rangel que acompanhou de perto o andamento deste trabalho, sempre disposto a dar uma opinião quando solicitei. Agradeço também aos professores. Ao Rogério, meu primeiro orientador, que continua sempre interessado e prestativo. Ao Rafael, orientador super acessível e comprometido com minha formação. Também ao Luiz Fernando Carvalho da Rocha e ao Artur Lopes, por toda ajuda e incentivo. A todos, muito obrigado. iii

Resumo Este texto apresenta alguns dos elementos básicos envolvidos em um estudo introdutório das equações diferencias estocásticas. Tais equações modelam problemas a tempo contínuo em que as grandezas de interesse estão sujeitas a certos tipos de perturbações aleatórias. Em nosso estudo, a aleatoriedade nessas equações será representada por um termo que envolve o processo estocástico conhecido como Movimento Browniano. Para um tratamento matematicamente rigoroso dessas equações, faremos uso da Integral Estocástica de Itô. A construção dessa integral é um dos principais objetivos do texto. Depois de desenvolver os conceitos necessários, apresentaremos alguns exemplos e provaremos existência e unicidade de solução para equações diferenciais estocásticas satisfazendo certas hipóteses. Palavras-chave: Movimento Browniano. Martingales. Integral Estocástica. Fórmula de Itô. Equações Diferenciais Estocásticas. iv

Abstract This text presents some of the basic elements involved in an introductory study of stochastic differential equations. Such equations describe certain kinds of random perturbations on continuous time models. In our study, the randomness in these equations will be represented by a term involving the stochastic process known as Brownian Motion. For a mathematically rigorous treatment of these equations, we use the Itô Stochastic Integral. The construction of this integral is one of the main goals of the text. After developing the necessary concepts, we present some examples and prove existence and uniqueness of solution of stochastic differential equations satisfying some hypothesis. Key-words: Brownian Motion. Martingales. Stochastic Integral. Itô s Formula. Stochastic Differential Equations. v

Sumário 1 Introdução 1 Movimento Browniano 3.1 Motivação e Definição...................... 3. Existência do Movimento Browniano.............. 7..1 Uma construção explícita................. 8.. Construção alternativa.................. 16.3 Movimento Browniano n-dimensional.............. 18.4 Não-diferenciabilidade das trajetórias.............. 19.5 Martingales............................ 1 3 Integral Estocástica de Itô 37 3.1 Integral de Itô para processes elementares........... 37 3. Aproximação por processos elementares............. 43 3.3 Integral de Itô para processos mais gerais............ 46 3.4 Integral Indefinida........................ 5 3.5 Uma possível extensão da definição............... 54 3.6 Fórmula de Itô.......................... 55 3.7 Integral de Itô n-dimensional................... 6 4 Equações Diferenciais Estocásticas 65 4.1 Definições............................. 65 4. Alguns exemplos......................... 67 4.3 Teorema de Existência e Unicidade............... 7 Referências Bibliográficas 79 vi

Capítulo 1 Introdução Consideremos uma equação diferencial ordinária da seguinte forma { x t = fxt, t t, T x = x, 1.1 onde f : R [, T ] R é uma função com um certo grau de regularidade e x é uma constante fixada. Neste caso, a solução x procurada é uma função x : [, T ] R satisfazendo as igualdades acima. É também comum escrever a equação 1.1 em sua forma diferencial: { dxt = fxt, tdt x = x. Ocorre que, em diversas situações, podemos estar interessados em um modelo que descreva também a ação de algum efeito aleatório que influencia o sistema, tal como algum tipo de perturbação ou ruído. Como uma possível descrição para algumas situações desse tipo, somos levados às chamadas equações diferenciais estocásticas: { dxt = fx t, tdt + gx t, tdb t, 1. X = x onde f, g : R [, T ] R são funções e B t t [,T ] é um processo estocástico conhecido como movimento browniano. Neste caso, a solução procurada é um processo estocástico X t t [,T ]. Neste texto será dada uma interpretação matemática para a equação diferencial 1., a qual, na verdade, terá o sentido de uma equação integral X t = x + fx s, sds + 1 gx s, sdb s. 1.3

Para tanto, de imediato, somos conduzidos aos seguintes problemas: 1. Definir o movimento browniano B t t [,T ] ;. Dar um sentido para a integral estocástica em 1.3. gx s, sdb s que aparece O problema 1 será abordado no Capítulo. Definiremos movimento browniano como um processo estocástico com trajetórias contínuas cujos incrementos são independentes e normalmente distribuídos, com média zero e variância igual ao correspondente incremento temporal. Ainda no Capítulo, apresentaremos algumas propriedades dos processos estocásticos chamados de martingales, os quais incluem o movimento browniano. Para isso, precisaremos tratar, entre outras coisas, dos importantes conceitos de filtração e de esperança condicional em relação a uma σ-álgebra, os quais, portanto, não são supostos pré-requisitos para a leitura deste texto. O problema é assunto para o Capítulo 3, no qual definiremos a Integral Estocástica de Itô, para uma classe especial de processos que iremos definir. O resultado mais importante do capítulo é a chamada Fórmula de Itô, que é a correspondente regra da cadeia do cálculo estocástico. No Capítulo 4, de posse das ferramentas construídas nos capítulos precedentes, estaremos aptos a apresentar as equações diferenciais estocásticas, em um contexto um pouco mais amplo do que em 1.. Com uso da Fórmula de Itô, serão resolvidos alguns exemplos simples. Concluiremos o texto provando um teorema que, sob certas hipóteses, assegura existência e unicidade de solução para equações diferenciais estocásticas.

Capítulo Movimento Browniano.1 Motivação e Definição O movimento browniano, como fenômeno físico, foi proposto em 187 pelo botânico inglês Robert Brown ao observar o movimento irregular de partículas microscópicas de pólen suspensas na água. Em 195, A. Einstein apresentou uma descrição matemática do movimento como consequência de leis da física. Posteriormente, a teoria foi matematicamente formalizada por N. Wiener na década de 19. Por isso, na literatura, o movimento browniano é também chamado de Processo de Wiener. Para uma ideia intuitiva do movimento browniano, imagine um passeio aleatório simétrico no espaço euclidiano dando saltos infinitesimais com frequência infinita. Com isso em mente, como motivação heurística para a definição a ser dada a seguir, construímos um reticulado bidimensional conectando os vértices {m x, n t m Z, n N}. Considere uma partícula que no tempo t = se encontra na posição x = e que, a cada tempo n t move-se uma distância x para a direita, com probabilidade 1/, ou para a esquerda, com probabilidade 1/ veja Figura.1, adiante. Chamemos de pm, n a probabilidade de que a partícula esteja na posição m x no instante n t. Temos, então, que { m pm, = 1 m = e pm, n + 1 = 1 pm 1, n + 1 pm + 1, n, 3

donde segue que pm, n + 1 pm, n = 1 pm + 1, n pm, n + pm 1, n. Além disso, estaremos assumindo também que x = t, ou seja, que o passeio aleatório está sendo espacialmente reescalado pela raiz quadrada da escala do tempo. Então pm, n + 1 pm, n t = 1 pm + 1, n pm, n + pm 1, n x..1 Agora fazemos t, x, m x x, n t t mantendo a relação x = t. Então, de uma maneira intuitiva, pm, n fx, t, onde fx, t é interpretada como a densidade de probabilidade da partícula estar na posição x no tempo t. Formalmente, no limite, a equação de diferenças.1 torna-se f t = 1 f xx.. De fato, o segundo termo em.1 pode ser expresso como pm + 1, n pm, n 1 x x pm, n pm 1, n x p p 1 m, n m 1, n = x x 1 x f xxx, t. A expressão em. é a equação de difusão, também chamada de equação do calor. Podemos verificar que fx, t = 1 πt e x t.3 é uma, e de fato a única, solução de. com condição inicial fx, = δ. Note que.3 é a densidade de uma variável aleatória com distribuição N, t. Agora, usando o Teorema Central do Limite tornaremos mais rigorosa a passagem ao limite feita acima. Novamente, suponha que a partícula movese para esquerda ou direita uma quantidade x com probabilidade 1/ para 4

Figura.1: Passeio aleatório cada direção. Denotemos por X t a posição da partícula no instante t = n t. Seja Y k, k N, uma sequência de variáveis aleatórias independentes com { P Yk = 1 = 1/ para k = 1,,.... P Y k = 1 = 1/ Então EY k = e V ary k = 1. Definamos S n := n Y k. k=1 Podemos modelar X t através da expressão X t = S n x. Como antes, impomos que x = t. Então Sn n x Sn n t Sn t. X t = S n x = = = n n n 5

Portanto, pelo Teorema Central do Limite, temos lim n t = n t a Pa < X t < b = lim P n t S n b n t TCL = = 1 π b t a t 1 b πt a e x dx e u t du. Onde usamos a substituição u = x t na última igualdade. Assim, novamente, obtemos a distribuição N, t. Passemos agora à definição do Movimento Browniano. Inicialmente, consideremos o caso unidimensional. Definição.1.1. Um Movimento Browniano B t t em R é um processo estocástico B, : Ω [, + R, tal que 1. Para quase todo ω Ω fixado, Bω, : [, + R é uma função contínua e B ω = Bω, = ;. Os incrementos B t B s, s < t, são variáveis aleatórias normais de média zero e variância t s, ou seja, B t B s N, t s; 3. Incrementos em intervalos de tempo disjuntos são independentes. Ou seja, as variáveis aleatórias B t4 B t3 e B t B t1 são independentes sempre que t 1 < t t 3 < t 4, o mesmo valendo para n intervalos disjuntos, onde n é arbitrário. Obs. Usamos como notação B t ω = Bω, t. O item 3 estabelece que, para s < t, B t B s é independente do que aconteceu com o processo no intervalo [, s]. Ou seja, se sabemos que B s = x, nenhuma outra informação sobre os valores de B τ para τ < s tem efeito sobre o nosso conhecimento da distribuição de probabilidade de B t B s. Formalmente, isto significa que, se t < t 1 <... < t n < t então: P B t x B t = x, B t1 = x 1,..., B tn = x n = PB t x B tn = x n..4 Processos com esta característica são chamados de Processos de Markov. 6

Notemos também que, pelo item, se s < t temos PB t x B s = x = PB t B s x x 1 x x = πt s = 1 x πt s e y t s dy e y x t s dy. Ou seja, dado que B s = x então B t Nx, t s. As condições que definem B t t são suficientes para determinar todas as probabilidades associadas ao processo. Como sempre podemos associar cada ω Ω com a função t B t ω, isto significa que a lei do movimento browniano determina, de maneira única, uma medida no chamado Espaço de Wiener, W, F, onde W = {w : [, R contínua, com w = } e F é a σ-álgebra gerada pelos cilindros de dimensão finita. Entretanto, não é óbvio que um processo com estas características, de fato, existe. Este é o assunto da próxima seção. Como consequência simples da definição, notemos uma propriedade importante do movimento browniano. Proposição.1.. Se B t t é um movimento browniano, então para quaisquer tempos s e t temos E[B t B s ] = min{s, t}. Demonstração. Suponhamos s t. Então E[B s B t ] = E[B s B s + B t B s ] = E[B s] + E[B s B t B s ] = s + E[B s ]E[B t B s ] = s + = s = min{s, t}. Na terceira igualdade usamos V ar[b s ] = E[B s] = s, pois B s N, s, e a independência entre B s e B t B s.. Existência do Movimento Browniano Existem várias maneiras de se construir o movimento browniano. Faremos em detalhes, na Seção..1, uma construção explícita que expressa 7

o processo como uma série quase certamente uniformemente convergente de funções contínuas com coeficientes aleatórios. Na Seção.., mostraremos, de maneira sucinta, como a existência do processo pode ser obtida através do Teorema de Extensão de Kolmogorov somado a um critério que garante a continuidade das trajetórias...1 Uma construção explícita Inicialmente, construiremos um movimento browniano B t t [,1] definido apenas para t [, 1]. O processo indexado por [, + será, posteriormente, construído a partir deste. Nosso objetivo é definir B t t [,1] como B t := A k h k sds k= onde A k é uma sequência de variáveis aleatórias independentes com distribuição N, 1 e as h k são uma base ortonormal do espaço L [, 1], R. O primeiro passo, é definir as funções h k. Definição..1. As funções de Haar h k : [, 1] R, k =, 1,,..., são definidas por: h t = 1 t 1;.5 { 1, t 1 h 1 t = 1 1, t 1 ;.6 e, para n k < n+1, n = 1,,..., n/ k, n t k n +1/ n n h k t = n/ k, n +1/ < t k n +1 n n, demais casos..7 Lema... As funções de Haar {h k } k= espaço de Hilbert L [, 1], R. formam um base ortonormal do Demonstração. Fixado k, seja n tal que n k < n+1. Temos que 1 h ktdt = k n +1/ n k n n n dt + k n +1 n k n +1/ n n dt = n 8 1 + 1 = 1. n+1 n+1

Figura.: Gráfico da k-ésima função de Haar, n k < n+1 Seja agora j > k. Se j < n+1 os suportes de h k e h j são disjuntos, portanto h k h j. Se, por outro lado, n+1 j então a função h k é constante no suporte de h j de modo que 1 1 h k th j tdt = ± n/ h j tdt =. Para completar a demonstração, dada uma função f L tal que o produto interno 1 fth kt =, para todo k, devemos mostrar que f = no sentido de L. De fato, isto significa que o complemento ortogonal das funções de Haar é o espaço nulo e, consequentemente, este conjunto forma um sistema ortonormal completo no espaço de Hilbert L [, 1], R. Para mais detalhes referentes a conjuntos ortonormais completos em espaços de Hilbert veja, por exemplo, o Capítulo 1 de Bachman [1]. Vejamos: k = 1 1 ftdt k = 1 Logo, por.8 e.9, temos que = 1 ftdt = 1 1 1 ftdt = ftdt + 9 ftdt = ;.8 1 1 1 ftdt = 1 1 1 ftdt = ftdt. ftdt..9

Portanto, 1 ftdt = 1 ftdt = 1 1 ftdt =. Indutivamente, mostra-se que k+1 n+1 ftdt = k n+1 para todo k < n+1 e para todo n. Logo, s ftdt = para todos os r racionais r s 1 diádicos, isto é, da forma k/ n. Como os intervalos da forma [r, s], com r e s diádicos, geram a σ-álgebra de Borel do intervalo [, 1], concluímos que ftdt =.1 para todo boreliano B de [, 1]. Considere os conjuntos da forma B A n = {t [, 1] : ft > 1/n}. Note que n=1 A n = A {t [, 1] : ft > }. Denotemos por LebA a medida de Lebesgue do conjunto A. Para cada n, temos, por.1, que = ftdt 1 A n n LebA n. Logo, LebA n = para todo n e, consequentemente, LebA =. Analogamente, se mostra que Leb{t [, 1] : ft < } =. Portanto, f é nula q.t.p., conforme desejávamos. As funções de Schauder são as integrais das funções de Haar. Definição..3. Para k =, 1,..., a k-ésima função de Schauder é definida por: s k t = h k ydy,.11 onde as h k são as funções de Haar dadas em.5,.6 e.7. Na Figura.3 é mostrado o gráfico da k-ésima função de Schauder. Podemos ver que max t 1 s kt = n 1, se n k < n+1..1 1

Figura.3: Gráfico da k-ésima função de Schauder, n k < n+1 Seja {A k } k= uma sequência de variáveis aleatórias independentes com distribuição N, 1 definidas em algum espaço de probabilidade. Definiremos o processo B t t [,1] por B t := A k s k t..13 k= Primeiramente, para que isto faça sentido, precisamos analisar a convergência desta série. Lema..4. Sejam {a k } k= uma sequência de números reais e {s k} k= as funções de Haar definidas em.11. Defina e suponha que Então a série y j = max a k.14 j k< j+1 y j j 1 <..15 j= xt = a k s k t,.16 k= definida em [, 1], converge uniformemente para uma função contínua de t. Demonstração. É suficiente mostrar que m+n lim a m,n k max s kt =..17 t 1 k=m 11

Notando que para j k < j+1 as funções s k têm suportes disjuntos e usando.1 e.14 obtemos j+1 1 a k max t 1 s kt k= y j j 1..18 j Então, agrupando os termos em.17 de acordo com.18 e usando a desigualdade triangular, temos que, para m > N, a soma de Cauchy em.17 é menor que y j j 1, a qual converge para zero, quando N, j=n de acordo com.15. Então, a série em.16 converge uniformemente e, como cada parcela é contínua, concluímos que x é uma função contínua de t. Lema..5. Seja {A k } k= uma sequência de variáveis aleatórias independentes com distribuição N, 1. Defina Então Demonstração. P A k > x = Y j = max A k..19 j k< j+1 P Y j j 1 < = 1. j= = π x π x e x 4 π e u du e u 4 e u 4 du x e u 4 du Ke x 4 onde K é uma constante. Em particular, para x = 4 log k, temos que P A k > 4 log k Ke 4 log k = K 1 k. 4 Como 1 converge, temos, pelo Lema de Borel-Cantelli veja, por exemplo, k 4 James [7], página, que P A k > 4 log k para infinitos valores de k =. 1

Ou seja, com probabilidade um, apenas um número finito dos A k excede 4 log k e, consequentemente, apenas um número finito dos Y j = max A k j k< j+1 excede y j := 4 log j+1 = 4 j + 1 log. Mas, aplicando o teste da razão, vemos que y j j 1 <. Isto estabelece, com probabilidade um, a convergência da série Y j j 1. Juntos, os Lemas..4 e..5 garantem que a expressão.13 define um processo B t t [,1] com trajetórias contínuas, quase certamente. Além disso, é imediato que B =. Para provar que B t t [,1] é um movimento browniano usaremos ainda o seguinte resultado: Lema..6. Sejam s k, k =, 1,..., as funções de Schauder definidas em.11. Então: s k ss k t = min{s, t}. k= Demonstração. Para t 1 definimos { 1 x t φ t x = t < x 1. Suponhamos s t. Então, temos que 1 φ s xφ t xdx = s. Mas esta expressão é o produto interno entre φ s e φ t no espaço L [, 1]. Portanto, pelo Lema.., podemos escrever 1 s = φ s xφ t xdx = a k b k, onde os coeficientes a k e b k são as coordenadas das funções φ s e φ t na base formada pelas funções de Haar, ou seja a k = b k = 1 1 φ s xh k xdx = φ t xh k xdx = s k= h k xdx = s k s; h k xdx = s k t. 13

Teorema..7. A expressão B t := A k s k t define um movimento browniano B t t [,1]. k= Demonstração. Já vimos, através dos Lemas..4 e..5, que as trajetórias de B t t [,1] são contínuas quase certamente e iniciadas em zero. Precisamos mostrar, ainda, que, para = t < t 1 <... < t n 1 os incrementos {B tj B tj 1 } n j=1 são independentes, normalmente distribuídos com média zero e variância t j t j 1. Para isso, consideraremos os vetores somas parciais B m t1 Bt m,..., Bt m n Bt m n 1 m m m m = A k s k t 1 A k s k t,..., A k s k t n A k s k t n 1 k= k= e mostraremos que as função características destes vetores, a saber ϕ m λ 1,..., λ n = E [e i n j=1 λ j m k= A ks k t j m k= A ks k t j 1 ],. convergem pontualmente para ϕλ 1,..., λ n = n j=1 k= e 1 λ j t j t j 1 k=.1 que é a função característica de um vetor aleatório onde as componentes são independentes com distribuição N, t j t j 1. Por simplicidade, consideremos o caso n =, o caso geral segue de maneira similar. Fazendo n = em., lembrando que s k t = s k =, obtemos [ m k= A ks k t 1 +λ m k= A ks k t m k= A ks k t 1 ] ] ϕ m λ 1, λ = E por independência como A k N, 1 = E e i[λ 1 [ e ] m k= ia k[λ 1 λ s k t 1 +λ s k t ] m = E [ e ] ia k[λ 1 λ s k t 1 +λ s k t ] = k= m e 1 [λ 1 λ s k t 1 +λ s k t ] k= m k= [λ 1 λ s k t 1 +λ s k t ] = e 1 = e 1 [λ 1 λ m k= s k t 1+λ 1 λ λ m k= s kt 1 s k t +λ m k= s k t ]. 14

Fazendo m e usando o Lema..6, obtemos: lim ϕ mλ 1, λ = e [λ 1 1 λ t 1 +λ 1 λ λ t 1 +λ t ] m = e 1 λ 1 t 1 e 1 λ t t 1.. Note que. é igual ao segundo termo de.1 com n =, conforme desejávamos. t [,1] } n=. De fato, basta tomar uma sequência de variáveis aleatórias N, 1 independentes, reindexá-la de modo a obter uma família enumerável de sequências e, a partir de cada sequência definir um movimento browniano usando o procedimento descrito anteriormente. Em seguida, definimos o processo B t t [, da seguinte maneira: Tendo mostrado a existência do movimento browniano com tempo variando no intervalo [, 1], o próximo passo é estender o resultado para o intervalo [,. Basicamente, a ideia consiste em emendar uma sequência de movimentos brownianos independentes definidos em [, 1]. Mais formalmente, pelo resultado já provado, podemos construir uma sequência de movimentos brownianos independentes {B n t B t = B t se t 1 = B 1 + B 1 t 1 se 1 < t = B 1 + B 1 1 + B t se < t 3. = B 1 +... + B n 1 1 + B n t n se n < t n + 1. Verifiquemos que B t t é, de fato, um movimento browniano. É imediato que B =. A continuidade quase certa das trajetórias também é clara, pois a interseção enumerável de conjuntos com probabilidade um é também um conjunto com probabilidade um e, além disso, a continuidade nos naturais, onde poderia ocorrer problemas, é evidente a partir da construção, visto que B k =. Fixemos tempos t 1 < t t 3 < t 4. Precisamos mostrar que B t B t1 e B t4 B t3 são independentes e têm distribuição N, t t 1 e N, t 4 t 3, respectivamente. Se tivermos m < t m + 1 e n < t 3 n + 1 com m < n, então nota-se, claramente, que o incremento B t B t1 depende apenas de movimentos brownianos B k t t [,1] para k < m e, por outro lado, o incremento B t4 B t3 só depende de movimentos brownianos 15

B k t t [,1] para k m, os quais, por construção, são independentes de B k t t [,1] para k < m. Logo, vale a independência entre os incrementos neste caso. Se, entretanto, m = n basta usar, também, a independência entre incrementos em intervalos de tempos disjuntos do processo B m t t [,1] e chegamos à mesma conclusão. Claramente, o mesmo argumento funciona para um número qualquer de incrementos. Agora mostremos que, se s < t, então o incremento B t B s tem distribuição N, t s. Suponhamos m < s m + 1 e n < t n + 1. Se m = n, o resultado é claro, pois B t B s = B m s m B m t m que tem distribuição N, t m s m = N, t s. Se, por outro lado, m < n, então logo B t = B 1 +... + B m 1 1 + B m 1 +... + B n 1 1 + B n t n B s = B 1 +... + B m 1 1 + B m s m B t B s = B m 1 B m s m + B m+1 1 +... + B n 1 1 + B n t n é soma de variáveis aleatórias normais independentes de médias zero. Além disso, usando a independência, temos que V B t B s = V B m 1 B m s m + V B m+1 1 +... + V B n 1 1 }{{} n m 1 termos +t n = t s. = 1 s m + 1 +... + 1 }{{} n m 1 termos +V B n t n Logo, B t B s N, t s e, consequentemente B t t é um movimento browniano... Construção alternativa Usando resultados gerais da teoria dos processos estocásticos, podemos obter a existência do movimento browniano sem recorrer a uma construção explícita. Não entraremos em muitos detalhes, mas a ideia é notar que, a menos da condição da continuidade das trajetórias, o movimento browniano é definido a partir de suas distribuições finito-dimensionais, ou seja, da distribuição de probabilidade dos vetores B t1,..., B tn, onde t 1,..., t n é qualquer sequência finita de tempos fixada. Ocorre que, sob certas condições naturais de consistência, o clássico Teorema de Extensão de Kolmogorov 1 garante 1 Veja, por exemplo, Billingsley [3], páginas 51-517. 16

a existência de um processo estocástico com uma família de distribuições finito-dimensionais dada. Assim, a existência do movimento browniano fica parcialmente estabelecida, faltando-se apenas garantir a continuidade das trajetórias. Há algumas sutilezas nesta questão. É natural que o Teorema de Extensão de Kolmogorov nada afirme sobre a continuidade das trajetórias do processo, uma vez que a continuidade de uma função não é uma característica que possa ser determinada pela especificação de apenas uma quantidade enumerável de coordenadas. Ou, dito de outra forma, as distribuições finito-dimensionais sozinhas não são capazes de determinar se um processo possui ou não trajetórias contínuas. Por exemplo, se X t t tem trajetórias contínuas quase certamente, defina: { Xt se t T Y t = se t = T, onde T é uma variável aleatória com distribuição contínua em [,. Então, as trajetórias típicas de Y t t não serão contínuas, embora X t t e Y t t tenham as mesmas distribuições finito-dimensionais, com é fácil ver. O que faremos é garantir a continuidade a menos de uma modificação, através de um resultado conhecido como Critério de Kolmogorov, o qual apenas enunciaremos. Definição..8. Um processo estocástico Y t t é dito uma modificação de X t t se, para todo t, tivermos PX t = Y t = 1. Naturalmente, se um processo é modificação de outro então ambos têm o mesmo sistema de distribuições finito-dimensionais. Teorema..9 Critério de Kolmogorov. Seja X t t um processo estocástico. Suponhamos que existam constantes positivas, β e C tais que E [ X t X s ] Ct s 1+β para quaisquer tempos s < t. Então existe um modificação X t t de X t t com trajetórias contínuas quase certamente. Para verificar o critério no caso do movimento browniano, lembrando que B t B s é N, t s, usaremos as derivadas no zero da função geradora de momentos Mλ = E e λbt Bs = e t s λ. Para demonstração veja, por exemplo, Karatzas & Shreve [8], páginas 53-55. 17

Fazendo as contas, encontramos E [ B t B s 4] = d4 dλ 4 Mλ λ= = 3t s. Portanto, o critério é satisfeito com = 4, β = 1, e C = 3. Assim, fica estabelecida, de uma maneira alternativa, a existência do movimento browniano com trajetórias contínuas quase certamente..3 Movimento Browniano n-dimensional A partir do movimento browniano na reta, é fácil estender a definição para o caso n-dimensional. Definição.3.1. Dizemos que um processo B t t = B 1 t,..., B n t t tomando valores em R n é um movimento browniano n-dimensional se 1. Para cada k = 1,..., n, a componente B k t t é um movimento browniano unidimensional.. Os processos B k t t, k = 1,..., n, são independentes. O item significa que, para quaisquer sequências finitas de tempos t 11, t 1,..., t 1,k1 t 1, t,..., t,k. t n,1, t n,..., t n,kn, os n vetores X 1 = X = B 1 t 11, B 1 t 1,..., B 1 t 1,k1 B t 1, B t,..., B t,k. X n = B n t n,1, B n t n,,..., B n t n,kn são independentes. É possível, também, uma caracterização em termos da distribuição normal multivariada. 18

Definição.3.. Dizemos que um vetor aleatório X = X 1,..., X n tem distribuição normal n-variada com média m R n e matriz de covariâncias C, abreviadamente X Nm, C, se sua função de densidade de probabilidade conjunta é dada por fx 1,..., x n = 1 π n/ det C exp { } C 1 x m, x m, onde x representa o vetor coluna de entradas x 1,..., x n e.,. denota o produto interno usual do R n. A proposição a seguir permite uma definição equivalente de movimento browniano n-dimensional, igual ao caso unidimensional, apenas trocando, no item da Definição.1.1, N, t s por N, t si n. Proposição.3.3. Se B t t é um movimento browniano n-dimensional então B t N, ti n, para cada tempo t >. Portanto 1 P B t A = e x πt n/ t dx para cada boreliano A R n. Demonstração. Para cada t, as coordenadas Bt k do processo são variáveis aleatórias independentes com distribuição N, t. Denotemos por f a função densidade conjunta do vetor aleatório B t e por f 1,..., f n as densidades das coordenadas. Então, por independência, temos fx 1,..., x n = f 1 x 1... f n x n = 1 x 1 e πt 1/ = 1 x e t πt n/. A 1 t... e πt 1/ x n t.4 Não-diferenciabilidade das trajetórias Por definição, as trajetórias do movimento browniano são contínuas, quase certamente. Nesta seção mostraremos que, com probabilidade um, as trajetórias não são diferenciáveis em nenhum ponto. Este resultado pode ser 19

intuído através da propriedade markoviana.4. De fato, se B s = x, o comportamento futuro de B t t>s depende apenas deste fato e não leva em conta de que maneira o processo B t t [,s] se aproximou do ponto x quando t cresceu a s. Assim, não temos por que esperar que o processo saia de x de modo que haja uma reta tangente neste ponto. Teorema.4.1. Com probabilidade um, as trajetórias do movimento browniano não são diferenciáveis em nenhum ponto. A demonstração é bastante técnica e pode ser omitida em uma primeira leitura, sem perda de continuidade. Demonstração. Basta considerar o caso unidimensional e, sem perda de generalidade, tempos t 1. Suponhamos que B t t [,1] seja diferenciável em algum ponto t < 1. Então, em algum intervalo contendo t, devemos ter B t B t K t t para alguma constante K. Logo, para pontos t 1 e t suficientemente próximos de t, temos, pela desigualdade triangular, que B t B t1 B t B t + B t B t1 Para i =, 1 e e n = 1,, 3,... definamos t n, i = nt + i + 1 n K t t + t 1 t..3 e t 1 n, i = nt + i. n Então, para i =, 1 e temos que lim n t n, i = lim n t 1 n, i = t. Portanto, para n suficientemente grande, de acordo com.3 temos que, para i =, 1 e nt + i + 1 B nt +i+1 B nt +i K t + nt + i n n n t n i + 1 K n + i 5K n n. Portanto, o evento B t t [,1] é diferenciável em algum t [, 1 está contido no evento n 1 B A j+i+1 B j+i 5k. n n n k=1 m=1 n=m j= i=

Mostraremos que A é união enumerável de eventos de probabilidade zero, donde concluiremos que PA =. Para cada k definamos n 1 B A k n j+i+1 B j+i 5k. n n n j= i= Então, A pode ser expresso como 3 A = k=1 lim infn An k. Portanto, basta mostrar que, para cada k, P lim inf n An k =. Mas, em geral, vale que 4 e, portanto P P lim inf A k n n por independência incrementos disjuntos lim inf A k n n lim inf n lim inf n = lim inf n N, 1/n = lim inf n Pois as variáveis aleatórias e têm distribuição N, 1 n.5 Martingales lim inf n P lim inf n PAk n [ n 1 j= i= B j+i+1 [ n 1 B P j+i+1 j= i= [ B n P 1 5k ] 3 n n 5k n n π/n 5k n n 1dx π/n 3 1k = lim n 1/ =. n π B j+i+1 B j+i n n. Isto conclui a demonstração. n n B j+i n B j+i n e nx dx 3 3 5k ] n 5k ] n, i =, 1 e, são independentes Outra importante propriedade do movimento browniano é que ele faz parte de uma classe de processos estocásticos chamados de Martingales. Neste seção, 3 Veja Bartle [], página 15 4 Veja Bartle [], Exer. 3I. página 4 1

explicaremos o que é um martingale e apresentaremos algumas propriedades básicas que serão úteis nos capítulos seguintes. Para isso, antes de tudo, precisaremos definir alguns termos e fixar notações correspondentes. Nas definições a seguir, o tempo pode ser tanto discreto como contínuo. Definição.5.1. Dada um variável aleatória X definida em Ω, F denotemos por σx a σ-álgebra gerada por X. Ou seja, a menor σ-álgebra em relação a qual X é mensurável. Da mesma forma, dado um processo estocástico X t t, σx s, s t denota a σ-álgebra gerada pelas variáveis aleatórias X s, para s t. Definição.5.. Uma família de sub-σ-álgebras F t t é chamada de filtração no espaço mensurável Ω, F se isto é, F t t é crescente. s < t F s F t Definição.5.3. Um processo estocástico X t t é dito adaptado a uma filtração F t t se, para cada tempo t, a variável aleatória X t é mensurável em relação à σ-álgebra F t. Todo processo é adaptado à sua filtração natural F t = σx s, s t, também chamada de história do processo até o tempo t. É intuitivo interpretar uma σ-álgebra como sendo a quantidade de informação disponível sobre as variáveis aleatórias mensuráveis em relação a ela. De modo que, quanto maior for a σ-álgebra, mais informação há disponível. Nesta linha de pensamento, dizer que um processo estocásticox t t é adaptado à filtração F t t significa que, para cada tempo t, a variável aleatória X t depende apenas da informação disponível na σ-álgebra F t. A definição mais geral de martingale, a ser dada a seguir, faz uso de uma importante noção de esperança condicional: a esperança condicional em relação a uma σ-álgebra. Definição.5.4. Seja X uma variável aleatória integrável em Ω, F, P e seja G uma sub-σ-álgebra de F. A esperança condicional E[X G] é uma variável aleatória G-mensurável tal que XdP = E[X G]dP.4 para todo conjunto G G. G G

Interpretamos E[X G] como uma estimativa da variável aleatória X com base na informação dada pela σ-álgebra G. A expressão.4 significa que nos conjuntos de G as médias de X e de E[X G] são as mesmas. Exemplo.5.5 Espaço de probabilidade finito. Seja Ω = {1,..., n}, F a σ-álgebra das partes de Ω e P = n i=1 p iδ i em que p i, n i=1 p i = 1 e δ i é a medida que concede massa total ao elemento i delta de Dirac em i. Seja A 1,..., A m uma partição de Ω, isto é, conjuntos disjuntos cuja união é Ω. Consideremos G a σ-álgebra gerada pelos conjuntos A j, j = 1,..., m. As funções mensuráveis em relação a G são constantes nos conjuntos A j s, pois G não possui subconjuntos próprios não vazios dos A j s. Logo, dada uma variável aleatória X em Ω, F, P, definida por Xi = x i, i = 1,..., n, a esperança condicional E[X G] é uma função constante nos conjuntos A j s tal que, se i A j então: E[X G]i = 1 p k x k = 1 XdP PA j PA j k A A j j caso PA j. Se PA j =, podemos impor qualquer valor a E[X G]i. Teorema.5.6 Existência e unicidade da esperança condicional. Dada uma variável aleatória X integrável, definida em Ω, F, P, e uma sub-σálgebra G F existe, e é única P-quase certamente, a esperança condicional E[X G] apresentada na Definição.5.4. A demonstração do Teorema.5.6, a ser dada a seguir, faz uso do Teorema de Radon-Nikodyn que é assunto clássico nos cursos de Teoria da Medida. Aqui apenas o enunciaremos. Para a demonstração, veja, por exemplo Bartle [], p.85. Definição.5.7. Uma medida λ em Ω, A é dita absolutamente contínua em relação a uma medida µ em Ω, A, denota-se por λ µ, se, para A A, µa = implicar λa =. Teorema.5.8 Radon-Nikodyn. Sejam λ e µ medidas σ-finitas definidas em Ω, A. Suponha que λ µ. Então existe uma função f : Ω R, A-mensurável, não negativa, tal que λa = fdµ para todo A A. 3 A

Demonstração do Teorema.5.6. Inicialmente, consideremos o caso em que a variável aleatória X é não negativa. Defina uma medida λ em Ω, G por λa = XdP. Temos que λ é medida finita pois X é integrável. Notemos também que λ P Ω,G e, portanto, pelo Teorema de Radon-Nikodyn, existe uma função f, G-mensurável, tal que λa = fdp para todo A G. Assim, E[X G] f satisfaz as propriedades requeridas. Para uma variável aleatória X qualquer, basta decompor X = X + X em suas partes positiva e negativa, e tomar E[X G] E[X + G] E[X G]. Quanto à unicidade, suponhamos que exista outra variável aleatória Y, G- mensurável satisfazendo a propriedade.4. Então E[X G] Y dp = para todo G G. Em particular, para todo n, tomando G G n = {ω Ω : E[X G] Y > 1/n} G temos que 1 = E[X G] Y dp G n G n n dp = 1 n PG n. Logo, PG n = e, consequentemente, PE[X G] Y > =. Da mesma forma, se mostra que PE[X G] Y < =. Logo, E[X G] = Y com probabilidade um. Teorema.5.9 Algumas propriedades da esperança condicional. Sejam X e Y variáveis aleatórias integráveis em Ω, F, P, e G uma sub-σ-álgebra de F. 1. invariância da média E[E[X G]] = E[X].. propriedade de projeção Se X é G-mensurável então E[X G] = X. 3. linearidade Se a e b são constantes então A A E[aX + by G] = ae[x G] + be[y G]. 4

4. monotocidade Se X Y quase certamente, então E[X G] E[Y G] quase certamente. 5. convergência dominada Se lim n X n = X com probabilidade um, X n Y, e Y é integrável, então lim n E[X n G] = E[X G]. 6. convergência monótona Se X n e X n X com E[X] <, então E[X n G] E[X G]. 7. G-mensuráveis agem como constantes Se X é G-mensurável e XY é integrável, então E[XY G] = XE[Y G]. 8. independência Se X é independente de G, então E[X G] = E[X]. 9. filtração Se G 1 G então E[E[X G 1 ] G ] = E[E[X G ] G 1 ] = E[X G 1 ]. Demonstração. 1. Basta fazer G = Ω em.4.. Evidentemente, definindo E[X G] X temos que E[X G] é G-mensurável e satisfaz.4. Logo, o resultado segue da unicidade. 3. ae[x G] + be[y G] é G-mensurável e satisfaz.4 pela linearidade da integral. O resultado segue da unicidade. 4. E[X G]dP = XdP Y dp = E[Y G]dP A A A A para todo A G. Agora, tomando A n = {E[X G] E[Y G] > 1/n}, vemos que PA n = para todo n e, consequentemente, PE[X G] > E[Y G] =. 5. Seja Z n = sup k n X k X. Então Z n com probabilidade um e, pelas propriedades 3 e 4, E[X n G] E[X G] E[Z n G]. Portanto, é suficiente mostrar que E[Z n G] com probabilidade um. Como Z n é não crescente, pela propriedade 4, E[Z n G] também o é e, portanto, tem um limite Z. Note que Z E[Z n G] para todo n. Queremos mostrar que Z = com probabilidade um. Sendo Z não negativa, é suficiente mostrar que E[Z] =. Mas Z n Y, então, 5

por Convergência Dominada usual veja Bartle [], página 44, temos que E[Z] = ZdP E[Z n G]dP = E[Z n ]. 6. Seja Y n = X X n. Por linearidade, é suficiente mostrar que Z n E[Y n G]. Como Y n, temos, pela propriedade 4, que também Z n é não crescente, logo tem um limite Z, Z Z n para todo n. Notemos que Y n é dominada por X que é integrável portanto, pela propriedade 1 e novamente pelo Teorema da Convergência Dominada usual, E[Z] E[Z n ] = E[Y n ]. Logo, Z = quase certamente, como queríamos. 7. Como XE[Y G] é G-mensurável, é suficiente mostrar que XE[Y G] = XY dp para todo A G..5 A A Inicialmente, suponhamos que X = I B com B G. Neste caso, se A G, então, como A B G, I B E[Y G]dP = E[Y G]dP = Y dp = I B Y dp. A A B A B Logo, vale.5. Isto se estende para X função simples G-mensurável, X = n i=1 a ii Bi, por linearidade. Para X G-mensurável geral, tomemos uma sequência de funções simples G-mensuráveis tais que X n X e lim n X n = X. Como X n Y XY e XY é integrável, pela propriedade 5 temos que lim n E[X n Y G] = E[XY G]. Mas, por outro lado, E[X n Y G] = X n E[Y G], pois as X n s são funções simples, e lim n X n E[Y G] = XE[Y G]. Portanto, vale a propriedade 7. 8. X ser independente de G significa que a variável aleatória X é independente da informação dada por G, ou ainda, que X é independente das variáveis aleatórias G-mensuráveis. Como E[X] é uma constante, e portanto G-mensurável, é suficiente mostrar que, para todo A G, vale XdP = E[X]dP. Vejamos: A A XdP = I A XdP =E[I A X] =E[I A ]E[X] =PAE[X] = E[X]dP, A 6 A A

onde usamos a independência entre X e a variável aleatória G-mensurável I A na terceira igualdade. 9. Notemos que E[X G 1 ] é G -mensurável, pois G 1 G. Logo, pela propriedade, E[E[X G 1 ] G ] = E[X G 1 ]. Para provar que também E[E[X G ] G 1 ] = E[X G 1 ], notemos que E[X G 1 ] é G 1 -mensurável e se A G 1 G então E[X G 1 ]dp = XdP = E[X G ]dp. A A A Para a esperança condicional também vale a desigualdade de Jensen, conforme o próximo teorema. Teorema.5.1 Desigualdade de Jensen. Se ϕ : R R é convexa e E[ X ], E[ ϕx ] < então, com probabilidade um, ϕe[x F] E[ϕX F]. Demonstração. Se ϕ é linear o resultado já foi provado, valendo a igualdade. Suponhamos, então que ϕ não é linear. Neste caso, se definirmos S = {a, b : a, b Q, ax + b ϕx para todo x R}, então, pela convexidade, pode-se provar que ϕx = sup ax + b. a,b S Se para algum par a, b tivermos ϕx ax + b então, pelos itens 4, 3 e do Teorema.5.9, existe um conjunto A a,b, de probabilidade um, tal que E[ϕX F]ω ae[x F]ω + b para todo ω A a,b. Seja A a interseção enumerável dos conjuntos A a,b sobre todos os pares a, b S. Então, PA = 1, e para todo ω A temos E[ϕX F]ω ae[x F]ω + b para todo par a, b S. Tomando o supremo sobre todos a, b S concluímos que, com probabilidade um, E[ϕX F] ϕe[x F]. 7

O próximo teorema fornece uma interessante interpretação geométrica da esperança condicional como uma projeção. Dado um espaço Ω, F, P e uma sub-σ-álgebra G F, o conjunto L Ω, F, P {Y Y é F-mensurável e E[Y ] < } é um espaço de Hilbert do qual L Ω, G, P é subespaço fechado. O produto interno considerado é X, Y E[XY ]. Se E[X ] <, então o teorema seguinte mostra que E[X G] é a projeção de X sobre o subespaço L Ω, G, P isto é, o ponto no subespaço L Ω, G, P mais próximo de X, na norma dada pelo produto interno. Teorema.5.11. Suponha que E[X ] <. Então a esperança condicional E[X G] é a variável aleatória Y, G-mensurável, que minimiza o erro quadrático médio E[X Y ]. Demonstração. Comecemos observando que se Z L G então, pela desigualdade de Cauchy-Schwarz, Logo, pelo Teorema.5.9 item 7, Tomando a esperança, obtemos E[ ZX ] E[Z ]E[X ] <. ZE[X G] = E[ZX G]..6 EZE[X G] = EE[ZX G] = E[ZX]..7 Por linearidade, podemos reescrever.7 como EZX E[X G] = para Z L G..8 Seja Y L G. Faça Z = Y E[X G] L G. Então E[X Y ] = E[X E[X G] Z ] = E[X E[X G] ] E[ZX E[X G]] + E[Z ] = E[X E[X G] ] + E[Z ]..9 Usamos a equação.8 na última igualdade. A equação.9 mostra que o erro quadrático médio E[X Y ] é mínimo quando Z =, ou seja, quando Y = E[X G]. 8

A noção de esperança condicional em relação a uma variável aleatória torna-se um caso particular da esperança condicional em relação a uma σ- álgebra definindo-se E[X Y ] E[X σy ]. De fato, na esperança condicional E[X Y ], a característica importante da variável Y não é o valor que ela assume em cada ω Ω, mas sim a informação que a ocorrência de cada valor de Y pode fornecer a respeito da ocorrência dos eventos ω Ω. Esta informação é captada pela σ-álgebra gerada σy. Definição.5.1. Seja Ω, F, P um espaço de probabilidade e F t t T uma filtração em σ-álgebras. O tempo T pode ser contínuo ou discreto. Um processo estocástico X t t T a valores reais definido em Ω, F, P é dito um martingale em relação à filtração F t t T e à medida P se 1. E[ X t ] < para todo t T ;. X t t T é adaptado à filtração F t t T ; 3. E[X t F s ] = X s q.c. para todo t s. Quando a filtração não for mencionada, subentende-se que se trata da filtração natural F t = σx s, s t gerada pelo próprio processo. A condição 3 expressa a ideia de que, tendo toda informação sobre o processo até o tempo s, a melhor estimativa para o estado futuro do processo no tempo t s é justamente X s, o último valor observado. Esta característica aparece em vários contextos. Para um exemplo intuitivo, considere o processo estocástico discreto S n que representa a fortuna de um jogador na n-ésima rodada de um jogo. Neste caso, a propriedade de martingale significa que o jogo é justo, no seguinte sentido: a fortuna do jogador numa rodada futura S n, n > m, é, em média, a fortuna presente S m. Além disso, este fato independe das informações sobre a evolução passada da fortuna S k para k < n. O próximo exemplo pode servir como modelo para uma situação deste tipo. Exemplo.5.13. Seja X 1, X,... uma sequência de variáveis aleatórias independentes com E[ X n ] < e E[X n ] = para todo n. Consideremos a filtração F n = σx 1,..., X n. Definimos o processo S n como a soma S n = n k=1 X k. Então S n é um martingale em relação à σ-álgebra F n. Vejamos: 1. Para todo n, E[ S n ] E[ X 1 ] +... + E[ X n ] < ; 9

. Para todo n, S n é F n -mensurável, pois é soma das variáveis X k, k = 1,..., n, que são F n -mensuráveis por definição de F n ; 3. Se n m então E[S n F m ] = E[X n + X n 1 +... + X m+1 + S m F m ] = E[X n + X n 1 +... + X m+1 F m ] + E[S m F m ] = E[X n + X n 1 +... + X m+1 ] + S m = + S m = S m. A segunda igualdade decorre da linearidade da esperança condicional. Na terceira igualdade usamos que X n +... + X m+1 é independente da σ-álgebra F m = σx 1,..., X m, que S m é F m -mensurável e o Teorema.5.9 itens e 8, respectivamente. Note que, se as variáveis aleatórias X k forem i.i.d N, 1 então S n é uma aproximação discreta do movimento browniano. Exemplo.5.14 Movimento Browniano. Denotemos por F t t a filtração natural do movimento browniano B t t. Verifiquemos que B t t é um martingale: 1. Para cada t, E[ B t ] <, pois B t N, t;. B t t é adaptado à F t t filtração natural; 3. Se t s então E[B t F s ] = E[B t B s + B s F s ] = E[B t B s F s ] + E[B s F s ] = E[B t B s ] + B s = + B s = B s, pois B t B s é independente da σ-álgebra F s e B s é F s -mensurável. Definição.5.15. Se na definição.5.1 a condição 3 for substituída por 3. E[X t F s ] X s q.c. para todo t s então dizemos que o processo X t t T é um submartingale. Se, por outro lado, tivermos 3

3. E[X t F s ] X s q.c. para todo t s então dizemos que o processo X t t T é um supermartingale. Usando a mesma analogia anteriormente apresentada, um submartingale pode ser pensado como um processo que descreve a fortuna de um jogador em um jogo favorável ao jogador a esperança da fortuna futura é maior ou igual que a fortuna presente enquanto que, um supermartingale descreveria um jogo desfavorável. Convém notar que um martingale é um submartingale e um supermartingale ao mesmo tempo. Proposição.5.16. Se o processo X t t é um martingale em relação à filtração F t t e ϕ : R R é convexa, com E[ ϕx t ] < para todo t, então ϕx t t é um submartingale em relação à F t t. Demonstração. 1. Por hipótese, E[ ϕx t ] < para todo t.. Toda função convexa é contínua e portanto borel-mensurável. Logo, ϕx t é F t -mensurável pra todo t. 3. Pela desigualdade de Jensen, se t s E[ϕX t F s ] ϕe[x t F s ] = ϕx s. Agora apresentaremos algumas importantes desigualdades. primeiramente, do caso em que o tempo é discreto. Teorema.5.17 Desigualdade L p de Doob - tempo discreto. Tratemos, 1. Se {X n } n=1 é um submartingale, então para todo n = 1,,... e λ > P max X k λ 1 1 k n λ E [ ] X n +,.3 onde X + n = max{x n, }.. Se {X n } n=1 é um martingale e p > 1 então p p E max X k p E X n p..31 1 k n p 1 31

Corolário.5.18. Note que, pela desigualdade.3, se {X n } n=1 é um martingale então, para todo p 1 e λ > P max X k λ 1 1 k n λ E[ X n p ].3 p pois, pela Proposição.5.16, { X n p } n= é um submartingale, já que ϕx = x p é convexa. Demonstração. 1. Suponhamos que {X n } n=1 seja um submartingale. Seja [ ] A = max X k λ. 1 k n Vamos decompor A de acordo com a primeira vez em que X k λ. Para isso, definimos A 1 = [X 1 λ] A = [X 1 < λ, X λ] A k = [X 1 < λ, X < λ,..., X k λ], para < k n n Então os conjuntos A k são a disjuntos e A = A k. Logo, I A = Portanto EX + n EX + n I A = pela invariância da média = I Ak é F k -mensurável = monotocidade submartingale e monotocidade k=1 n EX n + I Ak k=1 n E E[X n + I Ak F k ] k=1 n E I Ak E[X n + F k ] k=1 n E I Ak E[X n F k ] k=1 n E I Ak X k k=1 n E I Ak λ = λ k=1 3 n I Ak. k=1 n PA k = λpa. k=1

Logo, vale.3.. Note que a sequência de desigualdades anteriores demonstra algo mais forte do que.3. De fato, mostramos que λpa EX + n I A, ou seja, λp max X k λ X n + I [max1 k n X k λ]dp..33 1 k n Ω Agora, suponhamos que {X n } n=1 seja um martingale e consideremos o processo { X n } n=1. Pelo Teorema.5.16, temos que { X n } n=1 é um submartingale. Aplicando a desigualdade.33 a este processo, obtemos λp X λ X n I [X λ]dp,.34 onde X = max 1 k n X k. Seja p > 1. Então [ X ] [ ] E[X p ] = E pλ p 1 dλ = E pλ p 1 I [X λ]dλ = pλ p 1 I [X λ]dλdp = pλ p 1 I [X λ]dpdλ = p Ω Ω λ p 1 P[X λ]dλ,.35 onde a mudança na ordem de integração é justificada pelo Teorema de Tonelli 5. Usando a desigualdade.34 em.35 e mudando a ordem de integração novamente, obtemos E[X p ] p λ p X n I [X λ]dpdλ = p X n λ p I [X λ]dλdp Ω Ω X = p X n λ p dλdp = p X n X p 1 dp..36 Ω p 1 Ω Aplicando a Desigualdade de Hölder, obtemos E[X p ] p 1 1 X n p p dp X p 1q q dp,.37 p 1 Ω Ω 5 Veja, por exemplo, Bartle [], página 118. Ω 33

onde q é tal que 1 + 1 = 1. Mas então, p 1q = p e 1 = 1 1. Logo,.37 p q q q se torna E[X p ] p 1 X n p p 1 1 dp X p p dp p 1 Ω Ω ou, em outros termos, Ou ainda E[X p ] conforme desejávamos. p p 1 E X n p 1 p E[X p ] 1 E[X p ] p p E X n p, p 1 É interessante notar que o Corolário.5.18 generaliza a Desigualdade de Kolmogorov. Sejam X 1,..., X n variáveis aleatórias independentes tais que E[X k ] = e V ar[x k ] <, k = 1,..., n. Então, vimos no Exemplo.5.13 que S n é um martingale e, portanto, aplicando a desigualdade.3 com p = obtemos, para todo λ >, P max S k λ 1 1 k n λ E[S n] que é, exatamente, o que diz a desigualdade de Kolmogorov 6. Teorema.5.19 Desigualdade L p de Doob - tempo contínuo. Seja X t t um processo estocástico a tempo contínuo com trajetórias contínuas quase certamente. 1. Se X t t é um submartingale, então para todo t e λ > P sup X s λ 1 s t λ E [ ] X t +,.38 onde X + t = max{x t, }.. Se X t t é um martingale e p > 1 então p p E sup X s p E X t p..39 s t p 1 6 Veja, por exemplo, James [7], página 5. 1 p. 34

Corolário.5.. Da parte 1, obtemos que, se X t t é um martingale com trajetórias contínuas q.c. então para todo p 1 e λ > P sup X s λ 1 s t λ E[ X t p ],.4 p já que X t p t é um submartingale. Demonstração. 1. A prova consiste em aproximar o processo X t t por processos a tempo discreto e usar o teorema anterior. Em mais detalhes: seja X t t um submartingale. Fixemos λ > e t > e particionemos o intervalo [, t], ou seja, escolhemos pontos = t < t 1 <... < t n = t. Notemos que o processo {Y k } n k= definido por Y k = X tk, para k =, 1,..., n, é um submartingale discreto. De fato, E[Y k σy,..., Y k 1 ] = E[X tk σx t,..., X tk 1 ] = E [ E[X tk σx s, s t k 1 ] σx t,..., X tk 1 ] E[X tk 1 σx t,..., X tk 1 ] = X tk 1 = Y k 1. Na segunda igualdade usamos que σx t,..., X tn 1 σx s, s t n 1 e o item 9 do Teorema.5.9. A desigualdade é justificada pela propriedade de submartingale do processo original e pela monotocidade da esperança condicional. Para a igualdade seguinte, usamos que X tk 1 é mensurável em relação à σx t,..., X tk 1 e o item do Teorema.5.9. Portanto, para todo µ >, pelo Teorema.5.17, vale P max X s µ 1 s {t,...,t n} µ E [ ] X t +..41 Agora, consideremos uma sequência crescente {F n } n=1 de conjuntos finitos cuja união é F = [, t] Q {t}. Então, para todo λ > e todo ε >, temos que P sup X s λ s F P [max X s λ ε] s F n n=1 max = lim n P 1 λ ε E [ X + t 35 X s λ ε s F n ]..4

Onde, na última desigualdade, usamos.41 com µ = λ ε. Fazendo ε em.4 obtemos P sup X s λ 1 s F λ E [ ] X t +..43 Mas, pela continuidade quase certa das trajetórias, temos que sup s t X s = sup s F X s com probabilidade um. Usando este fato em.43, obtemos P sup X s λ 1 s t λ E [ ] X t +. De maneira similar se mostra.39. Concluímos este capítulo com uma importante aplicação destas desigualdades ao movimento browniano, conhecida como desigualdade exponencial. Proposição.5.1. Seja B t t um movimento browniano. Considere o processo S t t = sup s t B s t que indica o máximo da trajetória do movimento browniano até o tempo t. Então, para todo c e todo t, P S t ct e c t..44 Demonstração. Primeiramente notemos que, para todo >, o processo X t t = e Bt t t é um martingale em relação à filtração natural de B t t, com trajetórias contínuas quase certamente. Vejamos: Bt E[e t F s ] = e t E[e Bt F s ] = e t E[e Bt Bs e Bs F s ] = e t e Bs E[e Bt Bs ] = e t e Bs e t s Bs = e s. Na terceira igualdade usamos que e Bs é F s -mensurável e que e Bt Bs é independente de F s. Em seguida, usamos a função geradora de momentos St de B t B s N, t s. Como e t sup s t X, obtemos PS t ct = P P St e t e sup X t s t t ct t e ct t ct+ e t E[X t ],.45 onde a última desigualdade é consequência da desigualdade.38 aplicada ao martingale X t t. Mas E[X t ] = E[X ] = 1. Para o particular que minimiza o lado direito de.45, a saber = c, obtemos.44. 36