Movimento Browniano, Integral de Itô e Estocásticas

Tamanho: px
Começar a partir da página:

Download "Movimento Browniano, Integral de Itô e Estocásticas"

Transcrição

1 Universidade Federal do Rio Grande do Sul Instituto de Matemática Programa de Pós-Graduação em Matemática Movimento Browniano, Integral de Itô e Introdução às Equações Diferenciais Estocásticas Ricardo Misturini Dissertação de Mestrado Porto Alegre, 8 de Julho de 1.

2 Dissertação submetida por Ricardo Misturini 1 como requisito parcial para a obtenção do grau de Mestre em Matemática pelo Programa de Pós-Graduação em Matemática do Instituto de Matemática da Universidade Federal do Rio Grande do Sul. Professor Orientador: Dr. Rafael Rigão Souza UFRGS Banca Examinadora: Dr. Artur Oscar Lopes UFRGS Dr. Elismar da Rosa Oliveira UFRGS Dr. Rogério Ricardo Steffenon UNISINOS Data da Apresentação: 8 de Julho de 1. 1 Bolsista da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Capes

3 Agradecimentos Primeiramente, agradeço à minha família Mãe, Pai, Dé e Tiago e à Cari. Não apenas por me incentivarem nos estudos. Por tudo. Saber que eu sempre tenho com quem contar torna tudo mais fácil. Dedico a vocês esta conquista. Agradeço aos colegas, em especial ao Matheus, um baita parceiro, e a meu primo Rangel que acompanhou de perto o andamento deste trabalho, sempre disposto a dar uma opinião quando solicitei. Agradeço também aos professores. Ao Rogério, meu primeiro orientador, que continua sempre interessado e prestativo. Ao Rafael, orientador super acessível e comprometido com minha formação. Também ao Luiz Fernando Carvalho da Rocha e ao Artur Lopes, por toda ajuda e incentivo. A todos, muito obrigado. iii

4 Resumo Este texto apresenta alguns dos elementos básicos envolvidos em um estudo introdutório das equações diferencias estocásticas. Tais equações modelam problemas a tempo contínuo em que as grandezas de interesse estão sujeitas a certos tipos de perturbações aleatórias. Em nosso estudo, a aleatoriedade nessas equações será representada por um termo que envolve o processo estocástico conhecido como Movimento Browniano. Para um tratamento matematicamente rigoroso dessas equações, faremos uso da Integral Estocástica de Itô. A construção dessa integral é um dos principais objetivos do texto. Depois de desenvolver os conceitos necessários, apresentaremos alguns exemplos e provaremos existência e unicidade de solução para equações diferenciais estocásticas satisfazendo certas hipóteses. Palavras-chave: Movimento Browniano. Martingales. Integral Estocástica. Fórmula de Itô. Equações Diferenciais Estocásticas. iv

5 Abstract This text presents some of the basic elements involved in an introductory study of stochastic differential equations. Such equations describe certain kinds of random perturbations on continuous time models. In our study, the randomness in these equations will be represented by a term involving the stochastic process known as Brownian Motion. For a mathematically rigorous treatment of these equations, we use the Itô Stochastic Integral. The construction of this integral is one of the main goals of the text. After developing the necessary concepts, we present some examples and prove existence and uniqueness of solution of stochastic differential equations satisfying some hypothesis. Key-words: Brownian Motion. Martingales. Stochastic Integral. Itô s Formula. Stochastic Differential Equations. v

6 Sumário 1 Introdução 1 Movimento Browniano 3.1 Motivação e Definição Existência do Movimento Browniano Uma construção explícita Construção alternativa Movimento Browniano n-dimensional Não-diferenciabilidade das trajetórias Martingales Integral Estocástica de Itô Integral de Itô para processes elementares Aproximação por processos elementares Integral de Itô para processos mais gerais Integral Indefinida Uma possível extensão da definição Fórmula de Itô Integral de Itô n-dimensional Equações Diferenciais Estocásticas Definições Alguns exemplos Teorema de Existência e Unicidade Referências Bibliográficas 79 vi

7 Capítulo 1 Introdução Consideremos uma equação diferencial ordinária da seguinte forma { x t = fxt, t t, T x = x, 1.1 onde f : R [, T ] R é uma função com um certo grau de regularidade e x é uma constante fixada. Neste caso, a solução x procurada é uma função x : [, T ] R satisfazendo as igualdades acima. É também comum escrever a equação 1.1 em sua forma diferencial: { dxt = fxt, tdt x = x. Ocorre que, em diversas situações, podemos estar interessados em um modelo que descreva também a ação de algum efeito aleatório que influencia o sistema, tal como algum tipo de perturbação ou ruído. Como uma possível descrição para algumas situações desse tipo, somos levados às chamadas equações diferenciais estocásticas: { dxt = fx t, tdt + gx t, tdb t, 1. X = x onde f, g : R [, T ] R são funções e B t t [,T ] é um processo estocástico conhecido como movimento browniano. Neste caso, a solução procurada é um processo estocástico X t t [,T ]. Neste texto será dada uma interpretação matemática para a equação diferencial 1., a qual, na verdade, terá o sentido de uma equação integral X t = x + fx s, sds + 1 gx s, sdb s. 1.3

8 Para tanto, de imediato, somos conduzidos aos seguintes problemas: 1. Definir o movimento browniano B t t [,T ] ;. Dar um sentido para a integral estocástica em 1.3. gx s, sdb s que aparece O problema 1 será abordado no Capítulo. Definiremos movimento browniano como um processo estocástico com trajetórias contínuas cujos incrementos são independentes e normalmente distribuídos, com média zero e variância igual ao correspondente incremento temporal. Ainda no Capítulo, apresentaremos algumas propriedades dos processos estocásticos chamados de martingales, os quais incluem o movimento browniano. Para isso, precisaremos tratar, entre outras coisas, dos importantes conceitos de filtração e de esperança condicional em relação a uma σ-álgebra, os quais, portanto, não são supostos pré-requisitos para a leitura deste texto. O problema é assunto para o Capítulo 3, no qual definiremos a Integral Estocástica de Itô, para uma classe especial de processos que iremos definir. O resultado mais importante do capítulo é a chamada Fórmula de Itô, que é a correspondente regra da cadeia do cálculo estocástico. No Capítulo 4, de posse das ferramentas construídas nos capítulos precedentes, estaremos aptos a apresentar as equações diferenciais estocásticas, em um contexto um pouco mais amplo do que em 1.. Com uso da Fórmula de Itô, serão resolvidos alguns exemplos simples. Concluiremos o texto provando um teorema que, sob certas hipóteses, assegura existência e unicidade de solução para equações diferenciais estocásticas.

9 Capítulo Movimento Browniano.1 Motivação e Definição O movimento browniano, como fenômeno físico, foi proposto em 187 pelo botânico inglês Robert Brown ao observar o movimento irregular de partículas microscópicas de pólen suspensas na água. Em 195, A. Einstein apresentou uma descrição matemática do movimento como consequência de leis da física. Posteriormente, a teoria foi matematicamente formalizada por N. Wiener na década de 19. Por isso, na literatura, o movimento browniano é também chamado de Processo de Wiener. Para uma ideia intuitiva do movimento browniano, imagine um passeio aleatório simétrico no espaço euclidiano dando saltos infinitesimais com frequência infinita. Com isso em mente, como motivação heurística para a definição a ser dada a seguir, construímos um reticulado bidimensional conectando os vértices {m x, n t m Z, n N}. Considere uma partícula que no tempo t = se encontra na posição x = e que, a cada tempo n t move-se uma distância x para a direita, com probabilidade 1/, ou para a esquerda, com probabilidade 1/ veja Figura.1, adiante. Chamemos de pm, n a probabilidade de que a partícula esteja na posição m x no instante n t. Temos, então, que { m pm, = 1 m = e pm, n + 1 = 1 pm 1, n + 1 pm + 1, n, 3

10 donde segue que pm, n + 1 pm, n = 1 pm + 1, n pm, n + pm 1, n. Além disso, estaremos assumindo também que x = t, ou seja, que o passeio aleatório está sendo espacialmente reescalado pela raiz quadrada da escala do tempo. Então pm, n + 1 pm, n t = 1 pm + 1, n pm, n + pm 1, n x..1 Agora fazemos t, x, m x x, n t t mantendo a relação x = t. Então, de uma maneira intuitiva, pm, n fx, t, onde fx, t é interpretada como a densidade de probabilidade da partícula estar na posição x no tempo t. Formalmente, no limite, a equação de diferenças.1 torna-se f t = 1 f xx.. De fato, o segundo termo em.1 pode ser expresso como pm + 1, n pm, n 1 x x pm, n pm 1, n x p p 1 m, n m 1, n = x x 1 x f xxx, t. A expressão em. é a equação de difusão, também chamada de equação do calor. Podemos verificar que fx, t = 1 πt e x t.3 é uma, e de fato a única, solução de. com condição inicial fx, = δ. Note que.3 é a densidade de uma variável aleatória com distribuição N, t. Agora, usando o Teorema Central do Limite tornaremos mais rigorosa a passagem ao limite feita acima. Novamente, suponha que a partícula movese para esquerda ou direita uma quantidade x com probabilidade 1/ para 4

11 Figura.1: Passeio aleatório cada direção. Denotemos por X t a posição da partícula no instante t = n t. Seja Y k, k N, uma sequência de variáveis aleatórias independentes com { P Yk = 1 = 1/ para k = 1,,.... P Y k = 1 = 1/ Então EY k = e V ary k = 1. Definamos S n := n Y k. k=1 Podemos modelar X t através da expressão X t = S n x. Como antes, impomos que x = t. Então Sn n x Sn n t Sn t. X t = S n x = = = n n n 5

12 Portanto, pelo Teorema Central do Limite, temos lim n t = n t a Pa < X t < b = lim P n t S n b n t TCL = = 1 π b t a t 1 b πt a e x dx e u t du. Onde usamos a substituição u = x t na última igualdade. Assim, novamente, obtemos a distribuição N, t. Passemos agora à definição do Movimento Browniano. Inicialmente, consideremos o caso unidimensional. Definição.1.1. Um Movimento Browniano B t t em R é um processo estocástico B, : Ω [, + R, tal que 1. Para quase todo ω Ω fixado, Bω, : [, + R é uma função contínua e B ω = Bω, = ;. Os incrementos B t B s, s < t, são variáveis aleatórias normais de média zero e variância t s, ou seja, B t B s N, t s; 3. Incrementos em intervalos de tempo disjuntos são independentes. Ou seja, as variáveis aleatórias B t4 B t3 e B t B t1 são independentes sempre que t 1 < t t 3 < t 4, o mesmo valendo para n intervalos disjuntos, onde n é arbitrário. Obs. Usamos como notação B t ω = Bω, t. O item 3 estabelece que, para s < t, B t B s é independente do que aconteceu com o processo no intervalo [, s]. Ou seja, se sabemos que B s = x, nenhuma outra informação sobre os valores de B τ para τ < s tem efeito sobre o nosso conhecimento da distribuição de probabilidade de B t B s. Formalmente, isto significa que, se t < t 1 <... < t n < t então: P B t x B t = x, B t1 = x 1,..., B tn = x n = PB t x B tn = x n..4 Processos com esta característica são chamados de Processos de Markov. 6

13 Notemos também que, pelo item, se s < t temos PB t x B s = x = PB t B s x x 1 x x = πt s = 1 x πt s e y t s dy e y x t s dy. Ou seja, dado que B s = x então B t Nx, t s. As condições que definem B t t são suficientes para determinar todas as probabilidades associadas ao processo. Como sempre podemos associar cada ω Ω com a função t B t ω, isto significa que a lei do movimento browniano determina, de maneira única, uma medida no chamado Espaço de Wiener, W, F, onde W = {w : [, R contínua, com w = } e F é a σ-álgebra gerada pelos cilindros de dimensão finita. Entretanto, não é óbvio que um processo com estas características, de fato, existe. Este é o assunto da próxima seção. Como consequência simples da definição, notemos uma propriedade importante do movimento browniano. Proposição.1.. Se B t t é um movimento browniano, então para quaisquer tempos s e t temos E[B t B s ] = min{s, t}. Demonstração. Suponhamos s t. Então E[B s B t ] = E[B s B s + B t B s ] = E[B s] + E[B s B t B s ] = s + E[B s ]E[B t B s ] = s + = s = min{s, t}. Na terceira igualdade usamos V ar[b s ] = E[B s] = s, pois B s N, s, e a independência entre B s e B t B s.. Existência do Movimento Browniano Existem várias maneiras de se construir o movimento browniano. Faremos em detalhes, na Seção..1, uma construção explícita que expressa 7

14 o processo como uma série quase certamente uniformemente convergente de funções contínuas com coeficientes aleatórios. Na Seção.., mostraremos, de maneira sucinta, como a existência do processo pode ser obtida através do Teorema de Extensão de Kolmogorov somado a um critério que garante a continuidade das trajetórias...1 Uma construção explícita Inicialmente, construiremos um movimento browniano B t t [,1] definido apenas para t [, 1]. O processo indexado por [, + será, posteriormente, construído a partir deste. Nosso objetivo é definir B t t [,1] como B t := A k h k sds k= onde A k é uma sequência de variáveis aleatórias independentes com distribuição N, 1 e as h k são uma base ortonormal do espaço L [, 1], R. O primeiro passo, é definir as funções h k. Definição..1. As funções de Haar h k : [, 1] R, k =, 1,,..., são definidas por: h t = 1 t 1;.5 { 1, t 1 h 1 t = 1 1, t 1 ;.6 e, para n k < n+1, n = 1,,..., n/ k, n t k n +1/ n n h k t = n/ k, n +1/ < t k n +1 n n, demais casos..7 Lema... As funções de Haar {h k } k= espaço de Hilbert L [, 1], R. formam um base ortonormal do Demonstração. Fixado k, seja n tal que n k < n+1. Temos que 1 h ktdt = k n +1/ n k n n n dt + k n +1 n k n +1/ n n dt = n = 1. n+1 n+1

15 Figura.: Gráfico da k-ésima função de Haar, n k < n+1 Seja agora j > k. Se j < n+1 os suportes de h k e h j são disjuntos, portanto h k h j. Se, por outro lado, n+1 j então a função h k é constante no suporte de h j de modo que 1 1 h k th j tdt = ± n/ h j tdt =. Para completar a demonstração, dada uma função f L tal que o produto interno 1 fth kt =, para todo k, devemos mostrar que f = no sentido de L. De fato, isto significa que o complemento ortogonal das funções de Haar é o espaço nulo e, consequentemente, este conjunto forma um sistema ortonormal completo no espaço de Hilbert L [, 1], R. Para mais detalhes referentes a conjuntos ortonormais completos em espaços de Hilbert veja, por exemplo, o Capítulo 1 de Bachman [1]. Vejamos: k = 1 1 ftdt k = 1 Logo, por.8 e.9, temos que = 1 ftdt = ftdt = ftdt + 9 ftdt = ; ftdt = ftdt = ftdt. ftdt..9

16 Portanto, 1 ftdt = 1 ftdt = 1 1 ftdt =. Indutivamente, mostra-se que k+1 n+1 ftdt = k n+1 para todo k < n+1 e para todo n. Logo, s ftdt = para todos os r racionais r s 1 diádicos, isto é, da forma k/ n. Como os intervalos da forma [r, s], com r e s diádicos, geram a σ-álgebra de Borel do intervalo [, 1], concluímos que ftdt =.1 para todo boreliano B de [, 1]. Considere os conjuntos da forma B A n = {t [, 1] : ft > 1/n}. Note que n=1 A n = A {t [, 1] : ft > }. Denotemos por LebA a medida de Lebesgue do conjunto A. Para cada n, temos, por.1, que = ftdt 1 A n n LebA n. Logo, LebA n = para todo n e, consequentemente, LebA =. Analogamente, se mostra que Leb{t [, 1] : ft < } =. Portanto, f é nula q.t.p., conforme desejávamos. As funções de Schauder são as integrais das funções de Haar. Definição..3. Para k =, 1,..., a k-ésima função de Schauder é definida por: s k t = h k ydy,.11 onde as h k são as funções de Haar dadas em.5,.6 e.7. Na Figura.3 é mostrado o gráfico da k-ésima função de Schauder. Podemos ver que max t 1 s kt = n 1, se n k < n

17 Figura.3: Gráfico da k-ésima função de Schauder, n k < n+1 Seja {A k } k= uma sequência de variáveis aleatórias independentes com distribuição N, 1 definidas em algum espaço de probabilidade. Definiremos o processo B t t [,1] por B t := A k s k t..13 k= Primeiramente, para que isto faça sentido, precisamos analisar a convergência desta série. Lema..4. Sejam {a k } k= uma sequência de números reais e {s k} k= as funções de Haar definidas em.11. Defina e suponha que Então a série y j = max a k.14 j k< j+1 y j j 1 <..15 j= xt = a k s k t,.16 k= definida em [, 1], converge uniformemente para uma função contínua de t. Demonstração. É suficiente mostrar que m+n lim a m,n k max s kt =..17 t 1 k=m 11

18 Notando que para j k < j+1 as funções s k têm suportes disjuntos e usando.1 e.14 obtemos j+1 1 a k max t 1 s kt k= y j j j Então, agrupando os termos em.17 de acordo com.18 e usando a desigualdade triangular, temos que, para m > N, a soma de Cauchy em.17 é menor que y j j 1, a qual converge para zero, quando N, j=n de acordo com.15. Então, a série em.16 converge uniformemente e, como cada parcela é contínua, concluímos que x é uma função contínua de t. Lema..5. Seja {A k } k= uma sequência de variáveis aleatórias independentes com distribuição N, 1. Defina Então Demonstração. P A k > x = Y j = max A k..19 j k< j+1 P Y j j 1 < = 1. j= = π x π x e x 4 π e u du e u 4 e u 4 du x e u 4 du Ke x 4 onde K é uma constante. Em particular, para x = 4 log k, temos que P A k > 4 log k Ke 4 log k = K 1 k. 4 Como 1 converge, temos, pelo Lema de Borel-Cantelli veja, por exemplo, k 4 James [7], página, que P A k > 4 log k para infinitos valores de k =. 1

19 Ou seja, com probabilidade um, apenas um número finito dos A k excede 4 log k e, consequentemente, apenas um número finito dos Y j = max A k j k< j+1 excede y j := 4 log j+1 = 4 j + 1 log. Mas, aplicando o teste da razão, vemos que y j j 1 <. Isto estabelece, com probabilidade um, a convergência da série Y j j 1. Juntos, os Lemas..4 e..5 garantem que a expressão.13 define um processo B t t [,1] com trajetórias contínuas, quase certamente. Além disso, é imediato que B =. Para provar que B t t [,1] é um movimento browniano usaremos ainda o seguinte resultado: Lema..6. Sejam s k, k =, 1,..., as funções de Schauder definidas em.11. Então: s k ss k t = min{s, t}. k= Demonstração. Para t 1 definimos { 1 x t φ t x = t < x 1. Suponhamos s t. Então, temos que 1 φ s xφ t xdx = s. Mas esta expressão é o produto interno entre φ s e φ t no espaço L [, 1]. Portanto, pelo Lema.., podemos escrever 1 s = φ s xφ t xdx = a k b k, onde os coeficientes a k e b k são as coordenadas das funções φ s e φ t na base formada pelas funções de Haar, ou seja a k = b k = 1 1 φ s xh k xdx = φ t xh k xdx = s k= h k xdx = s k s; h k xdx = s k t. 13

20 Teorema..7. A expressão B t := A k s k t define um movimento browniano B t t [,1]. k= Demonstração. Já vimos, através dos Lemas..4 e..5, que as trajetórias de B t t [,1] são contínuas quase certamente e iniciadas em zero. Precisamos mostrar, ainda, que, para = t < t 1 <... < t n 1 os incrementos {B tj B tj 1 } n j=1 são independentes, normalmente distribuídos com média zero e variância t j t j 1. Para isso, consideraremos os vetores somas parciais B m t1 Bt m,..., Bt m n Bt m n 1 m m m m = A k s k t 1 A k s k t,..., A k s k t n A k s k t n 1 k= k= e mostraremos que as função características destes vetores, a saber ϕ m λ 1,..., λ n = E [e i n j=1 λ j m k= A ks k t j m k= A ks k t j 1 ],. convergem pontualmente para ϕλ 1,..., λ n = n j=1 k= e 1 λ j t j t j 1 k=.1 que é a função característica de um vetor aleatório onde as componentes são independentes com distribuição N, t j t j 1. Por simplicidade, consideremos o caso n =, o caso geral segue de maneira similar. Fazendo n = em., lembrando que s k t = s k =, obtemos [ m k= A ks k t 1 +λ m k= A ks k t m k= A ks k t 1 ] ] ϕ m λ 1, λ = E por independência como A k N, 1 = E e i[λ 1 [ e ] m k= ia k[λ 1 λ s k t 1 +λ s k t ] m = E [ e ] ia k[λ 1 λ s k t 1 +λ s k t ] = k= m e 1 [λ 1 λ s k t 1 +λ s k t ] k= m k= [λ 1 λ s k t 1 +λ s k t ] = e 1 = e 1 [λ 1 λ m k= s k t 1+λ 1 λ λ m k= s kt 1 s k t +λ m k= s k t ]. 14

21 Fazendo m e usando o Lema..6, obtemos: lim ϕ mλ 1, λ = e [λ 1 1 λ t 1 +λ 1 λ λ t 1 +λ t ] m = e 1 λ 1 t 1 e 1 λ t t 1.. Note que. é igual ao segundo termo de.1 com n =, conforme desejávamos. t [,1] } n=. De fato, basta tomar uma sequência de variáveis aleatórias N, 1 independentes, reindexá-la de modo a obter uma família enumerável de sequências e, a partir de cada sequência definir um movimento browniano usando o procedimento descrito anteriormente. Em seguida, definimos o processo B t t [, da seguinte maneira: Tendo mostrado a existência do movimento browniano com tempo variando no intervalo [, 1], o próximo passo é estender o resultado para o intervalo [,. Basicamente, a ideia consiste em emendar uma sequência de movimentos brownianos independentes definidos em [, 1]. Mais formalmente, pelo resultado já provado, podemos construir uma sequência de movimentos brownianos independentes {B n t B t = B t se t 1 = B 1 + B 1 t 1 se 1 < t = B 1 + B B t se < t 3. = B B n B n t n se n < t n + 1. Verifiquemos que B t t é, de fato, um movimento browniano. É imediato que B =. A continuidade quase certa das trajetórias também é clara, pois a interseção enumerável de conjuntos com probabilidade um é também um conjunto com probabilidade um e, além disso, a continuidade nos naturais, onde poderia ocorrer problemas, é evidente a partir da construção, visto que B k =. Fixemos tempos t 1 < t t 3 < t 4. Precisamos mostrar que B t B t1 e B t4 B t3 são independentes e têm distribuição N, t t 1 e N, t 4 t 3, respectivamente. Se tivermos m < t m + 1 e n < t 3 n + 1 com m < n, então nota-se, claramente, que o incremento B t B t1 depende apenas de movimentos brownianos B k t t [,1] para k < m e, por outro lado, o incremento B t4 B t3 só depende de movimentos brownianos 15

22 B k t t [,1] para k m, os quais, por construção, são independentes de B k t t [,1] para k < m. Logo, vale a independência entre os incrementos neste caso. Se, entretanto, m = n basta usar, também, a independência entre incrementos em intervalos de tempos disjuntos do processo B m t t [,1] e chegamos à mesma conclusão. Claramente, o mesmo argumento funciona para um número qualquer de incrementos. Agora mostremos que, se s < t, então o incremento B t B s tem distribuição N, t s. Suponhamos m < s m + 1 e n < t n + 1. Se m = n, o resultado é claro, pois B t B s = B m s m B m t m que tem distribuição N, t m s m = N, t s. Se, por outro lado, m < n, então logo B t = B B m B m B n B n t n B s = B B m B m s m B t B s = B m 1 B m s m + B m B n B n t n é soma de variáveis aleatórias normais independentes de médias zero. Além disso, usando a independência, temos que V B t B s = V B m 1 B m s m + V B m V B n 1 1 }{{} n m 1 termos +t n = t s. = 1 s m }{{} n m 1 termos +V B n t n Logo, B t B s N, t s e, consequentemente B t t é um movimento browniano... Construção alternativa Usando resultados gerais da teoria dos processos estocásticos, podemos obter a existência do movimento browniano sem recorrer a uma construção explícita. Não entraremos em muitos detalhes, mas a ideia é notar que, a menos da condição da continuidade das trajetórias, o movimento browniano é definido a partir de suas distribuições finito-dimensionais, ou seja, da distribuição de probabilidade dos vetores B t1,..., B tn, onde t 1,..., t n é qualquer sequência finita de tempos fixada. Ocorre que, sob certas condições naturais de consistência, o clássico Teorema de Extensão de Kolmogorov 1 garante 1 Veja, por exemplo, Billingsley [3], páginas

23 a existência de um processo estocástico com uma família de distribuições finito-dimensionais dada. Assim, a existência do movimento browniano fica parcialmente estabelecida, faltando-se apenas garantir a continuidade das trajetórias. Há algumas sutilezas nesta questão. É natural que o Teorema de Extensão de Kolmogorov nada afirme sobre a continuidade das trajetórias do processo, uma vez que a continuidade de uma função não é uma característica que possa ser determinada pela especificação de apenas uma quantidade enumerável de coordenadas. Ou, dito de outra forma, as distribuições finito-dimensionais sozinhas não são capazes de determinar se um processo possui ou não trajetórias contínuas. Por exemplo, se X t t tem trajetórias contínuas quase certamente, defina: { Xt se t T Y t = se t = T, onde T é uma variável aleatória com distribuição contínua em [,. Então, as trajetórias típicas de Y t t não serão contínuas, embora X t t e Y t t tenham as mesmas distribuições finito-dimensionais, com é fácil ver. O que faremos é garantir a continuidade a menos de uma modificação, através de um resultado conhecido como Critério de Kolmogorov, o qual apenas enunciaremos. Definição..8. Um processo estocástico Y t t é dito uma modificação de X t t se, para todo t, tivermos PX t = Y t = 1. Naturalmente, se um processo é modificação de outro então ambos têm o mesmo sistema de distribuições finito-dimensionais. Teorema..9 Critério de Kolmogorov. Seja X t t um processo estocástico. Suponhamos que existam constantes positivas, β e C tais que E [ X t X s ] Ct s 1+β para quaisquer tempos s < t. Então existe um modificação X t t de X t t com trajetórias contínuas quase certamente. Para verificar o critério no caso do movimento browniano, lembrando que B t B s é N, t s, usaremos as derivadas no zero da função geradora de momentos Mλ = E e λbt Bs = e t s λ. Para demonstração veja, por exemplo, Karatzas & Shreve [8], páginas

24 Fazendo as contas, encontramos E [ B t B s 4] = d4 dλ 4 Mλ λ= = 3t s. Portanto, o critério é satisfeito com = 4, β = 1, e C = 3. Assim, fica estabelecida, de uma maneira alternativa, a existência do movimento browniano com trajetórias contínuas quase certamente..3 Movimento Browniano n-dimensional A partir do movimento browniano na reta, é fácil estender a definição para o caso n-dimensional. Definição.3.1. Dizemos que um processo B t t = B 1 t,..., B n t t tomando valores em R n é um movimento browniano n-dimensional se 1. Para cada k = 1,..., n, a componente B k t t é um movimento browniano unidimensional.. Os processos B k t t, k = 1,..., n, são independentes. O item significa que, para quaisquer sequências finitas de tempos t 11, t 1,..., t 1,k1 t 1, t,..., t,k. t n,1, t n,..., t n,kn, os n vetores X 1 = X = B 1 t 11, B 1 t 1,..., B 1 t 1,k1 B t 1, B t,..., B t,k. X n = B n t n,1, B n t n,,..., B n t n,kn são independentes. É possível, também, uma caracterização em termos da distribuição normal multivariada. 18

25 Definição.3.. Dizemos que um vetor aleatório X = X 1,..., X n tem distribuição normal n-variada com média m R n e matriz de covariâncias C, abreviadamente X Nm, C, se sua função de densidade de probabilidade conjunta é dada por fx 1,..., x n = 1 π n/ det C exp { } C 1 x m, x m, onde x representa o vetor coluna de entradas x 1,..., x n e.,. denota o produto interno usual do R n. A proposição a seguir permite uma definição equivalente de movimento browniano n-dimensional, igual ao caso unidimensional, apenas trocando, no item da Definição.1.1, N, t s por N, t si n. Proposição.3.3. Se B t t é um movimento browniano n-dimensional então B t N, ti n, para cada tempo t >. Portanto 1 P B t A = e x πt n/ t dx para cada boreliano A R n. Demonstração. Para cada t, as coordenadas Bt k do processo são variáveis aleatórias independentes com distribuição N, t. Denotemos por f a função densidade conjunta do vetor aleatório B t e por f 1,..., f n as densidades das coordenadas. Então, por independência, temos fx 1,..., x n = f 1 x 1... f n x n = 1 x 1 e πt 1/ = 1 x e t πt n/. A 1 t... e πt 1/ x n t.4 Não-diferenciabilidade das trajetórias Por definição, as trajetórias do movimento browniano são contínuas, quase certamente. Nesta seção mostraremos que, com probabilidade um, as trajetórias não são diferenciáveis em nenhum ponto. Este resultado pode ser 19

26 intuído através da propriedade markoviana.4. De fato, se B s = x, o comportamento futuro de B t t>s depende apenas deste fato e não leva em conta de que maneira o processo B t t [,s] se aproximou do ponto x quando t cresceu a s. Assim, não temos por que esperar que o processo saia de x de modo que haja uma reta tangente neste ponto. Teorema.4.1. Com probabilidade um, as trajetórias do movimento browniano não são diferenciáveis em nenhum ponto. A demonstração é bastante técnica e pode ser omitida em uma primeira leitura, sem perda de continuidade. Demonstração. Basta considerar o caso unidimensional e, sem perda de generalidade, tempos t 1. Suponhamos que B t t [,1] seja diferenciável em algum ponto t < 1. Então, em algum intervalo contendo t, devemos ter B t B t K t t para alguma constante K. Logo, para pontos t 1 e t suficientemente próximos de t, temos, pela desigualdade triangular, que B t B t1 B t B t + B t B t1 Para i =, 1 e e n = 1,, 3,... definamos t n, i = nt + i + 1 n K t t + t 1 t..3 e t 1 n, i = nt + i. n Então, para i =, 1 e temos que lim n t n, i = lim n t 1 n, i = t. Portanto, para n suficientemente grande, de acordo com.3 temos que, para i =, 1 e nt + i + 1 B nt +i+1 B nt +i K t + nt + i n n n t n i + 1 K n + i 5K n n. Portanto, o evento B t t [,1] é diferenciável em algum t [, 1 está contido no evento n 1 B A j+i+1 B j+i 5k. n n n k=1 m=1 n=m j= i=

27 Mostraremos que A é união enumerável de eventos de probabilidade zero, donde concluiremos que PA =. Para cada k definamos n 1 B A k n j+i+1 B j+i 5k. n n n j= i= Então, A pode ser expresso como 3 A = k=1 lim infn An k. Portanto, basta mostrar que, para cada k, P lim inf n An k =. Mas, em geral, vale que 4 e, portanto P P lim inf A k n n por independência incrementos disjuntos lim inf A k n n lim inf n lim inf n = lim inf n N, 1/n = lim inf n Pois as variáveis aleatórias e têm distribuição N, 1 n.5 Martingales lim inf n P lim inf n PAk n [ n 1 j= i= B j+i+1 [ n 1 B P j+i+1 j= i= [ B n P 1 5k ] 3 n n 5k n n π/n 5k n n 1dx π/n 3 1k = lim n 1/ =. n π B j+i+1 B j+i n n. Isto conclui a demonstração. n n B j+i n B j+i n e nx dx 3 3 5k ] n 5k ] n, i =, 1 e, são independentes Outra importante propriedade do movimento browniano é que ele faz parte de uma classe de processos estocásticos chamados de Martingales. Neste seção, 3 Veja Bartle [], página 15 4 Veja Bartle [], Exer. 3I. página 4 1

28 explicaremos o que é um martingale e apresentaremos algumas propriedades básicas que serão úteis nos capítulos seguintes. Para isso, antes de tudo, precisaremos definir alguns termos e fixar notações correspondentes. Nas definições a seguir, o tempo pode ser tanto discreto como contínuo. Definição.5.1. Dada um variável aleatória X definida em Ω, F denotemos por σx a σ-álgebra gerada por X. Ou seja, a menor σ-álgebra em relação a qual X é mensurável. Da mesma forma, dado um processo estocástico X t t, σx s, s t denota a σ-álgebra gerada pelas variáveis aleatórias X s, para s t. Definição.5.. Uma família de sub-σ-álgebras F t t é chamada de filtração no espaço mensurável Ω, F se isto é, F t t é crescente. s < t F s F t Definição.5.3. Um processo estocástico X t t é dito adaptado a uma filtração F t t se, para cada tempo t, a variável aleatória X t é mensurável em relação à σ-álgebra F t. Todo processo é adaptado à sua filtração natural F t = σx s, s t, também chamada de história do processo até o tempo t. É intuitivo interpretar uma σ-álgebra como sendo a quantidade de informação disponível sobre as variáveis aleatórias mensuráveis em relação a ela. De modo que, quanto maior for a σ-álgebra, mais informação há disponível. Nesta linha de pensamento, dizer que um processo estocásticox t t é adaptado à filtração F t t significa que, para cada tempo t, a variável aleatória X t depende apenas da informação disponível na σ-álgebra F t. A definição mais geral de martingale, a ser dada a seguir, faz uso de uma importante noção de esperança condicional: a esperança condicional em relação a uma σ-álgebra. Definição.5.4. Seja X uma variável aleatória integrável em Ω, F, P e seja G uma sub-σ-álgebra de F. A esperança condicional E[X G] é uma variável aleatória G-mensurável tal que XdP = E[X G]dP.4 para todo conjunto G G. G G

29 Interpretamos E[X G] como uma estimativa da variável aleatória X com base na informação dada pela σ-álgebra G. A expressão.4 significa que nos conjuntos de G as médias de X e de E[X G] são as mesmas. Exemplo.5.5 Espaço de probabilidade finito. Seja Ω = {1,..., n}, F a σ-álgebra das partes de Ω e P = n i=1 p iδ i em que p i, n i=1 p i = 1 e δ i é a medida que concede massa total ao elemento i delta de Dirac em i. Seja A 1,..., A m uma partição de Ω, isto é, conjuntos disjuntos cuja união é Ω. Consideremos G a σ-álgebra gerada pelos conjuntos A j, j = 1,..., m. As funções mensuráveis em relação a G são constantes nos conjuntos A j s, pois G não possui subconjuntos próprios não vazios dos A j s. Logo, dada uma variável aleatória X em Ω, F, P, definida por Xi = x i, i = 1,..., n, a esperança condicional E[X G] é uma função constante nos conjuntos A j s tal que, se i A j então: E[X G]i = 1 p k x k = 1 XdP PA j PA j k A A j j caso PA j. Se PA j =, podemos impor qualquer valor a E[X G]i. Teorema.5.6 Existência e unicidade da esperança condicional. Dada uma variável aleatória X integrável, definida em Ω, F, P, e uma sub-σálgebra G F existe, e é única P-quase certamente, a esperança condicional E[X G] apresentada na Definição.5.4. A demonstração do Teorema.5.6, a ser dada a seguir, faz uso do Teorema de Radon-Nikodyn que é assunto clássico nos cursos de Teoria da Medida. Aqui apenas o enunciaremos. Para a demonstração, veja, por exemplo Bartle [], p.85. Definição.5.7. Uma medida λ em Ω, A é dita absolutamente contínua em relação a uma medida µ em Ω, A, denota-se por λ µ, se, para A A, µa = implicar λa =. Teorema.5.8 Radon-Nikodyn. Sejam λ e µ medidas σ-finitas definidas em Ω, A. Suponha que λ µ. Então existe uma função f : Ω R, A-mensurável, não negativa, tal que λa = fdµ para todo A A. 3 A

30 Demonstração do Teorema.5.6. Inicialmente, consideremos o caso em que a variável aleatória X é não negativa. Defina uma medida λ em Ω, G por λa = XdP. Temos que λ é medida finita pois X é integrável. Notemos também que λ P Ω,G e, portanto, pelo Teorema de Radon-Nikodyn, existe uma função f, G-mensurável, tal que λa = fdp para todo A G. Assim, E[X G] f satisfaz as propriedades requeridas. Para uma variável aleatória X qualquer, basta decompor X = X + X em suas partes positiva e negativa, e tomar E[X G] E[X + G] E[X G]. Quanto à unicidade, suponhamos que exista outra variável aleatória Y, G- mensurável satisfazendo a propriedade.4. Então E[X G] Y dp = para todo G G. Em particular, para todo n, tomando G G n = {ω Ω : E[X G] Y > 1/n} G temos que 1 = E[X G] Y dp G n G n n dp = 1 n PG n. Logo, PG n = e, consequentemente, PE[X G] Y > =. Da mesma forma, se mostra que PE[X G] Y < =. Logo, E[X G] = Y com probabilidade um. Teorema.5.9 Algumas propriedades da esperança condicional. Sejam X e Y variáveis aleatórias integráveis em Ω, F, P, e G uma sub-σ-álgebra de F. 1. invariância da média E[E[X G]] = E[X].. propriedade de projeção Se X é G-mensurável então E[X G] = X. 3. linearidade Se a e b são constantes então A A E[aX + by G] = ae[x G] + be[y G]. 4

31 4. monotocidade Se X Y quase certamente, então E[X G] E[Y G] quase certamente. 5. convergência dominada Se lim n X n = X com probabilidade um, X n Y, e Y é integrável, então lim n E[X n G] = E[X G]. 6. convergência monótona Se X n e X n X com E[X] <, então E[X n G] E[X G]. 7. G-mensuráveis agem como constantes Se X é G-mensurável e XY é integrável, então E[XY G] = XE[Y G]. 8. independência Se X é independente de G, então E[X G] = E[X]. 9. filtração Se G 1 G então E[E[X G 1 ] G ] = E[E[X G ] G 1 ] = E[X G 1 ]. Demonstração. 1. Basta fazer G = Ω em.4.. Evidentemente, definindo E[X G] X temos que E[X G] é G-mensurável e satisfaz.4. Logo, o resultado segue da unicidade. 3. ae[x G] + be[y G] é G-mensurável e satisfaz.4 pela linearidade da integral. O resultado segue da unicidade. 4. E[X G]dP = XdP Y dp = E[Y G]dP A A A A para todo A G. Agora, tomando A n = {E[X G] E[Y G] > 1/n}, vemos que PA n = para todo n e, consequentemente, PE[X G] > E[Y G] =. 5. Seja Z n = sup k n X k X. Então Z n com probabilidade um e, pelas propriedades 3 e 4, E[X n G] E[X G] E[Z n G]. Portanto, é suficiente mostrar que E[Z n G] com probabilidade um. Como Z n é não crescente, pela propriedade 4, E[Z n G] também o é e, portanto, tem um limite Z. Note que Z E[Z n G] para todo n. Queremos mostrar que Z = com probabilidade um. Sendo Z não negativa, é suficiente mostrar que E[Z] =. Mas Z n Y, então, 5

32 por Convergência Dominada usual veja Bartle [], página 44, temos que E[Z] = ZdP E[Z n G]dP = E[Z n ]. 6. Seja Y n = X X n. Por linearidade, é suficiente mostrar que Z n E[Y n G]. Como Y n, temos, pela propriedade 4, que também Z n é não crescente, logo tem um limite Z, Z Z n para todo n. Notemos que Y n é dominada por X que é integrável portanto, pela propriedade 1 e novamente pelo Teorema da Convergência Dominada usual, E[Z] E[Z n ] = E[Y n ]. Logo, Z = quase certamente, como queríamos. 7. Como XE[Y G] é G-mensurável, é suficiente mostrar que XE[Y G] = XY dp para todo A G..5 A A Inicialmente, suponhamos que X = I B com B G. Neste caso, se A G, então, como A B G, I B E[Y G]dP = E[Y G]dP = Y dp = I B Y dp. A A B A B Logo, vale.5. Isto se estende para X função simples G-mensurável, X = n i=1 a ii Bi, por linearidade. Para X G-mensurável geral, tomemos uma sequência de funções simples G-mensuráveis tais que X n X e lim n X n = X. Como X n Y XY e XY é integrável, pela propriedade 5 temos que lim n E[X n Y G] = E[XY G]. Mas, por outro lado, E[X n Y G] = X n E[Y G], pois as X n s são funções simples, e lim n X n E[Y G] = XE[Y G]. Portanto, vale a propriedade X ser independente de G significa que a variável aleatória X é independente da informação dada por G, ou ainda, que X é independente das variáveis aleatórias G-mensuráveis. Como E[X] é uma constante, e portanto G-mensurável, é suficiente mostrar que, para todo A G, vale XdP = E[X]dP. Vejamos: A A XdP = I A XdP =E[I A X] =E[I A ]E[X] =PAE[X] = E[X]dP, A 6 A A

33 onde usamos a independência entre X e a variável aleatória G-mensurável I A na terceira igualdade. 9. Notemos que E[X G 1 ] é G -mensurável, pois G 1 G. Logo, pela propriedade, E[E[X G 1 ] G ] = E[X G 1 ]. Para provar que também E[E[X G ] G 1 ] = E[X G 1 ], notemos que E[X G 1 ] é G 1 -mensurável e se A G 1 G então E[X G 1 ]dp = XdP = E[X G ]dp. A A A Para a esperança condicional também vale a desigualdade de Jensen, conforme o próximo teorema. Teorema.5.1 Desigualdade de Jensen. Se ϕ : R R é convexa e E[ X ], E[ ϕx ] < então, com probabilidade um, ϕe[x F] E[ϕX F]. Demonstração. Se ϕ é linear o resultado já foi provado, valendo a igualdade. Suponhamos, então que ϕ não é linear. Neste caso, se definirmos S = {a, b : a, b Q, ax + b ϕx para todo x R}, então, pela convexidade, pode-se provar que ϕx = sup ax + b. a,b S Se para algum par a, b tivermos ϕx ax + b então, pelos itens 4, 3 e do Teorema.5.9, existe um conjunto A a,b, de probabilidade um, tal que E[ϕX F]ω ae[x F]ω + b para todo ω A a,b. Seja A a interseção enumerável dos conjuntos A a,b sobre todos os pares a, b S. Então, PA = 1, e para todo ω A temos E[ϕX F]ω ae[x F]ω + b para todo par a, b S. Tomando o supremo sobre todos a, b S concluímos que, com probabilidade um, E[ϕX F] ϕe[x F]. 7

34 O próximo teorema fornece uma interessante interpretação geométrica da esperança condicional como uma projeção. Dado um espaço Ω, F, P e uma sub-σ-álgebra G F, o conjunto L Ω, F, P {Y Y é F-mensurável e E[Y ] < } é um espaço de Hilbert do qual L Ω, G, P é subespaço fechado. O produto interno considerado é X, Y E[XY ]. Se E[X ] <, então o teorema seguinte mostra que E[X G] é a projeção de X sobre o subespaço L Ω, G, P isto é, o ponto no subespaço L Ω, G, P mais próximo de X, na norma dada pelo produto interno. Teorema Suponha que E[X ] <. Então a esperança condicional E[X G] é a variável aleatória Y, G-mensurável, que minimiza o erro quadrático médio E[X Y ]. Demonstração. Comecemos observando que se Z L G então, pela desigualdade de Cauchy-Schwarz, Logo, pelo Teorema.5.9 item 7, Tomando a esperança, obtemos E[ ZX ] E[Z ]E[X ] <. ZE[X G] = E[ZX G]..6 EZE[X G] = EE[ZX G] = E[ZX]..7 Por linearidade, podemos reescrever.7 como EZX E[X G] = para Z L G..8 Seja Y L G. Faça Z = Y E[X G] L G. Então E[X Y ] = E[X E[X G] Z ] = E[X E[X G] ] E[ZX E[X G]] + E[Z ] = E[X E[X G] ] + E[Z ]..9 Usamos a equação.8 na última igualdade. A equação.9 mostra que o erro quadrático médio E[X Y ] é mínimo quando Z =, ou seja, quando Y = E[X G]. 8

35 A noção de esperança condicional em relação a uma variável aleatória torna-se um caso particular da esperança condicional em relação a uma σ- álgebra definindo-se E[X Y ] E[X σy ]. De fato, na esperança condicional E[X Y ], a característica importante da variável Y não é o valor que ela assume em cada ω Ω, mas sim a informação que a ocorrência de cada valor de Y pode fornecer a respeito da ocorrência dos eventos ω Ω. Esta informação é captada pela σ-álgebra gerada σy. Definição.5.1. Seja Ω, F, P um espaço de probabilidade e F t t T uma filtração em σ-álgebras. O tempo T pode ser contínuo ou discreto. Um processo estocástico X t t T a valores reais definido em Ω, F, P é dito um martingale em relação à filtração F t t T e à medida P se 1. E[ X t ] < para todo t T ;. X t t T é adaptado à filtração F t t T ; 3. E[X t F s ] = X s q.c. para todo t s. Quando a filtração não for mencionada, subentende-se que se trata da filtração natural F t = σx s, s t gerada pelo próprio processo. A condição 3 expressa a ideia de que, tendo toda informação sobre o processo até o tempo s, a melhor estimativa para o estado futuro do processo no tempo t s é justamente X s, o último valor observado. Esta característica aparece em vários contextos. Para um exemplo intuitivo, considere o processo estocástico discreto S n que representa a fortuna de um jogador na n-ésima rodada de um jogo. Neste caso, a propriedade de martingale significa que o jogo é justo, no seguinte sentido: a fortuna do jogador numa rodada futura S n, n > m, é, em média, a fortuna presente S m. Além disso, este fato independe das informações sobre a evolução passada da fortuna S k para k < n. O próximo exemplo pode servir como modelo para uma situação deste tipo. Exemplo Seja X 1, X,... uma sequência de variáveis aleatórias independentes com E[ X n ] < e E[X n ] = para todo n. Consideremos a filtração F n = σx 1,..., X n. Definimos o processo S n como a soma S n = n k=1 X k. Então S n é um martingale em relação à σ-álgebra F n. Vejamos: 1. Para todo n, E[ S n ] E[ X 1 ] E[ X n ] < ; 9

36 . Para todo n, S n é F n -mensurável, pois é soma das variáveis X k, k = 1,..., n, que são F n -mensuráveis por definição de F n ; 3. Se n m então E[S n F m ] = E[X n + X n X m+1 + S m F m ] = E[X n + X n X m+1 F m ] + E[S m F m ] = E[X n + X n X m+1 ] + S m = + S m = S m. A segunda igualdade decorre da linearidade da esperança condicional. Na terceira igualdade usamos que X n X m+1 é independente da σ-álgebra F m = σx 1,..., X m, que S m é F m -mensurável e o Teorema.5.9 itens e 8, respectivamente. Note que, se as variáveis aleatórias X k forem i.i.d N, 1 então S n é uma aproximação discreta do movimento browniano. Exemplo.5.14 Movimento Browniano. Denotemos por F t t a filtração natural do movimento browniano B t t. Verifiquemos que B t t é um martingale: 1. Para cada t, E[ B t ] <, pois B t N, t;. B t t é adaptado à F t t filtração natural; 3. Se t s então E[B t F s ] = E[B t B s + B s F s ] = E[B t B s F s ] + E[B s F s ] = E[B t B s ] + B s = + B s = B s, pois B t B s é independente da σ-álgebra F s e B s é F s -mensurável. Definição Se na definição.5.1 a condição 3 for substituída por 3. E[X t F s ] X s q.c. para todo t s então dizemos que o processo X t t T é um submartingale. Se, por outro lado, tivermos 3

37 3. E[X t F s ] X s q.c. para todo t s então dizemos que o processo X t t T é um supermartingale. Usando a mesma analogia anteriormente apresentada, um submartingale pode ser pensado como um processo que descreve a fortuna de um jogador em um jogo favorável ao jogador a esperança da fortuna futura é maior ou igual que a fortuna presente enquanto que, um supermartingale descreveria um jogo desfavorável. Convém notar que um martingale é um submartingale e um supermartingale ao mesmo tempo. Proposição Se o processo X t t é um martingale em relação à filtração F t t e ϕ : R R é convexa, com E[ ϕx t ] < para todo t, então ϕx t t é um submartingale em relação à F t t. Demonstração. 1. Por hipótese, E[ ϕx t ] < para todo t.. Toda função convexa é contínua e portanto borel-mensurável. Logo, ϕx t é F t -mensurável pra todo t. 3. Pela desigualdade de Jensen, se t s E[ϕX t F s ] ϕe[x t F s ] = ϕx s. Agora apresentaremos algumas importantes desigualdades. primeiramente, do caso em que o tempo é discreto. Teorema.5.17 Desigualdade L p de Doob - tempo discreto. Tratemos, 1. Se {X n } n=1 é um submartingale, então para todo n = 1,,... e λ > P max X k λ 1 1 k n λ E [ ] X n +,.3 onde X + n = max{x n, }.. Se {X n } n=1 é um martingale e p > 1 então p p E max X k p E X n p k n p 1 31

38 Corolário Note que, pela desigualdade.3, se {X n } n=1 é um martingale então, para todo p 1 e λ > P max X k λ 1 1 k n λ E[ X n p ].3 p pois, pela Proposição.5.16, { X n p } n= é um submartingale, já que ϕx = x p é convexa. Demonstração. 1. Suponhamos que {X n } n=1 seja um submartingale. Seja [ ] A = max X k λ. 1 k n Vamos decompor A de acordo com a primeira vez em que X k λ. Para isso, definimos A 1 = [X 1 λ] A = [X 1 < λ, X λ] A k = [X 1 < λ, X < λ,..., X k λ], para < k n n Então os conjuntos A k são a disjuntos e A = A k. Logo, I A = Portanto EX + n EX + n I A = pela invariância da média = I Ak é F k -mensurável = monotocidade submartingale e monotocidade k=1 n EX n + I Ak k=1 n E E[X n + I Ak F k ] k=1 n E I Ak E[X n + F k ] k=1 n E I Ak E[X n F k ] k=1 n E I Ak X k k=1 n E I Ak λ = λ k=1 3 n I Ak. k=1 n PA k = λpa. k=1

39 Logo, vale.3.. Note que a sequência de desigualdades anteriores demonstra algo mais forte do que.3. De fato, mostramos que λpa EX + n I A, ou seja, λp max X k λ X n + I [max1 k n X k λ]dp k n Ω Agora, suponhamos que {X n } n=1 seja um martingale e consideremos o processo { X n } n=1. Pelo Teorema.5.16, temos que { X n } n=1 é um submartingale. Aplicando a desigualdade.33 a este processo, obtemos λp X λ X n I [X λ]dp,.34 onde X = max 1 k n X k. Seja p > 1. Então [ X ] [ ] E[X p ] = E pλ p 1 dλ = E pλ p 1 I [X λ]dλ = pλ p 1 I [X λ]dλdp = pλ p 1 I [X λ]dpdλ = p Ω Ω λ p 1 P[X λ]dλ,.35 onde a mudança na ordem de integração é justificada pelo Teorema de Tonelli 5. Usando a desigualdade.34 em.35 e mudando a ordem de integração novamente, obtemos E[X p ] p λ p X n I [X λ]dpdλ = p X n λ p I [X λ]dλdp Ω Ω X = p X n λ p dλdp = p X n X p 1 dp..36 Ω p 1 Ω Aplicando a Desigualdade de Hölder, obtemos E[X p ] p 1 1 X n p p dp X p 1q q dp,.37 p 1 Ω Ω 5 Veja, por exemplo, Bartle [], página 118. Ω 33

40 onde q é tal que = 1. Mas então, p 1q = p e 1 = 1 1. Logo,.37 p q q q se torna E[X p ] p 1 X n p p 1 1 dp X p p dp p 1 Ω Ω ou, em outros termos, Ou ainda E[X p ] conforme desejávamos. p p 1 E X n p 1 p E[X p ] 1 E[X p ] p p E X n p, p 1 É interessante notar que o Corolário.5.18 generaliza a Desigualdade de Kolmogorov. Sejam X 1,..., X n variáveis aleatórias independentes tais que E[X k ] = e V ar[x k ] <, k = 1,..., n. Então, vimos no Exemplo.5.13 que S n é um martingale e, portanto, aplicando a desigualdade.3 com p = obtemos, para todo λ >, P max S k λ 1 1 k n λ E[S n] que é, exatamente, o que diz a desigualdade de Kolmogorov 6. Teorema.5.19 Desigualdade L p de Doob - tempo contínuo. Seja X t t um processo estocástico a tempo contínuo com trajetórias contínuas quase certamente. 1. Se X t t é um submartingale, então para todo t e λ > P sup X s λ 1 s t λ E [ ] X t +,.38 onde X + t = max{x t, }.. Se X t t é um martingale e p > 1 então p p E sup X s p E X t p..39 s t p 1 6 Veja, por exemplo, James [7], página 5. 1 p. 34

41 Corolário.5.. Da parte 1, obtemos que, se X t t é um martingale com trajetórias contínuas q.c. então para todo p 1 e λ > P sup X s λ 1 s t λ E[ X t p ],.4 p já que X t p t é um submartingale. Demonstração. 1. A prova consiste em aproximar o processo X t t por processos a tempo discreto e usar o teorema anterior. Em mais detalhes: seja X t t um submartingale. Fixemos λ > e t > e particionemos o intervalo [, t], ou seja, escolhemos pontos = t < t 1 <... < t n = t. Notemos que o processo {Y k } n k= definido por Y k = X tk, para k =, 1,..., n, é um submartingale discreto. De fato, E[Y k σy,..., Y k 1 ] = E[X tk σx t,..., X tk 1 ] = E [ E[X tk σx s, s t k 1 ] σx t,..., X tk 1 ] E[X tk 1 σx t,..., X tk 1 ] = X tk 1 = Y k 1. Na segunda igualdade usamos que σx t,..., X tn 1 σx s, s t n 1 e o item 9 do Teorema.5.9. A desigualdade é justificada pela propriedade de submartingale do processo original e pela monotocidade da esperança condicional. Para a igualdade seguinte, usamos que X tk 1 é mensurável em relação à σx t,..., X tk 1 e o item do Teorema.5.9. Portanto, para todo µ >, pelo Teorema.5.17, vale P max X s µ 1 s {t,...,t n} µ E [ ] X t Agora, consideremos uma sequência crescente {F n } n=1 de conjuntos finitos cuja união é F = [, t] Q {t}. Então, para todo λ > e todo ε >, temos que P sup X s λ s F P [max X s λ ε] s F n n=1 max = lim n P 1 λ ε E [ X + t 35 X s λ ε s F n ]..4

42 Onde, na última desigualdade, usamos.41 com µ = λ ε. Fazendo ε em.4 obtemos P sup X s λ 1 s F λ E [ ] X t Mas, pela continuidade quase certa das trajetórias, temos que sup s t X s = sup s F X s com probabilidade um. Usando este fato em.43, obtemos P sup X s λ 1 s t λ E [ ] X t +. De maneira similar se mostra.39. Concluímos este capítulo com uma importante aplicação destas desigualdades ao movimento browniano, conhecida como desigualdade exponencial. Proposição.5.1. Seja B t t um movimento browniano. Considere o processo S t t = sup s t B s t que indica o máximo da trajetória do movimento browniano até o tempo t. Então, para todo c e todo t, P S t ct e c t..44 Demonstração. Primeiramente notemos que, para todo >, o processo X t t = e Bt t t é um martingale em relação à filtração natural de B t t, com trajetórias contínuas quase certamente. Vejamos: Bt E[e t F s ] = e t E[e Bt F s ] = e t E[e Bt Bs e Bs F s ] = e t e Bs E[e Bt Bs ] = e t e Bs e t s Bs = e s. Na terceira igualdade usamos que e Bs é F s -mensurável e que e Bt Bs é independente de F s. Em seguida, usamos a função geradora de momentos St de B t B s N, t s. Como e t sup s t X, obtemos PS t ct = P P St e t e sup X t s t t ct t e ct t ct+ e t E[X t ],.45 onde a última desigualdade é consequência da desigualdade.38 aplicada ao martingale X t t. Mas E[X t ] = E[X ] = 1. Para o particular que minimiza o lado direito de.45, a saber = c, obtemos

t X s db s, I t (X) :=

t X s db s, I t (X) := Chapter 3 Integrais estocásticos Neste capítulo vamos definir integrais estocásticos relativamente ao movimento Browniano e estudar algumas das suas propriedades. Estes integrais também são chamados integrais

Leia mais

Continuidade de processos gaussianos

Continuidade de processos gaussianos Continuidade de processos gaussianos Roberto Imbuzeiro Oliveira April, 008 Abstract 1 Intrudução Suponha que T é um certo conjunto de índices e c : T T R é uma função dada. Pergunta 1. Existe uma coleção

Leia mais

Reviso de Teoria da Medida e Elementos Bsicos de Probabilidade

Reviso de Teoria da Medida e Elementos Bsicos de Probabilidade Reviso de Teoria da Medida e Elementos Bsicos de Probabilidade Roberto Imbuzeiro Oliveira 9 de Março de 2009 Resumo Esta lista cobre o básico do básico sobre espaços e distribuições de probabilidade. Pouco

Leia mais

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: Espaços Euclidianos Espaços R n O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: R n = {(x 1,..., x n ) : x 1,..., x n R}. R 1 é simplesmente o conjunto R dos números

Leia mais

ÁLGEBRA LINEAR I - MAT0032

ÁLGEBRA LINEAR I - MAT0032 UNIVERSIDADE FEDERAL DA INTEGRAÇÃO LATINO-AMERICANA Instituto Latino-Americano de Ciências da Vida e Da Natureza Centro Interdisciplinar de Ciências da Natureza ÁLGEBRA LINEAR I - MAT32 12 a Lista de exercícios

Leia mais

O movimento Browniano

O movimento Browniano O movimento Browniano R. Vilela Mendes http://label2.ist.utl.pt/vilela/ March 2010 () March 2010 1 / 35 Sumário O movimento Browniano Propriedade Markoviana Probabilidade de transição. Medida de Wiener

Leia mais

DANIEL V. TAUSK. se A é um subconjunto de X, denotamos por A c o complementar de

DANIEL V. TAUSK. se A é um subconjunto de X, denotamos por A c o complementar de O TEOREMA DE REPRESENTAÇÃO DE RIESZ PARA MEDIDAS DANIEL V. TAUSK Ao longo do texto, denotará sempre um espaço topológico fixado. Além do mais, as seguintes notações serão utilizadas: supp f denota o suporte

Leia mais

SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS

SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS 4 SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS Em muitos problemas de probabilidade que requerem o uso de variáveis aleatórias, uma completa especificação da função de densidade de probabilidade ou não está

Leia mais

o mesmo jeito, podemos Observação 1.1. (1) As denições acima incluem a possibilidade de I ser

o mesmo jeito, podemos Observação 1.1. (1) As denições acima incluem a possibilidade de I ser 1. Martingais Considere um espaço de probabilidade (Ω, F, P ). Um processo estocástico X é uma família de variáveis aleatórias = (X t ) t I, I R, denidas em (Ω, F). X é L p -limitado se sup t I E[ X t

Leia mais

Teoria da Medida e Integração (MAT505)

Teoria da Medida e Integração (MAT505) Transporte de medidas Teoria da Medida e Integração (MAT505) Transporte de medidas e medidas invariantes. Teorema de Recorrência de Poincaré V. Araújo Instituto de Matemática, Universidade Federal da Bahia

Leia mais

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte I

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte I Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte I 2014/2015 Os exercícios assinalados com (*) têm um nível de dificuldade superior. Exercício 1. Seja (X, F) um espaço mensurável. Mostre

Leia mais

A estacionariedade prova-se de maneira semel- hante.

A estacionariedade prova-se de maneira semel- hante. Se por outro lado (U 1, U 2,...) é IID então mostremos que X n U 1 + + U n tem incrementos independentes e estacionários. De facto, dados n > m temos que X n X m U m+1 + + U n. Tome-se quaisquer n 1

Leia mais

2 Conceitos de Teoria da Probabilidade

2 Conceitos de Teoria da Probabilidade 2 Conceitos de Teoria da Probabilidade Neste capítulo, enunciaremos algumas denições e resultados de teoria de probabilidade. justicativa deste capítulo reside no fato que u objetivo nal é estimar momentos

Leia mais

UNIVERSIDADE FEDERAL DE PERNAMBUCO DEPARTAMENTO DE ESTATÍSTICA. Medida e Probabilidade

UNIVERSIDADE FEDERAL DE PERNAMBUCO DEPARTAMENTO DE ESTATÍSTICA. Medida e Probabilidade UNIVERSIDADE FEDERAL DE PERNAMBUCO DEPARTAMENTO DE ESTATÍSTICA Medida e Probabilidade Aluno: Daniel Cassimiro Carneiro da Cunha Professor: Andre Toom 1 Resumo Este trabalho contem um resumo dos principais

Leia mais

Processos estocásticos

Processos estocásticos 36341 - Introdução aos Processos Estocásticos Curso de Pós-Graduação em Engenharia Elétrica Departamento de Engenharia Elétrica Universidade de Brasília Processos estocásticos Geovany A. Borges gaborges@ene.unb.br

Leia mais

Teoria da Medida e Integração (MAT505)

Teoria da Medida e Integração (MAT505) Modos de convergência Teoria da Medida e Integração (MAT505) Modos de convergência. V. Araújo Instituto de Matemática, Universidade Federal da Bahia Mestrado em Matemática, UFBA, 2014 Modos de convergência

Leia mais

Um espaço métrico incompleto 1

Um espaço métrico incompleto 1 Universidade Estadual de Maringá - Departamento de Matemática Cálculo Diferencial e Integral: um KIT de Sobrevivência anos c Publicação Eletrônica do KIT http://www.dma.uem.br/kit Um espaço métrico incompleto

Leia mais

Prova: Usando as definições e propriedades de números reais, temos λz = λx + iλy e

Prova: Usando as definições e propriedades de números reais, temos λz = λx + iλy e Lista Especial de Exercícios de Física Matemática I Soluções (Número complexo, sequência de Cauchy, função exponencial e movimento hamônico simples) IFUSP - 8 de Agosto de 08 Exercício Se z x + iy, x,

Leia mais

Topologia. Fernando Silva. (Licenciatura em Matemática, 2007/2008) 13-agosto-2018

Topologia. Fernando Silva. (Licenciatura em Matemática, 2007/2008) 13-agosto-2018 Topologia (Licenciatura em Matemática, 2007/2008) Fernando Silva 13-agosto-2018 A última revisão deste texto está disponível em http://webpages.fc.ul.pt/~fasilva/top/ Este texto é uma revisão do texto

Leia mais

Teoria da Medida e Integração (MAT505)

Teoria da Medida e Integração (MAT505) Teoria da Medida e Integração (MAT505) Modos de convergência V. Araújo Mestrado em Matemática, UFBA, 2014 1 Modos de convergência Modos de convergência Neste ponto já conhecemos quatro modos de convergência

Leia mais

g(s, X n s )ds + t f (s, X s ) 2 ds <, P-q.s. t f (s, X s )db s, t 0.

g(s, X n s )ds + t f (s, X s ) 2 ds <, P-q.s. t f (s, X s )db s, t 0. CHAPTER 3. INTEGRAIS ESTOCÁSTICOS 88 2. Quais são as propriedades destas soluções? 3. Como podemos resolver uma dada equação? O método usual para provar a existência de uma solução da equação diferencial

Leia mais

4.1. ESPERANÇA x =, x=1

4.1. ESPERANÇA x =, x=1 4.1. ESPERANÇA 139 4.1 Esperança Certamente um dos conceitos mais conhecidos na teoria das probabilidade é a esperança de uma variável aleatória, mas não com esse nome e sim com os nomes de média ou valor

Leia mais

Universidade Federal de Minas Gerais Instituto de Ciências Exatas Departamento de Matemática. O Teorema de Arzelá. José Renato Fialho Rodrigues

Universidade Federal de Minas Gerais Instituto de Ciências Exatas Departamento de Matemática. O Teorema de Arzelá. José Renato Fialho Rodrigues Universidade Federal de Minas Gerais Instituto de Ciências Exatas Departamento de Matemática O Teorema de Arzelá José Renato Fialho Rodrigues Belo Horizonte - MG 1994 José Renato Fialho Rodrigues O Teorema

Leia mais

Produtos de potências racionais. números primos.

Produtos de potências racionais. números primos. MATEMÁTICA UNIVERSITÁRIA n o 4 Dezembro/2006 pp. 23 3 Produtos de potências racionais de números primos Mário B. Matos e Mário C. Matos INTRODUÇÃO Um dos conceitos mais simples é o de número natural e

Leia mais

2.4 Esperança e distribuição condicionais

2.4 Esperança e distribuição condicionais 2.4. ESPERANÇA E DISTRIBUIÇÃO CONDICIONAIS 35 2.4 Esperança e distribuição condicionais Estendemos aqui o conceito de probabilidade condicional em (2.8) para obter a distribuição condicional e, posteriormente,

Leia mais

O Teorema de Peano. f : D R n. uma função contínua. Vamos considerar o seguinte problema: Encontrar um intervalo I R e uma função ϕ : I R n tais que

O Teorema de Peano. f : D R n. uma função contínua. Vamos considerar o seguinte problema: Encontrar um intervalo I R e uma função ϕ : I R n tais que O Teorema de Peano Equações de primeira ordem Seja D um conjunto aberto de R R n, e seja f : D R n (t, x) f(t, x) uma função contínua. Vamos considerar o seguinte problema: Encontrar um intervalo I R e

Leia mais

Lista 4. Esta lista, de entrega facultativa, tem três partes e seus exercícios versam sobre séries, funções contínuas e funções diferenciáveis em R.

Lista 4. Esta lista, de entrega facultativa, tem três partes e seus exercícios versam sobre séries, funções contínuas e funções diferenciáveis em R. UFPR - Universidade Federal do Paraná Departamento de Matemática CM095 - Análise I Prof José Carlos Eidam Lista 4 INSTRUÇÕES Esta lista, de entrega facultativa, tem três partes e seus exercícios versam

Leia mais

Probabilidade IV. Ulisses U. dos Anjos. Departamento de Estatística Universidade Federal da Paraíba. Período

Probabilidade IV. Ulisses U. dos Anjos. Departamento de Estatística Universidade Federal da Paraíba. Período Probabilidade IV Ulisses U. dos Anjos Departamento de Estatística Universidade Federal da Paraíba Período 2014.2 Ulisses Umbelino (DE-UFPB) Probabilidade IV Período 2014.2 1 / 20 Sumário 1 Apresentação

Leia mais

σ-álgebras, geradores e independência

σ-álgebras, geradores e independência σ-álgebras, geradores e independência Roberto Imbuzeiro M. F. de Oliveira 15 de Março de 2009 Resumo Notas sobre a σ-álgebra gerada por uma variável aleatória X e sobre as condições de independência de

Leia mais

3 3. Variáveis Aleatórias

3 3. Variáveis Aleatórias ÍNDICE 3. VARIÁVEIS ALEATÓRIAS...49 3.. VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS...49 3.2. VARIÁVEIS DISCRETAS FUNÇÃO DE PROBABILIDADE E FUNÇÃO DISTRIBUIÇÃO DE PROBABILIDADE...50 3.2.. Função de probabilidade...50

Leia mais

Probabilidade de Ruína e Processos de Lévy α-estáveis

Probabilidade de Ruína e Processos de Lévy α-estáveis Apresentação Probabilidade de Ruína e Processos de Lévy α-estáveis Universidade de São Paulo IME - USP 08 de abril, 2010 Apresentação Distribuições Estáveis e Processos de Lévy α-estáveis Convergência

Leia mais

Notas Sobre Sequências e Séries Alexandre Fernandes

Notas Sobre Sequências e Séries Alexandre Fernandes Notas Sobre Sequências e Séries 2015 Alexandre Fernandes Limite de seqüências Definição. Uma seq. (s n ) converge para a R, ou a R é limite de (s n ), se para cada ɛ > 0 existe n 0 N tal que s n a < ɛ

Leia mais

Capítulo 1. Fundamentos

Capítulo 1. Fundamentos Capítulo 1 Fundamentos A probabilidade moderna se baseia fortemente na Teoria da Medida e supomos durante esse curso que o leitor esteja bem familiarizado com conceitos tais como: Medida de Lebesgue, extensões

Leia mais

Capítulo 2. Variáveis Aleatórias e Distribuições

Capítulo 2. Variáveis Aleatórias e Distribuições Capítulo 2 Variáveis Aleatórias e Distribuições Experimento Aleatório Não existe uma definição satisfatória de Experimento Aleatório. Os exemplos dados são de fenômenos para os quais modelos probabilísticos

Leia mais

Convergência em espaços normados

Convergência em espaços normados Chapter 1 Convergência em espaços normados Neste capítulo vamos abordar diferentes tipos de convergência em espaços normados. Já sabemos da análise matemática e não só, de diferentes tipos de convergência

Leia mais

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte II

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte II Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte II 13 de Dezembro de 2013 Exercício 1. Descreva o espaço de probabilidade associado às seguintes experiências aleatórias: 1. Uma moeda

Leia mais

1 Limites e Conjuntos Abertos

1 Limites e Conjuntos Abertos 1 Limites e Conjuntos Abertos 1.1 Sequências de números reais Definição. Uma sequência de números reais é uma associação de um número real a cada número natural. Exemplos: 1. {1,2,3,4,...} 2. {1,1/2,1/3,1/4,...}

Leia mais

Exercício 18. Demonstre a proposição anterior. (Dica: use as definições de continuidade e mensurabilidade)

Exercício 18. Demonstre a proposição anterior. (Dica: use as definições de continuidade e mensurabilidade) Proposição 2.7. Sejam Y e Z espaços métricos e X um espaço mensurável. Se f : X Y é uma função mensurável e g : Y Z é uma função contínua então g f : X Z é uma função mensurável. Exercício 18. Demonstre

Leia mais

Teoremas de uma, duas e três séries de Kolmogorov

Teoremas de uma, duas e três séries de Kolmogorov Teoremas de uma, duas e três séries de Kolmogorov 13 de Maio de 013 1 Introdução Nestas notas Z 1, Z, Z 3,... é uma sequência de variáveis aleatórias independentes. Buscaremos determinar condições sob

Leia mais

Noções de Álgebra Linear

Noções de Álgebra Linear Noções de Álgebra Linear 1. Espaços vetoriais lineares 1.1. Coordenadas 2. Operadores lineares 3. Subespaços fundamentais 4. Espaços normados 5. Espaços métricos 6. Espaços de Banach 7. Espaços de Hilbert

Leia mais

Módulo III: Processos de Poisson, Gaussiano e Wiener

Módulo III: Processos de Poisson, Gaussiano e Wiener Módulo III: Processos de Poisson, Gaussiano e Wiener Wamberto J. L. Queiroz Universidade Federal de Campina Grande-UFCG Departamento de Engenharia Elétrica Processos Estocásticos Campina Grande - PB Módulo

Leia mais

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório?

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório? Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Funções de Uma Variável Aleatória Funções de Várias Momentos e Estatística Condicional Teorema do Limite Central Processos Estocásticos

Leia mais

{ 1 se x é racional, 0 se x é irracional. cos(k!πx) = cos(mπ) = ±1. { 1 se x Ak

{ 1 se x é racional, 0 se x é irracional. cos(k!πx) = cos(mπ) = ±1. { 1 se x Ak Solução dos Exercícios Capítulo 0 Exercício 0.: Seja f k : [0, ] R a função definida por Mostre que f k (x) = lim j (cos k!πx)2j. { f k (x) = se x {/k!, 2/k!,..., }, 0 senão e que f k converge pontualmente

Leia mais

Interbits SuperPro Web

Interbits SuperPro Web 1 (Ita 018) Uma progressão aritmética (a 1, a,, a n) satisfaz a propriedade: para cada n, a soma da progressão é igual a n 5n Nessas condições, o determinante da matriz a1 a a a4 a5 a 6 a a a 7 8 9 a)

Leia mais

Apontamentos III. Espaços euclidianos. Álgebra Linear aulas teóricas. Lina Oliveira Departamento de Matemática, Instituto Superior Técnico

Apontamentos III. Espaços euclidianos. Álgebra Linear aulas teóricas. Lina Oliveira Departamento de Matemática, Instituto Superior Técnico Apontamentos III Espaços euclidianos Álgebra Linear aulas teóricas 1 o semestre 2017/18 Lina Oliveira Departamento de Matemática, Instituto Superior Técnico Índice Índice i 1 Espaços euclidianos 1 1.1

Leia mais

Demonstração. Ver demonstração em [1]. . Para que i j se tem µ i µ j? Determine a derivada no sentido de Radon-Nikodym em cada caso.

Demonstração. Ver demonstração em [1]. . Para que i j se tem µ i µ j? Determine a derivada no sentido de Radon-Nikodym em cada caso. Proposição 2.39 (Propriedades de e.). Sejam µ, λ, λ 1, λ 2 medidas no espaço mensurável (X, F). Então 1. se λ 1 µ e λ 2 µ então (λ 1 + λ 2 ) µ. 2. se λ 1 µ e λ 2 µ então (λ 1 + λ 2 ) µ. 3. se λ 1 µ e λ

Leia mais

1.3 Conjuntos de medida nula

1.3 Conjuntos de medida nula 1.3 Conjuntos de medida nula Seja (X, F, µ) um espaço de medida. Um subconjunto A X é um conjunto de medida nula se existir B F tal que A B e µ(b) = 0. Do ponto de vista da teoria da medida, os conjuntos

Leia mais

No que segue, X sempre denota um espaço topológico localmente compacto

No que segue, X sempre denota um espaço topológico localmente compacto O TEOREMA DE REPRESENTAÇÃO DE RIESZ PARA MEDIDAS DANIEL V. TAUSK No que segue, sempre denota um espaço topológico localmente compacto Hausdorff. Se f : R é uma função, então supp f denota o{ suporte (relativamente

Leia mais

Equação Geral do Segundo Grau em R 2

Equação Geral do Segundo Grau em R 2 8 Equação Geral do Segundo Grau em R Sumário 8.1 Introdução....................... 8. Autovalores e autovetores de uma matriz real 8.3 Rotação dos Eixos Coordenados........... 5 8.4 Formas Quadráticas..................

Leia mais

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31 Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31 Um teorema de grande importância e bastante utilidade em probabilidade

Leia mais

MAT 5798 Medida e Integração IME 2017

MAT 5798 Medida e Integração IME 2017 MAT 5798 Medida e Integração IME 2017 http://www.ime.usp.br/ glaucio/mat5798 Lista 11 - Integral de Bochner Fixemos um espaço de medida completo (X, M, µ) até o final desta lista. As duas primeiras questões

Leia mais

Parte II. Análise funcional II

Parte II. Análise funcional II Parte II Análise funcional II 12 Capítulo 5 Produto de Operadores. Operadores inversos Neste capítulo vamos introduzir a noção de produto de operadores assim como a de operador invertível. Para tal precisamos

Leia mais

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Funções de Uma Variável Aleatória Funções de Várias Momentos e Estatística Condicional Teorema do Limite Central Processos Estocásticos

Leia mais

Lista 8 de Análise Funcional - Doutorado 2018

Lista 8 de Análise Funcional - Doutorado 2018 Lista 8 de Análise Funcional - Doutorado 2018 Professor Marcos Leandro 17 de Junho de 2018 1. Sejam M um subespaço de um espaço de Hilbert H e f M. Mostre que f admite uma única extensão para H preservando

Leia mais

As leis dos grandes números

As leis dos grandes números 6. Introdução este capítulo estudamos algumas formulações da lei dos grandes números. Uma lei dos grandes números dá o comportamento limite, ou assimptótico, de uma média de observações aleatórias., de

Leia mais

Uma breve análise do movimento Browniano

Uma breve análise do movimento Browniano Universidade Federal do Espírito Santo UFES Departamento de Matemática Programa de Pós-Graduação em Matemática Uma breve análise do movimento Browniano Vitória -ES, Brasil de Dezembro de 04 Universidade

Leia mais

VARIÁVEIS ALEATÓRIAS

VARIÁVEIS ALEATÓRIAS UNIVERSIDADE FEDERAL DE JUIZ DE FORA INSTITUTO DE CIÊNCIAS EXATAS DEPARTAMENTO DE ESTATÍSTICA VARIÁVEIS ALEATÓRIAS Joaquim H Vianna Neto Relatório Técnico RTE-03/013 Relatório Técnico Série Ensino Variáveis

Leia mais

Faremos aqui uma introdução aos espaços de Banach e as diferentes topologías que se podem definir nelas.

Faremos aqui uma introdução aos espaços de Banach e as diferentes topologías que se podem definir nelas. Capítulo 2 Espaços de Banach Faremos aqui uma introdução aos espaços de Banach e as diferentes topologías que se podem definir nelas. 2.1 Espaços métricos O conceito de espaço métrico é um dos conceitos

Leia mais

Provas de Análise Real - Noturno - 3MAT003

Provas de Análise Real - Noturno - 3MAT003 Provas de 2006 - Análise Real - Noturno - 3MAT003 Matemática - Prof. Ulysses Sodré - Londrina-PR - provas2006.tex 1. Definir a operação ϕ entre os conjuntos A e B por ϕ(a, B) = (A B) (A B). (a) Demonstrar

Leia mais

Matemática I. 1 Propriedades dos números reais

Matemática I. 1 Propriedades dos números reais Matemática I 1 Propriedades dos números reais O conjunto R dos números reais satisfaz algumas propriedades fundamentais: dados quaisquer x, y R, estão definidos a soma x + y e produto xy e tem-se 1 x +

Leia mais

O Teorema de Radon-Nikodým

O Teorema de Radon-Nikodým Universidade stadual de Maringá - Departamento de Matemática Cálculo Diferencial e Integral: um KIT de Sobrevivência c Publicação eletrônica do KIT http://www.dma.uem.br/kit O Teorema de Radon-Nikodým

Leia mais

1 Álgebra linear matricial

1 Álgebra linear matricial MTM510019 Métodos Computacionais de Otimização 2018.2 1 Álgebra linear matricial Revisão Um vetor x R n será representado por um vetor coluna x 1 x 2 x =., x n enquanto o transposto de x corresponde a

Leia mais

Lista de Exercícios da Primeira Semana Análise Real

Lista de Exercícios da Primeira Semana Análise Real Lista de Exercícios da Primeira Semana Análise Real Nesta lista, a n, b n, c n serão sempre sequências de números reais.. Mostre que todo conjunto ordenado com a propriedade do supremo possui a propriedade

Leia mais

Processos de Markov a Tempo Contínuo e Sistemas de Partículas Parte 2

Processos de Markov a Tempo Contínuo e Sistemas de Partículas Parte 2 Processos de Markov a Tempo Contínuo e Sistemas de Partículas Parte 2 Leandro Cioletti Departamento de Matemática - UnB 70910-900, Brasília, Brazil cioletti@mat.unb.br Ricardo Parreira Departamento de

Leia mais

Construção de espaços de probabilidade. básicos

Construção de espaços de probabilidade. básicos Capítulo 2 Construção de espaços de probabilidade básicos Nessa seção descreveremos diversas maneiras diferentes de construir um espaço de probabilidade, dando diversos exemplos de como elas podem ser

Leia mais

3 Apresentação do processo e resultados preliminares

3 Apresentação do processo e resultados preliminares 3 Apresentação do processo e resultados preliminares O Capitulo 1 dá a ferramenta para construir uma cadeia de Markov a tempo contínuo, a partir de uma cadeia de Markov a tempo discreto. Agora, queremos

Leia mais

A DEFINIÇÃO AXIOMÁTICA DO CONJUNTO DOS NÚMEROS NATURAIS.

A DEFINIÇÃO AXIOMÁTICA DO CONJUNTO DOS NÚMEROS NATURAIS. A DEFINIÇÃO AXIOMÁTICA DO CONJUNTO DOS NÚMEROS NATURAIS. SANDRO MARCOS GUZZO RESUMO. A construção dos conjuntos numéricos é um assunto clássico na matemática, bem como o estudo das propriedades das operações

Leia mais

PROBABILIDADE PGE950

PROBABILIDADE PGE950 PROBABILIDADE PGE950 José J. C. Hernández DE - UFPE October 12, 2017 José J. C. Hernández (DE - UFPE) Estatística I October 12, 2017 1 / 88 1 Introdução à Probabilidade 2 Variavel Aleatória 3 Vetores Aleatórios

Leia mais

Processos Estocásticos. Luiz Affonso Guedes

Processos Estocásticos. Luiz Affonso Guedes Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Variáveis Aleatórias Funções de Uma Variável Aleatória Funções de Várias Variáveis Aleatórias Momentos e Estatística Condicional Teorema

Leia mais

SISTEMAS LINEARES PROF. EDÉZIO

SISTEMAS LINEARES PROF. EDÉZIO SOLUÇÕES NUMÉRICAS DE SISTEMAS LINEARES PROF. EDÉZIO Considere o sistema de n equações e n incógnitas: onde E : a x + a x +... + a n x n = b E : a x + a x +... + a n x n = b. =. () E n : a n x + a n x

Leia mais

Fabio Augusto Camargo

Fabio Augusto Camargo Universidade Federal de São Carlos Centro de Ciências Exatas e de Tecnologia Departamento de Matemática Introdução à Topologia Autor: Fabio Augusto Camargo Orientador: Prof. Dr. Márcio de Jesus Soares

Leia mais

Processos de Lévy: Preliminares

Processos de Lévy: Preliminares Processos de Lévy: Preliminares Pedro A. Morettin Instituto de Matemática e Estatística Universidade de São Paulo pam@ime.usp.br http://www.ime.usp.br/ pam Sumário 1. Introdução 2. Alguns processos em

Leia mais

Capítulo 1. Fundamentos

Capítulo 1. Fundamentos Capítulo 1 Fundamentos A probabilidade moderna se baseia fortemente na Teoria da Medida e supomos durante esse curso que o leitor esteja bem familiarizado com conceitos tais como: Medida de Lebesgue, extensões

Leia mais

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte I

Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte I Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte I 2013/2014 Exercício 1. Seja (, F) um espaço mensurável. Mostre que 1. F. 2. se A i F, i = 1, 2,... então n i=1 A i F. 3. se A i F,

Leia mais

DCC008 - Cálculo Numérico

DCC008 - Cálculo Numérico DCC008 - Cálculo Numérico Polinômios de Taylor Bernardo Martins Rocha Departamento de Ciência da Computação Universidade Federal de Juiz de Fora bernardomartinsrocha@ice.ufjf.br Conteúdo Introdução Definição

Leia mais

Álgebra Linear Exercícios Resolvidos

Álgebra Linear Exercícios Resolvidos Álgebra Linear Exercícios Resolvidos Agosto de 001 Sumário 1 Exercícios Resolvidos Uma Revisão 5 Mais Exercícios Resolvidos Sobre Transformações Lineares 13 3 4 SUMA RIO Capítulo 1 Exercícios Resolvidos

Leia mais

Notas Para o Curso de Medida e. Daniel V. Tausk

Notas Para o Curso de Medida e. Daniel V. Tausk Notas Para o Curso de Medida e Integração Daniel V. Tausk Sumário Capítulo 1. Medida de Lebesgue e Espaços de Medida... 1 1.1. Aritmética na Reta Estendida... 1 1.2. O Problema da Medida... 6 1.3. Volume

Leia mais

1 Diferenciabilidade e derivadas direcionais

1 Diferenciabilidade e derivadas direcionais UFPR - Universidade Federal do Paraná Setor de Ciências Exatas Departamento de Matemática CM048 - Cálculo II - Matemática Diurno Prof. Zeca Eidam Nosso objetivo nestas notas é provar alguns resultados

Leia mais

Universidade Federal de Goiás Campus Catalão Departamento de Matemática Disciplina: Fundamentos de Análise

Universidade Federal de Goiás Campus Catalão Departamento de Matemática Disciplina: Fundamentos de Análise Universidade Federal de Goiás Campus Catalão Departamento de Matemática Disciplina: Fundamentos de Análise Professor: André Luiz Galdino Gabarito da 1 a Lista de Exercícios 1. Prove que para todo x 0 IR

Leia mais

Notas de Teoria da Probabilidade e Processos Estocásticos

Notas de Teoria da Probabilidade e Processos Estocásticos Notas de Teoria da Probabilidade e Processos Estocásticos José Pedro Gaivão Resumo Estas notas destinam-se à disciplina de Teoria da Probabilidade e Processos Estocásticos do Mestrado de Matemática Financeira

Leia mais

Quinta lista de Exercícios - Análise Funcional, período Professor: João Marcos do Ó. { 0 se j = 1 y j = (j 1) 1 x j 1 se j 2.

Quinta lista de Exercícios - Análise Funcional, período Professor: João Marcos do Ó. { 0 se j = 1 y j = (j 1) 1 x j 1 se j 2. UNIVERSIDADE FEDERAL DE PERNAMBUCO CENTRO DE CIÊNCIAS EXATAS E DA NATUREZA DEPARTAMENTO DE MATEMÁTICA PÓS-GRADUAÇÃO EM MATEMÁTICA Quinta lista de Exercícios - Análise Funcional, período 2009.2. Professor:

Leia mais

CM005 Álgebra Linear Lista 3

CM005 Álgebra Linear Lista 3 CM005 Álgebra Linear Lista 3 Alberto Ramos Seja T : V V uma transformação linear. Se temos que T v = λv, v 0, para λ K. Dizemos que λ é um autovalor de T e v autovetor de T associado a λ. Observe que λ

Leia mais

Variáveis Aleatórias. Departamento de Matemática Escola Superior de Tecnologia de Viseu

Variáveis Aleatórias. Departamento de Matemática Escola Superior de Tecnologia de Viseu Variáveis Aleatórias Departamento de Matemática Escola Superior de Tecnologia de Viseu Exemplo No lançamento de duas moedas ao ar, os resultados possíveis são: FF, FC, CF ou CC. No entanto, o nosso interesse

Leia mais

Material Teórico - Módulo de Função Exponencial. Primeiro Ano - Médio. Autor: Prof. Angelo Papa Neto Revisor: Prof. Antonio Caminha M.

Material Teórico - Módulo de Função Exponencial. Primeiro Ano - Médio. Autor: Prof. Angelo Papa Neto Revisor: Prof. Antonio Caminha M. Material Teórico - Módulo de Função Exponencial Gráfico da Função Exponencial Primeiro Ano - Médio Autor: Prof. Angelo Papa Neto Revisor: Prof. Antonio Caminha M. Neto 0 de dezembro de 018 1 Funções convexas

Leia mais

Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II

Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II Vladimir Pestov 1 University of Ottawa / Université d Ottawa Ottawa, Ontario, Canadá 2 Universidade Federal de Santa Catarina Florianópolis,

Leia mais

MEDIDAS COM SINAL.. Uma medida com sinal σ-aditiva (ou, simplesmente, uma medida com sinal) µ(a n ) def = lim

MEDIDAS COM SINAL.. Uma medida com sinal σ-aditiva (ou, simplesmente, uma medida com sinal) µ(a n ) def = lim MEDIDAS COM SINAL DANIEL V. TAUSK 1. Definição. Seja C uma coleção de conjuntos tal que C. Uma medida com sinal finitamente aditiva em C é uma função µ : C R tal que: µ( ) = 0; se (A n ) t é uma seqüência

Leia mais

Cadeias de Markov em Tempo Continuo

Cadeias de Markov em Tempo Continuo Cadeias de Markov em Tempo Continuo Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 6 Taylor & Karlin 1 / 44 Análogo ao processo

Leia mais

TEORIA ERGÓDICA, SISTEMAS DINÂMICOS E MEDIDAS INVARIANTES

TEORIA ERGÓDICA, SISTEMAS DINÂMICOS E MEDIDAS INVARIANTES TEORIA ERGÓDICA, SISTEMAS DINÂMICOS E MEDIDAS INVARIANTES Aluno: Juliana Arcoverde V. L. Ribeiro Orientador: Lorenzo Justiniano Díaz Casado Introdução A Teoria dos Sistemas Dinâmicos, ou mais exatamente

Leia mais

) a sucessão definida por y n

) a sucessão definida por y n aula 05 Sucessões 5.1 Sucessões Uma sucessão de números reais é simplesmente uma função x N R. É conveniente visualizar uma sucessão como uma sequência infinita: (x(), x(), x(), ). Neste contexto é usual

Leia mais

ANÁLISE COMPLEXA E EQUAÇÕES DIFERENCIAIS. Apresente e justifique todos os cálculos

ANÁLISE COMPLEXA E EQUAÇÕES DIFERENCIAIS. Apresente e justifique todos os cálculos Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise ANÁLISE COMPLEXA E EQUAÇÕES DIFERENCIAIS TESTES DE RECUPERAÇÃO A - 6 DE JUNHO DE 9 - DAS H ÀS :3H Teste Apresente e justifique

Leia mais

Aula 7 Os teoremas de Weierstrass e do valor intermediário.

Aula 7 Os teoremas de Weierstrass e do valor intermediário. Os teoremas de Weierstrass e do valor intermediário. MÓDULO - AULA 7 Aula 7 Os teoremas de Weierstrass e do valor intermediário. Objetivo Compreender o significado de dois resultados centrais a respeito

Leia mais

Conteúdo Teórico: 04 Esperança

Conteúdo Teórico: 04 Esperança ACH2053 Introdução à Estatística Conteúdo Teórico: 04 Esperança Marcelo de Souza Lauretto Sistemas de Informação EACH www.each.usp.br/lauretto Referência: Morris DeGroot, Mark Schervish. Probability and

Leia mais

Topologia do espaço Euclidiano

Topologia do espaço Euclidiano Capítulo 1 Topologia do espaço Euclidiano 1 O espaço vetorial R n iguais a R: Seja n N. O espaço euclidiano n dimensional é o produto cartesiano de n fatores R n = R R R }{{} n cópias Os pontos de R n

Leia mais

1 Grupos (23/04) Sim(R 2 ) T T

1 Grupos (23/04) Sim(R 2 ) T T 1 Grupos (23/04) Definição 1.1. Um grupo é um conjunto G não-vazio com uma operação binária : G G G que satisfaz as seguintes condições: 1. (associatividade) g (h k) = (g h) k para todos g, h, k G; 2.

Leia mais

1 A Equação Fundamental Áreas Primeiras definições Uma questão importante... 7

1 A Equação Fundamental Áreas Primeiras definições Uma questão importante... 7 Conteúdo 1 4 1.1- Áreas............................. 4 1.2 Primeiras definições...................... 6 1.3 - Uma questão importante.................. 7 1 EDA Aula 1 Objetivos Apresentar as equações diferenciais

Leia mais

O espaço das Ordens de um Corpo

O espaço das Ordens de um Corpo O espaço das Ordens de um Corpo Clotilzio Moreira dos Santos Resumo O objetivo deste trabalho é exibir corpos com infinitas ordens e exibir uma estrutura topológica ao conjunto das ordens de um corpo.

Leia mais

MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade

MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade Edson de Faria Departamento de Matemática IME-USP 28 de Agosto, 2013 Probabilidade: uma Introdução / Aula 8 1 Desigualdades de Markov e

Leia mais

A Projeção e seu Potencial

A Projeção e seu Potencial A Projeção e seu Potencial Rolci Cipolatti Departamento de Métodos Matemáticos Instituto de Matemática, Universidade Federal do Rio de Janeiro C.P. 68530, Rio de Janeiro, Brasil e-mail: cipolatti@im.ufrj.br

Leia mais

Notas de Análise Real. Jonas Renan Moreira Gomes

Notas de Análise Real. Jonas Renan Moreira Gomes Notas de Análise Real Jonas Renan Moreira Gomes 6 de novembro de 2008 ii Sumário 1 Séries de Fourier 1 1.1 Produto Hermitiano......................... 1 1.1.1 Definições........................... 1 1.1.2

Leia mais