Aula 14. Aula de hoje. Aula passada

Documentos relacionados
Teoria de Filas Aula 10

Aula 17. Aula de hoje. Aula passada. Problemas Monte Carlo na moda Caminho trilhado Desafios à frente Avaliação

Cadeias de Markov. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Modelagem e Análise de Sistemas de Computação Aula 19

Modelagem e Análise de Sistemas de Computação Aula 20

Processos Estocásticos e Cadeias de Markov Discretas

Propriedade Markoviana

1 Conceitos Iniciais. 1.1 Grafos

Estatística e Modelos Probabilísticos - COE241

COS767 - Modelagem e Análise Aula 3 - Simulação

Modelagem e Análise de Sistemas - COS767

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241

Aula 6. Aula de hoje. Aula passada

3. CADEIA DE MARKOV EM TEMPO DISCRETO

MOQ-12 Cadeias de Markov

Estatística e Modelos Probabilísticos - COE241

Aula - Equações de Chapman-Kolmogorov

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23

Estatística e Modelos Probabilísticos - COE241

Teoria dos Grafos. Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada.

Classificação de estados em uma cadeia de Markov. Professora Eliana Carvalho

MAE GABARITO DA LISTA 2-04/10/2016

Se X t = 4 X t+1 = X t+2 =... = 4. Cadeias de Markov Classificação Cadeias ergódicas Cadeias com absorção

Estatística e Modelos Probabilísticos - COE241

Aula 7. Aula de hoje. Aula passada

Metodologia de inversão

Cadeias de Markov de Tempo Contínuo (CTMC)

Teoria dos Grafos. Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo. Departamento de Matemática Aplicada

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Aula 4. Aula de hoje. Aula passada

Teoria dos Grafos Aula 3

ROTEIRO DA APRESENTAÇÃO PROCESSOS ESTOCÁSTICOS

Primeiro Exercício programa: Como o Google ordena páginas. MAP-2121 para EPUSP

Redes Complexas Aula 7

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Circuitos Hamiltorianos

Estatística e Modelos Probabilísticos - COE241

Redes Complexas Aula 2

Espaço amostral Ω: Conjunto enumerável de todos os possíveis resultados de um experimento aleatório. um evento elementar. E = E[X j ] X j.

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2011

Métodos Computacionais em Física

ESTATÍSTICA COMPUTACIONAL

Métodos iterativos para sistemas lineares.

ESTATÍSTICA COMPUTACIONAL

Métodos Computacionais em Física

Grafos: caminhos (matriz adjacência)

Sexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo

Universidade Federal do Espírito Santo - UFES

Tópicos Especiais em Qualidade

Redes Complexas Aula 2

Grafos Direcionados. > Grafos Direcionados Representações Computacionais 1/36

Teoria dos Grafos Aula 2

Algoritmos Probabilísticos

Uma Breve Introdução ao Monte Carlo

Avaliação e Desempenho Aula 1 - Simulação

Estatística (MAD231) Turma: IGA. Período: 2017/2

Teoria dos Grafos Aula 6

Processos de ramificação e o grafo de Erdös Rényi

Embasamento Analítico

Modelagem e Avaliação de Desempenho

Teoria dos Grafos Aula 17

Aula de hoje Aula passada

TEOREMAS LIMITE EM PROBABILIDADE RENATO ASSUNÇÃO DCC - UFMG

Modelos Espaço-Temporais

SME0300 Cálculo Numérico Aula 11

Redes Complexas Aula 14

AULA 11 PROJETO E ANÁLISE DE ALGORITMOS. Conceitos básicos e representação de grafos Karina Valdivia Delgado

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

Processos Estocásticos

Técnicas computacionais em probabilidade e estatística II

SME0801- Probabilidade II Distribuições conjuntas. Primeiras definições e propriedades

Modelos Probabilísticos de Desempenho. Profa. Jussara M. Almeida 1º Semestre de 2014

Análise de Dados e Simulação

Estatística e Modelos Probabilísticos - COE241

GRAFOS Aula 03 Representações de Grafos Max Pereira

NOTAS DE AULA 1 METAHEURÍSTICA 13/10/2016

Estatística e Modelos Probabilísticos - COE241

Dou Mó Valor aos Autovalores

Funções Geradoras de Variáveis Aleatórias. Simulação Discreta de Sistemas - Prof. Paulo Freitas - UFSC/CTC/INE

SME Roberto F. Ausas / Gustavo C. Buscaglia

Sistemas Lineares. Métodos Iterativos Estacionários

Teoria dos Grafos Aula 2

AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC

Cadeias de Markov em Tempo Continuo

1/7 1/ se hoje não chove, amanhã não vai chover com probabilidade p 00 = 6/7;

Markov random field - MRF. Renato Assunção DCC-UFMG A partir de material de J. Chang

Aprendizado, minimização do arrependimento e equilíbrio (Learning, Regret Minimization, and Equilibria)

AULA 11 - Normalidade e Inferência em Regressão Múltipla - Parte 1

Matemática para Ciência de Computadores

Continuidade de processos gaussianos

Autovalores e Autovetores

Inferência para CS Modelos univariados contínuos

Teoria dos Grafos. Edson Prestes

Análise de dados em Fisica de Particulas

= (365 k + 1). (365 k)! = 1.

CONHECIMENTOS ESPECÍFICOS

3. Considere uma amostra aleatória de tamanho 7 de uma normal com média 18. Sejam X e S 2, a média e a variância amostral, respectivamente.

Transcrição:

Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema Ergódico Estimando Simulação de CM Gerando amostras Markov Chain Monte Carlo (caso simétrico) Exemplo

Aleatoriedade de CM Até agora vimos os seguintes objetos matemáticos P: matriz de transição de estados da CM (0): distribuição inicial da CM (t): distribuição da CM no tempo t, dada por (t) = (0)P t : distribuição estacionária da CM, dada por = P : tempo de mistura da CM, dado Qual destes objetos é aleatório? Nenhum deles! Então o que é aleatório na CM?

Cadeia de Markov Seja P a matriz de transição de estados de uma CM Seja X t uma v.a. que determina o estado da cadeia no instante de tempo t, para t = 0,1,2, P[ X t = s ] para todo s em S X t é aleatório (é uma v.a.) Exemplo: (0) = (0.8 0.2) 3/4 On 2/3 1/4 Off Realização: X 0 = 1, X 1 = 0, X 2 = 0, X 3 = 1, X 4 = 0, X 5 = 1, X 6 = 1, Realização: X 0 = 0, X 1 = 0, X 2 = 1, X 3 = 1, X 4 = 0, X 5 = 0, X 6 = 1, Realização: X 0 = 1, X 1 = 1, X 2 = 0, X 3 = 1, X 4 = 1, X 5 = 1, X 6 = 0,... 1/3

Caminho Amostral Uma realização da sequência de v.a. X t para t = 0,1, Probabilidade de um caminho amostral = ( 0,,,...) prob. da CM realizar exatamente P[ω ]=P [ X =ω X =ω...]= 0 0, 1 1, =π (0)P P P... ω0 ω0, ω 1 ω1, ω 2 ω2, ω 3 Todo caminho amostral tem uma probabilidade que vai a zero com o comprimento do caminho! Exemplo: (0) = (0.8 0.2) 3/4 On 2/3 Off = 1,1,1,1,1,1,1,1 = 0,1,0,1,0,1,0,1 P[ω ]=? 1/4 1/3

O que ocorre com X t? Se todo caminho amostral tem probabilidade que vai a zero, o que podemos dizer sobre sequência X t? Usar a média sobre valores da sequência! Ex. média amostral dos valores de estado observados k 1 S k = 1 k t =0 X t Ex. fração de vezes que um estado s é visitado k 1 f k (s)= 1 k t =0 I ( X t =s)

Convergência Intuitiva Para onde converge a média amostral de X t, com um grande número de amostras (k muito grande)? caminho amostral muito longo pela CM k 1 S k = 1 k t =0 X t E π [ X ]= s s π s Para onde converge a fração de visitas a um estado, com um grande número de amostras (k muito grande)? k 1 f k (s)= 1 k t =0 I ( X t =s) π s

Teorema Ergódico Seja f uma função sobre o espaço de estados da CM mapeia cada estado da CM em um valor real Se CM é irredutível e aperiódica, com distribuição estacionária, temos P[ lim k 1 k 1 k t =0 f (X t )=E π [f ( X )]] =1 Como lei forte dos Sobre distribuição estacionária grandes números! Teorema fundamental: Média no espaço = média no tempo valor esperado de qualquer função pode ser aproximado usando caminho amostral Exemplos anteriores são casos especiais

Estimando Teorema ergódico garante que método de Monte Carlo funciona também em CM conexão entre teoria (equações) e prática (simulação) Exemplo: Como estimar? Usar a CM para gerar um caminho amostral bem longo e calcular a fração de visitas a cada estado k 1 ^π s (k)= 1 k t=0 I (ω t =s) Teorema ergódico garante convergência estimador consistente (possui viés para tempo k) Outro método para encontrar

Simulando uma CM Como simular uma CM? entrada: matriz P, distribuição inicial (0) Simular cada valor X t, para t=0,1, Usar (0) para gerar X0 Usar P (matriz de transição) para gerar X 1, X 2, Como gerar X k dado X k-1? Gerar U ~ uniforme(0,1), usar (X k-1 )-ésima linha da matriz P para escolher vizinho, valor de X k Problema: ineficiente (se matriz P é esparsa)

Simulando CM Eficientemente Representar matriz P como vetor de adjacência apenas entradas não-nulas são representadas y j [i] = estado da i-ésima transição não-nula do de j q j [i] = prob. de transição acumulada das primeiras i-ésimo transições de j y j [1] y j [2] y j [3] U(0,1) 0 q j [1] q j [2] q j [3] 1 Complexidade: O(# transições não-nulas) Método Alias: complexidade O(1) + custo inicial

Gerando Amostras Considere uma CM com matriz de transição P Como gerar amostras de X t? Exemplo: (0) = (0.8 0.2) Gerar amostras de X 10? 3/4 On 2/3 1/4 Off 1/3 Ideias 1) Calcular (t), gerar amostras desta distribuição 2) Simular CM até X t, para cada amostra Depende de n (tamanho da CM), e t

Espaços Grandes e Complicados Considere um espaço amostral grande e complicado grande = muitos elementos complicado = não é fácil enumerar os elementos Todos os grafos conexos com n vértices não é fácil enumerar grafos conexos Todos os percursos por n cidades de comprimento L ou menor não é fácil enumerar percursos de comp. L ou menor Em geral: espaço amostral combinatorial com restrições que dificultam enumeração

Gerando amostras uniformes Como gerar amostras uniformes destes espaços? Ideia preliminar 1) Aumentar espaço de estado amostral (ex. removendo restrição) facilitar geração 2) Usar método da rejeição rejeitar amostras que não atendem a restrição, remover viés Exemplo: Gerar grafos conexos com n vértices? modelo G(n, p) com p=½ todos os grafos são equiprováveis (não temos viés) gerar grafo de G ~ G(n, ½) retorna se G é conexo, cc gera outro G Pode ser muito ineficiente!

Markov Chain to the Rescue Como usar CM para resolver este problema? Construir CM cujos estados correspondem aos elementos de S (espaço amostral) Construir uma matriz de transição P tal que distribuição estacionária seja uniforme Simular CM para gerar amostras dar passos para gerar uma amostra Método baseado em CM para gerar amostras de uma distribuição qualquer não precisa ser uniforme

MCMC Não precisamos construir a priori Podemos construir e simular CM ao mesmo tempo, um passo de cada vez Baixo tempo de mistura, parar gerar amostras Poucas transições de saída em cada estado (ex. log n) Fácil descrição dos estados vizinhos (a partir do estado atual) Tema de grande debate e avanço!

MCMC Caso Simétrico Considere uma CM com matriz de transição P simétrica P ij = P ji para todo estado i, j Distribuição estacionária é uniforme e a CM é reversível Queremos modificar P para construir uma nova CM cuja distribuição estacionária seja qualquer é entrada para o problema Ideia: não aceitar todas as transições da CM original continuar no mesmo estado para induzir qualquer parecido com método da rejeição Rejeição é probabilística, para cada transição não-nula em P, temos a(i, j)

MCMC Caso Simétrico Considere CM no estado i e uma proposta de transição da CM original (ou seja, em P) para o estado j aceita transição com probabilidade a(i, j), rejeita com complemento Matriz de transição P da nova CM P ' ij ={ 1 k : k i P ij a(i, j), P ik a(i, k), sei j sei= j Temos que escolher a(i, j) tq P tenha distribuição estacionária dada por ou seja: π i P ij a (i, j)=π j P ji a( j,i) Garantindo também que P é reversível

MCMC Caso Simétrico Como P ij = P ji (por simetria em P), temos π i a(i, j)=π j a( j,i) Como a(i,j) e a(j,i) são probabilidades, temos π i a(i, j) π i π i a(i, j)=π j a( j,i) π j Como a(i,j) deve ser o maior possível para evitar desperdício, temos a (i, j)=1, a (i, j)= π j π i, Ou seja, se π i π j se π i >π j a (i, j)=min {1, π j π i }

Exemplo Gerar amostras de pares ordenados (x, y) em [1,n] x [1,n] grid 2D discreto e quadrado com n pontos P[( x, y)]= (x+ y)2 Z constante de normalização Z = (x+ y) 2 (x, y) [ 1,n] 2 CM original é torus 2D com n x n vértices estado dado por (x, y), com x,y = 1,, n todo estado tem 4 transições, P ij = ¼, para algum i,j CM é simétrica e consequentemente uniforme Como transformar P em P para induzir conforme definição acima?

Exemplo Precisamos CM tal que π ( x, y ) = (x+ y)2 Z Seja estado i = (x,y) e j = (x,y ). Desta forma, podemos definir a(i, j) como a(i, j)=min {1, π j π i }=min {1, Por fim, definimos P como anteriormente P ij = P ij a(i,j) se i!= j, etc. (x '+ y' )2 ( x+ y) 2 } Boa notícia: não precisamos calcular Z para definir a(i, j) seria proibitivo calcular Z Para gerar uma amostra, simular CM definida por P por e retornar o estado atual