MRF, Ising, Imagens e MCMC

Tamanho: px
Começar a partir da página:

Download "MRF, Ising, Imagens e MCMC"

Transcrição

1 MRF, Ising, Imagens e MCMC Renato Assunção - DCC, UFMG Outubro de Grafos não-direcionados Aé agora vimos modelos estocáticos representados por grafos em que as arestas são direcionadas, os DAGs. Entretanto existem situações em que as variáveis aleatórias, representadas pelos vértices do grafo, afetam-se mutuamente, sem que uma delas possa ser considerada a causa e a outra o efeito. Dessa forma, fica difícil atribuir uma direção para a aresta que liga os dois vértices. Um bom exemplo para este tipo de situação é aquele em queremos modelar uma imagem em preto-e-branco, representada como uma matriz M N. O elemento da matriz na posição (ou pixel) (i, j) tem um valor x (i,j) igual a -1 (se branco), ou igual a 1 (se preto). O lado esquerdo da Figura 1 mostra uma imagem preto-e-branco e o lado direito mostra o centro de cada pixel. Cada pixel é um pequeno quadrado colorido de acordo com o valor de x (i,j). Considere o pixel destacado em preto no centro da Figura. É natural que os valores de x nos quatro pixels imediatamente vizinhos (e também destacados na figura) estejam correlacionados com o pixel central mas não parece razoável escolher uma direção preferencial para unir com uma aresta direcionada as variáveis desses pixels. Figura 1: Imagem preto e branco (esquerda). O gráfico da direita mostra um pixel destacado no centro e a sua a vizinhança formada por quatro pixels vizinhos no formato do movimento do peão no xadrez. Outro exemplo ilustrativo é aquele em que cada vértice representa um autor de artigos científicos. Para cada autor i, suponha que observamos um índice Y i de citação de seus artigos (ou um indicador numérico do seu prestígio científico ou do impacto de seu trabalho). Cada autor é conectado por arestas aos seus co-autores, com os quais escreveu pelo menos um artigo. Pode ser razoável usar arestas não-direcionadas neste problema. 1

2 2 Campos Aleatórios de Markov Os campos aleatórios de Markov foram criados para lidar com essas situações. Para os propósitos deste curso, eles são uma distribuição de probabilidade f(x) para um vetor estocástico x em que cada elemento do vetor é um vértice de um grafo arbitrário com arestas não direcionadas. São permitidos loops no grafo bem como vértices isolados, sem arestas. Não são permitidos self-loops. Figura 2: O gráfico da direita mostra um pixel destacado no centro e a sua a vizinhança formada por quatro pixels vizinhos no formato do movimento do peão no xadrez. A teoria de independência condicional nas distribuições de probabilidade dos campos de Markov é mais simples que no caso das redes bayesianas. Essa teoria depende do conceito de vizinhança de um vértice. Seja N i o conjunto de vértices ligados ao vértice i. Considere a seguinte propriedade: Definição: Uma distribuição de probabilidade f(x) possui a propriedade de Markov com respeito ao grafo G = (V, E) com estrutura de vizinhança {N i } se, para todo i, tivermos f (x i x i ) = f (x i {x j, j N i ). (1) Isto é, a distribuição do vértice x i depende apenas de sua vizinhança imediata. Um importante teorema dessa teoria é o de Hammersley-Clifford. Este teorema esclarece quando uma distribuição f(x) possui a propriedade de Markov com respeito a um certo grafo G = (V, E) com estrutura de vizinhança {N i }. Ele permite verificar se é válida a propriedade markoviana sem que seja necessário verificar se (1) é válida para cada vértice. O teorema estabelece que basta checar se a expressão da densidade conjunta f(x) satisfaz uma propriedade muito fácil de ser verificada. Para declarar o teorema, precisamos de mais duas definições. Definição: Uma distribuição conjunta de probabilidade f(x) = f(x 1, x 2,..., x n ) com distribuições marginais f i (x i ) satisfaz a propriedade de positividade se para todo valor x i em que a marginal for maior que zero (isto é, f i (x i ) > 0) implicar que a distribuição conjunta f(x 1,..., x i,..., x n ) > 0 para qualquer configuração das demais variáveis. Exemplo: Considere uma matriz 2 2 binária tal que, se os três vértices (1, 1), (1, 2), e (2, 1) tiverem todos o mesmo valor +1 então o vértice (2, 2) vai ser necessariamente igual a +1 também. Isto é, p(x 2,2 = 1 x 1,1 = +1, x 1,2 = +1, x 2,1 = +1) = 0 Suponha que, de forma não condicional, a probabilidade de que x 2,2 = 1 não seja 1. Ou seja, suponha que o vértice (2, 2) possa receber a cor 1: p(x 2,2 = 1) > 0. Assim, esta distribuição não satisfaz 2

3 apropriedade de positividade pois p(x 1,1 = +1, x 1,2 = +1, x 2,1 = +1, x 2,2 = 1) = p(x 2,2 = 1 x 1,1 = +1, x 1,2 = +1, x 2,1 = +1)p(x 1,1 = +1, x 1,2 = +1, x 2,1 = + mas p(x 2,2 = 1) > 0. A condição de positividade é válida na maioria dos casos práticos. Uma condição suficiente é que o suporte da distribuição conjunta seja igual ao produto cartesiano dos suportes das distribuições marginais. Definição: Uma clique de um grafo G = (V, E) é um conjunto de vértices tais que todo par de elementos é conectado por uma aresta. Uma clique maximal é uma clique que não pode ser aumentada pela adição de nenhum outro vértice. Neste texto, quando dissermos clique estamos nos referindo a cliques maximais. Seja C o conjunto de todas as cliques de G. Seja S um subconjunto de vértices. elementos x i S. Vamos denotar por ψ S (x) uma função que depende apenas dos Teorema de Hammersley-Clifford: Uma distribuição de probabilidade f(x) com a condição de positividade possui a propriedade de Markov com respeito ao grafo G = (V, E) com estrutura de vizinhança {N i } se, e somente se, ( ) f(x) exp ψ c (x) Prova: Ver Assunção, Rodrigues e Krainski (2010). Campos Aleatórios de Markov e Distribuições Especificadas Através das Densidades Condicionais. SINAPE, ABE, c C 3 De volta às imagens binárias Considere uma imagem binária x com o grafo de vizinhança dado pela estrutura em cruz representada na Figura 1. Para evitar trabalhar com a indexação dupla para os elementos da imagem, vamos ordenar as posições da matriz com i = 1, 2,..., n = MN percorrendo os pixels ao longo da primeira coluna, depois os da segunda coluna, etc. Assim, i = 1 corresponde ao pixel (1, 1), i = 2 correponde ao pixel (2, 1), etc. Para dois pixels arbitrários, se eles possuem uma aresta comum, diremos que eles são vizinhos e denotamos isto por i j. O Gráfico à direita na Figura 1 mostra um pixel e seus quatro vizinhos. Nas bordas da imagem, cada pixel tem um número menor de vizinhos, 3 vizinhos ou 2 vizinhos (no caso dos quatro pixels nos cantos da imagem). Uma clique (maximal) neste grafo é composta apenas de pares de vértices vizinhos, representados como i j. Assim, uma distribuição de probabilidade para as imagens x que possui a propriedade de Markov com respeito a este grafo e esta estrutura de vizinhança se ela é uma distribuição da seguinte forma: f(x) exp ψ ij (x i, x j ) Por exemplo, a distribuição de Ising é dada pela expressão f(x) exp βx i x j = exp (β(n s N u )) onde N s e N u são os números de pares de vizinhos com as mesmas cores e com cores diferentes, respectivamente. Assim, na distribuição de Ising tomamos ψ i,j (x i, x j ) = βx i x j. Note que o valor de β é um só, não depende da região da figura (isto é, não depende dos pixels i e j). 3

4 Exercício: Mostre que a distribuição de Ising pode ser escrita como f(x) exp (β N s ) = exp βi[x i = x j ] onde I[x i = x j ] é a função indicadora de que x i e x j são iguais (ambos pretos ou ambos brancos). Esta maneira de exprimir a distribuição de probabilidade mostra claramente que, se β > 0, isto implica que as configurações com um grande número de pares de vizinhos com cores iguais terão mais probabilidade de ocorrer. O efeito de aumentar muito o valor de β é colocar quase toda a massa de probabilidade em configurações com praticamente todos os pixels pretos ou com todos os pixels brancos. Exercício: Se f(x) é a distribuição de Ising, obtenha a condicional completa f(x i x i ), a distribuição do valor x i do pixel i dados os valores x i de todos os outros pixels componentes da imagem. Verifique que ela depende apenas dos pixels vizinhos de i. Exercício: Começando com uma configuração aleatória pretos e usando β = 0.25 e β = 0.40, gere algumas configurações seguindo a numa matriz Começando com uma configuração aleatória e usando a distribuição condicional completa de cada pixel, podemos usar o amostrador de Gibbs para gerar novas configurações. Após um período de burn-in, teremos uma configuração selecionada pelo modelo de Ising. Entretanto, o algoritmo do amostrador de Gibbs é bastante lento. Ao atualizar um único pixel de cada vez, ele leva em conta os outros pixels vizinhos. Mesmo após percorrer todos os pixels na imagem, a nova configuração simulada será muito similar à anterior. Isto significa que vai demorar um longo período de burn-in para que a imagem inicial perca a sua influência. Uma maneira de acelerar dramaticamente o processo é usar um truque baseado na topologia regular do grafo associado com a imagem. Pense nos pixels particionados em dois grupos como num tabuleiro de xadrez: um conjunto S 1 de pixels correspondentes às posições pretas do tabuleiro de xadrez e um outro conjuntos S 2 correspondente às posições brancas da tabuleiro. Seja x S1 o sub-vetor com os elementos da imagem x que pertencem aos pixels em S 1. Veja que a vizinhança de um pixel i S 2 é formada por pixels j S 1. Exercício: Argumente que, por causa da propriedade de Markov e da última observação acima, dadas as cores dos pixels em S 1, as cores dos pixels em S 2 são condicionalmente independentes: f(x S2 x S1 ) = f i (x i x S1 ) = f i (x i N i ) i S 2 i S 2 Isto permite atualizar simultanemente todos os pixels em S 2, dados os pixels em S 1. Como eles são condicionalmente independentes, podemos atualizar cada um dos pixels em S 2 sem nos importar com a atualização simulatânea que está sendo feita nos demais pixels em S 2. Evidentemente, após atualizar S 2, fixamos seus valores e atualizamos todos os pixels em S 1 simultaneamente. Itere o processo. Exercício: Escreva um novo script implementando o algoritmo acima baseado na partição da imagem em dois subconjuntos S 1 e S 2. Como antes, comece com uma configuração aleatória com aproximadamente 50% dos pixels pretos e usando β = 0.25 e β = 0.40, gere algumas configurações seguindo a distribuição de Ising numa matriz Recuperando uma imagem A Figura 3 mostra no seu lado esquerdo uma imagem em preto-e-branco. No lado direito vemos a mesma imagem corrompida por um ruído que a transforma uma imagem em tons de cinza. Observamos apenas 4

5 Figura 3: Imagem preto e branco original (esquerda) e corrompida por ruído gaussiano (meio). O gráfico da direita mostra a vizinhança formada por quatro vizinhos no formato do movimento do peão no xadrez. a imagem corrompida e desejamos obter automaticamente uma estimativa da imagem da esquerda, que supostamente não é observada. Seja x = (x 1, x 2,..., x MN ) a imagem original em preto-e-branco com x i = 1 ou x i = 1 se branco ou preto, respectivamente. Seja y = (y 1, y 2,..., Y MN ) a imagem corrompida. O modelo para y é o seguinte: para cada pixel i, some um ruído gaussiano N(0, σ 2 ) independentemente ao valor de x i. Isto é, (y x) i N(y i ; µ = x i, σ 2 ). Mais especificamente, de densidade de y dada a imagem original x é igual a f(y x) = ( 1 exp 1 ) ( ) i 2πσ 2σ 2 (y i x i ) 2 exp 1 2σ 2 (y i x i ) 2. i Vamos supor, por exemplo, que existam apenas 4 pixels, x = (1, 1, 1, 1). A função densidade do vetor Y avaliada no ponto y = (0.94, 0.07, 1.03, 0.18), f(y = (0.94, 0.07, 1.03, 0.18) x = (1, 1, 1, 1)), é então proporcional a ( exp 1 ( (0.94 1) 2 2σ 2 + (0.07 1) 2 + ( 1.03 ( 1)) 2 + ( 0.18 ( 1)) 2) ). Deseja-se recuperar x tendo observado y. Quais as imagens mais prováveis para x depois de ver y? Para isto, usando a regra de Bayes, temos p(x y) p(y x)p(x) O primeiro fator você já possui. distribuição de Ising dada por A escolha mais comum para o segundo fator (a priori para x) é a p(x) exp β x i x j supondo que β > 0. Exercício: Obtenha a distribuição a posteriori f(x y) f(y x)f(x). Usando o Teorema de Hammersley- Clifford, responda: esta distribuição de probabilidade possui a propriedade de Markov com respeito ao mesmo grafo de vizinhança da priori de Ising? (RESP: sim). 5

6 Exercício: Para obter as configurações x mais prováveis a posteriori, você pode usar novamente o amostrador de Gibbs. Obtenha p(x i x i, y) supondo que σ 2 e β sejam conhecidos. Lembre-se que x i é binário e portanto você deve gerar um novo valor para x i igual a -1 ou a 1. Exercício: Faça um script em R para recuperar uma imagem corrompida. Use os comandos abaixo para lidar com imagens (leia, corrompa e a seguir recupere a imagem). # EBImage is an R package which provides general purpose functionality # for the reading, writing, processing and analysis of images. # It has many special features for microscopy images. # See # To install this package, start R and enter: source(" bioclite("ebimage") # Load the package library("ebimage") # The function readimage is able to read images from files or URLs. # Current supported image formats are JPEG, PNG and TIFF. # change working directory to that where images are stored setwd("dir_name") # Read black-white image yy <- readimage("pure-yinyang.png") dim(yy) # saved as an array 3-dim to allow for color images (3 channels, r-g-b # intensities. However, in this case, it is redundant as all 3 slices # are identical. yy = yy[,,1] is.matrix(yy) yy display(yy) # values are between 0 and 1 range(yy) # changing to match the Exercise List (values = +1 or -1) # can manipulate image as a matrix yy = * yy # corrupting the image with an indep Gaussian noise N(0,1) in each pixel yyn = yy + matrix(rnorm(1024*1024, m=0, sd=2), ncol=1024, nrow=1024) display(yyn) # In case you want to save the noisy image 6

7 writeimage(yyn, "noisy-yinyang.png", quality=85) # Use you code now to recover the image. # The objects borders will not come out nice. # Other techniques are needed to deal with them. # Some of these other techniques are also Bayesian. Exercícios Para sua conveniência, repetimos aqui os exercícios que foram espalhados ao longo do texto. Veja algumas das soluções no fim do documento. 1. Mostre que a distribuição de Ising pode ser escrita como f(x) exp (β N s ) = exp βi[x i = x j ] onde I[x i = x j ] é a função indicadora de que x i e x j são iguais (ambos pretos ou ambos brancos). 2. Se f(x) é a distribuição de Ising, obtenha a condicional completa f(x i x i ). Verifique que ela depende apenas dos pixels vizinhos de i. 3. Argumente que, por causa da propriedade de Markov, dadas as cores dos pixels em S 1, as cores dos pixels em S 2 são condicionalmente independentes: f(x S2 x S1 ) = f i (x i x S1 ) = f i (x i N i ) i S 2 i S 2 4. Escreva um novo script implementando o algoritmo acima baseado na partição da imagem em dois subconjuntos S 1 e S 2. Como antes, comece com uma configuração aleatória com aproximadamente 50% dos pixels pretos e usando β = 0.25 e β = 0.40, gere algumas configurações seguindo a distribuição de Ising numa matriz Obtenha a distribuição a posteriori f(x y) f(y x)f(x). Usando o Teorema de Hammersley- Clifford, responda: esta distribuição de probabilidade possui a propriedade de Markov com respeito ao mesmo grafo de vizinhança da priori de Ising? (RESP: sim). 6. Para obter as configurações x mais prováveis a posteriori, você pode usar novamente o amostrador de Gibbs com o truque de codificação em dois subconjuntos S 1 e S 2. Obtenha p(x i x i, y) supondo que σ 2 e β sejam conhecidos. Lembre-se que x i é binário e portanto você deve gerar um novo valor para x i igual a -1 ou a Faça um script em R para recuperar uma imagem corrompida. Use os comandos mostrados no texto para ler, corromper e a seguir recuperar a imagem. Soluções dos exercícios 1. Mostre que a distribuição de Ising pode ser escrita como f(x) exp (β N s ) = exp β I[x i = x j ] 7

8 onde I[x i = x j ] é a função indicadora de que x i e x j são iguais (ambos pretos ou ambos brancos). Solução: A distribuição de Ising é dada por f(x) exp β x i x j O produto x i x j possui apenas dois valores possíveis: { 1 se xi x x i x j = j, +1 se x i = x j, Temos um total T de pares de pixels. Deste total, podemos classificar os pares em dois subconjuntos. Um deles, com os dois pixels tendo sinais iguais. Suponha que existam N s = I[x i = x j ] deles. O outro, com os pares tendo sinais distintos (com N u = T N s deles). Assim, o expoente da distribuição de Ising fica βx i x j = β(n s N u ) = β(n s (T N s )) = β(2n s T ) Como T é fixo (não depende da configuração x),a distribuição de Ising pode ser reescrita com uma nova constante de proporcionalidade: f(x) exp βx i x j = exp (β(2n s T )) = exp(βt ) exp (2βN s )) exp (β N s )) onde β = 2β já que exp(βt ) é uma constante com respeito a x. 2. Se f(x) é a distribuição de Ising, obtenha a condicional completa f(x i x i ). Verifique que ela depende apenas dos pixels vizinhos de i. Solução: Para obter a condicional completa f(x i x i ), a partir da distribuição conjunta de x, jogue fora todos os fatores multiplicativos que não envolvem o pixel i. Para um pixel fora das bordas da imagem temos f(x i x i ) f(x) exp β ( ) I[x k = x j ] exp βi[x i = x k ] = exp (βn i ) k j onde n i é o número de vizinhos do pixel i com a mesma cor indicada por x i. Por exemplo, f(x i = +1 x i ) exp ( βn +1 ) i onde n +1 i é o número de vizinhos de i com cor +1. Assim, encontramos que k i +1 se n +1 i = 0, e β se n +1 i = 1, f(x i = +1 x i ) e 2β se n +1 i = 2, e 3β se n +1 i = 3, e 4β se n +1 i = 4, 8

9 Para normalizar os valores acima, não podemos somar os cinco valores acima! Veja que temos cinco distribuições de probilidade acima, uma para cada número de vizinhos iguais a 1. Para encontrar a normalização correta, devemos obter a probabilidade condicional de x i = 1: f(x i = 1 x i ) exp ( βn 1 i onde n 1 i é o número de vizinhos de i com cor 1. Para um pixel no interior da imagem, temos n 1 i = 4 n +1 i. Assim, f(x i = 1 x i ) +1 se n 1 i = 0 ou n +1 e β e 2β e 3β e 4β ) se n 1 i = 1 ou n +1 se n 1 i = 2 ou n +1 se n 1 i = 3 ou n +1 se n 1 i = 4 ou n +1 i = 4, i = 3, i = 2, i = 1, i = 0, Juntando as duas pontas, podemos finalmente obter a distribuição condicional completa de um pixel x i no interior da imagem: 1 se n +1 1+e 4β i = 0, e β = 1 se n +1 e β +e 3β 1+e 2β i = 1, e f(x i = +1 x i ) 2β = 1 e 2β +e 2β 2 se n +1 i = 2, e 3β 1 = se n +1 e 3β +e β 1+e 2β i = 3, e 4β e 4β +1 = 1 se n +1 1+e 4β i = 4, Para um pixel nas bordas da imagem, o raciocínio é similar, devendo-se apenas levar em conta que o número total de vizinhos é igual a 3 ou a Começando com uma configuração aleatória com aproximadamente 50% dos pixels pretos e usando β = 0.25 e β = 0.40, gere algumas configurações seguindo a distribuição de Ising numa matriz Use o amostrador de Gibbs. 4. Argumente que, por causa da propriedade de Markov, dadas as cores dos pixels em S 1, as cores dos pixels em S 2 são condicionalmente independentes: f(x S2 x S1 ) = f i (x i x S1 ) = f i (x i N i ) i S 2 i S 2 Solução: Seja x S1 o sub-vetor com os elementos da imagem x que pertencem aos pixels em S 1. A vizinhança de um pixel i S 2 é formada por pixels j S 1. Assim, pela propriedade de Markov, se i e i pertencem a S 2, teremos p(x i x i, x S1 ) = p(x i x S1 ) e portanto x i x i condicionalmente em x S1. Generalizando psrs os demais pixels, temos o resultado desejado. 5. Escreva um novo script implementando o algoritmo baseado na partição da imagem em dois subconjuntos S 1 e S 2. Como antes, comece com uma configuração aleatória com aproximadamente 50% dos pixels pretos e usando β = 0.25 e β = 0.40, gere algumas configurações seguindo a distribuição de Ising numa matriz Solução: Abaixo, um script R para gerar rising <- function(n, beta, burnin=10, x=null) { ## n - imagem com dimensao n x n, n deve ser multiplo de 2 ## beta - parametro do modelo de Ising 9

10 ## burnin - numero de simulacoes iniciais descartadas ## x - matriz n x n de valores iniciais (opcional) if((n %% 2) > 0) stop("n deve ser multiplo de 2") ## x - valores iniciais {-1,1} simulados com ## probabilidade 0.5 para cada 1 x <- matrix(2*(0.5 > runif(n*n))-1, n) ## cod1 - primeiro conjunto de vertices cod1 <- seq(2, n, 2) ## cod2 - segundo conjunt de vertices cod2 <- seq(1, n, 2) ## loop para cada iteracao do Gibbs Sampler for (i in 1:burnin) { ## soma os vizinhos s <- cbind(x[,-1], 0) + cbind(0, x[,-n]) + rbind(x[-1,], 0) + rbind(0, x[-n,]) ## calcula exponencial e <- exp(2*beta*s) ## atualiza localizacoes codificadas como pontos x[cod1, cod2] <- 2*(e[cod1,cod2]/(1+e[cod1,cod2]) > runif((n*n)/4))-1 x[cod2, cod1] <- 2*(e[cod2,cod1]/(1+e[cod2,cod1]) > runif((n*n)/4))-1 ## atualiza a soma dos vizinhos s <- cbind(x[,-1], 0) + cbind(0, x[,-n]) + rbind(x[-1,], 0) + rbind(0, x[-n,]) e <- exp(2*beta*s) ## atualiza localizacoes codificadas como asteriscos x[cod2, cod2] <- 2*(e[cod2,cod2]/(1+e[cod2,cod2]) > runif((n*n)/4))-1 x[cod1, cod1] <- 2*(e[cod1,cod1]/(1+e[cod1,cod1]) > runif((n*n)/4))-1 } return(x) } im1 = rising(2^6, beta = -0.30, burnin=1000) # valores repelm uns aos outros im2 = rising(2^6, beta = 0.00, burnin=1000) # valores iid im3 = rising(2^6, beta = 0.20, burnin=1000) # certa correlacao positiva im4 = rising(2^6, beta = 0.35, burnin=1000) # mais correlacao positiva par(mfrow=c(2,2)) image(im1); title("beta = -0.20") image(im2); title("beta = 0.00") image(im3); title("beta = 0.20") image(im4); title("beta = 0.35") # Um valor muito grande de beta faz com que, no limite, a imagem fique # toda branca ou toda preta, dependendo da condicao inicial e de alguns # fatores casuais aolongo das simulacoes. par(mfrow=c(1,1)) 10

11 image(rising(2^6, beta = image(rising(2^6, beta = 0.50, burnin=1000)) 0.50, burnin=10000)) Figura 4: Configurações geradas por Gibbs sampler a partir do moelo de Ising com diferentes valores para β. 6. Obtenha a distribuição a posteriori f(x y). Usando o Teorema de Hammersley-Clifford, responda: esta distribuição de probabilidade possui a propriedade de Markov com respeito ao mesmo grafo de vizinhança da priori de Ising? (RESP: sim). Solução: Pelo teorema de Bayes, f(x y) f(y x)f(x) N(x i, σ 2 ) exp β x i x j exp 1 2σ 2 i Se definirmos ψ ij (x i,j ) = βx i x j (y i x i ) 2 2σ 2 n i (y j x j ) 2 2σ 2 n j onde n i é o número de vizinhos do pixel i, teremos f(x y) exp ψ i,j (x i,j ) NM i=1(y i x i ) 2 + β x i x j 7. Para obter as configurações x mais prováveis a posteriori, você pode usar novamente o amostrador de Gibbs com o truque de codificação em dois subconjuntos S 1 e S 2. Obtenha p(x i x i, y) supondo que σ 2 e β sejam conhecidos. Lembre-se que x i é binário e portanto você deve gerar um novo valor para x i igual a -1 ou a 1. Solução: A partir da distribuição p(x y) podemos obter facilmente p(x i x i, y) exp 1 2σ 2 (y i x i ) 2 + βx i j:j i x j Assim, p(x i = +1 x i, y) exp 1 2σ 2 (y i 1) 2 + β j:j i x j 11

12 enquanto e portanto p(x i = +1 x i, y) = = p(x i = 1 x i, y) exp 1 2σ 2 (y i + 1) 2 + β ( exp 1 ( exp 1 2σ (y 2 i 1) 2 + β j:j i x j j:j i x j 2σ (y 2 i 1) 2 + β j:j i x j ) + exp exp ( 1 2σ (y 2 i 1) 2) exp ( 1 2σ (y 2 i 1) 2) + exp ( 1 2σ (y 2 i + 1) 2) e 2β j:j i xj 8. Faça um script em R para recuperar uma imagem corrompida. Solução: ) ( 1 2σ 2 (y i + 1) 2 + β j:j i x j restoration.ising <- function(im, beta, sigma, nsim=10, x=2*(yyn > 0)-1){ ## im - imagem com dimensao n x n, n deve ser multiplo de 2 ## beta - parametro do modelo de Ising ## nsim - numero de simulacoes iniciais descartadas ## x - matriz n x n de valores iniciais (opcional) d = dim(im) if(d[1]!= d[2]) stop("imagem deve ser quadrada") n = d[[1]] if((n %% 2) > 0) stop("n deve ser multiplo de 2") ## cod1 - primeiro conjunto de vertices cod1 <- seq(2, n, 2) ## cod2 - segundo conjunto de vertices cod2 <- seq(1, n, 2) ## matriz com numerador de probabilidades de que x_i = +1 num = exp(-(yyn-1)^2/(2*sigma^2)) ## loop para cada iteracao do Gibbs Sampler for (i in 1:nsim) { ## soma os vizinhos (matriz como output) s = cbind(x[,-1], 0) + cbind(0, x[,-n]) + rbind(x[-1,], 0) + rbind(0, x[-n,]) ## calcula exponencial (em forma de matriz) e = exp(-2*beta*s) ## atualiza probabilidades (matriz) de que x_i = +1 prob = num/(num + exp(-(yyn+1)^2/(2*sigma^2))*e) ## atualiza localizacoes codificadas como pontos x[cod1, cod2] = 2*rbinom(length(x[cod1, cod2]), 1, prob[cod1, cod2]) - 1 x[cod2, cod1] = 2*rbinom(length(x[cod2, cod1]), 1, prob[cod2, cod1]) - 1 ## atualiza a soma dos vizinhos s <- cbind(x[,-1], 0) + cbind(0, x[,-n]) + rbind(x[-1,], 0) + rbind(0, x[-n,]) e <- exp(-2*beta*s) ) 12

13 ## atualiza probabilidades prob = num/(num + exp(-(yyn+1)^1/(2*sigma^2))*e) ## atualiza localizacoes codificadas como asteriscos x[cod2, cod2] <- 2*rbinom(length(x[cod2, cod2]), 1, prob[cod2, cod2])-1 x[cod1, cod1] <- 2*rbinom(length(x[cod1, cod1]), 1, prob[cod1, cod1])-1 } return(x) } im1 = restoration.ising(yyn, beta = 1.25, sigma=2, nsim=20) im2 = restoration.ising(yyn, beta = 1.25, sigma=2, nsim=20, x=im1) im3 = restoration.ising(yyn, beta = 1.25, sigma=2, nsim=20, x=im2) im4 = restoration.ising(yyn, beta = 1.25, sigma=2, nsim=20, x=im3) par(mfrow=c(2,2)) image(yyn) image(im2) image(im3) image(im4) 13

Markov random field - MRF. Renato Assunção DCC-UFMG A partir de material de J. Chang

Markov random field - MRF. Renato Assunção DCC-UFMG A partir de material de J. Chang Markov random field - MRF Renato Assunção DCC-UFMG A partir de material de J. Chang Processo e campo estocástico Processo estocástico: E uma coleção de v.a. s {X t : t T} T reta real, por e, um intervalo

Leia mais

Gibbs Sampler para ANOVA e Misturas

Gibbs Sampler para ANOVA e Misturas Gibbs Sampler para ANOVA e Misturas Renato Assunção - DCC, UFMG Outubro de 014 1 Modelo ANOVA: componentes de variância Suponha que temos K grupos ou classes. Em cada grupo, temos um certo número de dados

Leia mais

Renato Assunção - DCC, UFMG. 01 de Setembro de Considere a BN da Figura 1. Suponha que cada uma das variáveis no DAG seja uma v.a.

Renato Assunção - DCC, UFMG. 01 de Setembro de Considere a BN da Figura 1. Suponha que cada uma das variáveis no DAG seja uma v.a. a Prova - PGM Renato Assunção - DCC, UFMG 0 de Setembro de 206. Considere a BN da Figura. Suponha que cada uma das variáveis no DAG seja uma v.a. aleatória binária. Figure : Uma BN sem nome. Todas as variáveis

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

Modelos de Regressão

Modelos de Regressão Renato Martins Assunção DCC - UFMG 2015 Renato Martins Assunção (DCC - UFMG) 2015 1 / 19 Exemplo de preço de apto Y = y 1 y 2 y 1499 y 1500 b 0 1 1 1 1 + b 1 área 1 área 2 área 1499 área 1500 + b 2 idade

Leia mais

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Geração de Números Aleatórios Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 61 Simulando de Distribuições Discretas Assume-se que um

Leia mais

Técnicas computacionais em probabilidade e estatística II

Técnicas computacionais em probabilidade e estatística II Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco Métodos de Monte Carlo baseados em Cadeias de Markov:

Leia mais

Metropolis-Hastings. Renato Assunção DCC - UFMG

Metropolis-Hastings. Renato Assunção DCC - UFMG Metropolis-Hastings Renato Assunção DCC - UFMG Amostrador de Gibbs Pros: Método geral para amostrar de distribuição condicional p( y) Quase qualquer distribuição (condicoes de regularidade para convergência

Leia mais

Descodificação iterativa

Descodificação iterativa Sílvio A. Abrantes DEEC/FEUP 26 Descodificação iterativa 2 Descodificação de códigos LDPC por transferência de mensagens em grafos de Tanner Introdução Diagrama de blocos de um sistema genérico de codificação

Leia mais

Agrupamento de dados. Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral

Agrupamento de dados. Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral Agrupamento de dados Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral Dados e grafos Se temos dados x i, i 0... n, criamos

Leia mais

Lista de Exercícios - V.A.s Discretas

Lista de Exercícios - V.A.s Discretas Lista de Exercícios - V.A.s Discretas Renato Assunção - DCC, UFMG 207 Esta lista de exercícios visa ao aprendizado de algumas das características das principais distribuições de probabilidade discretas.

Leia mais

AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC

AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC 1 / 1 AGA 0505- Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC Laerte Sodré Jr. 1o. semestre, 2018 2 / 1 Inferência Bayesiana inferência bayesiana consideremos um conjunto de dados D que

Leia mais

I-maps. Renato Assunção DCC - UFMG

I-maps. Renato Assunção DCC - UFMG I-maps Renato Assunção DCC - UFMG Modelo gráfico para P Um foco deste curso: obter um grafo G que represente as propriedades estruturais de independência condicional entre as variáveis. Perguntas: quando

Leia mais

Metodologia de inversão

Metodologia de inversão 6 Metodologia de inversão Nesta tese, a transformação de velocidades em pressão de poros é encarada como um problema de inversão. Pela natureza do problema, essa transformação apresenta caráter não único

Leia mais

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33 Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto

Leia mais

Sexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo

Sexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo Sexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo Antônio Carlos Roque da Silva Filho e Cristiano R. F. Granzotti 26 de junho de 2017 Os exercícios desta lista devem ser resolvidos

Leia mais

1 x. = π 2. pois. Probabilidade: um curso introdutório - Mônica Barros - Capítulo 7 - Soluções

1 x. = π 2. pois. Probabilidade: um curso introdutório - Mônica Barros - Capítulo 7 - Soluções Soluções - Capítulo 7 Lista semestre 000.0:, 3, 5 a, 5, 6, 7,, 4, 5 Problema Ache a mediana das densidades Qui-quadrado com e graus de liberdade. A densidade Qui-quadrado com n graus de liberdade é dada

Leia mais

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares 1 / 0 AGA 0505- Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares Laerte Sodré Jr. 1o. semestre, 018 modelos modelagem dos dados dado um conjunto de dados,

Leia mais

Fábio Protti - UFF Loana T. Nogueira - UFF Sulamita Klein UFRJ

Fábio Protti - UFF Loana T. Nogueira - UFF Sulamita Klein UFRJ Fábio Protti - UFF Loana T. Nogueira - UFF Sulamita Klein UFRJ Suponha que temos um grupo de pessoas (funcionário de uma empresa) que serão submetidos a um treinamento. Queremos identificar os grupos de

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

MCMC - Amostrador de Gibbs

MCMC - Amostrador de Gibbs MCMC - Amostrador de Gibbs Renato Assunção - DCC, UFMG Outubro de 2017 1 Gerar amostra de vetor aleatório O Amostrador de Gibbs é o exemplo mais simples de método MCMC (Monte Carlo via Cadeia de Markov,

Leia mais

TEOREMAS LIMITE EM PROBABILIDADE RENATO ASSUNÇÃO DCC - UFMG

TEOREMAS LIMITE EM PROBABILIDADE RENATO ASSUNÇÃO DCC - UFMG TEOREMAS LIMITE EM PROBABILIDADE RENATO ASSUNÇÃO DCC - UFMG Referência para um estudo aprofundado das questões (e demonstrações das afirmações feitas aqui) LIMITE DE NÚMEROS REAIS Sequência de números

Leia mais

Exercícios de matemática - revisão

Exercícios de matemática - revisão Exercícios de matemática - revisão Renato Assunção - DCC, UFMG 2015 Esta lista de exercícios visa a uma revisão de fatos básicos de matemática e probabilidade que serão necessários durante a disciplina.

Leia mais

Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados

Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados Erica Castilho Rodrigues 23 de Maio de 207 Introdução 2 3 Vimos como encontrar o EMV usando algoritmos numéricos. Duas possibilidades:

Leia mais

TEOREMAS LIMITE EM PROBABILIDADE RENATO ASSUNÇÃO DCC - UFMG

TEOREMAS LIMITE EM PROBABILIDADE RENATO ASSUNÇÃO DCC - UFMG TEOREMAS LIMITE EM PROBABILIDADE RENATO ASSUNÇÃO DCC - UFMG Referência para um estudo aprofundado das questões (e demonstrações das afirmações feitas aqui) LIMITE DE NÚMEROS REAIS Sequência de números

Leia mais

METAHEURÍSTICAS: 1 SIMULATED ANNEALING (S.A) 1.1 INTRODUÇÃO

METAHEURÍSTICAS: 1 SIMULATED ANNEALING (S.A) 1.1 INTRODUÇÃO 1 SIMULATED ANNEALING (S.A) 1.1 INTRODUÇÃO METAHEURÍSTICAS: É uma das primeiras metaheurísticas que foi utilizada com muito sucesso nos problemas complexos de pesquisa operacional. O S.A surgiu do campo

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Modelos gráficos probabilísticos Redes bayesianas Modelos gráficos probabilísticos Os modelos gráficos probabilísticos utilizam representações diagramáticas das distribuições de

Leia mais

Exercícios de programação

Exercícios de programação Exercícios de programação Estes exercícios serão propostos durante as aulas sobre o Mathematica. Caso você use outra linguagem para os exercícios e problemas do curso de estatística, resolva estes problemas,

Leia mais

Primeiro Exercício programa: Como o Google ordena páginas. MAP-2121 para EPUSP

Primeiro Exercício programa: Como o Google ordena páginas. MAP-2121 para EPUSP Primeiro Exercício programa: Como o Google ordena páginas MAP-2121 para EPUSP 1 Instruções gerais Os exercícios computacionais pedidos na disciplina Cálculo Numérico têm por objetivo fundamental familiarizar

Leia mais

IND 1115 Inferência Estatística Aula 6

IND 1115 Inferência Estatística Aula 6 Conteúdo IND 5 Inferência Estatística Aula 6 Setembro de 004 A distribuição Lognormal A distribuição Beta e sua relação com a Uniforme(0,) Mônica Barros mbarros.com mbarros.com A distribuição Lognormal

Leia mais

Probabilidade e Estatística

Probabilidade e Estatística Probabilidade e Estatística Aula 6 Distribuições Contínuas (Parte 02) Leitura obrigatória: Devore, Capítulo 4 Chap 6-1 Distribuições de Probabilidade Distribuições de Probabilidade Distribuições de Probabilidade

Leia mais

1 a Prova - PGM - 14/09/2017

1 a Prova - PGM - 14/09/2017 a Prova - PGM - 4/09/207 Renato Assunção - DCC, UFMG. Sejam A, B e C três eventos de Σ, todos eles com probabilidade positiva (isto e, P(A) > 0, > 0 e P(C) > 0). Mostre que P(A B C) = P(A B C)P(B C)P(C).

Leia mais

Inferência para CS Tópico 10 - Princípios de Estimação Pontual

Inferência para CS Tópico 10 - Princípios de Estimação Pontual Inferência para CS Tópico 10 - Princípios de Estimação Pontual Renato Martins Assunção DCC - UFMG 2013 Renato Martins Assunção (DCC - UFMG) Inferência para CS Tópico 10 - Princípios de Estimação Pontual

Leia mais

AGA Análise de Dados em Astronomia I. 2. Probabilidades

AGA Análise de Dados em Astronomia I. 2. Probabilidades 1 / 20 AGA 0505- Análise de Dados em Astronomia I 2. Probabilidades Laerte Sodré Jr. 1o. semestre, 2018 2 / 20 tópicos 1 probabilidades - cont. 2 distribuições de probabilidades 1 binomial 2 Poisson 3

Leia mais

Técnicas computacionais em probabilidade e estatística II

Técnicas computacionais em probabilidade e estatística II Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco AULA 1: Problemas Computacionais em Inferência Estatística.

Leia mais

Poliedros na forma padrão

Poliedros na forma padrão Poliedros na forma padrão Marina Andretta ICMC-USP 19 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211 - Otimização

Leia mais

AULA 7 - Inferência em MQO: ICs e Testes de

AULA 7 - Inferência em MQO: ICs e Testes de AULA 7 - Inferência em MQO: ICs e Testes de Hipóteses Susan Schommer Econometria I - IE/UFRJ Nosso primeiro objetivo aqui é relembrar a diferença entre estimação de ponto vs estimação de intervalo. Vamos

Leia mais

Espaço amostral Ω: Conjunto enumerável de todos os possíveis resultados de um experimento aleatório. um evento elementar. E = E[X j ] X j.

Espaço amostral Ω: Conjunto enumerável de todos os possíveis resultados de um experimento aleatório. um evento elementar. E = E[X j ] X j. Universidade Tecnológica Federal do Paraná Professor Murilo V G da Silva Notas de aula Algoritmos Avançados I (Aula 04 Conteúdos da aula: [CLR09: cap 7 e 9][MIE05 4, 5] Vamos estudar nesta aula três algoritmos

Leia mais

TP537 Transmissão Digital 1ª Avaliação 27/10/ :00h Prof. Dayan Adionel Guimarães. Aluno(a):

TP537 Transmissão Digital 1ª Avaliação 27/10/ :00h Prof. Dayan Adionel Guimarães. Aluno(a): TP537 Transmissão Digital ª Avaliação 7//4 8:h Prof. Dayan Adionel Guimarães ota: Aluno(a): ª questão (4 pontos) Prova com consulta ao livro texto, com duração de 3 horas. A interpretação é parte integrante

Leia mais

Métodos para geração de variáveis aleatórias

Métodos para geração de variáveis aleatórias Métodos para geração de variáveis aleatórias Cristiano de Carvalho Santos cristcarvalhosan@gmail.com Departamento de Estatística, Universidade Federal de Minas Gerais (UFMG) Introdução Por que é necessário

Leia mais

Modelos Espaço-Temporais

Modelos Espaço-Temporais p. Modelos Espaço-Temporais para Dados de Área Marco A. R. Ferreira (marco@im.ufrj.br) Universidade Federal do Rio de Janeiro http://www.dme.ufrj.br/marco Colaboração com Juan C. Vivar-Rojas p. Organização

Leia mais

Introdução ao tema das Redes Bayesianas

Introdução ao tema das Redes Bayesianas Introdução ao tema das Redes Bayesianas Seminário de Modelação Cátia Azevedo 25/01/2013 Índice Introdução Redes Bayesianas Aprendizagem Bayesiana Teorema de Bayes Distribuição de probabilidade conjunta

Leia mais

Exercícios: Vetores e Matrizes

Exercícios: Vetores e Matrizes Universidade Federal de Uberlândia - UFU Faculdade de Computação - FACOM Lista de exercícios de programação em linguagem C Exercícios: Vetores e Matrizes 1 Vetores 1. Faça um programa que possua um vetor

Leia mais

1 Classificadores Bayseanos Simples

1 Classificadores Bayseanos Simples Aula 12 - Classificadores Bayseanos Curso de Data Mining Sandra de Amo Classificadores Bayseanos são classificadores estatísticos que classificam um objeto numa determinada classe baseando-se na probabilidade

Leia mais

Renato Martins Assunção

Renato Martins Assunção Análise Numérica Erros, Extrapolação de Richardson e Quadratura Gaussiana Renato Martins Assunção DCC - UFMG 2012 Renato Martins Assunção (DCC - UFMG) Análise Numérica 2012 1 / 40 Análise do erro Sabemos

Leia mais

Lista 1 - PMR2300. Fabio G. Cozman 3 de abril de 2013

Lista 1 - PMR2300. Fabio G. Cozman 3 de abril de 2013 Lista 1 - PMR2300 Fabio G. Cozman 3 de abril de 2013 1. Qual String é impressa pelo programa: p u b l i c c l a s s What { p u b l i c s t a t i c void f ( i n t x ) { x = 2 ; p u b l i c s t a t i c void

Leia mais

Gauss-Seidel para Solução de Sistemas com Matrizes Banda Usando Armazenamento Especial

Gauss-Seidel para Solução de Sistemas com Matrizes Banda Usando Armazenamento Especial Universidade Federal do Espírito Santo Departamento de Informática Algoritmos Numéricos 2016/2 Profa. Claudine Badue Trabalho 1 Objetivos Gauss-Seidel para Solução de Sistemas com Matrizes Banda Usando

Leia mais

Processamento de Imagens. Segmentação por regiões

Processamento de Imagens. Segmentação por regiões Processamento de Imagens Segmentação por regiões Inúmeros Métodos Clusterização Baseados em histograma Detecção de bordas Crescimento de regiões Level Set Particionamento de grafos Watershed Baseados em

Leia mais

Teoria dos Grafos. Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada.

Teoria dos Grafos. Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada. Teoria dos Grafos Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada antunes@ibilce.unesp.br, socorro@ibilce.unesp.br Grafos e Algoritmos Preparado a partir do texto: Rangel, Socorro.

Leia mais

MAE GABARITO DA LISTA 2-04/10/2016

MAE GABARITO DA LISTA 2-04/10/2016 MAE5709 - GABARITO DA LISTA - 04/0/06 Exercício.7.5. Primeira Parte Seja P uma matriz de transição sobre um espaço de estados finito S. Mostre que uma distribuição π é invariante para P se e somente se

Leia mais

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: Espaços Euclidianos Espaços R n O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: R n = {(x 1,..., x n ) : x 1,..., x n R}. R 1 é simplesmente o conjunto R dos números

Leia mais

RESOLUÇÃO DCC-UFRJ MATEMÁTICA COMBINATÓRIA 2006/2 PROVA Considere a soma. S n = n 2 n 1

RESOLUÇÃO DCC-UFRJ MATEMÁTICA COMBINATÓRIA 2006/2 PROVA Considere a soma. S n = n 2 n 1 DCC-UFRJ MATEMÁTICA COMBINATÓRIA 2006/2 PROVA 1 1. Considere a soma S n = 1 2 0 + 2 2 1 + 3 2 2 + + n 2 n 1. Mostre, por indução finita, que S n = (n 1)2 n + 1. Indique claramente a base da indução, a

Leia mais

Modelos Multiparamêtricos via pacote LearnBayes e software R

Modelos Multiparamêtricos via pacote LearnBayes e software R Modelos Multiparamêtricos via pacote LearnBayes e software R Renato Santos da Silva Márcia D Elia Branco Universidade de São Paulo - USP Instituto de Matemática e Estatística - IME 4 de Abril de 2019 1

Leia mais

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31 Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31 Um teorema de grande importância e bastante utilidade em probabilidade

Leia mais

Aprendizado Bayesiano

Aprendizado Bayesiano Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado

Leia mais

Modelos de Markov Ocultos no Reconhecimento da Língua LIBRAS

Modelos de Markov Ocultos no Reconhecimento da Língua LIBRAS Modelos de Markov Ocultos no Reconhecimento da Língua LIBRAS Prof. Dr. Hemerson Pistori GPEC - Grupo de Pesquisa em Engenharia e Computação UCDB - Universidade Católica Dom Bosco Sumário Conceitos Fundamentais

Leia mais

Fundamentos Estatı sticos para Cie ncia dos Dados Ajuste de distribuic o es

Fundamentos Estatı sticos para Cie ncia dos Dados Ajuste de distribuic o es Fundamentos Estatı sticos para Cie ncia dos Dados Ajuste de distribuic o es Renato Martins Assunc a o DCC, UFMG - 2015 Plano do tópico Vamos aprender a verificar se uma amostra segue uma certa distribuição

Leia mais

Markov Switching Models. Profa. Airlane Alencar. Depto de Estatística - IME-USP. lane. Ref: Kim e Nelson (1999) e Hamilton (1990)

Markov Switching Models. Profa. Airlane Alencar. Depto de Estatística - IME-USP.   lane. Ref: Kim e Nelson (1999) e Hamilton (1990) Markov Switching Models Profa. Airlane Alencar Depto de Estatística - IME-USP www.ime.usp.br/ lane Ref: Kim e Nelson (1999) e Hamilton (1990) 1 Objetivo Mudança nos parâmetros de um modelo de regressão

Leia mais

Estudo sobre decodificação iterativa usando códigos de treliça

Estudo sobre decodificação iterativa usando códigos de treliça Revista de Engenharia e Pesquisa Aplicada, Volume 2, Número 1, 2016 Estudo sobre decodificação iterativa usando códigos de treliça Souza, I. M. M. Escola Politécnica de Pernambuco Universidade de Pernambuco

Leia mais

Renato Martins Assunção

Renato Martins Assunção Análise Numérica Renato Martins Assunção DCC - UFMG 2012 Renato Martins Assunção (DCC - UFMG) Análise Numérica 2012 1 / 84 Equação linear Sistemas de equações lineares A equação 2x + 3y = 6 é chamada linear

Leia mais

θ depende de um parâmetro desconhecido θ.

θ depende de um parâmetro desconhecido θ. 73 Método de Máxima Verosimilhança (Maximum Likelihood) Seja uma variável aleatória (v. a.) cuja densidade de probabilidade depende de um parâmetro desconhecido. Admite-se conhecida a forma de Exemplo

Leia mais

Cálculo das Probabilidades I

Cálculo das Probabilidades I Cálculo das Probabilidades I Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Função Geradora de Momentos 10/13 1 / 19 Calculamos algumas características da

Leia mais

p(x) Note que 1/p(x), que não depende de θ, funciona como uma constante normalizadora

p(x) Note que 1/p(x), que não depende de θ, funciona como uma constante normalizadora Capítulo 1 Introdução A informação que se tem sobre uma quantidade de interesse θ é fundamental na Estatística. O verdadeiro valor de θ é desconhecido e a idéia é tentar reduzir este desconhecimento. Além

Leia mais

Markov chain e MCMC. Renato Assunção DCC, UFMG

Markov chain e MCMC. Renato Assunção DCC, UFMG Markov chain e MCMC Renato Assunção DCC, UFMG Objetivo da aula Fornecer um introdução INFORMAL a processos estocásticos e cadeias de Markov Fornecer os elementos para entender porque os algoritmos de MCMC

Leia mais

Aula 4. Aula de hoje. Aula passada

Aula 4. Aula de hoje. Aula passada Aula 4 Aula passada Função de distribuição Bernoulli Sequência de v.a. Binomial, Geométrica, Zeta Valor esperado Variância Distribuição conjunta Independência de v.a. Aula de hoje Valor esperado condicional

Leia mais

Modelos Lineares Generalizados - Componentes do Modelo

Modelos Lineares Generalizados - Componentes do Modelo Modelos Lineares Generalizados - Componentes do Modelo Erica Castilho Rodrigues 01 de Abril de 2014 3 Vejamos agora quais as componentes de um Modelo Linear Generalizado. Temos um conjunto de variáveis

Leia mais

Revisão de Probabilidade

Revisão de Probabilidade 05 Mat074 Estatística Computacional Revisão de Probabilidade Prof. Lorí Viali, Dr. viali@mat.ufrgs.br http://www.ufrgs.br/~viali/ Determinístico Sistema Real Causas Efeito Probabilístico X Causas Efeito

Leia mais

Análise Bayesiana de Dados - Aula 1 -

Análise Bayesiana de Dados - Aula 1 - Análise Bayesiana de Dados - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência

Leia mais

Aprendizado por Instâncias Janelas de Parzen & Knn

Aprendizado por Instâncias Janelas de Parzen & Knn Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Aprendizado por Instâncias Janelas de Parzen & Knn David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Aprendizado por

Leia mais

Ajuste do modelo de regressão linear: Inferência Bayesiana, aspectos computacionais e seleção de variáveis.

Ajuste do modelo de regressão linear: Inferência Bayesiana, aspectos computacionais e seleção de variáveis. Ajuste do modelo de regressão linear: Inferência Bayesiana, aspectos computacionais e seleção de variáveis. João Daniel Nunes Duarte a, Vinícius Diniz Mayrink b a Estudante de Graduação, e-mail: joaodaniel@ufmg.br

Leia mais

Segunda Lista de Exercícios Cálculo de Probabilidades II Prof. Michel H. Montoril

Segunda Lista de Exercícios Cálculo de Probabilidades II Prof. Michel H. Montoril Exercício 1. Uma urna contém 4 bolas numeradas: {1, 2, 2, 3}. Retira-se dessa urna duas bolas aleatoriamente e sem reposição. Sejam 1 : O número da primeira bola escolhida; 2 : O número da segunda bola

Leia mais

Inferência Bayesiana Exata para Processos de Cox Level-Set

Inferência Bayesiana Exata para Processos de Cox Level-Set Inferência Bayesiana Exata para Processos de Cox Level-Set Bárbara da Costa Campos Dias 1 Flávio Bambirra Gonçalves 2 Resumo Este trabalho propõe uma metodologia de inferência exata para processos de Cox

Leia mais

Fundamentos Estatı sticos para Cie ncia dos Dados V.A. s I.I.D. e Transformc o es de v.a. s

Fundamentos Estatı sticos para Cie ncia dos Dados V.A. s I.I.D. e Transformc o es de v.a. s Fundamentos Estatı sticos para Cie ncia dos Dados V.A. s I.I.D. e Transformc o es de v.a. s Renato Martins Assunc a o DCC, UFMG Material do capítulo 6 das Notas de Aula Renato Assunção, DCC, UFMG Estatística

Leia mais

Projeções Multi-dimensionais

Projeções Multi-dimensionais Prof. Fernando V. Paulovich http://www.icmc.usp.br/~paulovic paulovic@icmc.usp.br Instituto de Ciências Matemáticas e de Computação (ICMC) Universidade de São Paulo (USP) 23 de setembro de 2010 Introdução

Leia mais

Processamento digital de imagens

Processamento digital de imagens Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 6 de outubro de 2016 Segmentação de imagens A segmentação

Leia mais

TÉCNICAS DE CODIFICAÇÃO DE SINAIS

TÉCNICAS DE CODIFICAÇÃO DE SINAIS TÉCNICAS DE CODIFICAÇÃO DE SINAIS COMPRESSÃO SEM PERDAS Evelio M. G. Fernández - 2010 Exemplo Símbolo Prob I II III IV A 1/2 00 0 0 0 B 1/4 01 11 10 01 C 1/8 10 00 110 011 D 1/8 11 01 1110 0111 Entropia

Leia mais

Inversão. Introdução à Simulação Estocás5ca usando R INF2035 PUC- Rio, Hélio Lopes Departamento de InformáAca PUC- Rio 4/25/13

Inversão. Introdução à Simulação Estocás5ca usando R INF2035 PUC- Rio, Hélio Lopes Departamento de InformáAca PUC- Rio 4/25/13 Introdução à Simulação Estocás5ca usando R INF2035 PUC- Rio, 2013.1 Departamento de InformáAca - PUC- Rio Hélio Lopes Departamento de InformáAca PUC- Rio Inversão Teorema: Sejam F : IR [0, 1] a função

Leia mais

Teoria dos Grafos Aula 22

Teoria dos Grafos Aula 22 Teoria dos Grafos Aula 22 Aula passada Caminho mais curto entre todos os pares Algoritmo de Floyd Warshall Programação dinâmica Aula de hoje Caminho mais curto Algoritmo de Bellman Ford Melhorias Caminho

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Simulação O que é simulação? Reprodução de um

Leia mais

OBMEP a Fase Soluções Nível 2. N2Q1 Solução

OBMEP a Fase Soluções Nível 2. N2Q1 Solução 1 N2Q1 Solução a) Com o número 92653 Mônica obteve a expressão 9 + 2 6 5 3. Efetuando primeiro a multiplicação e, em seguida, a divisão (ou então a divisão seguida da multiplicação), temos 9 + 2 6 5 3

Leia mais

Inferência Bayesiana

Inferência Bayesiana Inferência Bayesiana Joaquim Neto joaquim.neto@ufjf.edu.br www.ufjf.br/joaquim_neto Departamento de Estatística - ICE Universidade Federal de Juiz de Fora (UFJF) Versão 3.0 Joaquim Neto (UFJF) ICE - UFJF

Leia mais

Inteligência Artificial. Raimundo Osvaldo Vieira [DECOMP IFMA Campus Monte Castelo]

Inteligência Artificial. Raimundo Osvaldo Vieira [DECOMP IFMA Campus Monte Castelo] Inteligência Artificial Raimundo Osvaldo Vieira [DECOMP IFMA Campus Monte Castelo] Abordagem Estocástica para a Incerteza: Redes Bayesianas Usando a teoria das probabilidades, podemos determinar, frequentemente

Leia mais

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08 Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas

Leia mais

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Distribuições Condicionais 11/13 1 / 19 Em estudo feito em sala perguntamos aos alunos qual

Leia mais

Aula 19: Lifting e matrizes ideais

Aula 19: Lifting e matrizes ideais Aula 19: Lifting e matrizes ideais Otimização Linear e Inteira Túlio A. M. Toffolo http://www.toffolo.com.br BCC464/PCC174 2018/2 Departamento de Computação UFOP Previously... Branch-and-bound Formulações

Leia mais

Exercícios sobre algoritmos

Exercícios sobre algoritmos Exercícios sobre algoritmos Exercícios envolvendo estruturas de decisão Fazer um algoritmo para: 1) Receber um número do usuário e mostrar se esse número é par ou não par 2) Receber 3 valores numéricos,

Leia mais

ANÁLISE DE ALGORITMOS (INF 1721)

ANÁLISE DE ALGORITMOS (INF 1721) PUC-Rio Departamento de Informática Prof. Marcus Vinicius S. Poggi de Aragão (3WA) Horário: 2as. e 4as. 9-11hs (3WA) 3 de dezembro de 2016 Período: 2016.2 ANÁLISE DE ALGORITMOS (INF 1721) 3 a Lista de

Leia mais

CC-226 Aula 05 - Teoria da Decisão Bayesiana

CC-226 Aula 05 - Teoria da Decisão Bayesiana CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos

Leia mais

A resposta para este problema envolve a partição do conjunto de arestas de tal forma que arestas adjacentes não pertençam a um mesmo conjunto.

A resposta para este problema envolve a partição do conjunto de arestas de tal forma que arestas adjacentes não pertençam a um mesmo conjunto. 7 - Coloração de Arestas e Emparelhamentos Considere o seguinte problema: Problema - Ao final do ano acadêmico, cada estudante deve fazer um exame oral com seus professores. Suponha que existam 4 estudantes

Leia mais

Radiométricas. Alexandre Xavier Falcão. Instituto de Computação - UNICAMP

Radiométricas. Alexandre Xavier Falcão. Instituto de Computação - UNICAMP Operações Matemáticas e Transformações Radiométricas Instituto de Computação - UNICAMP afalcao@ic.unicamp.br Operações Matemáticas Sejam Î = (D I, I ) e Ĵ = (D J, J) duas imagens cinzas de mesmo domínio,

Leia mais

GABRIEL BUJOKAS

GABRIEL BUJOKAS APLICAÇÕES DE ÁLGEBRA LINEAR À COMBINATÓRIA GABRIEL BUJOKAS (GBUJOKAS@MIT.EDU) A gente vai discutir algumas das aplicações clássicas de álgebra linear à combinatória. Vamos começar relembrando alguns conceitos

Leia mais

EQUAÇÕES RELACIONAIS FUZZY E COMO RESOLVÊ-LAS

EQUAÇÕES RELACIONAIS FUZZY E COMO RESOLVÊ-LAS EQUAÇÕES RELACIONAIS FUZZY E COMO RESOLVÊ-LAS PEDRO ALADAR TONELLI 1. Introdução Nosso objetivo é apresentar de uma forma simples o procedimento para achar soluções de uma equação relacional fuzzy para

Leia mais

Um robô está num corredor. Ele possui um mapa do corredor mas não sabe onde está localizado. A parede do corredor e indistinta, exceto pelas portas.

Um robô está num corredor. Ele possui um mapa do corredor mas não sabe onde está localizado. A parede do corredor e indistinta, exceto pelas portas. Um robô está num corredor. Ele possui um mapa do corredor mas não sabe onde está localizado. A parede do corredor e indistinta, exceto pelas portas. O corredor possui 3 portas idênticas, exceto pelas sua

Leia mais

Processamento digital de imagens

Processamento digital de imagens Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Introdução Solução de equações não lineares

Leia mais

Capítulo 04. Erros de arredondamento e Truncamento (Parcial)

Capítulo 04. Erros de arredondamento e Truncamento (Parcial) Capítulo 04 Erros de arredondamento e Truncamento (Parcial) Objetivos do capítulo Entender a diferença entre acurácia e precisão. Aprender como quantificar o erro. Aprender a usar estimativas de erros

Leia mais

Lista de Exercícios 05 - V.A.s contínuas

Lista de Exercícios 05 - V.A.s contínuas Lista de Exercícios 05 - V.A.s contínuas Renato Assunção - CC, UFMG 2017 As funções no R para uma gaussiana são rnorm, dnorm, pnorm, qnorm. Se quisermos trabalhar com uma gaussiana Nµ, σ 2 ), com valor

Leia mais

Corte Máximo em Grafos Notas de aula de MAC-5727

Corte Máximo em Grafos Notas de aula de MAC-5727 Corte Máximo em Grafos Notas de aula de MAC-577 (Material Extra do Capítulo ) Prof. a Yoshiko Wakabayashi Versão pós-aula feita por Bruno Takahashi C. de Oliveira em 09/03/09 15 de agosto de 016 1 Definições

Leia mais

AGA Análise de Dados em Astronomia I. 2. Probabilidades

AGA Análise de Dados em Astronomia I. 2. Probabilidades 1 / 26 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 2. Probabilidades Laerte Sodré Jr. 1o. semestre, 2019 2 / 26 aula de hoje: 1 o que são 2 distribuições de 3 a distribuição normal ou gaussiana

Leia mais

Fundamentos da Teoria da Probabilidade

Fundamentos da Teoria da Probabilidade Fundamentos da Teoria da Probabilidade Edmar José do Nascimento (Princípios de Comunicações) http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Sinais Aleatórios

Leia mais