Cadeias de Markov. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
|
|
- João Braga Capistrano
- 5 Há anos
- Visualizações:
Transcrição
1 Cadeias de Markov Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 3 e 4 Taylor & Karlin 1 / 71
2 Cadeias de Markov Seja X 0, X 1,... um processo estocástico com espaço de estados finito ou infinito enumerável. Propriedade de Markov: a probabilidade de que a cadeia assuma um certo valor futuro, quando o seu estado atual é conhecido, não se altera se conhecemos os seu comportamento passado. Em termos probabilisticos, temos que Pr(X n+1 = j X 0 = i 0, X 1 = i 1,..., X n 1 = i n 1, X n = i) = Pr(X n+1 = j X n = i) = P n,n+1 i,j. 2 / 71
3 P n,n+1 i,j são chamadas probabilidades de transição a 1 passo. Quando as probabilidades de transição não dependem do tempo n, ou seja P n,n+1 i,j = P i,j, temos uma cadeia de Markov estacionária (com probabilidades de transição estacionária). A propriedade de Markov vale para uma sequencia de tempos, Distribuição de X n+1,..., X n+k só depende de X n 3 / 71
4 Matriz de transição As probabilidades de transição a 1 passo podem ser arranjadas em uma matriz de probabilidades de transição, P 00 P 01 P P = P 10 P 11 P As probabilidades P ij satisfazem as condições, P ij 0, i, j j=0 P ij = 1, i 4 / 71
5 As linhas da matriz P definem distribuições de probabilidades de X n+1 X n, n = 1, 2,.... A matriz será finita se a cadeia tem um número finito de estados. Uma cadeia de Markov fica completamente definida especificando-se sua matriz de transição e o estado inicial X 0. 5 / 71
6 Exemplo. Seja o processo estocástico {X n, n = 0, 1,... } tal que { 0, se chove no tempo n X n = 1, caso contrário com P(X n = 0 X n 1 = 0) = α e P(X n = 0 X n 1 = 1) = β Matriz de transição, [ ] α 1 α P = β 1 β 6 / 71
7 Exemplo. Suponha que o processo anterior tenha as seguintes probabilidades de transição, P(X n+1 = 0 X n = 0, X n 1 = 0) = 0.7 P(X n+1 = 0 X n = 0, X n 1 = 1) = 0.5 P(X n+1 = 0 X n = 1, X n 1 = 0) = 0.4 P(X n+1 = 0 X n = 1, X n 1 = 1) = 0.2 Como transformar este processo em uma cadeia de Markov? 7 / 71
8 Defina o processo, 0, se X n = 0, X n 1 = 0 1, se X Y n = n = 0, X n 1 = 1 2, se X n = 1, X n 1 = 0 3, se X n = 1, X n 1 = 1 Verifique que Y n é uma cadeia de Markov estacionária com espaço de estados {0, 1, 2, 3}. 8 / 71
9 Exemplo. Um processo estocástico {X n, n = 0, 1,... } que assume valores nos inteiros {..., 2, 1, 0, 1, 2,... } tal que P(X n = i + 1 X n 1 = i) = p P(X n = i 1 X n 1 = i) = 1 p é chamado de passeio aleatório. O passeio aleatório pode ser reescrito como, X n = X n 1 + Z n com P(Z n = 1) = p e P(Z n = 1) = 1 p. 9 / 71
10 Passeio aleatório com p = 0.6 X n n 10 / 71
11 Exemplo. No exemplo anterior calcule P(X 0 = 0, X 1 = 1, X 2 = 2) sendo P(X 0 = 0) = q. P(X 0 = 0, X 1 = 1, X 2 = 2) = P(X 2 = 2 X 1 = 1, X 0 = 0)P(X 1 = 1, X 0 = 0) = P(X 2 = 2 X 1 = 1)P(X 1 = 1 X 0 = 0)P(X 0 = 0) = p 2 q. 11 / 71
12 Exemplo. Em um jogo, o jogador só pode ganhar ou perder 1 unidade monetária a cada jogada com probabilidades p e 1 p. Ele é obrigado a abandonar o jogo se perder tudo ou ganhar a fortuna N. O processo estocástico {X n, n = 0, 1,... } sendo X n a fortuna do jogador no tempo n é um passeio aleatório com P(X n = i + 1 X n 1 = i) = p, i = 1,..., N 1 P(X n = i 1 X n 1 = i) = 1 p, i = 1,..., N 1 P(X n = 0 X n 1 = 0) = 1 P(X n = N X n 1 = N) = 1 Os estados 0 e N são chamados estados absorventes. 12 / 71
13 Questões de interesse: 1. Qual a probabilidade do jogador eventualmente perder tudo? 2. Qual o tempo esperado para o jogador eventualmente ganhar tudo? 13 / 71
14 Grafo representando a matriz de transição de uma cadeia de Markov com 5 estados / 71
15 Grafo representando a matriz de transição de uma cadeia de Markov com 9 estados / 71
16 Transição em mais de um passo Qual a probabilidade de uma cadeia de Markov estacionária ir do estado i para o estado j em n passos? Pr(X n+m = j X m = i) =? }{{} P (n) ij P (n+m) ij = k P (n) ik P(m) kj P (n+m) = P (n) P (m) P (1) = P, P (2) = P (1) P (1) = PP = P 2 16 / 71
17 Por indução, P (n) = P (n 1+1) = P (n 1) P (1) = PP (n 1) = PP n 1 = P n Conclusão: P (n) = P n 17 / 71
18 Exemplo. Seja uma cadeia de Markov {X n, n = 0, 1,... } com estados {0, 1, 2} e matriz de transição, Calcule P(X 3 = 1 X 1 = 0) e P(X 3 = 1 X 0 = 0). 18 / 71
19 Exemplo. A probabilidade de chover em um dia depende de ter chovido ou não nos 2 dias anteriores. Dado que choveu segunda-feira e terça-feira qual a probabilidade de chover na quinta-feira? 19 / 71
20 Classificação dos Estados j é acessivel a partir de i se P (n) ij > 0 para algum n 0. i e j se comunicam (i j) se são acessiveis um a partir do outro. Se i e j não se comunicam então, P (n) ij = 0, n 0 ou P (n) ji = 0, n 0 ou ambos i i, para todo estado i. Se i j então j i. Se i j e j k então i k. Estados que se comunicam formam uma classe de estados. Uma cadeia é irredutivel se tiver somente uma classe (todos os estados se comunicam). 20 / 71
21 Exemplo. Seja uma cadeia de Markov com estados {1, 2, 3, 4, 5} e a seguinte matriz de transição, 1/2 1/ /4 3/ /2 0 1/ Há 2 classes de estados que se comunicam: classe C 1 = {1, 2} e classe C 2 = {3, 4, 5}. Pr(X n = j X 0 = i) = Pr(X n = i X 0 = j) = 0, se j C 2 e i C 1, n / 71
22 Exemplo. Seja um passeio aleatório com estados {0, 1, 2, 3, 4} e a seguinte matriz de transição, q 0 p q 0 p q 0 p Podemos identificar 3 classes: C 1 = {0}, C 2 = {1, 2, 3} e C 3 = {4}. 22 / 71
23 Estados recorrentes e transientes Em uma cadeia de Markov sejam, f i = P(X n = i X 0 = i) = P (n) ii, para algum n, N o número de retornos ao estado i. Então, Se f i = 1, o estado i é recorrente, e N =. Se f i < 1, o estado i é transiente. 23 / 71
24 Para um estado i transiente, existe uma probabilidade não nula de nunca retornar ao estado i. P(nunca retornar a i) = 1 f i > 0. N é o número retornos ao estado i até que nunca mais retorne ao estado i, N Geometrica (1 f i ) P(N = n X 0 = i) = f n 1 i (1 f i ). E(N X 0 = i) = 1 1 f i. 24 / 71
25 Teorema. O estado i é recorrente se somente se, n=1 P (n) ii = Equivalentemente, o estado i é transiente se somente se, n=1 P (n) ii <. 25 / 71
26 Propriedades Se o espaço de estados for finito, pelo menos um dos estados é recorrente. Se i j e i é recorrente então j também é recorrente. Recorrência e transiência são propriedades de classe. Se a cadeia for irredutivel e finita, todos os estados são recorrentes. 26 / 71
27 Exemplo. Verifique quais estados são transientes ou recorrentes nesta cadeia de Markov com estados {1, 2, 3, 4}. P = A cadeia é irredutivel pois todos os estados se comunicam. Portanto todos os estados são recorrentes. 27 / 71
28 Grafo representando a matriz de transição da cadeia de Markov do exemplo anterior / 71
29 Exemplo. Verifique quais estados são transientes ou recorrentes nesta cadeia de Markov com estados {1, 2, 3, 4, 5} P = / 71
30 Grafo representando a matriz de transição de uma cadeia de Markov com 5 estados / 71
31 Note que P (n) 5,5 = 1 2 n n=1 P (n) 5,5 <. Portanto o estado 5 é transiente. As classes são {1, 2}, {3, 4} e {5} portanto os outros estados são recorrentes. 31 / 71
32 Exemplo. Encontre os estados transientes e recorrentes. 1/3 0 1/ /3 1/2 1/4 1/ P = /4 1/4 1/ / / 71
33 Exemplo. Encontre as classes, os periodos e classifique os estados em transientes e recorrentes. P = /3 1/3 0 1/3 33 / 71
34 Periodicidade Exemplo. Seja uma cadeia de Markov com a seguinte matriz de transição, [ ] 0 1 P =. 1 0 Podemos verificar que, P (2) = [ ] 1 0, P (3) = 0 1 [ ] 0 1, P (4) = 1 0 [ ] 1 0, A cadeia oscila entre os estados e não vai convergir para uma distribuição limite. Dizemos que ela é periódica. 34 / 71
35 Definição. O periodo de um estado i, d(i), é o maior divisor comum no conjunto {n 1 : P (n) ii > 0}. Se P (n) ii = 0, n 1 define-se d(i) = / 71
36 Exemplo. Seja uma cadeia de Markov com estados {0, 1, 2, 3} e matriz de transição, P = Todos os estados têm periodo 4. Por exemplo, P (1) 00 = P (2) 00 = P(3) 00 = 0, P(4) 00 = 1 P (5) 00 = P (6) 00 = P(7) 00 = 0, P(8) 00 = 1. Então d(0) = mdc{4, 8, 12,... } = / 71
37 Realizações de uma cadeia de Markov com estados 0,1,2,3 de periodo igual a 4 estados tempo 37 / 71
38 Exemplo. Seja uma cadeia de Markov com estados {0, 1, 2, 3} e matriz de transição, P = Podemos calcular, P (1) 00 = 0, P (2) 00 = 0, P(3) 00 = 0, P(4) 00 = 0.5 P (5) 00 = 0, P (6) 00 = 0.25, P(7) 00 = 0, P(8) 00 = 1/8,... Portanto, d(0) = mdc{4, 6, 8,... } = / 71
39 Realizações de uma cadeia de Markov do exemplo estados tempo 39 / 71
40 Exemplo. Seja um passeio aleatório com estados {0, 1, 2, 3} e matriz de transição, P = q 0 p 0 0 q 0 p Todos os estados tem periodo 2? 40 / 71
41 Realizações de um passeio aleatorio com p = q = 1/2 estados tempo 41 / 71
42 Propriedades 1. Se i j então d(i) = d(j). 2. P (nd(i)) ii 3. Se P (m) ii > 0, para n grande. > 0 então P (m+nd(i)) ii > 0, para n grande. 42 / 71
43 Definição. Uma cadeia de Markov com estados 0, 1,..., N tal que d(i) = 1, i = 0, 1,..., N é chamada aperiódica. Neste caso, os retornos aos estados ocorrem em tempos irregulares. 43 / 71
44 Cadeias com distribuição limite Seja uma cadeia de Markov com as seguintes transições a 1 a 9 passos, i.e. P, P 2,..., [ ] [ ] [ ] [ ] [ ] [ ] [ ] [ ] [ ] / 71
45 Seja uma cadeia de Markov com as seguintes transições a 1, 2, 4, 8 e 16 passos, i.e. P, P 2, P 4, P 8, P / 71
46 Nos exemplos anteriores, as probabilidades dos estados parecem estar estabilizando. Será que existe uma distribuição limite? No caso geral será possivel obter esta distribuição limite, i.e. as probabilidades dos estados 0, 1,..., N? 46 / 71
47 Recorrência positiva Definição. Sejam {X n, n = 0, 1,... } uma cadeia de Markov com estados 0, 1,..., N e T = min{n 0; X n = i X 0 = i} o número de transições até retornar ao estado i dado que começou em i. i é recorrente positivo se for recorrente e E(T ) <. recorrência positiva é uma propriedade de classe. se a cadeia for finita, recorrência recorrência positiva. i recorrente positivo e aperiódico é chamado de ergódico. 47 / 71
48 Teorema. Se uma cadeia de Markov for irredutivel e ergódica, existe uma distribuição de probabilidades limite, π = (π 0, π 1,..., π N ), π j > 0, j = 0, 1,..., N, N π j = 1. j=0 que não depende do estado inicial. lim n P(X n = j X 0 = i) = π j 48 / 71
49 Teorema. A distribuição limite é a solução das equações, π 0 = π 1 = N π i P i0 i=0 N π i P i1 i=0. =. N π N = π i P in N π j = 1 j=0 i=0 49 / 71
50 Exemplo. Seja uma cadeia de Markov com 2 estados e matriz de transição, [ ] 1 a a, 0 < a, b < 1. b 1 b Verifique que as probabilidades limite são, π 0 = b a + b e π 1 = a a + b 50 / 71
51 Exemplo. Seja uma cadeia de Markov com matriz de transição, Devemos resolver o sistema de equações, π π 1 = π 2 1 cuja solução é [ ] 51 / 71
52 Cadeias Duplamente Estocásticas Definição. Uma matriz de transição com N estados 0, 1,..., N 1 é duplamente estocástica se P ij 0, N 1 i=0 P ij = 1, N 1 j=0 P ij = 1. Se P k ij > 0, i = 0, N 1 e j = 0, N 1 para algum k a cadeia é dita regular e sua distribuição limite é uniforme, π j = 1, j = 0,..., N 1. N 52 / 71
53 Exemplo. Seja uma cadeia de Markov com estados {0, 1, 2, 3, 4} que se move para a esquerda ou direita do estado atual com probabilidade 1/2. Se a cadeia está nos estados 0 ou 4 ela permanece com probabilidade 1/2. A matriz de transição é, que é duplamente estocástica e portanto, π j = 1/5, j = 0, 1, 2, 3, / 71
54 Exemplo. Seja uma cadeia de Markov com estados {0, 1} e matriz de transição, [ ] 0 1 P =. 1 0 A cadeia é duplamente estocástica e π = (1/2, 1/2) satisfaz às equações de equilibrio, π = πp. Porém a cadeia é periódica e não converge para π. 54 / 71
55 Cadeias com estados absorventes Seja X 0, X 1,... um cadeia de Markov tal que i 1,..., i k são estados absorventes, ou seja P(X n = i 1 X n 1 = i 1 ) = = P(X n = i k X n 1 = i k ) = 1. O tempo para a cadeia entrar num estado absorvente é, T = min{n 0; X n = i 1 ou X n = i 2 ou... X n = i k }. 55 / 71
56 1. Qual a probabilidade da cadeia eventualmente entrar num estado absorvente? P(X T = j X 0 = m), j {i 1,..., i k }, m {i 1,..., i k }. 2. Qual o tempo médio para a cadeia entrar em um dos estados absorvente? E(T X 0 = m), m {i 1,..., i k }. 56 / 71
57 Exemplo. Seja uma cadeia com estados 0,1,2 e matriz de transição P = α β γ P(X T = 0 X 0 = 1) = i=0,1,2 = i=0,1,2 P(X T = 0, X 1 = i X 0 = 1) P(X T = 0 X 1 = i)p(x 1 = i X 0 = 1) = P(X T = 0 X 1 = 0)P 10 + P(X T = 0 X 1 = 1)P 11 + P(X T = 0 X 1 = 2)P / 71
58 Como P(X T = 0 X 1 = 0) = 1 e P(X T = 0 X 1 = 2) = 0 segue que, P(X T = 0 X 0 = 1) = P 10 + P(X T = 0 X 1 = 1)P 11 Definindo u = P(atingir o estado 0 a partir do estado 1), então u = α + uβ u = α 1 β. 58 / 71
59 O tempo médio até atingir um estado absorvente a partir do estado 1 é, E(T X 0 = 1) = 1 + E(T X 1 = 1) = 1 + E(T X 2 = i, X 1 = 1)P(X 2 = i X 1 = 1) i=0,1,2 = 1 + E(T X 2 = 0, X 1 = 1)P 10 + E(T X 2 = 1, X 1 = 1)P 11 + E(T X 2 = 2, X 1 = 1)P / 71
60 Note que E(T X 2 = 0, X 1 = 1) = E(T X 2 = 2, X 1 = 1) = 0. Portanto, E(T X 0 = 1) = 1 + E(T X 2 = 1, X 1 = 1)β Denotando este tempo médio por v então, v = 1 + vβ v = 1 1 β. 60 / 71
61 Caso Geral Seja X 1, X 2,... uma cadeia de Markov com estados {0, 1,..., N}. Para qualquer estado absorvente k e qualquer estado transiente i, = = N Pr(X T = k X 0 = i) = Pr(X T = k, X 1 = j X 0 = i) j=0 N Pr(X T = k X 1 = j, X 0 = i)pr(x 1 = j X 0 = i) j=0 N Pr(X T = k X 1 = j)p ij j=0 61 / 71
62 Mas, 0, se j k, j absorvente Pr(X T = k X 1 = j) = 1, se j = k u j, se j k, j transiente Portanto, Pr(X T = k X 0 = i) = P ik + j u j P ij sendo a soma para j transiente. 62 / 71
63 Exemplo. Seja um passeio aleatório com 5 estados e probabilidades de transição, Pr(X n+1 = i + 1 X n = i) = p i Pr(X n+1 = i 1 X n = i) = q i Pr(X n+1 = i X n = i) = r i tais que, r 0 > 0, p 0 > 0, r 0 + p 0 = 1 r i > 0, p i > 0, q i > 0, r i + p i + q i = 1, i = 1, 2, / 71
64 Grafo de Passeio Aleatório com 5 estados / 71
65 Problema do jogador Jogador A possui uma fortuna de i unidades e joga contra o jogador B. Em cada jogada, o jogador A ganha 1 unidade com probabilidade p i, perde 1 unidade com probabilidade q i, ou permanece com i unidades com probabilidade r i q 1 r 1 p P = 0 q 2 r 2 p / 71
66 Caso particular, jogadas identicas e sem empate q 0 p 0... P = 0 q 0 p Qual a probabilidade de ruina do jogador A? 66 / 71
67 Seja X n uma cadeia de Markov com estados 0, 1,..., N que representa a fortuna do jogador A. Então, Note que, P(ruina do jogador A) = P(X T = 0 X 0 = i) = u i. u 0 = P(X T = 0 X 0 = 0) = 1 u N = P(X T = 0 X 0 = N) = / 71
68 Para i = 1,..., N 1, P(X T = 0 X 0 = i) = k P(X T = 0, X 1 = k X 0 = i), k {i 1, i + 1} Portanto, u i = k P(X T = 0 X 1 = k, X 0 = i)p(x 1 = k X 0 = i) = P(X T = 0 X 1 = i 1) P(X 1 = i 1 X 0 = i) + P(X T = 0 X 1 = i + 1) P(X 1 = i + 1 X 0 = i) = u i+1 p + u i 1 q Por exemplo u 1 = u 2 p + q e u N 1 = u N 2 q. 68 / 71
69 Passeio aleatório simétrico..... p r p P =... 0 p r p p r p..... com 2p + r = / 71
70 Cadeias Reversíveis Seja {X n, n = 0, 1,... } uma cadeia de Markov estacionária e ergódica, com P(X n = j X n 1 = i) = P ij e lim n P(X n = i X 0 = k) = π i. Processo reverso,..., X m+1, X m, X m 1, X m 2,... também é uma cadeia de Markov com as mesmas probabilidades de transição. 70 / 71
71 Definição. Uma cadeia de Markov com distribuição limite π é reversivel se satisfaz às equações de equilibrio, para todos os estados i e j. π i P ij = π j P ji 71 / 71
Aula - Equações de Chapman-Kolmogorov
Equações de Chapman-Kolmogorov Prof. Magnos Martinello Aula - Equações de Chapman-Kolmogorov Universidade Federal do Esprito Santo-UFES 2011 Equações de Chapman-Kolmogorov 1/17 Introdução As equações de
Leia maisProcessos Estocásticos e Cadeias de Markov Discretas
Processos Estocásticos e Cadeias de Markov Discretas Processo Estocástico(I) Definição: Um processo estocástico é uma família de variáveis aleatórias {X(t) t T}, definidas em um espaço de probabilidades,
Leia maisROTEIRO DA APRESENTAÇÃO PROCESSOS ESTOCÁSTICOS
ROTEIRO DA APRESENTAÇÃO MODELOS ESTOCÁSTICOS APLICADOS À INDÚSTRIA Prof. Lupércio França Bessegato Departamento de Estatística Universidade Federal de Juiz de Fora lupercio.bessegato@ufjf.edu.br www.ufjf.br/lupercio_bessegato
Leia maisPropriedade Markoviana
Cadeias de Markov Cadeias de Markov É um tipo especial de processo estocástico, que satisfaz as seguintes condições: o parâmetro n é discreto (ex: tempo) o espaço de estados E é discreto (coleção de estados
Leia maisCadeias de Markov em Tempo Continuo
Cadeias de Markov em Tempo Continuo Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 6 Taylor & Karlin 1 / 44 Análogo ao processo
Leia maisClassificação de estados em uma cadeia de Markov. Professora Eliana Carvalho
Classificação de estados em uma cadeia de Markov Professora Eliana Carvalho Classificação de estados em uma cadeia de Markov Os estados de uma cadeia de Markov podem ser classificados com base na probabilidade
Leia maisTeoria de Filas Aula 10
Aula Passada Comentários sobre a prova Teoria de Filas Aula 10 Introdução a processos estocásticos Introdução a Cadeias de Markov Aula de Hoje Cadeias de Markov de tempo discreto (DTMC) 1 Recordando...
Leia maisMOQ-12 Cadeias de Markov
Instituto Tecnológico de Aeronáutica Divisão de Engenharia Mecânica-Aeronáutica MOQ-12 Cadeias de Markov Professora: Denise Beatriz T. P. do Areal Ferrari denise@ita.br Roteiro Introdução Processos Estocásticos
Leia maisTE802 Processos Estocásticos em Engenharia
TE802 Processos Estocásticos em Engenharia Cadeias de Markov 20/11/2017 Andrei Markov Em 1907, Andrei Markov iniciou um estudo sobre processos onde o resultado de um experimento depende do resultado de
Leia maisSe X t = 4 X t+1 = X t+2 =... = 4. Cadeias de Markov Classificação Cadeias ergódicas Cadeias com absorção
Nesta aula... Processos estocásticos 1 2 3 Processos estocásticos: Suponhamos que observamos um conjunto de caracteristicas de um sistema em instantes de tempo discretos 0, 1, 2,... A característica do
Leia maisAula 14. Aula de hoje. Aula passada
Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema
Leia mais1/7 1/ se hoje não chove, amanhã não vai chover com probabilidade p 00 = 6/7;
6/7 nao chove 1/7 chove 1/3 "0" /3 "1" Figura 1: Todas as transições com suas respectivas probabilidades representadas através de um grafo. Notem que para cada estado, a soma das probabilidades das flechas
Leia mais3. CADEIA DE MARKOV EM TEMPO DISCRETO
3. CADEIA DE MARKOV EM TEMPO DISCRETO 3. Definição Uma Cadeia de Markov em Tempo Discreto é um processo estocástico em que a variável t representa intervalos de tempo, { }e que segue a propriedade de Markov,
Leia mais4 Cadeias de Markov homogêneas
4 Cadeias de Markov homogêneas Conteúdo 4.1 Cadeias de Markov homogêneas............................ 157 4.1.1 2-SAT........................................ 14 4.1.2 Transiência, recorrência e periodicidade...................
Leia maisMAE GABARITO DA LISTA 2-04/10/2016
MAE5709 - GABARITO DA LISTA - 04/0/06 Exercício.7.5. Primeira Parte Seja P uma matriz de transição sobre um espaço de estados finito S. Mostre que uma distribuição π é invariante para P se e somente se
Leia mais1 Conceitos Iniciais. 1.1 Grafos
1 Conceitos Iniciais O objetivo deste capítulo é revisar conceitos básicos, mas fundamentais, sobre grafos, passeios aleatórios (random walks) com especial destaque aos passeios aleatórios sobre grafos
Leia maisPROCESSOS ESTOCÁSTICOS E APLICAÇÕES
PROCESSOS ESTOCÁSTICOS E APLICAÇÕES JOSÉ PEDRO GAIVÃO Conteúdo 1. Noções Gerais 2 1.1. Relembrar de teoria de probabilidades 2 1.2. Processos estocásticos 3 2. Esperança Condicional 5 2.1. Esperança condicional
Leia maisCadeias de Markov de Tempo Contínuo (CTMC)
Cadeias de Markov de Tempo Contínuo (CTMC) Cadeia de Markov Contínua (1) A análise de cadeias de Markov contínuas (CTMCs) é bem similar a análise em tempo discreto, com a diferença de que as transições
Leia maisCadeias de Markov e Campos Aleatórios Markovianos
UNIVERSIDADE DE SÃO PAULO INSTITUTO DE FÍSICA Cadeias de Markov e Campos Aleatórios Markovianos Wagner Gomes Rodrigues Junior Profª Drª Tania Tomé - IFUSP São Paulo 2009 Sumário 1 Cadeias de MarKov 1 SUMÁRIO
Leia maisUMA PITADA DE PASSEIOS ALEATÓRIOS
UMA PITADA DE PASSEIOS ALEATÓRIOS RENATO JACOB GAVA 1. Introdução Suponha que um jogador entre num cassino com 0 reais em dinheiro para apostar. Assuma que ele participe de um jogo que consiste de apostas
Leia maisProcessos Estocásticos
Processos Estocásticos Quarta Lista de Exercícios 12 de fevereiro de 2014 1 Sejam X e Y duas VAs que só podem assumir os valores 1 ou -1 e seja p(x, y) = P (X = x, Y = y), x, y { 1, 1} a função de probabilidade
Leia maisComo ganhar no Banco Imobiliário após infinitas jogadas
Como ganhar no Banco Imobiliário após infinitas jogadas Ian Bernardes Barcellos 16/10/2015 Ian Bernardes Barcellos Como ganhar no Banco Imobiliário após infinitas jogadas 16/10/2015 1 / 17 O Jogo Ian Bernardes
Leia maisModelos Probabilísticos de Desempenho. Profa. Jussara M. Almeida 1º Semestre de 2014
Modelos Probabilísticos de Desempenho Profa. Jussara M. Almeida 1º Semestre de 2014 Modelos Probabilísticos Processos Estocásticos Processos de Poisson Filas M/M/1, M/G/1... Mais genericamente: modelos
Leia maisNoções de Processos Estocásticos e Cadeias de Markov
Noções de Processos Estocásticos e Cadeias de Markov Processo Estocástico Definição: Processo Estocástico é uma coleção de variáveis aleatórias indexadas por um parâmetro t R (entendido como tempo). X={
Leia maisf(x t =x t )= F(X t =x t )/ x X 1 X 2 X 3 X 4 Representação Gráfica de um Processo Estocástico
CAÍTULO ROCESSOS ESTOCÁSTICOS - Introdução ) A variação de tráfego em um cruzamento que envolve a formação e dissipação de congestionamento de tráfego. ) A variação diária do nível de estoques de um determinado
Leia maisModelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2011
Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2011 Cadeias de Markov Em 1907, Andrew Markov iniciou um estudo sobre um modelo onde o resultado
Leia maisCadeias de Markov Introdução
Cadeias de Markov Introdução EAD 350 Pesquisa Operacional Segmento Modelos de Redes Prof. Nicolau Reinhard 1º Semestre de 2017 Referências básicas: Taha, H., Pesquisa Operacional 8ª edição, Pearson, Prentice
Leia maisProcessos Markovianos Introdução e Aplicações
Processos Markovianos Introdução e Aplicações Autores: Pedro Santana (04/35619) Yasmin Mendes (03/91158) Disciplina: Automação Controle para Prof.: Dr. João Yoshiyuki Sumário 1. Processos Estocásticos
Leia maisAlgoritmos Probabilísticos
Algoritmos Probabilísticos Gilson Evandro Fortunato Dias Orientador: José Coelho de Pina Universidade de São Paulo Instituto de Matemática e Estatística Departamento de Ciência da Computação MAC0499 p.
Leia maisModelagem e Avaliação de Desempenho
Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2016 Exemplos usados na apresentação foram obtidos de Introduction to Probability, C.M.Grinstead
Leia maisCadeias de Markov. 1. Introdução. Modelagem e Simulação - Cadeias de Markov
Cadeias de Markov. Introdução Nestas notas de aula serão tratados modelos de probabilidade para processos que evoluem no tempo de maneira probabilística. Tais processos são denominados Processos Estocásticos...
Leia maisNotas de Aula. Gustavo Henrique Silva Sarturi. i Z (1 i m) a j1 a j2
Notas de Aula Gustavo Henrique Silva Sarturi Matemática B - Em Ação gustavo.sarturi@ufpr.br 1 Matrizes Definição 1.1. Uma matriz A m n é um arranjo retangular de m n números reais (ou complexos) organizados
Leia maisModelagem e Avaliação de Desempenho
Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2018 Exemplos usados na apresentação foram obtidos de Introduction to Probability, C.M.Grinstead
Leia maisPROCESSOS ESTOCÁSTICOS
PROCESSOS ESTOCÁSTICOS Definições, Principais Tipos, Aplicações em Confiabilidade de Sistemas CLARKE, A. B., DISNEY, R. L. Probabilidade e Processos Estocásticos, Rio de Janeiro: Livros Técnicos e Científicos
Leia maisProcessos de Poisson
Processos de Poisson Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulo 5 Taylor & Karlin 1 / 37 Distribuição de Poisson Seja a variável
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aula passada Algoritmo para simular uma fila Medidas de interesse Média amostral Aula de hoje Teorema do Limite Central Intervalo de Confiança Variância amostral
Leia maisParte 1 - Matrizes e Sistemas Lineares
Parte 1 - Matrizes e Sistemas Lineares Matrizes: Uma matriz de tipo m n é uma tabela com mn elementos, denominados entradas, e formada por m linhas e n colunas. A matriz identidade de ordem 2, por exemplo,
Leia maisReviso de Teoria da Medida e Elementos Bsicos de Probabilidade
Reviso de Teoria da Medida e Elementos Bsicos de Probabilidade Roberto Imbuzeiro Oliveira 9 de Março de 2009 Resumo Esta lista cobre o básico do básico sobre espaços e distribuições de probabilidade. Pouco
Leia maisInferência Estatistica
Inferência Estatistica Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Modelos e Inferência Um modelo é uma simplificação da realidade (e alguns
Leia maisModelagem Computacional. Parte 2 2
Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 2 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 2 e 3] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,
Leia maisA cadeia de Markov na determinação de indicadores educacionais Applying Markov chain to determine educational indicators
A cadeia de Markov na determinação de indicadores educacionais Applying Markov chain to determine educational indicators A cadeia de Markov na determinação de indicadores educacionais Applying Markov chain
Leia maisSUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS
4 SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS Em muitos problemas de probabilidade que requerem o uso de variáveis aleatórias, uma completa especificação da função de densidade de probabilidade ou não está
Leia maisLista de Exercícios - SCE131
Lista de Exercícios - SCE131 Prof. Eduardo F. Costa - ICMC - USP http://www.icmc.usp.br/ efcosta Parte 1 - Cadeia de Markov (a tempo discreto) Exercício 1. Seja uma cadeia de Markov com probabilidades
Leia maisFundamentos de Matemática Curso: Informática Biomédica
Fundamentos de Matemática Curso: Informática Biomédica Profa. Vanessa Rolnik Artioli Assunto: sequências e matrizes 05 e 06/06/14 Sequências Def.: chama-se sequência finita ou n-upla toda aplicação f do
Leia mais1 Séries de números reais
Universidade do Estado do Rio de Janeiro - PROFMAT MA 22 - Fundamentos de Cálculo - Professora: Mariana Villapouca Resumo Aula 0 - Profmat - MA22 (07/06/9) Séries de números reais Seja (a n ) n uma sequência
Leia maisColectânea de Exercícios. Capítulo 4 Cadeias de Markov em Tempo Discreto
Licenciatura em Matemática Aplicada e Computação PROCESSOS ESTOCÁSTICOS 2002/03 Colectânea de Exercícios Capítulo 4 Cadeias de Markov em Tempo Discreto Exercício 41 Considere a cadeia de Markov {X n, n
Leia mais4 Medida de desempenho do gráfico de controle
4 Medida de desempenho do gráfico de controle Neste capítulo, são apresentadas as ferramentas que nos permitem comparar o desempenho do gráfico utilizado por Kang & Albin (2000) para monitorar perfis lineares,
Leia maisESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Introdução Solução de equações não lineares
Leia maisRenato Martins Assunção
Análise Numérica Renato Martins Assunção DCC - UFMG 2012 Renato Martins Assunção (DCC - UFMG) Análise Numérica 2012 1 / 84 Equação linear Sistemas de equações lineares A equação 2x + 3y = 6 é chamada linear
Leia maisModelo de Markov e Simulação de Monte Carlo do Jogo do Monopólio
Modelação e Simulação 2011/12 Trabalho de Laboratório nº4 Modelo de Markov e Simulação de Monte Carlo do Jogo do Monopólio Objectivo Após realizar este trabalho, o aluno deverá ser capaz de Construir um
Leia maisAPLICAÇÃO DO TEOREMA DO PONTO FIXO DE BANACH A UM PROBLEMA EM PROBABILIDADE 1
Disciplinarum Scientia. Série: Ciências Exatas, S. Maria, v.2, n.1, p.59-68, 2001 59 APLICAÇÃO DO TEOREMA DO PONTO FIXO DE BANACH A UM PROBLEMA EM PROBABILIDADE 1 APPLICATION OF BANACH FIXED POINT THEOREM
Leia maisExercícios-Desafio de AMIV
Exercícios-Desafio de AMIV Nota Importante: Não é recomendável e é altamente desaconselhado o investimento de tempo na tentativa de resolução destes exercícios por quem ainda não tenha resolvido com sucesso
Leia maisRevisão de Probabilidade
05 Mat074 Estatística Computacional Revisão de Probabilidade Prof. Lorí Viali, Dr. viali@mat.ufrgs.br http://www.ufrgs.br/~viali/ Determinístico Sistema Real Causas Efeito Probabilístico X Causas Efeito
Leia maisMaratona de Matemática
Maratona de Matemática - 8 Todos os problemas possuem a mesma pontuação ( pontos. Deve ser entregue apenas uma solução por equipe para cada problema. A prova possui 4 horas de duração. Considere um tabuleiro
Leia maisO problema do ponto mais visitado e a cadeia do viajante
O problema do ponto mais visitado e a cadeia do viajante The problem of the most visited point and the chain of the traveler ISSN 236-9664 Volume 8, dez. 206 Rogério César dos Santos FUP/UnB rogerc@unb.br
Leia maisAnálise I Solução da 1ª Lista de Exercícios
FUNDAÇÃO EDUCACIONAL SERRA DOS ÓRGÃOS CENTRO UNIVERSITÁRIO SERRA DOS ÓRGÃOS Centro de Ciências e Tecnologia Curso de Graduação em Matemática Análise I 0- Solução da ª Lista de Eercícios. ATENÇÃO: O enunciado
Leia maisO valor esperado de uma quantidade aleatória Paulo Cezar Pinto Carvalho IMPA e EMAp/FGV
O valor esperado de uma quantidade aleatória Paulo Cezar Pinto Carvalho IMPA e EMAp/FGV Um conceito simples e útil mas que não é normalmente explorado no Ensino Básico no Brasil é o de valor esperado de
Leia mais1 Probabilidade: Axiomas e Propriedades
1 Probabilidade: Axiomas e Propriedades 1.1 Definição Frequentista Considere um experimento aleatório que consiste no lançamento de um dado honesto. O espaço amostral desse experimento é Ω = {1, 2, 3,
Leia maisTestes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Testes de Hipóteses Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Introdução e notação Em geral, intervalos de confiança são a forma mais
Leia maisJogos de Campo Médio. Diogo A. Gomes (IST - Lisbon) Trabalho conjunto com J. Mohr e R. Sousa (UFRGS - Brasil)
Jogos de Campo Médio Diogo A. Gomes (IST - Lisbon) Trabalho conjunto com J. Mohr e R. Sousa (UFRGS - Brasil) 1 Os jogos de campo médio ( mean field games ) modelam situações de conflítuo/competição que
Leia maisTeoria dos Jogos. Prof. Maurício Bugarin ECO/UnB 2013-I. Aula 7 Teoria dos Jogos Maurício Bugarin. Cap. 2. Jogos Estáticos com Informação Completa
Teoria dos Jogos Prof Maurício Bugarin ECO/UnB 013-I Cap Jogos Estáticos com Informação Completa Roteiro Capítulo Jogos Estáticos com Informação Completa (Cap 1 do livro-texto) 1 A Forma Normal e o Conceito
Leia maisConvergência de matrizes estocásticas regulares
Convergência de matrizes estocásticas regulares Convergence of regular stochastic matrices ISSN 2316-9664 Volume 8, dez 2016 Edição Iniciação Científica Fabiano Borges da Silva Faculdade de Ciências, UNESP,
Leia maisÁlgebra Linear e Geometria Anaĺıtica
Álgebra Linear e Geometria Anaĺıtica 2016/17 MIEI+MIEB+MIEMN Slides da 1 a Semana de aulas Cláudio Fernandes (FCT/UNL) Departamento de Matemática 1 / 47 Cláudio Fernandes (FCT/UNL) Departamento de Matemática
Leia maisUNIVERSIDADE FEDERAL DO ABC
UNIVERSIDADE FEDERAL DO ABC BC49 Cálculo Numérico - LISTA - sistemas lineares de equações Profs André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda Métodos diretos Analise os sistemas
Leia maisUMA INTRODUÇÃO AOS PROCESSOS. Adrian Hinojosa e Aniura Milanés. Departamento de Estatística ICEx. UFMG.
UMA INTRODUÇÃO AOS PROCESSOS ESTOCÁSTICOS COM APLICAÇÕES Adrian Hinojosa e Aniura Milanés Departamento de Estatística ICEx. UFMG. Sumário Capítulo 1. Introdução 1 1. Definições e exemplos 1 2. O Processo
Leia maisAprendizado por Reforço
Aprendizado por Reforço Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendizado por Reforço 2. Q-Learning 3. SARSA 4. Outras ideias 1 Aprendizado por Reforço Problemas de decisão
Leia maisSéries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 4
em Econometria Departamento de Economia Pontifícia Universidade Católica do Rio de Janeiro Aula 4 O Processo Média-Móvel Muitas vezes, a estrutura auto-regressiva não é suficiente para descrever totalmente
Leia maisEsta monografia é uma versão eletrônica do minicurso ministrado em Julho de 1997 durante a realização do 10 o Colóquio Brasileiro de Matemática em
Esta monografia é uma versão eletrônica do minicurso ministrado em Julho de 1997 durante a realização do 10 o Colóquio Brasileiro de Matemática em Poços de Caldas, MG, Brasil Pedro J. Fernandez IMPA Outubro
Leia maisMarkov chain e MCMC. Renato Assunção DCC, UFMG
Markov chain e MCMC Renato Assunção DCC, UFMG Objetivo da aula Fornecer um introdução INFORMAL a processos estocásticos e cadeias de Markov Fornecer os elementos para entender porque os algoritmos de MCMC
Leia maisTestes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Testes de Hipóteses Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Introdução e notação Em geral, intervalos de confiança são a forma mais
Leia maisBinomiais e Primos. p p 2 + p 3 + p k. Demonstração. No produto n! = n, apenas os múltiplos de p contribuem com um fator p.
Polos Olímpicos de Treinamento Curso de Teoria dos Números - Nível 3 Carlos Gustavo Moreira Aula 16 Binomiais e Primos Começamos lembrando a Proposição 1 (Fatores do Fatorial) Seja p um primo Então a maior
Leia maisÉ o conjunto de resultados de uma experiência aleatória. E 1 : Joga-se uma moeda quatro vezes e observa-se o número de caras e coroas;
Prof. Lorí Viali, Dr. viali@pucrs.br http://www.pucrs.br/famat/viali Eperiência na qual o resultado é incerto. E : Joga-se uma moeda quatro vezes e observa-se o número de caras e coroas; E : Joga-se uma
Leia maisExercício Obtenha, em cada caso, o módulo, o argumento e a forma trigonométrica de z: a) z = 1 + i. setor Aula 31. ρ = 1 2 +( 3 ) 2 ρ= 2.
setor 0 00408 Aula NÚMEROS COMPLEXOS: PLANO DE ARGAND-GAUSS Até este ponto, usamos, para representar um número complexo a expressão a + b i, em que a e b são números reais e i é a unidade imaginária Com
Leia maisProcessos Estocásticos
Processos Estocásticos Luiz Affonso Guedes Sumário Modelos Probabilísticos Discretos Uniforme Bernoulli Binomial Hipergeométrico Geométrico Poisson Contínuos Uniforme Normal Tempo de Vida Exponencial Gama
Leia mais1 NOTAS DE AULA FFCLRP-USP - VETORES E GEOMETRIA ANALÍTICA. Professor Doutor: Jair Silvério dos Santos
FFCLRP-USP - VETORES E GEOMETRIA ANALÍTICA 1 NOTAS DE AULA Professor Doutor: Jair Silvério dos Santos (i) Matrizes Reais Uma matriz real é o seguinte arranjo de números reais : a 11 a 12 a 13 a 1m a 21
Leia maisProcessos Estocásticos. Luiz Affonso Guedes
Processos Estocásticos Luiz Affonso Guedes Sumário Modelos Probabilísticos Discretos Uniforme Bernoulli Binomial Hipergeométrico Geométrico Poisson Contínuos Uniforme Normal Tempo de Vida Exponencial Gama
Leia maisMESTRADO PROFISSIONAL EM MATEMÁTICA EM REDE NACIONAL. ENQ Gabarito. a(x x 0) = b(y 0 y).
MESTRADO PROFISSIONAL EM MATEMÁTICA EM REDE NACIONAL ENQ 016.1 Gabarito Questão 01 [ 1,00 ::: (a)=0,50; (b)=0,50 ] (a) Seja x 0, y 0 uma solução da equação diofantina ax + by = c, onde a, b são inteiros
Leia maisProbabilidade II. Departamento de Estatística. Universidade Federal da Paraíba
Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Variáveis Aleatórias Contínuas 14/10 1 / 25 VALE A PENA VER DE NOVO:Variáveis Aleatórias
Leia maisPolinômios com TN. Semana Olimpíca/ Nível 3. Prof. Armando Barbosa. 22 de janeiro de 2019
Polinômios com TN Semana Olimpíca/019 - Nível 3 Prof. Armando Barbosa de janeiro de 019 Há algum tempo, no mundo das olimpíadas de matemática, tem aparecido questões que misturam assuntos como, por exemplo,
Leia maisTE802 Processos Estocásticos em Engenharia. Informação sobre a disciplina Notes. Processos Estocásticos em Engenharia Conteúdo Notes.
TE802 Processos Estocásticos em Engenharia Conceitos Básicos de Teoria de Probabilidade 7 de março de 2016 Informação sobre a disciplina Terças e Quintas feiras das 09:30 às 11:20 horas Professor: Evelio
Leia maisOs números reais. Capítulo O conjunto I
Capítulo 4 Os números reais De todos os conjuntos numéricos que estudamos agora, a transição de um para outro sempre era construída de forma elementar A passagem do conjunto dos números racionais aos reais
Leia mais$QWyQLR-RVp%DWHO$QMR 0DULD5RViOLD'LQLV5RGULJXHV 'HSDUWDPHQWRGH0DWHPiWLFD'HSDUWDPHQWRGH0DWHPiWLFD 8QLYHUVLGDGHGH$YHLUR 8QLYHUVLGDGHGH&RLPEUD
V Congresso Anual Sociedade Portuguesa de Estatística Curia, 11 a 14 de Junho de 1997 $XWyPDWRV(VWRFiVWLFRVFRPR0RGHORGHXP 0pWRGRGH2SWLPL]DomR&RPELQDWyULD $QWyQLR-RVp%DWHO$QMR 0DULD5RViOLD'LQLV5RGULJXHV
Leia mais1 n s = s s s p s. ζ(s) = p
Introdução A chamada série harmónica, n= n = + 2 + 3 + +... desde cedo suscitou interesse entre os 4 matemáticos. Infelizmente esta série diverge, o que se verifica por os termos termo n, apesar de tenderem
Leia maisModelos Probabilisticos Discretos
Modelos Probabilisticos Discretos Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 30 A distribuição Uniforme Discreta Suponha um experimento
Leia maisContinuidade de processos gaussianos
Continuidade de processos gaussianos Roberto Imbuzeiro Oliveira April, 008 Abstract 1 Intrudução Suponha que T é um certo conjunto de índices e c : T T R é uma função dada. Pergunta 1. Existe uma coleção
Leia maisMétodos iterativos para sistemas lineares.
Métodos iterativos para sistemas lineares. Alan Costa de Souza 7 de Setembro de 2017 Alan Costa de Souza Métodos iterativos para sistemas lineares. 7 de Setembro de 2017 1 / 46 Introdução. A ideia central
Leia maisICMS/PE 2014 Resolução da Prova de Estatística Professor Fábio Amorim. ICMS PE 2014: Resolução da prova de Estatística Prof.
ICMS/PE 2014 Resolução da Prova de Estatística Professor Fábio Amorim 1 de 6 Pessoal, segue a resolução das questões de Estatística da prova realizada pela SEFAZ-PE, para o cargo de Auditor Fiscal do Tesouro
Leia maisTeoria da Medida e Integração (MAT505)
Transporte de medidas Teoria da Medida e Integração (MAT505) Transporte de medidas e medidas invariantes. Teorema de Recorrência de Poincaré V. Araújo Instituto de Matemática, Universidade Federal da Bahia
Leia maisANÁLISE DE SINAIS E SISTEMAS
ANÁLISE DE SINAIS E SISTEMAS AULA 2: :. Sinais de Tempo Contínuo e Sinais de Tempo Discreto; 2. Sinais Analógicos e Digitais; 3. Sinais Determinísticos e Sinais Aleatórios; 4. Sinais Pares e Sinais Ímpares;
Leia maisLEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100%
. Definição dos acontecimentos: M T-shirt tem manchas C T-shirt tem costuras defeituosas D T-shirt é defeituosa A Preço da t-shirt é alterado a) PM) = % PC) = 5% PM C) = % LEEC Probabilidades e Estatística
Leia maisUniversidade Federal de Santa Maria Departamento de Matemática Curso de Verão Lista 2. Sequências de Números Reais
Universidade Federal de Santa Maria Departamento de Matemática Curso de Verão 0 Lista Sequências de Números Reais. Dê o termo geral de cada uma das seguintes sequências: a,, 3, 4,... b, 4, 9, 6,... c,,
Leia maisAvaliação e programa de Álgebra Linear
Avaliação e programa de Álgebra Linear o Teste ( de Março): Sistemas de equações lineares e matrizes. Espaços lineares. o Teste ( de Maio): Matriz de mudança de base. Transformações lineares. o Teste (
Leia maisCapítulo 2. Variáveis Aleatórias e Distribuições
Capítulo 2 Variáveis Aleatórias e Distribuições Experimento Aleatório Não existe uma definição satisfatória de Experimento Aleatório. Os exemplos dados são de fenômenos para os quais modelos probabilísticos
Leia mais3. Variáveis aleatórias
3. Variáveis aleatórias Numa eperiência aleatória, independentemente de o seu espaço de resultados ser epresso numericamente, há interesse em considerar-se funções reais em Ω, denominadas por variáveis
Leia maisProcessos estocásticos
36341 - Introdução aos Processos Estocásticos Curso de Pós-Graduação em Engenharia Elétrica Departamento de Engenharia Elétrica Universidade de Brasília Processos estocásticos Geovany A. Borges gaborges@ene.unb.br
Leia maisTese de Doutorado. Otimização Multiobjetivo em Redes de Filas
Tese de Doutorado Otimização Multiobjetivo em Redes de Filas por Nilson Luiz Castelucio Brito Orientador: Frederico R. B. Cruz Coorientador: Anderson Ribeiro Duarte Março de 2013 ii Nilson Luiz Castelucio
Leia maisCONHECIMENTOS ESPECÍFICOS
ECT11_17_52N43767 Uma cadeia de Markov é denominada irredutível (ou ergódica) caso qualquer estado possa ser transformado em qualquer outro estado, não necessariamente em um único passo. Uma cadeia de
Leia maisPageRank Matriz do Google Referências. Matrizes e Google. Manuela da Silva Souza IME - USP. 13 de novembro de 2013
Matrizes e Google IME - USP 13 de novembro de 2013 História Motores de busca do final dos anos 90: Altavista, Lycos, Yahoo. Por volta de 98/99 surge o Google e se torna o motor de busca mais importante
Leia maisÁlgebra Linear e Aplicações - Lista para Primeira Prova
Álgebra Linear e Aplicações - Lista para Primeira Prova Nestas notas, X, Y,... são espaços vetoriais sobre o mesmo corpo F {R, C}. Você pode supor que todos os espaços têm dimensão finita. Os exercícios
Leia mais