TE802 Processos Estocásticos em Engenharia
|
|
|
- Aurélio Brunelli
- 6 Há anos
- Visualizações:
Transcrição
1 TE802 Processos Estocásticos em Engenharia Cadeias de Markov 20/11/2017
2 Andrei Markov Em 1907, Andrei Markov iniciou um estudo sobre processos onde o resultado de um experimento depende do resultado de um experimento anterior.
3 Processo Markoviano Processo Markoviano, X(t): Um processo aleatório é considerado Markoviano quando o estado futuro do processo dado o estado presente é independente do passado. Isto é, se para tempos arbitrários t 1 < t 2 <... < t k < t k+1, P[X(t k+1 ) = x k+1 X(t k ) = x k,...,x(t 1 ) = x 1 ] = P[X(t k+1 ) = x k+1 X(t k ) = x k ] Este tipo de Processo Estocástico é também denominado de memoryless process (processo sem memória), uma vez que o passado é esquecido (desprezado).
4 Processos Markoviano Exemplo Uma urna inicialmente contém cinco bolas pretas e cinco bolas brancas. O seguinte experimento é realizado indefinidamente: uma bola é retirada da urna, se a bola é branca, então é colocada novamente na urna, senão é retirada. X n é o número de bolas pretas restantes na urna após n retiradas da urna. a) X n é um processo Markoviano? Quais são as probabilidade de transição? b) As probabilidades de transição dependem de n?
5 Processos Markoviano Exercício Michael e Marisa inicialmente possuem quatro canetas cada. Do total de oito canetas, metade estão boas e metade não possuem mais tinta. O seguinte experimento é realizado indefinidamente: Michael e Marisa trocam uma caneta selecionada aleatoriamente. X n é o número de canetas boas de Marisa após n trocas. a) X n é um processo Markoviano? Quais são as probabilidade de transição? b) As probabilidades de transição dependem de n?
6 Cadeia de Markov Cadeia de Markov: Um Processo Markoviano é dito ser uma Cadeia de Markov quando as variáveis randômicas X n estão definidas em um espaço de estados discreto E = {e 1,e 2,...}. O processo inicia-se em um destes estados e se move sucessivamente de um estado para outro; A probabilidade de um processo estar no estado e j, dado que antes estava no estado e i, é dada por: P[X n+1 = e j X n = e i ] = p ij, este valor é fixo e não muda com o tempo. Esta probabilidade é chamada de probabilidade de transição.
7 Cadeia de Markov Diagrama de transição de estados p 00 p 11 p 22 p 01 p p 10 p 21 Matriz de transição de probabilidades de um passo p 00 p 01 0 P = p 10 p 11 p 12 0 p 21 p 22 A soma de cada linha da matriz de transição é igual a um.
8 Cadeia de Markov Probabilidade de transição de passo n A probabilidade do processo estar no estado e j após n passos, dado que seu estado inicial era e i, é dada por P n. p n P n 00 p n 01 p n 02 = p n 10 p n 11 p n 12 p n 20 p n 21 p n 22 Exemplos: A probabilidade que faça sol daqui dois dias se hoje está chovendo. A probabilidade de que haja uma falha num processo daqui uma semana, sendo que hoje ele está funcionando corretamente.
9 Cadeias de Markov Exercício Suponha que a função de um trabalhador em uma empresa pode ser classificada como pesquisador, trabalhador qualificado ou técnico. Monitorando as funções na empresa de uma dada família através de várias gerações. Obteve-se a conclusão que dos filhos de pesquisador, 80 % são pesquisadores, 10 % são trabalhadores qualificados e 10 % são técnicos. No caso de filhos de trabalhadores qualificados, 60 % são trabalhadores qualificados, 20 % são pesquisadores, e 20 % são técnicos. Finalmente, no caso de técnicos, 50 % dos filhos são técnicos, 25 % são trabalhadores qualificados e 25 % são pesquisadores. Suponha que cada trabalhador tem pelo menos um filho e formam uma cadeia de Markov. Qual é probabilidade de que um neto de um técnico ser um pesquisador?
10 Cadeia de Markov A probabilidade do processo estar no estado e j n passos adiante é dada por: p n = p 0 P n, onde p 0 é o vetor de probabilidade de estado inicial.
11 Cadeia de Markov Exemplo Uma cidade possui duas empresas de internet fixa. A empresa A tem uma probabilidade de 40% de ser escolhida. Entretanto, após um período de um ano apenas 30% escolhem a empresa A novamente. Os clientes que escolhem a empresa B, tem 50% de chance de ser escolhida novamente. Diagrama de transição de estados: 30% A 70% 50% Vetor de probabilidade de estado inicial B p 0 = [ ] Matriz de transição de um passo [ ] P = %
12 Cadeia de Markov Exemplo Quais são as probabilidades de um usuário usar os serviços das empresas A e B[ após um] período de um ano? p 1 = [ ]
13 Cadeia de Markov Exemplo Quais são as probabilidades de um usuário usar os serviços das empresas A e B[ após um] período de um ano? p 1 = [ ] p 1 A = = 0.42 = = 0.58 p 1 B Após um ano a probabilidade de um usuário estar usando a empresa A é de 42% e a empresa B de 58%.
14 Cadeia de Markov Exemplo Quais são as probabilidades de um usuário usar os serviços das empresas A e B após um período de três anos? ([ ]) p 3 = [ ]
15 Cadeia de Markov Exemplo Quais são as probabilidades de um usuário usar os serviços das empresas A e B após um período de três anos? ([ ]) p 3 = [ ] [ ] p 3 = [ ]
16 Cadeia de Markov Exemplo Quais são as probabilidades de um usuário usar os serviços das empresas A e B após um período de três anos? ([ ]) p 3 = [ ] [ ] p 3 = [ ] p 3 A = = = = p 3 B Após três anos a probabilidade de um usuário estar usando a empresa A é de 41.6% e a empresa B de 58.4%.
17 Cadeia de Markov Exemplo Quais são as probabilidades de estado permanente para cada uma das empresas? ([ ]) 3 [ ] P 3 = =
18 Cadeia de Markov Exemplo Quais são as probabilidades de estado permanente para cada uma das empresas? ([ ]) 3 [ ] P 3 = = ([ ]) 5 [ ] P 5 = =
19 Cadeia de Markov Exemplo Quais são as probabilidades de estado permanente para cada uma das empresas? ([ ]) 3 [ ] P 3 = = ([ ]) 5 [ ] P 5 = = ([ ]) 7 [ ] P 7 = =
20 Cadeia de Markov Exemplo Quais são as probabilidades de estado permanente para cada uma das empresas? ([ ]) 3 [ ] P 3 = = ([ ]) 5 [ ] P 5 = = ([ ]) 7 [ ] P 7 = = [ ] p 7 = [ ] p 7 A = = = = p 7 B
21 Cadeia de Markov Exemplo Quais são as probabilidades de estado permanente para cada uma das empresas? [ ] [p n A pn B ] = [pn A pn B ] p n A = 0.3pn A +0.5pn B p n B = 0.7pn A +0.5pn B p n A +pn B = 1
22 Cadeia de Markov Exemplo Quais são as probabilidades de estado permanente para cada uma das empresas? [ ] [p n A pn B ] = [pn A pn B ] p n A = 0.3pn A +0.5pn B p n B = 0.7pn A +0.5pn B p n A +pn B = 1 p n A = , pn B =
23 Cadeia de Markov Exemplo p 0 = [ ] p 0 = [ ] Empresa A Empresa B 0.8 Empresa A Empresa B Probabilidade Probabilidade Passos Passos
24 Cadeia de Markov Exemplo Caso a probabilidade de um usuário continuar na empresa B seja de 80%. Quais são as probabilidades de estado permanente para cada uma das empresas? 70% 30% A B 80% 20% Matriz de transição de um passo [ ] P =
25 Cadeia de Markov Exemplo Quais são as probabilidades de estado permanente para cada uma das empresas? [ ] [p n A pn B ] = [pn A pn B ] p n A = 0.3pn A +0.2pn B p n B = 0.7pn A +0.8pn B p n A +pn B = 1
26 Cadeia de Markov Exemplo Quais são as probabilidades de estado permanente para cada uma das empresas? [ ] [p n A pn B ] = [pn A pn B ] p n A = 0.3pn A +0.2pn B p n B = 0.7pn A +0.8pn B p n A +pn B = 1 p n A = 0.222, pn B = 0.778
27 Cadeia de Markov Exemplo p 0 = [ ] p 0 = [ ] Empresa A Empresa B Probabilidade 0.5 Probabilidade Empresa A Empresa B Passos Passos
28 Cadeias de Markov Exercício Uma planta de fabricação de microchips funciona corretamente na maior parte do tempo. Após um dia em que a planta está trabalhando, a planta irá funcionar no próximo dia com probabilidade de 90 %. Caso contrário, um dia de reparo seguido de um dia de testes é requerido para restaurar o funcionamento da planta. Encontre as probabilidade de estado permanente quando n. 90% 10% 100% Funcionando Reparos Testes 100%
29 Cadeias de Markov Exercício Encontre as probabilidade de estado permanente quando n tende a infinito, dado um vetor de probalidade inicial p 0 = [p f p r p t ] P = p n f = 0.9pn f +pn t p n r = 0.1p n f p n t = pn r p n f +pn r +p n t = 1 p n f = 5/6,pn t = 1/12,pn r = 1/12
30 Classificação dos Estados Um estado j é acessível de um estado i, i j, se P ij (n) > 0 para um n > 0. Quando um estado j não é acessível de um estado i, usa-se a notação i j. Pelo diagrama de Markov, i j se existe um caminho entre entre i e j. p 00 p 11 p 22 p 01 p p , 1 2, 2 0
31 Classificação dos Estados Dois estados i e j são comunicantes, i j, se i j e j i. O estado i é sempre comunicante com ele mesmo, já que o sistema pode atingir i a partir de i em zero passos. Se um estado i é comunicante com um estado k e o estado k é comunicante com um estado j, então o estado i é comunicante com o estado j. p 00 p 11 p 22 p 01 p p , 0 0
32 Classificação dos Estados Uma classe comunicante é um subconjunto não-vazio de estados C, tal que se i C, então j C se e somente se i j. p 00 p 11 p 22 p 01 p p 21 C 1 = {0}, C 2 = {1,2}.
33 Cadeia de Markov Irredutível Uma cadeia de Markov é irredutível se todos os estados são comunicantes, portanto todos os estados pertencem a uma única classe. p 00 p 11 p 22 p 01 p p 10 p 21
34 Classificação dos Estados Um estado i é periódico com período t se um retorno a este estado é possível somente em t,2t,3t,... passos para t > 1 e t é o maior inteiro com esta propriedade (máximo divisor comum). p 01 p p 20 A cadeia de Markov pode retornar a qualquer um dos estados com um período t = 3.
35 Classificação dos Estados Se há dois números consecutivos s e s+1 tal que o processo pode estar no estado i nos tempos s e s+1, o estado é dito ter período 1 e é chamado estado aperiódico. p 01 p 10 p p 20 A cadeia de Markov pode retornar ao estado 0 nos tempos 2 e 3, portanto este estado é aperiódico com t = 1.
36 Classificação dos Estados Um estado i é transitório se entrando neste estado, o processo pode nunca retornar novamente para este estado. O estado i é transitório se e somente se existe um estado j (j i) que é alcançável a partir do estado i mas não vice-versa, isto é, o estado i não é alcançável a partir do estado j. p 11 p 22 p 01 p p 21 O estado 0 é transitório.
37 Classificação dos Estados Um estado i é recorrente se entrando neste estado, o processo definitivamente irá retornar para este estado. Portanto, um estado é recorrente, se e somente se, não é transitório. Uma vez que o estado recorrente será revisitado após cada visita (não necessariamente no próximo passo do processo), este será visitado infinitamente para o processo em tempo infinito. p 11 p 22 p 01 p p 21 Os estados 1 e 2 são recorrentes.
38 Classificação dos Estados-Exercício Para a cadeia de Markov abaixo, onde todas as transições possuem probabilidade diferente de zero, determine: Quais são as classes comunicantes? Identifique quais estados são periódicos e quais são aperiódicos. Identifique quais estados são transitórios e quais são recorrentes.
39 Classificação dos Estados Um estado i é absorvente se entrando neste estado, o processo nunca irá deixar este estado. Portanto, um estado i é absorvente se e somente se p ii = 1. Um estado absorvente é um caso especial de um estado recorrente.
40 Classificação dos Estados-Exemplo Considere um jogo com uma moeda não viciada, para cada jogada o apostador pode ganhar R$1,00 com probabilidade p = 0.5 se sair uma cara ou perder R$1,00 com probabilidade q = 1 p = 0.5, se sair coroa. O jogo termina quando o jogador acumula R$5,00 ou R$0,00. Desenhe o diagrama de transição de estados e a matriz de transição de um passo. Qual é o numero esperado de vezes que o jogador vai ficar com R$1,00, dado que ele iniciou o jogo com R$2,00. Qual é número médio de passos necessários para que o jogo termine? Qual é a probabilidade do sistema encerrar em cada um dos estados absorventes?
41 Classificação dos Estados-Exemplo p 00 = 1 p 12 = p p 23 = p p 34 = p p 45 = p p 55 = p 10 = q p 21 = q p 32 = q p 43 = q Matriz de transição de um passo q 0 p P = 0 q 0 p q 0 p q 0 p
42 Estado Absorvente Uma matriz P com r estados absorventes e t estados transientes pode ser escrita em uma forma canônica. [ ] Q R P =, 0 I Onde I é uma matriz identidade r por r, R é uma matriz t por r e Q é uma matriz t por t. 0 p 0 0 q 0 q 0 p P = 0 q 0 p q 0 0 p
43 Estado Absorvente A matriz P para um passo n pode ser escrita como [ ] Q P n n =. 0 I Quando n, Q n 0.
44 Estado Absorvente O número esperado de vezes que um processo está em um estado transitório e j, se este começou em um estado e i. Este número n ij é obtido através da matriz fundamental de P, dada por N = (I Q) 1. Considerando p = q = p Q = q 0 p 0 0 q 0 p q N = =
45 Estado Absorvente O número médio de passos para a absorção é dada por t = Nc, onde c é um vetor coluna com todos os elementos iguais a um t = =
46 Estado Absorvente A probabilidade do sistema encerrar em um dos estados absorventes, dada por: B = NR B = =
47 Estado Ergódico Uma vez que se entrou neste estado, um retorno ao estado é assegurado dentro de um número finito de passos, porém o estado não é periódico e pode voltar antes de qualquer passo n. Uma cadeia onde todos os estados são recorrentes e aperiódicos é chamada de cadeia ergódica.
48 Probabilidades de Estados Estavéis A matriz de transição irá estabilizar os valores de seus elementos a longo período se a Cadeia de Markov é Ergódica e Irredutível.
49 Google Page Rank Algoritmo utilizado pela ferramenta de busca Google para posicionar websites entre os resultados de suas buscas. A métrica PageRank representa a probabilidade de uma pessoa chegar a uma página, clicando aleatoriamente em links. Ordena de acordo com o número de votos que uma página recebe. Um voto é um link em qualquer lugar da Web para aquela página. Links de páginas com maior relevância aumentam a importância do site.
50 Cadeias de Markov de Tempo Contínuo Processos em que as transições podem ocorrer em qualquer tempo. Exemplo: Processos de fila; Chamadas telefônicas; Falhas em equipamentos.
51 Cadeias de Markov de Tempo Contínuo As cadeias de Markov de tempo contínuo são relacionadas aos processos de Poisson. Um processo ocorre com taxa λ eventos/tempo; O intervalo entre as transições ocorre com uma distribuição exponencial com média 1/λ.
52 Cadeias de Markov de Tempo Contínuo Cadeia de Markov em tempo continuo é um processo estocástico X(t),t 0 com a propriedade de Markov, ou seja, a probabilidade de estar no estado j num momento futuro depende apenas do estado presente e não dos estados visitados em qualquer momento passado. P[X(s+t) = j X(u),u s] = P[X(s+t) = j X(s) = i] = P[X(t) = j X(0) = i] As probabilidades de transição dependem somente da diferença entre os dois tempos.
53 Cadeias de Markov de Tempo Contínuo As cadeias de Markov são caracterizadas por um conjunto {q ij } de taxas de transições. Auto transições não mudam o sistema, por isso q ii = 0. Quando uma cadeia de Markov possui espaço de estados finitos, podemos representar a cadeia de Markov através da matriz Q de transições de estado, onde a diagonal principal é sempre igual a zero.
54 Cadeias de Markov de Tempo Contínuo O tempo até a próxima transição é uma variável exponencial com parâmetro v i = q ij, j i onde v i é a taxa de saída do estado i. Como uma distribuição exponencial não possui memória, não importa quanto tempo o sistema permanece no estado i, o tempo até a próxima transição será sempre uma variável exponencial.
55 Cadeias de Markov de Tempo Contínuo A matriz { de taxas R pode ser expressa como q ij i j r ij = v i i = j.
56 Cadeias de Markov de Tempo Contínuo-Exemplo Em um processo de tempo contínuo com dois estados ON e OFF, os períodos em cada estado possuem duração exponencial. O período médio em ON é de 1/µ segundos, enquanto o tempo médio em OFF é de 1 λ segundos. Q = OFF [ ] [ ] 0 λ λ λ, R = µ 0 µ µ λ µ ON
57 Cadeias de Markov de Tempo Contínuo A probabilidade condicional D ij que o processo sai de um estado i e vai para um estado j é dada por P[D ij D i ] = D ij D i = q ij v i = q ij j i q. ij
58 Cadeias de Markov de Tempo Contínuo-Exemplo No verão, um ar condicionado está em um dos três estados: 0 (desligado), 1 (baixo) e 2 (alto). Enquanto em desligado, transições para baixo ocorrem com um tempo exponencial com média de 3 minutos. Enquanto em estado baixo, transições para desligado ou alto ocorrem com igual probabilidade e ocorrem em uma taxa de 0.5 transições por minuto. Quando o sistema está em estado alto, uma transição para baixo ocorre com probabilidade de 2/3 ou para desligado com probabilidade 1/3. O tempo em estado alto é uma variável exponencial com média de dois minutos. Quais são as probabilidade de transição?
59 Cadeias de Markov de Tempo Contínuo Para uma cadeia de Markov de tempo continuo, a probabilidade da cadeia estar em um estado j no tempo t p j (t) é obtida através de uma equação diferencial dp j (t) dt = i r ij p i (t), j = 0,1,2,..., dado p j (0). As probabilidades de cada estado convergem para um valor fixo, quando dp j (t) = 0. dt
60 Cadeias de Markov de Tempo Contínuo As probabilidades de estado devem satisfazer as seguintes condições lim p j(t) = p j ; t r ij p i = 0; i j p j = 1; Cuja solução é obtida calculando a seguinte expressão p j v j = i j q ij p i, portanto as probabilidades de estado permanente ocorrem quando a taxa média de transições que saem de j são iguais a taxa média das transições que entram em j.
61 Cadeias de Markov de Tempo Contínuo Exercício Um tigre sempre está sempre em um desses três estados: (0) dormindo, (1) caçando e (2) comendo. A vida do tigre é monótona, ele sempre vai do estado dormindo para caçando para comendo e depois voltando a dormir. Em média, o tigre dorme por 3 horas, caça por 2 horas e come por 1/2 hora. Assumindo que o tigre permanece por um tempo exponencial em cada estado, modele a vida de um tigre como uma cadeia de Markov. Quais são as probabilidades estacionárias?
62 Processo de Nascimento e Morte Uma cadeia de Markov de tempo contínuo é um processo de nascimento e morte se as taxas de transição satisfazem q ij = 0 para i j > 1. Exemplo: Sistemas de filas.
63 Filas M/M/1 Em uma fila M/M/1, as chegadas são modeladas como processos de Poisson de taxa λ, o tempo de atendimento segue uma variável exponencial de média 1/µ, portanto a taxa média de saída é µ. Quando λ > 0 e µ > λ, as probabilidades de estado permanente são p n = (1 ρ)ρ n, com ρ = λ/µ.
64 Filas M/M/1 Exemplo Carros entram em uma fila de pedágio de acordo com um processo de Poisson de taxa λ =.6 clientes por minuto, o tempo de atendimento segue uma variável exponencial de média 1/µ =.3 minutos. Quais são as probabilidades de estado permanente? Qual é a probabilidade em um tempo futuro de haver dois carros na fila?
65 Filas M/M/1 Exemplo Carros entram em uma fila de pedágio de acordo com um processo de Poisson de taxa λ =.6 clientes por minuto, o tempo de atendimento segue uma variável exponencial de média 1/µ =.3 minutos. Quais são as probabilidades de estado permanente? Qual é a probabilidade em um tempo futuro de haver dois carros na fila? Cálculo de ρ ρ = λ/µ = = 0.18
66 Filas M/M/1 Exemplo Carros entram em uma fila de pedágio de acordo com um processo de Poisson de taxa λ =.6 clientes por minuto, o tempo de atendimento segue uma variável exponencial de média 1/µ =.3 minutos. Quais são as probabilidades de estado permanente? Qual é a probabilidade em um tempo futuro de haver dois carros na fila? Cálculo de ρ ρ = λ/µ = = 0.18 Cálculo de P n p n = (1 0.18) (0.18) n = (0.82) (0.18) n
67 Filas M/M/1 Exemplo Carros entram em uma fila de pedágio de acordo com um processo de Poisson de taxa λ =.6 clientes por minuto, o tempo de atendimento segue uma variável exponencial de média 1/µ =.3 minutos. Quais são as probabilidades de estado permanente? Qual é a probabilidade em um tempo futuro de haver dois carros na fila? Cálculo de ρ ρ = λ/µ = = 0.18 Cálculo de P n p n = (1 0.18) (0.18) n = (0.82) (0.18) n Cálculo de P 2 p 2 = (1 0.18) (0.18) 2 = (0.82) (0.18) 2 = = 2,6%
68 Filas M/M/1 O número médio de clientes na fila é dado por E[N] = ρ 1 ρ = λ µ λ
69 Filas M/M/1 O número médio de clientes na fila é dado por E[N] = ρ 1 ρ = λ µ λ Para o exemplo anterior, E[N] = 0.6 1/
70 Filas M/M/1 O tempo médio dos clientes na fila é dado por E[T] = 1 µ λ
71 Filas M/M/1 O tempo médio dos clientes na fila é dado por E[T] = 1 µ λ Para o exemplo anterior, o tempo médio em minutos é E[T] = 1 1/
Processos Estocásticos e Cadeias de Markov Discretas
Processos Estocásticos e Cadeias de Markov Discretas Processo Estocástico(I) Definição: Um processo estocástico é uma família de variáveis aleatórias {X(t) t T}, definidas em um espaço de probabilidades,
Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2011
Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2011 Cadeias de Markov Em 1907, Andrew Markov iniciou um estudo sobre um modelo onde o resultado
Processos Estocásticos
Processos Estocásticos Quarta Lista de Exercícios 12 de fevereiro de 2014 1 Sejam X e Y duas VAs que só podem assumir os valores 1 ou -1 e seja p(x, y) = P (X = x, Y = y), x, y { 1, 1} a função de probabilidade
Modelagem e Avaliação de Desempenho
Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2016 Exemplos usados na apresentação foram obtidos de Introduction to Probability, C.M.Grinstead
Cadeias de Markov em Tempo Continuo
Cadeias de Markov em Tempo Continuo Ricardo Ehlers [email protected] Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 6 Taylor & Karlin 1 / 44 Análogo ao processo
Cadeias de Markov. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Cadeias de Markov Ricardo Ehlers [email protected] Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 3 e 4 Taylor & Karlin 1 / 71 Cadeias de Markov Seja X 0, X 1,...
Modelagem e Avaliação de Desempenho
Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2018 Exemplos usados na apresentação foram obtidos de Introduction to Probability, C.M.Grinstead
Noções de Processos Estocásticos e Cadeias de Markov
Noções de Processos Estocásticos e Cadeias de Markov Processo Estocástico Definição: Processo Estocástico é uma coleção de variáveis aleatórias indexadas por um parâmetro t R (entendido como tempo). X={
Processos Markovianos Introdução e Aplicações
Processos Markovianos Introdução e Aplicações Autores: Pedro Santana (04/35619) Yasmin Mendes (03/91158) Disciplina: Automação Controle para Prof.: Dr. João Yoshiyuki Sumário 1. Processos Estocásticos
Aula - Equações de Chapman-Kolmogorov
Equações de Chapman-Kolmogorov Prof. Magnos Martinello Aula - Equações de Chapman-Kolmogorov Universidade Federal do Esprito Santo-UFES 2011 Equações de Chapman-Kolmogorov 1/17 Introdução As equações de
MOQ-12 Cadeias de Markov
Instituto Tecnológico de Aeronáutica Divisão de Engenharia Mecânica-Aeronáutica MOQ-12 Cadeias de Markov Professora: Denise Beatriz T. P. do Areal Ferrari [email protected] Roteiro Introdução Processos Estocásticos
Classificação de estados em uma cadeia de Markov. Professora Eliana Carvalho
Classificação de estados em uma cadeia de Markov Professora Eliana Carvalho Classificação de estados em uma cadeia de Markov Os estados de uma cadeia de Markov podem ser classificados com base na probabilidade
1/7 1/ se hoje não chove, amanhã não vai chover com probabilidade p 00 = 6/7;
6/7 nao chove 1/7 chove 1/3 "0" /3 "1" Figura 1: Todas as transições com suas respectivas probabilidades representadas através de um grafo. Notem que para cada estado, a soma das probabilidades das flechas
Cadeias de Markov de Tempo Contínuo (CTMC)
Cadeias de Markov de Tempo Contínuo (CTMC) Cadeia de Markov Contínua (1) A análise de cadeias de Markov contínuas (CTMCs) é bem similar a análise em tempo discreto, com a diferença de que as transições
Propriedade Markoviana
Cadeias de Markov Cadeias de Markov É um tipo especial de processo estocástico, que satisfaz as seguintes condições: o parâmetro n é discreto (ex: tempo) o espaço de estados E é discreto (coleção de estados
Teoria de Filas Aula 10
Aula Passada Comentários sobre a prova Teoria de Filas Aula 10 Introdução a processos estocásticos Introdução a Cadeias de Markov Aula de Hoje Cadeias de Markov de tempo discreto (DTMC) 1 Recordando...
Cadeias de Markov. 1. Introdução. Modelagem e Simulação - Cadeias de Markov
Cadeias de Markov. Introdução Nestas notas de aula serão tratados modelos de probabilidade para processos que evoluem no tempo de maneira probabilística. Tais processos são denominados Processos Estocásticos...
PROCESSOS ESTOCÁSTICOS
PROCESSOS ESTOCÁSTICOS Definições, Principais Tipos, Aplicações em Confiabilidade de Sistemas CLARKE, A. B., DISNEY, R. L. Probabilidade e Processos Estocásticos, Rio de Janeiro: Livros Técnicos e Científicos
3. CADEIA DE MARKOV EM TEMPO DISCRETO
3. CADEIA DE MARKOV EM TEMPO DISCRETO 3. Definição Uma Cadeia de Markov em Tempo Discreto é um processo estocástico em que a variável t representa intervalos de tempo, { }e que segue a propriedade de Markov,
Avaliação e Desempenho Aula 18
Avaliação e Desempenho Aula 18 Aula passada Fila com buffer finito Fila com buffer infinito Medidas de interesse: vazão, número médio de clientes na fila, taxa de perda. Aula de hoje Parâmetros de uma
EELT-7035 Processos Estocásticos em Engenharia. Variáveis Aleatórias. EELT-7035 Variáveis Aleatórias Discretas. Evelio M. G.
EELT-7035 Processos Estocásticos em Engenharia Variáveis Aleatórias Discretas 21 de março de 2019 Variáveis Aleatórias Variável aleatória, X( ): função que mapeia o espaço amostral (S) em números pertencentes
Lista de Exercícios - SCE131
Lista de Exercícios - SCE131 Prof. Eduardo F. Costa - ICMC - USP http://www.icmc.usp.br/ efcosta Parte 1 - Cadeia de Markov (a tempo discreto) Exercício 1. Seja uma cadeia de Markov com probabilidades
Cadeias de Markov Introdução
Cadeias de Markov Introdução EAD 350 Pesquisa Operacional Segmento Modelos de Redes Prof. Nicolau Reinhard 1º Semestre de 2017 Referências básicas: Taha, H., Pesquisa Operacional 8ª edição, Pearson, Prentice
PROBABILIDADE. ENEM 2016 Prof. Marcela Naves
PROBABILIDADE ENEM 2016 Prof. Marcela Naves PROBABILIDADE NO ENEM As questões de probabilidade no Enem podem cobrar conceitos relacionados com probabilidade condicional e probabilidade de eventos simultâneos.
Modelagem de um sistema por cadeias de Markov
Modelagem de um sistema por cadeias de Markov Sistemas sem memória : somente o estado imediatamente anterior influencia o estado futuro. rocesso estacionário: probabilidades de transição de um estado para
3 a Lista de PE Solução
Universidade de Brasília Departamento de Estatística 3 a Lista de PE Solução. Se X representa o ganho do jogador, então os possíveis valores para X são,, 0, e 4. Esses valores são, respectivamente, correspondentes
Revisão de Probabilidade
05 Mat074 Estatística Computacional Revisão de Probabilidade Prof. Lorí Viali, Dr. [email protected] http://www.ufrgs.br/~viali/ Determinístico Sistema Real Causas Efeito Probabilístico X Causas Efeito
Conceitos Básicos, Básicos,Básicos de Probabilidade
Conceitos Básicos, Básicos,Básicos de Probabilidade Espaço Amostral Base da Teoria de Probabilidades Experimentos são realizados resultados NÃO conhecidos previamente Experimento aleatório Exemplos: Determinar
Teoria da Probabilidade
Teoria da Probabilidade Luis Henrique Assumpção Lolis 14 de fevereiro de 2014 Luis Henrique Assumpção Lolis Teoria da Probabilidade 1 Conteúdo 1 O Experimento Aleatório 2 Espaço de amostras 3 Álgebra dos
Processos Estocásticos aplicados à Sistemas Computacionais
Processos Estocásticos aplicados à Sistemas Computacionais Magnos Martinello Universidade Federal do Espírito Santo - UFES Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia
Processos Estocásticos
Licenciatura em Matemática Aplicada e Computação PROCESSOS ESTOCÁSTICOS 2002/03 Colectânea de Exercícios Capítulo 1 Introdução aos Processos Estocásticos Exercício 1.1 O número de sinais emitidos por uma
3 NOÇÕES DE PROBABILIDADE
3 NOÇÕES DE PROILIDDE 3.1 Conjuntos Um conjunto pode ser considerado como uma coleção de objetos chamados elementos do conjunto. Em geral denota-se conjunto por letras maiúsculas,, C,... e a sua representação
Modelagem e Análise Aula 9
Modelagem e Análise Aula 9 Aula passada Equações de fluxo Tempo contínuo Aula de hoje Parâmetros de uma fila Medidas de desempenho Cálculo do tempo de espera Resultado de Little Parâmetros da Fila chegada
2. EXERCÍCIOS PROPOSTOS SOBRE V.A. E DISTRIB.PROBAB.
2. EXERCÍCIOS PROPOSTOS SOBRE V.A. E DISTRIB.PROBAB. 1) Classifique as seguintes variáveis aleatórias como discretas ou contínuas. X : o número de acidentes de automóvel por ano na rodovia BR 116. Y :
INTRODUÇÃO À TEORIA DAS FILAS
INTRODUÇÃO À TEORIA DAS FILAS Uma fila é caracterizada por: Processo de chegada dos fregueses à fila Tempo de serviço dedicado pelo servidor a cada freguês Número de servidores Espaço disponível para espera
Teoria das Filas aplicadas a Sistemas Computacionais. Aula 20
Teoria das Filas aplicadas a Sistemas Computacionais Aula 20 Magnos Martinello Universidade Federal do Espírito Santo - UFES Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia
Estatística: Probabilidade e Distribuições
Estatística: Probabilidade e Distribuições Disciplina de Estatística 2012/2 Curso: Tecnólogo em Gestão Ambiental Profª. Ms. Valéria Espíndola Lessa 1 Aula de Hoje 23/11/2012 Estudo da Probabilidade Distribuição
PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES
PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES Certas distribuições de probabilidades se encaixam em diversas situações práticas As principais são: se v.a. discreta Distribuição de Bernoulli Distribuição binomial
Processos Estocásticos
Processos Estocásticos Quinta Lista de Exercícios 2 de fevereiro de 20 Suponha que um organismo unicelular pode estar somente em dois estágios distintos A ou B Um indivíduo no estágio A passa para o estágio
Probabilidade e Estatística
Probabilidade e Estatística Distribuições Discretas de Probabilidade Prof. Narciso Gonçalves da Silva www.pessoal.utfpr.edu.br/ngsilva Introdução Distribuições Discretas de Probabilidade Muitas variáveis
Modelos Probabilísticos Filas M/M/1, M/G/1. Profa. Jussara M. Almeida 1 o Semestre de 2014
Modelos Probabilísticos Filas M/M/1, M/G/1 Profa. Jussara M. Almeida 1 o Semestre de 2014 Modelos Probabilísticos de Filas R W S λ Notação de Kendall Fila G / G / 1 1 = um único servidor Distribuição dos
PRO 2271 ESTATÍSTICA I. 3. Distribuições de Probabilidades
PRO71 ESTATÍSTICA 3.1 PRO 71 ESTATÍSTICA I 3. Distribuições de Probabilidades Variáveis Aleatórias Variáveis Aleatórias são valores numéricos que são atribuídos aos resultados de um eperimento aleatório.
Universidade Federal de Goiás Instituto de Matemática e Estatística
Universidade Federal de Goiás Instituto de Matemática e Estatística Prova de Probabilidade Prof.: Fabiano F. T. dos Santos Goiânia, 31 de outubro de 014 Aluno: Nota: Descreva seu raciocínio e desenvolva
Segunda Lista de Exercícios Cálculo de Probabilidades II Prof. Michel H. Montoril
Exercício 1. Uma urna contém 4 bolas numeradas: {1, 2, 2, 3}. Retira-se dessa urna duas bolas aleatoriamente e sem reposição. Sejam 1 : O número da primeira bola escolhida; 2 : O número da segunda bola
Distribuição de Probabilidade. Prof.: Joni Fusinato
Distribuição de Probabilidade Prof.: Joni Fusinato [email protected] [email protected] Modelos de Probabilidade Utilizados para descrever fenômenos ou situações que encontramos na natureza, ou
PROBABILIDADE. Luciana Santos da Silva Martino. PROFMAT - Colégio Pedro II. 01 de julho de 2017
Sumário PROBABILIDADE Luciana Santos da Silva Martino PROFMAT - Colégio Pedro II 01 de julho de 2017 Sumário 1 Conceitos Básicos 2 Probabildade Condicional 3 Espaço Amostral Infinito Outline 1 Conceitos
PRINCIPAIS DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE
PRINCIPAIS DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE 3.1 INTRODUÇÃO Muitas variáveis aleatórias associadas a experimentos aleatórios têm propriedades similares e, portanto, podem ser descritas através de
1 Conceitos Iniciais. 1.1 Grafos
1 Conceitos Iniciais O objetivo deste capítulo é revisar conceitos básicos, mas fundamentais, sobre grafos, passeios aleatórios (random walks) com especial destaque aos passeios aleatórios sobre grafos
3 a Lista de PE. Universidade de Brasília Departamento de Estatística
Universidade de Brasília Departamento de Estatística 3 a Lista de PE 1. Duas bolas são escolhidas aleatoriamente de uma urna contendo 8 bolas brancas, 4 pretas, e duas bolas laranjas. Suponha que um jogador
Processos Estocásticos
Processos Estocásticos Primeira Lista de Exercícios de junho de 0 Quantos códigos de quatro letras podem ser construídos usando-se as letras a, b, c, d, e, f se: a nenhuma letra puder ser repetida? b qualquer
A cadeia de Markov na determinação de indicadores educacionais Applying Markov chain to determine educational indicators
A cadeia de Markov na determinação de indicadores educacionais Applying Markov chain to determine educational indicators A cadeia de Markov na determinação de indicadores educacionais Applying Markov chain
PROCESSOS ESTOCÁSTICOS. Modelagem de falhas, Técnicas de Markov para modelagem da confiabilidade de sistemas
ROCESSOS ESTOCÁSTICOS Modelagem de falhas, Técnicas de Markov para modelagem da confiabilidade de sistemas Modelagem de falhas Confiabilidade de sistemas Necessário modelar o comportamento do sistema,
FILA EM UM PRONTO SOCORRO Paciente espera por ser atendida por um médico em um pronto socorro
TEORIA DAS FILAS FILA EM UM PRONTO SOCORRO Paciente espera por ser atendida por um médico em um pronto socorro Ingressa na sala de atendimento Sai da sala de atendimento Pessoa precisa de cuidados médicos
Se A =, o evento é impossível, por exemplo, obter 7 no lançamento de um dado.
PROBABILIDADE Espaço amostral Espaço amostral é o conjunto universo U de todos os resultados possíveis de um experimento aleatório. O número de elementos desse conjunto é indicado por n(u). Exemplos: No
1073/B - Introdução à Estatística Econômica
Lista de exercicios 2 Prof. Marcus Guimaraes 1073/B - Introdução à Estatística Econômica Ciências Econômicas 1) Suponha um espaço amostral S constituido de 4 elementos: S={a 1,a2,a3,a4}. Qual das funções
lnteligência Artificial Introdução ao Processo Decisório de Markov
lnteligência Artificial Introdução ao Processo Decisório de Markov Aprendizado - paradigmas Aprendizado supervisionado O crítico comunica a EA o erro relativo entre a ação que deve ser tomada idealmente
Estatística (MAD231) Turma: IGA. Período: 2018/2
Estatística (MAD231) Turma: IGA Período: 2018/2 Aula #03 de Probabilidade: 19/10/2018 1 Variáveis Aleatórias Considere um experimento cujo espaço amostral é Ω. Ω contém todos os resultados possíveis: e
PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG /2012
PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG - 0/0 Instruções:. Cada questão respondida corretamente vale (um) ponto.. Cada questão respondida incorretamente vale - (menos um) ponto. 3.
Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08
Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas
Variáveis Aleatórias Discretas e Distribuições de 3Probabilidade
Variáveis Aleatórias Discretas e Distribuições de 3Probabilidade Variáveis Aleatórias Discretas e Distribuições de Probabilidade Objetivos do aprendizado 3 Como determinar se um experimento é Binomial.
Distribuição de Probabilidade. Prof. Ademilson
Distribuição de Probabilidade Prof. Ademilson Distribuição de Probabilidade Em Estatística, uma distribuição de probabilidade descreve a chance que uma variável pode assumir ao longo de um espaço de valores.
Processos Estocásticos
Processos Estocásticos Luiz Affonso Guedes Sumário Modelos Probabilísticos Discretos Uniforme Bernoulli Binomial Hipergeométrico Geométrico Poisson Contínuos Uniforme Normal Tempo de Vida Exponencial Gama
PROBABILIDADES PROBABILIDADE DE UM EVENTO EM UM ESPAÇO AMOSTRAL FINITO
PROBABILIDADES Probabilidade é um conceito filosófico e matemático que permite a quantificação da incerteza, permitindo que ela seja aferida, analisada e usada para a realização de previsões ou para a
Distribuições Discretas
META: Estudar o comportamento das Variáveis Aleatórias Discretas, bem como das Distribuições Binomial e Poisson e suas aplicações. Entender o comportamento de uma Variável aleatória Contínua. OBJETIVOS:
Processos Estocásticos. Luiz Affonso Guedes
Processos Estocásticos Luiz Affonso Guedes Sumário Modelos Probabilísticos Discretos Uniforme Bernoulli Binomial Hipergeométrico Geométrico Poisson Contínuos Uniforme Normal Tempo de Vida Exponencial Gama
AULA 07 Distribuições Discretas de Probabilidade
1 AULA 07 Distribuições Discretas de Probabilidade Ernesto F. L. Amaral 31 de agosto de 2010 Metodologia de Pesquisa (DCP 854B) Fonte: Triola, Mario F. 2008. Introdução à estatística. 10 ª ed. Rio de Janeiro:
a) o time ganhe 25 jogos ou mais; b) o time ganhe mais jogos contra times da classe A do que da classe B.
Universidade de Brasília Departamento de Estatística 5 a Lista de PE. Um time de basquete irá jogar uma temporada de 44 jogos. desses jogos serão disputados contra times da classe A e os 8 restantes contra
Probabilidade. Objetivos de Aprendizagem. UFMG-ICEx-EST. Cap. 2 - Probabilidade Espaços Amostrais e Eventos. 2.1.
2 ESQUEMA DO CAPÍTULO 2.1 ESPAÇOS AMOSTRAIS E EVENTOS 2.2 INTERPRETAÇÕES E AXIOMAS DE PROBABILIADE 2.3 REGRAS DE ADIÇÃO 2.4 PROBABILIDADE CONDICIONAL 2.5 REGRAS DA MULTIPLICAÇÃO E DA PROBABILIDADE TOTAL
Estatística Aplicada
Estatística Aplicada Distribuições Discretas de Probabilidade Professor Lucas Schmidt www.acasadoconcurseiro.com.br Estatística Aplicada DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE Distribuições de Probabilidade
UNIVERSIDADE FEDERAL DO PARANÁ CE003 - ESTATÍSTICA II
UNIVERSIDADE FEDERAL DO PARANÁ CE003 - ESTATÍSTICA II Segunda lista de Exercícios - Variáveis Aleatórias Professora Fernanda 1. Uma máquina caça níquel de cassino possui três roletas. Na primeira e segunda
DEPARTAMENTO DE MATEMÁTICA
FACULDADE DE CIÊNCIAS NATURAIS E MATEMÁTICA DEPARTAMENTO DE MATEMÁTICA Campus de Lhanguene, Av. de Moçambique, km 1, Tel: +258 21401078, Fax: +258 21401082, Maputo Cursos de Licenciatura em Ensino de Matemática
Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte II
Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte II 13 de Dezembro de 2013 Exercício 1. Descreva o espaço de probabilidade associado às seguintes experiências aleatórias: 1. Uma moeda
Escola Superior de Agricultura "Luiz de Queiroz", Departamento de Ciências Exatas. Probabilidades. Cristian Villegas
Probabilidades Cristian Villegas [email protected] Setembro de 2013 Apostila de Estatística (Cristian Villegas) 1 Introdução Escola Superior de Agricultura "Luiz de Queiroz", Departamento de Ciências Exatas
Unidade I ESTATÍSTICA APLICADA. Prof. Mauricio Fanno
Unidade I ESTATÍSTICA APLICADA Prof. Mauricio Fanno Estatística indutiva Estatística descritiva Dados no passado ou no presente e em pequena quantidade, portanto, reais e coletáveis. Campo de trabalho:
Gestão de Operações II Teoria das Filas. Prof Marcio Cardoso Machado
Gestão de Operações II Teoria das Filas Prof Marcio Cardoso Machado Filas O que é uma fila de espera? É um ou mais clientes esperando pelo atendimento O que são clientes? Pessoas (ex.: caixas de supermercado,
Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte I
Exercícios de Teoria da Probabilidade e Processos Estocásticos Parte I 2014/2015 Os exercícios assinalados com (*) têm um nível de dificuldade superior. Exercício 1. Seja (X, F) um espaço mensurável. Mostre
É o conjunto de resultados de uma experiência aleatória. E 1 : Joga-se uma moeda quatro vezes e observa-se o número de caras e coroas;
Prof. Lorí Viali, Dr. [email protected] http://www.pucrs.br/famat/viali Eperiência na qual o resultado é incerto. E : Joga-se uma moeda quatro vezes e observa-se o número de caras e coroas; E : Joga-se uma
