Processos Markovianos Introdução e Aplicações

Tamanho: px
Começar a partir da página:

Download "Processos Markovianos Introdução e Aplicações"

Transcrição

1 Processos Markovianos Introdução e Aplicações Autores: Pedro Santana (04/35619) Yasmin Mendes (03/91158) Disciplina: Automação Controle para Prof.: Dr. João Yoshiyuki

2 Sumário 1. Processos Estocásticos 2. Processos Markovianos 3. Cadeias de Markov 4. Equações de Chapman-Kolmogorov 5. Classificação de Estados em Cadeias de Markov 6. Probabilidades de Estados Estavéis (Steady- State) 7. Exemplos e Aplicações de Cadeias de Markov 8. Aplicações da Teoria de Cadeias de Markov 9. Fontes Consultadas

3 Processos Estocásticos

4 Processos Estocásticos: Definição Processo Determinístico Evolução do estado totalmente previsível. Processo Estocástico Estado governado por funções de distribuição de probabilidades.

5 Processos Estocásticos: Definição Estocástico Determinístico

6 Processos Estocásticos: Definição Processo Estocástico Coleção de variáveis randômicas X(t); X(t) representa uma característica mensurável (estado do sistema) de interesse no parâmetro (geralmente tempo) t; Portanto, pode-se afirmar que X(t) é definido em um espaço denominado Espaço de Estados.

7 Processos Estocásticos: Classificação Em relação ao estado Estado Discreto (cadeia): X(t) é definido sobre um conjunto enumerável ou finito; Estado Contínuo (seqüência): caso contrário. Em relação ao tempo (parâmetro) Tempo Discreto: t é finito ou enumerável; Tempo Contínuo: caso contrário.

8 Processos Estocásticos: Classificação Exemplos Número de usuários em uma fila de banco em um determinado instante Estado: Discreto; Tempo: Contínuo. Índice pluviométrico diário Estado: Contínuo; Tempo: Discreto. Número de dias chuvosos Estado: Discreto; Tempo: Discreto.

9 Processos Estocásticos: Classificação Exemplos Número de usuários em uma fila de banco em um determinado instante Estado: Discreto; Tempo: Contínuo. Índice pluviométrico diário Estado: Contínuo; Tempo: Discreto. Número de dias chuvosos Estado: Discreto; Tempo: Discreto.

10 Processos Estocásticos: Classificação Exemplos Número de usuários em uma fila de banco em um determinado instante Estado: Discreto; Tempo: Contínuo. Índice pluviométrico diário Estado: Contínuo; Tempo: Discreto. Número de dias chuvosos Estado: Discreto; Tempo: Discreto.

11 Processos Estocásticos: Classificação Exemplos Número de usuários em uma fila de banco em um determinado instante Estado: Discreto; Tempo: Contínuo. Índice pluviométrico diário Estado: Contínuo; Tempo: Discreto. Número de dias chuvosos Estado: Discreto; Tempo: Discreto.

12 Processos Estocásticos: Classificação Exemplos Número de usuários em uma fila de banco em um determinado instante Estado: Discreto; Tempo: Contínuo. Índice pluviométrico diário Estado: Contínuo; Tempo: Discreto. Número de dias chuvosos Estado: Discreto; Tempo: Discreto.

13 Processos Estocásticos: Classificação Exemplos Número de usuários em uma fila de banco em um determinado instante Estado: Discreto; Tempo: Contínuo. Índice pluviométrico diário Estado: Contínuo; Tempo: Discreto. Número de dias chuvosos Estado: Discreto; Tempo: Discreto.

14 Processos Estocásticos: Classificação Exemplos Número de usuários em uma fila de banco em um determinado instante Estado: Discreto; Tempo: Contínuo. Índice pluviométrico diário Estado: Contínuo; Tempo: Discreto. Número de dias chuvosos Estado: Discreto; Tempo: Discreto.

15 Processos Markovianos

16 Processos Markovianos: Definição Um Processo Estocástico é dito ser um Processo Markoviano se o estado futuro depende apenas do estado presente e não dos estados passados. Este tipo de Processo Estocástico é também denominado de memoryless process (processo sem memória), uma vez que o passado é "esquecido" (desprezado).

17 Processos Markovianos: Definição X n : estado atual; X n+1 : estado futuro; x i : conjunto particular de valores das variáveis aleatórias de estado ; As probabilidades condicionais são denominadas Probabilidades de Transição Representam a probabilidade do estado X n+1 ser x no instante n+1 dado que o estado é x n no instante n.

18 Processos Markovianos: Exemplo Prático Contextualização: Você é o engenheiro responsável pelo planejamento de longo prazo de uma grande empresa cuja produção tem, em essência, três destinações principais: I II III Tabela 1 Destinação Militar 30% Exportação 20% Civil 50%

19 Processos Markovianos: Exemplo Prático Para um intervalo de 10 anos, as probabilidades de transição são estimadas como segue: Tabela 2 Probabilidades de Transição Entre Estados para I para II para III de I 0,8 0,1 0,1 de II 0,1 0,7 0,2 de III 0 0,1 0,9

20 Processos Markovianos: Exemplo Prático Os valores da Tabela 1 podem ser dispostos em um vetor x, denominado Vetor de Estados: x = [I II III] As probabilidades de cada Estado (probabilidade não-condicional) podem também ser dispostos em um vetor π, denominado Vetor de Probabilidade de Estado (para distinguí-las das probabilidades de transição).

21 Processos Markovianos: Exemplo Prático Dado π (0) =[ ] e P abaixo, determine qual será a provável participação de cada setor (militar, civil ou exportação) na produção da empresa daqui há 10 anos.

22 Processos Markovianos: Exemplo Prático Solução: dado que P é a matriz de transição de estado, o vetor de probabilidade de estado para daqui a 10 anos (π (1) ) é dado como abaixo:

23 Cadeias de Markov

24 Cadeias de Markov Um Processo Markoviano é dito ser uma Cadeia de Markov quando as variáveis randômicas X(t) estão definidas em um espaço de estados discreto E. Exemplo: o exercício anterior. Para o estudo de Sistemas a Eventos Discretos (DES), vamos considerar Cadeias de Markov de tempo discreto.

25 Cadeias de Markov de Tempo Discreto As Probabilidades de Transição P{X(k+1) = x k+1 X(k) = x k } representam, portanto, a probabilidade do estado X(k+1) ser x k+1 no tempo k+1 dado que o estado X(k) é x k no tempo k.

26 Cadeias de Markov Homogêneas Se, para cada x k+1 e x k, tem-se: P{X(k+1) = x k+1 X(k) = x k }=P{X(1) = x 1 X(0) = x 0 }, a Cadeia é dita Homogênea. Assim, ter uma Cadeia Homogênea implica que as Probabilidades de Transição não mudam ao longo do tempo.

27 Cadeias de Markov: Probabilidades de Transição A probabilidade de transição de Passo 1 é definida como segue: p ij = P{X(k +1) = j X(k) = i} De maneira muito semelhante, define-se a probabilidade de transição de Passo n: p ij (n) = P{X(k +n) = j X(k) = i}

28 Cadeias de Markov: Probabilidades de Transição Uma maneira conveniente de mostrar todas as probabilidades de transição de passo n é por meio da Matriz de Transição de Passo n:

29 Equações de Chapman-Kolmogorov

30 Equações de Chapman-Kolmogorov A matriz de transição P é a matriz de transição de probabilidades de estado para um passo no tempo, ou seja, de t para t+1. Pode se dizer, de maneira simplista, que as equações de Chapman- Kolmogorov fornecem um método para computar a matriz de transição para n passos no tempo, ou seja, de t para t+1, de t para t+2,..., de t para t+n.

31 Equações de Chapman-Kolmogorov Seja p ij (n) a probabilidade de transição do estado i para o estado j no tempo n. Pode-se escrever que: Em notação matricial: P (n) = P m.p n-m

32 Equações de Chapman-Kolmogorov Para Cadeias de Markov cujas probabilidades de transição de estados são constantes em relação ao tempo (Cadeias Homogêneas), tem-se a igualdade abaixo: P (n) = P n

33 Classificação de Estados em Cadeias de Markov

34 Classificação de Estados em Cadeias de Markov Alcançável: Um estado j é dito ser alcançável (accessible) a partir de um estado i se p ij (n) >0 para algum n 0. Isto implica que é possível o sistema entrar no estado j eventualmente quando este começa no estado i. Comunicante: Um estado j é dito comunicante com o estado i se o estado j é alcançável a partir do estado i e o estado i é alcançável a partir do estado j.

35 Classificação de Estados em Cadeias de Markov Se dois estados se comunicam entre si, diz-se que eles pertencem à mesma classe. Se todos os estados são comunicantes, portanto todos os estados pertencem a uma única classe, a Cadeia de Markov é dita ser Irredutível.

36 Classificação de Estados em Cadeias de Markov Um estado é dito ser Transiente (Temporário, Efêmero, Transitório) se, entrando neste estado, o processo pode nunca retornar novamente para este estado. Portanto, o estado i é transiente se e somente se existe um estado j (j i) que é alcançável a partir do estado i mas não vice-versa, isto é, o estado i não é alcançável a partir do estado j.

37 Classificação de Estados em Cadeias de Markov Um estado é dito ser Recorrente se entrando neste estado, o processo definitivamente irá retornar para este estado. Portanto, um estado é recorrente, se e somente se, não é transiente.

38 Classificação de Estados em Cadeias de Markov Um estado é dito ser Absorvente se, entrando neste estado, o processo nunca irá deixar este estado. Portanto, um estado i é absorvente se, e somente se, p ii =1. Com isso, pode-se afirmar que um estado absorvente é um caso especial de um estado recorrente.

39 Classificação de Estados em Cadeias de Markov Em uma Cadeia de Markov, um conjunto C de estados é dito ser um Conjunto Fechado se o processo ao entrar em um desses estados de C, este irá permanecer nos estados de C indefinidamente, ou seja, C é um conjunto tal que nenhum estado fora de C é alcançável a partir de qualquer estado de C. Com isso, pode-se afirmar que C é um conjunto formado por estados recorrentes.

40 Classificação de Estados em Cadeias de Markov Em uma Cadeia de Markov, um conjunto C de estados é dito ser um Conjunto Fechado Mínimo se este conjunto não possui sub-conjuntos fechados.

41 Classificação de Estados em Cadeias de Markov Um estado i é periódico com período t se um retorno a este estado é possível somente em t, 2t, 3t,... passos para t>1 e t é o maior inteiro com esta propriedade (máximo divisor comum). Isto implica que p ii (n) 0 = sempre quando n não é divisível por t.

42 Classificação de Estados em Cadeias de Markov Um estado i é periódico com período t se um retorno a este estado é possível somente em t, 2t, 3t,... passos para t>1 e t é o maior inteiro com esta propriedade (máximo divisor comum). Isto implica que p ii (n) 0 = sempre quando n não é divisível por t.

43 Classificação de Estados em Cadeias de Markov Se há dois números consecutivos s e s+1 tal que o processo pode estar no estado i nos tempos s e s+1, o estado é dito ter período 1 e é chamado estado Aperiódico. Como a recorrência é uma classe de propriedade, a periodicidade também é uma classe de propriedade. Assim, se um estado i em uma classe tem período t, todos os estados nesta classe têm período t.

44 Classificação de Estados em Cadeias de Markov Um processo markoviano é dito Ergódico se seus estados são recorrentes e aperiódicos. Todas as suas propriedades podem ser aferidas a partir de apenas um conjunto de amostras. Uma Cadeia de Markov é dita ser Ergódica se todos os estados são estados ergódicos.

45 Classificação de Estados em Cadeias de Markov Exemplo: Determine para a matriz P: Estados Transientes Estados Recorrentes Estados Absorventes Conjuntos Fechados Conjuntos Fechados Mínimos

46 Classificação de Estados em Cadeias de Markov - Resumo

47 Probabilidades de Estados Estavéis (Steady-State)

48 Probabilidades de Estados Estavéis (Steady-State) Sabemos até agora como calcular o vetor de probabilidade de estado no passo k de um sistema markoviano homogêneo (equação de Chapman-Kolmogorov); Mas, o que acontece quando k?

49 Probabilidades de Estados Estavéis (Steady-State) Definição: para o j-ésimo estado, temos a seguinte expressão para sua probabilidade de regime permanente:

50 Probabilidades de Estados Estavéis (Steady-State) Teorema: Em uma cadeia de Markov irredutível e aperiódica (ergódica), os limites sempre existem e são independentes do vetor de probabilidade de estado inicial.

51 Probabilidades de Estados Estavéis (Steady-State) Definindo π = [π 0 π 1... π n ], verifica-se o seguinte em uma cadeia markoviana ergódica quando k : π = πp

52 Probabilidades de Estados Estavéis (Steady-State) Conclusão: para determinar π, basta resolver simultaneamente o seguinte conjunto de equações lineares 1 - π = πp 2 -

53 Probabilidades de Estados Estavéis (Steady-State) O sistema de equações anterior possui n+1 incógnitas e n+2 equações. Logo, qualquer uma das equações de (1) pode ser eliminada para a solução do sistema.

54 Probabilidades de Estados Estavéis (Steady-State) function [ssvec] = markovss(a) dim = size(a); if(dim(1,1)==dim(1,2)) tmpm = eye(dim(1,1))-a'; ssvec = null(tmpm); sum = 0; for i = 1:dim(1,1) sum = sum + ssvec(i,1); end Implementação em MATLAB do algoritmo anterior. ssvec = ssvec/sum; else ssvec = 0; end

55 EXEMPLOS E APLICAÇÕES DE CADEIAS DE MARKOV

56 EXEMPLOS E APLICAÇÕES DE CADEIAS DE MARKOV PREVISÃO DO TEMPO Modelo: Suponha que o tempo a cada dia seja determinado apenas pelo tempo do dia anterior, sendo que : - Após em dia ensolarado, a probabilidade de que o dia seguinte seja também ensolarado é de 90% e a probabilidade de que o dia seguinte seja chuvoso é de 10%. - Após um dia chuvoso, há 50% de probabilidade de que o dia seguinte seja ensolarado e 50% de probabilidade de que seja chuvoso.

57 EXEMPLO:PREVISÃO DO TEMPO Assim, a matriz de transição associada ao modelo é Podem-se rotular as colunas como ensolarado e chuvoso, nessa ordem. O mesmo pode ser feito com as linhas. Assim, representa a probabilidade de que um dia i seja seguido por um dia j. Suponha que o tempo no dia 0 está ensolarado. Assim, o estado inicial pode ser representado pelo vetor seguinte:

58 EXEMPLO:PREVISÃO DO TEMPO Pelo modelo, o tempo no dia 1 pode ser previsto como Ou

59 EXEMPLO:PREVISÃO DO TEMPO Regras gerais para o n-ésimo dia são

60 ESTADO ESTACIONÁRIO Previsões do tempo a longo prazo convergem para um vetor de estado estacionário. Este vetor representa as probabilidades de dias ensolarados e chuvosos para qualquer dia, independentemente do tempo inicial. Define-se o vetor de estado estacionário como: O qual só converge para um vetor estritamente positivo se P é uma matriz de transição regular (ou seja, há ao menos um Pn com todas as entradas não-nulas). Já que q independe das condições iniciais, ele deve permanecer inalterado após transformado por P. Isso o torna um autovetor (com autovalor 1), e significa que ele pode ser derivado de P.

61 ESTADO ESTACIONÁRIO No nosso exemplo,

62 ESTADO ESTACIONÁRIO 0.1q q2 = 0 q1 + q2 = 1 Resolvendo o sistema Assim, a longo prazo 83,3% dos dias são ensolarados!

63 EXERCÍCIO:PREVISÃO DO TEMPO O mundo de Oz é abençoado com muitas coisas, dentre as quais não se encontra o tempo. Seus habitantes nunca têm dois dias de sol consecutivos. Depois de um dia bom, eles estão igualmente propensos a ter um dia de chuva ou um dia de neve. Se eles têm chuva ou neve num dia, há uma chance de 50% de terem o mesmo no dia seguinte. Se há mudança do tempo após um dia chuvoso ou com neve, esta mudança é para um dia bom em apenas 50% das vezes. Com base nessas informações, determine a matriz de transição do tempo no mundo de Oz.

64 EXERCÍCIO:PREVISÃO DO TEMPO Resposta: A longo prazo, qual a porcentagem de dias ensolarados, chuvosos e com neve?

65 EXERCÍCIO:PREVISÃO DO TEMPO Resposta: q = ( ) Na verdade, após apenas 6 dias já tem-se a distribuição de probabilidades acima encontrada. Observe:

66 EXERCÍCIO:PREVISÃO DO TEMPO

67 EXERCÍCIO:PREVISÃO DO TEMPO

68 EXEMPLO Um rato é colocado numa gaiola como a da figura seguinte. Há nove compartimentos com conexões entre eles conforme indicado. O rato se move aleatoriamente entre os compartimentos. Ou seja, se há k formas de sair de um compartimento, ele escolhe cada uma delas igual probabilidade.

69 EXEMPLO Podemos representar as posições do rato por um processo markoviano com matriz de transição dada por Determine o vetor de estado estacionário do rato na gaiola.

70 EXERCÍCIO Para encontrar o vetor de estado estacionário para tal matriz, teríamos que resolver 10 equações com 9 incógnitas. Contudo, é razoável considerar que o número de vezes que o rato alcança cada compartimento, no longo prazo, deve ser proporcional ao número de entradas para cada compartimento. Assim, basta construir um vetor cuja jésima componente é o número de entradas para o jésimo compartimento: x = ( ) Normalizando para que a soma das componentes seja 1:

71 EXEMPLO:CADEIA DE MARKOV ABSORVENTE Lembrando: Um estado de uma cadeia de Markov é chamado absorvente quando é impossível abandoná-lo (ou seja, p ii = 1). Uma cadeia de Markov é absorvente quando tem ao menos um estado absorvente, e a partir de cada estado, é possível ir para um estado absorvente(não necessariamente em um passo). Um estado não absorvente é chamado transiente.

72 EXEMPLO DE CADEIA DE MARKOV ABSORVENTE: Drunkard s walk Um homem caminha aleatoriamente ao longo de uma avenida. Se ele está nas esquinas 1, 2 ou 3, ele vai para a esquerda ou para a direita com igual probabilidade. Ele continua até atingir a esquina 4, na qual há um bar, ou a esquina 0, onde é sua casa. Se ele atingir o bar ou o lar, ele permanece lá.

73 EXEMPLO DE CADEIA DE MARKOV ABSORVENTE: Drunkard s walk A matriz de transição para este exemplo é: É fácil perceber que trata-se de uma cadeia de Markov absorvente.

74 EXEMPLO DE CADEIA DE MARKOV ABSORVENTE: Drunkard s walk Perguntas interessantes que podemos formular a respeito deste processo são: Qual é a probabilidade de que o processo vá, no longo prazo, parar em um estado absorvente? Na média, após quantos passos o processo será absorvido? Na média, quantas vezes o processo estará em cada estado transiente? As respostas para essas perguntas dependem, em geral, do estado inicial do processo assim como das probabilidades de transição.

75 FORMA CANÔNICA Considere uma cadeia de Markov absorvente arbitrária. Renumere os estados de forma que os estados transientes sejam os primeiros. Se houver r estados absorventes e t estados transientes, a matriz de transição terá a seguinte forma canônica:

76 FORMA CANÔNICA I é uma matriz identidade r-por-r, 0 é uma matriz de zeros r- por-t, R é uma matriz não-nula t-por-r, e Q é uma matriz t- por-t. Os primeiros t estados são transientes e os últimos r estados são absorventes.

77 FORMA CANÔNICA Após n passos: (n) p ij A componente da matriz acima representa a probabilidade de se alcançar o estado s j após n passos, quando a cadeia é iniciada no estado s i. (A matriz representada por um asterisco pode ser escrita em termos de Q e R, mas sua complicada n expressão não vem ao caso agora). As entradas de Q fornecem as probabilidades de estar em cada um dos estados transientes após n passos para cada estado inicial transiente possível.

78 TEOREMA 1 Em uma cadeia de Markov absorvente, a probabilidade de que o processo será absorvido é 1, ou seja, 0 quando n. Prova: de cada estado transiente s j é possível alcançar um estado absorvente. Seja m j o número mínimo de passos requerido para se alcançar um estado absorvente, a partir de s j. Seja p j a probabilidade de que, começando no estado s j,o processo não alcançará um estado absorvente em passos. Assim, p j <1. Seja m o maior dos m j e seja p o maior dos p j. A probabilidade de não ser absorvido em m passos é menor ou igual a p, em 2m passos é menor ou igual a p 2, e etc. Como p<1, tais n probabilidades tendem a zero. Assim, lim Q = 0. n m j

79 TEOREMA 1 Assim, voltando ao nosso exemplo: A probabilidade de que o processo vá, no longo prazo, parar em um estado absorvente é igual a 1.

80 TEOREMA 2 Para uma cadeia de Markov absorvente, a matriz I Q tem uma inversa N = I + Q + Q+.... A entrada da matriz N é o número esperado de vezes que a cadeia passa pelo estado transiente antes de ser absorvida, dado que o estado transiente inicial é. O estado inicial é contado se i = j. Voltando ao exemplo

81 EXEMPLO: Drunkard s walk Na forma canônica,

82 EXEMPLO: Drunkard s walk Donde, Da linha do meio de N, vemos que se o estado inicial é o estado 2, o número esperado de vezes que se passará pelos estados 1, 2 e 3 antes de ser absorvido será 1, 2 e 1.

83 TEOREMA 3 Seja t i o número esperado de passos antes de a cadeia ser absorvida, dado que o estado inicial é s i,e seja t o vetor coluna cuja i-ésima entrada é. Então, t =Nc onde c é um vetor coluna cujas entradas são todas iguais a 1.

84 EXEMPLO: Drunkard s walk De volta ao nosso exemplo Assim, a partir dos estados 1, 2 e 3, o número esperado de passos antes da absorção é 3, 4 e 3, respectivamente.

85 APLICAÇÕES DA TEORIA DE CADEIAS DE MARKOV Jogos como o Banco Imobiliário, nos quais a posição de cada jogador depende apenas da posição anterior e do número tirado no dado. Suponha que uma versão muito simplificada do jogo seja a seguinte:

86 APLICAÇÕES DA TEORIA DE CADEIAS DE MARKOV

87 APLICAÇÕES DA TEORIA DE CADEIAS DE MARKOV O número em cada célula indica a quantia recebida ou paga por cada jogador ao alcançá-la. Usando a teoria de cadeias de Markov, é possível estimar a quantia que se espera receber após n rodadas de jogo: P é a matriz de transição, f o vetor de payoffs, e g é a quantia recebida/paga.

88 APLICAÇÕES DA TEORIA DE CADEIAS DE MARKOV PageRank,do Google O algoritmo do PageRank é basicamente uma cadeia de Markov aplicada sobre o universo das páginas da Web. Em essência, o Google interpreta um link da página A para a página B como um voto, da página A para a página B. Contudo, não é só o total de votos que conta no ordenamento das páginas. O Google analisa também a página votante. Votos dados por páginas que são elas mesmas importantes têm um peso maior e ajudam outras páginas a tornarem-se também importantes.

89 APLICAÇÕES DA TEORIA DE CADEIAS DE MARKOV Apesar de a página E ter mais links apontando para ela, seu PageRank é menor que o da página C, a qual recebe apenas um link de uma página muito importante.

90 PageRank Se uma página tem um PageRank de 0.5, há uma chance de 50% de que uma pessoa clicando em um link aleatório vá ser direcionada para tal página.

91 Fontes Consultadas Livros CASSANDRAS, Christos G. Introduction to discrete event systems / by Christos G. Cassandras, Stéphane Lafortune HÄGGSTRÖM, Olle. Finite Markov Chains and Algorithmic Applications

92 Fontes Consultadas Sítios da Internet Cadeias de Markov Markov Chain Markov Chains Markov Logic Networks Application of Markov chains to identification of gas turbine engine dynamic models Application of Markov chains in deriving for predicting the dynamic behaviour of chemical engineering processes 1

93 Fontes Consultadas Simulation of hidden Markov models with EXCEL Homogeneous semi-markov reliability models for credit risk management. Application of Markov processes to predict aircraft operational reliability pagesperso-orange.fr/andre.cabarbaye/pdf/articles/article3.pdf Hidden Markov models and their applications to customer relationship management Markov fields and their applications in economics Hidden Markov Models ml

94

TE802 Processos Estocásticos em Engenharia

TE802 Processos Estocásticos em Engenharia TE802 Processos Estocásticos em Engenharia Cadeias de Markov 20/11/2017 Andrei Markov Em 1907, Andrei Markov iniciou um estudo sobre processos onde o resultado de um experimento depende do resultado de

Leia mais

Aula - Equações de Chapman-Kolmogorov

Aula - Equações de Chapman-Kolmogorov Equações de Chapman-Kolmogorov Prof. Magnos Martinello Aula - Equações de Chapman-Kolmogorov Universidade Federal do Esprito Santo-UFES 2011 Equações de Chapman-Kolmogorov 1/17 Introdução As equações de

Leia mais

Processos Estocásticos e Cadeias de Markov Discretas

Processos Estocásticos e Cadeias de Markov Discretas Processos Estocásticos e Cadeias de Markov Discretas Processo Estocástico(I) Definição: Um processo estocástico é uma família de variáveis aleatórias {X(t) t T}, definidas em um espaço de probabilidades,

Leia mais

Cadeias de Markov. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Cadeias de Markov. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Cadeias de Markov Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 3 e 4 Taylor & Karlin 1 / 71 Cadeias de Markov Seja X 0, X 1,...

Leia mais

Classificação de estados em uma cadeia de Markov. Professora Eliana Carvalho

Classificação de estados em uma cadeia de Markov. Professora Eliana Carvalho Classificação de estados em uma cadeia de Markov Professora Eliana Carvalho Classificação de estados em uma cadeia de Markov Os estados de uma cadeia de Markov podem ser classificados com base na probabilidade

Leia mais

MOQ-12 Cadeias de Markov

MOQ-12 Cadeias de Markov Instituto Tecnológico de Aeronáutica Divisão de Engenharia Mecânica-Aeronáutica MOQ-12 Cadeias de Markov Professora: Denise Beatriz T. P. do Areal Ferrari denise@ita.br Roteiro Introdução Processos Estocásticos

Leia mais

Propriedade Markoviana

Propriedade Markoviana Cadeias de Markov Cadeias de Markov É um tipo especial de processo estocástico, que satisfaz as seguintes condições: o parâmetro n é discreto (ex: tempo) o espaço de estados E é discreto (coleção de estados

Leia mais

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2011

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2011 Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2011 Cadeias de Markov Em 1907, Andrew Markov iniciou um estudo sobre um modelo onde o resultado

Leia mais

Teoria de Filas Aula 10

Teoria de Filas Aula 10 Aula Passada Comentários sobre a prova Teoria de Filas Aula 10 Introdução a processos estocásticos Introdução a Cadeias de Markov Aula de Hoje Cadeias de Markov de tempo discreto (DTMC) 1 Recordando...

Leia mais

Noções de Processos Estocásticos e Cadeias de Markov

Noções de Processos Estocásticos e Cadeias de Markov Noções de Processos Estocásticos e Cadeias de Markov Processo Estocástico Definição: Processo Estocástico é uma coleção de variáveis aleatórias indexadas por um parâmetro t R (entendido como tempo). X={

Leia mais

ROTEIRO DA APRESENTAÇÃO PROCESSOS ESTOCÁSTICOS

ROTEIRO DA APRESENTAÇÃO PROCESSOS ESTOCÁSTICOS ROTEIRO DA APRESENTAÇÃO MODELOS ESTOCÁSTICOS APLICADOS À INDÚSTRIA Prof. Lupércio França Bessegato Departamento de Estatística Universidade Federal de Juiz de Fora lupercio.bessegato@ufjf.edu.br www.ufjf.br/lupercio_bessegato

Leia mais

Modelagem e Avaliação de Desempenho

Modelagem e Avaliação de Desempenho Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2016 Exemplos usados na apresentação foram obtidos de Introduction to Probability, C.M.Grinstead

Leia mais

Cadeias de Markov. 1. Introdução. Modelagem e Simulação - Cadeias de Markov

Cadeias de Markov. 1. Introdução. Modelagem e Simulação - Cadeias de Markov Cadeias de Markov. Introdução Nestas notas de aula serão tratados modelos de probabilidade para processos que evoluem no tempo de maneira probabilística. Tais processos são denominados Processos Estocásticos...

Leia mais

Modelos Probabilísticos de Desempenho. Profa. Jussara M. Almeida 1º Semestre de 2014

Modelos Probabilísticos de Desempenho. Profa. Jussara M. Almeida 1º Semestre de 2014 Modelos Probabilísticos de Desempenho Profa. Jussara M. Almeida 1º Semestre de 2014 Modelos Probabilísticos Processos Estocásticos Processos de Poisson Filas M/M/1, M/G/1... Mais genericamente: modelos

Leia mais

Se X t = 4 X t+1 = X t+2 =... = 4. Cadeias de Markov Classificação Cadeias ergódicas Cadeias com absorção

Se X t = 4 X t+1 = X t+2 =... = 4. Cadeias de Markov Classificação Cadeias ergódicas Cadeias com absorção Nesta aula... Processos estocásticos 1 2 3 Processos estocásticos: Suponhamos que observamos um conjunto de caracteristicas de um sistema em instantes de tempo discretos 0, 1, 2,... A característica do

Leia mais

3. CADEIA DE MARKOV EM TEMPO DISCRETO

3. CADEIA DE MARKOV EM TEMPO DISCRETO 3. CADEIA DE MARKOV EM TEMPO DISCRETO 3. Definição Uma Cadeia de Markov em Tempo Discreto é um processo estocástico em que a variável t representa intervalos de tempo, { }e que segue a propriedade de Markov,

Leia mais

Cadeias de Markov de Tempo Contínuo (CTMC)

Cadeias de Markov de Tempo Contínuo (CTMC) Cadeias de Markov de Tempo Contínuo (CTMC) Cadeia de Markov Contínua (1) A análise de cadeias de Markov contínuas (CTMCs) é bem similar a análise em tempo discreto, com a diferença de que as transições

Leia mais

Cadeias de Markov Introdução

Cadeias de Markov Introdução Cadeias de Markov Introdução EAD 350 Pesquisa Operacional Segmento Modelos de Redes Prof. Nicolau Reinhard 1º Semestre de 2017 Referências básicas: Taha, H., Pesquisa Operacional 8ª edição, Pearson, Prentice

Leia mais

Modelagem e Avaliação de Desempenho

Modelagem e Avaliação de Desempenho Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2018 Exemplos usados na apresentação foram obtidos de Introduction to Probability, C.M.Grinstead

Leia mais

Aula 14. Aula de hoje. Aula passada

Aula 14. Aula de hoje. Aula passada Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema

Leia mais

1 Conceitos Iniciais. 1.1 Grafos

1 Conceitos Iniciais. 1.1 Grafos 1 Conceitos Iniciais O objetivo deste capítulo é revisar conceitos básicos, mas fundamentais, sobre grafos, passeios aleatórios (random walks) com especial destaque aos passeios aleatórios sobre grafos

Leia mais

Cadeias de Markov e Campos Aleatórios Markovianos

Cadeias de Markov e Campos Aleatórios Markovianos UNIVERSIDADE DE SÃO PAULO INSTITUTO DE FÍSICA Cadeias de Markov e Campos Aleatórios Markovianos Wagner Gomes Rodrigues Junior Profª Drª Tania Tomé - IFUSP São Paulo 2009 Sumário 1 Cadeias de MarKov 1 SUMÁRIO

Leia mais

Cadeias de Markov em Tempo Continuo

Cadeias de Markov em Tempo Continuo Cadeias de Markov em Tempo Continuo Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 6 Taylor & Karlin 1 / 44 Análogo ao processo

Leia mais

f(x t =x t )= F(X t =x t )/ x X 1 X 2 X 3 X 4 Representação Gráfica de um Processo Estocástico

f(x t =x t )= F(X t =x t )/ x X 1 X 2 X 3 X 4 Representação Gráfica de um Processo Estocástico CAÍTULO ROCESSOS ESTOCÁSTICOS - Introdução ) A variação de tráfego em um cruzamento que envolve a formação e dissipação de congestionamento de tráfego. ) A variação diária do nível de estoques de um determinado

Leia mais

Processos Estocásticos

Processos Estocásticos Processos Estocásticos Quarta Lista de Exercícios 12 de fevereiro de 2014 1 Sejam X e Y duas VAs que só podem assumir os valores 1 ou -1 e seja p(x, y) = P (X = x, Y = y), x, y { 1, 1} a função de probabilidade

Leia mais

1/7 1/ se hoje não chove, amanhã não vai chover com probabilidade p 00 = 6/7;

1/7 1/ se hoje não chove, amanhã não vai chover com probabilidade p 00 = 6/7; 6/7 nao chove 1/7 chove 1/3 "0" /3 "1" Figura 1: Todas as transições com suas respectivas probabilidades representadas através de um grafo. Notem que para cada estado, a soma das probabilidades das flechas

Leia mais

A cadeia de Markov na determinação de indicadores educacionais Applying Markov chain to determine educational indicators

A cadeia de Markov na determinação de indicadores educacionais Applying Markov chain to determine educational indicators A cadeia de Markov na determinação de indicadores educacionais Applying Markov chain to determine educational indicators A cadeia de Markov na determinação de indicadores educacionais Applying Markov chain

Leia mais

PROCESSOS ESTOCÁSTICOS

PROCESSOS ESTOCÁSTICOS PROCESSOS ESTOCÁSTICOS Definições, Principais Tipos, Aplicações em Confiabilidade de Sistemas CLARKE, A. B., DISNEY, R. L. Probabilidade e Processos Estocásticos, Rio de Janeiro: Livros Técnicos e Científicos

Leia mais

MAE GABARITO DA LISTA 2-04/10/2016

MAE GABARITO DA LISTA 2-04/10/2016 MAE5709 - GABARITO DA LISTA - 04/0/06 Exercício.7.5. Primeira Parte Seja P uma matriz de transição sobre um espaço de estados finito S. Mostre que uma distribuição π é invariante para P se e somente se

Leia mais

Avaliação de Desempenho

Avaliação de Desempenho Avaliação de Desempenho Aula passada Métricas, Técnicas, Erros Aula de hoje Conceitos importantes de probabilidade Como fazer a análise de desempenho? Modelos Matemáticos Modelos de Simulação Como fazer

Leia mais

1 Auto vetores e autovalores

1 Auto vetores e autovalores Auto vetores e autovalores Os autovalores de uma matriz de uma matriz n n são os n números que resumem as propriedades essenciais daquela matriz. Como esses n números realmente caracterizam a matriz sendo

Leia mais

Como ganhar no Banco Imobiliário após infinitas jogadas

Como ganhar no Banco Imobiliário após infinitas jogadas Como ganhar no Banco Imobiliário após infinitas jogadas Ian Bernardes Barcellos 16/10/2015 Ian Bernardes Barcellos Como ganhar no Banco Imobiliário após infinitas jogadas 16/10/2015 1 / 17 O Jogo Ian Bernardes

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE

Leia mais

Chamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω.

Chamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω. PROBABILIDADE 1.0 Conceitos Gerais No caso em que os possíveis resultados de um experimento aleatório podem ser listados (caso discreto), um modelo probabilístico pode ser entendido como a listagem desses

Leia mais

Primeiro Exercício programa: Como o Google ordena páginas. MAP-2121 para EPUSP

Primeiro Exercício programa: Como o Google ordena páginas. MAP-2121 para EPUSP Primeiro Exercício programa: Como o Google ordena páginas MAP-2121 para EPUSP 1 Instruções gerais Os exercícios computacionais pedidos na disciplina Cálculo Numérico têm por objetivo fundamental familiarizar

Leia mais

Modelagem de um sistema por cadeias de Markov

Modelagem de um sistema por cadeias de Markov Modelagem de um sistema por cadeias de Markov Sistemas sem memória : somente o estado imediatamente anterior influencia o estado futuro. rocesso estacionário: probabilidades de transição de um estado para

Leia mais

Modelos Probabilísticos

Modelos Probabilísticos Modelos Probabilísticos Somente para lembrar... Modelos são extremamente importantes para o estudo do desempenho de um sistema antes de implementá-lo na prática! Foguete proposto tem confiabilidade? Devemos

Leia mais

1 Probabilidade: Axiomas e Propriedades

1 Probabilidade: Axiomas e Propriedades 1 Probabilidade: Axiomas e Propriedades 1.1 Definição Frequentista Considere um experimento aleatório que consiste no lançamento de um dado honesto. O espaço amostral desse experimento é Ω = {1, 2, 3,

Leia mais

Métodos de Análise Transiente

Métodos de Análise Transiente Métodos de Análise Transiente Tópicos Avançados de Avaliação de Desempenho Prof. Paulo Maciel / Prof. Ricardo Massa Apresentação de: Ana Carolina Veloso Renata Pedrosa Dantas Introdução Visão real das

Leia mais

Processos Estocásticos aplicados à Sistemas Computacionais

Processos Estocásticos aplicados à Sistemas Computacionais Processos Estocásticos aplicados à Sistemas Computacionais Magnos Martinello Universidade Federal do Espírito Santo - UFES Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia

Leia mais

4 Canais Iônicos Estocásticos

4 Canais Iônicos Estocásticos 4 Canais Iônicos Estocásticos 4.1 Processos Estocásticos e o Modelo de Hodgkin e Huxley O modelo de Hodgkin e Huxley clássico, macroscópico, tem como fundamento a variação dos valores das condutâncias

Leia mais

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO

Leia mais

APLICAÇÃO DO TEOREMA DO PONTO FIXO DE BANACH A UM PROBLEMA EM PROBABILIDADE 1

APLICAÇÃO DO TEOREMA DO PONTO FIXO DE BANACH A UM PROBLEMA EM PROBABILIDADE 1 Disciplinarum Scientia. Série: Ciências Exatas, S. Maria, v.2, n.1, p.59-68, 2001 59 APLICAÇÃO DO TEOREMA DO PONTO FIXO DE BANACH A UM PROBLEMA EM PROBABILIDADE 1 APPLICATION OF BANACH FIXED POINT THEOREM

Leia mais

PageRank Matriz do Google Referências. Matrizes e Google. Manuela da Silva Souza IME - USP. 13 de novembro de 2013

PageRank Matriz do Google Referências. Matrizes e Google. Manuela da Silva Souza IME - USP. 13 de novembro de 2013 Matrizes e Google IME - USP 13 de novembro de 2013 História Motores de busca do final dos anos 90: Altavista, Lycos, Yahoo. Por volta de 98/99 surge o Google e se torna o motor de busca mais importante

Leia mais

Modelização do Sistema Produtivo Teoria das Filas de Espera

Modelização do Sistema Produtivo Teoria das Filas de Espera Modelização do Sistema Produtivo Teoria das Filas de Espera http://www.fe.up.pt/maspwww Licenciatura em Engenharia Electrotécnica e de Computadores Gil M. Gonçalves Gil.Goncalves@fe.up.pt 2004/2005 Outline

Leia mais

4 Cadeias de Markov homogêneas

4 Cadeias de Markov homogêneas 4 Cadeias de Markov homogêneas Conteúdo 4.1 Cadeias de Markov homogêneas............................ 157 4.1.1 2-SAT........................................ 14 4.1.2 Transiência, recorrência e periodicidade...................

Leia mais

PROCESSOS ESTOCÁSTICOS E APLICAÇÕES

PROCESSOS ESTOCÁSTICOS E APLICAÇÕES PROCESSOS ESTOCÁSTICOS E APLICAÇÕES JOSÉ PEDRO GAIVÃO Conteúdo 1. Noções Gerais 2 1.1. Relembrar de teoria de probabilidades 2 1.2. Processos estocásticos 3 2. Esperança Condicional 5 2.1. Esperança condicional

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aula passada Algoritmo para simular uma fila Medidas de interesse Média amostral Aula de hoje Teorema do Limite Central Intervalo de Confiança Variância amostral

Leia mais

Universidade Federal do ABC Rua Santa Adélia, Bairro Bangu - Santo André - SP - Brasil CEP Telefone/Fax:

Universidade Federal do ABC Rua Santa Adélia, Bairro Bangu - Santo André - SP - Brasil CEP Telefone/Fax: Universidade Federal do ABC Rua Santa Adélia, 166 - Bairro Bangu - Santo André - SP - Brasil CEP 09.210-170 - Telefone/Fax: +55 11 4996-3166 1. CÓDIGO E NOME DA DISCIPLINA BC1436 - PRINCÍPIOS DE SIMULAÇÃO

Leia mais

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 20

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 20 Teoria das Filas aplicadas a Sistemas Computacionais Aula 20 Magnos Martinello Universidade Federal do Espírito Santo - UFES Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia

Leia mais

Processos estocásticos

Processos estocásticos 36341 - Introdução aos Processos Estocásticos Curso de Pós-Graduação em Engenharia Elétrica Departamento de Engenharia Elétrica Universidade de Brasília Processos estocásticos Geovany A. Borges gaborges@ene.unb.br

Leia mais

Sistemas de equações lineares

Sistemas de equações lineares ALGA- / - Sistemas de Equações Lineares Sistemas de equações lineares Introdução Uma equação linear nas incógnitas ou variáveis x ; x ; :::; x n é uma expressão da forma: a x + a x + ::: + a n x n = b

Leia mais

lnteligência Artificial Introdução ao Processo Decisório de Markov

lnteligência Artificial Introdução ao Processo Decisório de Markov lnteligência Artificial Introdução ao Processo Decisório de Markov Aprendizado - paradigmas Aprendizado supervisionado O crítico comunica a EA o erro relativo entre a ação que deve ser tomada idealmente

Leia mais

a convergência das distribuições de probabilidade para

a convergência das distribuições de probabilidade para Cadeia de Markov: modelo probabilístico e convergência das distribuições de probabilidade Markov chain: probabilistic model and convergence of probability distributions ISSN 2316-9664 Volume 11, dez. 2017

Leia mais

MAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de T ( p(x) ) = p(x + 1) p(x), (a) 8, (b) 5, (c) 0, (d) 3, (e) 4.

MAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de T ( p(x) ) = p(x + 1) p(x), (a) 8, (b) 5, (c) 0, (d) 3, (e) 4. MAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de 218 Q1. Considere a transformação linear T : P 3 (R) P 2 (R), dada por T ( p(x) ) = p(x + 1) p(x), para todo p(x) P 3 (R), e seja A

Leia mais

Thaís Saes Giuliani Ribeiro. Processos de Markov discretos: exemplos voltados para o Ensino Médio

Thaís Saes Giuliani Ribeiro. Processos de Markov discretos: exemplos voltados para o Ensino Médio Thaís Saes Giuliani Ribeiro Processos de Markov discretos: exemplos voltados para o Ensino Médio Bauru 07 Thaís Saes Giuliani Ribeiro Processos de Markov discretos: exemplos voltados para o Ensino Médio

Leia mais

Método da Potência. Gabriela Reis Afonso Paiva Neto 30/05/2014. Gabriela Reis, Afonso Paiva Neto Método da Potência

Método da Potência. Gabriela Reis Afonso Paiva Neto 30/05/2014. Gabriela Reis, Afonso Paiva Neto Método da Potência Método da Potência Gabriela Reis Afonso Paiva Neto 30/05/2014 Método da Potência Seja A M(n, n) diagonalizável com λ 1 > λ 2 λ 3 λ n. Objetivo Encontrar λ 1 e seu autovetor associado v 1. Método da Potência

Leia mais

Estabilidade Interna. 1. Estabilidade Interna. 2. Análise de Estabilidade Segundo Lyapunov. 3. Teorema de Lyapunov

Estabilidade Interna. 1. Estabilidade Interna. 2. Análise de Estabilidade Segundo Lyapunov. 3. Teorema de Lyapunov Estabilidade Interna 1. Estabilidade Interna 2. Análise de Estabilidade Segundo Lyapunov 3. Teorema de Lyapunov 4. Teorema de Lyapunov Caso Discreto pag.1 Teoria de Sistemas Lineares Aula 13 Estabilidade

Leia mais

Markov chain e MCMC. Renato Assunção DCC, UFMG

Markov chain e MCMC. Renato Assunção DCC, UFMG Markov chain e MCMC Renato Assunção DCC, UFMG Objetivo da aula Fornecer um introdução INFORMAL a processos estocásticos e cadeias de Markov Fornecer os elementos para entender porque os algoritmos de MCMC

Leia mais

Modelo de Markov e Simulação de Monte Carlo do Jogo do Monopólio

Modelo de Markov e Simulação de Monte Carlo do Jogo do Monopólio Modelação e Simulação 2011/12 Trabalho de Laboratório nº4 Modelo de Markov e Simulação de Monte Carlo do Jogo do Monopólio Objectivo Após realizar este trabalho, o aluno deverá ser capaz de Construir um

Leia mais

UMA PITADA DE PASSEIOS ALEATÓRIOS

UMA PITADA DE PASSEIOS ALEATÓRIOS UMA PITADA DE PASSEIOS ALEATÓRIOS RENATO JACOB GAVA 1. Introdução Suponha que um jogador entre num cassino com 0 reais em dinheiro para apostar. Assuma que ele participe de um jogo que consiste de apostas

Leia mais

Conceitos Básicos, Básicos,Básicos de Probabilidade

Conceitos Básicos, Básicos,Básicos de Probabilidade Conceitos Básicos, Básicos,Básicos de Probabilidade Espaço Amostral Base da Teoria de Probabilidades Experimentos são realizados resultados NÃO conhecidos previamente Experimento aleatório Exemplos: Determinar

Leia mais

AULA 11 PROJETO E ANÁLISE DE ALGORITMOS. Conceitos básicos e representação de grafos Karina Valdivia Delgado

AULA 11 PROJETO E ANÁLISE DE ALGORITMOS. Conceitos básicos e representação de grafos Karina Valdivia Delgado AULA 11 PROJETO E ANÁLISE DE ALGORITMOS Conceitos básicos e representação de grafos Karina Valdivia Delgado Roteiro Motivação Conceitos básicos Representação Motivação Um grafo é uma abstração que permite

Leia mais

Autovalores e Autovetores

Autovalores e Autovetores Algoritmos Numéricos II / Computação Científica Autovalores e Autovetores Lucia Catabriga 1 1 DI/UFES - Brazil Junho 2016 Introdução Ideia Básica Se multiplicarmos a matriz por um autovetor encontramos

Leia mais

CADEIAS DE MARKOV E APLICAÇÕES

CADEIAS DE MARKOV E APLICAÇÕES UNIVERSIDADE FEDERAL DE SANTA MARIA CENTRO DE CIÊNCIAS NATURIAS E EXATAS MATEMÁTICA BACHARELADO CADEIAS DE MARKOV E APLICAÇÕES TRABALHO DE GRADUAÇÃO Fernanda Alves Lamberti Santa Maria, RS, Brasil 205

Leia mais

Cadeias de Markov. o Teorema Central do Limite. Markov é lembrado pelo seu estudo de Cadeias de Markov

Cadeias de Markov. o Teorema Central do Limite. Markov é lembrado pelo seu estudo de Cadeias de Markov Capítulo Cadeias de Markov Neste capítulo vamos estudar uma classe de processos aleatórios ou estocásticos que possuem uma determinada característica que pode, grosseiramente, ser descrita como perda de

Leia mais

Convergência em espaços normados

Convergência em espaços normados Chapter 1 Convergência em espaços normados Neste capítulo vamos abordar diferentes tipos de convergência em espaços normados. Já sabemos da análise matemática e não só, de diferentes tipos de convergência

Leia mais

A = B, isto é, todo elemento de A é também um elemento de B e todo elemento de B é também um elemento de A, ou usando o item anterior, A B e B A.

A = B, isto é, todo elemento de A é também um elemento de B e todo elemento de B é também um elemento de A, ou usando o item anterior, A B e B A. Capítulo 1 Números Reais 1.1 Conjuntos Numéricos Um conjunto é uma coleção de elementos. A relação básica entre um objeto e o conjunto é a relação de pertinência: quando um objeto x é um dos elementos

Leia mais

Hewlett-Packard CONJUNTOS NUMÉRICOS. Aulas 01 a 08. Elson Rodrigues, Gabriel Carvalho e Paulo Luiz Ramos

Hewlett-Packard CONJUNTOS NUMÉRICOS. Aulas 01 a 08. Elson Rodrigues, Gabriel Carvalho e Paulo Luiz Ramos Hewlett-Packard CONJUNTOS NUMÉRICOS Aulas 01 a 08 Elson Rodrigues, Gabriel Carvalho e Paulo Luiz Ramos Ano: 2019 Sumário CONJUNTOS NUMÉRICOS... 2 Conjunto dos números Naturais... 2 Conjunto dos números

Leia mais

Métodos Quantitativos para a Gestão Ambiental Probabilidades e Distribuições Estatísticas Parte 1 (4/13) Luiz Carlos Estraviz Rodriguez

Métodos Quantitativos para a Gestão Ambiental Probabilidades e Distribuições Estatísticas Parte 1 (4/13) Luiz Carlos Estraviz Rodriguez Métodos Quantitativos para a Gestão Ambiental Probabilidades e Distribuições Estatísticas Parte 1 (4/13) Luiz Carlos Estraviz Rodriguez Distribuição de probabilidades Contexto O porquê desta aula Ao desenvolvermos

Leia mais

Capítulo 1 Números Reais

Capítulo 1 Números Reais Departamento de Matemática Disciplina MAT154 - Cálculo 1 Capítulo 1 Números Reais Conjuntos Numéricos Conjunto dos naturais: N = {1,, 3, 4,... } Conjunto dos inteiros: Z = {..., 3,, 1, 0, 1,, 3,... } {

Leia mais

Cadeias de Markov. Geovany A. Borges gaborges@ene.unb.br

Cadeias de Markov. Geovany A. Borges gaborges@ene.unb.br 36341 - Introdução aos Processos Estocásticos Curso de Pós-Graduação em Engenharia Elétrica Departamento de Engenharia Elétrica Universidade de Brasília Cadeias de Markov Geovany A. Borges gaborges@ene.unb.br

Leia mais

O problema do ponto mais visitado e a cadeia do viajante

O problema do ponto mais visitado e a cadeia do viajante O problema do ponto mais visitado e a cadeia do viajante The problem of the most visited point and the chain of the traveler ISSN 236-9664 Volume 8, dez. 206 Rogério César dos Santos FUP/UnB rogerc@unb.br

Leia mais

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31 Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31 Um teorema de grande importância e bastante utilidade em probabilidade

Leia mais

SISTEMAS LINEARES PROF. EDÉZIO

SISTEMAS LINEARES PROF. EDÉZIO SOLUÇÕES NUMÉRICAS DE SISTEMAS LINEARES PROF. EDÉZIO Considere o sistema de n equações e n incógnitas: onde E : a x + a x +... + a n x n = b E : a x + a x +... + a n x n = b. =. () E n : a n x + a n x

Leia mais

Otimização Aplicada à Engenharia de Processos

Otimização Aplicada à Engenharia de Processos Otimização Aplicada à Engenharia de Processos Aula 4: Programação Linear Felipe Campelo http://www.cpdee.ufmg.br/~fcampelo Programa de Pós-Graduação em Engenharia Elétrica Belo Horizonte Março de 2013

Leia mais

5 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão Encontre os autovalores, os autovetores e a exponencial e At para

5 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão Encontre os autovalores, os autovetores e a exponencial e At para 5 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão 2008 1. Encontre os autovalores, os autovetores e a exponencial e At para [ ] 1 1 1 1 2. Uma matriz diagonal Λ satisfaz a regra usual

Leia mais

Álgebra Linear I - Aula 22

Álgebra Linear I - Aula 22 Álgebra Linear I - Aula 1. Bases Ortonormais.. Matrizes Ortogonais. 3. Exemplos. 1 Bases Ortonormais Lembre que uma base β é ortogonal se está formada por vetores ortogonais entre si: para todo par de

Leia mais

I. INTRODUÇÃO Generalidades

I. INTRODUÇÃO Generalidades 1 I. INTRODUÇÃO 1.1. Generalidades Qualquer sistema real opera sempre em ambientes onde a incerteza impera, principalmente quando o sistema envolve, pela sua natureza, ações humanas imprevisíveis ou desgaste

Leia mais

PROCESSOS ESTOCÁSTICOS. Modelagem de falhas, Técnicas de Markov para modelagem da confiabilidade de sistemas

PROCESSOS ESTOCÁSTICOS. Modelagem de falhas, Técnicas de Markov para modelagem da confiabilidade de sistemas ROCESSOS ESTOCÁSTICOS Modelagem de falhas, Técnicas de Markov para modelagem da confiabilidade de sistemas Modelagem de falhas Confiabilidade de sistemas Necessário modelar o comportamento do sistema,

Leia mais

- identificar operadores ortogonais e unitários e conhecer as suas propriedades;

- identificar operadores ortogonais e unitários e conhecer as suas propriedades; DISCIPLINA: ELEMENTOS DE MATEMÁTICA AVANÇADA UNIDADE 3: ÁLGEBRA LINEAR. OPERADORES OBJETIVOS: Ao final desta unidade você deverá: - identificar operadores ortogonais e unitários e conhecer as suas propriedades;

Leia mais

Álgebra Linear e Geometria Anaĺıtica. Matrizes e Sistemas de Equações Lineares

Álgebra Linear e Geometria Anaĺıtica. Matrizes e Sistemas de Equações Lineares universidade de aveiro departamento de matemática Álgebra Linear e Geometria Anaĺıtica Agrupamento IV (ECT, EET, EI) Capítulo 1 Matrizes e Sistemas de Equações Lineares Geometria anaĺıtica em R 3 [1 01]

Leia mais

Tópicos Especiais em Qualidade

Tópicos Especiais em Qualidade Tópicos Especiais em Qualidade Processos estocásticos, Distribuições de probabilidade e Ajustamento de dados Qualquer sistema real opera sempre em ambientes onde a incerteza impera, principalmente quando

Leia mais

Introdução à Análise Algoritmos

Introdução à Análise Algoritmos Introdução à Análise Algoritmos Notas de aula da disciplina IME 4-182 Estruturas de Dados I Paulo Eustáquio Duarte Pinto (pauloedp arroba ime.uerj.br) abril/218 Ordenação por SELEÇÃO: Idéia: Dado um vetor

Leia mais

Sistemas Lineares - Métodos Iterativos : Jacobi e Gauss-Seidel. Profa. Cynthia de O. Lage Ferreira Métodos Numéricos e Computacionais I - SME0305

Sistemas Lineares - Métodos Iterativos : Jacobi e Gauss-Seidel. Profa. Cynthia de O. Lage Ferreira Métodos Numéricos e Computacionais I - SME0305 Sistemas Lineares - Métodos Iterativos : Jacobi e Gauss-Seidel Profa. Cynthia de O. Lage Ferreira Métodos Numéricos e Computacionais I - SME35 Métodos Iterativos Nesta seção, vamos estudar métodos iterativos

Leia mais

1 Equações Diferenciais Ordinárias: Sistemas de Equações

1 Equações Diferenciais Ordinárias: Sistemas de Equações Equações Diferenciais Ordinárias: Sistemas de Equações O sistema geral de duas equações diferenciais pode ser escrito como: ẋ = F x,y,t ẏ = Gx,y,t Uma Solução de é um par x t e y t de funções de t tais

Leia mais

Espaço amostral Ω: Conjunto enumerável de todos os possíveis resultados de um experimento aleatório. um evento elementar. E = E[X j ] X j.

Espaço amostral Ω: Conjunto enumerável de todos os possíveis resultados de um experimento aleatório. um evento elementar. E = E[X j ] X j. Universidade Tecnológica Federal do Paraná Professor Murilo V G da Silva Notas de aula Algoritmos Avançados I (Aula 04 Conteúdos da aula: [CLR09: cap 7 e 9][MIE05 4, 5] Vamos estudar nesta aula três algoritmos

Leia mais

Estatística Aplicada. Prof. Carlos Alberto Stechhahn PARTE I ESPAÇO AMOSTRAL - EVENTOS PROBABILIDADE PROBABILIDADE CONDICIONAL.

Estatística Aplicada. Prof. Carlos Alberto Stechhahn PARTE I ESPAÇO AMOSTRAL - EVENTOS PROBABILIDADE PROBABILIDADE CONDICIONAL. Estatística Aplicada Administração p(a) = n(a) / n(u) PARTE I ESPAÇO AMOSTRAL - EVENTOS PROBABILIDADE PROBABILIDADE CONDICIONAL Prof. Carlos Alberto Stechhahn 2014 1. Noções de Probabilidade Chama-se experimento

Leia mais

Redes de Petri. Marcação e seu comportamento dinâmico. Marcação

Redes de Petri. Marcação e seu comportamento dinâmico. Marcação Redes de Petri A rede de Petri, técnica de modelagem original de onde derivou mais tarde o SFC, foi introduzida em 962 por Carl Adam Petri. Consiste de uma ferramenta gráfica e matemática extremamente

Leia mais

Modelagem e Análise de Sistemas - COS767

Modelagem e Análise de Sistemas - COS767 Modelagem e Análise de Sistemas - COS767 Aula de hoje Introdução à simulação Geração de números aleatórios Lei dos Grandes Números Geração de variáveis aleatórias: método da transformada inversa Simulação

Leia mais

CONHECIMENTOS ESPECÍFICOS

CONHECIMENTOS ESPECÍFICOS ECT11_17_52N43767 Uma cadeia de Markov é denominada irredutível (ou ergódica) caso qualquer estado possa ser transformado em qualquer outro estado, não necessariamente em um único passo. Uma cadeia de

Leia mais

Filtro de Kalman. Teoria e Aplicação para Iniciantes. Prof. Dr. Marco Antonio Leonel Caetano. M&V Consultoria e Treinamento

Filtro de Kalman. Teoria e Aplicação para Iniciantes. Prof. Dr. Marco Antonio Leonel Caetano. M&V Consultoria e Treinamento Filtro de Kalman Teoria e Aplicação para Iniciantes Prof. Dr. Marco Antonio Leonel Caetano M&V Consultoria e Treinamento www.mudancasabruptas.com.br A História da Filtragem de Sinais 930 940 960 Filtro

Leia mais

P4 de Álgebra Linear I de junho de 2005 Gabarito

P4 de Álgebra Linear I de junho de 2005 Gabarito P4 de Álgebra Linear I 25.1 15 de junho de 25 Gabarito 1) Considere os pontos A = (1,, 1), B = (2, 2, 4), e C = (1, 2, 3). (1.a) Determine o ponto médio M do segmento AB. (1.b) Determine a equação cartesiana

Leia mais

)XQGDPHQWRVGHSUREDELOLGDGHHHVWDWtVWLFD

)XQGDPHQWRVGHSUREDELOLGDGHHHVWDWtVWLFD )XQGDPHQWRVGHUREDELOLGDGHHHVWDWtVWLFD,QWURGXomR A história da estatística pode ser dividida em três fases. De acordo com PEANHA (00), a estatística inicialmente não mantinha nenhuma relação com a probabilidade,

Leia mais

a 11 a a 1n a 21 a a 2n A = a m1 a m2... a mn

a 11 a a 1n a 21 a a 2n A = a m1 a m2... a mn Matrizes Definição Definição Uma matriz m n é uma tabela de mn números dispostos em m linhas e n colunas a 11 a 1 a 1n a 1 a a n a m1 a m a mn Embora a rigor matrizes possam ter quaisquer tipos de elementos,

Leia mais

G3 de Álgebra Linear I

G3 de Álgebra Linear I G3 de Álgebra Linear I 2.2 Gabarito ) Considere a matriz 4 N = 4. 4 Observe que os vetores (,, ) e (,, ) são dois autovetores de N. a) Determine uma forma diagonal D de N. b) Determine uma matriz P tal

Leia mais

Sistemas de equações lineares

Sistemas de equações lineares DMPA IM UFRGS Cálculo Numérico Índice Sistema de Equações Lineares 1 Sistema de Equações Lineares 2 com pivoteamento parcial 3 Método de Jacobi Método Gauss-Seidel Sistema de Equações Lineares n equações

Leia mais

ALGORITMO DE EUCLIDES

ALGORITMO DE EUCLIDES Sumário ALGORITMO DE EUCLIDES Luciana Santos da Silva Martino lulismartino.wordpress.com lulismartino@gmail.com PROFMAT - Colégio Pedro II 25 de agosto de 2017 Sumário 1 Máximo Divisor Comum 2 Algoritmo

Leia mais