Modelagem e Avaliação de Desempenho
|
|
|
- Henrique Duarte
- 6 Há anos
- Visualizações:
Transcrição
1 Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2018 Exemplos usados na apresentação foram obtidos de Introduction to Probability, C.M.Grinstead e JL Snell
2 Cadeias de Markov Em 1907, Andrew Markov iniciou um estudo sobre um modelo onde o resultado de um experimento depende do resultado de um experimento anterior; Este processo de modelagem é conhecido atualmente como Cadeias de Markov (Markov Chain).
3 Cadeias de Markov Uma cadeia de Markov pode ser descrita da seguinte forma Considere um conjunto de estados S={s 1, s 2,, s n } O processo inicia-se em um destes estados e se move sucessivamente de um estado para outro; Cada troca é chamada de passo; Se o estado corrente é s i, então ela se move para o estado s j com uma probabilidade denotada por p ij, e esta probabilidade não depende dos estados anteriores da cadeia de Markov. As probabilidades p ij são chamadas de probabilidades de transição.
4 Matriz P P é chamada matriz de transição e possui algumas propriedades interessantes. As linhas representam a probabilidade de transição de um estado para outro. Para calcular a probabilidade da cadeia se encontrar no estado j, mas a n passos adiante, pode-se calcular P n.
5 Exemplo Suponha que Curitiba foi abençoada com muitas coisa, menos com bom tempo para astonomia. Curitiba nunca apresenta dois dias seguidos com bom tempo para observação astronômica. Se há um dia bom, é mais provável ter chuva ou nuvens no próximo dia. Se há chuva ou nuvens, existe uma chance de haver tempo bom no próximo dia. Suponha a cadeia de Markov que representa a transição destes estados, onde C representa chuva, B representa tempo bom e N representa tempo nublado.
6 Exemplo Para o caso do exemplo anterior (clima para astronomia em Curitiba), temos:
7 Matriz P Para se calcular a probabilidade de se encontrar no estado j dado um estado i, n passos adiante, pode-se calcular: Exemplo: suponha que a probabilidade inicial para o clima para astronomia seja de (1/3, 1/3 e 1/3) e desejase fazer a previsão do tempo para 3 dias. Neste caso,
8 Exercício Considere três grandes universidades americanas, Harvard, Darmouth e Yale. Suponha que os filhos de ex-alunos Harvard tem 80% de chance de estudar na mesma escola e os demais estudam em Yale. Suponha que 40% dos filhos de ex-alunos de Yale estudam também em Yale e os demais dividem-se igualmente entre Darmouth e e Harvard. Suponha que os filhos de ex-alunos de Darmouth tem 70% de chance de estudar em Darmouth, enquanto 20% entram em Harvard e 10% em Yale. 1) Encontre a matriz P. 2) Encontre a probabilidade de que um neto de um ex-aluno de Harvard estude em Darmouth. 3) Encontre a probabilidade de que um bisneto de um ex-aluno de Darmouth estude em Yale.
9
10 Cadeias de Markov Absorventes Considere uma cadeia de Markov onde existem estados onde não é possível realizar a transição para nenhum outro estado. Este estado é denominado estado absorvente. Um estado absorvente apresenta p ij =1. Esta é uma variação especial das cadeias de Markov. Em uma cadeia de Markov absorvente, o número de passos até atingir o estado absorvente é chamado transiente.
11 Cadeias de Markov Absorventes Exemplo. Um bêbado caminha na rua. Cada número de 1 a 3 representa um quarteirão, enquanto o número 0 representa a casa dele e o número 4 representa o bar. Escreva a matriz P correspondente.
12 Cadeias de Markov Absorventes
13 Cadeias de Markov Absorventes As questões que surgem são: Qual a probabilidade de que o processo seja eventualmente absorvido? Na média, quantos passos serão dados até que o processo seja absorvido? Na média, quantas vezes um dado estado transiente será visitado até que o processo seja absorvido? As respostas a estas questões dependem do estado inicial e da matriz de transição.
14 Cadeias de Markov Absorventes Considere a matriz P com r estados absorventes (ABS) e t estados transientes (TR). A matriz P canônica é formada conforme abaixo: I é uma matriz identidade r por r. O é uma matriz 0 r por t. R é uma matriz t por r. Q é uma matriz t por t.
15 Cadeias de Markov Absorventes Para uma cadeia de Markov absorvente, a matriz N=(I-Q) -1 é chamada matriz fundamental para P. Um elemento n ij de N fornece o número esperado de vezes que o processo estará no estado transiente s j caso o estado inicial seja o estado s i
16 Cadeias de Markov Absorventes Exemplo: Iniciando-se no estado 2, o número médio de vezes em que o sistema permanece nos estados 1, 2 e 3 será, respectivamente, 1, 2 e 1.
17 Cadeias de Markov Absorventes Outro fator importante a se considerar é o número médio de passos para a absorção. Seja t número de passos até a absorção, dado que o estado inicial seja s i e t ser o vetor coluna que armazena o número médio de passos para absorção a partir dos estados transientes e c é um vetor coluna com todos os elementos iguais a 1. Então: Calcular para o exemplo anterior.
18 Resposta
19 Cadeias de Markov Absorventes Um analista pode estar interessado também em calcular a probabilidade do sistema encerrar em um dos estados absorventes. Neste caso, se b ij representar a probabilidade da cadeia ser absorvida por um estado s j caso o estado inicial seja um estado transiente s i, então a matriz B (t por r) será dada por:
20 Exemplo 1 Considerando o problema do bêbado:
21 Exemplo 2 Considere o lançamento de uma moeda equilibrada. O resultado pode ser cara (A) ou coroa (O), com uma probabilidade de 1/2. Utilizando cadeias de Markov, determine o número médio de lançamentos para obter a sequência AOA. Anote a solução apresentada na aula
22 Cadeias de Markov Ergódicas Uma cadeia de Markov é chamada de ergódica se é possível ir de um estado para qualquer outro da cadeia (não necessariamente em um único passo). Seja P a matriz de transição de uma cadeia de Markov. Diz-se que P é regular se alguma potência de P contêm somente entradas positivas (ou seja, alguma potência de P não contem nenhuma entrada igual a zero), diz-se que a cadeia de Markov é regular. Uma cadeia de Markov absorvente não pode ser regular.
23 Cadeias de Markov Ergódicas Suponha a matriz de transição de probabilidade dada por A cadeia é ergódica No entanto, não é regular (se o número de passo é ímpar não é possível atingir um dado estado)
24 Outro exemplo A cadeia é ergódica e regular? E a cadeia do exemplo do clima para astronomia em Curitiba?
25 Cadeias de Markov Regulares Seja P uma matriz de transição para uma cadeia de markov regular. Então, conforme n tende a infinito, as potências P n se aproximam da matriz limite em que todas as linhas são iguais (vetor W). O vetor W é um vetor de probabilidade onde todos os componentes são positivos e sua soma é igual a 1. Ver exemplo da terra do clima para astronomia em Curitiba.
26 Cadeias de Markov Para uma cadeia de Markov Ergodica, existe um único vetor W tal que W.P=W, com w positivo. Qualquer linha do vetor é tal que vp=v é múltiplo de W. Qualquer coluna do vetor x tal que P.x=x é um vetor constante. Para uma cadeia de Markov Ergodica, a longo prazo, a permanência em cada estado é dada pelo vetor W, independentemente do estado inicial
27 Cadeias de Markov Regulares No exemplo do clima para astronomia em Curitiba: De modo geral,
28 Cadeias de Markov Regulares Utilizando o resultado, é possível determinar o valor limite fazendo:
29 Cadeias de Markov Regulares Resolvendo:
30 Exemplo 3 O modelo de Gilbert-Elliott é um dos modelos mais famosos para caracterizar a perda de pacotes em redes. Este modelo usa dois estados: Bom (B) e Ruim (R). A transição do estado B para R tem probabilidade p e de R para B tem probabilidade q. A transição no diagrama de estados ocorre a cada novo pacote transmitido. A probabilidade de descarte de pacote no estado B é dado por (1-k) e no estado B por (1-h). Determine a probabilidade de descarte de pacotes. Anote os desenvolvimentos apresentados na aula
31 Exemplo 4 Considere um componente (ex. Lâmpada) que possui uma vida útil dada em unidades de tempo discreto (dias, por exemplo). Suponha que o componente fica ativo até falhar ou ser substituído no tempo N. A probabilidade de falha é constante dada por p. Determine a probabilidade de estado estacionário para este problema. Analise cuidadosamente a metodologia de solução porque este tipo de problema é bastante comum. Como esta probabilidade pode ser usada para estabelecer uma boa política de substituição (valor de N)? Anote os desenvolvimentos apresentados na aula
32 Exemplo 5 Um professor se alterna entre seu gabinete e sua casa. Se na hora da saída estiver chovendo e existir um guarda chuvas (no gabinete ou em casa), o professor sai com o guarda chuva e deixa no destino. Caso não haja guarda chuva disponível, o professor sai na chuva e se molha. Suponha que existe uma probabilidade p de chover e o professor possua 3 guarda chuvas. Determine: Matriz de transição de probabilidade para o sistema e diagrama de transição de estados correspondente. Probabilidade do professor se molhar.
33 Cadeias de Markov - Simulação
34 Exercício Suponha que um experimento possui a matriz P como segue: O valor de p é desconhecido. No entanto, repetindo-se muitas vezes o experimento, 20% das vezes o sistema encontram-se no estado 1 e 80% no estado 2. Encontre o valor p.
35 Número médio de passos médio para primeira passagem e recorrência Duas medidas quantitativas de interesse para cadeias de Markov ergódicas são: Número médio de passos para retornar a um determinado estado; Número médio de passos para ir de um estado para outro.
36 Número médio de passos para primeira passagem Uma maneira de analisar o problema é o seguinte: Suponha que a cadeia de Markov em estudo é ergódica (qualquer estado pode ser atingido a partir que qualquer estado inicial). Para determinar o número médio de passos para atingir um determinado estado i, basta fazer este estado um estado absorvente. Depois, apenas é necessário fazer o estudo com a teoria de cadeias de Markov absorventes.
37 Número médio de passos para primeira passagem Uma maneira de analisar o problema é o seguinte: Suponha que a cadeia de Markov em estudo é ergódica (qualquer estado pode ser atingido a partir que qualquer estado inicial). Para determinar o número médio de passos para atingir um determinado estado i, basta fazer este estado um estado absorvente. Depois, apenas é necessário fazer o estudo com a teoria de cadeias de Markov absorventes.
38 Tempo médio para primeira passagem Exemplo: Labirinto
39 Número médio de passos para primeira passagem Exemplo: Labirinto Como podemos determinar se o rato é mais esperto?
40 Número médio de passos para primeira passagem Exemplo: Para calcular o tempo médio para atingir o estado 5, fazemos este estado absorvente:
41 Número médio de passos para primeira passagem Exemplo: Calculamos a matriz fundamental N Iniciando-se no estado 1, o número médio de vezes em que o sistema permanece nos estados 1, 2, 3, etc., será, respectivamente, 14, 9, 4.
42 Número médio de passos para primeira passagem Exemplo: Labirinto Iniciando-se no estado 1, o sistema leva em média 6 passos para atingir o estado 5 (absorvente). Iniciando-se no estado 2, o sistema leva 5 passos para atingir o estado absorvente e assim por diante.
43 Número médio de passos para recorrência Qual será o número médio de passos em que um estado será visitado novamente? Dado um estado s i, qual será o número médio de passos que o sistema irá levar para se encontrar novamente no estado s i no futuro? Dado o vetor w, com a probabilidade limite, basta calcular 1/w i e teremos o número médio de passos para visitar o estado
44 Número médio de passos para recorrência No exemplo do labirinto, pode ser calculado w.p=w (acrescentado somatório de w i =1), obtendo-se: De onde pode ser deduzido o vetor r (número médio de passos para recorrência):
45 Cadeias de Markov em Tempo Contínuo Ergodic Continous Time Markov Chain A novidade é considerar a variável tempo. Neste caso, o tempo de permanência em cada transição é considerado como exponencialmente distribuído (esta é uma exigência, hipótese básica para validade deste raciocínio). Considere que o parâmetro que determina a taxa de transição do estado i para o próximo estado j seja dado por q ij
46 Cadeias de Markov em Tempo Contínuo Desta forma, podemos definir: Onde Q é a matriz de transição de taxas O vetor Π é o vetor de estado estacionário Para o vetor Q, o elemento q ii (diagonal principal) é obtido fazendo-se o complemento do somantório dos demais elementos da linha (ver exemplo em sala).
47 Cadeias de Markov em Tempo Contínuo Exemplo: Suponha dois servidores operando em cluster. Um servidor falha com uma taxa μ, exponencialmente distribuída (ou seja, o tempo médio entre falhas é dado por 1/μ). A taxa de reparo é dada por λ (ou seja, o tempo médio de reparo é dado por 1/λ). Suponha que as instalações de reparo podem trabalhar em dois servidores simultaneamente. Deseja-se descobrir expressões para o estado estacionário. Qual a probabilidade de falha total do sistema? Ver solução apresentada em sala
48 Cadeias de Markov em Tempo Contínuo Exercício: Suponha um sistema com diagrama de transição de estados a seguir: Suponha que as transições possuem distribuição exponencial e λ i representa as taxas correspondentes. Calcule as probabilidades de estado estacionário.
49 Modelos Ocultos de Markov Hidden Markov Model (HMM) É um sistema modelado por uma cadeia de Markov onde os estados não podem ser observados diretamente. Uma sequência de eventos observáveis podem ser utililizados para inferir o estado atual da cadeia de Markov. A HMM é definida por: Conjunto de estados e probabilidades de transição. Eventos observáveis. Probabilidades de emissão.
50 Modelos Ocultos de Markov Exemplo: Unfair Cassino. Suponha um cassino que usa dois tipos de dado: um justo e outro viciado. O dado justo possui uma chance igual de obter valores de 1 a 6 (probabilidade de 1/6). O dado viciado possui uma probabilidade de ½ de obter o valor 6 e igual probabilidade de obter os demais valores. A única coisa que pode ser observada pelos jogadores é a sequência resultante do lançamento dos dados. O jogador está interessado em determinar em que momento está sendo usado o dado justo e o dado viciado. Ver exemplo em:
51 Modelos Ocultos de Markov Os principais problemas da HMM são: 1)Determinar o modelo (número de estados, transições, eventos observáveis). 2)Realizar o treinamento (encontrar as probabilidades de transição e as probabilidades de emissão). 3)Decodificar o estado mais provável a partir de uma sequência de observação.
52 Modelos Ocultos de Markov O analista é fundamental para a primeira questão. O número de estados pode ser pesquisado através de algoritmos de clusterização como o kmeans ou com métodos gráficos como o dendograma. O segundo problema (treinamento ou aprendizado) é resolvido com a aplicação do algoritmo de Baum-Welch. Para aplicação deste algoritmo deve estar disponível um conjunto de dados para o treinamento. O terceiro problema, encontrar o estado mais provável do modelo oculto a partir de uma sequência observável, pode ser resolvido com o algoritmo de Viterbi.
53 HMM: Exemplo 1 Exemplo de aplicação. Prever situações onde um estudante irá abandonar : um curso de graduação. Projeto corrente de iniciação científica. Observações: notas, faltas, aprovações, horas matriculadas, horas aproveitadas, horas reprovadas, número de disciplinas A primeira pergunta: qual o modelo oculto?
54 HMM: Exemplo 1 Para encontrar o número provável de estados do modelo oculto pode-se aplicar : técnicas de clusterização. No exemplo: foram extraídas notas médias semestrais, frequências, número de disciplinas cursadas por semestre: Aluno Nota Freq Disc Ver exemplo de uso do R durante a aula
55 Dendograma: Exemplo 1 Ver exemplo de uso do R durante a aula
56 Exemplo 1: Modelo Sugerido Cadeia de Markov com 8 estados. Completamente conectado. Exemplo de treinamento: uso do pacote seqhmm no R. Interpretação do significado dos estados: verificar após o treinamento. Dois estados serão absorventes: sucesso ou fracasso. Ver exemplo de uso do R durante a aula
Modelagem e Avaliação de Desempenho
Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2016 Exemplos usados na apresentação foram obtidos de Introduction to Probability, C.M.Grinstead
Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2011
Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2011 Cadeias de Markov Em 1907, Andrew Markov iniciou um estudo sobre um modelo onde o resultado
TE802 Processos Estocásticos em Engenharia
TE802 Processos Estocásticos em Engenharia Cadeias de Markov 20/11/2017 Andrei Markov Em 1907, Andrei Markov iniciou um estudo sobre processos onde o resultado de um experimento depende do resultado de
Processos Estocásticos
Processos Estocásticos Quarta Lista de Exercícios 12 de fevereiro de 2014 1 Sejam X e Y duas VAs que só podem assumir os valores 1 ou -1 e seja p(x, y) = P (X = x, Y = y), x, y { 1, 1} a função de probabilidade
Classificação de estados em uma cadeia de Markov. Professora Eliana Carvalho
Classificação de estados em uma cadeia de Markov Professora Eliana Carvalho Classificação de estados em uma cadeia de Markov Os estados de uma cadeia de Markov podem ser classificados com base na probabilidade
MODELOS PROBABILÍSTICOS
Disciplina de BIOLOGIA COMPUTACIONAL Mestrado em ENGENHARIA BIOMÉDICA 4º Ano, 1º Semestre 2007/08 MODELOS PROBABILÍSTICOS Relatório 4 Ana Calhau Ângela Pisco Nuno Santos 54605 55748 55746 Palavras-Chave:
Aula - Equações de Chapman-Kolmogorov
Equações de Chapman-Kolmogorov Prof. Magnos Martinello Aula - Equações de Chapman-Kolmogorov Universidade Federal do Esprito Santo-UFES 2011 Equações de Chapman-Kolmogorov 1/17 Introdução As equações de
Cadeias de Markov. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Cadeias de Markov Ricardo Ehlers [email protected] Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 3 e 4 Taylor & Karlin 1 / 71 Cadeias de Markov Seja X 0, X 1,...
Processos Estocásticos e Cadeias de Markov Discretas
Processos Estocásticos e Cadeias de Markov Discretas Processo Estocástico(I) Definição: Um processo estocástico é uma família de variáveis aleatórias {X(t) t T}, definidas em um espaço de probabilidades,
3. CADEIA DE MARKOV EM TEMPO DISCRETO
3. CADEIA DE MARKOV EM TEMPO DISCRETO 3. Definição Uma Cadeia de Markov em Tempo Discreto é um processo estocástico em que a variável t representa intervalos de tempo, { }e que segue a propriedade de Markov,
MOQ-12 Cadeias de Markov
Instituto Tecnológico de Aeronáutica Divisão de Engenharia Mecânica-Aeronáutica MOQ-12 Cadeias de Markov Professora: Denise Beatriz T. P. do Areal Ferrari [email protected] Roteiro Introdução Processos Estocásticos
PROCESSOS ESTOCÁSTICOS
PROCESSOS ESTOCÁSTICOS Definições, Principais Tipos, Aplicações em Confiabilidade de Sistemas CLARKE, A. B., DISNEY, R. L. Probabilidade e Processos Estocásticos, Rio de Janeiro: Livros Técnicos e Científicos
1/7 1/ se hoje não chove, amanhã não vai chover com probabilidade p 00 = 6/7;
6/7 nao chove 1/7 chove 1/3 "0" /3 "1" Figura 1: Todas as transições com suas respectivas probabilidades representadas através de um grafo. Notem que para cada estado, a soma das probabilidades das flechas
Cadeias de Markov de Tempo Contínuo (CTMC)
Cadeias de Markov de Tempo Contínuo (CTMC) Cadeia de Markov Contínua (1) A análise de cadeias de Markov contínuas (CTMCs) é bem similar a análise em tempo discreto, com a diferença de que as transições
Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2014
Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2014 Análise de desempenho São disponíveis duas abordagens para realizar a análise de desempenho:
Daniel Queiroz VARIÁVEIS ALEATÓRIAS DISCRETAS
Daniel Queiroz VARIÁVEIS ALEATÓRIAS DISCRETAS INTRODUÇÃO O que é uma variável aleatória? Um tipo de variável que depende do resultado aleatório de um experimento aleatório. Diz-se que um experimento é
Teoria das Filas aplicadas a Sistemas Computacionais. Aula 20
Teoria das Filas aplicadas a Sistemas Computacionais Aula 20 Magnos Martinello Universidade Federal do Espírito Santo - UFES Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia
Processos Estocásticos aplicados à Sistemas Computacionais
Processos Estocásticos aplicados à Sistemas Computacionais Magnos Martinello Universidade Federal do Espírito Santo - UFES Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia
Distribuições Discretas
META: Estudar o comportamento das Variáveis Aleatórias Discretas, bem como das Distribuições Binomial e Poisson e suas aplicações. Entender o comportamento de uma Variável aleatória Contínua. OBJETIVOS:
Propriedade Markoviana
Cadeias de Markov Cadeias de Markov É um tipo especial de processo estocástico, que satisfaz as seguintes condições: o parâmetro n é discreto (ex: tempo) o espaço de estados E é discreto (coleção de estados
Unidade I ESTATÍSTICA APLICADA. Prof. Mauricio Fanno
Unidade I ESTATÍSTICA APLICADA Prof. Mauricio Fanno Estatística indutiva Estatística descritiva Dados no passado ou no presente e em pequena quantidade, portanto, reais e coletáveis. Campo de trabalho:
Modelos de Distribuição PARA COMPUTAÇÃO
Modelos de Distribuição MONITORIA DE ESTATÍSTICA E PROBABILIDADE PARA COMPUTAÇÃO Distribuições Discretas Bernoulli Binomial Geométrica Hipergeométrica Poisson ESTATÍSTICA E PROBABILIDADE PARA COMPUTAÇÃO
Modelagem de um sistema por cadeias de Markov
Modelagem de um sistema por cadeias de Markov Sistemas sem memória : somente o estado imediatamente anterior influencia o estado futuro. rocesso estacionário: probabilidades de transição de um estado para
Cadeias de Markov em Tempo Continuo
Cadeias de Markov em Tempo Continuo Ricardo Ehlers [email protected] Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 6 Taylor & Karlin 1 / 44 Análogo ao processo
A cadeia de Markov na determinação de indicadores educacionais Applying Markov chain to determine educational indicators
A cadeia de Markov na determinação de indicadores educacionais Applying Markov chain to determine educational indicators A cadeia de Markov na determinação de indicadores educacionais Applying Markov chain
Lista de Exercícios - SCE131
Lista de Exercícios - SCE131 Prof. Eduardo F. Costa - ICMC - USP http://www.icmc.usp.br/ efcosta Parte 1 - Cadeia de Markov (a tempo discreto) Exercício 1. Seja uma cadeia de Markov com probabilidades
Aula 14. Aula de hoje. Aula passada
Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema
Aula de Hoje. Processamento Estatístico da Linguagem Natural. Decodificação. Decodificação. A treliça do algoritmo Viterbi
Processamento Estatístico da Linguagem Natural Aula 14 Professora Bianca (Sala 302 Bloco E) [email protected] http://www.ic.uff.br/~bianca/peln/ Aula de Hoje Cap. 6 Jurafsky & Martin Hidden Markov and Maximum
Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08
Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios Prof. Eduardo Simas ([email protected]) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE
Noções de Processos Estocásticos e Cadeias de Markov
Noções de Processos Estocásticos e Cadeias de Markov Processo Estocástico Definição: Processo Estocástico é uma coleção de variáveis aleatórias indexadas por um parâmetro t R (entendido como tempo). X={
Modelagem e Análise Aula 9
Modelagem e Análise Aula 9 Aula passada Equações de fluxo Tempo contínuo Aula de hoje Parâmetros de uma fila Medidas de desempenho Cálculo do tempo de espera Resultado de Little Parâmetros da Fila chegada
Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2016
Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2016 Simulação de Sistemas Simulação é a técnica de solução de um problema pela análise de
Avaliação e Desempenho Aula 18
Avaliação e Desempenho Aula 18 Aula passada Fila com buffer finito Fila com buffer infinito Medidas de interesse: vazão, número médio de clientes na fila, taxa de perda. Aula de hoje Parâmetros de uma
Álgebra Linear I - Aula Matrizes simultaneamente ortogonais e simétricas
Álgebra Linear I - Aula 22 1. Matrizes 2 2 ortogonais e simétricas. 2. Projeções ortogonais. 3. Matrizes ortogonais e simétricas 3 3. Roteiro 1 Matrizes simultaneamente ortogonais e simétricas 2 2 Propriedade
Introdução à probabilidade e à estatística II. Prof. Alexandre G Patriota Sala: 298A Site:
Introdução à probabilidade e à estatística II Revisão Prof. Alexandre G Patriota Sala: 298A Email: [email protected] Site: www.ime.usp.br/ patriota Estatística Estatística: É uma ciência que se dedica
Teoria de Filas Aula 10
Aula Passada Comentários sobre a prova Teoria de Filas Aula 10 Introdução a processos estocásticos Introdução a Cadeias de Markov Aula de Hoje Cadeias de Markov de tempo discreto (DTMC) 1 Recordando...
Modelo de Markov e Simulação de Monte Carlo do Jogo do Monopólio
Modelação e Simulação 2011/12 Trabalho de Laboratório nº4 Modelo de Markov e Simulação de Monte Carlo do Jogo do Monopólio Objectivo Após realizar este trabalho, o aluno deverá ser capaz de Construir um
étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA
étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO
Funções Geradoras de Variáveis Aleatórias. Simulação Discreta de Sistemas - Prof. Paulo Freitas - UFSC/CTC/INE
Funções Geradoras de Variáveis Aleatórias 1 Funções Geradoras de Variáveis Aleatórias Nos programas de simulação existe um GNA e inúmeras outras funções matemáticas descritas como Funções Geradoras de
MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade
MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade Edson de Faria Departamento de Matemática IME-USP 28 de Agosto, 2013 Probabilidade: uma Introdução / Aula 8 1 Desigualdades de Markov e
Revisão de Probabilidade
05 Mat074 Estatística Computacional Revisão de Probabilidade Prof. Lorí Viali, Dr. [email protected] http://www.ufrgs.br/~viali/ Determinístico Sistema Real Causas Efeito Probabilístico X Causas Efeito
Lista de exercícios propostos de Distribuições Discretas Estatística I OBS: Os exercícios estão dispostos em ordem de dificuldade.
Lista de exercícios propostos de Distribuições Discretas Estatística I OBS: Os exercícios estão dispostos em ordem de dificuldade. 1. Sendo X uma variável seguindo uma distribuição Uniforme Discreta, com
Distribuição de Probabilidade. Prof. Ademilson
Distribuição de Probabilidade Prof. Ademilson Distribuição de Probabilidade Em Estatística, uma distribuição de probabilidade descreve a chance que uma variável pode assumir ao longo de um espaço de valores.
Plano. Aspectos Relevantes de HMMs. Teoria de HMMs. Introdução aos Modelos Escondidos de Markov
Plano Esta apresentação é para pessoas sem conhecimento prévio de HMMs Introdução aos Modelos Escondidos de Markov 2004 Objetivos: Ensinar alguma coisa, não tudo (Visão geral, sem muitos detalhes). Tentar
2. EXERCÍCIOS PROPOSTOS SOBRE V.A. E DISTRIB.PROBAB.
2. EXERCÍCIOS PROPOSTOS SOBRE V.A. E DISTRIB.PROBAB. 1) Classifique as seguintes variáveis aleatórias como discretas ou contínuas. X : o número de acidentes de automóvel por ano na rodovia BR 116. Y :
Teoria das Probabilidades
Teoria das Prof. Eduardo Bezerra (CEFET/RJ) 23 de fevereiro de 2018 Eduardo Bezerra (CEFET/RJ) Teoria das 2018.1 1 / 54 Roteiro Experimento aleatório, espaço amostral, evento 1 Experimento aleatório, espaço
Interpolação polinomial: Diferenças divididas de Newton
Interpolação polinomial: Diferenças divididas de Newton Marina Andretta ICMC-USP 16 de maio de 2012 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires. Marina Andretta (ICMC-USP) sme0500
PRINCIPAIS DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE
PRINCIPAIS DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE 3.1 INTRODUÇÃO Muitas variáveis aleatórias associadas a experimentos aleatórios têm propriedades similares e, portanto, podem ser descritas através de
Unidade III ESTATÍSTICA. Prof. Fernando Rodrigues
Unidade III ESTATÍSTICA Prof. Fernando Rodrigues Medidas de dispersão Estudamos na unidade anterior as medidas de tendência central, que fornecem importantes informações sobre uma sequência numérica. Entretanto,
Laboratório de Simulação Matemática. Parte 6 2
Matemática - RC/UFG Laboratório de Simulação Matemática Parte 6 2 Prof. Thiago Alves de Queiroz 2/2017 2 [Cap. 6] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning, 2010. Thiago
Estatística (MAD231) Turma: IGA. Período: 2018/2
Estatística (MAD231) Turma: IGA Período: 2018/2 Aula #03 de Probabilidade: 19/10/2018 1 Variáveis Aleatórias Considere um experimento cujo espaço amostral é Ω. Ω contém todos os resultados possíveis: e
Professora Ana Hermínia Andrade. Período
Distribuições de probabilidade Professora Ana Hermínia Andrade Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Período 2016.2 Modelos de distribuição Para
Conforme o conjunto de valores X(S) uma variável aleatória poderá ser discreta ou contínua.
Prof. Lorí Viali, Dr. [email protected] http://www.pucrs.br/famat/viali/ s KKK CKK KKC KCK CCK CKC KCC CCC S X X(s) R X(S) Uma função X que associa a cada elemento de S (s S) um número real X(s) é denominada
AULA 16 - Distribuição de Poisson e Geométrica
AULA 16 - Distribuição de Poisson e Geométrica Susan Schommer Introdução à Estatística Econômica - IE/UFRJ Distribuição de Poisson Em muitas situações nos deparamos com a situação em que o número de ensaios
Variáveis Aleatórias Discretas e Distribuição de Probabilidade
Variáveis Aleatórias Discretas e Distribuição de Probabilidades 01 de Abril de 2014 Objetivos Ao final deste capítulo você deve ser capaz de: Determinar probabilidades a partir de funções de probabilidade
5ª Lista de Exercícios de Programação I
5ª Lista de Exercícios de Programação I Instrução As questões devem ser implementadas em C. Questões que envolvam leitura de matrizes, a construção dessas matrizes pode ser realizada através da geração
Probabilidade I. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Distribuição Geométrica 08/14 1 / 13
Probabilidade I Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Distribuição Geométrica 08/14 1 / 13 Distribuição Geométrica Considere novamente uma sequência
Probabilidade em espaços discretos. Prof.: Joni Fusinato
Probabilidade em espaços discretos Prof.: Joni Fusinato [email protected] [email protected] Probabilidade em espaços discretos Definições de Probabilidade Experimento Espaço Amostral Evento Probabilidade
PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES
PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES Certas distribuições de probabilidades se encaixam em diversas situações práticas As principais são: se v.a. discreta Distribuição de Bernoulli Distribuição binomial
Processos Markovianos Introdução e Aplicações
Processos Markovianos Introdução e Aplicações Autores: Pedro Santana (04/35619) Yasmin Mendes (03/91158) Disciplina: Automação Controle para Prof.: Dr. João Yoshiyuki Sumário 1. Processos Estocásticos
P4 de Álgebra Linear I de junho de 2005 Gabarito
P4 de Álgebra Linear I 25.1 15 de junho de 25 Gabarito 1) Considere os pontos A = (1,, 1), B = (2, 2, 4), e C = (1, 2, 3). (1.a) Determine o ponto médio M do segmento AB. (1.b) Determine a equação cartesiana
AULA 07 Distribuições Discretas de Probabilidade
1 AULA 07 Distribuições Discretas de Probabilidade Ernesto F. L. Amaral 31 de agosto de 2010 Metodologia de Pesquisa (DCP 854B) Fonte: Triola, Mario F. 2008. Introdução à estatística. 10 ª ed. Rio de Janeiro:
DETERMINAÇÃO DO TEMPO MÉDIO ATÉ A FALHA PARA UM SISTEMA EM COLD STANDBY COM MANUTENÇÃO CORRETIVA BASEADO NA TEORIA DE SEMI-MARKOV
DETERMINAÇÃO DO TEMPO MÉDIO ATÉ A FALHA PARA UM SISTEMA EM COLD STANDBY COM MANUTENÇÃO CORRETIVA BASEADO NA TEORIA DE SEMI-MARKOV Angelica Alebrant Mendes (UFRGS) [email protected] Jose Luis Duarte
Resolução de sistemas de equações lineares: Fatorações de matrizes
Resolução de sistemas de equações lineares: Fatorações de matrizes Marina Andretta/Franklina Toledo ICMC-USP 5 de fevereiro de 2014 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires. Marina
Estatística (MAD231) Turma: IGA. Período: 2017/2
Estatística (MAD231) Turma: IGA Período: 2017/2 Aula #03 de Probabilidade: 04/10/2017 1 Variáveis Aleatórias Considere um experimento cujo espaço amostral é Ω. Ω contém todos os resultados possíveis: e
Estatística (MAD231) Turma: IGA. Período: 2017/2
Estatística (MAD231) Turma: IGA Período: 2017/2 Aula #01 de Probabilidade: 27/09/2017 1 Probabilidade: incerteza? como medir e gerenciar a Introdução Os jornais informaram que há uma chance de 60% de chover
Aula 5 - Produto Vetorial
Aula 5 - Produto Vetorial Antes de iniciar o conceito de produto vetorial, precisamos recordar como se calculam os determinantes. Mas o que é um Determinante? Determinante é uma função matricial que associa
Modelos Probabilísticos Teóricos Discretos e Contínuos. Bernoulli, Binomial, Poisson, Uniforme, Exponencial, Normal
Modelos Probabilísticos Teóricos Discretos e Contínuos Bernoulli, Binomial, Poisson, Uniforme, Exponencial, Normal Distribuição de Probabilidades A distribuição de probabilidades de uma variável aleatória:
Probabilidade e Estatística. Medidas de Tendência Central. Cláudio Henrique Albuquerque Rodrigues, M. Sc.
Probabilidade e Estatística Medidas de Tendência Central Cláudio Henrique Albuquerque Rodrigues, M. Sc. Introdução No estudo de uma série estatística é conveniente o cálculo de algumas medidas que a caracterizam
Ciclo 3 Encontro 2 PROBABILIDADE. Nível 3 PO: Márcio Reis 11º Programa de Iniciação Científica Jr.
1 Ciclo 3 Encontro 2 PROBABILIDADE Nível 3 PO: Márcio Reis 11º Programa de Iniciação Científica Jr. Probabilidade 2 Texto: Módulo Introdução à Probabilidade O que é probabilidade? parte 1 de Fabrício Siqueira
14/03/2014. Tratamento de Incertezas TIC Aula 1. Conteúdo Espaços Amostrais e Probabilidade. Revisão de conjuntos. Modelos Probabilísticos
Tratamento de Incertezas TIC-00.176 Aula 1 Conteúdo Espaços Amostrais e Probabilidade Professor Leandro Augusto Frata Fernandes [email protected] Material disponível em http://www.ic.uff.br/~laffernandes/teaching/2014.1/tic-00.176
Cadeias de Markov Introdução
Cadeias de Markov Introdução EAD 350 Pesquisa Operacional Segmento Modelos de Redes Prof. Nicolau Reinhard 1º Semestre de 2017 Referências básicas: Taha, H., Pesquisa Operacional 8ª edição, Pearson, Prentice
SC1 Sistemas de Controle 1. Cap. 2 - Estabilidade Prof. Tiago S Vítor
SC1 Sistemas de Controle 1 Cap. 2 - Estabilidade Prof. Tiago S Vítor Sumário 1. Introdução 2. Critério de Routh-Hurwitz 3. Critério de Routh-Hurwitz: Casos Especiais 4. Projeto de Estabilidade via Routh-Hurwitz
1 Distribuições Discretas de Probabilidade
1 Distribuições Discretas de Probabilidade A distribuição discreta descreve quantidades aleatórias (dados de interesse) que podem assumir valores particulares e os valores são finitos. Por exemplo, uma
