Modelagem para Avaliação de Desempenho e Confiabilidade

Save this PDF as:
 WORD  PNG  TXT  JPG

Tamanho: px
Começar a partir da página:

Download "Modelagem para Avaliação de Desempenho e Confiabilidade"

Transcrição

1 Modelagem para Avaliação de Desempenho e Confiabilidade Paulo Maciel Centro de Informática - Interpretações do Tempo - A noção de tempo pode ser representada de diversas maneiras nos sistemas computacionais. Tempo Lógico é definido a partir de relações de precedência entre eventos permitindo estabelecer ordens causais entre conjunto de eventos. Tempo Físico é um tempo métrico que permite representar quantitativamente a distância entre eventos e estabelecer ordens totais entre eventos. Tempo Contínuo segue a natureza uniforme e contínua do tempo físico e é isomorfo ao conjunto dos reais. Tempo Discreto é uma simplificação do tempo contínuo onde a relação de isomorfismo é com o conjunto dos naturais. Tempo Global fornece uma única referência temporal para todos os componentes do sistema. Tempo Local é a noção em que cada componente do sistema tem sua própria referência temporal. Classificação da Técnicas de Avaliação de Desempenho Avaliação de Desempenho Measurements Modelagem Medição Prototipação Benchmarks Análise Probabilística Análise Determinística Simulação Análise de Desempenho Modelagem Determinística Melhor e pior casos Probabilistica Valores prováveis Operacional Informações observáveis Simulação Análise exaustiva Medição Medidas obtidas do sistema real Protótipos Modelos Temporizados Com todos estes pontos de vistas, diversos modelos têm sido propostos na literatura para tratar (modelar e analisar) os sistemas sob o ponto de vista temporal. Dentre os modelos temporais, podemos ressaltar: Lógicas Temporais: Linear Time Temporal Logic, Causal Temporal Logic Álgebras de Processos Temporais : Timed CSP Autômatos Temporizados Cadeias de Markov Redes de Fila Redes de Petri Temporizadas: Timed PN, Time PN, SPN, GSPN, DSPN Modelos Temporizados Modelagem para Análise de Desempenho Modelos para Simulação Modelos Analíticos Cadeias de Markov Teoria das Filas Redes de Petri Estocásticas Álgebras de Processo Estocásticas 1

2 Modelos Temporizados Algumas destas classes de modelos temporizados possibilitam a análise temporal dos sistemas seja sob o ponto de vista determinístico ou sob o ponto de vista probabilístico. Para modelagem e avaliação de sistemas críticos, são de particular interesse os modelos que possibilitem a representação de tempos físicos e não apenas o tempo lógico. Os modelos que possibilitam a especificação do tempo físico, podem representar os tempo de foras distintas, por exemplo: por Intervalos de forma Determinística de forma Probabilística Modelagem para Análise de Desempenho Algumas Medidas Tempo de resposta Throughput Utilização Capacidade Confiabilidade Taxa de descarte Notação de Kendall Informações observáveis Jeff Buzzen and Peter Denning A/B/m/K A distribuição do tempo entre chegadas. B distribuição do tempo de serviço. m número de servidores. K = capacidade de armazenamento. Chegada de jobs Servidores Fila A,B = {M,D,G,E} M - Markovian, D - Determinística, G General E - Erlangian Saída de jobs Notação de Kendall A/B/m/K A distribuição do tempo entre chegadas. B distribuição do tempo de serviço. m número de servidores. K = capacidade de armazenamento. Muitas vezes quando K e m são, estes termos são omitidos ou usa-se / / Exemplos: M/M/1 M/M/1/K M/G/ Variáveis operacionais T: Período de observação K: Número de recursos do sistema A i : Número total de solicitações (ex:.chegadas) do recurso i no período T. A 0 : Número total de solicitações (ex:.chegadas) ao sistema no período T. C i : Número total de serviços finalizados pelo recurso i no período T. C 0 : Número total de serviços finalizados pelo sistema no período T. B i : Tempo de ocupação do recurso i no período T.

3 Métricas derivadas (derived measures) Si: Tempo médio de serviço por finalização relativa ao recurso i; Si = Bi/Ci Ui: Tempo médio de serviço por finalização relativa ao recurso i; Ui = Bi/T Xi: throughput (ex.: finalizações por unidade de tempo) do recurso i; Xi = Ci/T λi: taxa de chegada (ex.:, chegadas por unidade de tempo) ao recurso i; λi = Ai/T X0: throughput do sistema; X0 = C0/T Vi: Número médio de visitas ao recurso i por solicitação; Vi = Ci/C0 Exemplo1 Suponha que ao se monitorar uma processador por um período de 1 min, verificou-se que o recurso esteve ocupado por 36s. O número total de transações que chegaram ao sistema é O sistema também finalizou a execução de 1800 transações no mesmo período Qual a taxa de chegada ao sistema (λ0)? Qual é o throughput do sistema (X0)? Qual é a utilização da CPU(UCPU)? Qual é o tempo médio por transações finalizadas pelo sistema (S0)? Exemplo1 É importante salientar que o único recurso do sistema é a CPU, portanto as métricas associadas à CPU serão as mesmas associadas ao sistema. Exemplo1 É importante salientar que o único recurso do sistema é a CPU, portanto as métricas associadas à CPU serão as mesmas associadas ao sistema. 3

4 Exemplo Exemplo A banda passante de um link de comunicação é bps. Pacotes de 1500 bytes são transmitidos ao link a uma taxa de 3 pacotes por segundo Qual é a utilização do link? Uma maneira interessante de relacionar o trhoughput do sistema ao throughput dos recursos. 4

5 Service Demand Law Exemplo3 Considere que um Web Server foi monitorado por 10 min e que a CPU esteve ocupada por 90%. O log do Web Server registrou solicitações processadas. Qual é a CPU Service Demand (DCPU) relativa as solicitações ao Web Server? T = 10 60s = 600s X0 = /600 = 50 solicitações por segundo. DCPU = UCPU/X0 = 0,9/50 = 0,018 s/solicitação OL OL Exemplo4 Suponha um departamento composto por cinco recursos (pessoas: R1, R, R3 e R4). Esse departamento foi monitorado por um período de 6 horas. Verificou-se que R1 esteve ocupado por 4h5min, R por 4h5min, R3 por 5h15min e R4 por 3h56min. O número total de transações que chegaram ao deparamento foram 96. O sistema também finalizou a execução de 96 transações no mesmo período. O número total de chegadas a cada recurso e as respecitiva finalizações são A1= C1=60, A= C=110, A3= C3=100 e A4= C4= Qual a taxa de chegada ao sistema (λ0)?. Qual é o throughput do sistema (X0)? 3. Qual é a utilização de cada recurso (Ui)? 4. Qual é o tempo médio por transações finalizadas por cada recurso do sistema (Si)? 5. Qual é o número médio de visitas por recurso (Vi)? 6. Qual é tempo médio de uma transação qualquer (não necessariamente a que visitou o recurso i) no recurso i (Di)? V1 Exemplo 4 V1 S1 D1 U1 V3 S3 R1 R3 A3, C3, B3 A1, C1, B1 A0 V S D U R OL Exemplo 4 Exemplo 4 D1 U1 R1 A0 D4 U4 A4, C4, B4 OL S1 C0 V4 S4 R4 A, C, B3 V1 D3 U3 V3 S3 V1 D3 U3 R3 A1, C1, B1 V S D U R A, C, B3 S1 D1 U1 V3 S3 R1 C0 A3, C3, B3 V4 S4 D4 U4 R4 A4, C4, B4 A0 D3 U3 R3 C0 A3, C3, B3 A1, C1, B1 V S D U R A, C, B3 V4 S4 D4 U4 R4 A4, C4, B4 5

6 Little s Law R Response time W Waiting time S Service time Little s Law N Número de clientes no sistema X Throughput Exemplo 5 Exemplo 5 Quando não há fila e se considera apenas um servidor, a Little s law corresponde a Utilization law: e R=S Exemplo 5 General Response Time Law 6

7 General Response Time Law Interactive Response Time Law Interactive Response Time Law Bottleneck Analysis Bottleneck Analysis Bottleneck Analysis 7

8 Bottleneck Analysis Problema: Leis Operacionais (derived measures) Modelagem de Fenômenos Aleatórios Modelo de Probabilidade Medição Análise Estatística Representação dos parâmetros de entrada Validação Modelo Probabilístico Resultados 1. Espaço amostral (Ω): um conjunto de todos os possíveis estados observáveis (eventos elementar) de um fenômeno aleatório.. Conjuto de eventos (S): um conjunto de todos sub-conjuntos de Ω. 3. Probabilidade dos eventos (P): a probailidade de ocorrência de um evento observável. PM é a tupla: PM = (Ω, S, P). Modelo de Probabilidade Espaço Amostral A probabilidade de um evento representa a chance de que o resultado de um experimento resulte na ocorrência do evento. Assume-se que os experimentos são aleatório. Um experimento aleatório pode ter muito resultados. Cada resultado é um ponto amostral (evento elementar) e tem uma probailidade. Um espaço amostral Ω : um conjunto de todos os possíveis estados observáveis (eventos elementares) de um fenômeno aleatório. Finito (ex.: execução das ações associadas a opções de um if; dois resultados) Countável (ex.: número de vezes que corpo de um laço while é executado; O espaço amostral por ser finito ou contável infinito.) Contínuo (ex.: tempo de falha de componente) 8

9 Diagrama de Venn União e Inteseção de Eventos Eventos Um evento E é uma coleção de zero ou mais pontos amostrais (evento elementar) de Ω. Um evento E é um sub-conjunto de Ω. Ω é o evento universal e o conjunto vazio é presentado por Ω S A S A S A,B S A B,A B S Eventos e suas Probabilidades Probabilidade Probabilidade é um valor numérico que representa a chance de que um evento ocorra. Os valores de uma Probabilidade estão entre 0 e 1. A probabilidade próxima de 0 representa grande improbabilidade de ocorrência do evento. A probabilidade próxima de 1 denota que a ocorrência do evento é quase certa. Um evento é uma coleção de pontos amostrais. A probailidade de um evento é a soma das probabilidades do pontos amostrais. Se pudermos identificar todos os pontos amostrais (eventos elementares) de um experimento e associar probabilidades a eles, podemos calcular a probabilidade de qualquer evento. Terminologia e Definições Álgebra ΩeE Eventos mutuamente exclusivos (disjuntos) Dois eventos são mutuamente exclusivos sse Um conjunto de n eventos (n>) é mutuamente exclusivo sse Para n eventos n UE i = E1 E... En i =1 n IE i = E1 E... En i =1 9

10 Consequências Axiomas Espaço de Probabilidade: OS = (Ω,S,P) Sejam A e A (seu complemento) eventos 4. Se A e B são dois eventos que não são mutuamente exclusivos: Consequências: Exemplo Eventos não mutuamente exclusivos n n i =1 i =1 P( U Ai ) = P(Ai ) P(Ai A j ) + i> j P(A A A )... +( 1 ) P(A A...A ) n i j k 1 n i > j >k Princípio da inclusão e exclusão (acima) Um método muito melhor é: 5. Soma dos Produtos Disjuntos (SDP): Fenômeno aleatório: Dois resultados de um teste de condição em um if statement: if B then T; else E; Ω = {T,E}; Conjunto de resultados S = {Φ, {E }, {T }, {T,E } }; Conjunto de todos os eventos P = { 0, ½, ½, 1}; probabilidade atribuídas Variáveis Aleatórias é uma função que confere um número real a cada resultado (do espaço amostral) de um experimento aleatório. Variável Aleatória é uma função que reflete o resultado de um experimento aleatório. X: ω ℜ. Variáveis aleatórias contínuas assumem quaisquer valores no intervalo [a,b], onde - a b + Variáveis aleatórias discretas assumem apenas valores discretos. {ω : ω Ω, X(ω) x} x ℜ. 10

11 Proriedade Markoviana Ausência de Memória Variáveis Aleatórias com Propriedade Markoviana Variável Aleatória Geométrica Variável Aleatória Exponencial Probability mass function (pmf) Seja Ω um espaço amostral discreto. p(x), que denota uma pmf de uma variável aleatória X, é definida por p(x) = P[X=x], onde x assume valores de Ω. Mathematica Função de Distribuição de Probabilidade Acumulativa (CDF) de uma variável aleatória X, denotada por F(X), é definida por F(X) = P[X x] x R F(X) é uma função monotônica nãodecrescente tal que 0 F(X) 1, onde F(- ) =0 e F( )=1 F(X) = y x p(y) F( )= y p(y) = 1 Discreta Bernoulli Considere um experimento aleatório com dois resultados possíveis (X=0,X=1). pmf(probability mass function) de X é dada por: P(X=0) = 1-p e P(X=1) = p, 0 p 1 Mathematica Mathematica Discreta Binomial Considere um experimento aleatório independentes com dois resultados possíveis ( 0 e 1 por exemplo) realizados n vezes. A variável aleatória é o número de vezes que se tem resultado 1. n pmf de X é dada por: P(X=k) = k p k (1-p) n-k k=0,1,...,n. Ver slides de medição Discreta Geométrica Considere um experimento aleatório independentes com dois resultados possíveis ( 0 e 1 por exemplo) realizados n vezes. A variável aleatória é o número de vezes que se realiza o experimento para se ter o primeiro resultado 1. pmf de X é dada por: P(X=k) = p (1-p) n-k k=0,1,... 11

12 Discreta Valor Médio ou Valor Esperado X = E[X] = Σ k k. P(X=k) Uma função de uma variável aleatória (Y=f(X)) é uma variável aleatória com Valor Esperado E[f(X)] = Σ k f(k). P(X=k) Discreta n-ésimo momento (em torno da origem) de uma variável aleatória X é o valor esperado da n-ésima potência de X X n = E[X n ] = Σ k k n. P(X=k) n-ésimo momento central de uma variável aleatória X é o valor esperado da n-ésima potência da diferença entre X e o valor esperado de X (E(X) = X) (X-X) n = Σ k (k-x) n. P(X=k) Discreta O primeiro momento é o valor esperado. O primeiro momento central é 0 O segundo momento central (variância) var(x)=σ = (X-X) =Σ k (k-x). P(X=k) O coeficiente de variação é a normalização do desvio padrão c X = σ / X Função Geratriz de Momentos Dada uma variável aleatória X, a função geratriz de momento M X (t) de sua distribuição de probabilidade é o valor esperado de e tx. M X (t)=e[e tx ] = i e tx i p X (x i ) X discreta. + = - e tx f X (x) dx X contínua. Função Geratriz de Momentos e tx = 1 + tx + t X /! t r X r /r! +... Procedimento para obtenção dos momentos f(t) = = Para a=, tem-se: + Determine M X (t) analiticamente para uma uma distribuição particular = + Tomando a esperança: E[e tx ] = 1 + E[X] t + E[X ] t /! + E[X r ] t r /r! +... Ache E[X r ] = d r /dt r M X (t) t=0 1

13 Discreta Bernoulli Parâmetro: p; Valor Esperado = p, Variância= p(1-p), Coeficiente de variação= (1-p)/p Função geratriz de momentos M X (t) = q + pet j Discreta Binomial Parâmetros: n,p; Valor Esperado= np, Variância= np(1-p), Coeficiente de variação= (1-p)/np Função geratriz de momentos M X j (t) = (q + pet ) n Discreta Geométrica Parâmetro: p; Valor Esperado= 1/p, Variância= (1-p)/p, Coeficiente de variação= (1-p) Função geratriz de momentos M X j (t) = pet /(1-qe t ) Contínua Uma variável aleatória que pode assumir qualquer valor no intervalo [a,b], onde - a,b +, é denominada Variável Aleatória Contínua. Cumulative Distribution Function (CDF) F X (x) = P(X x) Se x < y então: F X (x) < F X (y) P(x<X y) = F X (y) - F X (x) Contínua Cumulative Distribution Function (CDF) F X (x) = P(X x) Se x < y então: F X (x) < F X (y) P(x<X y) = F X (y) - F X (x) Probability density function (pdf) f X (x) = df X (x) / dx f X (x) f X (x) dx = 1 Contínua Probability density function (pdf) f X (x) = df X (x) / dx Como F X (x) não é decrescente, então f X (x) f X (x) dx = 1 x P(x1 X x)= x1 f X (x) dx x P(X=x)= x f X (x) dx = 0 13

14 Contínua Valor Médio ou Valor Esperado + X = E[X] = - x. f X (x) dx Uma função de uma variável aleatória (g(x)) é uma variável aleatória com Valor Esperado + E[g(X)] = = - g(x). f X (x) dx Contínua n-ésimo momento + X n = E[X n ] = - x n. f X (x) dx n-ésimo momento central + (X-X) n = - (x-x) n. f X (x) dx Contínua O segundo momento central (variância) + σ = (X-X) = - (x-x). f X (x) dx O coeficiente de variação e a normalização do desvio padrão c X = σ / X Proriedade Markoviana Ausência de Memória Variáveis Aleatórias com Propriedade Markoviana Variável Aleatória Geométrica Variável Aleatória Exponencial Probabilidade Condicional Seja A um evento arbitrário em um espaço amostral S. A probabilidade de que ocorra um evento A uma vez que M tenha ocorrido é denotado por P(A/M) que é definido por: P(A/M)=P(A M) P(M) S A A M M Caso M A então P(A/M)=1 Caso A M então P(A/M)= P(A) P(M) Probabilidade Condicional Caso M A então P(A/M)=1 S M A S M A Caso A M então P(A/M)= P(A) P(M) 14

15 Distribuição Exponencial Arises commonly in reliability & queuing theory. A non-negative continuous random variable. It exhibits memoryless property (continuous counterpart of geometric distribution). Related to (discrete) Poisson distribution 85 Distribuição Exponencial Esse modelo é comumente usado: Tempo de chegada entre pacotes IP (ou entre chamadas de voz) Tempo de serviço de um servidor de arquivo, web, db Tempo de falhas, tempo de reparo, de reboot etc. Se a distribuição exponencial não é apropriada, uma outra deve ser adequadamente escolhida. 86 Distribuição Exponencial Por exemplo, distribuiçãoweibull é comumente usada para representar tempos de falha. A distribuição Lognormal é muito usada para representar tempos de reparo. Markov modulated Poisson processes são muito usados para representar chegada de pacotes IP que não obdece tempo entre chegada exponencialmente distribuído. 87 Distribuição Exponencial fdp exponencial f X (t) Variável Aleatória Exponencial t f X (t) = λe -λt, 0 t< CDF(t) = 1 - e - λt, 0 t< 0, caso contrário Valor Esperado E(X) = 1/λ Variância: var(x) = 1/ λ Propriedade: Não possui memória Mathematica Distribuição Exponencial Distribuição Exponencial Exponential P{X>t} = e - λt = 0,44939 λ = 0,01 E[X] = 1/λ = 100 t = 80 Mathematica λ=0,01 t=80 λ=0,01 t=160 P{X>t} = e - λt t t t+u Probabilidade Condicional 15

16 Distribuição Exponencial Um exemplo: P{X>80} = e - 0,01 80 =0,44939 P{X>(80+80) X > 80} = P{X>(80+80) X>80} P{X>80} Probabilidade P{X>(80+80) X > 80}= P{X>160} Condicional P{X>80} P{X>(80+80) X > 80} = e -0,01 (80+80) = e -0,01 80 = 0,44939 e -0,01 80 P{X>160 X>80} = P{X>80} = 0, Distribuição Exponencial Variável Aleatória Exponencial P{X>t} = e - λt P{X>t+u X > t} = P{X>t+u X>t} P{X>t} P{X>t+u X > t} = P{X>t+u} P{X>t} P{X>t+u X > t} = e -λ(t+u) = e -λu = P{X>u} e -λt t t t+u Probabilidade Condicional Contínua Distribuição Exponencial Distribuição Exponencial Matematicamente (CDF e pdf são): Lembre-se destas fórmulas Exponencial Parâmentro: λ, Valor Esperado: 1/ λ, Variância: 1/λ, Coeficiente de variação: 1 Função geratriz de momentos Também M X (t) = (1-t/λ) Distribuição Exponencial Distribuição Exponencial

17 Distribuição Hiperexponencial Distribuição Hiperexponencial Hiperexponencial Parâmentros:k, µ j, q j ; Valor Esperado: E(X)=X=Σ j=1 q j /µ j q1 µ1 q µ qk µk k F X (x)=σ j=1 q j (1-e -µ j t ), t 0 k k f X (x)=σ j=1 q j µ j e -µ j t, t 0 Coeficiente de variação: sqrt( (1/X) Σ j=1 q j /µ j - 1) 1 Variância: Σ j=1 q j /µ j - X k 97 Distribuição Hiperexponencial q1 λ1 Distribuição Hiperexponencial q λh Hiperexponencial Uma distribuição desconhecida de X e c 1 pode ser aproximada por uma q λ Mathematica Hiperexponencial Parâmentros:k=, µ 1, µ,q 1, q µ 1 =1/X. (1 sqrt(q /q 1. (c -1)/)) -1 µ =1/X. (1 + sqrt(q 1 /q. (c -1)/)) -1 q 1 +q =1, q 1, q 0 µ 1, µ >0 Exponencial Distribuição Erlang Distribuição Erlang Erlang-k 1 k fase kµ kµ kµ k-1 F X (x)=1-e -kµt Σ j=0 (kµt) j /j!, t 0 Mathematica f X (x)= [(kµ(kµt) k-1 )/(k-1)!]e -kµt, t 0, k=1., Parâmentros:k, µ; Valor Esperado: k/µ Variância: k/µ Coeficiente de variação: 1/sqrt(k) 1 Função geratriz de momentos M X (t) = (1-t/λ) -k 10 17

18 Distribuição Erlang Mathematica Distribuição Erlang Mathematica Erlang-K Uma distribuição desconhecida de X e c 1 pode ser aproximada por uma Erlang-K (Shape = fase, Scale = valor da fase) k=[1/c ] µ=1/(c kx) (Shape = fase = k, Scale = valor da fase) k = Distribuição Hipo-exponencial 105 Distribuição Hipo-exponencial A distribuição hipo-exponencial é uma generalização da distribuição de Erlang quando se admite fases com taxas diferentes. Para uma variável aleatória com distribuição hipo-exponencial com duas fases µ 1 µ, tem-se: F X (x)=1- [µ /(µ - µ 1 )e -kµ 1 t ] + [µ 1 /(µ - µ 1 )e -kµ t ], t 0 f X (x)= [(µ 1 µ )/(µ 1 - µ )] (e -µ t - e -µ 1 t ), t 0 Distribuição Hipo-exponencial Hipo-exponencial Parâmentros: µ 1, µ, Valor Esperado: 1/µ 1 + 1/µ Variância: 1/µ 1 + 1/µ Coeficiente de variação:[sqrt(µ 1 +µ )/ (µ 1 + µ )]< 1 Distribuição Hipo-exponencial Contínua Uma distribuição desconhecida de X como valor esperado e 0.5 c < 1 pode ser aproximada por uma Hipo-exponencial µ 1 =(/X) {1+sqrt[1+(c -1)]} -1 µ =(/X) {1-sqrt[1+(c -1)]} -1 18

19 Distribuição Hipo-exponencial Contínua Para uma variável aleatória com distribuição hipo-exponencial com k fases e taxas µ 1, µ,, µ k tem-se: k f X (x)= Σ j=1 a i µ i e 1 λ i t, t 0 k a i = j=1,j i [µ j /(µ j -µ i )], 1 i k Valor Médio = Σ j=1 1/µ i k Exp Erl Distribuição Cox Distribuição Cox Distribuição Cox 19

20 Uma função de uma variável aleatória (Y=f(X)) é uma variável aleatória com Valor Esperado E[f(X)] = Σ k f(k). P(X=k) Uma função de uma variável aleatória (Y= g(x)) é uma variável aleatória com Valor Esperado + E[g(X)] = = - g(x). f X (x) dx Função densidade de Probabilidade de X Se f(x) = X Valor Esperado E[f(X)] = E(X) = µ Variância Var[f(X)]=E([f(X) E(f(X))] ] =E[(X-E(X)) ] = E(X ) [E(X)] (Variância de X) =Var(X) = σ 1. Se f(x) = ax + b Valor Esperado E[f(X)] = ae(x) + b Variância Var[f(X)] = a Var(X) Prova:. Se f(x) = b Valor Esperado E(b) = b Variância Var(b) = 0 Por definição = E = E = E( = E ae(x) E(X) E (X) E(X) Exemplo Suponha que X seja uma variável aleatória tal que E(X) = 3 e Var(X) = 5. Além disto, seja Y(X) = X 7. Portanto: E(Y(X)) = [ E(X) ] 7 = -1 Var(Y(X)) = Var(X) = 0 Quando Y=f(X) é muito complicada, os cálculos de E(f(X)) e Var(f(X)) podem ser difíceis. Pode-se obter aproximações de E(f(X)) e Var(f(X)) expandindo-se Y=f(X) (série de Taylor) até três termos (para a média). Y = f(e(x)) + [(X E(X)) f (E(X))] + [(1/) [(X E(X)) ] f (E(X))] + R Resto da expansão 0

21 Y = f(e(x)) + (X E(X)) f (E(X)) + [(1/) [(X E(X)) ] f (E(X))] + R. Portanto: = 0 E(f(X)) = E[f(E(X))] + E[(X E(X)) f (E(X))] + E[(1/) [(X E(X)) ] f (E(X)) ] + E(R) = E[f(E(X))] + E[(1/)] E[f (E(X))] E[(X E(X)) ] + E(R) = f(e(x)) + (1/) f (E(X)) Var(X) + E(R) f(e(x)) + (1/) f (E(X)) Var(X) E(f(X)) f(e(x)) +[ (1/) f (E(X)) Var(X) ] Aproximação (série de Taylor) do Valor Esperado e Variância para variáveis aleatória que são função de variáveis aleatórias. Seja X uma variável aleatória com E[X] e Var(X). Suponha que Y=f(X). Portanto: E[Y] f(e[x]) + (f (E[X]) Var(X))/ Var(Y) (f (E[X]) Var(X) Aproximação (série de Taylor) do Valor Esperado e Variância para variáveis aleatória que são função de variáveis aleatórias. Suponha uma variável aleatória t, onde E[t]=0s e Var(t)=5s. Considere uma função v(t)=dt -1 = 10 3 t -1 v (t) = t - e v (t)= 10 3 t -3 E[v(t)] = v(e[t]) + (v (E[t]) Var(t))/ E[v(t)] = v(0) + (v (0) 5)/ = 50,65 m/s Var(v(t))=[v (E[t])] Var(t) Var(v(t))= [v (0)] 5 = 1,5 m/s Multidimensionais Múltiplas Variáveis Aleatórias Seja Ω o espaço amostral associado a um experimento E. e E é um resultado do experimento E. Seja X 1, X,..., X k variáveis aleatórias que associam um número real X 1 (e), X (e),..., X k (e) a cada resultado e. [X 1, X,..., X k ] é chamado de vetor aleatório k- dimensional. Multidimensionais Multidimensionais Múltiplas Variáveis Aleatórias Ω e Ε x1 = X 1( e) X 1 X X k x e x = X ( ) k = X ( e) k R X1 R X R X k Variáveis Aleatórias Bidimensionais (vetores aleatórios bidimensionais) Se os valores possíveis de [X 1, X ] formam um conjunto finito ou infinito enumerável, [X 1, X ] é um vetor aleatório discreto bidimensional. Se os valores possíveis de [X 1, X ] formam um conjunto não enumerável do plano euclidiano, [X 1, X ] é um vetor aleatório contínuo bidimensional. 1

22 Multidimensionais Variáveis Aleatórias Bidimensionais (vetores aleatórios bidimensionais) X N ,5 R X 1 X X 1 m / s X R X 1 X X 1 Multidimensionais Probabilidade Bivariada Caso Discreto: a cada resultado [x 1, x ] de [X 1, X ] associamos um número p(x 1, x ) = P(X 1 = x 1, X =x ), onde p(x 1, x ) 0, x 1, x p( x1, x) = x1 x 1 Distribuição de probabilidade de [X 1, X ] ([ x x 1, x], p( x1, x)), x1, Multidimensionais Probabilidade Bivariada Caso Contínuo: Se [X 1, X ] é um vetor aleatório contínuo, f(x 1, x ) 0, (x 1, x ) R X 1 X é a função de densidade conjunta. f ( x1, x) dx1dx = R X 1 X 1 f x 1, x ) ( X 1 X Multidimensionais Probabilidade Marginal Caso Discreto : a distribuição marginal de X 1 é p = p( x, x 1 ( x1 ) 1 ), x A distribuição marginal de X é p = p( x, x ( x) 1 ), x1 x x 1 Multidimensionais Retornar Multidimensionais Probabilidade Marginal: Caso Discreto x x p (x ) 1 1 1/30 1/30 /30 3/30 1/30 8/30 1/30 1/30 3/30 4/30 9/30 3 1/30 /30 3/30 6/30 4 1/30 3/30 4/30 Probabilidade Marginal: Caso Discreto Seqüência1 p 1 (x 1 ) 0,3500 0,3000 0,3000 0,500 0,500 0,000 0,000 0,1500 0,1500 0,1000 0,1000 0,0500 0,0500 p (x ) Seqüência1 5 3/30 3/30 p 1 (x 1 ) 7/30 7/30 8/30 7/30 1/30 p( x) = 1 x 0,0000 X 1 X 0, Seqüência1 0,667 0,3000 0,000 0,1333 0,1000 Seqüência1 0,333 0,333 0,667 0,333 0,0333

23 Multidimensionais Probabilidade Marginal Caso Contínuo : a distribuição marginal de X 1 é + 1 ( x1 ) = f ( x1, x) dx f A distribuição marginal de X é Multidimensionais Linearidade do Valor Esperado Sejam X e Y duas variáveis aleatórias e seja Z = X + Y. Portanto E[ Z] = E[ X + Y ] = E[ X ] + E[ Y ] + ( x) = f ( x1, x) dx1 f Multidimensionais Linearidade do Valor Esperado Considerando X, Y e Z variáveis aleatórias discreta, temos que : E[ Z] = E[ X + Y] = x x y ( x + y) p( x + y) = x p ( x) + E[ X ] + E[ Y] x y y p ( y) = y (Ver exemplo da página seguinte) Multidimensionais Linearidade do Valor Esperado Ver Tabela Original x,x p(x) x p(x) 0 0,0333 0,0333 0,0667 0,1000 0,0333 0, ,0333 0,0333 0,1000 0,1333 0,3000 0,3 0,0333 0,0667 0,1000 0,000 0,4 3 0,0333 0,1000 0,1333 0,4 4 0,1000 0,1000 0,4 p1(x1) 0,333 0,333 0,667 0,333 0,0333,0000 1,5000 1, , , ,7 0, x1 p(x1) E[X] E[X1] Multidimensionais Linearidade do Valor Esperado Considerando X, Y e Z variáveis aleatórias contínuas, temos que : E[ Z] = E[ X + Y ] = x ( x + y) f ( x + y) dxdy = + xf ( x) dx + X E[ X ] + E[ Y] f ( x + y) dydx + y + yf ( y) dy = Y + + f ( x + y) dxdy = Multidimensionais Linearidade do Valor Esperado De forma mais geral, considere Z, Y e X variáveis aleatórias contínuas, onde Z(X,Y) = ax+by, e a e b são constantes. 3

24 Multidimensionais Linearidade do Valor Esperado Prova: Multidimensionais Linearidade do Valor Esperado Este resultado pode ser generalizado de forma que: para a1,... an constantes e qualquer variável aleatória multivariada ( X1,... X n) Se E( X i ) não divergem. Multidimensionais Linearidade do Valor Esperado Sejam X e Y duas variáveis aleatórias independentes e seja Z = XY. Portanto E[ Z] = E[ XY] = E[ X ] E[ Y] Prova: E[ XY] = i i j x y p ( x ) p ( y ) = x y p ( x ) i X E[ X ] E[ Y ] j i j i X i j x y p( x, y ) = i j i j Y y p ( y ) = j Y j i j j Retornar (dado que são independentes) Multidimensionais Soma de Variâncias Sejam X e Y duas variáveis aleatórias e seja Z = X + Y Portanto Var[Z] = Var[X + Y] = Var[X] + Var[Y] + Cov(X, Y) Multidimensionais Soma de Variâncias = E [(( X E [ X ]) + ( Y E [ Y ])) = E[( X E[ X ]) ] + E[( Y E[ Y ]) ] + E[( X E[ X ])( Y E[ Y ]] = E[( X E[ X ]) ] + E[( Y E[ Y ]) ] + E[( X E[ X ])( Y E[ Y ]] ] Multidimensionais Soma de Variâncias Cov( X, Y ) = E[( X E[ X ])( Y E[ Y ]] = E( XY YE[ X ] XE[ Y ] + E[ X ] E[ Y ]) Devido à propriedade de linearidade do valor esperado, temos: = E[ XY ] E( YE[ X ]) E( XE[ Y ]) + E[ X ] E[ Y ] = E[ XY ] E[ Y ] E[ X ] E[ X ] E[ Y ] + E[ X ] E[ Y ] = E[ XY ] E[ X ] E[ Y ] = 0 (devido à linearidade) (Se X e Y forem independentes) Ver também o slide 101 4

25 Multidimensionais Soma de Variâncias Multidimensionais Soma de Variâncias Var ( X Var ( X + Y ) = Var [ X ] + Var [ Y ] + Cov ( X, Y ) Dado que se X e Y forem independentes, tem-se Cov(X,Y)=0. Portanto: + Y ) = Var [ X ] + Var [ Y ] Var ( X + Y ) = Var [ X ] + Var [ Y ] O teorema acima pode generalizado para n variáveis aleatória Mutuamente independentes X,... X n com constantes a 1,... a n n Var Ver também a i X i = a i Var [ X i ] o slide 77 i = 1 i = 1 1 n Multidimensionais Soma de Variâncias Var ( X Y ) = Var [ X ] + Var [ Y ] n n Dado que Var a i X i = a i Var [ X i ] i = 1 i = 1 Pois a = 1 e a = 1 x Var [ X y Y ] = a Var [ X ] + a Var [ Y ] = (1) Var [ X ] + ( 1) Var [ Y ] = Var [ X ] + Var [ Y ] x y Processos Estocásticos Processo Estocástico é definido por um conjunto de variáveis aleatórias, {X(t) : t T}, onde X(t) é uma variável aleatória para cada t T. t é denominado parâmetro e cada valor de X(t) são estados. Processo Estocástico Markoviano é um processo estocástico onde as variáveis aleatórias não dependem da história passada. Tipos de Processos Estocásticos Processos de espaço de estados e tempo discretos (Discret Time Markov Chain - DTMC) Processos de espaço de estados contínuo e tempo discreto Processos de espaço de estados discreto e tempo contínuo ( - CTMC) Processos de espaço de estados e tempo contínuos Processos Estocásticos Classificação de Estados: Estado Alcançável (reachable): um estado s j é um alcancável de um estado s i se p ij > 0. Um sub-conjunto de estado S é definido com fechado (closed) se s i S, p ij = 0, s j S. Um estado é absorvente se ele é o único membro de conjunto fechado de estados S. Um conjunto fechado de estado S é dito irredutível se p ij > 0 s i, s j S (todo estado s j é alcançável de qualquer estado s i ). Processos Estocásticos Processo Estocástico Markoviano é um processo estocástico onde as variáveis aleatórias não dependem da história passada. Observam-se dois aspectos associados a ausência de memória: 1 Todo estado passado é irrelevante. O tempo que o processo passa em um estado é irrelevante. Processo Estocástico Semi-Markoviano é uma extensão de um processo Markoviano onde a restrição é relaxada. 5

26 Equação de Chapman-Kolmogorov Considere uma CTMC (não-homogênea) {X(t): t 0} com espaço de estado {0,1,,...}. Vamos usar i,j e k para denotar estados típicos e s,u e t para denotar parâmetro de tempo. Para 0 s t, considere p ij (s,t) = P{X(t)=j X(s)=i}. Pode ser representada na forma matricial por H(s,t) = [ p ij (s,t)] A equação de Chapman-Kolmogorov p ij (s,t) = k p ik (s,u) p kj (u,t); 0 s u t Na forma matricial, temos: H(s,t) = H(s,u) H(u,t); 0 s u t Equação de Chapman-Kolmogorov H(s,t) = H(s,u) H(u,t); 0 s u t Substituindo u por t e t por t+h, então: H(s,t+h) = H(s,t) H(t,t+h) Subtraindo-se ambos os lados por H(s,t), temos: H(s,t+h) H(s,t) = H(s,t) [H(t,t+h) I] Dividindo-se por h e aplicando-se o limite h 0, tem-se: lim h 0 H(s,t+h) H(s,t) = H(s,t) [lim h 0 H(t,t+h) I] h h Levando à equação diferencial parcial H(s,t) = H(s,t)Q(t) t Equação de Chapman-Kolmogorov H(s,t) = H(s,t)Q(t) t Onde Q(t) = lim h 0 H(t,t+h) I h Os elementos de Q(t) são dados por q ii (t) = lim h 0 p ii (t,t+h) 1 h q ij (t) = lim h 0 p ij (t,t+h) i j h (forward Kolmogorov eq.) Equação de Chapman-Kolmogorov 1 - p ii (t,t+h) = -hq ii (t) + o(h) p ij (t,t+h) = hq ij (t) + o(h) Onde o(h) é uma função de converge para zero mais rápido que h. Dado que j p ij (s,t) = 1, i, portanto: j q ij (s,t) = 0, i Ou seja, a soma de elementos de uma linha de Q é zero. Equação de Chapman-Kolmogorov H(s,t) = H(s,t)Q(t) (forward Kolmogorov eq.) t Para cadeias homogêneas, tem-se: Q(t) = Q e H(s,t) = Π(t) Steady State Analysis dπ(t) = Π(t)Q (homogêneas) dt Em estado estacionário (t ), pode ser que lim t Π(t) = Π(t) exista. Caso exista, então si S π si =1 dπ(t) = 0, então ΠQ = 0 dt 6

27 Soluções para Steady-States ΠQ = 0 si S πsi=1 Onde πs fornece a steady-state probability de um sistema estar no estado si Soluções Transientes dπ(t) = Π(t)Q dt Onde π(t)si é probabilidade de se estar na estado si no instante t Soluções para Steady-States ΠQ = 0 si S πsi=1 Uma CTMC finita, irredutível e homogênea é dita ergódica (ergodic) se o vetor de probabilidade estacionária (steady-state probability vector) Π existe. Métodos diretos Eliminação de Gauss Decomposição LU Método de Grassmann Métodos Iterativos Power Method Método de Jacobi Método de Gauss-Seidel Uma CTMC é dita irredutível se pij > 0 si, sj S (todo estado sj é alcançável de qualquer estado si). Sharpe (chame via Desktop) Tamanho do buffer=11 λ µ FCFS λ State probability of State i={0,1,,11} State_Prob(i): 7

28 Métricas - Métricas de interesse pode ser calculadas através da soma ponderada das probabilidades de estado. Reward rate em estado estacionário Métricas a probabilidade acumulada de que se esteja num estado é dada por: Reward rate instantânea Portanto, tempo médio (esperado) que se permanece no estado i durante o intervalo [0,t). *Ver métricas nas página 91,9,93 e 94 de QN and MC [Bolch et al.] *Ver métricas nas página 91,9,93 e 94 de QN and MC [Bolch et al.] Data Data 8

29 Sistema Computacional com degradação Sharpe (chame via Desktop) C:\Sharpe-Gui\ SHARPE GUI Examples \Markov\Degradable Suponha um sistema representado por uma CPU que opera em três estágios: CPU_OK, Degradable e Faulty_CPU. Sistema Computacional com degradação Suponha um sistema representado por uma CPU que opera em três estágios: CPU_OK, Degradable e Faulty_CPU. As taxas entre os estados são: CPU_OK para Degradable é (OK_D_rate) 100, Degradable para CPU_OK (D_OK_rate) é 0, Degradable para Faulty_CPU (D_F_rate) é 5, Faulty_CPU para Degradable (F_D_rate) é 10, CPU_OK para Faulty_CPU (OK_F_rate) é 1 e do estado Faulty_CPU para CPU_OK (F_OK_rate) é 1. As taxas entre os estados são: CPU_OK para Degradable é (OK_D_rate) 100, Degradable para CPU_OK (D_OK_rate) é 0,Degradable para Faulty_CPU (D_F_rate) é 5, Faulty_CPU para Degradable (F_D_rate) é 10, CPU_OK para Faulty_CPU (OK_F_rate) é 1 e do estado Faulty_CPU para CPU_OK (F_OK_rate) é 1. Sistema Computacional com degradação Suponha um sistema representado por um autômato estocástico, onde: S = {0,1,} E = {a,d} f(0,a)=1, f(1,a)=, f(,a)=, f(,d)=0 Γ(0) = {a}, Γ(1) = {a}, Γ() = {a,d} Os eventos a ocorrem com taxa igual = λ, Os eventos d ocorrem com taxa igual = µ a a a 0 1 d State Transition Diagram 9

30 State Transition Rate Diagram λ λ 0 1 µ - λ λ 0 0 Q = 0 -λ λ 1 µ 0 - µ 0 1 π 0 = π 1 = µ / ( µ + λ) π = λ / ( µ + λ) si S π si =1 Π Q = 0 0 (π 0, π 1, π ) Q = λ π 0 + µ π = 0 λ π 0 - λ π 1 = 0 -λ π 1 - µ π = 0 π 0 + π 1 + π =1 State Transition Rate Diagram δ 0 λ µ 1 γ 3 σ - λ λ Q = 0 -(γ+µ) µ γ 1 δ 0 - δ 0 σ 0 0 -σ si S π si =1 Π Q = 0 0 (π 0, π 1, π, π 3 ) Q = 0 0 T = 1 / (π 0 λ ) - Tempo médio entre finalizações Birth-death chain Considere o automata Birth-death chain CTMC Birth-death chain M/M/1 queueing system QBM 30

31 QBM QBM M/M/1 queueing system M/M/1 queueing system Throughput Tamanho médio da fila Mean response time Mean waiting time QBM QBM M/M/m queueing system M/M/m queueing system Tamanho médio da fila Fórmula C de Erlang Throughput Mean response time M/M/1/K queueing system QBM M/M/1/K queueing system Tamanho médio da fila QBM Clientes rejeitados Mean response time 31

32 QBM QBM M/M/m /m queueing system Examples M/M/m /m queueing system Mathematica Discrete Time Markov Chain O comportamento de uma rede estocástica é representado por DTMC Matriz de Propabilidades de Próximo Estados Evolução de uma DTMC 0 1 p00 p01 0 P = p10 p11 1 p01 0 Discrete Time Markov Chain 1 p11 p00 p10 Discrete Time Markov Chain Discrete Time Markov Chain Estado recorrente: um estado é classificado como recorrente não-nulo se, caso contrário é classificado como recorrente nulo (recurrent null). Um período (d) de uma estado recorrente i é definido por: Periodic DTMC Se d(i) =1, o estado i é aperiódico, se d(i)>1 é periódico. Um estado i é ergódico se é aperiódico e recorrente nãonulo. Uma DTMC é ergódica de todos os seus estados são ergódicos. 3

33 Discrete Time Markov Chain Mathematica Discrete Time Markov Chain Soluções para Steady-States a 11 a 1 a 13 A 1 =(a 11 a 1 a 13 ) P = a 1 a a 3 A =(a 1 a a 3 ) a 31 a 3 a 33 A 3 =(a 31 a 3 a 33 ) a ij - probabilidade si S a ij =1 Chamar o modelo C:\Users\Paulo\Dropbox\Models\Models_SHARPE\dtmc1.rgl Π. P = Π, si S π i =1, onde π i fornece o número relativo de visitas ao estado s i Chamar o modelo C:\Users\Paulo\Dropbox\Models\Models_SHARPE\dtmc1.rgl Mathematica Discrete Time Markov Chain Soluções para Transiente Discrete Time Markov Chain Π(1)= Π(0) P, Π()= Π(1) P = Π(0) P Π(k)= Π(0) P n, k=1,,... Discrete Time Markov Chain Mathematica Outro exemplo Excel e abrir também o SHARPE: C:\Users\Paulo\Dropbox\Models\Models_S HARPE\ext_dtmc.mkv ) Soluções Transientes dπ(t) = Π(t)Q, Π(0) = (π 0 (0),...,π n-1 (0)) dt Onde π si (t) é probabilidade de se estar na estado s i no instante t Métodos de Solução: Solução via Sistemas de Eq. Diferencial Ordinária Solução através de transformada de Laplace Runge-Kutta Uniformização (Transformar CTMC em DTMC) 33

34 Soluções Transientes (Laplace Tranform) 34

35 Soluções Transientes dπ(t) = Π(t)Q, Π(0) = (π 0 (0),...,π n-1 (0)) dt Uma solução formal para o sistema acima é: Π(t)=Π(0)e Qt Pela série de Taylor/MacLaurin, temos: e Qt = I + Qt/1! + (Qt) /! + (Qt) 3 /3! +... = Σ k=0 (Qt) k /k! Soluções Transientes Π(t)=Π(0)e Qt = Π(0)Σ k=0 (Qt) k /k! Problemas de arrendodamento ocorrem devido aos valores positivos e negativos que Q contém. A matriz (Qt) k se torna não-esparsa o que requer capacidade muito maior. Para evitar estes problemas aplica-se o método chamado de uniformização (ou aleatorização - Randomization) também chamado de método de Jensen Uniformização CTMC i q ij q ik Estado de menor tempo de permanência j k Λ(i) = q ij + q ik λ max si S { q ii } Sabe-se também que: p ij = q ij / Λ(i) e p ik = q ik / Λ(i) Considere que tomemos uma taxa uniforme λ Λ(i) onde: λ = q ij + q ik + ν (λ - Λ(i) = ν) e ν 0 é a taxa de arbitrária de um evento fictício que não muda o estado i. Tempo de permanência no estado i: 1/(-q ii ) = 1/ Λ(i) 35

36 Uniformização CTMC i q ij q ik Estado de menor tempo de permanência Λ(i) = q ij + q ik j k Sabe-se também que: p ij = q ij / Λ(i) e p ik = q ik / Λ(i) Em todos os estados na CMTC que tiverem tempo de permanência igual a 1/(-q ii ), não teremos transição (auto-laço) na DTMC. Para os estados que tiverem tempo de permanência maior, ou seja uma época não é longa o suficiente, estes estados devem ser revisitados (auto-laço). Tempo de permanência no estado i: t =1/(-q ii ) = 1/ Λ(i) Uniformização CTMC i q ij q ik Λ(i) = q ij + q ik j k Sabe-se também que: p ij = q ij / Λ(i) e p ik = q ik / Λ(i) ν / λ i q ij / λ q ik / λ j k λ = q ij + q ik + ν DTMC λ max si S { q ij } Uniformização CTMC i q ij q ik P = I + Q/ λ Q = λ(p - I) j k ν / λ i q ij / λ q ik / λ λ = q ij + q ik + ν j k λ max si S {-q ij } DTMC Uniformização CTMC i q ij q ik P = I + Q/ λ Q = λ(p - I) j k ν / λ i q ij / λ q ik / λ k λ = q ij + q ik + ν λ max si S {-q ij } Outra interpretação: Considerando 1/λ = t como uma época (timestep), P = I + Q t que é igual aos dois primeiros termos da expansão de Taylor, portanto a cadeia uniformizada é uma aproximação de primeira ordem da CTMC. j DTMC Uniformização -4 Q = 1-1 P = P = I + Q/ λ Q = λ(p - I) λ max si S { q ij } /6 /6 4/6 1 1/6 1 /6 3 1/6 Soluções Transientes Π(t)=Π(0)e Qt = Π(0)eλ(P - I)t = Π(0)e λpt e -λit = Π(0)e λpt e -λt = Π(0) e -λt e λpt = Π(0) e -λt Σ n=0 (λpt) n /n! = Π(0) e -λt Σ n=0 (λt) n P n /n!, n ℵ Na matriz P os valores estão entre 0 e 1. Não há valores negativos, o que evita os erros de arrendodamento que ocorrem na expansão com a matriz Q. 36

37 Soluções Transientes Π(t)=Π(0)e Qt = Π(0) e -λt Σ n=0 (λt) n P n /n!, n ℵ ψ(λt,n) = [e -λt (λt) n ]/n!, n ℵ Π(t)=Π(0) Σ n=0 ψ(λt,n)p n, n ℵ Soluções Transientes Π(t)=Σ n=0 ψ(λt,n) Π(0)P n, n ℵ Uma solução iterativa: ^ Π(t)=Σ n=0 ψ(λt,n) Π(n), n ℵ ^ ^ ^ Π(0)= Π(0), Π(n) = Π(n-1)P, n ℵ Podemos truncar a série de maneira que a se atinja uma exatidão 1-ε (ε = erro). Soluções Transientes ~ ke ^ Π(t)=Σ n=0 ψ(λt,n) Π(n), n ℵ ~ Π(t)- Π(t) = [Π(0) e -λt Σ n=0 (λpt) n /n!] - ke [Π(0) e -λt Σ n=0 (λpt) n /n! ] Σ n=ke+1 e -λt (λt) n /n! ε A desiguladade ocorre, pois [P n ] ij são menores ou iguais a um. Soluções Transientes Dado que ψ(λt,n) = [e -λt (λt) n ]/n! é uma distribuição discreta (Poisson), portanto: ke Σ n=0 ψ(λt,n) =1 = Σ n=0 ψ(λt,n) + Σ n=ke+1 ψ(λt,n), n ℵ Do slide anterior, tem-se: Σ n=ke+1 e -λt (λt) n /n! ε Desta forma: Σ n=ke+1 e -λt (λt) n /n! = [1 - e -λt Σ n=0 (λt) n /n!] ε ke Soluções Transiente ke Σ n=ke+1 e -λt (λt) n /n! = [1 - e -λt Σ n=0 (λt) n /n! ] ε Solução Transiente (exemplo) -4 Q = 1-1 P = ke Σ n=0 e -λt (λt) n /n! 1- ε ke Σ n=0 (λt) n /n! (1- ε) e λt P = I + Q/ λ Q = λ(p - I) λ max si S { q ij } Considere ε= /6 /6 4/6 1 1/6 1 /6 3 1/6 37

38 Solução Transiente (exemplo) -4 Q = 1-1 P = ke Σ n=0 (λt) n /n! (1- ε) e λt Dado λ= 6 e considerando ε=10-4 Solução Transiente (exemplo) t , ke Dado λ= 6 e considerando ε=10-4 Para t =0.1, tem-se: (1- ε) e λt =( ) e 0.6 = 1,819 ke Σ n=0 (λt) n /n! (1- ε) e λt 4 Σ n=0 (0,6) n /n! = 1,814, 5 Σ n=0 (0,6) n /n! = 1,81, Solução Transiente (exemplo) t ke Para t =0.1 ke = 5 ψ(λt,n) = [e - λt (λt) n ]/n!, n {0,1,,3,4,5} ~ ke ^ Π(t)=Σ n=0 ψ(λt,n) Π(n), n {0,1,,3,4,5} Solução Transiente (exemplo) t 0,1 0, 0, ke Para t =0,1 ke = 5 Portanto: ^ Π(0)= Π(0) = (1,0,0) obtêm-se: ^ ^ ^ ^ ^ Π(1), Π(), Π(3), Π(4), Π(5) através de ^ ^ Π(n) = Π(n-1)P, n {1,,3,4,5} Solução Transiente (exemplo) t ke Para t =0.1 ke = 5 ψ(0.6,n) = [e -0.6 (0.6) n ]/n!, n {0,1,,3,4,5} ~ 5 ^ Π(0.1)=Σ n=0 ψ(0.6,n) Π(n), n {0,1,,3,4,5} Solução Transiente (exemplo) t ke Para t =0.1 ke = 5 ψ(0.6,n) = [e -λt (λt) n ]/n!, n {0,1,,3,4,5} ψ(0.6,0) = [e -0,6 (0,6) 0 /0!] ψ(0.6,1) = [e -0,6 (0,6) 1 /1!] ψ(0.6,) = [e -0,6 (0,6) /!] ψ(0.6,3) = [e -0,6 (0,6) 3 /3!] ψ(0.6,4) = [e -0,6 (0,6) 4 /4!] ψ(0.6,5) = [e -0,6 (0,6) 5 /5!] 38

39 Solução Transiente (exemplo) Solução Transiente (exemplo) t ke Para t =0.1 ke = 5 ψ(0.6,n) = [e -λt (λt) n ]/n!, n {1,,3,4,5} ~ 5 ^ Π(0.1)=Σ n=0 ψ(0.6,n) Π(n), n {1,,3,4,5} t ke Para t =0.1 ke = 5 ~ 5 ^ Π(0.1)=Σ n=0 ψ(0.6,n) Π(n), n {1,,3,4,5} ~ Π(0.1)= (0.71, 0.150, 0.168) Solução Transiente (exemplo) Semi-Markovian Chain (SMC) Considere uma DTMC, contudo também considere um tempo de permanência (no domínio contínuo: t R), em cada estado i S da DTMC, com distribuição F i (t) e densidade f i (t). Este modelo é denominado SMC. Semi-Markovian Chain (SMC) SMC é caracterizada por: matriz de probabilidade de 1 passo (P), vetor de probabilidade inicial (Π(0)) e o vetor de distribuições de permanência nos estados (F(t) = (F 1 (t),...,f i (t),...,f s (t))). Semi-Markovian Chain (SMC) Interpretação Em cada instante em que ocorrem mudanças de estados, a SMC tem comportamento igual ao da correspondente DTMC (comportamento descrito por P) e é independente do passado. Quando se alcança um estado i, um tempo distribuído conforme F i (t) deve se passar para que ocorra nova transição entre estados. 39

40 Semi-Markovian Chain (SMC) Solução Estacionária Encontre a solução estacionária para DTMC embutida (caracterizada por P): Ω P = Ω i S ω i = 1 Calcule o tempo médio de permanência (h i ) em cada estado i: h i = 0 t f i (t)dt Semi-Markovian Chain (SMC) Solução Estacionária A probabilidade de estado estacionário da SMC é obtida por: π i = (ωi h i )/ ( j S ω j h j ), i Em muitas aplicações, h i é fornecido diretamente. Solução transiente é mais sofisticada. Semi-Markovian Chain (SMC) Semi-Markovian Chain (SMC) Solução Estacionária Exemplo: 0,4 0 h 0 =10 Estados 0,6 1 h 1 =5 0,7 0,4 Solução Estacionária Exemplo: 0 h 0=10 0,6 0,3 1 h 1 =5 0,7 Matriz de Propabilidades de Próximo Estados 0 1 0,4 0,6 0 P = 0,7 0,3 1 Ω P = Ω i S ω i = 1 h 0 =10, h 1 =5 0,3 Tempo médio de permanência Ω P = Ω i S ω i = 1 h 0 =10, h 1 =5 ω 0 =0,5385 ω 1 =0,4615 Semi-Markovian Chain (SMC) Semi-Markovian Chain (SMC) 0,4 Solução Estacionária Exemplo: 0 h 0=10 0,6 0,3 1 h 1 =5 0,7 Matriz de Propabilidades de Próximo Estados 0 1 0,4 0,6 0 P = 0,7 0,3 1 0,4 Solução Estacionária Exemplo: 0 h 0=10 0,6 0,3 1 h 1 =5 0,7 Matriz de Propabilidades de Próximo Estados 0 1 0,4 0,6 0 P = 0,7 0,3 1 ω 0 =0,5385 ω 1 =0,4615 π i = (ωi h i ), i S ( j S ω j h j ) π 0 = (0, ) (0, ) + (0,4615 5) π 1 = (0,4615 5) (0, ) + (0,4615 5) π 0 = (0, ) = 0,7 (0, ) + (0,4615 5) π 1 = (0,4615 5) = 0,3 (0, ) + (0,4615 5) 40

41 Redes de Petri Redes Temporizadas Níveis de Abstração Obj.RdP Pr/T, CPN P,T CE, EN Espaço dos Formalismos Token-Timed PN Extensões Temporizadas Transition-Timed PN Place-Timed PN Autônomo Estocástico Detreminístico Intervalo Predicados Limites Sinais Externos Interpretações Stochastic PN Time PN Timed PN Temporizado Dados Interpretados Redes Temporizadas Redes Temporizadas Extensões Temporizadas Token-Timed PN Transition-Timed PN Place-Timed PN Ramchandani, Transition Timed Net Merlin, Transition Time Net Sifakis, Place Timed Net Stochastic PN Time PN Timed PN Redes Temporizadas Estocásticas Natkin Molloy Marsan et al É uma rede temporizada onde o delay associado à transição é uma variável aleatória de distribuição exponencial Redes Temporizadas Redes de Petri com Lugares Temporizados (PTPN) (Sifakis77) Definição: PTPN=(P,T,F,K,W,M 0,Γ,υ), onde P é o conjunto de lugares, T o conjunto de transições, F (P T) (T P) uma relação que representa os arcos W Valoração (peso dos arcos) - W: F N M 0 - Marcação inicial - M 0 :P N Γ={γ 1, γ,, γ i, } números reais denominada base de tempo. υ:p Γ um mapeamato que υ(p) = γ j 41

42 Redes Temporizadas - PTPN - Redes Temporizadas - PTPN - Regra de Disparo p1 Regra de Disparo p1 t0 p0 t1 t0 p0 t1 υ(p0) = 3 υ(p0) = 3 Instante=0 Redes Temporizadas - PTPN - Redes Temporizadas - PTPN - Regra de Disparo p1 Regra de Disparo p1 t0 p0 t1 t0 p0 t1 υ(p0) = 3 Instante=1 υ(p0) = 3 Instante= Redes Temporizadas - PTPN - Redes de Petri Temporizadas - Tempo Associado às Transições - Regra de Disparo p1 Conceitos Básicos: Duração (disparo em três fases) Marcas são consumidas dos lugares de entrada Há uma duração Marcas são geradas no lugares de saída t0 p0 t1 υ(p0) = 3 Instante=3 Disparo atômico As marca permanecem nos lugares de entrada pelo período igual ao delay associada à transição. Após o delay as marcas são consumidas e geradas nos lugares de saída imediatamente. 4

43 Redes de Petri Temporizadas - Tempo Associado às Transições - Conceitos Básicos: Duração (disparo em três fases) Pode ser representada por uma rede com disparo atômico Modelo mais compacto O estado é uma informação mais complexa do que o modelo não-temporizado Disparo atômico Pode representar o modelo com duração O conjunto de marcações alcançáveis é um sub-conjunto das marcações do modelo nãotemporizado. Redes de Petri Temporizadas - Tempo Associado às Transições - Conceitos Básicos: Regras de Seleção: Pré-seleção: (duração e delay) Prioridade Probabilidade Race (corrida): (delay) Transições habilitadas com menor delay são disparadas Redes de Petri Temporizadas - Tempo Associado às Transições - Conceitos Básicos: Quando uma das transições conflitantes é desabilitada pelo disparo da outra, o que acontece com o timer da que ficou desabilitada quando a mesma tornar-se habilitada outra vez? Redes de Petri Temporizadas - Tempo Associado às Transições - Como fica a memorização do tempo de habilitação anterior? Continue O timer associado à transição mantem o valor atual e quando a transição se tornar novamente habilitada o valor do timer iniciará daquele valor. Restart Quando a transição for da novamente habilitada o timer será re-iniciado. ta p1 p0 db p tb Redes de Petri Temporizadas - Tempo Associado às Transições - Conceitos Básicos: O que acontece com o timer das transições habilitadas após o disparo de uma transição? Todas as transições. Não somente as transições conflitantes. Algumas políticas de memória podem ser construídas Redes de Petri Temporizadas - Tempo Associado às Transições - Conceitos Básicos: Resampling Após cada disparo os timers de TODAS as transições são re-iniciado (restart) Não há memória Após descartar todos os timers, os valores iniciais são associados a todas as transições que se tornarem habilitadas na nova marcação. 43

44 Redes de Petri Temporizadas - Tempo Associado às Transições - Conceitos Básicos: Enabling Memory Após cada disparo os timers das transições que ficaram desabilitadas são re-iniciados (restart) As transições que permaneceram habilitadas com o disparo matêem seus valores presentes(continue) Redes de Petri Temporizadas - Tempo Associado às Transições - Conceitos Básicos: Age Memory Após cada disparo os timers de todas as transições são mantidos em seus valores presentes (continue) Redes de Petri Temporizadas - Tempo Associado às Transições - Conceitos Básicos: Grau de Habilitação (Enabling Degree) É o número de vezes que uma determinada transição pode ser disparada, numa determinada marcação, antes de se torna desabilitada. Quando o grau de habilitação é maior que um, atenção especial à semântica de temporização deve ser considerada. p1 ta p1 p0 d Redes de Petri Temporizadas - Tempo Associado às Transições - Conceitos Básicos: Semântica de Temporização Single-server firing semantics Infinite-server firing semantics Multiple-server firing semantics K é o máximo grau de paralelismo. Quando k, Multiple-server firing semantics é igual a infinite-server firing semantics. Redes de Petri Temporizadas - Tempo Associado às Transições - Conceitos Básicos: Single-server firing semantics p0 Redes de Petri Temporizadas - Tempo Associado às Transições - Conceitos Básicos: Infinite-server firing semantics p0 ta d=3 t=3 t=6 t=9 t ta d=3 t=3 t p1 p1 44

45 Redes de Petri Temporizadas - Tempo Associado às Transições - Conceitos Básicos: Multiple-server firing semantics k= p0 Classificação da Técnicas de Avaliação de Desempenho Avaliação Determinísica Avaliação de Desempenho Modelagem Estocástica Medição Prototipação Métodos Simulação de Eventos Métodos Analíticos Discretos Analíticos ta p1 d=3 t=3 t=6 t Sistema Benchmarks Real Simulação Modelagem Redes com Arco Inibidor Definição: PN=(P,T,I,O,H,Π,M 0 ) P,T,I,O definidos como usualmente. H : P T ℵ é a função de mapeamento de que representam os arcos inibidores M 0 - Marcação inicial M 0 : P ℵ Redes com Prioridade Definição: H : P T ℵ é a função de mapeamento de que PN=(P,T,I,O,H,Π,M 0 ) representam os arcos inibidores P,T,I,O definidos como usualmente. Π : T ℵ é uma função que mapeia às transições níveis de prioridade. M 0 - Marcação inicial - M 0 : P ℵ Redes com Prioridade Redes com Prioridade PN=(P,T,I,O,H,Π,M 0 ) Structural Causal relation PN=(P,T,I,O,H,Π,M 0 ) Structural Causal relation p1 tl p th p3 ti p4 tj p6 Indirect Conflict p5 tk p7 Structural Conflict p1 tl p th p3 ti p4 tj p6 Remoção da Confusão π l = π k p5 tk p7 π h,π i,π j > π k Structural Conflict Extended Conflict Set - ECS = {t 1,t h,t i,t j,t k } 45

46 Definição: SPN=(P,T,I,O,W,M 0 ) p1 s t1 p p t f t3 p3 t4 r P é o conjunto de lugares, T o conjunto de transições, I: P T ℵ é a função de mapeamento de que representam as pré-condições, O : P T ℵ é a função de mapeamento de que representam as pós-condições W : T R + (ou W : T M R + ) é uma função que associa taxas de distribuição exponencial às transições M 0 - Marcação inicial - M 0 : P ℵ Definição: SPN=(P,T,I,O,H,W,M 0 ) p1 p λ λ 1 t1 t p3 λ 4 λ 3 t4 t3 p4 P é o conjunto de lugares, T o conjunto de transições, I: P T ℵ é a função de mapeamento de que representam as pré-condições, O : P T ℵ é a função de mapeamento de que representam as pós-condições H : P T ℵ é a função de mapeamento de que representam os arcos inibidores W : T R + (ou W : T M R + ) é uma função que associa taxas de distribuição exponencial às transições M 0 - Marcação inicial - M 0 : P ℵ Rede Estocástica Grafo de Marcações / CTMC Semântica de Disparo de Transição Uma transição t j é disparável se estiver habilitada Regras de habilitação M[t j >, M(pi) Ι(pi, t j ) pi P Transições com delays menores disparam primeiro (Race) Enabling memory, resampling, age memory Regras de disparo Se M[t j >M M (pi)=m0(pi) - I(pi, t j )+O(pi, t j ), pi P 46

47 Conflito Definição: SPN=(P,T,I,O,W,M 0 ) W : T R + {0} p1 s t1 p p t f t3 p3 Grafo de Marcações 1,0,0 M0 t t1 t4 M1 0,1,0 t3 M 0,0,1 t4 r Definição: SPN=(P,T,I,O,W,M 0 ) W : T R + {0} p1 s t1 p p t f t3 p3 t4 r Grafo de Marcações t M1 t3 M M0 1,0,0 0,1,0 0,0,1 t1 t4 Definição: SPN=(P,T,I,O,W,M 0 ) W : T R + {0} p1 s t1 p p t f t3 p3 t4 r Grafo de Marcações t M1 t3 M M0 1,0,0 0,1,0 0,0,1 t1 t4 Definição: SPN=(P,T,I,O,W,M 0 ) W : T R + {0} p1 s t1 p p t f t3 p3 t4 r Grafo de Marcações t M1 t3 M M0 1,0,0 0,1,0 0,0,1 t1 t4 Definição: SPN=(P,T,I,O,W,M 0 ) W : T R + {0} p1 s t1 p p t f t3 p3 t4 r Grafo de Marcações t M1 t3 M M0 1,0,0 0,1,0 0,0,1 t1 t4 47

48 Definição: SPN=(P,T,I,O,W,M 0 ) W : T R + {0} p1 s t1 p p t f t3 p3 t4 r Grafo de Marcações t M1 t3 M M0 1,0,0 0,1,0 0,0,1 t1 t4 Definição: SPN=(P,T,I,O,W,M 0 ) W : T R + {0} p1 s t1 p p t f t3 p3 t4 r Grafo de Marcações M0 1,0,0 t t1 t4 M1 t3 M 0,1,0 0,0,1 Semântica de Temporização SSS ISS Em geral, a CTMC associada a uma SPN é obtida da seguinte maneira: O espaço de estados S = {s i } corresponde ao reachability set RS(N,M 0 ) = {M i } da rede marcada N. As transition rates de cada estado s i (corresponde a marcação M i ) para cada estado s j (M j ) são obtidas pela soma de todas as firing rates associadas às transições que estão habilitadas em M i e cujo disparo levam a M j. Assumindo-se que todas as transições operam em Single Server Semantics (SS) e taxas (rates) independentes da marcação, tem-se: tk ej(mi) ω k i j q ij = - q i i=j onde Q = [q ij ] gerador infinitesimal (matriz de taxas) q i = tk e(mi) ω k ω k é a taxa de disparo de t k. e j (M i ) = {t k t k e(m i ) M i [t k >M j }é o conjunto de transições que estão hablitadas em M i e cujo disparo levam a M j. e(m i ) conjunto de transições habilitadas em M i. Generalizada (GSPN) Definição: GSPN=(P,T,I,O,H,Π,W,M 0 ) λ 1 λ 4 t4 t1 p p1 t p3 t3 p4 P,T,I,O definidos como usualmente. H : P T ℵ é a função de mapeamento de que representam os arcos inibidores Π : T 0 se t for temporizada (Prioridade) ℵ + se t for imediata W : T R + (ou W : T M R + ) é 1.uma função que associa taxas de distribuição exponencial às transições temporizadas e.pesos usados na computação das probabilidades de disparo das transições imediatas M 0 - Marcação inicial - M 0 : P ℵ 48

49 Generalizada (GSPN) Semântica de Disparo de Transição Regras de habilitação M[t j >, M(pi) >=Ι(pi, t j ) e M(pi) < Η(pi, t j ) pi P Uma transição t j é disparável se estiver habilitada Transições com delays menores disparam primeiro (Race) Transições imediatas disparam instantaneamente com prioridades sobre as temporizadas Diferentes níveis de prioridade podem ser associados às transições imediatas. Transições imediatas com mesmo nível de prioridade associada disparam de acordo com o peso associado a cada uma. Enabling memory, resampling, age memory Regras de disparo Se M[t j >M M (pi)=m0(pi) - I(pi, t j )+O(pi, t j ), pi P t t4 λ1 p1 Generalizada (GSPN) Reachability Set t1 µ α p3 p p4 t5 λ t3 β RS = VS TS VS TS = VS Vanishing set: Marcações em que as transições disparáveis são imediatas. TS Tangible set: Marcações onde as transições habilitadas são temporizadas. t t4 λ1 p1 Generalizada (GSPN) t1 µ α p3 p p4 t5 λ t3 β Tangible marking Grafo de Marcações t4 1,0,0,0 t1 t5 0,1,0,0 0,0,1,0 0,0,0,1 t t3 Vanishing marking t t4 λ1 p1 Generalizada (GSPN) P{t k m j } = ω k /q j q j = tk e(mi) ω k t1 µ α p3 p p4 t5 λ t3 β ω k é a taxa de disparo de t k. e(m j ) conjunto de transições habilitadas em M j. Quando a marcação é vanishing, ω k é um peso (transição imediata). Quando a marcação é tangible, ω k é a taxa. Generalizada (GSPN) Generalizada (GSPN) Quando diversas transições imediatas estão habilitadas em uma mesma marcação (vanishing), decidir qual transição dispara só faz sentido quando na presença de conflito. Assumindo a ausência de confusão, o cálculo do ECS consiste em particionar as transições imediatas em conjuntos os quais as transição de cada conjunto possam estar em conflito. Contudo, transições de diferentes ECS são concorrente. Quando diversas transições imediatas estão habilitadas em uma mesma marcação (vanishing), decidir qual transição dispara só faz sentido quando na presença de conflito. Quando transições de um único ECS são as únicas imediatas P{t k m i } = ω k /w k (m i ) w k (m i ) = tj [ECS(tk) e(mi)] ω j Os pesos podem ser diferentes em diferentes marcações, mas a relação entre estes pesos é constante (sem confusão) 49

50 t t4 λ1 p1 Generalizada (GSPN) Reachability Set t1 µ α p3 p p4 t5 λ t3 β RS = VS TS VS TS = VS Vanishing set: Marcações em que as transições disparáveis são imediatas. TS Tangible set: Marcações onde as transições habilitadas são temporizadas. t t4 λ1 p1 Generalizada (GSPN) Grafo de Marcações t1 µ α p3 p p4 t5 λ t3 β Tangible marking t4 1,0,0,0 t1 t5 0,1,0,0 0,0,1,0 0,0,0,1 t t3 1,0,0,0 λ1 µ. α λ 0,0,1,0 α+ β µ. β 0,0,0,1 α+ β Vanishing marking Para garantir a existência de probabilidade estacionária, a rede deve ser: limitada (bounded) reversível e livre de bloqueio (deadlock-free) Q = 0, Mi RS(N) π i =1 Probabilidade estacionária de uma marcação M i (π 1,...,π i,..., π n ) Q = (0,...,0,...,0) 1 n π i =1 Soluções Transientes dπ(t) = Π(t)Q, Π(0) = (π 0 (0),...,π n-1 (0)) dt Uma solução formal para o sistema acima é: Π(t)=Π(0)e Qt Dada M j TS(N), a probabilidade de se disparar t k (t k está habilitada em M j ) em M j é: p(t k,m j )= λ k /λ j,, λ j = Σ t Τj λ t T j = {t M j [t>} λ t é a taxa associada a transição t através da W Dadas M i VS(N), a probabilidade de se disparar t k em M i é: p(t k,m i )= ω k /ω k (M i ), ω k (M i )= Σ tj {ΕCS(tk) Mi [tj>} ω j ECS(tk) Extended Conflict Set ω k (M i ) o peso associado à transição t k na marcação M i. Caso haja mais de uma transição imediata, de diferentes ECS, habilitadas em uma marcação M, não importa a ordem de disparo, desde que a rede seja livre de confusão. 50

51 Tempo de permanência numa marcação (sojourn time) Probabilidade que um lugar p j tenha k marcas Número esperado de marcas no lugar p j tm i = 1/λ j λ j = Σ t Τj λ t T j = {t M j [t>} λ t é a taxa associada a transição t através da W p(pj,k) = i S1 p i S 1 = { i {1,,..,S} M i (p j )=k} K Em(p j ) = x.p(pj,x) x=1 K é o número máximo de marcas que o lugar pj pode conter Throughput rate de uma transição temporizada TR(t j ) = i S p i. λ j S = { i {1,,..,S} M i [t j >} p i é a probabilidade estacionária de uma marcação Mi que habilita t j λ j é a taxa associada à transição t j Tempo médio entre disparos de uma transição T= 1/TR(t j ) = 1/( i S p i. λ j ) S = { i {1,,..,S} M i [t j >} p i é a probabilidade estacionária de uma marcação Mi que habilita t j λ j é a taxa associada à transição t j Throughput rate de uma transição imediata Pode ser calculada de uma transição exponencial e a estrutura do modelo GSPN. t i ω j d i TR(t j ) = TR(t i ) (ω j / ω j + ω j ) t j t k tj e tk são as únicas transições de um ECS. Littles s law E[X] = λ E[s] (ergódico) E[X] - tamanho médio da fila. E[s] - Tempo médio de serviço do sistema. λ - taxa de chegada ω k 51

52 Tempo médio de espera em um lugar MM1K Representação explícita do descarte Wait(pi) = Em(p i ) = Em(p i ) tj I(pi) TR(t j ) tj O(pi) TR(t j ) Em(p i ) é o número médio de marcas no lugar p i. TR(t j ) throughput da transição t j. Throughput de transições K-server semantics Throughput de transições K-server semantics MMK Representação implícita do descarte MMK Equivalente ao anterior. Servidores representados individualmente 5

53 MMn1nK Servidores com caracterísitcas diferentes. Fila com 1 atendente e com tempo de repouso Fila com atendentes e com tempo de repouso Fila com atendentes e com tempo de repouso versão com k-server semantics Exemplo Banco Todas as transisções têm SSS, exceto a transição Service, que tem ISS. Análise Qualitativa Exemplo Sevidor Central Do livro MODELLING WITH GENERALISED STOCHASTIC PETRI NETS Marsan et al. Do livro MODELLING WITH GENERALISED STOCHASTIC PETRI NETS Marsan et al. 53

54 Number_of_Clients_in_the_Queue Waiting_Time Arriving_Time Arriving_Time System_Time Probability of at least one server not being serving Arriving_Time Arriving_Time Todas as transisções têm SSS, exceto a transição Service, que tem ISS. Number_of_Clients_in_the_Queue Number_of_Servers 54

55 Waiting_Time System_Time Number_of_Servers Number_of_Servers Todas as transisções têm SSS, exceto a transição Service, que tem ISS. Probability of at least one server not being serving Number_of_Servers Exemplo Sevidor Central Number_of_Clients_in_the_Queue System_Time Do livro MODELLING WITH GENERALISED STOCHASTIC PETRI NETS Marsan et al. Waiting_Time Resting_Time 55

56 Aproximando Outras Distribuições Variáveis Suplementares Aproximação por Fases Moment Matching Para encontrar uma distribuição por fase adequada para uma distribuição genérica, duas atividades são fundamentais: Determinar o tipo de aproximação necessária. Encontrar os parâmetros numéricos da aproximação. Aproximação por Fases Pontos a serem considerados na escolha de uma aproximação por fases. Qualidade da aproximação: quanto mais próximo for a distribuição por fase da distribuição real, melhor. Medidas de aproximação: Moment matching Encontrar um pdf (ou cdf) que seguem a pdf real numa determinada região de interesse. Aproximação por Fases Pontos a serem considerados na escolha de uma aproximação por fases. Número de Estados da Aproximação: é importante fazer com que o número de estados seja o menor possível. Facilidade da obtenção do modelo markoviano resultante: pode ser possível obter uma aproximação que gere excelentes resultados. No entanto, pode não ser fácil a integração no modelo markoviano resultante. Aproximação por Fases Pontos a serem considerados na escolha de uma aproximação por fases. Facilidade de obtenção dos parâmetros da aproximação: quanto mais parâmetros sejam necessários para especificar a aproximação, mais difícil se torna para encontrá-los. Aproximação por Fases Distribuição de Erlang τ = τ 1 + τ (λ 1 = 1/µ 1,λ = 1/ µ ) λ1 λ fτ(t)= (fτ 1 fτ )(t) = λ 1 λ (e -λ1t - e -λt )/(λ 1 - λ ) Generalizando para n fases iguais a λ. fτ(t)= (λ n t (n-1) e -λt )/(n-1)!, t 0... λ (n) λ t1 t, µ E, n (fases) Parâmentros:n, λ; Valor Esperado: µ E =n/ λ Variância: 1/nλ (λ - de cada fase) t Distribuição Especificada (empírica) Moment Matching µ D σ D t1, λ 1, µ 1 =1/λ 1 Se µ D /σ D = 1 então uma transição exponencial é suficiente. λ 1 =1/µ D 56

57 Distribuição Especificada (empírica) Moment Matching γ µ D σ D Distribuição Especificada (empírica) Moment Matching µ P D 0 P 1 σ D λ... λ Se µ D /σ D = n 1, n Z γ= (µ D /σ D ) = n, λ= γ/µ D = n /µ D Distribuição Especificada (empírica) Moment Matching γ... µ D σ D Distribuição Especificada (empírica) Moment Matching P 0 µ D P 4 σ D λ 1 λ λ Se µ D /σ D > 1 e µ D /σ D Z (µ D /σ D ) -1 γ < (µ D /σ D ) λ 1 = 1/µ 1 µ 1 = µ D + sqrt(γ(γ+1) σ D - γµ D )/(γ+1) λ = 1/µ µ = γµ D ± sqrt(γ(γ+1) σ D - γµ D )/(γ+1) Se µ D /σ D > 1 e µ D /σ D Z (µ D /σ D ) -1 γ < (µ D /σ D ) λ 1 = 1/µ 1 µ 1 = µ D + sqrt(γ(γ+1) σ D - γµ D )/(γ+1) λ = 1/µ µ = γµ D ± sqrt(γ(γ+1) σ D - γµ D )/(γ+1) delay1=1/λ 1, delay=1/λ Distribuição Determinística Moment Matching Aproxima-se, fazendo-se σ D pequeno γ torna-se grande. λ Se µ D /σ D = x 1, x Z (c=σ D / µ D <1) γ=x, λ= x /µ D γ µ D σ D γ Aproximação por Fases Distribuição de Hiperexponencial fτ(t)= ω 1 fτ 1 (t)+ω fτ (t), t 0 n j=1 ω j = 1 Parâmentros: Valor Esperado: µ H = j ω j /λ j Variância: j ω j / λ j µ H ω 1 ω t µ H σ H λ1 λ 57

58 Distribuição Especificada (empírica) Moment Matching µ H = ω 1 /λ H (para esta Hiperexponencial) σ H = [sqrt ( ω 1 - ω 1 )]/ λ H Se µ D /σ D < 1 (c=σ D /µ D >1) ω 1 = µ D /(µ D +σ D ), ω =1- ω 1 λ h = µ D /(µ D +σ D ), ω ω 1 µ D σ D λh Distribuição Especificada (empírica) Moment Matching µ H = ω 1 /λ H (para esta Hiperexponencial) σ H = [sqrt ( ω 1 - ω 1 )]/ λ H Se µ D /σ D < 1 (c=σ D /µ D >1) ω 1 = µ D /(µ D +σ D ), ω =1- ω 1 λ h = µ D /(µ D +σ D ) delay=1/λ h µ D P 0 P σ 3 D Distribuição de Cox Cox generalizou a idéia de composição de fase exponenciais para gera probabilidades e taxas complexas. Distribuição de Cox Simplificamos em dois casos particulares: Caso CV 1 Nestes slides µ é taxa (diferentemente dos anteriores) Número de fases Nestes slides µ k são taxas (diferentemente dos anteriores) Taxa das fases Distribuição de Cox Simplificamos em dois casos particulares: Caso CV 1 Nestes slides µ é taxa (diferentemente dos anteriores) Distribuição de Cox Simplificamos em dois casos particulares: Caso CV > 1 Nestes slides µ 1 e µ são taxas (diferentemente dos anteriores) Número de fases Taxa das fases 58

59 MM1K Distribuição de Cox Nestes slides µ 1 e µ são taxas (diferentemente dos anteriores) Simplificamos em dois casos particulares: ME1K Caso CV > 1 Exemplo Sevidor Central Exemplo Sevidor Central com Interrupção Do livro MODELLING WITH GENERALISED STOCHASTIC PETRI NETS Marsan et al. Modelando Políticas de Memória Erlang com 3 Fases Do livro MODELLING WITH GENERALISED STOCHASTIC PETRI NETS Marsan et al. Modelando Políticas de Memória Conflito entre Erlang com 3 fases e exponencial 59

60 Modelando Políticas de Memória Erlang com 3 fases com interrupção Modelando Políticas de Memória Modelando Políticas de Memória Conflito com política Age Memory Modelando Políticas de Memória Conflito com política Enabling Memory Conflito com política Enabling Memory Do livro MODELLING WITH GENERALISED STOCHASTIC PETRI NETS Marsan et al. Modelando Políticas de Memória Conflito com política Enabling Memory Throughput de uma Transição Erlang Do livro MODELLING WITH GENERALISED STOCHASTIC PETRI NETS Marsan et al. 60

Cadeias de Markov de Tempo Contínuo (CTMC)

Cadeias de Markov de Tempo Contínuo (CTMC) Cadeias de Markov de Tempo Contínuo (CTMC) Cadeia de Markov Contínua (1) A análise de cadeias de Markov contínuas (CTMCs) é bem similar a análise em tempo discreto, com a diferença de que as transições

Leia mais

Processos Estocásticos e Cadeias de Markov Discretas

Processos Estocásticos e Cadeias de Markov Discretas Processos Estocásticos e Cadeias de Markov Discretas Processo Estocástico(I) Definição: Um processo estocástico é uma família de variáveis aleatórias {X(t) t T}, definidas em um espaço de probabilidades,

Leia mais

Avaliação de Desempenho

Avaliação de Desempenho Avaliação de Desempenho Aula passada Métricas, Técnicas, Erros Aula de hoje Conceitos importantes de probabilidade Como fazer a análise de desempenho? Modelos Matemáticos Modelos de Simulação Como fazer

Leia mais

Modelos Probabilísticos de Desempenho. Profa. Jussara M. Almeida 1º Semestre de 2014

Modelos Probabilísticos de Desempenho. Profa. Jussara M. Almeida 1º Semestre de 2014 Modelos Probabilísticos de Desempenho Profa. Jussara M. Almeida 1º Semestre de 2014 Modelos Probabilísticos Processos Estocásticos Processos de Poisson Filas M/M/1, M/G/1... Mais genericamente: modelos

Leia mais

Noções de Processos Estocásticos e Cadeias de Markov

Noções de Processos Estocásticos e Cadeias de Markov Noções de Processos Estocásticos e Cadeias de Markov Processo Estocástico Definição: Processo Estocástico é uma coleção de variáveis aleatórias indexadas por um parâmetro t R (entendido como tempo). X={

Leia mais

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório?

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes. Como devemos descrever um experimento aleatório? Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Funções de Uma Variável Aleatória Funções de Várias Momentos e Estatística Condicional Teorema do Limite Central Processos Estocásticos

Leia mais

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08 Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas

Leia mais

Processos Estocásticos. Luiz Affonso Guedes

Processos Estocásticos. Luiz Affonso Guedes Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Variáveis Aleatórias Funções de Uma Variável Aleatória Funções de Várias Variáveis Aleatórias Momentos e Estatística Condicional Teorema

Leia mais

Avaliação e Desempenho Aula 5

Avaliação e Desempenho Aula 5 Avaliação e Desempenho Aula 5 Aula passada Revisão de probabilidade Eventos e probabilidade Independência Prob. condicional Aula de hoje Variáveis aleatórias discretas e contínuas PMF, CDF e função densidade

Leia mais

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes

Processos Estocásticos. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Variáveis Aleatórias. Luiz Affonso Guedes Processos Estocásticos Luiz Affonso Guedes Sumário Probabilidade Funções de Uma Variável Aleatória Funções de Várias Momentos e Estatística Condicional Teorema do Limite Central Processos Estocásticos

Leia mais

Conceitos Básicos, Básicos,Básicos de Probabilidade

Conceitos Básicos, Básicos,Básicos de Probabilidade Conceitos Básicos, Básicos,Básicos de Probabilidade Espaço Amostral Base da Teoria de Probabilidades Experimentos são realizados resultados NÃO conhecidos previamente Experimento aleatório Exemplos: Determinar

Leia mais

Processos Estocásticos aplicados à Sistemas Computacionais

Processos Estocásticos aplicados à Sistemas Computacionais Processos Estocásticos aplicados à Sistemas Computacionais Magnos Martinello Universidade Federal do Espírito Santo - UFES Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia

Leia mais

Probabilidade Revisão de Conceitos

Probabilidade Revisão de Conceitos Probabilidade Revisão de Conceitos Espaço de Amostras A totalidade dos possíveis resultados de um experimento aleatório. Exemplo: jogar dados S = {(1,1),(1,),... (,1),(,)... (6,6)} S é dito o número de

Leia mais

Métodos de Análise Transiente

Métodos de Análise Transiente Métodos de Análise Transiente Tópicos Avançados de Avaliação de Desempenho Prof. Paulo Maciel / Prof. Ricardo Massa Apresentação de: Ana Carolina Veloso Renata Pedrosa Dantas Introdução Visão real das

Leia mais

Teoria de Filas Aula 10

Teoria de Filas Aula 10 Aula Passada Comentários sobre a prova Teoria de Filas Aula 10 Introdução a processos estocásticos Introdução a Cadeias de Markov Aula de Hoje Cadeias de Markov de tempo discreto (DTMC) 1 Recordando...

Leia mais

Avaliação e Desempenho Aula 18

Avaliação e Desempenho Aula 18 Avaliação e Desempenho Aula 18 Aula passada Fila com buffer finito Fila com buffer infinito Medidas de interesse: vazão, número médio de clientes na fila, taxa de perda. Aula de hoje Parâmetros de uma

Leia mais

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2017

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2017 Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2017 Análise de desempenho São disponíveis duas abordagens para realizar a análise de desempenho:

Leia mais

Revisão de Estatística (Aplicada a Análise de Desempenho) Profa. Jussara M. Almeida 1 o Semestre de 2014

Revisão de Estatística (Aplicada a Análise de Desempenho) Profa. Jussara M. Almeida 1 o Semestre de 2014 Revisão de Estatística (Aplicada a Análise de Desempenho) Profa. Jussara M. Almeida 1 o Semestre de 2014 Por quê? Modelagem probabilística Avaliação dos resultados Qual a probabilidade do tempo de residência

Leia mais

Variáveis Aleatórias Bidimensionais &Teoremas de Limite 1/22

Variáveis Aleatórias Bidimensionais &Teoremas de Limite 1/22 all Variáveis Aleatórias Bidimensionais & Teoremas de Limite Professores Eduardo Zambon e Magnos Martinello UFES Universidade Federal do Espírito Santo DI Departamento de Informática CEUNES Centro Universitário

Leia mais

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2014

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2014 Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2014 Análise de desempenho São disponíveis duas abordagens para realizar a análise de desempenho:

Leia mais

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2018

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2018 Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2018 Análise de desempenho São disponíveis duas abordagens para realizar a análise de desempenho:

Leia mais

Cadeias de Markov em Tempo Continuo

Cadeias de Markov em Tempo Continuo Cadeias de Markov em Tempo Continuo Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 6 Taylor & Karlin 1 / 44 Análogo ao processo

Leia mais

Módulo III: Processos de Poisson, Gaussiano e Wiener

Módulo III: Processos de Poisson, Gaussiano e Wiener Módulo III: Processos de Poisson, Gaussiano e Wiener Wamberto J. L. Queiroz Universidade Federal de Campina Grande-UFCG Departamento de Engenharia Elétrica Processos Estocásticos Campina Grande - PB Módulo

Leia mais

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 20

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 20 Teoria das Filas aplicadas a Sistemas Computacionais Aula 20 Magnos Martinello Universidade Federal do Espírito Santo - UFES Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia

Leia mais

Uma breve introdução a probabilidade

Uma breve introdução a probabilidade Uma breve introdução a probabilidade Modelo Probabilístico Espaço amostral (S): conjunto de todos os resultados que podem ocorrer a partir de um experimento aleatório Probabilidade de eventos (P): quantificação

Leia mais

ROTEIRO DA APRESENTAÇÃO PROCESSOS ESTOCÁSTICOS

ROTEIRO DA APRESENTAÇÃO PROCESSOS ESTOCÁSTICOS ROTEIRO DA APRESENTAÇÃO MODELOS ESTOCÁSTICOS APLICADOS À INDÚSTRIA Prof. Lupércio França Bessegato Departamento de Estatística Universidade Federal de Juiz de Fora lupercio.bessegato@ufjf.edu.br www.ufjf.br/lupercio_bessegato

Leia mais

TE802 Processos Estocásticos em Engenharia

TE802 Processos Estocásticos em Engenharia TE802 Processos Estocásticos em Engenharia Cadeias de Markov 20/11/2017 Andrei Markov Em 1907, Andrei Markov iniciou um estudo sobre processos onde o resultado de um experimento depende do resultado de

Leia mais

canal para sinais contínuos

canal para sinais contínuos Processos estocásticos, Entropia e capacidade de canal para sinais contínuos 24 de setembro de 2013 Processos estocásticos, Entropia e capacidade de canal para1 sin Conteúdo 1 Probabilidade de sinais contínuos

Leia mais

Modelos Probabilísticos Filas M/M/1, M/G/1. Profa. Jussara M. Almeida 1 o Semestre de 2014

Modelos Probabilísticos Filas M/M/1, M/G/1. Profa. Jussara M. Almeida 1 o Semestre de 2014 Modelos Probabilísticos Filas M/M/1, M/G/1 Profa. Jussara M. Almeida 1 o Semestre de 2014 Modelos Probabilísticos de Filas R W S λ Notação de Kendall Fila G / G / 1 1 = um único servidor Distribuição dos

Leia mais

Propriedade Markoviana

Propriedade Markoviana Cadeias de Markov Cadeias de Markov É um tipo especial de processo estocástico, que satisfaz as seguintes condições: o parâmetro n é discreto (ex: tempo) o espaço de estados E é discreto (coleção de estados

Leia mais

INTRODUÇÃO À TEORIA DAS FILAS

INTRODUÇÃO À TEORIA DAS FILAS INTRODUÇÃO À TEORIA DAS FILAS Uma fila é caracterizada por: Processo de chegada dos fregueses à fila Tempo de serviço dedicado pelo servidor a cada freguês Número de servidores Espaço disponível para espera

Leia mais

Processos estocásticos

Processos estocásticos 36341 - Introdução aos Processos Estocásticos Curso de Pós-Graduação em Engenharia Elétrica Departamento de Engenharia Elétrica Universidade de Brasília Processos estocásticos Geovany A. Borges gaborges@ene.unb.br

Leia mais

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 09

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 09 Teoria das Filas aplicadas a Sistemas Computacionais Aula 09 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas

Leia mais

Introdução aos Proc. Estocásticos - ENG 430

Introdução aos Proc. Estocásticos - ENG 430 Introdução aos Proc. Estocásticos - ENG 430 Fabrício Simões IFBA 16 de novembro de 2015 Fabrício Simões (IFBA) Introdução aos Proc. Estocásticos - ENG 430 16 de novembro de 2015 1 / 35 Fabrício Simões

Leia mais

Aula 11. Variáveis Aleatórias Contínuas Bidimensionais

Aula 11. Variáveis Aleatórias Contínuas Bidimensionais Aula. Variáveis Aleatórias Contínuas Bidimensionais Resumo de caso unidimensional Caso Discreto p p 2 p 3 Caso Contínuo f(x) x x 2 x 3 i p i + f x dx X x x 2 x 3 P p p 2 p 3 Caso bidimensional Caso Discreto

Leia mais

Aula - Equações de Chapman-Kolmogorov

Aula - Equações de Chapman-Kolmogorov Equações de Chapman-Kolmogorov Prof. Magnos Martinello Aula - Equações de Chapman-Kolmogorov Universidade Federal do Esprito Santo-UFES 2011 Equações de Chapman-Kolmogorov 1/17 Introdução As equações de

Leia mais

Modelização do Sistema Produtivo Teoria das Filas de Espera

Modelização do Sistema Produtivo Teoria das Filas de Espera Modelização do Sistema Produtivo Teoria das Filas de Espera http://www.fe.up.pt/maspwww Licenciatura em Engenharia Electrotécnica e de Computadores Gil M. Gonçalves Gil.Goncalves@fe.up.pt 2004/2005 Outline

Leia mais

SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS

SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS 4 SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS Em muitos problemas de probabilidade que requerem o uso de variáveis aleatórias, uma completa especificação da função de densidade de probabilidade ou não está

Leia mais

Estatística Descritiva e Exploratória

Estatística Descritiva e Exploratória Gledson Luiz Picharski e Wanderson Rodrigo Rocha 9 de Maio de 2008 Estatística Descritiva e exploratória 1 Váriaveis Aleatórias Discretas 2 Variáveis bidimensionais 3 Váriaveis Aleatórias Continuas Introdução

Leia mais

Cadeias de Markov. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Cadeias de Markov. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Cadeias de Markov Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulos 3 e 4 Taylor & Karlin 1 / 71 Cadeias de Markov Seja X 0, X 1,...

Leia mais

Capítulo 2. Variáveis Aleatórias e Distribuições

Capítulo 2. Variáveis Aleatórias e Distribuições Capítulo 2 Variáveis Aleatórias e Distribuições Experimento Aleatório Não existe uma definição satisfatória de Experimento Aleatório. Os exemplos dados são de fenômenos para os quais modelos probabilísticos

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aula passada Função Distribuição Condicional Calculando Probabilidades condicionando Esperança Condicional Aula de hoje Análise de Comandos de Programação

Leia mais

MOQ-12 Cadeias de Markov

MOQ-12 Cadeias de Markov Instituto Tecnológico de Aeronáutica Divisão de Engenharia Mecânica-Aeronáutica MOQ-12 Cadeias de Markov Professora: Denise Beatriz T. P. do Areal Ferrari denise@ita.br Roteiro Introdução Processos Estocásticos

Leia mais

Par de Variáveis Aleatórias

Par de Variáveis Aleatórias Par de Variáveis Aleatórias Luis Henrique Assumpção Lolis 7 de abril de 2014 Luis Henrique Assumpção Lolis Par de Variáveis Aleatórias 1 Conteúdo 1 Introdução 2 Par de Variáveis Aleatórias Discretas 3

Leia mais

Modelagem e Análise de Sistemas - COS767

Modelagem e Análise de Sistemas - COS767 Modelagem e Análise de Sistemas - COS767 Aula de hoje Introdução à simulação Geração de números aleatórios Lei dos Grandes Números Geração de variáveis aleatórias: método da transformada inversa Simulação

Leia mais

Modelagem e Análise Aula 9

Modelagem e Análise Aula 9 Modelagem e Análise Aula 9 Aula passada Equações de fluxo Tempo contínuo Aula de hoje Parâmetros de uma fila Medidas de desempenho Cálculo do tempo de espera Resultado de Little Parâmetros da Fila chegada

Leia mais

EELT-7035 Processos Estocásticos em Engenharia. Variáveis Aleatórias. EELT-7035 Variáveis Aleatórias Discretas. Evelio M. G.

EELT-7035 Processos Estocásticos em Engenharia. Variáveis Aleatórias. EELT-7035 Variáveis Aleatórias Discretas. Evelio M. G. EELT-7035 Processos Estocásticos em Engenharia Variáveis Aleatórias Discretas 21 de março de 2019 Variáveis Aleatórias Variável aleatória, X( ): função que mapeia o espaço amostral (S) em números pertencentes

Leia mais

Variáveis Aleatórias Discretas 1/1

Variáveis Aleatórias Discretas 1/1 Variáveis Aleatórias Discretas Professores Eduardo Zambon e Magnos Martinello UFES Universidade Federal do Espírito Santo DI Departamento de Informática CEUNES Centro Universitário Norte do Espírito Santo

Leia mais

UNIVERSIDADE FEDERAL DA PARAÍBA. Variáveis Aleatórias. Departamento de Estatística Luiz Medeiros

UNIVERSIDADE FEDERAL DA PARAÍBA. Variáveis Aleatórias. Departamento de Estatística Luiz Medeiros UNIVERSIDADE FEDERAL DA PARAÍBA Variáveis Aleatórias Departamento de Estatística Luiz Medeiros Introdução Como sabemos, características de interesse em diversas áreas estão sujeitas à variação; Essa variabilidade

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aula passada Probabilidade Condicional Independência de Eventos Teorema da Probabilidade Total Lei de Bayes Aula de hoje Exemplo Lei de Bayes Variáveis Aleatórias

Leia mais

Revisões de Matemática e Estatística

Revisões de Matemática e Estatística Revisões de Matemática e Estatística Joaquim J.S. Ramalho Contents 1 Operadores matemáticos 2 1.1 Somatório........................................ 2 1.2 Duplo somatório....................................

Leia mais

TE802 Processos Estocásticos em Engenharia. Processo Aleatório. TE802 Processos Aleatórios. Evelio M. G. Fernández. 18 de outubro de 2017

TE802 Processos Estocásticos em Engenharia. Processo Aleatório. TE802 Processos Aleatórios. Evelio M. G. Fernández. 18 de outubro de 2017 TE802 Processos Estocásticos em Engenharia Processos Aleatórios 18 de outubro de 2017 Processo Aleatório Processo Aleatório (ou Estocástico), X(t): Função aleatória do tempo para modelar formas de onda

Leia mais

Aula 4. Aula de hoje. Aula passada

Aula 4. Aula de hoje. Aula passada Aula 4 Aula passada Função de distribuição Bernoulli Sequência de v.a. Binomial, Geométrica, Zeta Valor esperado Variância Distribuição conjunta Independência de v.a. Aula de hoje Valor esperado condicional

Leia mais

Processos de Poisson

Processos de Poisson Processos de Poisson Mauro C. M. Campos 1 SUMÁRIO I Alguns fatos sobre a distribuição exponencial 1 II Alguns fatos sobre a distribuição de Poisson 2 III Processos estocásticos em tempo contínuo 2 IV Processos

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade

Leia mais

Processos de Poisson

Processos de Poisson Processos de Poisson Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Capitulo 5 Taylor & Karlin 1 / 37 Distribuição de Poisson Seja a variável

Leia mais

ESTATÍSTICA. x(s) W Domínio. Contradomínio

ESTATÍSTICA. x(s) W Domínio. Contradomínio Variáveis Aleatórias Variáveis Aleatórias são funções matemáticas que associam números reais aos resultados de um Espaço Amostral. Uma variável quantitativa geralmente agrega mais informação que uma qualitativa.

Leia mais

Departamento de InformáAca - PUC- Rio. Hélio Lopes Departamento de InformáAca PUC- Rio. Probabilidade

Departamento de InformáAca - PUC- Rio. Hélio Lopes Departamento de InformáAca PUC- Rio. Probabilidade Introdução à Simulação Estocás5ca usando R INF2035 PUC- Rio, 2013.1 Departamento de InformáAca - PUC- Rio Hélio Lopes Departamento de InformáAca PUC- Rio Experimentos aleatórios: no estudo de probabilidade,

Leia mais

AGA Análise de Dados em Astronomia I. 2. Probabilidades

AGA Análise de Dados em Astronomia I. 2. Probabilidades 1 / 20 AGA 0505- Análise de Dados em Astronomia I 2. Probabilidades Laerte Sodré Jr. 1o. semestre, 2018 2 / 20 tópicos 1 probabilidades - cont. 2 distribuições de probabilidades 1 binomial 2 Poisson 3

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE

Leia mais

Conteúdo Teórico: 04 Esperança

Conteúdo Teórico: 04 Esperança ACH2053 Introdução à Estatística Conteúdo Teórico: 04 Esperança Marcelo de Souza Lauretto Sistemas de Informação EACH www.each.usp.br/lauretto Referência: Morris DeGroot, Mark Schervish. Probability and

Leia mais

Introdução aos Proc. Estocásticos - ENG 430

Introdução aos Proc. Estocásticos - ENG 430 Introdução aos Proc. Estocásticos - ENG 430 Fabrício Simões IFBA 16 de novembro de 2015 Fabrício Simões (IFBA) Introdução aos Proc. Estocásticos - ENG 430 16 de novembro de 2015 1 / 34 1 Motivação 2 Conceitos

Leia mais

Sumário. 2 Índice Remissivo 11

Sumário. 2 Índice Remissivo 11 i Sumário 1 Principais Distribuições Contínuas 1 1.1 Distribuição Uniforme................................. 1 1.2 A Distribuição Normal................................. 2 1.2.1 Padronização e Tabulação

Leia mais

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2011

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2011 Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2011 Cadeias de Markov Em 1907, Andrew Markov iniciou um estudo sobre um modelo onde o resultado

Leia mais

Tiago Viana Flor de Santana

Tiago Viana Flor de Santana ESTATÍSTICA BÁSICA DISTRIBUIÇÃO NORMAL DE PROBABILIDADE (MODELO NORMAL) Tiago Viana Flor de Santana www.uel.br/pessoal/tiagodesantana/ tiagodesantana@uel.br sala 07 Curso: MATEMÁTICA Universidade Estadual

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aula passada Variáveis aleatórias discretas PMF, CDF Exemplos de v. a.: Bernoulli, Binomial, Geométrica, Poisson, Hipergeométrica Aula de hoje V.a. contínua

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aula passada Exemplos Análise Combinatória Probabilidade Condicional Independência de Eventos Teorema da Probabilidade Total Lei de Bayes Aula de hoje Exemplo

Leia mais

Variáveis Aleatórias. Esperança e Variância. Prof. Luiz Medeiros Departamento de Estatística - UFPB

Variáveis Aleatórias. Esperança e Variância. Prof. Luiz Medeiros Departamento de Estatística - UFPB Variáveis Aleatórias Esperança e Variância Prof. Luiz Medeiros Departamento de Estatística - UFPB ESPERANÇA E VARIÂNCIA Nos modelos matemáticos aleatórios parâmetros podem ser empregados para caracterizar

Leia mais

Tópicos Especiais em Qualidade

Tópicos Especiais em Qualidade Tópicos Especiais em Qualidade Processos estocásticos, Distribuições de probabilidade e Ajustamento de dados Qualquer sistema real opera sempre em ambientes onde a incerteza impera, principalmente quando

Leia mais

Vetor de Variáveis Aleatórias

Vetor de Variáveis Aleatórias Vetor de Variáveis Aleatórias Luis Henrique Assumpção Lolis 25 de junho de 2013 Luis Henrique Assumpção Lolis Vetor de Variáveis Aleatórias 1 Conteúdo 1 Vetor de Variáveis Aleatórias 2 Função de Várias

Leia mais

DA PARAÍBA. Variáveis Aleatórias. Departamento de Estatística Luiz Medeiros

DA PARAÍBA. Variáveis Aleatórias. Departamento de Estatística Luiz Medeiros UNIVERSIDADE FEDERAL DA PARAÍBA Variáveis Aleatórias Departamento de Estatística Luiz Medeiros Introdução Como sabemos, características de interesse em diversas áreas estão sujeitas à variação Essa variabilidade

Leia mais

Conteúdo Teórico: 04 Esperança

Conteúdo Teórico: 04 Esperança ACH2053 Introdução à Estatística Conteúdo Teórico: 04 Esperança Marcelo de Souza Lauretto Sistemas de Informação EACH www.each.usp.br/lauretto Referência: Morris DeGroot, Mark Schervish. Probability and

Leia mais

Avaliação de Desempenho de Sistemas Discretos

Avaliação de Desempenho de Sistemas Discretos Avaliação de Desempenho de Sistemas Discretos Parte VI: Introdução aos Processos Estocásticos e Teoria das Filas Professor: Reinaldo Gomes reinaldo@dsc.ufcg.edu.br Processos Estocásticos Família de VAs

Leia mais

Métodos Quantitativos para Ciência da Computação Experimental. Aula #2c

Métodos Quantitativos para Ciência da Computação Experimental. Aula #2c Métodos Quantitativos para Ciência da Computação Experimental Aula #2c Virgílio A. F. Almeida Abril 2010 Departamento de Ciência da Computação Universidade Federal de Minas Gerais Sobre o método científico

Leia mais

Avaliação de Desempenho de Sistemas Discretos

Avaliação de Desempenho de Sistemas Discretos Processos Estocásticos Avaliação de Desempenho de Sistemas Discretos Parte VI: Introdução aos Processos Estocásticos e Teoria das Filas Professor: Reinaldo Gomes reinaldo@dsc.ufcg.edu.br Família de VAs

Leia mais

4.1. ESPERANÇA x =, x=1

4.1. ESPERANÇA x =, x=1 4.1. ESPERANÇA 139 4.1 Esperança Certamente um dos conceitos mais conhecidos na teoria das probabilidade é a esperança de uma variável aleatória, mas não com esse nome e sim com os nomes de média ou valor

Leia mais

Modelos de Distribuição PARA COMPUTAÇÃO

Modelos de Distribuição PARA COMPUTAÇÃO Modelos de Distribuição MONITORIA DE ESTATÍSTICA E PROBABILIDADE PARA COMPUTAÇÃO Distribuições Discretas Bernoulli Binomial Geométrica Hipergeométrica Poisson ESTATÍSTICA E PROBABILIDADE PARA COMPUTAÇÃO

Leia mais

Teorema do Limite Central

Teorema do Limite Central Teorema do Limite Central Bacharelado em Economia - FEA - Noturno 1 o Semestre 2014 MAE0219 (IME-USP) Teorema do Limite Central 1 o Semestre 2014 1 / 47 Objetivos da Aula Sumário 1 Objetivos da Aula 2

Leia mais

Processos Estocásticos

Processos Estocásticos Processos Estocásticos Luiz Affonso Guedes Sumário Modelos Probabilísticos Discretos Uniforme Bernoulli Binomial Hipergeométrico Geométrico Poisson Contínuos Uniforme Normal Tempo de Vida Exponencial Gama

Leia mais

Mais sobre Modelos Continuos

Mais sobre Modelos Continuos Mais sobre Modelos Continuos Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 41 Transformação Linear da Uniforme Seja X uma variável aleatória

Leia mais

PROCESSOS ESTOCÁSTICOS

PROCESSOS ESTOCÁSTICOS PROCESSOS ESTOCÁSTICOS Definições, Principais Tipos, Aplicações em Confiabilidade de Sistemas CLARKE, A. B., DISNEY, R. L. Probabilidade e Processos Estocásticos, Rio de Janeiro: Livros Técnicos e Científicos

Leia mais

Funções Geradoras de Variáveis Aleatórias. Simulação Discreta de Sistemas - Prof. Paulo Freitas - UFSC/CTC/INE

Funções Geradoras de Variáveis Aleatórias. Simulação Discreta de Sistemas - Prof. Paulo Freitas - UFSC/CTC/INE Funções Geradoras de Variáveis Aleatórias 1 Funções Geradoras de Variáveis Aleatórias Nos programas de simulação existe um GNA e inúmeras outras funções matemáticas descritas como Funções Geradoras de

Leia mais

Probabilidade de Ruína e Processos de Lévy α-estáveis

Probabilidade de Ruína e Processos de Lévy α-estáveis Apresentação Probabilidade de Ruína e Processos de Lévy α-estáveis Universidade de São Paulo IME - USP 08 de abril, 2010 Apresentação Distribuições Estáveis e Processos de Lévy α-estáveis Convergência

Leia mais

Modelagem Computacional. Parte 8 2

Modelagem Computacional. Parte 8 2 Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 8 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 10 e 11] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aula passada Probabilidade Condicional Independência de Eventos Teorema da Probabilidade Total Lei de Bayes Aula de hoje Variáveis Aleatórias PMF, CDF Exemplos

Leia mais

Estatísticas Inferenciais Distribuições Amostrais. Estatística

Estatísticas Inferenciais Distribuições Amostrais. Estatística Estatística Na descrição dos conjuntos de dados x 1,..., x n, não foi feita menção ao conceito de população. Estatísticas inferenciais: preocupadas com a fonte dos dados e em tentar fazer generalizações

Leia mais

Modelagem e Avaliação de Desempenho

Modelagem e Avaliação de Desempenho Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2016 Exemplos usados na apresentação foram obtidos de Introduction to Probability, C.M.Grinstead

Leia mais

VARIÁVEIS ALEATÓRIAS

VARIÁVEIS ALEATÓRIAS UNIVERSIDADE FEDERAL DE JUIZ DE FORA INSTITUTO DE CIÊNCIAS EXATAS DEPARTAMENTO DE ESTATÍSTICA VARIÁVEIS ALEATÓRIAS Joaquim H Vianna Neto Relatório Técnico RTE-03/013 Relatório Técnico Série Ensino Variáveis

Leia mais

Aplicação. Controlo Óptimas. 23º Seminário de Engenharia Mecânica - 4 Junho de Nuno Manuel R. S. Órfão

Aplicação. Controlo Óptimas. 23º Seminário de Engenharia Mecânica - 4 Junho de Nuno Manuel R. S. Órfão Aplicação de Cadeias de Markov em Redes de Filas de Espera Políticas de Controlo Óptimas 23º Seminário de Engenharia Mecânica - 4 Junho de 2003 - Nuno Manuel R. S. Órfão nmorfao@estg.ipleiria.pt 1 Sumário

Leia mais

ALGUNS MODELOS DE VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS. Prof.: Idemauro Antonio Rodrigues de Lara

ALGUNS MODELOS DE VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS. Prof.: Idemauro Antonio Rodrigues de Lara 1 ALGUNS MODELOS DE VARIÁVEIS ALEATÓRIAS UNIDIMENSIONAIS Prof.: Idemauro Antonio Rodrigues de Lara 2 Modelos de variáveis aleatórias discretas 1. Distribuição Uniforme Discreta 2. Distribuição Binomial

Leia mais

MP-208: Filtragem Ótima com Aplicações Aeroespaciais

MP-208: Filtragem Ótima com Aplicações Aeroespaciais MP-208: Filtragem Ótima com Aplicações Aeroespaciais Seção 2.6: Vetores Aleatórios Davi Antônio dos Santos Departamento de Mecatrônica Instituto Tecnológico de Aeronáutica davists@ita.br São José dos Campos,

Leia mais

Variáveis Aleatórias Contínuas

Variáveis Aleatórias Contínuas Variáveis Aleatórias Contínuas Bacharelado em Administração - FEA - Noturno 2 o Semestre 2017 MAE0219 (IME-USP) Variáveis Aleatórias Contínuas 2 o Semestre 2017 1 / 35 Objetivos da Aula Sumário 1 Objetivos

Leia mais

Processos Estocásticos. Luiz Affonso Guedes

Processos Estocásticos. Luiz Affonso Guedes Processos Estocásticos Luiz Affonso Guedes Sumário Modelos Probabilísticos Discretos Uniforme Bernoulli Binomial Hipergeométrico Geométrico Poisson Contínuos Uniforme Normal Tempo de Vida Exponencial Gama

Leia mais

TE802 Processos Estocásticos em Engenharia. Valores Esperados de Somas de Variáveis Aleatórias. TE802 Somas de Variáveis Aleatórias

TE802 Processos Estocásticos em Engenharia. Valores Esperados de Somas de Variáveis Aleatórias. TE802 Somas de Variáveis Aleatórias TE802 Processos Estocásticos em Engenharia Somas de Variáveis Aleatórias 27 de setembro de 2017 Valores Esperados de Somas de Variáveis Aleatórias Seja W n = X 1 + + X n, E[W n ] = E[X 1 ] + E[X 2 ] +

Leia mais

Modelos Probabilísticos Teóricos Discretos e Contínuos. Bernoulli, Binomial, Poisson, Uniforme, Exponencial, Normal

Modelos Probabilísticos Teóricos Discretos e Contínuos. Bernoulli, Binomial, Poisson, Uniforme, Exponencial, Normal Modelos Probabilísticos Teóricos Discretos e Contínuos Bernoulli, Binomial, Poisson, Uniforme, Exponencial, Normal Distribuição de Probabilidades A distribuição de probabilidades de uma variável aleatória:

Leia mais

PROCESSOS ESTOCÁSTICOS E APLICAÇÕES

PROCESSOS ESTOCÁSTICOS E APLICAÇÕES PROCESSOS ESTOCÁSTICOS E APLICAÇÕES JOSÉ PEDRO GAIVÃO Conteúdo 1. Noções Gerais 2 1.1. Relembrar de teoria de probabilidades 2 1.2. Processos estocásticos 3 2. Esperança Condicional 5 2.1. Esperança condicional

Leia mais

f(x t =x t )= F(X t =x t )/ x X 1 X 2 X 3 X 4 Representação Gráfica de um Processo Estocástico

f(x t =x t )= F(X t =x t )/ x X 1 X 2 X 3 X 4 Representação Gráfica de um Processo Estocástico CAÍTULO ROCESSOS ESTOCÁSTICOS - Introdução ) A variação de tráfego em um cruzamento que envolve a formação e dissipação de congestionamento de tráfego. ) A variação diária do nível de estoques de um determinado

Leia mais

COS767 - Modelagem e Análise Aula 3 - Simulação

COS767 - Modelagem e Análise Aula 3 - Simulação COS767 - Modelagem e Análise Aula 3 - Simulação Validando resultados da simulação Média e variância amostral Teorema do Limite Central Intervalo de confiança Organizando as execuções da simulação Verificando

Leia mais

AULA 17 - Distribuição Uniforme e Normal

AULA 17 - Distribuição Uniforme e Normal AULA 17 - Distribuição Uniforme e Normal Susan Schommer Introdução à Estatística Econômica - IE/UFRJ Distribuições Contínuas Em muitos problemas se torna matematicamente mais simples considerar um espaço

Leia mais