ESTATÍSTICA COMPUTACIONAL
|
|
|
- Daniel Coimbra Aveiro
- 8 Há anos
- Visualizações:
Transcrição
1 ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro
2 Sumário
3 Simulação O que é simulação? Reprodução de um sistema (problema real) num ambiente controlado pelo pesquisador. O sistema em questão pode ser determinístico, neste caso, as componentes e os comportamento do sistema são conhecidos. Esse sistema pode ser descrito por uma regra matemática exata. Em outros casos, o sistema está sujeito a flutuações aleatórias. Então, precisamos acomodar as incertezas envolvidas usando probabilidade.
4 No caso de sistemas não determinísticos, existe pelo menos uma componente estocástica, que será descrita por distribuições de probabilidade. Podemos representar o sistema por y = g(x 1,..., x p). A função g pode ser complicada e x 1,..., x p são variáveis aleatórias. Objetivo: reproduzir essas variáveis aleatórias.
5 Geração de variáveis aleatórias Essas variáveis aleatórias são, de forma geral, independentemente distribuídas de acordo com uma funcão de distribuição F. F pode não ser explicitamente conhecida. Inicialmente iremos considerar geração de variáveis com distribuição uniforme no intervalo (0,1). Gerando da Uniforme Inicialmente iremos gerar da U(0, 1) pois essa distribuição fornece a noção básica de representação da aleatoriedade. E ela será usada para geração de outras distribuições de probabilidade.
6 Objetivo: gerar uma amostra aleatória (U 1,..., U n) de tamanho n de U(0, 1). Paradoxo: queremos gerar números aleatórios mas usando um mecanismo determinístico que possa ser repetido para gerar vários números aleatórios com a propriedade desejada. Definição (gerador uniforme pseudo-aleatório): algoritmo que começando de um valor inicial u 0 e uma transformação D, produz uma sequência {u i } = {D i (u 0 )} de valores em (0,1). Para todo n, os valores (u 1,..., u n) reproduzem o comportamento de uma amostra aleatória (U 1,..., U n) de U(0, 1) quando testadas segundo um certo conjunto de testes. Queremos encontrar uma sequência de valores tal que ao testar H 0 : U 1,..., U n são variáveis aleatórias U(0, 1) não rejeitamos H 0. Teste clássico nesse contexto: Kolmogorov-Smirnov.
7 Partimos da noção de que queremos encontrar um sistema determinístico que possa imitar um fenômeno aleatório. Isso sugere que modelos caóticos poderiam criar esse comportamento. Esses modelos são baseados em estruturas complexas tal como sistemas dinâmicos da forma X n+1 = D(X n). Esse tipo de sistema é bastante sensível ao valor inicial. Exemplo: função logística. Seja D a(x) = ax(1 x). Para a [3, 57; 4, 00] temos configurações caóticas. Em particular, para a = 4, 00 temos uma sequência de números no [0,1] com distribuição arco-seno cuja função de densidade de probabilidade é 1 π x(1 x). Podemos transformar X gerado da distribuição arco-seno e obter amostras da U(0, 1) fazendo: U i = 2 π arcoseno( X i ) para i = 1,..., n.
8 Gerando de outras distribuições Considere a variável aleatória X com suporte {x 1,..., x k } com k probabilidades p 1,..., p k tal que p i = 1. i=1 Podemos dividir o intervalo [0,1] em k intervalos I 1,..., I k de forma que j I j = (F j1, F j ], onde F 0 = 0 e F j = p i. i=1 Geramos u i da U(0, 1) e vemos em qual intervalo ele caiu. Se u i em I 1, então dizemos que X = X i e assim por diante. Por que esse gerador gera da distribuição de X acima?
9 Gerando da distribuição de Bernoulli Distribuição: Pr(X = 1) = p e Pr(X = 0) = 1 p. Algoritmo 1. Dividir o intervalo (0,1) em 2 partes: I 1 = (0, p] e I 2 = (p, 1]. 2. Gerar u da U(0, 1). 3. Se u em I 1, então x = 1. Caso contrário, x = Repita os Passos 1, 2 e 3 n vezes. (Mostrar exemplo no R: exemplo_09.r)
10 Gerando da distribuição uniforme discreta Distribuição: Pr(X = x) = 1 N para x = 1, 2,..., N. Algoritmo 1. Dividir o intervalo (0,1) em N partes: I 1 = (0, 1/N], I 2 = (1/N, 2/N],..., I N = ((N 1)/N, 1]. 2. Gerar u da U(0, 1). 3. Se u em I j, então x recebe o valor j. 4. Repita os Passos 1, 2 e 3 n vezes. (Mostrar exemplo no R: exemplo_10.r)
11 Método da transformação inversa Na representação da estrutura de uma variável aleatória podemos representar a tripla (Ω, A, P) por ([0, 1], B, U(0, 1)). Isto é, podemos igualar a variabilidade de ω Ω usando a uniforme no intervalo (0,1) através de uma transformação. Dessa forma, X são funções que levam do (0,1) em D x. Esse método para gerar valores da variável aleatória X é conhecido como método da transformação inversa. Lema Se U U(0, 1), então a variável F 1 (U) tem função de distribuição acumulada F. Exercício: Prove este lema!
12 Então basta gerar U da uniforme e fazer X = F 1 (U) para obter X com distribuição acumulada F. Podemos obter outras distribuições como uma transformação determinística de amostras da uniforme. Exemplo: X = log(u) pode ser usado para obter uma amostra da distribuição exponencial com parâmetro 1. Por que? Como encontrar essa transformação? Como generalizar para uma exponencial como parâmetro λ (média 1/λ)? (Mostrar exemplo no R: exemplo_11.r)
13 Exemplo: como utilizar a uniforme para gerar da Gama(κ, β) sendo κ um inteiro positivo e β > 0? Algoritmo 1. Gerar u 1,..., u k da U(0, 1). 2. Definir y i = (1/β) log(u i ), para i = 1,..., k. 3. Faça x = y y k. 4. Repita os Passos 1, 2 e 3 n vezes. (Mostrar exemplo no R: exemplo_12.r)
14 Geração de variáveis aleatórias usando misturas Podemos usar uma técnica bivariada para simplificar a geração de variáveis. Motivação: sabemos que f (x 1, x 2 ) = f (x 1 x 2 )f (x 2 ). Suponha que seja mais fácil gerar de (X 1 X 2 = x 2 ) e de X 2 do que gerar diretamente de X 1. Então, (X 1, X 2 ) pode ser gerado em dois passos Passo 1: Gerar x 2. Passo 2: Gerar (x 1 x 2 ). Nesse algoritmo temos disponível a distribuição conjunta (X 1, X 2 ) e a distribuição marginal de X 1.
15 Exemplo: mistura discreta de normais Considere interesse em gerar variáveis aleatórias X tal que f X (x) = ωφ(x µ 1, σ 2 1) + (1 ω)φ(x µ 2, σ 2 2), sendo 0 < ω < 1 e φ(. a, b 2 ) a função de densidade de probabilidade de uma normal com média a e variância b 2. Seja Y Ber(ω). Então, podemos dizer que f X Y (x y = 1) = φ(x µ 1, σ 2 1) e f X Y (x y = 0) = φ(x µ 2, σ 2 2). Consequentemente, uma maneira de obter uma amostra de X é gerar valores de Y e dado o valor de Y gerar valores de X. Algoritmo Para i = 1,..., n, faça: 1. Gerar Y i Ber(ω); 2. Se Y i = 1 gerar X i N (µ 1, σ 2 1). Se Y i = 0 gerar X i N (µ 2, σ 2 2). A amostra (x 1,..., x n) tem densidade f X. (Mostrar exemplo no R: exemplo_13.r)
16 Exemplo: distribuição t-student Lema Se X λ N (µ, σ 2 /λ) e λ G(ν/2, ν/2), então X t ν(µ, σ 2 ). Exercício: Prove o lema acima! Algoritmo Para i = 1,..., n, faça: 1. Gerar λ i G(ν/2, ν/2); 2. Gerar X i N (µ, σ 2 /λ i ). A amostra (x 1,..., x n) tem densidade t ν(µ, σ 2 ). (Mostrar exemplo no R: exemplo_14.r)
17 Método da rejeição Objetivo: obter uma amostra de X com função de densidade de probabilidade f (x). Suponha que amostrar de X através de f (x) seja difícil, mas obter amostrar de uma g(x) parecida com f (x) seja fácil. Dizemos que g(x) é um envelope para f (x) se existe uma constante C > 0 tal que 0 f (x) Cg(x) para todo x. f(x) f(x) g(x) envelope x
18 Razão de aceitação Vamos propor uma valor de x gerando da distribuição g(x). A aceitação desse valor está relacionada com a razão A = f (x) Cg(x) com g(x) 0 para todo x. Pela definição do envelope temos que 0 A 1. Valores pequenos de A indicam que o valor proposto tem densidade pequena em f e grande em Cg. Valores de A próximos de 1 indicam que o valor proposto tem densidade alta em f e Cg. Isto é, as duas são parecidas.
19 Algoritmo 1. Gere um valor proposto x de g(x); 2. Aceite o valor proposto x com probabilidade A = f (x ) Cg(x ). 3. Repita os Passos 1 e 2 até obter uma amostra de tamanho n. A amostra (x 1,..., x n) tem densidade f (x). Por que o algoritmo gera uma amostra de f (x)? Exemplo: N (0, 1) Objetivo: gerar amostras da Normal padrão, usando propostas: (a) U( 10, 10); e (b) Cauchy padrão.
20 No caso da U( 10, 10), temos C = (2π) 1/2 exp{ x 2 /2}. 1/20 O máximo dessa razão é C = 7, 98 em x = 0. Então, 7, 98I ( 10,10) cobre f (x). No caso da Cauchy padrão, temos C = (2π) 1/2 exp{ x 2 /2} [π(1 + x 2 )] 1. O máximo dessa razão é C = 1, 52 em x = 1 e x = 1. Então, 1.52[π(1 + x 2 )] 1 cobre f (x). (Mostrar exemplo no R: exemplo_15.r)
21 Notas sobre o método da rejeição A distribuição proposta deve ser fácil de gerar valores. A função de densidade de probabilidade da proposta deve ser fácil de avaliar. As funções de densidade de probabilidade f e g devem ser similares para resultar em uma taxa de aceitação alta e um algoritmo eficiente. Podemos calcular a taxa de aceitação teórica: ( Pr U f (X) ) ( = Pr U f (s) ) X = s g(s)ds Cg(X) Cg(s) f (s) = Cg(s) g(s)ds = 1 g(s)ds = 1 C C. Lembrando que C 1. Temos que C mais próximo de 1 indica que f e g são próximas, levando a altas taxas de aceitação. Enquanto que C grande indica que f e g são distantes, levando a baixas taxas de aceitação. No caso da proposta uniforme, a taxa de aceitação teórica é 1/7,9788=0,125 e na proposta Cauchy, a taxa de aceitação teórica é 1/1,5203=0,658.
22 Observação importante: Se só conhecemos a função de densidade de interesse exceto por uma constante de integração f (x) κ f (x) nada muda no algoritmo. Basta substituir f por f. Agora, a constante C é tal que f (x) Cg(x). Por que?
23 Exemplo: Normal truncada Objetivo: gerar uma amostra da distribuição Normal truncada entre 0 e infinito (conhecida como Half-Normal). Considere como proposta a distribuição Normal padrão. f(x) g(x) f(x) x Figura: Exemplo do método de rejeição aplicado a normal truncada.
24 A função de densidade de probabilidade objetivo é f (x) = 2 1 exp { x } 2 I (x 0) = 2φ(x)I (x 0). 2π 2 No caso da proposta Normal padrão com densidade φ(x), temos C = 2 (2π) 1/2 exp { x 2 /2 } I (x 0) (2π) 1/2 exp { x 2 /2} = 2I (x 0). O máximo dessa razão é C = 2 em x 0. Então, 2φ(x) cobre f (x). Algoritmo 1. Gerar uma proposta X N (0, 1); 2. Aceitar o valor proposto x com probabilidade 2φ(x) 2φ(x) I (x 0) = I (x 0). 3. Repita os Passos 1 e 2 n vezes. Note que se x 0, então aceitamos este valor com probabilidade 1. Por outro lado, se x < 0, então rejeitamos este valor com probabilidade 1.
25 Neste caso, o Passo 2 do algoritmo é desnecessário. Para gerar da Normal truncada entre 0 e infinito usando uma Normal padrão devemos: Gerar valores da Normal padrão e aceitar os valores maiores que 0. Nesse caso a taxa de aceitação é 1/C = 1/2. Considere a proposta G(1, 1) E(1). Nesse caso, a taxa de aceitação teórica é 0,76 (C = 1, 315 em x = 1). f(x) f(x) g 1(x) g 2(x) x Figura: Exemplo do método de rejeição aplicado a normal truncada. (Mostrar exemplo no R: exemplo_16.r)
26 Gerando da distribuição Normal Teorema central do limite. Rejeição com proposta exponencial dupla. Método de Box-Muller Teorema central do limite Considere uma amostra (U 1,..., U n) i.i.d. U(0, 1). Sabemos que para n grande temos n(u 1/2) X = 1/ N (0, 1). 12 Essa aproximação é razoável para n igual ou maior que 12. Mas esse algoritmo não é eficiente pois para gerar um único valor da N (0, 1) é preciso gerar pelo menos 12 valores da U(0, 1). (Mostrar exemplo no R: exemplo_17.r)
27 Gerando da distribuição Normal: Rejeição Objetivo: Gerar amostras da distribuição Normal padrão. Considere uma proposta exponencial dupla dada por g(x) = 1 { 2τ exp 1τ } x, x R. f(x) f(x) g 1(x) g 3(x) Figura: Exemplo para gerar da Normal padrão pelo método de rejeição com proposta Laplace. x
28 A razão entre as densidade f e g é C(x, τ) = f (x) g(x) = τ exp { x 2 2π 2 + x τ }, x R, τ > 0. O máximo dessa razão é obtida para x = 1/τ e x = 1/τ e é igual a C(τ) = τ { } 1 exp. 2π 2τ 2 Lembrando que a constante deve ser a menor possível para uma alta taxa de aceitação. Então, devemos minimizar C(τ) com respeito a τ. Para isto, τ = 1. Segue-se que C(1) = 1, 315 e a taxa de aceitação teórica 1/C(1) = 0, 76. Portanto, nossa proposta é uma Laplace(1). (Mostrar exemplo no R: exemplo_18.r)
29 Gerando da distribuição Normal: Box-Muller Sejam U i U(0, 1), i = 1, 2 e independentes. Defina as variáveis aleatórias X 1 e X 2 tais que X 1 = 2 log(u 1 ) cos(2πu 2 ), e X 2 = 2 log(u 1 )sen(2πu 2 ). Então, X i N (0, 1), i = 1, 2 e independentes. Por transformação polar podemos verificar a relação acima. Note que no algoritmo anterior de rejeição usando proposta Laplace em 100 U(0, 1) geradas esperamos gerar 76 N (0, 1). Enquanto nesse algoritmo, em 100 U(0, 1) geradas iremos gerar 100 N (0, 1).
30 Gerando da distribuição Normal multivariada Objetivo: Gerar uma amostra da Normal multivariada com vetor de médias µ e matriz de covariâncias Σ a partir de variáveis N (0, 1) independentes. Considere X = (X 1,..., X p) um vetor de variáveis aleatórias independentes e identicamente distribuídas da N (0, 1). Sabemos que Y = µ + U X N p(µ, Σ) sendo Σ = U U. Podemos utilizar a decomposição de Cholesky! Podemos utilizar a decomposição em valor singular (SVD)! E possível com a decomposição LU? (Mostrar exemplo no R: exemplo_19.r)
31 Método do envelope Esse método é parecido com o método de rejeição com um passo extra que diminui o custo computacional no caso em que avaliar a densidade objetivo é difícil. A ideia do método é de que além de encontrar uma constante C tal que Cg cubra a f também devemos escolher uma função h que limite f por baixo. Se h(x) f (x) para todo x, então podemos usar a seguinte relação para aceitar x: u h(x) Cg(x) f (x) Cg(x) u f (x) Cg(x). Não é preciso avaliar f (x), basta aceitar o valor proposto.
32 Exemplo: gerando da N (0, 1) Considere o problema de gerar da N (0, 1) usando como proposta a U( 10; 10). Utilizaremos um limitante inferior para avaliar a função de densidade da N (0, 1) um número de vezes menor. Para isto considere a relação (1 x 2 /2) exp{ x 2 /2}. O método da rejeição terá um passo extra que testa se u (2π) 1/2 (1 x 2 /2) Cg(x) = (1 x 2 /2) pois C = (2π) 1/2 1/20. Se a relação for verificada, então podemos aceitar o valor proposto de g(x). (Mostrar exemplo no R: exemplo_20.r)
33 Reamostragem ponderada No método de rejeição vimos que é crucial encontrar a constante C para determinar o envelope. O método da reamostragem ponderada usa a ideia do método de rejeição sem precisar encontrar essa constante. Desvantagem: produz valores com distribuição aproximada. Ao invés de gerar diretamente da densidade objetivof (x), iremos gerar de uma aproximação discreta dessa distribuição. Para isso, assim como no método de rejeição, amostramos de uma densidade proposta g(x). Na distribuição discreta as probabilidades dos valores x 1, x 2,..., x n são tais que Pr(X = x i ) f (x i) g(x i ).
34 1. Considere uma amostra (x 1,..., x n) obtida da função de densidade de probabilidade proposta g(x). 2. Calcule os pesos e depois as probabilidades ω i = f (x i) g(x i ) i = 1,..., n, π i = ω i n j=1 ω j i = 1,..., n. 3. Uma segunda amostra (x 1,..., x m) é obtida da distribuição discreta Pr(X = x i ) = π i, i = 1,..., n. A reamostra (x 1,..., x m) tem distribuição aproximada f (x). Note que o tamanho da reamostra é qualquer. Por exemplo, podemos ter m > n e nesse caso temos amostragem com reposição da distribuição discreta. Neste caso, também não é preciso conhecer f (x) completamente. Precisamos conhecer somente seu núcleo.
35 Exemplo: mistura discreta de normais Considere interesse em gerar variáveis aleatórias X tal que f X (x) = ωφ(x µ 1, σ 2 1) + (1 ω)φ(x µ 2, σ 2 2), sendo 0 < ω < 1 e φ(. a, b 2 ) a função de densidade de probabilidade de uma normal com média a e variância b 2. Sabemos que E(X) = E Y (E(X Y )) = ωµ 1 + (1 ω)µ 2 = µ Var(X) = E Y (Var(X Y )) + Var Y (E(X Y )) = [ωµ 1 + (1 ω)µ 2 ] + [ω(µ 1 µ) 2 + (1 ω)(µ 2 µ) 2 ]. (Mostrar exemplo no R: exemplo_21.r) Exemplo: núcleo da função de densidade de probabilidade f (x) exp( x 2 /2){[sen(6x)] 2 + 3[cos(x)] 2 [sen(4x)] 2 + 1}, x R. (Mostrar exemplo no R: exemplo_22.r)
36 Qualidade da aproximação Podemos mostrar que para n temos F ω(a) F X (a) sendo F ω(a) = Pr(X a) = n j=1 ω j = I(x j < a)f (x j )/g(x j ) n j=1 f (x. j)/g(x j ) j:x j a Quando n, temos vários x j gerados com frequência de g(x j ). Então, podemos aproximar F ω(a) = n j=1 ω j = I(x j < a)f (x j )/g(x j ) n j=1 f (x j)/g(x j ) j:x j a [I(x < a)f (x)/g(x)]g(x)dx [f (x)/g(x)]g(x)dx = I(x < a)f (x)dx f (x)dx Dessa forma, teremos uma boa aproximação para n grande. = F X (a).
37 Teorema fundamental da simulação Antes de falar sobre o amostrador da fatia (Slice Sampler), considere a ideia que esta por trás de vários métodos de simulação tais como rejeição e amostrador da fatia. Podemos reescrever a densidade objetivo f (x) por f (x) = f (x) 0 1du, isto é, f (x) é a densidade marginal da conjunta de (X, U) sendo Dessa forma (X, U) U{(x, u) : 0 < u < f (x)}. f (x) = I(0 < u < f (x))du = f (x) 0 1du. A variável U é chamada variável auxiliar, criada artificialmente para facilitar a geração de variáveis aleatórias com distribuição f (x). Para gerar X com função de densidade de probabilidade f (x) basta gerar da conjunta de (X, U).
38 Para isto usamos uma cadeia de Markov que gera valores de X U e de U X tais que (X U = u) U(x : u f (x)) (U U = x) U(u : u f (x)). Os valores gerados são obtidos da distribuição conjunta de (X, U). Teorema Gerar X com função de densidade de probabilidade f (x) é equivalente a gerar (X, U) U{(x, u) : 0 < u < f (x)}. Os movimentos são feitos usando um passeio aleatório em cada eixo por vez. Movemos a cadeia fazendo um movimento no eixo u. Depois fazemos um movimento no eixo x. Após gerar n pares (x i, u i ), basta considerar somente os valores de x 1,..., x n como amostra da marginal de X.
39 x f(x) x f(x) x f(x) Figura: Comportamento do amostrador da fatia. Esse método gera valores somente da Uniforme. Nenhum valor é rejeitado. Idea: gerar valores sob a curva baseados em Uniformes.
40 Suponha uma distribuição f (x) unimodal. Algoritmo 1. Inicializar com x 0 e fazer i = 0; 2. Fazer i = i + 1 e gerar y i de U(0, f (x i 1 )); 3. Gerar x i de U(c 1i, c 2i ) sendo y i = f (c 1i ) = f (c 2i ); 4. Repetir os Passos 2 e 3 para i n. f(x) Figura: Comportamento do amostrador da fatia. x (Mostrar exemplo no R: exemplo_23.r)
41 Exemplo: N (0, 1) truncada no (0, 1) via amostrador da fatia A função de densidade de probabilidade é dada por f (x) = φ(x), x (0, 1). Φ(1) Φ(0) f(x) Figura: Comportamento do amostrador da fatia para normal truncada. x
42 Dado y, precisamos calcular κ tal que f (κ) = y: κ = 2 [ln(y) + 12 ] ln(2π) + ln(φ(1) Φ(0)). Note que 0 κ 1. Algoritmo 1. Inicializar com x 0 e fazer i = 0; 2. Fazer i = i + 1 e gerar y i de U(0, f (x i 1 )); 3. Gerar x i de U(0, mín(κ i, 1)). 4. Repetir os Passos 2 e 3 para i n. (Mostrar exemplo no R: exemplo_24.r)
Análise de Dados e Simulação
Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco Simulação de Variáveis Aleatórias Contínuas. O método da Transformada Inversa Teorema Seja U U (0,1). Para qualquer
Funções Geradoras de Variáveis Aleatórias. Simulação Discreta de Sistemas - Prof. Paulo Freitas - UFSC/CTC/INE
Funções Geradoras de Variáveis Aleatórias 1 Funções Geradoras de Variáveis Aleatórias Nos programas de simulação existe um GNA e inúmeras outras funções matemáticas descritas como Funções Geradoras de
Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23
Noções de Simulação Ciências Contábeis - FEA - Noturno 2 o Semestre 2013 MAE0219 (IME-USP) Noções de Simulação 2 o Semestre 2013 1 / 23 Objetivos da Aula Sumário 1 Objetivos da Aula 2 Motivação 3 Geração
ESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Se a integração analítica não é possível ou
Um modelo estocástico para o fluxo de caixa de um plano de previdência de um indivíduo 15
2 Simulação estocástica A simulação computacional consiste em empregar técnicas matemáticas em computadores com o propósito de gerar ensaios que tentam reproduzir de maneira análoga um processo ou operação
Sexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo
Sexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo Antônio Carlos Roque da Silva Filho e Cristiano R. F. Granzotti 26 de junho de 2017 Os exercícios desta lista devem ser resolvidos
ESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Introdução Solução de equações não lineares
Aula 14. Aula de hoje. Aula passada
Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema
4.1. ESPERANÇA x =, x=1
4.1. ESPERANÇA 139 4.1 Esperança Certamente um dos conceitos mais conhecidos na teoria das probabilidade é a esperança de uma variável aleatória, mas não com esse nome e sim com os nomes de média ou valor
Estatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aula passada Somas aleatórias Aula de hoje Introdução à simulação Geração de números aleatórios Lei dos Grandes Números Simulação de Sistemas Discretos É
Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2016
Modelagem e Avaliação de Desempenho Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2016 Simulação de Sistemas Simulação é a técnica de solução de um problema pela análise de
1 x. = π 2. pois. Probabilidade: um curso introdutório - Mônica Barros - Capítulo 7 - Soluções
Soluções - Capítulo 7 Lista semestre 000.0:, 3, 5 a, 5, 6, 7,, 4, 5 Problema Ache a mediana das densidades Qui-quadrado com e graus de liberdade. A densidade Qui-quadrado com n graus de liberdade é dada
Distribuição Normal. Prof. Eduardo Bezerra. (CEFET/RJ) - BCC - Inferência Estatística. 25 de agosto de 2017
padrão - padronização Distribuição Normal Prof. Eduardo Bezerra (CEFET/RJ) - BCC - Inferência Estatística 25 de agosto de 2017 Eduardo Bezerra (CEFET/RJ) Distribuição Normal Março/2017 1 / 32 Roteiro Distribuições
MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade
MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade Edson de Faria Departamento de Matemática IME-USP 28 de Agosto, 2013 Probabilidade: uma Introdução / Aula 8 1 Desigualdades de Markov e
Ref: H.Gould e J. Tobochnik. Para integrais em uma dimensão as regras do trapezóide e de Simpson são
Método de Monte Carlo Resolução de Integrais Ref: H.Gould e J. Tobochnik Para integrais em uma dimensão as regras do trapezóide e de Simpson são melhores, mais rápidas. A técnica de resolução de integrais
Fundamentos de Estatística
Fundamentos de Estatística Clássica Workshop Análise de Incertezas e Validação Programa de Verão 2017 Marcio Borges 1 1LABORATÓRIO NACIONAL DE COMPUTAÇÃO CIENTÍFICA [email protected] Petrópolis, 9 de Fevereiro
SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS
4 SUMÁRIOS DE VARIÁVEIS ALEATÓRIAS CONTINUAS Em muitos problemas de probabilidade que requerem o uso de variáveis aleatórias, uma completa especificação da função de densidade de probabilidade ou não está
Estatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aula passada Análise da dados através de gráficos Introdução a Simulação Aula de hoje Introdução à simulação Geração de números aleatórios Lei dos Grandes
Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba. Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31
Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Desigualdades 02/14 1 / 31 Um teorema de grande importância e bastante utilidade em probabilidade
Análise de Dados em Astronomia. 4. Simulações de Monte Carlo
1 / 22 Análise de Dados em Astronomia 4. Simulações de Monte Carlo Laerte Sodré Jr. AGA0505, 1o. semestre 2019 2 / 22 introdução aula de hoje: o método de Monte Carlo 1 introdução 2 variáveis aleatórias
Variáveis Aleatórias Contínuas e Distribuição de Probabilidad
Variáveis Aleatórias Contínuas e Distribuição de Probabilidades - parte II 26 de Novembro de 2013 Distribuição Contínua Uniforme Média e Variância Objetivos Ao final deste capítulo você deve ser capaz
AULA 7 - Inferência em MQO: ICs e Testes de
AULA 7 - Inferência em MQO: ICs e Testes de Hipóteses Susan Schommer Econometria I - IE/UFRJ Nosso primeiro objetivo aqui é relembrar a diferença entre estimação de ponto vs estimação de intervalo. Vamos
Distribuições Contínuas de Probabilidade
Distribuições Contínuas de Probabilidade Uma variável aleatória contínua é uma função definida sobre o espaço amostral, que associa valores em um intervalo de números reais. Exemplos: Espessura de um item
Variáveis Aleatórias Contínuas
Variáveis Aleatórias Contínuas Bacharelado em Administração - FEA - Noturno 2 o Semestre 2017 MAE0219 (IME-USP) Variáveis Aleatórias Contínuas 2 o Semestre 2017 1 / 35 Objetivos da Aula Sumário 1 Objetivos
Sumário. 2 Índice Remissivo 11
i Sumário 1 Principais Distribuições Contínuas 1 1.1 Distribuição Uniforme................................. 1 1.2 A Distribuição Normal................................. 2 1.2.1 Padronização e Tabulação
ESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário (bootstrap) Este método foi proposto por Efron
Amostragem e distribuições por amostragem
Amostragem e distribuições por amostragem Carla Henriques e Nuno Bastos Departamento de Matemática Escola Superior de Tecnologia de Viseu Contabilidade e Administração População, amostra e inferência estatística
TÉCNICAS DE AMOSTRAGEM
TÉCNICAS DE AMOSTRAGEM Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Definições e Notação Estimação Amostra Aleatória
Cálculo Numérico. Santos Alberto Enriquez-Remigio FAMAT-UFU 2015
Cálculo Numérico Santos Alberto Enriquez-Remigio FAMAT-UFU 2015 1 Capítulo 1 Solução numérica de equações não-lineares 1.1 Introdução Lembremos que todo problema matemático pode ser expresso na forma de
DCC008 - Cálculo Numérico
DCC008 - Cálculo Numérico Polinômios de Taylor Bernardo Martins Rocha Departamento de Ciência da Computação Universidade Federal de Juiz de Fora [email protected] Conteúdo Introdução Definição
Probabilidade e Estatística
Probabilidade e Estatística Aula 6 Distribuições Contínuas (Parte 02) Leitura obrigatória: Devore, Capítulo 4 Chap 6-1 Distribuições de Probabilidade Distribuições de Probabilidade Distribuições de Probabilidade
Distribuições de Probabilidade. Distribuição Uniforme Distribuição Exponencial Distribuição Normal
Distribuições de Probabilidade Distribuição Uniforme Distribuição Exponencial Distribuição Normal 1 Distribuição Uniforme A distribuição Uniforme atribui uma densidade igual ao longo de um intervalo (a,b).
MOQ-13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel
MOQ-13 PROBABILIDADE E ESTATÍSTICA Professor: Rodrigo A. Scarpel [email protected] www.mec.ita.br/~rodrigo Programa do curso: Semanas 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 e 16 Introdução à probabilidade (eventos,
AGA Análise de Dados em Astronomia I. O método de Monte Carlo
1 / 16 AGA 0505- Análise de Dados em Astronomia I O método de Monte Carlo Laerte Sodré Jr. 1o. semestre, 2018 2 / 16 breve história método de resolução de problemas baseado em amostragem aleatória de distribuições
Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos
1 Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos Documento auxiliar à disciplina de Modelação, Identificação e Controlo Digital Alexandre Bernardino 003/005 IST-Secção de Sistemas
ME-310 Probabilidade II Lista 0
ME-310 Probabilidade II Lista 0 1. Sejam A e B eventos disjuntos tais que P(A) = 0.1 e P(B) = 0.. Qual é a probabilidade que (a) A ou B ocorra; (b) A ocorra, mas B não ocorra; (c) repita (a) e (b) se os
Métodos Computacionais em Física
Métodos Computacionais em Física Tatiana G. Rappoport [email protected] 2014-1 Integração usando o método da rejeição Queremos calcular a integral Definimos um retângulo de altura H que contenha a
Teoremas de uma, duas e três séries de Kolmogorov
Teoremas de uma, duas e três séries de Kolmogorov 13 de Maio de 013 1 Introdução Nestas notas Z 1, Z, Z 3,... é uma sequência de variáveis aleatórias independentes. Buscaremos determinar condições sob
IND 1115 Inferência Estatística Aula 6
Conteúdo IND 5 Inferência Estatística Aula 6 Setembro de 004 A distribuição Lognormal A distribuição Beta e sua relação com a Uniforme(0,) Mônica Barros mbarros.com mbarros.com A distribuição Lognormal
Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba
Probabilidade II Departamento de Estatística Universidade Federal da Paraíba Prof. Tarciana Liberal (UFPB) Aula Distribuição t de Student 02/14 1 / 1 A distribuição t de Student é uma das distribuições
Técnicas Computacionais em Probabilidade e Estatística I
c Técnicas Computacionais em Probabilidade e Estatística I Aula Chang Chiann MAE 5704- IME/SP º Sem/008 Slide c chang; /4/008 Simulação Estática Obetivo: Em análise estatística de dados, modelos estocásticos
Modelos de Distribuição PARA COMPUTAÇÃO
Modelos de Distribuição MONITORIA DE ESTATÍSTICA E PROBABILIDADE PARA COMPUTAÇÃO Distribuições Discretas Bernoulli Binomial Geométrica Hipergeométrica Poisson ESTATÍSTICA E PROBABILIDADE PARA COMPUTAÇÃO
Probabilidade e Estatística
Probabilidade e Estatística Aula 7 Distribuição da Média Amostral Leitura obrigatória: Devore: Seções 5.3, 5.4 e 5.5 Chap 8-1 Inferência Estatística Na próxima aula vamos começar a parte de inferência
Processos Estocásticos
Processos Estocásticos Luis Henrique Assumpção Lolis 26 de maio de 2014 Luis Henrique Assumpção Lolis Processos Estocásticos 1 Conteúdo 1 Introdução 2 Definição 3 Especificando um processo aleatório 4
Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos
1 Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos Documento auxiliar à disciplina de Modelação, Identificação e Controlo Digital Alexandre Bernardino IST-Secção de Sistemas e Controlo
Par de Variáveis Aleatórias
Par de Variáveis Aleatórias Luis Henrique Assumpção Lolis 7 de abril de 2014 Luis Henrique Assumpção Lolis Par de Variáveis Aleatórias 1 Conteúdo 1 Introdução 2 Par de Variáveis Aleatórias Discretas 3
Tiago Viana Flor de Santana
ESTATÍSTICA BÁSICA DISTRIBUIÇÃO NORMAL DE PROBABILIDADE (MODELO NORMAL) Tiago Viana Flor de Santana www.uel.br/pessoal/tiagodesantana/ [email protected] sala 07 Curso: MATEMÁTICA Universidade Estadual
VARIÁVEIS ALEATÓRIAS
UNIVERSIDADE FEDERAL DE JUIZ DE FORA INSTITUTO DE CIÊNCIAS EXATAS DEPARTAMENTO DE ESTATÍSTICA VARIÁVEIS ALEATÓRIAS Joaquim H Vianna Neto Relatório Técnico RTE-03/013 Relatório Técnico Série Ensino Variáveis
Momentos: Esperança e Variância. Introdução
Momentos: Esperança e Variância. Introdução Em uma relação determinística pode-se ter a seguinte relação: " + " = 0 Assim, m =, é a declividade e a e b são parâmetros. Sabendo os valores dos parâmetros
Exercícios de programação
Exercícios de programação Estes exercícios serão propostos durante as aulas sobre o Mathematica. Caso você use outra linguagem para os exercícios e problemas do curso de estatística, resolva estes problemas,
Testes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Testes de Hipóteses Ricardo Ehlers [email protected] Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Introdução e notação Em geral, intervalos de confiança são a forma mais
LEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100%
. Definição dos acontecimentos: M T-shirt tem manchas C T-shirt tem costuras defeituosas D T-shirt é defeituosa A Preço da t-shirt é alterado a) PM) = % PC) = 5% PM C) = % LEEC Probabilidades e Estatística
PROVAS Ciência da Computação. 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta)
PROVAS Ciência da Computação 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta) Ajuste de Curvas Objetivo Ajustar curvas pelo método dos mínimos quadrados 1 - INTRODUÇÃO Em geral, experimentos
CONHECIMENTOS ESPECÍFICOS
CONHECIMENTOS ESPECÍFICOS 2003 2004 2005 2006 2007 2008 2009 2010 X 39,0 39,5 39,5 39,0 39,5 41,5 42,0 42,0 Y 46,5 65,5 86,0 100,0 121,0 150,5 174,0 203,0 A tabela acima mostra as quantidades, em milhões
Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08
Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas
Métodos Estatísticos
Métodos Estatísticos Cristina Maria Martins Maria da Graça Temido Departamento de Matemática Universidade de Coimbra Hidrologia Urbana Módulo I Conceitos básicos Probabilidade Experiência aleatória Acontecimentos
Variáveis Aleatórias Discretas e Distribuição de Probabilidade
Variáveis Aleatórias Discretas e Distribuição de Probabilidades 01 de Abril de 2014 Objetivos Ao final deste capítulo você deve ser capaz de: Determinar probabilidades a partir de funções de probabilidade
1) Deseja-se usar o algoritmo de rejeição para simular de uma v.a. normal positiva, cuja densidade é dada por. 2 x > 0.
MAE0399 - Análise de Dados e Simulação - o semestre de 208 - IME - USP 2 a Lista de Exercícios ) Deseja-se usar o algoritmo de rejeição para simular de uma v.a. normal positiva, cuja densidade é dada por
