ACH2053 INTRODUÇÃO À ESTATÍSTICA. 1º Sem/2018. Estimação. Prof. Marcelo S. Lauretto
|
|
- Luiza Castel-Branco Campelo
- 5 Há anos
- Visualizações:
Transcrição
1 ACH2053 INTRODUÇÃO À ESTATÍSTICA 1º Sem/2018 Estimação Prof. Marcelo S. Lauretto Referência: W.O.Bussab, P.A.Morettin. Estatística Básica, 6ª Edição. São Paulo: Saraiva, 2010 Capítulo 11 1
2 1. Estimação: Introdução Vimos anteriormente que a Inferência Estatística tem por objetivo fazer generalizações sobre uma população, com base nos dados de uma amostra Principais problemas da inferência estatística: Estimação de parâmetros Testes de hipóteses sobre parâmetros Previsão Relembrando: Parâmetros: funções de valores populacionais Estatísticas: funções de valores amostrais Neste capítulo: ideias básicas sobre estimação 2
3 Exemplo 11.1: 1. Estimação: Introdução Uma amostra de n=500 pessoas de uma cidade é escolhida Pergunta-se a pergunta entrevistado se ele é favorável ou não a um certo projeto proposto pela prefeitura Respostas possíveis: SIM / NÃO Deseja-se estimar a proporção, p, de pessoas na cidade favoráveis à proposta (ou seja, que responderiam SIM) Se 300 pessoas responderam SIM, uma estimativa natural para p seria 300/500, ou 60% Essa estimativa é baseada na suposição de que a amostra é representativa da população Vimos no capítulo anterior algumas propriedades desse estimador 3
4 Exemplo 11.1 (cont): 1. Estimação: Introdução Definamos as v.a. X 1, X n tais que: 1, se a i ésima pessoa na amostra responder SIM X i = ቊ 0, se a i ésima pessoa na amostra responder NÃO, e seja p = Pr(SIM) Se Y n = σ n i=1 X i, sabemos que Y n tem distribuição binomial com parâmetros n e p, e o problema consiste em estimar p Como Y n representa o número de pessoas na amostra que responderam SIM, um possível estimador de p é Ou seja, se Y n = k, ou seja, observarmos o valor k da variável Y n, obteremos p Ƹ = k/n como uma estimativa de p 4
5 Ƹ 1. Estimação: Introdução Como visto na Seção 10.9, pelo TLC temos que, para tamanhos grandes de n, pƹ tem distribuição aproximadamente normal com parâmetros: Esses resultados nos ajudam a avaliar as qualidades do estimador pƹ Eq. (11.2) indica que p, Ƹ em média, acerta p Estimador não-viesado (ou não-viciado) de p Eq. (11.3) indica que, para amostras grandes, a diferença entre pƹ e p tende a ser pequena (para n, Var p 0) Estimador consistente de p Nota: essas duas propriedades indicam uma tendência do estimador sobre o conjunto de todas as amostras, não uma garantia para qualquer amostra 5
6 2. Propriedades de estimadores Consideremos uma amostra (X 1, X 2,, X n ) de uma v.a. que descreve uma característica de interesse de uma população Seja θ um parâmetro que desejamos estimar, como por exemplo a média μ = E(X) ou a variância σ 2 Var(X) Definição: Um estimador T do parâmetro θ é qualquer função das observações da amostra, ou seja, T = g X 1, X 2,, X n Segundo a definição acima, um estimador é o que havíamos chamado anteriormente de estatística; porém, aqui associamos essa estatística a um parâmetro populacional Uma forma usual de denotar um estimador para θ é θ 6
7 2. Propriedades de estimadores O problema da estimação é, então, determinar uma função T = g X 1, X 2,, X n que seja próxima de θ, segundo algum critério Um dos critérios mais utilizados é dado a seguir: Definição: O estimador T é não-viesado para θ se para todo θ. Se (11.4) não valer, T diz-se viesado e a diferença V T = E T θ é denominada o viés de T. Note que a esperança de T em (11.4) é calculada sobre a distribuição amostral de T, conforme vimos no capítulo anterior 7
8 2. Propriedades de estimadores Definição: Estimativa é o valor assumido pelo estimador em uma particular amostra. No exemplo 11.1, pƹ é um estimador de p, enquanto 60% é uma estimativa de p Exemplo 11.3: Pelo Teorema 10.1, sabemos que a média amostral തX é um estimador não-viesado de μ = E(X), pois E തX = μ Da mesma forma, a proporção amostral pƹ é um estimador não viesado da proporção p de indivíduos de uma população com certa característica em comum (ver Seção 10.9) 8
9 Exemplo 11.4: 2. Propriedades de estimadores Considere uma população com N elementos e a variância populacional σ 2 = E X μ 2 = 1 N (X i μ) 2, 11.5 i=1 onde μ = 1 σ N i=1 N X i é a média populacional N Um possível estimador para σ 2, baseado em uma AAS de tamanho n extraída dessa população, é n σ 2 = 1 n (X i തX) i=1 Mostraremos que o estimador σ 2 é viesado. 9
10 2. Propriedades de estimadores Estimador σ 2 é viesado (demonstração apenas de caráter informativo): Note que n σ 2 = 1 n (X i തX) 2 = 1 i=1 n i=1 n = 1 n X 2 i 1 i=1 n 2X i തX + 1 i=1 n i=1 n = 1 n X 2 i 2 X i=1 n ത = 1 n X 2 i തX 2, i=1 logo, E σ 2 n n n n i=1 = E 1 n X 2 i തX 2 i=1 n X i + n n ത X 2 X i 2 2X i തX + തX 2 n ത X 2 n = 1 n X 2 i 2 തX തX + തX 2 i=1 n = 1 n E[X 2 i ] E തX 2. i=1 10
11 2. Propriedades de estimadores Estimador σ 2 é viesado (cont): Mas pela definição de AAS e definição de variância de uma v.a., Var X i = E X 2 i E X 2 i E X 2 i = Var X i + E X 2 i = σ 2 + μ 2. Também, usando o Teorema 10.1, temos que E തX 2 = Var തX + E തX 2 = σ2 + n μ2. Segue-se que ou seja, E σ 2 n = 1 n (σ 2 + μ 2 ) i=1 σ2 n + μ2, E σ 2 = 1 n n σ2 + μ 2 σ2 n + μ2 = σ 2 σ2 n = σ2 1 1 n = n 1 n σ2. (11.7) 11
12 2. Propriedades de estimadores Estimador σ 2 é viesado (cont): De (11.7) vemos que σ 2 é viesado para σ 2 e o viés é dado por V = V σ 2 = E σ 2 σ 2 = n 1 σ 2 σ 2 = σ2 n n. (11.8) Como esse viés é negativo, o estimador σ 2 em geral subestima o verdadeiro parâmetro σ 2. Por outro lado, por (11.8) o viés diminui com n, ou seja, formalmente, para para n, o viés de σ 2 tende a zero. É fácil ver que para obter um estimador não-viesado de σ 2, basta considerar n n 1 σ2, pois de (11.7) segue que E n n 1 σ2 = n n 1 E σ2 = n n 1 n 1 n σ2 = σ 2. 12
13 2. Propriedades de estimadores Do resultado anterior segue que, se definirmos S 2 = n n 1 σ2 = n 1 n n 1 n (X i തX) 2 = 1 n i=1 n 1 (X i തX) 2, i=1 então E S 2 = σ 2 S 2 é um estimador não viesado para σ 2 Essa é a razão para se usar n 1 no denominador ao invés de n No Excel: VAR.P: variância sobre uma população σ 2 = E X μ 2 = 1 N (X i μ) 2 i=1 VAR.A: estimador não viesado da variância sobre uma amostra S 2 = 1 n n 1 (X i തX) 2 13 i=1 N (1.19)
14 3. Estimadores de máxima verossimilhança Significado geral de verossimilhança Verossímil: aquilo que é semelhante à verdade, provável Verossimilhança: qualidade ou caráter de verossímil Amostra verossímil: Aquela que fornece a melhor informação possível sobre um parâmetro θ de interesse da população, desconhecido, que queremos estimar Princípio da verossimilhança: Afirma que devemos escolher o valor de θ que maximiza a probabilidade de obter a amostra particular observada, ou seja, o valor que torna aquela amostra a mais provável 14
15 3. Estimadores de máxima verossimilhança Exemplo 1 (durabilidade de componentes eletrônicos): Uma companhia produz componentes eletrônicos e está interessada em conhecer quanto cada componente deve durar, em média. Os engenheiros pretendem modelar os componentes considerando a mesma taxa de falha desconhecida λ (constante no tempo) Parte-se do princípio de que, se λ fosse conhecida, então a duração individual de cada componente (X) teria distribuição exponencial com parâmetro λ (taxa) 15
16 3. Estimadores de máxima verossimilhança Exemplo 1 (cont): Distribuição exponencial: função de densidade de probabilidade (f.d.p): f x λ = λ exp λx, x 0 função de distribuição acumulada (f.d.a): F x λ = 1 exp λx, x 0 função quantil: F 1 p = ln 1 p /λ E X = 1/λ (escala, β) 16
17 3. Estimadores de máxima verossimilhança Exemplo 1 (cont): Distribuição exponencial (cont): λ = 1 17
18 3. Estimadores de máxima verossimilhança Exemplo 1 (cont): Distribuição exponencial (cont): λ = 1/2 18
19 3. Estimadores de máxima verossimilhança Exemplo 1 (cont): Distribuição exponencial (cont): λ = 1/5 19
20 3. Estimadores de máxima verossimilhança Exemplo 1 (cont): Suponha agora que 3 componentes foram usados sob condições típicas, com durações (em anos) x 1 = 3, x 2 = 1.5, x 3 = 2.1. Denotaremos a amostra (x 1, x 2, x 3 ) por x Assumindo que as durações dos 3 componentes possuíam a mesma distribuição exponencial(λ), então a f.d.p. conjunta f x λ = f(x 1, x 2, x 3 λ) é f x λ = f x 1 λ f x 2 λ f x 3 λ = λ exp λx 1 λ exp λx 2 λ exp λx 3 = λ 3 exp λ[x 1 + x 2 + x 3 ] = λ 3 exp 6.6λ 20
21 3. Estimadores de máxima verossimilhança Note que, no exemplo 1 acima, f(x λ) é de fato uma função de densidade de probabilidade sobre todas as amostras possíveis x = (x 1, x 2, x 3 ), i.e. න x f(x λ) = 1. Por outro lado, nosso interesse é usar o princípio da verossimilhança para encontrar o valor de λ (denotado por መλ) que maximiza f(x λ). Ou seja, nosso interesse é considerar f(x λ) não como uma função de x (amostra que já conhecemos), mas como uma função de λ (desconhecida) 21
22 3. Estimadores de máxima verossimilhança Definição: Quando a f.d.p. conjunta f(x θ) das observações em uma amostra aleatória X é tratada como uma função de θ, então L(θ X) f X θ é denominada função de verossimilhança Definição: O estimador θ = arg max λ L(θ) é denominado estimador de máxima verossimilhança (EMV) Para maximizar L(θ), usualmente (ou quase sempre) é mais conveniente maximizar o logaritmo de L(θ X) (denominado usualmente log-verossimilhança), ou seja, θ = arg max λ l θ X, onde l θ = log e L θ 22
23 3. Estimadores de máxima verossimilhança Tipicamente, θ é obtido através de métodos numéricos de otimização não linear Em R: Função fitdistr: para algumas distribuições pré-determinadas Funções optim, constroptim: para otimização de funções de verossimilhança implementadas pelo próprio analista (ou para aquelas não implementadas na função fitdistr) Otimização é usualmente facilitada quando a derivada de l θ X, denotada l θ X, pode ser obtida analiticamente. Nesse caso, o problema se resume a determinar o valor θ tal que l θ X = 0 Em alguns casos, o valor de θ tal que l θ X = 0 também pode ser obtido algebricamente, como veremos a seguir. 23
24 3. Estimadores de máxima verossimilhança Voltando ao exemplo 1 (durabilidade de componentes eletrônicos): L λ x = f x λ = λ 3 exp λ[x 1 + x 2 + x 3 ] = λ 3 exp 6.6λ l λ x = 3 log λ 6.6λ l λ x = 3 λ 6.6 Igualando l መλ x = 0 3 λ = 6.6 መλ = = = No caso mais geral: se x = (x 1, x 2,, x n ) é uma AAS onde x i ~exponencial(λ), então definimos s = σ i x i e temos: L λ x = λ n exp sλ l λ x = n log λ sλ መλ = n S = 1 ഥx, ou seja, መλ é o inverso da média amostral! 24
25 Verossimilhança 3. Estimadores de máxima verossimilhança Voltando ao exemplo 1: 25
26 Log-verossimilhança 3. Estimadores de máxima verossimilhança Voltando ao exemplo 1: 26
27 3. Estimadores de máxima verossimilhança Exemplo 2 (EMV do parâmetro da distribuição binomial): Considere n tentativas independentes de Bernoulli com P sucesso = p, 0 < p < 1 e X = número de sucessos Dado o número x de sucessos observados, devemos tomar como estimador pƹ aquele valor de p que torna a amostra observada a mais provável de ocorrer Como assumimos independência entre as tentativas, temos que X~Bin(n, p): n! f x n, p = L p x = x! n x! px (1 p) n x A função de log-verossimilhança é l p x = k + x log p + n x log(1 p) onde k = log n! x! n x! 27
28 3. Estimadores de máxima verossimilhança Exemplo 2 (cont): A função de log-verossimilhança é l p x = k + x log p + n x log(1 p) onde k = log Logo, n! x! n x! l p x = x n x p 1 p (note que a parcela k foi suprimida, pois k é uma constante que não depende de p) Igualando l p x = 0, temos: l pƹ x = x n x pƹ 1 p Ƹ = 0 x n x = p Ƹ 1 pƹ x 1 p Ƹ = x xp Ƹ = npƹ xpƹ x xp Ƹ = npƹ xpƹ x = npƹ = x/n p Ƹ n x Ou seja, pƹ corresponde à proporção observada de sucessos! pƹ 28
29 3. Estimadores de máxima verossimilhança Exemplo 3 (EMV da média para distribuição normal): Seja X uma variável com distribuição normal com média μ desconhecida e variância σ 2 conhecida Mostramos abaixo como derivar o estimador de máxima verossimilhança μ, Ƹ dada uma AAS x = (x 1, x 2,, x n ) A função de verossimilhança é dada por L μ x, σ 2 = = 1 σ 2π 1 σ 2π = n n n i=1 f(x i μ, σ 2 ) = n 1 i=1 exp σ i=1 n x 2 i 2x i μ + μ 2 2σ 2 exp σ n i=1 x i μ 2 2σ 2 σ 2π exp x i μ 2 2σ 2 29
30 3. Estimadores de máxima verossimilhança Exemplo 3 (cont): Log-verossimilhança: l μ x, σ 2 1 = n log σ 2π = k q 2σ 2 + 2μs 2σ 2 nμ2 2σ 2, 1 onde k = n log, q = σ i=1 n σ 2π σ n i=1 x i μ 2 2σ 2 x 2 i, s = σ n i=1 (note que k, q e s foram definidos apenas para simplificar as expressões) Derivada da log-verossimilhança (em relação a μ): l μ x, σ 2 = 2s 2σ 2 2nμ s nμ = 2σ2 σ 2 Igualando l μ x, σ 2 = 0: l μ x, σ 2 = 0 s nμ = 0 μ = s n = xҧ x i Ou seja, a média amostral é o EMV para μ. 30
31 3. Estimadores de máxima verossimilhança Nos exemplos anteriores, notamos que, para calcular a função de verossimilhança de um parâmetro θ (e, portanto, estimar θ) a partir de uma AAS x = (x 1, x 2,, x n ), não precisaríamos ter conhecimento individual de cada observação da amostra, mas sim uma ou mais estatísticas (sumários) calculadas sobre essa amostra Quando não necessitamos conhecer todos os valores individuais de uma AAS x = (x 1, x 2,, x n ) para calcular a função de verossimilhança L θ x, mas apenas uma estatística T x 1, x 2,, x n, dizemos que T é uma estatística suficiente para θ Existe uma definição mais formal para estatística suficiente, mas que não será apresentada aqui. 31
32 3. Estimadores de máxima verossimilhança Exemplos: Para calcular a função de verossimilhança L λ x para a distribuição exponencial, basta conhecer s, a soma das observações (além de n, naturalmente) Logo, s é estatística suficiente para λ Para calcular a função de verossimilhança L p x para a distribuição binomial, basta conhecer o número de sucessos nas n tentativas, x Logo, x é estatística suficiente para p Para calcular a função de verossimilhança L μ x, σ 2 para a distribuição normal, basta conhecer s (soma das observações) e q (soma dos quadrados das observações) Logo, (s, q) é estatística suficiente para μ 32
33 3. Estimadores de máxima verossimilhança Exercícios: 1. Seja X uma variável com distribuição normal com média μ conhecida e variância σ 2 desconhecida. a) Derive o EMV para σ 2, dada uma AAS x = (x 1, x 2,, x n ). b) Crie uma planilha em Excel para plotarl(σ 2 ) dentro de um certo intervalo de σ 2 2. A fim de planejar a quantidade de atendentes e infraestrutura necessários, um call-center necessita deseja modelar o número de chamadas de clientes no intervalo de 1h, por dia da semana e horário específicos (p.ex. 2 as feiras às 20:00). Assume-se que o número de chamadas segue uma distribuição Poisson, com função de probabilidade (f.p.) f x λ = e x λ x, x! onde λ (desconhecido) é a taxa de ocorrência do evento, ou seja, o número médio de chamadas de clientes por hora. (para detalhes, ver DeGroot, Probability and Statistics, Sec. 5.4). 33
34 3. Estimadores de máxima verossimilhança Exercícios: 2. (cont) a) Derive o EMV para λ, dada uma AAS x = (x 1, x 2,, x n ). b) Indique se há uma estatística suficiente para λ e, em caso afirmativo, indique qual. c) Plote em Excel a função de verossimilhança de L λ x dentro de um certo intervalo de λ 34
35 6. Intervalos de confiança Todos os estimadores apresentados anteriormente foram pontuais, ou seja, especificam um único valor para o estimador Esse procedimento não permite julgar qual a possível magnitude do erro que estamos cometendo Surge daí a necessidade de construir intervalos estatísticos Intervalos de confiança: intervalos estatísticos baseados na distribuição amostral do estimador pontual 35
36 Exemplo 11.12: 6. Intervalos de confiança Suponha que queiramos estimar a média μ de uma população qualquer, e para tanto usamos a média തX de uma amostra de tamanho n. Do TLC, com Var തX = σ തX 2 = σ/n. Desse resultado podemos determinar a probabilidade de cometermos erros de determinadas magnitudes 36
37 Exemplo (cont): Por exemplo, ou que é equivalente a e, finalmente, 6. Intervalos de confiança 37
38 ҧ 6. Intervalos de confiança É importante lembrar que, sob o ponto de vista frequentista, μ não é uma variável aleatória e sim um parâmetro, e a expressão (11.33) deve ser interpretada da seguinte maneira: Se pudéssemos construir uma quantidade grande de intervalos (aleatórios) da forma തX 1.96 σ ത X, തX σ ത X, todos baseados em amostras de tamanho n, 95% deles conteriam o parâmetro μ. Figura mostra o funcionamento e o significado de um intervalo de confiança (IC) para μ, com γ = 0.95 e σ 2 conhecido Dizemos que γ é o coeficiente de confiança Escolhida uma amostra e encontrada sua média xҧ 0, e admitindo-se σ 2 conhecido, podemos construir o intervalo x σx ത, xҧ σx ത (11.34) Esse intervalo pode ou não conter o parâmetro μ, mas pelo exposto acima temos 95% de confiança de que contenha. 38
39 6. Intervalos de confiança Figura 11.3: significado de um IC para μ, com γ =
40 6. Intervalos de confiança Para ilustrar, consideremos o seguinte experimento de simulação: Foram geradas 20 amostras de tamanho n = 25 de uma distribuição normal com média μ = 5 e desvio padrão σ = 3 Para cada amostra foi construído o intervalo de confiança para μ, com coeficiente de confiança γ = 0.95: σ ത X = 3 25 = 3 5 = σ തX = ou seja, cada intervalo é da forma തX ± Figura 11.4 apresenta os intervalos obtidos, dentre os quais 3 intervalos (amostras 5, 14 e 15) não contêm a média μ = 5 Exercício: Repetir a simulação descrita acima, com 1000 amostras de tamanho n = 25 e demais parâmetros similares ao exemplo Calcular a proporção de intervalos contendo a média μ = 5 40
41 6. Intervalos de confiança Figura 11.4: Intervalos de confiança para a média de uma N(5,9), para 20 amostras de tamanho n = 25 41
42 6. Intervalos de confiança Usando a aproximação pela distribuição normal (Eq ), para um coeficiente de confiança qualquer γ, teremos que usar o valor z γ tal que P z γ Z z γ = γ, com Z~N(0,1). O valor de z γ é calculado por z γ = Φ 1 1 γ 2 (ver Seção para detalhes) Outra forma de calcular z γ : α = (1 γ); z γ = Φ 1 1 α 2 O intervalo fica então: തX z γ σ ത X, തX + z γ σ ത X (11.37) Observe que a amplitude do intervalo (11.37) é L = 2z γ σ/ n, que é uma constante, independente de തX Se construirmos vários intervalos de confiança para o mesmo valor de n, σ e γ, estes terão extremos aleatórios, mas todos terão a mesma amplitude L 42
43 6. Intervalos de confiança Se a variância populacional σ 2 não for conhecida, podemos substituir em (11.37) σ തX por S 2 /n, onde S 2 é a variância amostral dada pela Eq. (11.9) Para n grande, da ordem de 100, o intervalo (11.37), com essa modificação, ainda pode ser usado Para n não muito grande, a distribuição normal não pode mais ser usada e terá de ser substituída pela distribuição t de Student (a ser apresentada posteriormente) 43
44 6. Intervalos de confiança - proporções Consideremos o problema de obter um intervalo de confiança para o parâmetro p de uma distribuição Bin(n, p) Sabemos que se Y é o número de sucessos nas n provas, então p Ƹ = Y/n tem distribuição aproximadamente normal, com média μ = p e variância pq/n, onde q = 1 p Ou ainda, Z = p Ƹ p ~N 0,1 pq/n Dado o coeficiente de confiança γ, desejamos encontrar o intervalo ( z γ, z γ ) tal que P z γ Z z γ = γ o que implica P pƹ z γ pq/n p p Ƹ + z γ pq/n = γ 44
45 6. Intervalos de confiança - proporções Como não conhecemos p, pode-se proceder de duas formas: A primeira é usar um limitante superior para a variância de p: Ƹ sabemos que pq 1/4, o que implica que pq/n 1/ 4n Assim, substituindo pq/n por 1/ 4n, o intervalo p Ƹ ± z γ / 4n (11.40) é um intervalo de confiança para p, com coeficiente de confiança γ Intervalo conservador Outra forma possível é estimar pƹ a partir de uma amostra preliminar: p Ƹ = Y/n; o intervalo de confiança será então dado por p Ƹ ± z γ pƹ q/n, (11.41) onde q = 1 p Ƹ. 45
46 6. Intervalos de confiança - proporções Exemplo 11.16: Suponha que em n = 400 provas obtemos y = 80 sucessos. Vamos obter um intervalo de confiança para p com γ = 0.9 Como p Ƹ = 80/400 = 0.2 e q = 1 p Ƹ = 0.8, então (11.41) fica 0.2 ± (1.645) (0.2)(0.8)/400 = 0.2 ± 0.033, ou seja, IC p; 0.9 = 0,167, Usando (11.40), o intervalo conservador é IC p; 0.9 = 0,159, Observações: Intervalo dado por (11.41) tem amplitude menor do que aquele dado por (11.40) Intervalo dado por (11.40) depende apenas de n e γ, mas não da amostra coletada 46
47 6. Intervalos de confiança - proporções Problemas com a aproximação do intervalo de confiança para proporções pelo TLC: Limites do intervalo fora do domínio [0,1] Limite inferior < 0 ou limite superior > 1 Intervalo degenerado se p Ƹ = 0 ou p Ƹ = 1 Não é possível calcular a variância usando a estimativa p; Ƹ Nesse caso, pode-se substituir pƹ por 1/2 Algumas variantes: Intervalo de Agresti-Coull Intervalo (Bayesiano) de Jeffreys Intervalo Bayesiano de credibilidade intervalo de máxima densidade de probabilidade (HPD interval) 47
48 6. Intervalos de confiança - proporções Intervalo de Agresti-Coull: Outro intervalo de confiança aproximado para distribuições binomiais Dados Y sucessos em n tentativas, define-se n = n + z γ 2 e p = 1 n Y z γ 2. Então, um intervalo de confiança para p é dado por p ± z γ p (1 p) / n Para γ = 0.95, tem-se z γ 1.96 e z γ Se usarmos 2 ao invés de 1.96, isso equivale a adicionar dois sucessos e dos fracassos no intervalo dado pela Eq. (11.41) Referência: 48
49 6. Intervalos de confiança - proporções Exemplo 1 (TLC, usando p(1 p)/n como erro padrão): n = 50, y = 2 p Ƹ = 0.04, LI = 0.014, LS = Limite inferior do intervalo (LI) < 0 49
50 6. Intervalos de confiança - proporções Exemplo 1 (TLC, usando 1/ 4n como erro padrão): n = 50, y = 2 p Ƹ = 0.04, LI = 0.099, LS = Limite inferior do intervalo (LI) < 0; intervalo conservador 50
51 6. Intervalos de confiança - proporções Exemplo 1 (intervalo de Agresti-Coull): n = 50, y = 2 p Ƹ = 0.04, LI = 0.001, LS =
52 6. Intervalos de confiança - proporções Exemplo 2 (TLC, usando p(1 p)/n como erro padrão): n = 50, y = 0 p Ƹ = 0, LI = 0, LS = 0 Intervalo degenerado 52
53 6. Intervalos de confiança - proporções Exemplo 2 (TLC, usando 1/ 4n como erro padrão): n = 50, y = 0 p Ƹ = 0, LI = 0.139, LS = Intervalo não degenerado, mas LI<0; intervalo conservador 53
54 6. Intervalos de confiança - proporções Exemplo 2 (intervalo de Agresti-Coull): n = 50, y = 0 p Ƹ = 0, LI = 0.016, LS = Intervalo não degenerado, mas LI<0 54
55 6. Intervalos de confiança - proporções Problemas: 55
56 6. Intervalos de confiança - proporções Problemas: 56
57 6. Intervalos de confiança - proporções Problemas: Em todos os problemas anteriores, recalcule os intervalos de confiança para proporções usando o método de Agresti-Coull 57
58 Intervalos Bayesianos de credibilidade Vimos que os intervalos de confiança frequentistas tratam o valor verdadeiro do parâmetro θ como um valor fixo, e a variável aleatória é o próprio intervalo É por essa razão que não se pode afirmar que a probabilidade do valor verdadeiro de θ pertencer ao intervalo calculado é γ o que se afirma é que a confiança do intervalo conter o valor verdadeiro de θ é γ Na estatística Bayesiana, o próprio parâmetro é tratado como uma variável aleatória, o que torna natural associar probabilidades do valor verdadeiro do parâmetro estar em certas regiões ou intervalos Veremos a seguir como calcular intervalos de probabilidade (ou de credibilidade) para o parâmetro θ Para isso, recapitularemos o conceito de probabilidade condicional e Teorema de Bayes, bem como veremos a definição de distribuições a priori e a posteriori 58
59 Intervalos Bayesianos de credibilidade Probabilidade condicional definição: Suponha que aprendemos que um evento B ocorreu e queremos calcular a probabilidade de outro evento A levando em conta que sabemos da ocorrência de B. A nova probabilidade de A é denominada a probabilidade condicional de que o evento A ocorreu dado que o evento B tenha ocorrido. Notação: Pr(A B). Se Pr B > 0, calculamos essa probabilidade como Pr(A B) Pr A B = Pr(B) Pela definição acima, é imediato que Pr A B = Pr(B) Pr A B 59
60 Intervalos Bayesianos de credibilidade Partição definição: Seja S o espaço amostral de um experimento, e considere k k eventos disjuntos B 1, B 2,, B k em S tais que ڂ i=1 B i = S. Dizemos que esses eventos formam uma partição de S. Lei da probabilidade total: Suponha que os eventos B 1, B 2,, B k formam uma partição do espaço S e que Pr(B j ) > 0 para j=1,...,k. Então, para qualquer evento A em S, 60
61 Intervalos Bayesianos de credibilidade Lei da probabilidade total (cont): Dem: Os eventos B 1 A, B 2 A,, B k A formam uma partição de A, como ilustrado na figura abaixo. Assim, podemos escrever Além disso, como os k eventos do lado direito da equação são disjuntos, temos: Como Pr(B j ) > 0 para todo j, vale e o resultado é imediato. 61
62 Intervalos Bayesianos de credibilidade Intuição (e demonstração) do teorema de Bayes: Suponha que você esteja interessado em obter as probabilidades de k eventos B 1, B 2,, B k após a realização de um experimento Esses eventos formam um partição de S um deles deve ocorrer Você possui estimativas iniciais de Pr B i > 0, i = 1 k. Seu interesse é calcular as probabilidades condicionais Pr B i A, i = 1,.., k, dado que evento A ocorreu no experimento. 62
63 Intervalos Bayesianos de credibilidade Intuição (e demonstração) do teorema de Bayes: Seu interesse é calcular as probabilidades condicionais Pr B i A, i = 1,.., k, dado que evento A ocorreu no experimento. Resposta: Da definição de probabilidade condicional: Pr B i A = Pr(B i A) = Pr B i Pr(A B i ) Pr(A) Pr(A) Agora, pela lei da probabilidade total: k Pr(A) = j=1, i = 1,, k k Pr(B j A) = Pr B j Pr(A B j ) j=1 Substituindo Pr(A) no denominador da 1ª equação, temos: Pr B i Pr(A B i ) Pr B i A = k Pr B j Pr(A B j ). σ j=1 63
64 Intervalos Bayesianos de credibilidade Teorema de Bayes Sejam B 1, B 2,, B k eventos que formam uma partição do espaço S tais que Pr B i > 0, i = 1 k, e seja A um evento tal que Pr A > 0. Então, para i = 1 k, Pr B i A = Pr B i Pr(A B i ) σk i=1 Pr B i Pr(A B i ). Pr B i A é calculado exclusivamente a partir das probabilidades a priori Pr B i e da verossimilhança Pr(A B i ) de A ocorrer, condicionado a cada um dos eventos alternativos B 1, B 2,, B k 64
65 Intervalos Bayesianos de credibilidade Teorema de Bayes Exemplo: Teste de uma doença Você está caminhando na rua e nota que o posto de saúde está fornecendo um teste gratuito para uma certa doença. O teste tem a seguinte confiabilidade: Sensibilidade: Se uma pessoa tem a doença, o teste tem 90% de probabilidade de dar um resultado positivo Especificidade: Se uma pessoa não tem a doença, o teste tem 90% de probabilidade de dar um resultado negativo. (Portanto, só 10% de probabilidade de dar resultado positivo) Dados epidemiológicos indicam que prevalência da doença é de apenas 1 em , mas como o teste é gratuito e não invasivo, você decide fazer. Alguns dias depois você recebe uma carta informando que seu teste deu positivo. Com base nessa informação, qual é a probabilidade de você realmente ter a doença? 65
66 Intervalos Bayesianos de credibilidade Teorema de Bayes Exemplo: Teste de uma doença (cont) Resp: Usaremos a seguinte notação: D: você possui a doença; D C : você não possui a doença Pos: Seu teste deu positivo Prevalência da doença: Pr D = 1/10000 Pr Pos D = 0.9; Pr Pos D C = 0.1 Pr D Pr(Pos D) Pr D Pos = Pr D Pr(Pos D) + Pr D C Pr(Pos D C ) = = A probabilidade condicional de você ter a doença dado o resultado do teste aumentou 9x, mas continua baixa: aprox. 1 em
67 Intervalos Bayesianos de credibilidade Teorema de Bayes Exemplo: Teste de uma doença (cont) A probabilidade condicional de você ter a doença dado o resultado do teste aumentou 9x, mas continua baixa: aprox. 1 em 1000 Explicação: Doença é relativamente rara (1 em ) O teste tem uma alta taxa de resultados positivos (1 em 10), ou seja, o número de positivos pelo teste é 1000 vezes o número de pessoas que realmente têm a doença. Em outras palavras, de cada pessoas para as quais o teste dá um resultado positivo, apenas uma pessoa tem a doença. Questões: 1. E se o teste fosse mais robusto?» P.ex. com menor número de falsos positivos? 2. E se o teste tivesse dado negativo? Exercícios no próximo slide 67
68 Intervalos Bayesianos de credibilidade Teorema de Bayes Exemplo: Teste de uma doença (cont) Neste exemplo, a evidência de você ter a doença aumentaria significativamente se a taxa de falsos positivos do teste fosse menor Exercício 1: Implemente este exemplo em Excel, deixando parametrizáveis: Pr D, Pr Pos D, Pr Pos D C Teste diferentes valores de Pr Pos D e Pr Pos D C : Pr Pos D = 0.9, 0.99, 0.999, etc Pr Pos D C = 0.1, 0.01, 0.001, , etc. Observe que Pr D Pos é mais sensível à taxa de falsos positivos Pr Pos D C do que à taxa de verdadeiros positivos Pr Pos D Exercício 2: Suponha que seu teste deu negativo (chamemos de evento Neg) Calcule a probabilidade de você não ter a doença, dado esse resultado: Pr D Neg 68
69 Intervalos Bayesianos de credibilidade Teorema de Bayes - Exemplo 2.3.4: 69
70 Intervalos Bayesianos de credibilidade Teorema de Bayes - Exemplo (solução): 70
71 Intervalos Bayesianos de credibilidade Probabilidades a priori e a posteriori: No exemplo 2.3.4, uma probabilidade como Pr(B 2 ) é comumente denominada a probabilidade a priori de que um item selecionado ao acaso tenha sido produzido pela máquina M 2 Pr(B 2 ) é a probabilidade do evento B 2 antes do item ser selecionado e antes de sabermos se o item selecionado é defeituoso ou não As probabilidades Pr(A B j ) são as verossimilhanças Uma probabilidade como Pr(B 2 A) é usualmente denominada probabilidade a posteriori de que o item selecionado tenha sido produzido pela máquina M 2 Pr(B 2 A) é a probabilidade do evento B 2 depois de sabermos que o item selecionado é defeituoso Analogamente, no exemplo do teste de uma doença, Pr D é a probabilidade a priori de um indivíduo ter a doença (antes da realização do exame), e Pr D Pos é a probabilidade a posteriori, após termos conhecimento de que o resultado do teste foi positivo 71
72 Intervalos Bayesianos de credibilidade Distribuição beta breve introdução Usualmente utilizada para a modelagem de proporções Função de densidade de probabilidade: f θ = B(a, b) 1 θ a 1 1 θ b 1, a, b > 0, 0 < θ < 1, onde B(a, b) 1 é a constante de normalização que depende apenas de a e b: B a, b = න 1θ a 1 1 θ b 1 Γ a Γ b dθ = 0 Γ a + b e Γ() é a função gama (por simplicidade, sua definição não será apresentada) Substituindo B(a, b) na equação de f(θ), tem-se: Γ(a + b) f θ = Γ(a)Γ(b) θa 1 (1 θ) b 1 Note que o suporte da distribuição é o intervalo real (0, 1) 72
73 Intervalos Bayesianos de credibilidade Distribuição beta breve introdução Alguns parâmetros de interesse: Média: E θ = a a + b Moda: θ a 1 = arg max θ f θ = (a 1) + (b 1) = a 1 a + b 2 Dem: Basta tomar a derivada de log f θ, denotada por lf θ, igualar a 0 e isolar o valor de θ (que corresponderá exatamente à equação acima).notar que θ corresponde ao ponto no intervalo (0,1) tal que lf θ = 0. 73
74 f( ) f( ) f( ) f( ) Intervalos Bayesianos de credibilidade Distribuição beta breve introdução Exemplos de distribuições beta 74
75 Intervalos Bayesianos de credibilidade Prioris conjugadas beta-binomial: Exemplo proporção de votos em um candidato: Dois candidatos A e D participam do 2º turno de uma eleição Um analista está interessado em inferir a respeido da proporção, θ, de eleitores que votarão em D. Por conveniência, o analista atribui a distribuição a priori θ~beta(a, b), com a, b > 0: f θ = B(a, b) 1 θ a 1 1 θ b 1 O analista amostra n indivíduos da população e observa o número X de entrevistados que declaram o voto em D Como a amostra é uma AAS, o analista considera que X θ~bin(n, θ), onde θ, naturalmente, é desconhecido: f X θ = n X θx (1 θ) n x Qual a distribuição a posteriori f(θ X)? 75
76 Intervalos Bayesianos de credibilidade Prioris conjugadas beta-binomial: Exemplo proporção de votos em um candidato (cont): Aplicando o Teorema de Bayes, temos: n f θ f(x θ) f θ X = 1 = B 1θa 1 (1 θ)b 1 X θx (1 θ) n x 1 0 f ν f(x ν)dν 0 B 1 ν a 1 (1 ν) b 1 n X νx (1 ν) n x dν = θa+x 1 (1 θ) b+n x 1 1 (1) 0 ν a+x 1 (1 ν) b+n x 1 dν Note que, pelo mesmo raciocínio que B(a, b) = න 1ν a 1 (1 ν) b 1 dν = Γ(a)Γ(b) 0 Γ(a + b), vale que o denominador da Eq. (1) acima resulta em Γ(a+x)Γ(b+n x), Γ(a+x+b+n x) e portanto Γ(a + b + n) f θ X = Γ(a + x)γ(b + n x) θa+x 1 (1 θ) b+n x 1, o que equivale à definição da distribuição Beta a + x, b + n x 76
77 Intervalos Bayesianos de credibilidade Prioris conjugadas beta-binomial: Exemplo proporção de votos em um candidato (cont): Ou seja, θ X também segue uma distribuição beta, com parâmetros a + x, b + n x. Por essa razão, dizemos que a família de distribuições beta é uma família de prioris conjugadas para a família de distribuições binomiais Ou simplificadamente, dizemos que a distribuição beta é uma priori conjugada para a distribuição binomial Definição um pouco mais geral: Sempre que a função de probabilidade/função de densidade de probabilidade a posteriori f θ X pertence à mesma família Ψ da f.p./f.d.p. a priori f(θ) (para quaisquer valores dos parâmetros assumidos para f(θ) e quaisquer valores observados x 1, x 2,, x n ), dizemos que a família Ψ é uma família conjugada de distribuições a priori para amostras das distribuições f(x θ). 77
78 Intervalos Bayesianos de credibilidade Prioris conjugadas beta-binomial: Exercícios: 1. Continuando com nosso exemplo da proporção de votos em um candidato, suponha que: O analista assumiu inicialmente que os candidatos estão empatados e atribuiu uma distribuição a priori θ~beta(5,5) O analista amostrou n=30 entrevistados, e o número de entrevistados que declarou o voto no candidato D foi x=20 Qual é a distribuição a posteriori para θ? 2. Implemente um script em R para calcular e plotar a distribuição a priori, a verossimilhança e a distribuição a posteriori para θ, mantendo a, b, n, x parametrizáveis Teste a priori θ~beta(1,1) Observe que a forma da distribuição a posteriori é similar à forma da função de verossimilhança 78
79 Intervalos Bayesianos de credibilidade Prioris conjugadas beta-binomial: Exercícios (cont): Exercício 1: Priori: θ~beta(5,5); n=30; x=20 79
80 Intervalos Bayesianos de credibilidade Prioris conjugadas beta-binomial: Priori θ~beta(1,1): No exercício 2 do slide anterior, em que o interesse era extrair a distribuição da proporção θ de votos em um candidato, pediu-se para verificar o que ocorre quando assume-se a priori θ~beta(1,1). Note que: Beta(1,1) corresponde à distribuição Uniforme(0,1), pois Γ(a + b) f θ a, b = Γ(a)Γ(b) θa 1 (1 θ) b 1 = Γ(2) Γ(1)Γ(1) θ0 (1 θ) 0 = 1 Por essa razão, a distribuição a priori Beta(1,1) é usualmente denominada priori uniforme no intervalo (0,1) 80
81 Intervalos Bayesianos de credibilidade Prioris conjugadas beta-binomial: Priori θ~beta(1,1) (cont): A distribuição a posteriori f θ X é uma distribuição beta com parâmetros 1 + x, 1 + n x, ou seja, f θ X = K θ 1+x 1 (1 θ) 1+n x 1 = K θ x (1 θ) n x, Γ(n+2) = n+1! Γ(x+1)Γ(n x+1) onde K = ; logo, x! n x! n! f θ X = n + 1 θ x 1 θ n x = n + 1 f X θ x! n x! Ou seja, f θ X é proporcional a f X θ por um fator n + 1. Em outras palavras, as formas de f θ X são idênticas, o que significa que a priori Beta(1,1) não adiciona nenhuma informação à verossimilhança f X θ obtida a partir dos dados. Quando uma distribuição a priori possui a propriedade f θ X f X θ, dizemos que a priori f θ é não informativa Assim, pode-se dizer que a distribuição a priori Beta(1,1), que é uniforme no intervalo (0,1), é uma priori conjugada não informativa para a distribuição binomial 81
82 Intervalos Bayesianos de credibilidade Prioris conjugadas gama-poisson: Exemplo: chegadas de clientes A fim de planejar sua estrutura de atendimento, um varejista deseja modelar o parâmetro θ que representa o número médio esperado de clientes que chegam no intervalo de 1 hora (em um dia da semana e horário) A chegada de clientes é assumida como um processo de Poisson com esse parâmetro desconhecido θ O varejista atribui a θ uma distribuição a priori gama com parâmetros (a, b), onde a é o parâmetro forma e b é o parâmetro taxa da distribuição Suponha que o varejista tenha observado amostras independentes x 1, x 2,, x n, onde x i denota o número de clientes que chegaram no i-ésimo intervalo de 1h (dentro do mesmo dia da semana e horário). Problema: determinar a distribuição a posteriori de θ, dados x 1, x 2,, x n 82
83 Intervalos Bayesianos de credibilidade Prioris conjugadas gama-poisson: Exemplo: chegadas de clientes (cont) A f.d.p. da distribuição a priori para θ, dados os parâmetros a > 0, b > 0, é dada por f θ = ba Γ(a) θa 1 e bθ, θ > 0 Como se assume que as observações seguem um processo de Poisson, cada observação x segue a distribuição de Poisson com parâmetro θ: f x θ = θx e θ, x 0 x! Logo, a função de verossimilhança f x θ, x = (x 1, x 2,, x n ), é: n θ x ie x i f x θ = = θs e nθ, i=1 x i! z onde s = σ n i=1 x i, z = ς n i=1 (x i!) 83
84 Intervalos Bayesianos de credibilidade Prioris conjugadas gama-poisson: Exemplo: chegadas de clientes (cont) Pelo teorema de Bayes, f θ x = f θ f(x θ) f ν f x ν dν Note que o denominador da equação acima não envolve θ, e portanto é proporcional a f θ f x θ Notação:f θ x f θ f(x θ) Assim, podemos escrever a f.d.p. a posteriori f θ x como: f θ x f θ f x θ = ba Γ a θa 1 e bθ θs e nθ Eliminando novamente os termos que não dependem de θ, temos f θ x θ a 1 e bθ θ s e nθ = θ a+s 1 e (b+n)θ O lado direito da equação acima é, exceto por um fator constante, a f.d.p. de uma distribuição gama com parâmetros (a + σ n i=1 x i, b + n) z 84
85 Intervalos Bayesianos de credibilidade Prioris conjugadas gama-poisson: No exemplo acima, mostramos que a distribuição gama é conjugada para a distribuição Poisson: Ou seja, se θ é assumida a priori com uma distribuição gama(a, b) e cada observação x θ segue uma distribuição Poisson(θ), então θ x segue uma distribuição gama(a + σ n i=1 x i, b + n). 85
86 Intervalos Bayesianos de credibilidade Prioris conjugadas gama-poisson: Que valores assumir para os parâmetros da distribuição a priori gama? Se temos pouca informação prévia sobre θ, é recomendável que f θ seja fracamente informativa, o que é possível fazendo com que f θ tenha uma variância alta É possível verificar na literatura que, se θ~gama a, b, então E θ = a b, Var θ = a b 2 Assim, se nossa experiência prévia nos indica que o número médio de ocorrências/hora é de 10 e se quisermos uma variância de 100 vezes a média, teríamos: Var θ = a b 2 = 100E θ = 100 a b b = = 0.01 E θ = a 10 = 10 a = 10b = b 100 = 0.1 Logo, θ~gama 0.1,0.01 possui a média e a variância desejadas. 86
87 Intervalos Bayesianos de credibilidade Intervalo de credibilidade: Um intervalo de credibilidade é uma faixa de valores dentro da qual o parâmetro θ deve pertencer com uma certa probabilidade. É calculado a partir da distribuição a posteriori Dentre as formas de calcular intervalos de credibilidade, temos: Intervalo por quantis da posteriori: consiste no intervalo [θ 1, θ 2 ] tal que θ 1 = F 1 1 γ e θ 2 2 = F γ, onde F 1 denota a função quantil 2 da distribuição a posteriori P.ex, para γ = 0.95, θ 1 = F e θ 2 = F Intervalo de máxima densidade de probabilidade a posteriori (HPD highest posterior densitiy interval): consiste no menor intervalo possível [θ 1, θ 2 ] tal que Pr θ 1 θ θ 2 = γ, onde γ é o nível de probabilidade desejado 87
88 Intervalos Bayesianos de credibilidade Intervalo de credibilidade: Intervalo por quantis da posteriori: Procedimento mais simples e direto (não necessita de simulações) consiste no intervalo [θ 1, θ 2 ] tal que θ 1 = F 1 1 γ 2 e θ 2 = F 1 onde F 1 denota a função quantil da distribuição a posteriori P.ex, para γ = 0.95, θ 1 = F e θ 2 = F γ 2 Intervalo de máxima densidade de probabilidade a posteriori (HPD highest posterior densitiy interval): consiste no menor intervalo possível [θ 1, θ 2 ] tal que Pr θ 1 θ θ 2 = γ, onde γ é o nível de probabilidade desejado, 88
89 Intervalos Bayesianos de credibilidade Intervalo de credibilidade: Intervalo de máxima densidade de probabilidade a posteriori: Procedimento: Gere um número grande B 5000 de valores de θ de acordo com a distribuição a posteriori f θ X Ordene os valores de θ em ordem decrescente de f θ X ; denotemos por θ (1), θ (2),, θ (B) os valores ordenados em ordem decrescente Identifique o valor θ (Bγ) na lista ordenada acima; denote esse valor por θ» P.ex. para B = 10000, γ = 0.95, tomaríamos como θ o valor correspondente à posição 9500 na lista ordenada acima Defina o intervalo [θ 1, θ 2 ] tal que:» θ 1 = min θ f θ X f θ X» θ 2 = max θ f θ X f θ X (Note que θ 1, θ 2 θ ) 89
ACH4513 INFERÊNCIA ESTATÍSTICA. 2º Sem/2017. Estimação. Prof. Marcelo S. Lauretto
ACH4513 INFERÊNCIA ESTATÍSTICA 2º Sem/2017 Estimação Prof. Marcelo S. Lauretto marcelolauretto@usp.br www.each.usp.br/lauretto Referência: W.O.Bussab, P.A.Morettin. Estatística Básica, 6ª Edição. São Paulo:
Estimação Frequentista e Bayesiana
ACH5005 Simulação de Sistemas Complexos II 2º Sem/2018 Estimação Frequentista e Bayesiana Prof. Marcelo S. Lauretto marcelolauretto@usp.br www.each.usp.br/lauretto 1 1. Estimação: Introdução A Inferência
Inferência Estatistica
Inferência Estatistica Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Modelos e Inferência Um modelo é uma simplificação da realidade (e alguns
Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017.
Professora Ana Hermínia Andrade Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Período 2017.1 Distribuições Amostrais O intuito de fazer uma amostragem
3. Estimação pontual USP-ICMC-SME. USP-ICMC-SME () 3. Estimação pontual / 25
3. Estimação pontual USP-ICMC-SME 2013 USP-ICMC-SME () 3. Estimação pontual 2013 1 / 25 Roteiro Formulação do problema. O problema envolve um fenômeno aleatório. Interesse em alguma característica da população.
Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.
1. Inferência Estatística Inferência Estatística é o uso da informção (ou experiência ou história) para a redução da incerteza sobre o objeto em estudo. A informação pode ou não ser proveniente de um experimento
CC-226 Aula 07 - Estimação de Parâmetros
CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições
PE-MEEC 1S 09/ Capítulo 7 - Estimação por intervalos. 7.2 Intervalos de. confiança para. média de uma. normal 7.
Capítulo 7 - Estimação por intervalos 7.1 Noções básicas 7.2 Intervalos de confiança para a média de uma população normal 7.3 Intervalos de confiança para a diferença de duas médias de populações normais
Universidade Federal de Lavras
Universidade Federal de Lavras Departamento de Estatística Prof. Daniel Furtado Ferreira 6 a Lista de Exercícios Teoria da Estimação pontual e intervalar 1) Marcar como verdadeira ou falsa as seguintes
Fernando de Pol Mayer
Fernando de Pol Mayer Laboratório de Estatística e Geoinformação (LEG) Departamento de Estatística (DEST) Universidade Federal do Paraná (UFPR) Este conteúdo está disponível por meio da Licença Creative
Distribuição Amostral e Estimação Pontual de Parâmetros
Roteiro Distribuição Amostral e Estimação Pontual de Parâmetros 1. Introdução 2. Teorema Central do Limite 3. Conceitos de Estimação Pontual 4. Métodos de Estimação Pontual 5. Referências População e Amostra
Análise Bayesiana de Dados - Aula 1 -
Análise Bayesiana de Dados - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um
Distribuições Amostrais e Estimação Pontual de Parâmetros
Distribuições Amostrais e Estimação Pontual de Parâmetros - parte I 2012/02 1 Introdução 2 3 4 5 Objetivos Ao final deste capítulo você deve ser capaz de: Entender estimação de parâmetros de uma distribuição
Conteúdo Teórico: 04 Esperança
ACH2053 Introdução à Estatística Conteúdo Teórico: 04 Esperança Marcelo de Souza Lauretto Sistemas de Informação EACH www.each.usp.br/lauretto Referência: Morris DeGroot, Mark Schervish. Probability and
Introdução à Probabilidade e à Estatística II
Introdução à Probabilidade e à Estatística II Introdução à Inferência Estatística Capítulo 10, Estatística Básica (Bussab&Morettin, 7a Edição) Lígia Henriques-Rodrigues MAE0229 1º semestre 2018 1 / 36
Cap. 4 - Estimação por Intervalo
Cap. 4 - Estimação por Intervalo Amostragem e inferência estatística População: consiste na totalidade das observações em que estamos interessados. Nº de observações na população é denominado tamanho=n.
Técnicas computacionais em probabilidade e estatística II
Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco AULA 1: Problemas Computacionais em Inferência Estatística.
Estimação: (A) Propriedades e Distribuições Amostrais
Estimação: (A) Propriedades e Distribuições Amostrais Wagner H. Bonat Fernando P. Mayer Elias T. Krainski Universidade Federal do Paraná Departamento de Estatística Laboratório de Estatística e Geoinformação
AULA 7 - Inferência em MQO: ICs e Testes de
AULA 7 - Inferência em MQO: ICs e Testes de Hipóteses Susan Schommer Econometria I - IE/UFRJ Nosso primeiro objetivo aqui é relembrar a diferença entre estimação de ponto vs estimação de intervalo. Vamos
Cap. 8 - Intervalos Estatísticos para uma Única Amostra
Intervalos Estatísticos para ESQUEMA DO CAPÍTULO 8.1 INTRODUÇÃO 8.2 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO NORMAL, VARIÂNCIA CONHECIDA 8.3 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO
INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA
UFPE - Universidade Federal de Pernambuco Departamento de Estatística Disciplina: ET-406 Estatística Econômica Professor: Waldemar A. de Santa Cruz Oliveira Júnior INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA Podemos
Fernando de Pol Mayer
Fernando de Pol Mayer Laboratório de Estatística e Geoinformação (LEG) Departamento de Estatística (DEST) Universidade Federal do Paraná (UFPR) Este conteúdo está disponível por meio da Licença Creative
Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Geração de Números Aleatórios Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 61 Simulando de Distribuições Discretas Assume-se que um
Testes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Testes de Hipóteses Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Introdução e notação Em geral, intervalos de confiança são a forma mais
Testes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Testes de Hipóteses Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Introdução e notação Em geral, intervalos de confiança são a forma mais
Professora Ana Hermínia Andrade. Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise. Período 2017.
Estimação pontual Professora Ana Hermínia Andrade Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Período 2017.1 Introdução Exemplo Desejamos comprar um
Estatísticas Inferenciais Distribuições Amostrais. Estatística
Estatística Na descrição dos conjuntos de dados x 1,..., x n, não foi feita menção ao conceito de população. Estatísticas inferenciais: preocupadas com a fonte dos dados e em tentar fazer generalizações
Intervalos de Confiança
Intervalos de Confiança Carla Henriques e Nuno Bastos Departamento de Matemática Escola Superior de Tecnologia de Viseu Carla Henriques e Nuno Bastos (DepMAT) Intervalos de Confiança 2010/2011 1 / 33 Introdução
Conteúdo Teórico: 03 Variáveis Aleatórias e Distribuições
ACH2053 Introdução à Estatística Conteúdo Teórico: 03 Variáveis Aleatórias e Distribuições Marcelo de Souza Lauretto Sistemas de Informação EACH www.each.usp.br/lauretto Referência: Morris DeGroot, Mark
Probabilidade e Estatística
Probabilidade e Estatística Aula 6 Distribuições Contínuas (Parte 02) Leitura obrigatória: Devore, Capítulo 4 Chap 6-1 Distribuições de Probabilidade Distribuições de Probabilidade Distribuições de Probabilidade
Inferência Bayesiana - Aula 1 -
Inferência Bayesiana - Aula 1 - Márcia D Elia Branco Universidade de São Paulo Instituto de Matemática e Estatística www.ime.usp.br/ mbranco - sala 295-A - Paradigmas Bayesiano Introdução Fazer inferência
MOQ-13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel
MOQ-13 PROBABILIDADE E ESTATÍSTICA Professor: Rodrigo A. Scarpel rodrigo@ita.br www.mec.ita.br/~rodrigo Programa do curso: Semanas 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 e 16 Introdução à probabilidade (eventos,
Professora Ana Hermínia Andrade. Período
Estimação intervalar Professora Ana Hermínia Andrade Universidade Federal do Amazonas Faculdade de Estudos Sociais Departamento de Economia e Análise Período 2017.1 Estimação Intervalar Vimos que como
PRINCIPAIS DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE
PRINCIPAIS DISTRIBUIÇÕES DISCRETAS DE PROBABILIDADE 3.1 INTRODUÇÃO Muitas variáveis aleatórias associadas a experimentos aleatórios têm propriedades similares e, portanto, podem ser descritas através de
Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08
Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas
MAE Introdução à Probabilidade e Estatística II Resolução Lista 5
MAE 229 - Introdução à Probabilidade e Estatística II Resolução Lista 5 Professor: Pedro Morettin e Profa. Chang Chian Exercício 1 (a) De uma forma geral, o desvio padrão é usado para medir a dispersão
CE085 - Estatística Inferencial. derivadas. Prof. Wagner Hugo Bonat. 5 de setembro de Curso de Bacharelado em Estatatística
CE085 - Estatística Inferencial Função de Verossimilhança e suas derivadas Prof. Wagner Hugo Bonat Laboratório de Estatística e Geoinformação - LEG Curso de Bacharelado em Estatatística Universidade Federal
Probabilidades e Estatística MEEC, LEIC-A, LEGM
Departamento de Matemática Probabilidades e Estatística MEEC, LEIC-A, LEGM Exame a Época / o Teste (Grupos III e IV) o semestre 009/00 Duração: 80 / 90 minutos /06/00 9:00 horas Grupo I Exercício 5 valores
Testes de Hipóteses Não Paramétricos
ACH4513 INFERÊNCIA ESTATÍSTICA 2º Sem/2017 Testes de Hipóteses Não Paramétricos Prof. Marcelo S. Lauretto marcelolauretto@usp.br www.each.usp.br/lauretto Referência: W.O.Bussab, P.A.Morettin. Estatística
p(x) Note que 1/p(x), que não depende de θ, funciona como uma constante normalizadora
Capítulo 1 Introdução A informação que se tem sobre uma quantidade de interesse θ é fundamental na Estatística. O verdadeiro valor de θ é desconhecido e a idéia é tentar reduzir este desconhecimento. Além
ESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Se a integração analítica não é possível ou
Introdução a Inferência Bayesiana
Introdução a Inferência Bayesiana Helio S. Migon IM and COPPE - UFRJ migon@im.ufrj.br 2006 Conteúdo 1. Conceitos Básicos da Inferência 2. Distribuição a Priori 3. Sumariazação 4. Inferência Preditiva 1
IND 1115 Inferência Estatística Aula 6
Conteúdo IND 5 Inferência Estatística Aula 6 Setembro de 004 A distribuição Lognormal A distribuição Beta e sua relação com a Uniforme(0,) Mônica Barros mbarros.com mbarros.com A distribuição Lognormal
Exemplo 7.0 Numa linha de produção, os pesos de pacotes de pó de café embalados por uma máquina têm distribuição Normal, com média
Exemplo 7.0 Numa linha de produção, os pesos de pacotes de pó de café embalados por uma máquina têm distribuição Normal, com média µ = 505g e desvio padrão σ = 9g. a) Selecionado ao acaso um pacote embalado
Teorema central do limite e es/mação da proporção populacional p
Teorema central do limite e es/mação da proporção populacional p 1 RESULTADO 1: Relembrando resultados importantes Seja uma amostra aleatória de tamanho n de uma variável aleatória X, com média µ e variância
PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES
PRINCIPAIS DISTRIBUIÇÕES DE PROBABILIDADES Certas distribuições de probabilidades se encaixam em diversas situações práticas As principais são: se v.a. discreta Distribuição de Bernoulli Distribuição binomial
Prof. Eduardo Bezerra. 6 de abril de 2018
Distribuições Amostrais Prof. Eduardo Bezerra Inferência Estatística 6 de abril de 2018 Eduardo Bezerra (CEFET/RJ) Distribuições Amostrais 1 / 19 Roteiro 1 2 3 Eduardo Bezerra (CEFET/RJ) Distribuições
Introdução à Inferência Estatística
Introdução à Inferência Estatística Profa. Airlane P. Alencar e Prof. Francisco Marcelo M. da Rocha 11 de Setembro de 2018 Alencar, A.P. e Rocha, F.M.M. (IME-USP e EPPEN - UNIFESP) Estatística I 11 de
INFERÊNCIA ESTATÍSTICA. ESTIMAÇÃO PARA A PROPORÇÃO POPULACIONAL p
INFERÊNCIA ESTATÍSTICA ESTIMAÇÃO PARA A PROPORÇÃO POPULACIONAL p Objetivo Estimar uma proporção p (desconhecida) de elementos em uma população, apresentando certa característica de interesse, a partir
Análise de Dados e Simulação
Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco Simulação de Variáveis Aleatórias Contínuas. O método da Transformada Inversa Teorema Seja U U (0,1). Para qualquer
Introdução à Inferência Estatística
Introdução à Inferência Estatística Prof. Dr. Francisco Marcelo M. da Rocha 10 de Setembro de 2018 Rocha, F.M.M. (EPPEN - UNIFESP) Estatística I 10 de Setembro de 2018 1 / 60 Índice 1 Objetivo da Aula
CE219 - Controle Estatístico de Qualidade
CE219 - Controle Estatístico de Qualidade Cesar Augusto Taconeli 30 de maio, 2017 Cesar Augusto Taconeli CE219 - Controle Estatístico de Qualidade 30 de maio, 2017 1 / 96 Aula 2 - Métodos estáticos para
Conteúdo Teórico: 02 Probabilidade Condicional
ACH2053 Introdução à Estatística Conteúdo Teórico: 02 Probabilidade Condicional Marcelo de Souza Lauretto Sistemas de Informação EACH www.each.usp.br/lauretto Referência: Morris DeGroot, Mark Schervish.
PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG /2012
PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG - 0/0 Instruções:. Cada questão respondida corretamente vale (um) ponto.. Cada questão respondida incorretamente vale - (menos um) ponto. 3.
SCX5005 Simulação de Sistemas Complexos II. Problemas em Simulação
SCX5005 Simulação de Sistemas Complexos II Alguns Marcelo S. Lauretto Referências: Morris DeGroot, Mark Schervish. Probability and Statistics. 4th Ed. - 4o capítulo Ilya M. Sobol. A Primer for the Monte
Teorema do Limite Central, distribuição amostral, estimação por ponto e intervalo de confiança
Teorema do Limite Central, distribuição amostral, estimação por ponto e intervalo de confiança Prof. Marcos Pó Métodos Quantitativos para Ciências Sociais Distribuição amostral Duas amostragens iguais
MOQ 13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel
MOQ 3 PROBABILIDADE E ESTATÍSTICA Professor: Rodrigo A. Scarpel rodrigo@ita.br www.mec.ita.br/~rodrigo Programa do curso: Semanas 2 3 4 5 6 7 8 9 0 2 3 4 5 e 6 Introdução à probabilidade (eventos, espaço
Intervalos de Confiança
Intervalos de Confiança Departamento de Matemática Escola Superior de Tecnologia de Viseu Introdução Estimar o consumo médio de um automóvel, estimar o tempo médio que um funcionário leva a aprender uma
CONHECIMENTOS ESPECÍFICOS
CONHECIMENTOS ESPECÍFICOS As variáveis aleatórias X e Y seguem uma distribuição de Bernoulli com probabilidade de sucesso igual a 0,4. Considerando S = X + Y e que os eventos aleatórios A = [X = 1] e B
Introdução à Inferência Estatística
ACH2053 INTRODUÇÃO À ESTATÍSTICA 1º Sem/2018 Introdução à Inferência Estatística Prof. Marcelo S. Lauretto marcelolauretto@usp.br www.each.usp.br/lauretto Referência: W.O.Bussab, P.A.Morettin. Estatística
Probabilidade e Estatística
Probabilidade e Estatística Aula 7 Distribuição da Média Amostral Leitura obrigatória: Devore: Seções 5.3, 5.4 e 5.5 Chap 8-1 Inferência Estatística Na próxima aula vamos começar a parte de inferência
1 Probabilidade - Modelos Probabilísticos
1 Probabilidade - Modelos Probabilísticos Modelos probabilísticos devem, de alguma forma, 1. identificar o conjunto de resultados possíveis do fenômeno aleatório, que costumamos chamar de espaço amostral,
LEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100%
. Definição dos acontecimentos: M T-shirt tem manchas C T-shirt tem costuras defeituosas D T-shirt é defeituosa A Preço da t-shirt é alterado a) PM) = % PC) = 5% PM C) = % LEEC Probabilidades e Estatística
Gibbs Sampler para ANOVA e Misturas
Gibbs Sampler para ANOVA e Misturas Renato Assunção - DCC, UFMG Outubro de 014 1 Modelo ANOVA: componentes de variância Suponha que temos K grupos ou classes. Em cada grupo, temos um certo número de dados
Inferência Bayesiana
Inferência Bayesiana Joaquim Neto joaquim.neto@ufjf.edu.br www.ufjf.br/joaquim_neto Departamento de Estatística - ICE Universidade Federal de Juiz de Fora (UFJF) Versão 3.0 Joaquim Neto (UFJF) ICE - UFJF
CONHECIMENTOS ESPECÍFICOS
CONHECIMENTOS ESPECÍFICOS 2003 2004 2005 2006 2007 2008 2009 2010 X 39,0 39,5 39,5 39,0 39,5 41,5 42,0 42,0 Y 46,5 65,5 86,0 100,0 121,0 150,5 174,0 203,0 A tabela acima mostra as quantidades, em milhões
Introdução à Inferência Estatística
Introdução à Inferência Estatística Capítulo 10, Estatística Básica (Bussab&Morettin, 7a Edição) 2a AULA 02/03/2015 MAE229 - Ano letivo 2015 Lígia Henriques-Rodrigues 2a aula (02/03/2015) MAE229 1 / 16
Breve revisão sobre a distribuição normal
ACH4513 INFERÊNCIA ESTATÍSTICA 2º Sem/2017 Breve revisão sobre a distribuição normal Prof. Marcelo S. Lauretto marcelolauretto@usp.br www.each.usp.br/lauretto Referência: W.O.Bussab, P.A.Morettin. Estatística
6. Amostragem e estimação pontual
6. Amostragem e estimação pontual Definição 6.1: População é um conjunto cujos elementos possuem qualquer característica em comum. Definição 6.2: Amostra é um subconjunto da população. Exemplo 6.1: Um
Probabilidade e Estatística
Probabilidade e Estatística Aula 7: Intervalos de Confiança com uma amostra Leitura obrigatória: Devore, cap 7 ou Montgomery e Runger, cap 8 Chap 8-1 Objetivos Como inferir sobre um parâmetro da população,
MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade
MAT 461 Tópicos de Matemática II Aula 8: Resumo de Probabilidade Edson de Faria Departamento de Matemática IME-USP 28 de Agosto, 2013 Probabilidade: uma Introdução / Aula 8 1 Desigualdades de Markov e
Nessa situação, a média dessa distribuição Normal (X ) é igual à média populacional, ou seja:
Pessoal, trago a vocês a resolução da prova de Estatística do concurso para Auditor Fiscal aplicada pela FCC. Foram 10 questões de estatística! Não identifiquei possibilidade para recursos. Considero a
Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33
Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto
MAE0229 Introdução à Probabilidade e Estatística II
Exercício Entre jovens atletas, um nível alto de colesterol pode ser considerado preocupante e indicativo para um acompanhamento médico mais frequente. Suponha que são classificados como tendo taxa de
Distribuições por Amostragem
Distribuições por Amostragem Departamento de Matemática Escola Superior de Tecnologia de Viseu (DepMAT ESTV) Distribuições por Amostragem 2007/2008 1 / 27 Introdução: População, amostra e inferência estatística
Introdução a Estatística
Introdução a Estatística Prof a. Juliana Freitas Pires Departamento de Estatística Universidade Federal da Paraíba - UFPB juliana@de.ufpb.br Introdução O curso foi dividido em três etapas: 1 vimos como
Sumário. 2 Índice Remissivo 11
i Sumário 1 Principais Distribuições Contínuas 1 1.1 Distribuição Uniforme................................. 1 1.2 A Distribuição Normal................................. 2 1.2.1 Padronização e Tabulação
3 a Lista de PE Solução
Universidade de Brasília Departamento de Estatística 3 a Lista de PE Solução. Se X representa o ganho do jogador, então os possíveis valores para X são,, 0, e 4. Esses valores são, respectivamente, correspondentes
Lista de Exercicios 1 MEDIDAS RESUMO. ESTIMAÇÃO PONTUAL.
Introdução à Inferência Estatística Departamento de Física é Matemática. USP-RP. Prof. Rafael A. Rosales 5 de setembro de 004 Lista de Exercicios 1 MEDIDAS RESUMO. ESTIMAÇÃO PONTUAL. 1 Medidas Resumo DISTRIBUIÇÕES
Modelos discretos e contínuos
Modelos discretos e contínuos Joaquim Neto joaquim.neto@ufjf.edu.br Departamento de Estatística - ICE Universidade Federal de Juiz de Fora (UFJF) Versão 3.0 Joaquim Neto (UFJF) ICE - UFJF Versão 3.0 1
Mais sobre Modelos Continuos
Mais sobre Modelos Continuos Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 41 Transformação Linear da Uniforme Seja X uma variável aleatória
Distribuições Amostrais - Tamanho da Amostra
Distribuições Amostrais - Tamanho da Amostra Prof. Eduardo Bezerra Inferência Estatística 21 de Setembro de 2018 Eduardo Bezerra (CEFET/RJ) Tamanho da Amostra 1 / 10 Motivação Suponha que queremos estimar
Solução dos Exercícios - Capítulos 1 a 3
Capítulo 9 Solução dos Exercícios - Capítulos a 3 9. Capítulo. a Como o valor se refere aos pacientes estudados, e não a todos os pacientes, esse é o valor de uma estatística amostral. b Estatística amostral
ACH Introdução à Estatística Conteúdo Teórico: 12 - Simulação
ACH2053 - Introdução à Estatística Conteúdo Teórico: Marcelo S. Lauretto Referências: Morris DeGroot, Mark Schervish. Probability and Statistics. 4th Ed. - 4o capítulo Ilya M. Sobol. A Primer for the Monte
Testes de Hipóteses para. uma Única Amostra. Objetivos de Aprendizagem. 9.1 Teste de Hipóteses. UFMG-ICEx-EST-027/031 07/06/ :07
-027/031 07/06/2018 10:07 9 ESQUEMA DO CAPÍTULO 9.1 TESTE DE HIPÓTESES 9.2 TESTES PARA A MÉDIA DE UMA DISTRIBUIÇÃO NORMAL, VARIÂNCIA CONHECIDA 9.3 TESTES PARA A MÉDIA DE UMA DISTRIBUIÇÃO NORMAL, VARIÂNCIA
Estatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aula passada Intervalo de confiança Método de Replicações Independentes Aula de hoje Para que serve a inferência estatística? Método dos Momentos Maximum
Distribuições derivadas da distribuição Normal. Distribuição Normal., x real.
Distribuições derivadas da distribuição Normal Distribuição Normal Uma variável aleatória X tem distribuição normal com parâmetros µ e σ, quando sua densidade de probabilidade é f ( x) π σ e ( x µ ) σ,
Universidade Federal de Pernambuco Departamento de Estatística Inferência Estatística (PGE 951) Método de Máxima Verossimilhança (M.M.V.
Universidade Federal de Pernambuco Departamento de Estatística Inferência Estatística (PGE 95) Método de Máxima Verossimilhança (MMV) Definição: Qualquer ˆθ = ˆθ(X,, X n ) Θ tal que L(ˆθ; x,, x n ) = Sup{L(θ)
Nome: N. o : f(u) du para todo o x (V) d) Se F (x) tiver pontos de descontinuidade, então X é discreta (F)
ESTATÍSTICA I 2. o Ano/Gestão 1. o Semestre Época Normal Duração: 2 horas 1. a Parte Teórica N. o de Exame: RESOLUÇÃO 09.01.2015 Este exame é composto por duas partes. Esta é a 1 a Parte Teórica (Cotação:
Funções Geradoras de Variáveis Aleatórias. Simulação Discreta de Sistemas - Prof. Paulo Freitas - UFSC/CTC/INE
Funções Geradoras de Variáveis Aleatórias 1 Funções Geradoras de Variáveis Aleatórias Nos programas de simulação existe um GNA e inúmeras outras funções matemáticas descritas como Funções Geradoras de
Capítulo 2. Variáveis Aleatórias e Distribuições
Capítulo 2 Variáveis Aleatórias e Distribuições Experimento Aleatório Não existe uma definição satisfatória de Experimento Aleatório. Os exemplos dados são de fenômenos para os quais modelos probabilísticos
CONHECIMENTOS ESPECÍFICOS
CONHECIMENTOS ESPECÍFICOS Julgue os itens que se seguem, acerca da estatística descritiva. 51 Na distribuição da quantidade de horas trabalhadas por empregados de certa empresa, é sempre possível determinar
Capítulo 4 Inferência Estatística
Capítulo 4 Inferência Estatística Slide 1 Resenha Intervalo de Confiança para uma proporção Intervalo de Confiança para o valor médio de uma variável aleatória Intervalo de Confiança para a diferença de
3 Modelo Matemático Definições Iniciais. Denote-se, em geral, o desvio-padrão do processo por σ = γσ 0, sendo σ 0 o
Modelo Matemático 57 3 Modelo Matemático Este trabalho analisa o efeito da imprecisão na estimativa do desvio-padrão do processo sobre o desempenho do gráfico de S e sobre os índices de capacidade do processo.
Aula 9 Intervalo de confiança para a média da N(μ; σ 2 ), σ 2 desconhecida
Aula 9 Intervalo de confiança para a média da N(μ; σ 2 ), σ 2 desconhecida Nesta aula você completará seu estudo básico sobre intervalos de confiança, analisando o problema de estimação da média de uma
Estatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aula passada Algoritmo para simular uma fila Medidas de interesse Média amostral Aula de hoje Teorema do Limite Central Intervalo de Confiança Variância amostral