Trabalho 4. Simulações e exemplo

Documentos relacionados
Testes qui-quadrado e da razão de verossimilhanças

Função prcomp em R. 1. Introdução

Função prcomp. 1. Introdução

Teste qui-quadrado e teste exato de Fisher

DE ESPECIALIZAÇÃO EM ESTATÍSTICA APLICADA)

Teste de Wilcoxon-Mann-Whitney

Análise fatorial em R

Modelos de regressão paramétricos

MLG gama em R. # Estatísticas descritivas by(dados$resist, dados[, c("volt", "temp")], function(x) c(length(x), mean(x), sd(x), sd(x) / mean(x)))

Teste de Cochran-Mantel-Haenszel

Estimação e Testes de Hipóteses

Coeficientes de correlação

Coeficientes de correlação e testes de independência

(a) Teste e IC para Duas Variâncias. (b) Teste para médias. Duas Amostras de Teste T e IC

9. Representação de dados multidimensionais

6. NOÇÕES DE INFERÊNCIA ESTATÍSTICA

TESTE DO QUI-QUADRADO DE INDEPENDÊNCIA

3. Estimação pontual USP-ICMC-SME. USP-ICMC-SME () 3. Estimação pontual / 25

Aula 8 - Testes de hipóteses

Testes de Hipótese para uma única Amostra - parte II

AVALIAÇÃO DOS TESTES MULTIVARIADOS DA RAZÃO DE VEROSSIMILHANÇAS E T² DE HOTELLING: Um estudo por simulação de dados

Comparação entre intervalos de confiança calculados com métodos bootstrap e intervalos assintóticos

TESTES DE HIPÓTESES Notas de aula. Prof.: Idemauro Antonio Rodrigues de Lara

Testes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Testes de Hipótese para uma única Amostra - parte II

Testes de Hipóteses I

MOQ 13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel

MAE Introdução à Probabilidade e Estatística II Resolução Lista 5

Estatística (MAD231) Turma: IGA. Período: 2017/2

Testes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Função discriminante linear de Fisher

TESTE DE KOLMOGOROV-SMIRNOV. Professor Ewaldo Santana Universidade Estadual do Maranhão - UEMA

Para ajudar a interpretar os resultados, o Cartão de Relatórios do Assistente do teste de % de defeituosos para 1 amostra exibe os seguintes

Unidade IV Inferência estatística

Modelagem e Avaliação de Desempenho. Pós Graduação em Engenharia Elétrica - PPGEE Prof. Carlos Marcelo Pedroso 2014

AULA 8 Experimentos multinomiais e tabelas de contingência

Testes de Hipóteses II

Inferência estatística

Apostila - Inferência baseada na Verossimilhança

PROVA DE ESTATÍSTICA e PROBABILIDADES SELEÇÃO - MESTRADO/UFMG /2012

Análise de Dados Categóricos Tabelas 2 2

mat.ufrgs..ufrgs.br br/~viali/ mat.ufrgs..ufrgs.br

Introdução ao Pensamento Bayesiano via pacote LearnBayes e software R

Análise de agrupamentos por métodos hierárquicos aglomerativos

AULA 07 Inferência a Partir de Duas Amostras

AULA 05 Teste de Hipótese

Modelo g.l. SQ Retas concorrentes ,46 Retas paralelas ,22 Retas com intercepto comum ,49 Retas coincidentes ,23

Modelo de Variáveis discretas. Regressão com uma variável dependente Binária. Variáveis dependentes Binárias. Modelo de Probabilidade Linear

Curso R. Teste de Hipóteses. Alexandre Adalardo de Oliveira. Ecologia- IBUSP maio 2017

Fernando de Pol Mayer

Teste de Hipótese. Capítulo 8 Triola, 10 a. Ed. (Capítulo 7 Triola, 9 a. Ed.) 1 Visão Geral. 2 Fundamentos do teste de hipótese

Objetivos. Testes não-paramétricos

Intervalos de Confiança

6. NOÇÕES DE INFERÊNCIA ESTATÍSTICA

Análise de Resíduos. investigar características que comprometem a validade do MRLS:

Estatística Aplicada

Modelos Lineares Generalizados

Testes de Hipóteses para. uma Única Amostra. Objetivos de Aprendizagem. 9.1 Teste de Hipóteses. UFMG-ICEx-EST-027/031 07/06/ :07

Séries Temporais e Modelos Dinâmicos. Econometria. Marcelo C. Medeiros. Aula 9

ESTATÍSTICA Distribuições qui-quadrado, t de Student e F de Snedecor Lucas Schmidt

AULA 12 - Normalidade e Inferência em Regressão Múltipla - Parte 2

Inferências sobre o vetor de Média. (Johnson & Wichern, Cap. 5) Considere o problema univariado no qual temse uma amostra aleatória de tamanho n da

CE001 - BIOESTATÍSTICA TESTE DO QUI-QUADRADO

EXPERIMENTAÇÃO AGRÍCOLA. Profa. Dra. Amanda Liz Pacífico Manfrim Perticarrari

Transcrição:

Trabalho 4. Simulações e exemplo 1. Simulações São apresentados os passos para a geração de amostras em linguagem R e, a partir destas, o teste da hipótese da questão 3(c) do terceiro trabalho. Para realizar o teste utilizamos as estatísticas G 2 (baseada na razão de verossimilhanças) e X 2 de Pearson. Os resultados são destacados em cor azul. Inicialmente carregamos o pacote lattice, que inclui funções para os gráficos de quantis. library(lattice) Escolhemos o nível de significância nominal α e calculamos o valor crítico obtido da distribuição de referência (χ 2 com 2 g.l.). alfa = 0.05 x2crit = qchisq(1 - alfa, 2) Escolhendo o verdadeiro valor de θ (= θ 0 ) calculamos as probabilidades (π) sob H 0. teta0 = 0.8 pi11 = teta0^2 pi12 = teta0 * (1 - teta0) # = pi21 pi22 = (1 - teta0)^2 n = 200 M = 5000 Em seguida especificamos o tamanho amostral e o número de repetições das simulações. Os dados correspondentes a todas as M repetições das simulações são gerados com a função rmultinom e são guardados em uma matriz 4 x M em que cada coluna representa uma amostra simulada. dados = rmultinom(m, size = n, prob = c(pi11, pi12, pi12, pi22)) As estimativas de máxima verossimilhanças (EMV) irrestritas (ou seja, sob H 1 ) de π e o logaritmo da função verossimilhança loglpi (a menos de uma constante aditiva) são calculados por meio de funções matriciais. As EMV de π são as proporções amostrais, que são obtidas dividindo cada elemento de dados por n. No cálculo do logaritmo da função verossimilhança devemos testar se algum valor gerado é igual a 0, pois neste caso tomamos n log(n) = 0 levando em conta que x log(x) 0 quando x 0. emvpi = dados / n loglpi = colsums(ifelse(dados > 0, dados * log(emvpi), 0)) 1

As EMV de π sob H 0 são calculadas com a expressão (2n 11 + n 12 + n 21 ) / (2n) aplicada às colunas de dados. Tendo estas estimativas podemos calcular as estimativas das probabilidades e o logaritmo da função verossimilhança loglpiteta sob H 0. emvteta = apply(dados, 2, function(x) (2 * x[1] + x[2] + x[3]) / (2 * n)) piteta = rbind(emvteta^2, emvteta * (1 - emvteta), emvteta * (1 - emvteta), (1 - emvteta)^2) loglpiteta = colsums(dados * log(piteta)) Os gráficos da Figura 1 sugerem uma boa aproximação da distribuição assintótica do EMV de θ, que é normal com média θ 0 e variância θ 0 (1 θ 0 ) / (2n). A hipótese de normalidade poderia ser formalmente testada (Como?). hist(emvteta, main = "", freq = FALSE, xlab = expression(hat(theta)), ylab = "Densidade", cex.axis = 1.5, cex.lab = 1.5) curve(dnorm(x, teta0, sqrt(0.5 * teta0 * (1- teta0) / n)), add = TRUE, col = "red") box() plot(ecdf(emvteta), main = "", xlab = expression(hat(theta)), ylab = "Função distribuição", pch = "*", cex.axis = 1.5, cex.lab = 1.5) curve(pnorm(x, teta0, sqrt(0.5 * teta0 * (1- teta0) / n)), add = TRUE, col = "red") Figura 1. Esquerda: histograma e função densidade teórica. Direita: funções distribuição empírica e teórica. Os resultados do teste com a estatística G 2 são apresentados em seguida. G2 = 2 * (loglpi - loglpiteta) cat("\nresultados\n nível de significância =", alfa, "\n valor crítico =", x2crit) cat("\n teta =", teta0, "\n pi sob H0 =", c(pi11, pi12, pi12, pi22)) cat("\n n =", n, "\n no. de repetições =", M) cat("\n estatística G2:") cat("\n proporção de rejeição de H0 =", mean(g2 > x2crit), "\n") 2

Resultados nível de significância = 0.05 valor crítico = 5.991465 teta = 0.8 pi sob H0 = 0.36 0.24 0.24 0.16 n = 200 no. de repetições = 5000 estatística G2: proporção de rejeição de H0 = 0.0494 Calculamos as frequencias esperadas estimadas sob H 0 e realizamos o teste com a estatística X 2. esp = n * piteta X2 = colsums((dados - esp)^2 / esp) cat("\n estatística X2:") cat("\n proporção de rejeição de H0 =", mean(x2 > x2crit), "\n") estatística X2: proporção de rejeição de H0 = 0.0504 Para este cenário (escolhas de α, θ, n e M) as proporções de rejeição de H 0 com G 2 e X 2 são próximas entre si e também são próximas do valor nominal (α = 5%), indicando uma boa aproximação da distribuição assintótica das duas estatísticas de teste. Os gráficos de quantis da Figura 2 reforçam estas afirmações. qq(rep(c("g2", "X2"), each = M) ~ c(g2, X2), xlab = expression(x^2), ylab = expression(g^2), pch = 20, scales = list(cex = 1.5), main = "(a)") qqmath(g2, distribution = function(p) qchisq(p, df = 2), pch = 20, ylab = expression(g^2), xlab = expression(paste("quantis ", chi[2]^2)), panel = function(x,...) { panel.qqmathline(x,...) panel.qqmath(x,...) }, scales = list(cex = 1.5), main = "(b)") qqmath(x2, distribution = function(p) qchisq(p, df = 2), pch = 20, ylab = expression(x^2), xlab = expression(paste("quantis ", chi[2]^2)), panel = function(x,...) { panel.qqmathline(x,...) panel.qqmath(x,...) }, scales = list(cex = 1.5), main = "(c)") 2. Exemplo 44. Em uma amostra de n = 215 observações as contagens são n 11 = 19, n 12 = 62, n 21 = 90 e n 22 = dados = c(19, 62, 90, 44) n = sum(dados) 3

Figura 2. Gráfico de quantis. (a) G 2 e X 2 (b) G 2 e (c) X 2. A EMV de θ é apresentada abaixo. emvteta = (2 * dados[1] + dados[2] + dados[3]) / (2 * n) cat("\n dados: ") print(matrix(dados, ncol = 2, byrow = TRUE)) cat("\n n =", n, "\n emv teta =", emvteta) 4

dados: [,1] [,2] [1,] 19 62 [2,] 90 44 n = 215 emv teta = 0.4418605 O gráfico da função verossimilhança é mostrado na Figura 3. logver = function(theta) { n11s * log(theta) + n22s * log(1 - theta) } n11s = 2 * dados[1] + dados[2] + dados[3] n22s = 2 * dados[4] + dados[2] + dados[3] maxlogver = logver(emvteta) par(mai = c(1.2, 1.3, 0.1, 0.1)) curve(logver, 0, 1, cex.lab = 1.5, cex.axis = 1.5, xlab = expression(theta), ylab = expression(paste("log L(", theta, ")"))) points(emvteta, maxlogver, pch = 20, col = "red") abline(h = maxlogver, lty = 2, col = "red") abline(v = emvteta, lty = 2, col = "red") Por último realizamos o teste da hipótese da questão 3(c) do terceiro trabalho. emvpi = dados / n loglpi = sum(ifelse(dados > 0, dados * log(emvpi), 0)) piteta = c(emvteta^2, emvteta * (1 - emvteta), emvteta * (1 emvteta), (1 - emvteta)^2) loglpiteta = sum(dados * log(piteta)) G2 = 2 * (loglpi - loglpiteta) esp = n * piteta X2 = sum((dados - esp)^2 / esp) cat("\n G2 =", G2, "(p =", pchisq(g2, 2, lower.tail = FALSE), ")") cat("\n X2 =", X2, "(p =", pchisq(x2, 2, lower.tail = FALSE), ")") G2 = 47.53287 (p = 4.768353e-11 ) X2 = 47.7652 (p = 4.24539e-11 ) Neste exemplo os valores de G 2 e X 2 são próximos. Ambas as estatísticas de teste indicam diferenças significativas em relação à hipótese formulada (p < 0,0001). 5

Figura 3. Função log-verossimilhança. 6