Modelos de Probabilidade e Inferência Estatística



Documentos relacionados
ANOVA. (Analysis of Variance) Prof. Dr. Guanis de Barros Vilela Junior

Capítulo 4 Inferência Estatística

Análise estatística. Aula de Bioestatística. 17/9/2008 (2.ª Parte) Paulo Nogueira

Modelos de Probabilidade e Inferência Estatística

Teste de Hipótese e Intervalo de Confiança. Parte 2

INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA. Prof. Anderson Rodrigo da Silva

Aula 12 Teste de hipótese sobre proporções amostras grandes

AULA 12 Inferência a Partir de Duas Amostras

Regressão linear múltipla. Prof. Tatiele Lacerda

Métodos Quantitativos Aplicados

25 a 30 de novembro de 2013

Análise de Regressão Linear Simples III

Testes Qui-Quadrado - Teste de Aderência

CAPÍTULO 8. de Variância - ANOVA ANOVA. Análise

cuja distribuição é t de Student com n 1 graus de liberdade.

Estimação. Como definir um estimador. Como obter estimativas pontuais. Como construir intervalos de confiança

Testes de variância e Análise de Variância (ANOVA)

Química Analítica IV ERRO E TRATAMENTO DE DADOS ANALÍTICOS

IND 1115 Inferência Estatística Aula 8

Consideremos os seguintes exemplos de hipóteses cuja veracidade interessa avaliar:

Planejamento e Análise Estatística de Experimentos Fatoriais em blocos completos

Inferência sobre duas proporções

Capítulo 5. Inferência no Modelo de Regressão Simples: Estimação de Intervalos, Teste de Hipóteses e Previsão

AULA 11 Experimentos Multinomiais e Tabelas de Contingência

AULA 04 Estimativas e Tamanhos Amostrais

Conteúdo. 1 Introdução. Histograma do 1o Sorteio da Nota Fiscal Paraná 152/15. 1º Sorteio Eletrônico da Nota Fiscal Paraná

Conteúdo. 1 Introdução. Histograma do Quinto Sorteio da Nota Fiscal Paraná 065/16. Quinto Sorteio Eletrônico da Nota Fiscal Paraná

Unidade 5.2. Teste de hipóteses. Hipótese estatística. (uma população) Formulando as hipóteses. Teste de Hipóteses X Intervalo de Confiança

Introdução. Ou seja, de certo modo esperamos que haja uma certa

Distribuições Conjuntas (Tabelas de Contingência)

MAE116 - Noções de Estatística

Probabilidade e Estatística, 2009/2

AMOSTRAGEM: DIMENSIONAMENTO DE AMOSTRAS. SELEÇÃO DOS ELEMENTOS DE UMA AMOSTRA. ESTIMATIVA DA CARACTERÍSTICA TOTAL DA POPULAÇÃO INVESTIGADA

Aula 8 Intervalos de confiança para proporções amostras grandes

Aula 11 Teste de hipótese sobre a média de uma população normal - σ 2 conhecida

Para mais de duas variáveis independentes, em função de uma variável dependente.

Teorema do Limite Central e Intervalo de Confiança

Tópico 9. Teste t-student

Universidade Federal do Amazonas Instituto de Ciências Exatas Departamento de Estatística

Análise de Regressão. Notas de Aula

Engenharia Econômica

Aula 8. Teste Binomial a uma proporção p

Teste de hipóteses para médias e proporções amostrais

3 Modelos de Simulação

BIOESTATÍSTICA. Parte 1 - Estatística descritiva e análise exploratória dos dados

PLANO DE ENSINO CONTEÚDO PROGRAMÁTICO. Unidade 1: MEDIDAS E GRANDEZAS Introdução Padrões usados para avaliar grandezas físicas

Testes Não Paramétricos

Inspeção de Qualidade

Regressão Linear Múltipla

Erros e Incertezas. Rafael Alves Batista Instituto de Física Gleb Wataghin Universidade Estadual de Campinas (Dated: 10 de Julho de 2011.

MEDIDAS DE DISPERSÃO. o grau de variabilidade, ou dispersão, dos valores em torno da média.

PARTE I - EVOLUÇÃO DO PENSAMENTO. Curso Análise de Dados e Políticas Públicas. Ementa. Metodologia. Plano de Aula

é 4. Portanto, o desvio padrão é 2. Neste caso 100% dos valores da população estão a um desvio padrão da média.

Medidas de dispersão e assimetria

Coeficiente de Assimetria e Curtose. Rinaldo Artes. Padronização., tem as seguintes propriedades: Momentos

Estatística II Aula 4. Prof.: Patricia Maria Bortolon, D. Sc.

SEEC UNIVERSIDADE DO ESTADO DO RIO GRANDE DO NORTE UERN FACULDADE DE CIÊNCIAS EXATAS E NATURAIS FANAT DEPARTAMENTO DE CIÊNCIAS BIOLÓGICAS DECB

Plano da Apresentação. Correlação e Regressão linear simples. Correlação linear. Associação entre hábitos leitura e escolaridade.

Correlação e Regressão linear simples

Análise estatística de medidas repetidas para avaliar o desempenho educacional de alunos do ensino fundamental

Aula 1 Variáveis aleatórias contínuas

Matemática Aplicada às Ciências Sociais

UNIDADE 6 TESTES DE HIPÓTESES OBJETIVOS ESPECÍFICOS DE APRENDIZAGEM

Desvio Padrão ou Erro Padrão

1 Introdução. 1.1 Importância da Utilização da Amostragem

Estatística. Aula 1 -Fundamentos e conceitos básicos (Notas de aula) Prof. Idemauro Antonio Rodrigues de Lara

Estatística. Slide 0. Ana M. Abreu /07

O QUE É AMOSTRAGEM? PARTE I

Lição 5 Medidas Descritivas Medidas de Dispersão

Experimento. Guia do professor. Quantos peixes há no lago? Secretaria de Educação a Distância. Ministério da Ciência e Tecnologia

Avaliação e Desempenho Aula 1 - Simulação

x = xi n x = xifi fi 1. MÉDIA Exercício: Quando a distribuição é simétrica, a média e a mediana coincidem.

Distribuição Binomial e Normal

IV Regressão e correlação IV.4. (cont.) Significância Estatística e Regressão Múltipla

Variáveis Frequências Gráficos Medidas de Posição Medidas de Dispersão Medidas Complementares Inferência

Tamanho da Amostra e Amostragem

Aula 6 Propagação de erros

Projecto Delfos: Escola de Matemática Para Jovens 1 TEORIA DOS NÚMEROS

Estatística AMOSTRAGEM

MOQ-14 PROJETO E ANÁLISE DE EXPERIMENTOS LISTA DE EXERCÍCIOS 3

Técnicas estatísticas para análise de dados e de resultados de modelos de simulação

MOQ 13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel

Stela Adami Vayego DEST/UFPR

ESCOLA SUPERIOR DE TECNOLOGIA DE SETÚBAL DEPARTAMENTO DE MATEMÁTICA PROBABILIDADES E ESTATÍSTICA Teste Final 2009/2010. Curso: 12/06/2010.

ANÁLISE EXPLORATÓRIA DE DADOS

Contabilometria. Análise Discriminante

Medidas de Tendência Central. Introdução Média Aritmética Moda Mediana

Medidas de Localização

Métodos Estatísticos Avançados em Epidemiologia

Intervalo de Confiança - Margem de Erro

AULAS 08 E 09 Distribuição de Probabilidade Normal

CIRCULAR TÉCNICA N o 171 NOVEMBRO 1989 TABELAS PARA CLASSIFICAÇÃO DO COEFICIENTE DE VARIAÇÃO

Modelos de Regressão Linear Simples - Erro Puro e Falta de Ajuste

Intervalos Estatísticos para Uma Única Amostra

UNIPAC Araguari FACAE - Faculdade de Ciências Administrativas e Exatas SISTEMAS DE INFORMAÇÃO

ESTATÍSTICA PARTE 1 OBJETIVO DA DISCIPLINA

3º Ano do Ensino Médio. Aula nº09 Prof. Paulo Henrique

Meta-análise: aplicações em fisioterapia

NORMA TÉCNICA PARA RECEBIMENTO DE BENS DE INFORMÁTICA PELA METODOLOGIA DE INSPEÇÃO POR ATRIBUTOS. Referência: NT-AI Data: 17/04/2.

Transcrição:

Modelos de Probabilidade e Inferência Estatística Ronei Marcos de Moraes Análise de Variância e Estatística Nãoparamétrica UFPB Maio/2011

ANOVA - Análise de Variância O caso da comparação de várias médias tem especial tratamento e uma das formas de fazê-la é através do método da Análise de Variância ou ANOVA. A ANOVA foi inicialmente desenvolvida pelo estatístico britânico Sir Ronald Fisher como instrumento para a análise de experimentos. A distribuição por amostragem da estatística "F" foi deduzida por Snedecor que, em homenagem a Fisher, denominou-a de estatística "F".

ANOVA - Análise de Variância A Análise de Variância é um método suficientemente poderoso para identificar diferenças entre as médias populacionais devidas a várias causas que atuam simultaneamente sobre os elementos da população. Nosso escopo é apresentar a idéia fundamental do método de forma simplificada, sem grande aprofundamento teórico, já que isso demandaria um maior domínio de técnicas matemáticas e fugiria a nossa meta.

ANOVA - Análise de Variância A ANOVA é usada para verificar se as média de duas ou mais populações são iguais. O teste se baseia numa amostra extraída de cada população, que dificilmente apresentarão médias exatamente iguais. A ANOVA determina se as diferenças entre as média amostrais, sugerem diferenças efetivas entre as médias das populações, ou se tais diferenças decorrem apenas da variabilidade implícita de cada amostra.

ANOVA - Análise de Variância Hipóteses: H0: µ 1 = µ 2 = = µ k H 1 : pelo menos uma média populacional difere das demais Se a hipótese nula é aceita, concluiremos que as diferenças entre as médias amostrais são devidas apenas a variações na amostra. Se a hipótese nula é rejeitada, concluiremos que as diferenças entre as amostras são demasiadamente grandes para serem devidas apenas a aleatoriedade.

ANOVA - Análise de Variância Este método requer algumas suposições de natureza teórica, que se não forem plenamente atendidos deverá ser evitada a sua aplicação. Há três suposições básicas que devem ser satisfeitas para que se possa aplicar a técnica da Análise de Variância. 1. As amostras devem ser retiradas de forma aleatórias e independente. 2. As amostras devem ser retiradas de populações distribuídas normalmente. 3. As populações devem apresentar variâncias iguais (homocedasticidade).

ANOVA - Análise de Variância Quando estas suposições são satisfeitas, a ANOVA é extremamente poderosa. Se as distribuições das populações, das quais se extraem as amostras, não são muito assimétricas, a exigência de normalidade não precisa ser estritamente satisfeita. Se as variâncias amostrais são aproximadamente iguais, a hipótese de variâncias populacionais iguais pode ser relaxada.

ANOVA - Análise de Variância Quando as variâncias amostrais parecem deferir consideravelmente, deve-se efetuar um teste de igualdade entre variâncias populacionais. Se tal teste indicar diferenças entre as variâncias populacionais, não devemos usar a Análise de Variância, pois a homocedasticidade é o pressuposto teórico de maior importância para o uso da ANOVA. Solução: pode-se usar um método não-paramétrico, como por exemplo, o teste de Kruskal-Wallis, que também será visto neste curso.

ANOVA - Análise de Variância Neste curso vamos estender nosso estudo até o caso de haver duas possíveis causas, ou fontes de variação. Então, veremos duas formas de ANOVA: Comparação de k populações independentes (um fator) Comparação de k populações relacionadas (dois fatores)

Teste de Homocedasticidade Várias formas de se verificar a Homocedasticidade existem na literatura: Veremos os seguintes: Avaliação gráfica Teste de Cochran Teste de Hartley Teste de Bartlett

Teste de Homocedasticidade Avaliação gráfica

Teste de Homocedasticidade Teste de Cochran para amostras do mesmo tamanho 1. Hipóteses H 0 : σ 1 2 = σ 2 2 =...= σ k 2 H 1 : Pelo menos uma variância difere das demais 2. Fixar o nível de significância α

Teste de Homocedasticidade 3. Teste de homocedasticidade para amostras de mesmo tamanho => Estatística de Cochran 4. Região Crítica. Os valores críticos g, que delimitam as regiões de aceitação e rejeição para o teste de Cochran, são fornecidos em função de n (tamanho das amostras) e k (número de populações) e são apresentados na Tabela de Cochran para um determinado α.

Teste de Homocedasticidade 5. Estatística de Prova. g c = maxs 2 i k i=1 s i 2 i=1,2,...,k onde s i 2 = n j=1 x j x i 2 n 1 6. Decisão Se g c > g Rejeita-se H 0 7. Conclusão Final.

Teste de Homocedasticidade Teste de Hartley Usa os mesmos 7 passos de todos os testes de hipóteses, porém difere nos passos: 3. Distribuição F de Snedecor, com parâmetros α, k, n-1. 5. Estatística de Prova F max = max s i 2 min s i 2 6. Decisão: Se F max > F α, k, n-1 então Rejeita-se H 0

Teste de Homocedasticidade Teste de Barlett Difere nos passos: 3. Distribuição Qui-quadrado, com parâmetros (1-α, k-1). 5. Estatística de Prova 6. Decisão: Se χ 2 c > χ2 1- α, k-1 então Rejeita-se H 0

Teste de Homocedasticidade Uso dos testes: Avaliação gráfica Serve para visualizar os dados e saber o que esperar dos testes Teste de Cochran, Hartley e de Bartlett Na maioria das situações práticas, os testes de Cochran e de Hartley levam a conclusões similares. O teste de Cochran utiliza mais informação dos dados amostrais e em geral é mais sensível que o teste de Hartley. Quando a hipótese de normalidade é satisfeita, o teste de Barlett é o mais poderoso dos três. Os testes de Cochran e de Hartley requerem que os tamanhos de amostra sejam iguais. Se os tamanhos diferem, mas não muito, eles ainda podem ser usados como testes aproximados. Nesse caso, o valor de n deveria ser o tamanho amostral, entretanto, alguns recomendam utilizar o maior valor de n. Isso resultará em uma probabilidade do erro tipo I ligeiramente maior do que o valor prescrito.

Teste de Homocedasticidade Uso dos testes: Teste de Cochran, Hartley e de Bartlett Todos os testes são sensíveis a desvios da normalidade. Em particular, o tese de Bartlett é muito sensível à desvios da normalidade. Um p-valor baixo no tese de Bartlett pode ser devido a nãonormalidade dos dados, mais do que a própria desigualdade das variâncias. A distribuição χ 2 é apenas assintótica. Uma regra comum é considerar que o teste apenas deve ser usado caso n i > 5, i = 1,.., k.

Teste de Homocedasticidade Exemplo: Quatro amostras de cinco elementos cada, extraídas de populações normais e independentes, forneceram variâncias iguais a 1,0; 3,5; 5,0 e 2,0. Existe evidência, ao nível de 5% de significância, de que as populações não tenham todas a mesma variância? Use o Teste de Cochran.

Teste de Homocedasticidade Solução: Hipóteses: H 0 : todas as populações possuem a mesma variância. H 1 : pelo menos uma das variâncias difere das demais. g c = 0,43478261 g = 0,6287 Decisão: aceita-se H 0 Conclusão: Ao nível de 5% de significância não existe evidência de que todas as populações não possuam a mesma variância.

ANOVA Um Fator Consideraremos "k" amostras de tamanho "n", retiradas de "k" populações cujas médias queremos comparar.

ANOVA Um Fator

ANOVA Um Fator Se admitirmos que a hipótese nula (H 0 ) é verdadeira, então existem três maneiras pelas quais a variância σ 2, comum implicitamente a todas as populações, pode ser estimada por: S T 2 = k i=1 n j=1 x ij x 2 nk 1 O numerador deste quociente é denominado por SOMA DE QUADRADOS TOTAL, SQT, ou seja: SQT=Q T 2 nk = Q T 2 nk nk 1

ANOVA Um Fator Novamente se admitirmos que H 0 é verdadeira, podemos também considerar as médias das k amostras, como uma amostra de k valores retirados da população de possíveis valores de x. Sabemos que x é normalmente distribuída com variância σ²/n, assim, temos um segundo estimador 2 S de σ² que denotaremos por E, que é obtido através da expressão: S E 2 = i=1 k T i 2 n T 2 nk k 1

ANOVA Um Fator O numerador desta quociente é denominado SOMA DE QUADRADOS ENTRE AMOSTRAS, SQE, ou seja: SQE= k i=1 n T i 2 T 2 nk A variância σ² pode ainda ser estimada individualmente a partir dos elementos de cada amostra, ou seja, dentro de cada amostra. Obtemos um estimador de σ² para cada uma das k amostras.

ANOVA Um Fator A média desses valores será o estimador de σ² que será 2 denotado por S R e obtido pela expressão: Q S 2 R = k 2 T i i=1 n k n 1 Ao numerador deste quociente denominamos de SOMA DE QUADRADOS DE RESÍDUOS, SQR, ou seja: SQR=Q k i=1 n T i 2 SQR = SQT SQE

ANOVA Um Fator Em uma Análise de Variância com um fator, apenas uma variável independente é analisada, o modelo relativo aos componentes da variância total, é o seguinte: onde: S T 2 =S E 2 +S R 2 S T 2 = variância total S E 2 = variância do tratamento S R 2 = variância do erro ou residual

. ANOVA Um Fator

ANOVA Um Fator Se a hipótese nula for falsa, o valor esperado do QME será maior que o do QMR. Isto porque todas as diferenças entre as médias populacionais inflacionarão o QME, enquanto o QMR não será afetado. Se F c >F k 1,k n 1 ;α Rejeita-se H 0

ANOVA Um Fator Exemplo: Quinze pessoas que participaram de um programa de treinamento são colocadas, de forma aleatória, sob três tipos diferentes formas de treinamento, relacionados com o atendimento em PSFs. Os graus obtidos no teste de conclusão do treinamento, são apresentados na tabela abaixo. Usar o procedimento da ANOVA para testar a hipótese de igualdade das médias populacionais.

ANOVA Um Fator

ANOVA Um Fator Solução: Inicialmente, o problema não menciona a questão da normalidade e da independência das amostras. Como isso é um exercício, vamos assumir a normalidade e da independência das amostras. Se fôsse um caso real, deveríamos testar a normalidade e a independência. Porém, já sabemos testar a homocedasticidade das variâncias e devemos fazê-lo.

ANOVA Um Fator Teste de homocedasticidade: Hipóteses: H 0 : todos os métodos de treinamento possuem a mesma variância. H 1 : pelo menos uma das variâncias difere das demais. g c = 0,34843206 g = 0,7457 Decisão: aceita-se H 0 Conclusão: Ao nível de 5% de significância existe evidência de que os graus dos métodos de treinamento possuem a mesma variância.

ANOVA Um Fator ANOVA: Hipóteses: H 0 : todos os métodos de treinamento possuem médias iguais. H 1 : pelo menos uma das médias difere das demais.

ANOVA Um Fator Tabela ANOVA Decisão: rejeita-se Ho, pois 15,085 > F (2,12,0,05) = 3,89 Conclusão: Conclui-se que ao nível de 5% de significância pelo menos uma das médias dos treinamentos difere das demais.

Comparações Múltiplas O método da Análise de Variância apenas aceita ou rejeita a hipótese H 0 (igualdade entre as médias populacionais). Se H 0 for rejeitada, estamos admitindo que pelo menos uma média é diferente das demais. Surge, porém uma questão: Quais médias devem ser consideradas diferentes de quais outras? Vários autores sugeriram procedimentos. Veremos alguns deles.

Comparações Múltiplas Entretanto, existe um problema estatístico: o italiano Bonferroni mostrou que quando se compara várias populações, alguns métodos não conseguem manter o erro tipo I global (ou "family-wise ) constante no valor α especificado. Por isso propôs uma forma de correção, chamada Correção de Bonferroni. Nela, se 4 populações estão sendo comparadas, o máximo erro tipo global permitido é α = 0,05. Então o número de pares é C=4(4-1)/2=6 e a Correção de Bonferroni dá como resposta α = 0,05/6=0,0083. Assim, a probabilidade de concluir erronemanete que pelo menos um par de médias diferem não é maior do que 0,05.

Comparações Múltiplas A Correção de Bonferroni infla o erro do tipo II, isto é, deixamos de identificar diferenças que podem existir. A Correção de Bonferroni, não pode ser utilizada se as características apresentam correlação.

Comparações Múltiplas Muitos dos pós-testes ou teste post-hoc (a posteriori da ANOVA) são modificações do famoso teste t. Eles servem para comparações múltiplas, do mesmo modo que para o fato que as comparações estão relacionadas. Veremos os testes paramétricos de Bonferroni, Sheffé e Tuckey HSD.

Comparações Múltiplas Teste de Bonferroni O Teste de Bonferroni usa a Correção do mesmo autor sobre uma classe de testes denominada LSD (Least Significant Difference), derivados do teste t. Neste teste, devem ser consideradas distintas entre si, e ao nível de significância α = α /C (Correção de Bonferroni), as médias µ i e µ j, tais que: x i x j >Δ, onde Δ= t α ', n k S 2 R 1 n i 1 n j

Comparações Múltiplas Teste de Sheffé Scheffé demonstrou que devem ser consideradas distintas entre si, e ao nível de significância adotado, as médias µ i e µ j, tais que: x i x j >Δ, onde D= S 2 2 k 1 R n F t

Comparações Múltiplas Teste de Sheffé Se um número grande de contrastes é de interesse, ou não é com antecedência conhecido quais são de interesse, o teste de Scheffé provê um modo para bisbilhotar por todas as possibilidades enquanto mantendo controle na cobertura de intervalos de confiança e as falsas taxas positivas de testes. O teste de Scheffé é exato, se o interesse é em todos os contrastes (entretanto, essa é uma situação mais difícil de ocorrer).

Comparações Múltiplas Teste de Sheffé Este teste está intimamente conectado com a ANOVA: a ANOVA é significante se e só se algum contraste apresentar um intervalo de confiança de Scheffé significante. Em particular, se a ANOVA não for significante, então nenhum dos intervalos de confiança de Scheffé será significante.

Comparações Múltiplas Teste de Tukey HSD O teste de Tukey HSD (Honestly Significant Differences) é um dos métodos que assegura que a chance de encontrar uma diferença significativa em qualquer comparação sob a hipótese nula é mantida ao nível alfa original do teste, ou seja, preserva o erro tipo I global.

Comparações Múltiplas Teste de Tukey HSD O teste de Tukey HSD considera a diferença entre as médias µ i e µ j, quando onde: Δ= S 2 1 R n q α,k,dfr x i x j >Δ e q é a estatística de Tukey com parâmetros (α, k, dfr), onde dfr é o número de graus de liberdade do resíduo da ANOVA.

Comparações Múltiplas Teste de Tukey HSD Em tese, não há uma boa razão para usar inicialmente o teste de Tukey HSD após a ANOVA. Como o teste de Tukey HSD controla o erro tipo I global, é desnecessário precedê-lo pela ANOVA.

Comparações Múltiplas Comparação de Método de Bonferroni, Scheffé e Tukey HSD Se só comparações emparelhadas serão feitas, o método de Tukey HSD resultará em um intervalo de confiança mais estreito que é preferível (sobre o método de Sheffé) No caso geral quando muitos ou todos os contrastes poderiam ser de interesse, o método de Scheffé tende a dar um intervalo confiança mais estreito e é então o método preferido (sobre o método de Tukey HSD). Se todas as comparações emparelhadas forem de interesse, Tukey HSD tem a preferência.

Comparações Múltiplas Comparação de Método de Bonferroni com Scheffé e Método de Tukey HSD Se só um subconjunto de comparações emparelhadas é requerido, Bonferroni às vezes pode ser melhor. Quando o número de contrastes a ser calculado é pequeno, Bonferroni é melhor que Scheffé. Nenhum único método de comparações múltiplas é uniformemente melhor entre todos os métodos. Muitos pacotes estatísticos incluem os três métodos. Então, estude seu problema e selecione o método com menor intervalo de confiança.

Comparações Múltiplas Exemplo: Usando o Teste de Scheffé, quais foram as médias responsáveis pela rejeição da hipótese nula no exemplo anterior.

Comparações Múltiplas Solução pelo Teste de Scheffé: 2 S R = 0,383, k=3, n=5, F (2,12,0,05) = 3,89 = 1,0906039 x 1 x 2 = 0,90 < não significativo x 1 x 3 = 1,24 > significativo x 2 x 3 = 2,14 > significativo Conclusão: Ao nível de 5% de significância conclui-se que apenas os métodos de treinamento 1 e 2 são semelhantes.

Comparações Múltiplas Exemplo: Usando o Teste de Tukey HSD, quais foram as médias responsáveis pela rejeição da hipótese nula no exemplo anterior.

Comparações Múltiplas Solução pelo Teste de Tukey HSD: 2 S R = 0,383, n=5, q (0,05;3;12) = 3,77 = 1,043412 x 1 x 2 x 1 x 3 x 2 x 3 = 0,90 < não significativo = 1,24 > significativo = 2,14 > significativo Conclusão: Ao nível de 5% de significância conclui-se que apenas os métodos de treinamento 1 e 2 são semelhantes.

ANOVA Dois Fatores Na ANOVA com dois fatores, vamos admitir que cada elemento da amostra tenha sido classificado segundo dois critérios, constituindo duas classificações cruzadas. Admitiremos que exista um total de "nk" observações, constituindo "k" amostras de "n" elementos segundo cada um dos tratamentos (coluna). Adicionalmente, consideramos que cada exista um emparelhamento por cada linha, o qual denominaremos de blocos.

ANOVA Dois Fatores As nk observações são dispostas em uma tabela com n linhas e k colunas.

ANOVA Dois Fatores

ANOVA Dois Fatores Hipóteses: H 01 :m. 1 =m. 2 =... =m. k (todos os tratamentos possuem médias iguais) H 02 : m 1. =m 2. =... =m n. (todos os blocos possuem médias iguais) H 11 : Pelo menos um dos tratamentos apresenta média diferente dos demais H 12 : Pelo menos um dos blocos apresenta média diferente dos demais

ANOVA Dois Fatores Note-se que agora existem duas hipóteses nulas (H 01 e H 02 ). H 01, como antes, refere-se aos tratamentos e H 02 aos blocos. Como antes, a SOMA DE QUADRADOS TOTAL, SQT, é dada por: SQT=Q T 2 nk

ANOVA Dois Fatores A segunda parcela da variação é dada pela SOMA DOS QUADRADOS ENTRE OS TRATAMENTOS, SQET: SQET= n 2 T. j j=1 n T 2 nk Uma outra parcela da variação é dada pela SOMA DOS QUADRADOS ENTRE OS BLOCOS, SQEB: SQEB= k i=1 k 2 B i. T 2 nk

ANOVA Dois Fatores Como na ANOVA - Um fator, a variação restante, é dada pela SOMA DE QUADRADOS DE RESÍDUOS, SQR, ou seja: SQR = SQT - SQET - SQEB

ANOVA Dois Fatores Em uma Análise de Variância com dois fatores, o modelo relativo aos componentes da variância total é dado por: onde: S 2 2 T =S ET S T 2 = variância total 2 S ET S EB +S 2 2 EB +S R = variância do tratamento 2 =variância do bloco S R 2 = variância do erro ou residual

. ANOVA Dois Fatores

ANOVA Dois Fatores Se a hipótese nula 1 for falsa, o valor esperado do QMET será maior que o do QMR. Assim: Se F t >F k 1; k 1 n 1 ;α Rejeita-se H 01 Se a hipótese nula 2 for falsa, o valor esperado do QMEB será maior que o do QMR. Assim: Se F b >F n 1 ; k 1 n 1 ;α Rejeita-se H 02

ANOVA Dois Fatores Exemplo: Os dados que se seguem representam o tempo em segundos gastos por cinco enfermeiros para realizar certo procedimento em quatro postos de saúde diferentes. Ao nível de 5% de significância, verifique de existe diferença assimilável entre postos e entre enfermeiros.

ANOVA Dois Fatores

ANOVA Dois Fatores Solução: Inicialmente, o problema não menciona a questão da normalidade e da independência das amostras, nem para os Postos de Saúde e nem para os Enfermeiros. Como isso é um exercício, vamos assumir a normalidade e da independência para os Postos de Saúde e para os Enfermeiros. Se fôsse um caso real, deveríamos testar a normalidade e a independência de ambos. Porém, já sabemos testar a homocedasticidade das variâncias e devemos fazê-lo para todos eles.

ANOVA Dois Fatores Teste de homocedasticidade para os Postos de Saúde: Hipóteses: H 0 : todos os Postos de Saúde possuem a mesma variância no tempo de realização do procedimento. H 1 : pelo menos um dos Postos de Saúde tem variância no tempo de realização do procedimento diferente dos demais. g c = 0,48504551 g = 0,7457 Decisão: aceita-se H 0

ANOVA Dois Fatores Conclusão: Ao nível de 5% de significância pode-se considerar que todos os Postos de Saúde possuem a mesma variância no tempo de realização do procedimento.

ANOVA Dois Fatores Teste de homocedasticidade para os Enfermeiros: Hipóteses: H 0 : todos Enfermeiros possuem a mesma variância no tempo de realização do procedimento. H 1 : pelo menos um dos Enferemeiros tem variância no tempo de realização do procedimento diferente dos demais. g c = 0,42778342 g = 0,6287 Decisão: aceita-se H 0

ANOVA Dois Fatores Conclusão: Ao nível de 5% de significância pode-se considerar que todos os Enfermeiros possuem a mesma variância no tempo de realização do procedimento. Como foi comprovada a homocedasticidade dos Postos de Saúde e dos Enfermeiros, quanto ao tempo de realização do procedimento, então podemos realizar a ANOVA dois fatores.

ANOVA Dois Fatores Hipóteses: H 01 : todos os Postos de Saúde possuem tempos médios iguais na realização do procedimento. H 02 : todos os Enfermeiros possuem tempos médios iguais na realização do procedimento. H 11 : pelo menos um dos Postos de Saúde possui tempo médio diferente na realização do procedimento em relação aos demais. H 12 : pelo menos um dos Enfermeiros possui tempo médio diferente na realização do procedimento em relação aos demais.

Cálculos: ANOVA Dois Fatores

ANOVA Dois Fatores Tabela ANOVA Decisão: rejeita-se H 01, pois 26,577 > F (3,12,0,05) = 3,49 aceita-se H 02, pois 1,096 < F (4,12,0,05) = 3,26

ANOVA Dois Fatores Conclusão: Conclui-se que ao nível de 5% de significância que os Enfermeiros possuem tempos médios iguais na realização do procedimento, mas que pelo menos um dos Postos de Saúde possui tempo médio diferente na realização do procedimento em relação aos demais.

Comparações Múltiplas Os testes post-hoc para a ANOVA dois fatores são modificações dos testes para a ANOVA um fator. Eles têm a mesma serventia, porém são capazes de comparações múltiplas entre tratamentos e também entre blocos. Veremos os testes de Sheffé e Tuckey HSD.

Comparações Múltiplas Teste de Sheffé Scheffé demonstrou que devem ser consideradas distintas entre si, e ao nível de significância adotado, as médias µ i e µ j, dos tratamentos, tais que: x. i x. j >Δ t, onde D t= S 2 2 k 1 R n F tt

Comparações Múltiplas Teste de Sheffé Devem ser consideradas diferentes, as médias µ i e µ j, dos blocos, ao nível de significância, tais que: x i. x. j. >Δ b, onde D b= S 2 2 n 1 R k F tb

Comparações Múltiplas Teste de Tukey HSD O teste de Tukey HSD considera a diferença entre as médias µ i e µ j, dos tratamentos, quando x. i x. j >Δ t onde: Δ t= S 2 1 R n q α,k,dfr e q é a estatística de Tukey com parâmetros (α, k, dfr), onde dfr é o número de graus de liberdade do resíduo da ANOVA.

Comparações Múltiplas Teste de Tukey HSD Considera a diferença entre as médias µ i e µ j, dos blocos, quando onde: x i. x. j. >Δ b Δ b= S 2 1 R k q α,n,dfr e q é a estatística de Tukey com parâmetros (α, n, dfr), onde dfr é o número de graus de liberdade do resíduo da ANOVA.

Comparações Múltiplas Exemplo: Usando o Teste de Scheffé, quais foram as médias responsáveis pela rejeição da hipótese nula no exemplo anterior.

Comparações Múltiplas Solução pelo Teste de Scheffé: 2 S R = 18,775, k=4, n=5, F (3,12,0,05) = 3,49 = 8,86772 x A x B = 12,40 > significativo = 0,40 < não significativo = 20,60 > significativo = 12,00 > significativo = 8,20 < não significativo = 20,20 > significativo x A x C x A x D x B x C x B x D x C x D

Comparações Múltiplas Solução pelo Teste de Scheffé: Conclusão: Ao nível de 5% de significância concluise que somente os Postos de Saúde A e C; B e D são semelhantes.

Referências Hector G. Arango, Bioestatística Teórica e Computacional (2005). Rio de Janeiro: Ed. Guanabara Koogan, 2a ed. Hardeo Sahai, Mohammed I. Ageel (2000) Analysis of Variance: Fixed, Random and Mixed Models. Birkhäuser Boston; 1st ed. Goldshmidt, Day e Richardson (2000) em "Effects of Prenatal Marijuana Exposure on Child Behavior Problems at Age 10" publicado na Neurotoxicol. and Tetratol., 22, pg. 325-336. Brian S. Yandell (1997) Practical Data Analysis for Designed Experiments. Chapman & Hall/CRC; 1st ed. John Verzani (2005) Using R for Introductory Statistics. Boca Raton: Chapman & Hall/CRC. Psychology World (2009) Tukey's Post Hoc Test. Disponível em <http://web.mst.edu/~psyworld/tukeys4mean.htm>, maio de 2009.