Modelos de Probabilidade e Inferência Estatística Ronei Marcos de Moraes Análise de Variância e Estatística Nãoparamétrica UFPB Maio/2011
ANOVA - Análise de Variância O caso da comparação de várias médias tem especial tratamento e uma das formas de fazê-la é através do método da Análise de Variância ou ANOVA. A ANOVA foi inicialmente desenvolvida pelo estatístico britânico Sir Ronald Fisher como instrumento para a análise de experimentos. A distribuição por amostragem da estatística "F" foi deduzida por Snedecor que, em homenagem a Fisher, denominou-a de estatística "F".
ANOVA - Análise de Variância A Análise de Variância é um método suficientemente poderoso para identificar diferenças entre as médias populacionais devidas a várias causas que atuam simultaneamente sobre os elementos da população. Nosso escopo é apresentar a idéia fundamental do método de forma simplificada, sem grande aprofundamento teórico, já que isso demandaria um maior domínio de técnicas matemáticas e fugiria a nossa meta.
ANOVA - Análise de Variância A ANOVA é usada para verificar se as média de duas ou mais populações são iguais. O teste se baseia numa amostra extraída de cada população, que dificilmente apresentarão médias exatamente iguais. A ANOVA determina se as diferenças entre as média amostrais, sugerem diferenças efetivas entre as médias das populações, ou se tais diferenças decorrem apenas da variabilidade implícita de cada amostra.
ANOVA - Análise de Variância Hipóteses: H0: µ 1 = µ 2 = = µ k H 1 : pelo menos uma média populacional difere das demais Se a hipótese nula é aceita, concluiremos que as diferenças entre as médias amostrais são devidas apenas a variações na amostra. Se a hipótese nula é rejeitada, concluiremos que as diferenças entre as amostras são demasiadamente grandes para serem devidas apenas a aleatoriedade.
ANOVA - Análise de Variância Este método requer algumas suposições de natureza teórica, que se não forem plenamente atendidos deverá ser evitada a sua aplicação. Há três suposições básicas que devem ser satisfeitas para que se possa aplicar a técnica da Análise de Variância. 1. As amostras devem ser retiradas de forma aleatórias e independente. 2. As amostras devem ser retiradas de populações distribuídas normalmente. 3. As populações devem apresentar variâncias iguais (homocedasticidade).
ANOVA - Análise de Variância Quando estas suposições são satisfeitas, a ANOVA é extremamente poderosa. Se as distribuições das populações, das quais se extraem as amostras, não são muito assimétricas, a exigência de normalidade não precisa ser estritamente satisfeita. Se as variâncias amostrais são aproximadamente iguais, a hipótese de variâncias populacionais iguais pode ser relaxada.
ANOVA - Análise de Variância Quando as variâncias amostrais parecem deferir consideravelmente, deve-se efetuar um teste de igualdade entre variâncias populacionais. Se tal teste indicar diferenças entre as variâncias populacionais, não devemos usar a Análise de Variância, pois a homocedasticidade é o pressuposto teórico de maior importância para o uso da ANOVA. Solução: pode-se usar um método não-paramétrico, como por exemplo, o teste de Kruskal-Wallis, que também será visto neste curso.
ANOVA - Análise de Variância Neste curso vamos estender nosso estudo até o caso de haver duas possíveis causas, ou fontes de variação. Então, veremos duas formas de ANOVA: Comparação de k populações independentes (um fator) Comparação de k populações relacionadas (dois fatores)
Teste de Homocedasticidade Várias formas de se verificar a Homocedasticidade existem na literatura: Veremos os seguintes: Avaliação gráfica Teste de Cochran Teste de Hartley Teste de Bartlett
Teste de Homocedasticidade Avaliação gráfica
Teste de Homocedasticidade Teste de Cochran para amostras do mesmo tamanho 1. Hipóteses H 0 : σ 1 2 = σ 2 2 =...= σ k 2 H 1 : Pelo menos uma variância difere das demais 2. Fixar o nível de significância α
Teste de Homocedasticidade 3. Teste de homocedasticidade para amostras de mesmo tamanho => Estatística de Cochran 4. Região Crítica. Os valores críticos g, que delimitam as regiões de aceitação e rejeição para o teste de Cochran, são fornecidos em função de n (tamanho das amostras) e k (número de populações) e são apresentados na Tabela de Cochran para um determinado α.
Teste de Homocedasticidade 5. Estatística de Prova. g c = maxs 2 i k i=1 s i 2 i=1,2,...,k onde s i 2 = n j=1 x j x i 2 n 1 6. Decisão Se g c > g Rejeita-se H 0 7. Conclusão Final.
Teste de Homocedasticidade Teste de Hartley Usa os mesmos 7 passos de todos os testes de hipóteses, porém difere nos passos: 3. Distribuição F de Snedecor, com parâmetros α, k, n-1. 5. Estatística de Prova F max = max s i 2 min s i 2 6. Decisão: Se F max > F α, k, n-1 então Rejeita-se H 0
Teste de Homocedasticidade Teste de Barlett Difere nos passos: 3. Distribuição Qui-quadrado, com parâmetros (1-α, k-1). 5. Estatística de Prova 6. Decisão: Se χ 2 c > χ2 1- α, k-1 então Rejeita-se H 0
Teste de Homocedasticidade Uso dos testes: Avaliação gráfica Serve para visualizar os dados e saber o que esperar dos testes Teste de Cochran, Hartley e de Bartlett Na maioria das situações práticas, os testes de Cochran e de Hartley levam a conclusões similares. O teste de Cochran utiliza mais informação dos dados amostrais e em geral é mais sensível que o teste de Hartley. Quando a hipótese de normalidade é satisfeita, o teste de Barlett é o mais poderoso dos três. Os testes de Cochran e de Hartley requerem que os tamanhos de amostra sejam iguais. Se os tamanhos diferem, mas não muito, eles ainda podem ser usados como testes aproximados. Nesse caso, o valor de n deveria ser o tamanho amostral, entretanto, alguns recomendam utilizar o maior valor de n. Isso resultará em uma probabilidade do erro tipo I ligeiramente maior do que o valor prescrito.
Teste de Homocedasticidade Uso dos testes: Teste de Cochran, Hartley e de Bartlett Todos os testes são sensíveis a desvios da normalidade. Em particular, o tese de Bartlett é muito sensível à desvios da normalidade. Um p-valor baixo no tese de Bartlett pode ser devido a nãonormalidade dos dados, mais do que a própria desigualdade das variâncias. A distribuição χ 2 é apenas assintótica. Uma regra comum é considerar que o teste apenas deve ser usado caso n i > 5, i = 1,.., k.
Teste de Homocedasticidade Exemplo: Quatro amostras de cinco elementos cada, extraídas de populações normais e independentes, forneceram variâncias iguais a 1,0; 3,5; 5,0 e 2,0. Existe evidência, ao nível de 5% de significância, de que as populações não tenham todas a mesma variância? Use o Teste de Cochran.
Teste de Homocedasticidade Solução: Hipóteses: H 0 : todas as populações possuem a mesma variância. H 1 : pelo menos uma das variâncias difere das demais. g c = 0,43478261 g = 0,6287 Decisão: aceita-se H 0 Conclusão: Ao nível de 5% de significância não existe evidência de que todas as populações não possuam a mesma variância.
ANOVA Um Fator Consideraremos "k" amostras de tamanho "n", retiradas de "k" populações cujas médias queremos comparar.
ANOVA Um Fator
ANOVA Um Fator Se admitirmos que a hipótese nula (H 0 ) é verdadeira, então existem três maneiras pelas quais a variância σ 2, comum implicitamente a todas as populações, pode ser estimada por: S T 2 = k i=1 n j=1 x ij x 2 nk 1 O numerador deste quociente é denominado por SOMA DE QUADRADOS TOTAL, SQT, ou seja: SQT=Q T 2 nk = Q T 2 nk nk 1
ANOVA Um Fator Novamente se admitirmos que H 0 é verdadeira, podemos também considerar as médias das k amostras, como uma amostra de k valores retirados da população de possíveis valores de x. Sabemos que x é normalmente distribuída com variância σ²/n, assim, temos um segundo estimador 2 S de σ² que denotaremos por E, que é obtido através da expressão: S E 2 = i=1 k T i 2 n T 2 nk k 1
ANOVA Um Fator O numerador desta quociente é denominado SOMA DE QUADRADOS ENTRE AMOSTRAS, SQE, ou seja: SQE= k i=1 n T i 2 T 2 nk A variância σ² pode ainda ser estimada individualmente a partir dos elementos de cada amostra, ou seja, dentro de cada amostra. Obtemos um estimador de σ² para cada uma das k amostras.
ANOVA Um Fator A média desses valores será o estimador de σ² que será 2 denotado por S R e obtido pela expressão: Q S 2 R = k 2 T i i=1 n k n 1 Ao numerador deste quociente denominamos de SOMA DE QUADRADOS DE RESÍDUOS, SQR, ou seja: SQR=Q k i=1 n T i 2 SQR = SQT SQE
ANOVA Um Fator Em uma Análise de Variância com um fator, apenas uma variável independente é analisada, o modelo relativo aos componentes da variância total, é o seguinte: onde: S T 2 =S E 2 +S R 2 S T 2 = variância total S E 2 = variância do tratamento S R 2 = variância do erro ou residual
. ANOVA Um Fator
ANOVA Um Fator Se a hipótese nula for falsa, o valor esperado do QME será maior que o do QMR. Isto porque todas as diferenças entre as médias populacionais inflacionarão o QME, enquanto o QMR não será afetado. Se F c >F k 1,k n 1 ;α Rejeita-se H 0
ANOVA Um Fator Exemplo: Quinze pessoas que participaram de um programa de treinamento são colocadas, de forma aleatória, sob três tipos diferentes formas de treinamento, relacionados com o atendimento em PSFs. Os graus obtidos no teste de conclusão do treinamento, são apresentados na tabela abaixo. Usar o procedimento da ANOVA para testar a hipótese de igualdade das médias populacionais.
ANOVA Um Fator
ANOVA Um Fator Solução: Inicialmente, o problema não menciona a questão da normalidade e da independência das amostras. Como isso é um exercício, vamos assumir a normalidade e da independência das amostras. Se fôsse um caso real, deveríamos testar a normalidade e a independência. Porém, já sabemos testar a homocedasticidade das variâncias e devemos fazê-lo.
ANOVA Um Fator Teste de homocedasticidade: Hipóteses: H 0 : todos os métodos de treinamento possuem a mesma variância. H 1 : pelo menos uma das variâncias difere das demais. g c = 0,34843206 g = 0,7457 Decisão: aceita-se H 0 Conclusão: Ao nível de 5% de significância existe evidência de que os graus dos métodos de treinamento possuem a mesma variância.
ANOVA Um Fator ANOVA: Hipóteses: H 0 : todos os métodos de treinamento possuem médias iguais. H 1 : pelo menos uma das médias difere das demais.
ANOVA Um Fator Tabela ANOVA Decisão: rejeita-se Ho, pois 15,085 > F (2,12,0,05) = 3,89 Conclusão: Conclui-se que ao nível de 5% de significância pelo menos uma das médias dos treinamentos difere das demais.
Comparações Múltiplas O método da Análise de Variância apenas aceita ou rejeita a hipótese H 0 (igualdade entre as médias populacionais). Se H 0 for rejeitada, estamos admitindo que pelo menos uma média é diferente das demais. Surge, porém uma questão: Quais médias devem ser consideradas diferentes de quais outras? Vários autores sugeriram procedimentos. Veremos alguns deles.
Comparações Múltiplas Entretanto, existe um problema estatístico: o italiano Bonferroni mostrou que quando se compara várias populações, alguns métodos não conseguem manter o erro tipo I global (ou "family-wise ) constante no valor α especificado. Por isso propôs uma forma de correção, chamada Correção de Bonferroni. Nela, se 4 populações estão sendo comparadas, o máximo erro tipo global permitido é α = 0,05. Então o número de pares é C=4(4-1)/2=6 e a Correção de Bonferroni dá como resposta α = 0,05/6=0,0083. Assim, a probabilidade de concluir erronemanete que pelo menos um par de médias diferem não é maior do que 0,05.
Comparações Múltiplas A Correção de Bonferroni infla o erro do tipo II, isto é, deixamos de identificar diferenças que podem existir. A Correção de Bonferroni, não pode ser utilizada se as características apresentam correlação.
Comparações Múltiplas Muitos dos pós-testes ou teste post-hoc (a posteriori da ANOVA) são modificações do famoso teste t. Eles servem para comparações múltiplas, do mesmo modo que para o fato que as comparações estão relacionadas. Veremos os testes paramétricos de Bonferroni, Sheffé e Tuckey HSD.
Comparações Múltiplas Teste de Bonferroni O Teste de Bonferroni usa a Correção do mesmo autor sobre uma classe de testes denominada LSD (Least Significant Difference), derivados do teste t. Neste teste, devem ser consideradas distintas entre si, e ao nível de significância α = α /C (Correção de Bonferroni), as médias µ i e µ j, tais que: x i x j >Δ, onde Δ= t α ', n k S 2 R 1 n i 1 n j
Comparações Múltiplas Teste de Sheffé Scheffé demonstrou que devem ser consideradas distintas entre si, e ao nível de significância adotado, as médias µ i e µ j, tais que: x i x j >Δ, onde D= S 2 2 k 1 R n F t
Comparações Múltiplas Teste de Sheffé Se um número grande de contrastes é de interesse, ou não é com antecedência conhecido quais são de interesse, o teste de Scheffé provê um modo para bisbilhotar por todas as possibilidades enquanto mantendo controle na cobertura de intervalos de confiança e as falsas taxas positivas de testes. O teste de Scheffé é exato, se o interesse é em todos os contrastes (entretanto, essa é uma situação mais difícil de ocorrer).
Comparações Múltiplas Teste de Sheffé Este teste está intimamente conectado com a ANOVA: a ANOVA é significante se e só se algum contraste apresentar um intervalo de confiança de Scheffé significante. Em particular, se a ANOVA não for significante, então nenhum dos intervalos de confiança de Scheffé será significante.
Comparações Múltiplas Teste de Tukey HSD O teste de Tukey HSD (Honestly Significant Differences) é um dos métodos que assegura que a chance de encontrar uma diferença significativa em qualquer comparação sob a hipótese nula é mantida ao nível alfa original do teste, ou seja, preserva o erro tipo I global.
Comparações Múltiplas Teste de Tukey HSD O teste de Tukey HSD considera a diferença entre as médias µ i e µ j, quando onde: Δ= S 2 1 R n q α,k,dfr x i x j >Δ e q é a estatística de Tukey com parâmetros (α, k, dfr), onde dfr é o número de graus de liberdade do resíduo da ANOVA.
Comparações Múltiplas Teste de Tukey HSD Em tese, não há uma boa razão para usar inicialmente o teste de Tukey HSD após a ANOVA. Como o teste de Tukey HSD controla o erro tipo I global, é desnecessário precedê-lo pela ANOVA.
Comparações Múltiplas Comparação de Método de Bonferroni, Scheffé e Tukey HSD Se só comparações emparelhadas serão feitas, o método de Tukey HSD resultará em um intervalo de confiança mais estreito que é preferível (sobre o método de Sheffé) No caso geral quando muitos ou todos os contrastes poderiam ser de interesse, o método de Scheffé tende a dar um intervalo confiança mais estreito e é então o método preferido (sobre o método de Tukey HSD). Se todas as comparações emparelhadas forem de interesse, Tukey HSD tem a preferência.
Comparações Múltiplas Comparação de Método de Bonferroni com Scheffé e Método de Tukey HSD Se só um subconjunto de comparações emparelhadas é requerido, Bonferroni às vezes pode ser melhor. Quando o número de contrastes a ser calculado é pequeno, Bonferroni é melhor que Scheffé. Nenhum único método de comparações múltiplas é uniformemente melhor entre todos os métodos. Muitos pacotes estatísticos incluem os três métodos. Então, estude seu problema e selecione o método com menor intervalo de confiança.
Comparações Múltiplas Exemplo: Usando o Teste de Scheffé, quais foram as médias responsáveis pela rejeição da hipótese nula no exemplo anterior.
Comparações Múltiplas Solução pelo Teste de Scheffé: 2 S R = 0,383, k=3, n=5, F (2,12,0,05) = 3,89 = 1,0906039 x 1 x 2 = 0,90 < não significativo x 1 x 3 = 1,24 > significativo x 2 x 3 = 2,14 > significativo Conclusão: Ao nível de 5% de significância conclui-se que apenas os métodos de treinamento 1 e 2 são semelhantes.
Comparações Múltiplas Exemplo: Usando o Teste de Tukey HSD, quais foram as médias responsáveis pela rejeição da hipótese nula no exemplo anterior.
Comparações Múltiplas Solução pelo Teste de Tukey HSD: 2 S R = 0,383, n=5, q (0,05;3;12) = 3,77 = 1,043412 x 1 x 2 x 1 x 3 x 2 x 3 = 0,90 < não significativo = 1,24 > significativo = 2,14 > significativo Conclusão: Ao nível de 5% de significância conclui-se que apenas os métodos de treinamento 1 e 2 são semelhantes.
ANOVA Dois Fatores Na ANOVA com dois fatores, vamos admitir que cada elemento da amostra tenha sido classificado segundo dois critérios, constituindo duas classificações cruzadas. Admitiremos que exista um total de "nk" observações, constituindo "k" amostras de "n" elementos segundo cada um dos tratamentos (coluna). Adicionalmente, consideramos que cada exista um emparelhamento por cada linha, o qual denominaremos de blocos.
ANOVA Dois Fatores As nk observações são dispostas em uma tabela com n linhas e k colunas.
ANOVA Dois Fatores
ANOVA Dois Fatores Hipóteses: H 01 :m. 1 =m. 2 =... =m. k (todos os tratamentos possuem médias iguais) H 02 : m 1. =m 2. =... =m n. (todos os blocos possuem médias iguais) H 11 : Pelo menos um dos tratamentos apresenta média diferente dos demais H 12 : Pelo menos um dos blocos apresenta média diferente dos demais
ANOVA Dois Fatores Note-se que agora existem duas hipóteses nulas (H 01 e H 02 ). H 01, como antes, refere-se aos tratamentos e H 02 aos blocos. Como antes, a SOMA DE QUADRADOS TOTAL, SQT, é dada por: SQT=Q T 2 nk
ANOVA Dois Fatores A segunda parcela da variação é dada pela SOMA DOS QUADRADOS ENTRE OS TRATAMENTOS, SQET: SQET= n 2 T. j j=1 n T 2 nk Uma outra parcela da variação é dada pela SOMA DOS QUADRADOS ENTRE OS BLOCOS, SQEB: SQEB= k i=1 k 2 B i. T 2 nk
ANOVA Dois Fatores Como na ANOVA - Um fator, a variação restante, é dada pela SOMA DE QUADRADOS DE RESÍDUOS, SQR, ou seja: SQR = SQT - SQET - SQEB
ANOVA Dois Fatores Em uma Análise de Variância com dois fatores, o modelo relativo aos componentes da variância total é dado por: onde: S 2 2 T =S ET S T 2 = variância total 2 S ET S EB +S 2 2 EB +S R = variância do tratamento 2 =variância do bloco S R 2 = variância do erro ou residual
. ANOVA Dois Fatores
ANOVA Dois Fatores Se a hipótese nula 1 for falsa, o valor esperado do QMET será maior que o do QMR. Assim: Se F t >F k 1; k 1 n 1 ;α Rejeita-se H 01 Se a hipótese nula 2 for falsa, o valor esperado do QMEB será maior que o do QMR. Assim: Se F b >F n 1 ; k 1 n 1 ;α Rejeita-se H 02
ANOVA Dois Fatores Exemplo: Os dados que se seguem representam o tempo em segundos gastos por cinco enfermeiros para realizar certo procedimento em quatro postos de saúde diferentes. Ao nível de 5% de significância, verifique de existe diferença assimilável entre postos e entre enfermeiros.
ANOVA Dois Fatores
ANOVA Dois Fatores Solução: Inicialmente, o problema não menciona a questão da normalidade e da independência das amostras, nem para os Postos de Saúde e nem para os Enfermeiros. Como isso é um exercício, vamos assumir a normalidade e da independência para os Postos de Saúde e para os Enfermeiros. Se fôsse um caso real, deveríamos testar a normalidade e a independência de ambos. Porém, já sabemos testar a homocedasticidade das variâncias e devemos fazê-lo para todos eles.
ANOVA Dois Fatores Teste de homocedasticidade para os Postos de Saúde: Hipóteses: H 0 : todos os Postos de Saúde possuem a mesma variância no tempo de realização do procedimento. H 1 : pelo menos um dos Postos de Saúde tem variância no tempo de realização do procedimento diferente dos demais. g c = 0,48504551 g = 0,7457 Decisão: aceita-se H 0
ANOVA Dois Fatores Conclusão: Ao nível de 5% de significância pode-se considerar que todos os Postos de Saúde possuem a mesma variância no tempo de realização do procedimento.
ANOVA Dois Fatores Teste de homocedasticidade para os Enfermeiros: Hipóteses: H 0 : todos Enfermeiros possuem a mesma variância no tempo de realização do procedimento. H 1 : pelo menos um dos Enferemeiros tem variância no tempo de realização do procedimento diferente dos demais. g c = 0,42778342 g = 0,6287 Decisão: aceita-se H 0
ANOVA Dois Fatores Conclusão: Ao nível de 5% de significância pode-se considerar que todos os Enfermeiros possuem a mesma variância no tempo de realização do procedimento. Como foi comprovada a homocedasticidade dos Postos de Saúde e dos Enfermeiros, quanto ao tempo de realização do procedimento, então podemos realizar a ANOVA dois fatores.
ANOVA Dois Fatores Hipóteses: H 01 : todos os Postos de Saúde possuem tempos médios iguais na realização do procedimento. H 02 : todos os Enfermeiros possuem tempos médios iguais na realização do procedimento. H 11 : pelo menos um dos Postos de Saúde possui tempo médio diferente na realização do procedimento em relação aos demais. H 12 : pelo menos um dos Enfermeiros possui tempo médio diferente na realização do procedimento em relação aos demais.
Cálculos: ANOVA Dois Fatores
ANOVA Dois Fatores Tabela ANOVA Decisão: rejeita-se H 01, pois 26,577 > F (3,12,0,05) = 3,49 aceita-se H 02, pois 1,096 < F (4,12,0,05) = 3,26
ANOVA Dois Fatores Conclusão: Conclui-se que ao nível de 5% de significância que os Enfermeiros possuem tempos médios iguais na realização do procedimento, mas que pelo menos um dos Postos de Saúde possui tempo médio diferente na realização do procedimento em relação aos demais.
Comparações Múltiplas Os testes post-hoc para a ANOVA dois fatores são modificações dos testes para a ANOVA um fator. Eles têm a mesma serventia, porém são capazes de comparações múltiplas entre tratamentos e também entre blocos. Veremos os testes de Sheffé e Tuckey HSD.
Comparações Múltiplas Teste de Sheffé Scheffé demonstrou que devem ser consideradas distintas entre si, e ao nível de significância adotado, as médias µ i e µ j, dos tratamentos, tais que: x. i x. j >Δ t, onde D t= S 2 2 k 1 R n F tt
Comparações Múltiplas Teste de Sheffé Devem ser consideradas diferentes, as médias µ i e µ j, dos blocos, ao nível de significância, tais que: x i. x. j. >Δ b, onde D b= S 2 2 n 1 R k F tb
Comparações Múltiplas Teste de Tukey HSD O teste de Tukey HSD considera a diferença entre as médias µ i e µ j, dos tratamentos, quando x. i x. j >Δ t onde: Δ t= S 2 1 R n q α,k,dfr e q é a estatística de Tukey com parâmetros (α, k, dfr), onde dfr é o número de graus de liberdade do resíduo da ANOVA.
Comparações Múltiplas Teste de Tukey HSD Considera a diferença entre as médias µ i e µ j, dos blocos, quando onde: x i. x. j. >Δ b Δ b= S 2 1 R k q α,n,dfr e q é a estatística de Tukey com parâmetros (α, n, dfr), onde dfr é o número de graus de liberdade do resíduo da ANOVA.
Comparações Múltiplas Exemplo: Usando o Teste de Scheffé, quais foram as médias responsáveis pela rejeição da hipótese nula no exemplo anterior.
Comparações Múltiplas Solução pelo Teste de Scheffé: 2 S R = 18,775, k=4, n=5, F (3,12,0,05) = 3,49 = 8,86772 x A x B = 12,40 > significativo = 0,40 < não significativo = 20,60 > significativo = 12,00 > significativo = 8,20 < não significativo = 20,20 > significativo x A x C x A x D x B x C x B x D x C x D
Comparações Múltiplas Solução pelo Teste de Scheffé: Conclusão: Ao nível de 5% de significância concluise que somente os Postos de Saúde A e C; B e D são semelhantes.
Referências Hector G. Arango, Bioestatística Teórica e Computacional (2005). Rio de Janeiro: Ed. Guanabara Koogan, 2a ed. Hardeo Sahai, Mohammed I. Ageel (2000) Analysis of Variance: Fixed, Random and Mixed Models. Birkhäuser Boston; 1st ed. Goldshmidt, Day e Richardson (2000) em "Effects of Prenatal Marijuana Exposure on Child Behavior Problems at Age 10" publicado na Neurotoxicol. and Tetratol., 22, pg. 325-336. Brian S. Yandell (1997) Practical Data Analysis for Designed Experiments. Chapman & Hall/CRC; 1st ed. John Verzani (2005) Using R for Introductory Statistics. Boca Raton: Chapman & Hall/CRC. Psychology World (2009) Tukey's Post Hoc Test. Disponível em <http://web.mst.edu/~psyworld/tukeys4mean.htm>, maio de 2009.