Planejamento e Análise de Experimentos Aula 3 Felipe Campelo http://www.cpdee.ufmg.br/~fcampelo Programa de Pós-Graduação em Engenharia Elétrica Belo Horizonte Agosto de 2011
ANOVA para Fator Único Análise de Variância para Fator Único Science is simply common sense at its best, that is, rigidly accurate in observation, and merciless to fallacy in logic. Thomas H. Huxley 1825-1895 Biólogo Inglês
ANOVA para Fator Único Exemplo: resistência a tração Definição do problema Resistência a tração (RT) é uma característica importante para determinados tipos de papel; Conjectura: RT é influenciada pelo percentual de fibra de madeira na manufatura do papel; Como testar?
ANOVA para Fator Único Exemplo: resistência a tração Definição do problema Resistência a tração (RT) é uma característica importante para determinados tipos de papel; Conjectura: RT é influenciada pelo percentual de fibra de madeira na manufatura do papel; Intervalo de interesse: 5 20%; Ideia: investigar concentrações de 5, 10, 15 e 20%, seis espécimes para cada caso; Um único fator (% de fibra), a = 4 níveis (5, 10, 15, 20%) e n = 6 réplicas (espécimes testados).
ANOVA para Fator Único Exemplo: resistência a tração Randomização As 24 observações devem ser coletadas em ordem aleatória: Evitar efeitos espúrios, e.g., efeitos de aquecimento no equipamento de teste, etc;
ANOVA para Fator Único Exemplo: resistência a tração Análise gráfica Análise gráfica sugere a existência de um efeito do fator na variável de resposta; Simetria na distribuição amostral; Variância razoavelmente consistente;
ANOVA para Fator Único Exemplo: resistência a tração Modelo estatístico linear Os dados observados podem ser descritos por um modelo estatístico linear: { i = 1,..., a y ij = µ j + ɛ ij = µ + τ j + ɛ ij }{{}}{{} j = 1,..., n Modelo de médias Modelo de efeitos onde µ é a média geral, τ j representa o efeito do nível j, e ɛ ij é o resíduo (erro aleatório);
ANOVA para Fator Único Exemplo: resistência a tração Modelo estatístico linear y ij = µ + τ j + ɛ ij { i = 1,..., a j = 1,..., n Premissa: ɛ ij i.i.d. N ( 0, σ 2) ; Planejamento completamente aleatorizado: Ordem aleatória das observações; Ambiente de coleta dos dados o mais uniforme possível;
ANOVA para Fator Único Modelo de efeitos fixos e aleatórios Modelo de efeitos fixos Níveis especificamente determinados pelo experimentador; Teste de hipótese sobre as médias dos níveis testados; Conclusões se aplicam somente aos níveis testados; Estimativa dos parâmetros do modelo (µ, τ j, σ 2 );
ANOVA para Fator Único Modelo de efeitos fixos e aleatórios Modelo de efeitos aleatórios (componentes de variância) Níveis testados são amostras aleatórias de uma população de níveis possíveis; Conclusões podem ser generalizadas para níveis não testados; Efeitos dos níveis τ j tratados como variáveis aleatórias; Teste de hipóteses sobre a variabilidade dos τ j, e estimativa desta variabilidade;
Modelo de Efeitos Fixos O Modelo de Efeitos Fixos Desenvolvimento y ij = µ + τ j + ɛ ij { i = 1,..., a j = 1,..., n Efeitos dos níveis como desvios da média geral: a τ i = 0; i=1
Modelo de Efeitos Fixos O Modelo de Efeitos Fixos Desenvolvimento Somas de quadrados: a n ( 2 SS T = yij ȳ ) = n i=1 j=1 a (ȳ i ȳ ) 2 + i=1 } {{ } SS E a i=1 j=1 n ( 2 yij ȳ i ) } {{ } SS Níveis
Modelo de Efeitos Fixos O Modelo de Efeitos Fixos Desenvolvimento Quadrados médios: MS T = SS T an 1 MS E = SS E a (n 1) MS Níveis = SS Níveis a 1 Somas de quadrados ponderadas pelos DoF correspondentes;
Modelo de Efeitos Fixos O Modelo de Efeitos Fixos Desenvolvimento Valores esperados: E [MS E ] = σ 2 E [MS Níveis ] = σ 2 + n a i=1 τ i 2 a 1 MS E é um estimador não-tendencioso de σ 2 ; Se H 0 é verdadeira, MS Níveis também é não-tendencioso; Diferença pode ser usada para testar a hipótese de igualdade dos níveis.
Modelo de Efeitos Fixos O Modelo de Efeitos Fixos Desenvolvimento Se H 0 é verdadeira, F 0 = MS Níveis MS E F (a 1),(an a) Se H 0 é falsa, MS Níveis superestima o valor de σ 2 ; Rejeitar H 0 se f 0 > f α,(a 1),(na a) ;
Modelo de Efeitos Fixos O Modelo de Efeitos Fixos Análise de Variância Tabela ANOVA para um experimento de fator único, modelo de efeitos fixos:
Modelo de Efeitos Fixos Exemplo: resistência a tração Análise de Variância Baseado nos dados do exemplo: O valor observado para a estatística de teste F implica na rejeição da hipótese nula H 0 ; Mas quais médias são diferentes de quais?
Testes Post-hoc Comparações Múltiplas Post-hoc Testes de múltiplas hipóteses Determinação de quais níveis são significativamente diferentes; Comparação gráfica de médias; Teste LSD de Fisher; Teste de Tukey; Contrastes ortogonais; Método de Bonferroni-Dunn; Método de Benjamini-Hochberg;
Testes Post-hoc Comparações Múltiplas Post-hoc Comparação gráfica de médias Sejam ȳ 1,..., ȳ a as médias amostrais observadas para cada nível; Premissa de homocedasticidade implica em: ( ) ȳ i N (µ + τ i ), σ 2 /n Se H 0 é verdadeira, τ i = 0 para todos os níveis;
Testes Post-hoc Comparações Múltiplas Post-hoc Comparação gráfica de médias Sob H 0, todos os efeitos devem se comportar como amostras de uma distribuição N ( µ, σ 2 /n ) ; Estimadores dos parâmetros do modelo: ˆµ = ȳ ˆτ i = ȳ i ȳ ˆσ = MS E
Testes Post-hoc Comparações Múltiplas Post-hoc Comparação gráfica de médias Procedimento: Traçar a curva de uma distribuição N (ȳ, MS E /n) (ou t n 1, se o tamanho amostral for pequeno); Plotar localização das médias amostrais ȳ i no eixo horizontal; Observar desvios do comportamento esperado;
Testes Post-hoc Comparações Múltiplas Post-hoc Comparação gráfica de médias ȳ 1 = 10.0 ȳ = 15.96 ȳ 2 = 15.7 MS E = 7.56 ȳ 3 = 17.0 ȳ 4 = 21.2
Testes Post-hoc Comparações Múltiplas Post-hoc Teste LSD de Fisher Comparação de todos os pares de médias: { H 0 : τ i = τ j H 1 : τ i τ j Estatística de teste: t 0 = ȳi ȳ j 2MSE n
Testes Post-hoc Comparações Múltiplas Post-hoc Teste LSD de Fisher Menor diferença significativa: ȳ i ȳ j tal que t 0 > t (α/2,an a) : LSD = t (α/2),an a 2MSE n Um dado par de níveis é considerado significativamente diferente se ȳ i ȳ j > LSD;
Testes Post-hoc Comparações Múltiplas Post-hoc Ajustes para teste de múltiplas hipóteses Problema com LSD: aumento do erro tipo I Se k comparações independentes são realizadas, o nível de significância geral da família de hipóteses (FWER) é dado por: α f = 1 (1 α) k Técnicas de correção para múltiplos testes: alteram o nível de significância dos testes individuais de forma a controlar o FWER ou a taxa de falsas descobertas (FDR): Correção de Bonferroni-Dunn; Correção de Benjamini-Hochberg;
Verificação de Premissas Verificação de Premissas Testes de adequação do modelo Premissas do modelo: Independência; Homoscedasticidade; Normalidade; y ij = µ + τ j + ɛ ij { i = 1,..., a j = 1,..., n Testadas a partir da análise dos resíduos e ij : e ij = y ij ŷ ij ŷ ij = ˆµ + ˆτ i = ȳ i
Verificação de Premissas Verificação de Premissas Testes de adequação do modelo Normalidade: Plot de probabilidade normal; Teste de Lilliefors; ANOVA (efeitos fixos): robusto a violações moderadas de normalidade;
Verificação de Premissas Verificação de Premissas Testes de adequação do modelo Independência: Teste de Pearson; Plot dos resíduos em ordem de observação; ANOVA é sensível a violações de independência; Randomização apropriada tende a evitar estruturas nos resíduos;
Verificação de Premissas Verificação de Premissas Testes de adequação do modelo Homoscedasticidade: Teste F; Plot de resíduos versus ŷ ij (= ȳ i ); ANOVA balanceada: robusta a violações modestas; Tende a ocorrer quando variabilidade é função do valor medido Ex: erro percentual em medições;
Verificação de Premissas Verificação de Premissas Testes de adequação do modelo Estabilização da variância: transformação de dados; Executar ANOVA em uma amostra transformada dos dados; Conclusões se aplicam às populações transformadas; Transformações usuais: Raiz quadrada: yij = y ij (obs Poisson); Logarítmica: y ij Arco-seno: y ij Transformações genéricas; = log y ij (obs Lognormal); = arcsin y ij (obs Binomial);
Verificação de Premissas Verificação de Premissas Outliers Uma situação comum é a presença de uma observação discrepante (outlier) em uma amostra aparentemente regular; Podem distorcer gravemente a análise Verificar condições experimentais, erros de cálculo, codificação dos dados, etc; Não descartar a menos que haja uma boa razão (não-estatística) para tal;
Técnicas não-paramétricas Técnicas não-paramétricas Técnicas não-paramétricas para Análise de Variância Quando a premissa de normalidade não pode ser verificada, pode ser interessante utilizar técnicas não-paramétricas; No caso da Análise de Variância, uma alternativa que não depende desta premissa é o teste de Kruskall-Wallis; Outra opção é o uso de técnicas de reamostragem (bootstrap, etc.);
Técnicas não-paramétricas Técnicas não-paramétricas Teste de Kruskall-Wallis Substituição dos valores das observações por ranks: ordenação das observações de forma crescente substituição do valor pelo rank R ij ; no caso de empates, atribuição de valor médio aos ranks; Seja R i a soma dos ranks para o nível i: n i R i = j=1 R ij
Técnicas não-paramétricas Técnicas não-paramétricas Teste de Kruskall-Wallis A estatística de teste é dada por: H = 1 S 2 [ a i=1 R 2 i n i ] N (N + 1)2 4 com: S 2 = 1 N 1 a n i Rij 2 i=1 j=1 N (N + 1)2 4
Técnicas não-paramétricas Técnicas não-paramétricas Teste de Kruskall-Wallis Se n i é moderadamente alto (e.g., n i 5), a estatística H é distribuída aproximadamente como uma variável χ 2 a 1 sob H 0; Valores críticos podem então ser derivados a partir desta distribuição: χ 2 (α,a 1) ;
Blocos Completos Balanceados Fatores Incômodos Fatores incômodos Fatores que influenciam a resposta, mas em cujo efeito o experimentador não está interessado; Desconhecidos, incontroláveis: randomização; Conhecidos, incontroláveis: análise de covariância; Conhecidos, controláveis: blocagem; Blocagem é utilizada para eliminar sistematicamente o efeito de fatores incômodos;
Blocos Completos Balanceados Exemplo: diferença entre pontas de prova Definição do problema Determinar se quatro pontas de prova diferentes influenciam na leitura de uma máquina de avaliação de dureza; Máquina pressiona ponta de prova em um lingote de teste e mede profundidade da fenda; Observador decide obter 4 observações para cada ponta: 16 lingotes de teste necessários; Problema: diferenças entre os lingotes podem contaminar os resultados (fonte de erro);
Blocos Completos Balanceados Exemplo: diferença entre pontas de prova Definição do problema Erro experimental seria variabiidade das pontas + variabilidade dos lingotes; Deseja-se remover a variabilidade entre os lingotes do erro; Possibilidade: testar cada ponta uma vez em cada um de 4 lingotes; Este tipo de planejamento é conhecido como planejamento completo em blocos aleatorizados;
Blocos Completos Balanceados Plan. Completo em Blocos Aleatorizados RCBD Plan. completo: cada bloco (lingote) contém todos os níveis (pontas); Plan. aleatorizado: a ordem dos testes em cada bloco é aleatória; Unidades experimentais mais homogêneas; Melhora as comparações entre as pontas, eliminando os efeitos da variabilidade entre lingotes;
Blocos Completos Balanceados Análise do RCBD Modelo estatístico linear Caso geral: a níveis, b blocos; Uma observação por nível em cada bloco, ordem aleatória; { i = 1,..., a y ij = µ + τ i + β j + ɛ ij j = 1,..., b ɛ ij N (0, σ 2) a τ i = 0 i=1 b β j = 0 j=1
Blocos Completos Balanceados Análise do RCBD Hipóteses de teste { H 0 : τ i = 0, i = 1,, a H 1 : τ i 0 para algum i Totais e médias amostrais: y i = b y ij y j = a y ij y = a b y ij j=1 i=1 i=1 j=1 ȳ i = y i b ȳ j = y j a ȳ = y ab
Blocos Completos Balanceados Análise do RCBD Hipóteses de teste { H 0 : τ i = 0, i = 1,, a H 1 : τ i 0 para algum i Totais e médias amostrais: y i = b y ij y j = a y ij y = a b y ij j=1 i=1 i=1 j=1 ȳ i = y i b ȳ j = y j a ȳ = y ab
Blocos Completos Balanceados Análise do RCBD Soma de quadrados Partição da variância: SS T = = b a i=1 j=1 b ( 2 yij ȳ ) a (y i ȳ ) 2 + a i=1 } {{ } SS níveis a b... + i=1 j=1 b ( 2 y j ȳ ) +... j=1 } {{ } SS blocos ( yij ȳ i ȳ j + ȳ ) 2 } {{ } SS E
Blocos Completos Balanceados Análise do RCBD Quadrados médios e graus de liberdade Assim como no planejamento completamente aleatorizado: SS MS = Graus de Liberdade MS T = SS T ab 1 MS níveis = SS níveis a 1 MS blocos = SS blocos b 1 MS E = SS E (a 1)(b 1)
Blocos Completos Balanceados Análise do RCBD Valores esperados e estatística de teste b a E [MS níveis ] = σ 2 i=1 + a 1 τ 2 i E [MS blocos ] = σ 2 + a b βj 2 j=1 b 1 E [MS E ] = σ 2 Estatística de teste: F 0 = MS níveis MS E
Blocos Completos Balanceados Análise do RCBD ANOVA para um RCBD Se H 0 é verdadeira, F 0 F a 1,(a 1)(b 1) A região crítica é a cauda superior da distribuição, e H 0 é rejeitada se F 0 > F α,a 1,(a 1)(b 1) ;
Blocos Completos Balanceados Efeitos dos Blocos Inferências sobre blocos Pode ser interessante comparar as médias dos blocos: Diferenças pequenas podem indicar não-necessidade de blocagem; Podemos usar F 0 = MS blocos /MS E? Problema: randomização foi aplicada apenas aos níveis dentro de cada bloco; Em geral pode ser usado como um indicador, mas não como um teste confiável.
Blocos Completos Balanceados Exemplo: diferença entre pontas de prova Dados coletados no experimento: Para facilitar os cálculos, os dados são transformados y ij = 10(y ij 9.5):
Blocos Completos Balanceados Exemplo: diferença entre pontas de prova Tabela ANOVA para o experimento Análise incorreta, desconsiderando blocagem:
Blocos Completos Balanceados Análise post-hoc Comparações múltiplas Determinação de quais τ i são diferentes; Similar ao caso do planejamento completamente aleatorizado: Teste LSD de Fisher; Teste HSD de Tukey; Comparações gráficas;... Necessidade de ajuste de significância para múltiplas hipóteses;
Blocos Completos Balanceados Verificação da Validade do Modelo Validação das premissas Atenção particular para: Premissa de normalidade; Homogeniedade das variâncias (entre blocos e níveis); Interações bloco-nível;
Blocos Completos Balanceados Verificação da Validade do Modelo
Blocos Completos Balanceados Observações Ausentes Tratamento de observações ausentes Em alguns casos, pode haver observações faltantes no experimento Falha na coleta dos dados, quebra de equipamento, etc.
Blocos Completos Balanceados Observações Ausentes Tratamento de observações ausentes Problema: níveis deixam de ser ortogonais aos blocos; Duas abordagens para tratar este problema: Análise aproximada (estimação de observação); Análise exata;
Blocos Completos Balanceados Observações Ausentes Análise aproximada Sejam y, y i e y j os totais computados com uma observação faltante; Deseja-se estimar a observação ausente x de forma a minimizar a contribuição desta à SS E ; SS E = a b ( 2 yij ȳ i ȳ j + ȳ ) i=1 j=1 Encontrar x que minimize SS E ;
Blocos Completos Balanceados Observações Ausentes Expandindo SS E : SS E = 1 a a b i=1 j=1 j=1 i=1 y 2 ij 1 b a b i=1 j=1 ( b a ) 2 y ij + 1 a ab y ij b i=1 j=1 2 y ij = x 2 1 ( y b i + x ) 2 1 ( ) 2 y j + x a + 1 ( y + x ) 2 + R (Termos ind. de x) ab 2
Blocos Completos Balanceados Observações Ausentes Fazendo SS E / x = 0: SS E x [ = 2 x 1 ( y b i + x ) 1 ( ) y j + x a + 1 ( y + x )] = 0 ab x = ay i + by j + y (a 1)(b 1) Para o exemplo dado, 4(1) + 4(6) 17 x = y 23 = = 1.22 (3)(3)
Blocos Completos Balanceados Observações Ausentes Análise aproximada A análise pode então ser realizada utilizando o valor estimado x = 1.22, e reduzindo-se o número de graus de liberdade do erro em 1;
Blocos Completos Balanceados Observações Ausentes Análise aproximada Se mais de uma observação estiver ausente, a mesma técnica pode ser empregada: iguala-se o gradiente a zero e estima-se os valores dos x k faltantes de forma a minimizar SS E ; O número de graus de liberdade do erro é reduzido em um para cada valor faltante;
Leitura recomendada Leitura recomendada
Leitura recomendada Leitura recomendada Essenciais 1 D.C. Montgomery, G.C. Runger, Applied Statistics and Probability for Engineers, 3rd ed. - Capítulo 13; 2 D.C. Montgomery, Design and Analysis of Experiments, 5th ed. - Capítulos 3, 4; 3 P. Li, Box-Cox Transformations: An Overview - http://goo.gl/xl1bk
Leitura recomendada Leitura recomendada Adicionais 1 D.C. Montgomery, G.C. Runger, Applied Statistics and Probability for Engineers, 3rd ed. - Capítulo 11; 2 J.P. Shaffer, Multiple Hypothesis Testing. Annual Review of Psych., 46, 561-584, 1995 - http://goo.gl/xsev0