Modelos Lineares Generalizados - Verificação do Ajuste do Modelo

Documentos relacionados
Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados

Modelos de Regressão Linear Simples - parte III

Modelos Lineares Generalizados - Modelos log-lineares para tabelas de contingência

Modelos Lineares Generalizados - Modelos log-lineares para tabelas de contingência

Análise de Dados Categóricos

Modelos de Regressão Linear Simples - parte II

Modelos de Regressão Linear Simples - parte I

Modelos Lineares Generalizados - Métodos de Estimação

Modelos de Regressão Linear Simples parte I

Modelos Lineares Generalizados - Regressão Logística

Modelos Lineares Generalizados - Análise de Resíduos

Modelos Lineares Generalizados - Análise de Resíduos

MODELOS DE REGRESSÃO PARA DADOS CONTÍNUOS ASSIMÉTRICOS

Modelos de Regressão Múltipla - Parte VI

Introdução ao modelo de Regressão Linear

3.33pt. AIC Introdução

Modelos Lineares Generalizados - Família Exponencial

Modelos Lineares Generalizados - Família Exponencial

Modelos Lineares Generalizados - Componentes do Modelo

MLG. 16 de outubro de Curso de Modelos Lineares Generalizado - DEST/UFMG Marcos Oliveira Prates. Marcos Oliveira Prates

Modelos de Regressão Linear Simples - Análise de Resíduos

AULA 7 - Inferência em MQO: ICs e Testes de

AULA 8 - MQO em regressão múltipla:

Análise de Regressão EST036

Modelo de Regressão Múltipla

Análise de Regressão Linear Simples e

Modelos de Regressão Linear Simples - Análise de Resíduos

Probabilidades e Estatística - LEIC + LERCI + LEE 2 o semestre 2004/05

Análise de Regressão - parte I

Modelos Lineares Generalizados

Aula 2 Uma breve revisão sobre modelos lineares

Modelos Lineares Generalizados - Verificação do Ajuste do Modelo

Capítulo 9 - Regressão Linear Simples (RLS): Notas breves

Exemplos Regressão Dados de Contagem

Estatística - Análise de Regressão Linear Simples. Professor José Alberto - (11) sosestatistica.com.br

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33

Distribuições Amostrais e Estimação Pontual de Parâmetros

Capítulo 9 - Regressão Linear Simples (RLS): Notas breves

Análise de regressão linear simples. Diagrama de dispersão

INFERÊNCIA EM MODELOS LINEARES GENERALIZADOS ANÁLISE DE DEVIANCE

Lista 1 - Gabarito. Prof. Erica Castilho Rodrigues Disciplina: Modelos Lineares Generalizados. 29 de Abril. f(y i, θ i ) = θ i exp( yiθ i ).

AULA 12 - Normalidade e Inferência em Regressão Múltipla - Parte 2

Tratamento Estatístico de dados em Física Experimental

CC-226 Aula 07 - Estimação de Parâmetros

Modelos Lineares Generalizados - Modelos log-lineares para tabelas de contingência

AULA 12 - Normalidade e Inferência em Regressão Múltipla - Parte 2

TESTES DE HIPÓTESES E INTERVALOS DE CONFIANÇA EM MODELOS LINEARES GENERALIZADOS

Cap. 8 - Intervalos Estatísticos para uma Única Amostra

Modelos para dados de contagem

Variáveis Aleatórias Contínuas e Distribuição de Probabilidad

Modelos de Regressão Múltipla - Parte I

Disciplina de Modelos Lineares Professora Ariane Ferreira

Esse material foi extraído de Barbetta (2007 cap 13)

Prof. Lorí Viali, Dr.

É dada uma tabela de contingências, sendo os factores de classificação as proveniências (a=3 níveis) e os terrenos (b=3 níveis).

Regressão de Poisson e parentes próximos

Exemplos Modelos de Quase-Verossimilhança

Métodos Numéricos e Estatísticos Parte II-Métodos Estatísticos

Revisão de Modelos de regressão. Prof. Thais C O Fonseca - DME, UFRJ

AULA 9 - MQO em regressão múltipla: Propriedades Estatísticas (Valor Esperado)

Modelo de regressão estável aplicado a econometria

AULA 09 Regressão. Ernesto F. L. Amaral. 17 de setembro de 2012

Análise da Regressão múltipla: MQO Assintótico y = β 0 + β 1 x 1 + β x +... β k x k + u 3. Propriedades assintóticas Antes, propriedades sobre amostra

Análise de Regressão EST036

Modelos de Regressão Linear Simples - Erro Puro e Falta de Ajuste

Correlação e Regressão

Inferências sobre o vetor de Média. (Johnson & Wichern, Cap. 5) Considere o problema univariado no qual temse uma amostra aleatória de tamanho n da

Quantis residuais. Luziane Franciscon Acadêmica de Estatística Universidade Federal do Paraná

Ralph S. Silva

Coeficiente de determinação R 2 no modelo de regressão linear normal

Testes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Regressão. PRE-01 Probabilidade e Estatística Prof. Marcelo P. Corrêa IRN/Unifei

MAE Modelos Lineares Generalizados 2 o semestre 2017

Análise de Dados Longitudinais Aula

MAE Planejamento e Pesquisa II

Tratamento Estatístico de Dados em Física Experimental

REGRESSÃO LINEAR Parte I. Flávia F. Feitosa

AULA 4 - MQO Simples: Propriedades algébricas e Estatísticas

Instituto Federal Goiano

AULAS 14 E 15 Modelo de regressão simples

= Assim, toma-se ˆp= x m =

AULA 10 - MQO em regressão múltipla: Propriedades Estatísticas (Variância)

b χ 2 (a 1)(b 1), sob H 0,

ESTATÍSTICA EXPERIMENTAL. ANOVA. Aula 05

Testes de Hipóteses. Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Modelos de Regressão Múltipla - Parte IV

Análise de Regressão Prof. MSc. Danilo Scorzoni Ré FMU Estatística Aplicada

INTRODUÇÃO À INFERÊNCIA ESTATÍSTICA

Teste χ 2 de aderência

Regressão linear simples

Transformações e Ponderação para corrigir violações do modelo

AULA 10 - MQO em regressão múltipla: Propriedades Estatísticas (Variância)

Estatística Aplicada ao Serviço Social

Exercícios Selecionados de Econometria para Concursos Públicos

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares

CONHECIMENTOS ESPECÍFICOS

Óbitos por Acidentes de Transporte em Santa Catarina no ano de 2016

Distribuições Amostrais e Estimação Pontual de Parâmetros

Intervalos Estatísticos para uma única Amostra - parte I

5.3 Experimentos fatoriais a dois fatores. Ambos os fatores são supostos fixos e os efeitos de tratamento são definidos como desvios da média tal que

Transcrição:

1 Modelos Lineares Generalizados - Verificação do Ajuste do Modelo Erica Castilho Rodrigues 9 de Abril de 2015

2

3 Função Deviance

Podemos ver o ajuste de um modelo a um conjunto de dados como: uma forma de substituir y por ˆµ ˆµ é o vetor de médias estimado a partir do modelo. Em Regressão Linear, substuíamos y por ŷ. Objetivo: encontrar um modelo com poucos parâmetros tal que essa substuitção seja razoável. Os ˆµ s não serão exatamente iguais aos y s. O quanto eles diferem? Pequena discrepância - tolerável. Discrepância grande - o modelo não está bom.

5 Suponha que já encontramos: qual a distribuição adequada; qual a função de ligação mais razoável. Temos então Y i família exponencial canônica E(Y i ) = µ i = g(x T i β). Objetivo: determinar quantos termos são necessários no preditor linear x T i β = β 0 + β 1 X i1 + β 2 X i2 + + β p X ip. Se optamos por um número grande de termos: o modelo vai explicar bem os dados; vai ficar complexo e com muitos parâmetros a estimar.

6 Se optamos por um modelo com poucas variáveis: o modelo é simples e fácil de estimar; provavelmente não se ajustará bem aos dados. Queremos encontrar um modelo intermediário. Com n observações qual o número máximo de parâmetros que podemos ter? n. Caso contrário, não temos informação suficiente para estimar os parâmetros. Para encontrarmos uma reta precisamos de pelo menos dois pontos.

Vejamos as nomenclaturas dos modelos. Modelo Nulo: tem um único parâmetro (µ); esse parâmetro é comum a todos os dados; não tem covariáveis; η i = µ. Os y s variam entre si apenas por causa do componente aleatório. Não variam devido aos diferentes níveis das covariávies.

8 Modelo Saturado ou Modelo Completo: tem o número máximo de parâmetros possível (n); um parâmetro por observação; não existe erro aleatório. Toda a variação é devida ao componente sistemático; Os y s variam por causa dos níveis diferentes das covariáveis; O modelo explica toda variabilidade dos dados. η i = β 0 + β 1 X i1 + β 2 X i2 + + β n X in onde n é o tamanho da amostra.

9 O modelo nulo é simples demais. O modelo saturado é não informativo, apenas repete os dados. No modelo saturado podemos incluir ainda termos de interação. Queremos comparar os modelos. Encontrar um, que esteja entre o nulo e o saturado, e seja adequado aos dados. Vamos comparar modelos encaixados: um está contido no outro; podemos ir de um para outro apenas acrescentando ou excluindo covariáveis.

10 Chamamos o modelo intermediário de p parâmetros modelo corrente ou modelo sob pesquisa. Devemos ou não incluir uma variável no modelo? Esse parâmetro extra será útil? Se não incluimos o modelo fica mal ajustado? Podemos usar uma medida para avaliar se o modelo está bem ajustado: Deviance ou Função Desvio.

Deviance ou Função Desvio Mede a qualidade de ajuste do modelo. É calculada como D = 2[l(b max ; y) l(b, y)] onde l(b max ; y) é o máximo da log-verossimilhança para o modelo saturado; l(b, y) é o máximo da log-verossimilhança para o modelo sob pesquisa. Consiste em um teste da razão de verossimilhança que compara: o modelo saturado com o modelo corrente.

D é grande se: o ajuste o modelo corrente é muito pior do que do saturado. D é pequeno se: o ajuste do modelo corrente não é tão pior do que do saturado. O melhor ajuste possível é obtido com o modelo saturado. Pois ele explica toda a variablidade dos dados.

13 Observe que essa estatística pode ser escrita como ( ) f (bmax ; y) λ = log. f (b, y) O que isso te lembra? Teste da Razão de Verossimilhança. Estamos no fundo fazendo um Teste da Razão. Pode-se mostrar que a distribuição aproximada da estatística é D χ 2 (n p) onde n é o número de observações na amostra; p é o número de parâmetros do modelo.

Exemplo: Considere uma amostra aleatória tal que Y i Bin(n i, π i ). Y 1, Y 2,..., Y m Vamos encontrar a função Deviance para esse caso. A função de verossimlhança é dada por ( ) ni π y i i (1 π i ) n i y i f (y, π i ) = i tirando o logaritmo l(y, π i ) = ( log i = i ( ni y i y i ) ) + y i log(π i ) + (n i y i ) log(1 π i ) ( ( ) πi y i log + n i log(1 π i ) + log 1 π i ( ni y i ))

15 Exemplo: (continuação) Vamos encontrar a log-verossimilhança do Modelo Saturado. No modelo saturado o valor predito é igual ao observado. O modelo não tem erro nenhum, se ajusta perfeitamente aos dados. Temos então que ˆ (E(Y i )) = Y i como E(Y i ) = n i π i temos que (Ê(Y i)) = y i = ˆπ i n i ˆπ i = y i n i.

16 Exemplo: (continuação) Para obtermos o ponto onde a log-verossimilhança basta: substituirmos o valor estimado ˆπi na função l(b max, y) = ( ( ) ( )) yi /n i ni y i log + n i log(1 y i /n i ) + log 1 y i /n i y i i

17 Exemplo: (continuação) Vamos agora calcular a log-verossimilhança máxima para o modelo sob análise. Vamos denotar por ˆπ i as estimativas para os parâmetros π i obtidas através do modelo. Os valores y i são preditos da seguinte maneira ŷ i = n i ˆπ i onde ˆπ i são os valores estimados a partir do modelo sob análise. A log-verossimilhança avaliada nesse ponto é dada por l(b, y) = i = i = i ( y i log ( ŷi /n i ) + n i log(1 ŷ i /n i ) + log 1 ŷ i /n i ( ) (ŷi /n i y i log + n i log( n i ŷ i ) + log ( y i log n i ŷ i n ( i ŷi n i ŷ i ) n i + n i log( n i ŷ i ) + log n i ( ni y i ( ni y i ) ) )) ( ni y i ))

18 Exemplo: (continuação) Vamos agora subtrair as duas funções para obter a Deviance D = 2[l(b max ; y) l(b, y)] D = 2 i [ i ( y i log [ = 2 y i log i ( ( yi /n i y i log ( ŷi n i ŷ i ( yi ŷ i 1 y i /n i ) ) y i log ) + n i log(1 y i /n i ) + log + n i log( n i ŷ i ) + log n i ( ni ŷ i n i y i ( ni y i )) ] ) ( ni ŷ i + n i log n i y i ( ni y i ) ] ))

19 Exemplo: (continuação) Portanto [ D = 2 y i log i ( yi ŷ i ) ( ni ŷ i + (n i y i ) log n i y i é a função Deviance quando a veriável resposta tem distribuição Binomial. ) ]

20 Exemplo: Considere uma amostra aleatória Y 1, Y 2,..., Y n são tais que Y i N(µ i, σ 2 ). A média é modelada por E(Y i ) = µ i = x T i β. A função de ligação? Identidade. Vamos encontrar a função Deviance nesse caso.

Exemplo: (continuação) A função de verossimilhança é dada por f (y; β) = i 1 2πσ 2 e 1 2σ 2 (y i µ i ) 2 = 1 (2πσ 2 ) 1 e 2σ n/2 2 i (y i µ i ) 2 a log-verossimilhança é dada por log(f (y; β)) = 1 2σ 2 n (y i µ i ) 2 n 2 log(2πσ2 ). i=1

Exemplo: (continuação) Para o modelo saturado temos que a média estimada pelo modelo é exatamente igual a observação. Portanto Ê(Y i ) = ˆµ i = y i. Para obtermos o ponto onde a log-verossimilhança basta: substituirmos o valor estimado ˆπi na log-verossimilhança log(f (y; β)) = 1 2σ 2 n (y i y i ) 2 n 2 log(2πσ2 ) i=1 = n 2 log(2πσ2 ).

23 Exemplo: (continuação) Para o modelo sob análise temos que Ê(Y i ) = ˆµ i = x T i ˆβ onde ˆβ e o estimador de β. A log-verossimilhança do modelo sob análise fica então log(f (y; β)) = 1 2σ 2 n (y i x T i i=1 ˆβ) 2 n 2 log(2πσ2 )

Exemplo: (continuação) Temos então que l(b max, y) = n 2 log(2πσ2 ) l(b, y) = 1 2σ 2 n (y i x T i i=1 A Função Deviance fica ˆβ) 2 n 2 log(2πσ2 ). D = 2 [l(b max, y) l(b, y)] ou seja [ D = 2 n 2 log(2πσ2 ) ( 1 2σ 2 n (y i x T i i=1 ˆβ) 2 n 2 log(2πσ2 ). )]

25 Exemplo: (continuação) Ficamos então com [ 1 n D = 2 2σ 2 (y i x T i i=1 ] ˆβ) 2 = 1 n σ 2 (y i x T i i=1 ˆβ) 2 Se desconsiderarmo so termo 1/σ 2 esse termo corresponde a que medida em regressão linear? Soma de quadrados dos resíduos e i = y i x T i ˆβ.

26 Exemplo: Considere uma amostra Y 1, Y 2,..., Y n independente tal que Y i Poisson(λ i ). A função de verossimilhança é dada por f (y, λ) = i λ y i i e λ i y i! portanto a log-verossimilhança é dada por log(f (y, λ)) = i (y i log(λ i ) λ i log(y i!)) y i log(λ i ) i i λ i log(y i!). i Vamos econtrar a Deviance para esse modelo.

Exemplo: (continuação) Para o modelo saturado temos que a média estimada pelo modelo é exatamente igual a observação. Portanto Ê(Y i ) = ˆλ i = y i. Vamos substituir λ i por y i na log-verossimilhança log(f (y; β)) = i y i log(y i ) i y i i log(y i!).

28 Exemplo: (continuação) Vamos denotar por ˆλ i a média estimada pelo modelo sob análise. Para obtermos a log-verossimilhança no modelo sob análise basta substituir esse valor na equação y i log(ˆλ i ) ˆλ i log(y i!). i i Temos então que i l(b max, y) = i y i log(y i ) i y i i log(y i!) l(b, y) = i y i log(ˆλ i ) i ˆλ i i log(y i!)

29 Exemplo: (continuação) A função Deviance fica D = 2 [l(b max, y) l(b, y)] = i y i log(y i ) i y i i log(y i!) ( y i log(ˆλ i ) ˆλ i ) log(y i!) i i i = ( ) yi y i log + (ˆλ i y i ) ˆλ i i i

30 Exemplo: (continuação) Vamos retomar um exemplo visto na aula anterior. A Tabela a seguir apresenta os dados observados

31 Exemplo: (continuação) A figura a seguir mostra o gráfico de disperão entre as duas variáveis.

32 Exemplo: (continuação) O modelo ajustado foi o seguinte ŷ i = 7, 4516 + 4, 9353x i A tabela a seguir mostra os valores necessários para o cálculo da Deviance

33 Exemplo: (continuação) A Deviance é dada por D = 2 [0, 94735 0] = 1, 8947. Você acha que o modelo está bem ajustado? Aparentemente sim, pois a Deviance é pequena.

34 A Deviance é sempre maior ou igual a zero. Quando aumentamos o número de variáveis o que acontece? O ajuste do modelo aos dados melhora. A Deviance diminui. Qual a Deviance do modelo saturado? Zero. Então esse é o modelo ideal? Não. O modelo tem muitos parâmetros.

35 Precisamos verificar se: a redução na Deviance justifica inclusão de uma nova variável. Vejamos agora como testar adequação do modelo usando a Deviance. Pode-se mostrar que, se o modelo é adequado D χ 2 n p onde n é o tamanho da amostra; p é o número de parâmetros do modelo.

36 Exemplo: Considere o exemplo da Regressão de Poisson. O valor calculado da Deviance foi de D = 1, 8947. Nesse caso p = 2 e n = 9. Se o modelo está bem ajustado D χ 2 7. Qual o valor esperado da distribuição? 7. Você acha que o modelo está bem ajustado? O modelo não é bem ajustado para valores pequenos ou grandes de D? Grandes. A Deviance observada é bem menor que o esperado, o modelo está bem ajustado. A Deviance é pequena, se comparada com o que seria esperado. Modelo bem ajustado!

37 Exemplo: Hipóteses: H 0 : O modelo está bem ajustado (Deviance Pequena) H 1 : O modelo está mal ajustado (Deviance Grande) O teste é da forma: se D < χ 2 C o modelo está bem ajustado; se D > χ 2 C o modelo está mal ajustado (Rejeita H 0 ). Rejeita para valores grandes da Deviance. Teste unilateral à direita. Considerando α = 5%, o valor crítico é χ 2 C = 0, 014 poisp(χ2 7 < 0, 014) = 0, 95.

38 Exemplo: A figura a seguir mostra a densidade da χ 2 7 com os valores observados e crítico em destaque. Rejeita-se H 0.

39 Exemplo: O código em R usado para fazer o gráfico encontra-se a seguir. curve(dchisq(x,7),from=0,to=20,ylab=expression(t,xlab=expression(f(theta))) abline(v=1.8947,col= red ) abline(v=0.014,col= blue ) legend("topright",c("valor observado","valor crí, fill=c("red","blue"))

40 Observação Além de testarmos o ajuste do modelo, podemos testar a significância dos parâmetros individualmente. Isso é feito usando a distribuição assintótica b N(β, I(β 1 ) Veremos como fazer esse teste no R na próxima aula..