Regressão Linear Multivariada

Documentos relacionados
Regressão Logística. Prof. Dr. Leandro Balby Marinho. Inteligência Artificial. Introdução Hipótese Estimativa de Parâmetros Classificação Multiclasse

MLP (Multi Layer Perceptron)

Regressão Linear. Prof. Dr. Leandro Balby Marinho. Análise de Dados II. Introdução Regressão Linear Regressão Múltipla

Este apêndice resume os conceitos de álgebra matricial, inclusive da álgebra de probabilidade,

Projeto de Redes Neurais e MATLAB

INF 1771 Inteligência Artificial

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU

AULAS 13, 14 E 15 Correlação e Regressão

Ex 4.3 O anel é construído pelos polinômios S 1 1 S 2. x S 3. x 1 S 4. x 2 S 5. x 2 1 S 6. x 2 x S 7. x 2 x 1 S 8. x 3 S 9

Estatística e Probabilidade

MESTRADO EM MACROECONOMIA e FINANÇAS Disciplina de Computação. Aula 04. Prof. Dr. Marco Antonio Leonel Caetano

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU

Faculdade de Engenharia Optimização. Prof. Doutor Engº Jorge Nhambiu

Inteligência Artificial. Redes Neurais Artificiais

Métodos Matemáticos para Gestão da Informação

Universidade Federal de Alfenas Programa de Pós-graduação em Estatística Aplicada e Biometria Prova de Conhecimentos Específicos

Introdução a Datamining (previsão e agrupamento)

Avaliando o que foi Aprendido

Introdução. Existem situações nas quais há interesse em estudar o comportamento conjunto de uma ou mais variáveis;

Organizaçãoe Recuperaçãode Informação GSI521. Prof. Dr. Rodrigo Sanches Miani FACOM/UFU

MESTRADO EM MACROECONOMIA e FINANÇAS Disciplina de Computação. Aula 02. Prof. Dr. Marco Antonio Leonel Caetano

Decisão Investimento ( ) Favorável Desfavorável Prob. Favorável (%) V.E.

Probabilidades e Estatística

AULAS 14, 15 E 16 Análise de Regressão Múltipla: Problemas Adicionais

IMES Catanduva. Probabilidades e Estatística. no Excel. Matemática. Bertolo, L.A.

GOVERNO DO ESTADO DE MATO GROSSO SECRETARIA DE ESTADO DE CIÊNCIA E TECNOLOGIA UNIVERSIDADE DO ESTADO DE MATO GROSSO

Marcelo K. Albertini. 17 de Abril de 2014

Introdução a Datamining (previsão e agrupamento)

Gabarito da Prova de Oficinas dos Velhos Ano 2008

(x, y) = (a, b) + t*(c-a, d-b) ou: x = a + t*(c-a) y = b + t*(d-b)

x0 = 1 x n = 3x n 1 x k x k 1 Quantas são as sequências com n letras, cada uma igual a a, b ou c, de modo que não há duas letras a seguidas?

COMENTÁRIO AFRM/RS 2012 ESTATÍSTICA Prof. Sérgio Altenfelder

Organizaçãoe Recuperaçãode Informação GSI521. Prof. Dr. Rodrigo Sanches Miani FACOM/UFU

CC-226 Aula 03 - Análise de Regressão

Aula: Equações polinomiais

Título: Sistemas Lineares no CAp UFRJ: Interpretações Algébrica e Gráfica

Explorações de alunos

Bem, produto interno serve para determinar ângulos e distâncias entre vetores e é representado por produto interno de v com w).

O Processo de KDD. Data Mining SUMÁRIO - AULA1. O processo de KDD. Interpretação e Avaliação. Seleção e Pré-processamento. Consolidação de dados

AULAS 02 E 03 Modelo de Regressão Simples

Modelagem no Domínio do Tempo. Carlos Alexandre Mello. Carlos Alexandre Mello 1

Regressão Logística. Daniel Araújo Melo - dam2@cin.ufpe.br. Graduação

AULAS 24 E 25 Análise de Regressão Múltipla: Inferência

Aula 7 Valores Máximo e Mínimo (e Pontos de Sela)

Estudaremos métodos numéricos para resolução de sistemas lineares com n equações e n incógnitas. Estes podem ser:

PP 301 Engenharia de Reservatórios I 11/05/2011

Por que o quadrado de terminados em 5 e ta o fa cil? Ex.: 15²=225, 75²=5625,...

CRM e Prospecção de Dados

Cálculo Numérico Computacional Lista 09 integral aproximada

CENTRO FEDERAL DE EDUCAÇÃO TECNOLÓGICA CELSO SUCKOW DA FONSECA HABILIDADES CONTEÚDO METODOLOGIA/ESTRATÉGIA HORA/ AULA ANÁLISE GRÁFICA DE FUNÇÕES

Aula 3 CONSTRUÇÃO DE GRÁFICOS EM PAPEL DILOG. Menilton Menezes. META Expandir o estudo da utilização de gráficos em escala logarítmica.

Exame de Aprendizagem Automática

1. Avaliação de impacto de programas sociais: por que, para que e quando fazer? (Cap. 1 do livro) 2. Estatística e Planilhas Eletrônicas 3.

CI202 - Métodos Numéricos

Faturamento de Restaurantes

TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE

Rotação de um corpo rígido e as equações de Euler

CÁLCULO DE ZEROS DE FUNÇÕES REAIS

INTELIGÊNCIA ARTIFICIAL Data Mining (DM): um pouco de prática. (1) Data Mining Conceitos apresentados por

Otimização por Descida de Gradiente

MOQ-23 ESTATÍSTICA. Professor: Rodrigo A. Scarpel

4 Avaliação Econômica

Departamento de Matemática - UEL Ulysses Sodré. Arquivo: minimaxi.tex - Londrina-PR, 29 de Junho de 2010.

Aula 4 Conceitos Básicos de Estatística. Aula 4 Conceitos básicos de estatística

UNIVERSIDADE PRESBITERIANA MACKENZIE Faculdade de Computação e Informática MATRIZ CURRICULAR ELETIVAS

UNIVERSIDADE FEDERAL DO ESPÍRITO SANTO PROGRAMA DE EDUCAÇÃO TUTORIAL - MATEMÁTICA PROJETO FUNDAMENTOS DE MATEMÁTICA ELEMENTAR

ANÁLISE DE REGRESSÃO

Uma Ferramenta para otimização em Engenharia Mecânica e aplicações na Fundição Eletromagnética de Metais

GEOMETRIA ANALÍTICA E CÁLCULO VETORIAL GEOMETRIA ANALÍTICA BÁSICA. Dirce Uesu Pesco 29/01/2013

Cadeias de Markov. Geovany A. Borges

Exame de Aprendizagem Automática

Modelos Pioneiros de Aprendizado

Redes Neurais Artificiais: Funções de Base Radial

NIVELAMENTO MATEMÁTICA 2012

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU

Resolução de sistemas lineares

Disciplina: Introdução à Álgebra Linear

UTILIZAÇÃO DE RECURSOS ESTATÍSTICOS AVANÇADOS DO EXCEL PREVISÃO

DÉCIMA SEGUNDA LISTA DE EXERCÍCIOS Cálculo III MATEMÁTICA DCET UESC Humberto José Bortolossi

Capítulo 2 - Problemas de Valores Fronteira para Equações Diferenciais Ordinárias

Valeska Andreozzi 2010

f (x) = x Marcelo Viana Instituto Nacional de Matemática Pura e Aplicada Marcelo Viana

5COP096 TeoriadaComputação

MINERAÇÃO DE DADOS APLICADA. Pedro Henrique Bragioni Las Casas

Análise de Regressão. Tópicos Avançados em Avaliação de Desempenho. Cleber Moura Edson Samuel Jr

MPEP ITA PG/EAM-P. Turma Senai. Plano de Ensino. MB-701 Nivelamento em Matemática Superior

AGRUPAMENTO DE ESCOLAS DR. VIEIRA DE CARVALHO

EXCEL NA ANÁLISE DE REGRESSÃO

Encontrando a Linha Divisória: Detecção de Bordas

4.10 Solução das Equações de Estado através da Transformada de Laplace Considere a equação de estado (4.92)

Álgebra Linear. Mauri C. Nascimento Departamento de Matemática UNESP/Bauru. 19 de fevereiro de 2013

Aproximações e Erros de Arredondamento. introdução. exactidão e precisão. Aula 2 Métodos Numéricos Aplicados à Engenharia

Correlação Canônica. Outubro / Versão preliminar. Fabio Vessoni. fabio@mv2.com.br (011) MV2 Sistemas de Informação

Desenvolvimento de um gerador de malhas para o estudo do escoamento transônico em um aerofólio

Algoritmos de Aproximação Segundo Semestre de 2012

Contabilometria. Aula 10 Grau de Ajustamento e Verificação das Premissas MQO

EXCEL Público Alvo: Arquitetos Engenheiros Civis Técnicos em Edificações Projetistas Estudantes das áreas de Arquitetura, Decoração e Engenharia

PLANO DE ENSINO. Mestrado em Matemática - Área de Concentração em Estatística

16.36: Engenharia de Sistemas de Comunicação Aula 14: Códigos cíclicos e detecção de erros

canal 1 canal 2 t t 2 T

Transcrição:

Regressão Linear Multivariada Prof. Dr. Leandro Balby Marinho Inteligência Artificial Prof. Leandro Balby Marinho / 37 UFCG DSC

Roteiro. Introdução 2. Modelo de Regressão Multivariada 3. Equações Normais 4. Regressão Polinomial 5. Regularização Prof. Leandro Balby Marinho 2 / 37 UFCG DSC

Dados Multivariados Qual o colesterol de um indivíduo de 37 anos pesando 70 Kg? Colesterol 50 200 250 300 350 400 450 500 30 20 20 30 40 50 60 70 80 90 40 50 60 Idade Peso Ideia: Ajuste uma linha aos dados e use essa linha para predição. Prof. Leandro Balby Marinho 2 / 37 UFCG DSC

Dados Multivariados Qual o colesterol de um indivíduo de 37 anos pesando 70 Kg? Colesterol 50 200 250 300 350 400 450 500 30 20 20 30 40 50 60 70 80 90 40 50 60 Idade Peso Ideia: Ajuste um hyperplano aos dados e use-o para predição. Prof. Leandro Balby Marinho 3 / 37 UFCG DSC

Notação Peso (X ) Idade (X 2 ) Colesterol (Y) 84 46 354 73 20 90 65 52 405 70 30 263 76 57 45.. Dados de treino. X := (X, X 2,..., X m )... Variáveis explicativas. ( ) x (i)... Vetor de entrada da forma x (i), x (i) 2,..., x m (i). x (i) j... valor da j-ésima variável no i-ésimo exemplo. (x (i), y (i) )... i-ésimo exemplo de treino (linha da tabela). Prof. Leandro Balby Marinho 4 / 37 UFCG DSC

Roteiro. Introdução 2. Modelo de Regressão Multivariada 3. Equações Normais 4. Regressão Polinomial 5. Regularização Prof. Leandro Balby Marinho 5 / 37 UFCG DSC

Regressão Multivariada e Vetor Resposta Na regressão simples uma variável: h(x) := Θ 0 + Θ x Prof. Leandro Balby Marinho 5 / 37 UFCG DSC

Regressão Multivariada e Vetor Resposta Na regressão simples uma variável: h(x) := Θ 0 + Θ x Na regressão multivariada muitas variáveis: h(x) := Θ 0 + Θ x + Θ 2 x 2 +... + Θ m x m Prof. Leandro Balby Marinho 5 / 37 UFCG DSC

Regressão Multivariada e Vetor Resposta Na regressão simples uma variável: h(x) := Θ 0 + Θ x Na regressão multivariada muitas variáveis: h(x) := Θ 0 + Θ x + Θ 2 x 2 +... + Θ m x m Por conveniência, usamos a constante x 0 = de forma que h(x) := Θ 0 x 0 + Θ x + Θ 2 x 2 +... + Θ m x m Prof. Leandro Balby Marinho 5 / 37 UFCG DSC

Representação Vetorial Podemos representar variáveis e parâmetros como vetores: x 0 Θ 0 x Θ x 2 R m+, Θ = Θ 2 R m+ x =. x m. Θ m E a hipótese como um produto escalar da forma: h(x) = Θ T x Prof. Leandro Balby Marinho 6 / 37 UFCG DSC

Matriz de Design x (0) x () x (2)... x (m) x (0) X = 2 x () 2 x (2) 2... x (m) 2....., Y = x n (0) x n () x n (2)... x n (m) y () y (2). y (n) Prof. Leandro Balby Marinho 7 / 37 UFCG DSC

Gradiente Descendente A função de erro: err(h; D train ) := 2n n (h(x (i) ) y (i) ) 2 Prof. Leandro Balby Marinho 8 / 37 UFCG DSC

Gradiente Descendente A função de erro: err(h; D train ) := 2n n (h(x (i) ) y (i) ) 2 Derivadas parciais: Θ 0 err(h; D train ) := n Θ err(h; D train ) := n Θ 2 err(h; D train ) := n n n n ( h(x (i) ) y (i)) x (i) 0 ( h(x (i) ) y (i)) x (i) ( h(x (i) ) y (i)) x (i) 2. Prof. Leandro Balby Marinho 8 / 37 UFCG DSC

Gradiente Descendente para Regressão Multivariada GradientDescent(α, precision) initialize Θ 2 e new = err(h; D train ) 3 repeat 4 e old = e new 5 for i = 0 to m 6 tmp i = Θ i α Θ i err(h; D train ) 7 for i = 0 to m 8 Θ i = tmp i 9 e new = err(h; D train ) 0 until e new e old precision Prof. Leandro Balby Marinho 9 / 37 UFCG DSC

Roteiro. Introdução 2. Modelo de Regressão Multivariada 3. Equações Normais 4. Regressão Polinomial 5. Regularização Prof. Leandro Balby Marinho 0 / 37 UFCG DSC

Equações Normais Para achar as equações normais, precisamos igualar todas as derivadas parciais a 0 e resolver para Θ 0, Θ, Θ 2,...: Θ 0 err(h; D train ) = 0 Θ err(h; D train ) = 0 Θ 2 err(h; D train ) = 0. Prof. Leandro Balby Marinho 0 / 37 UFCG DSC

Equações Normais As equação normais são dadas por cap. 07.: X T XΘ = X T Y A equação acima pode ser representada por um sistema de equações lineares da forma: X} {{ T X} }{{} Θ A x Vários métodos de resolução: = X T Y } {{ } b Eliminação Gaussiana Fatoração de Cholesky Fatoração QR Um prova é dada em [Poole, 2009] Prof. Leandro Balby Marinho / 37 UFCG DSC

Exemplo Estime o valor para x = 3 e x 2 = 4 para os dados abaixo. x x 2 y 2 3 2 3 2 4 7 5 5 Prof. Leandro Balby Marinho 2 / 37 UFCG DSC

y y Exemplo cont. Usando regressão simles: h(x ) = 2.95 + 0.x h(x 2 ) = 6.94.34x 2 0 2 3 4 5 dados modelo 0 2 3 4 5 dados modelo 0 2 3 4 5 x 0 2 3 4 5 x h(3) = 3.25 h(4) =.57 Prof. Leandro Balby Marinho 3 / 37 UFCG DSC

Exemplo cont. Modelo regressão múltipla: h(x) = Θ 0 x 0 + Θ x + Θ 2 x 2 2 X = 2 3 4, Y = 5 5 3 2 7 4 2 X T X = 2 46 37, X T Y = 37 39 3 40 24 Prof. Leandro Balby Marinho 4 / 37 UFCG DSC

Exemplo cont. Estimando os parâmetros por Eliminação Gaussiana: 4 2 3 3 2.75 3.25 2 46 37 40 0 0 4 37 39 24 0 4 8.75.75 4 2 3 0 0.4 0. 0 0 7.5 2.5 Θ 5.583 0.779.699 Prof. Leandro Balby Marinho 5 / 37 UFCG DSC

Exemplo cont. h(x = 3, x 2 = 4) = 5.583 + 0.779x.699x 2 =.24 y 2 3 4 5 6 7 2 3 4 5 2 3 4 5 x2 x Prof. Leandro Balby Marinho 6 / 37 UFCG DSC

Gradiente Descendente vs. Equações Normais Gradiente Descendente Precisa escolher α. Pode precisar de muitas iterações. Relativamente eficiente para m grande. Equações Normais Não precisa escolher α. Não precisa iterar. Métodos de resolução de sistemas de equações lineare podem ser caros (e.g. fatoração de Cholesky O(m 3 )). Lento para m muito grande. Prof. Leandro Balby Marinho 7 / 37 UFCG DSC

Roteiro. Introdução 2. Modelo de Regressão Multivariada 3. Equações Normais 4. Regressão Polinomial 5. Regularização Prof. Leandro Balby Marinho 8 / 37 UFCG DSC

Relação Polinomial Em muitos casos o grafo de dispersão sugere uma relação não linear entre X e Y. y 2.6 2.8 3.0 3.2 3.4 3.6 3.8 5 20 25 30 35 40 45 x Prof. Leandro Balby Marinho 8 / 37 UFCG DSC

Relação Polinomial Em muitos casos o grafo de dispersão sugere uma relação não linear entre X e Y. y 2.6 2.8 3.0 3.2 3.4 3.6 3.8 5 20 25 30 35 40 45 x Prof. Leandro Balby Marinho 8 / 37 UFCG DSC

Regressão Polinomial A equação do modelo de k-ésimo grau é h(x) = Θ 0 + Θ x + Θ 2 x 2 +... + Θ k x k Erro no treino: err(h; D train ) := 2n n (Θ 0 + Θ x + Θ 2 x 2 +... + Θ k x k y) 2 Prof. Leandro Balby Marinho 9 / 37 UFCG DSC

Interpretação Probabiĺıstica A interpretação probabiĺıstistica do modelo é basicamente a mesma regressão linear: Y = Θ 0 + Θ x + Θ 2 x 2 +... + Θ k x k + ɛ E(Y X ) = h(x) E(ɛ X ) = E(ɛ) = 0 V (ɛ X ) = σ 2 Prof. Leandro Balby Marinho 20 / 37 UFCG DSC

Derivadas Parciais Derivadas parciais: Θ 0 err := n Θ err := n Θ 2 err := n. Θ k err := n (h(x) y) (x,y) D train (h(x) y) x (x,y) D train (h(x) y) x 2 (x,y) D train (x,y) D train (h(x) y) x k Prof. Leandro Balby Marinho 2 / 37 UFCG DSC

Equações Normais Igualando as derivadas parciais a zero, temos o seguinte sistema de equações lineares: Θ 0 s 0 + Θ s +... + Θ m s m = t 0 Θ 0 s + Θ s 2 +... + Θ m s m+ = t Θ 0 s 2 + Θ s 3 +... + Θ m s m+2 = t 2. Θ 0 s m + Θ s m+ +... + Θ m s 2m = t m onde s k = n xi k, t k = i= n y i xi k i= Prof. Leandro Balby Marinho 22 / 37 UFCG DSC

Estimativa de σ 2 A estimativa de σ 2 é dada por ˆσ 2 := n (k + ) (x,y) D train (h(x) y) 2 onde n (k + ) é o número de graus de liberdade associados à estimativa. Ou seja, como Θ 0, Θ,..., Θ k devem ser estimados primeiro, há uma perda de k + graus de liberdade. Prof. Leandro Balby Marinho 23 / 37 UFCG DSC

Coeficiente de Determinação Ajustado Nem sempre o aumento de complexidade é acompanhado de melhoria real do modelo. O coeficiente de determinação ajustado ( R 2 ) aumenta apenas se o novo termo melhora o modelo mais do que seria esperado de uma melhora ao acaso. R 2 n SQE = n (k + ) SQT = (n )R2 k n k Prof. Leandro Balby Marinho 24 / 37 UFCG DSC

Exemplo 2 Considere um modelo de regressão cúbico com R2 2 = 0, 66, um modelo de regressão quadrático com R3 2 = 0, 70 e uma amostra com n = 0. Então, ˆR 2 2 = 9(0, 66) 2 0 3 = 0, 563 ˆR 2 3 = 9(0, 70) 3 0 4 = 0, 550 Note que nesse caso o aumento de complexidade não compensa, já que não há aumento do R 2. Prof. Leandro Balby Marinho 25 / 37 UFCG DSC

Roteiro. Introdução 2. Modelo de Regressão Multivariada 3. Equações Normais 4. Regressão Polinomial 5. Regularização Prof. Leandro Balby Marinho 26 / 37 UFCG DSC

Overfitting Considere os dados abaixo gerados pela função sen(2πx) com ruído aleatório adicionado. t 0 0 x Normalmente, não sabemos o formato da função geradora, e então tentamos achar uma aproximação coerente. Prof. Leandro Balby Marinho 26 / 37 UFCG DSC

Escolha do Modelo Para M = grau do polinômio: M = 0 M = t t 0 0 0 x 0 x M = 3 M = 9 t t 0 0 0 x 0 x Prof. Leandro Balby Marinho 27 / 37 UFCG DSC

Overfitting Se tivermos muitos atributos (variáveis explicativas), a hipótese aprendida pode se ajustar muito bem aos dados de treino, mas falhar na generalização para novas observações. Prof. Leandro Balby Marinho 28 / 37 UFCG DSC

Erro no Treino vs. Erro no Teste Training Test ERMS 0.5 0 0 3 M 6 9 Prof. Leandro Balby Marinho 29 / 37 UFCG DSC

Tamanho dos Parâmetros Na regressão linear, overfitting é caracterizado por grandes valores dos parâmetros: M = 0 M = M = 3 M = 9 Θ 0 0.9 0.82 0.3 0.35 Θ.27 7.99 232.37 Θ 2 25.43 532.83 Θ 3 7.37 48568.3 Θ 4 23639.30 Θ 5 640042.26 Θ 6 06800.52 Θ 7 042400.8 Θ 8 557682.99 Θ 9 2520.43 Prof. Leandro Balby Marinho 30 / 37 UFCG DSC

Regularização Ideia: Encolher os valores dos parâmetros. Gera hipóteses mais simples. Menos suscetível a overfitting. Prof. Leandro Balby Marinho 3 / 37 UFCG DSC

Função de Erro A função de erro com regularização é dada por: [ n err(h; D train ) := m (h(x (i) ) y (i) ) 2 + λ 2n i= λ controla a importância relativa do termo de regularização. i= Por convenção, Θ 0 é omitido do termo de regularização. Θ 2 i ] Prof. Leandro Balby Marinho 32 / 37 UFCG DSC

Magnitude dos Parâmetros ln λ = ln λ = 8 ln λ = 0 Θ 0 0.35 0.35 0.3 Θ 232.37 4.74 0.05 Θ 2 532.83 0.77 0.06 Θ 3 48568.3 3.97 0.05 Θ 4 23639.30 3.89 0.03 Θ 5 640042.26 55.28 0.02 Θ 6 06800.52 4.32 0.0 Θ 7 042400.8 45.95 0.00 Θ 8 557682.99 9.53 0.00 Θ 9 2520.43 72.68 0.0 Prof. Leandro Balby Marinho 33 / 37 UFCG DSC

Impacto da Regularização t ln λ = 8 0 0 x Prof. Leandro Balby Marinho 34 / 37 UFCG DSC

Impacto da Regularização no Teste Training Test ERMS 0.5 0 35 30 ln λ 25 20 Prof. Leandro Balby Marinho 35 / 37 UFCG DSC

Exercício Derive um algoritmo baseado em gradiente descendente para regressão linear multivariada regularizada. Por conveniência, considere a função de erro como: err(h; D train ) := 2n [ n (h(x (i) ) y (i) ) 2 + λ 2 i= m i= Θ 2 i ] Prof. Leandro Balby Marinho 36 / 37 UFCG DSC

Referências Jay L. Devore. Probabilidade e Estatística para Engenharia e Ciências. Cengage Learning, 2006. Christopher M. Bishop. Pattern Recognition and Machine Learning. Springer, 2007. David Poole. Álgebra Linear. Cengage Learning, 2009. Lars Schmidt-Thieme. Notas de aula em aprendizagem de máquina. Disponível em: http://www.ismll. uni-hildesheim.de/lehre/ml-w/index_en.html Andrew Ng. Notas de aula em aprendizagem de máquina. Disponível em: http://www.coursera.org/course/ml Prof. Leandro Balby Marinho 37 / 37 UFCG DSC