Gradiente descendente
|
|
|
- Heitor Aires
- 6 Há anos
- Visualizações:
Transcrição
1 Universidade Federal do Paraná Laboratório de Estatística e Geoinformação - LEG Gradiente descendente Eduardo Vargas Ferreira
2 Solução de quadrados mínimos Teorema: Seja X M n p (R), com n > p e posto(x ) = p. Definimos J : R p R da seguinte forma: J(β) = X β y, X β y ; β R p. Então, o Problema de Minimização: encontrar ˆβ R p tal que J( ˆβ) = min {J(β) ; β R p } é equivalente ao Sistema Normal X t X β = X t y. que resulta em ˆβ = ( X t X ) 1 X t y. 2
3 Método do Gradiente Descendente 3
4 Método do Gradiente Descendente O Gradiente Descendente (GD) é um método para encontrar o mínimo de uma função de forma iterativa: Algoritmo: Escolha um chute inicial, β (0) R p, repita: β (k+1) = β (k) α k J(β (k) ), k = 0, 1,... pare quando atingir convergência. 4
5 Taxa de aprendizagem α Taxa de aprendizagem controla o tamanho do passo em cada iteração; Selecionar o valor correto é crítico: Se tomarmos α pequeno, o método fica lento; Se α muito grande, o método diverge. 5
6 Exemplo simulado 1 Considere os dados simulados a partir do modelo: f (x i, θ) = θax i θ v + x i, com (θ a, θ v ) = (10, 2). 6
7 Exemplo simulado 1 O nosso interesse será encontrar os valores de θ, que minimize a função: RSS = n i=1 ( y i θax ) 2 i. θ v + x i 7
8 Exemplo simulado 1 Utilizamos os critérios de parada: θ (k+1) θ (k) < ou iterações. E a taxa de aprendizado, α, de 0,001. O algoritmo convergiu para os pontos (θ a, θ v ) = (10, 03; 2, 05), na iteração
9 Prós e contras do GD Ideia simples e cada iteração é barata; Garantia de convergência para o mínimo local; Com vários algoritmos de segunda ordem para acelerar sua convergência; Muito rápido para matrizes bem condicionadas e problemas fortemente convexos; χ Frequentemente é lento, pois problemas interessantes não são fortemente convexos ou bem condicionados; χ Não lida com funções não diferenciáveis (dica: use o método Subgradiente); χ Utiliza todos os dados de treinamento para estimar os parâmetros. Assim, para grandes bancos de dados, torna-se lento. 9
10 Gradiente Descendente Estocástico 10
11 Gradiente Descendente Estocástico (GDE) Considere o par (x i, y i ) amostrado do treinamento. A atualização dos parâmetros é dada por Algoritmo: Escolha um chute inicial, β (0) R p+1, repita: β (k+1) = β (k) α k J(β (k) ; x i, y i ), k = 0, 1,... pare quando atingir convergência. No GDE a taxa de aprendizagem, α, é, tipicamente, menor do que o GD (batch). Isso ocorre, pois temos uma maior variância nas atualizações; Métodos mais sofisticados incluem o uso de Backtracking line search ou Exact line search. 11
12 Exemplo simulado 1 (continuação) Como era de se esperar, o método Mini-Batch utiliza mais iterações para atingir a convergência. 12
13 Prós e contras do GDE Convergência mais rápida, especialmente com grandes bancos de dados ou dados redundantes, p. ex.: - Imagine que temos dados de treino de tamanho ; - Mas na verdade são 100 cópias de 1000; - Ou seja, padrões parecidos, com mesmo efeito; - Batch será, pelo menos, 100 vezes mais devagar. A trajetória estocástica permite escapar de um mínimo local; χ Prova da convergência é probabiĺıstica; χ Muitos métodos de segunda ordem não funcionam. 13
14 Gradiente boosting 14
15 Lembrando do método boosting No exemplo abaixo, estamos avaliando a relação entre consumo de combustível e a potência do automóvel. mpg = β 0 + β 1 (cavalo vapor) + Resíduo n (y i ȳ) 2 i=1 } {{ } SQT = n (ŷ i ȳ) 2 i=1 } {{ } SQR + n (y i ŷ) 2 i=1 } {{ } SQE Milhas por galão Linear Resíduos Gráfico de resíduos para o ajuste linear Cavalo-vapor Valores ajustados 15
16 Lembrando do método boosting Resíduo = β 2 (cavalo vapor) 2 + Resíduo 2 Resíduos Gráfico de resíduos para o ajuste linear Milhas por galão Linear Grau Cavalo-vapor Cavalo-vapor mpg = β 0 + β 1 (cavalo vapor) + β 2 (cavalo vapor) 2 }{{}}{{} Parte1 Parte2 + Resíduo 2 }{{} Atualizado 16
17 Lembrando do método boosting Considere o seguinte procedimento Y = h(x) + Resíduo (1) Se o Resíduo não for um ruído branco (mas algo correlacionado com Y ) Resíduo = g(x) + Resíduo 2 (2) Combinando (1) e (2) Y = h(x) + g(x) + Resíduo 2 Pode-se dizer que h(x) foi atualizada com uma parte do Resíduo, ou seja h(x) (2) = h(x) (1) + g(x) 17
18 Como isto se relaciona com o Gradiente Queremos minimizar J[y i, h(x)] = 1 2n Derivando com relação a h(x i) temos J[y i, h(x)] h(x i) n [y i h(x i)] 2 i=1 = h(x i) y i Podemos interpretar os resíduos como o negativo do gradiente Resíduos = y i h(x i) = J[y i, h(x)] h(x i) Resíduo Negativo do gradiente Atualizar h(xi ) com o resíduo Atualizar h(xi ) com o negativo do gradiente 18
19 Gradiente boosting Resíduo Negativo do gradiente Atualizar h(xi ) com o resíduo Atualizar h(xi ) com o negativo do gradiente h(xi ) (k+1) = h(xi ) (k) + Resíduo h(xi ) (k+1) = h(xi ) (k) J(y i, h(x)) h(xi ) Algoritmo: Escolha um chute inicial, h(xi ) (0), e: * Calcule J(y i, h(x) (k) ) h(xi ) (k) ; * Ajuste um modelo de regressão g(xi ) (k) baseado no negativo do gradiente, e faça: pare quando atingir convergência. h(xi ) (k+1) = h(xi ) (k) + ρg(xi ) (k), k = 0, 1,... 19
20 Outras funções perda Soma dos desvios absolutos (SDA) J[y i, h(x)] = 1 n y i h(x i) n i=1 { J[y i, h(x)] 1, se y i h(x i) < 0, = sign[y i h(x i)] = h(x i) 1, se y i h(x i) > 0 Huber-M cost J[y i, h(x)] = 1 n J[y i, h(x)] h(x i) = n i=1 { 1 [y 2 i h(x i)] 2, para y h(x i) δ, δ y i h(x i) 1 2 δ2, caso contrário. { y i h(x i), se y i h(x i) δ, δsign[y i h(x i)], caso contrário. Para mais detalhes, veja Greedy Function Approximation: A Gradient Boosting Machine 20
21 XGBoost (Extreme Gradient Boosting) 21
22 XGBoost (Extreme Gradient Boosting) Modelos de Regressão Extreme Gradient Boosting XGBoost é o algoritmo mais popular de ML atualmente. Desde a sua criação, em 2014, tornou-se o true love dos competidores do Kaggle; 22
23 XGBoost (Extreme Gradient Boosting) booster[default=gbtree] Determina o tipo de booster (gbtree, gblinear ou dart). nrounds[default=100] Controla o número de iterações. Para classificação, é similar ao número de árvores. eta[default=0.3][range: (0,1)] Controla a taxa de aprendizado. Tipicamente, utilizamos valores entre 0,01 e 0,3. max depth[default=6][range: (0,Inf)] Controla o tamanho de cada árvore. Geralmente, utilizamos árvores menores, para evitar o superajuste. 23
24 XGBoost (Extreme Gradient Boosting) eval metric [no default, depends on objective selected] Métrica utilizada para avaliar o modelo. subsample[default=1][range: (0,1)] Controla o tamanho da amostra em cada árvore. Tipicamente, são valores entre 0,5 e 0,8. colsample bytree[default=1][range: (0,1)] Controla o número de variáveis apresentada à árvore. Tipicamente, são valores entre 0,5 e 0,9. lambda[default=0] Controla o penalty l 2 nos pesos (equivalente ao Ridge). Utilizado para evitar superajuste. 24
25 Referências James, G., Witten, D., Hastie, T. e Tibshirani, An Introduction to Statistical Learning, 2013; Hastie, T., Tibshirani, R. e Friedman, J., The Elements of Statistical Learning, 2009; Lantz, B., Machine Learning with R, Packt Publishing, 2013; Tan, Steinbach, and Kumar, Introduction to Data Mining, Addison-Wesley, 2005; Some of the figures in this presentation are taken from An Introduction to Statistical Learning, with applications in R (Springer, 2013) with permission from the authors: G. James, D. Witten, T. Hastie and R. Tibshirani 25
Métodos baseados em árvores
Universidade Federal do Paraná Laboratório de Estatística e Geoinformação - LEG Métodos baseados em árvores Eduardo Vargas Ferreira Introdução Árvore de decisão é o conjunto de regras que envolvem a estratificação
Regressão Linear. Prof. Dr. Leandro Balby Marinho. Análise de Dados II. Introdução Regressão Linear Regressão Múltipla
Regressão Linear Prof. Dr. Leandro Balby Marinho Análise de Dados II Prof. Leandro Balby Marinho 1 / 36 UFCG DSC Roteiro 1. Introdução 2. Regressão Linear 3. Regressão Múltipla Prof. Leandro Balby Marinho
Profs.: Eduardo Vargas Ferreira Walmes Marques Zeviani
Universidade Federal do Paraná Laboratório de Estatística e Geoinformação - LEG Regularização Profs.: Eduardo Vargas Ferreira Walmes Marques Zeviani Introdução: Regressão Linear Considere o exemplo referente
Método dos gradientes (ou método de máxima descida)
Método dos gradientes (ou método de máxima descida) Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 14 de setembro de 2010 1 / 16 Método dos gradientes
Capítulo 5 - Optimização Não-Linear
Capítulo 5 - Optimização Não-Linear [email protected] Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Mestrados em Engenharia da Construção Métodos de Aproximação em Engenharia
Profs.: Eduardo Vargas Ferreira Walmes Marques Zeviani
Universidade Federal do Paraná Laboratório de Estatística e Geoinformação - LEG Introdução Profs.: Eduardo Vargas Ferreira Walmes Marques Zeviani O que é Machine Learning? Estatística Machine Learning
Redes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
AULA 8 - MQO em regressão múltipla:
AULA 8 - MQO em regressão múltipla: Definição, Estimação e Propriedades Algébricas Susan Schommer Econometria I - IE/UFRJ Regressão Múltipla: Definição e Derivação A partir de agora vamos alterar o nosso
Análise de Regressão Prof. MSc. Danilo Scorzoni Ré FMU Estatística Aplicada
Aula 2 Regressão Linear Simples Análise de Regressão Prof. MSc. Danilo Scorzoni Ré FMU Estatística Aplicada Conceitos Gerais A análise de regressão é utilizada para explicar ou modelar a relação entre
Modelo de Regressão Múltipla
Modelo de Regressão Múltipla Modelo de Regressão Linear Simples Última aula: Y = α + βx + i i ε i Y é a variável resposta; X é a variável independente; ε representa o erro. 2 Modelo Clássico de Regressão
Redes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados
Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados Marina Andretta/Franklina Toledo ICMC-USP 24 de março de 2015 Baseado no livro Cálculo Numérico, de Neide B. Franco Marina Andretta/Franklina
Eduardo Vargas Ferreira
Universidade Federal do Paraná Laboratório de Estatística e Geoinformação - LEG Introdução Eduardo Vargas Ferreira O que é Machine Learning? Estatística Machine Learning Ciência da computação Métodos aplicados
Ajuste de dados por mínimos quadrados
Cálculo Numérico por mínimos quadrados Prof. Daniel G. Alfaro Vigo [email protected] Departamento de Ciência da Computação IM UFRJ Motivação: População do Brasil Ano População (milhões) 1960 70, 992343
UNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição
UNIVERSIDADE FEDERAL DO ABC BC1419 Cálculo Numérico - LISTA 1 - Zeros de Funções (Profs. André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda) 1 Existência e unicidade de zeros; Métodos
CEFET/RJ. Aprendizado de Máquina - Trabalho 01
CEFET/RJ Programa de Pós-graduação em Ciência da Computação Aprendizado de Máquina - Trabalho 01 Prof. Eduardo Bezerra ([email protected]) Setembro/2017 Conteúdo 1 Regressão Linear com uma Variável
Modelos de Regressão Linear Simples - parte III
1 Modelos de Regressão Linear Simples - parte III Erica Castilho Rodrigues 20 de Setembro de 2016 2 3 4 A variável X é um bom preditor da resposta Y? Quanto da variação da variável resposta é explicada
Estatística e Matemática Aplicadas a Data Science. Diógenes Justo BM&FBOVESPA & Professor FIAP
Estatística e Matemática Aplicadas a Data Science Diógenes Justo BM&FBOVESPA & Professor FIAP Agenda Modelagem para Data Science (Matemática e Estatística) Detecção de Fraudes Forecast (financeiro) Conclusões
Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC
Regressão Linear Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Overfitting 2. Treino e Validação 3. Baseline dos modelos 1 Overfitting Overfit Em muitos casos, a amostra de dados coletada
AULA 4 - MQO Simples: Propriedades algébricas e Estatísticas
AULA 4 - MQO Simples: Propriedades algébricas e Estatísticas Susan Schommer Econometria I - IE/UFRJ Estimação: MQO recapitulando Na aula passada aprendemos estimação por MQO. Recapitulando brevemente Em
Modelos de Regressão Múltipla - Parte I
Modelos de Regressão Múltipla - Parte I Erica Castilho Rodrigues 4 de Outubro de 2016 2 3 Introdução 4 Quando há apenas uma variável explicativa X, temos um problema de regressão linear simples onde ǫ
Gabarito Trabalho 1. onde 1 refere-se ao salário quando a variável branco = 1. Teremos, então:
Professor: Eduardo Pontual Monitor: Tiago Souza Econometria MFEE Gabarito Trabalho 1 Exercício 1 Queremos estimar a diferença salarial entre trabalhadores brancos e não brancos. Assim, calcularemos a diferença
Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Econometria I Lista 2: modelo de regressão linear clássico e regressão simples
Econometria I Lista 2: modelo de regressão linear clássico e regressão simples Professora: Fabiana Fontes Rocha Monitora: Camila Steffens 19 de março de 2018 Instruções: Objetivos com a lista: estruturação
O Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM)
O Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM) Thiago Henrique Cupertino SCE5809 - Redes Neurais 23 de Novembro de 2010 Conteúdo Introdução Desvantagens do
Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados
Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados Erica Castilho Rodrigues 23 de Maio de 207 Introdução 2 3 Vimos como encontrar o EMV usando algoritmos numéricos. Duas possibilidades:
Cap. 13 Correlação e Regressão
Estatística Aplicada às Ciências Sociais Sexta Edição Pedro Alberto Barbetta Florianópolis: Editora da UFSC, 2006 Cap. 13 Correlação e Regressão Correlação X e Y variáveis quantitativas X Y Correlação
Inteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação [email protected] Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b
Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Resolução de sistemas de equações lineares: Método do Gradiente
Resolução de sistemas de equações lineares: Método do Gradiente Marina Andretta ICMC-USP 24 de março de 2015 Marina Andretta (ICMC-USP) sme0301 - Métodos Numéricos para Engenharia I 24 de março de 2015
Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
Método de restrições ativas para minimização em caixas
Método de restrições ativas para minimização em caixas Marina Andretta ICMC-USP 20 de outubro de 2014 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 20 de outubro de 2014 1 / 25 Problema com
AULAS 14 E 15 Modelo de regressão simples
1 AULAS 14 E 15 Modelo de regressão simples Ernesto F. L. Amaral 18 e 23 de outubro de 2012 Avaliação de Políticas Públicas (DCP 046) Fonte: Wooldridge, Jeffrey M. Introdução à econometria: uma abordagem
Redes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
4 Estado da Arte do Kernel PCA
4 Estado da Arte do Kernel PCA Conforme apresentado no Capítulo 1, o Kernel PCA é uma técnica promissora para auxiliar no processo de ajuste de histórico, devido a sua capacidade de extrair parte da estatística
3 Aprendizado por reforço
3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina
Filtro de Kalman. Teoria e Aplicação para Iniciantes. Prof. Dr. Marco Antonio Leonel Caetano. M&V Consultoria e Treinamento
Filtro de Kalman Teoria e Aplicação para Iniciantes Prof. Dr. Marco Antonio Leonel Caetano M&V Consultoria e Treinamento www.mudancasabruptas.com.br A História da Filtragem de Sinais 930 940 960 Filtro
ESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Introdução Solução de equações não lineares
Modelos de Regressão Linear Simples - parte II
Modelos de Regressão Linear Simples - parte II Erica Castilho Rodrigues 14 de Outubro de 2013 Erros Comuns que Envolvem a Análise de Correlação 3 Erros Comuns que Envolvem a Análise de Correlação Propriedade
Ajuste de mínimos quadrados
Capítulo 5 Ajuste de mínimos quadrados 5 Ajuste de mínimos quadrados polinomial No capítulo anterior estudamos como encontrar um polinômio de grau m que interpola um conjunto de n pontos {{x i, f i }}
AULA 10 - MQO em regressão múltipla: Propriedades Estatísticas (Variância)
AULA 10 - MQO em regressão múltipla: Propriedades Estatísticas (Variância) Susan Schommer Econometria I - IE/UFRJ Variância dos estimadores MQO Vamos incluir mais uma hipótese: H1 [Linear nos parâmetros]
Estrutura de Dados e Algoritmos
Mestrado Integrado em Engenharia Biomédica http://www.fe.up.pt/ rcamacho/cadeiras/eda FEUP Universidade do Porto [email protected] 14 de Setembro de 2009 Objectivos da disciplina A disciplina tem por
Redes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
REGRESSÃO LINEAR Parte I. Flávia F. Feitosa
REGRESSÃO LINEAR Parte I Flávia F. Feitosa BH1350 Métodos e Técnicas de Análise da Informação para o Planejamento Julho de 2015 Onde Estamos Para onde vamos Inferência Esta5s6ca se resumindo a uma equação
Modelos Lineares Generalizados - Verificação do Ajuste do Modelo
1 Modelos Lineares Generalizados - Verificação do Ajuste do Modelo Erica Castilho Rodrigues 9 de Abril de 2015 2 3 Função Deviance Podemos ver o ajuste de um modelo a um conjunto de dados como: uma forma
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.
SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,
Método de Newton truncado
Método de Newton truncado Marina Andretta ICMC-USP 8 de outubro de 2018 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear
ESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário (bootstrap) Este método foi proposto por Efron
Disciplina de Modelos Lineares
Disciplina de Modelos Lineares 2012-2 Seleção de Variáveis Professora Ariane Ferreira Em modelos de regressão múltipla é necessário determinar um subconjunto de variáveis independentes que melhor explique
Métodos Numéricos e Estatísticos Parte II-Métodos Estatísticos
Métodos Numéricos e Estatísticos Parte II-Métodos Estatísticos Lic. Eng. Biomédica e Bioengenharia-2009/2010 Modelos de regressão É usual estarmos interessados em estabelecer uma relação entre uma variável
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
SCC0173 Mineração de Dados Biológicos
SCC0173 Mineração de Dados Biológicos Classificação I: Algoritmos 1Rule e KNN Prof. Ricardo J. G. B. Campello SCC / ICMC / USP 1 Créditos O material a seguir consiste de adaptações e extensões dos originais:
Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC
Regressão Linear Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Ordinary Least Square 2. Gradiente Descendente 1 Aprendendo com exemplos Uma das formas de aprendizado de máquina é definido
6 Ajuste de mínimos quadrados
6 Ajuste de mínimos quadrados polinomial No capítulo anterior estudamos como encontrar um polinômio de grau m que interpola um conjunto de n pontos {{x i, f i }} n Tipicamente quando m < n esse polinômio
Departamento de Matemática da Universidade de Coimbra. Licenciatura em Matemática. e B =
Departamento de Matemática da Universidade de Coimbra Optimização Numérica Licenciatura em Matemática Ano lectivo 2006/2007 Folha 1 1. Considere as matrizes A = [ 1 1 1 2 ] e B = [ 1 3 1 2 (a) Verifique
Disciplina que estuda métodos analíticos para auxiliar na tomada de decisões.
Edgard Jamhour Disciplina que estuda métodos analíticos para auxiliar na tomada de decisões. Procura encontrar soluções ótimas ou próximo de ótimas para problemas de engenharia industrial, economia e finanças,
Aprendizado por Reforço usando Aproximação
Aprendizado por Reforço usando Aproximação de Funções Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aproximação de Funções 2. Do the evolution 1 Aproximação de Funções Função Utilidade
REGRESSÃO E CORRELAÇÃO
REGRESSÃO E CORRELAÇÃO A interpretação moderna da regressão A análise de regressão diz respeito ao estudo da dependência de uma variável, a variável dependente, em relação a uma ou mais variáveis explanatórias,
Introdução aos Métodos Numéricos
Introdução aos Métodos Numéricos Instituto de Computação UFF Departamento de Ciência da Computação Otton Teixeira da Silveira Filho Conteúdo Erros e Aproximações Numéricas Sistemas de Equações Lineares.
