Algoritmos de Regressão
|
|
- Raul Avelar Neiva
- 5 Há anos
- Visualizações:
Transcrição
1 Algoritmos de Regressão com Big Data Fabrício Olivetti de França Universidade Federal do ABC
2 Tópicos 1. Regressão Linear 2. Ordinary Least Square 3. Gradiente Descendente 4. Overfitting 5. Variáveis Não-Lineares 1
3 Regressão Linear
4 Aprendendo com exemplos Uma das formas de aprendizado de máquina é definido como um conjunto de dados na forma {(x, y)}, com x R d um vetor de atributos e y R uma variável alvo, queremos descobrir um mapa entre um certo x para seu valor y correspondente: f : x y. 2
5 Aprendendo com exemplos Vamos tomar como exemplo um corretor que quer aprender a avaliar o valor de um imóvel. Cada imóvel pode ser representado por diversas características como: Metragem quadrada Vagas na garagem Andar Bairro etc. 3
6 Aprendendo com exemplos Para aprender a avaliar novos imóveis ele investiga pelo classificado do jornal vários exemplos: m 2 vagas andar valor , , ,
7 Aprendendo com exemplos O objetivo é aprender: f (m 2, vagas, andar) = valor, para quaisquer valores de m 2, vagas e andar. 5
8 Aprendendo com exemplos O objetivo é aprender: f (m 2, vagas, andar) = valor, para quaisquer valores de m 2, vagas e andar. Isso caracteriza o Aprendizado Supervisionado. 5
9 Aprendendo com exemplos Reduzindo nossa tabela para duas variáveis, temos: m 2 mil $
10 Aprendendo com exemplos Com duas variáveis é simples verificar a relação visualmente: y x 7
11 Aprendendo com exemplos Com duas variáveis é simples verificar a relação visualmente: y x 8
12 Aprendendo com exemplos Com essa reta podemos determinar novos valores: y x 9
13 Regressão Linear Esse método é conhecido como regressão linear. Ele pode ser usado quando nossas variáveis apresentam uma correlação linear entre elas! (mas tem alguns truques para permitir correlações não-lineares também) 10
14 Regressão Linear Dado um conjunto com n exemplos {(x i, y i )}, com x i R d, y R. Queremos encontrar f : R d R, tal que: f (x i ) w x i + b = y i 11
15 Regressão Linear Renomenado nossas variáveis do exemplo, temos: x i,1 = m 2 (1) x i,2 = vagas (2) x i,3 = andar (3) y i = vagas (4) x i = (x i,1, x i,2, x i,3 ) (5) 12
16 Regressão Linear f (x i ) = y i (6) w x i + b = y i (7) w 1 x i,1 + w 2 x i,2 + w 3 x i,3 + b = y i (8) 13
17 Regressão Linear Definindo w 0 = b e x i,0 = 1 para todo i, podemos escrever: w 0 x i,0 + w 1 x i,1 + w 2 x i,2 + w 3 x i,3 = y i (9) w x i = y i, (10) ou seja, y é o produto interno entre w e x i. 14
18 Regressão Linear Dados os n exemplos, podemos escrever na forma matricial, X R n (d+1), y R n 1 : com w R (d+1) 1. X w = y, Esse modelo de regressão é dito interpretável pois é fácil determinar o quanto uma mudança em determinado x j afeta o valor de y. 15
19 Ordinary Least Square
20 Ordinary Least Square O nosso problema consiste em determinar w de tal forma a minimizar o erro de aproximação: e(w) = (y X w) T (y X w). 16
21 Ordinary Least Square Para determinar a solução, calculamos a derivada e igualamos a zero para encontrar o mínimo local: e(w) w = (y X w)t (y X w). w 17
22 Exercício Calcule: e(w) w = (y X w)t (y X w). w 18
23 Exercício e(w) w = (y X w)t (y X w) w e(w) w = (yy T (X w) T y y T X w + (Xw) T Xw w e(w) w = (yy T 2w T X T y + w T X T X w w e(w) w = 2X T y + 2X T Xw 19
24 Exercício 2X T y + 2X T Xw = 0 2X T Xw = 2X T y X T Xw = X T y w = (X T X ) 1 X T y 20
25 Ordinary Least Square Temos então que: w = (X T X ) 1 X T y, com (X T X ) 1 X T sendo a pseudo-inversa de X. 21
26 Ordinary Least Square Para dimensões grandes de X o custo da multiplicação de matrizes pode se tornar proibitivo. Uma implementação simples, assumindo a existência de uma função inv que inverte uma matriz é dada por: ols :: [[Double]] -> [Double] -> [Double] ols x y = multmtx pseudoinv (multmtx (transpose x) y) where pseudoinv = inv $ multmtx (transpose x) x 22
27 Ordinary Least Square A multiplicação X T X pode ser simplificada como a soma dos produtos externos de cada x i por ele mesmo: ols :: [[Double]] -> [Double] -> [Double] ols x y = multmtx pseudoinv (multmtx (transpose x) y) where pseudoinv = inv $ sum $ map autoouterprod x autoouterprod xi = outerprod xi xi 23
28 Ordinary Least Square Da mesma forma X T y pode ser simplificada como a soma dos vetores x i y i : ols :: [[Double]] -> [Double] -> [Double] ols x y = multmtx pseudoinv $ sumvec (y.*.. x) where pseudoinv = inv $ sum $ map autoouterprod x autoouterprod xi = outerprod xi xi 24
29 Ordinary Least Square Em um contexto de computação distribuída, imaginamos que temos pedaços de (x i, y i ) espalhados pelo cluster de máquinas. Dessa formas podemos paralelizar pensando em funções de map e reduce: mapper :: ([Double], Double) -> ([[Double]], [Double]) reducer :: ([[Double]], [Double]) -> ([[Double]], [Double]) -> ( ols :: ChunksOf ([Double], Double) -> [Double] ols xy = multmtx pseudoinv xty where xtx, xty = mapreduce mapper reducer xy pseudoinv = inv xtx 25
30 Ordinary Least Square Como implementar as funções mapper e reducer? mapper :: ([Double], Double) -> ([[Double]], [Double]) reducer :: ([[Double]], [Double]) -> ([[Double]], [Double]) -> ( ols :: ChunksOf ([Double], Double) -> [Double] ols xy = multmtx pseudoinv xty where xtx, xty = mapreduce mapper reducer xy pseudoinv = inv xtx 26
31 Ordinary Least Square Como implementar as funções mapper e reducer? mapper :: ([Double], Double) -> ([[Double]], [Double]) mapper (x, y) = (outerprod x x, y *. x) reducer :: ([[Double]], [Double]) -> ([[Double]], [Double]) -> ([[Double]], [Double]) reducer (a, b) (a, b) = (a..+.. b, a.+. b) 27
32 Gradiente Descendente
33 Gradiente Descendente Uma outra forma de resolver o problema é utilizando métodos de gradiente para otimização. Dada uma função f (x) definida e diferenciável em torno de um ponto x 0, sabemos que ela decresce mais rapidamente na direção oposta do gradiente f (x 0 ). 28
34 Gradiente Descendente Ou seja, fazendo: x t+1 = x t α f (x t ). Temos que f (x t+1 ) f (x t ), para um α pequeno. 29
35 Gradiente Descendente Temos então que: f (x 0 ) f (x 1 ) f (x 2 ) f (x t ). 30
36 Gradiente Descendente Estamos interessados na minimização da aproximação de f (x) com y: e(w) = 1 n n y i x i w, i=1 por exemplo. 31
37 Gradiente Descendente Porém, a derivada da função valor absoluto é indefinida no ponto 0:
38 Gradiente Descendente Por outro lado, a função quadrática apresenta uma única solução ótima, e é bem definida: e(w) = 1 n n (y i x i w) 2, i=1 33
39 Gradiente Descendente
40 Gradiente Descendente Temos então que: e(w) = 2 n n (y i x i w) x i, i=1 35
41 Gradiente Descendente Ou com o mesmo ótimo: e(w) = 1 n n (y i x i w) x i, i=1 36
42 Gradiente Descendente O novo valor para w pode ser calculado como: w t+1 = w t + αe((y i x i w) x i ), 37
43 Gradiente Descendente O algoritmo pode ser descrito como: graddesc :: [[Double]] -> [Double] -> [Double] -> Double -> Int -> [Double] graddesc x y w alpha it convergiu = w otherwise = graddesc x y w alpha (it-1) where w = w.+. (alpha *. nabla) nabla = mediavetor $ map (\(yi, xi) -> yi *. xi) $ zip (y.-. y ) x y = map (dotprod w) x convergiu = (erro < 1e-6) (it==0) 38
44 Gradiente Descendente Se X é muito grande, temos que paralelizar o cálculo de nabla. Note que o cálculo de y do qual nabla depende, já está pronto para ser paralelizado. 39
45 Gradiente Descendente Uma forma de se pensar nessa paralelização é através de um processo mapper e reducer que recebem tuplas de um vetor x e um escalar y: graddesc :: ChunksOf [(Vector Double, Double)] -> Vector Double -> Double -> Int -> Vector Double graddesc xy w alpha it convergiu = w otherwise = graddesc xy w alpha (it-1) where w = w.+. (alpha *. (nabla./ n)) nabla = mapreduce mapper reducer xy convergiu = (it==0) n = sum $ map length xy 40
46 Exercício Escreva as funções mapper e reducer: 41
47 Exercício Escreva as funções mapper e reducer: mapper :: ([Double], Double) -> [Double] -> [Double] mapper (xi, yi) = ( yi - (dotprod w xi) ) *. xi reducer :: [Double] -> [Double] -> [Double] reducer = (.+.) 42
48 Escolha de α A escolha do valor de passo de atualização de w é importante pois um valor muito baixo ocasiona uma demora para atingir o ponto de convergência, por outro lado um valor muito alto faz com que o método do gradiente ultrapasse o ponto de ótimo levando a divergência. 43
49 Overfitting
50 Overfit Em muitos casos, a amostra de dados coletada não é representativa. No nosso exemplo, isso pode acontecer ao coletar dados de imóveis de apenas uma região específica. 44
51 Overfit Isso faz com que a reta de regressão não necessariamente represente a realidade: y x 45
52 Overfit Isso pode ocorrer por causa de: Coleta de dados sem o devido cuidado estatístico. Apenas algumas da d variáveis são realmente importantes. Algumas das variáveis são correlacionadas (ex.: área útil e área total). 46
53 Regularização Para resolver tal problema, utilizamos a regularização na função-objetivo. Para isso alteramos o cálculo do erro para: e(w) = 1 n n d (y i x i w) 2 + λ w i p, i=1 i=0 47
54 Regularização Com isso a equação de atualização de w passa a ser calculada como: w t+1 = w t + αe((y i x i w) x i ) λl p, com l p sendo o gradiente da regularização escolhida. 48
55 Regularização l 2 Para p = 2 temos a norma quadrática cujo gradiente resultará em: w t+1 = w t + αe((y i x i w) x i ) λw. Essa é conhecida como regularização l 2 ou ridge. Esse tipo de regularização incentiva baixos valores para todos os elementos do vetor w. 49
56 Regularização l 1 Para p = 1 temos o valor absoluto, o que resulta em descontinuidade. Portanto a fórmula de atualização fica: w t = w t + αe((y i x i w) x i ) wi t λ se wi t > λ w t+1 i = wi t + λ se wi t < λ c.c. w t i Essa é conhecida como regularização l 1 ou lasso. Esse tipo de regularização incentiva que alguns valores de w sejam zeros. 50
57 Regularização ElasticNet Podemos combinar ambas as regularizações: w t = w t + αe((y i x i w) x i ) wi t λ 1 λ 2 w se wi t > λ w t+1 i = wi t + λ 1 λ 2 w se wi t < λ wi t λ 2 w c.c. Essa é conhecida como regularização ElasticNet. 51
58 Variáveis Não-Lineares
59 Variáveis Não-Lineares Considere os seguintes pontos: y x 52
60 Variáveis Não-Lineares Uma alternativa para esses casos é criação de novos atributos como funções não lineares. Esses novos atributos podem ser: Transformação: aplicação de uma função não-linear em uma combinação linear das variáveis. Interação: interação polinomial entre duas ou mais variáveis. 53
61 Transformação A aplicação de uma função não-linear, se escolhida adequadamente, pode gerar novos atributos que possuem relação linear com a variável alvo. Funções comumentes utilizadas para essa tarefa: Sigmoid: 1 1+e x cria uma variável em um tipo sinal, com valores entre 0 e 1. Tangente Hiperbólica: tanh (x) idem ao anterior, mas variando entre 1 e 1. Logaritmo: log (x) lineariza variáveis que seguem uma lei de potência. Rectified Linear Units: max (0, x), elimina os valores negativos, relacionado com Redes Neurais. Softmax: e x i j ex j, similar a sigmoid, mas também faz com que a soma dos valores de x seja igual a 1. 54
62 Transformação Aplicando uma transformação logarítimica em nosso exemplo, temos: y x 55
63 Interação A interação polinomial gera interações de grau p entre as variáveis. Por exemplo, em um problema com 2 variáveis e p = 2 teríamos as variáveis x 1 x 1, x 1 x 2, x 2 x 2. Já para p = 3 teríamos x 3 1, x 2 1 x 2, x 1 x 2 2, x
64 Interação Introduzindo a variável x 2 1 em nosso exemplo, temos: y x 57
65 Gerando Atributos Polinomiais Dado um vetor x = [x 1, x 2, x 3,..., x d ], queremos obter: [[1], [x 1, x 2,..., x d ], [x 2 1, x 1 x 2,...], [x 3 1, x 2 1 x2,...],...]. Não queremos que repita x 1 x 2 ex 2 x 1. 58
66 Gerando Atributos Polinomiais Vamos iniciar criando uma lista inicial infinita da seguinte forma: poly = [[1], [], [],..] 59
67 Gerando Atributos Polinomiais Agora, para cada variável x i e para cada lista l poly, multiplicamos x i a cada elemento de l e concatenamos a lista gerada com a lista seguinte. Para x 1 teremos: ys = [[1], [x_1], [x_1^2], [x_1^3],..] 60
68 Gerando Atributos Polinomiais Agora, para cada variável x i e para cada lista l ys, multiplicamos x i a cada elemento de l e concatenamos a lista gerada com a lista seguinte. Para x 2 teremos: ys = [[1], [x_1, x_2], [x_1^2, x_1 \cdot x_2, x_2^2], [x_1^3, x_1^2 \cdot x_2, x_1 \cdot x_2^2, x_2^3],..] Queremos uma função que aplique map (*x i ) em cada elemento de uma lista e concatene com a seguinte. 61
69 Gerando Atributos Polinomiais Ou seja, queremos: ys = [[1], [], [],..] [[1], (map (*x1) [1]) ++ [], (map (*x1) (map (*x1) [1]) ++ []) ++ [],..] ou: ys = [[1], [], [],..] [[1], f [1] [], f (f [1] []) [],..] f xs1 xs2 = (map (*x1) xs1) ++ xs2 62
70 Gerando Atributos Polinomiais Ou seja, queremos: f :: Double -> [[Double]] -> [[Double]] f x (y:[]) = [y] -- já é o último elemento f x (y:z@(zi:zs)) = y : (f x (g:zs)) where g = (map (*x) y) ++ zi 63
71 Gerando Atributos Polinomiais Fazendo a chamada: f 2 [[1], [], [], []] geramos: f 2 ([1]:([]:[[], []] = [1] : f 2 [2]:[[], []] f 2 ([1]:([]:[[], []] = [1] : [2] : f 2 [4]:[[]] f 2 ([1]:([]:[[], []] = [1] : [2] : [4] : f 2 [8]:[] f 2 ([1]:([]:[[], []] = [1] : [2] : [4] : [[8]] 64
72 Gerando Atributos Polinomiais Fazendo a chamada: f 3 [[1], [2], [4], [8]] geramos: f 2 ([1]:([]:[[], []] = [1] : f 3 [2, 3] : [[4], [8]] f 2 ([1]:([]:[[], []] = [1] : [2, 3] : f 3 [4, 6, 9] : [[8]] f 2 ([1]:([]:[[], []] = [1] : [2, 3] : [4, 6, 9] : f 3 [8, 12, 18, 27] : [] f 2 ([1]:([]:[[], []] = [1] : [2, 3] : [4, 6, 9] : [[8, 12, 18, 27]] 65
73 Gerando Atributos Polinomiais Então dado uma lista inicial que armazenará as interações até a ordem k: order k = [1] : (take k $ repeat []) Temos então a função: poly k x = foldr f (order k) x 66
74 Gerando Atributos Polinomiais - Paralelo A entrada da função é apenas um vetor de x, portanto basta aplicar um mapper. A implementação desse caso fica como exercício para casa. 67
75 Atividade 03 Complete o Laboratório Regressão Linear no Spark 68
Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC
Regressão Linear Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Ordinary Least Square 2. Gradiente Descendente 1 Aprendendo com exemplos Uma das formas de aprendizado de máquina é definido
Leia maisRegressão. Prof. Fabrício Olivetti de França Universidade Federal do ABC
Regressão Prof. Fabrício Olivetti de França Universidade Federal do ABC Aprendendo com Exemplos Uma das formas de aprendizado de máquina é definido como: Dado um conjunto de exemplos X, com cada x sendo
Leia maisRegressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC
Regressão Linear Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Overfitting 2. Treino e Validação 3. Baseline dos modelos 1 Overfitting Overfit Em muitos casos, a amostra de dados coletada
Leia maisRegressão Polinomial e Simbólica
Regressão Polinomial e Simbólica Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Variáveis Não-Lineares 2. Regressão Simbólica 1 Variáveis Não-Lineares Variáveis Não-Lineares Considere
Leia maisRedução de Dimensionalidade e Agrupamento de Dados
Redução de Dimensionalidade e Agrupamento de Dados Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Análise de Componentes Principais 2. Agrupamento de Dados 1 Redução de Dimensionalidade
Leia maisSumarizando Dados. Fabrício Olivetti de França. Universidade Federal do ABC
Sumarizando Dados Fabrício Olivetti de França Universidade Federal do ABC Sumarizando os dados Sumarização Antes de extrair informações da base de dados, é importante entender seu conteúdo. Sumarização:
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
Leia maisAprendizado por Reforço usando Aproximação
Aprendizado por Reforço usando Aproximação de Funções Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aproximação de Funções 2. Do the evolution 1 Aproximação de Funções Função Utilidade
Leia maisClassificação. Prof. Fabrício Olivetti de França Universidade Federal do ABC
Classificação Prof. Fabrício Olivetti de França Universidade Federal do ABC Classificação Quando queremos encontrar: f(x) = y C e C = {c1, c2, c3,, cn} Classificação Se um e-mail é spam ou não De qual
Leia maisProcessamento de Imagens CPS755
Processamento de Imagens CPS755 aula 06 - sistemas não lineares Antonio Oliveira Ricardo Marroquim 1 / 38 laboratório de processamento de imagens tópicos RANSAC métodos iterativos (não-lineares) gradientes
Leia maisProfs.: Eduardo Vargas Ferreira Walmes Marques Zeviani
Universidade Federal do Paraná Laboratório de Estatística e Geoinformação - LEG Regularização Profs.: Eduardo Vargas Ferreira Walmes Marques Zeviani Introdução: Regressão Linear Considere o exemplo referente
Leia maisAprendizado de Supervisionado
Aprendizado de Supervisionado Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendendo com Exemplos 2. Classificação 3. Conceitos Gerais 4. Vizinho Mais Próximo 1 Aprendendo com Exemplos
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Leia maisRenato Martins Assunção
Análise Numérica Renato Martins Assunção DCC - UFMG 2012 Renato Martins Assunção (DCC - UFMG) Análise Numérica 2012 1 / 32 Introdução Sistemas lineares - introdução Nosso primeiro problema neste curso
Leia maisAprendizado de Supervisionado
Aprendizado de Supervisionado Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Padronizando e Normalizando os Atributos 2. Tipos de Atributos 3. Representação Textual 1 Padronizando e
Leia maisRegressão Linear. Renato Martins Assunção DCC - UFMG. Renato Martins Assunção (DCC - UFMG) Regressão Linear / 25
Regressão Linear Renato Martins Assunção DCC - UFMG 2015 Renato Martins Assunção (DCC - UFMG) Regressão Linear 2015 1 / 25 Predição de preços imobiliários Qual o valor de um imóvel? Existem softwares para
Leia maisJAI 6 - Deep Learning Teoria e Prática
JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado
Leia maisRedes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Leia maisBCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017
BCC465 - TÉCNICAS DE OTIMIZAÇÃO MULTI-OBJETIVO Aula 04 - Otimização Não-linear Gladston Juliano Prates Moreira email: gladston@iceb.ufop.br CSILab, Departamento de Computação Universidade Federal de Ouro
Leia maisEspaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:
Espaços Euclidianos Espaços R n O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: R n = {(x 1,..., x n ) : x 1,..., x n R}. R 1 é simplesmente o conjunto R dos números
Leia maisMáquinas de Vetores de Suporte
Máquinas de Vetores de Suporte Marcelo K. Albertini 14 de Setembro de 2015 2/22 Máquinas de Vetores de Suporte Support Vector Machines (SVM) O que é? Perceptron revisitado Kernels (núcleos) Otimização
Leia maisAula 5 - Produto Vetorial
Aula 5 - Produto Vetorial Antes de iniciar o conceito de produto vetorial, precisamos recordar como se calculam os determinantes. Mas o que é um Determinante? Determinante é uma função matricial que associa
Leia maisMétodos de Pesquisa Operacional
Métodos de Pesquisa Operacional Programação Linear é a parte da Pesquisa Operacional que trata da modelagem e resolução de problemas formulados com funções lineares. Programação Linear } Métodos de Resolução
Leia maisParadigmas de Programação
Paradigmas de Programação Fabrício Olivetti de França 21 de Junho de 2018 1 Listas 2 Listas Uma das principais estruturas em linguagens funcionais. Representa uma coleção de valores de um determinado tipo.
Leia maisAprendizado de Máquina
Aprendizado de Máquina Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Introdução 1 Introdução Aprendizado de Máquina Extração de conhecimento. Automatização de tarefas. Tomada de Decisões.
Leia maisRedes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions
Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a
Leia mais3 Aprendizado por reforço
3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
Leia maisSME Cálculo Numérico. Lista de Exercícios: Gabarito
Exercícios de prova SME0300 - Cálculo Numérico Segundo semestre de 2012 Lista de Exercícios: Gabarito 1. Dentre os métodos que você estudou no curso para resolver sistemas lineares, qual é o mais adequado
Leia maisInterpolação polinomial
Quarto roteiro de exercícios no Scilab Cálculo Numérico Rodrigo Fresneda 8 de abril de 0 Guia para respostas: Entregue suas respostas às tarefas contidas no roteiro de cada uma das quatro atividades, incluindo
Leia maisVirgílio A. F. Almeida DCC-UFMG 2005
Virgílio A. F. Almeida DCC-UFMG 005 O que é um bom modelo? Como estimar os parâmetros do modelo Como alocar variações Intervalos de Confiança para Regressões Inspeção Visual ! "# Para dados correlacionados,
Leia maisCEFET/RJ. Aprendizado de Máquina - Trabalho 01
CEFET/RJ Programa de Pós-graduação em Ciência da Computação Aprendizado de Máquina - Trabalho 01 Prof. Eduardo Bezerra (ebezerra@cefet-rj.br) Setembro/2017 Conteúdo 1 Regressão Linear com uma Variável
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer
Leia maisFabrício Olivetti de França. Universidade Federal do ABC
Classificação: Naive Bayes Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Naive Bayes 1 Naive Bayes Aprendizado Probabiĺıstico Foi mencionado anteriormente que o uso da função logística
Leia maisUNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição
UNIVERSIDADE FEDERAL DO ABC BC1419 Cálculo Numérico - LISTA 1 - Zeros de Funções (Profs. André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda) 1 Existência e unicidade de zeros; Métodos
Leia maisMapReduce Mapeando e reduzindo
MapReduce Mapeando e reduzindo Prof. Fabrício Olivetti de França Universidade Federal do ABC Motivação Vimos até então que nosso maior problema é a quantidade de dados. O processamento não pode ser distribuído
Leia maisPREVISÃO. Prever o que irá. acontecer. boas decisões com impacto no futuro. Informação disponível. -quantitativa: dados.
PREVISÃO O problema: usar a informação disponível para tomar boas decisões com impacto no futuro Informação disponível -qualitativa Prever o que irá acontecer -quantitativa: dados t DEI/FCTUC/PGP/00 1
Leia maisPROVAS Ciência da Computação. 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta)
PROVAS Ciência da Computação 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta) Ajuste de Curvas Objetivo Ajustar curvas pelo método dos mínimos quadrados 1 - INTRODUÇÃO Em geral, experimentos
Leia maisProgramação Funcional Aulas 5 & 6
Programação Funcional Aulas 5 & 6 Sandra Alves DCC/FCUP 2016/17 Definições usando outras funções Podemos definir funções usando outras previamente definidas (por exemplo: do prelúdio-padrão). Exemplo:
Leia maisCORRELAÇÃO E REGRESSÃO. Modelos Probabilísticos para a Computação Professora: Andréa Rocha. UNIVERSIDADE FEDERAL DA PARAÍBA Dezembro, 2011
CORRELAÇÃO E REGRESSÃO CORRELAÇÃO E REGRESSÃO Modelos Probabilísticos para a Computação Professora: Andréa Rocha UNIVERSIDADE FEDERAL DA PARAÍBA Dezembro, 2011 CORRELAÇÃO Introdução Quando consideramos
Leia maisMódulo 4 Ajuste de Curvas
Módulo 4 Ajuste de Curvas 4.1 Intr odução Em matemática e estatística aplicada existem muitas situações onde conhecemos uma tabela de pontos (x; y), com y obtido experimentalmente e deseja se obter uma
Leia mais3. Resolução de problemas por meio de busca
Inteligência Artificial - IBM1024 3. Resolução de problemas por meio de busca Prof. Renato Tinós Local: Depto. de Computação e Matemática (FFCLRP/USP) 1 Principais Tópicos 3. Resolução de problemas por
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support
Leia maisAprendizado Não-Supervisionado
Aprendizado Não-Supervisionado Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendizado Não-Supervisionado 2. Agrupamento de Dados 1 Aprendizado Não-Supervisionado Aprendizado Não-Supervisionado
Leia maisProgramação Paralela. com Haskell. Fabrício Olivetti de França. Universidade Federal do ABC
Programação Paralela com Haskell Fabrício Olivetti de França Universidade Federal do ABC Trabalhando com Vetores e Matrizes Vetores Em muitos algoritmos de Mineração de Dados, trabalharemos com vetores
Leia maisProf. MSc. David Roza José 1/26
1/26 Mínimos Quadrados Geral e Regressão Não Linear Objetivos: Implementar a regressão polinomial; Implementar regressão múltipla linear; Entender a formulação do modelo linear geral de mínimos quadrados;
Leia maisMétodo de Quadrados Mínimos: Caso discreto
Método de Quadrados Mínimos: Caso discreto Marina Andretta ICMC-USP 23 de maio de 2012 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires. Marina Andretta (ICMC-USP) sme0500 - cálculo numérico
Leia mais. Repare que ao multiplicar os vetores (-1,1) e
Álgebra Linear II P1-2014.2 Obs: Todas as alternativas corretas são as representadas pela letra A. 1 AUTOVETORES/ AUTOVALORES Essa questão poderia ser resolvida por um sistema bem chatinho. Mas, faz mais
Leia maisMétodo do Lagrangiano aumentado
Método do Lagrangiano aumentado Marina Andretta ICMC-USP 23 de novembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 1 / 17 Problema com restrições gerais Vamos
Leia maisRedes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
Leia maisMultiplicadores de Lagrange
Multiplicadores de Lagrange Para motivar o método, suponha que queremos maximizar uma função f (x, y) sujeito a uma restrição g(x, y) = 0. Geometricamente: queremos um ponto sobre o gráfico da curva de
Leia maisResolução de sistemas de equações lineares: Método do Gradiente
Resolução de sistemas de equações lineares: Método do Gradiente Marina Andretta ICMC-USP 24 de março de 2015 Marina Andretta (ICMC-USP) sme0301 - Métodos Numéricos para Engenharia I 24 de março de 2015
Leia maisCapítulo 5 Derivadas Parciais e Direcionais
Capítulo 5 Derivadas Parciais e Direcionais 1. Conceitos Sabe-se que dois problemas estão relacionados com derivadas: Problema I: Taxas de variação da função. Problema II: Coeficiente angular de reta tangente.
Leia maisESPAÇO VETORIAL REAL. b) Em relação à multiplicação: (ab) v = a(bv) (a + b) v = av + bv a (u + v ) = au + av 1u = u, para u, v V e a, b R
ESPAÇO VETORIAL REAL Seja um conjunto V, não vazio, sobre o qual estão definidas as operações de adição e multiplicação por escalar, isto é: u, v V, u + v V a R, u V, au V O conjunto V com estas duas operações
Leia maisCC-226 Aula 03 - Análise de Regressão
CC-226 Aula 03 - Análise de Regressão Carlos Henrique Q Forster - Instituto Tecnológico de Aeronáutica 2008 1 Regressão Linear Simples 11 Descrição do problema de regressão linear simples Relação entre
Leia maisSetor de Tecnologia - TC Engenharia Ambiental Prova 1. Matemática Aplicada I
Universidade Federal do Paraná Matemática Aplicada I Setor de Tecnologia - TC Engenharia Ambiental 2014-2 Curitiba, 24.09.2014 Prova 1 Matemática Aplicada I Tobias Bleninger Departamento de Engenharia
Leia maisCAPÍTULO 13 (G F )(X) = X, X A (F G)(Y ) = Y, Y B. F G = I da e G F = I db,
CAPÍTULO 3 TEOREMA DA FUNÇÃO INVERSA 3 Introdução A função identidade em R n é a função que a cada elemento de R n associa o próprio elemento ie I d : R n R n X x x n I d X X x x n A função identidade
Leia maisÁlgebra Linear. Transformações Lineares
Álgebra Linear Transformações Lineares Fórmulas e Resumo Teórico Para fins gerais, considere V um espaço vetorial e uma transformação T: V W. Propriedades de Transformações Lineares - T é linear se: Para
Leia maisAula 6. Zeros reais de funções Parte 3
CÁLCULO NUMÉRICO Aula 6 Zeros reais de funções Parte 3 MÉTODO DE NEWTON RAPHSON Cálculo Numérico 3/48 CONSIDERAÇÕES INICIAS MÉTODO DO PONTO FIXO: Uma das condições de convergência é que onde I é um intervalo
Leia maisProf. Lorí Viali, Dr. PUCRS FAMAT: Departamento de Estatística. Curso: Engenharia de Produção
Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação
Leia maisSUPPORT VECTOR MACHINE - SVM
SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento
Leia maisConsidere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b
Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação
Leia maisMarina Andretta. 10 de outubro de Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis.
Solução básica viável inicial Marina Andretta ICMC-USP 10 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211
Leia mais(2008/2009) Espaços vectoriais. Matemática 1º Ano - 1º Semestre 2008/2009. Mafalda Johannsen
Espaços vectoriais Matemática 1º Ano 1º Semestre 2008/2009 Capítulos Características de um Espaço Vectorial Dimensão do Espaço Subespaço Vectorial Combinação Linear de Vectores Representação de Vectores
Leia maisResolução de sistemas de equações lineares: Método dos Gradientes Conjugados
Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados Marina Andretta/Franklina Toledo ICMC-USP 24 de março de 2015 Baseado no livro Cálculo Numérico, de Neide B. Franco Marina Andretta/Franklina
Leia maisÁLGEBRA LINEAR. Combinação Linear, Subespaços Gerados, Dependência e Independência Linear. Prof. Susie C. Keller
ÁLGEBRA LINEAR Combinação Linear, Subespaços Gerados, Dependência e Prof. Susie C. Keller Combinação Linear Sejam os vetores v 1, v 2,..., v n do espaço vetorial V e os escalares a 1, a 2,..., a n. Qualquer
Leia maisMáquinas de Vetores de Suporte
Máquinas de Vetores de Suporte Prof. Marcelo Keese Albertini Faculdade de Computação Universidade Federal de Uberlândia 19 de Junho de 2017 2/27 Máquinas de Vetores de Suporte Support Vector Machines (SVM)
Leia maisCálculo Numérico BCC760
Cálculo Numérico BCC760 Resolução de Sistemas de Equações Lineares Simultâneas Departamento de Computação Página da disciplina http://www.decom.ufop.br/bcc760/ 1 Introdução! Definição Uma equação é dita
Leia maisMÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA
MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA Marlon Luiz Dal Pasquale Junior, UNESPAR/FECILCAM, jr.marlon@hotmail.com Solange Regina dos Santos (OR), UNESPAR/FECILCAM, solaregina@fecilcam.br
Leia maisParte 1: Exercícios Teóricos
Cálculo Numérico SME0104 ICMC-USP Lista 5: Zero de Funções Lembrete (informação que vai estar disponível na prova) Método de Newton Método da Secante x k+1 = x k f(x k) f (x k ), x k+1 = x k J 1 F (x k
Leia maisUma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law
Uma Introdução a SVM Support Vector Machines Obs: Baseada nos slides de Martin Law Sumário Historia das SVMs Duas classes, linearmente separáveis O que é um bom limite para a decisão? Duas classes, não
Leia maisMarina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright.
Métodos de regiões de confiança Marina Andretta ICMC-USP 17 de setembro de 2014 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear
Leia mais6. Verifique detalhadamente que os seguintes conjuntos são espaços vetoriais(com a soma e produto por escalar usuais):
a Lista. Sejam u = ( 4 ) v = ( 5) e w = (a b). Encontre a e b tais que (a)w = u + v (b)w = 5v (c)u + w = u v. Represente os vetores acima no plano cartesiano.. Sejam u = (4 ) v = ( 4) e w = (a b c). Encontre
Leia maisCC-226 Aula 07 - Estimação de Parâmetros
CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições
Leia mais4 Estado da Arte do Kernel PCA
4 Estado da Arte do Kernel PCA Conforme apresentado no Capítulo 1, o Kernel PCA é uma técnica promissora para auxiliar no processo de ajuste de histórico, devido a sua capacidade de extrair parte da estatística
Leia maisModelagem Computacional. Parte 7 2
Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 7 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,
Leia maisAgenda do Dia Aula 14 (19/10/15) Sistemas Lineares: Introdução Classificação
Agenda do Dia Aula 14 (19/10/15) Sistemas Lineares: Introdução Classificação Sistemas Lineares Sistemas lineares são sistemas de equações com m equações e n incógnitas formados por equações lineares. Um
Leia maisÁlgebra Linear Exercícios Resolvidos
Álgebra Linear Exercícios Resolvidos Agosto de 001 Sumário 1 Exercícios Resolvidos Uma Revisão 5 Mais Exercícios Resolvidos Sobre Transformações Lineares 13 3 4 SUMA RIO Capítulo 1 Exercícios Resolvidos
Leia maisANÁLISE COMPLEXA E EQUAÇÕES DIFERENCIAIS. Apresente e justifique todos os cálculos
Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise ANÁLISE COMPLEXA E EQUAÇÕES DIFERENCIAIS TESTES DE RECUPERAÇÃO A - 6 DE JUNHO DE 9 - DAS H ÀS :3H Teste Apresente e justifique
Leia maisGAAL Exercícios 6: Umas soluções
GAAL Exercícios 6: Umas soluções. Quais dos seguintes vetores são combinação linear de u = (5, 3, ), v = (, 4, 3), w = (, 8, 7)? (a) (, 2, 5) (b) (, 2, 8) (c) ( 2, ) (d) (, 2, 3). O conjunto {u, v, w}
Leia maisRespostas sem justificativas não serão aceitas Não é permitido o uso de aparelhos eletrônicos
UNIVERSIDADE FEDERAL RURAL DE PERNAMBUCO UNIDADE ACADÊMICA DO CABO DE SANTO AGOSTINHO CÁLCULO DIFERENCIAL E INTEGRAL - 018. - TURMA MA 1A VERIFICAÇÃO DE APRENDIZAGEM - PARTE Nome Legível RG CPF Respostas
Leia maisAula 25 - Espaços Vetoriais
Espaço Vetorial: Aula 25 - Espaços Vetoriais Seja V um conjunto não vazio de objetos com duas operações definidas: 1. Uma adição que associa a cada par de objetos u, v em V um único objeto u + v, denominado
Leia maisTópicos Especiais: Inteligência Artificial REDES NEURAIS
Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig
Leia mais, cosh (x) = ex + e x. , tanh (x) = ex e x 2
Exercícios Adicionais 1. Podemos definir as funções seno, cosseno e tangente hiperbólicos como: sinh (x) = ex e x, cosh (x) = ex + e x, tanh (x) = ex e x e x + e x Escreva três funções no Scilab que implementem
Leia maisUniversidade Federal de Viçosa Centro de Ciências Exatas e Tecnológicas Departamento de Matemática
1 Universidade Federal de Viçosa Centro de Ciências Exatas e Tecnológicas Departamento de Matemática 3 a Lista - MAT 137 - Introdução à Álgebra Linear 2017/II 1. Sejam u = ( 4 3) v = (2 5) e w = (a b).
Leia mais6. Modelos baseados em dados
Modelação e Simulação 6.Modelos baseados em dados 6. Modelos baseados em dados Objectivo: Após completar este módulo, o aluno deverá ser capaz de formular e resolver problemas simples de estimação de parâmetros
Leia maisAula 15. Derivadas Direcionais e Vetor Gradiente. Quando u = (1, 0) ou u = (0, 1), obtemos as derivadas parciais em relação a x ou y, respectivamente.
Aula 15 Derivadas Direcionais e Vetor Gradiente Seja f(x, y) uma função de variáveis. Iremos usar a notação D u f(x 0, y 0 ) para: Derivada direcional de f no ponto (x 0, y 0 ), na direção do vetor unitário
Leia maisProf.: Eduardo Vargas Ferreira
Universidade Federal do Paraná Laboratório de Estatística e Geoinformação - LEG Introdução Prof.: Eduardo Vargas Ferreira O que é Machine Learning? Estatística Data Mining 2 O que é Machine Learning? Estatística
Leia maisparciais segunda parte
Aula 24 Técnicas de integração frações parciais segunda parte Objetivo Aprender a técnica de integração conhecida como frações parciais. Como lidar com fatores irredutíveis de grau 2 Agora queremos integrar
Leia maisCálculo Numérico / Métodos Numéricos. Solução de equações polinomiais Briot-Ruffini-Horner
Cálculo Numérico / Métodos Numéricos Solução de equações polinomiais Briot-Ruffini-Horner Equações Polinomiais p = x + + a ( x) ao + a1 n x n Com a i R, i = 0,1,, n e a n 0 para garantir que o polinômio
Leia maisResolução das objetivas 3ª Prova de Álgebra Linear II da UFRJ, período
www.engenhariafacil.weebly.com Resolução das objetivas 3ª Prova de Álgebra Linear II da UFRJ, período 2013.2 OBS: Todas as alternativas corretas são as letras A. 1) Para encontrar o autovetor associado
Leia maisSeja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma:
46 VALOR ESPERADO CONDICIONADO Seja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma: Variável contínua E + ( X Y
Leia maisCálculo II. Resumo e Exercícios P3
Cálculo II Resumo e Exercícios P3 Resuminho Teórico e Fórmulas Parte 1 Funções de Três Variáveis w = f(x, y, z) Definida em R +, apenas um valor de w para cada (x, y, z). Domínio de Função de Três Variáveis:
Leia maisRenato Martins Assunção
Análise Numérica Renato Martins Assunção DCC - UFMG 2012 Renato Martins Assunção (DCC - UFMG) Análise Numérica 2012 1 / 84 Equação linear Sistemas de equações lineares A equação 2x + 3y = 6 é chamada linear
Leia maisNotas de Aula de Cálculo Numérico
IM-Universidade Federal do Rio de Janeiro Departamento de Ciência da Computação Notas de Aula de Cálculo Numérico Lista de Exercícios Prof. a Angela Gonçalves 3 1. Erros 1) Converta os seguintes números
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que
Leia maisHaskell Paralelo (e entrada e saída de dados)
Haskell Paralelo (e entrada e saída de dados) Prof. Fabrício Olivetti de França Universidade Federal do ABC Entrada e Saída de dados Imprimindo na tela Nós já conhecemos o comando print, que imprime qualquer
Leia maisAlgebra Linear. 1. Ortonormalização. 2. Sistema de Equações Lineares. pag.1 Teoria de Sistemas Lineares Aula 6. c Reinaldo M.
Algebra Linear 1. Ortonormalização 2. Sistema de Equações Lineares pag.1 Teoria de Sistemas Lineares Aula 6 Ortonormalização Um vetor x é dito estar normalizado se sua norma Euclidiana é igual a 1, ie,
Leia mais