Algoritmos de Regressão

Tamanho: px
Começar a partir da página:

Download "Algoritmos de Regressão"

Transcrição

1 Algoritmos de Regressão com Big Data Fabrício Olivetti de França Universidade Federal do ABC

2 Tópicos 1. Regressão Linear 2. Ordinary Least Square 3. Gradiente Descendente 4. Overfitting 5. Variáveis Não-Lineares 1

3 Regressão Linear

4 Aprendendo com exemplos Uma das formas de aprendizado de máquina é definido como um conjunto de dados na forma {(x, y)}, com x R d um vetor de atributos e y R uma variável alvo, queremos descobrir um mapa entre um certo x para seu valor y correspondente: f : x y. 2

5 Aprendendo com exemplos Vamos tomar como exemplo um corretor que quer aprender a avaliar o valor de um imóvel. Cada imóvel pode ser representado por diversas características como: Metragem quadrada Vagas na garagem Andar Bairro etc. 3

6 Aprendendo com exemplos Para aprender a avaliar novos imóveis ele investiga pelo classificado do jornal vários exemplos: m 2 vagas andar valor , , ,

7 Aprendendo com exemplos O objetivo é aprender: f (m 2, vagas, andar) = valor, para quaisquer valores de m 2, vagas e andar. 5

8 Aprendendo com exemplos O objetivo é aprender: f (m 2, vagas, andar) = valor, para quaisquer valores de m 2, vagas e andar. Isso caracteriza o Aprendizado Supervisionado. 5

9 Aprendendo com exemplos Reduzindo nossa tabela para duas variáveis, temos: m 2 mil $

10 Aprendendo com exemplos Com duas variáveis é simples verificar a relação visualmente: y x 7

11 Aprendendo com exemplos Com duas variáveis é simples verificar a relação visualmente: y x 8

12 Aprendendo com exemplos Com essa reta podemos determinar novos valores: y x 9

13 Regressão Linear Esse método é conhecido como regressão linear. Ele pode ser usado quando nossas variáveis apresentam uma correlação linear entre elas! (mas tem alguns truques para permitir correlações não-lineares também) 10

14 Regressão Linear Dado um conjunto com n exemplos {(x i, y i )}, com x i R d, y R. Queremos encontrar f : R d R, tal que: f (x i ) w x i + b = y i 11

15 Regressão Linear Renomenado nossas variáveis do exemplo, temos: x i,1 = m 2 (1) x i,2 = vagas (2) x i,3 = andar (3) y i = vagas (4) x i = (x i,1, x i,2, x i,3 ) (5) 12

16 Regressão Linear f (x i ) = y i (6) w x i + b = y i (7) w 1 x i,1 + w 2 x i,2 + w 3 x i,3 + b = y i (8) 13

17 Regressão Linear Definindo w 0 = b e x i,0 = 1 para todo i, podemos escrever: w 0 x i,0 + w 1 x i,1 + w 2 x i,2 + w 3 x i,3 = y i (9) w x i = y i, (10) ou seja, y é o produto interno entre w e x i. 14

18 Regressão Linear Dados os n exemplos, podemos escrever na forma matricial, X R n (d+1), y R n 1 : com w R (d+1) 1. X w = y, Esse modelo de regressão é dito interpretável pois é fácil determinar o quanto uma mudança em determinado x j afeta o valor de y. 15

19 Ordinary Least Square

20 Ordinary Least Square O nosso problema consiste em determinar w de tal forma a minimizar o erro de aproximação: e(w) = (y X w) T (y X w). 16

21 Ordinary Least Square Para determinar a solução, calculamos a derivada e igualamos a zero para encontrar o mínimo local: e(w) w = (y X w)t (y X w). w 17

22 Exercício Calcule: e(w) w = (y X w)t (y X w). w 18

23 Exercício e(w) w = (y X w)t (y X w) w e(w) w = (yy T (X w) T y y T X w + (Xw) T Xw w e(w) w = (yy T 2w T X T y + w T X T X w w e(w) w = 2X T y + 2X T Xw 19

24 Exercício 2X T y + 2X T Xw = 0 2X T Xw = 2X T y X T Xw = X T y w = (X T X ) 1 X T y 20

25 Ordinary Least Square Temos então que: w = (X T X ) 1 X T y, com (X T X ) 1 X T sendo a pseudo-inversa de X. 21

26 Ordinary Least Square Para dimensões grandes de X o custo da multiplicação de matrizes pode se tornar proibitivo. Uma implementação simples, assumindo a existência de uma função inv que inverte uma matriz é dada por: ols :: [[Double]] -> [Double] -> [Double] ols x y = multmtx pseudoinv (multmtx (transpose x) y) where pseudoinv = inv $ multmtx (transpose x) x 22

27 Ordinary Least Square A multiplicação X T X pode ser simplificada como a soma dos produtos externos de cada x i por ele mesmo: ols :: [[Double]] -> [Double] -> [Double] ols x y = multmtx pseudoinv (multmtx (transpose x) y) where pseudoinv = inv $ sum $ map autoouterprod x autoouterprod xi = outerprod xi xi 23

28 Ordinary Least Square Da mesma forma X T y pode ser simplificada como a soma dos vetores x i y i : ols :: [[Double]] -> [Double] -> [Double] ols x y = multmtx pseudoinv $ sumvec (y.*.. x) where pseudoinv = inv $ sum $ map autoouterprod x autoouterprod xi = outerprod xi xi 24

29 Ordinary Least Square Em um contexto de computação distribuída, imaginamos que temos pedaços de (x i, y i ) espalhados pelo cluster de máquinas. Dessa formas podemos paralelizar pensando em funções de map e reduce: mapper :: ([Double], Double) -> ([[Double]], [Double]) reducer :: ([[Double]], [Double]) -> ([[Double]], [Double]) -> ( ols :: ChunksOf ([Double], Double) -> [Double] ols xy = multmtx pseudoinv xty where xtx, xty = mapreduce mapper reducer xy pseudoinv = inv xtx 25

30 Ordinary Least Square Como implementar as funções mapper e reducer? mapper :: ([Double], Double) -> ([[Double]], [Double]) reducer :: ([[Double]], [Double]) -> ([[Double]], [Double]) -> ( ols :: ChunksOf ([Double], Double) -> [Double] ols xy = multmtx pseudoinv xty where xtx, xty = mapreduce mapper reducer xy pseudoinv = inv xtx 26

31 Ordinary Least Square Como implementar as funções mapper e reducer? mapper :: ([Double], Double) -> ([[Double]], [Double]) mapper (x, y) = (outerprod x x, y *. x) reducer :: ([[Double]], [Double]) -> ([[Double]], [Double]) -> ([[Double]], [Double]) reducer (a, b) (a, b) = (a..+.. b, a.+. b) 27

32 Gradiente Descendente

33 Gradiente Descendente Uma outra forma de resolver o problema é utilizando métodos de gradiente para otimização. Dada uma função f (x) definida e diferenciável em torno de um ponto x 0, sabemos que ela decresce mais rapidamente na direção oposta do gradiente f (x 0 ). 28

34 Gradiente Descendente Ou seja, fazendo: x t+1 = x t α f (x t ). Temos que f (x t+1 ) f (x t ), para um α pequeno. 29

35 Gradiente Descendente Temos então que: f (x 0 ) f (x 1 ) f (x 2 ) f (x t ). 30

36 Gradiente Descendente Estamos interessados na minimização da aproximação de f (x) com y: e(w) = 1 n n y i x i w, i=1 por exemplo. 31

37 Gradiente Descendente Porém, a derivada da função valor absoluto é indefinida no ponto 0:

38 Gradiente Descendente Por outro lado, a função quadrática apresenta uma única solução ótima, e é bem definida: e(w) = 1 n n (y i x i w) 2, i=1 33

39 Gradiente Descendente

40 Gradiente Descendente Temos então que: e(w) = 2 n n (y i x i w) x i, i=1 35

41 Gradiente Descendente Ou com o mesmo ótimo: e(w) = 1 n n (y i x i w) x i, i=1 36

42 Gradiente Descendente O novo valor para w pode ser calculado como: w t+1 = w t + αe((y i x i w) x i ), 37

43 Gradiente Descendente O algoritmo pode ser descrito como: graddesc :: [[Double]] -> [Double] -> [Double] -> Double -> Int -> [Double] graddesc x y w alpha it convergiu = w otherwise = graddesc x y w alpha (it-1) where w = w.+. (alpha *. nabla) nabla = mediavetor $ map (\(yi, xi) -> yi *. xi) $ zip (y.-. y ) x y = map (dotprod w) x convergiu = (erro < 1e-6) (it==0) 38

44 Gradiente Descendente Se X é muito grande, temos que paralelizar o cálculo de nabla. Note que o cálculo de y do qual nabla depende, já está pronto para ser paralelizado. 39

45 Gradiente Descendente Uma forma de se pensar nessa paralelização é através de um processo mapper e reducer que recebem tuplas de um vetor x e um escalar y: graddesc :: ChunksOf [(Vector Double, Double)] -> Vector Double -> Double -> Int -> Vector Double graddesc xy w alpha it convergiu = w otherwise = graddesc xy w alpha (it-1) where w = w.+. (alpha *. (nabla./ n)) nabla = mapreduce mapper reducer xy convergiu = (it==0) n = sum $ map length xy 40

46 Exercício Escreva as funções mapper e reducer: 41

47 Exercício Escreva as funções mapper e reducer: mapper :: ([Double], Double) -> [Double] -> [Double] mapper (xi, yi) = ( yi - (dotprod w xi) ) *. xi reducer :: [Double] -> [Double] -> [Double] reducer = (.+.) 42

48 Escolha de α A escolha do valor de passo de atualização de w é importante pois um valor muito baixo ocasiona uma demora para atingir o ponto de convergência, por outro lado um valor muito alto faz com que o método do gradiente ultrapasse o ponto de ótimo levando a divergência. 43

49 Overfitting

50 Overfit Em muitos casos, a amostra de dados coletada não é representativa. No nosso exemplo, isso pode acontecer ao coletar dados de imóveis de apenas uma região específica. 44

51 Overfit Isso faz com que a reta de regressão não necessariamente represente a realidade: y x 45

52 Overfit Isso pode ocorrer por causa de: Coleta de dados sem o devido cuidado estatístico. Apenas algumas da d variáveis são realmente importantes. Algumas das variáveis são correlacionadas (ex.: área útil e área total). 46

53 Regularização Para resolver tal problema, utilizamos a regularização na função-objetivo. Para isso alteramos o cálculo do erro para: e(w) = 1 n n d (y i x i w) 2 + λ w i p, i=1 i=0 47

54 Regularização Com isso a equação de atualização de w passa a ser calculada como: w t+1 = w t + αe((y i x i w) x i ) λl p, com l p sendo o gradiente da regularização escolhida. 48

55 Regularização l 2 Para p = 2 temos a norma quadrática cujo gradiente resultará em: w t+1 = w t + αe((y i x i w) x i ) λw. Essa é conhecida como regularização l 2 ou ridge. Esse tipo de regularização incentiva baixos valores para todos os elementos do vetor w. 49

56 Regularização l 1 Para p = 1 temos o valor absoluto, o que resulta em descontinuidade. Portanto a fórmula de atualização fica: w t = w t + αe((y i x i w) x i ) wi t λ se wi t > λ w t+1 i = wi t + λ se wi t < λ c.c. w t i Essa é conhecida como regularização l 1 ou lasso. Esse tipo de regularização incentiva que alguns valores de w sejam zeros. 50

57 Regularização ElasticNet Podemos combinar ambas as regularizações: w t = w t + αe((y i x i w) x i ) wi t λ 1 λ 2 w se wi t > λ w t+1 i = wi t + λ 1 λ 2 w se wi t < λ wi t λ 2 w c.c. Essa é conhecida como regularização ElasticNet. 51

58 Variáveis Não-Lineares

59 Variáveis Não-Lineares Considere os seguintes pontos: y x 52

60 Variáveis Não-Lineares Uma alternativa para esses casos é criação de novos atributos como funções não lineares. Esses novos atributos podem ser: Transformação: aplicação de uma função não-linear em uma combinação linear das variáveis. Interação: interação polinomial entre duas ou mais variáveis. 53

61 Transformação A aplicação de uma função não-linear, se escolhida adequadamente, pode gerar novos atributos que possuem relação linear com a variável alvo. Funções comumentes utilizadas para essa tarefa: Sigmoid: 1 1+e x cria uma variável em um tipo sinal, com valores entre 0 e 1. Tangente Hiperbólica: tanh (x) idem ao anterior, mas variando entre 1 e 1. Logaritmo: log (x) lineariza variáveis que seguem uma lei de potência. Rectified Linear Units: max (0, x), elimina os valores negativos, relacionado com Redes Neurais. Softmax: e x i j ex j, similar a sigmoid, mas também faz com que a soma dos valores de x seja igual a 1. 54

62 Transformação Aplicando uma transformação logarítimica em nosso exemplo, temos: y x 55

63 Interação A interação polinomial gera interações de grau p entre as variáveis. Por exemplo, em um problema com 2 variáveis e p = 2 teríamos as variáveis x 1 x 1, x 1 x 2, x 2 x 2. Já para p = 3 teríamos x 3 1, x 2 1 x 2, x 1 x 2 2, x

64 Interação Introduzindo a variável x 2 1 em nosso exemplo, temos: y x 57

65 Gerando Atributos Polinomiais Dado um vetor x = [x 1, x 2, x 3,..., x d ], queremos obter: [[1], [x 1, x 2,..., x d ], [x 2 1, x 1 x 2,...], [x 3 1, x 2 1 x2,...],...]. Não queremos que repita x 1 x 2 ex 2 x 1. 58

66 Gerando Atributos Polinomiais Vamos iniciar criando uma lista inicial infinita da seguinte forma: poly = [[1], [], [],..] 59

67 Gerando Atributos Polinomiais Agora, para cada variável x i e para cada lista l poly, multiplicamos x i a cada elemento de l e concatenamos a lista gerada com a lista seguinte. Para x 1 teremos: ys = [[1], [x_1], [x_1^2], [x_1^3],..] 60

68 Gerando Atributos Polinomiais Agora, para cada variável x i e para cada lista l ys, multiplicamos x i a cada elemento de l e concatenamos a lista gerada com a lista seguinte. Para x 2 teremos: ys = [[1], [x_1, x_2], [x_1^2, x_1 \cdot x_2, x_2^2], [x_1^3, x_1^2 \cdot x_2, x_1 \cdot x_2^2, x_2^3],..] Queremos uma função que aplique map (*x i ) em cada elemento de uma lista e concatene com a seguinte. 61

69 Gerando Atributos Polinomiais Ou seja, queremos: ys = [[1], [], [],..] [[1], (map (*x1) [1]) ++ [], (map (*x1) (map (*x1) [1]) ++ []) ++ [],..] ou: ys = [[1], [], [],..] [[1], f [1] [], f (f [1] []) [],..] f xs1 xs2 = (map (*x1) xs1) ++ xs2 62

70 Gerando Atributos Polinomiais Ou seja, queremos: f :: Double -> [[Double]] -> [[Double]] f x (y:[]) = [y] -- já é o último elemento f x (y:z@(zi:zs)) = y : (f x (g:zs)) where g = (map (*x) y) ++ zi 63

71 Gerando Atributos Polinomiais Fazendo a chamada: f 2 [[1], [], [], []] geramos: f 2 ([1]:([]:[[], []] = [1] : f 2 [2]:[[], []] f 2 ([1]:([]:[[], []] = [1] : [2] : f 2 [4]:[[]] f 2 ([1]:([]:[[], []] = [1] : [2] : [4] : f 2 [8]:[] f 2 ([1]:([]:[[], []] = [1] : [2] : [4] : [[8]] 64

72 Gerando Atributos Polinomiais Fazendo a chamada: f 3 [[1], [2], [4], [8]] geramos: f 2 ([1]:([]:[[], []] = [1] : f 3 [2, 3] : [[4], [8]] f 2 ([1]:([]:[[], []] = [1] : [2, 3] : f 3 [4, 6, 9] : [[8]] f 2 ([1]:([]:[[], []] = [1] : [2, 3] : [4, 6, 9] : f 3 [8, 12, 18, 27] : [] f 2 ([1]:([]:[[], []] = [1] : [2, 3] : [4, 6, 9] : [[8, 12, 18, 27]] 65

73 Gerando Atributos Polinomiais Então dado uma lista inicial que armazenará as interações até a ordem k: order k = [1] : (take k $ repeat []) Temos então a função: poly k x = foldr f (order k) x 66

74 Gerando Atributos Polinomiais - Paralelo A entrada da função é apenas um vetor de x, portanto basta aplicar um mapper. A implementação desse caso fica como exercício para casa. 67

75 Atividade 03 Complete o Laboratório Regressão Linear no Spark 68

Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC

Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC Regressão Linear Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Ordinary Least Square 2. Gradiente Descendente 1 Aprendendo com exemplos Uma das formas de aprendizado de máquina é definido

Leia mais

Regressão. Prof. Fabrício Olivetti de França Universidade Federal do ABC

Regressão. Prof. Fabrício Olivetti de França Universidade Federal do ABC Regressão Prof. Fabrício Olivetti de França Universidade Federal do ABC Aprendendo com Exemplos Uma das formas de aprendizado de máquina é definido como: Dado um conjunto de exemplos X, com cada x sendo

Leia mais

Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC

Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC Regressão Linear Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Overfitting 2. Treino e Validação 3. Baseline dos modelos 1 Overfitting Overfit Em muitos casos, a amostra de dados coletada

Leia mais

Regressão Polinomial e Simbólica

Regressão Polinomial e Simbólica Regressão Polinomial e Simbólica Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Variáveis Não-Lineares 2. Regressão Simbólica 1 Variáveis Não-Lineares Variáveis Não-Lineares Considere

Leia mais

Redução de Dimensionalidade e Agrupamento de Dados

Redução de Dimensionalidade e Agrupamento de Dados Redução de Dimensionalidade e Agrupamento de Dados Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Análise de Componentes Principais 2. Agrupamento de Dados 1 Redução de Dimensionalidade

Leia mais

Sumarizando Dados. Fabrício Olivetti de França. Universidade Federal do ABC

Sumarizando Dados. Fabrício Olivetti de França. Universidade Federal do ABC Sumarizando Dados Fabrício Olivetti de França Universidade Federal do ABC Sumarizando os dados Sumarização Antes de extrair informações da base de dados, é importante entender seu conteúdo. Sumarização:

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Aprendizado por Reforço usando Aproximação

Aprendizado por Reforço usando Aproximação Aprendizado por Reforço usando Aproximação de Funções Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aproximação de Funções 2. Do the evolution 1 Aproximação de Funções Função Utilidade

Leia mais

Classificação. Prof. Fabrício Olivetti de França Universidade Federal do ABC

Classificação. Prof. Fabrício Olivetti de França Universidade Federal do ABC Classificação Prof. Fabrício Olivetti de França Universidade Federal do ABC Classificação Quando queremos encontrar: f(x) = y C e C = {c1, c2, c3,, cn} Classificação Se um e-mail é spam ou não De qual

Leia mais

Processamento de Imagens CPS755

Processamento de Imagens CPS755 Processamento de Imagens CPS755 aula 06 - sistemas não lineares Antonio Oliveira Ricardo Marroquim 1 / 38 laboratório de processamento de imagens tópicos RANSAC métodos iterativos (não-lineares) gradientes

Leia mais

Profs.: Eduardo Vargas Ferreira Walmes Marques Zeviani

Profs.: Eduardo Vargas Ferreira Walmes Marques Zeviani Universidade Federal do Paraná Laboratório de Estatística e Geoinformação - LEG Regularização Profs.: Eduardo Vargas Ferreira Walmes Marques Zeviani Introdução: Regressão Linear Considere o exemplo referente

Leia mais

Aprendizado de Supervisionado

Aprendizado de Supervisionado Aprendizado de Supervisionado Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendendo com Exemplos 2. Classificação 3. Conceitos Gerais 4. Vizinho Mais Próximo 1 Aprendendo com Exemplos

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

Renato Martins Assunção

Renato Martins Assunção Análise Numérica Renato Martins Assunção DCC - UFMG 2012 Renato Martins Assunção (DCC - UFMG) Análise Numérica 2012 1 / 32 Introdução Sistemas lineares - introdução Nosso primeiro problema neste curso

Leia mais

Aprendizado de Supervisionado

Aprendizado de Supervisionado Aprendizado de Supervisionado Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Padronizando e Normalizando os Atributos 2. Tipos de Atributos 3. Representação Textual 1 Padronizando e

Leia mais

Regressão Linear. Renato Martins Assunção DCC - UFMG. Renato Martins Assunção (DCC - UFMG) Regressão Linear / 25

Regressão Linear. Renato Martins Assunção DCC - UFMG. Renato Martins Assunção (DCC - UFMG) Regressão Linear / 25 Regressão Linear Renato Martins Assunção DCC - UFMG 2015 Renato Martins Assunção (DCC - UFMG) Regressão Linear 2015 1 / 25 Predição de preços imobiliários Qual o valor de um imóvel? Existem softwares para

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017

BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira   22 de novembro de 2017 BCC465 - TÉCNICAS DE OTIMIZAÇÃO MULTI-OBJETIVO Aula 04 - Otimização Não-linear Gladston Juliano Prates Moreira email: gladston@iceb.ufop.br CSILab, Departamento de Computação Universidade Federal de Ouro

Leia mais

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: Espaços Euclidianos Espaços R n O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: R n = {(x 1,..., x n ) : x 1,..., x n R}. R 1 é simplesmente o conjunto R dos números

Leia mais

Máquinas de Vetores de Suporte

Máquinas de Vetores de Suporte Máquinas de Vetores de Suporte Marcelo K. Albertini 14 de Setembro de 2015 2/22 Máquinas de Vetores de Suporte Support Vector Machines (SVM) O que é? Perceptron revisitado Kernels (núcleos) Otimização

Leia mais

Aula 5 - Produto Vetorial

Aula 5 - Produto Vetorial Aula 5 - Produto Vetorial Antes de iniciar o conceito de produto vetorial, precisamos recordar como se calculam os determinantes. Mas o que é um Determinante? Determinante é uma função matricial que associa

Leia mais

Métodos de Pesquisa Operacional

Métodos de Pesquisa Operacional Métodos de Pesquisa Operacional Programação Linear é a parte da Pesquisa Operacional que trata da modelagem e resolução de problemas formulados com funções lineares. Programação Linear } Métodos de Resolução

Leia mais

Paradigmas de Programação

Paradigmas de Programação Paradigmas de Programação Fabrício Olivetti de França 21 de Junho de 2018 1 Listas 2 Listas Uma das principais estruturas em linguagens funcionais. Representa uma coleção de valores de um determinado tipo.

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Aprendizado de Máquina Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Introdução 1 Introdução Aprendizado de Máquina Extração de conhecimento. Automatização de tarefas. Tomada de Decisões.

Leia mais

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

SME Cálculo Numérico. Lista de Exercícios: Gabarito

SME Cálculo Numérico. Lista de Exercícios: Gabarito Exercícios de prova SME0300 - Cálculo Numérico Segundo semestre de 2012 Lista de Exercícios: Gabarito 1. Dentre os métodos que você estudou no curso para resolver sistemas lineares, qual é o mais adequado

Leia mais

Interpolação polinomial

Interpolação polinomial Quarto roteiro de exercícios no Scilab Cálculo Numérico Rodrigo Fresneda 8 de abril de 0 Guia para respostas: Entregue suas respostas às tarefas contidas no roteiro de cada uma das quatro atividades, incluindo

Leia mais

Virgílio A. F. Almeida DCC-UFMG 2005

Virgílio A. F. Almeida DCC-UFMG 2005 Virgílio A. F. Almeida DCC-UFMG 005 O que é um bom modelo? Como estimar os parâmetros do modelo Como alocar variações Intervalos de Confiança para Regressões Inspeção Visual ! "# Para dados correlacionados,

Leia mais

CEFET/RJ. Aprendizado de Máquina - Trabalho 01

CEFET/RJ. Aprendizado de Máquina - Trabalho 01 CEFET/RJ Programa de Pós-graduação em Ciência da Computação Aprendizado de Máquina - Trabalho 01 Prof. Eduardo Bezerra (ebezerra@cefet-rj.br) Setembro/2017 Conteúdo 1 Regressão Linear com uma Variável

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

Fabrício Olivetti de França. Universidade Federal do ABC

Fabrício Olivetti de França. Universidade Federal do ABC Classificação: Naive Bayes Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Naive Bayes 1 Naive Bayes Aprendizado Probabiĺıstico Foi mencionado anteriormente que o uso da função logística

Leia mais

UNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição

UNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição UNIVERSIDADE FEDERAL DO ABC BC1419 Cálculo Numérico - LISTA 1 - Zeros de Funções (Profs. André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda) 1 Existência e unicidade de zeros; Métodos

Leia mais

MapReduce Mapeando e reduzindo

MapReduce Mapeando e reduzindo MapReduce Mapeando e reduzindo Prof. Fabrício Olivetti de França Universidade Federal do ABC Motivação Vimos até então que nosso maior problema é a quantidade de dados. O processamento não pode ser distribuído

Leia mais

PREVISÃO. Prever o que irá. acontecer. boas decisões com impacto no futuro. Informação disponível. -quantitativa: dados.

PREVISÃO. Prever o que irá. acontecer. boas decisões com impacto no futuro. Informação disponível. -quantitativa: dados. PREVISÃO O problema: usar a informação disponível para tomar boas decisões com impacto no futuro Informação disponível -qualitativa Prever o que irá acontecer -quantitativa: dados t DEI/FCTUC/PGP/00 1

Leia mais

PROVAS Ciência da Computação. 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta)

PROVAS Ciência da Computação. 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta) PROVAS Ciência da Computação 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta) Ajuste de Curvas Objetivo Ajustar curvas pelo método dos mínimos quadrados 1 - INTRODUÇÃO Em geral, experimentos

Leia mais

Programação Funcional Aulas 5 & 6

Programação Funcional Aulas 5 & 6 Programação Funcional Aulas 5 & 6 Sandra Alves DCC/FCUP 2016/17 Definições usando outras funções Podemos definir funções usando outras previamente definidas (por exemplo: do prelúdio-padrão). Exemplo:

Leia mais

CORRELAÇÃO E REGRESSÃO. Modelos Probabilísticos para a Computação Professora: Andréa Rocha. UNIVERSIDADE FEDERAL DA PARAÍBA Dezembro, 2011

CORRELAÇÃO E REGRESSÃO. Modelos Probabilísticos para a Computação Professora: Andréa Rocha. UNIVERSIDADE FEDERAL DA PARAÍBA Dezembro, 2011 CORRELAÇÃO E REGRESSÃO CORRELAÇÃO E REGRESSÃO Modelos Probabilísticos para a Computação Professora: Andréa Rocha UNIVERSIDADE FEDERAL DA PARAÍBA Dezembro, 2011 CORRELAÇÃO Introdução Quando consideramos

Leia mais

Módulo 4 Ajuste de Curvas

Módulo 4 Ajuste de Curvas Módulo 4 Ajuste de Curvas 4.1 Intr odução Em matemática e estatística aplicada existem muitas situações onde conhecemos uma tabela de pontos (x; y), com y obtido experimentalmente e deseja se obter uma

Leia mais

3. Resolução de problemas por meio de busca

3. Resolução de problemas por meio de busca Inteligência Artificial - IBM1024 3. Resolução de problemas por meio de busca Prof. Renato Tinós Local: Depto. de Computação e Matemática (FFCLRP/USP) 1 Principais Tópicos 3. Resolução de problemas por

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

Aprendizado Não-Supervisionado

Aprendizado Não-Supervisionado Aprendizado Não-Supervisionado Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendizado Não-Supervisionado 2. Agrupamento de Dados 1 Aprendizado Não-Supervisionado Aprendizado Não-Supervisionado

Leia mais

Programação Paralela. com Haskell. Fabrício Olivetti de França. Universidade Federal do ABC

Programação Paralela. com Haskell. Fabrício Olivetti de França. Universidade Federal do ABC Programação Paralela com Haskell Fabrício Olivetti de França Universidade Federal do ABC Trabalhando com Vetores e Matrizes Vetores Em muitos algoritmos de Mineração de Dados, trabalharemos com vetores

Leia mais

Prof. MSc. David Roza José 1/26

Prof. MSc. David Roza José 1/26 1/26 Mínimos Quadrados Geral e Regressão Não Linear Objetivos: Implementar a regressão polinomial; Implementar regressão múltipla linear; Entender a formulação do modelo linear geral de mínimos quadrados;

Leia mais

Método de Quadrados Mínimos: Caso discreto

Método de Quadrados Mínimos: Caso discreto Método de Quadrados Mínimos: Caso discreto Marina Andretta ICMC-USP 23 de maio de 2012 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires. Marina Andretta (ICMC-USP) sme0500 - cálculo numérico

Leia mais

. Repare que ao multiplicar os vetores (-1,1) e

. Repare que ao multiplicar os vetores (-1,1) e Álgebra Linear II P1-2014.2 Obs: Todas as alternativas corretas são as representadas pela letra A. 1 AUTOVETORES/ AUTOVALORES Essa questão poderia ser resolvida por um sistema bem chatinho. Mas, faz mais

Leia mais

Método do Lagrangiano aumentado

Método do Lagrangiano aumentado Método do Lagrangiano aumentado Marina Andretta ICMC-USP 23 de novembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 1 / 17 Problema com restrições gerais Vamos

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

Multiplicadores de Lagrange

Multiplicadores de Lagrange Multiplicadores de Lagrange Para motivar o método, suponha que queremos maximizar uma função f (x, y) sujeito a uma restrição g(x, y) = 0. Geometricamente: queremos um ponto sobre o gráfico da curva de

Leia mais

Resolução de sistemas de equações lineares: Método do Gradiente

Resolução de sistemas de equações lineares: Método do Gradiente Resolução de sistemas de equações lineares: Método do Gradiente Marina Andretta ICMC-USP 24 de março de 2015 Marina Andretta (ICMC-USP) sme0301 - Métodos Numéricos para Engenharia I 24 de março de 2015

Leia mais

Capítulo 5 Derivadas Parciais e Direcionais

Capítulo 5 Derivadas Parciais e Direcionais Capítulo 5 Derivadas Parciais e Direcionais 1. Conceitos Sabe-se que dois problemas estão relacionados com derivadas: Problema I: Taxas de variação da função. Problema II: Coeficiente angular de reta tangente.

Leia mais

ESPAÇO VETORIAL REAL. b) Em relação à multiplicação: (ab) v = a(bv) (a + b) v = av + bv a (u + v ) = au + av 1u = u, para u, v V e a, b R

ESPAÇO VETORIAL REAL. b) Em relação à multiplicação: (ab) v = a(bv) (a + b) v = av + bv a (u + v ) = au + av 1u = u, para u, v V e a, b R ESPAÇO VETORIAL REAL Seja um conjunto V, não vazio, sobre o qual estão definidas as operações de adição e multiplicação por escalar, isto é: u, v V, u + v V a R, u V, au V O conjunto V com estas duas operações

Leia mais

CC-226 Aula 03 - Análise de Regressão

CC-226 Aula 03 - Análise de Regressão CC-226 Aula 03 - Análise de Regressão Carlos Henrique Q Forster - Instituto Tecnológico de Aeronáutica 2008 1 Regressão Linear Simples 11 Descrição do problema de regressão linear simples Relação entre

Leia mais

Setor de Tecnologia - TC Engenharia Ambiental Prova 1. Matemática Aplicada I

Setor de Tecnologia - TC Engenharia Ambiental Prova 1. Matemática Aplicada I Universidade Federal do Paraná Matemática Aplicada I Setor de Tecnologia - TC Engenharia Ambiental 2014-2 Curitiba, 24.09.2014 Prova 1 Matemática Aplicada I Tobias Bleninger Departamento de Engenharia

Leia mais

CAPÍTULO 13 (G F )(X) = X, X A (F G)(Y ) = Y, Y B. F G = I da e G F = I db,

CAPÍTULO 13 (G F )(X) = X, X A (F G)(Y ) = Y, Y B. F G = I da e G F = I db, CAPÍTULO 3 TEOREMA DA FUNÇÃO INVERSA 3 Introdução A função identidade em R n é a função que a cada elemento de R n associa o próprio elemento ie I d : R n R n X x x n I d X X x x n A função identidade

Leia mais

Álgebra Linear. Transformações Lineares

Álgebra Linear. Transformações Lineares Álgebra Linear Transformações Lineares Fórmulas e Resumo Teórico Para fins gerais, considere V um espaço vetorial e uma transformação T: V W. Propriedades de Transformações Lineares - T é linear se: Para

Leia mais

Aula 6. Zeros reais de funções Parte 3

Aula 6. Zeros reais de funções Parte 3 CÁLCULO NUMÉRICO Aula 6 Zeros reais de funções Parte 3 MÉTODO DE NEWTON RAPHSON Cálculo Numérico 3/48 CONSIDERAÇÕES INICIAS MÉTODO DO PONTO FIXO: Uma das condições de convergência é que onde I é um intervalo

Leia mais

Prof. Lorí Viali, Dr. PUCRS FAMAT: Departamento de Estatística. Curso: Engenharia de Produção

Prof. Lorí Viali, Dr. PUCRS FAMAT: Departamento de Estatística. Curso: Engenharia de Produção Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b

Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação

Leia mais

Marina Andretta. 10 de outubro de Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis.

Marina Andretta. 10 de outubro de Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Solução básica viável inicial Marina Andretta ICMC-USP 10 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211

Leia mais

(2008/2009) Espaços vectoriais. Matemática 1º Ano - 1º Semestre 2008/2009. Mafalda Johannsen

(2008/2009) Espaços vectoriais. Matemática 1º Ano - 1º Semestre 2008/2009. Mafalda Johannsen Espaços vectoriais Matemática 1º Ano 1º Semestre 2008/2009 Capítulos Características de um Espaço Vectorial Dimensão do Espaço Subespaço Vectorial Combinação Linear de Vectores Representação de Vectores

Leia mais

Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados

Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados Marina Andretta/Franklina Toledo ICMC-USP 24 de março de 2015 Baseado no livro Cálculo Numérico, de Neide B. Franco Marina Andretta/Franklina

Leia mais

ÁLGEBRA LINEAR. Combinação Linear, Subespaços Gerados, Dependência e Independência Linear. Prof. Susie C. Keller

ÁLGEBRA LINEAR. Combinação Linear, Subespaços Gerados, Dependência e Independência Linear. Prof. Susie C. Keller ÁLGEBRA LINEAR Combinação Linear, Subespaços Gerados, Dependência e Prof. Susie C. Keller Combinação Linear Sejam os vetores v 1, v 2,..., v n do espaço vetorial V e os escalares a 1, a 2,..., a n. Qualquer

Leia mais

Máquinas de Vetores de Suporte

Máquinas de Vetores de Suporte Máquinas de Vetores de Suporte Prof. Marcelo Keese Albertini Faculdade de Computação Universidade Federal de Uberlândia 19 de Junho de 2017 2/27 Máquinas de Vetores de Suporte Support Vector Machines (SVM)

Leia mais

Cálculo Numérico BCC760

Cálculo Numérico BCC760 Cálculo Numérico BCC760 Resolução de Sistemas de Equações Lineares Simultâneas Departamento de Computação Página da disciplina http://www.decom.ufop.br/bcc760/ 1 Introdução! Definição Uma equação é dita

Leia mais

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA Marlon Luiz Dal Pasquale Junior, UNESPAR/FECILCAM, jr.marlon@hotmail.com Solange Regina dos Santos (OR), UNESPAR/FECILCAM, solaregina@fecilcam.br

Leia mais

Parte 1: Exercícios Teóricos

Parte 1: Exercícios Teóricos Cálculo Numérico SME0104 ICMC-USP Lista 5: Zero de Funções Lembrete (informação que vai estar disponível na prova) Método de Newton Método da Secante x k+1 = x k f(x k) f (x k ), x k+1 = x k J 1 F (x k

Leia mais

Uma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law

Uma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law Uma Introdução a SVM Support Vector Machines Obs: Baseada nos slides de Martin Law Sumário Historia das SVMs Duas classes, linearmente separáveis O que é um bom limite para a decisão? Duas classes, não

Leia mais

Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright.

Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Métodos de regiões de confiança Marina Andretta ICMC-USP 17 de setembro de 2014 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear

Leia mais

6. Verifique detalhadamente que os seguintes conjuntos são espaços vetoriais(com a soma e produto por escalar usuais):

6. Verifique detalhadamente que os seguintes conjuntos são espaços vetoriais(com a soma e produto por escalar usuais): a Lista. Sejam u = ( 4 ) v = ( 5) e w = (a b). Encontre a e b tais que (a)w = u + v (b)w = 5v (c)u + w = u v. Represente os vetores acima no plano cartesiano.. Sejam u = (4 ) v = ( 4) e w = (a b c). Encontre

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

4 Estado da Arte do Kernel PCA

4 Estado da Arte do Kernel PCA 4 Estado da Arte do Kernel PCA Conforme apresentado no Capítulo 1, o Kernel PCA é uma técnica promissora para auxiliar no processo de ajuste de histórico, devido a sua capacidade de extrair parte da estatística

Leia mais

Modelagem Computacional. Parte 7 2

Modelagem Computacional. Parte 7 2 Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 7 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,

Leia mais

Agenda do Dia Aula 14 (19/10/15) Sistemas Lineares: Introdução Classificação

Agenda do Dia Aula 14 (19/10/15) Sistemas Lineares: Introdução Classificação Agenda do Dia Aula 14 (19/10/15) Sistemas Lineares: Introdução Classificação Sistemas Lineares Sistemas lineares são sistemas de equações com m equações e n incógnitas formados por equações lineares. Um

Leia mais

Álgebra Linear Exercícios Resolvidos

Álgebra Linear Exercícios Resolvidos Álgebra Linear Exercícios Resolvidos Agosto de 001 Sumário 1 Exercícios Resolvidos Uma Revisão 5 Mais Exercícios Resolvidos Sobre Transformações Lineares 13 3 4 SUMA RIO Capítulo 1 Exercícios Resolvidos

Leia mais

ANÁLISE COMPLEXA E EQUAÇÕES DIFERENCIAIS. Apresente e justifique todos os cálculos

ANÁLISE COMPLEXA E EQUAÇÕES DIFERENCIAIS. Apresente e justifique todos os cálculos Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise ANÁLISE COMPLEXA E EQUAÇÕES DIFERENCIAIS TESTES DE RECUPERAÇÃO A - 6 DE JUNHO DE 9 - DAS H ÀS :3H Teste Apresente e justifique

Leia mais

GAAL Exercícios 6: Umas soluções

GAAL Exercícios 6: Umas soluções GAAL Exercícios 6: Umas soluções. Quais dos seguintes vetores são combinação linear de u = (5, 3, ), v = (, 4, 3), w = (, 8, 7)? (a) (, 2, 5) (b) (, 2, 8) (c) ( 2, ) (d) (, 2, 3). O conjunto {u, v, w}

Leia mais

Respostas sem justificativas não serão aceitas Não é permitido o uso de aparelhos eletrônicos

Respostas sem justificativas não serão aceitas Não é permitido o uso de aparelhos eletrônicos UNIVERSIDADE FEDERAL RURAL DE PERNAMBUCO UNIDADE ACADÊMICA DO CABO DE SANTO AGOSTINHO CÁLCULO DIFERENCIAL E INTEGRAL - 018. - TURMA MA 1A VERIFICAÇÃO DE APRENDIZAGEM - PARTE Nome Legível RG CPF Respostas

Leia mais

Aula 25 - Espaços Vetoriais

Aula 25 - Espaços Vetoriais Espaço Vetorial: Aula 25 - Espaços Vetoriais Seja V um conjunto não vazio de objetos com duas operações definidas: 1. Uma adição que associa a cada par de objetos u, v em V um único objeto u + v, denominado

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

, cosh (x) = ex + e x. , tanh (x) = ex e x 2

, cosh (x) = ex + e x. , tanh (x) = ex e x 2 Exercícios Adicionais 1. Podemos definir as funções seno, cosseno e tangente hiperbólicos como: sinh (x) = ex e x, cosh (x) = ex + e x, tanh (x) = ex e x e x + e x Escreva três funções no Scilab que implementem

Leia mais

Universidade Federal de Viçosa Centro de Ciências Exatas e Tecnológicas Departamento de Matemática

Universidade Federal de Viçosa Centro de Ciências Exatas e Tecnológicas Departamento de Matemática 1 Universidade Federal de Viçosa Centro de Ciências Exatas e Tecnológicas Departamento de Matemática 3 a Lista - MAT 137 - Introdução à Álgebra Linear 2017/II 1. Sejam u = ( 4 3) v = (2 5) e w = (a b).

Leia mais

6. Modelos baseados em dados

6. Modelos baseados em dados Modelação e Simulação 6.Modelos baseados em dados 6. Modelos baseados em dados Objectivo: Após completar este módulo, o aluno deverá ser capaz de formular e resolver problemas simples de estimação de parâmetros

Leia mais

Aula 15. Derivadas Direcionais e Vetor Gradiente. Quando u = (1, 0) ou u = (0, 1), obtemos as derivadas parciais em relação a x ou y, respectivamente.

Aula 15. Derivadas Direcionais e Vetor Gradiente. Quando u = (1, 0) ou u = (0, 1), obtemos as derivadas parciais em relação a x ou y, respectivamente. Aula 15 Derivadas Direcionais e Vetor Gradiente Seja f(x, y) uma função de variáveis. Iremos usar a notação D u f(x 0, y 0 ) para: Derivada direcional de f no ponto (x 0, y 0 ), na direção do vetor unitário

Leia mais

Prof.: Eduardo Vargas Ferreira

Prof.: Eduardo Vargas Ferreira Universidade Federal do Paraná Laboratório de Estatística e Geoinformação - LEG Introdução Prof.: Eduardo Vargas Ferreira O que é Machine Learning? Estatística Data Mining 2 O que é Machine Learning? Estatística

Leia mais

parciais segunda parte

parciais segunda parte Aula 24 Técnicas de integração frações parciais segunda parte Objetivo Aprender a técnica de integração conhecida como frações parciais. Como lidar com fatores irredutíveis de grau 2 Agora queremos integrar

Leia mais

Cálculo Numérico / Métodos Numéricos. Solução de equações polinomiais Briot-Ruffini-Horner

Cálculo Numérico / Métodos Numéricos. Solução de equações polinomiais Briot-Ruffini-Horner Cálculo Numérico / Métodos Numéricos Solução de equações polinomiais Briot-Ruffini-Horner Equações Polinomiais p = x + + a ( x) ao + a1 n x n Com a i R, i = 0,1,, n e a n 0 para garantir que o polinômio

Leia mais

Resolução das objetivas 3ª Prova de Álgebra Linear II da UFRJ, período

Resolução das objetivas 3ª Prova de Álgebra Linear II da UFRJ, período www.engenhariafacil.weebly.com Resolução das objetivas 3ª Prova de Álgebra Linear II da UFRJ, período 2013.2 OBS: Todas as alternativas corretas são as letras A. 1) Para encontrar o autovetor associado

Leia mais

Seja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma:

Seja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma: 46 VALOR ESPERADO CONDICIONADO Seja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma: Variável contínua E + ( X Y

Leia mais

Cálculo II. Resumo e Exercícios P3

Cálculo II. Resumo e Exercícios P3 Cálculo II Resumo e Exercícios P3 Resuminho Teórico e Fórmulas Parte 1 Funções de Três Variáveis w = f(x, y, z) Definida em R +, apenas um valor de w para cada (x, y, z). Domínio de Função de Três Variáveis:

Leia mais

Renato Martins Assunção

Renato Martins Assunção Análise Numérica Renato Martins Assunção DCC - UFMG 2012 Renato Martins Assunção (DCC - UFMG) Análise Numérica 2012 1 / 84 Equação linear Sistemas de equações lineares A equação 2x + 3y = 6 é chamada linear

Leia mais

Notas de Aula de Cálculo Numérico

Notas de Aula de Cálculo Numérico IM-Universidade Federal do Rio de Janeiro Departamento de Ciência da Computação Notas de Aula de Cálculo Numérico Lista de Exercícios Prof. a Angela Gonçalves 3 1. Erros 1) Converta os seguintes números

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que

Leia mais

Haskell Paralelo (e entrada e saída de dados)

Haskell Paralelo (e entrada e saída de dados) Haskell Paralelo (e entrada e saída de dados) Prof. Fabrício Olivetti de França Universidade Federal do ABC Entrada e Saída de dados Imprimindo na tela Nós já conhecemos o comando print, que imprime qualquer

Leia mais

Algebra Linear. 1. Ortonormalização. 2. Sistema de Equações Lineares. pag.1 Teoria de Sistemas Lineares Aula 6. c Reinaldo M.

Algebra Linear. 1. Ortonormalização. 2. Sistema de Equações Lineares. pag.1 Teoria de Sistemas Lineares Aula 6. c Reinaldo M. Algebra Linear 1. Ortonormalização 2. Sistema de Equações Lineares pag.1 Teoria de Sistemas Lineares Aula 6 Ortonormalização Um vetor x é dito estar normalizado se sua norma Euclidiana é igual a 1, ie,

Leia mais