Redução de Dimensionalidade e Agrupamento de Dados

Tamanho: px
Começar a partir da página:

Download "Redução de Dimensionalidade e Agrupamento de Dados"

Transcrição

1 Redução de Dimensionalidade e Agrupamento de Dados Fabrício Olivetti de França Universidade Federal do ABC

2 Tópicos 1. Análise de Componentes Principais 2. Agrupamento de Dados 1

3 Redução de Dimensionalidade Quando trabalhamos com muitos atributos, alguns destes podem ser: Redundantes: dois ou mais representam a mesma informação (Ex.: tempo em segundos e tempo em minutos) Ruidosos: possuem valores aleatórios sem significado (Ex.: sinais ruidosos) Irrelevantes: não possuem relação com a tarefa desejada (Ex.: termos irrelevantes para classificação de sentimentos) 2

4 Redução de Dimensionalidade Além disso, quando possível, é desejável compactar esses atributos para uma espaço de menor dimensão. Curse of Dimensionality: quanto maior a dimensionalidade, mais difícil se torna perceber diferenças de similaridades; complexidade de algoritmos em função de d, etc. 3

5 Análise de Componentes Principais

6 Principal Components Analysis (PCA) Identifica as direções de maior variação de valores. Rotaciona o eixo para que cada eixo rotacionado represente da maior para a menor variação. 4

7 Principal Components Analysis (PCA) y x Figura 1: Eixos originais. 5

8 Principal Components Analysis (PCA) y z Figura 2: Eixos rotacionados. 6

9 Principal Components Analysis (PCA) Para isso utiliza a informação de autovalores e autovetores da matriz de covariância dos atributos. 7

10 Covariância dos Atributos Dada uma matriz de dados X R n d, centralizamos os pontos para que fiquem com média zero: x i,j = x i,j ˆx j, com ˆx j sendo a média dos valores do atributo j. 8

11 Covariância dos Atributos A covariância dos atributos pode ser calculada como: Cov = 1 n X T X, que resulta em uma matriz Cov R d d. 9

12 Covariância dos Atributos O elemento i, j dessa matriz representa a correlação entre o atributo i e o atributo j. A diagonal indica a variância do respectivo atributo. 10

13 Autovalores e Autovetores Dessa matriz podemos extrair um total de d 1 autovalores (λ) e autovetores (e) tal que: Cov e = λ e 1 apenas se todos os atributos forem independentes 11

14 Autovalores e Autovetores Se ordenarmos todos os autovalores/autovetores pela ordem do maior autovalor para o menor, temos que: Cada autovetor i representa a i-ésima direção de maior variação O autovalor correspondente quantifica essa variação 12

15 Principal Components Analysis (PCA) Cada autovetor representa uma combinação linear dos atributos originais de tal forma a capturar a variação descrita pelo autovalor. Basicamente a matriz de autovetores é uma base de dados rotacionada que captura a variação em ordem crescente. 13

16 Principal Components Analysis (PCA) Se um autovalor for muito pequeno, significa que não existe variação naquele eixo e, portanto, ele pode ser descartado. Imagine um problema de classificação utilizando apenas uma variável x j com variância baixa. É fácil perceber que tal variável não tem poder discriminatório pois, para toda classe, ela apresenta um valor muito similar. 14

17 Rotacionando a base de dados De posse da matriz E R d k dos k primeiros autovetores com um valor significativo de λ, é possível transformar a matriz de dados centralizada X com: X = X E. Isso transforma a matriz em uma matriz X R n k com k < d. 15

18 Principal Components Analysis (PCA) Usos do PCA: Transformar a base de dados mantendo a dimensão. Reduzir a base de dados, eliminando eixos com pouca variância. Reduzir para duas dimensões para visualizar os dados. 16

19 Principal Components Analysis (PCA) Quando utilizado para redução de dimensionalidade, verifique o custo-benefício de remover um eixo dado sua variância. Além disso, uma vez que a base é transformada, os atributos perdem totalmente seu significado original. Se temos os atributos m 2, garagens, andar, bairro; uma vez aplicado o PCA não sabemos que combinação linear cada novo atributo representa. 17

20 PCA funcional -- Recebe dados e devolve a matriz de rotaç~ao pca :: Int -> Data -> RotMtx pca k x = submatrix k eigenvectors where (eigenvalues, eigenvectors) = descsort $ H.eig covariance covariance = multmtx (transpose x ) x x = center x 18

21 PCA funcional A matriz de covariância tem dimensão d d, costumeiramente cabendo na memória. A matriz de dados e a de dados centralizadas não cabem em memória, portanto devemos pensar em opções de MapReduce para as funções covariance e center. 19

22 PCA funcional distribuído Lembrando do algoritmo Ordinary Least Square, podemos calcular a matriz de covariância como a somatória dos produtos externos de cada linha de X, a centralização de dados também vimos em uma aula passada, no cálculo do Desvio-Padrãoo. 20

23 PCA funcional distribuído -- Recebe dados e devolve a matriz de rotaç~ao pca :: Int -> Data -> RotMtx pca k x = submatrix k evecs where (evals, evecs) = descsort $ H.eig covmtx covmtx = sum $ map (\xi -> outerprod xi xi) x media xi = (sum xi) / (length xi) centraliza xi = (xi.- (media xi)) x = mapcolunas centraliza x 21

24 PCA funcional distribuído O grande desafio da implementação distribuída é calcular a matriz x centralizada e, após esse procedimento, a matriz de covariância. pca :: Int -> ChunksOf [[Double]] -> [[Double]] pca k x = submatrix k evecs where (evals, evecs) = descsort $ H.eig $ covmtx $ center x 22

25 PCA funcional distribuído Implemente as seguintes funções: center :: ChunksOf [[Double]] -> ChunksOf [[Double]] covar :: (NFData a, Num a) => ChunksOf [[a]] -> [[a]] 23

26 PCA funcional distribuído center :: ChunksOf [[Double]] -> ChunksOf [[Double]] center x = parmap (map (.-. m)) x where m = mapreduce (./n) (.+.) x n = sum $ parmap length x covar :: (NFData a, Num a) => ChunksOf [[a]] -> [[a]] covar x = mapreduce (\xi -> outerprod xi xi) (..+..) x 24

27 PCA - PySpark Traduza o código para PySpark: center :: ChunksOf [[Double]] -> ChunksOf [[Double]] center x = parmap (map (.-. m)) x where m = mapreduce (./n) (.+.) x n = sum $ parmap length x covar :: (NFData a, Num a) => ChunksOf [[a]] -> [[a]] covar x = mapreduce (\xi -> outerprod xi xi) (..+..) x 25

28 PCA - PySpark Dada uma RDD X : n = X.lenght() # 1 x d xmean = (X.map(lambda xi: xi/n).reduce(lambda (xi, yj): xi+yj) ) Xcenter = X.map(lambda xi: xi - xmean) Covar = (Xcenter.map(lambda (k1,xi): np.outer(xi, xi)).reduce(lambda x,y: x+y) ) 26

29 PCA - PySpark Com Covar calculado basta fazer: eva, eve = np.linalg.eigh(covar) idx = np.argsort(-eva) pcamtx = eve[:,idx[:k]] 27

30 Agrupamento de Dados

31 Aprendizado Não-Supervisionado Muitas vezes não temos um rótulo pré-definido que queremos extrair de nossos dados. 28

32 Aprendizado Não-Supervisionado Muitas vezes não temos um rótulo pré-definido que queremos extrair de nossos dados. Contagem? 1 e 2 28

33 Aprendizado Não-Supervisionado Muitas vezes não temos um rótulo pré-definido que queremos extrair de nossos dados. Contagem? 1 e 2 Tipo? 28

34 Aprendizado Não-Supervisionado O aprendizado não-supervisionado especifica as técnicas para extrair conhecimento de um conjunto de dados sem que tenhamos: Informação do que queremos encontrar. Qualquer retorno indicando corretude do que encontramos. 29

35 Aprendizado Não-Supervisionado Essas técnicas se baseiam em: Formação de grupos de dados similares. Modelo de criação de um dado. Busca de objetos representativos. 30

36 Formação de grupos de dados Essas técnicas se baseiam em: Define-se uma medida de similaridade entre nossos dados. Note que os grupos formados dependente dessa medida de similaridade. 31

37 Formação de grupos de dados Nas imagens abaixo: 32

38 Formação de grupos de dados Podemos formar os grupos bonzinhos e malvados : 33

39 Formação de grupos de dados Podemos formar os grupos masculino, feminino e indefinido : 34

40 Formação de grupos de dados Podemos formar os grupos heróis, vítimas e vilões : 35

41 Modelo de Criação Procura encontrar um modelo que explica a geração dos dados: P(θ x) =? 36

42 Modelo de Criação Vamos tomar como exemplo agora as seguintes imagens: 37

43 Modelo de Criação Com elas podemos encontrar os seguintes modelos de criação: 38

44 Dados Representativos Vamos considerar que uma imagem é um conjunto de pixels, e as cores desses pixels são nossos dados. Se encontrarmos as k cores mais representativa dessa imagem, podemos redesenhá-la utilizando essas cores, economizando bits! 39

45 Dados Representativos 40

46 Objetos Representativos Vamos estudar a busca pelas k cores mais representativas. Os resultados ilustrados anteriormente utilizam o conceito de agrupamento, especificamente a técnica k-means. 41

47 k-means Digamos que temos diversas cores que são tons de vermelho, verde e azul y x 42

48 k-means Queremos escolher as 3 cores mais representativas desse conjunto! y x 43

49 k-means E não necessariamente essas 3 cores devem fazer parte do conjunto de dados, podemos criar cores novas! y x 44

50 k-means O que caracteriza uma cor representativa de um conjunto? y x 45

51 k-means Bom, para saber isso primeiro precisamos conhecer os conjuntos! y x 46

52 k-means Para nosso exemplo é fácil: y x 47

53 k-means A cor representativa de cada grupo é aquela que mais se aproxima de todas do grupo y x 48

54 k-means Ou seja, é a que tem maior similaridade média com os elementos do grupo y x 49

55 k-means Ou seja, é a que tem maior similaridade média com os elementos do grupo y x 50

56 k-means Matematicamente, quem são esses elementos? y x 51

57 k-means Dado um conjunto de pontos X n-dimensionais, queremos determinar o ponto c, representando o centro, que minimiza: J(X, c) = 1 m m dist(x i, c) i=1 definimos que a distância é o inverso da similaridade. 52

58 k-means O mínimo pode ser encontrado com: J(X, c) = 1 m m dist(x i, c) = 0 i=1 53

59 k-means Utilizando a distância Euclidiana temos: 1 m m (x i c) 2 = 2 m i=1 m (c x i ) = 0 i=1 54

60 k-means 2 m m (mc x i ) = 0 i=1 mc = m i=1 c = 1 m x i m x i i=1 55

61 k-means O centro ótimo para um conjunto de pontos X é a média desses pontos. c = 1 m m i=1 x i 56

62 k-means Temos os centros...como definir os grupos? y x 57

63 k-means Para cada amostra x, verificamos o centro mais próximo...essa amostra fará parte desse grupo y x 58

64 k-means Sabemos como calcular o centro, dado os grupos...e como definir os grupos dado os centros y x 59

65 k-means Começamos chutando pontos iniciais para os centros y x 60

66 k-means Definimos os grupos de acordo com esses centros: y x 61

67 k-means Para cada grupo, calculamos o novo centro: y x 62

68 k-means E remontamos os grupos: y x 63

69 k-means Repetimos esse procedimento y x 64

70 k-means...até os centros ou os grupos não se alterarem mais y x 65

71 k-means kmeans it points clusters it == 0 = clusters clusters == clusters = clusters otherwise = kmeans (it-1) points clusters where clusters = emstep points clusters 66

72 k-means emstep points clusters = maximizationstep $ estimationstep points clusters 67

73 k-means estimationstep :: [[Double]] -> [[Double]] -> [[[Double]]] estimationstep points clusters = map (\(k,v) -> v) $ groupbykey $ sortbykey $ assign points clusters 68

74 k-means assign points clusters = map closestto points where closestto p = (argmin $ map (euclid p) clusters, p) 69

75 k-means maximizationstep :: [[[Double]]] -> [[Double]] maximizationstep candidates = map meanvec candidates 70

76 k-means - Paralelo Temos dois procedimentos a serem realizados em cada iteração: Alocar os elementos a um centro. Calcular um novo centro. Considere que os centros residem em memória. 71

77 k-means - Paralelo Desenhe o fluxo dos dados dessa função e escreva o procedimento utilizando PySpark: emstep :: ChunksOf [[Double]] -> [[Double]] -> [[Double]] eemstep points clusters = maximizationstep $ estimationstep points clusters 72

78 k-means - Paralelo A função maximizationstep recebe uma lista de tuplas [(Int, ([Double], Double)] contendo k elementos representando o id do cluster, a soma dos vetores dos pontos daquele cluster e quantos elementos existem no cluster. emstep :: ChunksOf [[Double]] -> [[Double]] -> [[Double]] eemstep points clusters = maximizationstep $ estimationstep points clusters 73

79 k-means - Paralelo Um simples map sequencial resolve: emstep :: ChunksOf [[Double]] -> [[Double]] -> [[Double]] eemstep points clusters = map (\(idx, (xs,n)) -> xs./ n) $ estimationstep points clusters 74

80 k-means - Paralelo A função estimationstep tem que mapear os pontos para esse formato [(Int, ([Double], Double)] e reduzir somando os elementos da tupla valor. emstep :: ChunksOf [[Double]] -> [[Double]] -> [[Double]] eemstep points clusters = map (\(idx, (xs,n)) -> xs./ n) $ estimationstep points clusters 75

81 k-means - Paralelo A função estimationstep tem que mapear os pontos para esse formato [(Int, ([Double], Double)] e reduzir somando os elementos da tupla valor. emstep :: ChunksOf [[Double]] -> [[Double]] -> [[Double]] eemstep points clusters = map (\(idx, (xs,n)) -> xs./ n) $ mapreducebykey assign soma points where assign = (\pi -> (assign pi clusters, (pi,1.0))) 76

82 k-means - Paralelo Reescreva o procedimento utilizando PySpark: emstep :: ChunksOf [[Double]] -> [[Double]] -> [[Double]] eemstep points clusters = map (\(idx, (xs,n)) -> xs./ n) $ mapreducebykey assign soma points where assign = (\pi -> (assign pi clusters, (pi,1.0))) 77

83 k-means - Paralelo centers = RDD.map(lambda xi: (assign(xi,c), xi)).reducebykey(lambda (pi1, n1), (pi2, n2) : (pi1+pi2, n1+n2)).map(lambda (idx, (pi, n)): (pi/n)).collect() 78

84 Agrupamento Espectral Nem sempre nossos dados apresentam um agrupamento óbvio mensurado por uma medida de similaridade: y x 79

85 Agrupamento Espectral O uso do algoritmo k-means é insuficiente para encontrar os dois grupos existentes: y x 80

86 Agrupamento Espectral Mesmo utilizando um número maior de clusters o algoritmo apresenta dificuldades para entender a estrutura da base de dados y x 81

87 Agrupamento Espectral Uma forma alternativa de representar esses objetos é imaginar que eles formam um grafo em que os k pontos mais próximos de um certo ponto, forma uma aresta com este

88 Agrupamento Espectral Dessa forma passamos a representar nossos dados através da matriz Laplaciana, que é dada por: L = G A, com A sendo a matriz de adjacência e G uma matriz diagonal com os elementos da diagonal igual ao grau do nó correspondente. 83

89 Agrupamento Espectral Essa matriz Laplaciana tem algumas propriedades interessantes: O número de autovalores iguais a 0 é igual ao número de componentes conexos. Os autovetores correspondentes aos autovalores iguais a 0 representam um grupo, sendo os nós pertencentes a esse grupo com valores positivos e todo o restante igual a 0. Os autovetores consequentes representam diversas formações de possíveis agrupamentos. 84

90 Agrupamento Espectral Com isso podemos calcular a Laplaciana de uma base de dados e utilizar os k primeiros autovetores dessa matriz (com autovalores diferentes de 0) e gerar (similar ao PCA) uma matriz n k contendo a informação dos grupos. 85

91 Agrupamento Espectral Nesse ponto, temos a projeção dos nossos dados em um espaço de dimensão reduzida. Podemos agora aplicar a técnica k-means utilizando essa representação para obtermos os grupos. 86

92 Agrupamento Espectral Com isso é possível encontrar os grupos corretos de nosso exemplo: y x 87

93 Agrupamento Espectral Faça uma implementação do Agrupamento Espectral no Spark. Dica: aplicando o algoritmo SVD na matriz Laplaciana, temos que a matriz U representa os autovetores. Utilize o algoritmo svd já implementado no Spark. 88

94 Atividade 05 Complete o Laboratório Algoritmos de Agrupamento de Dados no Spark 89

Aprendizado Não-Supervisionado

Aprendizado Não-Supervisionado Aprendizado Não-Supervisionado Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendizado Não-Supervisionado 2. Agrupamento de Dados 1 Aprendizado Não-Supervisionado Aprendizado Não-Supervisionado

Leia mais

Redução de Dimensionalidade, DCDistance, e CARFRE

Redução de Dimensionalidade, DCDistance, e CARFRE Redução de Dimensionalidade, DCDistance, e CARFRE Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redução de Dimensionalidade 2. Análise de Componentes Principais 3. DCDistance - Document-Class

Leia mais

Agrupamento Espectral e Hierárquico

Agrupamento Espectral e Hierárquico Agrupamento Espectral e Hierárquico Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Agrupamento Espectral 2. Agrupamento Hierárquico 1 Agrupamento Espectral Agrupamento Espectral Nem

Leia mais

Algoritmos de Regressão

Algoritmos de Regressão Algoritmos de Regressão com Big Data Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Regressão Linear 2. Ordinary Least Square 3. Gradiente Descendente 4. Overfitting 5. Variáveis Não-Lineares

Leia mais

Regressão. Prof. Fabrício Olivetti de França Universidade Federal do ABC

Regressão. Prof. Fabrício Olivetti de França Universidade Federal do ABC Regressão Prof. Fabrício Olivetti de França Universidade Federal do ABC Aprendendo com Exemplos Uma das formas de aprendizado de máquina é definido como: Dado um conjunto de exemplos X, com cada x sendo

Leia mais

Sumarizando Dados. Fabrício Olivetti de França. Universidade Federal do ABC

Sumarizando Dados. Fabrício Olivetti de França. Universidade Federal do ABC Sumarizando Dados Fabrício Olivetti de França Universidade Federal do ABC Sumarizando os dados Sumarização Antes de extrair informações da base de dados, é importante entender seu conteúdo. Sumarização:

Leia mais

Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC

Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC Regressão Linear Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Ordinary Least Square 2. Gradiente Descendente 1 Aprendendo com exemplos Uma das formas de aprendizado de máquina é definido

Leia mais

Processamento de Imagens CPS755

Processamento de Imagens CPS755 Processamento de Imagens CPS755 aula 04 - sistemas lineares Antonio Oliveira Ricardo Marroquim 1 / 32 laboratório de processamento de imagens tópicos decomposições (álgebra linear) decomposição QR decomposição

Leia mais

Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas

Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Wrapper Filtros Muitos algoritmos de AM são projetados de modo a selecionar os

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Conceitos básicos Classificação não-supervisionada:

Leia mais

MapReduce Mapeando e reduzindo

MapReduce Mapeando e reduzindo MapReduce Mapeando e reduzindo Prof. Fabrício Olivetti de França Universidade Federal do ABC Motivação Vimos até então que nosso maior problema é a quantidade de dados. O processamento não pode ser distribuído

Leia mais

Primeiro Exercício programa: Como o Google ordena páginas. MAP-2121 para EPUSP

Primeiro Exercício programa: Como o Google ordena páginas. MAP-2121 para EPUSP Primeiro Exercício programa: Como o Google ordena páginas MAP-2121 para EPUSP 1 Instruções gerais Os exercícios computacionais pedidos na disciplina Cálculo Numérico têm por objetivo fundamental familiarizar

Leia mais

Projeções Multi-dimensionais

Projeções Multi-dimensionais Prof. Fernando V. Paulovich http://www.icmc.usp.br/~paulovic paulovic@icmc.usp.br Instituto de Ciências Matemáticas e de Computação (ICMC) Universidade de São Paulo (USP) 23 de setembro de 2010 Introdução

Leia mais

Reconhecimento de Padrões. Principal Component Analysis (PCA) Análise dos Componentes Principais

Reconhecimento de Padrões. Principal Component Analysis (PCA) Análise dos Componentes Principais Universidade Federal de Ouro Preto (UFOP) Programa de Pós-Graduação em Ciência da Computação (PPGCC) Reconhecimento de Padrões Principal Component Analysis (PCA) Análise dos Componentes Principais David

Leia mais

Pré-processamento de Dados

Pré-processamento de Dados Pré-processamento de Dados Fabrício Olivetti de França Universidade Federal do ABC Pré-Processamento dos Dados Tópicos 1. Pré-Processamento dos Dados 2. Conceitos Básicos 3. Representação Textual 4. Padrões

Leia mais

Teoria dos Grafos AULA

Teoria dos Grafos AULA Teoria dos Grafos Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada antunes@ibilce.unesp.br, socorro@ibilce.unesp.br AULA Caminho mínimo - Algoritmo de Djskstra Preparado a partir

Leia mais

Teoria dos Grafos. Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo. Departamento de Matemática Aplicada

Teoria dos Grafos. Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo. Departamento de Matemática Aplicada Teoria dos Grafos Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo Departamento de Matemática Aplicada Capítulo 09: Representação de Grafos Preparado a partir do texto: Rangel, Socorro. Teoria

Leia mais

Teoria dos Grafos. Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada.

Teoria dos Grafos. Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada. Teoria dos Grafos Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada antunes@ibilce.unesp.br, socorro@ibilce.unesp.br Preparado a partir do texto: Rangel, Socorro. Teoria do Grafos,

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação (Machine Learning) Aula 02 Representação dos dados Pré-processamento Max Pereira Tipo de Dados Os atributos usados para descrever objetos de dados podem ser de diferentes tipos: Quantitativos

Leia mais

Paradigmas de Programação

Paradigmas de Programação Paradigmas de Programação Fabrício Olivetti de França 21 de Junho de 2018 1 Listas 2 Listas Uma das principais estruturas em linguagens funcionais. Representa uma coleção de valores de um determinado tipo.

Leia mais

Aprendizado de Supervisionado

Aprendizado de Supervisionado Aprendizado de Supervisionado Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Padronizando e Normalizando os Atributos 2. Tipos de Atributos 3. Representação Textual 1 Padronizando e

Leia mais

Determinação numérica de autovalores e autovetores: Método de Jacobi

Determinação numérica de autovalores e autovetores: Método de Jacobi Determinação numérica de autovalores e autovetores: Método de Jacobi Marina Andretta/Franklina Toledo ICMC-USP 3 de setembro de 2012 Baseado no livro Cálculo Numérico, de Neide B. Franco. Marina Andretta/Franklina

Leia mais

Aprendizado de Supervisionado

Aprendizado de Supervisionado Aprendizado de Supervisionado Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendendo com Exemplos 2. Classificação 3. Conceitos Gerais 4. Vizinho Mais Próximo 1 Aprendendo com Exemplos

Leia mais

MINERAÇÃO DE DADOS. Thiago Marzagão CLUSTERIZAÇÃO. Thiago Marzagão (UnB) MINERAÇÃO DE DADOS 1 / 9

MINERAÇÃO DE DADOS. Thiago Marzagão CLUSTERIZAÇÃO. Thiago Marzagão (UnB) MINERAÇÃO DE DADOS 1 / 9 MINERAÇÃO DE DADOS Thiago Marzagão marzagao.1@osu.edu CLUSTERIZAÇÃO Thiago Marzagão (UnB) MINERAÇÃO DE DADOS 1 / 9 regressão/classificação vs clusterização Regressão/classificação: temos x 1, x 2,...,

Leia mais

Aula 5 - Produto Vetorial

Aula 5 - Produto Vetorial Aula 5 - Produto Vetorial Antes de iniciar o conceito de produto vetorial, precisamos recordar como se calculam os determinantes. Mas o que é um Determinante? Determinante é uma função matricial que associa

Leia mais

Determinação numérica de autovalores e autovetores: Método das Potências Inversas

Determinação numérica de autovalores e autovetores: Método das Potências Inversas Determinação numérica de autovalores e autovetores: Marina Andretta/Franklina Toledo ICMC-USP 27 de março de 2015 Marina Andretta/Franklina Toledo (ICMC-USP) sme0301 - Métodos Numéricos para Engenharia

Leia mais

Álgebra Linear I - Aula 20

Álgebra Linear I - Aula 20 Álgebra Linear I - Aula 20 1 Matrizes diagonalizáveis Exemplos 2 Forma diagonal de uma matriz diagonalizável 1 Matrizes diagonalizáveis Exemplos Lembramos que matriz quadrada a 1,1 a 1,2 a 1,n a 2,1 a

Leia mais

G3 de Álgebra Linear I

G3 de Álgebra Linear I G3 de Álgebra Linear I 11.1 Gabarito 1) Seja A : R 3 R 3 uma transformação linear cuja matriz na base canônica é 4 [A] = 4. 4 (a) Determine todos os autovalores de A. (b) Determine, se possível, uma forma

Leia mais

Detecção: quais os caminhos?

Detecção: quais os caminhos? Detecção: quais os caminhos? Visão Computacional Programa de Pós- Graduação em Ciência da Computação UFMA Prof. Geraldo Braz Junior Baseado nas notas de aula do CS131, CS229 CS231B Porque? Aplicações necessitam

Leia mais

Álgebra Linear I - Aula 22

Álgebra Linear I - Aula 22 Álgebra Linear I - Aula 1. Bases Ortonormais.. Matrizes Ortogonais. 3. Exemplos. 1 Bases Ortonormais Lembre que uma base β é ortogonal se está formada por vetores ortogonais entre si: para todo par de

Leia mais

Estatística: Aplicação ao Sensoriamento Remoto SER ANO Componentes Principais

Estatística: Aplicação ao Sensoriamento Remoto SER ANO Componentes Principais Estatística: Aplicação ao Sensoriamento Remoto SER 4 - ANO 9 Componentes Principais Camilo Daleles Rennó camilorenno@inpebr http://wwwdpiinpebr/~camilo/estatistica/ Associação entre Variáveis r = < r

Leia mais

= comprimento (distância, valor) da aresta orientada do vértice i ao vértice j,, e:

= comprimento (distância, valor) da aresta orientada do vértice i ao vértice j,, e: 8 - Problema do Caminho Mínimo Considere a rede: Dado dois vértices nesta rede, queremos determinar o menor caminho ente eles. Uma primeira questão é como representar os valores associados às arestas neste

Leia mais

Álgebra Linear I - Aula Forma diagonal de uma matriz diagonalizável

Álgebra Linear I - Aula Forma diagonal de uma matriz diagonalizável Álgebra Linear I - Aula 18 1 Forma diagonal de uma matriz diagonalizável 2 Matrizes ortogonais Roteiro 1 Forma diagonal de uma matriz diagonalizável Sejam A uma transformação linear diagonalizável, β =

Leia mais

GPDI Grupo de Profissionais de Dados e Inteligência

GPDI Grupo de Profissionais de Dados e Inteligência GPDI Grupo de Profissionais de Dados e Inteligência Estatística e sua relação de dados Uma aplicação na redução da dimensionalidade em matrizes de dados Grupo de Profissionais de Dados e Inteligência Quem

Leia mais

Reconhecimento facial. uma aplicação prática do reconhecimento de padrões

Reconhecimento facial. uma aplicação prática do reconhecimento de padrões Reconhecimento facial uma aplicação prática do reconhecimento de padrões Márcio Koch, junho 2014 Pauta Apresentação Visão computacional Reconhecimento de padrões Analise de Componentes Principais Reconhecimento

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Aprendizado de Máquina Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Introdução 1 Introdução Aprendizado de Máquina Extração de conhecimento. Automatização de tarefas. Tomada de Decisões.

Leia mais

Aula 7 Medidas de Distância. Profa. Elaine Faria UFU

Aula 7 Medidas de Distância. Profa. Elaine Faria UFU Aula 7 Medidas de Distância Profa. Elaine Faria UFU - 2017 Agradecimentos Este material é baseado No livro Tan et al, 2006 Nos slides do prof Andre C. P. L. F. Carvalho Agradecimentos Ao professor André

Leia mais

Processamento de Imagens CPS755

Processamento de Imagens CPS755 Processamento de Imagens CPS755 aula 06 - sistemas não lineares Antonio Oliveira Ricardo Marroquim 1 / 38 laboratório de processamento de imagens tópicos RANSAC métodos iterativos (não-lineares) gradientes

Leia mais

Mineração de Dados. Análise e Seleção de Variáveis

Mineração de Dados. Análise e Seleção de Variáveis Mineração de Dados Análise e Seleção de Variáveis 1 Análise e Seleção de Variáveis Parte da uma área chamada de Redução de Dados Obtenção de uma representação reduzida em volume mas que produz resultados

Leia mais

Programa do Curso. Transformação de Dados. Sistemas Inteligentes Aplicados. Carlos Hall. Discretização de Variáveis Contínuas

Programa do Curso. Transformação de Dados. Sistemas Inteligentes Aplicados. Carlos Hall. Discretização de Variáveis Contínuas Sistemas Inteligentes Aplicados Carlos Hall Programa do Curso Limpeza/Integração de Dados Transformação de Dados Discretização de Variáveis Contínuas Transformação de Variáveis Discretas em Contínuas Transformação

Leia mais

Sensoriamento Remoto II

Sensoriamento Remoto II Sensoriamento Remoto II Componentes principais Revisão de matemática Análise de componentes principais em SR UFPR Departamento de Geomática Prof. Jorge Centeno 2016 copyright@ centenet Revisão matemática

Leia mais

Teoria dos Grafos Aula 3

Teoria dos Grafos Aula 3 Teoria dos Grafos Aula 3 Aula passada Exemplo (mapas) Definições Algumas propriedades Aula de hoje Representando grafos Matriz e lista Comparando tempos de acesso Grafo G=(V, E) Grafo V = conjunto de vértices

Leia mais

Determinação numérica de autovalores e autovetores: Método das Potências Inversas

Determinação numérica de autovalores e autovetores: Método das Potências Inversas Determinação numérica de autovalores e autovetores: Marina Andretta/Franklina Toledo ICMC-USP 3 de setembro de 2012 Marina Andretta/Franklina Toledo (ICMC-USP) sme0300 - Cálculo Numérico 3 de setembro

Leia mais

Análise de Componentes Principais Simbólicas

Análise de Componentes Principais Simbólicas Análise de Componentes Principais Simbólicas Universidade Federal de Pernambuco CIn.ufpe.br Análise de Componentes Principais O objetivo da análise de componentes principais é explicar a estrutura de variânciacovariância

Leia mais

Álgebra Linear I - Aula Bases Ortonormais e Matrizes Ortogonais

Álgebra Linear I - Aula Bases Ortonormais e Matrizes Ortogonais Álgebra Linear I - Aula 19 1. Bases Ortonormais e Matrizes Ortogonais. 2. Matrizes ortogonais 2 2. 3. Rotações em R 3. Roteiro 1 Bases Ortonormais e Matrizes Ortogonais 1.1 Bases ortogonais Lembre que

Leia mais

Aprendizado por Reforço usando Aproximação

Aprendizado por Reforço usando Aproximação Aprendizado por Reforço usando Aproximação de Funções Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aproximação de Funções 2. Do the evolution 1 Aproximação de Funções Função Utilidade

Leia mais

Material Teórico - Sistemas Lineares e Geometria Anaĺıtica. Sistemas com três variáveis - Parte 1. Terceiro Ano do Ensino Médio

Material Teórico - Sistemas Lineares e Geometria Anaĺıtica. Sistemas com três variáveis - Parte 1. Terceiro Ano do Ensino Médio Material Teórico - Sistemas Lineares e Geometria Anaĺıtica Sistemas com três variáveis - Parte 1 Terceiro Ano do Ensino Médio Autor: Prof Fabrício Siqueira Benevides Revisor: Prof Antonio Caminha M Neto

Leia mais

Agrupamento de dados. Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral

Agrupamento de dados. Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral Agrupamento de dados Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral Dados e grafos Se temos dados x i, i 0... n, criamos

Leia mais

Maldição da dimensionalidade

Maldição da dimensionalidade EXTRAÇÃO E SELEÇÃO DE ATRIBUTOS Maldição da dimensionalidade 2 Maldição da dimensionalidade (ou Curse of dimensionality) Termo que se refere a vários fenômenos que surgem na análise de dados em espaços

Leia mais

Matrizes Semelhantes e Matrizes Diagonalizáveis

Matrizes Semelhantes e Matrizes Diagonalizáveis Diagonalização Matrizes Semelhantes e Matrizes Diagonalizáveis Nosso objetivo neste capítulo é estudar aquelas transformações lineares de R n para as quais existe pelo menos uma base em que elas são representadas

Leia mais

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões PCA. Luiz Eduardo S. Oliveira, Ph.D.

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões PCA. Luiz Eduardo S. Oliveira, Ph.D. Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões PCA Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Objetivos Introduzir os conceitos de PCA e suas aplicações

Leia mais

Fabrício Olivetti de França. Universidade Federal do ABC

Fabrício Olivetti de França. Universidade Federal do ABC Classificação: Naive Bayes Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Naive Bayes 1 Naive Bayes Aprendizado Probabiĺıstico Foi mencionado anteriormente que o uso da função logística

Leia mais

G3 de Álgebra Linear I

G3 de Álgebra Linear I G3 de Álgebra Linear I 2.2 Gabarito ) Considere a matriz 4 N = 4. 4 Observe que os vetores (,, ) e (,, ) são dois autovetores de N. a) Determine uma forma diagonal D de N. b) Determine uma matriz P tal

Leia mais

Álgebra Linear Semana 04

Álgebra Linear Semana 04 Álgebra Linear Semana 04 Diego Marcon 17 de Abril de 2017 Conteúdo 1 Produto de matrizes 1 11 Exemplos 2 12 Uma interpretação para resolução de sistemas lineares 3 2 Matriz transposta 4 3 Matriz inversa

Leia mais

Teoria dos Grafos. Caminho mínimo - Algoritmo de Dijskstra

Teoria dos Grafos. Caminho mínimo - Algoritmo de Dijskstra Teoria dos Grafos Valeriano A. de Oliveira Socorro Rangel Silvio A. de Araujo Departamento de Matemática Aplicada antunes@ibilce.unesp.br, socorro@ibilce.unesp.br, saraujo@ibilce.unesp.br Caminho mínimo

Leia mais

Reconhecimento de Padrões

Reconhecimento de Padrões Reconhecimento de Padrões André Tavares da Silva andre.silva@udesc.br Roteiro da aula Conceitos básicos sobre reconhecimento de padrões Visão geral sobre aprendizado no projeto de classificadores Seleção

Leia mais

Processamento de Imagens CPS755

Processamento de Imagens CPS755 Processamento de Imagens CPS755 aula 03 - visualizando a planar Antonio Oliveira Ricardo Marroquim 1 / 40 laboratório de processamento de imagens tópicos visualizando a planar discussão dos primeiros 2

Leia mais

G3 de Álgebra Linear I

G3 de Álgebra Linear I G de Álgebra Linear I 7 Gabarito ) Considere a transformação linear T : R R cuja matriz na base canônica E = {(,, ), (,, ), (,, )} é [T] E = a) Determine os autovalores de T e seus autovetores correspondentes

Leia mais

Aula 14. Aula de hoje. Aula passada

Aula 14. Aula de hoje. Aula passada Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema

Leia mais

Visão Computacional CPS754

Visão Computacional CPS754 Visão Computacional CPS754 aula 13 - reconstrução Antonio Oliveira Ricardo Marroquim 1 / 26 visão computacional tópicos reprojetando pontos para 3D triangulação simples solução ótima definição do último

Leia mais

Códigos de bloco. Luis Henrique Assumpção Lolis. 1 de novembro de Luis Henrique Assumpção Lolis Códigos de bloco 1

Códigos de bloco. Luis Henrique Assumpção Lolis. 1 de novembro de Luis Henrique Assumpção Lolis Códigos de bloco 1 Códigos de bloco Luis Henrique Assumpção Lolis 1 de novembro de 2013 Luis Henrique Assumpção Lolis Códigos de bloco 1 Conteúdo 1 Códigos de bloco lineares 2 Códigos sistemáticos 3 Síndrome 4 Distância

Leia mais

Aula 25: Análise Fatorial. Prof. Eduardo A. Haddad

Aula 25: Análise Fatorial. Prof. Eduardo A. Haddad Aula 25: Análise Fatorial Prof. Eduardo A. Haddad Utilização específica Como identificar o potencial de desenvolvimento agropecuário dos municípios brasileiros? Banco de dados municipais: Tamanho do rebanho,

Leia mais

P4 de Álgebra Linear I de junho de 2005 Gabarito

P4 de Álgebra Linear I de junho de 2005 Gabarito P4 de Álgebra Linear I 25.1 15 de junho de 25 Gabarito 1) Considere os pontos A = (1,, 1), B = (2, 2, 4), e C = (1, 2, 3). (1.a) Determine o ponto médio M do segmento AB. (1.b) Determine a equação cartesiana

Leia mais

Representação esquemática de estruturas de dados

Representação esquemática de estruturas de dados UNIVERSIDADE DE SÃO PAULO - USP Instituto de Química de São Carlos - IQSC Grupo de Química Medicinal do IQSC/USP 1 Representação esquemática de estruturas de dados 2 1 Tipos de variáveis Contínua Concentração,

Leia mais

P4 de Álgebra Linear I

P4 de Álgebra Linear I P4 de Álgebra Linear I 2008.2 Data: 28 de Novembro de 2008. Gabarito. 1) (Enunciado da prova tipo A) a) Considere o plano π: x + 2 y + z = 0. Determine a equação cartesiana de um plano ρ tal que a distância

Leia mais

Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica. Classificação. David Menotti.

Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica. Classificação. David Menotti. Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Classificação David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Redução de Dimensionalidade Principal Component Analysis (PCA)

Leia mais

Regressão Polinomial e Simbólica

Regressão Polinomial e Simbólica Regressão Polinomial e Simbólica Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Variáveis Não-Lineares 2. Regressão Simbólica 1 Variáveis Não-Lineares Variáveis Não-Lineares Considere

Leia mais

Marina Andretta. 10 de outubro de Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis.

Marina Andretta. 10 de outubro de Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Solução básica viável inicial Marina Andretta ICMC-USP 10 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211

Leia mais

Considerações de Desempenho

Considerações de Desempenho Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem

Leia mais

Teoria dos Grafos. Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo. Departamento de Matemática Aplicada

Teoria dos Grafos. Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo. Departamento de Matemática Aplicada Teoria dos Grafos Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo Departamento de Matemática Aplicada Capítulo 10: Caminho mínimo - Algoritmo de Dijskstra Preparado a partir do texto: Rangel,

Leia mais

3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução

3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução 3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução Como já mencionado na seção 1.1, as SVMs geram, da mesma forma que redes neurais (RN), um "modelo caixa preta" de

Leia mais

2 Processo de Agrupamentos

2 Processo de Agrupamentos 20 2 Processo de Agrupamentos A análise de agrupamentos pode ser definida como o processo de determinação de k grupos em um conjunto de dados. Para entender o que isso significa, observe-se a Figura. Y

Leia mais

Implementação dos Algoritmos e Resultados

Implementação dos Algoritmos e Resultados Capítulo 6 Implementação dos Algoritmos e Resultados 6.1 Considerações Iniciais Diversas situações foram exploradas neste trabalho visando analisar qual seria a wavelet mais adequada para sistemas de extração

Leia mais

Álgebra Linear I - Lista 11. Autovalores e autovetores. Respostas. 1) Calcule os autovalores e autovetores das matrizes abaixo.

Álgebra Linear I - Lista 11. Autovalores e autovetores. Respostas. 1) Calcule os autovalores e autovetores das matrizes abaixo. Álgebra Linear I - Lista 11 Autovalores e autovetores Respostas 1 Calcule os autovalores e autovetores das matrizes abaixo. (a ( 4 1 1, (b ( 1 1, (c ( 5 6 3 4, (d 1 1 3 1 6 6, (e 3 5 1, (f 1 1 1 1 1 1

Leia mais

Back Propagation. Dicas para o BP

Back Propagation. Dicas para o BP Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem

Leia mais

Autovalores e Autovetores Determinante de. Motivando com Geometria Definição Calculando Diagonalização Teorema Espectral:

Autovalores e Autovetores Determinante de. Motivando com Geometria Definição Calculando Diagonalização Teorema Espectral: Lema (determinante de matriz ) A B A 0 Suponha que M = ou M =, com A e D 0 D C D matrizes quadradas Então det(m) = det(a) det(d) A B Considere M =, com A, B, C e D matrizes C D quadradas De forma geral,

Leia mais

UNIVERSIDADE DO ESTADO DO RIO GRANDE DO NORTE CURSO: CIÊNCIA DA COMPUTAÇÃO DISCIPLINA: ÁLGEBRA LINEAR PROF.: MARCELO SILVA.

UNIVERSIDADE DO ESTADO DO RIO GRANDE DO NORTE CURSO: CIÊNCIA DA COMPUTAÇÃO DISCIPLINA: ÁLGEBRA LINEAR PROF.: MARCELO SILVA. UNIVERSIDADE DO ESTADO DO RIO GRANDE DO NORTE CURSO: CIÊNCIA DA COMPUTAÇÃO DISCIPLINA: ÁLGEBRA LINEAR PROF.: MARCELO SILVA Determinantes Introdução Como já vimos, matriz quadrada é a que tem o mesmo número

Leia mais

. Repare que ao multiplicar os vetores (-1,1) e

. Repare que ao multiplicar os vetores (-1,1) e Álgebra Linear II P1-2014.2 Obs: Todas as alternativas corretas são as representadas pela letra A. 1 AUTOVETORES/ AUTOVALORES Essa questão poderia ser resolvida por um sistema bem chatinho. Mas, faz mais

Leia mais

Classificação. Prof. Fabrício Olivetti de França Universidade Federal do ABC

Classificação. Prof. Fabrício Olivetti de França Universidade Federal do ABC Classificação Prof. Fabrício Olivetti de França Universidade Federal do ABC Classificação Quando queremos encontrar: f(x) = y C e C = {c1, c2, c3,, cn} Classificação Se um e-mail é spam ou não De qual

Leia mais

Álgebra Linear I - Aula 20

Álgebra Linear I - Aula 20 Álgebra Linear I - Aula 0 1 Matriz de Mudança de Base Bases Ortonormais 3 Matrizes Ortogonais 1 Matriz de Mudança de Base Os próximos problemas que estudaremos são os seguintes (na verdade são o mesmo

Leia mais

Exercício: Identifique e faça um esboço do conjunto solução da. 3x xy + y 2 + 2x 2 3y = 0

Exercício: Identifique e faça um esboço do conjunto solução da. 3x xy + y 2 + 2x 2 3y = 0 Motivação Exercício: Identifique e faça um esboço do conjunto solução da equação 3x 2 + 2 3xy + y 2 + 2x 2 3y = 0 Motivação Exercício: Identifique e faça um esboço do conjunto solução da equação 3x 2 +

Leia mais

CM005 Álgebra Linear Lista 3

CM005 Álgebra Linear Lista 3 CM005 Álgebra Linear Lista 3 Alberto Ramos Seja T : V V uma transformação linear. Se temos que T v = λv, v 0, para λ K. Dizemos que λ é um autovalor de T e v autovetor de T associado a λ. Observe que λ

Leia mais

Método prático para extrair uma base de um conjunto de geradores de um subespaço de R n

Método prático para extrair uma base de um conjunto de geradores de um subespaço de R n Método prático para extrair uma base de um conjunto de geradores de um subespaço de R n 1. Descrição do método e alguns exemplos Colocamos o seguinte problema: dado um conjunto finito: A = {a 1, a 2,...,

Leia mais

1 Matrizes Ortogonais

1 Matrizes Ortogonais Álgebra Linear I - Aula 19-2005.1 Roteiro 1 Matrizes Ortogonais 1.1 Bases ortogonais Lembre que uma base β é ortogonal se está formada por vetores ortogonais entre si: para todo par de vetores distintos

Leia mais

Processamento de Imagens CPS755

Processamento de Imagens CPS755 Processamento de Imagens CPS755 aula 05 - sistemas lineares - parte 2 Antonio Oliveira Ricardo Marroquim 1 / 27 laboratório de processamento de imagens tópicos métodos lineares mínimos quadrados equações

Leia mais

Introdução aos Métodos Numéricos. Instituto de Computação UFF

Introdução aos Métodos Numéricos. Instituto de Computação UFF Introdução aos Métodos Numéricos Instituto de Computação UFF Conteúdo Erros e Aproximações Numéricas Sistemas de Equações Lineares. Métodos diretos Interpolação Ajuste de Curvas Zeros de Função Sistemas

Leia mais

Autovalores e Autovetores

Autovalores e Autovetores Autovalores e Autovetores Maria Luísa B. de Oliveira SME0300 Cálculo Numérico 24 de novembro de 2010 Introdução Objetivo: Dada matriz A, n n, determinar todos os vetores v que sejam paralelos a Av. Introdução

Leia mais

2 Animação com Harmônicos de Variedade

2 Animação com Harmônicos de Variedade 2 Animação com Harmônicos de Variedade Hoje em dia, podemos encontrar vários métodos de visualização de música, porém muito poucos relacionam a música à deformações (ou até movimentos rígidos) de modelos

Leia mais

3 Modelos Flex ıveis 3.1 Active Contour Model

3 Modelos Flex ıveis 3.1 Active Contour Model 3 Modelos Flexíveis Em Visão Computacional, uma das principais premissas é processar uma imagem com a finalidade de compreendê-la e retirar dela informações úteis. É utilizada em diversas aplicações atualmente,

Leia mais

Métodos Quantitativos Aplicados

Métodos Quantitativos Aplicados Métodos Quantitativos Aplicados Aula 7 http://www.iseg.utl.pt/~vescaria/mqa/ Tópicos apresentação Relações de interdependência entre variáveis quantitativas: A Análise Factorial Análise Factorial: técnica

Leia mais

x y Grafo Euleriano Figura 1

x y Grafo Euleriano Figura 1 Grafo Euleriano Um caminho simples ou um circuito simples é dito euleriano se ele contém todas as arestas de um grafo. Um grafo que contém um circuito euleriano é um grafo euleriano. Um grafo que não contém

Leia mais

Álgebra Linear I - Aula Matrizes simultaneamente ortogonais e simétricas

Álgebra Linear I - Aula Matrizes simultaneamente ortogonais e simétricas Álgebra Linear I - Aula 22 1. Matrizes 2 2 ortogonais e simétricas. 2. Projeções ortogonais. 3. Matrizes ortogonais e simétricas 3 3. Roteiro 1 Matrizes simultaneamente ortogonais e simétricas 2 2 Propriedade

Leia mais

Ficha de Exercícios nº 3

Ficha de Exercícios nº 3 Nova School of Business and Economics Álgebra Linear Ficha de Exercícios nº 3 Transformações Lineares, Valores e Vectores Próprios e Formas Quadráticas 1 Qual das seguintes aplicações não é uma transformação

Leia mais

Teoria dos Grafos. Edson Prestes

Teoria dos Grafos. Edson Prestes Edson Prestes Grafos Enumeração de Passeios/Caminhos O processo associado à enumeração de caminhos de um grafo/dígrafo é semelhante ao processo de contagem com a diferença de que usaremos uma matriz de

Leia mais

Aula 3- Codificação de Canal. October 18, 2017

Aula 3- Codificação de Canal. October 18, 2017 ELE-32 Introdução a Comunicações Aula 3- Codificação de Canal October 18, 2017 1 Introdução Em muitas situações, a mensagem a ser transmitida por um sistema de comunicações é uma sequência de bits. Entretanto,

Leia mais

Processamento da Informação

Processamento da Informação Processamento da Informação Fabrício Olivetti de França 02 de Fevereiro de 2019 Topics 1. Listas e Vetores 1 Listas e Vetores Listas e Vetores Uma lista em Python é um container de informações que, por

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

Programação Dinâmica I SCC0210 Algoritmos Avançados (2/2011) Lucas Schmidt Cavalcante

Programação Dinâmica I SCC0210 Algoritmos Avançados (2/2011) Lucas Schmidt Cavalcante Programação Dinâmica I SCC0210 Algoritmos Avançados (2/2011) Lucas Schmidt Cavalcante Introdução Soma máxima de uma subsequência contígua Problema do troco Quantidade de formas de dar troco Problema da

Leia mais

SME Cálculo Numérico. Lista de Exercícios: Gabarito

SME Cálculo Numérico. Lista de Exercícios: Gabarito Exercícios de prova SME0300 - Cálculo Numérico Segundo semestre de 2012 Lista de Exercícios: Gabarito 1. Dentre os métodos que você estudou no curso para resolver sistemas lineares, qual é o mais adequado

Leia mais