Redução de Dimensionalidade e Agrupamento de Dados
|
|
- Maria das Dores Andrade
- 5 Há anos
- Visualizações:
Transcrição
1 Redução de Dimensionalidade e Agrupamento de Dados Fabrício Olivetti de França Universidade Federal do ABC
2 Tópicos 1. Análise de Componentes Principais 2. Agrupamento de Dados 1
3 Redução de Dimensionalidade Quando trabalhamos com muitos atributos, alguns destes podem ser: Redundantes: dois ou mais representam a mesma informação (Ex.: tempo em segundos e tempo em minutos) Ruidosos: possuem valores aleatórios sem significado (Ex.: sinais ruidosos) Irrelevantes: não possuem relação com a tarefa desejada (Ex.: termos irrelevantes para classificação de sentimentos) 2
4 Redução de Dimensionalidade Além disso, quando possível, é desejável compactar esses atributos para uma espaço de menor dimensão. Curse of Dimensionality: quanto maior a dimensionalidade, mais difícil se torna perceber diferenças de similaridades; complexidade de algoritmos em função de d, etc. 3
5 Análise de Componentes Principais
6 Principal Components Analysis (PCA) Identifica as direções de maior variação de valores. Rotaciona o eixo para que cada eixo rotacionado represente da maior para a menor variação. 4
7 Principal Components Analysis (PCA) y x Figura 1: Eixos originais. 5
8 Principal Components Analysis (PCA) y z Figura 2: Eixos rotacionados. 6
9 Principal Components Analysis (PCA) Para isso utiliza a informação de autovalores e autovetores da matriz de covariância dos atributos. 7
10 Covariância dos Atributos Dada uma matriz de dados X R n d, centralizamos os pontos para que fiquem com média zero: x i,j = x i,j ˆx j, com ˆx j sendo a média dos valores do atributo j. 8
11 Covariância dos Atributos A covariância dos atributos pode ser calculada como: Cov = 1 n X T X, que resulta em uma matriz Cov R d d. 9
12 Covariância dos Atributos O elemento i, j dessa matriz representa a correlação entre o atributo i e o atributo j. A diagonal indica a variância do respectivo atributo. 10
13 Autovalores e Autovetores Dessa matriz podemos extrair um total de d 1 autovalores (λ) e autovetores (e) tal que: Cov e = λ e 1 apenas se todos os atributos forem independentes 11
14 Autovalores e Autovetores Se ordenarmos todos os autovalores/autovetores pela ordem do maior autovalor para o menor, temos que: Cada autovetor i representa a i-ésima direção de maior variação O autovalor correspondente quantifica essa variação 12
15 Principal Components Analysis (PCA) Cada autovetor representa uma combinação linear dos atributos originais de tal forma a capturar a variação descrita pelo autovalor. Basicamente a matriz de autovetores é uma base de dados rotacionada que captura a variação em ordem crescente. 13
16 Principal Components Analysis (PCA) Se um autovalor for muito pequeno, significa que não existe variação naquele eixo e, portanto, ele pode ser descartado. Imagine um problema de classificação utilizando apenas uma variável x j com variância baixa. É fácil perceber que tal variável não tem poder discriminatório pois, para toda classe, ela apresenta um valor muito similar. 14
17 Rotacionando a base de dados De posse da matriz E R d k dos k primeiros autovetores com um valor significativo de λ, é possível transformar a matriz de dados centralizada X com: X = X E. Isso transforma a matriz em uma matriz X R n k com k < d. 15
18 Principal Components Analysis (PCA) Usos do PCA: Transformar a base de dados mantendo a dimensão. Reduzir a base de dados, eliminando eixos com pouca variância. Reduzir para duas dimensões para visualizar os dados. 16
19 Principal Components Analysis (PCA) Quando utilizado para redução de dimensionalidade, verifique o custo-benefício de remover um eixo dado sua variância. Além disso, uma vez que a base é transformada, os atributos perdem totalmente seu significado original. Se temos os atributos m 2, garagens, andar, bairro; uma vez aplicado o PCA não sabemos que combinação linear cada novo atributo representa. 17
20 PCA funcional -- Recebe dados e devolve a matriz de rotaç~ao pca :: Int -> Data -> RotMtx pca k x = submatrix k eigenvectors where (eigenvalues, eigenvectors) = descsort $ H.eig covariance covariance = multmtx (transpose x ) x x = center x 18
21 PCA funcional A matriz de covariância tem dimensão d d, costumeiramente cabendo na memória. A matriz de dados e a de dados centralizadas não cabem em memória, portanto devemos pensar em opções de MapReduce para as funções covariance e center. 19
22 PCA funcional distribuído Lembrando do algoritmo Ordinary Least Square, podemos calcular a matriz de covariância como a somatória dos produtos externos de cada linha de X, a centralização de dados também vimos em uma aula passada, no cálculo do Desvio-Padrãoo. 20
23 PCA funcional distribuído -- Recebe dados e devolve a matriz de rotaç~ao pca :: Int -> Data -> RotMtx pca k x = submatrix k evecs where (evals, evecs) = descsort $ H.eig covmtx covmtx = sum $ map (\xi -> outerprod xi xi) x media xi = (sum xi) / (length xi) centraliza xi = (xi.- (media xi)) x = mapcolunas centraliza x 21
24 PCA funcional distribuído O grande desafio da implementação distribuída é calcular a matriz x centralizada e, após esse procedimento, a matriz de covariância. pca :: Int -> ChunksOf [[Double]] -> [[Double]] pca k x = submatrix k evecs where (evals, evecs) = descsort $ H.eig $ covmtx $ center x 22
25 PCA funcional distribuído Implemente as seguintes funções: center :: ChunksOf [[Double]] -> ChunksOf [[Double]] covar :: (NFData a, Num a) => ChunksOf [[a]] -> [[a]] 23
26 PCA funcional distribuído center :: ChunksOf [[Double]] -> ChunksOf [[Double]] center x = parmap (map (.-. m)) x where m = mapreduce (./n) (.+.) x n = sum $ parmap length x covar :: (NFData a, Num a) => ChunksOf [[a]] -> [[a]] covar x = mapreduce (\xi -> outerprod xi xi) (..+..) x 24
27 PCA - PySpark Traduza o código para PySpark: center :: ChunksOf [[Double]] -> ChunksOf [[Double]] center x = parmap (map (.-. m)) x where m = mapreduce (./n) (.+.) x n = sum $ parmap length x covar :: (NFData a, Num a) => ChunksOf [[a]] -> [[a]] covar x = mapreduce (\xi -> outerprod xi xi) (..+..) x 25
28 PCA - PySpark Dada uma RDD X : n = X.lenght() # 1 x d xmean = (X.map(lambda xi: xi/n).reduce(lambda (xi, yj): xi+yj) ) Xcenter = X.map(lambda xi: xi - xmean) Covar = (Xcenter.map(lambda (k1,xi): np.outer(xi, xi)).reduce(lambda x,y: x+y) ) 26
29 PCA - PySpark Com Covar calculado basta fazer: eva, eve = np.linalg.eigh(covar) idx = np.argsort(-eva) pcamtx = eve[:,idx[:k]] 27
30 Agrupamento de Dados
31 Aprendizado Não-Supervisionado Muitas vezes não temos um rótulo pré-definido que queremos extrair de nossos dados. 28
32 Aprendizado Não-Supervisionado Muitas vezes não temos um rótulo pré-definido que queremos extrair de nossos dados. Contagem? 1 e 2 28
33 Aprendizado Não-Supervisionado Muitas vezes não temos um rótulo pré-definido que queremos extrair de nossos dados. Contagem? 1 e 2 Tipo? 28
34 Aprendizado Não-Supervisionado O aprendizado não-supervisionado especifica as técnicas para extrair conhecimento de um conjunto de dados sem que tenhamos: Informação do que queremos encontrar. Qualquer retorno indicando corretude do que encontramos. 29
35 Aprendizado Não-Supervisionado Essas técnicas se baseiam em: Formação de grupos de dados similares. Modelo de criação de um dado. Busca de objetos representativos. 30
36 Formação de grupos de dados Essas técnicas se baseiam em: Define-se uma medida de similaridade entre nossos dados. Note que os grupos formados dependente dessa medida de similaridade. 31
37 Formação de grupos de dados Nas imagens abaixo: 32
38 Formação de grupos de dados Podemos formar os grupos bonzinhos e malvados : 33
39 Formação de grupos de dados Podemos formar os grupos masculino, feminino e indefinido : 34
40 Formação de grupos de dados Podemos formar os grupos heróis, vítimas e vilões : 35
41 Modelo de Criação Procura encontrar um modelo que explica a geração dos dados: P(θ x) =? 36
42 Modelo de Criação Vamos tomar como exemplo agora as seguintes imagens: 37
43 Modelo de Criação Com elas podemos encontrar os seguintes modelos de criação: 38
44 Dados Representativos Vamos considerar que uma imagem é um conjunto de pixels, e as cores desses pixels são nossos dados. Se encontrarmos as k cores mais representativa dessa imagem, podemos redesenhá-la utilizando essas cores, economizando bits! 39
45 Dados Representativos 40
46 Objetos Representativos Vamos estudar a busca pelas k cores mais representativas. Os resultados ilustrados anteriormente utilizam o conceito de agrupamento, especificamente a técnica k-means. 41
47 k-means Digamos que temos diversas cores que são tons de vermelho, verde e azul y x 42
48 k-means Queremos escolher as 3 cores mais representativas desse conjunto! y x 43
49 k-means E não necessariamente essas 3 cores devem fazer parte do conjunto de dados, podemos criar cores novas! y x 44
50 k-means O que caracteriza uma cor representativa de um conjunto? y x 45
51 k-means Bom, para saber isso primeiro precisamos conhecer os conjuntos! y x 46
52 k-means Para nosso exemplo é fácil: y x 47
53 k-means A cor representativa de cada grupo é aquela que mais se aproxima de todas do grupo y x 48
54 k-means Ou seja, é a que tem maior similaridade média com os elementos do grupo y x 49
55 k-means Ou seja, é a que tem maior similaridade média com os elementos do grupo y x 50
56 k-means Matematicamente, quem são esses elementos? y x 51
57 k-means Dado um conjunto de pontos X n-dimensionais, queremos determinar o ponto c, representando o centro, que minimiza: J(X, c) = 1 m m dist(x i, c) i=1 definimos que a distância é o inverso da similaridade. 52
58 k-means O mínimo pode ser encontrado com: J(X, c) = 1 m m dist(x i, c) = 0 i=1 53
59 k-means Utilizando a distância Euclidiana temos: 1 m m (x i c) 2 = 2 m i=1 m (c x i ) = 0 i=1 54
60 k-means 2 m m (mc x i ) = 0 i=1 mc = m i=1 c = 1 m x i m x i i=1 55
61 k-means O centro ótimo para um conjunto de pontos X é a média desses pontos. c = 1 m m i=1 x i 56
62 k-means Temos os centros...como definir os grupos? y x 57
63 k-means Para cada amostra x, verificamos o centro mais próximo...essa amostra fará parte desse grupo y x 58
64 k-means Sabemos como calcular o centro, dado os grupos...e como definir os grupos dado os centros y x 59
65 k-means Começamos chutando pontos iniciais para os centros y x 60
66 k-means Definimos os grupos de acordo com esses centros: y x 61
67 k-means Para cada grupo, calculamos o novo centro: y x 62
68 k-means E remontamos os grupos: y x 63
69 k-means Repetimos esse procedimento y x 64
70 k-means...até os centros ou os grupos não se alterarem mais y x 65
71 k-means kmeans it points clusters it == 0 = clusters clusters == clusters = clusters otherwise = kmeans (it-1) points clusters where clusters = emstep points clusters 66
72 k-means emstep points clusters = maximizationstep $ estimationstep points clusters 67
73 k-means estimationstep :: [[Double]] -> [[Double]] -> [[[Double]]] estimationstep points clusters = map (\(k,v) -> v) $ groupbykey $ sortbykey $ assign points clusters 68
74 k-means assign points clusters = map closestto points where closestto p = (argmin $ map (euclid p) clusters, p) 69
75 k-means maximizationstep :: [[[Double]]] -> [[Double]] maximizationstep candidates = map meanvec candidates 70
76 k-means - Paralelo Temos dois procedimentos a serem realizados em cada iteração: Alocar os elementos a um centro. Calcular um novo centro. Considere que os centros residem em memória. 71
77 k-means - Paralelo Desenhe o fluxo dos dados dessa função e escreva o procedimento utilizando PySpark: emstep :: ChunksOf [[Double]] -> [[Double]] -> [[Double]] eemstep points clusters = maximizationstep $ estimationstep points clusters 72
78 k-means - Paralelo A função maximizationstep recebe uma lista de tuplas [(Int, ([Double], Double)] contendo k elementos representando o id do cluster, a soma dos vetores dos pontos daquele cluster e quantos elementos existem no cluster. emstep :: ChunksOf [[Double]] -> [[Double]] -> [[Double]] eemstep points clusters = maximizationstep $ estimationstep points clusters 73
79 k-means - Paralelo Um simples map sequencial resolve: emstep :: ChunksOf [[Double]] -> [[Double]] -> [[Double]] eemstep points clusters = map (\(idx, (xs,n)) -> xs./ n) $ estimationstep points clusters 74
80 k-means - Paralelo A função estimationstep tem que mapear os pontos para esse formato [(Int, ([Double], Double)] e reduzir somando os elementos da tupla valor. emstep :: ChunksOf [[Double]] -> [[Double]] -> [[Double]] eemstep points clusters = map (\(idx, (xs,n)) -> xs./ n) $ estimationstep points clusters 75
81 k-means - Paralelo A função estimationstep tem que mapear os pontos para esse formato [(Int, ([Double], Double)] e reduzir somando os elementos da tupla valor. emstep :: ChunksOf [[Double]] -> [[Double]] -> [[Double]] eemstep points clusters = map (\(idx, (xs,n)) -> xs./ n) $ mapreducebykey assign soma points where assign = (\pi -> (assign pi clusters, (pi,1.0))) 76
82 k-means - Paralelo Reescreva o procedimento utilizando PySpark: emstep :: ChunksOf [[Double]] -> [[Double]] -> [[Double]] eemstep points clusters = map (\(idx, (xs,n)) -> xs./ n) $ mapreducebykey assign soma points where assign = (\pi -> (assign pi clusters, (pi,1.0))) 77
83 k-means - Paralelo centers = RDD.map(lambda xi: (assign(xi,c), xi)).reducebykey(lambda (pi1, n1), (pi2, n2) : (pi1+pi2, n1+n2)).map(lambda (idx, (pi, n)): (pi/n)).collect() 78
84 Agrupamento Espectral Nem sempre nossos dados apresentam um agrupamento óbvio mensurado por uma medida de similaridade: y x 79
85 Agrupamento Espectral O uso do algoritmo k-means é insuficiente para encontrar os dois grupos existentes: y x 80
86 Agrupamento Espectral Mesmo utilizando um número maior de clusters o algoritmo apresenta dificuldades para entender a estrutura da base de dados y x 81
87 Agrupamento Espectral Uma forma alternativa de representar esses objetos é imaginar que eles formam um grafo em que os k pontos mais próximos de um certo ponto, forma uma aresta com este
88 Agrupamento Espectral Dessa forma passamos a representar nossos dados através da matriz Laplaciana, que é dada por: L = G A, com A sendo a matriz de adjacência e G uma matriz diagonal com os elementos da diagonal igual ao grau do nó correspondente. 83
89 Agrupamento Espectral Essa matriz Laplaciana tem algumas propriedades interessantes: O número de autovalores iguais a 0 é igual ao número de componentes conexos. Os autovetores correspondentes aos autovalores iguais a 0 representam um grupo, sendo os nós pertencentes a esse grupo com valores positivos e todo o restante igual a 0. Os autovetores consequentes representam diversas formações de possíveis agrupamentos. 84
90 Agrupamento Espectral Com isso podemos calcular a Laplaciana de uma base de dados e utilizar os k primeiros autovetores dessa matriz (com autovalores diferentes de 0) e gerar (similar ao PCA) uma matriz n k contendo a informação dos grupos. 85
91 Agrupamento Espectral Nesse ponto, temos a projeção dos nossos dados em um espaço de dimensão reduzida. Podemos agora aplicar a técnica k-means utilizando essa representação para obtermos os grupos. 86
92 Agrupamento Espectral Com isso é possível encontrar os grupos corretos de nosso exemplo: y x 87
93 Agrupamento Espectral Faça uma implementação do Agrupamento Espectral no Spark. Dica: aplicando o algoritmo SVD na matriz Laplaciana, temos que a matriz U representa os autovetores. Utilize o algoritmo svd já implementado no Spark. 88
94 Atividade 05 Complete o Laboratório Algoritmos de Agrupamento de Dados no Spark 89
Aprendizado Não-Supervisionado
Aprendizado Não-Supervisionado Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendizado Não-Supervisionado 2. Agrupamento de Dados 1 Aprendizado Não-Supervisionado Aprendizado Não-Supervisionado
Leia maisRedução de Dimensionalidade, DCDistance, e CARFRE
Redução de Dimensionalidade, DCDistance, e CARFRE Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redução de Dimensionalidade 2. Análise de Componentes Principais 3. DCDistance - Document-Class
Leia maisAgrupamento Espectral e Hierárquico
Agrupamento Espectral e Hierárquico Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Agrupamento Espectral 2. Agrupamento Hierárquico 1 Agrupamento Espectral Agrupamento Espectral Nem
Leia maisAlgoritmos de Regressão
Algoritmos de Regressão com Big Data Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Regressão Linear 2. Ordinary Least Square 3. Gradiente Descendente 4. Overfitting 5. Variáveis Não-Lineares
Leia maisRegressão. Prof. Fabrício Olivetti de França Universidade Federal do ABC
Regressão Prof. Fabrício Olivetti de França Universidade Federal do ABC Aprendendo com Exemplos Uma das formas de aprendizado de máquina é definido como: Dado um conjunto de exemplos X, com cada x sendo
Leia maisSumarizando Dados. Fabrício Olivetti de França. Universidade Federal do ABC
Sumarizando Dados Fabrício Olivetti de França Universidade Federal do ABC Sumarizando os dados Sumarização Antes de extrair informações da base de dados, é importante entender seu conteúdo. Sumarização:
Leia maisRegressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC
Regressão Linear Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Ordinary Least Square 2. Gradiente Descendente 1 Aprendendo com exemplos Uma das formas de aprendizado de máquina é definido
Leia maisProcessamento de Imagens CPS755
Processamento de Imagens CPS755 aula 04 - sistemas lineares Antonio Oliveira Ricardo Marroquim 1 / 32 laboratório de processamento de imagens tópicos decomposições (álgebra linear) decomposição QR decomposição
Leia maisPor que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas
Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Wrapper Filtros Muitos algoritmos de AM são projetados de modo a selecionar os
Leia maisUniversidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Conceitos básicos Classificação não-supervisionada:
Leia maisMapReduce Mapeando e reduzindo
MapReduce Mapeando e reduzindo Prof. Fabrício Olivetti de França Universidade Federal do ABC Motivação Vimos até então que nosso maior problema é a quantidade de dados. O processamento não pode ser distribuído
Leia maisPrimeiro Exercício programa: Como o Google ordena páginas. MAP-2121 para EPUSP
Primeiro Exercício programa: Como o Google ordena páginas MAP-2121 para EPUSP 1 Instruções gerais Os exercícios computacionais pedidos na disciplina Cálculo Numérico têm por objetivo fundamental familiarizar
Leia maisProjeções Multi-dimensionais
Prof. Fernando V. Paulovich http://www.icmc.usp.br/~paulovic paulovic@icmc.usp.br Instituto de Ciências Matemáticas e de Computação (ICMC) Universidade de São Paulo (USP) 23 de setembro de 2010 Introdução
Leia maisReconhecimento de Padrões. Principal Component Analysis (PCA) Análise dos Componentes Principais
Universidade Federal de Ouro Preto (UFOP) Programa de Pós-Graduação em Ciência da Computação (PPGCC) Reconhecimento de Padrões Principal Component Analysis (PCA) Análise dos Componentes Principais David
Leia maisPré-processamento de Dados
Pré-processamento de Dados Fabrício Olivetti de França Universidade Federal do ABC Pré-Processamento dos Dados Tópicos 1. Pré-Processamento dos Dados 2. Conceitos Básicos 3. Representação Textual 4. Padrões
Leia maisTeoria dos Grafos AULA
Teoria dos Grafos Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada antunes@ibilce.unesp.br, socorro@ibilce.unesp.br AULA Caminho mínimo - Algoritmo de Djskstra Preparado a partir
Leia maisTeoria dos Grafos. Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo. Departamento de Matemática Aplicada
Teoria dos Grafos Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo Departamento de Matemática Aplicada Capítulo 09: Representação de Grafos Preparado a partir do texto: Rangel, Socorro. Teoria
Leia maisTeoria dos Grafos. Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada.
Teoria dos Grafos Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada antunes@ibilce.unesp.br, socorro@ibilce.unesp.br Preparado a partir do texto: Rangel, Socorro. Teoria do Grafos,
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 02 Representação dos dados Pré-processamento Max Pereira Tipo de Dados Os atributos usados para descrever objetos de dados podem ser de diferentes tipos: Quantitativos
Leia maisParadigmas de Programação
Paradigmas de Programação Fabrício Olivetti de França 21 de Junho de 2018 1 Listas 2 Listas Uma das principais estruturas em linguagens funcionais. Representa uma coleção de valores de um determinado tipo.
Leia maisAprendizado de Supervisionado
Aprendizado de Supervisionado Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Padronizando e Normalizando os Atributos 2. Tipos de Atributos 3. Representação Textual 1 Padronizando e
Leia maisDeterminação numérica de autovalores e autovetores: Método de Jacobi
Determinação numérica de autovalores e autovetores: Método de Jacobi Marina Andretta/Franklina Toledo ICMC-USP 3 de setembro de 2012 Baseado no livro Cálculo Numérico, de Neide B. Franco. Marina Andretta/Franklina
Leia maisAprendizado de Supervisionado
Aprendizado de Supervisionado Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aprendendo com Exemplos 2. Classificação 3. Conceitos Gerais 4. Vizinho Mais Próximo 1 Aprendendo com Exemplos
Leia maisMINERAÇÃO DE DADOS. Thiago Marzagão CLUSTERIZAÇÃO. Thiago Marzagão (UnB) MINERAÇÃO DE DADOS 1 / 9
MINERAÇÃO DE DADOS Thiago Marzagão marzagao.1@osu.edu CLUSTERIZAÇÃO Thiago Marzagão (UnB) MINERAÇÃO DE DADOS 1 / 9 regressão/classificação vs clusterização Regressão/classificação: temos x 1, x 2,...,
Leia maisAula 5 - Produto Vetorial
Aula 5 - Produto Vetorial Antes de iniciar o conceito de produto vetorial, precisamos recordar como se calculam os determinantes. Mas o que é um Determinante? Determinante é uma função matricial que associa
Leia maisDeterminação numérica de autovalores e autovetores: Método das Potências Inversas
Determinação numérica de autovalores e autovetores: Marina Andretta/Franklina Toledo ICMC-USP 27 de março de 2015 Marina Andretta/Franklina Toledo (ICMC-USP) sme0301 - Métodos Numéricos para Engenharia
Leia maisÁlgebra Linear I - Aula 20
Álgebra Linear I - Aula 20 1 Matrizes diagonalizáveis Exemplos 2 Forma diagonal de uma matriz diagonalizável 1 Matrizes diagonalizáveis Exemplos Lembramos que matriz quadrada a 1,1 a 1,2 a 1,n a 2,1 a
Leia maisG3 de Álgebra Linear I
G3 de Álgebra Linear I 11.1 Gabarito 1) Seja A : R 3 R 3 uma transformação linear cuja matriz na base canônica é 4 [A] = 4. 4 (a) Determine todos os autovalores de A. (b) Determine, se possível, uma forma
Leia maisDetecção: quais os caminhos?
Detecção: quais os caminhos? Visão Computacional Programa de Pós- Graduação em Ciência da Computação UFMA Prof. Geraldo Braz Junior Baseado nas notas de aula do CS131, CS229 CS231B Porque? Aplicações necessitam
Leia maisÁlgebra Linear I - Aula 22
Álgebra Linear I - Aula 1. Bases Ortonormais.. Matrizes Ortogonais. 3. Exemplos. 1 Bases Ortonormais Lembre que uma base β é ortogonal se está formada por vetores ortogonais entre si: para todo par de
Leia maisEstatística: Aplicação ao Sensoriamento Remoto SER ANO Componentes Principais
Estatística: Aplicação ao Sensoriamento Remoto SER 4 - ANO 9 Componentes Principais Camilo Daleles Rennó camilorenno@inpebr http://wwwdpiinpebr/~camilo/estatistica/ Associação entre Variáveis r = < r
Leia mais= comprimento (distância, valor) da aresta orientada do vértice i ao vértice j,, e:
8 - Problema do Caminho Mínimo Considere a rede: Dado dois vértices nesta rede, queremos determinar o menor caminho ente eles. Uma primeira questão é como representar os valores associados às arestas neste
Leia maisÁlgebra Linear I - Aula Forma diagonal de uma matriz diagonalizável
Álgebra Linear I - Aula 18 1 Forma diagonal de uma matriz diagonalizável 2 Matrizes ortogonais Roteiro 1 Forma diagonal de uma matriz diagonalizável Sejam A uma transformação linear diagonalizável, β =
Leia maisGPDI Grupo de Profissionais de Dados e Inteligência
GPDI Grupo de Profissionais de Dados e Inteligência Estatística e sua relação de dados Uma aplicação na redução da dimensionalidade em matrizes de dados Grupo de Profissionais de Dados e Inteligência Quem
Leia maisReconhecimento facial. uma aplicação prática do reconhecimento de padrões
Reconhecimento facial uma aplicação prática do reconhecimento de padrões Márcio Koch, junho 2014 Pauta Apresentação Visão computacional Reconhecimento de padrões Analise de Componentes Principais Reconhecimento
Leia maisAprendizado de Máquina
Aprendizado de Máquina Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Introdução 1 Introdução Aprendizado de Máquina Extração de conhecimento. Automatização de tarefas. Tomada de Decisões.
Leia maisAula 7 Medidas de Distância. Profa. Elaine Faria UFU
Aula 7 Medidas de Distância Profa. Elaine Faria UFU - 2017 Agradecimentos Este material é baseado No livro Tan et al, 2006 Nos slides do prof Andre C. P. L. F. Carvalho Agradecimentos Ao professor André
Leia maisProcessamento de Imagens CPS755
Processamento de Imagens CPS755 aula 06 - sistemas não lineares Antonio Oliveira Ricardo Marroquim 1 / 38 laboratório de processamento de imagens tópicos RANSAC métodos iterativos (não-lineares) gradientes
Leia maisMineração de Dados. Análise e Seleção de Variáveis
Mineração de Dados Análise e Seleção de Variáveis 1 Análise e Seleção de Variáveis Parte da uma área chamada de Redução de Dados Obtenção de uma representação reduzida em volume mas que produz resultados
Leia maisPrograma do Curso. Transformação de Dados. Sistemas Inteligentes Aplicados. Carlos Hall. Discretização de Variáveis Contínuas
Sistemas Inteligentes Aplicados Carlos Hall Programa do Curso Limpeza/Integração de Dados Transformação de Dados Discretização de Variáveis Contínuas Transformação de Variáveis Discretas em Contínuas Transformação
Leia maisSensoriamento Remoto II
Sensoriamento Remoto II Componentes principais Revisão de matemática Análise de componentes principais em SR UFPR Departamento de Geomática Prof. Jorge Centeno 2016 copyright@ centenet Revisão matemática
Leia maisTeoria dos Grafos Aula 3
Teoria dos Grafos Aula 3 Aula passada Exemplo (mapas) Definições Algumas propriedades Aula de hoje Representando grafos Matriz e lista Comparando tempos de acesso Grafo G=(V, E) Grafo V = conjunto de vértices
Leia maisDeterminação numérica de autovalores e autovetores: Método das Potências Inversas
Determinação numérica de autovalores e autovetores: Marina Andretta/Franklina Toledo ICMC-USP 3 de setembro de 2012 Marina Andretta/Franklina Toledo (ICMC-USP) sme0300 - Cálculo Numérico 3 de setembro
Leia maisAnálise de Componentes Principais Simbólicas
Análise de Componentes Principais Simbólicas Universidade Federal de Pernambuco CIn.ufpe.br Análise de Componentes Principais O objetivo da análise de componentes principais é explicar a estrutura de variânciacovariância
Leia maisÁlgebra Linear I - Aula Bases Ortonormais e Matrizes Ortogonais
Álgebra Linear I - Aula 19 1. Bases Ortonormais e Matrizes Ortogonais. 2. Matrizes ortogonais 2 2. 3. Rotações em R 3. Roteiro 1 Bases Ortonormais e Matrizes Ortogonais 1.1 Bases ortogonais Lembre que
Leia maisAprendizado por Reforço usando Aproximação
Aprendizado por Reforço usando Aproximação de Funções Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aproximação de Funções 2. Do the evolution 1 Aproximação de Funções Função Utilidade
Leia maisMaterial Teórico - Sistemas Lineares e Geometria Anaĺıtica. Sistemas com três variáveis - Parte 1. Terceiro Ano do Ensino Médio
Material Teórico - Sistemas Lineares e Geometria Anaĺıtica Sistemas com três variáveis - Parte 1 Terceiro Ano do Ensino Médio Autor: Prof Fabrício Siqueira Benevides Revisor: Prof Antonio Caminha M Neto
Leia maisAgrupamento de dados. Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral
Agrupamento de dados Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral Dados e grafos Se temos dados x i, i 0... n, criamos
Leia maisMaldição da dimensionalidade
EXTRAÇÃO E SELEÇÃO DE ATRIBUTOS Maldição da dimensionalidade 2 Maldição da dimensionalidade (ou Curse of dimensionality) Termo que se refere a vários fenômenos que surgem na análise de dados em espaços
Leia maisMatrizes Semelhantes e Matrizes Diagonalizáveis
Diagonalização Matrizes Semelhantes e Matrizes Diagonalizáveis Nosso objetivo neste capítulo é estudar aquelas transformações lineares de R n para as quais existe pelo menos uma base em que elas são representadas
Leia maisUniversidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões PCA. Luiz Eduardo S. Oliveira, Ph.D.
Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões PCA Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Objetivos Introduzir os conceitos de PCA e suas aplicações
Leia maisFabrício Olivetti de França. Universidade Federal do ABC
Classificação: Naive Bayes Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Naive Bayes 1 Naive Bayes Aprendizado Probabiĺıstico Foi mencionado anteriormente que o uso da função logística
Leia maisG3 de Álgebra Linear I
G3 de Álgebra Linear I 2.2 Gabarito ) Considere a matriz 4 N = 4. 4 Observe que os vetores (,, ) e (,, ) são dois autovetores de N. a) Determine uma forma diagonal D de N. b) Determine uma matriz P tal
Leia maisÁlgebra Linear Semana 04
Álgebra Linear Semana 04 Diego Marcon 17 de Abril de 2017 Conteúdo 1 Produto de matrizes 1 11 Exemplos 2 12 Uma interpretação para resolução de sistemas lineares 3 2 Matriz transposta 4 3 Matriz inversa
Leia maisTeoria dos Grafos. Caminho mínimo - Algoritmo de Dijskstra
Teoria dos Grafos Valeriano A. de Oliveira Socorro Rangel Silvio A. de Araujo Departamento de Matemática Aplicada antunes@ibilce.unesp.br, socorro@ibilce.unesp.br, saraujo@ibilce.unesp.br Caminho mínimo
Leia maisReconhecimento de Padrões
Reconhecimento de Padrões André Tavares da Silva andre.silva@udesc.br Roteiro da aula Conceitos básicos sobre reconhecimento de padrões Visão geral sobre aprendizado no projeto de classificadores Seleção
Leia maisProcessamento de Imagens CPS755
Processamento de Imagens CPS755 aula 03 - visualizando a planar Antonio Oliveira Ricardo Marroquim 1 / 40 laboratório de processamento de imagens tópicos visualizando a planar discussão dos primeiros 2
Leia maisG3 de Álgebra Linear I
G de Álgebra Linear I 7 Gabarito ) Considere a transformação linear T : R R cuja matriz na base canônica E = {(,, ), (,, ), (,, )} é [T] E = a) Determine os autovalores de T e seus autovetores correspondentes
Leia maisAula 14. Aula de hoje. Aula passada
Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema
Leia maisVisão Computacional CPS754
Visão Computacional CPS754 aula 13 - reconstrução Antonio Oliveira Ricardo Marroquim 1 / 26 visão computacional tópicos reprojetando pontos para 3D triangulação simples solução ótima definição do último
Leia maisCódigos de bloco. Luis Henrique Assumpção Lolis. 1 de novembro de Luis Henrique Assumpção Lolis Códigos de bloco 1
Códigos de bloco Luis Henrique Assumpção Lolis 1 de novembro de 2013 Luis Henrique Assumpção Lolis Códigos de bloco 1 Conteúdo 1 Códigos de bloco lineares 2 Códigos sistemáticos 3 Síndrome 4 Distância
Leia maisAula 25: Análise Fatorial. Prof. Eduardo A. Haddad
Aula 25: Análise Fatorial Prof. Eduardo A. Haddad Utilização específica Como identificar o potencial de desenvolvimento agropecuário dos municípios brasileiros? Banco de dados municipais: Tamanho do rebanho,
Leia maisP4 de Álgebra Linear I de junho de 2005 Gabarito
P4 de Álgebra Linear I 25.1 15 de junho de 25 Gabarito 1) Considere os pontos A = (1,, 1), B = (2, 2, 4), e C = (1, 2, 3). (1.a) Determine o ponto médio M do segmento AB. (1.b) Determine a equação cartesiana
Leia maisRepresentação esquemática de estruturas de dados
UNIVERSIDADE DE SÃO PAULO - USP Instituto de Química de São Carlos - IQSC Grupo de Química Medicinal do IQSC/USP 1 Representação esquemática de estruturas de dados 2 1 Tipos de variáveis Contínua Concentração,
Leia maisP4 de Álgebra Linear I
P4 de Álgebra Linear I 2008.2 Data: 28 de Novembro de 2008. Gabarito. 1) (Enunciado da prova tipo A) a) Considere o plano π: x + 2 y + z = 0. Determine a equação cartesiana de um plano ρ tal que a distância
Leia maisUniversidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica. Classificação. David Menotti.
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Classificação David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Redução de Dimensionalidade Principal Component Analysis (PCA)
Leia maisRegressão Polinomial e Simbólica
Regressão Polinomial e Simbólica Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Variáveis Não-Lineares 2. Regressão Simbólica 1 Variáveis Não-Lineares Variáveis Não-Lineares Considere
Leia maisMarina Andretta. 10 de outubro de Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis.
Solução básica viável inicial Marina Andretta ICMC-USP 10 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211
Leia maisConsiderações de Desempenho
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem
Leia maisTeoria dos Grafos. Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo. Departamento de Matemática Aplicada
Teoria dos Grafos Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo Departamento de Matemática Aplicada Capítulo 10: Caminho mínimo - Algoritmo de Dijskstra Preparado a partir do texto: Rangel,
Leia mais3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução
3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução Como já mencionado na seção 1.1, as SVMs geram, da mesma forma que redes neurais (RN), um "modelo caixa preta" de
Leia mais2 Processo de Agrupamentos
20 2 Processo de Agrupamentos A análise de agrupamentos pode ser definida como o processo de determinação de k grupos em um conjunto de dados. Para entender o que isso significa, observe-se a Figura. Y
Leia maisImplementação dos Algoritmos e Resultados
Capítulo 6 Implementação dos Algoritmos e Resultados 6.1 Considerações Iniciais Diversas situações foram exploradas neste trabalho visando analisar qual seria a wavelet mais adequada para sistemas de extração
Leia maisÁlgebra Linear I - Lista 11. Autovalores e autovetores. Respostas. 1) Calcule os autovalores e autovetores das matrizes abaixo.
Álgebra Linear I - Lista 11 Autovalores e autovetores Respostas 1 Calcule os autovalores e autovetores das matrizes abaixo. (a ( 4 1 1, (b ( 1 1, (c ( 5 6 3 4, (d 1 1 3 1 6 6, (e 3 5 1, (f 1 1 1 1 1 1
Leia maisBack Propagation. Dicas para o BP
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem
Leia maisAutovalores e Autovetores Determinante de. Motivando com Geometria Definição Calculando Diagonalização Teorema Espectral:
Lema (determinante de matriz ) A B A 0 Suponha que M = ou M =, com A e D 0 D C D matrizes quadradas Então det(m) = det(a) det(d) A B Considere M =, com A, B, C e D matrizes C D quadradas De forma geral,
Leia maisUNIVERSIDADE DO ESTADO DO RIO GRANDE DO NORTE CURSO: CIÊNCIA DA COMPUTAÇÃO DISCIPLINA: ÁLGEBRA LINEAR PROF.: MARCELO SILVA.
UNIVERSIDADE DO ESTADO DO RIO GRANDE DO NORTE CURSO: CIÊNCIA DA COMPUTAÇÃO DISCIPLINA: ÁLGEBRA LINEAR PROF.: MARCELO SILVA Determinantes Introdução Como já vimos, matriz quadrada é a que tem o mesmo número
Leia mais. Repare que ao multiplicar os vetores (-1,1) e
Álgebra Linear II P1-2014.2 Obs: Todas as alternativas corretas são as representadas pela letra A. 1 AUTOVETORES/ AUTOVALORES Essa questão poderia ser resolvida por um sistema bem chatinho. Mas, faz mais
Leia maisClassificação. Prof. Fabrício Olivetti de França Universidade Federal do ABC
Classificação Prof. Fabrício Olivetti de França Universidade Federal do ABC Classificação Quando queremos encontrar: f(x) = y C e C = {c1, c2, c3,, cn} Classificação Se um e-mail é spam ou não De qual
Leia maisÁlgebra Linear I - Aula 20
Álgebra Linear I - Aula 0 1 Matriz de Mudança de Base Bases Ortonormais 3 Matrizes Ortogonais 1 Matriz de Mudança de Base Os próximos problemas que estudaremos são os seguintes (na verdade são o mesmo
Leia maisExercício: Identifique e faça um esboço do conjunto solução da. 3x xy + y 2 + 2x 2 3y = 0
Motivação Exercício: Identifique e faça um esboço do conjunto solução da equação 3x 2 + 2 3xy + y 2 + 2x 2 3y = 0 Motivação Exercício: Identifique e faça um esboço do conjunto solução da equação 3x 2 +
Leia maisCM005 Álgebra Linear Lista 3
CM005 Álgebra Linear Lista 3 Alberto Ramos Seja T : V V uma transformação linear. Se temos que T v = λv, v 0, para λ K. Dizemos que λ é um autovalor de T e v autovetor de T associado a λ. Observe que λ
Leia maisMétodo prático para extrair uma base de um conjunto de geradores de um subespaço de R n
Método prático para extrair uma base de um conjunto de geradores de um subespaço de R n 1. Descrição do método e alguns exemplos Colocamos o seguinte problema: dado um conjunto finito: A = {a 1, a 2,...,
Leia mais1 Matrizes Ortogonais
Álgebra Linear I - Aula 19-2005.1 Roteiro 1 Matrizes Ortogonais 1.1 Bases ortogonais Lembre que uma base β é ortogonal se está formada por vetores ortogonais entre si: para todo par de vetores distintos
Leia maisProcessamento de Imagens CPS755
Processamento de Imagens CPS755 aula 05 - sistemas lineares - parte 2 Antonio Oliveira Ricardo Marroquim 1 / 27 laboratório de processamento de imagens tópicos métodos lineares mínimos quadrados equações
Leia maisIntrodução aos Métodos Numéricos. Instituto de Computação UFF
Introdução aos Métodos Numéricos Instituto de Computação UFF Conteúdo Erros e Aproximações Numéricas Sistemas de Equações Lineares. Métodos diretos Interpolação Ajuste de Curvas Zeros de Função Sistemas
Leia maisAutovalores e Autovetores
Autovalores e Autovetores Maria Luísa B. de Oliveira SME0300 Cálculo Numérico 24 de novembro de 2010 Introdução Objetivo: Dada matriz A, n n, determinar todos os vetores v que sejam paralelos a Av. Introdução
Leia mais2 Animação com Harmônicos de Variedade
2 Animação com Harmônicos de Variedade Hoje em dia, podemos encontrar vários métodos de visualização de música, porém muito poucos relacionam a música à deformações (ou até movimentos rígidos) de modelos
Leia mais3 Modelos Flex ıveis 3.1 Active Contour Model
3 Modelos Flexíveis Em Visão Computacional, uma das principais premissas é processar uma imagem com a finalidade de compreendê-la e retirar dela informações úteis. É utilizada em diversas aplicações atualmente,
Leia maisMétodos Quantitativos Aplicados
Métodos Quantitativos Aplicados Aula 7 http://www.iseg.utl.pt/~vescaria/mqa/ Tópicos apresentação Relações de interdependência entre variáveis quantitativas: A Análise Factorial Análise Factorial: técnica
Leia maisx y Grafo Euleriano Figura 1
Grafo Euleriano Um caminho simples ou um circuito simples é dito euleriano se ele contém todas as arestas de um grafo. Um grafo que contém um circuito euleriano é um grafo euleriano. Um grafo que não contém
Leia maisÁlgebra Linear I - Aula Matrizes simultaneamente ortogonais e simétricas
Álgebra Linear I - Aula 22 1. Matrizes 2 2 ortogonais e simétricas. 2. Projeções ortogonais. 3. Matrizes ortogonais e simétricas 3 3. Roteiro 1 Matrizes simultaneamente ortogonais e simétricas 2 2 Propriedade
Leia maisFicha de Exercícios nº 3
Nova School of Business and Economics Álgebra Linear Ficha de Exercícios nº 3 Transformações Lineares, Valores e Vectores Próprios e Formas Quadráticas 1 Qual das seguintes aplicações não é uma transformação
Leia maisTeoria dos Grafos. Edson Prestes
Edson Prestes Grafos Enumeração de Passeios/Caminhos O processo associado à enumeração de caminhos de um grafo/dígrafo é semelhante ao processo de contagem com a diferença de que usaremos uma matriz de
Leia maisAula 3- Codificação de Canal. October 18, 2017
ELE-32 Introdução a Comunicações Aula 3- Codificação de Canal October 18, 2017 1 Introdução Em muitas situações, a mensagem a ser transmitida por um sistema de comunicações é uma sequência de bits. Entretanto,
Leia maisProcessamento da Informação
Processamento da Informação Fabrício Olivetti de França 02 de Fevereiro de 2019 Topics 1. Listas e Vetores 1 Listas e Vetores Listas e Vetores Uma lista em Python é um container de informações que, por
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
Leia maisProgramação Dinâmica I SCC0210 Algoritmos Avançados (2/2011) Lucas Schmidt Cavalcante
Programação Dinâmica I SCC0210 Algoritmos Avançados (2/2011) Lucas Schmidt Cavalcante Introdução Soma máxima de uma subsequência contígua Problema do troco Quantidade de formas de dar troco Problema da
Leia maisSME Cálculo Numérico. Lista de Exercícios: Gabarito
Exercícios de prova SME0300 - Cálculo Numérico Segundo semestre de 2012 Lista de Exercícios: Gabarito 1. Dentre os métodos que você estudou no curso para resolver sistemas lineares, qual é o mais adequado
Leia mais