Agrupamento de dados. Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral
|
|
- Esther Valgueiro
- 5 Há anos
- Visualizações:
Transcrição
1 Agrupamento de dados Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral
2 Dados e grafos Se temos dados x i, i 0... n, criamos grafo com arestas ponderadas de similaridades Objetivo: particionar grafo tal que arestas em um grupo tem pesos altos e arestas entre grupos tem pesos baixos
3 Criação de grafos de similaridades W ij = exp x i x j 2 σ 2 i e j indicam vértices, x i, x j indica vetores de dados, W indica matriz de similaridades σ controla tamanho da vizinhança
4 Cenário simplificado: corte de um grafo em 2 grupos Problema do corte mínimo: min-cut Obter sub-grafos A e B tal que o corte é mínimo: cut(a, B) = Costuma isolar vértices i A,j B w ij Figura: Fonte: Aarti Singh (2010) e Shi & Malik (2000)
5 Particionamento em 2 grupos com corte normalizado Corte entre A e B de ser mínimo e tamanho de A e B devem ser similares ( 1 Ncut(A, B) = cut(a, B) vol(a) + 1 ) vol(b) onde vol(a) = i A d i e o grau de i é d i = n j=1 w ij Spectral clustering é uma relaxação deste problema
6 Laplaciano de um grafo D é a matriz de grau dos vértices com d i na diagonal principal W é a matriz de adjacências ponderadas L = D W é o Laplaciano do grafo: grau(v i ) se i = j L i,j = w ij se i j e v i adjacente a v j 0 caso contrário
7 Corte normalizado e Laplaciano de um grafo Corte normalizado: Ncut(A, B) = cut(a, B) ( 1 Seja f = [f 1 f 2... f n ] T com f i = { 1 vol(a) 1 vol(b) vol(a) + 1 vol(b) se i A se i B )
8 Reescrita no formato de álgebra de matrizes 2f T Lf = ij w ij(f i f j ) 2 = ( ) 2 i A,j B w 1 ij vol(a) + 1 vol(b) f T Df = j d if 2 i 1 vol(a) + 1 vol(b) Ncut(A, B) = 2 ft Lf f T Df = i A d i vol(a) 2 + j B d j vol(b) 2 = Então, o objetivo do corte normalizado é min ft Lf f T Df
9 Prova que f T Lf = ij w ij(f i f j ) 2 Seja f = [f 1 f 2... f n ] T com f i = Da definição de L temos f T Lf = f T Df f T Wf = n i=1 d ifi 2 n i,j=1 f if j w ij = 1 2 ( n i=1 d if 2 i = 1 2 n i,j=1 w ij(f i f j ) 2 { 1 vol(a) 1 vol(b) 2 n i,j=1 f if j w ij + n j=1 d jf 2 j se i A se i B )
10 Relaxação do corte normalizado O problema de corte torna-se encontrar f: min Ncut(A, B) = min ft Lf f T Df s.a. ft D1 = 0 Usando o teorema do quociente de Rayleigh, e relaxar para f R n a solução é o auto-vetor com o segundo menor auto-valor de: Lf = λdf Obter grupos ao separar f entre positivos e negativos Comentários: Para auto-vetor v e auto-valor λ da matriz A: Av = λv Se f é auto-vetor com auto-valor 0, então Lf = 0 f T Lf = 0 n Então 0 = i,j=1 w ij(f i f j ) 2 Se vi e v j são conectados então f i = f j Se grafo tem somente um componente conectado então somente um auto-vetor constante 1 tem auto-valor 0
11 Xing 2001 (DOI: /bioinformatics/17.suppl 1.S306)
12 Xing 2001 (DOI: /bioinformatics/17.suppl 1.S306)
13 Como particionar em k grupos? Receber matriz de similaridades W e k e computar laplaciano L Computar k auto-vetores f 1,..., f k com menores auto-valores associados Montar matriz F R n k Interpretar colunas de F como novos pontos de dados F i R k f 1 f 2 f 3 Z 1 f 11 f 12 f Z n f n1 f n2 f n3 Agrupar pontos Z i usando k-means
14 Como funciona Se grafo é conectado, então eigenvector 1 é constante Outros autovetores podem ser usados para separar grupos
15 Como funciona Dados são projetados em um espaço fácil de separar os grupos
16 Escolha de número de grupos k Como escolher número de grupos k Usar o k que é a maior diferença entre auto-valores consecutivos k = λ k λ k 1
17 Outras questões Escolha de medida de similaridade: kernel Escolha de parâmetros do kernel: gaussiana σ Modo de agrupamento De dois em dois Usando k-médias Dificuldade computacional para obter auto-vetores Equivalência a k-médias com kernel apropriado (Dhillon et al., 2007)
18 Algoritmo para computar auto-vetores Queremos encontrar k autovetores f de L Exemplo de algoritmo Usar algoritmo de Lanczos para transformar L (matriz positiva-definida) em uma matriz tri-diagonal Autovalores λi estarão na diagonal de Autovetores para cada λi serão solução de ( λ i I)v = 0
19 Algoritmo de Lanczos Calcula-se auto-vetor da matrix A Elementos na diagonal são α i e fora da diagonal são β j m 1.5k, se queremos k auto-vetores Usar métodos para garantir estabilidade v 0 0 v 1 vetor aleatório com norma 1 β 1 0 for j = 1,..., m 1 do w j Av j α j w j v j w j w j α j v j β j v j 1 β j+1 w j v j+1 w j β j+1 end for w m Av m α m w m v m
20 Equivalência entre clustering spectral e kernel k-means kernel k-means = weighted graph clustering (Dhillon et al, 2007) Ideia da prova: kernel k-means pode ser escrito como maximização do traço de uma matriz baseado nas similaridade entre instâncias agrupamento espectral também pode ser escrito no mesmo tipo de maximização do traço
21 Kernel k-means Kernel K(x i, x j ) = φ(x i ) φ(x j ) As k-médias estão no espaço de características φ: µ φ i A função objetivo será µ φ i = 1 n i min C SSE(C) = x j C i φ(x j ) k i=1 x j C i φ(x j ) µ φ i 2 Objetivo somente em termos do Kernel K(, ) n k 1 SSE(C) = K(x j, x j ) n i j=1 i=1 x a C i x b C i K(x a, x b )
22 Atribuição de pontos a grupos Para calcular a distância à média Após expandir φ(x j ) µ φ i 2 = φ(x j ) 2 2φ(x j ) T µ φ i + µ φ i 2 φ(x j ) µ φ i 2 = K(x i, x j ) 2 n i x a C i K(x a, x j )+ 1 n 2 i x a C i x b C i K(x a, x b ) Usar somente os dois últimos termos para encontrar a média mais próxima
23
24 Expectation-maximization soft clustering Cada cluster é gerado por uma gaussiana { } 1 f i (x) = f (x µ i, Σ i ) = exp (x µ i) T Σ 1 i (x µ i ) (2π) d 2 Σ i Onde: fi (x) é a distribuição de probabilidades do cluster i µi R d é a média do cluster i Σi é a matriz de correlações do cluster i Cada x X tem função probabilidade f (x) = k f i (x)p(c i ) = i=1 k f (x µ i, Σ i )P(C i ) i=1
25 Expectation-maximization soft clustering Objetivo: encontrar parâmetros θ = {µ i, Σ i, P(C i ),...} Supondo que pontos x j D são n amostras independentes de X a verossimilhança é definida como: P(D θ) = n f (x j ) Para encontrar θ, buscamos pela máxima log-verossimilhança: j=1 θ = arg max{log P(D θ)} θ onde ( n k ) log P(D θ) = log f (x j µ i, Σ i )P(C i ) j=1 i=1
26 Maximização da verossimilhança - passo expectation Assumindo θ atual correto, atualizamos P(C i x j ) Usando o teorema de Bayes P(C i x j ) P(C i e x j ) P(x j ) = P(x j C i )P(C i ) k a=1 P(x j C a )P(C a ) Sendo que P(x j C i ) pode ser aproximado por 2ɛ f (x j µ i, Σ i ) = 2ɛ f i (x j ) para um ɛ > 0 pequeno P(C i x j ) é o peso de x j para grupo C i
27 Maximização da verossimilhança - passo maximization Usar pesos P(C i x j ) para reestimar parâmetros θ: µ i 1 n n j=1 x j P(C i x j ) Σ i correlação entre cada par de dimensões de P(C i x j ) x j Se tem poucos dados em comparação ao número de dimensões assumir que dimensões não são correlacionadas P(x j C i ) proporção entre soma de pesos para C i e soma total de pesos
28
29
30
31
32 k-means é um tipo de soft clustering EM { { 1 se Ci = arg min P(x j C i ) = Ca xj µ a 2} 0 caso contrário Como em EM temos P(C i x j ) = P(x j C i )P(C i ) k a=1 P(x j C a )P(C a ) Para k-means temos { 1 se xj C P(C i x j ) = i, i.e. se C i = arg min Ca { x j µ a 2 } 0 caso contrário
33 Referências Xing et al. (DOI: /bioinformatics/17.suppl 1.S306) Apresentação de Aarti Singh (2010) A Tutorial on Spectral Clustering, U. Luxburg (2007) Slides de Eric Xing, M. Hein e U. V. Luxburg DemoSpectralClustering.htm pspectralclustering/pspectralclustering.htm http: // Weighted Graph Cuts without Eigenvectors vectors: A Multilevel Approach, Dhillon et al. (2007)
Detecção: quais os caminhos?
Detecção: quais os caminhos? Visão Computacional Programa de Pós- Graduação em Ciência da Computação UFMA Prof. Geraldo Braz Junior Baseado nas notas de aula do CS131, CS229 CS231B Porque? Aplicações necessitam
Leia maisCC-226 Aula 05 - Teoria da Decisão Bayesiana
CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos
Leia maisMáquinas de Vetores de Suporte
Máquinas de Vetores de Suporte Marcelo K. Albertini 14 de Setembro de 2015 2/22 Máquinas de Vetores de Suporte Support Vector Machines (SVM) O que é? Perceptron revisitado Kernels (núcleos) Otimização
Leia maisCluster. Larissa Sayuri Futino Castro dos Santos
Cluster Larissa Sayuri Futino Castro dos Santos Agenda O que faremos Modelos de Mistura LDA Reconhecimento Overview Mét. Particionais E Hierárquicos Melhorias K-Medians K-Medoids K-Modes Mét. Probabilís
Leia mais3 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão e B =
3 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão 2008. (a) Ache os auto-valores e auto-vetores de A = 3 4 2 0 2 0 0 0 e B = 0 0 2 0 2 0 2 0 0 (b) Mostre que λ + λ 2 + λ 3 é igual ao
Leia maisP4 de Álgebra Linear I
P4 de Álgebra Linear I 2008.2 Data: 28 de Novembro de 2008. Gabarito. 1) (Enunciado da prova tipo A) a) Considere o plano π: x + 2 y + z = 0. Determine a equação cartesiana de um plano ρ tal que a distância
Leia maisÁlgebra Linear I - Lista 11. Autovalores e autovetores. Respostas. 1) Calcule os autovalores e autovetores das matrizes abaixo.
Álgebra Linear I - Lista 11 Autovalores e autovetores Respostas 1 Calcule os autovalores e autovetores das matrizes abaixo. (a ( 4 1 1, (b ( 1 1, (c ( 5 6 3 4, (d 1 1 3 1 6 6, (e 3 5 1, (f 1 1 1 1 1 1
Leia maisCM005 Álgebra Linear Lista 3
CM005 Álgebra Linear Lista 3 Alberto Ramos Seja T : V V uma transformação linear. Se temos que T v = λv, v 0, para λ K. Dizemos que λ é um autovalor de T e v autovetor de T associado a λ. Observe que λ
Leia maisProcessamento digital de imagens
Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 6 de outubro de 2016 Segmentação de imagens A segmentação
Leia maisSME Roberto F. Ausas / Gustavo C. Buscaglia
SME0305-2016 Roberto F. Ausas / Gustavo C. Buscaglia ICMC - Ramal 736628, rfausas@gmail.com ICMC - Ramal 738176, gustavo.buscaglia@gmail.com Cálculo de autovalores e autovetores Existem vários problemas
Leia maisUniversidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um
Leia maisMáquinas de Vetores de Suporte
Máquinas de Vetores de Suporte Prof. Marcelo Keese Albertini Faculdade de Computação Universidade Federal de Uberlândia 19 de Junho de 2017 2/27 Máquinas de Vetores de Suporte Support Vector Machines (SVM)
Leia maisAutovalores e Autovetores
Autovalores e Autovetores Maria Luísa B. de Oliveira SME0300 Cálculo Numérico 24 de novembro de 2010 Introdução Objetivo: Dada matriz A, n n, determinar todos os vetores v que sejam paralelos a Av. Introdução
Leia maisCM005 Álgebra Linear Lista 2
CM005 Álgebra Linear Lista 2 Alberto Ramos 1. Seja M M n (R) uma matriz. Mostre que se {v 1,..., v p } R n é linearmente dependente, então {Mv 1,..., Mv p } é também linearmente dependente. Agora suponha
Leia maisAgrupamento Espectral e Hierárquico
Agrupamento Espectral e Hierárquico Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Agrupamento Espectral 2. Agrupamento Hierárquico 1 Agrupamento Espectral Agrupamento Espectral Nem
Leia maisAlgebra Linear. 1. Revisitando autovalores e autovetores. 2. Forma Diagonal e Forma de Jordan. 2.1 Autovalores distintos. 2.2 Autovalores complexos
Algebra Linear 1. Revisitando autovalores e autovetores 2. Forma Diagonal e Forma de Jordan 2.1 Autovalores distintos 2.2 Autovalores complexos 2.3 Nem todos autovalores distintos 3. Autovalores e autovetores
Leia maisMapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995))
Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995)) que realiza simultaneamente agrupamento e visualização SOM usa aprendizagem não supervisionada para mapear dados
Leia maisAprendizado Bayesiano
Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado
Leia maisAGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares
1 / 0 AGA 0505- Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares Laerte Sodré Jr. 1o. semestre, 018 modelos modelagem dos dados dado um conjunto de dados,
Leia maisAnálise multivariada
UNIFAL-MG, campus Varginha 11 de Setembro de 2018 Dada uma matriz A (p p), podemos obter um escalar λ e um vetor v (p 1) de modo que seja satisfeita? Av = λv (1) Dada uma matriz A (p p), podemos obter
Leia maisUniversidade Federal da Paraíba - UFPB Centro de Ciências Exatas e da Natureza - CCEN Departamento de Matemática - DM
Universidade Federal da Paraíba - UFPB Centro de Ciências Exatas e da Natureza - CCEN Departamento de Matemática - DM 3 a Lista de Exercícios de Introdução à Álgebra Linear Professor: Fágner Dias Araruna
Leia maisMAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de T ( p(x) ) = p(x + 1) p(x), (a) 8, (b) 5, (c) 0, (d) 3, (e) 4.
MAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de 218 Q1. Considere a transformação linear T : P 3 (R) P 2 (R), dada por T ( p(x) ) = p(x + 1) p(x), para todo p(x) P 3 (R), e seja A
Leia maisMecânica Quântica. Spin 1/2 e a formulação da M. Q. Parte II. A C Tort 1. Instituto Física Universidade Federal do Rio de Janeiro
Mecânica Quântica Spin 1/ e a formulação da M. Q. Parte II A C Tort 1 1 Departmento de Física Teórica Instituto Física Universidade Federal do Rio de Janeiro 10 de Maio de 01 Mais dois postulados, agora
Leia maisO Teorema da Amizade
O Teorema da Amizade Seminário Diagonal David Mesquita Faculdade de Ciências da Universidade do Porto 13 de Maio de 2009 Teorema da Amizade,TA Formulação Original Suponha-se que numa sociedade, cada par
Leia maisMinera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33
Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto
Leia maisExercício: Identifique e faça um esboço do conjunto solução da. 3x xy + y 2 + 2x 2 3y = 0
Motivação Exercício: Identifique e faça um esboço do conjunto solução da equação 3x 2 + 2 3xy + y 2 + 2x 2 3y = 0 Motivação Exercício: Identifique e faça um esboço do conjunto solução da equação 3x 2 +
Leia maisG4 de Álgebra Linear I
G4 de Álgebra Linear I 20122 Gabarito 7 de Dezembro de 2012 1 Considere a transformação linear T : R 3 R 3 definida por: T ( v = ( v (1, 1, 2 (0, 1, 1 a Determine a matriz [T ] ε da transformação linear
Leia maisControle Ótimo - Aula 6 Exemplos e Exercícios
Controle Ótimo - Aula 6 Exemplos e Exercícios Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos Probabilidades Probabilidade: número entre
Leia mais5. Seja A uma matriz qualquer. Assinale a afirmativa
UFRJ Instituto de Matemática Disciplina: Algebra Linear II - MAE 125 Professor: Bruno, Gregório, Luiz Carlos, Mario, Milton, Monique e Umberto Data: 12 de julho de 2013 Terceira Prova 1. Considere no espaço
Leia maisP4 de Álgebra Linear I de junho de 2005 Gabarito
P4 de Álgebra Linear I 25.1 15 de junho de 25 Gabarito 1) Considere os pontos A = (1,, 1), B = (2, 2, 4), e C = (1, 2, 3). (1.a) Determine o ponto médio M do segmento AB. (1.b) Determine a equação cartesiana
Leia maisG3 de Álgebra Linear I
G3 de Álgebra Linear I 2.2 Gabarito ) Considere a matriz 4 N = 4. 4 Observe que os vetores (,, ) e (,, ) são dois autovetores de N. a) Determine uma forma diagonal D de N. b) Determine uma matriz P tal
Leia maisClustering (k-means, SOM e hierárquicos)
Clustering (k-means, SOM e hierárquicos) André Tavares da Silva andre.silva@udesc.br (Capítulo 10 de Duda e Hart) Clustering Introdução e tipos Roteiro Agrupamentos hierárquicos AGNES, DIANA e Dendogram
Leia maisPrimeiro Exercício programa: Como o Google ordena páginas. MAP-2121 para EPUSP
Primeiro Exercício programa: Como o Google ordena páginas MAP-2121 para EPUSP 1 Instruções gerais Os exercícios computacionais pedidos na disciplina Cálculo Numérico têm por objetivo fundamental familiarizar
Leia maisÁlgebra Linear I - Lista 12. Matrizes semelhantes. Diagonalização. Respostas
Álgebra Linear I - Lista 12 Matrizes semelhantes. Diagonalização Respostas 1) Determine quais das matrizes a seguir são diagonalizáveis. Nos caso afirmativos encontre uma base de autovetores e uma forma
Leia maisDescomposição de Cholesky
Frederico Almeida & Guilherme Aguilar Universidade Federal de Minas Gerais 20 de Novembro de 2018 Frederico A. & Guilherme A. (ICEX - UFMG) 20 de Novembro de 2018 1 / 29 Motivação Métodos de otimização
Leia maisGABARITO PSUB Questão Resposta 1 A 2 A 3 E 4 D 5 A 6 B 7 A 8 A 9 C 10 E 11 C 12 C 13 B 14 C 15 A 16 D
GABARITO PSUB 2013 Questão Resposta 1 A 2 A 3 E 4 D 5 A 6 B 7 A 8 A 9 C 10 E 11 C 12 C 13 B 14 C 15 A 16 D MAT2457 - Álgebra Linear para Engenharia I Prova Substitutiva - 26/06/2013 Nome: Professor: NUSP:
Leia maisVisão Computacional CPS754
Visão Computacional CPS754 aula 13 - reconstrução Antonio Oliveira Ricardo Marroquim 1 / 26 visão computacional tópicos reprojetando pontos para 3D triangulação simples solução ótima definição do último
Leia maisAlgoritmos Numéricos 2 a edição
Algoritmos Numéricos 2 a edição Capítulo 2: Sistemas lineares c 2009 FFCf 2 2.1 Conceitos fundamentais 2.2 Sistemas triangulares 2.3 Eliminação de Gauss 2.4 Decomposição LU Capítulo 2: Sistemas lineares
Leia maisÁLGEBRA LINEAR A FICHA 6. Por definição do determinante de uma matriz 3 3, tem-se det A = 7.
Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Última actualização: 20/Nov/2003 ÁLGEBRA LINEAR A FICHA 6 SOLUÇÕES SUMÁRIAS DOS EXERCÍCIOS ÍMPARES Propriedades dos Determinantes
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia maisfolha prática 5 valores próprios e vetores próprios página 1/3
folha prática 5 valores próprios e vetores próprios página 1/ Universidade de Aveiro Departamento de Matemática 1. Determine os valores próprios e vetores próprios de cada uma das seguintes matrizes. Averigue
Leia maisÁlgebra Linear I - Aula 18
Álgebra Linear I - Aula 18 1. Matrizes semelhantes. 2. Matriz de uma transformação linear em uma base. Roteiro 1 Matrizes semelhantes Definição 1 (Matrizes semelhantes). Considere duas matrizes quadradas
Leia maisCadeias de Markov de Tempo Contínuo (CTMC)
Cadeias de Markov de Tempo Contínuo (CTMC) Cadeia de Markov Contínua (1) A análise de cadeias de Markov contínuas (CTMCs) é bem similar a análise em tempo discreto, com a diferença de que as transições
Leia maisVariação Q-espectral inteira em apenas um lugar é impossível
Variação Q-espectral inteira em apenas um lugar é impossível Maria Aguieiras A. de Freitas, Nair M. M. de Abreu, Programa de Engenharia de Produção, COPPE, UFRJ, Rio de Janeiro, RJ E-mail: maguieiras@im.ufrj.br,
Leia maisAGA Análise de Dados em Astronomia I. 6. O Método da Máxima Verossimilhança- I
1 / 26 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 6. O Método da Máxima Verossimilhança- I Laerte Sodré Jr. 1o. semestre, 2019 introdução aula de hoje: 1 modelagem dos dados 2 a verossimilhança
Leia maisÁlgebra Linear I - Aula Bases Ortonormais e Matrizes Ortogonais
Álgebra Linear I - Aula 19 1. Bases Ortonormais e Matrizes Ortogonais. 2. Matrizes ortogonais 2 2. 3. Rotações em R 3. Roteiro 1 Bases Ortonormais e Matrizes Ortogonais 1.1 Bases ortogonais Lembre que
Leia maisProcessamento de Imagens CPS755
Processamento de Imagens CPS755 aula 06 - sistemas não lineares Antonio Oliveira Ricardo Marroquim 1 / 38 laboratório de processamento de imagens tópicos RANSAC métodos iterativos (não-lineares) gradientes
Leia maisProjeções Multi-dimensionais
Prof. Fernando V. Paulovich http://www.icmc.usp.br/~paulovic paulovic@icmc.usp.br Instituto de Ciências Matemáticas e de Computação (ICMC) Universidade de São Paulo (USP) 23 de setembro de 2010 Introdução
Leia maisDou Mó Valor aos Autovalores
1. Definições Preliminares Dou Mó Valor aos Autovalores 21ª Semana Olímpica Maceió, AL Prof. Davi Lopes Nível U Dada uma matriz quadrada A n n de entradas complexas, podemos definir os conceitos a seguir,
Leia maisPor que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas
Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Wrapper Filtros Muitos algoritmos de AM são projetados de modo a selecionar os
Leia maisSME Gustavo C. Buscaglia
SME0602-2017 Gustavo C. Buscaglia ICMC - Ramal 738176, gustavo.buscaglia@gmail.com Cálculo de autovalores e autovetores Existem vários problemas na engenharia em que precisamos calcular os autovalores
Leia maisAula 8 - Reconhecimento e Interpretação. Prof. Adilson Gonzaga
Aula 8 - Reconhecimento e Interpretação Prof. Adilson Gonzaga Elementos de Visão Computacional: Visão Computacional Processamento de Baio Nível Processamento de Nível Intermediário Processamento de Alto
Leia maisINSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o
INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 27/28 Semestre: o MATEMÁTICA COMPUTACIONAL Exercícios [4 Sendo A M n (C) mostre que: (a) n A 2 A n A 2 ; (b)
Leia maisMeanShift Segmentation
COPPE-UFRJ MeanSift Segmentation Ricardo Marroquim data entrega: pós-graduação: 24/06/206 graduação: 30/06/206 OBJETIVO Gerar uma filtragem e segmentação da imagem utilizando o algoritmo Mean-Sift. A entrada
Leia maisForma Canônica de Matrizes 2 2
Forma Canônica de Matrizes Slvie Olison Kamphorst Departamento de Matemática - ICE - UFMG Versão. - Novembro 5 a b Seja A c d induzida por A uma matriz real e seja T a transformação operador linear de
Leia maisMétodos Computacionais Aplicados à Estatística
Métodos Computacionais Aplicados à Estatística Decomposição de Cholesky Frederico M. Almeida Guilherme A. S. Aguilar 20 de Novembro de 2018 1 Introdução Os métodos de otimização numérica são uma alternativa
Leia maisAGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC
1 / 1 AGA 0505- Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC Laerte Sodré Jr. 1o. semestre, 2018 2 / 1 Inferência Bayesiana inferência bayesiana consideremos um conjunto de dados D que
Leia mais2 Núcleos: suas propriedades e classificações
2 Núcleos: suas propriedades e classificações O objetivo desse capítulo é o de apresentar as funções núcleos (7), suas propriedades (10) e suas classificações (3). 2.1 Núcleos no espaço de Hilbert Um espaço
Leia maisÁlgebra Linear I - Aula Autovetores e autovalores de uma transformação
Álgebra Linear I - Aula 18 1. Autovalores e autovetores. 2. Cálculo dos autovetores e autovalores. Polinômio característico. Roteiro 1 Autovetores e autovalores de uma transformação linear Considere uma
Leia maisEstatística: Aplicação ao Sensoriamento Remoto SER ANO Componentes Principais
Estatística: Aplicação ao Sensoriamento Remoto SER 4 - ANO 9 Componentes Principais Camilo Daleles Rennó camilorenno@inpebr http://wwwdpiinpebr/~camilo/estatistica/ Associação entre Variáveis r = < r
Leia maisAula 14. Aula de hoje. Aula passada
Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema
Leia maisTeoria dos Grafos. Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada.
Teoria dos Grafos Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada antunes@ibilce.unesp.br, socorro@ibilce.unesp.br Preparado a partir do texto: Rangel, Socorro. Teoria do Grafos,
Leia maisÁlgebra Linear I - Aula 20
Álgebra Linear I - Aula 20 1 Matrizes diagonalizáveis Exemplos 2 Forma diagonal de uma matriz diagonalizável 1 Matrizes diagonalizáveis Exemplos Lembramos que matriz quadrada a 1,1 a 1,2 a 1,n a 2,1 a
Leia maisOrganização. 1. Introdução 2. Medidas de Similaridade. hierárquicos, de partição) 4. Critérios numéricos para definir o número de clusters
Organização. Introdução 2. Medidas de Similaridade 3. Métodos de Agrupamento (métodos hierárquicos, de partição) 4. Critérios numéricos para definir o número de clusters Métodos de Partição Cada exemplo
Leia maisModelagem Computacional. Parte 7 2
Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 7 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,
Leia maisG4 de Álgebra Linear I
G4 de Álgebra Linear I 27.1 Gabarito 1) Considere a base η de R 3 η = {(1, 1, 1); (1,, 1); (2, 1, )} (1.a) Determine a matriz de mudança de coordenadas da base canônica para a base η. (1.b) Considere o
Leia maisPROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1)
PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1) 1 Procedimentos não supervisionados Não se conhece a classificação das amostras de treinamento Qual é o interesse? 1) Coletar e rotular
Leia maisÁlgebra Linear I - Aula Forma diagonal de uma matriz diagonalizável
Álgebra Linear I - Aula 18 1 Forma diagonal de uma matriz diagonalizável 2 Matrizes ortogonais Roteiro 1 Forma diagonal de uma matriz diagonalizável Sejam A uma transformação linear diagonalizável, β =
Leia maisAlgoritmos de Aprendizado
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron
Leia maisÁlgebra Linear I - Aula 2. Roteiro
Álgebra Linear I - Aula 2 1. Produto escalar. Ângulos. 2. Desigualdade triangular. 3. Projeção ortugonal de vetores. Roteiro 1 Produto escalar Considere dois vetores = (u 1, u 2, u 3 ) e v = (v 1, v 2,
Leia maisRicardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Geração de Números Aleatórios Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 61 Simulando de Distribuições Discretas Assume-se que um
Leia maisTeoria dos Grafos. Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo. Departamento de Matemática Aplicada
Teoria dos Grafos Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo Departamento de Matemática Aplicada Capítulo 09: Representação de Grafos Preparado a partir do texto: Rangel, Socorro. Teoria
Leia maisESTATÍSTICA COMPUTACIONAL
ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Introdução Solução de equações não lineares
Leia mais1 Autovetor e Autovalor 9. 2 Matrizes Ortogonais e Transformações Lineares Planas e Espaciais 55
Capítulo LINE LINE Autovetor e Autovalor 9 Matrizes Ortogonais e Transformações Lineares Planas e Espaciais 55 Matrizes Simétricas, o Teorema Espectral e Operadores Auto-adjuntos 8 4 Formas Bilineares,
Leia maisPadrões de Segregação. Comunidades
Padrões de Segregação omunidades omunidades omo vimos anteriormente, em redes sociais é possível verificar grupos fechados de pessoas (pessoas que se conhecem mutuamente) e, em alguns nós, pessoas que
Leia maisCapítulo 1 - Problemas de Valores Próprios
Capítulo 1 - Problemas de Valores Próprios balsa@ipb.pt Departamento de Matemática Mestrado em Engenharia da Construção Métodos de Aproximação em Engenharia 1 o Semestre 2010/2011 Capítulo 1 - Problemas
Leia mais1 Álgebra linear matricial
MTM510019 Métodos Computacionais de Otimização 2018.2 1 Álgebra linear matricial Revisão Um vetor x R n será representado por um vetor coluna x 1 x 2 x =., x n enquanto o transposto de x corresponde a
Leia maisAprendizagem de Máquina
Problema do Agrupamento Aprendizagem de Máquina Alessandro L. Koerich Seja x = (x 1, x 2,, x d ) um vetor d dimensional de características Seja D um conjunto de x vetores, D = { x(1), x(2),, x(n) } Problema
Leia mais(x 1, y 1 ) (x 2, y 2 ) = (x 1 x 2, y 1 y 2 ); e α (x, y) = (x α, y α ), α R.
INSTITUTO DE MATEMÁTICA E ESTATÍSTICA UNIVERSIDADE DE SÃO PAULO MAT-2457 Álgebra Linear para Engenharia I Terceira Lista de Exercícios - Professor: Equipe da Disciplina EXERCÍCIOS 1. Considere as retas
Leia maisComo resolver o QFEMUP usando otimização
Como resolver o QFEMUP usando otimização Marina Andretta ICMC-USP 2 de agosto de 2016 Baseado no artigo M. Andretta, E. G. Birgin and M. Raydan, An inner-outer nonlinear programming approach for constrained
Leia maisClustering - c-means e Self Organizing Maps
- c-means e Self Organizing Maps Sarajane M. Peres e Clodoaldo A. M. Lima 13 de abril de 2015 Material baseado em: HAN, J. & KAMBER, M. Data Mining: Concepts and Techniques. 2nd. 2006 FAUSETT, L. Fundamentals
Leia maisAutovalores e Autovetores Determinante de. Motivando com Geometria Definição Calculando Diagonalização Teorema Espectral:
Lema (determinante de matriz ) A B A 0 Suponha que M = ou M =, com A e D 0 D C D matrizes quadradas Então det(m) = det(a) det(d) A B Considere M =, com A, B, C e D matrizes C D quadradas De forma geral,
Leia maisSME R. Ausas - G. Buscaglia. Lista geral da disciplina
SME005-206 R. Ausas - G. Buscaglia Lista geral da disciplina. Fazer em Octave/Matlab (a) Um programa que cria dois vetores randomicos e calcula o seu produto escalar. (b) Um programa que cria duas matrizes
Leia maisG3 de Álgebra Linear I
G de Álgebra Linear I 7 Gabarito ) Considere a transformação linear T : R R cuja matriz na base canônica E = {(,, ), (,, ), (,, )} é [T] E = a) Determine os autovalores de T e seus autovetores correspondentes
Leia maisProjeto AM Francisco de A. T. de Carvalho 1
Projeto AM 2018-1 Francisco de A. T. de Carvalho 1 1 Centro de Informatica-CIn/UFPE Av. Prof. Luiz Freire, s/n -Cidade Universitaria, CEP 50740-540, Recife-PE, Brasil, fatc@cin.ufpe.br 1) No conjunto de
Leia maisMétodos Computacionais para inferência estatística
Métodos Computacionais para inferência estatística Wagner Hugo Bonat LEG: Laboratório de Estatística e Geoinformação Universidade Federal do Paraná 30 de julho de 2012 Bonat et. al (LEG/UFPR) MCIE 30 de
Leia maisModelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados
Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados Erica Castilho Rodrigues 23 de Maio de 207 Introdução 2 3 Vimos como encontrar o EMV usando algoritmos numéricos. Duas possibilidades:
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Aprendizado não-supervisionado Formação de agrupamentos Aprendizado Não-Supervisionado Classificação supervisionada: discriminar padrões com base num modelo pré-definido de classes.
Leia maisReconhecimento de Padrões. Reconhecimento de Padrões
Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso e Prof.
Leia mais5 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão 2009
5 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão 29 Soluções dos exercícios Devido ao fato de A ser simétrica, existe uma base ortonormal {u,, u n } formada por autovetores de A, então
Leia maisAutovalores e Autovetores
Algoritmos Numéricos II / Computação Científica Autovalores e Autovetores Lucia Catabriga 1 1 DI/UFES - Brazil Junho 2016 Introdução Ideia Básica Se multiplicarmos a matriz por um autovetor encontramos
Leia maisAprendizado Bayesiano
Aprendizado Bayesiano Marcelo K. Albertini 3 de Julho de 2014 2/1 Conteúdo Aprendizado Naive Bayes Exemplo: classificação de texto Redes Bayesiana Algoritmo EM Regressão probabiĺıstica 3/1 Classificador
Leia maisCC-226 Aula 07 - Estimação de Parâmetros
CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições
Leia maisAutovalores e Autovetores
Autovalores e Autovetores Lucia Catabriga Algoritmos Numéricos II Computação Científica Universidade Federal do Espírito Santo de junho de 24 Resumo Este texto tem por objetivo introduzir os conceitos
Leia maisGABRIEL BUJOKAS
APLICAÇÕES DE ÁLGEBRA LINEAR À COMBINATÓRIA GABRIEL BUJOKAS (GBUJOKAS@MIT.EDU) A gente vai discutir algumas das aplicações clássicas de álgebra linear à combinatória. Vamos começar relembrando alguns conceitos
Leia maisProva Didática Grafos: Árvores Geradoras e Caminhos Mínimos, Análise de Complexidade
Prova Didática Grafos: Árvores Geradoras e Caminhos Mínimos, Análise de Complexidade Gustavo E.A.P.A. Batista 25 de janeiro de 2005 1 Contextualização 2 Caminhos Mínimos Caminhos Mínimos de uma Origem
Leia maisProvas. As notas da primeira e segunda prova já foram digitadas no Minha UFMG. Caso você não veja sua nota, entre em contato com o professor.
Provas As notas da primeira e segunda prova já foram digitadas no Minha UFMG. Caso você não veja sua nota, entre em contato com o professor. Terceira prova. Sábado, 15/junho, 10:00-12:00 horas, ICEx. Diagonalização
Leia maisÁlgebra Linear Teoria de Matrizes
Álgebra Linear Teoria de Matrizes 1. Sistemas Lineares 1.1. Coordenadas em espaços lineares: independência linear, base, dimensão, singularidade, combinação linear 1.2. Espaço imagem (colunas) - Espaço
Leia maisLema. G(K/F ) [K : F ]. Vamos demonstrar usando o Teorema do Elemento Primitivo, a ser provado mais adiante. Assim, K = F (α).
Teoria de Galois Vamos nos restringir a car. zero. Seja K/F uma extensão finita de corpos. O grupo de Galois G(K/F ) é formado pelos isomorfismos ϕ : K K tais que x F, ϕ(x) = x. Lema. G(K/F ) [K : F ].
Leia mais