Agrupamento de dados. Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral

Tamanho: px
Começar a partir da página:

Download "Agrupamento de dados. Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral"

Transcrição

1 Agrupamento de dados Critério 1: grupos são concentrações de dados k-means Critério 2: grupos são conjuntos de elementos próximos entre si espectral

2 Dados e grafos Se temos dados x i, i 0... n, criamos grafo com arestas ponderadas de similaridades Objetivo: particionar grafo tal que arestas em um grupo tem pesos altos e arestas entre grupos tem pesos baixos

3 Criação de grafos de similaridades W ij = exp x i x j 2 σ 2 i e j indicam vértices, x i, x j indica vetores de dados, W indica matriz de similaridades σ controla tamanho da vizinhança

4 Cenário simplificado: corte de um grafo em 2 grupos Problema do corte mínimo: min-cut Obter sub-grafos A e B tal que o corte é mínimo: cut(a, B) = Costuma isolar vértices i A,j B w ij Figura: Fonte: Aarti Singh (2010) e Shi & Malik (2000)

5 Particionamento em 2 grupos com corte normalizado Corte entre A e B de ser mínimo e tamanho de A e B devem ser similares ( 1 Ncut(A, B) = cut(a, B) vol(a) + 1 ) vol(b) onde vol(a) = i A d i e o grau de i é d i = n j=1 w ij Spectral clustering é uma relaxação deste problema

6 Laplaciano de um grafo D é a matriz de grau dos vértices com d i na diagonal principal W é a matriz de adjacências ponderadas L = D W é o Laplaciano do grafo: grau(v i ) se i = j L i,j = w ij se i j e v i adjacente a v j 0 caso contrário

7 Corte normalizado e Laplaciano de um grafo Corte normalizado: Ncut(A, B) = cut(a, B) ( 1 Seja f = [f 1 f 2... f n ] T com f i = { 1 vol(a) 1 vol(b) vol(a) + 1 vol(b) se i A se i B )

8 Reescrita no formato de álgebra de matrizes 2f T Lf = ij w ij(f i f j ) 2 = ( ) 2 i A,j B w 1 ij vol(a) + 1 vol(b) f T Df = j d if 2 i 1 vol(a) + 1 vol(b) Ncut(A, B) = 2 ft Lf f T Df = i A d i vol(a) 2 + j B d j vol(b) 2 = Então, o objetivo do corte normalizado é min ft Lf f T Df

9 Prova que f T Lf = ij w ij(f i f j ) 2 Seja f = [f 1 f 2... f n ] T com f i = Da definição de L temos f T Lf = f T Df f T Wf = n i=1 d ifi 2 n i,j=1 f if j w ij = 1 2 ( n i=1 d if 2 i = 1 2 n i,j=1 w ij(f i f j ) 2 { 1 vol(a) 1 vol(b) 2 n i,j=1 f if j w ij + n j=1 d jf 2 j se i A se i B )

10 Relaxação do corte normalizado O problema de corte torna-se encontrar f: min Ncut(A, B) = min ft Lf f T Df s.a. ft D1 = 0 Usando o teorema do quociente de Rayleigh, e relaxar para f R n a solução é o auto-vetor com o segundo menor auto-valor de: Lf = λdf Obter grupos ao separar f entre positivos e negativos Comentários: Para auto-vetor v e auto-valor λ da matriz A: Av = λv Se f é auto-vetor com auto-valor 0, então Lf = 0 f T Lf = 0 n Então 0 = i,j=1 w ij(f i f j ) 2 Se vi e v j são conectados então f i = f j Se grafo tem somente um componente conectado então somente um auto-vetor constante 1 tem auto-valor 0

11 Xing 2001 (DOI: /bioinformatics/17.suppl 1.S306)

12 Xing 2001 (DOI: /bioinformatics/17.suppl 1.S306)

13 Como particionar em k grupos? Receber matriz de similaridades W e k e computar laplaciano L Computar k auto-vetores f 1,..., f k com menores auto-valores associados Montar matriz F R n k Interpretar colunas de F como novos pontos de dados F i R k f 1 f 2 f 3 Z 1 f 11 f 12 f Z n f n1 f n2 f n3 Agrupar pontos Z i usando k-means

14 Como funciona Se grafo é conectado, então eigenvector 1 é constante Outros autovetores podem ser usados para separar grupos

15 Como funciona Dados são projetados em um espaço fácil de separar os grupos

16 Escolha de número de grupos k Como escolher número de grupos k Usar o k que é a maior diferença entre auto-valores consecutivos k = λ k λ k 1

17 Outras questões Escolha de medida de similaridade: kernel Escolha de parâmetros do kernel: gaussiana σ Modo de agrupamento De dois em dois Usando k-médias Dificuldade computacional para obter auto-vetores Equivalência a k-médias com kernel apropriado (Dhillon et al., 2007)

18 Algoritmo para computar auto-vetores Queremos encontrar k autovetores f de L Exemplo de algoritmo Usar algoritmo de Lanczos para transformar L (matriz positiva-definida) em uma matriz tri-diagonal Autovalores λi estarão na diagonal de Autovetores para cada λi serão solução de ( λ i I)v = 0

19 Algoritmo de Lanczos Calcula-se auto-vetor da matrix A Elementos na diagonal são α i e fora da diagonal são β j m 1.5k, se queremos k auto-vetores Usar métodos para garantir estabilidade v 0 0 v 1 vetor aleatório com norma 1 β 1 0 for j = 1,..., m 1 do w j Av j α j w j v j w j w j α j v j β j v j 1 β j+1 w j v j+1 w j β j+1 end for w m Av m α m w m v m

20 Equivalência entre clustering spectral e kernel k-means kernel k-means = weighted graph clustering (Dhillon et al, 2007) Ideia da prova: kernel k-means pode ser escrito como maximização do traço de uma matriz baseado nas similaridade entre instâncias agrupamento espectral também pode ser escrito no mesmo tipo de maximização do traço

21 Kernel k-means Kernel K(x i, x j ) = φ(x i ) φ(x j ) As k-médias estão no espaço de características φ: µ φ i A função objetivo será µ φ i = 1 n i min C SSE(C) = x j C i φ(x j ) k i=1 x j C i φ(x j ) µ φ i 2 Objetivo somente em termos do Kernel K(, ) n k 1 SSE(C) = K(x j, x j ) n i j=1 i=1 x a C i x b C i K(x a, x b )

22 Atribuição de pontos a grupos Para calcular a distância à média Após expandir φ(x j ) µ φ i 2 = φ(x j ) 2 2φ(x j ) T µ φ i + µ φ i 2 φ(x j ) µ φ i 2 = K(x i, x j ) 2 n i x a C i K(x a, x j )+ 1 n 2 i x a C i x b C i K(x a, x b ) Usar somente os dois últimos termos para encontrar a média mais próxima

23

24 Expectation-maximization soft clustering Cada cluster é gerado por uma gaussiana { } 1 f i (x) = f (x µ i, Σ i ) = exp (x µ i) T Σ 1 i (x µ i ) (2π) d 2 Σ i Onde: fi (x) é a distribuição de probabilidades do cluster i µi R d é a média do cluster i Σi é a matriz de correlações do cluster i Cada x X tem função probabilidade f (x) = k f i (x)p(c i ) = i=1 k f (x µ i, Σ i )P(C i ) i=1

25 Expectation-maximization soft clustering Objetivo: encontrar parâmetros θ = {µ i, Σ i, P(C i ),...} Supondo que pontos x j D são n amostras independentes de X a verossimilhança é definida como: P(D θ) = n f (x j ) Para encontrar θ, buscamos pela máxima log-verossimilhança: j=1 θ = arg max{log P(D θ)} θ onde ( n k ) log P(D θ) = log f (x j µ i, Σ i )P(C i ) j=1 i=1

26 Maximização da verossimilhança - passo expectation Assumindo θ atual correto, atualizamos P(C i x j ) Usando o teorema de Bayes P(C i x j ) P(C i e x j ) P(x j ) = P(x j C i )P(C i ) k a=1 P(x j C a )P(C a ) Sendo que P(x j C i ) pode ser aproximado por 2ɛ f (x j µ i, Σ i ) = 2ɛ f i (x j ) para um ɛ > 0 pequeno P(C i x j ) é o peso de x j para grupo C i

27 Maximização da verossimilhança - passo maximization Usar pesos P(C i x j ) para reestimar parâmetros θ: µ i 1 n n j=1 x j P(C i x j ) Σ i correlação entre cada par de dimensões de P(C i x j ) x j Se tem poucos dados em comparação ao número de dimensões assumir que dimensões não são correlacionadas P(x j C i ) proporção entre soma de pesos para C i e soma total de pesos

28

29

30

31

32 k-means é um tipo de soft clustering EM { { 1 se Ci = arg min P(x j C i ) = Ca xj µ a 2} 0 caso contrário Como em EM temos P(C i x j ) = P(x j C i )P(C i ) k a=1 P(x j C a )P(C a ) Para k-means temos { 1 se xj C P(C i x j ) = i, i.e. se C i = arg min Ca { x j µ a 2 } 0 caso contrário

33 Referências Xing et al. (DOI: /bioinformatics/17.suppl 1.S306) Apresentação de Aarti Singh (2010) A Tutorial on Spectral Clustering, U. Luxburg (2007) Slides de Eric Xing, M. Hein e U. V. Luxburg DemoSpectralClustering.htm pspectralclustering/pspectralclustering.htm http: // Weighted Graph Cuts without Eigenvectors vectors: A Multilevel Approach, Dhillon et al. (2007)

Detecção: quais os caminhos?

Detecção: quais os caminhos? Detecção: quais os caminhos? Visão Computacional Programa de Pós- Graduação em Ciência da Computação UFMA Prof. Geraldo Braz Junior Baseado nas notas de aula do CS131, CS229 CS231B Porque? Aplicações necessitam

Leia mais

CC-226 Aula 05 - Teoria da Decisão Bayesiana

CC-226 Aula 05 - Teoria da Decisão Bayesiana CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos

Leia mais

Máquinas de Vetores de Suporte

Máquinas de Vetores de Suporte Máquinas de Vetores de Suporte Marcelo K. Albertini 14 de Setembro de 2015 2/22 Máquinas de Vetores de Suporte Support Vector Machines (SVM) O que é? Perceptron revisitado Kernels (núcleos) Otimização

Leia mais

Cluster. Larissa Sayuri Futino Castro dos Santos

Cluster. Larissa Sayuri Futino Castro dos Santos Cluster Larissa Sayuri Futino Castro dos Santos Agenda O que faremos Modelos de Mistura LDA Reconhecimento Overview Mét. Particionais E Hierárquicos Melhorias K-Medians K-Medoids K-Modes Mét. Probabilís

Leia mais

3 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão e B =

3 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão e B = 3 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão 2008. (a) Ache os auto-valores e auto-vetores de A = 3 4 2 0 2 0 0 0 e B = 0 0 2 0 2 0 2 0 0 (b) Mostre que λ + λ 2 + λ 3 é igual ao

Leia mais

P4 de Álgebra Linear I

P4 de Álgebra Linear I P4 de Álgebra Linear I 2008.2 Data: 28 de Novembro de 2008. Gabarito. 1) (Enunciado da prova tipo A) a) Considere o plano π: x + 2 y + z = 0. Determine a equação cartesiana de um plano ρ tal que a distância

Leia mais

Álgebra Linear I - Lista 11. Autovalores e autovetores. Respostas. 1) Calcule os autovalores e autovetores das matrizes abaixo.

Álgebra Linear I - Lista 11. Autovalores e autovetores. Respostas. 1) Calcule os autovalores e autovetores das matrizes abaixo. Álgebra Linear I - Lista 11 Autovalores e autovetores Respostas 1 Calcule os autovalores e autovetores das matrizes abaixo. (a ( 4 1 1, (b ( 1 1, (c ( 5 6 3 4, (d 1 1 3 1 6 6, (e 3 5 1, (f 1 1 1 1 1 1

Leia mais

CM005 Álgebra Linear Lista 3

CM005 Álgebra Linear Lista 3 CM005 Álgebra Linear Lista 3 Alberto Ramos Seja T : V V uma transformação linear. Se temos que T v = λv, v 0, para λ K. Dizemos que λ é um autovalor de T e v autovetor de T associado a λ. Observe que λ

Leia mais

Processamento digital de imagens

Processamento digital de imagens Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 6 de outubro de 2016 Segmentação de imagens A segmentação

Leia mais

SME Roberto F. Ausas / Gustavo C. Buscaglia

SME Roberto F. Ausas / Gustavo C. Buscaglia SME0305-2016 Roberto F. Ausas / Gustavo C. Buscaglia ICMC - Ramal 736628, rfausas@gmail.com ICMC - Ramal 738176, gustavo.buscaglia@gmail.com Cálculo de autovalores e autovetores Existem vários problemas

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

Máquinas de Vetores de Suporte

Máquinas de Vetores de Suporte Máquinas de Vetores de Suporte Prof. Marcelo Keese Albertini Faculdade de Computação Universidade Federal de Uberlândia 19 de Junho de 2017 2/27 Máquinas de Vetores de Suporte Support Vector Machines (SVM)

Leia mais

Autovalores e Autovetores

Autovalores e Autovetores Autovalores e Autovetores Maria Luísa B. de Oliveira SME0300 Cálculo Numérico 24 de novembro de 2010 Introdução Objetivo: Dada matriz A, n n, determinar todos os vetores v que sejam paralelos a Av. Introdução

Leia mais

CM005 Álgebra Linear Lista 2

CM005 Álgebra Linear Lista 2 CM005 Álgebra Linear Lista 2 Alberto Ramos 1. Seja M M n (R) uma matriz. Mostre que se {v 1,..., v p } R n é linearmente dependente, então {Mv 1,..., Mv p } é também linearmente dependente. Agora suponha

Leia mais

Agrupamento Espectral e Hierárquico

Agrupamento Espectral e Hierárquico Agrupamento Espectral e Hierárquico Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Agrupamento Espectral 2. Agrupamento Hierárquico 1 Agrupamento Espectral Agrupamento Espectral Nem

Leia mais

Algebra Linear. 1. Revisitando autovalores e autovetores. 2. Forma Diagonal e Forma de Jordan. 2.1 Autovalores distintos. 2.2 Autovalores complexos

Algebra Linear. 1. Revisitando autovalores e autovetores. 2. Forma Diagonal e Forma de Jordan. 2.1 Autovalores distintos. 2.2 Autovalores complexos Algebra Linear 1. Revisitando autovalores e autovetores 2. Forma Diagonal e Forma de Jordan 2.1 Autovalores distintos 2.2 Autovalores complexos 2.3 Nem todos autovalores distintos 3. Autovalores e autovetores

Leia mais

Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995))

Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995)) Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995)) que realiza simultaneamente agrupamento e visualização SOM usa aprendizagem não supervisionada para mapear dados

Leia mais

Aprendizado Bayesiano

Aprendizado Bayesiano Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado

Leia mais

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares 1 / 0 AGA 0505- Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares Laerte Sodré Jr. 1o. semestre, 018 modelos modelagem dos dados dado um conjunto de dados,

Leia mais

Análise multivariada

Análise multivariada UNIFAL-MG, campus Varginha 11 de Setembro de 2018 Dada uma matriz A (p p), podemos obter um escalar λ e um vetor v (p 1) de modo que seja satisfeita? Av = λv (1) Dada uma matriz A (p p), podemos obter

Leia mais

Universidade Federal da Paraíba - UFPB Centro de Ciências Exatas e da Natureza - CCEN Departamento de Matemática - DM

Universidade Federal da Paraíba - UFPB Centro de Ciências Exatas e da Natureza - CCEN Departamento de Matemática - DM Universidade Federal da Paraíba - UFPB Centro de Ciências Exatas e da Natureza - CCEN Departamento de Matemática - DM 3 a Lista de Exercícios de Introdução à Álgebra Linear Professor: Fágner Dias Araruna

Leia mais

MAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de T ( p(x) ) = p(x + 1) p(x), (a) 8, (b) 5, (c) 0, (d) 3, (e) 4.

MAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de T ( p(x) ) = p(x + 1) p(x), (a) 8, (b) 5, (c) 0, (d) 3, (e) 4. MAT2458 ÁLGEBRA LINEAR PARA ENGENHARIA II 2 a Prova - 2 o semestre de 218 Q1. Considere a transformação linear T : P 3 (R) P 2 (R), dada por T ( p(x) ) = p(x + 1) p(x), para todo p(x) P 3 (R), e seja A

Leia mais

Mecânica Quântica. Spin 1/2 e a formulação da M. Q. Parte II. A C Tort 1. Instituto Física Universidade Federal do Rio de Janeiro

Mecânica Quântica. Spin 1/2 e a formulação da M. Q. Parte II. A C Tort 1. Instituto Física Universidade Federal do Rio de Janeiro Mecânica Quântica Spin 1/ e a formulação da M. Q. Parte II A C Tort 1 1 Departmento de Física Teórica Instituto Física Universidade Federal do Rio de Janeiro 10 de Maio de 01 Mais dois postulados, agora

Leia mais

O Teorema da Amizade

O Teorema da Amizade O Teorema da Amizade Seminário Diagonal David Mesquita Faculdade de Ciências da Universidade do Porto 13 de Maio de 2009 Teorema da Amizade,TA Formulação Original Suponha-se que numa sociedade, cada par

Leia mais

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33 Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto

Leia mais

Exercício: Identifique e faça um esboço do conjunto solução da. 3x xy + y 2 + 2x 2 3y = 0

Exercício: Identifique e faça um esboço do conjunto solução da. 3x xy + y 2 + 2x 2 3y = 0 Motivação Exercício: Identifique e faça um esboço do conjunto solução da equação 3x 2 + 2 3xy + y 2 + 2x 2 3y = 0 Motivação Exercício: Identifique e faça um esboço do conjunto solução da equação 3x 2 +

Leia mais

G4 de Álgebra Linear I

G4 de Álgebra Linear I G4 de Álgebra Linear I 20122 Gabarito 7 de Dezembro de 2012 1 Considere a transformação linear T : R 3 R 3 definida por: T ( v = ( v (1, 1, 2 (0, 1, 1 a Determine a matriz [T ] ε da transformação linear

Leia mais

Controle Ótimo - Aula 6 Exemplos e Exercícios

Controle Ótimo - Aula 6 Exemplos e Exercícios Controle Ótimo - Aula 6 Exemplos e Exercícios Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos Probabilidades Probabilidade: número entre

Leia mais

5. Seja A uma matriz qualquer. Assinale a afirmativa

5. Seja A uma matriz qualquer. Assinale a afirmativa UFRJ Instituto de Matemática Disciplina: Algebra Linear II - MAE 125 Professor: Bruno, Gregório, Luiz Carlos, Mario, Milton, Monique e Umberto Data: 12 de julho de 2013 Terceira Prova 1. Considere no espaço

Leia mais

P4 de Álgebra Linear I de junho de 2005 Gabarito

P4 de Álgebra Linear I de junho de 2005 Gabarito P4 de Álgebra Linear I 25.1 15 de junho de 25 Gabarito 1) Considere os pontos A = (1,, 1), B = (2, 2, 4), e C = (1, 2, 3). (1.a) Determine o ponto médio M do segmento AB. (1.b) Determine a equação cartesiana

Leia mais

G3 de Álgebra Linear I

G3 de Álgebra Linear I G3 de Álgebra Linear I 2.2 Gabarito ) Considere a matriz 4 N = 4. 4 Observe que os vetores (,, ) e (,, ) são dois autovetores de N. a) Determine uma forma diagonal D de N. b) Determine uma matriz P tal

Leia mais

Clustering (k-means, SOM e hierárquicos)

Clustering (k-means, SOM e hierárquicos) Clustering (k-means, SOM e hierárquicos) André Tavares da Silva andre.silva@udesc.br (Capítulo 10 de Duda e Hart) Clustering Introdução e tipos Roteiro Agrupamentos hierárquicos AGNES, DIANA e Dendogram

Leia mais

Primeiro Exercício programa: Como o Google ordena páginas. MAP-2121 para EPUSP

Primeiro Exercício programa: Como o Google ordena páginas. MAP-2121 para EPUSP Primeiro Exercício programa: Como o Google ordena páginas MAP-2121 para EPUSP 1 Instruções gerais Os exercícios computacionais pedidos na disciplina Cálculo Numérico têm por objetivo fundamental familiarizar

Leia mais

Álgebra Linear I - Lista 12. Matrizes semelhantes. Diagonalização. Respostas

Álgebra Linear I - Lista 12. Matrizes semelhantes. Diagonalização. Respostas Álgebra Linear I - Lista 12 Matrizes semelhantes. Diagonalização Respostas 1) Determine quais das matrizes a seguir são diagonalizáveis. Nos caso afirmativos encontre uma base de autovetores e uma forma

Leia mais

Descomposição de Cholesky

Descomposição de Cholesky Frederico Almeida & Guilherme Aguilar Universidade Federal de Minas Gerais 20 de Novembro de 2018 Frederico A. & Guilherme A. (ICEX - UFMG) 20 de Novembro de 2018 1 / 29 Motivação Métodos de otimização

Leia mais

GABARITO PSUB Questão Resposta 1 A 2 A 3 E 4 D 5 A 6 B 7 A 8 A 9 C 10 E 11 C 12 C 13 B 14 C 15 A 16 D

GABARITO PSUB Questão Resposta 1 A 2 A 3 E 4 D 5 A 6 B 7 A 8 A 9 C 10 E 11 C 12 C 13 B 14 C 15 A 16 D GABARITO PSUB 2013 Questão Resposta 1 A 2 A 3 E 4 D 5 A 6 B 7 A 8 A 9 C 10 E 11 C 12 C 13 B 14 C 15 A 16 D MAT2457 - Álgebra Linear para Engenharia I Prova Substitutiva - 26/06/2013 Nome: Professor: NUSP:

Leia mais

Visão Computacional CPS754

Visão Computacional CPS754 Visão Computacional CPS754 aula 13 - reconstrução Antonio Oliveira Ricardo Marroquim 1 / 26 visão computacional tópicos reprojetando pontos para 3D triangulação simples solução ótima definição do último

Leia mais

Algoritmos Numéricos 2 a edição

Algoritmos Numéricos 2 a edição Algoritmos Numéricos 2 a edição Capítulo 2: Sistemas lineares c 2009 FFCf 2 2.1 Conceitos fundamentais 2.2 Sistemas triangulares 2.3 Eliminação de Gauss 2.4 Decomposição LU Capítulo 2: Sistemas lineares

Leia mais

ÁLGEBRA LINEAR A FICHA 6. Por definição do determinante de uma matriz 3 3, tem-se det A = 7.

ÁLGEBRA LINEAR A FICHA 6. Por definição do determinante de uma matriz 3 3, tem-se det A = 7. Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Última actualização: 20/Nov/2003 ÁLGEBRA LINEAR A FICHA 6 SOLUÇÕES SUMÁRIAS DOS EXERCÍCIOS ÍMPARES Propriedades dos Determinantes

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

folha prática 5 valores próprios e vetores próprios página 1/3

folha prática 5 valores próprios e vetores próprios página 1/3 folha prática 5 valores próprios e vetores próprios página 1/ Universidade de Aveiro Departamento de Matemática 1. Determine os valores próprios e vetores próprios de cada uma das seguintes matrizes. Averigue

Leia mais

Álgebra Linear I - Aula 18

Álgebra Linear I - Aula 18 Álgebra Linear I - Aula 18 1. Matrizes semelhantes. 2. Matriz de uma transformação linear em uma base. Roteiro 1 Matrizes semelhantes Definição 1 (Matrizes semelhantes). Considere duas matrizes quadradas

Leia mais

Cadeias de Markov de Tempo Contínuo (CTMC)

Cadeias de Markov de Tempo Contínuo (CTMC) Cadeias de Markov de Tempo Contínuo (CTMC) Cadeia de Markov Contínua (1) A análise de cadeias de Markov contínuas (CTMCs) é bem similar a análise em tempo discreto, com a diferença de que as transições

Leia mais

Variação Q-espectral inteira em apenas um lugar é impossível

Variação Q-espectral inteira em apenas um lugar é impossível Variação Q-espectral inteira em apenas um lugar é impossível Maria Aguieiras A. de Freitas, Nair M. M. de Abreu, Programa de Engenharia de Produção, COPPE, UFRJ, Rio de Janeiro, RJ E-mail: maguieiras@im.ufrj.br,

Leia mais

AGA Análise de Dados em Astronomia I. 6. O Método da Máxima Verossimilhança- I

AGA Análise de Dados em Astronomia I. 6. O Método da Máxima Verossimilhança- I 1 / 26 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 6. O Método da Máxima Verossimilhança- I Laerte Sodré Jr. 1o. semestre, 2019 introdução aula de hoje: 1 modelagem dos dados 2 a verossimilhança

Leia mais

Álgebra Linear I - Aula Bases Ortonormais e Matrizes Ortogonais

Álgebra Linear I - Aula Bases Ortonormais e Matrizes Ortogonais Álgebra Linear I - Aula 19 1. Bases Ortonormais e Matrizes Ortogonais. 2. Matrizes ortogonais 2 2. 3. Rotações em R 3. Roteiro 1 Bases Ortonormais e Matrizes Ortogonais 1.1 Bases ortogonais Lembre que

Leia mais

Processamento de Imagens CPS755

Processamento de Imagens CPS755 Processamento de Imagens CPS755 aula 06 - sistemas não lineares Antonio Oliveira Ricardo Marroquim 1 / 38 laboratório de processamento de imagens tópicos RANSAC métodos iterativos (não-lineares) gradientes

Leia mais

Projeções Multi-dimensionais

Projeções Multi-dimensionais Prof. Fernando V. Paulovich http://www.icmc.usp.br/~paulovic paulovic@icmc.usp.br Instituto de Ciências Matemáticas e de Computação (ICMC) Universidade de São Paulo (USP) 23 de setembro de 2010 Introdução

Leia mais

Dou Mó Valor aos Autovalores

Dou Mó Valor aos Autovalores 1. Definições Preliminares Dou Mó Valor aos Autovalores 21ª Semana Olímpica Maceió, AL Prof. Davi Lopes Nível U Dada uma matriz quadrada A n n de entradas complexas, podemos definir os conceitos a seguir,

Leia mais

Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas

Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Wrapper Filtros Muitos algoritmos de AM são projetados de modo a selecionar os

Leia mais

SME Gustavo C. Buscaglia

SME Gustavo C. Buscaglia SME0602-2017 Gustavo C. Buscaglia ICMC - Ramal 738176, gustavo.buscaglia@gmail.com Cálculo de autovalores e autovetores Existem vários problemas na engenharia em que precisamos calcular os autovalores

Leia mais

Aula 8 - Reconhecimento e Interpretação. Prof. Adilson Gonzaga

Aula 8 - Reconhecimento e Interpretação. Prof. Adilson Gonzaga Aula 8 - Reconhecimento e Interpretação Prof. Adilson Gonzaga Elementos de Visão Computacional: Visão Computacional Processamento de Baio Nível Processamento de Nível Intermediário Processamento de Alto

Leia mais

INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o

INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 27/28 Semestre: o MATEMÁTICA COMPUTACIONAL Exercícios [4 Sendo A M n (C) mostre que: (a) n A 2 A n A 2 ; (b)

Leia mais

MeanShift Segmentation

MeanShift Segmentation COPPE-UFRJ MeanSift Segmentation Ricardo Marroquim data entrega: pós-graduação: 24/06/206 graduação: 30/06/206 OBJETIVO Gerar uma filtragem e segmentação da imagem utilizando o algoritmo Mean-Sift. A entrada

Leia mais

Forma Canônica de Matrizes 2 2

Forma Canônica de Matrizes 2 2 Forma Canônica de Matrizes Slvie Olison Kamphorst Departamento de Matemática - ICE - UFMG Versão. - Novembro 5 a b Seja A c d induzida por A uma matriz real e seja T a transformação operador linear de

Leia mais

Métodos Computacionais Aplicados à Estatística

Métodos Computacionais Aplicados à Estatística Métodos Computacionais Aplicados à Estatística Decomposição de Cholesky Frederico M. Almeida Guilherme A. S. Aguilar 20 de Novembro de 2018 1 Introdução Os métodos de otimização numérica são uma alternativa

Leia mais

AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC

AGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC 1 / 1 AGA 0505- Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC Laerte Sodré Jr. 1o. semestre, 2018 2 / 1 Inferência Bayesiana inferência bayesiana consideremos um conjunto de dados D que

Leia mais

2 Núcleos: suas propriedades e classificações

2 Núcleos: suas propriedades e classificações 2 Núcleos: suas propriedades e classificações O objetivo desse capítulo é o de apresentar as funções núcleos (7), suas propriedades (10) e suas classificações (3). 2.1 Núcleos no espaço de Hilbert Um espaço

Leia mais

Álgebra Linear I - Aula Autovetores e autovalores de uma transformação

Álgebra Linear I - Aula Autovetores e autovalores de uma transformação Álgebra Linear I - Aula 18 1. Autovalores e autovetores. 2. Cálculo dos autovetores e autovalores. Polinômio característico. Roteiro 1 Autovetores e autovalores de uma transformação linear Considere uma

Leia mais

Estatística: Aplicação ao Sensoriamento Remoto SER ANO Componentes Principais

Estatística: Aplicação ao Sensoriamento Remoto SER ANO Componentes Principais Estatística: Aplicação ao Sensoriamento Remoto SER 4 - ANO 9 Componentes Principais Camilo Daleles Rennó camilorenno@inpebr http://wwwdpiinpebr/~camilo/estatistica/ Associação entre Variáveis r = < r

Leia mais

Aula 14. Aula de hoje. Aula passada

Aula 14. Aula de hoje. Aula passada Aula 14 Aula passada Autovalores, autovetores, decomposição Convergência para estacionaridade Tempo de mistura Spectral gap Tempo de mistura de passeios aleatórios Aula de hoje Caminho amostral Teorema

Leia mais

Teoria dos Grafos. Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada.

Teoria dos Grafos. Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada. Teoria dos Grafos Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada antunes@ibilce.unesp.br, socorro@ibilce.unesp.br Preparado a partir do texto: Rangel, Socorro. Teoria do Grafos,

Leia mais

Álgebra Linear I - Aula 20

Álgebra Linear I - Aula 20 Álgebra Linear I - Aula 20 1 Matrizes diagonalizáveis Exemplos 2 Forma diagonal de uma matriz diagonalizável 1 Matrizes diagonalizáveis Exemplos Lembramos que matriz quadrada a 1,1 a 1,2 a 1,n a 2,1 a

Leia mais

Organização. 1. Introdução 2. Medidas de Similaridade. hierárquicos, de partição) 4. Critérios numéricos para definir o número de clusters

Organização. 1. Introdução 2. Medidas de Similaridade. hierárquicos, de partição) 4. Critérios numéricos para definir o número de clusters Organização. Introdução 2. Medidas de Similaridade 3. Métodos de Agrupamento (métodos hierárquicos, de partição) 4. Critérios numéricos para definir o número de clusters Métodos de Partição Cada exemplo

Leia mais

Modelagem Computacional. Parte 7 2

Modelagem Computacional. Parte 7 2 Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 7 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,

Leia mais

G4 de Álgebra Linear I

G4 de Álgebra Linear I G4 de Álgebra Linear I 27.1 Gabarito 1) Considere a base η de R 3 η = {(1, 1, 1); (1,, 1); (2, 1, )} (1.a) Determine a matriz de mudança de coordenadas da base canônica para a base η. (1.b) Considere o

Leia mais

PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1)

PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1) PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1) 1 Procedimentos não supervisionados Não se conhece a classificação das amostras de treinamento Qual é o interesse? 1) Coletar e rotular

Leia mais

Álgebra Linear I - Aula Forma diagonal de uma matriz diagonalizável

Álgebra Linear I - Aula Forma diagonal de uma matriz diagonalizável Álgebra Linear I - Aula 18 1 Forma diagonal de uma matriz diagonalizável 2 Matrizes ortogonais Roteiro 1 Forma diagonal de uma matriz diagonalizável Sejam A uma transformação linear diagonalizável, β =

Leia mais

Algoritmos de Aprendizado

Algoritmos de Aprendizado Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron

Leia mais

Álgebra Linear I - Aula 2. Roteiro

Álgebra Linear I - Aula 2. Roteiro Álgebra Linear I - Aula 2 1. Produto escalar. Ângulos. 2. Desigualdade triangular. 3. Projeção ortugonal de vetores. Roteiro 1 Produto escalar Considere dois vetores = (u 1, u 2, u 3 ) e v = (v 1, v 2,

Leia mais

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Geração de Números Aleatórios Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 61 Simulando de Distribuições Discretas Assume-se que um

Leia mais

Teoria dos Grafos. Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo. Departamento de Matemática Aplicada

Teoria dos Grafos. Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo. Departamento de Matemática Aplicada Teoria dos Grafos Valeriano A. de Oliveira, Socorro Rangel, Silvio A. de Araujo Departamento de Matemática Aplicada Capítulo 09: Representação de Grafos Preparado a partir do texto: Rangel, Socorro. Teoria

Leia mais

ESTATÍSTICA COMPUTACIONAL

ESTATÍSTICA COMPUTACIONAL ESTATÍSTICA COMPUTACIONAL Ralph dos Santos Silva Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Introdução Solução de equações não lineares

Leia mais

1 Autovetor e Autovalor 9. 2 Matrizes Ortogonais e Transformações Lineares Planas e Espaciais 55

1 Autovetor e Autovalor 9. 2 Matrizes Ortogonais e Transformações Lineares Planas e Espaciais 55 Capítulo LINE LINE Autovetor e Autovalor 9 Matrizes Ortogonais e Transformações Lineares Planas e Espaciais 55 Matrizes Simétricas, o Teorema Espectral e Operadores Auto-adjuntos 8 4 Formas Bilineares,

Leia mais

Padrões de Segregação. Comunidades

Padrões de Segregação. Comunidades Padrões de Segregação omunidades omunidades omo vimos anteriormente, em redes sociais é possível verificar grupos fechados de pessoas (pessoas que se conhecem mutuamente) e, em alguns nós, pessoas que

Leia mais

Capítulo 1 - Problemas de Valores Próprios

Capítulo 1 - Problemas de Valores Próprios Capítulo 1 - Problemas de Valores Próprios balsa@ipb.pt Departamento de Matemática Mestrado em Engenharia da Construção Métodos de Aproximação em Engenharia 1 o Semestre 2010/2011 Capítulo 1 - Problemas

Leia mais

1 Álgebra linear matricial

1 Álgebra linear matricial MTM510019 Métodos Computacionais de Otimização 2018.2 1 Álgebra linear matricial Revisão Um vetor x R n será representado por um vetor coluna x 1 x 2 x =., x n enquanto o transposto de x corresponde a

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Problema do Agrupamento Aprendizagem de Máquina Alessandro L. Koerich Seja x = (x 1, x 2,, x d ) um vetor d dimensional de características Seja D um conjunto de x vetores, D = { x(1), x(2),, x(n) } Problema

Leia mais

(x 1, y 1 ) (x 2, y 2 ) = (x 1 x 2, y 1 y 2 ); e α (x, y) = (x α, y α ), α R.

(x 1, y 1 ) (x 2, y 2 ) = (x 1 x 2, y 1 y 2 ); e α (x, y) = (x α, y α ), α R. INSTITUTO DE MATEMÁTICA E ESTATÍSTICA UNIVERSIDADE DE SÃO PAULO MAT-2457 Álgebra Linear para Engenharia I Terceira Lista de Exercícios - Professor: Equipe da Disciplina EXERCÍCIOS 1. Considere as retas

Leia mais

Como resolver o QFEMUP usando otimização

Como resolver o QFEMUP usando otimização Como resolver o QFEMUP usando otimização Marina Andretta ICMC-USP 2 de agosto de 2016 Baseado no artigo M. Andretta, E. G. Birgin and M. Raydan, An inner-outer nonlinear programming approach for constrained

Leia mais

Clustering - c-means e Self Organizing Maps

Clustering - c-means e Self Organizing Maps - c-means e Self Organizing Maps Sarajane M. Peres e Clodoaldo A. M. Lima 13 de abril de 2015 Material baseado em: HAN, J. & KAMBER, M. Data Mining: Concepts and Techniques. 2nd. 2006 FAUSETT, L. Fundamentals

Leia mais

Autovalores e Autovetores Determinante de. Motivando com Geometria Definição Calculando Diagonalização Teorema Espectral:

Autovalores e Autovetores Determinante de. Motivando com Geometria Definição Calculando Diagonalização Teorema Espectral: Lema (determinante de matriz ) A B A 0 Suponha que M = ou M =, com A e D 0 D C D matrizes quadradas Então det(m) = det(a) det(d) A B Considere M =, com A, B, C e D matrizes C D quadradas De forma geral,

Leia mais

SME R. Ausas - G. Buscaglia. Lista geral da disciplina

SME R. Ausas - G. Buscaglia. Lista geral da disciplina SME005-206 R. Ausas - G. Buscaglia Lista geral da disciplina. Fazer em Octave/Matlab (a) Um programa que cria dois vetores randomicos e calcula o seu produto escalar. (b) Um programa que cria duas matrizes

Leia mais

G3 de Álgebra Linear I

G3 de Álgebra Linear I G de Álgebra Linear I 7 Gabarito ) Considere a transformação linear T : R R cuja matriz na base canônica E = {(,, ), (,, ), (,, )} é [T] E = a) Determine os autovalores de T e seus autovetores correspondentes

Leia mais

Projeto AM Francisco de A. T. de Carvalho 1

Projeto AM Francisco de A. T. de Carvalho 1 Projeto AM 2018-1 Francisco de A. T. de Carvalho 1 1 Centro de Informatica-CIn/UFPE Av. Prof. Luiz Freire, s/n -Cidade Universitaria, CEP 50740-540, Recife-PE, Brasil, fatc@cin.ufpe.br 1) No conjunto de

Leia mais

Métodos Computacionais para inferência estatística

Métodos Computacionais para inferência estatística Métodos Computacionais para inferência estatística Wagner Hugo Bonat LEG: Laboratório de Estatística e Geoinformação Universidade Federal do Paraná 30 de julho de 2012 Bonat et. al (LEG/UFPR) MCIE 30 de

Leia mais

Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados

Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados Modelos Lineares Generalizados - Estimação em Modelos Lineares Generalizados Erica Castilho Rodrigues 23 de Maio de 207 Introdução 2 3 Vimos como encontrar o EMV usando algoritmos numéricos. Duas possibilidades:

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Aprendizado não-supervisionado Formação de agrupamentos Aprendizado Não-Supervisionado Classificação supervisionada: discriminar padrões com base num modelo pré-definido de classes.

Leia mais

Reconhecimento de Padrões. Reconhecimento de Padrões

Reconhecimento de Padrões. Reconhecimento de Padrões Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso e Prof.

Leia mais

5 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão 2009

5 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão 2009 5 a Lista de Exercícios de Introdução à Álgebra Linear IMPA - Verão 29 Soluções dos exercícios Devido ao fato de A ser simétrica, existe uma base ortonormal {u,, u n } formada por autovetores de A, então

Leia mais

Autovalores e Autovetores

Autovalores e Autovetores Algoritmos Numéricos II / Computação Científica Autovalores e Autovetores Lucia Catabriga 1 1 DI/UFES - Brazil Junho 2016 Introdução Ideia Básica Se multiplicarmos a matriz por um autovetor encontramos

Leia mais

Aprendizado Bayesiano

Aprendizado Bayesiano Aprendizado Bayesiano Marcelo K. Albertini 3 de Julho de 2014 2/1 Conteúdo Aprendizado Naive Bayes Exemplo: classificação de texto Redes Bayesiana Algoritmo EM Regressão probabiĺıstica 3/1 Classificador

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

Autovalores e Autovetores

Autovalores e Autovetores Autovalores e Autovetores Lucia Catabriga Algoritmos Numéricos II Computação Científica Universidade Federal do Espírito Santo de junho de 24 Resumo Este texto tem por objetivo introduzir os conceitos

Leia mais

GABRIEL BUJOKAS

GABRIEL BUJOKAS APLICAÇÕES DE ÁLGEBRA LINEAR À COMBINATÓRIA GABRIEL BUJOKAS (GBUJOKAS@MIT.EDU) A gente vai discutir algumas das aplicações clássicas de álgebra linear à combinatória. Vamos começar relembrando alguns conceitos

Leia mais

Prova Didática Grafos: Árvores Geradoras e Caminhos Mínimos, Análise de Complexidade

Prova Didática Grafos: Árvores Geradoras e Caminhos Mínimos, Análise de Complexidade Prova Didática Grafos: Árvores Geradoras e Caminhos Mínimos, Análise de Complexidade Gustavo E.A.P.A. Batista 25 de janeiro de 2005 1 Contextualização 2 Caminhos Mínimos Caminhos Mínimos de uma Origem

Leia mais

Provas. As notas da primeira e segunda prova já foram digitadas no Minha UFMG. Caso você não veja sua nota, entre em contato com o professor.

Provas. As notas da primeira e segunda prova já foram digitadas no Minha UFMG. Caso você não veja sua nota, entre em contato com o professor. Provas As notas da primeira e segunda prova já foram digitadas no Minha UFMG. Caso você não veja sua nota, entre em contato com o professor. Terceira prova. Sábado, 15/junho, 10:00-12:00 horas, ICEx. Diagonalização

Leia mais

Álgebra Linear Teoria de Matrizes

Álgebra Linear Teoria de Matrizes Álgebra Linear Teoria de Matrizes 1. Sistemas Lineares 1.1. Coordenadas em espaços lineares: independência linear, base, dimensão, singularidade, combinação linear 1.2. Espaço imagem (colunas) - Espaço

Leia mais

Lema. G(K/F ) [K : F ]. Vamos demonstrar usando o Teorema do Elemento Primitivo, a ser provado mais adiante. Assim, K = F (α).

Lema. G(K/F ) [K : F ]. Vamos demonstrar usando o Teorema do Elemento Primitivo, a ser provado mais adiante. Assim, K = F (α). Teoria de Galois Vamos nos restringir a car. zero. Seja K/F uma extensão finita de corpos. O grupo de Galois G(K/F ) é formado pelos isomorfismos ϕ : K K tais que x F, ϕ(x) = x. Lema. G(K/F ) [K : F ].

Leia mais