Mapas Auto-Organizáveis de Kohonen SOM

Documentos relacionados
Mapas Auto-Organizáveis de Kohonen SOM

Redes Neurais não Supervisionadas: SOM

Introdução às Redes Neurais Artificiais

REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM)

Redes Neurais e Sistemas Fuzzy

Capítulo 7. Mapas Auto-Organizados de Kohonen - SOM

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Aula 7 RNA Redes Auto-Organizáveis de Kohonen

Self Organizing Maps - Redes de Kohonen

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais Artificiais

Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995))

2. Redes Neurais Artificiais

Redes Neurais Artificiais

Aprendizado de Máquina

Aprendizado de Máquina

SCC Capítulo 8 Auto-Organização

Uso da Rede Neural Artificial Self Organizing Maps (SOM) na clusterização de dados meteorológicos

Aprendizado de Máquina

6 Clustering: Definindo Grupos Estratégicos

Rede RBF (Radial Basis Function)

Redes Competitivas e de Kohonen

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

3 FERRAMENTAS UTILIZADAS: REDES NEURAIS E LÓGICA FUZZY

Mapas Auto Organizáveis SOMs Mapas de Kohonen

Redes Neurais Artificiais

Reconhecimento Digital de Padrões Utilizando Redes Neurais Artificiais. Rousemberg Pereira da Silva. Uberlândia, Dezembro/2002.

Paradigmas de Aprendizagem

Aplicação de Mapa Auto-Organizável ao Agrupamento de Dados de Refletividade de Radar

1. Conceitos básicos dos Sistemas Auto-organizáveis. Os sistemas auto-organizáveis estão relacionados com aprendizagem nãosupervisionada.

MAPAS AUTO-ORGANIZÁVEIS PARA MODELAGEM CHUVA-VAZÃO. Farias, C. A. S.; Carneiro, T. C. & Lourenço, A. M. G.

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Clustering - c-means e Self Organizing Maps

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

5 Redes Neurais Artificiais

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Agrupamento de Dados a partir de Mapas Auto-Organizáveis na Ferramenta YADMT. Thiago Magalhães Faino

UNIVERSIDADE FEDERAL DE VIÇOSA. Eduardo Martins Viana AGRUPAMENTO DE CONJUNTOS CONSUMIDORES DE ENERGIA ELÉTRICA UTILIZANDO MAPAS AUTO-ORGANIZÁVEIS

UNIVERSIDADE PRESBITERIANA MACKENZIE PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA LEANDRO JUVÊNCIO MOREIRA

Redes Neurais Artificiais

Classificação de Elementos no Ambiente de Navegação Robótica Utilizando Redes de Kohonen

2. Redes Neurais Artificiais

.SXUNWF «T'NTQºLNHF &)&1.3* Introdução às redes Neurais Artificiais (RNAs) v1.1

2. Redes Neurais Artificiais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Aula 8 - Reconhecimento e Interpretação. Prof. Adilson Gonzaga

Mineração de Dados. Modelos Descritivos. Descoberta de agrupamentos

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Processamento digital de imagens

Arquiteturas. Funções de Ativação

Perceptron de Múltiplas Camadas e Backpropagation

Métodos de Segmentação de Mapas Auto-Organizáveis para Análise de Agrupamento

3 Redes Neurais Artificiais

Universidade Federal do Espírito Santo Centro de Ciências Exatas, Naturais e da Saúde CCENS UFES Departamento de Computação. Modelo de Hopfield

Influência do Caos em Redes Neurais Auto-Organizáveis ao Resolver Problemas de Otimização

4 Validação do Algoritmo

Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação. Perceptron

Aprendizagem por treinamento de redes de aproximação

Tópicos em Mineração de Dados

Emprego de técnicas de clusterização para gestão tributária de solo urbano Mestrando: Carlos Cristiano Cabral

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

Modelos ART Adaptive Ressonance Theory. Germano C. Vasconcelos Centro de Informática - UFPE

Redes neurais artificiais

MINERAÇÃO DE DADOS BASEADA EM INTELIGÊNCIA COMPUTACIONAL - UMA APLICAÇÃO À DETERMINAÇÃO DA TIPOLOGIA DE CURVAS DE CARGA

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO

SCC Capítulo 3 Aprendizado

SISTEMA DE IDENTIFICAÇÃO DE FALHAS EM ESCADAS ROLANTES UTILIZANDO REDES NEURAIS ARTIFICIAIS

TUTORIA ADAPTATIVA AO APRENDIZ BASEADA EM REDES NEURAIS ARTIFICIAIS

UNIVERSIDADE FEDERAL DE SANTA CATARINA DEPARTAMENTO DE INFORMÁTICA E ESTATÍSTICA CURSO DE CIÊNCIAS DA COMPUTAÇÃO

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Aplicações 8/10/2007. Redes Auto-Organizáveis (Self-Organizing) Modelos(1) Modelos(2) Kohonen(SOM) Modelos(3) Modelos(4) Treinamento

Inteligência Computacional

Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial

UNIVERSIDADE FEDERAL DE SANTA CATARINA DEPARTAMENTO DE INFORMÁTICA E ESTATÍSTICA CURSO DE CIÊNCIAS DA COMPUTAÇÃO

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

3 Agrupamento de dados e o algoritmo GNG

Classificação Linear. André Tavares da Silva.

Redes Neurais Artificiais Aplicadas em Análise de Perfis Profissionais

4 Algoritmo de reconstrução de curvas

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Clustering (k-means, SOM e hierárquicos)

Fatores de Hipertensão usando Redes Neurais Kohonen SOM. Palavras Chave: análise de cluster, hipertensão, mapas auto-organizáveis, redes neurais.

Recuperação Florestal através s da rede neural Self-Organizing

2. Redes Neurais Artificiais

Redes Neurais Noções Gerais

Redes Neurais Artificial. Prática. Inteligência Artificial

SCE 5809 REDES NEURAIS

Mapeamento automático de horizontes e falhas em volumes sísmicos 3D baseado no algoritmo de Gás Neural Evolutivo

Rede Perceptron. Capítulo 3

Redes Neurais e Sistemas Fuzzy

SEL-0339 Introdução à Visão Computacional. Aula 7 Reconhecimento de Objetos

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Transcrição:

Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Cérebro humano Entradas sensoriais (motora, visual, auditiva, etc.) são mapeadas por áreas correspondentes do córtex cerebral de forma ordenada. Os mapas computacionais fornecem como propriedades: Na apresentação de estímulos, a informação incidente é mantida em seu próprio contexto; Neurônios que lidam com informações relacionadas estão próximos entre si, podendo interagir com conexões sinápticas curtas. 2

Mapas Auto-Organizáveis de Kohonen Fazem parte de um grupo de redes neurais chamado de: Redes baseadas em modelos de competição, ou Redes competitivas. Combinam competição com uma forma de aprendizagem para fazer os ajustes de seus pesos. Utilizam treinamento não supervisionado, A rede busca encontrar similaridades baseando-se apenas nos padrões de entrada. Principal objetivo dos SOM de Kohonen: Agrupar os dados de entrada que são semelhantes entre si formando classes ou agrupamentos denominados clusters. 3

Mapas Auto-Organizáveis de Kohonen Em uma rede classificadora: Há uma unidade de entrada para cada componente do vetor de entrada. Cada unidade de saída representa um cluster. (limitação da quantidade de clusters pelo número de saídas). Durante o treinamento, A rede determina a unidade de saída que melhor responde ao vetor de entrada; O vetor de pesos para a unidade vencedora é ajustado de acordo com o algoritmo de treinamento. No processo de auto-organização, ocorre a relação de vizinhança entre os neurônios: A unidade (neurônio) do cluster cujo vetor de pesos mais se aproxima do vetor dos padrões de entrada é escolhida como sendo a vencedora. A unidade vencedora e suas unidades vizinhas têm seus pesos atualizados segundo uma regra. 4

Mapas Auto-Organizáveis de Kohonen Os neurônios são colocados em nós de uma grade. Os neurônios tornam-se seletivamente sintonizados a vários padrões de entrada. Cada padrão de entrada é um estímulo. A localização dos neurônios sintonizados (vencedores) tornam-se ordenadas entre si, Criando um sistema de coordenadas para diferentes características de entrada. Sistema de coordenadas é criado sobre a grade. Este sistema caracteriza-se então pela formação de um mapa topográfico dos padrões de entrada. As localizações espaciais dos neurônios da grade são indicativas das características estatísticas contidas nos padrões de entrada. 5

Arquiteturas As imagens apresentam uma vizinhança bidimensional e unidimensional. Mas podem existir dimensões mais elevadas. Dada a dimensão, a quantidade de unidades ou neurônios de saída:... X 1 X 2 X n Pode ser arbitrada e mantida fixa, ou Pode ser definida automaticamente pelo algoritmo de treinamento. A quantidade de elementos de entrada depende do banco de dados a ser utilizado no treinamento da rede. O grid de saída pode ser de várias dimensões, com quantidade de elementos variável. 6

O Mapa auto-organizável Inicialmente, atribui-se valores aleatórios pequenos aos pesos sinápticos da grade. Assim, nenhuma organização prévia é importa ao mapa de características. Após isso, há três processos para a formação do mapa autoorganizável: Competição: Para cada neurônio de entrada, os neurônios da grade calculam seus valores de uma função discriminante e competem entre si. O maior valor vence; Cooperação: O neurônio vencedor determina a localização espacial de uma vizinhança e coopera com seus vizinhos; Adaptação Sináptica: O neurônio excitado aumenta seus valores individuais da função discriminante em relação à entrada com ajustes em seus pesos sinápticos. 7

Relação Topológica y 1 (x) y i (x) y c (x) Camada Competitiva X 1 X j X d Relações de Vizinhança entre os neurônios na fase de treinamento. Cada neurônio i da camada competitiva tem um vetor de pesos Wi que tem a mesma dimensão que a entrada X. Dimensão: A) Da entrada X e pelos pesos Wi: dim(x) = dim Wi = d. B) Do mapa: 1-D: largura; 2-D: largura x comprimento 3-D: largura x comprimento x altura. 8

Processo Competitivo Apresenta-se um estímulo (padrão de entrada): Ocorre a determinação do vencedor i* na camada competitiva. Para isso, deve haver um critério de semelhança entre o estímulo x e o peso Wi do neurônio i. Lembrando-se que é a semelhança entre dois vetores da mesma dimensão. A determinação da diferença/semelhança entre os vetores pode ser: a) Pelo Ângulo; ou b) Pela Distância Euclidiana. 9

Diferença de vetores: Ângulo Inicialmente, realiza-se a normalização de W i e X : W j N = W j W j X N = X X x 2, w 2 W i X Então calcula-se o i*: c i * = argmax W N i. X N = c argmin i=1 i=1 cosθ W i N j = i* W j N W j x 1, w 1 Problema: perda de informação pela normalização 10

Diferença de vetores: Distância Euclidiana Distância Euclidiana: d (x,w i )= x W i i * = c argmin x W i i=1 i = i* W i d i x x 2, w 2 d j W j x 1, w 1 11

Processo Cooperativo O neurônio vencedor localiza o centro de uma vizinhança topológica de neurônios cooperativos. O neurônio que está disparando (vencedor): Tende a excitar mais fortemente os neurônios na sua vizinhança imediata Tende a excitar com menos força aqueles neurônios que estão distantes dele. Sobre a vizinhança topológica: é simétrica em relação ao ponto máximo definido pelo neurônio vencedor. Sua amplitude decresce monotonamente com o aumento da distância lateral, decaindo para zero quando a distância do neurônio vencedor tende ao infinito. Uma escolha típica para satisfazer essas exigências é utilizar a função gaussiana: h i, j(x) =exp( d 2 ) j,i 2σ, d 2 2 i, j= r j r i 2, i=neurônio vencedor, j=neurônios excitados, d i, j =distância lateral entre o neurônio excitado j e o neurônio vencedor i r=vetor discreto que define a posição do neurônio 12

Função de Vizinhança Gaussiana σ(n)=σ 0 exp( n τ 1 ),n=0,1,2,... τ 1 é uma constante de tempo h i, j (x) (n)=exp( d 2 j,i, n=0,1,2,... 2σ (n)) 2 13

Processo Adaptativo Para que a grade seja auto-organizável, é necessário que o vetor de peso sináptico Wj do neurônio j da grade se modifique em relação ao vetor de entrada x. O vetor de peso sináptico é definido por: w j (n+1)=w j (n)+η(n)h j,i(x) (n)(x w j (n)) η(n)=η 0 exp ( n τ 2 ),n=0,1,2,... τ 2 é uma outra constante de tempo do algoritmo SOM. Há duas fases do processo adaptativo: Fase de auto-organização ou de ordenação: primeira fase onde ocorre a ordenação topológica dos vetores de peso. Fase de convergência: segunda fase responsável por fazer uma sintonia fina do mapa de características. 14

Algoritmo Resumido do SOM 1.Inicialização: Escolha valores aleatórios e diferentes para os vetores de peso iniciais. 2.Amostragem: Retire uma amostra do espaço de entrada com certa probabilidade. 3.Casamento por Similaridade: Encontre o neurônio da grade com melhor casamento. 4.Atualização: Ajuste os vetores de peso sináptico de todos os neurônios com a fórmula de atualização. 5.Continuação: Continue com o passo 2 até que não sejam observadas modificações significativas no mapa de características. 15

Propriedades do Mapa de Características 1. Aproximação do Espaço de Entrada: O mapa de características ϕ, representado pelo conjunto de vetores de pesos sinápticos {w j } no espaço de saída A, fornece uma boa aproximação para o espaço de entrada H. 16

Propriedades do Mapa de Características 2. Ordenação Topológica: O mapa de características calculado pelo algoritmo SOM é ordenado de modo topológico, no sentido de que a localização espacial de um neurônio na grade corresponde a um domínio particular ou caraterística dos padrões de entrada. 3. Casamento de Densidade: O mapa de características replete variações na estatística da distribuição de entrada: Regiões do espaço de entrada são mapeados para domínios maiores do espaço de saída, obtendo maior resolução do que de onde foram retirados. 17

Propriedades do Mapa de Características 4. Seleção de Características A partir de dados do espaço de entrada com uma distribuição não linear, o mapa auto-organizável é capaz de selecionar um conjunto das melhores características para aproximar a distribuição subjacente. 18

Exemplos SOM Vídeo (SOM-Video.mp4) Exemplos no Octave/Matlab: Do livro: Haykin/run_som_1d.m Haykin/run_som_2d.m Extra (Churampi, UFSC): Somko.m 19

Exemplos: Mapas Contextuais 20