Mapas Auto-Organizáveis de Kohonen SOM
|
|
|
- Sofia Cabreira Bentes
- 8 Há anos
- Visualizações:
Transcrição
1 Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site:
2 Cérebro humano Entradas sensoriais (motora, visual, auditiva, etc.) são mapeadas por áreas correspondentes do córtex cerebral de forma ordenada. Os mapas computacionais fornecem como propriedades: Na apresentação de estímulos, a informação incidente é mantida em seu próprio contexto; Neurônios que lidam com informações relacionadas estão próximos entre si, podendo interagir com conexões sinápticas curtas. 2
3 Mapas Auto-Organizáveis de Kohonen Fazem parte de um grupo de redes neurais chamado de: Redes baseadas em modelos de competição, ou Redes competitivas. Combinam competição com uma forma de aprendizagem para fazer os ajustes de seus pesos. Utilizam treinamento não supervisionado, A rede busca encontrar similaridades baseando-se apenas nos padrões de entrada. Principal objetivo dos SOM de Kohonen: Agrupar os dados de entrada que são semelhantes entre si formando classes ou agrupamentos denominados clusters. 3
4 Mapas Auto-Organizáveis de Kohonen Em uma rede classificadora: Há uma unidade de entrada para cada componente do vetor de entrada. Cada unidade de saída representa um cluster. (limitação da quantidade de clusters pelo número de saídas). Durante o treinamento, A rede determina a unidade de saída que melhor responde ao vetor de entrada; O vetor de pesos para a unidade vencedora é ajustado de acordo com o algoritmo de treinamento. No processo de auto-organização, ocorre a relação de vizinhança entre os neurônios: A unidade (neurônio) do cluster cujo vetor de pesos mais se aproxima do vetor dos padrões de entrada é escolhida como sendo a vencedora. A unidade vencedora e suas unidades vizinhas têm seus pesos atualizados segundo uma regra. 4
5 Mapas Auto-Organizáveis de Kohonen Os neurônios são colocados em nós de uma grade. Os neurônios tornam-se seletivamente sintonizados a vários padrões de entrada. Cada padrão de entrada é um estímulo. A localização dos neurônios sintonizados (vencedores) tornam-se ordenadas entre si, Criando um sistema de coordenadas para diferentes características de entrada. Sistema de coordenadas é criado sobre a grade. Este sistema caracteriza-se então pela formação de um mapa topográfico dos padrões de entrada. As localizações espaciais dos neurônios da grade são indicativas das características estatísticas contidas nos padrões de entrada. 5
6 Arquiteturas As imagens apresentam uma vizinhança bidimensional e unidimensional. Mas podem existir dimensões mais elevadas. Dada a dimensão, a quantidade de unidades ou neurônios de saída:... X 1 X 2 X n Pode ser arbitrada e mantida fixa, ou Pode ser definida automaticamente pelo algoritmo de treinamento. A quantidade de elementos de entrada depende do banco de dados a ser utilizado no treinamento da rede. O grid de saída pode ser de várias dimensões, com quantidade de elementos variável. 6
7 O Mapa auto-organizável Inicialmente, atribui-se valores aleatórios pequenos aos pesos sinápticos da grade. Assim, nenhuma organização prévia é importa ao mapa de características. Após isso, há três processos para a formação do mapa autoorganizável: Competição: Para cada neurônio de entrada, os neurônios da grade calculam seus valores de uma função discriminante e competem entre si. O maior valor vence; Cooperação: O neurônio vencedor determina a localização espacial de uma vizinhança e coopera com seus vizinhos; Adaptação Sináptica: O neurônio excitado aumenta seus valores individuais da função discriminante em relação à entrada com ajustes em seus pesos sinápticos. 7
8 Relação Topológica y 1 (x) y i (x) y c (x) Camada Competitiva X 1 X j X d Relações de Vizinhança entre os neurônios na fase de treinamento. Cada neurônio i da camada competitiva tem um vetor de pesos Wi que tem a mesma dimensão que a entrada X. Dimensão: A) Da entrada X e pelos pesos Wi: dim(x) = dim Wi = d. B) Do mapa: 1-D: largura; 2-D: largura x comprimento 3-D: largura x comprimento x altura. 8
9 Processo Competitivo Apresenta-se um estímulo (padrão de entrada): Ocorre a determinação do vencedor i* na camada competitiva. Para isso, deve haver um critério de semelhança entre o estímulo x e o peso Wi do neurônio i. Lembrando-se que é a semelhança entre dois vetores da mesma dimensão. A determinação da diferença/semelhança entre os vetores pode ser: a) Pelo Ângulo; ou b) Pela Distância Euclidiana. 9
10 Diferença de vetores: Ângulo Inicialmente, realiza-se a normalização de W i e X : W j N = W j W j X N = X X x 2, w 2 W i X Então calcula-se o i*: c i * = argmax W N i. X N = c argmin i=1 i=1 cosθ W i N j = i* W j N W j x 1, w 1 Problema: perda de informação pela normalização 10
11 Diferença de vetores: Distância Euclidiana Distância Euclidiana: d (x,w i )= x W i i * = c argmin x W i i=1 i = i* W i d i x x 2, w 2 d j W j x 1, w 1 11
12 Processo Cooperativo O neurônio vencedor localiza o centro de uma vizinhança topológica de neurônios cooperativos. O neurônio que está disparando (vencedor): Tende a excitar mais fortemente os neurônios na sua vizinhança imediata Tende a excitar com menos força aqueles neurônios que estão distantes dele. Sobre a vizinhança topológica: é simétrica em relação ao ponto máximo definido pelo neurônio vencedor. Sua amplitude decresce monotonamente com o aumento da distância lateral, decaindo para zero quando a distância do neurônio vencedor tende ao infinito. Uma escolha típica para satisfazer essas exigências é utilizar a função gaussiana: h i, j(x) =exp( d 2 ) j,i 2σ, d 2 2 i, j= r j r i 2, i=neurônio vencedor, j=neurônios excitados, d i, j =distância lateral entre o neurônio excitado j e o neurônio vencedor i r=vetor discreto que define a posição do neurônio 12
13 Função de Vizinhança Gaussiana σ(n)=σ 0 exp( n τ 1 ),n=0,1,2,... τ 1 é uma constante de tempo h i, j (x) (n)=exp( d 2 j,i, n=0,1,2,... 2σ (n)) 2 13
14 Processo Adaptativo Para que a grade seja auto-organizável, é necessário que o vetor de peso sináptico Wj do neurônio j da grade se modifique em relação ao vetor de entrada x. O vetor de peso sináptico é definido por: w j (n+1)=w j (n)+η(n)h j,i(x) (n)(x w j (n)) η(n)=η 0 exp ( n τ 2 ),n=0,1,2,... τ 2 é uma outra constante de tempo do algoritmo SOM. Há duas fases do processo adaptativo: Fase de auto-organização ou de ordenação: primeira fase onde ocorre a ordenação topológica dos vetores de peso. Fase de convergência: segunda fase responsável por fazer uma sintonia fina do mapa de características. 14
15 Algoritmo Resumido do SOM 1.Inicialização: Escolha valores aleatórios e diferentes para os vetores de peso iniciais. 2.Amostragem: Retire uma amostra do espaço de entrada com certa probabilidade. 3.Casamento por Similaridade: Encontre o neurônio da grade com melhor casamento. 4.Atualização: Ajuste os vetores de peso sináptico de todos os neurônios com a fórmula de atualização. 5.Continuação: Continue com o passo 2 até que não sejam observadas modificações significativas no mapa de características. 15
16 Propriedades do Mapa de Características 1. Aproximação do Espaço de Entrada: O mapa de características ϕ, representado pelo conjunto de vetores de pesos sinápticos {w j } no espaço de saída A, fornece uma boa aproximação para o espaço de entrada H. 16
17 Propriedades do Mapa de Características 2. Ordenação Topológica: O mapa de características calculado pelo algoritmo SOM é ordenado de modo topológico, no sentido de que a localização espacial de um neurônio na grade corresponde a um domínio particular ou caraterística dos padrões de entrada. 3. Casamento de Densidade: O mapa de características replete variações na estatística da distribuição de entrada: Regiões do espaço de entrada são mapeados para domínios maiores do espaço de saída, obtendo maior resolução do que de onde foram retirados. 17
18 Propriedades do Mapa de Características 4. Seleção de Características A partir de dados do espaço de entrada com uma distribuição não linear, o mapa auto-organizável é capaz de selecionar um conjunto das melhores características para aproximar a distribuição subjacente. 18
19 Exemplos SOM Vídeo (SOM-Video.mp4) Exemplos no Octave/Matlab: Do livro: Haykin/run_som_1d.m Haykin/run_som_2d.m Extra (Churampi, UFSC): Somko.m 19
20 Exemplos: Mapas Contextuais 20
Mapas Auto-Organizáveis de Kohonen SOM
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: [email protected]
Redes Neurais não Supervisionadas: SOM
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais não Supervisionadas: SOM DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos
Introdução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Redes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy Mapas Auto-Organizáveis 1. O Mapa Auto-Organizável (SOM) Sistema auto-organizável inspirado no córtex cerebral. Nos mapas tonotópicos do córtex, p. ex., neurônios vizinhos
Capítulo 7. Mapas Auto-Organizados de Kohonen - SOM
Capítulo 7 Mapas Auto-Organizados de Kohonen - SOM Neste capítulo estudaremos um dos mais populares algoritmos na categoria de aprendizado não-supervisionado, as RNAs conhecidas como Mapas Auto-Organizados
Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida
Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida [email protected] Perceptron de Múltiplas Camadas
Aula 7 RNA Redes Auto-Organizáveis de Kohonen
2COP229 Aula 7 RNA Redes Auto-Organizáveis de Kohonen 2COP229 Sumário 1- Introdução 2- Processo de Aprendizado Competitivo 3- Mapas auto-organizáveis de Kohonen (SOM) 4- Projeto Prático 1-Introdução 2COP229
Self Organizing Maps - Redes de Kohonen
Self Organizing Maps - Redes de Kohonen 1. Redes auto organizáveis Existe uma classe de redes neurais artificias que possuem a capacidade de auto organização, sendo por isto chamadas de redes auto organizáveis.
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de
Redes Neurais Artificiais
Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais
Redes Neurais Artificiais
Universidade Federal do Espírito Santo CCENS UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais
Aprendizado de Máquina
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: [email protected]
Aprendizado de Máquina
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: [email protected]
Uso da Rede Neural Artificial Self Organizing Maps (SOM) na clusterização de dados meteorológicos
Trabalho apresentado no CMAC-Sul, Curitiba-PR, 2014. Uso da Rede Neural Artificial Self Organizing Maps (SOM) na clusterização de dados meteorológicos Jorge V. R. Bonato, Paulo H. Siqueira Programa de
Aprendizado de Máquina
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: [email protected]
Rede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva [email protected] Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
Mapas Auto Organizáveis SOMs Mapas de Kohonen
Mapas Auto Organizáveis SOMs Mapas de Kohonen PSI 2886 Princípios de Neurocomputação Edição de 2008 1 PSI 5886 Prof. Emilio Self Organizing Maps de Kohonen Estes slides foram usados nas aulas #8 e #9 na
Redes Neurais Artificiais
Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Inteligência Artificial
Paradigmas de Aprendizagem
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: [email protected]
MAPAS AUTO-ORGANIZÁVEIS PARA MODELAGEM CHUVA-VAZÃO. Farias, C. A. S.; Carneiro, T. C. & Lourenço, A. M. G.
MAPAS AUTO-ORGANIZÁVEIS PARA MODELAGEM CHUVA-VAZÃO Farias, C. A. S.; Carneiro, T. C. & Lourenço, A. M. G. Motivação O crescimento populacional e consequente aumento das demandas; A situação se agrava em
Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions
Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas
A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:
Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis
Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos
Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz
Agrupamento de Dados a partir de Mapas Auto-Organizáveis na Ferramenta YADMT. Thiago Magalhães Faino
UNIOESTE Universidade Estadual do Oeste do Paraná CENTRO DE CIÊNCIAS EXATAS E TECNOLÓGICAS Colegiado de Ciência da Computação Curso de Bacharelado em Ciência da Computação Agrupamento de Dados a partir
Redes Neurais Artificiais
Redes Neurais Artificiais Neurônio Natural Dendritos: recebe os estímulos transmitidos por outros neurônios Soma Sinapse Axônio Soma: coleta e combina informações vindas de outros neurônios Sinapse Dendrito
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas
Redes Neurais Dalma M. Falcão [email protected] http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs
Perceptron de Múltiplas Camadas e Backpropagation
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Perceptron de Múltiplas Camadas e Backpropagation Redes Neurais Artificiais Site: http://jeiks.net
3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina
Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)
SCC Capítulo 3 Aprendizado
Aprendizado Supervisionado Não Supervisionado Tarefas SCC-5809 - Capítulo 3 Aprendizado João Luís Garcia Rosa 1 1 SCC-ICMC-USP - [email protected] 2012 João Luís G. Rosa c 2012 - SCC-5809: Redes Neurais
Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana
Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)
Inteligência Computacional
Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma
Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Primeiras Redes Neurais Artificiais: Perceptron e Adaline
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor
Classificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva [email protected] Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Conceitos básicos Classificação não-supervisionada:
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Redes Neurais Noções Gerais
Redes Neurais Noções Gerais Segundo Loesch (apupt Fernandes), Redes Neurais Artificiais são sistemas computacionais, de implementação em hardware e software, que imitam as habilidades computacionais do
Redes Neurais Artificial. Prática. Inteligência Artificial
Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes
SCE 5809 REDES NEURAIS
Sistemas de SCE 5809 REDES NEURAIS Profa. Roseli Ap. Francelin Romero Os diversos sistemas de possuem características particulares e comuns que permitem sua classif.: linguagem de descrição modo paradigma
Rede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
Redes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
SEL-0339 Introdução à Visão Computacional. Aula 7 Reconhecimento de Objetos
Departamento de Engenharia Elétrica - EESC-USP SEL-0339 Introdução à Visão Computacional Aula 7 Reconhecimento de Objetos Prof. Dr. Marcelo Andrade da Costa Vieira Prof. Dr. Adilson Gonzaga [email protected]
Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
