Redes Neuronais (outras redes)

Documentos relacionados
HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Novas Tecnologias de Informação Licenciatura em Estatística e Gestão de Informação. Escolha uma e uma só resposta para cada uma das seguintes questões

Rede RBF (Radial Basis Function)

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Previsão de consumos a curto prazo

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

3 Redes Neurais Artificiais

2. Redes Neurais Artificiais

SOM Kohonen s Self- Organising Maps

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Cap.4 - Redes Neuronais SOM V 3.0, V.Lobo, EN/ISEGI, 2005

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Redes Competitivas e de Kohonen

SUPPORT VECTOR MACHINE - SVM

Mapas Auto Organizáveis SOMs Mapas de Kohonen

Modelos não recorrentes RNA Feed-Forward: MLP - Backpropagation, RProp,CasCor (HiperPlanos) RBF Radial Basis Function (Clusters)

Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos

João Paulo Teixeira Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Optimização da aplicação NNIG-Nets MLP e desenvolvimento da aplicação NNIG-Nets RBF

Aplicação de Redes Neuronais Artificiais no Comportamento da Precipitação em Portugal Continental.

Reconhecimento de Padrões/Objetos

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Inteligência Artificial Redes Neurais

Tópicos sobre Redes Neurais

Redes Neurais Artificiais

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995))

Redes Neurais não Supervisionadas: SOM

Clustering - c-means e Self Organizing Maps

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

4 Redes Neurais Artificiais

Redes neurais artificiais

Redes Neurais Artificial. Prática. Inteligência Artificial

Classificação Linear. André Tavares da Silva.

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio

2. Redes Neurais Artificiais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

Neural Networks. Neurônios: Elementos aritméticos simples. Redes Neuronais: conj de neurônios interligados.

REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM)

Redes Neuronais. Apontamentos Aulas TP de Inteligência Artificial LEI/ISEP Introdução às Redes Neuronais. Friday, April 5, 13

PCC146 RECONHECIMENTO DE PADRÕES Trabalho Pacial

Redes Neurais Artificiais

Reconhecimento de Caracteres Com Redes Neuronais. Trabalhos 1 e 2. APRENDIZAGEM COMPUTACIONAL 2007/2008 2º Semestre Francisco Moço

Redes Neurais Artificiais

APRENDIZADO EM MODELOS CONEXIONISTAS

Algoritmos de Aprendizado

MAPAS AUTO-ORGANIZÁVEIS PARA MODELAGEM CHUVA-VAZÃO. Farias, C. A. S.; Carneiro, T. C. & Lourenço, A. M. G.

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

REDES NEURONAIS Conceitos. Jorge M. Santos

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Introdução às Redes Neurais Artificiais

Inteligência Artificial Redes Neurais Artificiais

Aplicação de RNA nas áreas da Gestão de Ativos e da Modelação Hidrológica. José P. Matos EPFL Vitor Sousa IST António J.

2. Redes Neurais Artificiais

IF-705 Automação Inteligente Perceptrons de Múltiplas Camadas

Aprendizagem de Máquina

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Introdução à Mineração de Dados com Aplicações em Ciências Espaciais

Redes Neurais Artificiais

Redes Neurais e Sistemas Fuzzy

Mineração de Dados em Biologia Molecular

Capítulo 1. Redes Neuronais Artificiais - Origem, história e aplicações. ADC/DEI/FCTUC/CA/Cap.1/2005 1

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

5 Redes Neurais Artificiais

2 2 SIMPÓSIO BRASILEIRO DE AUTOMAÇÃO INTELIGENTE

Trabalho de IA - Redes Neurais: Multilayer Perceptron e16 Learning de março Vector de 2015 Quantization 1 / 28

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

é a distância entre um determinado ponto da linha

SOM Kohonen s Self- Organising Maps

Introdução à Mineração de Dados com Aplicações em Ciências Espaciais

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

por Marcos Pratas Lourenço Mestre em Estatística e Gestão da Informação pelo Instituto Superior de Estatística e Gestão de Informação

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Protótipo de Software para Reconhecimento de Impressões Digitais

Modelos ART Adaptive Ressonance Theory. Germano C. Vasconcelos Centro de Informática - UFPE

Aprendizagem de Máquina

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

C o m p u t a ç ã o M ó v e l. André Siqueira Ruela

Multiple Layer Perceptron

Aprendizado a partir de Dados 1 Semestre de Cleber Zanchettin UFPE - Universidade Federal de Pernambuco CIn - Centro de Informática

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Reconhecimento de Faces Utilizando Redes Neurais MLP

Redes Neurais Artificiais

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA

Redes Neurais Artificial

Classificação de arritmias em sinais ECG

Redes Neurais Artificiais

Exame de Aprendizagem Automática

Transcrição:

Redes Neuronais (outras redes) Victor Lobo Principais arquitecturas de redes Aprendizagem Supervisionada MLP com BP Multi-Layer Perceptron (perceptrão multicamada) Treinado com Backpropagation (retropropagação do erro) Variantes, vantagens, desvantagens, características... Aprendizagem Não Supervisionada SOM Self-Organizing Map (mapa auto-organizado) Variantes, vantagens, desvantagens, características... 1

LVQ Linear Vector Quantization LVQ Linear vector quantization Derivado do SOM, mas aplicado a aprendizagem supervisionada Neurónios recebem classes à partida Actualização do neurónio depende da classe do neurónio e da classe do novo exemplo Se a classe é a mesma, o neurónio é atraído Se a classe é diferente, o neurónio é repelido 2

Algoritmo de treino do LVQ Para cada padrão de entrada: 1) Calcular a distância entre o padrão de dados e todos os neurónios: (d ij = x k - w ij ) 2) Escolher o neurónio vencedor w winner ( w ij : d ij = min( d mn ) ) 3) Actualizar cada neurónio de acordo com a regra Para neurónis com a mesma classe do padrão w ij = w ij + α h(w winner,w ij ) x k w ij Para neurónis com uma classe diferente w ij = w ij - α h(w winner,w ij ) x k w ij 4)Repetir o processo até que um critério de paragem seja atingido. LVQ Inicialização do mapa É comum fazer um SOM primeiro Aprendizagem para cada novo exemplo Para neurónios com a mesma classe do padrão w ij = w ij + α h(w winner,w ij ) x k w ij Para neurónios com uma classe diferente w ij = w ij - α h(w winner,w ij ) x k w ij Resultado final Cada neurónio vai mapear uma só classe Maior separação entre classes 3

RBF Radial Basis Function Networks RBF Radial Basis Function Networks Radial Basis Functions Funções de base radial O valor da função depende da distância a uma referência, e assimptoticamente decresce com esta Também chamadas kernel functions Parametrizadas pela posição central, largura, e eventualmente forma 4

Topologia de uma RBF Função implementada f(x)=w 0 +Σw i K i (d(n i,x)) Saída=f(x) w 0 w 1 w 2 w 3 w i 1...... n 1 n 2 n 3 n i x Comparação MLP/RBF RBF só tem 1 camada escondida Cada neurónio num RBF é um detector, que define um circulo no espaço de entrada. Cada neurónio num MLP define um plano de separação. MLP usa produtos internos, RBF usa distâncias. MLP generaliza mais facilmente para zonas do espaço de entrada onde não há dados de treino. (RBF é uma aprendizagem mais localizada) 5

Implementação das RBF em SAS Objecto comum às MLP Escolher na opção Architecture RBF Equal Width Todos os neurónios têm a mesma função de activação, e só a colocação dos neurónios no espaço é aprendida Unequal Width O raio da cada RBF também é aprendido Em opções avançadas Escolher função de activação Vários tipos de funções possíveis Redes para séries temporais 6

Tempo embitido (embedded) Dividir a série temporal em vectores de n valores (atributos) + 1 valor alvo x 2 y2 10 25 32 23 9 27 35 26 x 1 y 1 y 3 x 3 Usar uma transformação para outro espaço (por exemplo, transformada de Fourier ou Wavelets) Redes recorrentes Usam malhas de atraso na própria rede Z -1 w 2 x w 1 F(.) 1 w 0 NARX Non-linear Auto-Regressive with exogenous inputs 7

Redes de Hopfield Para treinar Forçar um padrão, e minimizar erros Para associar Dar parte de um padrão, e a rede converge para um estado onde o resto do padrão é definido Z -1 Z -1 Z -1 Trajectórias no espaço de pesos Aprendizagem Hebbiana Se dois neurónios são activados ao mesmo tempo, as ligações entre eles deverão ser reforçadas Aprendizagem Reforçar/enfraquecer ligações Utilização Dar parte do padrão e associar o resto 8