Perceptron de Múltiplas Camadas e Backpropagation

Documentos relacionados
Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Inteligência Artificial Redes Neurais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

3 Redes Neurais Artificiais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Introdução às Redes Neurais Artificiais

Redes Neurais MLP: Exemplos e Características

Rede RBF (Radial Basis Function)

2. Redes Neurais Artificiais

REDES NEURAIS ARTIFICIAIS

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

2. Redes Neurais Artificiais

Aprendizado de Máquina (Machine Learning)

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Redes Neurais Artificiais

Classificação Linear. André Tavares da Silva.

Aprendizado de Máquina

Redes Neurais Artificiais

Relatório da Aula Prática sobre Redes Neurais Artificiais

Mineração de Dados em Biologia Molecular

Multiple Layer Perceptron

Redes Neurais Artificiais

Paradigmas de Aprendizagem

4 Redes Neurais Artificiais

Redes Neurais Artificiais

Por que Redes Neurais?

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA

2. Redes Neurais Artificiais

Mapas Auto-Organizáveis de Kohonen SOM

Aprendizado de Máquina

Lista 2 Sistemas Inteligentes (INE5633) 2014s2

Inteligência Computacional

Mapas Auto-Organizáveis de Kohonen SOM

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Redes Neurais Artificiais

INTELIGÊNCIA ARTIFICIAL

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

Redes Neurais Artificial

Predição genômica de caracteres quantitativos por meio de Redes Neurais Artificias

Fundamentos de Inteligência Artificial [5COP099]

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela

GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS

Redes Neurais Artificiais

Redes Neurais e Sistemas Fuzzy

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

MLP (Multi Layer Perceptron)

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Redes Neurais Artificiais. Professor: Juan Moises Villanueva

Redes Neurais Artificiais

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Previsão de consumos a curto prazo

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Introdução às Redes Neurais Artificiais

Aprendizado a partir de Dados 1 Semestre de Cleber Zanchettin UFPE - Universidade Federal de Pernambuco CIn - Centro de Informática

Rede Perceptron. Capítulo 3

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais Convolucionais

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Transcrição:

Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Perceptron de Múltiplas Camadas e Backpropagation Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Perceptron de Múltiplas Camadas O Perceptron simples não consegue trabalhar com sistemas não lineares. Porém, o Perceptron de Múltiplas Camadas consegue efetuar o mapeamento não linear do espaço de entrada X para o espaço de saída y. Para resolver o problema do XOR (ou exclusivo) foi utilizado um Perceptron de uma camada intermediária (oculta) e uma função ed ativação de sinal (sgn). 2

MLP XOR Perceptron de Múltiplas Camadas (MLP Multi-Layer Perceptron) x 1 x 2 XOR -1-1 -1-1 1 1 1-1 1 1 1-1 Vamos trabalhar na implementação de uma Função Discriminativa Não-Linear usando uma camada intermediária que realiza o mapeamento não linear. 3

MLP XOR y. Φ(x)=( Φ 0(x) Φ 1 ( Φ 2 (x)) = ( Φ0(x0; x1; x2) Φ 1 (x 0 ; x 1 ; x 2 ) Φ 2 (x 0 ; x 1 ; x 2 )) Φ 0 = 1 ɸ 1 ɸ 2 Φ 0 (x)=1 Φ 1 (x)=sgn ( 1 2. x 0 +1. x 1 +1. x 2) X 0 =1 X 1 X 2 Φ 2 (x)=sgn ( 3 2. x 0+1. x 1 +1. x 2 ) y=sgn ( 1.Φ 0 +0,7.Φ 1 (x) 0,4.Φ 2 (x)) Abra o Octave, crie o vetores X, y, y_est, W, W_y, e teste essa RNA e suas sinapses. 4

MLP XOR x1 x2 Φ 0 Φ 1 Φ 2-1 -1 1-3/2-7/2-1 1 1 1/2-3/2 1-1 1 1/2-3/2 1 1 1 5/2 1/2 5

Perceptron de Múltiplas Camadas Em geral, o perceptron com uma camada oculta calcula: H y i (x)=z i (W i. Φ(x))=Z i( k=0 H =Z i( k=0 H =Z i( k=0 W ik. F (W k. x)) d W ik. F ( j=0 W ik.φ k (x)) W kj. x j )) sendo: Z função de saída e F função da camada oculta 6

Perceptron de Múltiplas Camadas No modelo totalmente conectado, a função de ativação é igual para todos os neurônios da mesma camada. Características das funções Z e F: Deve ser não linear em pelo menos uma camada oculta; Deve ser diferenciável: Z'(a) deve existir. A camada oculta implementa a função de base ϕk (x); A função base não é fixa, sendo então adaptável: Poder de cálculo do MLP. 7

Backpropagation Vamos ver o funcionamento iterativo do backpropagation utilizando a referência de Mariusz Bernacki, Przemysław Włodarczyk, (2005) http://home.agh.edu.pl/~vlsi/ai/backp_t_en/backprop.html 8

Rede Neural Utilizada 9

Calculando a saída desejada... 10

Calculando a saída desejada... 11

Calculando a saída desejada... 12

Calculando o erro da saída 13

Retrocedendo com o Erro... 14

Retrocedendo com o Erro... 15

Atualizando os pesos... 16

Atualizando os pesos... 17

Atualizando os pesos... 18

Regra de ajuste do peso Considere: i,..., c: índice dos neurônios da camada de saída; h,, H: índice dos neurônios da camada oculta; j,, d: índice dos neurônios da camada de entrada. Sensibilidade: A S (sensibilidade) do neurônio i descreve como o erro global E(w) muda o valor de net i. A regra de ajuste do peso utiliza a sensibilidade de cada neurônio. Seu cálculo será adicionado no algoritmo... 19

Feed Forward: Alimentação Adiante // Entrada para Oculta Para h=0,..., H net h 0 Para j=0,...,d net h net h +W hj X j Fim Para Φ h Z (net h ) Fim Para // Oculta para Saída Para i=0,...,c net i 0 Para h=0,..., H net i net i +W ih Φ h Fim Para y i Z (net i ) Fim Para 20

Backpropagation Inicialização aleatória dos pesos W' e W, onde W i =1 e W h =1 Para todos os padrões X (k),k=1,...,n, em ordem aleatória : Feedfoward de X (k) : ŷ(x (k) ) Para i=1,...,c : δ i (k) = y i (k ) ŷ i (x (k) ) // Erro na saída i do padrão k S (k) i 2.δ (k) i. Z ' (net (k) i ) // Sensibilidade Para h=0,..., H : w novo ih w velho ih +η.s (k) i.z (net (k) Φ h ) h (X (k) ) // Adaptar os pesos de entrada para a camada oculta W' Para h=1,..., H : aux 0 Para i=0,...,c : aux aux+w velho (k) ih. S i Para j=0,...,d : w novo hj w velho hj +η.s (k) (k) h. X j 21

Metodologia de Treinamento Deve-se realizar a divisão do conjunto de dados dos n padrões X (k), k=1,, n em três conjuntos de dados: Treinar com 75% dos exemplos; Validar com 15% dos exemplos; Testar com 15% dos exemplos. Obs.: Essas porcentagens são as padrões do Matlab, mas podem ser alteradas. Antes, os dados devem ser normalizados ou estandardizados: Normalização: X = ( X min(x) ) / ( max(x) min(x) ) Estandardização: X = (X média(x) ) / σ(x). 22