2. Redes Neurais Artificiais

Documentos relacionados
2. Redes Neurais Artificiais

2. Redes Neurais Artificiais

Redes Neurais e Sistemas Fuzzy

Introdução às Redes Neurais Artificiais

SCC Capítulo 4 Perceptron de Camada Única

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais

Inteligência Artificial Redes Neurais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Rede Perceptron. Capítulo 3

Fundamentos de Inteligência Artificial [5COP099]

3. REDES DE CAMADA ÚNICA

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Rede RBF (Radial Basis Function)

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Classificadores Lineares

2. Redes Neurais Artificiais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais e Sistemas Fuzzy

2. Redes Neurais Artificiais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

INF 1771 Inteligência Artificial

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Classificação Linear. André Tavares da Silva.

Reconhecimento de Padrões/Objetos

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

Introdução às Redes Neurais Artificiais

Redes Neurais MLP: Exemplos e Características

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

REDES NEURAIS ARTIFICIAIS

Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação. Perceptron

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

Inteligência Computacional

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Redes Neurais Artificiais

Aprendizado de Máquinas. Classificadores Lineares

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

JAI 6 - Deep Learning Teoria e Prática

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

3 Redes Neurais Artificiais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

Multiple Layer Perceptron

Perceptrons. Introdução

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

Perceptron de Múltiplas Camadas e Backpropagation

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Redes Neurais Artificiais - Introdução. Visão Computacional

Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0. Classificação. David Menotti.

Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0. Classificação. David Menotti.

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Aprendizagem de Máquina

Aprendizagem de Máquina

Redes Neurais Artificial. Prática. Inteligência Artificial

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Redes Neurais Artificiais (RNA)

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS

Redes Neurais Artificial

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados

Variações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa

Redes Neurais. A IA clássica segue o paradigma da computação simbólica

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Aprendizagem de Máquina

Echo State Networks. Fabricio Breve João Bertini

Aprendizagem por treinamento de redes de aproximação

CENTRO UNIVERSITÁRIO DO LESTE DE MINAS GERAIS UnilesteMG Disciplina: Introdução à Inteligência Artificial Curso: Sistemas de Informação

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Redes Neurais não Supervisionadas: SOM

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela

Felix da Cunha 412, Pelotas RS Home-Page: s: Bolsista BIC/FAPERGS

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs)

Método de Newton truncado

2. Redes Neurais Artificiais

Redes Neurais Artificiais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

O método da falsa posição

Redes Competitivas e de Kohonen

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO

Transcrição:

Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1

2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron 2.2.3. Aprendizado 2.2.4. Teorema da convergência 2.2.5. Alguns aspectos do problema de reconhecimento de padrões 2

2.2.3. Aprendizado Suponha que as variáveis de entrada se originem de duas classes C 1 e C 2 linearmente separáveis O problema do aprendizado do perceptron (treinamento) consiste em encontrar um conjunto de pesos e bias que definem um hiperplano que separe linearmente os vetores de entrada das classes C 1 e C 2 w w Isto é, um vetor de pesos w e um bias w 0 tal que T T x w x w 0 0 0 0,, para para todo todo x pertencent e à classe x pertencent e à classe C C 1 2 (2.2.12) 3

Para isso, um conjunto com padrões para o treinamento do perceptron é definido Conjunto de treinamento T» Conjunto de pares entrada x(n) e saída desejada d (n) O conjunto de treinamento T é composto por dois subconjuntos T 1 composto por vetores de entrada que pertencem à classe C 1 2.2.3. Aprendizado T 2 composto por pares entrada que pertencem à classe C 2 4

2.2.3. Aprendizado Antes de apresentarmos a estratégia de treinamento, vamos definir o padrão de treinamento e o vetor de pesos na n-ésima iteração do algoritmo como x n 1 x1 n x 2 n xm n n n n n w0 w1 w 2 wm n Note que o bias agora é visto como um peso A saída do k-ésimo neurônio será dada por y k n w u n wn T xn k (2.2.13) (2.2.14) 5

2.2.3. Aprendizado Estratégia de aprendizado para duas classes 1. Se o padrão de treinamento x(n) é corretamente classificado utilizando-se o vetor de pesos w(n) calculado na n- ésima iteração do algoritmo, então o vetor de pesos não é corrigido. Ou seja, w w n 1 wn T, se wn xn 0 e xn n 1 wn T, se wn xn 0 e xn pertence pertence à classe C à classe C 1 2 (2.2.15) 6

2.2.3. Aprendizado w w Estratégia de aprendizado 2. Caso contrário, o vetor de pesos é atualizado de acordo com n 1 wnn xn T, se wn xn 0 e xn n 1 wnn xn T, se wn xn 0 e xn pertence à classe C pertence à classe C1 (2.2.16) na qual (n) é a taxa de aprendizagem, que controla o ajuste aplicado ao vetor de pesos na iteração n. Se (n) = > 0, na qual é uma constante, temos uma regra de adaptação com incremento fixo para o perceptron. 7 2

2.2.3. Aprendizado Usando-se a função sinal como ativação e considerando a taxa de aprendizagem fixa, podemos simplificar a regra de ajuste de pesos através de y d na qual n w 1 1 n 1 wn d n yn xn T n wn xn, se x, se x n n T 1 se w n x n T 1 se wn x n pertence à classe C pertence à classe C 1 2 0 0 (2.2.17) (2.2.18) 8

Regra de adaptação com incremento fixo Proposta por Rosenblatt em 1958 2.2.3. Aprendizado Guarda uma certa semelhança com a Regra Delta» A Regra Delta utiliza o conceito do gradiente descendente do erro médio quadrático 9

2.2.3. Aprendizado Algoritmo perceptron ( X T, d T, ) // inicialização dos pesos w 0 n 1 faça // ativação do neurônio (saída) y (n) ( w T x (n) ) // ajuste de pesos w w + [ d (n) y (n) ] x (n) n n+1 enquanto ( erro na classificação não é aceitável ) 10

No algoritmo anterior, O conjunto de treinamento T tem N padrões. Ou seja X T T x 1 T x N d1 d N O vetor de entradas x(n) e a saída desejada d(n) podem ser obtidas a partir de X T e d T através de d T 2.2.3. Aprendizado (2.2.19) x(n) = x t, d(n) = d t na qual t = mod(n-1,n)+1 O erro é dado por e n dn yn (2.2.20) 11

Escolha da taxa de aprendizagem Deve se restrita ao intervalo 0 < 1 baixa:» adaptação mais lenta» a mudança dos pesos é mais estável alta: 2.2.3. Aprendizado» adaptação mais rápida» a mudança dos pesos é menos estável 12

Exemplo 2.2. Treine o perceptron para o problema de classificação da função AND Padrão x 1 x 2 Classe d 1 0 0 C 1 1 2 0 1 C 1 1 3 1 0 C 1 1 4 (N) 1 1 C 2-1 x 0 (n) = +1 2.2.3. Aprendizado x 1 (n) x 2 (n) y 13

erro medio quadratico Exemplo 2.2. função AND Taxa de aprendizagem» = 0,01 Pesos 2.2.3. Aprendizado 3 2.5 2 1.5 1 0.5 0 0 2 4 6 8 10 12 14 16 18 iteracao Columns 1 through 8 0 0.0200 0.0200 0.0200 0 0.0200 0.0400 0.0400 0 0 0 0-0.0200-0.0200-0.0200-0.0200 0 0 0 0-0.0200-0.0200 0 0 Columns 9 through 16 0.0200 0.0200 0.0400 0.0600 0.0400 0.0400 0.0400 0.0600-0.0400-0.0400-0.0400-0.0200-0.0400-0.0400-0.0400-0.0200-0.0200-0.0200 0 0-0.0200-0.0200-0.0200-0.0200 Columns 17 through 19 0.0400 0.0400 0.0600-0.0400-0.0400-0.0400-0.0400-0.0400-0.0200 14

x2 2.2.3. Aprendizado Exemplo 2.2. função AND Iteração 18: Erro médio quadrático = 0 1.5 C 1 C 2 1 0.5 0-0.5-0.4-0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 x1 15

2.2.3. Aprendizado Exemplo 2.2.3. 2 3 1 5 4 8 6 7 16

Exercício 2.2.1. Treine o perceptron para o problema de classificação da função OR Padrão x 1 x 2 Classe d 1 0 0 C 1 1 2 0 1 C 2-1 3 1 0 C 2-1 4 (N) 1 1 C 2-1 2.2.3. Aprendizado 17

2.2.3. Aprendizado A convergência da regra de adaptação com incremento fixo para o perceptron pode ser provada As provas de convergência são em geral apresentadas para igual a 1 O valor de não é importante, desde que seja positivo» Valores de diferentes de 1 meramente escalam os vetores de entrada sem afetar sua separabilidade 18

2.2.4. Teorema da Convergência Teorema da Convergência para a regra de adaptação com incremento fixo Sejam os subconjuntos de vetores de treinamento T 1 e T 2 linearmente separáveis. Suponha que as entradas apresentadas ao perceptron se originem destes dois subconjuntos. O perceptron converge após n o iterações, significando que w(n o ) = w(n o +1) = w(n o +2) =... é a solução para n o n max. Prova: ver [HAYKIN, 2001], Seção 3.1, p. 163-169. 19

2.2.5. Alguns Aspectos do Problema de Reconhecimento de Padrões Exemplo 2.2.3. Problema de classificação da função XOR Padrão x 1 x 2 Classe d 1 0 0 C 2-1 2 0 1 C 1 1 3 1 0 C 1 1 4 (N) 1 1 C 2-1 20

2.2.5. Alguns Aspectos do Problema de Reconhecimento de Padrões Exemplo 2.2.3. Problema de classificação da função XOR x 2 1 0 0 1 x 1 21

2.2.5. Alguns Aspectos do Problema de Reconhecimento de Padrões O perceptron não consegue resolver problemas de classificação que não são linearmente separáveis Exemplo: função XOR Este problema advém do fato de cada perceptron gerar apenar um hiperplano (e conseqüentemente uma FD) É possível gerar mais de um hiperplano se utilizarmos mais de um perceptron (neurônio) em uma única camada» No entanto, ainda teríamos o problema de como associar as diferentes regiões produzidas pelas FD com as diferentes classes Então, como seria possível resolver este problema? 22

Comentários Referências Haykin, S. S.. Redes neurais: princípios e prática. 2ª ed., Bookman, 2001.» Capítulo 3 Príncipe, J. C.; Euliano, N. R. & Lefebvre, W. C. Neural and Adaptive Systems: Fundamentals Through Simulations. John Wiley & Sons, Inc. 2000» Seções 3.1 3.3 Braga, A.P.; Carvalho, C.P.L.F. & Ludermir, T.B.. Redes neurais artificiais: Teoria e Aplicações. LTC, 2000. Capítulo 3 23