3. REDES DE CAMADA ÚNICA



Documentos relacionados
MLP (Multi Layer Perceptron)

2. Redes Neurais Artificiais

Relatório da Aula Prática sobre Redes Neurais Artificiais

Modelos Pioneiros de Aprendizado

Projeto de Redes Neurais e MATLAB

Matlab - Neural Networw Toolbox. Ana Lívia Soares Silva de Almeida

Inteligência Artificial. Redes Neurais Artificiais

Redes Neurais. Mapas Auto-Organizáveis. 1. O Mapa Auto-Organizável (SOM) Prof. Paulo Martins Engel. Formação auto-organizada de mapas sensoriais

SCC Capítulo 4 Perceptron de Camada Única

Redes Neurais Artificiais

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 20 - Backpropagation

Aula 2 RNA Arquiteturas e Treinamento

Redes Neurais no MATLAB 6.1

Redes Neurais. A IA clássica segue o paradigma da computação simbólica

RNAs, Classificação de Padrões e Motivação Geométrica. Conteúdo

PP 301 Engenharia de Reservatórios I 11/05/2011

Aplicações Práticas com Redes Neurais Artificiais em Java

UMA ABORDAGEM DE PODA PARA MÁQUINAS DE APRENDIZADO EXTREMO VIA ALGORITMOS GENÉTICOS

Introdução às Redes Neurais Artificiais

Revista Hispeci & Lema On Line ano III n.3 nov ISSN unifafibe.com.br/hispecielemaonline Centro Universitário UNIFAFIBE Bebedouro-SP

OTIMIZAÇÃO DE REDES NEURAIS PARA PREVISÃO DE SÉRIES TEMPORAIS

3 Metodologia de Previsão de Padrões de Falha

[1] Na terceira sessão, analisamos o Perceptron de Múltiplas Camadas inclusive um problema típico como o XOR.

TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE

Redes Neurais e Sistemas Fuzzy

Do neurônio biológico ao neurônio das redes neurais artificiais

CÁLCULO DE ZEROS DE FUNÇÕES REAIS

UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS

Automatização do processo de determinação do número de ciclos de treinamento de uma Rede Neural Artificial

Análise de Regressão. Tópicos Avançados em Avaliação de Desempenho. Cleber Moura Edson Samuel Jr

Redes Neurais Construtivas. Germano Crispim Vasconcelos Centro de Informática - UFPE

Previsão do Índice da Bolsa de Valores do Estado de São Paulo utilizandoredes Neurais Artificiais

Aprendizagem de Máquina

Universidade Federal de São Carlos Centro de Ciências Exatas e de Tecnologia Programa de Pós Graduação em Estatística Departamento de Estatística

Previsão do Mercado de Ações Brasileiro utilizando Redes Neurais Artificiais

Aula 20. Roteamento em Redes de Dados. Eytan Modiano MIT

Apresentação final do Trabalho de Conclusão -Novembro Autenticação On-line de assinaturas utilizando Redes Neurais. Milton Roberto Heinen

Palavras-chave: Mortalidade Infantil, Análise Multivariada, Redes Neurais.

2. Redes Neurais Artificiais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Classificação Linear. André Tavares da Silva.

computador-cálculo numérico perfeita. As fases na resolução de um problema real podem, de modo geral, ser colocadas na seguinte ordem:

Conteúdo. Disciplina: INF Engenharia de Software. Monalessa Perini Barcellos

Lista de Exercícios Tratamento de Incerteza baseado em Probabilidade

Método de Eliminação de Gauss. Eduardo Camponogara

Perceptrons. Introdução

Redes Neurais. Profa. Flavia Cristina Bernardini

Análise de componentes principais (PCA)

Algoritmos Indutores de Árvores de

CI202 - Métodos Numéricos

Universidade Federal de Uberlândia Brasil

Tópico 8. Aula Prática: Movimento retilíneo uniforme e uniformemente variado (Trilho de ar)

Redes Neurais Artificiais na Engenharia Nuclear 2 Aula-1 Ano: 2005

MINERAÇÃO DE DADOS APLICADA. Pedro Henrique Bragioni Las Casas

REDES NEURAIS ARTIFICIAIS APLICADAS NA DETECÇÃO, CLASSIFICAÇÃO E LOCALIZAÇÃO DE DEFEITOS EM LINHAS DE TRANSMISSÃO ÂNGELO ROCHA DE OLIVEIRA

SIS 0011 Sistema de Visão com Perceptron Lento

As fases na resolução de um problema real podem, de modo geral, ser colocadas na seguinte ordem:

Reconhecimento de Faces Utilizando Redes Neurais Autoassociativas

KDD. Fases limpeza etc. Datamining OBJETIVOS PRIMÁRIOS. Conceitos o que é?

Roteamento em Redes de Computadores

O QUE É E COMO FUNCIONA O CREDIT SCORING PARTE I

Inteligência Artificial Redes Neurais

Revisão Inteligência Artificial ENADE. Prof a Fabiana Lorenzi Outubro/2011

IC Inteligência Computacional Redes Neurais. Redes Neurais

Tópico 11. Aula Teórica/Prática: O Método dos Mínimos Quadrados e Linearização de Funções

Uma Ferramenta para otimização em Engenharia Mecânica e aplicações na Fundição Eletromagnética de Metais

Correlação Canônica. Outubro / Versão preliminar. Fabio Vessoni. fabio@mv2.com.br (011) MV2 Sistemas de Informação

Comparação entre as Redes Neurais Artificiais MLP, RBF e LVQ na Classificação de Dados. Fernando Nunes Bonifácio

Curso: Redes II (Heterogênea e Convergente) Tema da Aula: Controle de Congestionamento

TRANSMISSÃO DE DADOS Prof. Ricardo Rodrigues Barcelar

Para entender como funciona um perceptron, vamos continuar considerando um perceptron com somente duas entradas, x 1 e x 2, e uma saída s.

Faculdade de Engenharia Optimização. Prof. Doutor Engº Jorge Nhambiu

Algoritmos Construtivos. Prof. Júlio Cesar Nievola PPGIA PUCPR Especialização em Inteligência Computacional

TÍTULO: PROPOSTA DE METODOLOGIA BASEADA EM REDES NEURAIS ARTIFICIAIS MLP PARA A PROTEÇÃO DIFERENCIAL DE TRANSFORMADORES DE POTÊNCIA

INF 1771 Inteligência Artificial

PALAVRAS-CHAVE: Massas Nodulares, Classificação de Padrões, Redes Multi- Layer Perceptron.

Redes neurais aplicadas na identificação de variedades de soja

Redes Neurais Artificiais: Funções de Base Radial

Sumário 1 Folhas de Cálculo Gráficos Funções... 61

Comparação entre a Máscara de Nitidez Cúbica e o Laplaciano para Realce de Imagens Digitais

Aprendizagem de Máquina

Prof. MSc. Herivelto Tiago Marcondes dos Santos FACULDADE DE TECNOLOGIA DE GUARATINGUETÁ PROF. JOÃO MOD

ANÁLISE DE CRÉDITO AO CONSUMIDOR UTILIZANDO REDES NEURAIS

Nathalie Portugal Vargas

Operações Algébricas e Lógicas. Guillermo Cámara-Chávez

Método de Monte Carlo e ISO

DESENVOLVIMENTO DE FERRAMENTA COMPUTACIONAL PARA PROJETOS DE REDES NEURAIS ARTIFICIAIS

CFTV DE BRINQUEDO X PROFISSIONAL O QUE DEVEMOS PERGUNTAR???

Aula 7 Valores Máximo e Mínimo (e Pontos de Sela)

Apresentação MATLAB Simulink & Toolboxes

4 Segmentação Algoritmo proposto

A Curva de Lorenz e o Índice de Gini

Prof. Júlio Cesar Nievola Data Mining PPGIa PUCPR

Sua indústria. Seu show. Seu Futuro

NeuroFURG: uma ferramenta de apoio ao ensino de Redes Neurais Artificiais

Clube UOL Parceria Comercial Com Site Leilão de Prêmios

Transcrição:

3. REDES DE CAMADA ÚNICA Perceptron Forma mais simples de RN Utilizado para classificação de padrões (linearmente separáveis) Consiste em um único neurônio, com pesos sinápticos ajustáveis e bias 3.1 Funções Discriminantes Lineares a) Para Duas Classes de Padrões Função discriminante: y(x) = w T x + w 0 Onde: w T = Vetor de pesos w 0 = Bias Se: y(x) > 0, então x pertence a C 1 y(x) < 0, então x pertence a C 2 A fronteira entre as duas classes é chamada de hiperplano. Saída y w 0 w 1 w m Bias... x 0 x 1 x m 22

x 2 Classe C 1 Classe C 2 0 x 1 Fronteira de decisão (hiperplano) b) Para diversas classes: A equação anterior pode ser facilmente adaptada para a divisão dos padrões em k classes: ou, y k (x) = w T x + w k0 y k (x) = Σ w ki. x i + w k0 onde x pertence à classe C k se y k (x) > y j (x) para todo j k. y 1 Saídas... y c Bias x 0 x 1... x m 23

c) Discriminante Logístico: Neste caso: y= g(a) = 1/(1 + exp(-a)) Onde: a = w T x + w 0 Pode-se adotar: g(a) = 0, quando a<0 1, quando a>= 0 3.2 Separabilidade Linear Até o momento fronteiras de decisão separadas por retas ou hiperplanos Limitação das redes de apenas uma camada 24

Caso do OU exclusivo (XOR): Seja o vetor de entradas X: 0 0 0 1 X = 1 0 1 1 sendo que para: x = (0,0) ou (1,1) pertence C 1 x = (0,1) ou (1,0) pertence C 2 x 2 C 2 C 1 C 1 C 2 Não há como dividir as classes com hiperplanos (retas). x 1 3.3 Algoritmo do Mínimo Quadrado Médio (LMS) Treinamento das redes de camada única Minimização da função de custo, ou seja, da soma dos erros quadráticos (instantâneos!) 25

E(w) = ½. e 2 (n) onde e(n) é o sinal de erro medido no tempo n. Tendo-se como sinal de erro: e(n) = d(n) x T (n) w(n) Pode-se chegar então aos valores de estimativa dos pesos sinápticos: w(n+1) = w(n) + η. x(n). e(n) onde η é a taxa de aprendizado. Geralmente, o algoritmo LMS converge com valores de taxa de aprendizado: 0< η < 2/tr[R x ] onde tr[r x ] é o traço da matriz de correlação. Obs: Traço é a soma dos elementos da diagonal principal de uma matriz. Assim, tr[r x ] será igual à soma dos valores médios quadráticos das entradas sensoriais. 26

Vantagens deste algoritmo: - Simples; - Independente de modelo; - Robusto (suporta pequenas perturbações) Limitações: - Taxa de convergência lenta; - Sensibilidade a variações na auto-estrutura da entrada (auto-valores da matriz de correlação R). Ao invés de manter η constante ao longo de todo o processo de treinamento, pode-se fazer: a) η(n) = c/n, onde c é uma constante. Mas, cuidado: η pode disparar para n pequeno! b) η(n) = η 0 /[1+(n/τ)], onde η 0 e τ são constantes definidas pelo usuário. 3.4 O Perceptron (ou Perceptron de Rosenblatt) Construído em torno de um neurônio não linear. x 1 x 2 w 2 w 1 Bias, b v ϕ(v) Saída y Limitador abrupto x m w m 27

v = Σ w i.x i + b y = ϕ (v) = +1, se o ponto pertencer à classe C 1 = -1, se o ponto pertencer à classe C 2 Através do Teorema de Convergência do Perceptron, chega-se aos ajustes dos pesos sinápticos: w(n+1) = w(n) + η [ d(n) y(n)]. x(n) onde: η é a taxa de aprendizado (0<η<=1) d(n) y(n) pode ser considerado o sinal de erro. 28

3.5 Perceptron x Algoritmo LMS Diferenças entre Filtro com Algoritmo LMS e Perceptron de camada única baseado em aprendizado por correção de erro: - Algoritmo LMS Utiliza neurônio linear Ocorre aprendizagem contínua (acontece enquanto o processamento do sinal está sendo realizado, ou seja, nunca acaba) - Perceptron Usa modelo formal de um neurônio de McCulloch-Pitts; Processo de aprendizado com um número finito de iterações. 29