Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 20 - Backpropagation



Documentos relacionados
MLP (Multi Layer Perceptron)

Aula 2 RNA Arquiteturas e Treinamento

Inteligência Artificial. Redes Neurais Artificiais

Projeto de Redes Neurais e MATLAB

1ª PROVA ICIN 1º/2015

Redes Neurais Artificiais: Funções de Base Radial

3. REDES DE CAMADA ÚNICA

Redes Neurais Construtivas. Germano Crispim Vasconcelos Centro de Informática - UFPE

Matlab - Neural Networw Toolbox. Ana Lívia Soares Silva de Almeida

Algoritmos Construtivos. Prof. Júlio Cesar Nievola PPGIA PUCPR Especialização em Inteligência Computacional

Modelos Pioneiros de Aprendizado

Complemento II Noções Introdutória em Redes Neurais

Atmosfera Padrão. Atmosfera Padrão

Redes Neurais. Profa. Flavia Cristina Bernardini

Relatório da Aula Prática sobre Redes Neurais Artificiais

RESOLUÇÃO - 1ª PROVA ICIN 2º/2012

out II - Algoritmo Back-Propagation II - Algoritmo BackPropagation II - Algoritmo Back-Propagation Modelo de Rede Neural com Multiplas Camadas

Gestão de Riscos e Investimentos

Redes Neurais Artificial. Prática. Inteligência Artificial

Previsão do Mercado de Ações Brasileiro utilizando Redes Neurais Artificiais

a) a soma de dois números pares é par. b) a soma de dois números ímpares é par. c) a soma de um número par com um número ímpar é ímpar.

Introdução Ligação direta Ligação direta Default

UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS

Aprendizagem de Máquina

PROVA DE FÍSICA 2º ANO - ACUMULATIVA - 2º TRIMESTRE TIPO A

3 Redes Neurais Artificiais

UNIVERSIDADE FEDERAL RURAL DE PERNAMBUCO DEPARTAMENTO DE FÍSICA E MATEMÁTICA

Aprendizagem de Máquina

Aplicação de Técnicas de Mineração de Dados em Problemas de Classificação de Padrões

Aplicações Práticas com Redes Neurais Artificiais em Java

Mineração de Dados em Biologia Molecular

COMPONENTES BÁSICOS DE

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Neste pequeno artigo resolveremos o problema 2 da USAMO (USA Mathematical Olympiad) 2005: (x 3 + 1)(x 3 + y) = (x 3 + y)(1 + y) = z 9

PROJETO DE REDES

Probabilidade parte 2. Robério Satyro

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

PESQUISA OPERACIONAL -OTIMIZAÇÃO COMBINATÓRIA PROBLEMAS DE OTIMIZAÇÃO EM REDES. Prof. Angelo Augusto Frozza, M.Sc.

OTIMIZAÇÃO DE REDES NEURAIS PARA PREVISÃO DE SÉRIES TEMPORAIS

2. Redes Neurais Artificiais

Outras Técnicas que Utilizam o Escore de Propensão

Redes Neurais no MATLAB 6.1

Redes Neurais Artificiais

Figura 5.1.Modelo não linear de um neurônio j da camada k+1. Fonte: HAYKIN, 2001

P(seleção de um elemento baixo) = p P(seleção de um elemento médio) = p. P(seleção de um elemento alto) = p

Redes Neurais Artificiais

Redes Neurais. A IA clássica segue o paradigma da computação simbólica

RENATO DE FREITAS LARA. Departamento de Ciência da Computação - Universidade Presidente Antônio Carlos (UNIPAC) - Barbacena - MG Brasil

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Fundamentos de Inteligência Artificial [5COP099]

A metodologia utilizada neste trabalho consiste basicamente de três etapas: ensaio, pré-processamento e simulações.

Modelos não recorrentes RNA Feed-Forward: MLP - Backpropagation, RProp,CasCor (HiperPlanos) RBF Radial Basis Function (Clusters)

Segunda aula de mecânica dos fluidos básica. Estática dos Fluidos capítulo 2 do livro do professor Franco Brunetti

Inteligência Artificial Redes Neurais

Há dois tipos de configurações bidirecionais usados na comunicação em uma rede Ethernet:

TÍTULO: PROPOSTA DE METODOLOGIA BASEADA EM REDES NEURAIS ARTIFICIAIS MLP PARA A PROTEÇÃO DIFERENCIAL DE TRANSFORMADORES DE POTÊNCIA

Relatório Iniciação Científica

Redes Neurais Artificiais na Engenharia Nuclear 2 Aula-1 Ano: 2005

Introdução às Redes Neurais Artificiais

O USO DE REDES NEURAIS ARTIFICIAIS NO DIAGNÓSTICO PREDITIVO DOS TIPOS MAIS FREQÜENTES DE CEFALÉIA

Árvores Binárias de Pesquisa. Programação II Prof. Mateus Raeder. Árvores Binárias de Pesquisa. Árvores Binárias de Pesquisa. Classe Nodo Binário

5º CONGRESSO BRASILEIRO DE PESQUISA E DESENVOLVIMENTO EM PETRÓLEO E GÁS

Previsão do Índice da Bolsa de Valores do Estado de São Paulo utilizandoredes Neurais Artificiais

3)Seno de alguns arcos importantes


Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

RNAs, Classificação de Padrões e Motivação Geométrica. Conteúdo

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

MÓDULO 7 Modelo OSI. 7.1 Serviços Versus Protocolos

UMA ABORDAGEM DE PODA PARA MÁQUINAS DE APRENDIZADO EXTREMO VIA ALGORITMOS GENÉTICOS

CAPÍTULO 3 - RETIFICAÇÃO

Do neurônio biológico ao neurônio das redes neurais artificiais

PALAVRAS-CHAVE: Massas Nodulares, Classificação de Padrões, Redes Multi- Layer Perceptron.

Revisão Inteligência Artificial ENADE. Prof a Fabiana Lorenzi Outubro/2011

Modelagem Conceitual parte II

Colégio Politécnico da UFSM DPADP0024 : Processamento Digital de Imagens (Prof. Dr. Elódio Sebem)

Capítulo 7. Limitações

O ESPAÇO NULO DE A: RESOLVENDO AX = 0 3.2

1. Introdução 2. OMCC e a Pesquisa Perfil-Opinião

Fluxo de Potência em Redes de Distribuição Radiais

Aplicação de Redes Neuronais Artificiais no Comportamento da Precipitação em Portugal Continental.

Redes Neurais. Mapas Auto-Organizáveis. 1. O Mapa Auto-Organizável (SOM) Prof. Paulo Martins Engel. Formação auto-organizada de mapas sensoriais

Roteamento em Redes de Computadores

Fundamentos de Redes de Computadores. Elementos de Redes Locais

TRANSMISSÃO DE DADOS Prof. Ricardo Rodrigues Barcelar

Rememorando. Situação-problema 5. Teorema do Limite Central. Estatística II. Aula II

Transformação dos dados. Analise de Componentes Principais - PCA

Regressão Linear Multivariada

1. ENTALPIA. (a) A definição de entalpia. A entalpia, H, é definida como:

UNIVERSIDADE FEDERAL DO PIAUI UFPI Colégio Técnico de Teresina CTT. Professor: José Valdemir dos Reis Junior. Disciplina: Redes de Computadores II


APRENDIZADO EM MODELOS CONEXIONISTAS

SARCO SISTEMA AUTOMÁTICO DE RECONHECIMENTO E CONTAGEM DE OVOS DA DENGUE

FICHA de AVALIAÇÃO de MATEMÁTICA A 12.º Ano Versão 4

c) Repita as alíneas (a) e (b), admitindo que o investidor pretende agora obter um rendimento esperado de 12%.

Transcrição:

Inteligência Artificial Prof. Tiago A. E. Ferreira Aula 20 - Backroagation

Introdução Redes de uma camada resolvem aenas roblemas linearmente searáveis Solução: utilizar mais de uma camada Camada 1: uma rede Percetron ara cada gruo de entradas linearmente searáveis Camada 2: uma rede combina as saídas das redes da rimeira camada, roduzindo a classificação final

Introdução

Introdução Treinamento da Rede Treinar a rede indeendentemente Saber como dividir o roblema em subroblemas Nem semre é ossível Treinar toda a rede Qual o erro dos neurônios da camada intermediária? Qual função de ativação?

Introdução Função de ativação linear Cada camada comuta uma função linear Comosição de funções lineares é uma função linear Semre vai existir uma rede com uma camada equivalente a uma rede multicamadas com funções de ativação lineares

Introdução Função de ativação ara redes multicamadas (MLP) Não devem ser todas lineares Exemlos de função não lineares Função sigmóide logística Função tangente hierbólica Etc...

Rede Multi-Layer Percetron A rede MLP é a arquitetura de RNA mais utilizada Possuem uma ou mais camadas intermediárias de nós Geralmente utiliza função de ativação sigmóide logística

Arendizagem em uma RNA Arendizagem Processo de Arendizagem Algoritmos de Arendizagem Paradígmas de Arendizagem Arendizado or correção de Erro Arendizado cometitivo Arendizado Hebbiano Arendizado Suervisionado Arendizado or Reforço Arendizado Não - Suervisionado Arendizado de Boltzman

Treinamento de redes MLP Grande variedade de Algoritmos Geralmente suervisionados Estáticos Não alteram a estrutura da rede Backroagation, Função de Base Redial (RBF) Construtivos Alteram estrutura da rede Ustar, Cascade Correlation

Treinamento de Redes MLP Treinamento estático MLP s com formatos e tamanhos diferentes odem utilizar mesma regra de arendizado Toologias diferentes odem resolver o mesmo roblema Regra mais utilizada: Backroagation

Backroagation Rede é treinada com ares entradasaída Cada entrada de treinamento está associada a uma saída desejada Treinamento é feito em duas etaas, cada uma ercorrendo a rede em um sentido

Fases do treinamento Fase forward(sinal) Fase backward (erro)

MLP com Backroagation Pardrão de Dados Camada de Entrada Camada de Saída Camadas Intermadiárias

Fase Forward Entrada é aresentada à rimeira camada da rede Aós os neurônios da camada i calcularem seus sinais de saída, os neurônios da camada i+1 calculam seus sinais de saída Saídas roduzidas elos neurônios da última camada são comaradas com as saídas desejadas Erro ara cada neurônio da camada de saída é calculado

Fase Backward A artir da última camada O nó ajusta seu eso de modo a reduzir o seu erro Nós das camadas anteriores tem seu erro definidos or: Erros dos nós da camada seguinte conectados a ele onderados elos esos das conexões entre eles

Backroagation Processamento Forward Testa um determinado adrão Backward Treinamento Ajusta os esos da rede

Arendizado or Correção de Erro E= 1 2 ( ) t o j 2 E Erro ara o adrão o Saída atual do nodo j ara o adrão t Saída desejada (target)

Minimização do Erro Vetor que aonta na direção de decrescimo da função erro: E = E w ij wˆ ij Pela regra da Cadeia: E w ij = E net net w ij

Desenvolvendo net w ij = w ij k w kj o = o E net = E o o net

Desenvolvendo o net = net ( f ( net ) = f ( net ) j j O outro termo deende de qual camada estamos: intermediária ou final! Camada de Saída: E o = o 1 2 j ( ) 2 t o = ( t o )

Desenvolvendo Sendo assim E net = f j ( net )( ) t o = δ Camadas intermediárias: E o = k E net k net o k = k δ k w kj

Desenvolvendo Gradiente do Erro: E w ij = δ o i Onde: δ = f f j j ( net )( t o ) ( net ) k δ k w o jk i,, Se camada de Saída Se camada intemediária

Função de Ativação Sigmoide Logistica: 1 f = 1 + e ( net ) net λ Deriovando: f ( net ) = λf ( net )( 1 f ( net )) = ( 1 ) λo o

Atualização dos Pesos w ij ( t + 1) = w ( t ) + w ij ij Ajuste ara o mínimo de Erro: (η - Taxa de Arendizagem) w w ij ij = E w ij E η = w ij ηδ o i

Backroagation - Resumo Função de saída Função de identidade y i = a i Treinamento Suervisionado Ajuste de Pesos w ij = ηx i y i (1-y i )δ i δ j = (d i -y i ) (se última camada) δ j = Σw jk δ k ( se camadas intermediárias) Não há garantias de convergência ara o treinamento

Treinamento - Algorítimo 1) Iniciar Todas as conexões com valores aleatórios e equenos ([-0.5,0.5] 2) Reita Erro = 0 Para cada ara de treinamento (X, d) Para cada camda k:=1 to N Para cada Neurônio j:=1 To M Calcular Saída y jk Se Erro > ε Então ara cada camada k:=n to 1 Para cada neurônio j:=1 to M Atualizar esos Até Erro < ε