Perceptrons. Introdução

Documentos relacionados
Aprendizado de Máquina (Machine Learning)

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

3 Redes Neurais Artificiais

Classificação Linear. André Tavares da Silva.

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Rede RBF (Radial Basis Function)

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

3. REDES DE CAMADA ÚNICA

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

4 Redes Neurais Artificiais

SCC Capítulo 5 Perceptron Multicamadas

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Lista de exercícios estrutura de repetição FOR e While. 3. Criar um algoritmo que imprima a soma dos nu meros pares de 230 a 520..

Redes Neurais MLP: Exemplos e Características

Paradigmas de Aprendizagem

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

Introdução às Redes Neurais Artificiais

3 Redes Neurais Introdução

Protótipo de Software para Reconhecimento de Impressões Digitais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

MLP (Multi Layer Perceptron)

INTELIGÊNCIA ARTIFICIAL

Inteligência Computacional

3 Modelos Comparativos: Teoria e Metodologia

Professor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO

Redes Neurais Artificiais. Everton Gago

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Relatório da Aula Prática sobre Redes Neurais Artificiais

3 INTERVALOS DE CONFIANÇA

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:

Cálculo Numérico / Métodos Numéricos. Solução de equações polinomiais Briot-Ruffini-Horner

READING DIGITS IN NATURAL IMAGES WITH UNSUPERVISED FEATURE LEARNING

O Perceptron de Rosenblatt foi desenvolvido para lidar com o problema de

Porta Lógica XOR Digital Neural

Inteligência Artificial Redes Neurais Artificiais

Sistemas Inteligentes

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

Interpretação Geométrica

Swap Cambial de Operações Compromissadas de Um Dia (OC1)

CAP. II RESOLUÇÃO NUMÉRICA DE EQUAÇÕES NÃO LINEARES

Redes Neurais Artificiais

4 Redes Neurais Artificiais RNAs

Um Sistema Distribuído para Treinamento de Redes Neurais

RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS

Tabela 4.1 Distribuição dos indicadores por tipo Tipo de Indicador No. de indicadores. Indicadores de Evento 93. Indicadores de Tendência 37

XII Congresso Brasileiro de Meteorologia, Foz de Iguaçu-PR, 2002

3 Aprendizado por reforço

Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados

Soluções de Equações Diferenciais Usando Redes Neurais de Múltiplas camadas com os métodos da Descida mais íngreme e Levenberg-Marquardt.

CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS.

Mapas Auto-Organizáveis de Kohonen SOM

ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS.

Halliday & Resnick Fundamentos de Física

Introdução às Redes Neurais Artificiais. Eduardo Simas

Universidade Federal do Rio Grande do Norte. Métodos Computacionais Marcelo Nogueira

Modelo de Previsão de Recalques em Estacas Hélice Contínua Utilizando Redes Neurais Artificiais

Projeto de Redes Neurais e MATLAB

FÁBIO BARROS TEBALDI ESTUDO DE REDES NEURAIS ARTIFICIAS PARA VERIFICAÇÃO E CLASSIFICAÇÃO DE ASSINATURAS ATRAVÉS DE IMAGENS

Introdução às Redes Neurais Artificiais

Inteligência Artificial. Redes Neurais Artificiais

Aplicações Práticas com Redes Neurais Artificiais em Java

Contratos Derivativos Opções sobre Futuro de DI

Buscas Informadas ou Heurísticas - Parte II

Reconhecimento de Padrões

Utilização de Redes Neurais Artificiais para Interpolação de Resultados do Método de Elementos Finitos

FABIANO CORDEIRO MOREIRA

Chamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω.

Á Ç ó á ç

Métodos Numéricos. Turma CI-202-X. Josiney de Souza.

Aula 00 Aula Demonstrativa

Divisão e Conquista. Norton T. Roman. Apostila baseada nos trabalhos de Cid de Souza, Cândida da Silva e Delano M. Beder

PPM CONTEÚDO. Lógica de programação Programação para manufatura Sistemas supervisorios PROGRAMAÇÃO PARA MANUFATURA 05/03/2009

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio

Ângulo e ortogonalidade em espaços com produto interno

Cálculo Numérico Faculdade de Ciências Sociais Aplicadas e Comunicação FCSAC Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU

NOÇÕES DE REDES NEURAIS ARTIFICIAIS

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.

Transcrição:

Perceptrons Introdução No final da década de 1950, Rosenblatt na Universidade de Cornell, criou uma genuína rede de múltiplos neurônios do tipo discriminadores lineares e chamou esta rede de perceptron. Um perceptron é uma rede com os neurôn ios dispostos em camadas. Estes podem ser considerados o primeiro modelo de redes neurais.

Introduç ã o Perceptron aprende conceitos, ele pode aprender a responder com verdadeiro (1) ou falso (0) pelas entradas que nós apresentamos a ele, estudando repetidamente os exemplos que lhe sã o apresentados. O perceptron é uma rede neural cujos os pesos e inclinaç ões podem ser treinados para produzir um vetor alvo que quando apresentamos tem que corresponder ao vetor de entrada. Treinamento Vetores de um grupo de treinamento sã o apresentados para a rede um apó s o outro. Se a saída da rede está correta, nenhuma mudanç a é feita. Por outro lado, os pesos e as inclinaç õ es sã o atualizados usando as regras de aprendizado do perceptron. Uma passagem inteira de treinamento de entrada de um vetor é c hamado é poca.

Limitaç õ es As redes perceptron tem duas limitaç õ es. Primeiro, os valores de saída do perceptron podem assumir somente dois valores (Verdadeiro ou Falso). Segundo, perceptrons somente podem classificar grupos de vetores linearmente separados. Perceptron de Camadas Simples O perceptron de camada simples é um exemplo de redes que podem ser usadas com entradas biná rias e bipolares. Uma té cnica usual para analisar o comportamento de redes como perceptron é plotar um mapa com as regiõ es de decisã o criadas num espaç o multidimensional abrangido pela variá veis de entrada.

Perceptron de Camadas Simples 1º Passo: inicializar pesos e threshold com zero. 2º Passo: apresentar nova entrada que vai se somar a saída desejada. 3º Passo: calcular saída atual. 4º Passo: atualizar o peso. Esta atualizaç ã o é feita atravé s da fó rmula: Perceptron de Camadas Simples Wi( t + 1 ) = Wi ( t ) + n[( d ( t ) - Y ( t ) ] x1 ( t ), 0<= i <= N-1 d ( t ) = +1 se entrada for da classe A e -1 se entrada for da classe B. Nesta equaç ã o n é uma fraçã o menor que 1 (taxa de aprendizado) e d (t ) é a saída desejada para a correta entrada. Os pesos sã o inalterados se a rede tomar a decisã o correta.

Perceptrons de Vá rias Camadas Perceptrons de vá rias camadas sã o redes feed-foward com uma ou mais camadas entre os nó s de entrada e saída. Essas camadas adicionais conté m unidades escondidas ou nó s estão diretamente conectados aos nó s de entrada e saída. Exemplo de uma rede neural perceptron de vá rias camadas

Algoritmo Perceptron Inicializar pesos(w), bias(b) e taxa de apredizagem (α) w = 0 b = 0 0 < α 1 Enquanto condiçã o = falsa faç a Para cada cada par (S:T) faç a Ativar unidades de entrada x i = s i Algoritmo Perceptron Calcular resposta da unidade de saída y _ in = b + i xiwi y 1 = 0 1 se y _ in > θ se θ y _ in se y _ in < θ θ

Algoritmo Perceptron Atualizar pesos e bias se um erro ocorreu para este padrã o Se y t w i (novo) = w i (velho) + α tx i b(novo) = b(velho) + α t senã o w i (novo) = w i (velho) b(novo) = b(velho) Algoritmo Perceptron Se os pesos modificaram entã o Condiç ã o = falsa senã o Condiç ã o = verdadeira

Conclusõ es quanto ao algoritmo Quanto mais padrõ es de treinamento produzirem respostas corretas menor será o treinamento; O threshold nã o sofre variaç õ es; Aplicaç õ es Verificar se o ser vivo é quadrúp ede ou bípede Suposiç õ es quanto ao resultado Quadrúp ede = 1 Bípede = -1 Vetor de treinamento Vetor Resultado esperado Cã o [ 1-1 1 1 ] 1 Gato [ 1 1 1 1 ] 1 Cavalo [ 1 1-1 1 ] 1 Homem [ -1-1 -1 1 ] -1 Galinha [ -1 1-1 1 ] -1 Avestruz [ 1-1 1-1 ] -1

Aplicaç õ es Verificar se o ser vivo é quadrúp ede ou bípede Funç ã o de ativaçã o y = Taxa de aprendizagem α = 1 Threshold θ = 1 1 1 se y _ in > θ se y _ in θ Aplicaç õ es Verificar se o ser vivo é quadrúp ede ou bípede Arquitetura x 1 w 1 x 2 x 3 w 2 w 3 w 4 y x 4

Aplicaç õ es Verificar se o ser vivo é quadrúp ede ou b pede Ser-vivo x 1 x 2 x 3 x 4 y_in Saída Real Saída Desejada w 1 w 2 w 3 w 4 0 0 0 0 Cão 1-1 1 1 0-1 1 1-1 1 1 Gato 1 1 1 1 2 1 1 1-1 1 1 Cavalo 1 1-1 1-1 -1 1 2 0 0 2 Homem -1-1 -1 1 0-1 -1 2 0 0 2 Galinha -1 1-1 1 0-1 -1 2 0 0 2 Avestruz 1-1 1-1 0-1 -1 2 0 0 2 Cã o 1-1 1 1 4 1 1 2 0 0 2 Gato 1 1 1 1 4 1 1 2 0 0 2 Cavalo 1 1-1 1 4 1 1 2 0 0 2 Apli es Verificar se o ser vivo quadr ede ou b pede Rede Neural Treinada x 1 x 2 x 3 x 4 0 0 2 2 y

Teorema de Convergência Garante que a rede ser treinada N mero finito de iter es O problema deve ser linearmente separ vel Fronteira de decis o Padr es linearmente separ veis Padr es n o linearmente separ veis Teorema de Converg ncia Relação Pesos x Iterações Pesos 200 180 160 140 120 100 80 60 40 20 0 1 2 3 4 5 6 7 8 9 10 Iteraç õ es

Teorema de Converg ncia Relaç ão Pesos x Iteraç õ es Pes o s 1 8 0 1 6 0 1 4 0 1 2 0 1 0 0 8 0 6 0 4 0 2 0 0 1 2 3 4 5 6 7 8 9 1 0 Iteraç õ es