Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Documentos relacionados
PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Redes Neurais Artificiais

Motivação, Objetivo, Definição, Características Básicas e Histórico. Neurônio Artificial, Modos de Interconexão

REDES NEURAIS. Marley Maria B.R. Vellasco. ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada CONTEÚDO

Classificação Linear. André Tavares da Silva.

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Sistemas Inteligentes - Redes Neurais -

Rede Perceptron. Capítulo 3

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

3 Redes Neurais Artificiais

Aprendizado de Máquina (Machine Learning)

INF 1771 Inteligência Artificial

Inteligência Artificial Redes Neurais

APRENDIZADO EM MODELOS CONEXIONISTAS

SCC Capítulo 3 Aprendizado

Algoritmos de Aprendizado

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

3 REDES NEURAIS ARTIFICIAIS

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Rede RBF (Radial Basis Function)

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Inteligência Artificial. Redes Neurais Artificiais. Aula II Introdução

Profa. Josiane M. Pinheiro outubro/2008

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Redes Neurais Artificiais

INTELIGÊNCIA ARTIFICIAL

Redes Neurais Artificiais

Redes Neurais Artificiais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio

Mineração de Dados em Biologia Molecular

Redes Neurais Artificial

Redes Neurais Artificiais (RNA)

3 INTELIGÊNCIA COMPUTACIONAL (IC)

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

lnteligência Artificial Introdução a Redes Neurais Artificiais

Inteligência Computacional

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas

Redes Neurais Artificiais. Capítulos 1 e 2

Introdução. Introdução. Introdução I - PERCEPTRON. Modelos de Neurônios LABIC. Neurônio:

4 Redes Neurais Artificiais

Redes Neurais Artificiais. Prof. João Alberto Fabro

Introdução às Redes Neurais Artificiais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

REDES NEURAIS ARTIFICIAIS

Reconhecimento de Padrões/Objetos

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO

Redes de Funções de Base Radial Radial Basis Functions (RBFs)

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

SCC Redes Neurais

Tópicos sobre Redes Neurais

Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação. Perceptron

Redes Neurais Artificiais

Aprendizagem de Máquina

4 Redes Neurais Artificiais RNAs

Fundamentos de Inteligência Artificial [5COP099]

Capítulo 2 Processos de Aprendizado

SCE 5809 REDES NEURAIS

Inteligência Artificial

Redes Neurais Artificiais. Profa. Teresa Ludermir Sistemas Inteligentes

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO

3 Redes Neurais Introdução

Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005

Professor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO

5HGHV1HXUDLV$UWLILFLDLV

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

JAI 6 - Deep Learning Teoria e Prática

Redes Neurais INTELIGÊNCIA ARTIFICIAL

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Por que Redes Neurais?

SCC Capítulo 4 Perceptron de Camada Única

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

FÁBIO BARROS TEBALDI ESTUDO DE REDES NEURAIS ARTIFICIAS PARA VERIFICAÇÃO E CLASSIFICAÇÃO DE ASSINATURAS ATRAVÉS DE IMAGENS

Redes Neurais Artificial. Prática. Inteligência Artificial

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Redes Neurais Artificiais ( Neural(

Aprendizagem de Máquina

Transcrição:

CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado Regra de Hebb, Perceptron, Back Propagation, Hopfield, Competitive Learning, RBF, etc. Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Declaração de Hebb: Quando um axônio de uma célula A está próximo o suficiente de excitar a célula B e repetidamente ou persistentemente participa da ativação desta, um processo de crescimento ou mudança metabólica ocorre em uma ou ambas as células, de tal forma que a eficiência de A em ativar B é aumentada Declaração de Hebb: Quando um axônio de uma célula A está próximo o suficiente de excitar a célula B e repetidamente ou persistentemente participa da ativação desta, um processo de crescimento ou mudança metabólica ocorre em uma ou ambas as células, de tal forma que a eficiência de A em ativar B é aumentada Portanto, a cada apresentação do padrão a saída fica mais reforçada. 1

Em termos práticos: Se dois neurônios em cada lado de uma sinápse (conexão) são ativados simultaneamente (sincronamente), então a força daquela sinápse deve ser aumentada. Se dois neurônios em cada lado de uma sinápse são ativados assincronamente, então aquela sinápse dever ser enfraquecida. Conclusão: A modificação na sinápse tem relação com a correlação entre as atividades pré-sinápticas e pós-sinápticas sinápticas. correlação + o valor do peso aumenta correlação - o valor do peso diminui A saída é reforçada a cada apresentação do padrão padrões freqüentes entes terão maior influência no vetor de pesos do neurônio. Algoritmos de Aprendizado atividade pré-sináptica atividade pós-sináptica PE i w ji s i PE j s j Os algoritmos podem ser definidos através das seguintes características: w ji = η s i.s j Hebbian Learning Rule 0 < η< 1 taxa de aprendizado Mecanismo dependente do tempo A informação está disponível localmente Regra de Propagação Função de Ativação Topologia Regra de Aprendizado - w 2

Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Padrão de Entrada: vetor X Perceptron Na sua forma mais simples o modelo do processador consiste de: x i +1 w j1 w j2 w ji Bias = θ j net j s j Perceptron Análise Geométrica Características Básicas: Regra de Propagação net j = Σ x i.w ji + θ j Função de Ativação Degrau Topologia Uma única camada de processadores. Algoritmo de Aprendizado Supervisionado: (geralmente) w ji = η.x i.(t j -s j ) Valores de Entrada/Saída Binários {-1,1} w x u j = net j = x. w = x w cos θ Hiperplano definido por w Projeção de x sobre w todas as entradas x com a mesma projeção sobre w produzem a mesma saída y j A saída y j é uma função da distância de x ao hiperplano definido por w 3

Análise Geométrica Análise Geométrica Logo, superfícies de saída constante são hiperplanos perpendiculares a w Σ i w i x i = 0 define um hiperplano passando pela origem Incluindo o bias Σ i w i x i + θ j desloca-se o hiperplano da origem Análise Geométrica Função de Ativação controla como a saída y varia com a distância de x ao hiperplano definido por w Algoritmo de Aprendizado Iniciar os pesos sinápticos com valores randômicos e pequenos; Aplicar um padrão de entrada, com seu respectivo valor desejado de saída (t j ), e verificar a saída da rede (s j ); Calcular o erro na saída: e j = t j -s j (geralmente) Se e j = 0, voltar ao passo 2; Função Degrau divide o espaço de entrada com um hiperplano Função Sigmoid transição suave δy/δx = f (net) w Se e j 0, atualizar os pesos: w ji = η.x i.e j Voltar ao passo 2. 4

Algoritmo de Aprendizado Outras regras simples de aprendizado: (como t,y {-1, +1}, todas são equivalentes) w ji = 2.η.t j.x i se t j y j 0 caso contrário w ji =η.(1 - t j.y j ). t j.x i Algoritmo de Aprendizado IMPORTANTE: não ocorre variação no peso se a saída estiver correta; caso contrário, cada peso é incrementado de 2η quando a saída é menor que o target e decrementado de 2η quando a saída é maior que o target. w ji =η.(t j. - y j ).x i Rosenblatt (1962) provou que: Uma rede Perceptron é capaz de Aprender tudo que puder Representar. Representação refere-se à habilidade do sistema neural de representar (simular) uma função específica. Aprendizado refere-se à existência de um procedimento sistemático de aquisição de conhecimento (ajuste dos pesos), de forma a produzir a função desejada Minsky & Papert provaram (Perceptrons 1969) que existem sérias restrições sobre o que as redes Perceptron são capazes de Representar. Por exemplo, as redes Perceptron NÃO são capazes de Representar a função OU-Exclusivo 5

-w 1 w 2 PONTO X 1 X 2 Saída A 0 0 0 0 A 1 0 1 1 1 0 1 1 1 0 -θ Região de s = 0 Região de s = 1 w 1 w 2 F(net) saída: s De acordo com a definição do neurônio: s = F( w 1 + w 2 + θ ) net = w 1 + w 2 + θ Função Degrau A rede Perceptron divide o plano X 1 x X 2 em duas regiões (através da reta net) Se net 0 s = 1 Se net < 0 s = 0 Conclusão: mudando-se os valores de w 1, w 2 e θ, muda-se a inclinação e a posição da reta. Entretanto, é impossível achar uma reta que divida o plano de forma a separar os pontos A 1 e de um lado e A 0 e de outro. Redes de 1 única camada só representam funções linearmente separáveis! Função AND Função OR Minsky & Papert provaram que este problema pode ser solucionado adicionando-se uma outra camada intermediária de processadores. Multi-Layer Perceptrons Função OU-Exclusivo 6

Exemplo: +1 Observação: -1.5 +1 w 1 w j1 = -2 θ j = -0.5 1 s w 1 21 w -0.5 s 12 j w s 2 w j2 =+1 22 w 11 = w 12 = w 21 = w 22 = +1 s j = 1 s 1 w j1 + s 2 w j2 + θ j 0-2s 1 + s 2-0.5 0-2s 1 + s 2 0.5 s 1 é inibitório s 2 é excitatório s 2 Região de s 1 = 1 s1 Região de s 2 = 0 Região de s j = 1 Redes Neurais de múltiplas camadas só oferecem vantagens sobre as de uma única camada se existir uma função de ativação não-linear entre as camadas! Em termos vetoriais: Camada Escondida NET 1 = S I. W 1 S 1 = k 1 NET 1 Camada de Saída S 2 = k 2 NET 2 = k 2 (S 1.W 2 ) S 2 = k 2 [(k 1 NET 1 ) W 2 ] S 2 = k 2 [(k 1 S I W 1 ) W 2 ] S 2 = k 2 k 1 (S i W 1 ) W 2 S 2 = K. S I. (W 1.W 2 ) S 2 = K. S I. W Equivalente a uma única camada 7