Neurocomputação Parte 2

Documentos relacionados
Redes Neurais Artificiais

Inteligência Computacional

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

REDES NEURAIS ARTIFICIAIS

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

Aula 1 Introdução - RNA

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

3 Redes Neurais Artificiais

Aprendizado de Máquina (Machine Learning)

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

Redes Neurais Artificiais

Redes Neurais Artificiais

Rede RBF (Radial Basis Function)

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

2. Redes Neurais Artificiais

INF 1771 Inteligência Artificial

INTELIGÊNCIA ARTIFICIAL

Introdução às Redes Neurais Artificiais

Redes Neurais e Sistemas Fuzzy

Redes Neurais Artificiais

SCC Capítulo 2 Topologia e Representação

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

5 Redes Neurais Artificiais

Paradigmas de Aprendizagem

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Redes Neurais Artificiais

Redes Neurais Artificiais

Redes Neurais Artificiais

Redes Neurais MLP: Exemplos e Características

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Inteligência Artificial Redes Neurais

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

3 INTELIGÊNCIA COMPUTACIONAL (IC)

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Classificação Linear. André Tavares da Silva.

Introdução às Redes Neurais Artificiais

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Mapas Auto-Organizáveis de Kohonen SOM

Inteligência Artificial. Redes Neurais Artificiais. Aula II Introdução

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Mapas Auto-Organizáveis de Kohonen SOM

Redes Neurais não Supervisionadas: SOM

Tópicos sobre Redes Neurais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Inteligência Artificial

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

Redes Neurais Artificial. Prática. Inteligência Artificial

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Mineração de Dados em Biologia Molecular

REDES NEURAIS. Marley Maria B.R. Vellasco. ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada CONTEÚDO

Inteligência Artificial

Redes Neurais. Conexionismo. Redes Neurais, IA e IC. Abordagem Simbólica. Apresentação da disciplina Inteligência Computacional e conexionismo

Introdução às Redes Neurais Artificiais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Redes Neurais INTELIGÊNCIA ARTIFICIAL

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

SCC Capítulo 3 Aprendizado

Rede Perceptron. Capítulo 3

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquina

Neural Networks. Neurônios: Elementos aritméticos simples. Redes Neuronais: conj de neurônios interligados.

Redes Neurais Artificiais. Profa. Teresa Ludermir Sistemas Inteligentes

Unidade 08 MATLAB Neural Network Toolkit

Redes Neurais Artificiais (RNA)

2. Redes Neurais Artificiais

JAI 6 - Deep Learning Teoria e Prática

Redes Neurais Artificial

2. Redes Neurais Artificiais

Redes Neurais Artificiais - Introdução. Visão Computacional

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

COMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO

4 Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais

Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995))

Aprendizado de Máquina

Professor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Introdução às Redes Neurais Artificiais

APRENDIZADO EM MODELOS CONEXIONISTAS

2. Redes Neurais Artificiais

Por que Redes Neurais?

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Sistemas Inteligentes - Redes Neurais -

Considerações de Desempenho

Transcrição:

Neurocomputação Parte 2 Fabricio Breve - fbreve@gmail.com 25/09/2007 Fabricio Breve 1

REDES NEURAIS ARTIFICIAIS 25/09/2007 Fabricio Breve 2

Por que Redes Neurais? Computadores convencionais são eficientes em várias áreas Entretanto, não têm obtido desempenho próximo da natureza em vários domínios de aplicação Sistema visual humano Reconhece rosto familiar em ambiente estranho (100-200 metros) Sonar de morcegos Reconhece alvos (distância e velocidade) Cérebro do tamanho de uma ameixa 25/09/2007 Fabricio Breve 3

Redes Neurais Artificiais Características em comum com o sistema nervoso: O processamento de informações ocorre em muitos elementos simples chamados neurônios (artificiais), nós (nodes) ou unidades (units) Estes neurônios podem receber e enviar estímulos de e para outros neurônios e o ambiente Neurônios podem estar conectados a outros neurônios, portando formando redes de neurônios ou redes neurais (neural networks) 25/09/2007 Fabricio Breve 4

Redes Neurais Artificiais Características em comum com o sistema nervoso: Informações (sinais) são transmitidos entre neurônios por elos chamados sinapses A eficiência de uma sinapse, representada por um valor de peso (weight) ou força (strength) associado, corresponde a informação armazenada no neurônio, e portanto na rede O conhecimento é adquirido do ambiente por um processo conhecido como aprendizado (learning) Responsável por adaptar a força das conexões (valor de peso) ao estímulo do ambiente 25/09/2007 Fabricio Breve 5

Redes Neurais Artificiais Onde o conhecimento está armazenado? Nas forças de conexões (sinápticas) entre unidades que permitem que padrões sejam recriados Aprendizado é uma questão de encontrar as forças de conexões apropriadas para produzir padrões de ativação satisfatórios sob certas circunstâncias Conhecimento distribuído pelas conexões entre um grande número de neurônios 25/09/2007 Fabricio Breve 6

Redes Neurais Artificiais É composta por: 1. Um conjunto de neurônios artificiais Chamados nós, unidades ou simplesmente neurônios 2. O padrão de conectividade entre os neurônios Arquitetura ou Estrutura 3. Um método para determinar os pesos Treinamento ou Aprendizado 26/09/2007 Fabricio Breve 7

Redes Neurais Artificiais NEURÔNIOS ARTIFICIAIS 26/09/2007 Fabricio Breve 8

Neurônios Artificiais Neurônio Natural 26/09/2007 Fabricio Breve 9

Neurônios Artificiais Neurônio Abstrato 26/09/2007 Fabricio Breve 10

Neurônio de McCulloch e Pitts McCulloch e Pitts escreveram um artigo famoso e influente sobre cálculos que poderiam ser feitos com neurônios de dois estados Umas das primeiras tentativas de entender a atividade do sistema nervoso Baseada em unidades computacionais neuronais Modelo bastante abstrato das propriedades fisiológicas dos neurônios e suas conexões 26/09/2007 Fabricio Breve 11

Neurônio de McCulloch e Pitts Neurônio binário Sua saída pode ter apenas dois estados: 0 ou 1 Cada neurônio tem um limiar fixo e recebe entrada das sinapses que tem pesos idênticos Se a soma dos valores de entrada é maior que o limiar o neurônio é ativado (responde com 1) Senão permanece inativo (responde com 0) 26/09/2007 Fabricio Breve 12

Neurônio de McCulloch e Pitts Modelo bastante simples Porém já mostra características importantes da maioria dos modelos neuronais Integração dos estímulos de entrada Presença de uma função de ativação (limiar) 26/09/2007 Fabricio Breve 13

Neurônio de McCulloch e Pitts Exemplo: Duas unidades excitatórias x 1 e x 2 e limiar = 1 Equivalente ao operador OU Aumente o limiar para = 2 Equivalente ao operador E 26/09/2007 Fabricio Breve 14

Neurônio Genérico 26/09/2007 Fabricio Breve 15

Neurônio Genérico w kj é o peso da sinapse entre a entrada x j e o neurônio k A junção de soma faz a soma de todos os sinais de entrada ponderados por seus respectivos pesos e adiciona também o valor do bias b k Função de ativação é usada para limitar a amplitude da saída do neurônio 26/09/2007 Fabricio Breve 16

Neurônio Genérico Bias Aumenta ou diminui a entrada para a função de ativação Usado no lugar do limiar fixo Bias será ajustado durante o aprendizado Exemplo No neurônio de McCulloch e Pitts y f ( u) 0 u x x 1 2 se caso contrário Substituindo o limiar pelo bias 1 u y u 1 se u 0 f ( u) 0 caso contrário x x b 1 2 26/09/2007 Fabricio Breve 17

Finalidade do Termo Bias 26/09/2007 Fabricio Breve 18

Neurônio Genérico Matematicamente: y k f m u f w x b k kj j k j1 26/09/2007 Fabricio Breve 19

Neurônio Genérico Simplificando Considere bias b k como sendo um peso w k0 de uma conexão de entrada x 0 = 1 y k f m u f w x k kj j j0 26/09/2007 Fabricio Breve 20

f(u k ) Função de Ativação Função Linear Relaciona a entrada diretamente com sua saída 1 0.8 f u u k k 0.6 0.4 0.2 0-0.2-0.4-0.6-0.8-1 -1-0.5 0 0.5 1 u k 26/09/2007 Fabricio Breve 21

f(u k ) Função de Ativação Função de Limiar (Threshold, Step) A saída é 1 se a saída é maior ou igual um certo limiar Senão é 0 ou -1 Depende de a função ser Binária {0,1} Bipolar {-1,1} Usada no trabalho de McCulloch e Pitts 1 0.8 0.6 0.4 0.2 f u k 1 1 seu seu k k 0-1 -0.5 0 0.5 1 u k 26/09/2007 Fabricio Breve 22

Função de Ativação Função Sigmóide Função estritamente crescente que oferece um balanceamento adequado entre comportamento linear e não-linear O tipo mais usado na literatura de redes neurais artificiais Em forma de S Pode ser obtida com muitas funções Logística (0 a 1) Arco-tangente (-/2 a +/2) Tangente hiperbólica (-1 a +1) 26/09/2007 Fabricio Breve 23

f(u k ) Função de Ativação Função Sigmóide Logística 1 0.9 0.8 0.7 f u k 1 1 exp u k 0.6 0.5 0.4 0.3 0.2 0.1 0-10 -5 0 5 10 u 26/09/2007 k Fabricio Breve 24

f(u k ) Função de Ativação Função de Base Radial Função não monotônica que é simétrica em torno de sua base. Principal função de ativação nas redes neurais de função de base radial Exemplo: Gaussiana f 2 u exp u k 1 0.8 0.6 0.4 0.2 0-5 0 5 u k k 26/09/2007 Fabricio Breve 25

Função de Ativação As funções mostradas e ilustradas mostram apenas a forma geral de tais funções Estas formas podem ser modificadas Exemplo: Multiplicando u k por uma constante na função logística controlamos a suavidade da função Valores altos de tornam a função parecida com uma função de limiar Valores baixos de tornam a função parecida com uma função linear f u k 1 1 exp. u k 26/09/2007 Fabricio Breve 26

Redes Neurais Artificiais ARQUITETURA DE REDES NEURAIS 26/09/2007 Fabricio Breve 27

Arquitetura de Redes Neurais O comportamento complexo do sistema nervoso se deve a interação de um grande número de neurônios Um neurônio sozinho não tem sentido Não se sabe muito sobre como essa interconexão é feita Temos apenas alguns conhecimentos sobre a interconexão em áreas específicas do cérebro, mas pouco sabemos sobre o cérebro como um todo Sabemos que os neurônios do córtex podem ser divididos em camadas 26/09/2007 Fabricio Breve 28

Arquitetura de Redes Neurais Redes Neurais Artificiais Camadas de Neurônios se referem a camadas funcionais Arquiteturas padronizadas especialmente projetadas com foco no propósito de solução de problemas Há basicamente três tipos possíveis de camada: Uma camada de entrada Recebe estímulo do ambiente Uma ou mais camadas intermediárias (ocultas) Não tem contato direto com o ambiente Uma camada de saída Envia saída para o ambiente 26/09/2007 Fabricio Breve 29

Arquitetura de Redes Neurais Existem três tipos básicos de arquitetura: Redes feedforward de uma única camada Redes feedforward de múltiplas camadas Redes recorrentes 26/09/2007 Fabricio Breve 30

Redes Feedforward de uma única camada É o tipo mais simples Uma camada de nós de entrada que alimenta uma camada de nós de saída Camada de entrada Também é chamada camada sensorial Apenas recebe o sinal do ambiente e o propaga adiante Camada de Saída Elementos de processamento Feedforward Sinal se propaga sempre adiante, da entrada para a saída e nunca o contrário 26/09/2007 Fabricio Breve 31

Redes Feedforward de uma única camada Os pesos podem ser escritos usando uma notação matricial Lembre-se: Neurônios são do tipo genérico X 0 é fixo como +1 26/09/2007 Fabricio Breve 32

Redes Feedforward de uma única camada Saída de cada neurônio i é dada por: y i f w x, j 0,..., m ( w x) f i j ij j Saída da rede toda y é dada por: y f ( W. x) 26/09/2007 Fabricio Breve 33

Redes Feedforward de Múltiplas Camadas Diferem das de única camada pela presença de uma ou mais camadas intermediárias ou ocultas Capacidade de processamento não linear Saída de cada camada é usada como entrada da próxima camada 26/09/2007 Fabricio Breve 34

Redes Feedforward de Múltiplas Camadas 26/09/2007 Fabricio Breve 35

Redes Feedforward de Múltiplas Camadas Nesse tipo de rede temos uma matriz de peso para cada camada Notação: W k com k indicando a camada Na figura anterior: W 1 indica a matriz de conexões entre a camada de entrada e a primeira camada oculta W 2 indica a matriz de conexões entre a primeira camada oculta e a segunda camada oculta W 3 indica a matriz de conexões entre a segunda camada oculta e a camada de saída 27/09/2007 Fabricio Breve 36

Redes Feedforward de Múltiplas Camadas O sinal se propaga camada por camada da entrada para a saída portanto a saída da nossa rede em notação de matriz será: y f 3 3 W f 2 W f f k é o vetor de funções de ativação da camada k Nós de camadas diferentes podem ter diferentes funções de ativação W k é a matriz de pesos da camada k x é o vetor de entrada 2 1 1 W x 27/09/2007 Fabricio Breve 37

Redes Feedforward de Múltiplas Camadas Se os nós das camadas intermediárias tiverem função de ativação linear não há sentido em adicionar mais camadas na rede, pois f(x) = x em funções lineares, portanto a saída seria: y f a qual pode ser reduzida para y f 3 3 3 W W W x Portanto para aumentar a capacidade computacional de uma rede de múltiplas camadas adicionando mais camadas, funções de ativação não-lineares devem ser usadas nas camadas ocultas 2 Wx onde W W 3 W 2 W 1 1 27/09/2007 Fabricio Breve 38

Redes Recorrentes Tem ao menos um loop recorrente (ou de retorno) Pode consistir de uma única camada de neurônios com cada neurônio enviando sua saída de volta para a entrada de outros neurônios Veja a figura a seguir... 27/09/2007 Fabricio Breve 39

Redes Recorrentes 27/09/2007 Fabricio Breve 40

Redes Recorrentes Laços de realimentação Impacto profundo na capacidade de aprendizagem da rede e seu desempenho Unidades de retardo Resulta em comportamento dinâmico nãolinear, assumindo que a rede tenha unidades não lineares y i t f w. xt v yt 1 i i 27/09/2007 Fabricio Breve 41

Redes Neurais Artificiais ABORDAGENS DE APRENDIZADO 27/09/2007 Fabricio Breve 42

Contexto biológico Acredita-se que o aprendizado envolve a adaptação das forças sinápticas ao estímulo do ambiente Porém a maneira como o aprendizado acontece ainda não é muito claro Contexto Computacional Aprendizado (ou treinamento) equivale a adaptar (ajustar) os parâmetros livres da rede através de um processo de apresentação de estímulos do ambiente Parâmetros livres Pesos de conexão de neurônios individuais E em redes mais sofisticadas: Arquitetura da Rede Função de Ativação de Neurônios Individuais Abordagens de Aprendizado 27/09/2007 Fabricio Breve 43

Abordagens de Aprendizado Basicamente feito em dois passos: Apresentação de padrões de entrada para a rede Adaptação dos parâmetros livres da rede para produzir os padrões de resposta desejados para os dados de entrada 27/09/2007 Fabricio Breve 44

Abordagens de Aprendizado Na maioria das redes os pesos são ajustados por uma regra ou algoritmo de aprendizado Depois a rede é aplicada a um novo conjunto de dados Portanto temos duas etapas: 1. Treinamento da Rede 2. Aplicação da Rede 27/09/2007 Fabricio Breve 45

Abordagens de Aprendizado Com algoritmos de aprendizado padrão a rede aprende através de um processo iterativo de ajuste de pesos O tipo de aprendizado depende da maneira como os pesos são ajustados: 1. Aprendizado Supervisionado 2. Aprendizado Não Supervisionado 3. Aprendizado por Reforço 27/09/2007 Fabricio Breve 46

Aprendizado Supervisionado Caracteriza-se pela presença de um supervisor ou professor Este conhecimento é representado na forma de amostras de entrada-saída Em geral é usado quando a classe de uma amostra é conhecida a priori Os parâmetros livres da rede são ajustados através da combinação da entrada e do sinal de erro Sinal de erro é a diferença entre a saída desejada e a saída produzida pela rede 27/09/2007 Fabricio Breve 47

Aprendizado Supervisionado 27/09/2007 Fabricio Breve 48

Aprendizado Supervisionado Seja j o neurônio de saída de uma rede feedforward. x(t) a entrada desse neurônio Produzida eventualmente por uma camada intermediária t é o instante de tempo nesse processo iterativo y j (t) é a saída produzida pelo neurônio j A saída desejada é dada por d j (t) O sinal de erro e j (t) é calculado por: e j t d t y t j j 27/09/2007 Fabricio Breve 49

Aprendizado Supervisionado Sinal de Erro Utilizado como mecanismo de controle para ajustes corretivos no peso do neurônio j Objetivo Tornar a saída da rede mais similar a saída desejada a cada passo 27/09/2007 Fabricio Breve 50

Aprendizado Supervisionado Função de Custo Também chamada índice de performance, função de erro, ou função objetivo Deve ser minimizada t 1 2 e 2 j t 27/09/2007 Fabricio Breve 51

Capacidade de Generalização Quando o processo de aprendizado supervisionado está completo Apresentamos uma nova amostra pra rede (ainda não vista) e a rede irá classificá-la com um certo grau de precisão 27/09/2007 Fabricio Breve 52

Capacidade de Generalização 27/09/2007 Fabricio Breve 53

Capacidade de Generalização Underfitting Aproximação insatisfatória Ocorre quando o treinamento é insuficiente ou a arquitetura da rede não é adequada Overfitting Aproximação perfeita demais para os dados ruidosos Resultados ótimos para amostras de treinamento, mas ruim para dados não vistos O treinamento ideal é um meio termo entre precisão na aproximação e capacidade de generalização 27/09/2007 Fabricio Breve 54

Capacidade de Generalização Do ponto de vista biológico: O que é mais importante? Decorar uma série de fatos específicos sobre o mundo? Ou tentar extrair alguma regularidade sob esses fatos? Exemplo: Você quase morreu afogado no mar Lição aprendida: Ficar longe da água do mar Conclusão: Você pode acabar se afogando numa piscina 27/09/2007 Fabricio Breve 55

Aprendizado Não Supervisionado Também chamado de aprendizado autoorganizado Não há um supervisor para avaliar a performance da rede em relação aos dados de entrada A idéia é: dado um conjunto de dados, o que pode você pode fazer com ele? Exemplo: alguém de deu uma porção de balões Você pode separá-las por cor, formato ou qualquer outro atributo que você possa qualificá-los. 27/09/2007 Fabricio Breve 56

Aprendizado Não Supervisionado Não há informação de erro A rede se adapta a regularidades estatísticas nos dados de entrada Desenvolve uma habilidade para criar representações internas para os dados de entrada, e portanto criar novas classes automaticamente 27/09/2007 Fabricio Breve 57

Aprendizado Não Supervisionado Aprendizado competitivo O mais usado em algoritmos autoorganizáveis Neurônios de saída competem entre si para ser ativados Apenas um neurônio é ativado a cada iteração Torna o algoritmo apropriado para descobrir saliências estatísticas que possam ser usadas para classificar os dados de entrada 27/09/2007 Fabricio Breve 58

Aprendizado Não Supervisionado Aprendizado competitivo Neurônios se especializam em identificar um certo padrão de entrada Se tornam extratores de características ou detectores de características para diferentes classes de padrões de entrada Na forma mais simples, tem uma única camada de saída totalmente conectada incluindo conexões laterais entre neurônios Capaz de inibir ou estimular neurônios vizinhos 27/09/2007 Fabricio Breve 59

Aprendizado Não Supervisionado 27/09/2007 Fabricio Breve 60

Aprendizado Não Supervisionado Para um neurônio i ser o vencedor, a distância entre seu vetor de peso w i e uma certo padrão de entrada x precisa ter a menor medida (entre todas os neurônios de saída), dada uma cérta métrica (em geral a Distância Euclidiana) i arg min i x w i, i 27/09/2007 Fabricio Breve 61

Aprendizado Não Supervisionado Se um neurônio não responde a um determinado padrão de entrada, nenhum aprendizado ocorre nele Porém, se ele ganha a competição, um ajuste w i é aplicado ao vetor w i w i x w 0 i sei sei ganha a competição perde a competição onde é uma taxa de aprendizado que controla o passo de w i em direção ao vetor de entrada x 27/09/2007 Fabricio Breve 62

Aprendizado Não Supervisionado 27/09/2007 Fabricio Breve 63

Aprendizado por Reforço Aprende diretamente da interação com o ambiente, porém sem uma supervisão explícita Em geral só recebe uma indicação escalar de quão bem a rede neural está desempenhando Sinal de recompensa ou punição 27/09/2007 Fabricio Breve 64

Aprendizado por Reforço Ambiente Padrões de Entrada Sinal de Reforço Rede Neural Saída da Rede 27/09/2007 Fabricio Breve 65

Aprendizado por Reforço É dado um objetivo para a rede neural atingir A rede tenta algumas ações (valores de saída) É recompensada ou penalizada O algoritmo seletivamente retém as saídas que maximizam a recompensa 27/09/2007 Fabricio Breve 66

Aprendizado por Reforço A cada instante de tempo t, o sistema recebe uma representação do estado do ambiente x(t) e fornece uma saída y(t), no próximo passo ele a recompensa r(t+1) e se encontra num novo estado x(t+1) Conceito de busca por tentativa e erro e recompensa com atraso 27/09/2007 Fabricio Breve 67

Aprendizado por Reforço Exemplo: Simulador de vôo Você tem de fazer um pouso suave, não há um supervisor Avião espatifando no solo = reforço negativo Avião pousando suavemente = reforço positivo Ensinando um novo truque para um golfinho Você não dizer o que ele tem de fazer Mas pode recompensá-lo ou puni-lo quando ele fizer corretamente ou erroneamente Ele vai ter que descobrir o que o fez ser recompensado ou punido 27/09/2007 Fabricio Breve 68

Referências Bibliográficas CASTRO, Leandro Nunes. Fundamentals of Natural Computing: Basic Concepts, Algorithms, And Applications. CRC Press, 2006. CARVALHO, André Ponce de Leon F. de. Notas de Aula, 2007. HAYKIN, Simon. Redes Neurais: Princípio e Prática. Bookman, 2001. KOVACS, Zsolt L. Redes Neurais Artificiais: Fundamentos e Aplicações. Livraria da Física, 2006. MITCHELL, Melanie. An Introduction to Genetic Algorithms. MIT Press, 1998. 27/09/2007 Fabricio Breve 69