HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Documentos relacionados
Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

3 Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais

INTELIGÊNCIA ARTIFICIAL

Classificação Linear. André Tavares da Silva.

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

SCC Capítulo 5 Perceptron Multicamadas

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Inteligência Computacional

Aprendizado de Máquina (Machine Learning)

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Inteligência Artificial

Protótipo de Software para Reconhecimento de Impressões Digitais

Redes Neurais MLP: Exemplos e Características

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

4 Redes Neurais Artificiais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

3 Modelos Comparativos: Teoria e Metodologia

Inteligência Artificial Redes Neurais Artificiais

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio

Aula 1 Introdução - RNA

Arquiteturas. Funções de Ativação

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Redes Neurais Artificiais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Modelos não recorrentes RNA Feed-Forward: MLP - Backpropagation, RProp,CasCor (HiperPlanos) RBF Radial Basis Function (Clusters)

Professor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO

4 Redes Neurais Artificiais RNAs

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

Sistemas Inteligentes

PREVISÃO DE CASOS DE DENGUE EM ITAJAÍ SC UTILIZANDO REDES NEURAIS ARTIFICIAIS COM SAÍDAS RECORRENTES ÀS ENTRADAS

3 Redes Neurais Introdução

ESTUDO COMPARATIVO DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE SÉRIES TEMPORAIS FINANCEIRAS

Introdução às Redes Neurais Artificiais. Eduardo Simas

FÁBIO BARROS TEBALDI ESTUDO DE REDES NEURAIS ARTIFICIAS PARA VERIFICAÇÃO E CLASSIFICAÇÃO DE ASSINATURAS ATRAVÉS DE IMAGENS

Soluções de Equações Diferenciais Usando Redes Neurais de Múltiplas camadas com os métodos da Descida mais íngreme e Levenberg-Marquardt.

Redes Neurais Artificiais: Rede Hopfield e Redes Estocásticas

AVALIAÇÃO DE CONFIGURAÇÕES DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DO CONSUMO DE ENERGIA DE SISTEMAS DE CLIMATIZAÇÃO

Mapas Auto-Organizáveis de Kohonen SOM

4 ANÁLISE DE SÉRIES TEMPORAIS

Rede RBF (Radial Basis Function)

Fundamentos das Redes Neurais: exemplos em Java

3 FERRAMENTAS UTILIZADAS: REDES NEURAIS E LÓGICA FUZZY

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL

Multi-Layer. Perceptron. Sumário. Aplicações de Redes Neurais. Previsão de Séries Temporais. Aplicações de Previsão

REDES NEURAIS ARTIFICIAIS APLICADAS À PREVISÃO DE VAZÕES SAZONAIS ATRAVÉS DA RELAÇÃO CHUVA-VAZÃO

Décimo Quinto Encontro Regional Ibero-americano do CIGRÉ Foz do Iguaçu-PR, Brasil 19 a 23 de maio de 2013

REDES NEURAIS ARTIFICIAIS: UMA CONTRIBUIÇÃO AO PROCESSO DE DECISÕES FINANCEIRAS

2 Aprendizado de Máquina

ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS.

MODELAGEM DE COMPONENTES DE SOFTWARE PARA A CRIAÇÃO DE REDES NEURAIS ARTIFICIAIS HIERÁRQUICAS NA ARQUITETURA ARTÍFICE

UNIVERSIDADE ESTADUAL PAULISTA UNESP FACULDADE DE ENGENHARIA DE ILHA SOLTEIRA PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

3 REDES NEURAIS ARTIFICIAIS

Modelo de Previsão de Recalques em Estacas Hélice Contínua Utilizando Redes Neurais Artificiais

MODELO NEURAL COM ATRASO DE TEMPO PARA A PREVISÃO DO INCC

NOÇÕES DE REDES NEURAIS ARTIFICIAIS

Ricardo Cavalcanti Costa Modelos Preditivos de Velocidade de Vento para Sistemas Eólicos Baseados em Redes Neurais Artificiais

Ambiente MATLAB. Redes Neurais. Tela Principal do MATLAB MATLAB 6.5. MATLAB MATrix LABoratory. Programação baseada em Matrizes

REDE NEURAL DE ELMAN APLICADA NA PREVISÃO DE PREÇOS DE COMBUSTÍVEIS

UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS

A UTILIZAÇÃO DE REDES NEURAIS PARA OBTENÇÃO DA CONCENTRAÇÃO DE BORO CRÍTICA DE UM REATOR PWR

APLICAÇÃO DE REDE NEURAL NARX PARA A PREVISÃO DO PREÇO DA SOJA

REDES NEURAIS ARTIFICIAIS: PRINCÍPIOS BÁSICOS ARTIFICIAL NEURAL NETWORKS: BASIC PRINCIPLES

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Introdução às Redes Neurais Artificiais

Eliane da Silva Christo. Previsão de Potência Reativa. Tese de Doutorado

3 Aprendizado por reforço

Matlab - Neural Networw Toolbox. Ana Lívia Soares Silva de Almeida

Previsão da Velocidade dos Ventos por Redes Neurais Artificiais e ARIMA de Box & Jenkins

Ferramenta de Regressão Não-linear Múltipla com Redes Neurais Artificiais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

ESTUDO DE ALGORITMO MLP COMO APROXIMADOR DE FUNÇÃO

DESEMPENHO DO ALGORÍTMO DE BACKPROPAGATION COM A FUNÇÃO DE ATIVAÇÃO BI-HIPERBÓLICA

Faculdade de Jaguariúna

Uso de Redes Neurais Artificiais na Determinação dos Zeros de Funções Polinomiais

Sinais e Sistemas. Tempo para Sistemas Lineares Invariantes no Tempo. Representações em Domínio do. Profª Sandra Mara Torres Müller.

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:

ENGENHARIA DE CONTROLE E AUTOMAÇÃO HUGO GOMES DA SILVA LUCAS DE OLIVEIRA OTAL

RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS

UNIVERSIDADE DE SÃO PAULO ESCOLA POLITÉCNICA DEPARTAMENTO DE ENGENHARIA MECÂNICA

UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE SÉRIES TEMPORAIS

REDES NEURONAIS Conceitos. Jorge M. Santos

APLICAÇÃO DE REDE RECORRENTE NA PREVISÃO DA VELOCIDADE DOS VENTOS

USO DE REDES NEURAIS PARA AVALIAÇÃO DO CONSUMO DE ENERGIA DE SISTEMAS DE AR CONDICIONADO

Comparação de Modelos Neurais Aplicados a Resistência de Fornos de Redução do Alumínio Primário

Redes Neurais Artificiais

Sinais e Sistemas. Conceitos Básicos. Prof.: Fábio de Araújo Leite

Códigos de bloco. Luis Henrique Assumpção Lolis. 1 de novembro de Luis Henrique Assumpção Lolis Códigos de bloco 1

XII Congresso Brasileiro de Meteorologia, Foz de Iguaçu-PR, 2002

PROPOSTA DE UTILIZAÇÃO DE REDES NEURAIS PARA ANÁLISES FÍSICO- QUÍMICA UTILIZANDO DADOS ESPECTROMÉTRICOS NO UV-VIS

Luís Fernando de Oliveira Jacintho

SELECIONANDO VARIÁVEIS DE INFORMAÇÃO DE TENDÊNCIA PARA A PREVISÃO DE VAZÕES UTILIZANDO REDES NEURAIS

ESTUDO DA INFLUÊNCIA DAS VARIÁVEIS OPERACIONAIS DA CALDEIRA DE RECUPERAÇÃO SOBRE A GERAÇÃO DE VAPOR UTILIZANDO REDES NEURAIS ARTIFICIAIS

Estruturando redes neurais artificiais paralelas e independentes para o controle de próteses robóticas

Transcrição:

HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br

Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H) Redes Neurais (15H) Introdução ao Reconhecimento de Padrões com foco em Redes Neurais

Programa Redes Neurais (15H) PCA visto no módulo anterior Processo de Aprendizagem Análise de Componentes Principais Perceptrons de Simples e Múltiplas Camadas Mapas Auto Organizáveis Redes Neurais Recorrentes Previsão e Análise de Séries Temporais

Redes Neurais Recorrentes Classe de redes neurais em que há ciclos dirigidos (ou caminhos fechados) na arquitetura A realimentação de conexões permite a criação de estados internos Diferentemente de redes feedforward, redes recorrentes exibem comportamento temporal dinâmico as saídas variam com o tempo

Redes Neurais Recorrentes Alguns Modelos Históricos Rede de Hopfield: proposta por John Hopfield em 1982 Rede de Jordan: proposta por Michael I. Jordan em 1986 Rede de Elman: proposta por Jeffrey L. Elman em 1990

Única camada de neurônios totalmente e simetricamente interconectados a partir de operadores de atraso unitário, não havendo conexões de um neurônio para ele mesmo Memória autoassociativa sem camada escondida A aprendizagem realizada em um único passo Na fase de uso, a propagação de uma entrada requer múltiplos passos até que um estado estável seja atingido (saída da rede) w ij = w ji w ii = 0 Operadores de atraso de tempo unitário

Modos de operação Contínuo: função de ativação não linear diferenciável (e.g. sigmóide ou tangente hiperbólica) Discreto: neurônios de McCulloch-Pitts (função de ativação com limiar e saídas discretas) Neurodinâmica Exemplo da dinâmica de estados de saída para uma rede de Hopfieldcom 2 neurônios e 2 estados estáveis saída do neurônio 2 saída do neurônio 1

Rede operando em modo discreto (neurônio de McCulloch- Pitts) net = soma ponderada de pesos por entradas Todas as entradas e saídas são bipolares (-1,1)

Pode ser vista como uma memória endereçável por conteúdo Objetivo: recuperar padrões armazenados em memória em resposta à apresentação de uma versão imcompleta ou ruidosa daquele padrão Os estados estáveis da rede correspondem aos padrões a serem armazenados Pode ser vista como um corretor de erros na medida em que pode sobrescrever informação inconsistente à luz das evidências apresentadas à rede

A essência de uma memória endereçável por conteúdo é mapear uma memória fundamental em um ponto fixo estável (estado protótipo) de um sistema dinâmico codificação espaço de memórias fundamentais decodificação espaço de vetores armazenados

Considere que a rede recebe como entrada um padrão contendo informação parcial, porém suficiente, sobre uma das memórias fundamentais Tal padrão é considerado um estado inicial no espaço de estados A dinâmica de operação da rede, mediada pelas conexões recorrentes, fará com que haja uma transição de estados na direção da memória estável

Treinamento Como nos Perceptrons, o algoritmo de treinamento é derivado a partir da minimização de uma função de energia para um padrão particular Minimizar a função de energia de Lyapunov 1 E = w x x + xθ i, j i j i i 2 i j i Como resultado chega-se à regra de treinamento de uma rede de Hopfield operando em modo discreto (aprendizagem do tipo Hebbiana) i

Treinamento (fase de armazenamento) Seja ξ 1,ξ 2,...,ξ µ um conjunto N-dimensional de memórias fundamentais conhecidas (±1) Computar os pesos sinápticos como sendo:

Inicialização (da fase de recuperação) Seja ξ probe um vetor de entrada (teste) N-dimensional apresentado à rede. O algoritmo de uso é inicializado da seguinte forma:

Iteração (da fase de recuperação) até convergência (estabilidade) Atualizar os elementos do vetor de estado x(n) assincronamente (i.e. randomicamente e um por vez), conforme a regra: Repetir a iteração até que o vetor de estado x permaneça inalterado: x(n) = x(n-1)

Geração da saída (da fase de recuperação) O vetor de saída y resultante da rede de Hopfield é definido como: y = x fixo Em que x fixo denota o estado estável computado ao final da etapa anterior (iteração)

Capacidade definida pela teoria da informação como: Ν Μ 2log Ν em que M denota o número de padrões de treinamento (memórias estáveis) e N, o número de neurônios da rede Estados espúrios (mínimos locais de energia): quando M é muito grande, passam a existir estados espúrios (estados que não foram treinados, mas que podem atrair as entradas durante o processo de convergência) Demo: http://www.cbu.edu/~pong/ai/hopfield/hopfieldapplet.html

Redes Recorrentes Derivadas do MLP Incorporam em sua estrutura uma rede estática do tipo Perceptron de múltiplas camadas Exploram as capacidades de mapeamentos não lineares dos Perceptrons de múltiplas camadas Alguns exemplos: NARX Perceptrons Recorrentes por Camada Jordan Elman

Redes Recorrentes Derivadas do MLP NARX: Nonlinear autoregressive with exogenous inputs Valores passados e presentes da entrada que representam as entradas externas da rede: u n, u n-1,...,u n-q+2,u n-q+1 Valores de atraso da saída, representados por: y n, y n-1,...,y n- q+1 O comportamento dinâmico é denotado por uma função não linear: y n+1 = F(y n, y n-1,...,y n-q+1 ;u n, u n-1,...,u n-q+2,u n-q+1 )

Redes Recorrentes Derivadas do MLP NARX: Arquitetura entrada retroalimentação Perceptron de Múltiplas Camadas Saída

Redes Recorrentes Derivadas do MLP Redes Recorrentes Simples Elman: três camadas (entrada, escondida e de saída) mais uma camada de contexto realimentando a camada escondida Jordan: a camada de contexto realimenta apenas a camada de saída Unidades de Contexto Operadores de atraso de tempo unitário Vetor de Entrada Camada Escondida Camada de Saída Vetor de Saída Percentron de Múltiplas camadas com apenas uma camada escondida

Redes Recorrentes Derivadas do MLP Perceptron Multicamada Recorrente (Layer Recurrent Network): caso mais geral para redes de Jordan e Elman Unidades de Contexto Operadores de atraso de tempo unitário Vetor de Entrada 1ª Camada Escondida 2ª Camada Escondida Camada de Saída Vetor de Saída Percentron com múltiplas camadas escondidas Ver exemplos no Matlab http://www.kxcad.net/cae_matlab/toolbox/nnet/newlrn.html http://www.mathworks.com/help/toolbox/nnet/ug/bss36ea-1.html

? Dúvidas