Echo State Networks. Fabricio Breve João Bertini

Documentos relacionados
IF-705 Automação Inteligente Perceptrons de Múltiplas Camadas

Redes Neurais Artificiais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática

Neural Networks. Neurônios: Elementos aritméticos simples. Redes Neuronais: conj de neurônios interligados.

2. Redes Neurais Artificiais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

IN Redes Neurais

Previsão de consumos a curto prazo

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

Inteligência Artificial

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

Aprendizado de Máquina

3 Redes Neurais Artificiais

Artificial Neural Network Prediction for Cancer Survival Time by Gene Expression Data IEEE, 2009

Redes Neurais e Sistemas Fuzzy

Aprendizado por imitação usando Redes Neurais

2. Redes Neurais Artificiais

Redes neurais artificiais

Máquinas Desorganizadas: Echo State Networks Extreme Learning Machines

Redes Neurais Artificiais

Introdução à Teoria do Aprendizado

Unidade 08 MATLAB Neural Network Toolkit

Redes Neurais Convolucionais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

Redes Neurais Convolucionais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

IF-705 Automação Inteligente Sistemas de Controle - Fundamentos

Thiago Christiano Silva

Identificação Neural com Uso do Sinal de Erro de Predição

REDES BASEADAS EM PROJEÇÕES ALEATÓRIAS PARA PREDIÇÃO NÃO-LINEAR DE SÉRIES TEMPORAIS CAÓTICAS

CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS.

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Capítulo 1. Redes Neuronais Artificiais - Origem, história e aplicações. ADC/DEI/FCTUC/CA/Cap.1/2005 1

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

2. Redes Neurais Artificiais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Inteligência Artificial Redes Neurais

Introdução às Redes Neurais Artificiais

Algoritmos Genéticos e Evolucionários

PRINCÍPIOS DE NEUROCOMPUTAÇÃO

4 Redes Neurais Artificiais

2. Redes Neurais Artificiais

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela

ALGORITMOS EVOLUCIONÁRIOS PARA OTIMIZAÇÃO DE REDES NEURAIS ARTIFICIAIS

Aprendizagem de Máquina

Rede RBF (Radial Basis Function)

Introdução às Redes Neurais Artificiais

MP-208: Filtragem Ótima com Aplicações Aeroespaciais

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Ambiente MATLAB. Redes Neurais. Tela Principal do MATLAB MATLAB 6.5. MATLAB MATrix LABoratory. Programação baseada em Matrizes

Parte 7. Redes Neurais INTRODUÇÃO

Modelos não recorrentes RNA Feed-Forward: MLP - Backpropagation, RProp,CasCor (HiperPlanos) RBF Radial Basis Function (Clusters)

Aprendizado de Máquina (Machine Learning)

Fundamentos de Inteligência Artificial [5COP099]

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE SÉRIES TEMPORAIS

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Redes Neurais Artificiais. Professor: Juan Moises Villanueva

VRS usando redes neurais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

Autoescalonamento de máquinas virtuais baseado em séries temporais e thresholds.

Por que Redes Neurais?

DISCIPLINAS OPTATIVAS PERFIL TEÓRICO

Máquinas de suporte vetorial e sua aplicação na detecção de spam

Análise comparativa entre métodos estatístico e rede neural aplicados em séries temporais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Resumo. Sistemas e Sinais Apresentação da disciplina. Páginas WWW. Docentes

Utilizando Reservoir Computing para a Previsão da Potência do Vento

Aprendizagem de Máquina

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

O Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM)

Predição de Utilização de Recursos Computacionais Usando Séries Temporais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

SCC Capítulo 2 Topologia e Representação

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Classificação Hierárquica Multirrótulo Utilizando Redes Neurais Artificiais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Redes Neurais Artificiais

Palavras-chave: distribuição de energia elétrica; fluxo de potência; regulador de tensão.

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

IF-705 Automação Inteligente Redes Neurais para Modelagem e Controle

Aprendizagem de Máquina

COMPARAÇÃO DE ARQUITETURAS DE REDES NEURAIS ARTIFICIAIS UTILIZADAS PARA A PREVISÃO DE CARGAS ELÉTRICAS UTILIZANDO AS TOOLBOXES DO MATLAB

INTELIGÊNCIA ARTIFICIAL

Tópicos sobre Redes Neurais

2. Redes Neurais Artificiais

1 O que é uma Rede Neuronal?

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

CURSO: ENGENHARIA DE CONTROLE E AUTOMAÇÃO EMENTAS º PERÍODO

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

Inteligência Computacional

Transcrição:

Echo State Networks Fabricio Breve João Bertini

RNN Tarefas Filtragem e predição Classificação de Padrões Modelagem de Seqüências Estocásticas Memória Associativa Compressão de Dados

RNN Aplicações Telecomunicações Controle de usinas químicas Controle de motores e geradores Monitoramento de falhas, diagnósticos biomédicos e monitoramento Reconhecimento de fala Robótica e brinquedos Análise de dados de vídeo Interfaces homem-máquina

ESN - Definição Modelo recente de rede neural recorrente (RNR) com aprendizado de complexidade linear [Jaeger, Haas 2004]. RNR Rede neurais que usam saídas de neurônios da rede no tempo t, como entrada para outros neurônios no tempo t+1.

RNN Algoritmos mais usados Backpropagation through time (BPTT) Não garante convergência para mínimo global; Extremamente lento; Necessidade de tentativa e erro; Real time recurrent learning (RTRL) Técnica de aprendizado com forte embasamento matemático; Alto custo computacional; Limitado a pequenas redes

ESN - Motivações RN Feedforward difícil de treinar; muitas vezes intratável; não dinâmico; RN Recorrentes boa performance; dinâmico; Echo State Networs: Rede recorrente com aprendizado de complexidade linear.

ESN Motivações Maioria dos modelos recorrentes requerem convergência a pontos estáveis [Hertz et al. 1991]. Problemas Necessidade de muitos pontos estáveis para armazenar informação (ex. 1024 ptos para 10 bits); Tempo de convergência para pontos estáveis inviabiliza computação em tempo real;

Propriedade de Echo State O estado de ativação x(n) de uma rede neural recorrente é uma função do histórico de entradas u(n), u(n-1),... Ou seja, existe uma função E tal que: x(n) = E(u(n), u(n-1),... ) O estado x(n) é visto como um eco das entradas anteriores.

ESN - Imposições Maior dos auto-valores de W tem que ser menor que 1; Conectividade de W esparsa (1-20%);

ESN - Estrutura

ESN - Funções de ativação x ( n + 1) = f ( W u( n + 1) + Wx( n) W y( n) ) in + back y ( n + 1) = f ( W ( u( n + 1) x( n 1) y( n) )) out out +

ESN Habilidade de treinar sem modificar pesos da rede. Somente os pesos do reservatório para a saída são calculados. Como não há dependências cíclicas entre os neurônios de saída, o treinamento torna-se linear

ESN - Reservatório O reservatório, possui grande número de neurônio (50 a 100); Neurônios são randomicamente conectados; O reservatório pode ser excitado pelo input ou pelo output; Conexões do reservatório não mudam durante treinamento;

ESN - Rede

Treinamento/Inicializações As inicializações de W W in e W out são feitas por meio de alguma heurística, com a restrição de que W seja espaça e tenha raio espectral menor que 1. Win e Wout: Pesos pequenos geram redes com dinâmicas quase linear; pesos grandes geram redes com dinâmica não-linear;

Treinamento Treine a rede apresentando a entrada u(n) e forçando a saída d(n-1), usando a equação: x ( n + 1) = f ( W u( n + 1) + Wx ( n ) W d( n )) in + back Para cada entrada, colete o estado x(n) = (x 1 (n),..., x N (n)) em uma linha da matriz M. Armazene também, o valor da função f -1 d(n) em T.

Calculando os pesos de saída Executa-se o procedimento anterior por um tempo T > T 0. Então a matriz de pesos é definida por: W outt = M -1 T

Referencias Bibliográficas H. Jaeger (2002): Tutorial on training recurrent neural networks, covering BPTT, RTRL, EKF and the "echo state network" approach. GMD Report 159, German National Research Center for Information Technology, 2002 (48 pp.) H. Jaeger(2001): The "echo state" approach to analysing and training recurrent neural networks. GMD Report 148, German National Research Center for Information Technology, 2001 (43 pp.)

Referencias Bibliográficas H. Jaeger (2002): Adaptive nonlinear system identification with echo state networks. In Advances in Neural Information Processing Systems 15, S. Becker, S. Thrun, K. Obermayer (Eds), (MIT Press, Cambridge, MA, 2003) pp. 593-600 Skowronski, M.D. Harris, J.G. Minimum mean squared error time series classification using an echo state network prediction model, In: Proceedings of the IEEE International Synposium in Circuits and Systems, ISCAS 2006.