O Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM)

Documentos relacionados
Classificação de grandes bases de dados utilizando algoritmo de Máquina de Aprendizado Extremo

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

ALGORITMO BASEADO EM CARDUMES DE PEIXES MODIFICADO PARA A OTIMIZAÇÃO DE EXTREME LEARNING MACHINES

Introdução às Redes Neurais Artificiais

SISTEMA HÍBRIDO BASEADO EM EXTREME LEARNING MACHINE E HARMONY SEARCH

14ª Conferência sobre Tecnologia de Equipamentos

Melhorando Redes Neurais do Tipo Extreme Learning Machine Através da Otimização por Enxame de Partículas com Mecanismo de Seleção

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

3 Redes Neurais Artificiais

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Redes Neurais Polinomiais Construtivas Baseadas em Inversão de Matrizes e Evolução Diferencial

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

Aprendizagem de Máquina

JAI 6 - Deep Learning Teoria e Prática

Otimização via enxame de partículas para treinamento de redes neurais artificiais do tipo ELM: Um estudo de caso para predição de séries temporais

Fundamentos de Inteligência Artificial [5COP099]

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs)

Aprendizagem de Máquina

Variações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa

leonardo josé silvestre R E G U L A R I Z A Ç Ã O D E E X T R E M E L E A R N I N G M A C H I N E S : U M A A B O R D A G E M C O M M AT R I Z E S D

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

ESTRATÉGIA PARA SELEÇÃO DE SUB-BANDAS WAVELET EM SISTEMAS DE MONITORAMENTO DE DESCARGAS PARCIAIS

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Rede RBF (Radial Basis Function)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Aprendizagem de Máquina

Redes Neurais Artificiais. Professor: Juan Moises Villanueva

Mapas Auto Organizáveis SOMs Mapas de Kohonen

TREINAMENTO DE REDES PERCEPTRON DE MÚLTIPLAS CAMADAS UTILIZANDO O CONCEITO DE SPARSE DISTRIBUTED MEMORY

Aprendizagem de Máquina

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:

Redes Neurais MLP: Exemplos e Características

Introdução à Mineração de Dados com Aplicações em Ciências Espaciais

Aprendizagem de Máquina

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Avaliando Hipóteses. George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE

SUPPORT VECTOR MACHINE - SVM

2. Redes Neurais Artificiais

Redes Neurais (Inteligência Artificial)

Universidade Federal de São Carlos Departamento de Estatística. Plano de Ensino (B) - Teoria de Matrizes para Estatística

Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais

Classificadores Lineares

Classificação Hierárquica Multirrótulo Utilizando Redes Neurais Artificiais

Redes Neurais Artificiais

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Multiple Layer Perceptron

SME0819 Álgebra Matricial Aplicada à Estatística 1 o semestre de Prof. Cibele Russo

Redes Neurais Artificiais

Redes de Funções de Base Radial Radial Basis Functions (RBFs)

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

Redes Neurais Artificial

p TPP = (6.1) e a rajada de perda de pacote é medida pela Comprimento Médio da Rajada (CMR ) que é dada por

2. Redes Neurais Artificiais

Paradigmas de Aprendizagem

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

3 Modelos Comparativos: Teoria e Metodologia

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Máquinas Desorganizadas: Echo State Networks Extreme Learning Machines

Reconhecimento de Padrões/Objetos

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

Aprendizado de Máquina. Combinando Classificadores

Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC

Um Wrapper para Seleção de Eletrodos em Interfaces Cérebro Computador Baseadas em Imaginação de Movimento

SEMINÁRIO DOS ARTIGOS:

LEONARDO DANIEL TAVARES TREINAMENTO MULTIOBJETIVO DE EXTREME LEARNING MACHINES UTILIZANDO DECOMPOSIÇÃO EM VALORES SINGULARES

REGRESSÃO LOGÍSTICA E REDES NEURAIS ARTIFICIAIS:UM PROBLEMA DE ESTRUTURA DE PREFERÊNCIA DO CONSUMIDOR E CLASSIFICAÇÃO DE PERFIS DE CONSUMO

PCC146 RECONHECIMENTO DE PADRÕES Trabalho Pacial

Unidade 08 MATLAB Neural Network Toolkit

Aprendizado de Máquina (Machine Learning)

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Utilização de Redes Neurais Artificiais para Interpolação de Resultados do Método de Elementos Finitos

Máquinas de suporte vetorial e sua aplicação na detecção de spam

INF 1771 Inteligência Artificial

Máquinas de Aprendizado Extremo para Classificação Online de Eventos no detector ATLAS

3 INTELIGÊNCIA COMPUTACIONAL (IC)

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Algoritmos de Aprendizado

Redes Neurais Artificiais

Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy

JAI 6 - Deep Learning Teoria e Prática

2. Redes Neurais Artificiais

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Redes neurais artificiais

Transcrição:

O Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM) Thiago Henrique Cupertino SCE5809 - Redes Neurais 23 de Novembro de 2010

Conteúdo Introdução Desvantagens do Back-Propagation Máquina de Aprendizado Extremo ELM: Teoria Algoritmo ELM: Características Matriz Pseudo-Inversa Resultados de Simulações Extensões do ELM ELM Podado Demais Referências

Introdução Tradicionalmente, todos os parâmetros de uma rede unidirecional têm que ser ajustados; Métodos baseados em gradiente descendente têm sido usados em vários algoritmos de treinamento (p. ex., algoritmo Back- Propagation); Tais métodos consomem grande tempo de treinamento devido ao ajuste iterativo dos parâmetros.

Desvantagens do Back-Propagation Quando a taxa de treinamento η é muito pequena, o algoritmo de treinamento converge muito lentamente. Caso contrário, quando η é muito grande, o algoritmo se torna instável e a rede diverge; É indesejável que o algoritmo pare em um mínimo local distante do mínimo global;

Desvantagens do Back-Propagation Redes Neurais podem ser super-treinadas com o algoritmo BP de maneira que a generalização fique prejudicada (overfitting); Aprendizado baseado em gradiente descendente pode consumir demasiado tempo de treinamento em muitas aplicações.

Máquina de Aprendizado Extremo Esse algoritmo contorna as desvantagens citadas anteriormente; Foi desenvolvido para redes com apenas duas camadas: a camada de entrada e a camada escondida; G.-B. Huang, Q.-Y. Zhu e C.-K. Siew, Extreme Learning Machine: Theory and Applications, Neurocomputing 70, 489-501 (2006).

Máquina de Aprendizado Extremo Os pesos de entrada e os bias da camada escondida são escolhidos aleatoriamente; Os pesos da camada de saída são determinados analiticamente (i. e., não há ciclos iterativos para ajuste de parâmetros). G.-B. Huang, Q.-Y. Zhu e C.-K. Siew, Extreme Learning Machine: Theory and Applications, Neurocomputing 70, 489-501 (2006).

ELM: Teoria Desenvolvido para redes com 2 camadas (Single Layer Feedforward Network - SLFN):

ELM: Teoria Modelagem matemática: (x j, t j ): N padrões de entrada; w i : vetor peso do neurônio i da camada escondida; b i : bias do neurônio i da camada escondida; Ñ: número de neurônios da camada escondida. β i : vetor peso entre o neurônio escondido i e a camada de saída.

Em forma matricial: ELM: Teoria

ELM: Teoria S. Tamura e M. Tateishi, Capabilities of a Four-Layered Feedforward Neural Network: Four Layers Versus Three, IEEE Trans. Neural Networks 8 (2), 251-255 (1997). G.-B. Huang, Learning Capability and Storage Capacity of Two-Hidden-Layer Feedforward Networks, IEEE Trans. Neural Networks 14 (2), 274-281 (2003).

ELM: Teoria Se o número de neurônios Ñ da camada escondida é igual ao número N de exemplos de treinamento, N = Ñ, então a matriz H é quadrada e inversível quando o vetor de pesos w i e os bias b i são aleatoriamente escolhidos e, assim, as a SLFNs podem aprender estes exemplos de treinamento com erro zero.

ELM: Teoria Entretanto, na maioria dos casos o número de neurônios da camada escondida é muito menor do que o número de exemplos distintos de treinamento, Ñ << N, e a matrix H não é quadrada; Solução de mínimos quadrados com a menor norma: β = H T; H : matriz inversa generalizada de Moore- Penrose da matriz H (pseudo inversa). C. R. Rao e S. K. Mitra, Generalized Inverse of Matrices and its Applications, Wiley, New York (1971).

Algoritmo ELM INÍCIO Passo 1: Selecionar aleatoriamente valores para os pesos w i e os bias b i, i = 1,..., N; Passo 2: Calcular a matriz de saída H da camada escondida. Passo 3: Calcular os pesos de saída β = H T. FIM

Algoritmo ELM: Características Menor erro de treinamento: A solução β = H T é uma das soluções de mínimos quadrados de um sistema linear geral Hβ = T, o que significa que o menor erro de treinamento pode ser encontrado por esta solução. Menor norma dos pesos: Além disso, a solução β = H T tem a menor norma entre todas as soluções de mínimos quadrados de Hβ = T. A solução de menor norma é única. P. L. Bartlett, The Sample Complexity of Pattern Classification with Neural Networks: The Size of the Weights is More Important than the Size of the Network, IEEE Trans. Inf. Theory 44 (2), 525-537 (2003).

Algoritmo ELM: Matriz Pseudo Inversa H satisfaz as seguintes propriedades: 1. H H H = H 2. H H H = H 3. (H H ) T = H H 4. (H H) T = H H Pode ser calculada eficientemente pelo método da Decomposição por Valores Singulares (Singular Value Decomposition - SVD).

Resultados de Simulações: sinc(x) Função sinc(x): ELM: 170 vezes mais rápido do que BP e 10000, do que SVR.

Resultados de Simulações: sinc(x)

Resultados de Simulações: sinc(x)

Resultados de Simulações: Vegetações Florestais Compreende em 581.012 instâncias e 54 atributos para cada instância. Classificação consistiu em separar a classe 2 das demais 6 classes. Tempo ELM 430 vezes menor do que SVM. R. Collobert, S. Bengio e Y. Bengio, A Parallel Mixtures of SVMs for Very Large Scale Problems, Neural Comput. 14, 1105-1114 (2002).

Resultados de Simulações: Vegetações Florestais Generalização do ELM é melhor.

Extensões do ELM ELM com Critérios de Poda: melhora casos de overfitting, underfitting e generalização; ELM Evolutivo: melhora generalização e diminui tamaho da rede; ELM Baseado em Método de Otimização: estudo teórico comparando ELM e SVM. Y. Miche, A. Sorjamaa, P. Bas, O. Simula, C. Jutten e A. Lendasse, OP-ELM: Optimally Pruned Extreme Learning Machine, IEEE Trans. Neural Networks 21 (1), 158-162 (2010). H. J. Rong, Y.-S. Ong, A.-W. Tan e Z. Zhu, A Fast Pruned-Extreme Learning Machine for Classification Problem, Neurocomputing 72 (1-3), 359-366 (2008). Q.-Y. Zhu, A. K. Qin, P. N. Suganthan e G.-B. Huang, Evolutionary Extreme Learning Machine, Pattern Recognition 38, 1759-1763 (2005). G.-B. Huang, X. Ding e H. Zhou, Optimization Method Based Extreme Learning Machine for Classification, Neurocomputing (Article in Press), (2010).

Optimally Pruned ELM Erro Médio Quadrático (negrito) e Desvio Padrão Y. Miche, A. Sorjamaa, P. Bas, O. Simula, C. Jutten e A. Lendasse, OP-ELM: Optimally Pruned Extreme Learning Machine, IEEE Trans. Neural Networks 21 (1), 158-162 (2010).

Outras Referências Artigos, conferências e códigos-fonte: http://www3.ntu.edu.sg/home/egbhuang/ FIM