TREINAMENTO DE REDES PERCEPTRON DE MÚLTIPLAS CAMADAS UTILIZANDO O CONCEITO DE SPARSE DISTRIBUTED MEMORY

Tamanho: px
Começar a partir da página:

Download "TREINAMENTO DE REDES PERCEPTRON DE MÚLTIPLAS CAMADAS UTILIZANDO O CONCEITO DE SPARSE DISTRIBUTED MEMORY"

Transcrição

1 TREINAMENTO DE REDES PERCEPTRON DE MÚLTIPLAS CAMADAS UTILIZANDO O CONCEITO DE SPARSE DISTRIBUTED MEMORY Leonardo Jose Silvestre, Cristiano Leite de Castro, Antônio de Padua Braga Universidade Federal de São João del Rei São João del Rei, MG Universidade Federal de Lavras Lavras, MG Universidade Federal de Minas Gerais Belo Horizonte, MG s: lsilvestre@ufsj.edu.br, ccastro@dcc.ufla.br, apbraga@ufmg.br Abstract This paper presents an alternative approach to Multi-Layer Perceptron (MLP) neural network learning through the orthogonalization principle of Karnerva s Sparse Distributed Memory. The learning process occurs in two steps: firstly, the weights of hidden layer are updated in order to map orthogonal projections of the input patterns into a high dimension feature space; secondly, the weights of output layer are adjusted by solving a simple optimization problem. In experiments conducted on binary classification problems, our method was compared with traditional learning algorithms for MLPs: BackPropagation and Levenberg-Marquardt. The results achieved on synthetic and real (from UCI repository) data sets point out that our approach is promising. Keywords Multi-Layer Perceptrons, Training, Sparse Distributed Memory, Orthogonalization Resumo Esse artigo apresenta uma abordagem alternativa para o aprendizado de Redes Perceptron de Múltiplas-Camadas (Multi-Layer Perceptron - MLP) através do princípio de ortogonolização da Sparse Distributed Memory de Kanerva. O aprendizado ocorre em duas etapas: inicialmente, os pesos da camada escondida são atualizados para que os padrões de entrada tornem-se aproximadamente ortogonais em um espaço de caracteríticas de alta dimensão; em seguida, os pesos da camada de saída são atualizados a partir da solução de um problema de otimização mais simples. Nos experimentos conduzidos com problemas binários de classificação, nosso método foi comparado com algoritmos comumente usados para o aprendizado de redes MLP: BackPropagation e Levenberg-Marquardt. Os resultados obtidos em termos da taxa de erro de validacão para bases de dados sintéticas e reais (repositório UCI) indicam que nossa abordagem é promissora. Palavras-chave Multi-Layer Perceptrons, Treinamento, Sparse Distributed Memory, Ortogonalização 1 Introdução Desde a descrição do algoritmo Back-Propagation (Rumelhart et al., 1986), grande parte dos novos algoritmos de aprendizado para redes Perceptron de Múltiplas Camadas (MLPs) ajustam os pesos de todas as camadas da rede, a partir dos sinais de erro obtidos nas unidades de saída. O surgimento das máquinas de kernel (Cortes and Vapnik, 1995; Muller et al., 2001), no entanto, proporcionou uma nova perspectiva para o problema de aprendizado ao descrevê-lo em duas etapas: mapeamento não-linear dos padrões de entrada, através de um kernel previamente ajustado, seguido da estimação de uma separação linear no chamado espaço de características de alta dimensão (Cristianini and Shawe-Taylor, 2000). Uma vez definidos os parâmetros do kernel e o mapeamento correspondente, um problema de otimização é então resolvido. No contexto de Redes Neurais Artificiais (RNAs), abordagens que tratam o problema de aprendizado através de etapas independentes são geralmente baseadas no princípio da ortogonalização da camada escondida (intermediária). Segundo esse princípio, os pesos da camada escondida devem ser ajustados independentemente para que seus vetores de saída tornem-se ortogonais. Após essa etapa, um problema mais simples é então considerado na camada de saída. A maioria dos trabalhos conduzidos nessa linha utilizam o método de Gram-Schmidt (Hoffmann, 1989) para ortogonalização e têm como objetivo principal determinar a estrutura ótima (número de neurônios escondidos) das RNAs. Em (Chen et al., 1991), os autores propuseram o algoritmo Orthogonal Least Squares para redes RBF (Função de Base Radial). (Zhang and Morris, 1998) adotaram uma abordagem de treinamento sequencial para redes MLP, na qual a cada passo um novo neurônio da camada escondida é adicionado. Em (Romero and Alquézar, 2007), os autores avaliaram diferentes algoritmos para treinamento sequencial de redes MLP e concluíram que os baseados no princípio de ortogonalização da camada escondida superam os métodos tradicionais. Não obstante, a descrição do modelo de memória esparsamente distribuída (SDM - Sparse Distributed Memory) de Kanerva (Kanerva, 1988; Kanerva, 1993) oferece uma alternativa promissora para a ortogonalização das projeções na camada escondida. De acordo com a SDM, quando o número de neurônios da camada escondida é muito elevado (espaço de características de alta 3886

2 dimensão) e seus mapeamentos são selecionados aleatoriamente, os vetores de saída tendem a se tornar ortogonais. Essa característica possibilita que um problema de classificação de padrões não linearmente separável no espaço de entrada tornese linearmente separável no espaço de características. A abordagem adotada nesse trabalho explora esse conceito, que é muito similar à abordagem usada por máquinas de kernel. Em particular, redes MLP foram treinadas em duas etapas, através do princípio de ortogonalização das memórias SDM, e comparadas com algoritmos de treinamento tradicionais, tais como, Back-Propagation (Rumelhart et al., 1986) e Levenberg-Marquardt (Hagan and Menhaj, 1994). Experimentos foram conduzidos com problemas binários de classificação e os resultados obtidos em termos da taxa de erro de validação para bases de dados sintéticas e reais (repositório UCI) indicam que nossa abordagem é promissora. O restante do artigo é apresentado da seguinte forma: as Seções 2 e 3, a seguir, descrevem os conceitos teóricos que fundamentam nossa abordagem: redes Perceptron de Múltiplas Camadas e Sparse Distributed Memory (SDM). Em seguida, na Seção 4, nossa proposta para o treinamento de redes MLP a partir do conceito de ortogonalização da SDM é apresentada. Na Seção 5, são descritos a metodologia adotada na condução dos experimentos e os resultados obtidos. Finalmente, a Seção 6 traz as discussões e as conclusões. 2 Perceptron de Múltiplas Camadas Desde que o escopo do trabalho é limitado a problemas binários de classificação, considere uma rede Perceptron de Múltiplas Camadas (MLP) com n entradas, uma camada escondida com h unidades (neurônios) e uma camada de saída contendo uma única unidade. O valor de saída obtido na unidade escondida k da rede MLP, devido à apresentação de um padrão arbitrário x, é dado por (Haykin, 1994), z k = f ( ) w k x = f n w kj x j. (1) j=0 onde o vetor w k = {w k0, w k1,..., w kn } representa a coleção de pesos conectada ao k-ésimo neurônio da camada escondida. A coleção de todos os pesos da camada escondida é denotada por w E = {w 1, w 2,..., w h }. Similarmente, o valor obtido na unidade de saída da rede é calculado com base nos valores de saída emitidos pelas unidades escondidas (Haykin, 1994), y = f ( ( ) h ) w S z = f w k z k k=0. (2) na qual o vetor w S = {w 0, w 1,..., w h } representa os pesos da camada de saída da rede. Por questão de simplicidade, o termo bias foi considerado como uma unidade (entrada/escondida) extra com valor igual a 1. Seja T = {x(i), d(i)} N i=1, o conjunto de N padrões de treinamento, com x(i) R n e d(i) {0, 1}. A grande maioria dos algoritmos propostos para o aprendizado de redes MLP (Rumelhart et al., 1986; Hagan and Menhaj, 1994; Teixeira et al., 2000; Costa et al., 2007) realizam o ajuste de todos os pesos da rede w = {w E, w S } de uma só vez. Em geral, esse ajuste é baseado na minimização de um funcional que leva em consideração somente os sinais de erro obtidos na unidade de saída da rede, como é o caso do funcional somatório dos erros quadráticos médios, dado pela Equação 3, a seguir (Haykin, 1994), J(w) = 1 2N N (d(i) y(i)) 2. (3) i=1 3 Sparse Distributed Memory A memória esparsamente distribuída (SDM - Sparse Distributed Memory) surgiu como um modelo matemático da memória humana de longo prazo (Kanerva, 1988; Kanerva, 1993). A idéia na qual ela foi baseada foi a de que distâncias entre conceitos nas nossas mentes correspondem a distâncias entre pontos em um espaço de alta dimensão. Como qualquer ponto de interesse em um espaço de alta dimensão está relativamente distante de outros pontos de interesse nesse mesmo espaço, a representação de um ponto de interesse específico não precisa de ser exata. A SDM pode ser comparada a uma memória de acesso randômico (RAM - Random Access Memory) de grande capacidade, composta por uma matriz de endereços, uma matriz de conteúdos e registradores de endereço muito grandes (da ordem de 1000 bits). Desde que os endereços são grandes, é impossível mapear uma posição de hardware para cada endereço. Assim, na SDM, raramente um endereço do registrador vai apontar para uma posição de hardware, pois o número de endereços possíveis é muito maior do que as posições de hardware disponíveis (por isso o nome esparsa ). Um endereço, então, ativa um conjunto de posições próximas, baseadas na distância de Hamming. Além de ser representada como uma memória associativa (Haykin, 1994) - em (Bose et al., 2006), por exemplo, os autores usam SDM como parte de uma memória associativa para reconhecimento e predição online de sequências temporais-, a SDM pode ser representada como uma rede neural feedforward, síncrona e totalmente conectada, com uma camada escondida. Uma outra propriedade 3887

3 interessante da SDM é que, se o número de neurônios da camada escondida cresce, ou seja, os padrões de entrada são mapeados para um espaço de alta dimensão, e seus mapeamentos são selecionados aleatoriamente, os padrões tendem a se tornar ortogonais. 4 Algoritmo de Treinamento Proposto Como mencionado anteriormente, nossa abordagem considera uma rede MLP com somente uma camada escondida, conforme pode ser visto pela Figura 1. Com base no princípio da SDM, a camada escondida é configurada com um número h elevado de neurônios, para que os padrões de entrada sejam projetados em um espaço de alta dimensão. Uma vez selecionado o valor de h, é gerado um vetor (de dimensão h) de saídas desejadas d E (i) na camada escondida para cada padrão arbitrário x(i) do conjunto de treinamento. Cada componente do vetor d E (i) é obtido de forma aleatória, podendo assumir os valores 0 ou 1 com probabilidade 0.5. Desde que o treinamento dos neurônios das camadas escondida e de saída ocorre de forma independente, funções de ativação contínuas e diferenciáveis (do tipo sigmóide), comumente adotadas por métodos de treinamento tradicionais baseados no cálculo do gradiente, não são mais necessárias. Assim, funções de ativação heaviside (tipo degrau) foram usadas em todos os neurônios da rede. O processo de aprendizado ocorre em duas etapas: 1. A coleção de pesos w E = {w 1, w 2,..., w h } da camada escondida é ajustada com base nos vetores de saída desejada d E (i) gerados para cada padrão de treinamento x(i). Considerando o k-ésimo neurônio da camada escondida, o ajuste de um peso arbitrário w kj é baseado na regra de aprendizado do Perceptron (Haykin, 1994), w kj = w kj + η (d E k z k ) x j. (4) 2. Após o ajuste de todos os pesos da camada escondida, o vetor de pesos da camada de saída w S = {w 0, w 1,..., w h } é ajustado com base nas saídas desejadas d(i) fornecidas a partir do conjunto de treinamento T = {x(i), d(i)} N i=1. Assim, de forma similar, o ajuste de um peso arbitrário w k é também baseado na regra do Perceptron (Haykin, 1994), w k = w k + η (d k y k ) z k. (5) A etapa inicial de ajuste dos pesos da camada escondida possibilita que as projeções dos padrões de entrada tornem-se aproximadamente ortogonais em um espaço de alta dimensão. Em seguida, o ajuste dos pesos da camada de saída permite a definição um hiperplano de separação nesse espaço de características. 5 Experimentos e Resultados Nessa Seção, experimentos foram conduzidos com bases de dados sintéticas e reais extraídas do repositório UCI (Asuncion and Newman, 2007). Os resultados obtidos com nosso algoritmo (SDM) foram comparados aos algoritmos Back-Propagation com momentum e Levenberg-Marquardt. A seguinte metodologia foi adotada para cada base de dados: Número de Neurônios da Camada Escondida (h): para o algoritmo SDM foram testados os seguintes valores de h: 100, 500, 1000 e Para os demais algoritmos, foram usados 3, 5, 11 e 15. Número de Execuções: para cada valor de h, foram conduzidas 10 execuções com diferentes subconjuntos de treinamento e validação obtidos a partir do procedimento 10-fold crossvalidation (Stone, 1974). Métrica de Desempenho: foram calculados a taxa média de erro e o desvio padrão sobre as 10 execuções, em relação aos subconjuntos de treinamento e validação. As Tabelas, nas Seções a seguir, mostram somente os resultados obtidos com a melhor configuração de h (número de neurônios escondidos) para cada algoritmo. Nos casos raros em que diferentes configurações obtiveram valores iguais em relação ao valor médio do erro de validação, o desempate foi realizado pelo menor erro médio de treinamento. 5.1 Dados Sintéticos Nesse experimento, foi utilizado um conjunto de dados sintético bi-dimensional conhecido como problema dos dois espirais (vide Figura 2). Esse conjunto apresenta duas classes, sendo a primeira representada por círculos, com saída desejada d(i) = 1, e a segunda, representada por asteriscos, possui saída desejada d(i) = 0. O problema é não linearmente separável no espaço de entrada e permite comparar a eficiência do mapeamento definido na camada escondida da rede MLP pelos diferentes algoritmos de treinamento. A Tabela 1 apresenta os resultados obtidos (médias e desvios-padrão em %) com os algoritmos Sparse Distributed Memory (SDM), Back- Propagation (BackProp) e Levenberg-Marquardt (Lev-Marq). São também apresentados os melhores valores de h, número de neurônios na camada escondida. Como pode ser observado, nosso algoritmo (SDM) obteve o melhor desempenho. Os 3888

4 Figura 1: Rede MLP com n entradas, h neurônios na camada escondida e uma unidade de saída. O treinamento foi realizado em duas etapas: inicialmente, a coleção de pesos da camada escondida w E é ajustada a partir dos vetores (mapeamentos) aleatórios d E (i) e, em seguida, o vetor de pesos da camada de saída w S é ajustado com base nas saídas desejadas (rótulos) d(i) fornecidas com o conjunto de treinamento. Tabela 1: Valores médios de erro e desvios-padrão apresentados pelos algoritmos: SDM, BackProp e Lev- Marq. São também apresentados os melhores valores de h, número de neurônios na camada escondida. Erro Treinamento SDM BP LM ± ±3.43 Erro Validação (%) SDM BackProp Lev.-Marq ± ± ±13.5 Num. Neurônios Esc. SDM BackProp Lev.-Marq resultados obtidos em termos de erro de treinamento sugerem que a SDM foi capaz de obter uma representação linearmente separável para os padrões de entrada no espaço de características de alta dimensão. Em termos do erro de validação, SDM foi melhor 8.3 pontos percentuais em relação ao algoritmo Back-Propagation e 15.2 em relação ao Levenberg-Marquardt. 5.2 Bases do Repositório UCI Nesse experimento, foram usadas 7 bases de dados extraídas do Repositório UCI: Breast Cancer, Diabetes, Glass(7), Heart, Ionosphere e Segmen- Tabela 2: Melhores valores de h (número de neurônios na camada escondida) obtidos pelos algoritmos SDM, BP e LM para as bases de bados do Repositório UCI. Base de Dados SDM BP LM Breast Cancer Diabetes Glass Heart Ionosphere Segmentation tation(1) (Asuncion and Newman, 2007). Para bases contendo mais de duas classes: Glass e Segmentation, o rótulo entre parênteses representa a primeira classe com saída desejada d(i) = 1, enquanto as demais classes foram unidas para representar a segunda classe, com saída desejada d(i) = 0. A Tabela 2 apresenta, para cada base de dados, a melhor configuração em relação ao número de neurônios na camada escondida (h) obtida pelos algoritmos Sparse Distributed Memory (SDM), Back-Propagation (BP) e Levenberg-Marquardt (LM). A Tabela 3 compara, respectivamente, as taxas de erro de treinamento e validação obtidos pelos algoritmos quando aplicados às bases de dados do repositório UCI. A média e o desvio padrão, 3889

5 de ortogonalização da SDM tem a vantagem de não depender do ajuste prévio de parâmetros e, conforme observado pelos resultados obtidos em relação ao erro de treinamento, ele permite que problemas não-linearmente separáveis possam ter uma representação mais simples em um espaço de características de alta dimensão. Resultados obtidos em relação a taxa de erro de validação mostraram que nossa abordagem é promissora, principalmente para aplicações que possuem uma representação mais complexa e nãolinearmente separável no espaço de entrada como é o caso do Problema dos dois espirais. Figura 2: Problema dos dois espirais: A classe 1 representada por círculos possui rótulos d(i) = 1 e classe 2 representadas por asteriscos possui rótulos d(i) = 0. apresentados em %, foram calculados a partir de 10 execuções com diferentes subconjuntos de treinamento e validação (10-fold crossvalidation). Os melhores resultados encontram-se marcados em negrito. Analisando os resultados em termos do erro de validação e desconsiderando a base de dados Breast Cancer em que todos algoritmos obtiveram desempenhos muito próximos, pode-se observar pela Tabela 3, que o algoritmo SDM obteve melhor desempenho que o algoritmo Back- Propagation com momentum. Além disso, SDM mostrou-se competitivo em relação ao algoritmo Levenberg-Marquardt, uma vez que ambos apresentaram taxas de erro similares em relação a quase todas as bases de dados. Os resultados sugerem uma leve superioridade do algoritmo SDM em 2 das 7 bases de dados: Glass, Ionosphere. Nos casos em que SDM obteve piores desempenhos: Diabetes e Heart, a diferença parece não ser significativa. Nota-se também que SDM obteve erro de treinamento nulo para todas as bases de dados, o que novamente sugere que nosso método foi capaz de obter uma representação linearmente separável para os padrões de entrada no espaço de características. 6 Discussões e Conclusões Esse trabalho apresentou uma abordagem alternativa que permite descrever o problema do aprendizado de redes MLP em etapas independentes, de forma similar à abordagem adotada por Máquinas de Kernel. Cabe ressaltar, porém, que o princípio É importante frisar que, apesar do tamanho da topologia (número elevado de neurônios na camada escondida), os resultados obtidos em termos do erro de validação sugerem que não houve ocorrência de overfitting. Uma possível explicação para esse fato é que a esparsividade dos vetores de saída da camada escondida, obtidos a partir do princípio de ortogonalização da SDM, fazem com que os pesos da camada de saída assumam valores pequenos proporcionando superfícies de separação mais suaves no espaço de características. Essa conclusão é ainda especulativa e está sendo investigada no momento. Ela, no entanto, se alinha à abordagem utilizada pelas Máquinas de Vetor de Suporte (Cortes and Vapnik, 1995), que não sofrem da chamada maldição da dimensionalidade (Haykin, 1994), por minimizarem a norma euclidiana do hiperplano em um espaço de características de alta dimensão. Nossos esforços futuros estão focados em compreender melhor o comportamento das soluções obtidas com o algoritmo proposto, através de estudos que analisam a margem de separação obtida pelo hiperplano no espaço de características. Além disso, testes devem ser realizados com outros tipos de função de ativação nos neurônios da camada escondida da rede, tais como, sigmóides, gaussianas, entre outras. 3890

6 Tabela 3: Taxas de erro de treinamento e validação (em %) obtidos para as bases do repositório UCI. Os melhores resultados estão marcados em negrito. Base de Dados Erro Treinamento Erro Validação (%) SDM BP LM SDM BP LM Breast Cancer ± ± ± ± ±7.72 Diabetes ± ± ± ± ±5.08 Glass ± ± ± ± ±2.28 Heart ± ± ± ± ±8.68 Ionosphere ± ± ± ± ±5.79 Segmentation ± ± ± ± ±2.30 Referências Asuncion, A. and Newman, D. (2007). UCI machine learning repository. URL: rn/mlrepository.html Bose, J., Furber, S. B. and Shapiro, J. L. (2006). An associative memory for the on-line recognition and prediction of temporal sequences, CoRR abs/cs/ Chen, S., Cowan, C. F. N. and Grant, P. M. (1991). Orthogonal least squares learning algorithm for radial basis function networks, IEEE Transactions on Neural Networks 2(2): Cortes, C. and Vapnik, V. (1995). Support-vector networks, Mach. Learn. 20(3): Costa, M. A., Braga, A. P. and Menezes, B. R. (2007). Improving generalization of mlps with sliding mode control and the levenbergmarquardt algorithm, Neurocomputing 70(7-9): Cristianini, N. and Shawe-Taylor, J. (2000). An Introduction to Support Vector Machines and Other Kernel-based Learning Methods, Cambridge University Press. Muller, K. R., Mika, S., Ratsch, G., Tsuda, K. and Scholkopf, B. (2001). An introduction to kernel-based learning algorithms, IEEE Trans. on Neural Networks 12(2): Romero, E. and Alquézar, R. (2007). Heuristics for the selection of weights in sequential feedforward neural networks: An experimental study, Neurocomput. 70(16-18): Rumelhart, D., Hintont, G. and Williams, R. (1986). Learning representations by backpropagating errors, Nature 323(6088): Stone, M. (1974). Cross-validatory choice and assessment of statistical predictions, Journal of the Royal Statistical Society B 36(1): Teixeira, R., Braga, A., Takahashi, R. and Saldanha, R. (2000). Improving generalization of mlps with multi-objective optimization, Neurocomputing 35(1-4): Zhang, J. and Morris, A. J. (1998). A sequential learning approach for single hidden layer neural networks, Neural Netw. 11(1): Hagan, M. T. and Menhaj, M. B. (1994). Training feedforward networks with the marquardt algoritm, IEEE Transactions on Neural Networks 5(6) pages Haykin, S. (1994). Neural Networks: A Comprehensive Foundation, Macmillan, New York. Hoffmann, W. (1989). Iterative algorithms for gram-schmidt orthogonalization, Computing 41(4): Kanerva, P. (1988). Sparse Distributed Memory (Bradford Books), The MIT Press. Kanerva, P. (1993). Sparse Distributed Memory and Related Models, Oxford University Press, New York, chapter 3, pp

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

O Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM)

O Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM) O Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM) Thiago Henrique Cupertino SCE5809 - Redes Neurais 23 de Novembro de 2010 Conteúdo Introdução Desvantagens do

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.5. Support Vector Machines 2.5. Support Vector Machines (SVM) 2.5.2.

Leia mais

Redes Neurais (Inteligência Artificial)

Redes Neurais (Inteligência Artificial) Redes Neurais (Inteligência Artificial) Aula 13 Support Vector Machines (SVM) Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 14 Support Vector Machines (SVM) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve

Leia mais

Classificadores Lineares

Classificadores Lineares Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Classificadores Lineares David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Funções Discriminantes Lineares Perceptron Support

Leia mais

Máquinas de suporte vetorial e sua aplicação na detecção de spam

Máquinas de suporte vetorial e sua aplicação na detecção de spam e sua aplicação na detecção de spam Orientador: Paulo J. S. Silva (IME-USP) Universidade de São Paulo Instituto de Matemática e Estatística Departamento de Ciência da Computação MAC499 Trabalho de Formatura

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

Echo State Networks. Fabricio Breve João Bertini

Echo State Networks. Fabricio Breve João Bertini Echo State Networks Fabricio Breve João Bertini RNN Tarefas Filtragem e predição Classificação de Padrões Modelagem de Seqüências Estocásticas Memória Associativa Compressão de Dados RNN Aplicações Telecomunicações

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Multi-layer Perceptrons e Backpropagation Marcílio Souto DIMAp/UFRN Redes de várias camadas MLP - Multi-Layer Perceptron (Adaline?!) Backpropagation network Superar as limitações

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace

Leia mais

CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS.

CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS. CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS. A. B. B. GIOPATTO 1, E. A. SILVA 2, T. D. MARTINS 1 1 Universidade Federal de São Paulo, Departamento

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Multiple Layer Perceptron

Multiple Layer Perceptron Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Multiple Layer Perceptron David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Multiple Layer Perceptron (MLP) Backpropagation

Leia mais

Redes neurais artificiais

Redes neurais artificiais Redes neurais artificiais Conceitos em redes neuronais Redes neuronais artificiais (RNA): uma metáfora cerebral para processamento de informações Computação neuronal Muitos usos de RNA para Reconhecimento

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

Avaliação de Técnicas de Aprendizado de Máquina no combate ao SPAM

Avaliação de Técnicas de Aprendizado de Máquina no combate ao SPAM Universidade Federal de Itajubá Mestrado em Ciência e Tecnologia da Computação Avaliação de Técnicas de Aprendizado de Máquina no combate ao SPAM Marcelo Vinícius Cysneiros Aragão 34759 Índice Introdução

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior Aula 2 Introdução Redes Neurais Prof. Dr. Sylvio Barbon Junior barbon@uel.br Sumário 1- Inteligência Artificial 2- Introdução às Redes Neurais Artificiais 3- Modelos de Redes Neurais supervisionados e

Leia mais

4 Estado da Arte do Kernel PCA

4 Estado da Arte do Kernel PCA 4 Estado da Arte do Kernel PCA Conforme apresentado no Capítulo 1, o Kernel PCA é uma técnica promissora para auxiliar no processo de ajuste de histórico, devido a sua capacidade de extrair parte da estatística

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

Mineração de Dados em Biologia Molecular

Mineração de Dados em Biologia Molecular Mineração Dados em Biologia Molecular Principais tópicos André C. P. L. F. Carvalho Monitor: Valéria Carvalho Res Neurais Artificiais Introdução Arquitetura Aprendizado Principais molos Perceptron MLP

Leia mais

Aplicação de redes neurais artificiais na classificação de imagens obtidas por sensoriamento remoto

Aplicação de redes neurais artificiais na classificação de imagens obtidas por sensoriamento remoto Aplicação de redes neurais artificiais na classificação de imagens obtidas por sensoriamento remoto Alexandre G. de Lima 1, Adrião Duarte Dória Neto 1, Jailton Carlos de Paiva 1, Vitor Meneghtetti 1, Xiankleber

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

Anais do IX Congresso Brasileiro de Redes Neurais / Inteligência Computacional (IX CBRN) Ouro Preto de Outubro de 2009

Anais do IX Congresso Brasileiro de Redes Neurais / Inteligência Computacional (IX CBRN) Ouro Preto de Outubro de 2009 A INCORPORAÇÃO DO CONHECIMENTO PRÉVIO NA ESTRATÉGIA DE DECISÃO DO APRENDIZADO MULTI-OBJETIVO Talles H. Medeiros, Antônio P. Braga, Ricardo H. C. Takahashi Universidade Federal de Ouro Preto Departamento

Leia mais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo

Leia mais

Classificação Hierárquica Multirrótulo Utilizando Redes Neurais Artificiais

Classificação Hierárquica Multirrótulo Utilizando Redes Neurais Artificiais Classificação Hierárquica Multirrótulo Utilizando Redes Neurais Artificiais Ricardo Cerri Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo cerri@icmc.usp.br Roteiro Introdução

Leia mais

IF-705 Automação Inteligente Perceptrons de Múltiplas Camadas

IF-705 Automação Inteligente Perceptrons de Múltiplas Camadas IF-705 Automação Inteligente Perceptrons de Múltiplas Camadas Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação aluizioa@cin.ufpe.br

Leia mais

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Reconhecimento de Faces Utilizando Redes Neurais MLP

Reconhecimento de Faces Utilizando Redes Neurais MLP Reconhecimento de Faces Utilizando Redes Neurais MLP Autor: Adilmar Coelho Dantas 1, Orientador: Márcia Aparecida Fernandes 1 1 Programa de Pós-Graduação em Ciência da Computação Universidade Federal do

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis: Back Propagation Fatores importantes para a modelagem da Rede Neural: Seleção de variáveis; veis; Limpeza dos dados; Representação das variáveis veis de entrada e saída; Normalização; Buscando melhor Generalização

Leia mais

p TPP = (6.1) e a rajada de perda de pacote é medida pela Comprimento Médio da Rajada (CMR ) que é dada por

p TPP = (6.1) e a rajada de perda de pacote é medida pela Comprimento Médio da Rajada (CMR ) que é dada por 6 Perdas de Pacotes O problema de perda de pacotes em rajadas nas redes IP e redes móveis é um dos fatores mais importantes a serem considerados na análise de sistemas de reconhecimento de voz distribuídos.

Leia mais

Redes Neurais Artificiais. Professor: Juan Moises Villanueva

Redes Neurais Artificiais. Professor: Juan Moises Villanueva Redes Neurais Artificiais Mestrando: Lucas Nicolau Email: lucasfnicolau@gmail.com Professor: Juan Moises Villanueva Rede Neural Direta Arquitetura com múltiplas camadas com fluxo de informação apenas em

Leia mais

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a

Leia mais

Treinamento Multi-Objetivo de Redes Neurais Artificiais Baseado em Coordenadas Esféricas

Treinamento Multi-Objetivo de Redes Neurais Artificiais Baseado em Coordenadas Esféricas Treinamento Multi-Objetivo de Redes Neurais Artificiais Baseado em Coordenadas Esféricas Honovan Paz Rocha, Marcelo Azevedo Costa e Antônio Pádua Braga Programa de Pós-Graduação em Engenharia Elétrica

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio REDES NEURAIS Sistema Nervoso 2 O que é? É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos Engloba o cérebro Sua unidade fundamental é o neurônio Se diferencia

Leia mais

Tópicos sobre Redes Neurais

Tópicos sobre Redes Neurais Tópicos sobre Redes Neurais -Memórias Matriciais -Modelos Híbridos -Redes de Base Radial(RBF) -Redes Construtivas -Redes Recorrentes Prof João Alberto Fabro IF67D Sistemas Inteligentes 1 Dep de Informática

Leia mais

PREVISÃO DA DEMANDA BIOQUÍMICA DE OXIGÊNIO POR MEIO DE VARIÁVEIS LIMNOLÓGICAS UTILIZANDO MODELOS DE APRENDIZADO DE MÁQUINA EM PYTHON

PREVISÃO DA DEMANDA BIOQUÍMICA DE OXIGÊNIO POR MEIO DE VARIÁVEIS LIMNOLÓGICAS UTILIZANDO MODELOS DE APRENDIZADO DE MÁQUINA EM PYTHON PREVISÃO DA DEMANDA BIOQUÍMICA DE OXIGÊNIO POR MEIO DE VARIÁVEIS LIMNOLÓGICAS UTILIZANDO MODELOS DE APRENDIZADO DE MÁQUINA EM PYTHON L. O. M. DA SILVA 1, D. L. C. DA SILVA 1, L. A. VANDERLEI 1, M. C. O.

Leia mais

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela Redes Neurais Feedforward e Backpropagation André Siqueira Ruela Sumário Introdução a redes feedforward Algoritmo feedforward Algoritmo backpropagation Feedforward Em uma rede feedforward, cada camada

Leia mais

ESTIMAÇÃO DA VELOCIDADE DE DESLOCAMENTO DE UMA ESTEIRA TRANSPORTADORA UTILIZANDO REDES NEURAIS ARTIFICIAIS

ESTIMAÇÃO DA VELOCIDADE DE DESLOCAMENTO DE UMA ESTEIRA TRANSPORTADORA UTILIZANDO REDES NEURAIS ARTIFICIAIS ESTIMAÇÃO DA VELOCIDADE DE DESLOCAMENTO DE UMA ESTEIRA TRANSPORTADORA UTILIZANDO REDES NEURAIS ARTIFICIAIS Samuel Vieira DIAS (1); Geraldo Luis Bezerra RAMALHO (2); (1) Instituto Federal de Educação, Ciência

Leia mais

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL Juliana A. ANOCHI 1, Sabrina B. M. SAMBATTI 1, Eduardo F. P. da LUZ 1, Haroldo F. de CAMPOS VELHO 1 Instituto Nacional de Pesquisas Espaciais - INPE

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas II Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de

Leia mais

Considerações de Desempenho

Considerações de Desempenho Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

scikit-learn: Aprendizado de máquina 101 com Python

scikit-learn: Aprendizado de máquina 101 com Python scikit-learn: Aprendizado de máquina 101 com Python Luciana Fujii Campus Party BH 2016 1 / 30 Introdução Aprendizado de máquina Aprendizado de máquina é o campo da ciência da computação que dá aos computadores

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Plano de Aula Aprendizagem de Máquina Bagging,, Support Vector Machines e Combinação de Classificadores Alessandro L. Koerich Uma visão geral de diversos tópicos relacionados à Aprendizagem de Máquina:

Leia mais

Eduardo Vargas Ferreira

Eduardo Vargas Ferreira Universidade Federal do Paraná Laboratório de Estatística e Geoinformação - LEG Considerações finais Eduardo Vargas Ferreira Como obter boas predições 1 Entenda os dados: explore as características, crie

Leia mais

Introdução à Mineração de Dados com Aplicações em Ciências Espaciais

Introdução à Mineração de Dados com Aplicações em Ciências Espaciais Introdução à Mineração de Dados com Aplicações em Ciências Espaciais Escola de Verão do Laboratório Associado de Computação e Matemática Aplicada Rafael Santos Dia 2: 1 /59 Programa Dia 1: Apresentação

Leia mais

Back Propagation. Dicas para o BP

Back Propagation. Dicas para o BP Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem

Leia mais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0. Classificação. David Menotti.

Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0. Classificação. David Menotti. Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Classificação David Menotti www.inf.ufpr.br/menotti/am-18a Hoje Funções Discriminantes Lineares Perceptron Support Vector

Leia mais

Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0. Classificação. David Menotti.

Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0. Classificação. David Menotti. Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Classificação David Menotti www.inf.ufpr.br/menotti/am-182 Hoje Funções Discriminantes Lineares Perceptron Support Vector

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Neurônio Natural Dendritos: recebe os estímulos transmitidos por outros neurônios Soma Sinapse Axônio Soma: coleta e combina informações vindas de outros neurônios Sinapse Dendrito

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 17 Support Vector Machines (SVM) Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor

Leia mais

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal

Leia mais

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais