Redes Neurais MLP: Exemplos e Características
|
|
- Osvaldo Brás Tavares
- 6 Há anos
- Visualizações:
Transcrição
1 Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1
2 Tópicos Redes Neurais MLP Exemplos: Mapeamento da função XOR. Mapeamento de uma função f(x). Implementação em Octave. Características das Redes MLP: Apresentação dos dados de treinamento. Conjunto de treinamento e validação. Especificação da arquitetura da rede. Aperfeiçoamento do backpropagation: Método de inserção do termo de momentum. Método Resilient-propagation. Método de Levenberg-Marquardt. Exemplos de outras implementações. MLP no Matlab: Toolbox NNTOOL. MLP no Java: Encog. 2
3 Revisando: Algoritmo Backpropagation 3
4 Algoritmo Backpropagation 1. Obter o conjunto de amostras de treinamento {x k }. 2. Associar a saída desejada {d k } para cada amostra obtida. 3. Iniciar o vetor de pesos {w} com valores aleatórios pequenos. 4. Especificar a taxa de aprendizagem {η}, precisão requerida {ε} e o número máximo de épocas. 5. Iniciar o contador do número de épocas {epoca 0} 6. Repetir as instruções: 1. E anterior m E m ; 2. Para todas as amostras de treinamento {x k, d k }, faça: 1. Passos de propagação e retropropagação. 3. E m atual E m ; 4. epoca epoca + 1; Até que: (( E atual m E anterior m 7. Final do treinamento. ε) ou (epoca >= epocamaxima)). 4
5 Algoritmo Backpropagation Repetir as instruções: 1. E m anterior E m ; 2. Para todas as amostras de treinamento {x k, d k }, faça: 1. Passos de propagação: Obter sinais de saídas dos neurônios das camadas ocultas até a camada de saída. 2. Passos da retropropagação: Determinar o gradiente local e o ajuste dos pesos partindo da camada de saída até a primeira camada oculta. 3. E m atual E m ; 4. epoca epoca + 1; Até que: (( E m atual E m anterior ε ) ou (epoca >= epocamaxima)). 5
6 Algoritmo Backpropagation: Ajuste dos Pesos w ji k = w ji k + w ji (k) Errata: Cada neurônio tem um gradiente local. Taxa de aprendizagem Gradiente local Estímulos do neurônio j w ji (k) = η * δ j (k) * y i (k) Neurônio da camada de saída Neurônio da camada oculta δ j k = e j k f j u j k δ j k = f u j k δ s (k) w sj k s 6
7 Exemplo 01: Implementação de uma MLP para mapeamento da função XOR 7
8 Rede MLP para solucionar o problema XOR Implementação de uma rede neural MLP para solucionar o problema da porta XOR. Implementação na linguagem Octave. GNU Octave 8
9 Arquitetura da Rede MLP X1 1 w 13 1 w 21 1 w 11 1 w 12 1 w 22 N1 N2 2 w 11 2 w 21 2 w 31 Y Função linear: f x = x X2 1 w 23 N3 w 1 = w 01 w 11 w 21 1 w 02 1 w 12 1 w 22 1 w 03 1 w 13 1 w 23 Função sigmoide (modificada): 2 f x = 1 + e 2x 1 w 2 = w 01 w 11 w 21 w 31 9
10 Implementação em Octave exemploxor_mlp.m Definição do conjunto de treinamento; Inicialização aleatória dos vetores de pesos; Definição de parâmetros de treinamento: Taxa de aprendizagem; Erro máximo; Quantidade de épocas máxima. exemploxor_backpropagation.m Etapa de propagação: Cálculo dos potenciais de ativação e dos sinais de saída. Etapa de retropropagação: Cálculo do gradiente local. Cálculo do fator de ajuste. Ajuste do peso. Verificação do erro e da época. exemploxor_execmlp.m Teste da rede treinada. 10
11 1. Montar conjunto de treinamento 11
12 2. Inicialização os pesos 12
13 3. Definição de parâmetros de treinamento 13
14 4. Backpropagation: Repetição do treinamento 14
15 4. Backpropagation: Etapa de Propagação Camada Oculta 15
16 4. Backpropagation: Etapa de Propagação Camada de Saída 16
17 4. Backpropagation: Etapa de Retropropagação Camada de Saída δ j k = e j k f j u j k w ji k = w ji k + w ji (k) 17
18 4. Backpropagation: Etapa de Retropropagação Camada Oculta δ j k = f u j k s δ s (k) w sj k 18
19 4. Backpropagation: Etapa de Retropropagação Camada Oculta 19
20 4. Backpropagation: Verificação do Erro médio quadrático 20
21 Gráfico do Erro Médio Quadrático e Testes 21
22 Exemplo 02: Implementação de uma MLP para mapeamento de uma função f(x)=y 22
23 Exemplo 02: Arquitetura da Rede MLP X 1 w 13 1 w 11 1 w 12 N1 N2 2 w 11 2 w 21 2 w 31 Y Função linear: f x = x N3 w 1 = 1 1 w 01 w 11 1 w 02 1 w 12 1 w 03 1 w 13 Função sigmoide (modificada): 2 f x = 1 + e 2x 1 w 2 = w 01 w 11 w 21 w 31 23
24 Exemplo 02: Função f(x) 24
25 Exemplo 02: Gráfico do Erro Médio Quadrático 25
26 Exemplo 02: Resultados Gráfico com os pontos reais e os pontos estimados pela rede neural. 26
27 Características das Redes MLP Apresentação dos dados de treinamento. Conjunto de treinamento e validação. Especificação da arquitetura da rede. 27
28 Conjunto de exemplos Aspectos sobre a apresentação do conjunto de treinamento: 1. Em relação a sequencia de apresentação do conjunto de treinamento... a sequência de apresentação dos exemplos influencia no treinamento? 2. Em relação a quantidade de exemplos que serão apresentados... é vantajoso a apresentação de todo o conjunto de treinamento? 28
29 Sequência de apresentação dos exemplos A sequência de apresentação dos exemplos influencia no treinamento? A sequência de apresentação dos exemplos pode sim influenciar no treinamento, ou melhor, na atualização dos pesos. Solução: Treinamento sequencial: Atualização dos pesos após a apresentação de cada exemplo. Treinamento por ciclo (batch): Atualização dos pesos após a apresentação de todos os exemplos. Atualização a cada época. 29
30 Treinamento: sequencial x por ciclo Treinamento sequencial: Algoritmo mais simples. Menor consumo de memória. Vantajoso quando os padrões possuem redundâncias. Treinamento batch (por ciclo): O erro de atualização torna-se um somatório do erro médio quadrático de cada padrão de treinamento. Treinamento mais estável. Torna-se lento quando o conjunto é grande. Maior custo computacional. 30
31 Quantidade de exemplos apresentados É vantajoso a apresentação de todo o conjunto de treinamento? Sim, se for considerar o aumento da capacidade de generalização da rede. Não, se for considerar a verificação da capacidade de generalização da rede. Treinamento e Validação da rede: Treinamento da rede: Apresentar exemplos de treinamento para que a rede aprenda. Validação da rede: Apresentar exemplos de validação para testar o aprendizado da rede, ou melhor, verificar a sua generalização. 31
32 Treinamento e Validação Normalmente, o conjunto de exemplos é dividido em dois subconjuntos: Conjunto de treinamento: Necessário no processo de aprendizagem. Conjunto de validação: Necessário no processo de medição do grau de efetividade de aprendizagem do conhecimento. Diferenciar o aprender e o decorar! 32
33 Treinamento e Validação Erro aparente: Erro medido sobre o conjunto de treinamento. Erro real: Erro medido sobre o conjunto de validação. 33
34 Treinamento e Validação: Erro aparente e real Erro Técnica: Validação cruzada! Erro real (Validação) Erro aparente (treinamento) Épocas Ponto de parada 34
35 Conjunto de exemplos Outras características em relação ao conjunto de exemplos: Pontos fora da curva (outliers): Influencia na convergência da rede. Soluções: Eliminar ou ajustar. Normalizar os dados: Objetivo: Adaptar os valores dos exemplos para faixa dinâmica das funções de ativação ( [-1, +1]; [0, +1]). 35
36 Especificação da Arquitetura da Rede Quantas camadas ocultas? Quantos neurônios??? 36
37 Especificação da Arquitetura Não existe regra para definir a quantidade de camadas ocultas e a quantidade de neurônios nessas camadas. Uma camada oculta é suficiente para classificar os dados. Porém, se seus dados contém alguma inconstância, duas camadas ocultas podem lhe ajudar. Mais de 3 camadas ocultas? Em alguns casos, aumenta a velocidade de convergência, mas Não indico! Teorema de Kolmogorov: Dada uma função contínua arbitrária: f(x) = y, existe sempre para f, uma implementação exata com uma rede neural de três camadas, sendo a camada de entrada, a camada oculta e a camada de saída. 37
38 Especificação da Arquitetura Normalmente, o número de camadas ocultas e neurônios em cada camada são definidos em função de uma inspeção prévia nos dados e da complexidade do problema. Problemas: Redes superdimensionadas podem provocar erros de overfitting. Redes subdimensionadas podem provocar underfitting. 38
39 Overfitting e Underfitting Overfitting: Rede memoriza os padrões de treinamento e, assim, perde a capacidade de generalizar. Possível causa 1: Número excessivo de neurônios e/ou camadas ocultas. Possível causa 2: Número excessivo de épocas no treinamento. Underfitting: Rede não é treinada suficientemente para tornar-se capaz de aprender. Possível causa 1: Número baixo de neurônios e/ou camadas ocultas. Possível causa 2: Número baixo de épocas no treinamento. 39
40 Especificação da Arquitetura Método da tentativa e erro. Iniciando a rede com 1 neurônio e 1 camada oculta. Aumentar a quantidade de neurônios. Treinar e testar a rede mais de uma vez. Não existe regra definida para o método. 40
41 Aperfeiçoamento do Backpropagation Método de inserção do termo de momentum. Método Resilient-propagation. Método de Levenberg-Marquardt. 41
42 Aperfeiçoamento do Backpropagation O algoritmo do backpropagation apresenta algumas deficiências em relação a velocidade de convergência e convergência para mínimos locais. Algumas soluções criadas: Método de inserção do termo de momentum. Método Resilient-propagation. Método de Levenberg-Marquardt. 42
43 Método de inserção do termo Momentum Problema: Lentidão na convergência quando o ponto de mínimo está distante do ponto atual. Solução: Inclusão do termo momentum para acelerar o processo de convergência para o ponto de mínimo. w ji k + 1 = w ji k + α w ji k w ji k 1 + η δ j k y i k Se o termo momentum for zero, a atualização dos pesos obedece ao backpropagation convencional. 43
44 Método de inserção do termo Momentum Casos: Quando o ponto atual estiver distante do ponto de mínimo, a variação entre as duas iterações sucessivas anteriores será grande. Erro Quando o ponto atual estiver próximo do ponto de mínimo, a variação entre as duas iterações sucessivas anteriores será pequena. w 44
45 Método Resilient-propagation Problema: Devido ao uso das funções do tipo sigmoide ou tangente hiperbólica, pode ocorrer a saturação do sinal de saída dos neurônios e as derivadas podem gerar valores próximos de zero, influenciando na velocidade de convergência. 45
46 Método Resilient-propagation Solução: A atualização dos pesos considera a variação do sinal do gradiente do erro ao invés das magnitudes do gradiente. Se os sinais do gradiente em duas iterações sucessivas forem iguais, pode-se incrementar a taxa de aprendizado em virtude de estar distante de um mínimo da função de erro. Se os sinais do gradiente em duas iterações sucessivas forem diferentes, como o ponto de mínimo foi ultrapassado, deve-se reduzir a taxa de aprendizagem a fim de convergir suavemente. 46
47 Método Resilient-propagation Gráfico ilustrando o mecanismo de convergência do Resilient propagation. Erro w 47
48 Método de Levenberg-Marquardt Problema: Lentidão na convergência do algoritmo backpropagation convencional. Solução: Utilizar um método gradiente de segunda ordem, baseado no método dos mínimo quadrados para modelos não-lineares. O método de Levenberg-Marquardt é uma aproximação do método de Newton. 48
49 Exemplos de Implementações em Matlab (Toolbox) e Java (Biblioteca) Matlab: NNTOOL Java: Encog. 49
50 Implementação em Matlab Matlab: Neural Network Toolbox: toolbox NNTOOL. 50
51 Utilizando o toolbox NNTool do Matlab Implementando uma rede neural para mapear a função f(x)=y do exemplo
52 Utilizando o toolbox NNTool do Matlab Abrindo o toolbox NNTOOL : >> nntool; 52
53 Utilizando o toolbox NNTool do Matlab Definindo o conjunto de treinamento. 53
54 Utilizando o toolbox NNTool do Matlab Definindo a arquitetura da rede. 54
55 Utilizando o toolbox NNTool do Matlab Algoritmos de treinamento disponíveis: 55
56 Utilizando o toolbox NNTool do Matlab Rede criada: Treinamento: 56
57 Utilizando o toolbox NNTool do Matlab Treinamento 57
58 Framework Java: Encog Encog: É um framework de Inteligência Artificial para Java que suporta não só redes neurais como outras áreas da IA. Suporta: Redes neurais. Algoritmos de aprendizagem de máquinas. Máquinas de vetores de suporte. Redes Bayesianas. Algoritmos genéticos. Além de: algoritmos de apoio, como algoritmo de normalização de dados.. 58
59 Exemplo com Encog 59
60 Exemplo com Encog 60
61 Referências 1. Haykin, Simon S. Redes neurais artificiais: princípio e prática. 2ª ed. São Paulo: Bookman, Lima, Isaías; Pinheiro, Carlos; Oliveira Santos, Flávia. Inteligência artificial. Rio de Janeiro: Elsevier,
62 Referências 3. Da Silva, Ivan Nunes; Spatti, Danilo Hernane; Flauzino, Rogério Andrade. Redes Neurais Artificiais para engenharia e ciências aplicadas curso prático. São Paulo: Artliber, Kovács, Zsolt L. Redes neurais artificiais. Editora Livraria da Física,
63 Referências 5. Thomé, Antônio Carlos Gay; Marques, Airam Carlos P. Barreto. Inteligência Computacional. Notas de Aula. Disponível em: 6. Baranauskas, J. Augusto. Aprendizado de Máquina I. Notas de Aula. Disponível em: 7. Andrade, Lívia Naiara. Redes neurais artificiais aplicadas na identificação automática de áreas cafeeiras em imagens de satélite. Belo Horizonte: Universidade Federal de Minas Gerais. Dissertação de Mestrado,
64 Dúvidas? Dúvidas por 64
Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
Leia maisPrimeiras Redes Neurais Artificiais: Perceptron e Adaline
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor
Leia maisIntrodução às Redes Neurais Artificiais
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos
Leia maisFundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução
Leia maisRedes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
PERCEPTRON MULTICAMADAS: TÉCNICAS DE VALIDAÇÃO Prof. Dr. André A. P. Biscaro 2º Semestre de 2016 UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT Aspectos de seleção topológica de redes PMC A especificação
Leia maisAprendizagem de Máquinas
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Aprendizagem de Máquinas DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Aprendizagem de Máquinas
Leia mais4 Redes Neurais Artificiais
4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisTÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia maisRedes Neurais Artificial. Prática. Inteligência Artificial
Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes
Leia maisRedes Neurais não Supervisionadas: SOM
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais não Supervisionadas: SOM DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos
Leia maisTeorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.
SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,
Leia maisRECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ
RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
Leia maisRedes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Leia maisInteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Leia maisReconhecimento de Padrões/Objetos
Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)
Leia maisInteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida
Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas
Leia maisRedes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia maisAprendizado de Máquinas. Multi-Layer Perceptron (MLP)
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.
Leia maisINTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos
Leia maisInteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA
Inteligência Artificial Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA Projeto de Redes Neurais Projeto de Redes Neurais Baseado apenas em dados Exemplos para treinar uma rede devem ser compostos por
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
Leia maisRedes Neurais Artificiais (RNA)
Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer
Leia maisConsiderações de Desempenho
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron
Leia maisBack Propagation. Dicas para o BP
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia mais3 INTELIGÊNCIA COMPUTACIONAL (IC)
40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por
Leia maisSCE REDES NEURAIS Redes Neurais Multi-Camadas Parte 2
SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 2 Profa. Roseli Ap. Francelin Romero 1 Teorema de Aprox. Universal Qual é o número mínimo de camadas num PMC que fornece uma aproximação para
Leia maisMini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE
Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas II Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de
Leia maisIntrodução a Redes Neurais Artificiais com a biblioteca Encog em Java
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -
Leia maisTópicos Especiais: Inteligência Artificial REDES NEURAIS
Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de
Leia maisJAI 6 - Deep Learning Teoria e Prática
JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado
Leia maisModelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:
Back Propagation Fatores importantes para a modelagem da Rede Neural: Seleção de variáveis; veis; Limpeza dos dados; Representação das variáveis veis de entrada e saída; Normalização; Buscando melhor Generalização
Leia maisMinicurso: Inteligência Artificial Aplicada a Sistemas Elétricos
Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe
Leia maisAprendizado de Máquina Introdução às Redes Neurais Artificiais
Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência
Leia maisMineração de Dados em Biologia Molecular
Mineração Dados em Biologia Molecular Principais tópicos André C. P. L. F. Carvalho Monitor: Valéria Carvalho Res Neurais Artificiais Introdução Arquitetura Aprendizado Principais molos Perceptron MLP
Leia mais( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)
Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação
Leia maisClassificação de Padrões. Abordagem prática com Redes Neurais Artificiais
Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas
Leia maisMultiple Layer Perceptron
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Multiple Layer Perceptron David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Multiple Layer Perceptron (MLP) Backpropagation
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
Leia maisVariações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa
A principal crítica ao algoritmo Back Propagation é o longo tempo de treinamento proposta de variações simples para acelerar o processo de aprendizado Taxa de Aprendizado Adaptativa Inicia-se com um valor
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
Leia maisUM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA
UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural
Leia maisPerceptron de Múltiplas Camadas e Backpropagation
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Perceptron de Múltiplas Camadas e Backpropagation Redes Neurais Artificiais Site: http://jeiks.net
Leia maisPrevisão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN
Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1
Leia maisAprendizagem de Máquina. Redes Neurais Artificiais (RNAs)
Aprendizagem de Máquina Redes Neurais Artificiais (RNAs) Plano de Aula Introdução Motivação Biológica Perceptron Superfície de Decisão Descida do Gradiente Redes Multicamadas (Multilayer) Retropropagação
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas
Leia maisAula 7 RNA Redes Auto-Organizáveis de Kohonen
2COP229 Aula 7 RNA Redes Auto-Organizáveis de Kohonen 2COP229 Sumário 1- Introdução 2- Processo de Aprendizado Competitivo 3- Mapas auto-organizáveis de Kohonen (SOM) 4- Projeto Prático 1-Introdução 2COP229
Leia maisSistemas Inteligentes
Sistemas Inteligentes UNIDADE 5 Redes Neurais Artificiais (Perceptron Multicamadas Conceitos) Prof. Ivan Nunes da Silva. Rede Perceptron Multicamadas Aspectos de arquitetura Redes Perceptron de Múltiplas
Leia maisGT-JeDi - Curso de Desenv. de Jogos IA para Jogos
GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
Leia maisRedes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
Leia maisCÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano
CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano yaratadano@utfpr.edu.br Aula 9 04/2014 Zeros reais de funções Parte 3 MÉTODO DE NEWTON RAPHSON Cálculo Numérico 3/42 CONSIDERAÇÕES INICIAS MÉTODO DO PONTO
Leia mais3 REDES CLÁSSICAS PERCEPTRON E ADALINE
w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados
Leia maisREDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio
REDES NEURAIS Sistema Nervoso 2 O que é? É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos Engloba o cérebro Sua unidade fundamental é o neurônio Se diferencia
Leia maisAula 1 Introdução - RNA
Aula 1 Introdução - RNA Sumário 1- Conceitos Iniciais; 2- Neurônio Biológico; 3- Neurônio Artificial; 4- Funções de Ativação; 5- Comparação Neurônio Biológico e Artificial. 1- Conceitos Iniciais - Computadores
Leia mais4 Redes Neurais Artificiais RNAs
66 4 Redes Neurais Artificiais RNAs Redes neurais artificial (RNA) são algoritmos que se baseiam no comportamento do cérebro humano. Dessa forma, imita a estrutura massivamente paralela do cérebro, com
Leia maisAnálise da Complexidade de Tempo e Espaço em Algoritmos para Classificação de Padrões em sinais de ECG
Análise da Complexidade de Tempo e Espaço em Algoritmos para Classificação de Padrões em sinais de ECG Eduardo Luz David Menotti Universidade Federal de Ouro Preto 05/07/2011 Summary Rede Neuronal Artificial
Leia mais5 RNA para Diagnóstico de Falhas em Turbinas a Gás
5 RNA para Diagnóstico de Falhas em Turbinas a Gás 5.1. Introdução Neste capítulo, a aplicação de RNAs para diagnosticar as falhas no caminho do gás de turbinas a gás foi investigada. As redes neurais
Leia maisy rede RNA Conjunto de treino em arquiteturas supervisionadas (ex. clássico: MLP com Error Back Propagation) Sistema Físico, Econômico, Biológico...
Retornando `as nossas motivaçoes ininciais no calculo de adaptaçoes de pesos... X Conjunto de treino em arquiteturas supervisionadas (ex. clássico: MLP com Error Back Propagation) Sistema Físico, Econômico,
Leia maisInteligência Artificial
Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial Aprendizagem (Redes Neurais - Complementar) Prof. a Joseana Macêdo
Leia mais3 Aprendizado por reforço
3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Leia maisRedes Neurais Feedforward e Backpropagation. André Siqueira Ruela
Redes Neurais Feedforward e Backpropagation André Siqueira Ruela Sumário Introdução a redes feedforward Algoritmo feedforward Algoritmo backpropagation Feedforward Em uma rede feedforward, cada camada
Leia maisSCC Capítulo 5 Perceptron Multicamadas
Introdução Back-propagation (BP) MLPs Convolução SCC-5809 - Capítulo 5 Perceptron Multicamadas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes
Leia maisClassificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Leia maisRedes Neurais Artificiais. Professor: Juan Moises Villanueva
Redes Neurais Artificiais Mestrando: Lucas Nicolau Email: lucasfnicolau@gmail.com Professor: Juan Moises Villanueva Rede Neural Direta Arquitetura com múltiplas camadas com fluxo de informação apenas em
Leia maisGUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS
Universidade Federal de Lavras Departamento de Ciência da Computação GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS v. 1.2 Prof. Wilian Soares Lacerda Lavras, agosto de 2018 Ficha catalográfica elaborada
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas
Leia maisPor que Redes Neurais?
Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor
Leia maisRegra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem
Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja
Leia mais5HGHV1HXUDLV$UWLILFLDLV
7 5GXUDL$UWLILFLDL A motivação pelo uso das Redes Neurais Artificiais RNA, comumente chamadas de redes neurais, é pelo reconhecimento de que o cérebro processa informações de uma forma diferente dos computadores
Leia maisRedes neurais artificiais
Redes neurais artificiais Conceitos em redes neuronais Redes neuronais artificiais (RNA): uma metáfora cerebral para processamento de informações Computação neuronal Muitos usos de RNA para Reconhecimento
Leia maisJoão Paulo Teixeira Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança
joaopt@ipb.pt www.ipb.pt/~joaopt Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança Evolução das RNA Tipos de Redes Perceptrão Rede Linear Redes Recorrentes Redes Radiais Redes Feed-Forward
Leia maisHP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
Leia maisREDES NEURAIS ARTIFICIAIS
REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO
Leia maisNeurocomputação Parte 2
Neurocomputação Parte 2 Fabricio Breve - fbreve@gmail.com 25/09/2007 Fabricio Breve 1 REDES NEURAIS ARTIFICIAIS 25/09/2007 Fabricio Breve 2 Por que Redes Neurais? Computadores convencionais são eficientes
Leia mais3 Inteligência Computacional
3 Inteligência Computacional Inteligência Computacional (IC) é um ramo da ciência da computação que desenvolve, através de técnicas inspiradas na natureza, algoritmos capazes de imitar algumas habilidades
Leia maisCOMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1
COMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1 Márcia Da Silva 2, Eldair Fabricio Dornelles 3, Rogério S. M. Martins 4, Édson L. Padoin 5. 1 Pesquisa desenvolvida
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
Leia maisVERIFICAÇÃO DO DECAIMENTO DE INFORMAÇÃO EM REDES NEURAIS RECORRENTES APLICADAS AO PROBLEMA DO MUNDO DE WUMPUS 1
VERIFICAÇÃO DO DECAIMENTO DE INFORMAÇÃO EM REDES NEURAIS RECORRENTES APLICADAS AO PROBLEMA DO MUNDO DE WUMPUS 1 Henrique Augusto Richter 2, Eldair Fabrício Dornelles 3, Márcia Da Silva 4, Rogério Samuel
Leia mais