Redes Neurais MLP: Exemplos e Características
|
|
|
- Osvaldo Brás Tavares
- 8 Há anos
- Visualizações:
Transcrição
1 Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1
2 Tópicos Redes Neurais MLP Exemplos: Mapeamento da função XOR. Mapeamento de uma função f(x). Implementação em Octave. Características das Redes MLP: Apresentação dos dados de treinamento. Conjunto de treinamento e validação. Especificação da arquitetura da rede. Aperfeiçoamento do backpropagation: Método de inserção do termo de momentum. Método Resilient-propagation. Método de Levenberg-Marquardt. Exemplos de outras implementações. MLP no Matlab: Toolbox NNTOOL. MLP no Java: Encog. 2
3 Revisando: Algoritmo Backpropagation 3
4 Algoritmo Backpropagation 1. Obter o conjunto de amostras de treinamento {x k }. 2. Associar a saída desejada {d k } para cada amostra obtida. 3. Iniciar o vetor de pesos {w} com valores aleatórios pequenos. 4. Especificar a taxa de aprendizagem {η}, precisão requerida {ε} e o número máximo de épocas. 5. Iniciar o contador do número de épocas {epoca 0} 6. Repetir as instruções: 1. E anterior m E m ; 2. Para todas as amostras de treinamento {x k, d k }, faça: 1. Passos de propagação e retropropagação. 3. E m atual E m ; 4. epoca epoca + 1; Até que: (( E atual m E anterior m 7. Final do treinamento. ε) ou (epoca >= epocamaxima)). 4
5 Algoritmo Backpropagation Repetir as instruções: 1. E m anterior E m ; 2. Para todas as amostras de treinamento {x k, d k }, faça: 1. Passos de propagação: Obter sinais de saídas dos neurônios das camadas ocultas até a camada de saída. 2. Passos da retropropagação: Determinar o gradiente local e o ajuste dos pesos partindo da camada de saída até a primeira camada oculta. 3. E m atual E m ; 4. epoca epoca + 1; Até que: (( E m atual E m anterior ε ) ou (epoca >= epocamaxima)). 5
6 Algoritmo Backpropagation: Ajuste dos Pesos w ji k = w ji k + w ji (k) Errata: Cada neurônio tem um gradiente local. Taxa de aprendizagem Gradiente local Estímulos do neurônio j w ji (k) = η * δ j (k) * y i (k) Neurônio da camada de saída Neurônio da camada oculta δ j k = e j k f j u j k δ j k = f u j k δ s (k) w sj k s 6
7 Exemplo 01: Implementação de uma MLP para mapeamento da função XOR 7
8 Rede MLP para solucionar o problema XOR Implementação de uma rede neural MLP para solucionar o problema da porta XOR. Implementação na linguagem Octave. GNU Octave 8
9 Arquitetura da Rede MLP X1 1 w 13 1 w 21 1 w 11 1 w 12 1 w 22 N1 N2 2 w 11 2 w 21 2 w 31 Y Função linear: f x = x X2 1 w 23 N3 w 1 = w 01 w 11 w 21 1 w 02 1 w 12 1 w 22 1 w 03 1 w 13 1 w 23 Função sigmoide (modificada): 2 f x = 1 + e 2x 1 w 2 = w 01 w 11 w 21 w 31 9
10 Implementação em Octave exemploxor_mlp.m Definição do conjunto de treinamento; Inicialização aleatória dos vetores de pesos; Definição de parâmetros de treinamento: Taxa de aprendizagem; Erro máximo; Quantidade de épocas máxima. exemploxor_backpropagation.m Etapa de propagação: Cálculo dos potenciais de ativação e dos sinais de saída. Etapa de retropropagação: Cálculo do gradiente local. Cálculo do fator de ajuste. Ajuste do peso. Verificação do erro e da época. exemploxor_execmlp.m Teste da rede treinada. 10
11 1. Montar conjunto de treinamento 11
12 2. Inicialização os pesos 12
13 3. Definição de parâmetros de treinamento 13
14 4. Backpropagation: Repetição do treinamento 14
15 4. Backpropagation: Etapa de Propagação Camada Oculta 15
16 4. Backpropagation: Etapa de Propagação Camada de Saída 16
17 4. Backpropagation: Etapa de Retropropagação Camada de Saída δ j k = e j k f j u j k w ji k = w ji k + w ji (k) 17
18 4. Backpropagation: Etapa de Retropropagação Camada Oculta δ j k = f u j k s δ s (k) w sj k 18
19 4. Backpropagation: Etapa de Retropropagação Camada Oculta 19
20 4. Backpropagation: Verificação do Erro médio quadrático 20
21 Gráfico do Erro Médio Quadrático e Testes 21
22 Exemplo 02: Implementação de uma MLP para mapeamento de uma função f(x)=y 22
23 Exemplo 02: Arquitetura da Rede MLP X 1 w 13 1 w 11 1 w 12 N1 N2 2 w 11 2 w 21 2 w 31 Y Função linear: f x = x N3 w 1 = 1 1 w 01 w 11 1 w 02 1 w 12 1 w 03 1 w 13 Função sigmoide (modificada): 2 f x = 1 + e 2x 1 w 2 = w 01 w 11 w 21 w 31 23
24 Exemplo 02: Função f(x) 24
25 Exemplo 02: Gráfico do Erro Médio Quadrático 25
26 Exemplo 02: Resultados Gráfico com os pontos reais e os pontos estimados pela rede neural. 26
27 Características das Redes MLP Apresentação dos dados de treinamento. Conjunto de treinamento e validação. Especificação da arquitetura da rede. 27
28 Conjunto de exemplos Aspectos sobre a apresentação do conjunto de treinamento: 1. Em relação a sequencia de apresentação do conjunto de treinamento... a sequência de apresentação dos exemplos influencia no treinamento? 2. Em relação a quantidade de exemplos que serão apresentados... é vantajoso a apresentação de todo o conjunto de treinamento? 28
29 Sequência de apresentação dos exemplos A sequência de apresentação dos exemplos influencia no treinamento? A sequência de apresentação dos exemplos pode sim influenciar no treinamento, ou melhor, na atualização dos pesos. Solução: Treinamento sequencial: Atualização dos pesos após a apresentação de cada exemplo. Treinamento por ciclo (batch): Atualização dos pesos após a apresentação de todos os exemplos. Atualização a cada época. 29
30 Treinamento: sequencial x por ciclo Treinamento sequencial: Algoritmo mais simples. Menor consumo de memória. Vantajoso quando os padrões possuem redundâncias. Treinamento batch (por ciclo): O erro de atualização torna-se um somatório do erro médio quadrático de cada padrão de treinamento. Treinamento mais estável. Torna-se lento quando o conjunto é grande. Maior custo computacional. 30
31 Quantidade de exemplos apresentados É vantajoso a apresentação de todo o conjunto de treinamento? Sim, se for considerar o aumento da capacidade de generalização da rede. Não, se for considerar a verificação da capacidade de generalização da rede. Treinamento e Validação da rede: Treinamento da rede: Apresentar exemplos de treinamento para que a rede aprenda. Validação da rede: Apresentar exemplos de validação para testar o aprendizado da rede, ou melhor, verificar a sua generalização. 31
32 Treinamento e Validação Normalmente, o conjunto de exemplos é dividido em dois subconjuntos: Conjunto de treinamento: Necessário no processo de aprendizagem. Conjunto de validação: Necessário no processo de medição do grau de efetividade de aprendizagem do conhecimento. Diferenciar o aprender e o decorar! 32
33 Treinamento e Validação Erro aparente: Erro medido sobre o conjunto de treinamento. Erro real: Erro medido sobre o conjunto de validação. 33
34 Treinamento e Validação: Erro aparente e real Erro Técnica: Validação cruzada! Erro real (Validação) Erro aparente (treinamento) Épocas Ponto de parada 34
35 Conjunto de exemplos Outras características em relação ao conjunto de exemplos: Pontos fora da curva (outliers): Influencia na convergência da rede. Soluções: Eliminar ou ajustar. Normalizar os dados: Objetivo: Adaptar os valores dos exemplos para faixa dinâmica das funções de ativação ( [-1, +1]; [0, +1]). 35
36 Especificação da Arquitetura da Rede Quantas camadas ocultas? Quantos neurônios??? 36
37 Especificação da Arquitetura Não existe regra para definir a quantidade de camadas ocultas e a quantidade de neurônios nessas camadas. Uma camada oculta é suficiente para classificar os dados. Porém, se seus dados contém alguma inconstância, duas camadas ocultas podem lhe ajudar. Mais de 3 camadas ocultas? Em alguns casos, aumenta a velocidade de convergência, mas Não indico! Teorema de Kolmogorov: Dada uma função contínua arbitrária: f(x) = y, existe sempre para f, uma implementação exata com uma rede neural de três camadas, sendo a camada de entrada, a camada oculta e a camada de saída. 37
38 Especificação da Arquitetura Normalmente, o número de camadas ocultas e neurônios em cada camada são definidos em função de uma inspeção prévia nos dados e da complexidade do problema. Problemas: Redes superdimensionadas podem provocar erros de overfitting. Redes subdimensionadas podem provocar underfitting. 38
39 Overfitting e Underfitting Overfitting: Rede memoriza os padrões de treinamento e, assim, perde a capacidade de generalizar. Possível causa 1: Número excessivo de neurônios e/ou camadas ocultas. Possível causa 2: Número excessivo de épocas no treinamento. Underfitting: Rede não é treinada suficientemente para tornar-se capaz de aprender. Possível causa 1: Número baixo de neurônios e/ou camadas ocultas. Possível causa 2: Número baixo de épocas no treinamento. 39
40 Especificação da Arquitetura Método da tentativa e erro. Iniciando a rede com 1 neurônio e 1 camada oculta. Aumentar a quantidade de neurônios. Treinar e testar a rede mais de uma vez. Não existe regra definida para o método. 40
41 Aperfeiçoamento do Backpropagation Método de inserção do termo de momentum. Método Resilient-propagation. Método de Levenberg-Marquardt. 41
42 Aperfeiçoamento do Backpropagation O algoritmo do backpropagation apresenta algumas deficiências em relação a velocidade de convergência e convergência para mínimos locais. Algumas soluções criadas: Método de inserção do termo de momentum. Método Resilient-propagation. Método de Levenberg-Marquardt. 42
43 Método de inserção do termo Momentum Problema: Lentidão na convergência quando o ponto de mínimo está distante do ponto atual. Solução: Inclusão do termo momentum para acelerar o processo de convergência para o ponto de mínimo. w ji k + 1 = w ji k + α w ji k w ji k 1 + η δ j k y i k Se o termo momentum for zero, a atualização dos pesos obedece ao backpropagation convencional. 43
44 Método de inserção do termo Momentum Casos: Quando o ponto atual estiver distante do ponto de mínimo, a variação entre as duas iterações sucessivas anteriores será grande. Erro Quando o ponto atual estiver próximo do ponto de mínimo, a variação entre as duas iterações sucessivas anteriores será pequena. w 44
45 Método Resilient-propagation Problema: Devido ao uso das funções do tipo sigmoide ou tangente hiperbólica, pode ocorrer a saturação do sinal de saída dos neurônios e as derivadas podem gerar valores próximos de zero, influenciando na velocidade de convergência. 45
46 Método Resilient-propagation Solução: A atualização dos pesos considera a variação do sinal do gradiente do erro ao invés das magnitudes do gradiente. Se os sinais do gradiente em duas iterações sucessivas forem iguais, pode-se incrementar a taxa de aprendizado em virtude de estar distante de um mínimo da função de erro. Se os sinais do gradiente em duas iterações sucessivas forem diferentes, como o ponto de mínimo foi ultrapassado, deve-se reduzir a taxa de aprendizagem a fim de convergir suavemente. 46
47 Método Resilient-propagation Gráfico ilustrando o mecanismo de convergência do Resilient propagation. Erro w 47
48 Método de Levenberg-Marquardt Problema: Lentidão na convergência do algoritmo backpropagation convencional. Solução: Utilizar um método gradiente de segunda ordem, baseado no método dos mínimo quadrados para modelos não-lineares. O método de Levenberg-Marquardt é uma aproximação do método de Newton. 48
49 Exemplos de Implementações em Matlab (Toolbox) e Java (Biblioteca) Matlab: NNTOOL Java: Encog. 49
50 Implementação em Matlab Matlab: Neural Network Toolbox: toolbox NNTOOL. 50
51 Utilizando o toolbox NNTool do Matlab Implementando uma rede neural para mapear a função f(x)=y do exemplo
52 Utilizando o toolbox NNTool do Matlab Abrindo o toolbox NNTOOL : >> nntool; 52
53 Utilizando o toolbox NNTool do Matlab Definindo o conjunto de treinamento. 53
54 Utilizando o toolbox NNTool do Matlab Definindo a arquitetura da rede. 54
55 Utilizando o toolbox NNTool do Matlab Algoritmos de treinamento disponíveis: 55
56 Utilizando o toolbox NNTool do Matlab Rede criada: Treinamento: 56
57 Utilizando o toolbox NNTool do Matlab Treinamento 57
58 Framework Java: Encog Encog: É um framework de Inteligência Artificial para Java que suporta não só redes neurais como outras áreas da IA. Suporta: Redes neurais. Algoritmos de aprendizagem de máquinas. Máquinas de vetores de suporte. Redes Bayesianas. Algoritmos genéticos. Além de: algoritmos de apoio, como algoritmo de normalização de dados.. 58
59 Exemplo com Encog 59
60 Exemplo com Encog 60
61 Referências 1. Haykin, Simon S. Redes neurais artificiais: princípio e prática. 2ª ed. São Paulo: Bookman, Lima, Isaías; Pinheiro, Carlos; Oliveira Santos, Flávia. Inteligência artificial. Rio de Janeiro: Elsevier,
62 Referências 3. Da Silva, Ivan Nunes; Spatti, Danilo Hernane; Flauzino, Rogério Andrade. Redes Neurais Artificiais para engenharia e ciências aplicadas curso prático. São Paulo: Artliber, Kovács, Zsolt L. Redes neurais artificiais. Editora Livraria da Física,
63 Referências 5. Thomé, Antônio Carlos Gay; Marques, Airam Carlos P. Barreto. Inteligência Computacional. Notas de Aula. Disponível em: 6. Baranauskas, J. Augusto. Aprendizado de Máquina I. Notas de Aula. Disponível em: 7. Andrade, Lívia Naiara. Redes neurais artificiais aplicadas na identificação automática de áreas cafeeiras em imagens de satélite. Belo Horizonte: Universidade Federal de Minas Gerais. Dissertação de Mestrado,
64 Dúvidas? Dúvidas por 64
Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
Primeiras Redes Neurais Artificiais: Perceptron e Adaline
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor
Introdução às Redes Neurais Artificiais
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos
Fundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução
Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de
Aprendizagem de Máquinas
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Aprendizagem de Máquinas DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Aprendizagem de Máquinas
4 Redes Neurais Artificiais
4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais [email protected] http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Redes Neurais Artificial. Prática. Inteligência Artificial
Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes
Redes Neurais não Supervisionadas: SOM
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais não Supervisionadas: SOM DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos
Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.
SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,
RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ
RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho [email protected] IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho [email protected] IFG/Câmpus Goiânia Programa Institucional
Redes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Inteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação [email protected] Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida
Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida [email protected] Perceptron de Múltiplas Camadas
Redes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Rede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva [email protected] Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.
INTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos
Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA
Inteligência Artificial Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA Projeto de Redes Neurais Projeto de Redes Neurais Baseado apenas em dados Exemplos para treinar uma rede devem ser compostos por
Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Redes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron
Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
Introdução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -
Tópicos Especiais: Inteligência Artificial REDES NEURAIS
Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig
Redes Neurais Artificiais
Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de
JAI 6 - Deep Learning Teoria e Prática
JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos [email protected] 2 Computação baseada em aprendizado
Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:
Back Propagation Fatores importantes para a modelagem da Rede Neural: Seleção de variáveis; veis; Limpeza dos dados; Representação das variáveis veis de entrada e saída; Normalização; Buscando melhor Generalização
Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos
Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz
Aprendizado de Máquina Introdução às Redes Neurais Artificiais
Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência
Mineração de Dados em Biologia Molecular
Mineração Dados em Biologia Molecular Principais tópicos André C. P. L. F. Carvalho Monitor: Valéria Carvalho Res Neurais Artificiais Introdução Arquitetura Aprendizado Principais molos Perceptron MLP
Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais
Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas
Multiple Layer Perceptron
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Multiple Layer Perceptron David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Multiple Layer Perceptron (MLP) Backpropagation
Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons
Redes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA
UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural
Perceptron de Múltiplas Camadas e Backpropagation
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Perceptron de Múltiplas Camadas e Backpropagation Redes Neurais Artificiais Site: http://jeiks.net
Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN
Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1
Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons
Aula 7 RNA Redes Auto-Organizáveis de Kohonen
2COP229 Aula 7 RNA Redes Auto-Organizáveis de Kohonen 2COP229 Sumário 1- Introdução 2- Processo de Aprendizado Competitivo 3- Mapas auto-organizáveis de Kohonen (SOM) 4- Projeto Prático 1-Introdução 2COP229
Sistemas Inteligentes
Sistemas Inteligentes UNIDADE 5 Redes Neurais Artificiais (Perceptron Multicamadas Conceitos) Prof. Ivan Nunes da Silva. Rede Perceptron Multicamadas Aspectos de arquitetura Redes Perceptron de Múltiplas
Aprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano
CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano [email protected] Aula 9 04/2014 Zeros reais de funções Parte 3 MÉTODO DE NEWTON RAPHSON Cálculo Numérico 3/42 CONSIDERAÇÕES INICIAS MÉTODO DO PONTO
3 REDES CLÁSSICAS PERCEPTRON E ADALINE
w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados
REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio
REDES NEURAIS Sistema Nervoso 2 O que é? É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos Engloba o cérebro Sua unidade fundamental é o neurônio Se diferencia
Aula 1 Introdução - RNA
Aula 1 Introdução - RNA Sumário 1- Conceitos Iniciais; 2- Neurônio Biológico; 3- Neurônio Artificial; 4- Funções de Ativação; 5- Comparação Neurônio Biológico e Artificial. 1- Conceitos Iniciais - Computadores
4 Redes Neurais Artificiais RNAs
66 4 Redes Neurais Artificiais RNAs Redes neurais artificial (RNA) são algoritmos que se baseiam no comportamento do cérebro humano. Dessa forma, imita a estrutura massivamente paralela do cérebro, com
Análise da Complexidade de Tempo e Espaço em Algoritmos para Classificação de Padrões em sinais de ECG
Análise da Complexidade de Tempo e Espaço em Algoritmos para Classificação de Padrões em sinais de ECG Eduardo Luz David Menotti Universidade Federal de Ouro Preto 05/07/2011 Summary Rede Neuronal Artificial
Inteligência Artificial
Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial Aprendizagem (Redes Neurais - Complementar) Prof. a Joseana Macêdo
3 Aprendizado por reforço
3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina
Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela
Redes Neurais Feedforward e Backpropagation André Siqueira Ruela Sumário Introdução a redes feedforward Algoritmo feedforward Algoritmo backpropagation Feedforward Em uma rede feedforward, cada camada
SCC Capítulo 5 Perceptron Multicamadas
Introdução Back-propagation (BP) MLPs Convolução SCC-5809 - Capítulo 5 Perceptron Multicamadas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - [email protected] 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes
Classificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva [email protected] Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Redes Neurais Artificiais. Professor: Juan Moises Villanueva
Redes Neurais Artificiais Mestrando: Lucas Nicolau Email: [email protected] Professor: Juan Moises Villanueva Rede Neural Direta Arquitetura com múltiplas camadas com fluxo de informação apenas em
GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS
Universidade Federal de Lavras Departamento de Ciência da Computação GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS v. 1.2 Prof. Wilian Soares Lacerda Lavras, agosto de 2018 Ficha catalográfica elaborada
Por que Redes Neurais?
Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor
Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem
Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja
João Paulo Teixeira Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança
[email protected] www.ipb.pt/~joaopt Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança Evolução das RNA Tipos de Redes Perceptrão Rede Linear Redes Recorrentes Redes Radiais Redes Feed-Forward
HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes [email protected] Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
REDES NEURAIS ARTIFICIAIS
REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO
Neurocomputação Parte 2
Neurocomputação Parte 2 Fabricio Breve - [email protected] 25/09/2007 Fabricio Breve 1 REDES NEURAIS ARTIFICIAIS 25/09/2007 Fabricio Breve 2 Por que Redes Neurais? Computadores convencionais são eficientes
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
