Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)
|
|
|
- Carmem Cabreira Mota
- 8 Há anos
- Visualizações:
Transcrição
1 Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti
2 Redes Neuronais Cérebro humano. Mais fascinante processador existente. Aprox. 10 bilhões de neurônios conectados através de sinapses. Sinapses transmitem estímulos e o resultado pode ser estendido por todo o corpo humano. 2
3 Redes Neuroniais Artificiais: Um breve histórico 1943 McCulloch e Pitts. Sugeriram a construção de uma máquina baseada ou inspirada no cérebro humano Donald Hebb. Propõe uma lei de aprendizagem específica para as sinápses dos neurônios. 1957/ Frank Rosenblatt. Estudos aprofundados pai da neuro-computação. Perceptron. Criador do primeiro neuro-computador a obter sucesso (Mark I). 3
4 Mark I - Perceptron 4
5 Um breve histórico (cont) Várias pesquisas mal sucedidas Pesquisas silenciosas David Rumelhart. Livro parallel distributed processing. Algoritmo eficaz de aprendizagem Primeira conferência IEEE Int. Conf. On Neural Nets. 5
6 Neurônio Dendritos: Receber os estímulos transmitidos por outros neurônios. Corpo (somma). Coletar e combinar informações vindas de outros neurônios. Axônio. Transmite estímulos para outras células. 6
7 Redes Neuronais Artificiais Técnica computacional que apresenta um modelo inspirado na estrutura do neurônio. Simula o cérebro humano: Aprendendo, errando e fazendo descobertas. Estrutura de processamento de informação distribuída paralelamente na forma de um grafo direcionado. 7
8 Cérebro X Computador Parâmetro Cérebro Computador Material Orgânico Metal e Plástico Velocidade Milisegundos Nanosegundos Tipo de Processamento Paralelo Sequêncial Armazenamento Adaptativo Estático Controle de Processos Distribuído Centralizado Número de Elementos Processados Ligações entre Elementos Processados a a < 10 8
9 Neurônio artificial Sinais são apresentados à entrada. Cada sinal é multiplicado por um peso. Soma ponderada produz um nível de ativação. Se esse nível excede um limite (threshold) a unidade produz uma saída. [PERCEPTRON] 9
10 Perceptron Resolve problemas linearmente separáveis somente. Problemas reais, entretanto, na maioria das vezes são mais complexos. 10
11 Exemplo Considere por exemplo, o problema XOR w 1 w 2 x 1 x 2 Como visto anteriormente com SVMs, podemos afirmar que em altas dimensões os problemas são linearmente separáveis. Sendo assim, vamos mudar o problema de R 2 para R 3 adicionando uma terceira característica. 11
12 Exemplo X1 X2 X3 Output Nesse caso, a característica adicionada (X3) é a operação AND entre X1 e X2 O fato de adicionarmos essa característica faz com que o problema torne-se linearmente separável. 12
13 Adicionando uma camada Outra maneira de resolver esse problema consiste em adicionar uma camada extra (escondida) entre as camadas de entrada e saída. Dado uma quantidade suficiente de neurônios na camada escondida, é possível resolver qualquer tipo de problemas Claro que isso depende das características de entrada. 13
14 Camada Escondida Essa camada pode ser vista como um extrator de características, ou seja, a grosso modo, o neurônio escondido seria uma característica a mais O que torna o problema do XOR linearmente separável. 14
15 Camadas X Fronteiras Geralmente uma camada escondida resolve a grande maioria dos problemas. 15
16 O problema de atribuição de créditos Quando temos uma camada escondida, surge o problema de atribuição de créditos aos neurônios desta camada Não existem targets como na camada de saída. Período entre 58 e 82 foi dedicado a resolver esse problema Solução foi o algoritmo conhecido como Backpropagation. David E. Rumelhart et al (1986) 16
17 MLP para o problema XOR Considere o problema XOR e a seguinte rede já treinada. A saída é calculada de maneira similar ao perceptron, mas a MLP geralmente usa sigmoid como função de ativação. Para grandes quantidades de dados o resultado da sigmoid pode ser interpretado como estimação de probabilidade. 17
18 MLP para o problema XOR Para calcular a saída da rede, primeiramente devemos encontrar o valor do neurônio escondido. 1 * * * 7.1 = 4.34 Passando o valor 4.34 na função de ativação, temos O valor de saída é então calculado 1 * * * X = 2.52 Passando 2.52 na função de ativação temos a saída igual a
19 MLP para o problema XOR Após classificarmos todos os padrões de entrada teríamos Podemos usar como regra de decisão um limiar igual a 0.9, por exemplo. 19
20 BackProp Seja o j o valor de ativação para o neurônio j. Seja f uma função de ativação. Seja w ij o peso entre os neurônios i e j. Seja net j a entrada para o neurônio j, a qual é calculada por onde n é o número de unidades ligadas ao neurônio j e 20
21 BackProp O treinamento acontece da seguinte maneira: 1. Inicializar os valores dos pesos e neurônios aleatoriamente. 2. Apresentar um padrão a camada de entrada da rede 3. Encontrar os valores para as camadas escondidas e a camada de saída. 4. Encontrar o erro da camada de saída. 5. Ajustar os pesos através da retropropagação dos erros (Backpropagation) 1. Diminuir o erro a cada iteração 6. Encontrar o erro na camada escondida 7. Ajustar os pesos. Critério de parada é o erro desejado 21
22 BackProp O valor corrente de ativação de um neurônio k é o k e o target é t k Após realizar os passos 1, 2, e 3, o próximo passo consiste em calcular o erro, o qual pode ser realizado através da seguinte equação 22
23 BackProp: Exemplo Considere uma rede inicializada da seguinte forma Nesse caso 23
24 BackProp: Exemplo A fórmula para atualizar os pesos W entre o neurônio i e j é onde eta é uma constante pequena e positiva camada de taxa de aprendizagem (learning rate) Usando uma taxa de 0.1, temos 24
25 BackProp: Exemplo A fórmula para calcular o erro dos neurônios da camada escondida é Como temos somente um neurônio no nosso exemplo 25
26 BackProp: Exemplo Nesse caso teríamos Para atualizar os pesos, usamos a mesma fórmula Com os novos pesos calculados, a saída da rede seria
27 BackProp: Exemplo Após aplicarmos todos os padrões, teríamos o seguinte Usando uma taxa de aprendizagem = 0.1, o algoritmo levará iterações para convergir. Uma solução para melhorar isso seria aumentar a taxa de aprendizagem. Se usarmos 2, o algoritmo converge em 480 iterações. 27
28 Aspectos Práticos Alguns aspectos práticos devem ser considerados na utilização de redes neuronais MLP. Taxa de aprendizagem Momentum Online vs batch Shuffle Normalização Inicialização dos pesos Generalização Referência Interessante: Efficient Backprop, Y. LeCun et al,
29 Taxa de Aprendizagem Taxas muito pequenas tornam o processo bastante lento. Taxas muito grandes tornam o processo rápido. Podem não trazer os resultados ideais. Superfície do erro Erro mínimo Taxa pequena Taxa grande 29
30 Taxa de Aprendizagem O ideal é começar com uma taxa grande e reduzir durante as iterações. Permite a exploração global no início (exploration) a local (exploitation) quando o algoritmo estiver próximo do ótimo global. Geralmente valores entre 0.05 e 0.75 fornecem bons resultados. 30
31 Momentum É uma estratégia usada para evitar mínimos locais. Considere a seguinte superfície Existem três mínimos locais antes do mínimo global. 31
32 Momentum Considere, por exemplo, que uma bola seja solta no início da superfície. Se ela tiver momentum suficiente, ela vai conseguir passar os três mínimos locais e alcançar o mínimo global. Normalmente 0<= α <=
33 On-line vs Batch A diferença está no momento em que os pesos são atualizados. Na versão on-line, os pesos são atualizados a cada padrão apresentado a rede. Na versão batch, todos os pesos são somados durante uma iteração (todos os padrões) e só então os pesos são atualizados. Versão batch Interessante para aplicações que possam ser paralelizadas. Versão on-line Geralmente converge mais rapidamente. 33
34 Misturando Exemplos (Shuffle) Redes neuronais aprendem melhor quando diferentes exemplos de diferentes classes são apresentados a rede. Uma prática muito comum consiste em apresentar um exemplo de cada classe a rede Isso garante que os pesos serão atualizados levando-se em consideração todas as classes. 34
35 Misturando Exemplos (Shuffle) Se apresentarmos à rede todos os exemplos de uma classe, e assim por diante, os pesos finais tenderão para a última classe A rede vai esquecer o que ela aprendeu antes. 35
36 Normalização A normalização é interessante quando existem características em diversas unidades dentro do vetor de características. Nesses casos, valores muito altos podem saturar a função de ativação. Uma maneira bastante simples de normalizar os dados consiste em somar todas as características e dividir pela soma Outra normalização bastante usada é a normalização Z-score. 36
37 Normalização Para redes neuronais MLP, geralmente é interessante ter as características com média próxima de zero Melhora o tempo de convergência durante a aprendizagem. 37
38 Normalização As características devem ser não correlacionadas se possível Quando temos poucas características podemos verificar isso facilmente. Com várias características, o problema se torna muito mais complexo. Métodos de seleção de características. 38
39 Inicialização dos Pesos Assumindo que os dados foram normalizados e uma sigmoid está sendo usada como função de ativação. Os pesos devem ser inicializados aleatoriamente mas de modo que fiquem na região linear da sigmoid Com pesos muito altos ou muito baixo a sigmoid deve saturar - Gradientes pequenos - Aprendizagem muito lenta. 39
40 Generalização Um aspecto bastante importante quando treinamos um classificador é garantir que o mesmo tenha um bom poder de generalização. Evitar overfitting. A maneira clássica de se garantir uma boa generalização consiste em reservar uma parte da base para validar a generalização. 40
41 Generalização A cada iteração, devemos monitorar o desempenho na base de validação. Não é raro observar o seguinte desempenho 41
42 Generalização Uma outra estratégia é a validação cruzada. Interessante quando a base não é muito grande Separar alguns exemplos para validação pode prejudicar o treinamento. Consiste em dividir a base de aprendizagem em n partições iguais e usar n-1 partições para aprendizagem e uma partição para validação. 42
43 Generalização A cada iteração de aprendizado a partição usada para validação é trocada. 1ª. iteração 2ª. iteração 3ª. iteração 43
44 Tamanho da Rede Geralmente uma camada escondida é suficiente. Em poucos casos você vai precisar adicionar uma segunda camada escondida. Não existe uma fórmula matemática para se encontrar o número de neurônios. Empírico Dica prática Comece com uma rede menor, pois a aprendizagem vai ser mais rápida. 44
Multiple Layer Perceptron
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Multiple Layer Perceptron David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Multiple Layer Perceptron (MLP) Backpropagation
Classificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva [email protected] Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais [email protected] http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Redes Neurais Noções Gerais
Redes Neurais Noções Gerais Segundo Loesch (apupt Fernandes), Redes Neurais Artificiais são sistemas computacionais, de implementação em hardware e software, que imitam as habilidades computacionais do
Inteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação [email protected] Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Redes Neurais Artificiais
Redes Neurais Artificiais Neurônio Natural Dendritos: recebe os estímulos transmitidos por outros neurônios Soma Sinapse Axônio Soma: coleta e combina informações vindas de outros neurônios Sinapse Dendrito
PRINCÍPIOS DE NEUROCOMPUTAÇÃO
PRINCÍPIOS DE NEUROCOMPUTAÇÃO Neurocomputação Funcionamento do cérebro humano e os neurônios Formação das conexões e como se concebe teoricamente a aquisição do conhecimento, formalizando-os em procedimentos
Redes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
Redes Neurais Artificial
Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado
Aprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em
REDES NEURAIS ARTIFICIAIS
REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO
Tópicos Especiais: Inteligência Artificial REDES NEURAIS
Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig
Redes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
MLP (Multi Layer Perceptron)
MLP (Multi Layer Perceptron) André Tavares da Silva [email protected] Roteiro Rede neural com mais de uma camada Codificação de entradas e saídas Decorar x generalizar Perceptron Multi-Camada (MLP -
Redes Neurais Artificiais
Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Inteligência Artificial
3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)
Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Redes Neurais Artificial. Prática. Inteligência Artificial
Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes
Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Classificadores Lineares
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Classificadores Lineares David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Funções Discriminantes Lineares Perceptron Support
3 Redes Neurais Introdução
3 Redes Neurais 3.. Introdução As redes neurais artificiais, ou comumente conhecidas como Neural Networs, foram motivadas em princípio pela extraordinária capacidade do cérebro humano para executar tarefas
Redes Neurais. Motivação. Componentes do neurônio. Cérebro humano. Criar máquinas capazes de operar independentemente do homem:
Motivação M. Sc. Luiz Alberto [email protected] Redes Neurais Criar máquinas capazes de operar independentemente do homem: Aprenda sozinha; Interagir com ambientes desconhecidos; Possa ser chamada de
Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Redes Neurais Artificiais
Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais
Redes Neurais MLP: Exemplos e Características
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1
Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
JAI 6 - Deep Learning Teoria e Prática
JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos [email protected] 2 Computação baseada em aprendizado
Redes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina
Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)
Mineração de Dados em Biologia Molecular
Mineração Dados em Biologia Molecular Principais tópicos André C. P. L. F. Carvalho Monitor: Valéria Carvalho Res Neurais Artificiais Introdução Arquitetura Aprendizado Principais molos Perceptron MLP
Redes Neurais Artificiais
Universidade Federal do Espírito Santo CCENS UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais
Rede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva [email protected] Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Aprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
Aprendizado de Máquinas. Classificadores Lineares
Universidade Federal do Paraná (UFPR) Departamento de Informática Aprendizado de Máquinas Classificadores Lineares David Menotti, Ph.D. web.inf.ufpr.br/menotti Objetivos Introduzir o conceito de classificação
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron
Por que Redes Neurais?
Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor
Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana
Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)
PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado
PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma
Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.
SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,
INTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos
Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
Inteligência Computacional
Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma
4 Redes Neurais Artificiais
4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:
Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -
Rede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
3 REDES NEURAIS ARTIFICIAIS
47 3 REDES NEURAIS ARTIFICIAIS Neste capítulo será apresentado um breve histórico das redes neurais artificiais de modo a situar o leitor, descrevendo-se suas aplicações, teorias e finalmente detalhando-se
Redes Neurais Artificiais
Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de
REDES NEURAIS. Marley Maria B.R. Vellasco. ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada CONTEÚDO
REDES NEURAIS Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos
Redes Neurais Convolucionais
André Gustavo Hochuli Orientadores: Dr. Luiz E. S. Oliveira/Dr. Alceu Britto Programa de Pós-Graduação em Informática Departamento de Informática UFPR Neurônio Artificial Redes Neurais - Vetor de Caracteristícas
Perceptron de Múltiplas Camadas e Backpropagation
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Perceptron de Múltiplas Camadas e Backpropagation Redes Neurais Artificiais Site: http://jeiks.net
Redes Neurais Convolucionais
André Gustavo Hochuli Orientador: Prof. Dr. Luiz Eduardo Soares de Oliveira Programa de Pós-Graduação em Informática Departamento de Informática UFPR http://www.inf.ufpr.br/aghochuli/caffe/ Redes Neurais
Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN
Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1
Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís
Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve
Aprendizado de Máquina. Combinando Classificadores
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquina Combinando Classificadores David Menotti, Ph.D. web.inf.ufpr.br/menotti Introdução O uso de vários classificadores
Análise da Complexidade de Tempo e Espaço em Algoritmos para Classificação de Padrões em sinais de ECG
Análise da Complexidade de Tempo e Espaço em Algoritmos para Classificação de Padrões em sinais de ECG Eduardo Luz David Menotti Universidade Federal de Ouro Preto 05/07/2011 Summary Rede Neuronal Artificial
Primeiras Redes Neurais Artificiais: Perceptron e Adaline
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor
Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA
Inteligência Artificial Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA Projeto de Redes Neurais Projeto de Redes Neurais Baseado apenas em dados Exemplos para treinar uma rede devem ser compostos por
1 O que é uma Rede Neuronal?
Curso de Data Mining Sandra de Amo Aula 10 - Classificação utilizando Redes Neuronais 1 O que é uma Rede Neuronal? Até o momento, temos dois tipos de conceitos que podem ser produzidos em resposta a uma
Redes Neurais Artificiais. Prof. João Alberto Fabro
Redes Neurais Artificiais Prof. João Alberto Fabro Redes Neurais Artificiais Conceitos Básicos Histórico Evolução O lugar das Redes Neurais dentro da IA Características Aplicações Redes Neurais Multicamadas
Fundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução
Neural Networks. Neurônios: Elementos aritméticos simples. Redes Neuronais: conj de neurônios interligados.
Neural Networks Neural Networks Do ponto de vista computacional: métodos para representar funções usando redes de elementos aritméticos simples, e aprender tais representações através de exemplos. Do ponto
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação
REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio
REDES NEURAIS Sistema Nervoso 2 O que é? É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos Engloba o cérebro Sua unidade fundamental é o neurônio Se diferencia
Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas
Redes Neurais Dalma M. Falcão [email protected] http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs
Aprendizado de Máquina Introdução às Redes Neurais Artificiais
Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência
Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem
Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja
Professor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO
Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO Redes Neurais Artificiais ou simplesmente Redes Neurais (também conhecidas como modelos conexionistas) têm sido, ao longo dos últimos anos, uma área de
