Introdução às Redes Neurais Artificiais
|
|
- Luiz Eduardo Canário Abreu
- 5 Há anos
- Visualizações:
Transcrição
1 Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade Federal Fluminense Prof. João Marcos Meirelles da Silva p. 1/51
2 Créditos autorais Este curso e estes slides são parcialmente adaptados da bibliografia citada e das aulas do professor Luiz Pereira Calôba - COPPE/UFRJ Prof. João Marcos Meirelles da Silva p. 2/51
3 Sumário Introdução Multilayer Perceptrons Backpropagation Algorithm Correção dos pesos da sinapses Fases do treinamento Gradiente Local Prof. João Marcos Meirelles da Silva p. 3/51
4 Multilayer Perceptrons Tipicamente 3 camadas: Entrada (sensores), Escondida (1 ou mais) e Saída; Capacidade de resolver problemas mais complexos Algoritmo de treinamento: error back-propagation Capacidade de generalização respostas razoáveis para padrões nunca vistos pela rede durante o treinamento Aprendizado back-propagation redes back-propagation Prof. João Marcos Meirelles da Silva p. 4/51
5 Multilayer Perceptrons Uma rede MLP (Multilayer Perceptrons) possui 3 características básicas: A função de ativação é não-linear e suave (continuamente diferenciável); Possui uma ou mais camadas escondidas; Alto grau de conectividade. De fato, estas três características juntas tornam a rede neural robusta também, ou seja, algumas sinapses podem ser descartadas sem grande prejuízo no desempenho geral Prof. João Marcos Meirelles da Silva p. 5/51
6 Multilayer Perceptrons Prof. João Marcos Meirelles da Silva p. 6/51
7 Multilayer Perceptrons Dois tipos de sinais podem ser identificados na figura acima: Sinal de entrada Sinal de erro Prof. João Marcos Meirelles da Silva p. 7/51
8 Multilayer Perceptrons O treinamento de uma rede via Back-propagation envolve 3 estágios: A propagação do sinal de entrada, camada a camada, a partir do padrão apresentado até a camada de saída; O cálculo e a retro-propagação do erro associado; O ajuste das sinapses. Prof. João Marcos Meirelles da Silva p. 8/51
9 Multilayer Perceptrons Observações Após o treinamento, a operação da rede envolve somente a primeira fase. Mesmo que a fase de treinamento seja muito lenta, a operação da rede, depois de treinada, é muito rápida. Em geral, apenas uma camada escondida é suficiente para a maioria dos problemas. Prof. João Marcos Meirelles da Silva p. 9/51
10 Multilayer Perceptrons Notação: Os índices i, j e k referem-se a neurônios diferentes na rede: i neurônio da camada anterior à camada j j neurônio da camada j k neurônio da camada posterior à camada j Na n-ésima iteração, o n-ésimo padrão é apresentado à rede; Prof. João Marcos Meirelles da Silva p. 10/51
11 Multilayer Perceptrons Notação: O símbolo E(n) refere-se ao erro quadrático ou erro de energia. A média de E(n) sobre todos os valores de n E avg ; O símbolo e j (n) corresponde ao erro na saída do neurônio j na iteração n; O símbolo d j (n) corresponde à resposta desejada para o neurônio j e é utilizado para computar o valor de e j (n); Prof. João Marcos Meirelles da Silva p. 11/51
12 Multilayer Perceptrons O símbolo y j (n) corresponde ao sinal do padrão apresenta na saída do neurônio j na interação n; O símbolo w ji corresponde à sinapse conectando a saída do neurônio i à entrada do neurônio j na iteração n. A correção aplicada à esta sinapse na iteração n é dada por w ji (n); v j (n) corresponde ao sinal que será aplicado na função de ativação associado ao neurônio j; Prof. João Marcos Meirelles da Silva p. 12/51
13 Multilayer Perceptrons A função de ativação que descreve a relação funcional entrada-saída da não-linearidade associada ao neurônio j é representada por φ( ); O bias aplicado ao neurônio j é representado por b j. Seu efeito é representado por uma sinapse de peso fixo w j0 = b j conectado à uma entrada fixa de valor +1; O i-ésimo elemento do vetor de entrada (padrão) é representado por x i (n); Prof. João Marcos Meirelles da Silva p. 13/51
14 Multilayer Perceptrons O k-ésimo elemento do vetor de saída da camada de saída é representado por o k (n); A taxa de aprendizado é representada por η; O símbolo m l representa o tamanho (número de neurônios) na camada l da rede perceptron; l = 0, 1,...,L, onde L é a profundidade da rede. Então, m 0 corresponde ao tamanho da camada de entrada, m 1 corresponde ao tamanho da primeira camada escondida e m L corresponde ao tamanho da camada de saída. A notação m L = M também é utilizada. Prof. João Marcos Meirelles da Silva p. 14/51
15 Back-Propagation Algorithm Back-Propagation Algorithm Gradiente do Erro O sinal de erro na saída do neurônio j na iteração n é dado por: e j (n) = d j (n) y j (n) (1) Definimos o valor instantâneo do erro de energia para o neurônio j como sendo 0.5e 2 j (n). Prof. João Marcos Meirelles da Silva p. 15/51
16 Back-Propagation Algorithm Assim, o valor instantâneo E(n) do erro de energia total é obtido somando-se o valor instantâneo sobre todos os neurônios da camada de saída. E(n) = 1 2 j C e 2 j(n) (2) Onde o conjunto C é formado por todos os neurônios da camada de saída da rede. Prof. João Marcos Meirelles da Silva p. 16/51
17 Back-Propagation Algorithm Seja N o número total de padrões (exemplos) contidos no conjunto de treinamento. O valor médio do erro quadrático de energia é obtido somando-se E(n), n e normalizando-o em relação ao tamanho N do conjunto: E avg = 1 N N E(n) (3) n=1 E avg é função dos pesos e dos bias da rede. Prof. João Marcos Meirelles da Silva p. 17/51
18 Back-Propagation Algorithm E avg representa uma função custo como medida de desempenho do aprendizado; O objetivo do aprendizado é minimizar E avg ; A correção dos pesos das sinapses é feita padrão-a-padrão até que um ciclo (uma completa apresentação de todos os padrões) tenha sido atingido. Este ciclo é conhecido como época; Os ajustes das sinapses são feitos de acordo com os respectivos erros computados para cada padrão apresentado; As épocas são repetidas até que o erro médio total seja zero ou tenha atingido um valor mínimo. Prof. João Marcos Meirelles da Silva p. 18/51
19 Back-Propagation Algorithm Prof. João Marcos Meirelles da Silva p. 19/51
20 Back-Propagation Algorithm O chamado campo local induzido (induced local field), v j (n), produzido na entrada da função de ativação φ( ) e associado ao neurônio j, é dado por: v j (n) = m w ji (n)y i (n) (4) i=0 onde m é o número total de entradas (excluindo o bias) aplicadas ao neurônio j. Prof. João Marcos Meirelles da Silva p. 20/51
21 Back-Propagation Algorithm O peso w j0 (correspondente à entrada fixa y 0 = +1) possui valor igual a b j. Logo, a saída do neurônio j é dada por: y j (n) = φ j (v j (n)) (5) Prof. João Marcos Meirelles da Silva p. 21/51
22 Back-Propagation Algorithm O algoritmo Back-Propagation aplica uma correção w ji (n) na sinapse w ji, proporcional à derivada parcial E(n)/ w ji (n), onde: E(n) w ji = E(n) e j (n) e j (n) y j (n) y j (n) v j (n) v j (n) w ji (n) (6) E(n)/ w ji (n) determina a direção de busca no espaço de busca da sinapse w ji. Prof. João Marcos Meirelles da Silva p. 22/51
23 Back-Propagation Algorithm Diferenciando ambos os lados da equação (2) em relação a e j (n), temos: E(n) e j (n) = e j(n) (7) Diferenciando ambos os lados da equação (1) em relação a y j (n), temos: e j (n) y j (n) = 1 (8) Prof. João Marcos Meirelles da Silva p. 23/51
24 Back-Propagation Algorithm Diferenciando ambos os lados da equação (5) em relação a v j (n), temos: y j (n) v j (n) = φ j(v j (n)) (9) Finalmente, diferenciando a equação (4) em relação a w ji (n), temos: v j (n) w ji (n) = y i(n) (10) Prof. João Marcos Meirelles da Silva p. 24/51
25 Back-Propagation Algorithm Através da substituição das equações (7) a (10) em (6): E(n) w ji (n) = e j(n)φ j(v j (n))y i (n) (11) A correção w ji (n) aplicada à sinapse w ji (n) é definida pela Regra Delta: w ji (n) = η E(n) w ji (n) (12) onde η é a taxa de aprendizado do algoritmo back-propagation. Prof. João Marcos Meirelles da Silva p. 25/51
26 Back-Propagation Algorithm Substituindo a equação (11) em (12), temos: onde o gradiente local δ j (n) é definido por: w ji (n) = ηδ j (n)y i (n) (13) δ j (n) = E(n) v j (n) = E(n) e j (n) e j (n) y j (n) y j (n) v j (n) = e j (n)φ j(v j (n)) (14) Prof. João Marcos Meirelles da Silva p. 26/51
27 Back-Propagation Algorithm O gradiente local aponta para a direção onde o erro deverá diminuir (daí o sinal negativo na equação (12)). O gradiente local δ j (n) para a saída do neurônio j é igual ao produto do erro correspondente e j (n) deste neurônio e a derivada φ j (v j(n)) da função de ativação associada; Prof. João Marcos Meirelles da Silva p. 27/51
28 Back-Propagation Algorithm O cálculo do ajuste das sinapses w ji (n) depende do erro de saída e j (n) do neurônio j, mas: O neurônio j pode ser um neurônio da camada de saída sem problemas pois já é fornecido a este neurônio o valor desejado d j (n); O neurônio j pode ser um neurônio da camada escondida não existe uma resposta desejada para este neurônio. Prof. João Marcos Meirelles da Silva p. 28/51
29 Back-Propagation Algorithm Caso 1: O neurônio j é um neurônio de saída É fornecido ao neurônio uma saída desejada d j (n); Podemos utilizar a equação (1) para calcular o erro e j (n) associado a este neurônio; Tendo calculado o erro e j (n), podemos calcular o gradiente local δ j (n) através da equação (14). Prof. João Marcos Meirelles da Silva p. 29/51
30 Back-Propagation Algorithm Caso 2: O neurônio j é um neurônio da camada escondida Nenhuma resposta deseja é fornecida a este neurônio; O erro deveria ser calculado recursivamente em termos dos erros de todos os neurônios aos quais ele se conecta diretamente; Este é o ponto onde o algoritmo back-propagation torna-se um pouco mais complicado; Prof. João Marcos Meirelles da Silva p. 30/51
31 Back-Propagation Algorithm Considere a figura no slide seguinte, onde o neurônio j é mostrado como sendo um neurônio da camada escondida... Prof. João Marcos Meirelles da Silva p. 31/51
32 Back-Propagation Algorithm Neste caso, o gradiente local deveria ser redefinido como: Relembrando que δ j (n) = E(n) y j (n) y j (n) v j (n) = E(n) y j (n) φ j(v j (n)) (15) E(n) = 1 2 e 2 k(n) (16) k C para o neurônio k que pertence à camada de saída, Prof. João Marcos Meirelles da Silva p. 32/51
33 Back-Propagation Algorithm temos: E(n) y j (n) = k e k (n) e k(n) y j (n) (17) E(n) y j (n) = k como o erro e k (n) é dado por: e k (n) e k(n) v k (n) v k (n) y j (n) (18) e k (n) = d k (n) y k (n) = d k (n) φ k (v k (n)) (19) Prof. João Marcos Meirelles da Silva p. 33/51
34 Back-Propagation Algorithm e k (n) v k (n) = φ k(v k (n)) (20) Podemos notar da figura anterior que para o neurônio k, o campo de indução local v k (n) é v k (n) = m w kj (n)y j (n) (21) j=0 onde m é o total de entradas (excluindo o bias) do neurônio k. Prof. João Marcos Meirelles da Silva p. 34/51
35 Back-Propagation Algorithm Diferenciando a equação (21) em relação a y j (n), temos: v k (n) y j (n) = w kj(n) (22) Substituindo as equações (20) e (22) em (18), temos a derivada parcial desejada: E(n) y j (n) = k = k e k (n)φ k(v k (n))w kj (n) δ k (n)w kj (n) (23) Prof. João Marcos Meirelles da Silva p. 35/51
36 Back-Propagation Algorithm Finalmente, substituindo a equação (23) em (15), obtemos a equação back-propagation para o gradiente local δ k (n): δ j (n) = φ j(v j (n)) k δ k (n)w kj (n) (24) Prof. João Marcos Meirelles da Silva p. 36/51
37 Back-Propagation Algorithm φ j (v j(n)) depende da função de ativação escolhida para o neurônio da camada escondida j; O somatório depende de dois conjuntos de termos: δ k (n) requer o conhecimento do valor de e k (n) de todos os neurônios da camada imediatamente à direita do neurônio j, e que está diretamente conectado com o neurônio j; w kj pesos das sinapses associadas a estas conexões. Prof. João Marcos Meirelles da Silva p. 37/51
38 Correção dos pesos das sinapses w ji = ηδ j (n)y i (n) (25) onde η é a taxa de aprendizado, δ j (n) é o gradiente local, e y i (n) é a entrada do neurônio j. δ j (n) = e j (n)φ j(v n (j)) (26) se o neurônio j pertencer à camada de saída, ou δ j (n) = φ j(v j (n)) k δ k (n)w kj (n) (27) se ele pertencer à uma camada escondida. Prof. João Marcos Meirelles da Silva p. 38/51
39 Fases do Treinamento Existem duas fases no treinamento das redes feedforward multicamadas pelo algoritmo back-propagation: Forward pass Backward pass Prof. João Marcos Meirelles da Silva p. 39/51
40 Fases do Treinamento Forward pass Os pesos das sinapses permanecem inalterados; Um estímulo de entrada, x i (n), é fornecido à rede e este se propaga por ela neurônio a neurônio até a camada de saída. A saída de um neurônio j qualquer é dada por: y j (n) = φ(v j (n)) (28) Prof. João Marcos Meirelles da Silva p. 40/51
41 Fases do Treinamento O Campo local induzido v j (n) é dada por: v j (n) = m w ji (n)y i (n) (29) i=0 onde m é o número total de entradas (excluindo o bias) do neurônio j, w ji é o peso da sinapse que conecta o neurônio i ao neurônio j, e y i (n) é a entrada do neurônio j. Prof. João Marcos Meirelles da Silva p. 41/51
42 Fases do Treinamento Backward pass Inicia-se pela saída da rede; Os erros encontrados são propagados pela rede no sentido da saída para a entrada, camada a camada, e recursivamente calculando-se o gradiente local, δ k para cada neurônio; Os pesos das sinapses são alterados de acordo com a Regra Delta (25); O cálculo do gradiente local depende se o neurônio pertence à camada de saída ou a uma camada escondida; Prof. João Marcos Meirelles da Silva p. 42/51
43 Gradiente Local O cálculo de δ para cada neurônio requer a derivada da função de ativação φ( ) associada a cada neurônio; φ( ) deve ser diferenciável; Em geral, utilizam-se funções sigmoidais. Prof. João Marcos Meirelles da Silva p. 43/51
44 Gradiente Local Função Logística φ j (v j (n)) = e av j(n) onde a > 0 e < v j (n) <, v j (n) o campo local induzido do neurônio j. (30) Prof. João Marcos Meirelles da Silva p. 44/51
45 Gradiente Local Diferenciando a equação (30) em relação a v j (n), temos: como φ j (v j (n)) = y j (n), então: φ j(v j (n)) = aφ j (v j (n))[1 φ j (v j (n))] (31) φ j(v j (n)) = ay j (n)[1 y j (n)] (32) Prof. João Marcos Meirelles da Silva p. 45/51
46 Gradiente Local Sendo a função de ativação a função logística, podemos expressar o gradiente local como: Para um neurônio j da camada de saída δ j (n) = e j (n)φ j(v j (n)) = a[d j (n) y j (n)]y j (n)[1 y j (n)] (33) Para um neurônio de uma camada escondida δ j (n) = φ j(v j (n)) k δ k (n)w kj (n) = ay j (n)[1 y j (n)] k δ k (n)w kj (n) (34) Prof. João Marcos Meirelles da Silva p. 46/51
47 Gradiente Local Função Tangente Hiperbólica φ j (v j (n)) = a tanh(bv j (n)), (a, b) > 0 (35) Diferenciando a equação (35) em relação a v j (n), temos: φ j = absech 2 (bv j (n)) = ab(1 tanh 2 (bv j (n))) = b a [a y j(n)][a + y j (n)] (36) Prof. João Marcos Meirelles da Silva p. 47/51
48 Gradiente Local Sendo a função de ativação a função tangente hiperbólica, podemos expressar o gradiente local como: Para um neurônio j da camada de saída δ j (n) = e j (n)φ j(v j (n)) = b a [d j(n) y j (n)][a y j (n)][a + y j (n)] (37) Para um neurônio de uma camada escondida δ j (n) = φ j(v j (n)) k δ k (n)w kj (n) = b a [a y j(n)][a + y j (n)] k δ k (n)w kj (n) (38) Prof. João Marcos Meirelles da Silva p. 48/51
49 Gradiente Local Utilizando as equações (33) e (34) para a função logística e as equações (37) e (38) para a função tangente hiperbólica, podemos calcular o gradiente local δ j (n) sem o conhecimento explícito da função de ativação! Prof. João Marcos Meirelles da Silva p. 49/51
50 Referências 1. Haykin, S., Neural Networks - A Comprehensive Foundation, 2 nd edition - Prentice Hall, Fausett, L., Fundamental of Neural Networks - Architectures, Algorithms and Applications, Prentice Hall, Theodoris, S., Koutroumbas, K, Pattern Recognition, 4 th edition, Academic Press. Prof. João Marcos Meirelles da Silva p. 50/51
51 FIM Prof. João Marcos Meirelles da Silva p. 51/51
Introdução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Camada Única Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas II Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de
Leia maisSCC Capítulo 5 Perceptron Multicamadas
Introdução Back-propagation (BP) MLPs Convolução SCC-5809 - Capítulo 5 Perceptron Multicamadas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Introdução Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer
Leia maisFundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução
Leia maisRedes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
Leia maisRedes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons
Leia maisUM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA
UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
Leia maisRedes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Leia maisTÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Leia maisMini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE
Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede
Leia maisInteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Leia maisResolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís
Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
Leia maisIDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS
Anais do Simpósio Brasileiro de Geomática, Presidente Prudente SP, 9- de julho de 2002 p242-250 IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS ROMUALDO WANDRESEN
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Aplicações em Telecomunicações Prof. João Marcos Meirelles da Silva, D.Sc. Professor Adjunto II do Departamento de Engenharia de Telecomunicações Universidade Federal Fluminense
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Clusterização: Conceitos Básicos Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia mais( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)
Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação
Leia maisRedes Neurais Artificial. Prática. Inteligência Artificial
Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes
Leia mais4 Redes Neurais Artificiais
4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características
Leia maisAprendizagem de Máquina. Redes Neurais Artificiais (RNAs)
Aprendizagem de Máquina Redes Neurais Artificiais (RNAs) Plano de Aula Introdução Motivação Biológica Perceptron Superfície de Decisão Descida do Gradiente Redes Multicamadas (Multilayer) Retropropagação
Leia maisHP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
Leia maisProfa. Josiane M. Pinheiro outubro/2008
Baseada em: Stuart Russel e Peter Norving - Inteligência Artificial seção 20.5 Jorge M. Barreto Introdução às Redes Neurais Artificiais - http://www.inf.ufsc.br/~barreto/tutoriais/survey.pdf Cassia Yuri
Leia maisPrimeiras Redes Neurais Artificiais: Perceptron e Adaline
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor
Leia maisSELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS
SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas
Leia maisRedes Neurais Artificiais (RNA)
Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação
Leia maisJAI 6 - Deep Learning Teoria e Prática
JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado
Leia maisREDES NEURAIS ARTIFICIAIS
REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Multi-layer Perceptrons e Backpropagation Marcílio Souto DIMAp/UFRN Redes de várias camadas MLP - Multi-Layer Perceptron (Adaline?!) Backpropagation network Superar as limitações
Leia maisRedes Neurais MLP: Exemplos e Características
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em
Leia maisRedes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
Leia maisSCC Capítulo 4 Perceptron de Camada Única
Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron
Leia maisTeorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.
SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron
Leia maisUNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais
UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace
Leia maisINTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos
Leia maisRECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ
RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia maisInteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida
Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas
Leia maisTópicos Especiais: Inteligência Artificial REDES NEURAIS
Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig
Leia maisAlgoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.
CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
Leia maisSistemas Inteligentes
Sistemas Inteligentes UNIDADE 5 Redes Neurais Artificiais (Perceptron Multicamadas Conceitos) Prof. Ivan Nunes da Silva. Rede Perceptron Multicamadas Aspectos de arquitetura Redes Perceptron de Múltiplas
Leia maisPerceptron de Múltiplas Camadas e Backpropagation
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Perceptron de Múltiplas Camadas e Backpropagation Redes Neurais Artificiais Site: http://jeiks.net
Leia maisAvaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos
Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos Otávio Roberto Martins de Souza UFSC otavio@eps.ufsc.br Silvana Pezzi, M.Eng UFSC spezzi@eps.ufsc.br
Leia maisVariações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa
A principal crítica ao algoritmo Back Propagation é o longo tempo de treinamento proposta de variações simples para acelerar o processo de aprendizado Taxa de Aprendizado Adaptativa Inicia-se com um valor
Leia maisRedes Neurais Feedforward e Backpropagation. André Siqueira Ruela
Redes Neurais Feedforward e Backpropagation André Siqueira Ruela Sumário Introdução a redes feedforward Algoritmo feedforward Algoritmo backpropagation Feedforward Em uma rede feedforward, cada camada
Leia maisPERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado
PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma
Leia maisserotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina
Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)
Leia maisMineração de Dados em Biologia Molecular
Mineração Dados em Biologia Molecular Principais tópicos André C. P. L. F. Carvalho Monitor: Valéria Carvalho Res Neurais Artificiais Introdução Arquitetura Aprendizado Principais molos Perceptron MLP
Leia maisSCC Capítulo 2 Topologia e Representação
Modelos Arquiteturas Representação do Conhecimento SCC-5809 - Capítulo 2 Topologia e Representação João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809:
Leia mais3 REDES CLÁSSICAS PERCEPTRON E ADALINE
w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados
Leia maisAPRENDIZADO EM MODELOS CONEXIONISTAS
APRENDIZADO EM MODELOS CONEXIONISAS Aprendizado é o processo pelo qual os parâmetros (os pesos das coneões entre os neurônios) de uma rede neural são austados através de uma forma continuada de estímulo
Leia mais3 Redes Neurais Introdução
3 Redes Neurais 3.. Introdução As redes neurais artificiais, ou comumente conhecidas como Neural Networs, foram motivadas em princípio pela extraordinária capacidade do cérebro humano para executar tarefas
Leia maisAutor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com
Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial
Leia maisIntrodução a Redes Neurais Artificiais com a biblioteca Encog em Java
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -
Leia maisIF-705 Automação Inteligente Perceptrons de Múltiplas Camadas
IF-705 Automação Inteligente Perceptrons de Múltiplas Camadas Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação aluizioa@cin.ufpe.br
Leia maisIntrodução às Redes Neurais Artificiais
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos
Leia maisRedes Neurais Artificial
Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado
Leia maisEstudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial
Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial Renan Bessa 1, Elder dos Santos Teixeira 2, Guilherme Costa Holanda 3, Auzuir Ripardo de Alexandria 4 1 Graduando em
Leia maisClassificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Leia maisSCC Capítulo 3 Aprendizado
Aprendizado Supervisionado Não Supervisionado Tarefas SCC-5809 - Capítulo 3 Aprendizado João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2012 João Luís G. Rosa c 2012 - SCC-5809: Redes Neurais
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais x 1 w k1 Bias b k +1 +1 x 1 x 2 x 3 x m +1 y 1 y 2 y o Sinais de entrada x 2 x m Fabricio Breve fabricio@rc.unesp.br w k2 w km Pesos sinápticos Σ Junção aditiva v k f(. ) Saída
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Leia maisINTEGRADOR NEURAL APLICADO NA DINÂMICA DO PÊNDULO DE WILBERFORCE
Anais do 12 O Encontro de Iniciação Científica e Pós-Graduação do ITA XII ENCITA / 2006 Instituto Tecnológico de Aeronáutica, São José dos Campos, SP, Brasil, Outubro, 16 a 19, 2006 INTEGRADOR NEURAL APLICADO
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Modelos de classificação por Redes Neurais Artificiais Prof. Paulo Martins Engel Motivação Classificadores baseados em representação simbólica (AD, RD,...) estão limitados a particionar
Leia maisO Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM)
O Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM) Thiago Henrique Cupertino SCE5809 - Redes Neurais 23 de Novembro de 2010 Conteúdo Introdução Desvantagens do
Leia maisPerceptron de Múltiplas Camadas (MultiLayer Perceptron-MLP) com algoritmo de treinamento por RetroPropagação de Erros (Error BackPropagation)
Perceptron e Múltiplas Camaas (MultiLayer Perceptron-MLP) com algoritmo e treinamento por RetroPropagação e Erros (Error BackPropagation) IF67D Sistemas Inteligentes 1 UTFPR - 2015 Prof. João Alberto Fabro
Leia mais3 INTELIGÊNCIA COMPUTACIONAL (IC)
40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por
Leia maisESTUDO COMPARATIVO DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE SÉRIES TEMPORAIS FINANCEIRAS
ESTUDO COMPARATIVO DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE SÉRIES TEMPORAIS FINANCEIRAS David Gabriel de Barros Franco Pontifícia Universidade Católica do Paraná david.barros@pucpr.br Maria Teresinha
Leia maisIntrodução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana
Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)
Leia maisNeurocomputação Parte 2
Neurocomputação Parte 2 Fabricio Breve - fbreve@gmail.com 25/09/2007 Fabricio Breve 1 REDES NEURAIS ARTIFICIAIS 25/09/2007 Fabricio Breve 2 Por que Redes Neurais? Computadores convencionais são eficientes
Leia maisPREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS POR SELEÇÃO DE VARIÁVEIS STEPWISE E REDES NEURAIS ARTIFICIAIS
Campus de Ilha Solteira PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS POR SELEÇÃO DE VARIÁVEIS STEPWISE E REDES NEURAIS ARTIFICIAIS MARLEIDE FERREIRA ALVES Ilha Solteira 2013 Campus de Ilha Solteira PROGRAMA
Leia maisProfessor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO
Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO Redes Neurais Artificiais ou simplesmente Redes Neurais (também conhecidas como modelos conexionistas) têm sido, ao longo dos últimos anos, uma área de
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas
Leia maisJAI 6 - Deep Learning Teoria e Prática
JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos (Universidade Federal Fluminense) Redes Recorrentes e LSTM 1 Redes Neurais: direcionamento das conexões Redes Neurais Alimentadas
Leia maisRedes de múltiplas camadas na geração de chaves criptográficas de sessão
Redes de múltiplas camadas na geração de chaves criptográficas de sessão Eduardo Gomes de Barros, José Demísio Simões da Silva Instituto Nacional de Pesquisas Espaciais eduardogbarros@hotmail.com, demisio@lac.inpe.br
Leia maisGUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS
Universidade Federal de Lavras Departamento de Ciência da Computação GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS v. 1.2 Prof. Wilian Soares Lacerda Lavras, agosto de 2018 Ficha catalográfica elaborada
Leia maisInteligência Computacional
Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma
Leia mais