Introdução às Redes Neurais Artificiais

Tamanho: px
Começar a partir da página:

Download "Introdução às Redes Neurais Artificiais"

Transcrição

1 Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade Federal Fluminense Prof. João Marcos Meirelles da Silva p. 1/51

2 Créditos autorais Este curso e estes slides são parcialmente adaptados da bibliografia citada e das aulas do professor Luiz Pereira Calôba - COPPE/UFRJ Prof. João Marcos Meirelles da Silva p. 2/51

3 Sumário Introdução Multilayer Perceptrons Backpropagation Algorithm Correção dos pesos da sinapses Fases do treinamento Gradiente Local Prof. João Marcos Meirelles da Silva p. 3/51

4 Multilayer Perceptrons Tipicamente 3 camadas: Entrada (sensores), Escondida (1 ou mais) e Saída; Capacidade de resolver problemas mais complexos Algoritmo de treinamento: error back-propagation Capacidade de generalização respostas razoáveis para padrões nunca vistos pela rede durante o treinamento Aprendizado back-propagation redes back-propagation Prof. João Marcos Meirelles da Silva p. 4/51

5 Multilayer Perceptrons Uma rede MLP (Multilayer Perceptrons) possui 3 características básicas: A função de ativação é não-linear e suave (continuamente diferenciável); Possui uma ou mais camadas escondidas; Alto grau de conectividade. De fato, estas três características juntas tornam a rede neural robusta também, ou seja, algumas sinapses podem ser descartadas sem grande prejuízo no desempenho geral Prof. João Marcos Meirelles da Silva p. 5/51

6 Multilayer Perceptrons Prof. João Marcos Meirelles da Silva p. 6/51

7 Multilayer Perceptrons Dois tipos de sinais podem ser identificados na figura acima: Sinal de entrada Sinal de erro Prof. João Marcos Meirelles da Silva p. 7/51

8 Multilayer Perceptrons O treinamento de uma rede via Back-propagation envolve 3 estágios: A propagação do sinal de entrada, camada a camada, a partir do padrão apresentado até a camada de saída; O cálculo e a retro-propagação do erro associado; O ajuste das sinapses. Prof. João Marcos Meirelles da Silva p. 8/51

9 Multilayer Perceptrons Observações Após o treinamento, a operação da rede envolve somente a primeira fase. Mesmo que a fase de treinamento seja muito lenta, a operação da rede, depois de treinada, é muito rápida. Em geral, apenas uma camada escondida é suficiente para a maioria dos problemas. Prof. João Marcos Meirelles da Silva p. 9/51

10 Multilayer Perceptrons Notação: Os índices i, j e k referem-se a neurônios diferentes na rede: i neurônio da camada anterior à camada j j neurônio da camada j k neurônio da camada posterior à camada j Na n-ésima iteração, o n-ésimo padrão é apresentado à rede; Prof. João Marcos Meirelles da Silva p. 10/51

11 Multilayer Perceptrons Notação: O símbolo E(n) refere-se ao erro quadrático ou erro de energia. A média de E(n) sobre todos os valores de n E avg ; O símbolo e j (n) corresponde ao erro na saída do neurônio j na iteração n; O símbolo d j (n) corresponde à resposta desejada para o neurônio j e é utilizado para computar o valor de e j (n); Prof. João Marcos Meirelles da Silva p. 11/51

12 Multilayer Perceptrons O símbolo y j (n) corresponde ao sinal do padrão apresenta na saída do neurônio j na interação n; O símbolo w ji corresponde à sinapse conectando a saída do neurônio i à entrada do neurônio j na iteração n. A correção aplicada à esta sinapse na iteração n é dada por w ji (n); v j (n) corresponde ao sinal que será aplicado na função de ativação associado ao neurônio j; Prof. João Marcos Meirelles da Silva p. 12/51

13 Multilayer Perceptrons A função de ativação que descreve a relação funcional entrada-saída da não-linearidade associada ao neurônio j é representada por φ( ); O bias aplicado ao neurônio j é representado por b j. Seu efeito é representado por uma sinapse de peso fixo w j0 = b j conectado à uma entrada fixa de valor +1; O i-ésimo elemento do vetor de entrada (padrão) é representado por x i (n); Prof. João Marcos Meirelles da Silva p. 13/51

14 Multilayer Perceptrons O k-ésimo elemento do vetor de saída da camada de saída é representado por o k (n); A taxa de aprendizado é representada por η; O símbolo m l representa o tamanho (número de neurônios) na camada l da rede perceptron; l = 0, 1,...,L, onde L é a profundidade da rede. Então, m 0 corresponde ao tamanho da camada de entrada, m 1 corresponde ao tamanho da primeira camada escondida e m L corresponde ao tamanho da camada de saída. A notação m L = M também é utilizada. Prof. João Marcos Meirelles da Silva p. 14/51

15 Back-Propagation Algorithm Back-Propagation Algorithm Gradiente do Erro O sinal de erro na saída do neurônio j na iteração n é dado por: e j (n) = d j (n) y j (n) (1) Definimos o valor instantâneo do erro de energia para o neurônio j como sendo 0.5e 2 j (n). Prof. João Marcos Meirelles da Silva p. 15/51

16 Back-Propagation Algorithm Assim, o valor instantâneo E(n) do erro de energia total é obtido somando-se o valor instantâneo sobre todos os neurônios da camada de saída. E(n) = 1 2 j C e 2 j(n) (2) Onde o conjunto C é formado por todos os neurônios da camada de saída da rede. Prof. João Marcos Meirelles da Silva p. 16/51

17 Back-Propagation Algorithm Seja N o número total de padrões (exemplos) contidos no conjunto de treinamento. O valor médio do erro quadrático de energia é obtido somando-se E(n), n e normalizando-o em relação ao tamanho N do conjunto: E avg = 1 N N E(n) (3) n=1 E avg é função dos pesos e dos bias da rede. Prof. João Marcos Meirelles da Silva p. 17/51

18 Back-Propagation Algorithm E avg representa uma função custo como medida de desempenho do aprendizado; O objetivo do aprendizado é minimizar E avg ; A correção dos pesos das sinapses é feita padrão-a-padrão até que um ciclo (uma completa apresentação de todos os padrões) tenha sido atingido. Este ciclo é conhecido como época; Os ajustes das sinapses são feitos de acordo com os respectivos erros computados para cada padrão apresentado; As épocas são repetidas até que o erro médio total seja zero ou tenha atingido um valor mínimo. Prof. João Marcos Meirelles da Silva p. 18/51

19 Back-Propagation Algorithm Prof. João Marcos Meirelles da Silva p. 19/51

20 Back-Propagation Algorithm O chamado campo local induzido (induced local field), v j (n), produzido na entrada da função de ativação φ( ) e associado ao neurônio j, é dado por: v j (n) = m w ji (n)y i (n) (4) i=0 onde m é o número total de entradas (excluindo o bias) aplicadas ao neurônio j. Prof. João Marcos Meirelles da Silva p. 20/51

21 Back-Propagation Algorithm O peso w j0 (correspondente à entrada fixa y 0 = +1) possui valor igual a b j. Logo, a saída do neurônio j é dada por: y j (n) = φ j (v j (n)) (5) Prof. João Marcos Meirelles da Silva p. 21/51

22 Back-Propagation Algorithm O algoritmo Back-Propagation aplica uma correção w ji (n) na sinapse w ji, proporcional à derivada parcial E(n)/ w ji (n), onde: E(n) w ji = E(n) e j (n) e j (n) y j (n) y j (n) v j (n) v j (n) w ji (n) (6) E(n)/ w ji (n) determina a direção de busca no espaço de busca da sinapse w ji. Prof. João Marcos Meirelles da Silva p. 22/51

23 Back-Propagation Algorithm Diferenciando ambos os lados da equação (2) em relação a e j (n), temos: E(n) e j (n) = e j(n) (7) Diferenciando ambos os lados da equação (1) em relação a y j (n), temos: e j (n) y j (n) = 1 (8) Prof. João Marcos Meirelles da Silva p. 23/51

24 Back-Propagation Algorithm Diferenciando ambos os lados da equação (5) em relação a v j (n), temos: y j (n) v j (n) = φ j(v j (n)) (9) Finalmente, diferenciando a equação (4) em relação a w ji (n), temos: v j (n) w ji (n) = y i(n) (10) Prof. João Marcos Meirelles da Silva p. 24/51

25 Back-Propagation Algorithm Através da substituição das equações (7) a (10) em (6): E(n) w ji (n) = e j(n)φ j(v j (n))y i (n) (11) A correção w ji (n) aplicada à sinapse w ji (n) é definida pela Regra Delta: w ji (n) = η E(n) w ji (n) (12) onde η é a taxa de aprendizado do algoritmo back-propagation. Prof. João Marcos Meirelles da Silva p. 25/51

26 Back-Propagation Algorithm Substituindo a equação (11) em (12), temos: onde o gradiente local δ j (n) é definido por: w ji (n) = ηδ j (n)y i (n) (13) δ j (n) = E(n) v j (n) = E(n) e j (n) e j (n) y j (n) y j (n) v j (n) = e j (n)φ j(v j (n)) (14) Prof. João Marcos Meirelles da Silva p. 26/51

27 Back-Propagation Algorithm O gradiente local aponta para a direção onde o erro deverá diminuir (daí o sinal negativo na equação (12)). O gradiente local δ j (n) para a saída do neurônio j é igual ao produto do erro correspondente e j (n) deste neurônio e a derivada φ j (v j(n)) da função de ativação associada; Prof. João Marcos Meirelles da Silva p. 27/51

28 Back-Propagation Algorithm O cálculo do ajuste das sinapses w ji (n) depende do erro de saída e j (n) do neurônio j, mas: O neurônio j pode ser um neurônio da camada de saída sem problemas pois já é fornecido a este neurônio o valor desejado d j (n); O neurônio j pode ser um neurônio da camada escondida não existe uma resposta desejada para este neurônio. Prof. João Marcos Meirelles da Silva p. 28/51

29 Back-Propagation Algorithm Caso 1: O neurônio j é um neurônio de saída É fornecido ao neurônio uma saída desejada d j (n); Podemos utilizar a equação (1) para calcular o erro e j (n) associado a este neurônio; Tendo calculado o erro e j (n), podemos calcular o gradiente local δ j (n) através da equação (14). Prof. João Marcos Meirelles da Silva p. 29/51

30 Back-Propagation Algorithm Caso 2: O neurônio j é um neurônio da camada escondida Nenhuma resposta deseja é fornecida a este neurônio; O erro deveria ser calculado recursivamente em termos dos erros de todos os neurônios aos quais ele se conecta diretamente; Este é o ponto onde o algoritmo back-propagation torna-se um pouco mais complicado; Prof. João Marcos Meirelles da Silva p. 30/51

31 Back-Propagation Algorithm Considere a figura no slide seguinte, onde o neurônio j é mostrado como sendo um neurônio da camada escondida... Prof. João Marcos Meirelles da Silva p. 31/51

32 Back-Propagation Algorithm Neste caso, o gradiente local deveria ser redefinido como: Relembrando que δ j (n) = E(n) y j (n) y j (n) v j (n) = E(n) y j (n) φ j(v j (n)) (15) E(n) = 1 2 e 2 k(n) (16) k C para o neurônio k que pertence à camada de saída, Prof. João Marcos Meirelles da Silva p. 32/51

33 Back-Propagation Algorithm temos: E(n) y j (n) = k e k (n) e k(n) y j (n) (17) E(n) y j (n) = k como o erro e k (n) é dado por: e k (n) e k(n) v k (n) v k (n) y j (n) (18) e k (n) = d k (n) y k (n) = d k (n) φ k (v k (n)) (19) Prof. João Marcos Meirelles da Silva p. 33/51

34 Back-Propagation Algorithm e k (n) v k (n) = φ k(v k (n)) (20) Podemos notar da figura anterior que para o neurônio k, o campo de indução local v k (n) é v k (n) = m w kj (n)y j (n) (21) j=0 onde m é o total de entradas (excluindo o bias) do neurônio k. Prof. João Marcos Meirelles da Silva p. 34/51

35 Back-Propagation Algorithm Diferenciando a equação (21) em relação a y j (n), temos: v k (n) y j (n) = w kj(n) (22) Substituindo as equações (20) e (22) em (18), temos a derivada parcial desejada: E(n) y j (n) = k = k e k (n)φ k(v k (n))w kj (n) δ k (n)w kj (n) (23) Prof. João Marcos Meirelles da Silva p. 35/51

36 Back-Propagation Algorithm Finalmente, substituindo a equação (23) em (15), obtemos a equação back-propagation para o gradiente local δ k (n): δ j (n) = φ j(v j (n)) k δ k (n)w kj (n) (24) Prof. João Marcos Meirelles da Silva p. 36/51

37 Back-Propagation Algorithm φ j (v j(n)) depende da função de ativação escolhida para o neurônio da camada escondida j; O somatório depende de dois conjuntos de termos: δ k (n) requer o conhecimento do valor de e k (n) de todos os neurônios da camada imediatamente à direita do neurônio j, e que está diretamente conectado com o neurônio j; w kj pesos das sinapses associadas a estas conexões. Prof. João Marcos Meirelles da Silva p. 37/51

38 Correção dos pesos das sinapses w ji = ηδ j (n)y i (n) (25) onde η é a taxa de aprendizado, δ j (n) é o gradiente local, e y i (n) é a entrada do neurônio j. δ j (n) = e j (n)φ j(v n (j)) (26) se o neurônio j pertencer à camada de saída, ou δ j (n) = φ j(v j (n)) k δ k (n)w kj (n) (27) se ele pertencer à uma camada escondida. Prof. João Marcos Meirelles da Silva p. 38/51

39 Fases do Treinamento Existem duas fases no treinamento das redes feedforward multicamadas pelo algoritmo back-propagation: Forward pass Backward pass Prof. João Marcos Meirelles da Silva p. 39/51

40 Fases do Treinamento Forward pass Os pesos das sinapses permanecem inalterados; Um estímulo de entrada, x i (n), é fornecido à rede e este se propaga por ela neurônio a neurônio até a camada de saída. A saída de um neurônio j qualquer é dada por: y j (n) = φ(v j (n)) (28) Prof. João Marcos Meirelles da Silva p. 40/51

41 Fases do Treinamento O Campo local induzido v j (n) é dada por: v j (n) = m w ji (n)y i (n) (29) i=0 onde m é o número total de entradas (excluindo o bias) do neurônio j, w ji é o peso da sinapse que conecta o neurônio i ao neurônio j, e y i (n) é a entrada do neurônio j. Prof. João Marcos Meirelles da Silva p. 41/51

42 Fases do Treinamento Backward pass Inicia-se pela saída da rede; Os erros encontrados são propagados pela rede no sentido da saída para a entrada, camada a camada, e recursivamente calculando-se o gradiente local, δ k para cada neurônio; Os pesos das sinapses são alterados de acordo com a Regra Delta (25); O cálculo do gradiente local depende se o neurônio pertence à camada de saída ou a uma camada escondida; Prof. João Marcos Meirelles da Silva p. 42/51

43 Gradiente Local O cálculo de δ para cada neurônio requer a derivada da função de ativação φ( ) associada a cada neurônio; φ( ) deve ser diferenciável; Em geral, utilizam-se funções sigmoidais. Prof. João Marcos Meirelles da Silva p. 43/51

44 Gradiente Local Função Logística φ j (v j (n)) = e av j(n) onde a > 0 e < v j (n) <, v j (n) o campo local induzido do neurônio j. (30) Prof. João Marcos Meirelles da Silva p. 44/51

45 Gradiente Local Diferenciando a equação (30) em relação a v j (n), temos: como φ j (v j (n)) = y j (n), então: φ j(v j (n)) = aφ j (v j (n))[1 φ j (v j (n))] (31) φ j(v j (n)) = ay j (n)[1 y j (n)] (32) Prof. João Marcos Meirelles da Silva p. 45/51

46 Gradiente Local Sendo a função de ativação a função logística, podemos expressar o gradiente local como: Para um neurônio j da camada de saída δ j (n) = e j (n)φ j(v j (n)) = a[d j (n) y j (n)]y j (n)[1 y j (n)] (33) Para um neurônio de uma camada escondida δ j (n) = φ j(v j (n)) k δ k (n)w kj (n) = ay j (n)[1 y j (n)] k δ k (n)w kj (n) (34) Prof. João Marcos Meirelles da Silva p. 46/51

47 Gradiente Local Função Tangente Hiperbólica φ j (v j (n)) = a tanh(bv j (n)), (a, b) > 0 (35) Diferenciando a equação (35) em relação a v j (n), temos: φ j = absech 2 (bv j (n)) = ab(1 tanh 2 (bv j (n))) = b a [a y j(n)][a + y j (n)] (36) Prof. João Marcos Meirelles da Silva p. 47/51

48 Gradiente Local Sendo a função de ativação a função tangente hiperbólica, podemos expressar o gradiente local como: Para um neurônio j da camada de saída δ j (n) = e j (n)φ j(v j (n)) = b a [d j(n) y j (n)][a y j (n)][a + y j (n)] (37) Para um neurônio de uma camada escondida δ j (n) = φ j(v j (n)) k δ k (n)w kj (n) = b a [a y j(n)][a + y j (n)] k δ k (n)w kj (n) (38) Prof. João Marcos Meirelles da Silva p. 48/51

49 Gradiente Local Utilizando as equações (33) e (34) para a função logística e as equações (37) e (38) para a função tangente hiperbólica, podemos calcular o gradiente local δ j (n) sem o conhecimento explícito da função de ativação! Prof. João Marcos Meirelles da Silva p. 49/51

50 Referências 1. Haykin, S., Neural Networks - A Comprehensive Foundation, 2 nd edition - Prentice Hall, Fausett, L., Fundamental of Neural Networks - Architectures, Algorithms and Applications, Prentice Hall, Theodoris, S., Koutroumbas, K, Pattern Recognition, 4 th edition, Academic Press. Prof. João Marcos Meirelles da Silva p. 50/51

51 FIM Prof. João Marcos Meirelles da Silva p. 51/51

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Camada Única Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas II Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de

Leia mais

SCC Capítulo 5 Perceptron Multicamadas

SCC Capítulo 5 Perceptron Multicamadas Introdução Back-propagation (BP) MLPs Convolução SCC-5809 - Capítulo 5 Perceptron Multicamadas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Introdução Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS

IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS Anais do Simpósio Brasileiro de Geomática, Presidente Prudente SP, 9- de julho de 2002 p242-250 IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS ROMUALDO WANDRESEN

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Aplicações em Telecomunicações Prof. João Marcos Meirelles da Silva, D.Sc. Professor Adjunto II do Departamento de Engenharia de Telecomunicações Universidade Federal Fluminense

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Clusterização: Conceitos Básicos Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs)

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs) Aprendizagem de Máquina Redes Neurais Artificiais (RNAs) Plano de Aula Introdução Motivação Biológica Perceptron Superfície de Decisão Descida do Gradiente Redes Multicamadas (Multilayer) Retropropagação

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

Profa. Josiane M. Pinheiro outubro/2008

Profa. Josiane M. Pinheiro outubro/2008 Baseada em: Stuart Russel e Peter Norving - Inteligência Artificial seção 20.5 Jorge M. Barreto Introdução às Redes Neurais Artificiais - http://www.inf.ufsc.br/~barreto/tutoriais/survey.pdf Cassia Yuri

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas

Leia mais

Redes Neurais Artificiais (RNA)

Redes Neurais Artificiais (RNA) Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Multi-layer Perceptrons e Backpropagation Marcílio Souto DIMAp/UFRN Redes de várias camadas MLP - Multi-Layer Perceptron (Adaline?!) Backpropagation network Superar as limitações

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

SCC Capítulo 4 Perceptron de Camada Única

SCC Capítulo 4 Perceptron de Camada Única Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron

Leia mais

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron

Leia mais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Sistemas Inteligentes

Sistemas Inteligentes Sistemas Inteligentes UNIDADE 5 Redes Neurais Artificiais (Perceptron Multicamadas Conceitos) Prof. Ivan Nunes da Silva. Rede Perceptron Multicamadas Aspectos de arquitetura Redes Perceptron de Múltiplas

Leia mais

Perceptron de Múltiplas Camadas e Backpropagation

Perceptron de Múltiplas Camadas e Backpropagation Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Perceptron de Múltiplas Camadas e Backpropagation Redes Neurais Artificiais Site: http://jeiks.net

Leia mais

Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos

Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos Otávio Roberto Martins de Souza UFSC otavio@eps.ufsc.br Silvana Pezzi, M.Eng UFSC spezzi@eps.ufsc.br

Leia mais

Variações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa

Variações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa A principal crítica ao algoritmo Back Propagation é o longo tempo de treinamento proposta de variações simples para acelerar o processo de aprendizado Taxa de Aprendizado Adaptativa Inicia-se com um valor

Leia mais

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela Redes Neurais Feedforward e Backpropagation André Siqueira Ruela Sumário Introdução a redes feedforward Algoritmo feedforward Algoritmo backpropagation Feedforward Em uma rede feedforward, cada camada

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

Mineração de Dados em Biologia Molecular

Mineração de Dados em Biologia Molecular Mineração Dados em Biologia Molecular Principais tópicos André C. P. L. F. Carvalho Monitor: Valéria Carvalho Res Neurais Artificiais Introdução Arquitetura Aprendizado Principais molos Perceptron MLP

Leia mais

SCC Capítulo 2 Topologia e Representação

SCC Capítulo 2 Topologia e Representação Modelos Arquiteturas Representação do Conhecimento SCC-5809 - Capítulo 2 Topologia e Representação João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809:

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

APRENDIZADO EM MODELOS CONEXIONISTAS

APRENDIZADO EM MODELOS CONEXIONISTAS APRENDIZADO EM MODELOS CONEXIONISAS Aprendizado é o processo pelo qual os parâmetros (os pesos das coneões entre os neurônios) de uma rede neural são austados através de uma forma continuada de estímulo

Leia mais

3 Redes Neurais Introdução

3 Redes Neurais Introdução 3 Redes Neurais 3.. Introdução As redes neurais artificiais, ou comumente conhecidas como Neural Networs, foram motivadas em princípio pela extraordinária capacidade do cérebro humano para executar tarefas

Leia mais

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

IF-705 Automação Inteligente Perceptrons de Múltiplas Camadas

IF-705 Automação Inteligente Perceptrons de Múltiplas Camadas IF-705 Automação Inteligente Perceptrons de Múltiplas Camadas Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação aluizioa@cin.ufpe.br

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial

Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial Renan Bessa 1, Elder dos Santos Teixeira 2, Guilherme Costa Holanda 3, Auzuir Ripardo de Alexandria 4 1 Graduando em

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

SCC Capítulo 3 Aprendizado

SCC Capítulo 3 Aprendizado Aprendizado Supervisionado Não Supervisionado Tarefas SCC-5809 - Capítulo 3 Aprendizado João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2012 João Luís G. Rosa c 2012 - SCC-5809: Redes Neurais

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais x 1 w k1 Bias b k +1 +1 x 1 x 2 x 3 x m +1 y 1 y 2 y o Sinais de entrada x 2 x m Fabricio Breve fabricio@rc.unesp.br w k2 w km Pesos sinápticos Σ Junção aditiva v k f(. ) Saída

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

INTEGRADOR NEURAL APLICADO NA DINÂMICA DO PÊNDULO DE WILBERFORCE

INTEGRADOR NEURAL APLICADO NA DINÂMICA DO PÊNDULO DE WILBERFORCE Anais do 12 O Encontro de Iniciação Científica e Pós-Graduação do ITA XII ENCITA / 2006 Instituto Tecnológico de Aeronáutica, São José dos Campos, SP, Brasil, Outubro, 16 a 19, 2006 INTEGRADOR NEURAL APLICADO

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Modelos de classificação por Redes Neurais Artificiais Prof. Paulo Martins Engel Motivação Classificadores baseados em representação simbólica (AD, RD,...) estão limitados a particionar

Leia mais

O Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM)

O Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM) O Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM) Thiago Henrique Cupertino SCE5809 - Redes Neurais 23 de Novembro de 2010 Conteúdo Introdução Desvantagens do

Leia mais

Perceptron de Múltiplas Camadas (MultiLayer Perceptron-MLP) com algoritmo de treinamento por RetroPropagação de Erros (Error BackPropagation)

Perceptron de Múltiplas Camadas (MultiLayer Perceptron-MLP) com algoritmo de treinamento por RetroPropagação de Erros (Error BackPropagation) Perceptron e Múltiplas Camaas (MultiLayer Perceptron-MLP) com algoritmo e treinamento por RetroPropagação e Erros (Error BackPropagation) IF67D Sistemas Inteligentes 1 UTFPR - 2015 Prof. João Alberto Fabro

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

ESTUDO COMPARATIVO DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE SÉRIES TEMPORAIS FINANCEIRAS

ESTUDO COMPARATIVO DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE SÉRIES TEMPORAIS FINANCEIRAS ESTUDO COMPARATIVO DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE SÉRIES TEMPORAIS FINANCEIRAS David Gabriel de Barros Franco Pontifícia Universidade Católica do Paraná david.barros@pucpr.br Maria Teresinha

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

Neurocomputação Parte 2

Neurocomputação Parte 2 Neurocomputação Parte 2 Fabricio Breve - fbreve@gmail.com 25/09/2007 Fabricio Breve 1 REDES NEURAIS ARTIFICIAIS 25/09/2007 Fabricio Breve 2 Por que Redes Neurais? Computadores convencionais são eficientes

Leia mais

PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS POR SELEÇÃO DE VARIÁVEIS STEPWISE E REDES NEURAIS ARTIFICIAIS

PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS POR SELEÇÃO DE VARIÁVEIS STEPWISE E REDES NEURAIS ARTIFICIAIS Campus de Ilha Solteira PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS POR SELEÇÃO DE VARIÁVEIS STEPWISE E REDES NEURAIS ARTIFICIAIS MARLEIDE FERREIRA ALVES Ilha Solteira 2013 Campus de Ilha Solteira PROGRAMA

Leia mais

Professor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO

Professor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO Redes Neurais Artificiais ou simplesmente Redes Neurais (também conhecidas como modelos conexionistas) têm sido, ao longo dos últimos anos, uma área de

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos (Universidade Federal Fluminense) Redes Recorrentes e LSTM 1 Redes Neurais: direcionamento das conexões Redes Neurais Alimentadas

Leia mais

Redes de múltiplas camadas na geração de chaves criptográficas de sessão

Redes de múltiplas camadas na geração de chaves criptográficas de sessão Redes de múltiplas camadas na geração de chaves criptográficas de sessão Eduardo Gomes de Barros, José Demísio Simões da Silva Instituto Nacional de Pesquisas Espaciais eduardogbarros@hotmail.com, demisio@lac.inpe.br

Leia mais

GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS

GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS Universidade Federal de Lavras Departamento de Ciência da Computação GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS v. 1.2 Prof. Wilian Soares Lacerda Lavras, agosto de 2018 Ficha catalográfica elaborada

Leia mais

Inteligência Computacional

Inteligência Computacional Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma

Leia mais