Introdução às Redes Neurais Artificiais

Tamanho: px
Começar a partir da página:

Download "Introdução às Redes Neurais Artificiais"

Transcrição

1 Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas II Prof. João Marcos Meirelles da Silva Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade Federal Fluminense Prof. João Marcos Meirelles da Silva p. 1/60

2 Créditos autorais Este curso e estes slides são parcialmente adaptados da bibliografia citada e das aulas do professor Luiz Pereira Calôba - COPPE/UFRJ Prof. João Marcos Meirelles da Silva p. 2/60

3 Sumário Taxa de Aprendizado Momento Backpropagation Modos de Treinamento Critérios de Parada Resumo do Algoritmo BP Exemplo: O problema da porta lógica XOR Problemas no Treinamento Prof. João Marcos Meirelles da Silva p. 3/60

4 Sumário Regularização Melhorias de Desempenho Exemplo: Classificação Exemplo: Compressão de Imagens Prof. João Marcos Meirelles da Silva p. 4/60

5 Taxa de Aprendizado Quanto menor η, menor será a modificação nos pesos das sinapses e mais suave será a trajetória no espaço de busca do problema treinamento mais demorado e tendência a uma maior acurácia da rede; Quanto maior η, maior será a modificação nos pesos das sinapses treinamento mais rápido e tendência à instabilidade. Uma forma de aumentar a taxa de aprendizado e evitar o perigo de instabilidade é a chamada Regra Delta Generalizada. Prof. João Marcos Meirelles da Silva p. 5/60

6 Momento w ji (n) = α w ji (n 1) + ηδ j (n)y i (n) (1) onde α > 0 é chamada de constante de momento. Se α = 0, então a equação (1) reduz-se à Regra Delta já conhecida. Prof. João Marcos Meirelles da Silva p. 6/60

7 Back-Propagation Algorithm Vamos reescrever a equação (1) como uma série temporal de índice t. O índice t varia do instante inicial 0 até o instante corrente n. Relembrando que w ji (n) = η n α n t δ j (t)y i (t) (2) t=0 δ j (n)y i (n) = E(n) w i (n) (3) Prof. João Marcos Meirelles da Silva p. 7/60

8 Back-Propagation Algorithm podemos reescrever a equação (2) em sua forma equivalente: w ji (n) = η n t=0 n t E(n) α w ( ji t) (4) w ji (n) representa um somatório de uma série temporal ponderada exponencialmente. Para que a série seja convergente 0 α < 1; Prof. João Marcos Meirelles da Silva p. 8/60

9 Back-Propagation Algorithm Se E(n)/ w ji (n) possui o mesmo sinal algébrico em iterações consecutivas, w ji cresce em magnitude; Se E(n)/ w ji (n) possui o sinais algébricos opostos em iterações consecutivas, w ji decresce em magnitude; Prof. João Marcos Meirelles da Silva p. 9/60

10 Modos de Treinamento Modo Sequencial Também conhecido como modo on-line ou modo estocástico; A correção das sinapses w ji (n) é aplicada a cada padrão apresentado em cada época; Lida bem com padrões redundantes na base de dados; Padrões devem ser apresentados à rede de forma aleatória melhor forma de explorar o espaço de busca de w ji ; Requer uma quantidade menor de memória quando comparado ao processo em lote (batelada); Prof. João Marcos Meirelles da Silva p. 10/60

11 Modos de Treinamento Modo Batelada (Batch Mode) A correção das sinapses w ji (n) é aplicada ao final de uma época: w ji = η N N n=1 e j (n) e j(n) w ji (5) Permite uma estimativa mais acurada do vetor gradiente local; Permite uma paralelização mais fácil da rede; Prof. João Marcos Meirelles da Silva p. 11/60

12 Critérios de Parada Norma Euclidiana do vetor gradiente menor que um valor específico; Taxa de alteração em E avg menor que um valor específico (tipicamente 0,1% a 1%); Teste de generalização da rede. Prof. João Marcos Meirelles da Silva p. 12/60

13 Resumo do Algoritmo Inicialização Pesos das sinapses e thresholds a partir de uma distribuição uniforme de média zero e variância de forma que o desvio padrão de v j (t) esteja na região linear de φ j (v j (t)); Padrões de treinamento Apresentar todos os padrões x i à rede de forma aleatória, formando uma época; Prof. João Marcos Meirelles da Silva p. 13/60

14 Resumo do Algoritmo Propagação da Entrada Calcular o campo de indução local (v (l) j (n)) para todos os neurônios, camada a camada. O campo de indução local (v (l) j (n)) para o neurônio j da camada l é dado por: m0 v (l) j (n) = i=0 w (l) ji (n)y(l 1) i (n) (6) onde y (l 1) i é o sinal de saída do neurônio i da camada anterior (l 1) na iteração n, e w (l) ji (n) é o peso da sinapse do neurônio j da camada l oriunda da saída do neurônio i. Prof. João Marcos Meirelles da Silva p. 14/60

15 Resumo do Algoritmo Para i = 0, temos y (l 1) 0 (n) = +1 e w (l) j0 (n) = b(l) j (n) é o bias aplicado ao neurônio j na camada l. Calculando o erro e j (n) = d j (n) y j (n) (7) onde d j (n) é o j-ésimo elemento da vetor de saídas desejadas d(n). Prof. João Marcos Meirelles da Silva p. 15/60

16 Resumo do Algoritmo Retropropagação Calcule os gradientes locais δs: Para o neurônio j da camada de saída L δ (l) j (n) = e(l) j (n)φ j(v (L) j (n)) (8) Para o neurônio j da camada escondida l δ (l) j (n) = φ j(v (l) j (n)) k δ (l+1) k (n)w (l+1) kj (n) (9) e modifique as sinapses de acordo com: w (l) ji (n + 1) = w(l) ji (n) + ηδ(l) j (n)y(l 1) i (n) (10) Prof. João Marcos Meirelles da Silva p. 16/60

17 Resumo do Algoritmo Iteração Apresenta à rede tantas épocas de treinamento quanto forem necessárias até que o critério de parada seja atingido, como por exemplo: E avg = 1 N N E(n) 0.1 (11) n=1 ver equações (2) e (3) da aula 4! Prof. João Marcos Meirelles da Silva p. 17/60

18 Exemplo 1 Seja a rede mostrada abaixo: Figura 1: Rede Multilayer Perceptron como exemplo. Prof. João Marcos Meirelles da Silva p. 18/60

19 Exemplo 1 Para a fase feedfoward e camada escondida, temos que: v (1) 1 = w (1) 10 + w(1) 11 x 1 + w (1) 12 x 2 + w (1) 13 x 3 v (1) 2 = w (1) 20 + w(1) 21 x 1 + w (1) 22 x 2 + w (1) 23 x 3 Em notação matricial: v(1) 1 v (1) 2 = w(1) 10 w (1) 11 w (1) 12 w (1) 13 w (1) 20 w (1) 21 w (1) 22 w (1) x 1 x 2 (12) x 3 Prof. João Marcos Meirelles da Silva p. 19/60

20 Exemplo 1 Logo: v (1) = W (1) x b, (13) onde v (1) R 2 1, W (1) R 2 4 e x b = [+1 x] T R 4 1. A saída da camada intermediária é dada por: onde o R 2 1. o = tanh(v (1) ) (14) Prof. João Marcos Meirelles da Silva p. 20/60

21 Exemplo 1 Para a camada de saída,temos: v (2) 1 = w (2) 10 + w(2) 11 o 1 + w (2) 12 o 2 v (2) 2 = w (2) 20 + w(2) 21 o 1 + w (2) 22 o 2 v (2) 3 = w (2) 30 + w(2) 31 o 1 + w (2) 32 o 2 Em notação matricial: v (2) 1 v (2) 2 v (2) 3 = w (2) 10 w (2) 11 w (2) 12 w (2) 20 w (2) 21 w (2) 22 w (2) 30 w (2) 31 w (2) o 1 o 2 (15) Prof. João Marcos Meirelles da Silva p. 21/60

22 Exemplo 1 Logo: v (2) = W (2) o b, (16) onde v (2) R 3 1, W (2) R 3 3 e o b = [+1 o] T R 3 1. A saída da camada intermediária é dada por: onde y R 3 1 y = tanh(v (2) ) (17) Prof. João Marcos Meirelles da Silva p. 22/60

23 Exemplo 1 Calculando os erros, temos: e 1 = d 1 y 1 e 2 = d 2 y 2 e 3 = d 3 y 3 No caso desse exemplo (rede autoassociativa), temos que d x. Na forma matricial: e = x y, e R 3 1 (18) Prof. João Marcos Meirelles da Silva p. 23/60

24 Exemplo 1 Agora, vamos retropropagar os erros. Vamos inicialmente calcular os gradientes (camada de saída): Na forma matricial: δ (2) 1 = e 1 (1 y 1 )(1 + y 1 ) = e 1 (1 y 2 1) δ (2) 2 = e 2 (1 y 2 )(1 + y 2 ) = e 2 (1 y 2 2) δ (2) 3 = e 3 (1 y 3 )(1 + y 3 ) = e 3 (1 y 2 3) δ (2) = diag(e)[1 diag(y)y], δ (2) R 2 1 (19) No Matlab: delta2 = e. (1 y. 2); Prof. João Marcos Meirelles da Silva p. 24/60

25 Exemplo 1 Para a camada escondida, temos: onde v δ R 2 1, W (2)T R 3 3 e δ (2) R 3 1. v δ = W (2)T δ (2) (20) Calculando os gradientes da camada 1 de forma escalar: δ (1) 1 = (1 o 2 1)v δ (1) δ (1) 2 = (1 o 2 2)v δ (2) Prof. João Marcos Meirelles da Silva p. 25/60

26 Exemplo 1 Em notação matricial: δ (1) = diag[1 diag(o)o]v δ (21) Agora que temos os gradientes da camada (1) e (2), podemos proceder com a atualização dos pesos: W (1) e W (2) W (1) = W (1) + η.δ (1) x b W (2) = W (2) + η.δ (2) o b Prof. João Marcos Meirelles da Silva p. 26/60

27 Exemplo 1 De forma genérica, para uma rede MLP m-n-l, temos: m Número de neurônios da camada de entrada; N Número de neurônios da camada escondida ou intermediária; L Número de neurônios da camada de saída; x Vetor de entrada. x R m 1 ; x b Vetor de entrada com bias. x b = [+1 x] T ; o Vetor de saída da camada escondida. o R N 1. o = [tanh(v (1) 1 ), tanh(v(1) 2 ),...,tanh(v(1) N )]T ; o b Vetor de entrada da camada de saída. o b = [+1 o] T ; Prof. João Marcos Meirelles da Silva p. 27/60

28 Exemplo 1 W (1) Matriz de pesos da camada escondida W (1) = w (1) 10 w (1) w (1) 1m w (1) N0 w (1) N1... w (1) Nm W (2) Matriz de pesos da camada de saída W (2) = w (2) 10 w (2) w (2) 1N w (2) L0 w (2) L1... w (2) LN,, W(1) R N (m+1) W(2) R L (N+1) Prof. João Marcos Meirelles da Silva p. 28/60

29 Exemplo 1 Propagação v (1) = W (1) x b (22) o = tanh(v (1) ) (23) v (2) = W (2) o b (24) y = tanh(v (2) ) (25) Cálculo do Erro e = d y, e R L 1 (26) Prof. João Marcos Meirelles da Silva p. 29/60

30 Exemplo 1 Retropropagação δ (2) = diag(e)[1 diag(y)y], δ (2) R L 1 (27) v δ = W (2)T δ (2), v δ R (N+1) 1 (28) δ (1) = diag[1 diag(y)y]v δ, δ (2) R L 1 (29) Atualização dos Pesos W (1) = W (1) + η.diag(δ (1) )x b (30) W (2) = W (2) + η.diag(δ (2) )o b (31) Prof. João Marcos Meirelles da Silva p. 30/60

31 Exemplo 2 O problema da porta lógica XOR Vamos considerar o problema da função lógica XOR (Ou Exclusivo), que é um problema não linearmente separável. Cor vermelha classe C 0 Cor verde classe C 1 Prof. João Marcos Meirelles da Silva p. 31/60

32 Exemplo 2 O problema não pode ser resolvido através de uma rede neural de camada única; Mas pode ser resolvido através utilizando-se uma camada escondida com dois neurônios. Vamos assumir que: Cada neurônio é representado pelo modelo de McCulloch-Pitts, com um threshold na função de ativação; Os valores 0 e 1 serão representados de forma binária: 0 e +1, respectivamente. Prof. João Marcos Meirelles da Silva p. 32/60

33 Exemplo 2 Prof. João Marcos Meirelles da Silva p. 33/60

34 Exemplo 2 Neurônio 1 Neurônio 2 v 1 = x 1 w 11 + x 2 w 12 + b 1 = x 1 + x 2 1, 5 (32) Neurônio 3 v 2 = x 1 w 21 + x 2 w 22 + b 2 = x 1 + x 2 0, 5 (33) v 3 = y 1 w 31 + y 2 w 32 + b 3 = 2y 1 + y 2 0, 5 (34) Prof. João Marcos Meirelles da Silva p. 34/60

35 Exemplo 2 Prof. João Marcos Meirelles da Silva p. 35/60

36 Exemplo 2 % xor_backprop.m % Rede Feedfoward para o problema da função lógica XOR % treinamento back-propagation clear all close all clc disp( Criando os padrões de entrada x... ) x = [0 0; 0 1; 1 0; 1 1] pause(1); disp( Criando as saídas desejadas (targets)y... ) y = [ ] Prof. João Marcos Meirelles da Silva p. 36/60

37 Exemplo 2 pause(1); disp( Criando rede com 2 unidades na camada esco % 2 Neurônios na camada escondida. nnet = newff(x,y,2,{ tansig, tansig }); pause(1); disp( Treinando a rede... ) nnet = train(nnet, x, y); disp( Testanto os padrões ) sim(nnet,[0 0; 0 1; 1 0; 1 1] ) Prof. João Marcos Meirelles da Silva p. 37/60

38 Problemas no Treinamento Problemas usuais nas redes feedfoward multicamadas treinadas através do algoritmo back-propagation: Overtraining (ou overfitting) Prof. João Marcos Meirelles da Silva p. 38/60

39 Problemas no Treinamento Problemas usuais nas redes feedfoward multicamadas treinadas através do algoritmo back-propagation: Overtraining (ou overfitting) Convergência prematura Prof. João Marcos Meirelles da Silva p. 38/60

40 Overtraining O erro sobre o conjunto de treinamento torna-se bem pequeno, mas quando novos dados são apresentados à rede, ela não reconhece Problemas de generalização; Prof. João Marcos Meirelles da Silva p. 39/60

41 Overtraining O erro sobre o conjunto de treinamento torna-se bem pequeno, mas quando novos dados são apresentados à rede, ela não reconhece Problemas de generalização; A rede memorizou os dados do conjunto de treinamento, mas não consegue generalizar em novas situações; Prof. João Marcos Meirelles da Silva p. 39/60

42 Overtraining O erro sobre o conjunto de treinamento torna-se bem pequeno, mas quando novos dados são apresentados à rede, ela não reconhece Problemas de generalização; A rede memorizou os dados do conjunto de treinamento, mas não consegue generalizar em novas situações; Ocorre devido à capacidade da rede ajustar uma função sobre dados contaminados com ruído (o que é natural em aplicações reais); Prof. João Marcos Meirelles da Silva p. 39/60

43 Overtraining Prof. João Marcos Meirelles da Silva p. 40/60

44 Overtraining Como evitar o overtraining e melhorar a generalização? Utilizar redes suficientemente pequenas Demonstração: nnd11gn.m a a Nove neurônios na camada escondida e difficult index = 1. Prof. João Marcos Meirelles da Silva p. 41/60

45 Overtraining Como evitar o overtraining e melhorar a generalização? Utilizar redes suficientemente pequenas Demonstração: nnd11gn.m a Parada Prematura a Nove neurônios na camada escondida e difficult index = 1. Prof. João Marcos Meirelles da Silva p. 41/60

46 Overtraining Como evitar o overtraining e melhorar a generalização? Utilizar redes suficientemente pequenas Demonstração: nnd11gn.m a Parada Prematura Regularização a Nove neurônios na camada escondida e difficult index = 1. Prof. João Marcos Meirelles da Silva p. 41/60

47 Tamanho da Rede Em geral, uma única camada escondida é suficiente para aproximar qualquer função. No entanto, em algumas situações, uma segunda camada escondida pode facilitar o treinamento; Prof. João Marcos Meirelles da Silva p. 42/60

48 Tamanho da Rede Em geral, uma única camada escondida é suficiente para aproximar qualquer função. No entanto, em algumas situações, uma segunda camada escondida pode facilitar o treinamento; Mas quantos neurônios devemos dispor na camada escondida? Prof. João Marcos Meirelles da Silva p. 42/60

49 Tamanho da Rede Em geral, uma única camada escondida é suficiente para aproximar qualquer função. No entanto, em algumas situações, uma segunda camada escondida pode facilitar o treinamento; Mas quantos neurônios devemos dispor na camada escondida? Tentativa e Erro! Prof. João Marcos Meirelles da Silva p. 42/60

50 Tamanho da Rede Em geral, uma única camada escondida é suficiente para aproximar qualquer função. No entanto, em algumas situações, uma segunda camada escondida pode facilitar o treinamento; Mas quantos neurônios devemos dispor na camada escondida? Tentativa e Erro! Network Growing Network Pruning Prof. João Marcos Meirelles da Silva p. 42/60

51 Parada Prematura Validação Cruzada: Nesta técnica, o conjunto de dados é didivido em 3 sub-conjuntos: Treinamento Validação Teste Prof. João Marcos Meirelles da Silva p. 43/60

52 Parada Prematura Validação Cruzada: Nesta técnica, o conjunto de dados é didivido em 3 sub-conjuntos: Treinamento Validação Teste Treinamento (60%): Cálculo dos gradientes, pesos e bias. Prof. João Marcos Meirelles da Silva p. 43/60

53 Parada Prematura Validação Cruzada: Nesta técnica, o conjunto de dados é didivido em 3 sub-conjuntos: Treinamento Validação Teste Treinamento (60%): Cálculo dos gradientes, pesos e bias. Validação (20%): O erro sobre este conjunto é monitorado. Prof. João Marcos Meirelles da Silva p. 43/60

54 Parada Prematura Validação Cruzada: Nesta técnica, o conjunto de dados é didivido em 3 sub-conjuntos: Treinamento Validação Teste Treinamento (60%): Cálculo dos gradientes, pesos e bias. Validação (20%): O erro sobre este conjunto é monitorado. Teste (20%): Usado para comparar diferentes modelos de redes (conjunto de controle). Prof. João Marcos Meirelles da Silva p. 43/60

55 Parada Prematura Prof. João Marcos Meirelles da Silva p. 44/60

56 Regularização Outra forma de evitar o overtraining e melhorar a generalização Prof. João Marcos Meirelles da Silva p. 45/60

57 Regularização Outra forma de evitar o overtraining e melhorar a generalização Envolve a modificação da função custo, a qual geralmente é a soma dos quadrados do erro da rede sobre o conjunto de treinamento Prof. João Marcos Meirelles da Silva p. 45/60

58 Regularização Outra forma de evitar o overtraining e melhorar a generalização Envolve a modificação da função custo, a qual geralmente é a soma dos quadrados do erro da rede sobre o conjunto de treinamento A função custo utilizada para o aprendizado no algoritmo back-propagation normalmente é dada por: E avg = mse = 1 N N e 2 j (37) j=1 Prof. João Marcos Meirelles da Silva p. 45/60

59 Regularização É possível melhorar a capacidade de generalização da rede modificando a função de custo utilizada, adicionando-se um termo que consiste na média da soma dos quadrados dos pesos e dos bias. msereg = (γ)mse + (1 γ)msw (38) onde msw = 1 n n wj 2 (39) j=1 n é o número de pesos da rede (incluindo os bias). Prof. João Marcos Meirelles da Silva p. 46/60

60 Regularização Utilizando esta nova função custo, a rede passa a treinar com valores de pesos e bias menores respostas mais suáveis e menos propensas a cyanovertraining Prof. João Marcos Meirelles da Silva p. 47/60

61 Regularização Utilizando esta nova função custo, a rede passa a treinar com valores de pesos e bias menores respostas mais suáveis e menos propensas a cyanovertraining Dificuldade em determinar um valor ótimo para γ: Se γ 0 a rede não aprende Se γ 1 overtraining Prof. João Marcos Meirelles da Silva p. 47/60

62 Regularização Utilizando esta nova função custo, a rede passa a treinar com valores de pesos e bias menores respostas mais suáveis e menos propensas a cyanovertraining Dificuldade em determinar um valor ótimo para γ: Se γ 0 a rede não aprende Se γ 1 overtraining Demonstração: Exemplo_Reg.m Prof. João Marcos Meirelles da Silva p. 47/60

63 Convergência Prematura Problema de Mínimos Locais; Prof. João Marcos Meirelles da Silva p. 48/60

64 Convergência Prematura Problema de Mínimos Locais; A rede opera com um desempenho, muitas vezes, inadequado; Prof. João Marcos Meirelles da Silva p. 48/60

65 Convergência Prematura Problema de Mínimos Locais; A rede opera com um desempenho, muitas vezes, inadequado; Como comparar as diversas soluções possíveis somente via observação do erro; Prof. João Marcos Meirelles da Silva p. 48/60

66 Como Evitar a Paralisia? Utilizar uma grande quantidade de dados para treinamento; Prof. João Marcos Meirelles da Silva p. 49/60

67 Como Evitar a Paralisia? Utilizar uma grande quantidade de dados para treinamento; Acompanhar a evolução do erro durante o treinamento (método da validação cruzada); Prof. João Marcos Meirelles da Silva p. 49/60

68 Como Evitar a Paralisia? Utilizar uma grande quantidade de dados para treinamento; Acompanhar a evolução do erro durante o treinamento (método da validação cruzada); Executar o treinamento diversas vezes e optar pelos pesos que resultaram no menor erro encontrado. Prof. João Marcos Meirelles da Silva p. 49/60

69 Melhorias de Desempenho Prof. João Marcos Meirelles da Silva p. 50/60

70 Melhorias de Desempenho Atualização sequencial versus batelada; Prof. João Marcos Meirelles da Silva p. 50/60

71 Melhorias de Desempenho Atualização sequencial versus batelada; Maximizando o conteúdo de informação; Prof. João Marcos Meirelles da Silva p. 50/60

72 Melhorias de Desempenho Atualização sequencial versus batelada; Maximizando o conteúdo de informação; Função de ativação; Prof. João Marcos Meirelles da Silva p. 50/60

73 Melhorias de Desempenho Atualização sequencial versus batelada; Maximizando o conteúdo de informação; Função de ativação; Valores de saída desejada; Prof. João Marcos Meirelles da Silva p. 50/60

74 Melhorias de Desempenho Atualização sequencial versus batelada; Maximizando o conteúdo de informação; Função de ativação; Valores de saída desejada; Normalização das entradas; Prof. João Marcos Meirelles da Silva p. 50/60

75 Melhorias de Desempenho Atualização sequencial versus batelada; Maximizando o conteúdo de informação; Função de ativação; Valores de saída desejada; Normalização das entradas; Inicialização; Prof. João Marcos Meirelles da Silva p. 50/60

76 Melhorias de Desempenho Atualização sequencial versus batelada; Maximizando o conteúdo de informação; Função de ativação; Valores de saída desejada; Normalização das entradas; Inicialização; Aprendizado a partir de dicas ; Prof. João Marcos Meirelles da Silva p. 50/60

77 Melhorias de Desempenho Atualização sequencial versus batelada; Maximizando o conteúdo de informação; Função de ativação; Valores de saída desejada; Normalização das entradas; Inicialização; Aprendizado a partir de dicas ; Taxas de aprendizado; Prof. João Marcos Meirelles da Silva p. 50/60

78 Exemplo 3 O objetivo deste exemplo é o distinguir entre duas classes C 1 e C 2, bidimensionais, Gaussianas e parcialmente sobrepostas. Podemos expressar as PDFs condicionais para as duas classes como: Classe C 1 : f x (x C 1 ) = Classe C 2 : f x (x C 2 ) = 1 2πσ πσ2 2 exp exp ( 1 2σ 2 1 x µ 1 2 ) ( 1 ) 2σ2 2 x µ 2 2 onde µ 1 = [0, 0] T e µ 2 = [2, 0] T são os vetores média, e σ 2 1 = 1 e σ 2 2 = 4 são as variâncias. As duas classes são assumidas como sendo equiprováveis, logo, p 1 = p 2 = 0.5. Prof. João Marcos Meirelles da Silva p. 51/60

79 Exemplo 3 Função densidade de Probabilidade para as classes C 1 e C 2 PDF da Classe C1 PDF da Classe C x x1 x x1 Prof. João Marcos Meirelles da Silva p. 52/60

80 Exemplo 3 Base de Dados Rotulada (ClassesC1eC2.m) 8 6 Base de Dados Rotulada C1 C2 4 2 x x1 No Matlab, digite: load ClassesC1eC2.mat. Prof. João Marcos Meirelles da Silva p. 53/60

81 Exemplo 4 Compressão de Imagens Prof. João Marcos Meirelles da Silva p. 54/60

82 Exemplo 4 Entrada: Padrões de A até J formados por 63 pixeis (7x9) Sabe-se que um conjunto de N padrões ortogonais podem ser mapeados em log 2 N neurônios na camada escondida Como os padrões neste exemplo não são ortogonais, esta relação pode ser tomada como um valor mínimo: log 2 63 = 5, A rede deverá ser, no mínimo, do tipo Prof. João Marcos Meirelles da Silva p. 55/60

83 Exemplo 4 A camada de saída só é útil para a fase de treinamento; A nova saída da rede, durante a fase de operação, é a saída da camada escondida (padrão comprimido). É este novo padrão (retirado da camada escondida) que será transmitido; O receptor deverá possuir um rede neural de uma única camada com 63 neurônios e cujos pesos de entrada deverão ser iguais aos pesos da camada de saída da rede onde os padrões forem aprendidos. Prof. João Marcos Meirelles da Silva p. 56/60

84 Exemplo 4 Prof. João Marcos Meirelles da Silva p. 57/60

85 Referências 1. Haykin, S., Neural Networks - A Comprehensive Foundation, 2 nd edition - Prentice Hall, Fausett, L., Fundamental of Neural Networks - Architectures, Algorithms and Applications, Prentice Hall, Theodoris, S., Koutroumbas, K, Pattern Recognition, 4 th edition, Academic Press. Prof. João Marcos Meirelles da Silva p. 58/60

86 FIM Prof. João Marcos Meirelles da Silva p. 59/60

87 FIM Prof. João Marcos Meirelles da Silva p. 60/60

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Camada Única Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Introdução Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Aplicações em Telecomunicações Prof. João Marcos Meirelles da Silva, D.Sc. Professor Adjunto II do Departamento de Engenharia de Telecomunicações Universidade Federal Fluminense

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

SCC Capítulo 5 Perceptron Multicamadas

SCC Capítulo 5 Perceptron Multicamadas Introdução Back-propagation (BP) MLPs Convolução SCC-5809 - Capítulo 5 Perceptron Multicamadas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs)

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs) Aprendizagem de Máquina Redes Neurais Artificiais (RNAs) Plano de Aula Introdução Motivação Biológica Perceptron Superfície de Decisão Descida do Gradiente Redes Multicamadas (Multilayer) Retropropagação

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Clusterização: Conceitos Básicos Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

Redes Neurais Artificiais (RNA)

Redes Neurais Artificiais (RNA) Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação

Leia mais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

Considerações de Desempenho

Considerações de Desempenho Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem

Leia mais

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

Back Propagation. Dicas para o BP

Back Propagation. Dicas para o BP Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

Multiple Layer Perceptron

Multiple Layer Perceptron Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Multiple Layer Perceptron David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Multiple Layer Perceptron (MLP) Backpropagation

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Modelos de classificação por Redes Neurais Artificiais Prof. Paulo Martins Engel Motivação Classificadores baseados em representação simbólica (AD, RD,...) estão limitados a particionar

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS

GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS Universidade Federal de Lavras Departamento de Ciência da Computação GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS v. 1.2 Prof. Wilian Soares Lacerda Lavras, agosto de 2018 Ficha catalográfica elaborada

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo

Leia mais

SCE REDES NEURAIS Redes Neurais Multi-Camadas Parte 2

SCE REDES NEURAIS Redes Neurais Multi-Camadas Parte 2 SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 2 Profa. Roseli Ap. Francelin Romero 1 Teorema de Aprox. Universal Qual é o número mínimo de camadas num PMC que fornece uma aproximação para

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Variações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa

Variações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa A principal crítica ao algoritmo Back Propagation é o longo tempo de treinamento proposta de variações simples para acelerar o processo de aprendizado Taxa de Aprendizado Adaptativa Inicia-se com um valor

Leia mais

SCC Capítulo 4 Perceptron de Camada Única

SCC Capítulo 4 Perceptron de Camada Única Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

5HGHV1HXUDLV$UWLILFLDLV

5HGHV1HXUDLV$UWLILFLDLV 7 5GXUDL$UWLILFLDL A motivação pelo uso das Redes Neurais Artificiais RNA, comumente chamadas de redes neurais, é pelo reconhecimento de que o cérebro processa informações de uma forma diferente dos computadores

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica PERCEPTRON MULTICAMADAS: TÉCNICAS DE VALIDAÇÃO Prof. Dr. André A. P. Biscaro 2º Semestre de 2016 UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT Aspectos de seleção topológica de redes PMC A especificação

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

SCC Capítulo 2 Topologia e Representação

SCC Capítulo 2 Topologia e Representação Modelos Arquiteturas Representação do Conhecimento SCC-5809 - Capítulo 2 Topologia e Representação João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809:

Leia mais

IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS

IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS Anais do Simpósio Brasileiro de Geomática, Presidente Prudente SP, 9- de julho de 2002 p242-250 IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS ROMUALDO WANDRESEN

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

Perceptron de Múltiplas Camadas e Backpropagation

Perceptron de Múltiplas Camadas e Backpropagation Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Perceptron de Múltiplas Camadas e Backpropagation Redes Neurais Artificiais Site: http://jeiks.net

Leia mais

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional

Leia mais

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis: Back Propagation Fatores importantes para a modelagem da Rede Neural: Seleção de variáveis; veis; Limpeza dos dados; Representação das variáveis veis de entrada e saída; Normalização; Buscando melhor Generalização

Leia mais

Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos

Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos Otávio Roberto Martins de Souza UFSC otavio@eps.ufsc.br Silvana Pezzi, M.Eng UFSC spezzi@eps.ufsc.br

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

João Paulo Teixeira Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança

João Paulo Teixeira  Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança joaopt@ipb.pt www.ipb.pt/~joaopt Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança Evolução das RNA Tipos de Redes Perceptrão Rede Linear Redes Recorrentes Redes Radiais Redes Feed-Forward

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais x 1 w k1 Bias b k +1 +1 x 1 x 2 x 3 x m +1 y 1 y 2 y o Sinais de entrada x 2 x m Fabricio Breve fabricio@rc.unesp.br w k2 w km Pesos sinápticos Σ Junção aditiva v k f(. ) Saída

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Multi-layer Perceptrons e Backpropagation Marcílio Souto DIMAp/UFRN Redes de várias camadas MLP - Multi-Layer Perceptron (Adaline?!) Backpropagation network Superar as limitações

Leia mais

Neurocomputação Parte 2

Neurocomputação Parte 2 Neurocomputação Parte 2 Fabricio Breve - fbreve@gmail.com 25/09/2007 Fabricio Breve 1 REDES NEURAIS ARTIFICIAIS 25/09/2007 Fabricio Breve 2 Por que Redes Neurais? Computadores convencionais são eficientes

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial

Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial Renan Bessa 1, Elder dos Santos Teixeira 2, Guilherme Costa Holanda 3, Auzuir Ripardo de Alexandria 4 1 Graduando em

Leia mais

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio REDES NEURAIS Sistema Nervoso 2 O que é? É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos Engloba o cérebro Sua unidade fundamental é o neurônio Se diferencia

Leia mais

4 Redes Neurais Artificiais RNAs

4 Redes Neurais Artificiais RNAs 66 4 Redes Neurais Artificiais RNAs Redes neurais artificial (RNA) são algoritmos que se baseiam no comportamento do cérebro humano. Dessa forma, imita a estrutura massivamente paralela do cérebro, com

Leia mais

Redes Neurais. Artificiais. Fabricio Breve Parte 2. 19/04/2018 Fabricio Breve. Bias. Sinais de entrada. Pesos sinápticos.

Redes Neurais. Artificiais. Fabricio Breve Parte 2. 19/04/2018 Fabricio Breve. Bias. Sinais de entrada. Pesos sinápticos. Redes Neurais Parte 2 Artificiais x 1 w k1 Bias b k +1 +1 x 1 x 2 x 3 x m +1 y 1 y 2 y o Sinais de entrada x 2 x m Fabricio Breve fabricio@rc.unesp.br w k2 w km Pesos sinápticos Σ Junção aditiva v k f(.

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

3 Redes Neurais Introdução

3 Redes Neurais Introdução 3 Redes Neurais 3.. Introdução As redes neurais artificiais, ou comumente conhecidas como Neural Networs, foram motivadas em princípio pela extraordinária capacidade do cérebro humano para executar tarefas

Leia mais

3 Modelos Comparativos: Teoria e Metodologia

3 Modelos Comparativos: Teoria e Metodologia 3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito

Leia mais