SCC Capítulo 4 Perceptron de Camada Única

Tamanho: px
Começar a partir da página:

Download "SCC Capítulo 4 Perceptron de Camada Única"

Transcrição

1 Perceptron LMS SCC Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c SCC-5809: Redes Neurais 1/45

2 Sumário Perceptron LMS 1 Perceptron Histórico Sistema Dinâmico 2 LMS LMS O perceptron Convergência do perceptron João Luís G. Rosa c SCC-5809: Redes Neurais 2/45

3 Sumário Perceptron LMS Histórico Sistema Dinâmico 1 Perceptron Histórico Sistema Dinâmico 2 LMS LMS O perceptron Convergência do perceptron João Luís G. Rosa c SCC-5809: Redes Neurais 3/45

4 História Perceptron LMS Histórico Sistema Dinâmico Nos primórdios das RNA ( ), vários pesquisadores contribuíram: McCulloch e Pitts (1943) introduziram a ideia de redes neurais como máquinas computacionais [3]. Hebb (1949) postulou a primeira regra para aprendizado auto-organizado [2]. Rosenblatt (1958) propôs o perceptron como o primeiro modelo para aprendizado com professor (supervisionado) [5]. O perceptron é a forma mais simples de uma RNA usada para classificar padrões linearmente separáveis. Basicamente, consiste de um único neurônio com pesos sinápticos e bias ajustáveis. A prova de convergência do procedimento de aprendizado proposto por Rosenblatt é conhecida como teorema de convergência do perceptron. João Luís G. Rosa c SCC-5809: Redes Neurais 4/45

5 História Perceptron LMS Histórico Sistema Dinâmico O perceptron construído em torno de um único neurônio é limitado a realizar classificação de padrões com apenas duas classes (hipóteses). Expandindo a camada de saída do perceptron para incluir mais que um neurônio, pode-se classificar mais de duas classes. Entretanto, essas classes devem ser linearmente separáveis para o perceptron funcionar: superfície de decisão tem a forma de um hiperplano entre as duas classes. A regra de decisão é designar x à classe C 1 se a saída for y = +1 e à classe C 2 se a saída for 1. Existem duas regiões separadas pelo hiperplano: wi x i θ = 0. Se o espaço for o R 2, a região de separação é uma reta. João Luís G. Rosa c SCC-5809: Redes Neurais 5/45

6 Sumário Perceptron LMS Histórico Sistema Dinâmico 1 Perceptron Histórico Sistema Dinâmico 2 LMS LMS O perceptron Convergência do perceptron João Luís G. Rosa c SCC-5809: Redes Neurais 6/45

7 Filtro adaptativo Perceptron LMS Histórico Sistema Dinâmico Considere um sistema dinâmico, uma caracterização matemática do que é desconhecido. O que está disponível é um conjunto de dados de entrada-saída rotulados gerados pelo sistema em instantes discretos de tempo a alguma taxa uniforme. Quando um estímulo m-dimensional x(i) é aplicado nos m nós de entrada do sistema, o sistema responde produzindo uma saída escalar d(i), onde i = 1, 2,..., n,..., como mostrado na figura 2 [1]. João Luís G. Rosa c SCC-5809: Redes Neurais 7/45

8 Filtro adaptativo Perceptron LMS Histórico Sistema Dinâmico O comportamento externo do sistema é descrito pelo conjunto de dados onde I : {x(i), d(i); i = 1, 2,..., n,...} (1) x(i) = [x 1 (i), x 2 (i),..., x m (i)] T (2) A figura 3 mostra um grafo de fluxo de sinal do filtro adaptativo. João Luís G. Rosa c SCC-5809: Redes Neurais 8/45

9 Filtro adaptativo Perceptron LMS Histórico Sistema Dinâmico A operação do filtro adaptativo consiste em 1 Processo de filtragem, que envolve a computação de dois sinais: Uma saída y(i) que é produzida em resposta aos m elementos do vetor estímulo x(i), ou seja, x 1 (i), x 2 (i),..., x m(i). Um sinal de erro e(i) obtido pela comparação da saída y(i) com a saída correspondente d(i) produzida pelo sistema desconhecido. d(i) age como uma resposta desejada ou sinal alvo. 2 Processo adaptativo, que envolve o ajuste automático dos pesos sinápticos do neurônio de acordo com o sinal de erro e(i). João Luís G. Rosa c SCC-5809: Redes Neurais 9/45

10 Filtro adaptativo Perceptron LMS Histórico Sistema Dinâmico Como o neurônio é linear, a saída y(i) é exatamente a mesma do campo local induzido v(i): y(i) = v(i) = m w k (i)x k (i) (3) k=1 onde w 1 (i), w 2 (i),..., w m (i) são os m pesos sinápticos do neurônio, medidos no tempo i. Na forma matricial pode-se expressar y(i) como o produto interno dos vetores x(i) e w(i): y(i) = x T (i)w(i) (4) onde w(i) = [w 1 (i), w 2 (i),..., w m (i)] T (5) João Luís G. Rosa c SCC-5809: Redes Neurais 10/45

11 Sumário 1 Perceptron Histórico Sistema Dinâmico 2 LMS LMS O perceptron Convergência do perceptron João Luís G. Rosa c SCC-5809: Redes Neurais 11/45

12 Algoritmo LMS O algoritmo LMS (least-mean-square) é baseado no uso de valores instantâneos para a função custo: ξ(w) = 1 2 e2 (n) (6) onde e(n) é o sinal de erro medido no tempo n. ξ(w) w = e(n) e(n) w Como o algoritmo LMS opera com um neurônio linear: (7) e(n) = d(n) x T (n)w(n) (8) portanto e(n) = x(n) (9) w(n) João Luís G. Rosa c SCC-5809: Redes Neurais 12/45

13 Algoritmo LMS E Pode-se escrever ξ(w) = x(n)e(n) (10) w(n) ĝ(n) = x(n)e(n) (11) onde ĝ(n) é uma estimativa do vetor gradiente avaliado no ponto w(n) Usando o vetor gradiente, pode-se formular o algoritmo LMS: ŵ(n + 1) = ŵ(n) + ηx(n)e(n) (12) João Luís G. Rosa c SCC-5809: Redes Neurais 13/45

14 Algoritmo LMS Sumário do algoritmo LMS Amostra de treinamento: Vetor do sinal de entrada: x(n) Resposta desejada: d(n) Parâmetro selecionado pelo usuário: η Iniciação: Faça ŵ(0) = 0 Computação: Para n = 1, 2,..., compute e(n) = d(n) ŵ T (n)x(n) (13) ŵ(n + 1) = ŵ(n) + ηx(n)e(n) (14) João Luís G. Rosa c SCC-5809: Redes Neurais 14/45

15 Sumário 1 Perceptron Histórico Sistema Dinâmico 2 LMS LMS O perceptron Convergência do perceptron João Luís G. Rosa c SCC-5809: Redes Neurais 15/45

16 Modelo de McCulloch-Pitts O perceptron é construído em volta de um neurônio não linear, o modelo de McCulloch-Pitts [1]. m v = w i x i + b (15) i=1 João Luís G. Rosa c SCC-5809: Redes Neurais 16/45

17 Classificador O objetivo do perceptron é classificar o conjunto de estímulos x 1, x 2,..., x m aplicados externamente, à classe C 1 se a saída for y = +1 ou à classe C 2 se a saída for 1. Na forma mais simples do perceptron, há duas regiões de decisão separadas por um hiperplano definido por Veja figura 4. m w i x i + b = 0 (16) i=1 João Luís G. Rosa c SCC-5809: Redes Neurais 17/45

18 Hiperplano [1] João Luís G. Rosa c SCC-5809: Redes Neurais 18/45

19 Sumário 1 Perceptron Histórico Sistema Dinâmico 2 LMS LMS O perceptron Convergência do perceptron João Luís G. Rosa c SCC-5809: Redes Neurais 19/45

20 Correção de erros Para derivar o algoritmo de aprendizado por correção de erro para o perceptron, considere a figura 2 [1]. Vetor de entrada (m + 1) por 1: x(n) = [+1, x 1 (n), x 2 (n),..., x m (n)] T (17) Vetor de pesos (m + 1) por 1: w(n) = [b(n), w 1 (n), w 2 (n),..., w m (n)] T (18) João Luís G. Rosa c SCC-5809: Redes Neurais 20/45

21 Combinador linear A saída do combinador linear é: m v(n) = w i (n)x i (n) = w T (n)x(n) (19) i=0 onde w 0 (n) representa o bias b(n). Para n fixo, a equação w T x = 0, plotada num espaço m-dimensional define um hiperplano, como a superfície de decisão entre duas classes diferentes de entradas. Para o perceptron funcionar adequadamente, as duas classes C 1 e C 2 devem ser linearmente separáveis [1]: João Luís G. Rosa c SCC-5809: Redes Neurais 21/45

22 Conjuntos de treinamento Seja X 1 = x 1 (1), x 1 (2),... o subconjunto de vetores de treinamento que pertencem à classe C 1 e X 2 = x 2 (1), x 2 (2),... o subconjunto de vetores de treinamento que pertencem à classe C 2. X = X 1 X 2. Dados os conjuntos X 1 e X 2 para treinar o classificador, o treinamento envolve o ajuste do vetor de pesos w tal que C 1 e C 2 sejam linearmente separáveis: w T x > 0 para todo vetor de entrada x pertencente à classe C 1. w T x 0 para todo vetor de entrada x pertencente à classe C 2. O problema do treinamento é, dados X 1 e X 2, achar um vetor de pesos w tal que as desigualdades acima sejam satisfeitas. João Luís G. Rosa c SCC-5809: Redes Neurais 22/45

23 Treinamento O algoritmo pode ser formulado assim: 1 Se o n-ésimo termo do conjunto de treinamento x(n) é corretamente classificado por w(n) computado na n-ésima iteração do algoritmo, nenhuma correção é feita ao vetor de pesos de acordo com a regra 1 w(n + 1) = w(n), se w T x(n) > 0 e x(n) pertence à classe C 1. 2 w(n + 1) = w(n), se w T x(n) 0 e x(n) pertence à classe C 2. 2 Caso contrário, o vetor de pesos é atualizado de acordo com a regra 1 w(n + 1) = w(n) η(n)x(n), se w T (n)x(n) > 0 e x(n) pertence à classe C 2. 2 w(n + 1) = w(n) + η(n)x(n), se w T (n)x(n) 0 e x(n) pertence à classe C 1. onde η(n) controla o ajuste aplicado ao vetor de pesos na iteração n. João Luís G. Rosa c SCC-5809: Redes Neurais 23/45

24 Convergência Se η(n) = η > 0, onde η é independente de n, tem-se uma regra de adaptação de incremento fixo para o perceptron. Prova-se a convergência para η = 1. Sejam w(0) = 0, w T (n)x(n) < 0 e x(n) X 1. Ou seja, o perceptron classifica incorretamente os vetores x(1), x(2),..., já que a condição w T x 0 para todo vetor de entrada x pertencente à classe C 2 é violada. Como η(n) = 1, pode-se escrever w(n + 1) = w(n) + x(n), para x(n) pertencente a classe C 1 (20) Dado que w(0) = 0, pode-se iterativamente resolver esta equação para w(n + 1), obtendo o resultado w(n + 1) = x(1) + x(2) x(n) (21) João Luís G. Rosa c SCC-5809: Redes Neurais 24/45

25 Convergência Como assume-se que C 1 e C 2 são linearmente separáveis, existe uma solução w 0 para o qual w T x(n) > 0 para os vetores x(1),..., x(n) pertencentes a X 1. Para uma solução fixa w 0, define-se α = min x(n) X1 w T 0 x(n) (22) Multiplicando ambos os lados da equação 21 pelo vetor linha w T 0 tem-se w T 0 w(n + 1) = wt 0 x(1) + wt 0 x(2) wt 0 x(n) (23) Retomando a equação 22 w T 0 w(n + 1) nα (24) João Luís G. Rosa c SCC-5809: Redes Neurais 25/45

26 Convergência Dados dois vetores w 0 e w(n + 1), a desigualdade de Cauchy-Schwarz estabelece que w 0 2 w(n + 1) 2 [w T 0 w(n + 1)]2 (25) onde. corresponde à norma Euclidiana do vetor argumento e o produto interno w T 0 w(n + 1) é escalar. Da equação 24, [w T 0 w(n + 1)]2 é maior ou igual a n 2 α 2. Da equação 25, w 0 2 w(n + 1) 2 é maior ou igual a [w T 0 w(n + 1)]2. Segue que ou equivalentemente w 0 2 w(n + 1) 2 n 2 α 2 (26) w(n + 1) 2 n2 α 2 w 0 2 (27) João Luís G. Rosa c SCC-5809: Redes Neurais 26/45

27 Convergência A equação 20 é re-escrita da seguinte forma w(k + 1) = w(k) + x(k), para k = 1,..., n e x(k) X 1 (28) Pegando a norma Euclidiana em ambos os lados da equação 28, obtém-se w(k +1) 2 = w(k) 2 + x(k) 2 + 2w T (k)w(k) (29) Partindo da assunção de que o perceptron classifica incorretamente um vetor de entrada x(k) pertencente ao subconjunto X 1, tem-se que w T (k)x(k) < 0. Deduz-se de 29 que ou equivalentemente w(k + 1) 2 w(k) 2 + x(k) 2 (30) w(k + 1) 2 w(k) 2 x(k) 2, k = 1,...n (31) João Luís G. Rosa c SCC-5809: Redes Neurais 27/45

28 Convergência Adicionando estas desigualdades para k = 1,..., n e invocando a condição inicial w(0) = 0, tem-se w(k + 1) 2 = n x(k) 2 ηβ (32) k=1 onde β é um número positivo β = max X(k) X1 x(k) 2 (33) A equação 32 estabelece que a norma Euclidiana ao quadrado do vetor de psos w(n + 1) cresce no máximo linearmente com o número de iterações n. Esta equação está em conflito com a equação 27 para valores grandes de n. João Luís G. Rosa c SCC-5809: Redes Neurais 28/45

29 Convergência Pode-se estabelecer que n não possa ser maior que um valor n max para o qual as equações 27 e 32 sejam satisfeitas com o sinal de igualdade. Isto é, n max é a solução da equação n 2 maxα 2 w 0 2 = n maxβ (34) Resolvendo para n max, dada um vetor solução w 0 : n max = β w 0 2 α 2 (35) Provou-se então que para η(n) = 1 para todo n, e w(0) = 0 e dado que um vetor solução w 0 existe, a regra para adaptar os pesos sinápticos deve terminar depois de no máximo n max iterações. Note que, das equações 22, 33 e 35, não há uma solução única para w 0 ou n max. João Luís G. Rosa c SCC-5809: Redes Neurais 29/45

30 Teorema da Convergência do Perceptron O teorema da convergência de incremento fixo para o perceptron pode ser enunciada: Sejam os subconjuntos dos vetores de treinamento X 1 e X 2 linearmente separáveis. Sejam as entradas apresentadas ao perceptron originárias desses dois subconjuntos. O perceptron converge depois de n 0 iterações, no sentido de que w(n 0 ) = w(n 0 + 1) = w(n 0 + 2) =... (36) seja um vetor solução para n 0 n max. João Luís G. Rosa c SCC-5809: Redes Neurais 30/45

31 Teorema da Convergência do Perceptron Considere agora o procedimento para correção de erro absoluto, para o qual η(n) é variável. Seja η(n) o menor inteiro para o qual η(n)x T x(n) > w T (n)x(n). Ou seja, se o produto interno w T (n)x(n) na iteração n tem um sinal incorreto, então w T (n + 1)x(n) na iteração n + 1 teria o sinal correto. Em outras palavras, cada padrão é apresdentado repetidamente ao perceptron até que o padrão seja classificado corretamente. João Luís G. Rosa c SCC-5809: Redes Neurais 31/45

32 Teorema da Convergência do Perceptron Sumário do Algoritmo de Convergência do Perceptron: Variáveis e parâmetros: Vetor de entrada: x(n) = [+1, x 1 (n), x 2 (n),..., x m(n)] T Vetor de pesos: w(n) = [b(n), w 1 (n), w 2 (n),..., w m(n)] T Bias: b(n) Resposta real: y(n) Resposta desejada: d(n): { +1, se x(n) pertence a classe C1 d(n) = 1, se x(n) pertence a classe C 2 Taxa de aprendizado: η Função signum: sgn(v) = { +1, se v > 0 1, se v < 0 João Luís G. Rosa c SCC-5809: Redes Neurais 32/45

33 Teorema da Convergência do Perceptron Sumário do Algoritmo de Convergência do Perceptron: 1 Iniciação: Faça w(0) = 0. Então realize as seguintes computações para o passo de tempo n = 1, 2,... 2 Ativação: No passo de tempo n, ative o perceptron aplicando os vetores de entradas contínuas x(n) e respostas desejadas d(n) 3 Computação da resposta real: y(n) = sgn[w T (n)x(n)] 4 Adaptação do vetor de pesos: w(n + 1) = w(n) + η[d(n) y(n)]x(n) 5 Continuação: Incremente o passo de tempo n e vá ao passo 2. João Luís G. Rosa c SCC-5809: Redes Neurais 33/45

34 Regra Delta Para um perceptron w i (n + 1) = w i (n) + η(d(n) y(n)).x i (n) (37) onde η = taxa (ou coeficiente) de aprendizado d(n) = saída desejada y(n) = saída real δ = d(n) y(n) = erro x i (n) = entrada i, 1 i m Regra Delta: w i = w i (n + 1) w i (n) = ηδx i (38) João Luís G. Rosa c SCC-5809: Redes Neurais 34/45

35 Exemplo [4] Simulação do operador lógico AND: João Luís G. Rosa c SCC-5809: Redes Neurais 35/45

36 Exemplo [4] Pesos iniciais: w 0 = 0, w 1 = 0, w 2 = 0. Taxa de aprendizado: η = 0.5. João Luís G. Rosa c SCC-5809: Redes Neurais 36/45

37 Exemplo [4] 1 o Ciclo Entrada 1: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 2: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 3: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 4: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (1 0) 1 = 0.5 w 1 = w 1 + (t s out)x 1 = (1 0) 1 = 0.5 w 2 = w 2 + (t s out)x 2 = (1 0) 1 = 0.5 João Luís G. Rosa c SCC-5809: Redes Neurais 37/45

38 Exemplo [4] 2 o Ciclo Entrada 1: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0.5) = 1 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (0 1) 1 = 0 w 1 = w 1 + (t s out)x 1 = (0 1) 0 = 0.5 w 2 = w 2 + (t s out)x 2 = (0 1) 0 = 0.5 Entrada 2: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0.5) = 1 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (0 1) 1 = 0.5 w 1 = w 1 + (t s out)x 1 = (0 1) 0 = 0.5 w 2 = w 2 + (t s out)x 2 = (0 1) 1 = 0 João Luís G. Rosa c SCC-5809: Redes Neurais 38/45

39 Exemplo [4] 2 o Ciclo (cont.) Entrada 3: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 4: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (1 0) 1 = 0 w 1 = w 1 + (t s out)x 1 = (1 0) 1 = 1 w 2 = w 2 + (t s out)x 2 = (1 0) 1 = 0.5 João Luís G. Rosa c SCC-5809: Redes Neurais 39/45

40 Exemplo [4] 3 o Ciclo Entrada 1: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 2: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0.5) = 1 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (0 1) 1 = 1 w 1 = w 1 + (t s out)x 1 = (0 1) 0 = 1 w 2 = w 2 + (t s out)x 2 = (0 1) 1 = 0 Entrada 3: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 4: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (1 0) 1 = 0.5 w 1 = w 1 + (t s out)x 1 = (1 0) 1 = 1.5 w 2 = w 2 + (t s out)x 2 = (1 0) 1 = 0.5 João Luís G. Rosa c SCC-5809: Redes Neurais 40/45

41 Exemplo [4] 4 o Ciclo Entrada 1: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f ( 0.5) = 0 s out = t Entrada 2: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 3: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (1) = 1 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (0 1) 1 = 1 w 1 = w 1 + (t s out)x 1 = (0 1) 1 = 1 w 2 = w 2 + (t s out)x 2 = (0 1) 0 = 0.5 Entrada 4: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0.5) = 1 s out = t João Luís G. Rosa c SCC-5809: Redes Neurais 41/45

42 Exemplo [4] 5 o Ciclo Entrada 1: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f ( 1) = 0 s out = t Entrada 2: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f ( 0.5) = 0 s out = t Entrada 3: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 4: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0.5) = 1 s out = t Pesos Finais (solução): w 0 = 1 w 1 = 1 w 2 = 0.5 João Luís G. Rosa c SCC-5809: Redes Neurais 42/45

43 Exemplo [4]: Interpretação geométrica Linha de Decisão: x 1 w 1 + x 2 w 2 = θ = x x 2 = 1. João Luís G. Rosa c SCC-5809: Redes Neurais 43/45

44 Bibliografia I Apêndice Bibliografia [1] S. Haykin Neural networks - a comprehensive foundation. 2nd. edition. Prentice Hall, [2] D. O. Hebb The Organization of Behavior: A Neuropsychological Theory. Wiley, [3] W. S. McCulloch and W. Pitts A logical calculus of the ideas immanent in nervous activity Bulletin of Mathematical Biophysics, 5, pp , João Luís G. Rosa c SCC-5809: Redes Neurais 44/45

45 Bibliografia II Apêndice Bibliografia [4] R. A. F. Romero SCC-5809 Redes Neurais. Slides e listas de exercícios. Programa de Pós-Graduação em Ciência de Computação e Matemática Computacional. ICMC/USP, [5] F. Rosenblatt The Perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, vol. 65, pp , João Luís G. Rosa c SCC-5809: Redes Neurais 45/45

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Camada Única Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que

Leia mais

SCC Capítulo 3 Aprendizado

SCC Capítulo 3 Aprendizado Aprendizado Supervisionado Não Supervisionado Tarefas SCC-5809 - Capítulo 3 Aprendizado João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2012 João Luís G. Rosa c 2012 - SCC-5809: Redes Neurais

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

SCC Capítulo 2 Topologia e Representação

SCC Capítulo 2 Topologia e Representação Modelos Arquiteturas Representação do Conhecimento SCC-5809 - Capítulo 2 Topologia e Representação João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809:

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. Resumo: Lucas da Silva Assis Universidade Federal de Goiás lucasilvassis@gmail.com Esse trabalho apresenta

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Redes Neurais Artificiais (RNA)

Redes Neurais Artificiais (RNA) Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação

Leia mais

Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação. Perceptron

Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação. Perceptron Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Perceptron Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com Perceptron

Leia mais

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

3. REDES DE CAMADA ÚNICA

3. REDES DE CAMADA ÚNICA 3. REDES DE CAMADA ÚNICA Perceptron Forma mais simples de RN Utilizado para classificação de padrões (linearmente separáveis) Consiste em um único neurônio, com pesos sinápticos ajustáveis e bias 3.1 Funções

Leia mais

Introdução ao Processamento Estatístico de Sinais

Introdução ao Processamento Estatístico de Sinais Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Departamento de Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

SCC Capítulo 5 Perceptron Multicamadas

SCC Capítulo 5 Perceptron Multicamadas Introdução Back-propagation (BP) MLPs Convolução SCC-5809 - Capítulo 5 Perceptron Multicamadas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Modelos de classificação por Redes Neurais Artificiais Prof. Paulo Martins Engel Motivação Classificadores baseados em representação simbólica (AD, RD,...) estão limitados a particionar

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs)

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs) Aprendizagem de Máquina Redes Neurais Artificiais (RNAs) Plano de Aula Introdução Motivação Biológica Perceptron Superfície de Decisão Descida do Gradiente Redes Multicamadas (Multilayer) Retropropagação

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

Inteligência Computacional

Inteligência Computacional Inteligência Computacional REDES NEURAIS ARTIFICIAIS ADALINE Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Adaline Adaline = Adaptive Linear

Leia mais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

Classificadores Lineares

Classificadores Lineares Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Classificadores Lineares David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Funções Discriminantes Lineares Perceptron Support

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

Variações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa

Variações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa A principal crítica ao algoritmo Back Propagation é o longo tempo de treinamento proposta de variações simples para acelerar o processo de aprendizado Taxa de Aprendizado Adaptativa Inicia-se com um valor

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

SCC Capítulo 7 Redes Associativas

SCC Capítulo 7 Redes Associativas Neurodinâmica Rede de Hopfield Memória Associativa SCC-5809 - Capítulo 7 Redes Associativas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas II Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Aplicações em Telecomunicações Prof. João Marcos Meirelles da Silva, D.Sc. Professor Adjunto II do Departamento de Engenharia de Telecomunicações Universidade Federal Fluminense

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

Paradigmas de Aprendizagem

Paradigmas de Aprendizagem Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

SCC Capítulo 10 Métodos de Amostragem e Avaliação de Algoritmos

SCC Capítulo 10 Métodos de Amostragem e Avaliação de Algoritmos Métodos de Amostragem e Avaliação de Algoritmos SCC-630 - Capítulo 10 Métodos de Amostragem e Avaliação de Algoritmos João Luís Garcia Rosa 1 1 Departamento de Ciências de Computação Instituto de Ciências

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Método de Newton truncado

Método de Newton truncado Método de Newton truncado Marina Andretta ICMC-USP 8 de outubro de 2018 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

Algoritmos de Aprendizado

Algoritmos de Aprendizado Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron

Leia mais

Resumo. Filtragem Adaptativa. Filtros adaptativos. Tarefas desempenhadas pelos filtros

Resumo. Filtragem Adaptativa. Filtros adaptativos. Tarefas desempenhadas pelos filtros Resumo Filtragem Adaptativa Luís Caldas de Oliveira lco@istutlpt Instituto Superior Técnico Sistemas de filtragem adaptativa Conceitos de filtragem adaptativa Filtro de Wiener Algoritmo steepest descent

Leia mais

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Filtragem Adaptativa

Filtragem Adaptativa Filtragem Adaptativa Luís Caldas de Oliveira lco@istutlpt Instituto Superior Técnico Filtragem Adaptativa p1/45 Resumo Sistemas de filtragem adaptativa Filtragem Adaptativa p2/45 Resumo Sistemas de filtragem

Leia mais

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

4. O algoritmo LMS e variantes

4. O algoritmo LMS e variantes Apontamentos de Processamento Adaptativo de Sinais 4. O algoritmo LMS e variantes Família de algoritmos do gradiente Na prática usam-se estimativas do gradiente, ˆ (n), em vez do verdadeiro gradiente (n),

Leia mais

SCE 5809 REDES NEURAIS

SCE 5809 REDES NEURAIS Sistemas de SCE 5809 REDES NEURAIS Profa. Roseli Ap. Francelin Romero Os diversos sistemas de possuem características particulares e comuns que permitem sua classif.: linguagem de descrição modo paradigma

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.5. Support Vector Machines 2.5. Support Vector Machines (SVM) 2.5.2.

Leia mais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência

Leia mais

Funções Discriminantes Lineares

Funções Discriminantes Lineares Funções Discriminantes Lineares Revisão Cap. 2 Classificação Bayesiana: Fdp s conhecidas, w ) P e x w ) ( i p. ( i Cap. 3 Formas das fdp s conhecidas, idem No. de parâmetros. a) Máxima verossimilhança:

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas

Leia mais

SCE REDES NEURAIS Redes Neurais Multi-Camadas Parte 2

SCE REDES NEURAIS Redes Neurais Multi-Camadas Parte 2 SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 2 Profa. Roseli Ap. Francelin Romero 1 Teorema de Aprox. Universal Qual é o número mínimo de camadas num PMC que fornece uma aproximação para

Leia mais

Universidade Federal do Espírito Santo - UFES

Universidade Federal do Espírito Santo - UFES Universidade Federal do Espírito Santo - UFES Centro Universitário Norte do Espírito Santo - CEUNES Departamento de Matemática Aplicada - DMA Prof. Isaac P. Santos - 2018/1 Aula: Métodos Iterativos Para

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Introdução Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade

Leia mais

Perceptrons. Introdução

Perceptrons. Introdução Perceptrons Introdução No final da década de 1950, Rosenblatt na Universidade de Cornell, criou uma genuína rede de múltiplos neurônios do tipo discriminadores lineares e chamou esta rede de perceptron.

Leia mais

REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM)

REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM) REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM) APRENDIZADO COMPETITIVO Os algoritmos de aprendizado não-supervisionado são geralmente baseados em uma forma de competição entre os neurônios. O método

Leia mais

APRENDIZADO EM MODELOS CONEXIONISTAS

APRENDIZADO EM MODELOS CONEXIONISTAS APRENDIZADO EM MODELOS CONEXIONISAS Aprendizado é o processo pelo qual os parâmetros (os pesos das coneões entre os neurônios) de uma rede neural são austados através de uma forma continuada de estímulo

Leia mais

Modelagem Computacional. Parte 7 2

Modelagem Computacional. Parte 7 2 Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 7 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,

Leia mais

Por que Redes Neurais?

Por que Redes Neurais? Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor

Leia mais

Laboratório de Simulação Matemática. Parte 7 2

Laboratório de Simulação Matemática. Parte 7 2 Matemática - RC/UFG Laboratório de Simulação Matemática Parte 7 2 Prof. Thiago Alves de Queiroz 2/2017 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning, 2010. Thiago

Leia mais

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann: Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais