SCC Capítulo 4 Perceptron de Camada Única
|
|
- Aurélio Coradelli Deluca
- 5 Há anos
- Visualizações:
Transcrição
1 Perceptron LMS SCC Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c SCC-5809: Redes Neurais 1/45
2 Sumário Perceptron LMS 1 Perceptron Histórico Sistema Dinâmico 2 LMS LMS O perceptron Convergência do perceptron João Luís G. Rosa c SCC-5809: Redes Neurais 2/45
3 Sumário Perceptron LMS Histórico Sistema Dinâmico 1 Perceptron Histórico Sistema Dinâmico 2 LMS LMS O perceptron Convergência do perceptron João Luís G. Rosa c SCC-5809: Redes Neurais 3/45
4 História Perceptron LMS Histórico Sistema Dinâmico Nos primórdios das RNA ( ), vários pesquisadores contribuíram: McCulloch e Pitts (1943) introduziram a ideia de redes neurais como máquinas computacionais [3]. Hebb (1949) postulou a primeira regra para aprendizado auto-organizado [2]. Rosenblatt (1958) propôs o perceptron como o primeiro modelo para aprendizado com professor (supervisionado) [5]. O perceptron é a forma mais simples de uma RNA usada para classificar padrões linearmente separáveis. Basicamente, consiste de um único neurônio com pesos sinápticos e bias ajustáveis. A prova de convergência do procedimento de aprendizado proposto por Rosenblatt é conhecida como teorema de convergência do perceptron. João Luís G. Rosa c SCC-5809: Redes Neurais 4/45
5 História Perceptron LMS Histórico Sistema Dinâmico O perceptron construído em torno de um único neurônio é limitado a realizar classificação de padrões com apenas duas classes (hipóteses). Expandindo a camada de saída do perceptron para incluir mais que um neurônio, pode-se classificar mais de duas classes. Entretanto, essas classes devem ser linearmente separáveis para o perceptron funcionar: superfície de decisão tem a forma de um hiperplano entre as duas classes. A regra de decisão é designar x à classe C 1 se a saída for y = +1 e à classe C 2 se a saída for 1. Existem duas regiões separadas pelo hiperplano: wi x i θ = 0. Se o espaço for o R 2, a região de separação é uma reta. João Luís G. Rosa c SCC-5809: Redes Neurais 5/45
6 Sumário Perceptron LMS Histórico Sistema Dinâmico 1 Perceptron Histórico Sistema Dinâmico 2 LMS LMS O perceptron Convergência do perceptron João Luís G. Rosa c SCC-5809: Redes Neurais 6/45
7 Filtro adaptativo Perceptron LMS Histórico Sistema Dinâmico Considere um sistema dinâmico, uma caracterização matemática do que é desconhecido. O que está disponível é um conjunto de dados de entrada-saída rotulados gerados pelo sistema em instantes discretos de tempo a alguma taxa uniforme. Quando um estímulo m-dimensional x(i) é aplicado nos m nós de entrada do sistema, o sistema responde produzindo uma saída escalar d(i), onde i = 1, 2,..., n,..., como mostrado na figura 2 [1]. João Luís G. Rosa c SCC-5809: Redes Neurais 7/45
8 Filtro adaptativo Perceptron LMS Histórico Sistema Dinâmico O comportamento externo do sistema é descrito pelo conjunto de dados onde I : {x(i), d(i); i = 1, 2,..., n,...} (1) x(i) = [x 1 (i), x 2 (i),..., x m (i)] T (2) A figura 3 mostra um grafo de fluxo de sinal do filtro adaptativo. João Luís G. Rosa c SCC-5809: Redes Neurais 8/45
9 Filtro adaptativo Perceptron LMS Histórico Sistema Dinâmico A operação do filtro adaptativo consiste em 1 Processo de filtragem, que envolve a computação de dois sinais: Uma saída y(i) que é produzida em resposta aos m elementos do vetor estímulo x(i), ou seja, x 1 (i), x 2 (i),..., x m(i). Um sinal de erro e(i) obtido pela comparação da saída y(i) com a saída correspondente d(i) produzida pelo sistema desconhecido. d(i) age como uma resposta desejada ou sinal alvo. 2 Processo adaptativo, que envolve o ajuste automático dos pesos sinápticos do neurônio de acordo com o sinal de erro e(i). João Luís G. Rosa c SCC-5809: Redes Neurais 9/45
10 Filtro adaptativo Perceptron LMS Histórico Sistema Dinâmico Como o neurônio é linear, a saída y(i) é exatamente a mesma do campo local induzido v(i): y(i) = v(i) = m w k (i)x k (i) (3) k=1 onde w 1 (i), w 2 (i),..., w m (i) são os m pesos sinápticos do neurônio, medidos no tempo i. Na forma matricial pode-se expressar y(i) como o produto interno dos vetores x(i) e w(i): y(i) = x T (i)w(i) (4) onde w(i) = [w 1 (i), w 2 (i),..., w m (i)] T (5) João Luís G. Rosa c SCC-5809: Redes Neurais 10/45
11 Sumário 1 Perceptron Histórico Sistema Dinâmico 2 LMS LMS O perceptron Convergência do perceptron João Luís G. Rosa c SCC-5809: Redes Neurais 11/45
12 Algoritmo LMS O algoritmo LMS (least-mean-square) é baseado no uso de valores instantâneos para a função custo: ξ(w) = 1 2 e2 (n) (6) onde e(n) é o sinal de erro medido no tempo n. ξ(w) w = e(n) e(n) w Como o algoritmo LMS opera com um neurônio linear: (7) e(n) = d(n) x T (n)w(n) (8) portanto e(n) = x(n) (9) w(n) João Luís G. Rosa c SCC-5809: Redes Neurais 12/45
13 Algoritmo LMS E Pode-se escrever ξ(w) = x(n)e(n) (10) w(n) ĝ(n) = x(n)e(n) (11) onde ĝ(n) é uma estimativa do vetor gradiente avaliado no ponto w(n) Usando o vetor gradiente, pode-se formular o algoritmo LMS: ŵ(n + 1) = ŵ(n) + ηx(n)e(n) (12) João Luís G. Rosa c SCC-5809: Redes Neurais 13/45
14 Algoritmo LMS Sumário do algoritmo LMS Amostra de treinamento: Vetor do sinal de entrada: x(n) Resposta desejada: d(n) Parâmetro selecionado pelo usuário: η Iniciação: Faça ŵ(0) = 0 Computação: Para n = 1, 2,..., compute e(n) = d(n) ŵ T (n)x(n) (13) ŵ(n + 1) = ŵ(n) + ηx(n)e(n) (14) João Luís G. Rosa c SCC-5809: Redes Neurais 14/45
15 Sumário 1 Perceptron Histórico Sistema Dinâmico 2 LMS LMS O perceptron Convergência do perceptron João Luís G. Rosa c SCC-5809: Redes Neurais 15/45
16 Modelo de McCulloch-Pitts O perceptron é construído em volta de um neurônio não linear, o modelo de McCulloch-Pitts [1]. m v = w i x i + b (15) i=1 João Luís G. Rosa c SCC-5809: Redes Neurais 16/45
17 Classificador O objetivo do perceptron é classificar o conjunto de estímulos x 1, x 2,..., x m aplicados externamente, à classe C 1 se a saída for y = +1 ou à classe C 2 se a saída for 1. Na forma mais simples do perceptron, há duas regiões de decisão separadas por um hiperplano definido por Veja figura 4. m w i x i + b = 0 (16) i=1 João Luís G. Rosa c SCC-5809: Redes Neurais 17/45
18 Hiperplano [1] João Luís G. Rosa c SCC-5809: Redes Neurais 18/45
19 Sumário 1 Perceptron Histórico Sistema Dinâmico 2 LMS LMS O perceptron Convergência do perceptron João Luís G. Rosa c SCC-5809: Redes Neurais 19/45
20 Correção de erros Para derivar o algoritmo de aprendizado por correção de erro para o perceptron, considere a figura 2 [1]. Vetor de entrada (m + 1) por 1: x(n) = [+1, x 1 (n), x 2 (n),..., x m (n)] T (17) Vetor de pesos (m + 1) por 1: w(n) = [b(n), w 1 (n), w 2 (n),..., w m (n)] T (18) João Luís G. Rosa c SCC-5809: Redes Neurais 20/45
21 Combinador linear A saída do combinador linear é: m v(n) = w i (n)x i (n) = w T (n)x(n) (19) i=0 onde w 0 (n) representa o bias b(n). Para n fixo, a equação w T x = 0, plotada num espaço m-dimensional define um hiperplano, como a superfície de decisão entre duas classes diferentes de entradas. Para o perceptron funcionar adequadamente, as duas classes C 1 e C 2 devem ser linearmente separáveis [1]: João Luís G. Rosa c SCC-5809: Redes Neurais 21/45
22 Conjuntos de treinamento Seja X 1 = x 1 (1), x 1 (2),... o subconjunto de vetores de treinamento que pertencem à classe C 1 e X 2 = x 2 (1), x 2 (2),... o subconjunto de vetores de treinamento que pertencem à classe C 2. X = X 1 X 2. Dados os conjuntos X 1 e X 2 para treinar o classificador, o treinamento envolve o ajuste do vetor de pesos w tal que C 1 e C 2 sejam linearmente separáveis: w T x > 0 para todo vetor de entrada x pertencente à classe C 1. w T x 0 para todo vetor de entrada x pertencente à classe C 2. O problema do treinamento é, dados X 1 e X 2, achar um vetor de pesos w tal que as desigualdades acima sejam satisfeitas. João Luís G. Rosa c SCC-5809: Redes Neurais 22/45
23 Treinamento O algoritmo pode ser formulado assim: 1 Se o n-ésimo termo do conjunto de treinamento x(n) é corretamente classificado por w(n) computado na n-ésima iteração do algoritmo, nenhuma correção é feita ao vetor de pesos de acordo com a regra 1 w(n + 1) = w(n), se w T x(n) > 0 e x(n) pertence à classe C 1. 2 w(n + 1) = w(n), se w T x(n) 0 e x(n) pertence à classe C 2. 2 Caso contrário, o vetor de pesos é atualizado de acordo com a regra 1 w(n + 1) = w(n) η(n)x(n), se w T (n)x(n) > 0 e x(n) pertence à classe C 2. 2 w(n + 1) = w(n) + η(n)x(n), se w T (n)x(n) 0 e x(n) pertence à classe C 1. onde η(n) controla o ajuste aplicado ao vetor de pesos na iteração n. João Luís G. Rosa c SCC-5809: Redes Neurais 23/45
24 Convergência Se η(n) = η > 0, onde η é independente de n, tem-se uma regra de adaptação de incremento fixo para o perceptron. Prova-se a convergência para η = 1. Sejam w(0) = 0, w T (n)x(n) < 0 e x(n) X 1. Ou seja, o perceptron classifica incorretamente os vetores x(1), x(2),..., já que a condição w T x 0 para todo vetor de entrada x pertencente à classe C 2 é violada. Como η(n) = 1, pode-se escrever w(n + 1) = w(n) + x(n), para x(n) pertencente a classe C 1 (20) Dado que w(0) = 0, pode-se iterativamente resolver esta equação para w(n + 1), obtendo o resultado w(n + 1) = x(1) + x(2) x(n) (21) João Luís G. Rosa c SCC-5809: Redes Neurais 24/45
25 Convergência Como assume-se que C 1 e C 2 são linearmente separáveis, existe uma solução w 0 para o qual w T x(n) > 0 para os vetores x(1),..., x(n) pertencentes a X 1. Para uma solução fixa w 0, define-se α = min x(n) X1 w T 0 x(n) (22) Multiplicando ambos os lados da equação 21 pelo vetor linha w T 0 tem-se w T 0 w(n + 1) = wt 0 x(1) + wt 0 x(2) wt 0 x(n) (23) Retomando a equação 22 w T 0 w(n + 1) nα (24) João Luís G. Rosa c SCC-5809: Redes Neurais 25/45
26 Convergência Dados dois vetores w 0 e w(n + 1), a desigualdade de Cauchy-Schwarz estabelece que w 0 2 w(n + 1) 2 [w T 0 w(n + 1)]2 (25) onde. corresponde à norma Euclidiana do vetor argumento e o produto interno w T 0 w(n + 1) é escalar. Da equação 24, [w T 0 w(n + 1)]2 é maior ou igual a n 2 α 2. Da equação 25, w 0 2 w(n + 1) 2 é maior ou igual a [w T 0 w(n + 1)]2. Segue que ou equivalentemente w 0 2 w(n + 1) 2 n 2 α 2 (26) w(n + 1) 2 n2 α 2 w 0 2 (27) João Luís G. Rosa c SCC-5809: Redes Neurais 26/45
27 Convergência A equação 20 é re-escrita da seguinte forma w(k + 1) = w(k) + x(k), para k = 1,..., n e x(k) X 1 (28) Pegando a norma Euclidiana em ambos os lados da equação 28, obtém-se w(k +1) 2 = w(k) 2 + x(k) 2 + 2w T (k)w(k) (29) Partindo da assunção de que o perceptron classifica incorretamente um vetor de entrada x(k) pertencente ao subconjunto X 1, tem-se que w T (k)x(k) < 0. Deduz-se de 29 que ou equivalentemente w(k + 1) 2 w(k) 2 + x(k) 2 (30) w(k + 1) 2 w(k) 2 x(k) 2, k = 1,...n (31) João Luís G. Rosa c SCC-5809: Redes Neurais 27/45
28 Convergência Adicionando estas desigualdades para k = 1,..., n e invocando a condição inicial w(0) = 0, tem-se w(k + 1) 2 = n x(k) 2 ηβ (32) k=1 onde β é um número positivo β = max X(k) X1 x(k) 2 (33) A equação 32 estabelece que a norma Euclidiana ao quadrado do vetor de psos w(n + 1) cresce no máximo linearmente com o número de iterações n. Esta equação está em conflito com a equação 27 para valores grandes de n. João Luís G. Rosa c SCC-5809: Redes Neurais 28/45
29 Convergência Pode-se estabelecer que n não possa ser maior que um valor n max para o qual as equações 27 e 32 sejam satisfeitas com o sinal de igualdade. Isto é, n max é a solução da equação n 2 maxα 2 w 0 2 = n maxβ (34) Resolvendo para n max, dada um vetor solução w 0 : n max = β w 0 2 α 2 (35) Provou-se então que para η(n) = 1 para todo n, e w(0) = 0 e dado que um vetor solução w 0 existe, a regra para adaptar os pesos sinápticos deve terminar depois de no máximo n max iterações. Note que, das equações 22, 33 e 35, não há uma solução única para w 0 ou n max. João Luís G. Rosa c SCC-5809: Redes Neurais 29/45
30 Teorema da Convergência do Perceptron O teorema da convergência de incremento fixo para o perceptron pode ser enunciada: Sejam os subconjuntos dos vetores de treinamento X 1 e X 2 linearmente separáveis. Sejam as entradas apresentadas ao perceptron originárias desses dois subconjuntos. O perceptron converge depois de n 0 iterações, no sentido de que w(n 0 ) = w(n 0 + 1) = w(n 0 + 2) =... (36) seja um vetor solução para n 0 n max. João Luís G. Rosa c SCC-5809: Redes Neurais 30/45
31 Teorema da Convergência do Perceptron Considere agora o procedimento para correção de erro absoluto, para o qual η(n) é variável. Seja η(n) o menor inteiro para o qual η(n)x T x(n) > w T (n)x(n). Ou seja, se o produto interno w T (n)x(n) na iteração n tem um sinal incorreto, então w T (n + 1)x(n) na iteração n + 1 teria o sinal correto. Em outras palavras, cada padrão é apresdentado repetidamente ao perceptron até que o padrão seja classificado corretamente. João Luís G. Rosa c SCC-5809: Redes Neurais 31/45
32 Teorema da Convergência do Perceptron Sumário do Algoritmo de Convergência do Perceptron: Variáveis e parâmetros: Vetor de entrada: x(n) = [+1, x 1 (n), x 2 (n),..., x m(n)] T Vetor de pesos: w(n) = [b(n), w 1 (n), w 2 (n),..., w m(n)] T Bias: b(n) Resposta real: y(n) Resposta desejada: d(n): { +1, se x(n) pertence a classe C1 d(n) = 1, se x(n) pertence a classe C 2 Taxa de aprendizado: η Função signum: sgn(v) = { +1, se v > 0 1, se v < 0 João Luís G. Rosa c SCC-5809: Redes Neurais 32/45
33 Teorema da Convergência do Perceptron Sumário do Algoritmo de Convergência do Perceptron: 1 Iniciação: Faça w(0) = 0. Então realize as seguintes computações para o passo de tempo n = 1, 2,... 2 Ativação: No passo de tempo n, ative o perceptron aplicando os vetores de entradas contínuas x(n) e respostas desejadas d(n) 3 Computação da resposta real: y(n) = sgn[w T (n)x(n)] 4 Adaptação do vetor de pesos: w(n + 1) = w(n) + η[d(n) y(n)]x(n) 5 Continuação: Incremente o passo de tempo n e vá ao passo 2. João Luís G. Rosa c SCC-5809: Redes Neurais 33/45
34 Regra Delta Para um perceptron w i (n + 1) = w i (n) + η(d(n) y(n)).x i (n) (37) onde η = taxa (ou coeficiente) de aprendizado d(n) = saída desejada y(n) = saída real δ = d(n) y(n) = erro x i (n) = entrada i, 1 i m Regra Delta: w i = w i (n + 1) w i (n) = ηδx i (38) João Luís G. Rosa c SCC-5809: Redes Neurais 34/45
35 Exemplo [4] Simulação do operador lógico AND: João Luís G. Rosa c SCC-5809: Redes Neurais 35/45
36 Exemplo [4] Pesos iniciais: w 0 = 0, w 1 = 0, w 2 = 0. Taxa de aprendizado: η = 0.5. João Luís G. Rosa c SCC-5809: Redes Neurais 36/45
37 Exemplo [4] 1 o Ciclo Entrada 1: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 2: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 3: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 4: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (1 0) 1 = 0.5 w 1 = w 1 + (t s out)x 1 = (1 0) 1 = 0.5 w 2 = w 2 + (t s out)x 2 = (1 0) 1 = 0.5 João Luís G. Rosa c SCC-5809: Redes Neurais 37/45
38 Exemplo [4] 2 o Ciclo Entrada 1: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0.5) = 1 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (0 1) 1 = 0 w 1 = w 1 + (t s out)x 1 = (0 1) 0 = 0.5 w 2 = w 2 + (t s out)x 2 = (0 1) 0 = 0.5 Entrada 2: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0.5) = 1 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (0 1) 1 = 0.5 w 1 = w 1 + (t s out)x 1 = (0 1) 0 = 0.5 w 2 = w 2 + (t s out)x 2 = (0 1) 1 = 0 João Luís G. Rosa c SCC-5809: Redes Neurais 38/45
39 Exemplo [4] 2 o Ciclo (cont.) Entrada 3: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 4: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (1 0) 1 = 0 w 1 = w 1 + (t s out)x 1 = (1 0) 1 = 1 w 2 = w 2 + (t s out)x 2 = (1 0) 1 = 0.5 João Luís G. Rosa c SCC-5809: Redes Neurais 39/45
40 Exemplo [4] 3 o Ciclo Entrada 1: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 2: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0.5) = 1 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (0 1) 1 = 1 w 1 = w 1 + (t s out)x 1 = (0 1) 0 = 1 w 2 = w 2 + (t s out)x 2 = (0 1) 1 = 0 Entrada 3: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 4: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (1 0) 1 = 0.5 w 1 = w 1 + (t s out)x 1 = (1 0) 1 = 1.5 w 2 = w 2 + (t s out)x 2 = (1 0) 1 = 0.5 João Luís G. Rosa c SCC-5809: Redes Neurais 40/45
41 Exemplo [4] 4 o Ciclo Entrada 1: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f ( 0.5) = 0 s out = t Entrada 2: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 3: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (1) = 1 s out t Pesos: w 0 = w 0 + (t s out)x 0 = (0 1) 1 = 1 w 1 = w 1 + (t s out)x 1 = (0 1) 1 = 1 w 2 = w 2 + (t s out)x 2 = (0 1) 0 = 0.5 Entrada 4: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0.5) = 1 s out = t João Luís G. Rosa c SCC-5809: Redes Neurais 41/45
42 Exemplo [4] 5 o Ciclo Entrada 1: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f ( 1) = 0 s out = t Entrada 2: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f ( 0.5) = 0 s out = t Entrada 3: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0) = 0 s out = t Entrada 4: s out = f (w 0 x 0 + w 1 x 1 + w 2 x 2 ) = f ( ) = f (0.5) = 1 s out = t Pesos Finais (solução): w 0 = 1 w 1 = 1 w 2 = 0.5 João Luís G. Rosa c SCC-5809: Redes Neurais 42/45
43 Exemplo [4]: Interpretação geométrica Linha de Decisão: x 1 w 1 + x 2 w 2 = θ = x x 2 = 1. João Luís G. Rosa c SCC-5809: Redes Neurais 43/45
44 Bibliografia I Apêndice Bibliografia [1] S. Haykin Neural networks - a comprehensive foundation. 2nd. edition. Prentice Hall, [2] D. O. Hebb The Organization of Behavior: A Neuropsychological Theory. Wiley, [3] W. S. McCulloch and W. Pitts A logical calculus of the ideas immanent in nervous activity Bulletin of Mathematical Biophysics, 5, pp , João Luís G. Rosa c SCC-5809: Redes Neurais 44/45
45 Bibliografia II Apêndice Bibliografia [4] R. A. F. Romero SCC-5809 Redes Neurais. Slides e listas de exercícios. Programa de Pós-Graduação em Ciência de Computação e Matemática Computacional. ICMC/USP, [5] F. Rosenblatt The Perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, vol. 65, pp , João Luís G. Rosa c SCC-5809: Redes Neurais 45/45
Introdução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Camada Única Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que
Leia maisSCC Capítulo 3 Aprendizado
Aprendizado Supervisionado Não Supervisionado Tarefas SCC-5809 - Capítulo 3 Aprendizado João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2012 João Luís G. Rosa c 2012 - SCC-5809: Redes Neurais
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Leia maisSCC Capítulo 2 Topologia e Representação
Modelos Arquiteturas Representação do Conhecimento SCC-5809 - Capítulo 2 Topologia e Representação João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809:
Leia maisRede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em
Leia maisPrimeiras Redes Neurais Artificiais: Perceptron e Adaline
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas
Leia maisResolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís
Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Leia maisRedes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Leia maisO uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.
O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. Resumo: Lucas da Silva Assis Universidade Federal de Goiás lucasilvassis@gmail.com Esse trabalho apresenta
Leia maisRedes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Leia maisRedes Neurais Artificiais (RNA)
Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação
Leia maisUniversidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação. Perceptron
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Perceptron Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com Perceptron
Leia maisTeorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.
SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,
Leia maisRedes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
Leia mais3. REDES DE CAMADA ÚNICA
3. REDES DE CAMADA ÚNICA Perceptron Forma mais simples de RN Utilizado para classificação de padrões (linearmente separáveis) Consiste em um único neurônio, com pesos sinápticos ajustáveis e bias 3.1 Funções
Leia maisIntrodução ao Processamento Estatístico de Sinais
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Departamento de Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisPERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado
PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma
Leia mais3 REDES CLÁSSICAS PERCEPTRON E ADALINE
w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados
Leia maisIntrodução a Redes Neurais Artificiais com a biblioteca Encog em Java
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -
Leia maisTÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Leia maisSCC Capítulo 5 Perceptron Multicamadas
Introdução Back-propagation (BP) MLPs Convolução SCC-5809 - Capítulo 5 Perceptron Multicamadas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes
Leia mais( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)
Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
Leia maisIntrodução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana
Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
Leia maisJAI 6 - Deep Learning Teoria e Prática
JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Modelos de classificação por Redes Neurais Artificiais Prof. Paulo Martins Engel Motivação Classificadores baseados em representação simbólica (AD, RD,...) estão limitados a particionar
Leia maisInteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Leia maisRedes Neurais Artificial
Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
Leia maisAprendizagem de Máquina. Redes Neurais Artificiais (RNAs)
Aprendizagem de Máquina Redes Neurais Artificiais (RNAs) Plano de Aula Introdução Motivação Biológica Perceptron Superfície de Decisão Descida do Gradiente Redes Multicamadas (Multilayer) Retropropagação
Leia maisAlgoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.
CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado
Leia maisClassificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Leia maisAutor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com
Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia maisReconhecimento de Padrões/Objetos
Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)
Leia maisREDES NEURAIS ARTIFICIAIS
REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO
Leia maisInteligência Computacional
Inteligência Computacional REDES NEURAIS ARTIFICIAIS ADALINE Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Adaline Adaline = Adaptive Linear
Leia maisGT-JeDi - Curso de Desenv. de Jogos IA para Jogos
GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo
Leia maisRedes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe
Leia maisClassificadores Lineares
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Classificadores Lineares David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Funções Discriminantes Lineares Perceptron Support
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de
Leia maisVariações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa
A principal crítica ao algoritmo Back Propagation é o longo tempo de treinamento proposta de variações simples para acelerar o processo de aprendizado Taxa de Aprendizado Adaptativa Inicia-se com um valor
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer
Leia maisSCC Capítulo 7 Redes Associativas
Neurodinâmica Rede de Hopfield Memória Associativa SCC-5809 - Capítulo 7 Redes Associativas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia maisRegra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem
Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas II Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Aplicações em Telecomunicações Prof. João Marcos Meirelles da Silva, D.Sc. Professor Adjunto II do Departamento de Engenharia de Telecomunicações Universidade Federal Fluminense
Leia mais3 INTELIGÊNCIA COMPUTACIONAL (IC)
40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por
Leia maisserotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina
Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)
Leia maisParadigmas de Aprendizagem
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisFundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução
Leia maisSCC Capítulo 10 Métodos de Amostragem e Avaliação de Algoritmos
Métodos de Amostragem e Avaliação de Algoritmos SCC-630 - Capítulo 10 Métodos de Amostragem e Avaliação de Algoritmos João Luís Garcia Rosa 1 1 Departamento de Ciências de Computação Instituto de Ciências
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons
Leia maisMétodo de Newton truncado
Método de Newton truncado Marina Andretta ICMC-USP 8 de outubro de 2018 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Leia maisSUPPORT VECTOR MACHINE - SVM
SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento
Leia maisAlgoritmos de Aprendizado
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron
Leia maisResumo. Filtragem Adaptativa. Filtros adaptativos. Tarefas desempenhadas pelos filtros
Resumo Filtragem Adaptativa Luís Caldas de Oliveira lco@istutlpt Instituto Superior Técnico Sistemas de filtragem adaptativa Conceitos de filtragem adaptativa Filtro de Wiener Algoritmo steepest descent
Leia maisRedes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)
Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisAprendizado de Máquinas. Multi-Layer Perceptron (MLP)
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.
Leia maisFiltragem Adaptativa
Filtragem Adaptativa Luís Caldas de Oliveira lco@istutlpt Instituto Superior Técnico Filtragem Adaptativa p1/45 Resumo Sistemas de filtragem adaptativa Filtragem Adaptativa p2/45 Resumo Sistemas de filtragem
Leia maisSELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS
SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
Leia mais4. O algoritmo LMS e variantes
Apontamentos de Processamento Adaptativo de Sinais 4. O algoritmo LMS e variantes Família de algoritmos do gradiente Na prática usam-se estimativas do gradiente, ˆ (n), em vez do verdadeiro gradiente (n),
Leia maisSCE 5809 REDES NEURAIS
Sistemas de SCE 5809 REDES NEURAIS Profa. Roseli Ap. Francelin Romero Os diversos sistemas de possuem características particulares e comuns que permitem sua classif.: linguagem de descrição modo paradigma
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.5. Support Vector Machines 2.5. Support Vector Machines (SVM) 2.5.2.
Leia maisAprendizado de Máquina Introdução às Redes Neurais Artificiais
Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência
Leia maisFunções Discriminantes Lineares
Funções Discriminantes Lineares Revisão Cap. 2 Classificação Bayesiana: Fdp s conhecidas, w ) P e x w ) ( i p. ( i Cap. 3 Formas das fdp s conhecidas, idem No. de parâmetros. a) Máxima verossimilhança:
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas
Leia maisSCE REDES NEURAIS Redes Neurais Multi-Camadas Parte 2
SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 2 Profa. Roseli Ap. Francelin Romero 1 Teorema de Aprox. Universal Qual é o número mínimo de camadas num PMC que fornece uma aproximação para
Leia maisUniversidade Federal do Espírito Santo - UFES
Universidade Federal do Espírito Santo - UFES Centro Universitário Norte do Espírito Santo - CEUNES Departamento de Matemática Aplicada - DMA Prof. Isaac P. Santos - 2018/1 Aula: Métodos Iterativos Para
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Introdução Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade
Leia maisPerceptrons. Introdução
Perceptrons Introdução No final da década de 1950, Rosenblatt na Universidade de Cornell, criou uma genuína rede de múltiplos neurônios do tipo discriminadores lineares e chamou esta rede de perceptron.
Leia maisREDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM)
REDES AUTO-ORGANIZÁVEIS SELF-ORGANIING MAP (SOM) APRENDIZADO COMPETITIVO Os algoritmos de aprendizado não-supervisionado são geralmente baseados em uma forma de competição entre os neurônios. O método
Leia maisAPRENDIZADO EM MODELOS CONEXIONISTAS
APRENDIZADO EM MODELOS CONEXIONISAS Aprendizado é o processo pelo qual os parâmetros (os pesos das coneões entre os neurônios) de uma rede neural são austados através de uma forma continuada de estímulo
Leia maisModelagem Computacional. Parte 7 2
Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 7 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,
Leia maisPor que Redes Neurais?
Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor
Leia maisLaboratório de Simulação Matemática. Parte 7 2
Matemática - RC/UFG Laboratório de Simulação Matemática Parte 7 2 Prof. Thiago Alves de Queiroz 2/2017 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning, 2010. Thiago
Leia maisA evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:
Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons
Leia mais