Redes Neurais Artificiais
|
|
- Guilherme Borges César
- 6 Há anos
- Visualizações:
Transcrição
1 Redes Neurais Artificiais Multi Layer Perceptron Adriano Cruz Universidade Federal do Rio de Janeiro 13 de março de 2013 Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 1 / 69 Resumo Seção 1 Introdução 2 Treinamento 3 Treinamento - Teoria 4 Programando Aproximando Função Iris Clustering 5 Referências Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 2 / 69
2 Onde me achar? 1 mensagem::adriano@nce.ufrj.br 2 página:: 3 sala::nce - Sala E tel:: Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 3 / 69 Até agora? Perceptron e Adaline resolvem problemas linearmente separáveis. Funções lineares. Somente uma camada. Para problemas mais complexos. Funções não lineares. Mais de uma camada. Uma possível solução é Multi Layer Perceptron. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 4 / 69
3 MLPs RNAs de múltiplas camadas resolvem problemas não linearmente separáveis. Uma função contínua pode ser aproximada por uma rede com uma camada oculta, desde que a camada de saída seja linear e a camada oculta utilize uma função de propagação contínua, não-constante, limitada e monotonicamente crescente (Teorema da Aproximação Universal). MLPs Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 5 / 69 P Y1 P Y2 Pn0 n0 n1 nl Ynl C0 C1 CL Camada de Entrada Camadas Escondidas Camada de Saída Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 6 / 69
4 Neurônio modificado A função de ativação é substituída por uma sigmóide ou tangente hiperbólica. +1 x1 w1 x2 w2 w0 Σ net Y xn wn Correção D Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 7 / 69 Resumo Seção 1 Introdução 2 Treinamento 3 Treinamento - Teoria 4 Programando Aproximando Função Iris Clustering 5 Referências Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 8 / 69
5 Como é o treinamento? Cada ciclo (epoch) tem duas fases. Forward Da camada de entrada para a camada de saída. Apresentação das entradas e geração das saídas. Backward Da camada de saída para a camada de entrada. Atualização dos pesos. Para camadas intermediárias, estimativa do erro a partir do erro da camada seguinte. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 9 / 69 Estratégias - Período Por padrão (incremental) Os pesos são ajustados após a apresentação de cada exemplo de conjunto de entrada. É estável se a taxa de aprendizado é pequena. É rápida se o conjunto de treinamento é grande e redundante. Requer menos memória. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 10 / 69
6 Estratégias - Período Por ciclo (batch/epoch) Os pesos são ajustados após a apresentação de todos os exemplos do conjunto de entrada. Geralmente é mais estável. É lenta se o conjunto de treinamento é grande e redundante. Requer mais memória. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 11 / 69 Estratégias - Período Por bloco. Combina os métodos de ajuste por padrão e ciclo. Os pesos são ajustados após a apresentação de k exemplos do conjunto de treinamento. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 12 / 69
7 Estratégias - Critério de Parada Pelo número de ciclos de treinamento. Pára após a execução de k ciclos de treinamento. Pelo valor do erro (ou métrica usada). Pára quando o valor do erro é menor que ǫ. Pelo critério de validação. Pára quando o erro no conjunto de validação deixa de decrescer. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 13 / 69 Estratégias - Conjunto de Dados Treinamento e teste separados. Aproximadamente 70% treinamento 30% testes. Treinamento, teste e validação. Aproximadamente 50% treinamento, 30% teste e 20% validação. Treinamento e teste juntos. Poucos dados. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 14 / 69
8 Arquitetura da Rede Número de camadas escondidas da rede? uma, duas ou mais? Número elementos por camada? Maior, menor ou igual ao número de entradas. Funções de propagação? sigmóide. tangente hiperbólica linear Respostas Não existem fórmulas para responder estas questões. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 15 / 69 Sugestões Número de neurônios por camada: Média aritmética entre entradas e saídas. Médio geométrica entre entradas e saídas. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 16 / 69
9 Convergência Problemas com velocidade da convergência, mínimos locais e platôs. Taxa de aprendizado adaptativa. Momento. Algoritmos alternativos. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 17 / 69 Dificuldades e Soluções Capacidade de Aprendizagem Aumentar o número de elementos na camada escondida. Aumentar o número de camadas escondidas. Trocar/combinar diferentes funções de propagação. Rever a representação dos dados. Utilizar times de redes para resolver partes do problema e despois combinar soluções. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 18 / 69
10 Dificuldades e Soluções Perda de generalização Como evitar? Pelo critério de validação. reduzir a arquitetura da rede. adicionar ruído aos dados. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 19 / 69 Análise e Tratamento dos Dados Separação dos conjuntos de dados. Tratamento de outliers. Normalização. Redução de Dimensionalidade. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 20 / 69
11 Separação dos conjuntos Quantidade disponível Pequena Usar cross-validation Gerar dados artificiais (características estatísticas semelhantes) Boa Separar conjuntos de treinamento/teste Treinamento/teste/validação Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 21 / 69 Outliers O que são Pontos fora da curva Qual sua influência? Podem até impedir o aprendizado. Como tratar? Eliminar (pode não ser possível.) Ajustar Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 22 / 69
12 Normalização Colocar os dados em uma mesma faixa de valores. Por que? Evitar que uma dimensão se sobreponha em relação às outas. Evitar que o aprendizado possa estagnar. Como? Por dimensão do problema. Usando algum dos métodos disponíveis. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 23 / 69 Max-min Emprega os valores máximos/mínimospara normalizar linearmente os dados entre [-1,1) ou (-1,1]. novo x = x max(abs(x)) Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 24 / 69
13 Max-min Equalizado novo x = x min(x) max(x) min(x) Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 25 / 69 Z-score Os dados são normalizados com base na média e no desvio padrão dos dados. Os dados transformados ficam com média 0 e variância igual a 1. novo x = x x x Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 26 / 69
14 Sigmoidal Os dados são normalizados com base na média e no desvio padrão dos dados. Sofre pouca influência dos outliers. novo x = e x x x Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 27 / 69 Redução da dimensionalidade Reduzir o número de entradas procurando às que são correlacionadas. Por que? Reduz o custo computacional. Melhora a generalização. Métodos Principal Component Analysis (PCA). Linear Discriminant Analysys (LDA). Clusterização. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 28 / 69
15 Resumo Seção 1 Introdução 2 Treinamento 3 Treinamento - Teoria 4 Programando Aproximando Função Iris Clustering 5 Referências Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 29 / 69 Treinamento fase forward 1 As entrada são apresentadas à primeira camada da rede (Camada 0). 2 Para cada camada 0 < l L a partir da camada de entrada: 1 Os nós da camada i calculam suas saídas. 2 Saídas da camada i servem de entrada para a camada i As saídas produzidas na camada L são comparadas às saídas desejadas. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 30 / 69
16 Treinamento fase backward 1 A partir da última camada até chegar na camada de entrada: 1 Os nós da camada atual ajustam seus pesos de forma a reduzir seus erros. 2 O erro de um nó das camadas intermediárias é calculado utilizando-se os erros dos nós da camada seguinte, a ele conectados, ponderados pelos pesos das conexões entre eles. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 31 / 69 Parâmetros da Rede n l : número de neurônios da camada l (0 l L) p i : i-ésima característica da amostra de treinamento (1 i n 0 ) d i : i-ésima característica da saída desejada para a amostra de treinamento (1 i n L ) x li : i-ésima entrada da l-ésima camda (1 l L, 1 i n l 1 ) x li = y (l 1)i w lij : peso do i-ésimo neurônio da l-ésima camada em relação à j-ésima entrada (1 l L, 1 i n l, 1 j n (l 1) ) b li : bias do i-ésimo neurônio da l-ésima camada (1 l L, 1 i n l ) Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 32 / 69
17 Continuando net li : ativação do i-ésimo neurônio da l-ésima camada (1 l L, 1 i n l ) net li = b li + n (l 1) j=1 w lij x lj f l : função de propagação da l-ésima camada (1 l L) y li : saída do i-ésimo neurônio da l-ésima camada (1 l L, 1 i n l ) y li = { fl (net li ) se l > 0 p i se l = 0 h li : erro do i-ésimo neurônio da l-ésima camada (1 l L, 1 i n l ). Para a última camada, temos: h Li = d i y Li Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 33 / 69 Regra Delta generalizada Avaliação do Erro: E = 1 2 n L w lij : incremento no peso do i-ésimo neurônio da l-ésima camada em relação à j-ésima entrada (1 l L, 1 i n l, 1 j n (l 1) ): i=1 h 2 Li w lij E w lij = w lij = η E w lij w li0 : incremento na polarização do i-ésimo neurônio da l-ésima camada (1 l L, 1 i n l ) (polarização=entrada 0) : w li0 E w li0 = w li0 = η E w li0 Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 34 / 69
18 Vamos considerar L = 2 Considerando L = 2 Sabendo que: h Li = d i y Li E = E h 2i w 2ij h 2i w 2ij = E h 2i h 2i y 2i = E h 2i h 2i y 2i y 2i w 2ij y 2i net 2i net 2i w 2ij Portanto: E w 2ij = h 2i ( 1) f 2 (net 2i) x 2j Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 35 / 69 Continuando Chamando e li = h li f l (net li) de erro ajustado do i-ésimo neurônio da l-ésima camada, temos Da mesma forma E w 2ij = e 2i x 2j E b 2i = e 2i Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 36 / 69
19 E a camada intermediária E w 1ij = = = = = = n 2 k=1 n 2 k=1 n 2 k=1 n 2 k=1 n 2 k=1 n 2 k=1 E h 2k h 2k w 1ij E h 2k h 2k y 2k y 2k w 1ij E h 2k h 2k y 2k E h 2k h 2k y 2k E h 2k h 2k y 2k E h 2k h 2k y 2k y 2k net 2k net 2k w 1ij y 2k net 2k net 2k x 2i y 2k net 2k net 2k x 2i y 2k net 2k net 2k x 2i x 2i w 1ij x 2i y 1i x 2i y 1i y 1i w 1ij y 1i net 1i net 1i w 1ij Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 37 / 69 Então... E w 1ij = E w 1ij = n 2 k=1 n 2 k=1 E h 2k h 2k y 2k n 2 = 1 = 1 y 2k net 2k net 2k x 2i x 2i y 1i y 1i net 1i net 1i w 1ij h 2k ( 1) f 2 (net 2k ) w 2ki (1) f 1(net 1i ) x 1j k=1 ( n2 k=1 h 2k f 2 }{{ (net 2k) } e 2k ) e 2k w 2ki w 2ki f 1 (net 1i ) x 1j f 1 (net 1i ) x 1j Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 38 / 69
20 Finalizando... Definindo h li para l < L. h li = n l+1 k=1 e (l+1)k w (l+1)ki Temos Substituindo e 1i, E w 1ij = h 1i f 1 (net 1i ) x 1j E w 1ij = e 1i x 1j Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 39 / 69 E o bias Da mesma forma, Resumindo: E b 1i = e 1i w lij = η e li x lj b li = η e li Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 40 / 69
21 Resumo Seção 1 Introdução 2 Treinamento 3 Treinamento - Teoria 4 Programando Aproximando Função Iris Clustering 5 Referências newff Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 41 / 69 newff: cria uma rede feed-forward backpropagation. Syntaxe simplificada: net = newff(p,t,s,tf,btf,blf,pf) P: matriz de tamanho R Q1, onde Q1 é o número de elementos representativos (Patterns) e R o número de entradas. T : matriz de tamanho SNxQ2 onde Q2 é o número de elementos representativos e SN o número de saídas dos valores desejados (Target). S i : Tamanhos das N 1 camadas escondidas, S 1 até S (N 1), default = []. Tamanho da camada de saída S N é determinada a partir de T. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 42 / 69
22 newff continuando... newff: cria uma rede feed-forward backpropagation. Syntaxe simplificada: net = newff(p,t,s,tf,btf,blf,pf) TF i : Função de transferência da i-ésima camada. Default é tansig para camadas escondidas e purelin para camada de saída. BTF : Função de treinamento, default = trainlm. BLF : Função de aprendizado dos pesos/polarização, default = learngdm. PF : Cálculo do desempenho, default = mse. train Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 43 / 69 Treina o MLP para executar uma tarefa. Forma mais comum: nettreinada = train(net, P, T). net geralmente é a rede gerada por newff. nettreinada é como o nome diz. P e T são matrizes como as já definidas. Parâmetros que podem ser definidos: net.trainparam.epochs número máximo de épocas, net.trainparam.lr taxa de aprendizado, net.trainparam.goal erro máximo desejado. net.trainparam.lm momentum Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 44 / 69
23 sim Após a criação do MLP, podemos utilizá-lo usando esta função. resp = sim(net, P); forma mais simples. net é a estrutura que contém o MLP. P é uma matriz R Q1, onde Q1 o número de padrões de entrada e R o número de variáveis na entrada. resp é a saída da rede, sendo uma matriz de tamanho S Q1. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 45 / 69 Um exemplo clear close all; all; P = [ ]; T = [ ]; net = newff (P, T, 10) Y = sim(net, P ); plot (P, T, rs -, P, Y, o- ); legend ( T, Y ), xlabel ( P ); net. trainparam. epochs = 100; net = train (net, P, T); Y = sim(net, P ); figure ; plot (P, T, rs -, P, Y, o- ); legend ( T, Y ), xlabel ( P ); Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 46 / 69
24 Resultado T Y T Y P (a) Antes do treinamento P (b) Após o treinamento Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 47 / 69 As Famosas Iris (c) Iris Setosa (d) Iris Virginica (e) Iris Versicolor Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 48 / 69
25 As Famosas Iris O conjunto conhecido como Iris flower data set ou Fisher s Iris data set foi apresentado por Sir Ronald Fisher (1936) como um exemplo de análise discriminante. Também conhecido por Anderson s Iris data set porque Edgar Anderson coletou os dados para quantificar as variações morfológicas de três espécies das flores Iris. Duas das três espécies foram coletadas na península Gaspé (Canadá) sendo todas do mesmo local, coletadas no mesmo dia e medidas ao mesmo tempo, pela mesma pessoa, com os mesmos aparelhos. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 49 / 69 As Famosas Iris O conjunto consiste de 50 amostras de cada uma das três espécies da Iris (Iris setosa, Iris virginica and Iris versicolor). Quatro características foram medidas: comprimento e largura das sépalas e pétalas, em centímetros. Baseado na combinação destas quatro características, Fisher desenvolveu o modelo conhecido como o discriminante linear de Fisher para distinguir cada uma das espécies. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 50 / 69
26 Exemplo Iris function net = create_fit_net( inputs, targets) % CREATE_FIT_NET Creates and trains a fitting neural netwo % % Create Network numhiddenneurons = 20; % Adjust as desired net = newfit ( inputs, targets, numhiddenneurons ); net. divideparam. trainratio = 70/100; % Adjust as desired net. divideparam. valratio = 15/100; % Adjust as desired net. divideparam. testratio = 15/100; % Adjust as desired % Train and Apply Network [ net, tr] = train ( net, inputs, targets); outputs = sim( net, inputs ); % Plot plotperf( tr) plotfit(net, inputs, targets) plotregression( targets, outputs) Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 51 / 69 Exemplo Iris % Treina uma rede para os dados iris. dat clear all; close all; load iristrain. dat % Parte dos dados para treinament PT = iristrain(:,1:4) ; % Dados de entrada da rede para t TT = iristrain(:,5) ; % Dados de saida da rede para tre net = create_fit_net(pt, TT ); load iris. dat P = iris (:,1:4) ; T = iris (:,5) ; Y = sim(net, P ); BY = Y; BY( find (Y <1.25))= 1; BY( find (Y >=1.25 & Y < 2.25)) = 2; BY( find (Y >=2.25)) = 3; fprintf( Acertou %.2f por cento \n, * sum( BY == T) / size (T,2)); Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 52 / 69
27 O problema Quatro classes de dados (A, B, C, D). Espaço bidimensional. Criar uma RNA capaz de classificar um ponto arbitrário em uma das quatro classes. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 53 / 69 Definindo os dados % number of sample of each class K = 100; % Define 4 clusters of input data q = 0.6; % offset of classes A = [ rand (1,K) - q; rand (1,K) + q ]; B = [ rand (1,K) + q; rand (1,K) + q ]; C = [ rand (1,K) + q; rand (1,K) - q ]; D = [ rand (1,K) - q; rand (1,K) - q ]; figure (1); plot (A (1,:), A (2,:), k+ ); hold on; plot (B (1,:),B (2,:), b* ); plot (C (1,:), C (2,:), kx ); plot (D (1,:), D (2,:), bd ); text (.5 -q,.5+2*q, Class A ); text (.5+q,.5+2*q, Class B ); text (.5+q,.5-2*q, Class C ); text (.5 -q,.5-2*q, Class D ); Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 54 / 69
28 Dados para classificação Class A Class B Class D Class C Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 55 / 69 Codificação % Define output coding % coding (+1/ -1) of 4 separate classes a = [ ] ; b = [ ] ; d = [ ] ; c = [ ] ; Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 56 / 69
29 Treinamento % Prepare inputs and outputs f o r network trainig % define inputs ( combine samples from all four classes) P = [ A B C D ]; % define targets T = [ repmat (a,1, length (A)) repmat (b,1, length (B ))... repmat (c,1, length (C)) repmat (d,1, length (D )) ]; % create a neural network net = newff ( minmax (P), minmax (T), [5 3]); % train net net. divideparam. trainratio = 1; % training set % net. divideparam. valratio = 0; % validation set % net. divideparam. testratio = 0; % test set % % train [ net, tr, Y, E] = train ( net, P, T ); view ( net ); Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 57 / 69 Avaliação % Evaluate network performance and plot results [m,i] = max(t ); % Target class [m,j] = max(y ); % predicted class N = length (Y ); % number of all samples k = 0; i f find (i-j), % i f there exist misclassified samples k = length ( find(i -j )); % get the numbber of misclassi end fprintf( Correct classified samples: %.1f %% samples\n, Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 58 / 69
30 Gráficos % Plot network output figure ; subplot (211); plot (T ); title ( Targets ); ylim ([ -2 2]); grid on; subplot (212); plot (Y ); title ( Network response ); xlabel ( # sample ); ylim ([ -2 2]); grid on; Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 59 / 69 Respostas da rede 2 Targets Network response # sample Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 60 / 69
31 Gráficos % Plot classification result f o r the complete input space span = -1:0.01:2; [ P1 P2] = meshgrid( span, span ); pp = [ P1 (:) P2 (:)] ; % simulate neural network on a grid aa = sim(net, pp ); Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 61 / 69 Gráficos % plot classification regions based on MAX Activation figure(1) m=mesh(p1, P2, reshape(aa(1,:), length(span), length(span))-5); set(m, facecolor, [ ], linestyle, none ); hold on; m=mesh(p1, P2, reshape(aa(2,:), length(span), length(span))-5); set(m, facecolor, [ ], linestyle, none ); m=mesh(p1, P2, reshape(aa(3,:), length(span), length(span))-5); set(m, facecolor, [ ], linestyle, none ); m=mesh(p1, P2, reshape(aa(4,:), length(span), length(span))-5); set(m, facecolor, [ ], linestyle, none ); view(2); Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 62 / 69
32 Dados classificados Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 63 / 69 Resumo Seção 1 Introdução 2 Treinamento 3 Treinamento - Teoria 4 Programando Aproximando Função Iris Clustering 5 Referências Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 64 / 69
33 Referências I Antônio de Pádua Braga, André Ponce de Leon F. de Carvalho, and Teresa Bernarda Ludermir. Fundamentos de Redes Neurais Artificiais. NCE/UFRJ, Rio de Janeiro, Brasil, a Escola de Computação. Simon Haykin. Redes neurais : princípios e prática. Bookman, Porto Alegre, D. O. Hebb. The organization of behavior. Wiley, New York, Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 65 / 69 Referências II J. J. Hopfield. Neural networks and physical systems with emergent collective properties. In Proceedings of the National Academy of Sciences, volume 79, pages , W. S. McCulloch and W. Pitts. A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5: , M. Minsky and S. Papert. Perceptrons: an introduction to computational geometry. MIT Press, Massachusetts, Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 66 / 69
34 Referências III F. Rosenblatt. The perceptron: a probabilistic model for information storage and organization in the brain. Psychol. Review, 65: , D. E. Rumelhart, G. E. Hinton, and R. J. Williams. Learning representantions by back-propagation errors. Nature, 323: , doi: /323533a0. B. Widrow and M. E. Hoff. Adaptative switching circuits. Western Electronic Show and Convention, Institute of Radio Engineers, Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 67 / 69 Referências IV D.H. Wolpert and W.G. Macready. No free lunch theorems for optimization. IEEE Transactions on Evolutionary Computation, 1(1):67 82, april Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 68 / 69
35 The End The End Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 69 / 69
Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS Aluno: Fabricio Aparecido Breve Prof.: Dr. André Ponce
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisRedes Neurais Artificial. Prática. Inteligência Artificial
Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia maisRedes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)
Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais
Leia maisClassificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons
Leia maisRedes Neurais Artificiais (RNA)
Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação
Leia maisRedes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
Toolbox de Redes Neurais MATLAB Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Toolbox de Redes Neurais Introdução ao Matlab Linha de comando NNTool Estudo de Casos Análise de Crédito Bancário (Classificação).
Leia maisInteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Leia maisGT-JeDi - Curso de Desenv. de Jogos IA para Jogos
GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Leia maisAmbiente MATLAB. Redes Neurais. Tela Principal do MATLAB MATLAB 6.5. MATLAB MATrix LABoratory. Programação baseada em Matrizes
Redes Neurais MATLAB 6.5 Ambiente MATLAB MATLAB MATrix LABoratory Programação baseada em Matrizes Vetores e escalares também podem ser considerados matrizes, xn, Nx, x Tela Principal do MATLAB Tela Principal
Leia maisAprendizado de Máquinas. Multi-Layer Perceptron (MLP)
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron
Leia maisRedes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
Leia maisO uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.
O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. Resumo: Lucas da Silva Assis Universidade Federal de Goiás lucasilvassis@gmail.com Esse trabalho apresenta
Leia maisTÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisINTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Multi-layer Perceptrons e Backpropagation Marcílio Souto DIMAp/UFRN Redes de várias camadas MLP - Multi-Layer Perceptron (Adaline?!) Backpropagation network Superar as limitações
Leia maisREDES NEURAIS. Marley Maria B.R. Vellasco. ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada CONTEÚDO
REDES NEURAIS Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos
Leia maisserotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina
Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)
Leia maisJoão Paulo Teixeira Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança
joaopt@ipb.pt www.ipb.pt/~joaopt Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança Evolução das RNA Tipos de Redes Perceptrão Rede Linear Redes Recorrentes Redes Radiais Redes Feed-Forward
Leia maisFundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução
Leia maisMini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE
Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede
Leia maisSCC Capítulo 4 Perceptron de Camada Única
Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron
Leia maisRedes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
Leia maisMultiple Layer Perceptron
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Multiple Layer Perceptron David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Multiple Layer Perceptron (MLP) Backpropagation
Leia maisRedes Neurais MLP: Exemplos e Características
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1
Leia maisSistemas Inteligentes - Redes Neurais -
Sistemas Inteligentes - Redes Neurais - Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer
Leia maisJAI 6 - Deep Learning Teoria e Prática
JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado
Leia maisRedes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Leia maisPrevisão de consumos a curto prazo
Previsão de consumos a curto prazo Cláudio Monteiro Distribuição de Energia II 5º ano da LEEC - ramo de Energia (FEUP) O que são? são técnicas computacionais que apresentam um modelo matemático inspirado
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
Redes Neurais Artificiais MATLAB Prof. Dr. André A. P. Biscaro 2º Semestre de 2018 EXEMPLOS 1 - Aproximação de Base Radial; 2 - Base Radial Sobrepondo Neurônios; 3 - Neurônios Sobrepostos à Base Radial;
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia maisREDES NEURAIS ARTIFICIAIS
REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
Leia maisMineração de Dados em Biologia Molecular
Mineração Dados em Biologia Molecular Principais tópicos André C. P. L. F. Carvalho Monitor: Valéria Carvalho Res Neurais Artificiais Introdução Arquitetura Aprendizado Principais molos Perceptron MLP
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Neurônio Natural Dendritos: recebe os estímulos transmitidos por outros neurônios Soma Sinapse Axônio Soma: coleta e combina informações vindas de outros neurônios Sinapse Dendrito
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
Leia maisPERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado
PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma
Leia mais4 Redes Neurais Artificiais RNAs
66 4 Redes Neurais Artificiais RNAs Redes neurais artificial (RNA) são algoritmos que se baseiam no comportamento do cérebro humano. Dessa forma, imita a estrutura massivamente paralela do cérebro, com
Leia maisPrimeiras Redes Neurais Artificiais: Perceptron e Adaline
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor
Leia maisPor que Redes Neurais?
Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor
Leia maisRedes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005
Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005 1.3. Alguns aspectos históricos 1.4. Principais Conceitos 1.4.1. Definições 1.4.2. Alguns tipos de Arquitetura Revisão da Aula-1 x 1 1
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia maisRedes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas
Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs
Leia maisRedes Neurais Artificiais
Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Inteligência Artificial
Leia mais3 INTELIGÊNCIA COMPUTACIONAL (IC)
40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por
Leia maisReconhecimento de Padrões/Objetos
Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support
Leia maisMotivação, Objetivo, Definição, Características Básicas e Histórico. Neurônio Artificial, Modos de Interconexão
REDES NEURAIS Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos
Leia maisAprendizado de Máquina Introdução às Redes Neurais Artificiais
Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência
Leia maisIntrodução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana
Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)
Leia maisRedes Neurais Artificial
Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado
Leia maisAlgoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.
CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado
Leia maisRedes Neurais no MATLAB 6.1
Redes Neurais no MATLAB 6.1 Redes Neurais no MATLAB Duas formas de utilização: Linhas de comando, e m-files Interface gráfica (NNTool) 1 Redes Neurais no MATLAB Duas formas de utilização: Linhas de comando,,
Leia maisRedes Neurais Artificiais
Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais
Leia maisRedes neurais artificiais
Redes neurais artificiais Conceitos em redes neuronais Redes neuronais artificiais (RNA): uma metáfora cerebral para processamento de informações Computação neuronal Muitos usos de RNA para Reconhecimento
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Leia maisRedes Neurais Artificiais
Universidade Federal do Espírito Santo CCENS UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais
Leia maislnteligência Artificial Introdução a Redes Neurais Artificiais
lnteligência Artificial Introdução a Redes Neurais Artificiais Objetivos Descrever as características básicas das Redes Neurais Artificiais (RNAs). Descrever o funcionamento de uma RNA. Descrever algumas
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Introdução Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade
Leia maisRedes Neurais Artificiais. Prof. João Alberto Fabro
Redes Neurais Artificiais Prof. João Alberto Fabro Redes Neurais Artificiais Conceitos Básicos Histórico Evolução O lugar das Redes Neurais dentro da IA Características Aplicações Redes Neurais Multicamadas
Leia maisUM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA
UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural
Leia maisPredição genômica de caracteres quantitativos por meio de Redes Neurais Artificias
Universidade Federal de Viçosa Predição genômica de caracteres quantitativos por meio de Redes Neurais Artificias Isabela de Castro Sant Anna Supervisor: Moysés Nascimento Laboratório de Inteligência Computacional
Leia maisRedes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas
Redes Neurais Pulsadas João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Introdução Modelos de redes neurais podem ser classificados em gerações. Primeira Geração Neurônios de McCulloch-Pitts
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que
Leia mais3 REDES CLÁSSICAS PERCEPTRON E ADALINE
w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados
Leia maisAplicações da RMC. Avaliação de Algoritmos. Tratamento nos dados 27/8/2010. Roseli A F Romero SCC 5809 REDES NEURAIS
SCC 5809 REDES NEURAIS Profa. ROSELI ROMERO Aplicações da RMC Reconhecimento de Imagens: FACES/GESTOS Reconhecimento de Voz Transformação de Texto em Voz Previsão de Bolsa de Valores Análise de Dados Financeiros
Leia maisEcho State Networks. Fabricio Breve João Bertini
Echo State Networks Fabricio Breve João Bertini RNN Tarefas Filtragem e predição Classificação de Padrões Modelagem de Seqüências Estocásticas Memória Associativa Compressão de Dados RNN Aplicações Telecomunicações
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Leia maisIntrodução a Redes Neurais Artificiais com a biblioteca Encog em Java
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -
Leia mais3 Redes Neurais Introdução
3 Redes Neurais 3.. Introdução As redes neurais artificiais, ou comumente conhecidas como Neural Networs, foram motivadas em princípio pela extraordinária capacidade do cérebro humano para executar tarefas
Leia maisIntrodução. O cérebro humano. O sistema nervoso biológico é formado por um conjunto extremamente
Introdução A Inteligência Computacional busca, através de técnicas inspiradas na Natureza, o desenvolvimento de sistemas inteligentes que imitem aspectos do comportamento humano, tais como: aprendizado,
Leia maisHP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
Leia maisBiologically Inspired Compu4ng: Neural Computa4on. Lecture 2. Patricia A. Vargas
Biologically Inspired Compu4ng: Neural Computa4on Lecture 2 Patricia A. Vargas Lecture 2 I. Lecture 1 Revision II. Ar4ficial Neural Networks (Part I) I. Ar4ficial Neuron II. Neural Network Architectures
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
Leia maisConsiderações de Desempenho
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem
Leia maisBiologically Inspired Compu4ng: Neural Computa4on. Lecture 2. Patricia A. Vargas
Biologically Inspired Compu4ng: Neural Computa4on Lecture 2 Patricia A. Vargas Lecture 2 I. Lecture 1 Revision II. (Part I) I. Ar4ficial Neuron II. Neural Network Architectures III. Learning Paradigms
Leia maisUNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais
UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace
Leia maisInteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida
Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
Leia maisBack Propagation. Dicas para o BP
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem
Leia maisSELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS
SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas
Leia mais4 Redes Neurais Artificiais
4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas
Leia maisTeorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.
SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,
Leia mais