Redes Neurais Artificiais

Tamanho: px
Começar a partir da página:

Download "Redes Neurais Artificiais"

Transcrição

1 Redes Neurais Artificiais Multi Layer Perceptron Adriano Cruz Universidade Federal do Rio de Janeiro 13 de março de 2013 Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 1 / 69 Resumo Seção 1 Introdução 2 Treinamento 3 Treinamento - Teoria 4 Programando Aproximando Função Iris Clustering 5 Referências Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 2 / 69

2 Onde me achar? 1 mensagem::adriano@nce.ufrj.br 2 página:: 3 sala::nce - Sala E tel:: Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 3 / 69 Até agora? Perceptron e Adaline resolvem problemas linearmente separáveis. Funções lineares. Somente uma camada. Para problemas mais complexos. Funções não lineares. Mais de uma camada. Uma possível solução é Multi Layer Perceptron. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 4 / 69

3 MLPs RNAs de múltiplas camadas resolvem problemas não linearmente separáveis. Uma função contínua pode ser aproximada por uma rede com uma camada oculta, desde que a camada de saída seja linear e a camada oculta utilize uma função de propagação contínua, não-constante, limitada e monotonicamente crescente (Teorema da Aproximação Universal). MLPs Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 5 / 69 P Y1 P Y2 Pn0 n0 n1 nl Ynl C0 C1 CL Camada de Entrada Camadas Escondidas Camada de Saída Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 6 / 69

4 Neurônio modificado A função de ativação é substituída por uma sigmóide ou tangente hiperbólica. +1 x1 w1 x2 w2 w0 Σ net Y xn wn Correção D Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 7 / 69 Resumo Seção 1 Introdução 2 Treinamento 3 Treinamento - Teoria 4 Programando Aproximando Função Iris Clustering 5 Referências Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 8 / 69

5 Como é o treinamento? Cada ciclo (epoch) tem duas fases. Forward Da camada de entrada para a camada de saída. Apresentação das entradas e geração das saídas. Backward Da camada de saída para a camada de entrada. Atualização dos pesos. Para camadas intermediárias, estimativa do erro a partir do erro da camada seguinte. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 9 / 69 Estratégias - Período Por padrão (incremental) Os pesos são ajustados após a apresentação de cada exemplo de conjunto de entrada. É estável se a taxa de aprendizado é pequena. É rápida se o conjunto de treinamento é grande e redundante. Requer menos memória. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 10 / 69

6 Estratégias - Período Por ciclo (batch/epoch) Os pesos são ajustados após a apresentação de todos os exemplos do conjunto de entrada. Geralmente é mais estável. É lenta se o conjunto de treinamento é grande e redundante. Requer mais memória. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 11 / 69 Estratégias - Período Por bloco. Combina os métodos de ajuste por padrão e ciclo. Os pesos são ajustados após a apresentação de k exemplos do conjunto de treinamento. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 12 / 69

7 Estratégias - Critério de Parada Pelo número de ciclos de treinamento. Pára após a execução de k ciclos de treinamento. Pelo valor do erro (ou métrica usada). Pára quando o valor do erro é menor que ǫ. Pelo critério de validação. Pára quando o erro no conjunto de validação deixa de decrescer. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 13 / 69 Estratégias - Conjunto de Dados Treinamento e teste separados. Aproximadamente 70% treinamento 30% testes. Treinamento, teste e validação. Aproximadamente 50% treinamento, 30% teste e 20% validação. Treinamento e teste juntos. Poucos dados. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 14 / 69

8 Arquitetura da Rede Número de camadas escondidas da rede? uma, duas ou mais? Número elementos por camada? Maior, menor ou igual ao número de entradas. Funções de propagação? sigmóide. tangente hiperbólica linear Respostas Não existem fórmulas para responder estas questões. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 15 / 69 Sugestões Número de neurônios por camada: Média aritmética entre entradas e saídas. Médio geométrica entre entradas e saídas. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 16 / 69

9 Convergência Problemas com velocidade da convergência, mínimos locais e platôs. Taxa de aprendizado adaptativa. Momento. Algoritmos alternativos. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 17 / 69 Dificuldades e Soluções Capacidade de Aprendizagem Aumentar o número de elementos na camada escondida. Aumentar o número de camadas escondidas. Trocar/combinar diferentes funções de propagação. Rever a representação dos dados. Utilizar times de redes para resolver partes do problema e despois combinar soluções. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 18 / 69

10 Dificuldades e Soluções Perda de generalização Como evitar? Pelo critério de validação. reduzir a arquitetura da rede. adicionar ruído aos dados. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 19 / 69 Análise e Tratamento dos Dados Separação dos conjuntos de dados. Tratamento de outliers. Normalização. Redução de Dimensionalidade. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 20 / 69

11 Separação dos conjuntos Quantidade disponível Pequena Usar cross-validation Gerar dados artificiais (características estatísticas semelhantes) Boa Separar conjuntos de treinamento/teste Treinamento/teste/validação Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 21 / 69 Outliers O que são Pontos fora da curva Qual sua influência? Podem até impedir o aprendizado. Como tratar? Eliminar (pode não ser possível.) Ajustar Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 22 / 69

12 Normalização Colocar os dados em uma mesma faixa de valores. Por que? Evitar que uma dimensão se sobreponha em relação às outas. Evitar que o aprendizado possa estagnar. Como? Por dimensão do problema. Usando algum dos métodos disponíveis. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 23 / 69 Max-min Emprega os valores máximos/mínimospara normalizar linearmente os dados entre [-1,1) ou (-1,1]. novo x = x max(abs(x)) Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 24 / 69

13 Max-min Equalizado novo x = x min(x) max(x) min(x) Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 25 / 69 Z-score Os dados são normalizados com base na média e no desvio padrão dos dados. Os dados transformados ficam com média 0 e variância igual a 1. novo x = x x x Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 26 / 69

14 Sigmoidal Os dados são normalizados com base na média e no desvio padrão dos dados. Sofre pouca influência dos outliers. novo x = e x x x Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 27 / 69 Redução da dimensionalidade Reduzir o número de entradas procurando às que são correlacionadas. Por que? Reduz o custo computacional. Melhora a generalização. Métodos Principal Component Analysis (PCA). Linear Discriminant Analysys (LDA). Clusterização. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 28 / 69

15 Resumo Seção 1 Introdução 2 Treinamento 3 Treinamento - Teoria 4 Programando Aproximando Função Iris Clustering 5 Referências Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 29 / 69 Treinamento fase forward 1 As entrada são apresentadas à primeira camada da rede (Camada 0). 2 Para cada camada 0 < l L a partir da camada de entrada: 1 Os nós da camada i calculam suas saídas. 2 Saídas da camada i servem de entrada para a camada i As saídas produzidas na camada L são comparadas às saídas desejadas. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 30 / 69

16 Treinamento fase backward 1 A partir da última camada até chegar na camada de entrada: 1 Os nós da camada atual ajustam seus pesos de forma a reduzir seus erros. 2 O erro de um nó das camadas intermediárias é calculado utilizando-se os erros dos nós da camada seguinte, a ele conectados, ponderados pelos pesos das conexões entre eles. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 31 / 69 Parâmetros da Rede n l : número de neurônios da camada l (0 l L) p i : i-ésima característica da amostra de treinamento (1 i n 0 ) d i : i-ésima característica da saída desejada para a amostra de treinamento (1 i n L ) x li : i-ésima entrada da l-ésima camda (1 l L, 1 i n l 1 ) x li = y (l 1)i w lij : peso do i-ésimo neurônio da l-ésima camada em relação à j-ésima entrada (1 l L, 1 i n l, 1 j n (l 1) ) b li : bias do i-ésimo neurônio da l-ésima camada (1 l L, 1 i n l ) Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 32 / 69

17 Continuando net li : ativação do i-ésimo neurônio da l-ésima camada (1 l L, 1 i n l ) net li = b li + n (l 1) j=1 w lij x lj f l : função de propagação da l-ésima camada (1 l L) y li : saída do i-ésimo neurônio da l-ésima camada (1 l L, 1 i n l ) y li = { fl (net li ) se l > 0 p i se l = 0 h li : erro do i-ésimo neurônio da l-ésima camada (1 l L, 1 i n l ). Para a última camada, temos: h Li = d i y Li Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 33 / 69 Regra Delta generalizada Avaliação do Erro: E = 1 2 n L w lij : incremento no peso do i-ésimo neurônio da l-ésima camada em relação à j-ésima entrada (1 l L, 1 i n l, 1 j n (l 1) ): i=1 h 2 Li w lij E w lij = w lij = η E w lij w li0 : incremento na polarização do i-ésimo neurônio da l-ésima camada (1 l L, 1 i n l ) (polarização=entrada 0) : w li0 E w li0 = w li0 = η E w li0 Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 34 / 69

18 Vamos considerar L = 2 Considerando L = 2 Sabendo que: h Li = d i y Li E = E h 2i w 2ij h 2i w 2ij = E h 2i h 2i y 2i = E h 2i h 2i y 2i y 2i w 2ij y 2i net 2i net 2i w 2ij Portanto: E w 2ij = h 2i ( 1) f 2 (net 2i) x 2j Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 35 / 69 Continuando Chamando e li = h li f l (net li) de erro ajustado do i-ésimo neurônio da l-ésima camada, temos Da mesma forma E w 2ij = e 2i x 2j E b 2i = e 2i Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 36 / 69

19 E a camada intermediária E w 1ij = = = = = = n 2 k=1 n 2 k=1 n 2 k=1 n 2 k=1 n 2 k=1 n 2 k=1 E h 2k h 2k w 1ij E h 2k h 2k y 2k y 2k w 1ij E h 2k h 2k y 2k E h 2k h 2k y 2k E h 2k h 2k y 2k E h 2k h 2k y 2k y 2k net 2k net 2k w 1ij y 2k net 2k net 2k x 2i y 2k net 2k net 2k x 2i y 2k net 2k net 2k x 2i x 2i w 1ij x 2i y 1i x 2i y 1i y 1i w 1ij y 1i net 1i net 1i w 1ij Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 37 / 69 Então... E w 1ij = E w 1ij = n 2 k=1 n 2 k=1 E h 2k h 2k y 2k n 2 = 1 = 1 y 2k net 2k net 2k x 2i x 2i y 1i y 1i net 1i net 1i w 1ij h 2k ( 1) f 2 (net 2k ) w 2ki (1) f 1(net 1i ) x 1j k=1 ( n2 k=1 h 2k f 2 }{{ (net 2k) } e 2k ) e 2k w 2ki w 2ki f 1 (net 1i ) x 1j f 1 (net 1i ) x 1j Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 38 / 69

20 Finalizando... Definindo h li para l < L. h li = n l+1 k=1 e (l+1)k w (l+1)ki Temos Substituindo e 1i, E w 1ij = h 1i f 1 (net 1i ) x 1j E w 1ij = e 1i x 1j Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 39 / 69 E o bias Da mesma forma, Resumindo: E b 1i = e 1i w lij = η e li x lj b li = η e li Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 40 / 69

21 Resumo Seção 1 Introdução 2 Treinamento 3 Treinamento - Teoria 4 Programando Aproximando Função Iris Clustering 5 Referências newff Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 41 / 69 newff: cria uma rede feed-forward backpropagation. Syntaxe simplificada: net = newff(p,t,s,tf,btf,blf,pf) P: matriz de tamanho R Q1, onde Q1 é o número de elementos representativos (Patterns) e R o número de entradas. T : matriz de tamanho SNxQ2 onde Q2 é o número de elementos representativos e SN o número de saídas dos valores desejados (Target). S i : Tamanhos das N 1 camadas escondidas, S 1 até S (N 1), default = []. Tamanho da camada de saída S N é determinada a partir de T. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 42 / 69

22 newff continuando... newff: cria uma rede feed-forward backpropagation. Syntaxe simplificada: net = newff(p,t,s,tf,btf,blf,pf) TF i : Função de transferência da i-ésima camada. Default é tansig para camadas escondidas e purelin para camada de saída. BTF : Função de treinamento, default = trainlm. BLF : Função de aprendizado dos pesos/polarização, default = learngdm. PF : Cálculo do desempenho, default = mse. train Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 43 / 69 Treina o MLP para executar uma tarefa. Forma mais comum: nettreinada = train(net, P, T). net geralmente é a rede gerada por newff. nettreinada é como o nome diz. P e T são matrizes como as já definidas. Parâmetros que podem ser definidos: net.trainparam.epochs número máximo de épocas, net.trainparam.lr taxa de aprendizado, net.trainparam.goal erro máximo desejado. net.trainparam.lm momentum Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 44 / 69

23 sim Após a criação do MLP, podemos utilizá-lo usando esta função. resp = sim(net, P); forma mais simples. net é a estrutura que contém o MLP. P é uma matriz R Q1, onde Q1 o número de padrões de entrada e R o número de variáveis na entrada. resp é a saída da rede, sendo uma matriz de tamanho S Q1. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 45 / 69 Um exemplo clear close all; all; P = [ ]; T = [ ]; net = newff (P, T, 10) Y = sim(net, P ); plot (P, T, rs -, P, Y, o- ); legend ( T, Y ), xlabel ( P ); net. trainparam. epochs = 100; net = train (net, P, T); Y = sim(net, P ); figure ; plot (P, T, rs -, P, Y, o- ); legend ( T, Y ), xlabel ( P ); Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 46 / 69

24 Resultado T Y T Y P (a) Antes do treinamento P (b) Após o treinamento Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 47 / 69 As Famosas Iris (c) Iris Setosa (d) Iris Virginica (e) Iris Versicolor Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 48 / 69

25 As Famosas Iris O conjunto conhecido como Iris flower data set ou Fisher s Iris data set foi apresentado por Sir Ronald Fisher (1936) como um exemplo de análise discriminante. Também conhecido por Anderson s Iris data set porque Edgar Anderson coletou os dados para quantificar as variações morfológicas de três espécies das flores Iris. Duas das três espécies foram coletadas na península Gaspé (Canadá) sendo todas do mesmo local, coletadas no mesmo dia e medidas ao mesmo tempo, pela mesma pessoa, com os mesmos aparelhos. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 49 / 69 As Famosas Iris O conjunto consiste de 50 amostras de cada uma das três espécies da Iris (Iris setosa, Iris virginica and Iris versicolor). Quatro características foram medidas: comprimento e largura das sépalas e pétalas, em centímetros. Baseado na combinação destas quatro características, Fisher desenvolveu o modelo conhecido como o discriminante linear de Fisher para distinguir cada uma das espécies. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 50 / 69

26 Exemplo Iris function net = create_fit_net( inputs, targets) % CREATE_FIT_NET Creates and trains a fitting neural netwo % % Create Network numhiddenneurons = 20; % Adjust as desired net = newfit ( inputs, targets, numhiddenneurons ); net. divideparam. trainratio = 70/100; % Adjust as desired net. divideparam. valratio = 15/100; % Adjust as desired net. divideparam. testratio = 15/100; % Adjust as desired % Train and Apply Network [ net, tr] = train ( net, inputs, targets); outputs = sim( net, inputs ); % Plot plotperf( tr) plotfit(net, inputs, targets) plotregression( targets, outputs) Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 51 / 69 Exemplo Iris % Treina uma rede para os dados iris. dat clear all; close all; load iristrain. dat % Parte dos dados para treinament PT = iristrain(:,1:4) ; % Dados de entrada da rede para t TT = iristrain(:,5) ; % Dados de saida da rede para tre net = create_fit_net(pt, TT ); load iris. dat P = iris (:,1:4) ; T = iris (:,5) ; Y = sim(net, P ); BY = Y; BY( find (Y <1.25))= 1; BY( find (Y >=1.25 & Y < 2.25)) = 2; BY( find (Y >=2.25)) = 3; fprintf( Acertou %.2f por cento \n, * sum( BY == T) / size (T,2)); Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 52 / 69

27 O problema Quatro classes de dados (A, B, C, D). Espaço bidimensional. Criar uma RNA capaz de classificar um ponto arbitrário em uma das quatro classes. Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 53 / 69 Definindo os dados % number of sample of each class K = 100; % Define 4 clusters of input data q = 0.6; % offset of classes A = [ rand (1,K) - q; rand (1,K) + q ]; B = [ rand (1,K) + q; rand (1,K) + q ]; C = [ rand (1,K) + q; rand (1,K) - q ]; D = [ rand (1,K) - q; rand (1,K) - q ]; figure (1); plot (A (1,:), A (2,:), k+ ); hold on; plot (B (1,:),B (2,:), b* ); plot (C (1,:), C (2,:), kx ); plot (D (1,:), D (2,:), bd ); text (.5 -q,.5+2*q, Class A ); text (.5+q,.5+2*q, Class B ); text (.5+q,.5-2*q, Class C ); text (.5 -q,.5-2*q, Class D ); Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 54 / 69

28 Dados para classificação Class A Class B Class D Class C Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 55 / 69 Codificação % Define output coding % coding (+1/ -1) of 4 separate classes a = [ ] ; b = [ ] ; d = [ ] ; c = [ ] ; Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 56 / 69

29 Treinamento % Prepare inputs and outputs f o r network trainig % define inputs ( combine samples from all four classes) P = [ A B C D ]; % define targets T = [ repmat (a,1, length (A)) repmat (b,1, length (B ))... repmat (c,1, length (C)) repmat (d,1, length (D )) ]; % create a neural network net = newff ( minmax (P), minmax (T), [5 3]); % train net net. divideparam. trainratio = 1; % training set % net. divideparam. valratio = 0; % validation set % net. divideparam. testratio = 0; % test set % % train [ net, tr, Y, E] = train ( net, P, T ); view ( net ); Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 57 / 69 Avaliação % Evaluate network performance and plot results [m,i] = max(t ); % Target class [m,j] = max(y ); % predicted class N = length (Y ); % number of all samples k = 0; i f find (i-j), % i f there exist misclassified samples k = length ( find(i -j )); % get the numbber of misclassi end fprintf( Correct classified samples: %.1f %% samples\n, Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 58 / 69

30 Gráficos % Plot network output figure ; subplot (211); plot (T ); title ( Targets ); ylim ([ -2 2]); grid on; subplot (212); plot (Y ); title ( Network response ); xlabel ( # sample ); ylim ([ -2 2]); grid on; Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 59 / 69 Respostas da rede 2 Targets Network response # sample Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 60 / 69

31 Gráficos % Plot classification result f o r the complete input space span = -1:0.01:2; [ P1 P2] = meshgrid( span, span ); pp = [ P1 (:) P2 (:)] ; % simulate neural network on a grid aa = sim(net, pp ); Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 61 / 69 Gráficos % plot classification regions based on MAX Activation figure(1) m=mesh(p1, P2, reshape(aa(1,:), length(span), length(span))-5); set(m, facecolor, [ ], linestyle, none ); hold on; m=mesh(p1, P2, reshape(aa(2,:), length(span), length(span))-5); set(m, facecolor, [ ], linestyle, none ); m=mesh(p1, P2, reshape(aa(3,:), length(span), length(span))-5); set(m, facecolor, [ ], linestyle, none ); m=mesh(p1, P2, reshape(aa(4,:), length(span), length(span))-5); set(m, facecolor, [ ], linestyle, none ); view(2); Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 62 / 69

32 Dados classificados Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 63 / 69 Resumo Seção 1 Introdução 2 Treinamento 3 Treinamento - Teoria 4 Programando Aproximando Função Iris Clustering 5 Referências Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 64 / 69

33 Referências I Antônio de Pádua Braga, André Ponce de Leon F. de Carvalho, and Teresa Bernarda Ludermir. Fundamentos de Redes Neurais Artificiais. NCE/UFRJ, Rio de Janeiro, Brasil, a Escola de Computação. Simon Haykin. Redes neurais : princípios e prática. Bookman, Porto Alegre, D. O. Hebb. The organization of behavior. Wiley, New York, Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 65 / 69 Referências II J. J. Hopfield. Neural networks and physical systems with emergent collective properties. In Proceedings of the National Academy of Sciences, volume 79, pages , W. S. McCulloch and W. Pitts. A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5: , M. Minsky and S. Papert. Perceptrons: an introduction to computational geometry. MIT Press, Massachusetts, Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 66 / 69

34 Referências III F. Rosenblatt. The perceptron: a probabilistic model for information storage and organization in the brain. Psychol. Review, 65: , D. E. Rumelhart, G. E. Hinton, and R. J. Williams. Learning representantions by back-propagation errors. Nature, 323: , doi: /323533a0. B. Widrow and M. E. Hoff. Adaptative switching circuits. Western Electronic Show and Convention, Institute of Radio Engineers, Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 67 / 69 Referências IV D.H. Wolpert and W.G. Macready. No free lunch theorems for optimization. IEEE Transactions on Evolutionary Computation, 1(1):67 82, april Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 68 / 69

35 The End The End Adriano Cruz (UFRJ) MLP - RNA 2013/03/13 69 / 69

Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS

Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS Aluno: Fabricio Aparecido Breve Prof.: Dr. André Ponce

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Redes Neurais Artificiais (RNA)

Redes Neurais Artificiais (RNA) Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica Toolbox de Redes Neurais MATLAB Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Toolbox de Redes Neurais Introdução ao Matlab Linha de comando NNTool Estudo de Casos Análise de Crédito Bancário (Classificação).

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Ambiente MATLAB. Redes Neurais. Tela Principal do MATLAB MATLAB 6.5. MATLAB MATrix LABoratory. Programação baseada em Matrizes

Ambiente MATLAB. Redes Neurais. Tela Principal do MATLAB MATLAB 6.5. MATLAB MATrix LABoratory. Programação baseada em Matrizes Redes Neurais MATLAB 6.5 Ambiente MATLAB MATLAB MATrix LABoratory Programação baseada em Matrizes Vetores e escalares também podem ser considerados matrizes, xn, Nx, x Tela Principal do MATLAB Tela Principal

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. Resumo: Lucas da Silva Assis Universidade Federal de Goiás lucasilvassis@gmail.com Esse trabalho apresenta

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Multi-layer Perceptrons e Backpropagation Marcílio Souto DIMAp/UFRN Redes de várias camadas MLP - Multi-Layer Perceptron (Adaline?!) Backpropagation network Superar as limitações

Leia mais

REDES NEURAIS. Marley Maria B.R. Vellasco. ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada CONTEÚDO

REDES NEURAIS. Marley Maria B.R. Vellasco. ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada CONTEÚDO REDES NEURAIS Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

João Paulo Teixeira Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança

João Paulo Teixeira  Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança joaopt@ipb.pt www.ipb.pt/~joaopt Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança Evolução das RNA Tipos de Redes Perceptrão Rede Linear Redes Recorrentes Redes Radiais Redes Feed-Forward

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede

Leia mais

SCC Capítulo 4 Perceptron de Camada Única

SCC Capítulo 4 Perceptron de Camada Única Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

Multiple Layer Perceptron

Multiple Layer Perceptron Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Multiple Layer Perceptron David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Multiple Layer Perceptron (MLP) Backpropagation

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

Sistemas Inteligentes - Redes Neurais -

Sistemas Inteligentes - Redes Neurais - Sistemas Inteligentes - Redes Neurais - Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

Previsão de consumos a curto prazo

Previsão de consumos a curto prazo Previsão de consumos a curto prazo Cláudio Monteiro Distribuição de Energia II 5º ano da LEEC - ramo de Energia (FEUP) O que são? são técnicas computacionais que apresentam um modelo matemático inspirado

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica Redes Neurais Artificiais MATLAB Prof. Dr. André A. P. Biscaro 2º Semestre de 2018 EXEMPLOS 1 - Aproximação de Base Radial; 2 - Base Radial Sobrepondo Neurônios; 3 - Neurônios Sobrepostos à Base Radial;

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

Mineração de Dados em Biologia Molecular

Mineração de Dados em Biologia Molecular Mineração Dados em Biologia Molecular Principais tópicos André C. P. L. F. Carvalho Monitor: Valéria Carvalho Res Neurais Artificiais Introdução Arquitetura Aprendizado Principais molos Perceptron MLP

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Neurônio Natural Dendritos: recebe os estímulos transmitidos por outros neurônios Soma Sinapse Axônio Soma: coleta e combina informações vindas de outros neurônios Sinapse Dendrito

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

4 Redes Neurais Artificiais RNAs

4 Redes Neurais Artificiais RNAs 66 4 Redes Neurais Artificiais RNAs Redes neurais artificial (RNA) são algoritmos que se baseiam no comportamento do cérebro humano. Dessa forma, imita a estrutura massivamente paralela do cérebro, com

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

Por que Redes Neurais?

Por que Redes Neurais? Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor

Leia mais

Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005

Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005 Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005 1.3. Alguns aspectos históricos 1.4. Principais Conceitos 1.4.1. Definições 1.4.2. Alguns tipos de Arquitetura Revisão da Aula-1 x 1 1

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Inteligência Artificial

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

Motivação, Objetivo, Definição, Características Básicas e Histórico. Neurônio Artificial, Modos de Interconexão

Motivação, Objetivo, Definição, Características Básicas e Histórico. Neurônio Artificial, Modos de Interconexão REDES NEURAIS Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos

Leia mais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

Redes Neurais no MATLAB 6.1

Redes Neurais no MATLAB 6.1 Redes Neurais no MATLAB 6.1 Redes Neurais no MATLAB Duas formas de utilização: Linhas de comando, e m-files Interface gráfica (NNTool) 1 Redes Neurais no MATLAB Duas formas de utilização: Linhas de comando,,

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais

Leia mais

Redes neurais artificiais

Redes neurais artificiais Redes neurais artificiais Conceitos em redes neuronais Redes neuronais artificiais (RNA): uma metáfora cerebral para processamento de informações Computação neuronal Muitos usos de RNA para Reconhecimento

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCENS UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais

Leia mais

lnteligência Artificial Introdução a Redes Neurais Artificiais

lnteligência Artificial Introdução a Redes Neurais Artificiais lnteligência Artificial Introdução a Redes Neurais Artificiais Objetivos Descrever as características básicas das Redes Neurais Artificiais (RNAs). Descrever o funcionamento de uma RNA. Descrever algumas

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Introdução Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade

Leia mais

Redes Neurais Artificiais. Prof. João Alberto Fabro

Redes Neurais Artificiais. Prof. João Alberto Fabro Redes Neurais Artificiais Prof. João Alberto Fabro Redes Neurais Artificiais Conceitos Básicos Histórico Evolução O lugar das Redes Neurais dentro da IA Características Aplicações Redes Neurais Multicamadas

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

Predição genômica de caracteres quantitativos por meio de Redes Neurais Artificias

Predição genômica de caracteres quantitativos por meio de Redes Neurais Artificias Universidade Federal de Viçosa Predição genômica de caracteres quantitativos por meio de Redes Neurais Artificias Isabela de Castro Sant Anna Supervisor: Moysés Nascimento Laboratório de Inteligência Computacional

Leia mais

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Redes Neurais Pulsadas João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Introdução Modelos de redes neurais podem ser classificados em gerações. Primeira Geração Neurônios de McCulloch-Pitts

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

Aplicações da RMC. Avaliação de Algoritmos. Tratamento nos dados 27/8/2010. Roseli A F Romero SCC 5809 REDES NEURAIS

Aplicações da RMC. Avaliação de Algoritmos. Tratamento nos dados 27/8/2010. Roseli A F Romero SCC 5809 REDES NEURAIS SCC 5809 REDES NEURAIS Profa. ROSELI ROMERO Aplicações da RMC Reconhecimento de Imagens: FACES/GESTOS Reconhecimento de Voz Transformação de Texto em Voz Previsão de Bolsa de Valores Análise de Dados Financeiros

Leia mais

Echo State Networks. Fabricio Breve João Bertini

Echo State Networks. Fabricio Breve João Bertini Echo State Networks Fabricio Breve João Bertini RNN Tarefas Filtragem e predição Classificação de Padrões Modelagem de Seqüências Estocásticas Memória Associativa Compressão de Dados RNN Aplicações Telecomunicações

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

3 Redes Neurais Introdução

3 Redes Neurais Introdução 3 Redes Neurais 3.. Introdução As redes neurais artificiais, ou comumente conhecidas como Neural Networs, foram motivadas em princípio pela extraordinária capacidade do cérebro humano para executar tarefas

Leia mais

Introdução. O cérebro humano. O sistema nervoso biológico é formado por um conjunto extremamente

Introdução. O cérebro humano. O sistema nervoso biológico é formado por um conjunto extremamente Introdução A Inteligência Computacional busca, através de técnicas inspiradas na Natureza, o desenvolvimento de sistemas inteligentes que imitem aspectos do comportamento humano, tais como: aprendizado,

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

Biologically Inspired Compu4ng: Neural Computa4on. Lecture 2. Patricia A. Vargas

Biologically Inspired Compu4ng: Neural Computa4on. Lecture 2. Patricia A. Vargas Biologically Inspired Compu4ng: Neural Computa4on Lecture 2 Patricia A. Vargas Lecture 2 I. Lecture 1 Revision II. Ar4ficial Neural Networks (Part I) I. Ar4ficial Neuron II. Neural Network Architectures

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

Considerações de Desempenho

Considerações de Desempenho Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem

Leia mais

Biologically Inspired Compu4ng: Neural Computa4on. Lecture 2. Patricia A. Vargas

Biologically Inspired Compu4ng: Neural Computa4on. Lecture 2. Patricia A. Vargas Biologically Inspired Compu4ng: Neural Computa4on Lecture 2 Patricia A. Vargas Lecture 2 I. Lecture 1 Revision II. (Part I) I. Ar4ficial Neuron II. Neural Network Architectures III. Learning Paradigms

Leia mais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Back Propagation. Dicas para o BP

Back Propagation. Dicas para o BP Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem

Leia mais

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,

Leia mais