Máquinas Desorganizadas: Echo State Networks Extreme Learning Machines
|
|
- Eliza de Santarém Cortês
- 6 Há anos
- Visualizações:
Transcrição
1 Máquinas Desorganizadas: Echo State Networks Extreme Learning Machines Congresso Brasileiro de Inteligência Computacional - CBIC 2015 Prof. Dr. Hugo Valadares Siqueira 1
2 Índice 1- Introdução 2- O neurônio artificial 3- Redes não recorrentes x recorrentes 4- Treinamento de redes e aprendizagem 5- Máquinas desorganizadas 6- Extreme Learning Machines (ELM) 7- Echo State Networks 8- Alguns estudos de casos 9- Referências 2
3 1- INTRODUÇÃO 3
4 Inspiração Biológica A inspiração: o funcionamento do sistema nervoso dos organismos superiores; Característica marcante: a capacidade de aprendizagem; A aprendizagem se dá pelo histórico experimental ao qual a rede é exposta. Ex: tocar um objeto quente, virar na rua certa, resolver uma integral, ser craque no video-game, etc. 4
5 Rede Neural Biológica Conjunto de neurônios altamente interconectados, os quais: i) Apresentam sinapses moduláveis; ii) Propagam pulsos elétricos entre si; Emergência de comportamento complexo a partir de unidades biológicas relativamente simples. 5
6 Rede Neural Biológica Fontes: www2.uol.com.br vejasp.abril.com.br/ 6
7 Redes Neurais Biológicas O sistema nervoso dos organismos superiores e a forma de interação dos neurônios que o compõem ainda não foram plenamente compreendidos; Tal fato é explicado pela complexidade que envolve a emergência de padrões decorrentes da interconexão massiva de estruturas relativamente simples (os neurônios); É responsável por captar as informações acerca do ambiente por meio de sensores, torná-las inteligíveis, compará-las com experiências armazenadas na memória e reagir de forma apropriada a estes estímulos; Consequência direta: capacidade de realizar tarefas como reconhecimento de padrões, realizar controle motor e a percepção sensorial; Isto não exime o sistema nervoso de cometer erros de generalização, imprecisões, etc. 7
8 O Cérebro O que é o cérebro? Emaranhado de células interconectadas os neurônios que comunicam-se através das sinapses; O que faz o cérebro? o cérebro não roda programas ; o cérebro controla o comportamento visando garantir a sobrevivência; Funcionalidade do cérebro: adaptabilidade por intermédio de aprendizado comportamento sensível ao contexto tolerância a erro capacidade de operar com conhecimento parcial grande capacidade de memória capacidade de processamento paralelo e em tempo real 8
9 Funcionalidade do cérebro: O Cérebro O cérebro é capaz de perceber regularidades no meio e gerar abstrações que capturam a estrutura destas regularidades, possibilitando a predição de observações futuras e o planejamento de ações visando o atendimento de múltiplos objetivos. 9
10 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de unidades simples de processamento inspiradas no sistema neural. (Nigrin, 1993) Uma RNA é um sistema massivamente paralelo e distribuído, composto por unidades de processamento simples que possuem uma capacidade natural de armazenar e utilizar conhecimento. (Haykin, 1999) 10
11 Redes Neurais Artificiais Sistemas de processamento da informação paralelos e distribuídos; Compostas por neurônios artificiais; Estes são unidades funcionais de processamento simples e com elevado grau de interconexão; Geram comportamentos complexos que não pode ser previstos observando-se cada neurônio individualmente. 11
12 Estrutura Básica do Sistema Nervoso (Visão da Engenharia): 12
13 Áreas de aplicação Engenharia estatística teoria de informação álgebra linear sistemas dinâmicos lineares e não-lineares teoria da computação aproximação de funções processamento de sinais controle de processos otimização de sistemas Etc. 13
14 RNAs - Fatos Históricos Marcantes MCCULLOCH & PITTS (1943) WIENER (1948): cibernética ROSEMBLATT (1958): perceptrons MINSKY & PAPPERT (1969): a disputa entre as portas lógicas e os neurônios artificiais para determinar a unidade básica de processamento. Idade das Trevas : entre 1969 e 1984 WERBOS (1974): backpropagation HOPFIELD (1982) KOHONEN (1982) Renascimento: RUMELHART & MCCLELLAND (1986) 14
15 2- O NEURÔNIO ARTIFICIAL 15
16 O Neurônio Biológico O neurônio, em termos biológicos, tem a função de: i) Receber; ii) iii) Processar; E transmitir informações por meio de pulsos elétricos. Essas informações são enviadas de um neurônio para outro através dos chamados neurotransmissores, que estão presentes nas conexões entre eles, conhecidas como sinapses; Característica marcante: aprendizado, ou a capacidade de adaptar-se a estímulos desconhecidos ou à realização de tarefas inéditas; Este conceito é essencial do ponto de vista da modificação do comportamento do cérebro na solução de problemas; Acredita-se que o aprendizado esteja ligado ao fato de que a efetividade das transmissões de informação das sinapses podem ser moduladas. 16
17 O Neurônio Biológico Esquema Neurônio biológico Fonte: infoescola.com.br - Célula especializada em transmitir PULSOS ELÉTRICOS; - Na aprendizagem, a eficiência da propagação do sinal de um neurônio para outro pode ser MODULADA!!! 17
18 O Neurônio Biológico Neurônio Biológico 18
19 O Neurônio Biológico Um neurônio pode ser visto como um dispositivo capaz de receber estímulos (de entrada) de diversos outros neurônios e propagar sua única saída, função dos estímulos recebidos e do estado interno, a vários outros neurônios. Esquema de uma sinapse biológica Fonte: A plasticidade sináptica, ou seja, a capacidade das sinapses sofrerem modificações, é o elemento chave para o aprendizado; Os neurônios podem receber e enviar sinais de/para vários outros neurônios. 19
20 O Neurônio Artificial Modelo matemático inspirado no comportamento do neurônio biológico; Possui pesos sinápticos ajustáveis que emulam o processo de aprendizagem; Função de receber, processar e transmitir dados de entrada para solução de problemas; Funções de ativação podem inserir não-linearidades durante o processamento das entradas. 20
21 O Neurônio Artificial Matematicamente, a saída do neurônio k pode ser descrita por: y k f ( u k ) f m j1 w kj x j b k Vetor de entradas: u u, u2,..., Pesos sinápticos ajustáveis: w kj Saída do neurônio: y k Funções de Ativações: f (.) Polarização (bias): b k T t [ 1 u t K 1] OBS: Existem vários tipos de função de ativação como a função linear, a função degrau, as funções sigmoidais, tangente hiperbólica e as funções de base radial. 21
22 3- REDES RECORRENTES X NÃO-RECORRENTES 22
23 Projeto de RNAs ETAPAS DO PROJETO: 1. Definição de um conjunto de neurônios artificiais; 2. Definição de um padrão de conectividade entre os neurônios, ou seja, de uma arquitetura para a rede; 3. A definição de um método de determinação dos parâmetros livres da rede, denominado de algoritmo de aprendizagem ou de treinamento. 23
24 Arquiteturas de Redes Existem basicamente três camadas em uma rede neural artificial: 1. Uma camada de entrada, 2. uma ou mais camada intermediária, 3. uma camada de saída. Entretanto, nem todas as RNAs possuem todas elas. Classificação das arquiteturas de RNAs: - redes feedforward (não-recorrentes) de uma única camada; - redes feedforward (não-recorrentes) de múltiplas camadas; - redes recorrentes. 24
25 Redes Recorrentes x Não-Recorrentes i) redes não-recorrentes: o sentido do fluxo de informação é sempre adiante, da entrada para a saída, até que se determine a resposta da rede; Aplicações: mapeamento não-linear estático a) Previsão de séries temporais; b) Agrupamento (clusterização) de dados; c) Aproximação de funções, etc. ii) redes recorrentes: há conexões de realimentação, que transmitem informações de camadas posteriores para anteriores ou entre neurônios da mesma camada, criando uma espécie de memória interna Aplicações: problemas com dependência temporal entre as amostras a) Mapeamento não-linear (como as não-recorrentes); b) Problemas de controle; c) Problemas dinâmicos e temporais, etc. 25
26 Rede Neural Não-Recorrente Fonte: Boccato (2013) 26
27 Rede Neural Recorrente Fonte: Boccato (2013) 27
28 4- TREINAMENTO DE REDES E APRENDIZAGEM 28
29 Treinamento de RNAs Objetivo: fazer com que uma rede neural apresente na saída respostas adequadas a determinado problema; É a base do aprendizado em redes neurais artificiais; Muito comum a utilização de critérios baseados no erro de saída, quando adotado o paradigma supervisionado; Neste caso, as metodologias mais usuais são baseadas em minimizar a função custo formada pelo erro entre a saída da rede e a resposta desejada; A forma de minimização da função custo é ajuste sistemático dos pesos da rede por meio de algum algoritmo de treinamento ; Pouca relação com a inspiração biológica inicial. 29
30 Paradigmas de Aprendizagem Existem basicamente três paradigmas de aprendizado: 1- Aprendizado supervisionado: é baseado em um conjunto de exemplos de estímulo/resposta (ou entrada-saída); 2- Aprendizado por reforço: o comportamento da rede é avaliado apenas com base em alguma critério numérico, fornecido em instantes espaçados de tempo; 3- Aprendizado não-supervisionado: é baseado apenas nos estímulos recebidos pela rede neural. Basicamente, a rede deve aprender a categorizar os estímulos. 30
31 Aprendizagem Supervisionada Sinal desejado (professor): Saída da rede: y(n) Sinal de erro: e(n) - Cálculo do erro instantâneo: e( n) d( n) y( n) d(n) O critério mais utilizado para avaliar a qualidade da saída é a análise de erro quadrático médio (MSE); Função custo a ser minimizada em função dos pesos da rede: J ( w) 1 E m m j1 e 2 j ( n) 31
32 Técnicas de Otimização Aplicadas ao Treinamento de RNAs Usualmente são aplicadas no treinamento de RNAs; São métodos de otimização local da função J(w); Se usadas informações do gradiente da função custo, podem ser de 1ª. Ou 2ª. ordens; Não há garantia de otimização global, ou seja, mesmo com um treinamento exaustivo pode não ser alcançado o melhor conjunto de pesos. Fonte: Von Zuben e Attux,
33 Mínimos e máximos de uma função Fonte: matematicandonet.xpg.uol.com.br/page/maxmin/mm02.htm 33
34 Separação das amostras Treinamento: ajustar os valores dos pesos sinápticos; Validação: garantir a melhor generalização; Teste: validar o resultado de saída obtido por meio de métricas de erro. 34
35 Separação das amostras: Exemplo 35
36 Separação das amostras: Exemplo 36
37 Perceptron de Múltiplas Camadas (MLP) Arquitetura de RNAs mais empregada para mapeamento não-linear estático; Não-recorrente; Em geral, os neurônios possuem função de ativação tipo tangente hiperbólica; Uso de validação cruzada. 37
38 Perceptron de Múltiplas Camadas (MLP) Uma rede MLP típica possui como características principais: 1. Os neurônios das camadas intermediárias possuem uma função de ativação não-linear do tipo sigmoidal; 2. A rede possui uma ou mais camadas intermediárias; 3. A rede possui um alto grau de conectividade; 4. Ferramenta prática geral para fazer um mapeamento não-linear de entrada-saída; 5. Aproximadores universais; 6. Capacidade de generalização. 38
39 Perceptron de Múltiplas Camadas (MLP) Fonte: Siqueira (2013) 39
40 Treinamento da MLP Ajuste do valor dos pesos w por meio de processo iterativo; Método mais empregado: gradiente ótimo; Cálculo da derivada da função custo via algoritmo backpropagation; Este método quando aplicado ao treinamento de redes neurais consiste basicamente de dois passos: 1- Propagação positiva do sinal funcional: durante este processo todos os pesos da rede são mantidos fixos; 2- Retropropagação do erro: durante este processo, os pesos da rede são ajustados tendo por base uma medida de erro, em geral o MSE. OBS: não há garantias de que o melhor conjunto de pesos será encontrado, tendo em vista a possibilidade de otimização local 40
41 Validação Cruzada Técnica utilizada para buscar o nível ótimo de generalização de uma rede MLP; O erro de treinamento sempre diminui com a evolução das épocas (iterações); Entretanto, não há como afirmar a priori o número de iterações ótimo; Caso a rede seja muito ou pouco treinada, ela não deve responder adequadamente a dados de testes desconhecidos subtreinamento / sobretreinamento; Validação Cruzada: apresentação de dados fora do conjunto de treinamento a cada época, após a atualização dos pesos; A cada vez que um erro de validação menor é encontrado, os pesos daquela época devem ser salvos. Ao final, no ponto de mínimo erro de validação, assume-se que está o conjunto ótimo de pesos da rede. 41
42 Validação Cruzada Exemplo de comportamento do erro de treinamento e validação 42
43 Casos reais Validação Cruzada 43
44 Treinamento de uma RNN Uma rede neural recorrente (RNN) clássica é um sistema dinâmico não-linear complexo criado pela existência dos laços de realimentação; As vantagens que este tipo de rede apresenta são, de certa forma, limitadas pela dificuldade no ajuste dos seus parâmetros livres, via processo iterativo de otimização; A aplicação de métodos de otimização no treinamento, por exemplo, podem levar a: i) configurações instáveis; ii) Potenciais problemas de convergência; iii) possibilidade de convergência local; iv) dificuldade significativa em se manipular a função custo formada para treinamento supervisionado. 44
45 5- MÁQUINAS DESORGANIZADAS 45
46 Máquinas Desorganizadas Arquiteturas de redes neurais artificiais nas quais não há ajuste nos pesos da camada intermediária; Processo de treinamento simples e computacionalmente eficaz; Ajuste apenas da camada de saída por meio de solução analítica: cálculo dos coeficientes de um combinador linear; Convergência rápida; Máquinas de Aprendizado extremo - ELM (não-recorrente); Redes de Estado de Eco - ESN (recursiva); Desempenho computacional superior à MLP em aplicações com previsão de séries temporais e equalização de canais de comunicação. 46
47 Máquinas Desorganizadas Nomenclatura recentemente cunhada por Boccato et al. (2012); Remete aos trabalhos pioneiros de Alan Turin em 1968; A desorganização faz menção ao fato da camada intermediária não ser ajustada e mesmo assim ser possível atingir bons resultados de saída; Não há risco de instabilidade. 47
48 6- EXTREME LEARNING MACHINES ELM Máquinas de aprendizado extremo 48
49 Máquinas de Aprendizado Extremo (ELM) Propostas por Huang et al. em 2004; Arquitetura feedforward semelhante a uma MLP; Parâmetros fixos na camada intermediária pesos não são ajustados; A camada de saída é um combinador linear; Processo de treinamento supervisionado, o qual apresenta solução determinística; Capacidade de aproximação universal: - erro pode ser sempre reduzido com a inserção de um novo neurônio na camada escondida; 49
50 ELM x MLP ELM: i) Não manipula função custo; ii) Não necessita cálculo de derivadas da função custo; iii) Sem risco de otimização local no processo iterativo; iv) Não há necessidade de definir passo de otimização; v) Garante menor norma dos pesos da camada de saída 50
51 Máquinas de Aprendizado Extremo (ELM) Saída da camada intermediária: x h t f h h ( W u b) t Saída da rede: y t W out x h t T Vetor de entradas: ut [ u1, u2,..., u t K 1] Matriz de pesos da camada intermediária: Matriz de pesos da camada de saída: W Funções de Ativações dos neurônios da h camada intermediária: f ( f (.), f (.),.. (.)) (.) 1 2.,fN W out h NN LN 51
52 Treinamento das ELMs É resumido a encontrar o melhor conjunto de pesos da camada de saída; Uso de um combinador linear; Proposta: pseudo-inversa de Moore-Penrose X h T s N k W out T X X -1 X T d h é a matriz de saídas da camada intermediária Garantia da norma mínima dos pesos para solução de mínimos quadrados (de acordo com Bartlett, 1998); Ou seja, num processo de treinamento de redes, quanto menor a norma dos pesos, melhor a generalização. h h 52
53 Regularização das ELMs Objetivo: maximização da capacidade de generalização; É necessário definir um conjunto de validação; Inserção do coeficiente de regularização C: W out 1 C X T h X h -1 X T h d Huang et al.: substituições sucessivas do valor de C = 2 λ, sendo λ { 25, 24,...,25,26} 53
54 Regularização das ELMs Kaluif & Von Zuben (2013): inserção de uma etapa de busca local; Refinamento da solução proposta por Huang et al.; Hipótese: para qualquer intervalo de busca pequeno associado a possíveis valores de C, a curva formada pelos valores desta variável e pelos erros de validação correspondentes é quase-convexa; Cálculo do coeficiente C pelo método de busca unidimensional da seção áurea; 54
55 7- ECHO STATE NETWORKS - ESN Redes Neurais com Estados de Eco 55
56 Redes Neurais com Estados de Eco (ESN) Propostas por H. Jaeger em 2001; Arquitetura de RNA recorrente formação de memória; Viabiliza as RNNs com uma solução de compromisso; Reservatório de dinâmicas (camada intermediária) com parâmetros fixos e neurônios totalmente interconectados; Uso de um combinador linear como camada de saída; Solução analítica para os pesos da camada de saída (como no caso das ELMs); Convergência rápida eficiência computacional; Também são aproximadores universais 56
57 Redes Neurais com Estado de Eco (ESN) Estados da rede: x t [ x 1 t, x 2 t,..., x N t ] T Atualização dos estados da rede: x in t1 f ( W ut 1 Wx t ) Saída: y W x out t1 t1 T Vetor de entradas: ut [ u1, u2,..., u t K 1] Matriz de pesos da camada de entrada: Matriz de pesos do reservatório dinâmico: Matriz de pesos da camada de saída: Funções de Ativações dos neurônios do reservatório: f (.) ( f1 (.), f 2 (.),...,f N (.)) in W W out LN W NK NN Treinamento (camada de saída): out W ( X T ) -1 X X T d 57
58 Propriedade de Estados de Eco Estados da rede são assintoticamente independentes da condição de entrada, quer dizer, o estado da rede passa a ser governado pelo histórico recente; Ou seja, se a rede é inicializada a partir de dois estados iniciais distintos x(0) e x (0), e a mesma sequência de sinais de entrada é recebida, então as sequências de estados resultantes x(n) e x (n) convergem para valores próximos; Quando esta propriedade é satisfeita, o efeito dos estados iniciais desaparece e a dinâmica do reservatório depende exclusivamente do histórico de entrada, de modo que a rede possui estados de eco; A propriedade garante a existência de memória. 58
59 Propriedade de Estados de Eco Condição para RNNs que tenha neurônios com funções de ativação tipo tangente hiperbólica no reservatório e não apresente realimentações da saída da rede para o reservatório: i) o módulo do máximo valor singular da matriz deve estar dentro do círculo real unitário, ii) Se o raio espectral ou maior autovalor de W, em módulo, for maior que 1, não há estados de eco. 59
60 Propostas de Reservatórios de Dinâmicas 1- Jaeger (2001) matriz esparsa favorece o desacoplamento de grupos de neurônios, induzindo dinâmicas individuais e pouco relacionadas 0,4 probabilidade 0,025 Je W 0,4 probabilidade 0 probabilidade 2- Ozturk et al. (2007) maximização da entropia pela escolha do raio espectral r, já que na ausência de informações a priori sobre a saída desejada é razoável espalhar os autovalores de maneira uniforme. 0,025 0,95 Oz W N r OBS: proposta com entropia média dos estados maior que a de Jaeger. 60
61 Camadas de saída não-lineares O combinador linear só considerar informações de segunda ordem; Isto limita sua capacidade de processamento; Alternativa: substituir esta estrutura por outra não-linear; Necessário garantir que não se comprometa a simplicidade no processo de treinamento 61
62 Camada de saída de Boccato et al. Utilização do filtro de Volterra como camada de saída (1ª. e 3ª. ordens); Surgem estatísticas de ordem superior; Maior capacidade de processamento; Uso da análise de componentes principais (PCA) para remoção da redundância no sinal que sai do reservatório; Proposta aplicável a qualquer modelo de reservatório. 62
63 Filtro de Volterra Combinador linear de termos polinomiais; Coeficientes linearmente dependentes; Risco de explosão de dimensionalidade: Por isso, aplica-se o PCA como método de compressão; Uso da pseudo-inversa de Moore-Penrose que minimiza o MSE para cálculo do coeficientes h (manutenção da simplicidade):... ) ( ) ( ) ( ),, ( ) ( ) ( ), ( ) ( ) ( ) ( n x n x n x r q p h n x n x q p h n x p h h n y r q p N p N q N r N p N q q p p N p i d X X v X h v v T T -1 ) ( 63
64 ESN+VOLTERRA+PCA 64
65 Rede Híbrida: ESN+ELM Proposta de Bucher et al. (2010): Uso de uma ELM como camada de saída de uma ESN; Manutenção da simplicidade no processo de treinamento similar ao treinamento de uma ELM; Outras não-linearidades inseridas no sinal que chega do reservatório. 65
66 Rede Híbrida ESN+ELM 66
67 8- ALGUNS ESTUDOS DE CASOS 67
68 Previsão de séries de vazões Importância das vazões no Brasil, com 77% do seu parque gerador composto por usinas hidrelétricas; Necessidade de um planejamento energético confiável, visando a boa utilização dos recursos renováveis; Diminuir a necessidade do uso de usinas com geração baseada em recursos não-renováveis; O problema é estocástico e de difícil tratamento; Investigar o uso de técnicas de previsão pouco utilizadas para séries de vazões; 68
69 Dificuldades na previsão O caráter potencialmente multimodal da função de erro quadrático médio (MSE); A existência de dificuldades para obtenção das derivadas de uma função custo baseada em uma medida de MSE; A possibilidade de que, num processo iterativo de escolha de parâmetros, alcance-se uma configuração instável, o que inviabilizaria a convergência do método; 69
70 Melhores Resultados por usina FURNAS - PAR =1, MLP=2, ELM=1, JAE-ESN=4, OZT-ESN= 2, JAE-PV-ESN=2 EMBORCAÇÃO - MLP=1, ELM=1, JAE-ESN= 6, OZT-ESN=2, JAE-PV- ESN=2 SOBRADINHO - MLP=1, ELM=4, JAE-ESN=3, OZT-ESN= 1, JAE-PV-ESN=3 70
71 Melhores Resultados: Redes feedforward 71
72 Alguns resultados relevantes Estudos recentes constataram desempenhos superiores das máquinas desorganizadas (UM) em comparação com metodologias frequentemente utilizadas na literatura, em problemas como: Previsão de séries de preços de commodities; Previsão de mapa logístico; Equalização de canais de comunicação; Separação de misturas convolutivas; Reconhecimento de pessoas com base em dados de biometria; Controle de plantas industriais; Controle automotivo; Controle autônomo; Etc. 72
73 9- Referências P.L. Bartlett, The sample complexity of pattern classification with neural networks: the size of the weights is more important than the size of the network. IEEE Transactions on Information Theory, vol. 44, no. 2, pp ,1998. L. Boccato, A. Lopes, R. Attux, F. J. Von Zuben, An Extended Echo State Network Using Volterra Filtering and Principal Component Analysis, Neural Networks 32 (2012) L. Boccato, E. S. Soares, M. M. L. P. Fernandes, D. C. Soriano, R. Attux, Unorganized Machines: from Turing s Ideas to Modern Connectionist Approaches, Int. J. of Natural Computing Research 2(4) (2011) L. Boccato, Novas Propostas e Aplicações de Redes Neurais com Estados de Eco, Tese de Doutorado UNICAMP Brasil, (2013). J. B. Butcher, D. Verstraeten, B. Schrauwen, C. R., Day and P. W. Haycock, Reservoir computing and extreme learning machines for nonlinear time-series data analysis, Neural Networks 38 (2013) S. Haykin, Neural Networks: A Comprehensive Foundation, 2nd edition, Prentice Hall, (1999). G. Huang, G.-B. Huang, S. Song, K. You. Trends in Extreme Learning Machines: a Review. Neural Networks, 61 (2015) G.-B. Huang, L. Chen, C.-K. Siew, Universal approximation using incremental constructive feedforward networks with random hidden nodes, IEEE Trans. on Neural Networks, 17(4) (2006) Huang, G.-B., Zhou, H., Ding, X., Zhang, R. Extreme Learning Machines for Regression and Multiclass Classification. IEEE Transactions on Systems, Man, and Cybernetics Part B: Cybernetics,vol. 42, no. 2, pp ,
74 Referências H. Jaeger, The Echo State Approach to Analyzing and Training Recurrent Neural Networks, Technical Report, Bremen: German National Research Center for Information Technology, GMD Report 148, A. C. P. Kulaif, F. J. Von Zuben, Improved Regularization in Extreme Learning Machines, In: 1st BRICS Countries Congress (BRICS-CCI) and 11th Brazilian Congress on Computational Intelligence (CBIC), M. C. Ozturk, D. Xu, J. C. Principe, Analysis and Design of Echo State Networks, Neural Computation, 19 (2007) A. M. Schafer, H. G. Zimmermann, Recurrent Neural Networks are Universal Approximators, International Journal of Neural Systems., 17(4) (2007) H. Siqueira, L. Boccato, R. Attux, C. Lyra, Unorganized machines for seasonal streamflow series forecasting, International Journal of Neural Systems, 24 (2014) H. V. Siqueira, L. Boccato, R. Attux, C. Lyra, Echo State Networks in Seasonal Streamflow Series Prediction, Learning and Nonlinear Models 10(3) (2012) H. V. Siqueira, Máquinas Desorganizadas para Previsão de Séries de Vazões, Tese de Doutorado UNICAMP Brasil, (2013). F. Von Zuben, R. Attux, Curso de Redes Neurais Artificiais, Faculdade de Engenharia Elétrica e de Computação, UNICAMP (2007).
75 Contato pessoal.utfpr.edu.br/hugosiqueira
Redes Neurais Artificiais
Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de
Leia maisEcho State Networks. Fabricio Breve João Bertini
Echo State Networks Fabricio Breve João Bertini RNN Tarefas Filtragem e predição Classificação de Padrões Modelagem de Seqüências Estocásticas Memória Associativa Compressão de Dados RNN Aplicações Telecomunicações
Leia maisRedes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia maisIntrodução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana
Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)
Leia maisInteligência Computacional
Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma
Leia maisTÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Leia maisPrevisão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN
Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisMineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior
Aula 2 Introdução Redes Neurais Prof. Dr. Sylvio Barbon Junior barbon@uel.br Sumário 1- Inteligência Artificial 2- Introdução às Redes Neurais Artificiais 3- Modelos de Redes Neurais supervisionados e
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia maisINTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos
Leia maisAprendizado de Máquina Introdução às Redes Neurais Artificiais
Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência
Leia maisRedes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
Leia maisMinicurso: Inteligência Artificial Aplicada a Sistemas Elétricos
Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz
Leia maisAula 1 Introdução - RNA
Aula 1 Introdução - RNA Sumário 1- Conceitos Iniciais; 2- Neurônio Biológico; 3- Neurônio Artificial; 4- Funções de Ativação; 5- Comparação Neurônio Biológico e Artificial. 1- Conceitos Iniciais - Computadores
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer
Leia maisHP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
Leia maisRedes Neurais Artificiais
Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais
Leia maisRedes Neurais Artificiais
Universidade Federal do Espírito Santo CCENS UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais
Leia maisREDES NEURAIS. Marley Maria B.R. Vellasco. ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada CONTEÚDO
REDES NEURAIS Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos
Leia maisO Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM)
O Algoritmo de Treinamento: Máquina de Aprendizado Extremo (Extreme Learning Machine - ELM) Thiago Henrique Cupertino SCE5809 - Redes Neurais 23 de Novembro de 2010 Conteúdo Introdução Desvantagens do
Leia maisREDES NEURAIS ARTIFICIAIS
REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação
Leia maisserotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina
Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)
Leia maisIntrodução às Redes Neurais Artificiais
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos
Leia maisIntrodução a Redes Neurais Artificiais com a biblioteca Encog em Java
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -
Leia maisRedes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas
Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs
Leia maisClassificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy Aspectos Temporais Modelagem de sistemas As tarefas que estudamos, classificação e regressão, podem ser vistas como atividades de modelagem de sistemas. As técnicas de modelagem
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Neurônio Natural Dendritos: recebe os estímulos transmitidos por outros neurônios Soma Sinapse Axônio Soma: coleta e combina informações vindas de outros neurônios Sinapse Dendrito
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Introdução Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia Universidade
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Aplicações em Telecomunicações Prof. João Marcos Meirelles da Silva, D.Sc. Professor Adjunto II do Departamento de Engenharia de Telecomunicações Universidade Federal Fluminense
Leia maisTópicos sobre Redes Neurais
Tópicos sobre Redes Neurais -Memórias Matriciais -Modelos Híbridos -Redes de Base Radial(RBF) -Redes Construtivas -Redes Recorrentes Prof João Alberto Fabro IF67D Sistemas Inteligentes 1 Dep de Informática
Leia maisA evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:
Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis
Leia maisInteligência Computacional
Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Motivação Básica A mente humana,
Leia maisInteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Leia mais3 INTELIGÊNCIA COMPUTACIONAL (IC)
40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas
Leia maisAplicação de Máquinas de Aprendizado Extremo ao Problema de Identificação de Sistemas Não-Lineares
Aplicação de Máquinas de Aprendizado Extremo ao Problema de Identificação de Sistemas Não-Lineares Renan D B Brotto Levy Boccato João M T Romano Resumo Este trabalho propõe a aplicação de máquinas de aprendizado
Leia maisINSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO
INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO Prof. Msc. Saulo Popov Zambiasi (saulopz@gmail.com) 12/07/08 08:09 Informação - ICPG - Criciuma - SC 1 Fundamentação Biológica, O Neurônio
Leia maisSistemas Inteligentes - Redes Neurais -
Sistemas Inteligentes - Redes Neurais - Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características
Leia maisRECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ
RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional
Leia maisRedes Neurais Artificiais. Prof. João Alberto Fabro
Redes Neurais Artificiais Prof. João Alberto Fabro Redes Neurais Artificiais Conceitos Básicos Histórico Evolução O lugar das Redes Neurais dentro da IA Características Aplicações Redes Neurais Multicamadas
Leia maisParadigmas de Aprendizagem
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia maisTópicos Especiais: Inteligência Artificial REDES NEURAIS
Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS INTRODUÇÃO Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 REDES NEURAIS ARTIFICIAIS - RNAs Inspiradas no cérebro humano São modelos computacionais inspirados nos mecanismos
Leia maisAvaliação preliminar do desempenho de redes neurais feedforward para a previsão de preços de derivados da cana-de-açúcar
Avaliação preliminar do desempenho de redes neurais feedforward para a previsão de preços de derivados da cana-de-açúcar Amanda Delatorre 1, Sérgio Okida 1, Flávio Trojan 1, José Carlos Alberto de Pontes
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons
Leia mais4 Redes Neurais Artificiais
4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support
Leia maisRedes Neurais Noções Gerais
Redes Neurais Noções Gerais Segundo Loesch (apupt Fernandes), Redes Neurais Artificiais são sistemas computacionais, de implementação em hardware e software, que imitam as habilidades computacionais do
Leia maisHP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
Leia maisRedes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Leia maisResolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís
Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve
Leia maisPor que Redes Neurais?
Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor
Leia maisPREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL
PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL Juliana A. ANOCHI 1, Sabrina B. M. SAMBATTI 1, Eduardo F. P. da LUZ 1, Haroldo F. de CAMPOS VELHO 1 Instituto Nacional de Pesquisas Espaciais - INPE
Leia mais( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)
Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação
Leia maisIF-705 Automação Inteligente Perceptrons de Múltiplas Camadas
IF-705 Automação Inteligente Perceptrons de Múltiplas Camadas Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação aluizioa@cin.ufpe.br
Leia maisALGORITMOS EVOLUCIONÁRIOS PARA OTIMIZAÇÃO DE REDES NEURAIS ARTIFICIAIS
ALGORITMOS EVOLUCIONÁRIOS PARA OTIMIZAÇÃO DE REDES NEURAIS ARTIFICIAIS Aida FERREIRA (1); Thiago HENRIQUE(2); (1) Institituto Federal de Pernambuco - IFPE, Av. Prof Luiz Freire, 500 Cidade Universitária
Leia maisO uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.
O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. Resumo: Lucas da Silva Assis Universidade Federal de Goiás lucasilvassis@gmail.com Esse trabalho apresenta
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Leia maisClassificação de Padrões. Abordagem prática com Redes Neurais Artificiais
Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas
Leia maisNeurocomputação Parte 2
Neurocomputação Parte 2 Fabricio Breve - fbreve@gmail.com 25/09/2007 Fabricio Breve 1 REDES NEURAIS ARTIFICIAIS 25/09/2007 Fabricio Breve 2 Por que Redes Neurais? Computadores convencionais são eficientes
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
Leia maisRedes Neurais Artificial
Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
Leia maisRedes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
Leia maisRedes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Leia maisPrevisão de consumos a curto prazo
Previsão de consumos a curto prazo Cláudio Monteiro Distribuição de Energia II 5º ano da LEEC - ramo de Energia (FEUP) O que são? são técnicas computacionais que apresentam um modelo matemático inspirado
Leia maisIN Redes Neurais
IN0997 - Redes Neurais Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação aluizioa@cin.ufpe.br Conteúdo Objetivos Quem usa
Leia maisRedes neurais artificiais
Redes neurais artificiais Conceitos em redes neuronais Redes neuronais artificiais (RNA): uma metáfora cerebral para processamento de informações Computação neuronal Muitos usos de RNA para Reconhecimento
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons
Leia maisRedes Neurais Artificiais
Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Inteligência Artificial
Leia maisRedes Neurais MLP: Exemplos e Características
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1
Leia maisSELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS
SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas
Leia maisJAI 6 - Deep Learning Teoria e Prática
JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado
Leia maisRedes Neurais Artificial. Prática. Inteligência Artificial
Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisPRINCÍPIOS DE NEUROCOMPUTAÇÃO
PRINCÍPIOS DE NEUROCOMPUTAÇÃO Neurocomputação Funcionamento do cérebro humano e os neurônios Formação das conexões e como se concebe teoricamente a aquisição do conhecimento, formalizando-os em procedimentos
Leia maisCOMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1
COMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1 Márcia Da Silva 2, Eldair Fabricio Dornelles 3, Rogério S. M. Martins 4, Édson L. Padoin 5. 1 Pesquisa desenvolvida
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Apresentação da Disciplina Alessandro L. Koerich 2008 Mestrado e Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática Aprendizagem
Leia maisRede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais x 1 w k1 Bias b k +1 +1 x 1 x 2 x 3 x m +1 y 1 y 2 y o Sinais de entrada x 2 x m Fabricio Breve fabricio@rc.unesp.br w k2 w km Pesos sinápticos Σ Junção aditiva v k f(. ) Saída
Leia maisSCC Capítulo 2 Topologia e Representação
Modelos Arquiteturas Representação do Conhecimento SCC-5809 - Capítulo 2 Topologia e Representação João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809:
Leia maisInteligência Artificial
Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial Aprendizagem (Redes Neurais - Complementar) Prof. a Joseana Macêdo
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
Leia mais4 Redes Neurais Artificiais RNAs
66 4 Redes Neurais Artificiais RNAs Redes neurais artificial (RNA) são algoritmos que se baseiam no comportamento do cérebro humano. Dessa forma, imita a estrutura massivamente paralela do cérebro, com
Leia mais