CONTROLADOR HÍBRIDO INDIRETO BASEADO EM REDES NEURAIS - PARTE I: DESENVOLVIMENTO E IMPLEMENTAÇÃO

Tamanho: px
Começar a partir da página:

Download "CONTROLADOR HÍBRIDO INDIRETO BASEADO EM REDES NEURAIS - PARTE I: DESENVOLVIMENTO E IMPLEMENTAÇÃO"

Transcrição

1 CONTROLADOR HÍBRIDO INDIRETO BASEADO EM REDES NEURAIS - PARTE I: DESENVOLVIMENTO E IMPLEMENTAÇÃO André Laurindo Maitelli Oscar Gabriel Filho UFRN - Universidade Federal do RN UNP - Universidade Potiguar Natal RN Natal RN maitelli@leca.ufrn.br oscargf@unp.br Resumo Sistemas de controle usando RNA s têm sido propostos por vários pesquisadores em todo o mundo. O desenvolvimento de um sistema de controle pode ser abordado de duas maneiras: métodos diretos e métodos indiretos. Direto significa que o controlador é neural, sendo que os seus pesos sinápticos são ajustados diretamente com base nos parâmetros da planta. O método indireto necessita de um modelo neural da planta para ajustar os parâmetros do controlador, que também pode ou não ser baseado nas RNA s. Este trabalho tem o objetivo de apresentar um novo desenvolvimento de um sistema de Controle Híbrido Indireto, em que o controlador convencional é ajustado on-line por um identificador neural possuindo arquitetura de rede multicamadas com aprendizagem baseada na metodologia da Propagação Retroativa do Erro ( Error Back Propagation. O sistema de controle proposto foi implementado computacionalmente e testes foram realizados para verificar a sua eficiência no controle de plantas não-lineares. Os resultados obtidos na simulação do controle de uma planta não-linear são apresentados neste trabalho. Palavras Chaves: Sistema de Controle Indireto baseado em Redes Neurais, Sistema de Controle Híbrido Indireto usando Redes Neurais, Redes Neurais Artificiais. Abstract: Control systems based on Artificial Neural Networks - ANN s have been developed by several researchers in all world. The control design could be approached in two ways: direct design methods and indirect design methods. Direct means that the controller is a neural network, where the synaptic weights are adjusted directly by the plant parameters. The indirect method needs a neural model of the plant to adjust the control parameters, what also could or not could being an ANN s. This work aims to present a new development approach to obtain an Indirect Hybrid Neural Control System, where the conventional controller is on-line adjusted based on neural identifier having a multiperceptron architecture with backpropagation learning method. The proposed control system has been implemented on a computer and simulations were performed to verify the effectiveness to control nonlinear systems, and results presented by a nonlinear plant are showed in this work. eywords: Indirect Control Systems based on Neural Networks, Indirect Hybrid Control Systems using Neural Networks, Artificial Neural Networks. INTRODUÇÃO Os métodos de controle inteligente baseados em Redes Neurais Artificiais - RNA s constituem uma classe de abordagem bastante atrativa, devido às seguintes razões: I RNA s são essencialmente sistemas adaptativos capazes de aprender como executar tarefas complexas, II possuem a característica de superar muitas das dificuldades sofridas pelas técnicas de Controle Adaptativo Convencional (Åström e Wittenmark, 989, principalmente quando estas últimas se deparam com plantas não-lineares, com dinâmica desconhecida ou variantes no tempo e III o grande avanço na tecnologia de microprocessadores ocorrido na última década tem propiciado o desenvolvimento de programas eficientes capazes de implementar as RNA s, ou seja, os princípios matemáticos nos quais se acredita estar baseada a inteligência humana. Dentro dessa abordagem destacam-se os métodos de controle indireto, assim denominados devido à necessidade de um identificador neural da planta para ajustar os parâmetros do controlador. No que se refere ao controlador, este pode ser um controlador convencional ou pode ser também baseado em redes neurais. No caso deste trabalho, o controlador é implementado através de uma lei de controle convencional, portanto, somente o identificador é neural. A principal vantagem neste tipo de projeto é que existe apenas uma rede neural para ser treinada, o que possibilita a aplicação deste esquema de controle em uma classe de plantas mais rápidas. O novo método desenvolvido neste trabalho foi denominado de Controle Híbrido Indireto devido à utilização de um identificador neural e de um controlador convencional no mesmo esquema de controle, construção similar ao que foi proposto por Adetona et alii (00, porém com algumas diferenças significativas, as quais serão apontadas oportunamente. Para implementar o identificador neural serão usadas as Redes Neurais Artificiais - RNA s, mais especificamente as Redes Neurais Multicamadas - RNM s, na elaboração de estratégias de controle inteligente que apresentem um mínimo atraso computacional e que possam ser aplicadas em tempo real ( on-line. Para o treinamento das redes neurais é usado o método da Descida do Gradiente, conhecido também por Propagação Retroativa do Erro - PRE ( Error Back Propagation. As demais seções abordarão os seguintes assuntos: a Seção trata das Redes Neurais Artificiais - RNA`s, com ênfase para as Redes Neurais Multicamadas - RNM s e o método da

2 Propagação Retroativa do Erro - PRE. Este método foi implementado computacionalmente, sendo a ele incorporadas algumas técnicas para aceleração de convergência, conforme descrito detalhadamente em Gabriel (996. A Seção 3 aborda a questão da Identificação de Sistemas Não-Lineares usando Redes Neurais Artificiais, visando formar a base teórica necessária à compreensão da estratégia de identificação da planta a ser controlada, com a finalidade de extrair os parâmetros a serem utilizados no projeto do controlador convencional. A Seção 4 apresenta o desenvolvimento do Esquema de Controle Híbrido Indireto usando redes neurais. A Seção 5 apresenta os resultados obtidos através de simulação de um Exemplo de planta não-linear retirada da literatura técnica e, finalmente, a Seção 6 apresenta as Conclusões obtidas com a simulação do esquema de Controle Híbrido Indireto baseado nas RNA s.. Redes Neurais Multicamadas - RNMs A maneira como os neurônios são organizados define a arquitetura da rede. Este trabalho usa a organização em várias camadas justapostas (figura, conhecida na literatura especializada como Redes Neurais Multicamadas - RNM s. REDES NEURAIS ARTIFICIAIS - RNA`s As Redes Neurais Artificiais - RNA s têm o propósito de simular o comportamento do sistema nervoso biológico através de programas de computador ( software ou de circuitos elétricos ( hardware, com a finalidade de tirar proveito destes poderosos sistemas de inteligência com que é dotado o ser humano vivo (Rumelhart et alii, 986. O grande avanço na tecnologia de microprocessadores ocorrido na última década tem propiciado o desenvolvimento de programas eficientes capazes de implementar as RNA s, ou seja, os princípios matemáticos nos quais se acredita estar baseada a inteligência humana (Gabriel, 996. As redes neurais são compostas de vários elementos conectados entre si de alguma forma, possibilitando a sua operação em paralelo. Estes elementos são baseados no sistema nervoso do ser humano e são denominados de neurônios. Cada neurônio (figura, quando ativado por um sinal de entrada, apresenta uma resposta que obedece a função matemática escolhida para modelar o seu comportamento. Figura : Rede Neural Multicamadas - RNM`s Os neurônios estão dispostos em camadas que se justapõem umas às outras, formando uma configuração em cascata, podendo existir mais de uma camada intermediária. A primeira camada (pseudocamada é a camada de entrada ( input layer, as camadas intermediárias são as camadas escondidas ( hidden layers e a última camada é a camada de saída ( output layer. É imediato constatar que a rede funciona no sentido direto da entrada para a saída ( feedforward e a camada de entrada não possui processamento. Segundo Haykin (999, as Redes Neurais Multicamadas - RNM s são boas para aprender relações matemáticas a partir de um conjunto de dados de entrada-saída, sendo, por isso, consideradas aproximadores universais de funções matemáticas.. Propagação Retroativa do Erro - PRE ("Error Back Propagation" Figura : Representação do Neurônio Com base na figura, define-se sinal de ativação NET de um neurônio j, como sendo I, i NETj w j i xi ( em que y j f(net, w j,i é o peso sináptico, x i é a entrada, i é o índice do neurônio de origem e j é o índice do neurônio de destino, para i,,..., I, I e j,,..., J. A entrada com valor fixo - é para o limiar de operação ( threshold, o qual é implementado pelo peso sináptico extra w j,i. O processo de aprendizagem de uma rede neural consiste na adaptação de seus pesos sinápticos de tal maneira que a diferença entre os valores da saída desejada e de sua saída atual, calculada para todos os pontos de treinamento, seja mínima. O Algoritmo de Propagação Retroativa do Erro - PRE é baseado no Método de Descida do Gradiente. O ajuste (ou atualização dos pesos das sinapses w ji, inverso ( backward, conforme expressões abaixo: ( c c c w w α w α w [ ] [ ] [ ] [ c] E w η w E [ ek ] k dá-se no sentido ( (3 (4 e d z k (5 k k em que c o ciclo de treinamento (ou época, η a constante de aprendizagem, α é a constante de momento, E a função erro (ou função custo, d k é a saída desejada para o neurônio de ordem k da última camada da rede neural e z k é o valor

3 corrente assumido pelo mesmo neurônio, após o processamento da rede no sentido direto ( forward. A fórmula para ajustar os valores dos pesos sinápticos w k, j de cada conexão existente entre um neurônio j da camada escondida e um neurônio k da camada de saída, de maneira que o erro global E seja igual ou menor que uma tolerância ε previamente especificada, i. e, tal que E ε, é a seguinte: [ c] [ c] wk, j [ η ( dk zk fo ( NETk y j] para j,,..., J e k,,...,, onde f o (. é a derivada da função de ativação dos neurônios da camada de saída ( output layer. A fórmula para ajustar os valores dos pesos sinápticos que interligam um neurônio i da w ji, camada de entrada da rede neural com um neurônio j da camada escondida, é a seguinte: [ c w ] ji η f ( NET x δ w k, h j i k k, j para i,,..., I e j,,..., J, onde f h (. é a derivada da função de ativação dos neurônios da camada escondida ( hidden layer e δ d z f NET. O algoritmo PRE pode sofrer problemas de convergência (Pansalkar e Sastry, 994. Para superar tais dificuldades foram utilizadas as técnicas do η-adaptativo e do momento normalizado (Gabriel, 996. [ c] k ( k k o ( k 3 IDENTIFICAÇÃO DE SISTEMAS NÃO-LINEARES USANDO RNA`s A técnica de identificação a ser usada baseia-se nas Redes Neurais Artificiais - RNA s. No modelo entrada-saída, as entradas e as saídas da planta são representadas por suas respectivas derivadas, sendo que a ordem destas derivadas é que determinará o comportamento dinâmico da planta. As notações usadas para identificar a ordem da entrada e da saída, assim como o atraso da planta, são definidas conforme se segue: n y ordem da saída da planta, n u ordem da entrada da planta, n ordem da planta (igual a ordem da saída, ou seja, n n y e d atraso de transporte da planta (d n y - n u. (6 (7 planta e o seu modelo de redes neurais passa a ser descrita, de uma forma geral, por [ ] ( ( ( yk d gϕ kdn,,, W ek d (0 em que y é a saída da planta, g é a função escolhida para modelar o comportamento dinâmico da planta, ϕ é o vetor regressor de entrada do modelo, W é uma matriz contendo os parâmetros ajustáveis da rede neural (pesos sinápticos, donde se deduz imediatamente que a saída estimada pelo modelo é dada por yk $( d g[ ϕ ( kdn,,, W] ( A identificação de sistemas físicos usando RNA s pode ser feita através da utilização de um dos modelos de estruturas descritos em Nφrgaard et alii (00. Neste trabalho, será adotado o modelo NNARX mostrado a seguir. 3. Rede Neural Autoregressiva com Entradas Exógenas ( Neural Network AutoRegressive with exogeneous inputs - NNARX A expressão matemática do modelo não-linear estendido NNARX é dado pela expressão (, onde o vetor regressor ϕ é dado por ϕ( kdn,, [ yk ( d,..., yk ( dn uk (, uk (,..., uk ( dn, ] ( em que a entrada extra com valor fixo - corresponde à entrada do limiar de operação da rede neural ( threshold. A arquitetura do modelo NNARX é a seguinte: Tomando por base o caso linear discreto, a relação entre o sistema físico (ou planta e o seu modelo linear é dado por T ( ϕ ( θ ( yk d kdn,,. $ ek d (8 em que y é a saída da planta, ϕ é o vetor regressor de entrada do modelo linear, θ $ é o vetor de parâmetros estimados da planta a ser identificada e e é o erro de estimação, ek ( d yk ( d yk $ ( d, que substituído na expressão (8 fornece a saída estimada dada por ( ( yk $ d ϕ T kdn,,. θ $ (9 Estendendo o modelo linear da expressão (8 para o caso nãolinear usando RNA s, a relação entre o sistema físico (ou Figura 3: Modelo de estrutura NNARX Trata-se de um modelo estável no sentido BIBO ( Bounded Input, Bounded Output, pela razão de não possuir realimentação da saída estimada. A inexistência de problemas relativos à estabilidade faz deste modelo de estrutura a escolha preferida quando o sistema a ser modelado é determinístico ou o nível de ruído não é significativo (Nφrgaard et alii, 00. O modelo NNARX equivale ao modelo Série-Paralelo de Narendra e Parthasarathy (990. Neste último, as contribuições da entrada e da saída são matematicamente

4 separadas em duas redes neurais, de tal modo que a expressão ( é desmembrada e passa a ser escrita na forma yk $( d g( ϕ ( kdn,,, W g( ϕ ( kn,, W (3 y y y y u u u u em que g y e g u são funções que representam a saída e a entrada do modelo Série-Paralelo, respectivamente. 4 ESQUEMA DE CONTROLE HÍBRIDO INDIRETO Até o momento, pretendeu-se apenas apresentar alguns conceitos básicos sobre as Redes Neurais Artificiais - RNA s e os modelos de estruturas aplicados para a identificação de sistemas não-lineares de dinâmica desconhecida, com o propósito de dar uma fundamentação teórica para o Esquema de Controle Híbrido Indireto a ser desenvolvido nesta seção. A denominação de indireto decorre dos parâmetros do controlador serem ajustados com base num modelo estimado da planta e não no seu modelo nominal, isto devido provavelmente aos seguintes motivos: I impossibilidade do controlador acessar diretamente o valor dos parâmetros da planta e/ou II dificuldade para obter o valor exato dos parâmetros da planta, devido principalmente à existência de dinâmica não-linear de natureza desconhecida. o passo: Tomando uma aproximação para a derivada, tem-se $ yk $( d yk $( d yk $( d J ( k d uk ( uk ( uk ( uk (. Jk $ ( d uk (. Jk $ ( d yk $( d yk $( d (5 3 o passo: Como a expressão (5 foi obtida a partir da premissa de que o identificador neural já está treinado com os dados disponíveis até o instante k-, a idéia agora é usá-la para estimar o valor do próximo sinal de controle u(k a ser aplicado na planta, na hipótese de que yk $( d torne-se igual a y_ref(kd, sendo que este último é conhecido. Portanto, partindo da expressão (5, pela simples substituição do último sinal de controle disponível, u(k-, por u(k a ser calculado, e de yk $( d por y_ref(kd, tem-se uk (. Jk $ ( d uk (. Jk $ ( d y_ Ref( k d y$( k d (6 Subtraindo a expressão (6 de (5 e manipulando algebricamente, com o objetivo de eliminar o par de entradasaída estimada mais distante, [u(k-, yk $( d ], virá Para o desenvolvimento do esquema de Controle Híbrido Indireto utilizou-se um identificador neural (in e um controlador convencional dispostos conforme figura abaixo: uk (. Jk $ ( d uk (. Jk $ ( d y_ Ref( k d y$( k d [ uk ( uk ( ]. Jk $ ( d y_ Ref( k d y$( k d y_ Ref ( k d y$( k d uk ( uk ( Jk $ ( d (7 Figura 4: Esquema de Controle Híbrido Indireto em que z - é o operador de atraso unitário e e in (kd é o erro usado para treinamento do identificador neural em tempo real. O cálculo do sinal de controle u(k a ser aplicado na planta, de modo a se obter uma saída y(kd o mais próximo possível da referência y_ref(kd, será feito com base na identificação da planta, obedecendo a seguinte seqüência de passos: o passo: No intervalo de tempo entre k- e k o identificador neural é treinado com os dados obtidos até o instante k-, possibilitando assim o cálculo do Jacobiano estimado da planta, que é dado pela seguinte expressão matemática $ yk $( d Jk ( d ( (4 A expressão (7 é similar à expressão desenvolvida por Adetona et alii (00. A diferença básica é que esses autores usaram um modelo matemático baseado na linearização da planta por série de Taylor, enquanto que o desenvolvimento matemático usado neste trabalho tem como ponto de partida uma aproximação da derivada que fornece o Jacobiano estimado da planta. De outra maneira, significa dizer que Adetona et alii (00 construiram uma lei de controle indireto com foco inicial no modelo linearizado da planta para depois incorporarem um identificador, de modo a viabilizar o esquema de controle proposto. Por outro lado, este trabalho já partiu admitindo a necessidade operacional do identificador neural e assim, embora por caminhos diferentes, ambos chegaram na mesma equação dada pela expressão (7. De acordo com a lei de controle dada pela expressão (7, fica claro que a finalidade do identificador neural é obter um valor estimado para a saída e para o Jacobiano da planta. Como neste trabalho pretende-se usar, no máximo, uma rede neural contendo 03 (três camadas - entrada, escondida e saída, com função de ativação não-linear (p.ex. sigmóide bipolar na camada escondida e função de ativação linear na camada de saída, por sua característica de aproximador universal (Haykin, 999 e também por razões relacionadas com o tempo de treinamento, será desenvolvida uma expressão para o cálculo de Jk $ ( d baseada nos valores dos parâmetros do identificador neural após o seu treinamento. Obviamente, se for usada também uma função linear para a camada escondida da

5 rede acima citada, recai-se no caso de linearização da planta. Iniciando-se o processo de cálculo do Jacobiano estimado aplicando-se o identificador neural especificado, tem-se yk $( d f ( NET (8 o o em que f o (. é a função de ativação da camada de saída (a letra o vem de output saída e o número subescrito que aparece em NET é devido ao identificador possuir apenas uma saída. Derivando em relação ao sinal de entrada e aplicando a regra da cadeia, tem-se yk $( d yk $( d. o ( ( o (9 A primeira derivada que surge no membro direito da expressão (9, pode ser escrita como yk $( d fo( NETo f o o o ( NETo (0 e a segunda derivada parcial do membro direito da expressão (9, pode ser deduzida conforme se segue NET f ( NET. w f ( NET. w... o h h o,, h h o,, fh( NEThJ. wo,, J wo,, J o h fh( NETh. wo ( (.,, h fh( NETh. wo (....,, hj fh( NEThJ. wo J (.,, p o hj fh( NEThj. wo j ( (.,, ( j em que f h (. é a função de ativação da camada escondida (a letra h vem de hidden escondida e p é o número de neurônios da camada escondida. O valor da derivada parcial da expressão ( é dado por Finalmente, substituindo as expressões (3 e (0 em (9, obtém-se a expressão para cálculo do Jacobiano estimado da planta, qual seja Jk $ yk $( d ( d. o ( o Ressalta-se que os pesos p fo( NETo. fh( NEThj. wh, j, n d. wo,, j j w h, j,n d (4 correspondem à conexão da entrada u(k-, de posição n-d contada de cima para baixo, com os neurônios j da camada escondida. 5 EXEMPLO Visando possibilitar a avaliação da eficiência do esquema de Controle Neural Indireto foi realizada uma simulação, em que o identificador neural contém uma camada escondida, com funções de ativação sigmóide bipolar na camada escondida e linear na camada de saída. A constante de aprendizagem foi auto-ajustada pelo método do η-adaptativo. O sistema a ser controlado foi retirado do trabalho de Adetona et alii (00. Trata-se de uma planta não-linear de a ordem com atraso de transporte unitário, cuja expressão é a seguinte: yk ( 0. cos[ 08. ( yk ( yk ( ] 04. sin[ 08. ( y( k y( k u( k u( k ] ( uk ( uk ( 0.[ 9 yk ( yk ( ] cos( yk ( (5 A referência a ser seguida é dada pela seguinte expressão k k k y_ Ref ( k sin π sin π sin π (6 A simulação apresentou os seguintes resultados:.00 NET w. y( k d n i hj n i nd i n h, j, i w. u( k d n i h, j, i w. u( k w h, j, n d h, j, n d Saída da Planta Referência Saída da Planta hj ( w ( h, j, n d em que n-d é o número de entradas, excluindo a entrada do limiar de operação ( threshold. Substituindo a expressão ( em (, tem-se o ( p j fh( NEThj. wh, j, n d. wo,, j ( Figura 5: Saída da Planta y A figura 5 mostra que, após o identificador neural aprender o comportamento da planta em tempo real, a saída da planta (linha cheia segue a referência (linha pontilhada, com um erro de controle decorrente do erro de treinamento da rede neural artificial.

6 Sinal de Controle Nφrgaard, M., Rvn, O., Poulse, N.. e Hansen, L.., (00. Neural Networks for Modelling and Control of Dynamic Systems. Springer-Verlag London Limited. London. England. Pansalkar, V.V. e Sastry, P.S., (994. Analysis of the Back- Propagation Algorithm with Momentum. IEEE Transactions on Neural Networks, Vol. 5, No. 3, pp USA. Rumelhart, D.E., McClelland, J.L. e The PDP Group, (986. Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Vols. e. The MIT Press. Cambridge, Massachusetts. USA Figura 6: Sinal de Controle u A figura 6 mostra o sinal de controle que foi aplicado na planta, durante o processo de controle. 6 CONCLUSÕES O esquema de Controle Híbrido Indireto baseado nas Redes Neurais Artificiais - RNA s apresentou dificuldade no início do controle, o que seria de se esperar pelo fato de que o treinamento do identificador neural foi realizado totalmente on-line, i.e, sem nenhum pré-treinamento. Entretanto, a partir do instante que a planta foi controlada, o que ocorreu antes da iteração 00, a saída da planta acompanhou a referência demonstrando assim a eficiência do sistema de controle indireto desenvolvido neste trabalho. Voltando à questão da oscilação ( chattering no estado transitório, os autores acreditam que é possível desenvolver uma técnica auxiliar capaz de minimizar este efeito indesejável. Provavelmente, esta técnica deverá ponderar o sinal de controle com base em uma regra que considere o erro de convergência do identificador neural, de maneira similar a utilizada por Adetona et alii (00, porém apresentando uma maneira para calcular efetivamente este erro devido ao treinamento do identificador neural. No momento em que este trabalho estava sendo escrito, a metodologia para o cálculo do limite superior dos erros de modelagem devido ao erro de treinamento da rede neural já estava concluída e será mostrada na Parte II: Estabilidade e Robustez, em continuidade ao estudo do esquema de Controle Híbrido Indireto. Referência Bibliográfica Adetona, O., Sathananthan, S. e eel, L.H. (00. Robust Nonlinear Adaptive Control Using Neural Networks. In: Proc of the American Control Conference, pp Arlington, VA. USA. Åström,.J. e Wittenmark, B., (989. Adaptive Control. Addison - Wesley. Reading, Massachusetts. USA. Gabriel Fo, O., (996. Um Esquema de Controle Adaptativo Neural com Treinamento em Tempo Real. Dissertação de Mestrado. Universidade Federal do Rio Grande do Norte- UFRN. Natal, Rio Grande do Norte. Brasil Haykin, S., (999. Redes Neurais. Artmed Editora Ltda. Porto Alegre, Rio Grande do Sul. Brasil. Narendra,. e Parthasarathy,., (990. Identification and control of dynamical system using neural networks. IEEE Transactions on Neural Networks, Vol., No., pp USA.

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Redes Neurais. Controladores Neurais. Prof. Paulo Martins Engel. Identificação de Sistemas

Redes Neurais. Controladores Neurais. Prof. Paulo Martins Engel. Identificação de Sistemas Redes Neurais Controladores Neurais Identificação de Sistemas A identificação de sistemas é a abordagem experimental para modelar um processo ou de uma planta dinâmica de parâmetros desconhecidos. A tarefa

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

IF-705 Automação Inteligente Redes Neurais para Modelagem e Controle

IF-705 Automação Inteligente Redes Neurais para Modelagem e Controle IF-705 Automação Inteligente Redes Neurais para Modelagem e Controle Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação

Leia mais

Parte 7. Redes Neurais INTRODUÇÃO

Parte 7. Redes Neurais INTRODUÇÃO Parte 7. Redes Neurais INTRODUÇÃO As redes neurais representam uma técnica de inteligência artificial que permaneceu pouco estudada por muito tempo, sendo utilizada basicamente no reconhecimento de imagens.

Leia mais

Identificação Neural com Uso do Sinal de Erro de Predição

Identificação Neural com Uso do Sinal de Erro de Predição Proceedings of the IV Brazilian Conference on Neural Networks - IV Congresso Brasileiro de Redes Neurais pp. 036-041, July 20-22, 1999 - ITA, São José dos Campos - SP - Brazil Identificação Neural com

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

Redes Neurais Articiais para Controle de uma Planta de Nível

Redes Neurais Articiais para Controle de uma Planta de Nível 1 Redes Neurais Articiais para Controle de uma Planta de Nível Isabele Morais Costa, Luana Lyra de Almeida, Stella Neves Duarte Lisboa e Fábio Meneghetti Ugulino de Araújo ResumoEste trabalho pretende

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

3 Modelos Comparativos: Teoria e Metodologia

3 Modelos Comparativos: Teoria e Metodologia 3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito

Leia mais

Aula 1 Introdução - RNA

Aula 1 Introdução - RNA Aula 1 Introdução - RNA Sumário 1- Conceitos Iniciais; 2- Neurônio Biológico; 3- Neurônio Artificial; 4- Funções de Ativação; 5- Comparação Neurônio Biológico e Artificial. 1- Conceitos Iniciais - Computadores

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace

Leia mais

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Análise de um aproximador funcional utilizando as Redes Neurais artificiais MLP treinada com o algoritmo Backpropagation

Análise de um aproximador funcional utilizando as Redes Neurais artificiais MLP treinada com o algoritmo Backpropagation Análise de um aproximador funcional utilizando as Redes Neurais artificiais MLP treinada com o algoritmo Backpropagation Martinez, S. C. 1, Ferrara, L. F. P. 2, Mario, M. C. 2. 1 Aluna do Curso de Mestrado

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional

Leia mais

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais

Leia mais

3 Redes Neurais Introdução

3 Redes Neurais Introdução 3 Redes Neurais 3.. Introdução As redes neurais artificiais, ou comumente conhecidas como Neural Networs, foram motivadas em princípio pela extraordinária capacidade do cérebro humano para executar tarefas

Leia mais

Echo State Networks. Fabricio Breve João Bertini

Echo State Networks. Fabricio Breve João Bertini Echo State Networks Fabricio Breve João Bertini RNN Tarefas Filtragem e predição Classificação de Padrões Modelagem de Seqüências Estocásticas Memória Associativa Compressão de Dados RNN Aplicações Telecomunicações

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

IF-705 Automação Inteligente Redes Neurais para Modelagem e Controle

IF-705 Automação Inteligente Redes Neurais para Modelagem e Controle IF-705 Automação Inteligente Redes Neurais para Modelagem e Controle Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior Aula 2 Introdução Redes Neurais Prof. Dr. Sylvio Barbon Junior barbon@uel.br Sumário 1- Inteligência Artificial 2- Introdução às Redes Neurais Artificiais 3- Modelos de Redes Neurais supervisionados e

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Aspectos Temporais Modelagem de sistemas As tarefas que estudamos, classificação e regressão, podem ser vistas como atividades de modelagem de sistemas. As técnicas de modelagem

Leia mais

Redes Neurais Noções Gerais

Redes Neurais Noções Gerais Redes Neurais Noções Gerais Segundo Loesch (apupt Fernandes), Redes Neurais Artificiais são sistemas computacionais, de implementação em hardware e software, que imitam as habilidades computacionais do

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Neurônio Natural Dendritos: recebe os estímulos transmitidos por outros neurônios Soma Sinapse Axônio Soma: coleta e combina informações vindas de outros neurônios Sinapse Dendrito

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

XII Congresso Brasileiro de Meteorologia, Foz de Iguaçu-PR, 2002

XII Congresso Brasileiro de Meteorologia, Foz de Iguaçu-PR, 2002 ESTUDO PRELIMINAR DA UTILIZAÇÃO DE REDES NEURAIS NA PREVISÃO DE TEMPERATURA MÉDIA DIÁRIA PARA A CIDADE DE PELOTAS-RS Ariane Frassoni dos Santos 1, João Gerd Zell de Mattos 1, Paulo Roberto Krebs 2 1 Faculdade

Leia mais

IN Redes Neurais

IN Redes Neurais IN0997 - Redes Neurais Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação aluizioa@cin.ufpe.br Conteúdo Objetivos Quem usa

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

Thiago Christiano Silva

Thiago Christiano Silva Thiago Christiano Silva Conteúdo Conceitos Relevantes Problemas de Otimização Conceitos de Estabilidade e Convergência Teoremas de Lyapunov Rede Neural de Hopfield Aplicações do modelo de Hopfield Clusterização

Leia mais

Inteligência Computacional

Inteligência Computacional Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS INTRODUÇÃO Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 REDES NEURAIS ARTIFICIAIS - RNAs Inspiradas no cérebro humano São modelos computacionais inspirados nos mecanismos

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

Redes neurais artificiais

Redes neurais artificiais Redes neurais artificiais Conceitos em redes neuronais Redes neuronais artificiais (RNA): uma metáfora cerebral para processamento de informações Computação neuronal Muitos usos de RNA para Reconhecimento

Leia mais

Usando MLP para filtrar imagens

Usando MLP para filtrar imagens Usando MLP para filtrar imagens Thiago Richter, Ediel Wiezel da Silva, e Adilson Gonzaga Departamento de Engenharia Elétrica, Universidade de São Paulo, Brasil thiago.richter@yahoo.com.br, edielws@gmail.com,

Leia mais

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Multiple Layer Perceptron

Multiple Layer Perceptron Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Multiple Layer Perceptron David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Multiple Layer Perceptron (MLP) Backpropagation

Leia mais

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial

Leia mais

Introdução à Teoria do Aprendizado

Introdução à Teoria do Aprendizado Introdução à Teoria do Aprendizado Carlos Hall Os processos no mundo real são intrinsecamente: dinâmicos (dependem do tempo) não lineares não gaussianos não estacionários com restrições com interações

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

5HGHV1HXUDLV$UWLILFLDLV

5HGHV1HXUDLV$UWLILFLDLV 7 5GXUDL$UWLILFLDL A motivação pelo uso das Redes Neurais Artificiais RNA, comumente chamadas de redes neurais, é pelo reconhecimento de que o cérebro processa informações de uma forma diferente dos computadores

Leia mais

3 Sistema de Apoio à Decisão para o Controle de Tensão (SADECT) Baseado em Redes Neurais

3 Sistema de Apoio à Decisão para o Controle de Tensão (SADECT) Baseado em Redes Neurais 3 Sistema de Apoio à Decisão para o Controle de Tensão (SADECT) Baseado em Motivado pela importância do estabelecimento de um sistema de apoio à decisão que auxiliasse o operador de tempo real durante

Leia mais

Introdução à Mineração de Dados com Aplicações em Ciências Espaciais

Introdução à Mineração de Dados com Aplicações em Ciências Espaciais Introdução à Mineração de Dados com Aplicações em Ciências Espaciais Escola de Verão do Laboratório Associado de Computação e Matemática Aplicada Rafael Santos Dia 2: 1 /59 Programa Dia 1: Apresentação

Leia mais

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann: Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis

Leia mais

IF-705 Automação Inteligente Perceptrons de Múltiplas Camadas

IF-705 Automação Inteligente Perceptrons de Múltiplas Camadas IF-705 Automação Inteligente Perceptrons de Múltiplas Camadas Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação aluizioa@cin.ufpe.br

Leia mais

Estudo Comparativo de Técnicas de Controle em um Processo de Nível

Estudo Comparativo de Técnicas de Controle em um Processo de Nível 1 Estudo Comparativo de Técnicas de Controle em um Processo de Nível RESUMO O controle do nível de tanques é um problema clássico e é considerado um assunto de grande importância e aplicabilidade industrial,

Leia mais

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Redes Neurais Pulsadas João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Introdução Modelos de redes neurais podem ser classificados em gerações. Primeira Geração Neurônios de McCulloch-Pitts

Leia mais

2 2 SIMPÓSIO BRASILEIRO DE AUTOMAÇÃO INTELIGENTE

2 2 SIMPÓSIO BRASILEIRO DE AUTOMAÇÃO INTELIGENTE 2 2 SIMPÓSIO BRASILEIRO DE CEFET-PR, 13 a 15 de Setembro de 1995 Curitiba Paraná Uma Rede Neural Plástica para Controle em Tempo-Real P. C. do Nascimento, A. P. Alves da Silva, G. Lambert Torres Escola

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,

Leia mais

1 O que é uma Rede Neuronal?

1 O que é uma Rede Neuronal? Curso de Data Mining Sandra de Amo Aula 10 - Classificação utilizando Redes Neuronais 1 O que é uma Rede Neuronal? Até o momento, temos dois tipos de conceitos que podem ser produzidos em resposta a uma

Leia mais

Previsão de consumos a curto prazo

Previsão de consumos a curto prazo Previsão de consumos a curto prazo Cláudio Monteiro Distribuição de Energia II 5º ano da LEEC - ramo de Energia (FEUP) O que são? são técnicas computacionais que apresentam um modelo matemático inspirado

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)

Leia mais

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. Resumo: Lucas da Silva Assis Universidade Federal de Goiás lucasilvassis@gmail.com Esse trabalho apresenta

Leia mais

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy Proceeding Series of the Brazilian Society of pplied and Computational Mathematics, Vol., N., 0. Trabalho apresentado no XXXV CNMC, Natal-RN, 0. Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Análise e Implementação do Tripolo de Hopfield. s: dz i dt. = (Y i -Z i )/RC (2) X i1. X i2. W i2.

Análise e Implementação do Tripolo de Hopfield.  s:  dz i dt. = (Y i -Z i )/RC (2) X i1. X i2. W i2. Proceedings of the VI Brazilian Conference on Neural Networks - VI Congresso Brasileiro de Redes Neurais pp. 391 396, June 2 5, 2003 Centro Universitário da FEI, São Paulo - SP - Brazil Análise e Implementação

Leia mais

Utilização do solidthinking Embed em projetos de controle para sistemas embarcados utilizando técnica de controle adaptativo por modelo de referência.

Utilização do solidthinking Embed em projetos de controle para sistemas embarcados utilizando técnica de controle adaptativo por modelo de referência. Utilização do solidthinking Embed em projetos de controle para sistemas embarcados utilizando técnica de controle adaptativo por modelo de referência. Rodrigo de J. Macedo Resumo Apresenta-se, neste artigo,

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Inteligência Artificial

Leia mais

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1

Leia mais