ENGENHARIA DE CONTROLE E AUTOMAÇÃO ANDERSON DA SILVA COSTA JORGE ALVES MARTINS FILHO

Tamanho: px
Começar a partir da página:

Download "ENGENHARIA DE CONTROLE E AUTOMAÇÃO ANDERSON DA SILVA COSTA JORGE ALVES MARTINS FILHO"

Transcrição

1 ENGENHARIA DE CONTROLE E AUTOMAÇÃO ANDERSON DA SILVA COSTA JORGE ALVES MARTINS FILHO IDENTIFICAÇÃO OFFLINE E VALIDAÇÃO ONLINE DE MODELO COMPUTACIONAL PARA UMA COLUNA DE DESTILAÇÃO PILOTO Campos dos Goytacazes/RJ 2013

2 ii ANDERSON DA SILVA COSTA JORGE ALVES MARTINS FILHO IDENTIFICAÇÃO OFFLINE E VALIDAÇÃO ONLINE DE MODELO COMPUTACIONAL PARA UMA COLUNA DE DESTILAÇÃO PILOTO Monografia apresentada ao Instituto Federal Fluminense como requisito parcial para conclusão do curso de Engenharia de Controle e Automação. Orientador: Prof. D.Sc. Adelson Siqueira Carvalho Campos dos Goytacazes/RJ 2013

3 iii ANDERSON DA SILVA COSTA JORGE ALVES MARTINS FILHO Monografia apresentada ao Instituto Federal Fluminense como requisito parcial para conclusão do curso de Engenharia de Controle e Automação. Aprovada em 03 de Abril de 2013 Banca Avaliadora:... Prof D.Sc. Adelson Siqueira Carvalho (Orientador) Doutor em Informática na Educação/UFRGS Instituto Federal de Educação, Ciência e Tecnologia Fluminense... Prof D.Sc. Alexandre Carvalho Leite Doutor em Engenharia e Tecnologia Espacial/Mecânica Espacial e Controle/INPE Instituto Federal de Educação, Ciência e Tecnologia Fluminense... Prof Msc. Cleber de Medeiros Navarro Mestre em Engenharia de Produção/UENF Instituto Federal de Educação, Ciência e Tecnologia Fluminense

4 iv AGRADECIMENTOS Agradeço a minha família e amigos pelo apoio e principalmente aos meus pais pelo incentivo em todas as horas e por acreditar que eu era capaz de realizar esse sonho. Agradeço ao Professor Doutor Adelson Siqueira Carvalho pela exemplar orientação e também aos Professores Doutor Alexandre Carvalho Leite e Mestre Cleber Medeiros Navarro por terem aceitado participar da banca avaliadora e finalmente agradeço meu amigo Jorge Alves Martins Filho, minha dupla nesse trabalho, pela dedicação. Anderson da Silva Costa Agradeço aos meus pais, por terem me proporcionado sempre todas as condições necessárias para poder concluir meus objetivos. Agradeço ao Professor Doutor Adelson Siqueira Carvalho, pela orientação ofertada, sempre nos ajudando de forma magnífica nos momentos de dificuldade. Por fim, agradeço ao meu amigo Anderson da Silva Costa, companheiro na execução deste trabalho. Jorge Alves Martins Filho

5 v RESUMO Este trabalho teve por objetivo realizar a identificação de um sistema utilizando redes neurais artificiais, para modelar de forma computacional a relação entre vazão de entrada e temperatura de topo da coluna de destilação piloto localizada no Instituto Federal Fluminense, campus Campos-centro. Após a identificação, a validação do modelo proposto sucedeu de forma online, com a finalidade de provar que o modelo gerado representa de forma segura as características dinâmicas do processo estudado. A rede utilizada foi a Perceptron Multicamadas (Multilayer Perceptron - MLP), com o algoritmo de treinamento de retropropagação do erro (backpropagation). Os estímulos aplicados na vazão de entrada foram o degrau e o Sinal Binário Pseudo Aleatório (Pseudo Random Binary Signal - PRBS). Os resultados são apresentados de forma gráfica e também é utilizado o Erro Médio Quadrado (Mean Squared Error - MSE) para obter-se o valor do erro entre as saídas do processo real e a saída simulada do modelo neural. O trabalho foi todo desenvolvido no software MATLAB, usando a ferramenta NNTOOL para gerar a arquitetura da rede neural e o Simulink para formar todo o ambiente de simulação. Palavras chave: Redes Neurais Artificiais. Identificação de sistema. Coluna de Destilação Piloto. MATLAB

6 vi ABSTRACT This study aimed to perform the identification of a system using artificial neural networks for modeling computational form of the relationship between flow rate and inlet temperature of the top of the distillation column pilot located at Instituto Federal Fluminense, campus Campos-center. After identification, the model validation happened form online, in order to prove that the model is reliably generated dynamic characteristics of the process under study. The network used was the Multilayer Perceptron with backpropagation training algorithm. The stimuli applied to the input flow were rung and the Pseudo Random Binary Signal (PRBS). The results are presented graphically and are also used Mean Squared Error (MSE) to get the value of the error between the actual outputs of the process and the output of simulated neural model. The whole work was developed in Matlab, using the tool to generate NNTOOL the architecture of the neural network and Simulink to form the whole simulation environment. Keywords: Artificial Neural Networks. System of Identification. Pilot Distillation Column. MATLAB.

7 vii LISTA DE FIGURAS Figura 2.1 Coluna de destilação piloto (Adaptado de Crespo, 2000)...5 Figura 2.2 Coluna de destilação piloto com a instrumentação atual (Carvalho, 2008)...7 Figura 2.3 Neurônio Biológico (Braga et al., 2000)...9 Figura 2.4 Neurônio Artificial de McCulloch e Pitts (Grasse, 2004)...10 Figura 2.5 Perceptron (Adaptado de Carvalho et al., 2004)...13 Figura 2.6 MLP com uma camada intermediária (Braga et al., 2000)...17 Figura 2.7 As duas fases do treinamento do backpropagation (Grasse, 2004)...19 Figura 3.1 Rede de Wavelets usada na identificação de processos (Moura, 2003)...23 Figura 3.2 Planta de níveis composta por dois tanques em cascata (Adaptado de Fernandes, 2007)...27 Figura 3.3 Esquema de um neurônio na rede Foundation Fieldbus (Filho et al., 2010)...30 Figura 3.4 Planta didática industrial do IFES (Alves et al., 2012)...31 Figura 4.1 Modelo do Simulink para a aquisição dos dados...32 Figura 4.2 Primeiro degrau aplicado...34 Figura 4.3 Temperatura em função do primeiro degrau...34 Figura 4.4 Segundo degrau aplicado...35 Figura 4.5 Temperatura em função do segundo degrau...36 Figura 4.6 Terceiro degrau aplicado...36 Figura 4.7 Temperatura em função do terceiro degrau...37 Figura 4.8 Degrau aplicado na válvula de vazão de entrada da mistura...38 Figura 4.9 Comportamento da temperatura de topo em função do degrau dado...39 Figura 4.10 Vazão normalizada...40 Figura 4.11 Temperatura normalizada...41 Figura 4.12 Vazão normalizada e reduzida...41 Figura 4.13 Temperatura normalizada e reduzida...42 Figura 4.14 Atraso das variáveis...43 Figura 4.15 Valores de vazão (VZ) no instante atual e instante anterior...43 Figura 4.16 Temperatura de topo (TT) no instante atual e instante anterior...44 Figura 4.17 Ferramenta NNTOOL do MATLAB...45 Figura 4.18 Arquitetura da Rede Implementada...46 Figura 4.19 Conjunto de blocos do Simulink utilizados para normalização...48

8 viii Figura 4.20 Modelo usado para fazer a validação online...50 Figura 5.1 Degraus aplicados na aquisição e validação...52 Figura 5.2 Comportamento da temperatura na aquisição e validação de acordo com os degraus aplicados...53 Figura 5.3 Resultado da validação online para o estímulo degrau...54 Figura 5.4 PRBS aplicado na variável de entrada (vazão)...55 Figura 5.5 Comparação entre temperatura real e simulada de acordo com o PRBS aplicado na vazão de entrada...55

9 ix LISTA DE SIGLAS E ABREVIATURAS ADALINE ADAptive LINear Neuron ARX Auto-Regressive with exogenous input DFI Device Fieldbus Interface DIF Detecção e Isolamento de Falhas FF Foundation Fieldbus GLP Gás Liquefeito de Petróleo GPS Global Positioning System HYSYS Software de processo químico IA Inteligência Artificial IEA-R1 Modelo de um reator nuclear IFES Instituto Federal do Espírito Santo IFF Instituto Federal Fluminense LCO Óleo Leve de Reciclo LITOFÁCIES Conjunto de características litológicas de uma rocha LMS Least Mean Square MADALINE Multiple ADALINE MATLAB MA Trix LABoratoy MCP Modelo de neurônio artificial proposto por McCulloch e Pitts MLP Multilayer Perceptron MSE Mean Squared Error NARX Nonlinear AutoRegressive with exogenous input

10 x NNARX Neural Network AutoRegressive Moving Average external input NNTOOL Neural Network Toolbox OPC OLE for Process Control P Valor da variável desnormalizada PID Proporcional Integral Derivativo Pmax Valor máximo da variável P Pmin Valor mínimo da variável P Pn Valor da variável P normalizada PRBS Pseudo Random Binary Signal RBF Radial Basis Function RHONN Recurrent High Order Neural Networks RNA Rede Neural Artificial RProp Resilent Backpropagation SCHAR Bloco Funcional Condicionador de Função SNNS Stuttgart Neural Network Simulator TT Temperatura de Topo VZ Vazão de Entrada X1 Vazão de entrada no instante atual (VZ); X2 Temperatura de topo no instante anterior TT (t-1); X3 Vazão de entrada no instante anterior VZ (t-1). WNN Wavelet Neural Network

11 xi SUMÁRIO AGRADECIMENTOS...iv RESUMO...v ABSTRACT...vi LISTA DEFIGURAS...vii LISTA DE SIGLAS E ABREVIATURAS...ix CAPÍTULO INTRODUÇÃO APRESENTAÇÃO MOTIVAÇÃO E JUSTIFICATIVA OBJETIVOS ORGANIZAÇÃO DA MONOGRAFIA...4 CAPÍTULO II...5 REFERENCIAL TEÓRICO COLUNA DE DESTILAÇÃO PILOTO REDES BIOLÓGICAS REDES NEURAIS ARTIFICIAIS PERCEPTRON ADALINE MULTILAYER PERCEPTRON (MLP) BACKPROPAGATION IDENTIFICAÇÃO DE SISTEMAS POR RNA...20 CAPÍTULO III...22 REVISÃO BIBLIOGRÁFICA...22

12 xii CAPÍTULO IV...32 METODOLOGIA AQUISIÇÃO DE DADOS TRATAMENTO DOS DADOS NORMALIZAÇÃO E REDUÇÃO DOS DADOS ATRASO DAS VARIÁVEIS ARQUITETURA DA RNA TREINAMENTO DA RNA VALIDAÇÃO ONLINE...48 CAPÍTULO V...52 RESULTADOS...52 CAPÍTULO VI...57 CONCLUSÃO...57 REFERÊNCIAS...58

13 CAPÍTULO I INTRODUÇÃO 1.1-APRESENTAÇÃO A modelagem matemática vem sendo utilizada desde a antiguidade, na qual o homem tem procurado entender a dinâmica de sistemas reais utilizando esse método e assim resolver problemas relacionados a eles. Os modelos matemáticos são utilizados em várias áreas do conhecimento humano como: matemática, engenharia, física, computação, etc. Há várias formas de classificar técnicas de modelagem. Uma delas agrupa os métodos em três categorias denominadas modelagem caixa branca, modelagem caixa preta e modelagem caixa cinza. (AGUIRRE, 2007). A modelagem caixa branca, que também é conhecida como modelagem pela física ou modelagem conceitual baseia-se em leis e princípios físicos que descrevem a dinâmica do processo a ser modelado. A utilização deste método em alguns casos se torna inviável, devido a dificuldade de obtenção do modelo, ou à necessidade de encontrar um bom modelo em tempo hábil. Na modelagem caixa preta ou modelagem empírica não é necessário um conhecimento significativo do funcionamento do sistema, sendo necessária apenas a disponibilidade dos dados, assim o que se pretende descrever com esses modelos são as relações de causa e efeito entre as variáveis de entrada e de saída, a partir de um ajuste dos parâmetros livres do modelo, trata-se de um problema de estimação de parâmetros, dentre os modelos mais utilizados têmse as Redes Neurais Artificiais (RNA s) e os modelos auto-regressivos. O método que se encontra entre os dois citados anteriormente denomina-se caixa cinza, este busca mesclar as vantagens dos métodos caixa branca e caixa preta. As RNA s são um paradigma de Inteligência Artificial baseado nos neurônios naturais presentes no cérebro dos seres humanos. Suas primeiras utilizações surgiram a partir de 1950, nessa época também surgiu o termo Inteligência Artificial (IA) para designar um conjunto de técnicas que permitiriam o desenvolvimento de sistemas genéricos para resolver qualquer problema desde devidamente representado. Desta forma, as RNA s que estão num contexto da

14 2 IA conexionista, surgiram como uma alternativa a abordagem simbólica, baseada na lógica, conhecida como IA dura. Devido ás características não lineares inerentes ao mapeamento entre camadas de RNA s feedforward, estas se caracterizam como ferramentas de modelagem bastante apropriadas para o modelamento e controle de sistemas. (BRAGA et al., 2000). Na modelagem da coluna de destilação piloto do IFFluminense campus Camposcentro, viu-se a necessidade de utilização de um método de modelagem do tipo caixa preta ou empírica, mais especificamente RNA s, devido ao fato de que a modelagem caixa branca iria exigir demasiado tempo e conhecimento dos processos fisico-químicos inerentes à transferência de energia e massa no interior da coluna de destilação. Colunas de destilação ou torres de destilação estão presentes em grande número nas usinas de produção de álcool e também em refinarias de petróleo e em unidades de processamento de gás natural. Estes processos industriais são perfeitos exemplos de sistemas dinâmicos, multivariáveis e de comportamento não linear. (CARVALHO, 2008). 1.2-MOTIVAÇÃO E JUSTICATIVA Em sistemas não lineares a modelagem matemática pode ser um processo complexo e trabalhoso ou até ser impossível de ser implementado, pois se necessita de um conhecimento profundo do funcionamento do processo, e nem sempre o modelo obtido corresponde à realidade, nesse contexto outras técnicas são utilizadas, como RNA s com o objetivo de diminuir o tempo gasto na modelagem e obter resultados mais seguros. As RNA s conseguem ajustar-se a dados oriundos do processo, dispensando o conhecimento das relações físicoquímicas que transformam entradas em saídas, facilitando o processo de modelagem e consequente obtenção do modelo. As RNA s são capazes de aprender através de um conjunto reduzido de exemplos, extrair informações não apresentadas de forma explícita e generalizar as informações aprendidas. A RNA é uma ferramenta computacional bastante eficiente e atrativa para soluções de problemas complexos. Essas possuem elevada aptidão de modelar com veracidade ações não lineares que somados a algoritmos para treinamento on-line, permitem o controle de sistemas que variam com o tempo. Este tipo de rede admite que sistemas dinâmicos, ou seja, aqueles em que o valor da saída não depende somente das entradas atuais, mas também das entradas e estados anteriores, sejam modelados através de uma aproximação

15 3 da função. Desta forma as RNA s tem a função de encontrar os parâmetros (pesos e termos de polarização) para que a rede seja confiável, atuando como um modelo não paramétrico. Em compensação, nos casos onde os parâmetros possuem alguma relação com as características físicas do sistema, os modelos se tornam mais confiáveis. (BRAGA et al., 2000). Sendo assim a validação da RNA executada de maneira online comprova que o modelo neural gerado seja qualificado como seguro. Pois a RNA calculará a saída com base nos pesos e bias obtidos no treinamento da rede e utilizará valores da variável de entrada diferentes daqueles adquiridos para realizar o treinamento. 1.3-OBJETIVO O objetivo desse trabalho é produzir um modelo que represente o comportamento mais próximo o possível do comportamento real da coluna de destilação piloto do IFFluminense campus Campos-centro, observando e coletando os dados de seu funcionamento para posteriormente treinar uma RNA em offline e em seguida realizar a validação do modelo numérico de forma online. A modelagem da coluna de destilação piloto é de grande importância, pois assim podemos reproduzir em laboratório o que é usado na indústria. Assim, para que seu funcionamento seja otimizado, primeiro é preciso encontrar um modelo que melhor descreva o comportamento de suas variáveis. Para uma modelagem mais próxima o possível do funcionamento real, o modelo depois de coletado e treinado será testado online para possível validação. Esse trabalho diferencia-se do trabalho de Carvalho et al. (2004), uma vez que este trabalho fez o treinamento da rede com dados adquiridos por Crespo em 1999, diferencia-se também da dissertação de Carvalho (2008), já que ele utilizou um modelo auto-regressivo do tipo Auto-Regressive with exogenous input (ARX) para modelagem da coluna de destilação e do trabalho de Silva et al. (2010) uma vez que este utilizou os dados obtidos pela dissertação de Carvalho (2008) para treinamento de uma RNA, e fez uma comparação com o resultado obtido pelo método modelo auto-regressivo usado anteriormente por Carvalho (2008). Já o trabalho desta monografia distinguisse das demais pela nova massa de dados coletada da vazão de entrada e temperatura de topo da coluna, treinamento de uma RNA e sua validação de forma online.

16 4 1.4-ORGANIZAÇÃO DA MONOGRAFIA Esta monografia está estruturada da seguinte forma: No capítulo I, é apresentada a introdução da monografia destacando a apresentação do tema, motivação e justificativa e os objetivos do trabalho. No capítulo II, é apresentado o referencial teórico do trabalho relativo à coluna de destilação piloto do IFF, redes biológicas, as características das redes neurais artificiais e seu uso como ferramenta computacional para modelagem de sistemas dinâmicos. No capítulo III, é apresentada a revisão bibliográfica deste trabalho com relação ao tema escolhido e as abordagens utilizadas para sua resolução. No capítulo IV, é apresentada a metodologia utilizada no trabalho, detalhando as suas etapas. No capítulo V, são apresentados os resultados obtidos no trabalho com desenvolvimento dos treinamentos e validações das redes propostas. No capítulo VI, são apresentadas as conclusões do trabalho.

17 5 CAPÍTULO II REFERENCIAL TEÓRICO COLUNA DE DESTILAÇÃO PILOTO A coluna de destilação didática foi projetada pelo professor Luiz Paulo Miranda Vaillant do curso de Química da antiga Escola Técnica Federal de Campos, atual IFF, cujo objetivo era a evolução e aperfeiçoamento de pesquisas no processo de destilação. A coluna de destilação piloto, objeto deste estudo foi projetada inicialmente para produção de aguardente, que é fabricada na coluna chamada coluna de destilação ou simplesmente coluna A. Porém foi acrescentada outra parte para a fabricação do álcool hidratado, chamado coluna de retificação ou coluna B. A Figura 2.1 mostra a coluna de destilação piloto do IFFluminense campus Campos-centro. Figura 2.1 Coluna de destilação piloto (Adaptado de Crespo, 2000).

18 6 Segundo Carvalho (2008), em geral, as colunas de destilação têm a finalidade de fazer a separação de uma mistura de líquidos miscíveis em seus componentes na petroquímica e na indústria de química. Esta separação acontece pela diferença de temperatura de ebulição dos elementos constituintes na mistura. Dessa forma, através do aumento de temperatura do fundo da coluna, onde se encontra a mistura, consegue-se principalmente vaporizar as substâncias mais voláteis, que são condensadas no topo da coluna, enquanto as menos voláteis tendem a ficar na fase líquida no fundo da coluna. A coluna de destilação piloto é formada de 5 gomos de 150 mm de altura e 150 mm de diâmetro cada e 10 pratos perfurados sem calotas, atuando como coluna de destilação e uma coluna de retificação, sobreposta à primeira, com 5 gomos de 80 mm e 150 mm de diâmetro cada e 10 pratos perfurados sem calotas, funcionando como coluna de retificação. A base da coluna, também chamada de panela, tem 200 mm de altura e 150 mm de diâmetro. Os trocadores de calor são do tipo casca e tubo, em aço inoxidável, eles foram projetados para atuarem como aquecedores da mistura e também como condensadores dos vapores alcoólicos que são emitidos do topo da coluna. O sistema de aquecimento da mistura é realizado na base da coluna por meio de uma resistência de 1000 W de potência (2X500W) em 127 V de tensão alternada, até que a mistura aquecida se vaporize, gerando um fluxo crescente de vapor no interior da coluna. A partir deste momento dois fluxos são formados: um de vapor que é crescente e outro líquido decrescente. O vapor vai sendo engrandecido à medida que sobe na coluna, já que a temperatura de topo é em torno de 78 C, o que por sua vez não consegue vaporizar a água, que se condensa, ocasionando num segundo fluxo, que volta para a base da coluna aproximadamente sem álcool. A coluna possui um controle de nível, em que se deseja manter o valor ambicionado em 75% da faixa de medição. Este controle é importante para evitar que a resistência fique fora do meio líquido. Além disso, a coluna possui um sistema de aquisição de dados de porte industrial, instrumentos de medição das variáveis do processo ligadas por meio de uma rede Foundation Fieldbus (FF), através do Device Fieldbus Interface (DFI) que se conecta a rede de instrumentos, enviando as informações para o computador por uma rede Ponta-a-ponto. No computador ficam disponíveis as informações que podem ser acompanhadas e alteradas através do Syscon, que é o programa responsável por fazer a configuração, manutenção e operação dos instrumentos ligados à rede FF.

19 7 A proposta desse trabalho é fazer a modelagem utilizando a ferramenta computacional RNA de duas das principais variáveis da coluna de destilação: Vazão de entrada e temperatura de topo da coluna. A Figura 2.2 mostra a coluna de destilação piloto do IFFluminense campus Camposcentro com a instrumentação atual. Figura 2.2 Coluna de destilação piloto com a instrumentação atual (Carvalho, 2008). A coluna de destilação piloto diferencia-se das colunas industriais pelo fato das colunas (destilação e retificação) serem conjugadas. Além do mais, o sistema de aquecimento em colunas industriais é feito por um equipamento chamado de refervedor, que tem a finalidade de vaporizar a mistura procedente do fundo da coluna por meio de transferência de calor, realizada por vapor de água que passa através dos tubos. Outra diferença importante é o fato de que o sistema de retorno do destilado à coluna, conhecido como refluxo, que tem como função aumentar a composição de destilado de forma a conseguir um álcool entre 92 e 96 GL, não esta disposto na coluna. Esta seção apresentou as características da coluna de destilação piloto do IFFluminense campus Campos-centro, que foi utilizada para o desenvolvimento do sistema de identificação via RNA. Na seção 2.2 serão apresentadas as características dos neurônios biológicos.

20 REDES BIOLÓGICAS. O cérebro humano contém em torno de neurônios, cada um desses neurônios processa e se comunica com milhares de outros continuamente e em paralelo. O trabalho em RNA s tem sido motivado pelo reconhecimento de que o cérebro humano processa informações de uma forma inteiramente diferente do computador digital convencional. O cérebro é um computador altamente complexo, não linear e paralelo. Ele tem a capacidade de organizar seus neurônios, de forma a realizar certos processamentos, muito mais rapidamente do que o mais potente computador atual, reconhecer padrões e relacionalos, usar e armazenar conhecimento por experiência, além de interpretar observações. Porém o funcionamento das redes biológicas ainda não foi totalmente desvendado pelo homem. No entanto, o comportamento individual dos neurônios biológicos é bem entendido do ponto de vista funcional, e é exatamente nesse comportamento conhecido que se baseiam as RNA s. Os Neurônios biológicos são divididos em três seções: o corpo celular, os dendritos e o axônio, cada função é específica, porém elas são complementares. Os dendritos têm a função de receber as informações ou impulsos nervosos, oriundos de outros neurônios e conduzi-las até o corpo celular, que são basicamente conexões de entrada. Nele a informação é processada e novos impulsos são gerados. Esses impulsos são transmitidos a outros neurônios, através do axônio até os dendritos dos neurônios seguintes. O ponto de contato entre a terminação axônica de um neurônio e o dendrito de outro é chamado de sinapse. É pelas sinapses que os nodos se unem funcionalmente, formando redes neurais. As sinapses funcionam como válvulas, e são capazes de controlar a transmissão de impulsos isto é, o fluxo da informação entre os nodos na rede neural. O efeito da sinapse é variável, e é esta variação que dá o neurônio a capacidade de adaptação. (BRAGA et al., 2000).

21 9 A Figura 2.3 apresenta o esquema de um neurônio biológico. Figura 2.3 Neurônio Biológico (Braga et al., 2000). Esta seção apresentou as divisões dos neurônios biológicos e também como funcionam e a função de cada um dos elementos que compõem o neurônio. Na seção 2.3 será exibido um breve histórico sobre as redes neurais artificiais e também suas características em geral REDES NEURAIS ARTIFICIAIS O primeiro modelo artificial de um neurônio biológico foi feito por Warren McCulloch (neuroanatomista) e Walter Pitts (matemático) em 1943, eles escreveram um livro que apresentava uma discussão sofisticada de redes lógicas de nodos e novas ideias sobre máquinas de estados finitos, elementos de decisão de limiar lineares e representações lógicas. O trabalho de McCulloch e Pitts resultou numa analogia entre células nervosas vivas e o processo eletrônico num trabalho publicado sobre os neurônios formais. O trabalho consistia num modelo de resistores variáveis e amplificadores representando conexões sinápticas de um neurônio.

22 10 Figura 2.4. Podemos observar um modelo representativo de um neurônio artificial conforme a Figura 2.4 Neurônio Artificial de McCulloch e Pitts (Grasse, 2004). O final da década de 80 marcou o retorno da área de RNA s, também conhecida como conexionismo ou sistemas de processamento paralelo e distribuído. Este modo de computação não algorítmica é caracterizado por sistemas que, em algum nível, recordam à estrutura do cérebro humano. Uma RNA é um processador maciçamente paralelamente distribuído, constituído de unidades de processamento simples, que têm a propensão natural para armazenar conhecimento experimental e torná-lo disponível para uso. Ela se assemelha ao cérebro em dois aspectos: 1 O conhecimento é adquirido pela rede a partir de seu ambiente através de um processo de aprendizagem. 2 Forças de conexões entre neurônios, conhecidos como pesos sinápticos, são utilizados para armazenar o conhecimento adquirido. (HAYKIN, 2001). As RNA s podem possuir uma ou mais camadas interligadas por um grande número de conexões, normalmente unidirecionais. Na grande parte dos modelos estas conexões estão associadas a pesos, em que armazenam o conhecimento representado do modelo, e exercem a função de ponderar a entrada recebida por cada neurônio da rede. Os modelos RNA s constituem uma importante técnica estatística não linear capaz de resolver uma gama de problemas de grande complexidade. Em RNA s o procedimento passa inicialmente por um processo de aprendizagem, elas são capazes de responder a estímulos de entrada, em que um conjunto de exemplos é

23 11 introduzido à rede, as características que representam as informações fornecidas são extraídas automaticamente e são utilizadas posteriormente para gerar respostas para o problema. As etapas de modelagem de uma rede neural envolvem essencialmente três passos: 1 - Treinamento e Aprendizado: obtido pelo ambiente gerador dos dados. 2 - Associação: reconhecimento de padrões distintos. 3 - Generalização: está relacionado à capacidade da rede de reconhecer com sucesso o ambiente que origina os dados e não propriamente os dados utilizados no treinamento. A definição da arquitetura de uma RNA é de grande importância na sua criação, pois ela restringe o tipo de problema que pode ser tratado pela rede. Os seguintes parâmetros fazem parte da definição de arquitetura: número de camadas da rede, número e tipo de conexão entre os nodos em cada camada e topologia da rede. Segundo Braga et al. (2000) as RNA s podem possuir as seguintes arquiteturas em relação ao número de Camadas: 1 - Redes de camada única - só existe um nó entre qualquer entrada e qualquer saída da rede. 2 - Redes de múltiplas camadas - existem mais de um nó entre alguma entrada e alguma saída. Em relação aos nodos, eles podem ter os seguintes tipos de conexões: 1 - Feedforward, ou acíclica a saída de um nó na i-ésima camada da rede não pode ser usada como entrada de nodos em camadas de índice menor ou igual a i. 2 - Feedback, ou cíclica a saída de algum nó na i-ésima camada da rede é usada como entrada de nodos em camadas de índice menor ou igual a i. O processo de aprendizagem de uma rede neural é uma etapa fundamental em seu treinamento, ela aprende acerca do seu ambiente através de um processo interativo de ajustes aplicados sinápticos e níveis de bias, o tipo de aprendizagem é determinado pela maneira em que a modificação dos parâmetros ocorre. Segundo Haykin (2001) o processo de aprendizagem ocorre na seguinte sequência de eventos: 1 - A RNA é estimulada por um ambiente. 2 - A RNA sofre modificações nos seus parâmetros livres como resultado desta estimulação. 3 A RNA responde de uma maneira nova ao ambiente, devido às modificações ocorridas na sua estrutura interna. Diversos métodos de aprendizagem foram desenvolvidos, podendo ser agrupado em dois grupos principais: aprendizado supervisionado e aprendizado não supervisionado. O aprendizado supervisionado é o mais comum no treinamento de RNA s, tanto de neurônios com peso como de neurônios sem peso, em que a entrada e a saída desejadas para a

24 12 rede são fornecidas por uma fonte externa. O objetivo é ajustar os parâmetros da rede de modo a encontrar uma ligação entre a entrada e a saída fornecida, a rede tem sua saída comparada com a saída desejada, recebendo informações sobre o erro da resposta atual. Com a resposta calculada, ajustam-se os pesos das conexões para minimizar o erro. No aprendizado não supervisionado somente os padrões de entrada estão disponíveis para a rede, essas entradas são apresentadas continuamente à rede, e a existência de regularidades nesses dados faz com que o aprendizado seja possível. Esse aprendizado se aplica a problemas que visam à descoberta de características estatisticamente relevantes nos dados de entrada, como, por exemplo, a descoberta de agrupamentos, ou classes. Esta seção apresentou um breve histórico das redes neurais artificiais, suas etapas para o processo de modelagem, os parâmetros que devem ser considerados para a escolha da arquitetura, a sequência e os tipos dos processos de aprendizagem. Na seção 2.4 serão apresentadas as características do modelo perceptron PERCEPTRON Em 1958 Frank Rosenblatt propôs um modelo conhecido como perceptron, esse modelo era composto por uma estrutura de rede, utilizando como unidades principais neurônios MCP (modelo de neurônio artificial proposto por McCulloch e Pitts) e por apenas uma regra de aprendizado. A estrutura original era formada por unidades de entrada (retina), por um nível intermediário composto pelas unidades de associação e também um nível de saída formado pelas unidades de resposta. Esta tipologia ficou conhecida como perceptron de uma única camada, pois somente o nível de saída (unidades de resposta) apresenta propriedades adaptativas. A retina são os sensores e unidades intermediárias de associação, estes possuem pesos fixos, determinados antes do período de treinamento, mesmo sendo formado por neurônios MCP.

25 13 A Figura 2.5 apresenta o esquema básico de um perceptron. Figura 2.5 Perceptron (Adaptado de Carvalho et al., 2004). O perceptron de Rosemblatt era utilizado inicialmente para o reconhecimento de padrões, caracteres e funcionava da seguinte forma: Um neurônio i com p entradas do tipo W ij U j apresenta uma função NET i dada por NET i = Σ j W ij U j + θ onde W ij é a representação dos pesos das conexões do neurônio j para o neurônio i, U j são entradas para o neurônio j, NET i é a função de entrada para o neurônio i e θ é um termo chamado bias, que sempre apresenta a entrada +1 e um peso adaptativo w 0. (2.1) Onde Y é a saída do neurônio i e λ é a função de saída do mesmo neurônio, que no caso do perceptron é não linear, e se comporta da seguinte maneira: (2.2) (2.3)

26 14 A saída do neurônio (ou da rede) será sempre +1 ou 1 dependendo das entradas, desta forma é realizada uma separação ou classificação. (CARVALHO et al., 2004). O algoritmo de aprendizado do perceptron pode ser realizado através dos seguintes passos: 1- O primeiro passo a ser feito é a inicialização com pesos aleatórios para as conexões; 2- Selecione um vetor de entrada u do conjunto de treinamento; 3- Caso y d, mudar todas as conexões w i, de acordo com: Onde: η = coeficiente de aprendizado; (2.4) y = Saída efetiva do neurônio; d = Saída desejada. 4- Se e = 0 para todos os vetores do conjunto de treinamento, parar. Senão, retorne ao segundo passo. Esta seção mostrou as funcionalidades do modelo perceptron e as etapas do seu algoritmo de aprendizado. Na seção 2.5 será exposto o modelo ADAptive LInear NEuron (ADALINE) ADALINE O modelo ADAptive LInear NEuron (ADALINE) na literatura no final da década de 1950,constitui-se de um estudo semelhante ao do perceptron. Tais modelos são fundamentados em elementos de processamento que executam operações sobre a soma examinada de suas entradas. A rede ADALINE foi proposta por Bernard widrow e Marcian Hoff, cujo objetivo era a descrição do modelo com enfoque na construção de filtros lineares.

27 15 O modelo ADALINE apresenta como vantagem um treinamento mais suave que o perceptron, em contrapartida o treinamento pode ser um pouco demorado. O algoritmo de treinamento da ADALINE se sustenta no sinal do gradiente do erro para obter a direção, na magnitude e o valor do ajuste Δw a ser aplicado ao vetor de pesos. Este algoritmo que ficou conhecido como Regra Delta, proporcionou posteriormente o primeiro algoritmo para treinamento de redes perceptron de múltiplas camadas: o backpropagation. O algoritmo de treinamento do ADALINE trabalha tentando minimizar o erro das saídas em relação aos valores desejados d i pertencentes ao conjunto de treinamento G={(x i, d i )} p i=1. A função de custo a ser minimizada é a soma dos erros quadráticos descrita na equação a seguir: (2.5) Para uma condição inicial qualquer w(0) = w i deseja-se obter a direção do ajuste a ser aplicado no vetor de pesos de forma a caminhar em direção à solução ótima. Para a superfície de erro definida pela equação acima, a direção do ajuste no tempo t pode ser obtida pelo gradiente da função de custo no ponto w(t). Segundo esta regra, o ajuste deve ser feito em direção contrária ao vetor gradiente no ponto w(t), ou seja, w(t) - J. Para que se tenha o vetor de pesos ajustado em direção contrária ao vetor gradiente, chega-se às seguintes equações: (2.6) (2.7) onde é a taxa de aprendizado da rede. Finalmente, a equação genérica para ajuste dos pesos de um nodo ADALINE, conhecida como regra delta, pode ser obtida: (2.8)

28 16 A regra Delta transforma os pesos para as saídas desejadas e real de cada polaridade e também unidades de entrada e de saídas contínuas e binárias. Conforme o perceptron a ADALINE não consegue aprender funções que não sejam linearmente separáveis, assim sendo, foi desenvolvida em seguida a rede MADALINE. A rede neural MULTIPLE ADALINE (MADALINE) é uma extensão do modelo ADALINE. Esta nova rede somente agrupa a resposta de dois ou mais ADALINES, criando uma lógica booleana do tipo AND e outro do tipo OR e também pela obtenção da maioria dos valores obtidos nas saídas de um conjunto de neurônios do tipo ADALINE. Assim é possível fazer que uma saída da rede seja ativada para mais de um tipo de padrão de entrada. Sendo assim é possível treinar a rede MADALINE para reconhecer, por exemplo, um padrão transladado ou até rotacionado. Esta seção apresentou um resumido histórico do modelo ADALINE, sua vantagem e desvantagem em relação ao perceptron, como funciona o seu algoritmo de treinamento e também apresentou as características da rede MADALINE. A seção 2.6 apresentará a rede Multilayer Perceptron. 2.6 MULTILAYER PERCEPTRON (MLP) Uma extensão natural do Perceptron é a rede Multilayer Perceptron (MLP), ela é constituída por nós fonte, na qual formam a camada de entrada da rede, uma ou mais camadas intermediárias constituídas por neurônios e uma camada de saída. Em particular, tais neurônios tem como função de ativação uma função do tipo não linear. Conceitualmente, as redes MLP podem ser vistas como uma cascata de perceptrons. A função dela é transformar sucessivamente a entrada de dados em uma representação tratável para a camada de saída da rede, através de transformações consecutivas das camadas intermediária. As redes de uma só camada resolvem apenas problemas linearmente separáveis. A solução de problemas não linearmente separáveis utiliza redes com uma ou mais camadas intermediárias, ou escondidas, esses tipos de redes apresentam um poder computacional muito maior do que aqueles apresentados em redes sem camadas intermediárias. O modelo de cada neurônio da rede precisa ter uma função de ativação não linear. Além disso, a não linearidade é do tipo suave (diferenciável em qualquer ponto). Uma forma de não linearidade normalmente usada que satisfaz esta exigência é a sigmoide (unipolar ou

29 17 bipolar). A não linearidade é importante, caso contrário, a relação de entrada e saída da rede seria reduzida à forma existente em uma rede de camada única. Na MLP o processamento feito por cada neurônio de uma determinada camada da rede é descrito pela combinação dos processamentos realizados pelos neurônios da camada anterior que estão conectadas a ele. Para uma rede de pelo menos duas camadas intermediárias, o seguinte processamento ocorre em cada uma das camadas: 1 Primeira camada intermediária: cada neurônio contribui com retas para a formação da superfície no espaço de entrada; 2 Segunda camada intermediária: cada neurônio combina as retas descritas pelos neurônios da camada anterior conectados a ele, formando regiões convexas. 3 Camada de saída: cada neurônio forma regiões que são combinações das regiões convexas definidas pelos neurônios a ele conectados da camada anterior. Podemos observar o desenho esquemático de uma MLP conforme a Figura 2.6. Figura 2.6 MLP com uma camada intermediária (Braga et al., 2000). Segundo Haykin (2001) os MLP s têm sido aplicados com sucesso para resolver diversos problemas difíceis, através de seu treinamento de forma supervisionada com um algoritmo muito popular, conhecido com algoritmo de retropropagação (backpropagation), que é baseado na regra de aprendizagem por correção de erro. Esta seção apresentou o conceito e as funcionalidades da rede MPL, mostrando para qual tipo de problemas indica-se o uso dessa rede. Na seção 2.7 será detalhado o algoritmo de retropropragação, conhecido como backpropagation.

30 BACKPROPAGATION O algoritmo de aprendizado mais conhecido para o treinamento de redes MLP é o backpropagation. Este algoritmo baseia-se na regra de aprendizado pela correção do erro, que pode ser vista como uma generalização do algoritmo de filtragem adaptativa ou um caso especial do algoritmo dos mínimos quadrados. Neste algoritmo são utilizados vetores de entrada combinados a seus respectivos vetores de saída desejada, até que uma função seja aproximada através da rede, após esta etapa, são oferecidas saídas proporcionais a vetores de entrada diferentes daqueles com os quais foi treinada. O treinamento do backpropagation ocorre em duas fases, a fase forward e a fase backward. Na fase forward, um padrão de atividade (vetor entrada) é aplicado à rede neural e o seu efeito é propagado, camada por camada. Finalizando, um conjunto de saídas produz a resposta atual da rede neural. Durante a fase forward, os pesos da rede são fixos (Haykin, 2001). Na fase backward, os pesos são ajustados de acordo com uma regra de correção do erro. Precisamente, a saída atual da rede neural é subtraída da saída desejada para o cálculo do erro. O erro é propagado para trás (backward) em direção às entradas, através da RNA s, atualizando os pesos. Estes são ajustados de forma que a saída atual da RNA seja próxima saída desejada. Conforme Braga et al. (2000), as etapas das fases forward, backward e posterior união das duas (algoritmo completo) podem ser descritos da seguinte forma: - FASE FORWARD 1- A entrada é apresentada à primeira camada da rede, a camada C Para cada camada, a partir da camada de entrada: 2.1- Depois que os nodos (neurônios artificiais) da camada C i (i > 0) calcularem seus sinais de saída, estes servem como entrada para a definição das saídas produzidas pelos nodos da camada C i As saídas produzidas pelos nodos da última camada são comparadas às saídas desejadas. - FASE BACKWARD 1. A partir da última camada, até chegar à camada de entrada: 1.1 Os nodos da camada atual ajustam seus pesos de forma a reduzir seus erros. 1.2 O erro de um nodo das camadas intermediárias é calculado utilizando os erros dos nodos da camada seguinte conectados a ele, ponderados pelos pesos das conexões entre eles.

31 19 A Figura 2.7 apresenta as duas fases do treinamento do algoritmo backpropagation. Figura 2.7 As duas fases do treinamento do backpropagation (Grasse, 2004). - BACKPROPAGATION (Soma das duas fases) 1- Inicializar pesos e parâmetros 2. Repetir até o erro ser mínimo ou até a realização de um dado número de ciclos: 2.1 Para cada padrão de treinamento X Definir saída da rede através da fase forward Comparar saídas produzidas com as saídas desejadas Atualizar pesos dos nodos através da fase backward. Segundo Grassi (2004) o backpropagation é uma metodologia simples de implementar, e sua capacidade de generalização é atraente para um grande espectro de aplicações em problemas de reconhecimento e classificação de padrões. Apesar do sucesso aparente do backpropagation, existem alguns aspectos que fazem com que este algoritmo apresente algumas deficiências, tais como: 1 - Justificar suas respostas é praticamente impossível; 2 - Custo computacional significativo; 3- Baixa velocidade de aprendizado. Este algoritmo ficou conhecido também como regra delta generalizado, por ser baseado na regra delta formulado por Widrow e Hoff.

32 20 Esta seção mostrou as fases do treinamento do algoritmo backpropagation e também demonstrou como estes calculam a saída desejada de um modelo. Na seção 2.8 será abordado o tema de identificação de sistemas por RNA. 2.8 IDENTIFICAÇÃO DE SISTEMAS POR RNA A modelagem de sistemas complexos e sistemas que envolvem um grande número de variáveis pode ser uma tarefa complexa e árdua de ser executada, demandando um tempo elevado para sua execução. Nesse contexto as RNA s se apresentam como uma ótima solução para minimizar essas adversidades. A identificação de sistemas constitui-se em um dos problemas primordiais na teoria de controle. Para o caso em que a planta possui natureza linear, a identificação pode ser feita através da construção de uma função de transferência que represente o comportamento da mesma, em tempo discreto ou contínuo. Técnicas para identificação de sistemas lineares estão bem fundamentadas e com vários resultados teóricos e práticos (LJUNG, 1987). Ferramentas matemáticas disponíveis para o controle de sistemas não lineares geralmente utilizam técnicas de linearização, transformando a tarefa de controle não linear em pequenas tarefas de controle linear (DORF e BISHOP, 1995, apud BRAGA et al., 2000). Apesar de algumas vezes eficiente, essa abordagem não retrata a realidade dos sistemas físicos, podendo resultar em soluções subótimas. AS RNA s são capazes de modelar com fidelidade ações do tipo não linear, por essa razão elas são uma importante ferramenta computacional para o controle de sistemas. Algoritmos para treinamento online de RNA s são bem conhecidos atualmente, o que as habilita ao controle de sistemas cujas características variam com tempo. Segundo Carvalho et al. (2004) a identificação de sistemas/processos trata- se de uma área de extremo interesse de pesquisadores do segmento da automação, pois baseado num modelo obtido por uma identificação seja ela convencional ou técnicas modernas, conseguese elaborar um controle mais fiel e abrangente para tal sistema. Isso vai depender da faixa de operação em que se faz a amostragem dos valores de entrada e saída, e ainda de conseguir estimar este algoritmo de controle baseado num modelo matemático apresentado. Por exemplo, uma rede neural. O uso das RNA s em controle de processos já é uma realidade dos dias atuais, e com um futuro ainda mais promissor, tendo em vista a arquitetura das redes, bem como seu

33 21 comportamento dinâmico. Para controle de processos são apresentadas algumas vantagens do uso de RNA s: 1 - Pode ser usado em sistemas não lineares, devido a sua eficácia comprovada em aproximar mapeamentos não lineares nesse tipo de sistema. 2 - A estrutura de uma RNA possui essencialmente uma estrutura paralela distribuída, favorecendo a velocidade de processamento, em situações em que é implementada sistemas de processamento distribuído. 3 - A implementação em hardware é possível, já se encontra disponível no mercado integrados (dedicados) que implementam a rede, permitindo a compactação do hardware, ganho na velocidade de processamento, e maior nível de distribuição no controle. 4 - A RNA é capaz de aprender e se adaptar. O treinamento das redes é realizado com dados que retratam um passado do sistema a ser controlado, a partir dos quais a rede treinada tornase capaz de receber dados atuais e por sua capacidade de generalização definir a saída desejada. 5 - As RNA s podem trabalhar com sistemas multivariáveis, elas naturalmente processam várias entradas e geram várias saídas, assim sendo são plenamente aplicáveis a sistemas multivariáveis. Esta seção demonstrou o porquê do uso das RNA s e sua importância na modelagem de processos, apresentando também as vantagens que estas oferecem na utilização de controle de processos. No Capítulo III será feito a revisão bibliográfica desta obra.

34 22 CAPÍTULO III REVISÃO BIBLIOGRÁFICA Este capítulo apresenta suma importância para este trabalho, pois irá apresentar algumas teses e artigos que falam à respeito de RNA s, demonstrando seu uso em diversas áreas de atuação, suas metodologias para a resolução dos problemas propostos, tipo de redes e algoritmos utilizados. Vargas (1997) investiga e propõe algoritmos de aprendizado para o treinamento de RNA s, objetivando a identificação de sistemas dinâmicos não lineares multivariáveis. Por se tratar de sistemas não lineares arbitrários e estabelecer algoritmos de aprendizado estáveis, foram utilizados os algoritmos Recurrent High Order Neural Networks (RHONN), método de Lyapunov e adaptações de resultados já disponíveis na teoria de controle adaptativo para sistemas lineares. Na sequência o autor propôs duas modificações no algoritmo de aprendizado RHONN para melhorar o desempenho do processo de identificação e por fim para unificar os diferentes algoritmos de aprendizado para RHONN, Vargas propõe um algoritmo de aprendizado genérico, provando sua convergência e estabilidade. Neste trabalho, são ressaltados o capítulo II no qual foi explicado os fundamentos das RNA s com suas estruturas, benefícios e os algoritmos de aprendizado.além disso, foram relatados as possíveis limitações da RNA tipo feedforward e da identificação de sistemas dinâmicos utilizando RNA s.. Cunha (2002) desenvolveu um trabalho para a identificação de litofácies (Conjunto de características litológicas de uma rocha) de poços de petróleo utilizando o método de RNA s. A identificação de litofácies de poços através da análise de testemunho (amostra real da rocha) se mostra muita dispendiosa e consome um tempo elevado, dessa maneira o levantamento de um modelo computacional se torna necessário. A Rede utilizada foi MLP com o algoritmo de treinamento backpropagation. Pode-se observar neste trabalho, que várias RNA s foram treinadas, porém elas não atingiam a taxa de aprendizagem desejada, pois essas redes não aprendiam padrões que estavam em zonas de transições ou que pertenciam à uma camada muito fina em meio a outro tipo de rocha. Para resolver esse problema foi feito o tratamento dos padrões problemáticos, se a rede não atingisse a taxa de aprendizagem esperada, os padrões eram tratados e a rede era treinada novamente.

35 23 Para este trabalho pode-se frisar que o levantamento de um modelo computacional, utilizando RNA s, de um processo complexo, como o de identificação de poços de petróleo, é de grande valor, pois esse procedimento tem um custo e tempo de implementação reduzido em relação a outros métodos de identificação, como o de análise de testemunho por exemplo. Outro fato observado, é que nem sempre os resultados dos treinamentos das RNA s são satisfatórios, sendo assim a rede deve ser tratada e treinada novamente para que ela tenha seu desempenho melhorado. Moura (2003) utilizou uma Rede Neural do tipo Wavelets com modificações que melhoram seu desempenho em malha aberta, essa rede foi utilizada para fazer a identificação de uma coluna de destilação que separa hidrocarbonetos num processo contínuo. Podemos observar que Rede Neural Wavelets foi escolhida devido ao número alto de parâmetros envolvidos no processo e pela ausência de fundamentação matemática, desta maneira podemos perceber que essa rede se tornou interessante, pois o treinamento pode ser formalizado como um problema de regressão linear e, portanto, resolvido via mínimos quadrados. Para diminuir as incertezas foi proposto que seja feito a introdução de conhecimento prévio no processo num procedimento conhecido como regularização. Pode-se observar um esquema de uma rede Wavelets representada pela Figura 3.1. Figura 3.1 Rede de Wavelets usada na identificação de processos (Moura, 2003). Para este trabalho salienta-se a etapa de identificação do processo, em que foi detalhado como foi feito a obtenção do grupo de dados para o treinamento da rede, determinação da melhor estrutura de rede a ser utilizada e a validação dos modelos utilizados. Côcco (2003) utilizou RNA s para fazer previsão de propriedades da gasolina a partir de sua composição química. Foi utilizada a rede do tipo MLP e o algoritmo de aprendizado usado foi o backpropagation. O programa computacional foi desenvolvido no MATLAB

36 24 utilizando a ferramenta Neural Networks Toolbox (NNTOOL) o programa faz uso de três funções de transferência, sigmoidal (logsig), tangencial (tansig) e linear (purelin), o número de amostras para treino foram vinte e cinco, já para validação foram utilizadas dez amostras. Neste trabalho, foi usado uma rede com camada oculta única, onde as variáveis de entrada foram a composição química principal da gasolina (porcentagem de aromáticos, olefínicos, naftênicos, etc) e as variáveis de saída foram a densidade relativa a 20, a pressão de vapor Reid e a curva de destilação. Observa-se que certos cuidados foram tomados ao fazer o treinamento da RNA, para que, problemas como o de overfitting (redundância dos dados e excesso de neurônios na camada oculta) e o de underfitting (resultado de uma rede com poucos neurônios ocultos, que não consegue representar o sistema que se deseja modelar) fossem evitados. Além da fase de treino e validação, foi aplicado outro teste com novos exemplos de entrada para a rede realizasse a verificação seu poder preditivo. Para este trabalho é importante observar a parte teórica à respeito do algoritmo de aprendizado backpropagation e os cuidados que devem ser tomados ao treinar se a rede para evitar problemas como o de overfitting ou underfitting. Zanata (2005) desenvolveu um sensor virtual utilizando redes neurais artificiais para medição da composição em uma coluna de destilação, capaz de aferir rapidamente a composição dos produtos no topo da coluna. Nesta obra foi utilizada um algoritmo desenvolvido por Nguyen e Widrow, usando o comando initnw no MATLAB, no momento da inicialização dos pesos. Este algoritmo oferece como vantagem uma escolha mais adequada para a inicialização dos pesos, reduzindo o tempo de treinamento e melhorando a convergência dos resultados finais obtidos. Neste trabalho, a função de ativação tangente-sigmóide foi usada na rede neural para todos os neurônios das camadas ocultas, já na camada de saída utilizou-se a função de transferência linear com saturação não simétrica, aplicando o comando Stalin no MATLAB, pois esta função apresenta saída linear para o intervalo 0 e 1. É possível perceber também que foram identificados os principais erros que podem ocorrer com sensores virtuais, mostrando como estes erros podem ser detectados e corrigidos. Para este trabalho é importante analisar como foram escolhidos o sinal de excitação, o cálculo do período de amostragem, a implantação da perturbação no sistema. Além da metodologia empregada para a identificação do modelo, no qual ele descreve detalhadamente como realizar as quatro etapas principais que são: projeto do experimento e coleta dos dados, definição da estrutura do modelo, cálculo dos parâmetros e a validação do modelo.

37 25 Pimentel et al. (2005) usaram RNA s para modelar o comportamento estacionário de uma unidade de craqueamento catalítico fluido, que é um processo de refino que produz, dentre outros produtos, gasolina e GLP. O modelo empregado, foi capaz de predizer as vazões das correntes de saída do processo (gasolina, GLP, gás combustível, LCO e óleo decantado) levando em conta treze variáveis de entrada. A arquitetura utilizada foi do tipo perceptron de múltiplas camadas e o algoritmo usado foi o Levenberg-Marquardt para otimização dos pesos da rede. Já as funções de ativação usadas foram a tangente hiperbólica para os neurônios na camada oculta e a função linear para os neurônios na camada de saída. Além disso, foi usada a técnica de Regularização Bayesiana, cujo objetivo é otimizar a capacidade de generalização das redes neurais. Para este trabalho é destacado a utilização do método Levenberg-Marquardt, que é uma variação do algoritmo backpropagation. Este método é usado visando melhorar a convergência, existência de mínimos locais, esforço computacional, entre outros fatores que são exigidos na etapa de aprendizado e treinamento. Outro fator importante é o método da Regularização Bayseana para evitar o sobre-ajuste. Tal método, envolve a modificação da função objetivo comumente usada, que é o somatório dos erros quadráticos médio das respostas da rede. Essa modificação visa melhorar a aptidão de generalização do modelo. Bueno (2006) desenvolveu um Sistema de Monitoração e detecção de falhas usando a metodologia de Redes Neurais Artificiais que foi aplicado ao reator IEA-R1, na qual foi utilizada uma base de dados contendo os valores das variáveis do processo de instrumentação coletados e armazenados pelo Sistema de Aquisição de Dados do reator. Para a monitoração desses instrumentos utilizou-se uma RNA com o propósito de realizar a modelagem das variáveis do sistema. Para isso, foi utilizada o modelo de RNA MLP com três camadas, utilizando a ferramenta de Redes Neurais do MATLAB, em que os parâmetros de entrada e saída variam de acordo com a variável monitorada. A rede foi treinada pelo algoritmo backpropagation e apresentou bons resultados. Para este trabalho o que tem mais importância é a parte em que foi explicado como foi coletado os dados com as informações de funcionamento de uma semana de operação do reator na qual esses dados foram coletados de oito em oito segundos e armazenados, e como esses dados foram utilizados para o treinamento posterior da RNA. Ferrari, et al. (2006) realizaram um estudo comparativo entre Redes Neurais Wavelet Neural Network (WNN), Neurônio Linear com algoritmo de aprendizado Least Mean Square (LMS), Multilayer Perceptron (MLP), com algoritmo de aprendizado backpropagation e Radial Basis Function (RBF) para classificação de Doença Pulmonar Obstrutiva Crônica,

38 26 pois os dados extraídos dos pacientes para a detecção ou não da doença, são medidas fisiopatológicas que apresentam grande complexidade de detalhes, necessitando de um modelo computacional para auxiliar no diagnóstico. Neste artigo, foi descrito as quatro redes implementadas e ainda apresentaram uma comparação entre as mesmas. Podemos perceber a grande dificuldade para diagnosticar e analisar essa doença, desde o momento da aquisição dos dados, passando pela etapa de identificação das variáveis mais importantes e por fim a escolha do modelo ideal que satisfaça a representação dos padrões. Este trabalho mostra que todas as redes utilizadas apresentaram bons resultados na solução do problema, a maior dificuldade encontrada, ocorreu na rede RBF no momento da escolha dos parâmetros que representam a base radial da função e o parâmetro de regularização. Mesmo assim a rede RBF apresentou o melhor resultado com o treinamento e teste realizados em apenas 0.01 segundos e precisão de 100%. A rede WNN, obteve um acerto de 98.5% em apenas 7 segundos com a utilização de 10 neurônios na camada de processamento, já a rede MLP mostrou um acerto também de 100%, porém o treinamento levou um tempo de aproximadamente 890 segundos, tendo sido usados 10 neurônios na camada de entrada, 5 neurônios na camada oculta, 1 neurônio na camada de saída e a função de ativação usada foi a sigmoid logistic, e para calcular o erro o algoritmo de aprendizagem backpropagation. Para este trabalho é importante destacar as informações relativas ao algoritmo de aprendizagem backpropagation, no qual é explicado seu método de funcionamento. Fernandes (2007) desenvolveu um sistema de Detecção e Isolamento de Falhas (DIF) baseado em RNA, aplicado a um sistema com ambiente simulado utilizando um modelo matemático e a um sistema de tempo real em uma planta composta por dois tanques, onde um dos tanques (tanque 2) tem o seu nível controlado, a água que sai pelo orifício do tanque 1 cai dentro do tanque 2, este por sua vez também tem um orifício que em que a água cai diretamente ao reservatório, uma bomba é responsável em levar a água até o reservatório 1, em cada tanque existe um sensor de pressão foundation fieldbus (FF), usados para medir os níveis correspondentes, ligados à rede fieldbus, além dos sensores de pressão, um conversor (FF/loop de corrente 4 20 ma) é usado para injetar sinais na bomba d água, a rede industrial foundation fieldbus é ligada a um computador supervisório através da interface de rede ethernet, a partir deste computador é realizado todo o processo de configuração dos dispositivos, e o posterior monitoramento. Para fazer a identificação foi utilizada a rede do tipo MLP e o algoritmo de aprendizado usado foi o backpropagation. O trabalho foi dividido basicamente em duas partes, a primeira corresponde a identificação neural do modelo da planta, utilizada para detectar a ocorrência ou não de falhas no sistema de nível, já a segunda

39 27 consiste no isolamento de falhas do processo ou seja, em uma classificação do tipo de falha dentre um conjunto pré-definido. Percebe-se que de acordo com os resultados da identificação neural do modelo matemático e do sistema real, os erros entre os níveis dos tanques e os gerados nas identificações são maiores durante o período transitório do nível do tanque 2. Esses erros são maiores considerando a identificação neural do caso real, já que muitos ruídos estão presentes durante o teste. A Figura 3.2 exibe um esquema de uma planta de nível composta por dois tanques em cascata. Figura 3.2 Planta de níveis composta por dois tanques em cascata (Adaptado de Fernandes, 2007). Para este trabalho é frisado a parte em que é explicada a identificação de sistemas via RNA s e também a comparação dos resultados do treinamento via RNA s da planta real e do

40 28 modelo matemático. Já que foram feitos os treinamentos com diversas arquiteturas da rede MLP visando encontrar os melhores resultados possíveis. Pessin et al. (2007) realizaram uma implementação e avaliação da eficiência de uma RNA aplicada ao controle de navegação de robôs móveis fisicamente simulados em um ambiente virtual de simulação realística, que apresentavam obstáculos estáticos e dinâmicos. As entradas das RNA s foram obtidas através de sensores presentes em cada um dos robôs. A RNA utilizada foi MLP, treinada com o algoritmo de aprendizagem Resilent Backpropagation (RProp), esta RNA foi desenvolvida e treinada no Stuttgart Neural Network Simulator (SNNS), o controle inteligente realizado pela RNA permite a navegação e desvio de obstáculos em um ambiente dinâmico, utilizando apenas informações disponíveis localmente, obtidos pelos sensores dos veículos. As informações de entrada foram as seguintes: (1) orientação (ângulo) do veículo em relação ao plano xy, obtida através de uma bússola simulada, (2) Azimute (ângulo para o alvo) do veículo, obtido através da bússola, do GPS e da mensagem contendo a coordenada do alvo, (3) cinco valores de sensores de distância (sonares). As saídas foram: força a aplicar no motor angular (giro da barra de direção), (2) força a aplicar no motor linear (torque). A base de dados de treinamento da RNA foi obtida a partir de um sistema simples baseado em regras, foi realizado um total de 32 simulações para a obtenção desses dados, a base de dados final obtida apresentou registros, sendo dividida em 70% para treino e 30% para validação. Podemos perceber que o modelo proposto de RNA mostrou-se capaz de controlar de forma satisfatória os robôs em questão. Para este trabalho ressalta-se que o uso das RNA s possui uma ampla utilização, tanto na identificação de sistemas complexos, como no controle de variados tipos de robôs, podemos observar também que o uso do algoritmo backpropagation foi lento e o seu desempenho piora para problemas grandes e complexos, assim para melhorar seu desempenho foi utilizada uma variação de seu algoritmo o RProp. Linhares et al. (2007) utilizaram redes neurais artificiais para identificar a fração molar de pentano que está contida na composição do GLP ( Gás Liquefeito de Petróleo ) de uma coluna debutanizadora de produção de GLP. Foi explicado o funcionamento de uma coluna debutanizadora e sua principal função, que é separar por destilação, o GLP da gasolina natural. Mas como a coluna é aquecida, componentes pesados como o pentano podem se transformar em vapor, fazendo com que a fração molar de pentano presente no GLP, esteja fora da composição ideal. Dessa forma o GLP irá se apresentar fora das suas especificações de qualidade. A composição do GLP na prática é obtida através de instrumentos, tais como o cromatógrafo. Porém, estes apresentam um tempo de medição que pode inviabilizar o

41 29 controle da composição do GLP de forma mais eficiente e também são equipamentos de alto custo. Para realização dos testes, foi usada uma coluna debutanizadora simulada computacionalmente no software de processos químicos chamado HYSYS. Já a estrutura de identificação neural empregada foi a NNARX e o algoritmo para treinamento das redes o backpropagation. Para este trabalho é salientado o item 3 e 4 do artigo, pois no item 3 foi explicado a utilização de regressores, que são aplicados às variáveis de entrada do sistema de identificação neural, mostrando que estes são de extrema importância, pois a estrutura projetada possuí a intenção de identificar a dinâmica existente em um sistema físico. Já no item 4, foi explicado todo o procedimento de identificação, dizendo a importância de se variar os sinais de entrada do sistema e verificar a influência dessas variações nos sinais de saída. Podemos perceber que na etapa de treinamento e validação, sinais PRBS (Pseudo Random Binary Signal) foram aplicados aos set points das variáveis de processo, para que essas amostras sejam utilizadas para o treinamento da rede neural. Observa-se também que quando existe a ausência de realimentação no modelo, a estrutura NNARX não gera problemas relativos à estabilidade, sendo sua utilização recomendada quando o sistema a ser modelado é determinístico ou apresenta níveis de ruídos insignificantes. Filho, et al. (2010) implementaram um preditor neural no ambiente industrial Foundation Fieldbus, com a utilização de algoritmos inteligentes, baseados em redes neurais recorrentes para estimar valores no processo de medição de gás natural, dessa forma o valor retornado pelo preditor era comparado com o valor de saída real do sensor com o objetivo de identificar possíveis falhas nos sensores envolvidos no processo. Neste trabalho, a arquitetura almejada foi uma rede neural recorrente NARX. Porém, como no ambiente Foundation Fieldbus não existe um bloco funcional padrão com o objetivo de implantar um neurônio, foi necessário a utilização de blocos funcionais padrões do tipo aritmético e blocos caracterizados de sinal (SCHAR), necessário para programar a função tangente sigmoide. Dessa forma o bloco SCHAR, ficou responsável por mapear a tangente sigmóide. A fim de obter uma melhor sintonia no bloco caracterizador, utilizou-se uma técnica de inteligência artificial conhecida como algoritmo genérico. Já os blocos aritméticos foram utilizados para implementar o neurônio artificial, no qual eram aplicados os pesos e as bias aos valores de entrada, definindo o parâmetro algorithm type como somador tradicional, que tem a função de multiplicar cada entrada por um peso e também fazer a soma desses produtos com um valor de bias. Dessa maneira as saídas dos blocos aritméticos são conectados às entradas dos blocos SCHAR para calcular a função de ativação.

42 30 A Figura 3.3 apresenta um esquema de um neurônio na rede Foundation Fieldbus. Figura 3.3 Esquema de um neurônio na rede Foundation Fieldbus (Filho et al., 2010). O artigo apresenta relevância para este trabalho, pois ele mostra como a rede neural foi empregada na rede industrial Foundation Fieldbus, utilizando somente blocos funcionais padrão, além da possível identificação de falhas na medição dos sensores, caso estes apresentem um valor de leitura muito diferente dos valores mensurados no sensor virtual. Alves et al. (2012) fizeram a utilização da análise experimental através da aplicação de RNA s para a modelagem das dinâmicas de pressão e vazão de uma planta didática não linear. A planta possui um reservatório inferior (TQ-02) e um reservatório superior (TQ-01). O reservatório inferior é de aço inoxidável e fechado, no qual permite aumentar a temperatura do fluido através de um aquecedor (AQ-01) ou utilizá-lo como reservatório fechado ou aberto, através da válvula V-5. Existe uma bomba B-01 que retira o fluido da parte inferior de TQ-02 e o faz circular, através do trocador de calor (TC-01), pela válvula de controle superior (FV- 01), pela placa de orifício (FE-01) e pela válvula V-7 que direciona o fluido dependendo da sua posição. Após passar pela válvula V-7, ou o fluido passa pela válvula de controle inferior (LV-01) e retorna ao reservatório inferior (TQ-02), ou passa pelo reservatório superior, depois pela válvula inferior (LV-01) e retorna ao (TQ-02). A RNA utilizada para fazer a identificação do sistema é a MLP com o algoritmo de treinamento backpropagation, o modelo utilizado para identificação de sistemas foi o ARX não linear. A metodologia utilizada no trabalho foi dividida em cinco etapas, testes dinâmicos e coletas de dados, escolha de representação matemática a ser usada, determinação da estrutura do modelo, estimação dos parâmetros e validação do modelo. Conclui-se desse trabalho, que após o treinamento da rede (ajuste dos pesos sinápticos) os modelos utilizados descrevem os sistemas apresentados garantindo uma pequena margem de erro, demonstrando o poder computacional das redes neurais artificiais no processo de modelagem.

43 31 A Figura 3.4 mostra a planta didática industrial do IFES com sua instrumentação. Figura 3.4 Planta didática industrial do IFES (Alves et al., 2012). Para este trabalho é destacado a metodologia do artigo, pois este explica como foram coletados os dados e como foram feitos os testes dinâmicos, foi mostrado também de que maneira foi escolhida a representação matemática que foi utilizada. Ressalta-se o capítulo que as RNA s são utilizadas em diversas áreas, com o objetivo de solucionar problemas que apresentam certo grau de complexidade. Dessa forma as RNA s se apresentam como uma boa alternativa para resolver essas dificuldades apresentando respostas confiáveis e eficientes. Além disso, elas são utilizadas em casos em que há necessidade de se obter resultados em pequenos intervalos de tempo e com custo reduzido. Nó capítulo IV será apresentada a metodologia do trabalho, que irá consistir basicamente de três etapas principais: aquisição dos dados, treinamento da rede e validação do modelo.

44 32 CAPÍTULO IV METODOLOGIA A metodologia utilizada no trabalho constituiu-se das seguintes etapas: aquisição dos dados, tratamento dos dados, escolha da arquitetura da RNA, treinamento da RNA e validação online do modelo, na qual todas essas etapas foram realizadas utilizando o software MATLAB AQUISIÇÃO DOS DADOS A coleta dos dados foi realizada no software MATLAB, através da ferramenta Simulink, no qual foi implementado uma interface de comunicação via Ole For Process Control (OPC), utilizando o OPC Toolbox. Dessa forma os dados eram lidos e armazenados no bloco To Workspace encontrado na biblioteca Sinks do Simulink. A Figura 4.1 expõe o modelo utilizado no Simulink para aquisição dos dados e no Quadro 4.1 é feito um comentário sobre cada bloco usado no modelo. Figura 4.1 Modelo do Simulink para a aquisição dos dados.

45 33 Quadro 4.1 Conjunto de blocos usados no Simulink. As variáveis selecionadas para o treinamento foram a vazão de entrada (VZ) e a temperatura de topo (TT), da coluna de destilação objeto do estudo. Para obtenção da matriz de dados, foram aplicados sinais do tipo degrau na vazão de entrada e observado ao longo do tempo a variação provocada na saída. Foram realizados quatro testes dinâmicos na tentativa de se obter um resultado satisfatório do comportamento da variável de saída (temperatura de topo).

46 34 No primeiro teste realizado, aplicou-se apenas um degrau positivo na vazão de entrada, com o valor inicial de vazão em 1.7 l/h e o valor final em 3.3 l/h. As Figuras 4.2 e 4.3 mostram o degrau aplicado e o comportamento da variável de saída, respectivamente. Figura 4.2 Primeiro degrau aplicado. Figura 4.3 Temperatura em função do primeiro degrau.

47 35 No segundo teste dinâmico realizado, foi aplicado um degrau variando-se a vazão de entrada de 1.9 l/h para 3.8 l/h. No terceiro teste realizado, aplicou-se um degrau positivo e em seguida um degrau negativo. Sendo os valores de vazão da ordem de 1.2 l/l para 4.5 l/h, e posteriormente retornando o valor da vazão inicial. As Figuras 4.4, 4.5, 4.6 e 4.7 ilustram os degraus aplicados e a resposta obtida. Figura 4.4 Segundo degrau aplicado.

48 36 Figura 4.5 Temperatura em função do segundo degrau. Figura 4.6 Terceiro degrau aplicado.

49 37 Figura 4.7 Temperatura em função do terceiro degrau. Os três degraus aplicados inicialmente, resultaram em comportametnos insatisfatórios da variável de saída, sendo essa resposta a de maior importância, pois é o alvo a ser modelado. Sendo assim, um quarto teste dinâmico foi realizado e este apresentou um resultado significativo, para ser identificado pela RNA. Neste trabalho o estímulo do tipo degrau com melhor resultado foi realizado da seguinte forma: Primeiro Passo: A planta foi colocada em operação até atingir a temperatura de topo de 78.3 C. Segundo Passo: Ao atingir tal temperatura de topo, se deu início ao processo de coleta dos dados, enviando um sinal de corrente de 12 ma para a válvula correspondente ao controle da vazão de entrada. O sinal de corrente enviado corresponde aproximadamente a uma vazão de 1.8 l/h. Este sinal de corrente foi mantido até que a variável de temperatura alcançasse seu estado de regime permanente, porém ao transcorrer do tempo foi percebido uma variação da vazão de entrada. Terceiro Passo: Com o regime permanente da temperatura, foi transmitido para a válvula um sinal de corrente de 14 ma, equivalente ao valor próximo de 3.6 l/h. Com a

50 38 aplicação do novo degrau, foi esperado novamente que o processo atingisse seu estado de regime. Quarto Passo: Após a terceira etapa, um novo degrau foi aplicado até a consolidação do processo. O novo valor enviado para a válvula foi o mesmo da inicialização da aquisição dos dados. A Figura 4.8 mostra o degrau aplicado na vazão de entrada e a Figura 4.9 apresenta o comportamento da temperatura em função da variável de entrada. Figura 4.8 Degrau aplicado na válvula de vazão de entrada da mistura.

51 39 Figura 4.9 Comportamento da temperatura de topo em função do degrau dado. Por fim foi obtido o total de dados correspondentes a vazão de entrada e temperatura de topo, que foram salvos no editor de textos do MATLAB. A taxa de aquisição foi de dois dados por segundo, portanto o tempo de coleta durou duas horas e quarenta e nove minutos. Esta seção teve por objetivo descrever os detalhes da determinação e aquisição do conjunto de dados que será utilizado para a realização dos treinamentos da rede. Na seção 4.2 será descrito como esses dados foram tratados TRATAMENTO DOS DADOS Os dados são tratados através da rotina Tecnologo1 desenvolvida no software MATLAB pelo trabalho de Carvalho et al. (2004). Esta rotina é responsável pela normalização e redução dos dados, além da criação de atrasos nas variáveis.

52 NORMALIZAÇÃO E REDUÇÃO DOS DADOS A normalização é responsável pela conversão dos dados coletados em valores reais para uma escala representativa entre zero e um, sem perder a representatividade real do sistema. A normalização é um processo importante para diminuir possíveis divergências nos resultados que serão obtidos nos testes e também para adequar os dados ao padrão estabelecido pela RNA. Já a redução dos dados deve ocorrer de forma que as características referentes ao processo sejam mantidas. Dessa forma a matriz de dados pode ser representada pela matriz reduzida com um número menor de características efetivas, porém contendo a maior parte das informações pertinentes aos dados originais. Nas Figuras 4.10 e 4.11 estão representados em forma de gráfico a vazão de entrada e a temperatura de topo normalizada. Já as Figuras 4.12 e 4.13 mostram as variáveis normalizadas e reduzidas. Figura 4.10 Vazão normalizada.

53 41 Figura 4.11 Temperatura normalizada. Figura 4.12 Vazão normalizada e reduzida.

54 42 Figura 4.13 Temperatura normalizada e reduzida ATRASOS DAS VARIÁVEIS São criados atrasos nas variáveis devido à relação entre vazão de entrada e temperatura de topo se comportar de forma dinâmica e oscilatória. Desta forma fica representado o comportamento real do sistema, pois a saída atual independe unicamente da entrada atual, mais também dos valores da entrada e da saída nos instantes interiores. O esquema da Figura 4.14 mostra como ficam as entradas e a saída do modelo. Nas Figuras 4.15 e 4.16 são exibidas as variáveis de vazão de entrada e temperatura de topo, no instante atual e anterior.

55 43 Figura 4.14 Atraso das variáveis. Figura 4.15 Valores de vazão (VZ) no instante atual e instante anterior.

56 44 Figura 4.16 Temperatura de topo (TT) no instante atual e instante anterior. Esta seção exibiu os detalhes e a forma em que os dados foram tratados, e também as ferramentas utilizadas para realizar determinadas funções. Na seção 4.3 será exposta a arquitetura da rede utilizada ARQUITETURA DA RNA Nessa etapa, foi utilizada a ferramenta Neural Network Toolbox (NNTOOL) do MATLAB, que pode ser vista na Figura Pois essa ferramenta permite importar, criar, utilizar e exportar dados de RNA s. Para realizar a escolha de toda a arquitetura da rede a ser utilizado no trabalho, sendo definido, o tipo da rede, o número de camadas, número de neurônios de cada camada, tipo de função de ativação, vetor de entrada, vetor de saída desejada (target) etc.

57 45 Figura 4.17 Ferramenta NNTOOL do MATLAB. O tipo de rede escolhida para ser utilizada no trabalho foi a Multilayer Perceptron (MLP), devido a sua característica de ter camadas intermediárias e também de possuir a habilidade de aproximar mapeamentos não lineares. O algoritmo usado para seu treinamento foi o backpropagation. Foi escolhida a função de treinamento TRAINBR, pois esta apresentou resultados mais satisfatórios. Em geral quanto mais camadas e neurônios a RNA possuir, melhor será seu desempenho, devido a capacidade de aprendizado ser otimizada. Mas na prática um número alto de camadas e neurônios pode se tornar inviável devido ao elevado esforço computacional e tempo demandado. Desse modo nesse trabalho foram utilizadas duas camadas intermediárias para a rede, a primeira camada com três neurônios e a função de transferência LOGSIG e a segunda camada com um neurônio e a função de transferência PURELIN.

58 46 Na Figura 4.18, todas essas características da arquitetura podem ser observadas. Figura 4.18 Arquitetura da Rede Implementada. Esta seção apresentou o tipo de rede escolhida, o algoritmo usado no treinamento, a função de treinamento e transferência que será utilizado neste trabalho. A seção 4.4 apresentará os aspectos referentes ao treinamento da RNA TREINAMENTO DA RNA Após a escolha do tipo de rede, o algoritmo de aprendizado, função de transferência e o número de neurônios, é realizado o treinamento da rede. O algoritmo escolhido (backpropagation), a cada iteração procura achar a mínima diferença entre as saídas desejadas e as saídas obtidas pela rede, com o mínimo de erro. Antes do treino da rede é verificado se o número de iterações (epochs) está satisfatório e os pesos da rede são iniciados, após isso a rede é treinada. Depois do treinamento da rede são registrados os valores dos pesos e bias, além de um gráfico em que é comparada a saída do processo real com a saída obtida do modelo neural. Posteriormente é montada a equação matemática que representa o modelo do sistema a partir da própria estrutura da RNA. A Tabela 4.1 apresenta os valores dos pesos e bias resultados do treinamento da rede. Quadro 4.2 Valores dos pesos e bias encontrados após o treinamento X1 X2 X3 Bias N1 W 11 = W 21 = W 31 = B 1 = N2 W 12 = W 22 = W 32 = B 2 = N3 W 13 = W 23 = W 33 = B 3 = SAÍDA W 4 = W 5 = W 6 = B 4 =

59 47 A seguir são apresentadas as equações que possibilitam reproduzir em simulações computacionais o processo estudado nesta obra. (4.1) (4.2) (4.3) (4.4) Onde: X1= Vazão de entrada no instante atual (VZ); X2= Temperatura de topo no instante anterior TT (t-1); X3= Vazão de entrada no instante anterior VZ (t-1). Esta seção teve por objetivo mostrar os pesos e bias obtidos na etapa do treinamento e também apresentar as equações matemáticas que representam as características do processo estudado. Na seção 4.5 será exibida uma descrição sobre a validação online do modelo numérico gerado.

60 VALIDAÇÃO ONLINE Através da equação matemática gerada após o treinamento, é iniciado o processo de validação online do modelo numérico. Para esta validação foi criada no software MATLAB através da ferramenta Simulink, uma interconexão entre a Coluna de Destilação Piloto e o modelo neural determinado. De forma que o dado de entrada (vazão) era lido através da comunicação via OPC e em seguida normalizado em uma faixa de valores entre zero e um e também atrasado para um instante anterior, por fim utilizado como dado de entrada da RNA. Já a saída esperada do modelo numérico (temperatura de topo) também era utilizada como entrada da RNA para a validação do mesmo. Durante a validação online do modelo numérico, foram encontrados problemas na normalização e desnormalização das variáveis. Inicialmente foram utilizados ganhos para obtenção dos valores normalizados e desnormalizados das variáveis, porém mesmo com alterações nos valores da variável de entrada (vazão) a saída do modelo permanecia constante, o que levou a entender que esta parte do modelo não estava sendo executada de forma adequada. A Figura 4.19 mostra a solução encontrada para normalizar as variáveis de entrada do modelo, através de um conjunto de blocos do Simulink. Figura 4.19 Conjunto de blocos do Simulink utilizados para normalização. Nesse conjunto de blocos usados para realizar a normalização, sempre o maior valor da variável é armazenado no bloco de memória e os valores seguintes são divididos pelo maior valor registrado. Dessa forma o valor de saída sempre ficará entre a faixa de valores propostos neste trabalho para a normalização das variáveis, respeitando as devidas proporcionalidades.

61 49 Após a utilização desse novo método de normalização, verificou-se que as variáveis estavam sendo normalizadas de forma correta, porém a saída do modelo não correspondia aos valores de saída desejados. Sendo assim foi percebido que a desnormalização sendo realizada apenas pela multiplicação da saída por um ganho estipulado de forma experimental, não funcionava de maneira ideal. Para resolver tal adversidade, usou-se a seguinte fórmula para a desnormalização proposta por Agnol (2010): P = 0.5 * (Pn + 1) * (Pmax Pmin) + Pmin (4.5) Onde: P = Valor da variável desnormalizada; Pn = Valor da variável P normalizada; Pmax = Valor máximo da variável P; Pmin = Valor mínimo da variável P; Para a validação online do modelo, foram aplicados estímulos do tipo degrau e tipo Pseudo Random Binary Signal (PRBS), sendo os valores dos degraus aplicados os mesmos da aquisição de dados, com a finalidade de comparar os resultados obtidos e verificar se o modelo da RNA estava com um resultado satisfatório, fato que será mais bem detalhado no capítulo de resultados. O sinal PRBS frequentemente usado em identificação de sistemas possui como características a capacidade de realizar a comutação entre dois níveis com intervalos de tempo predeterminados. Dessa forma esse estímulo se caracteriza por ser puramente determinístico. Um ponto importante a observar na prática é que os patamares do sinal PRBS devem ser suficientemente longos para dar tempo ao sistema de prover uma resposta, mas deve ser suficientemente curto para que o sistema não atinja o regime permanente. (AGUIRRE, 2007) No modelo utilizado para a validação, a entrada da RNA era formada por três variáveis principais, a vazão de entrada no instante atual e anterior, valores estes que eram lidos em tempo real diretamente do conversor de vazão instalado na Coluna de Destilação

62 50 Piloto e também a temperatura de topo no instante anterior com valores de saída da própria RNA. Essas características do modelo podem ser observadas na Figura 4.20, pois esta figura representa o modelo construído no Simulink para a realização da validação online do sistema. Figura 4.20 Modelo usado para fazer a validação online. Como mostrado na Figura 4.20, o bloco OPC Read é responsável pela leitura do valor da vazão de entrada que é emitido pelo conversor de vazão. Já o bloco OPC Read tem a função de realizar a leitura da temperatura de topo, transmitido pelo transmissor de temperatura. Os blocos intitulados de Unit Delay e Unit Delay1 possuem a função de realizar atrasos na vazão de entrada e na temperatura de topo simulada respectivamente. O bloco com o nome Normalizador realiza a normalização das variáveis e o bloco chamado de Desnormalizador, é responsável por transformar o valor de saída normalizado em escala de graus C. No bloco MATLAB Fcn está alocado todos os valores dos pesos e bias encontrados na etapa do treinamento e também a equação matemática que representa a saída do modelo, obtido a partir da própria estrutura da RNA. O bloco OPC Write escreve na válvula de entrada de vazão um valor em sinal de corrente que é enviado pelo bloco Vazão2. Já os blocos

63 51 Temperatura Real e Temperatura Simulada, armazenam os valores lidos dessas variáveis no workspace do MATLAB. Essa seção descreveu as etapas do processo de validação online do modelo, mostrando como foi realizada a normalização e desnormalização das variáveis e apresentando também o modelo usado para realizar a validação. No capítulo V serão expostos os resultados obtidos.

64 52 CAPÍTULO V RESULTADOS A proposta deste trabalho foi identificar através das Redes Neurais Artificiais, a temperatura de topo de uma Coluna de Destilação Piloto, através da vazão de entrada do sistema. Sendo aplicados estímulos do tipo degrau e PRBS na variável de entrada e validando a equação matemática encontrada através da RNA de forma online. Desta forma com o treinamento apropriado da RNA, o modelo neural encontrado representa de forma autêntica o comportamento dinâmico do processo real estudado, para diversas variações do sistema. A Figura 5.1 compara o degrau aplicado na etapa de coleta dos dados e o degrau aplicado na validação online do modelo. Figura 5.1 Degraus aplicados na aquisição e validação.

65 53 A Figura 5.2 exibe o comportamento da temperatura de topo em função dos degraus aplicados no momento da aquisição dos dados e na validação online do modelo. Figura 5.2 Comportamento da temperatura na aquisição e validação de acordo com os degraus aplicados. Com os resultados apresentados nas Figuras 5.1 e 5.2, pode-se observar que não foi alcançado o objetivo de se realizar um teste idêntico entre as etapas de aquisição e validação do modelo. Pois, mesmo tendo sido aplicados à válvula de entrada de vazão os mesmos valores de corrente entre as duas etapas, esta se comportou de maneira desuniforme, transmitindo diferentes valores de vazão em l/h para o sistema. Além disso, a composição da mistura, o nível do reservatório de armazenamento e a temperatura ambiente, são fatores que contribuíram para um comportamento desigual da temperatura de topo, entre as etapas de aquisição e validação. Porém como a validação do modelo se deu de forma online, comparando a saída real com a saída simulada através da própria RNA esses fatores foram desconsiderados.

66 54 A Figura 5.3 apresenta o gráfico da temperatura de topo real e a temperatura de topo simulada, no momento da validação online. Figura 5.3 Resultado da validação online para o estímulo degrau. Conforme observado no gráfico apresentado da Figura 5.3, a temperatura de topo simulada acompanhou de forma pontual a temperatura de topo real, sendo o valor do Mean Squared Error (MSE) registrado igual a C. Esses fatores comprovam que o modelo gerado pela RNA é confiável para a incitação do tipo degrau, validando o modelo encontrado.

67 55 A Figura 5.4 expõe o estímulo PRBS que foi aplicado na vazão de entrada, já figura 5.5 exibe a comparação entre a saída desejada e a saída real do sistema. Figura 5.4 PRBS aplicado na variável de entrada (vazão). Figura 5.5 Comparação entre temperatura real e simulada de acordo com o PRBS aplicado na vazão de entrada.

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Neurônio Natural Dendritos: recebe os estímulos transmitidos por outros neurônios Soma Sinapse Axônio Soma: coleta e combina informações vindas de outros neurônios Sinapse Dendrito

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCENS UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Inteligência Artificial

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

Por que Redes Neurais?

Por que Redes Neurais? Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

ENGENHARIA DE CONTROLE E AUTOMAÇÃO HUGO GOMES DA SILVA LUCAS DE OLIVEIRA OTAL

ENGENHARIA DE CONTROLE E AUTOMAÇÃO HUGO GOMES DA SILVA LUCAS DE OLIVEIRA OTAL ENGENHARIA DE CONTROLE E AUTOMAÇÃO HUGO GOMES DA SILVA LUCAS DE OLIVEIRA OTAL UM ESTUDO COMPARATIVO ENTRE RNA S E MODELOS AUTOREGRESSIVOS PARA IDENTIFICAÇÃO DE UMA COLUNA DE DESTILAÇÃO PILOTO Campos dos

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann: Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis

Leia mais

Redes Neurais Artificiais (RNA)

Redes Neurais Artificiais (RNA) Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial 1 Redes Neurais - Definição O que é Rede Neural ou Rede Neuronal Artificial (RNA)? É um modelo computacional que objetiva

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

Inteligência Computacional

Inteligência Computacional Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS INTRODUÇÃO Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 REDES NEURAIS ARTIFICIAIS - RNAs Inspiradas no cérebro humano São modelos computacionais inspirados nos mecanismos

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Felix da Cunha 412, Pelotas RS Home-Page: s: Bolsista BIC/FAPERGS

Felix da Cunha 412, Pelotas RS Home-Page:    s: Bolsista BIC/FAPERGS UTILIZAÇÃO DE REDES NEURAIS PARA PREVISÕES EM SÉRIES TEMPORAIS 1 A. T. Gonçalez, A. C. R. Costa, G. P. Dimuro UCPEL Universidade Católica de Pelotas, ESIN Escola de Informática GMFC Grupo de Matemática

Leia mais

COMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1

COMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1 COMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1 Márcia Da Silva 2, Eldair Fabricio Dornelles 3, Rogério S. M. Martins 4, Édson L. Padoin 5. 1 Pesquisa desenvolvida

Leia mais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede

Leia mais

3 REDES NEURAIS ARTIFICIAIS

3 REDES NEURAIS ARTIFICIAIS 47 3 REDES NEURAIS ARTIFICIAIS Neste capítulo será apresentado um breve histórico das redes neurais artificiais de modo a situar o leitor, descrevendo-se suas aplicações, teorias e finalmente detalhando-se

Leia mais

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs

Leia mais

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS.

ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS. ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS. Arini de Menezes Costa 1, Kaio Martins Ramos 2, Hugo Hermano da Costa Castro 3, Antonio Alisson P.

Leia mais

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1

Leia mais

Profa. Josiane M. Pinheiro outubro/2008

Profa. Josiane M. Pinheiro outubro/2008 Baseada em: Stuart Russel e Peter Norving - Inteligência Artificial seção 20.5 Jorge M. Barreto Introdução às Redes Neurais Artificiais - http://www.inf.ufsc.br/~barreto/tutoriais/survey.pdf Cassia Yuri

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio

REDES NEURAIS. É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos. Sua unidade fundamental é o neurônio REDES NEURAIS Sistema Nervoso 2 O que é? É um conjunto complexo de células que determina o funcionamento e comportamento dos seres vivos Engloba o cérebro Sua unidade fundamental é o neurônio Se diferencia

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica PERCEPTRON MULTICAMADAS: TÉCNICAS DE VALIDAÇÃO Prof. Dr. André A. P. Biscaro 2º Semestre de 2016 UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT Aspectos de seleção topológica de redes PMC A especificação

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

5 RNA para Diagnóstico de Falhas em Turbinas a Gás

5 RNA para Diagnóstico de Falhas em Turbinas a Gás 5 RNA para Diagnóstico de Falhas em Turbinas a Gás 5.1. Introdução Neste capítulo, a aplicação de RNAs para diagnosticar as falhas no caminho do gás de turbinas a gás foi investigada. As redes neurais

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

4 Redes Neurais Artificiais RNAs

4 Redes Neurais Artificiais RNAs 66 4 Redes Neurais Artificiais RNAs Redes neurais artificial (RNA) são algoritmos que se baseiam no comportamento do cérebro humano. Dessa forma, imita a estrutura massivamente paralela do cérebro, com

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

Inteligência Artificial

Inteligência Artificial Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial Aprendizagem (Redes Neurais - Complementar) Prof. a Joseana Macêdo

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional

Leia mais

3 Modelos Comparativos: Teoria e Metodologia

3 Modelos Comparativos: Teoria e Metodologia 3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito

Leia mais

Unidade 08 MATLAB Neural Network Toolkit

Unidade 08 MATLAB Neural Network Toolkit Unidade 08 MATLAB Neural Network Toolkit 1. Introdução Uma rede neural artificial (NN daqui em diante) é um modelo matemático que consiste de neurônios interconectados que imitam, em uma escala menor,

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO Prof. Msc. Saulo Popov Zambiasi (saulopz@gmail.com) 12/07/08 08:09 Informação - ICPG - Criciuma - SC 1 Fundamentação Biológica, O Neurônio

Leia mais

Aula 1 Introdução - RNA

Aula 1 Introdução - RNA Aula 1 Introdução - RNA Sumário 1- Conceitos Iniciais; 2- Neurônio Biológico; 3- Neurônio Artificial; 4- Funções de Ativação; 5- Comparação Neurônio Biológico e Artificial. 1- Conceitos Iniciais - Computadores

Leia mais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas

Leia mais

Redes Neurais. Motivação. Componentes do neurônio. Cérebro humano. Criar máquinas capazes de operar independentemente do homem:

Redes Neurais. Motivação. Componentes do neurônio. Cérebro humano. Criar máquinas capazes de operar independentemente do homem: Motivação M. Sc. Luiz Alberto lasf.bel@gmail.com Redes Neurais Criar máquinas capazes de operar independentemente do homem: Aprenda sozinha; Interagir com ambientes desconhecidos; Possa ser chamada de

Leia mais

Previsão de consumos a curto prazo

Previsão de consumos a curto prazo Previsão de consumos a curto prazo Cláudio Monteiro Distribuição de Energia II 5º ano da LEEC - ramo de Energia (FEUP) O que são? são técnicas computacionais que apresentam um modelo matemático inspirado

Leia mais

Redes Neurais Artificiais. Capítulos 1 e 2

Redes Neurais Artificiais. Capítulos 1 e 2 Redes Neurais Artificiais Introdução Capítulos 1 e 2 Redes Neurais Artificiais (RNA) São modelos computacionais inspirados nos mecanismos de aprendizagem do cérebro humano. São modelos computacionais que

Leia mais

Paradigmas de Aprendizagem

Paradigmas de Aprendizagem Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial

Leia mais

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja

Leia mais

PRINCÍPIOS DE NEUROCOMPUTAÇÃO

PRINCÍPIOS DE NEUROCOMPUTAÇÃO PRINCÍPIOS DE NEUROCOMPUTAÇÃO Neurocomputação Funcionamento do cérebro humano e os neurônios Formação das conexões e como se concebe teoricamente a aquisição do conhecimento, formalizando-os em procedimentos

Leia mais

Redes Neurais. Conexionismo. Redes Neurais, IA e IC. Abordagem Simbólica. Apresentação da disciplina Inteligência Computacional e conexionismo

Redes Neurais. Conexionismo. Redes Neurais, IA e IC. Abordagem Simbólica. Apresentação da disciplina Inteligência Computacional e conexionismo Redes Neurais, IA e IC Redes Neurais Apresentação da disciplina Inteligência Computacional e conexionismo No âmbito da Ciência da Computação, as Redes Neurais são estudadas na grande área de Inteligência

Leia mais

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO AULA 8 Redes Neurais Introdução As redes neurais são um tema da computação altamente inspirada na natureza que nos

Leia mais