INTEGRADOR NEURAL APLICADO NA DINÂMICA DO PÊNDULO DE WILBERFORCE

Tamanho: px
Começar a partir da página:

Download "INTEGRADOR NEURAL APLICADO NA DINÂMICA DO PÊNDULO DE WILBERFORCE"

Transcrição

1 Anais do 12 O Encontro de Iniciação Científica e Pós-Graduação do ITA XII ENCITA / 2006 Instituto Tecnológico de Aeronáutica, São José dos Campos, SP, Brasil, Outubro, 16 a 19, 2006 INTEGRADOR NEURAL APLICADO NA DINÂMICA DO PÊNDULO DE WILBERFORCE João Carlos Silva Nobre Divisão de Ciência da Computação Instituto Tecnológico da Aeronáutica - ITA, Pç. Marechal Eduardo Gomes, 50 Vila das Acácias CEP São José dos Campos SP Brasil jcnobre@ita.br Paulo Marcelo Tasinaffo Divisão de Ciência da Computação Instituto Tecnológico da Aeronáutica - ITA, Pç. Marechal Eduardo Gomes, 50 Vila das Acácias CEP São José dos Campos SP Brasil tasinafo@ita.br Resumo. Este artigo mostra ser possível a combinação das redes neurais feedforward com a estrutura de algoritmos de integração numérica de alta ordem, tipo Runge-Kutta ou Adams-Bashforth, para equações diferenciais ordinárias ODE, sendo a rede neural utilizada para aproximar a função de derivadas instantâneas visando modelar sistemas dinâmicos. Durante os treinamentos, utilizou-se a dinâmica do Pêndulo de Wilberforce na aplicação da rede feedforward com integrador numérico como forma de validar tal combinação. A adoção de heurísticas para se determinar a quantidade de neurônios e número de padrões de treinamento mostrou-se necessária, com o intuito de minimizar o tempo de treinamento da rede. Por meio da aplicação de heurísticas, foram observados benefícios à realização de treinamento da rede neural. Palavras chave: Pêndulo de Wilberforce, Integrador Numéricos, Rede Feedforward, Redes Neurais Artificiais. 1.Introdução A possibilidade de aplicar Redes Neurais Artificiais (RNAs) a solução de controle de sistemas utilizando-se rede feedforward do tipo multi-camadas de perceptrons relaciona-se à capacidade em aproximar arbitrariamente bem uma função contínua. Esta aproximação possui qualquer precisão requerida maior que zero, por uma rede feedforward com somente uma simples camada interna, onde cada unidade neural na camada interna tem uma não-linearidade contínua sigmoidal (teorema fundamental das redes neurais), conforme Hornik et al.(1989) e Hunt et al. (1992). Por meio deste teorema justifica-se a viabilidade teórica da aplicação direta das redes neurais em problemas modernos e complexos de engenharia, embora na prática seja muito difícil definir e decidir pelos parâmetros básicos da arquitetura neural a ser treinada. Outra justificativa são os avanços extraordinários alcançados pela engenharia de hardware. A representação de sistemas dinâmicos por meio das redes neurais feedforward utilizando-se a metodologia que insere a rede feedforward dentro de uma estrutura de integrador numérico de equações diferenciais ordinárias, possibilitando que a rede neural necessite somente aprender a função de derivadas do sistema dinâmico autônomo (Wang e Lin, 1998; Rios Neto, 2001; Tasinaffo, 2003) será utilizada para treinar ou estimar uma rede neural feedforward para aprender a dinâmica de um sistema físico autônomo, com qualquer grau de precisão desejado, que, neste trabalho, será o Pêndulo de Wilberforce, o qual é um sistema dinâmico acoplado. 2.Rede Neural Uma rede neural artificial (RNA) é um sistema de processamento massivamente paralelo, composto por unidades simples com capacidade natural de armazenar conhecimento e disponibilizá-lo para uso futuro (Haykin, 2001). As RNAs assemelham-se ao cérebro em dois aspectos: elas extraem conhecimento do ambiente através de um processo de aprendizagem ou treinamento e os pesos das conexões entre os neurônios, conhecidos como pesos sinápticos, são utilizados para armazenar o conhecimento adquirido. Motivados pela habilidade apresentada pelos seres humanos no desempenho de funções como o processamento de informação sensorial, capacidade de interação com ambientes pouco definidos e o controle de sistemas, os cientistas estão preocupados em desenvolver sistemas artificiais capazes de desempenhar tarefas semelhantes, visando propiciar habilidades como capacidade de processamento de informação incompleta ou imprecisa e generalização, as quais são propriedades desejadas em tais sistemas.

2 2.1. Feedforward Multilayer Perceptrons Redes neurais artificiais têm sido aplicadas com sucesso nos mais diversos problemas (Dyminski, 2000; Freixinho, 1996; Piccoli, 1999; Unser, 1986). Embora existam inúmeras arquiteturas de redes neurais, a arquitetura Perceptron de Múltiplas Camadas (Multilayer Perceptron) é, sem dúvida, a mais frequentemente encontrada na literatura. Entre as razões para sua popularidade pode-se destacar sua flexibilidade para formar soluções de qualidade para uma ampla classe de problemas, a partir de um mesmo algoritmo de aprendizado. As Redes Neurais Perceptrons de Múltiplas Camadas (MLP) são arquiteturas nas quais os neurônios são organizados em duas ou mais camadas de processamento, já que sempre existirá uma camada de entrada e uma de saída. As redes com apenas duas camadas, uma de entrada e outra de saída, apresentam limitações importantes e podem ser aplicadas com sucesso a uma classe restrita de problemas (Swingler, 1996). No entanto, com a utilização da MLP com mais de duas camadas, com pelo menos uma escondida, muitas das limitações apresentadas pelo perceptrons foram solucionadas (Haykin, 2001). A Figura 1 exemplifica uma rede neural com uma camada escondida. Esta arquitetura é geralmente referida como 3-4-1, ou seja, 3 neurônios de entrada, 4 neurônios escondidos e 1 neurônio de saída. Para generalizar, é possível se afirmar que uma rede com p entradas, h 1 neurônios na primeira camada escondida, h 2 na segunda camada escondida e q neurônios na camada de saída é descrita por p-h1-h2-q. Figura 1. Modelo de uma rede MLP (3-4-1) Algoritmo de treinamento A mais importante propriedade de uma rede neural é sua capacidade de aprendizado. Uma rede aprende por meio de um processo iterativo de ajustes aplicados aos seus pesos sinápticos e limiares. O processo de aprendizagem de uma rede neural implica a observação da seguinte seqüência de eventos (Hassoun, 1995): 1. A rede é estimulada pelo ambiente de informação; 2. A estrutura da rede é alterada como resultado do estímulo; 3. Em virtude das alterações que ocorreram em sua estrutura interna, a rede tem modificada sua resposta aos estímulos do ambiente. Um tipo particular de aprendizagem que será utilizado neste projeto é o supervisionado, caracterizado pela presença de um professor externo. A função do professor durante o processo é suprir a rede neural com uma resposta desejada a um determinado estímulo. Dentre os modelos superviosionados, deu-se maior aplicação ao algoritmo de aprendizagem por retro-propagação (backpropagation), o qual baseia-se na regra de aprendizagem por correção de erros. O algoritmo utiliza pares de entradas e saídas desejadas e, por meio de um mecanismo para correção dos erros, ajusta os pesos da rede. Para a minimização do erro obtido pela rede e o ajuste dos pesos, o algoritmo utiliza a regra de delta generalizada, com aplicação do gradiente (Haykin, 2001; Bishop, 1999; Ripley, 1996). Durante o treinamento com o algoritmo de retro-propagação, a rede opera em uma seqüência de dois passos. Primeiro, um padrão é apresentado à camada de entrada da rede. A atividade resultante flui através da rede, camada por camada (feedforward), até que a resposta seja produzida pela camada de saída. No segundo passo, a saída obtida é comparada à saída desejada para esse padrão particular. Se esta não estiver correta, o erro é calculado. O erro propagase a partir da camada de saída até a camada de entrada, e os pesos das conexões das unidades das camadas internas vão sendo modificados conforme se retro-propagado o erro (feedbackward). Os passos abaixo resumem o algoritmo de aprendizagem por retro-propagação: 1. Ajustar os pesos dos elementos de processamento com pequenos valores aleatórios. 2. Apresentar as entradas, um vetor x 0, x 1,..., x N de medidas, e especificar um vetor d 1, d 2,..., d N de saída desejado.

3 m 3. Calcular as saídas reais da rede, y 1, y 2,..., y N, definida pela equação: yk = f x jk ( p) wjk ( p) θ k, onde j = 1 f é a função de ativação, x é o vetor de entrada, w é o vetor peso e θ é o bias. 4. Reajustar os pesos. Usar um algoritmo recursivo começando pelos elementos de processamento de saída, trabalhando para trás no sentido da primeira camada. Os pesos são ajustados através da equação w ij(t + 1) = w ij(t) + η δ jx i, onde w ij é o peso do elemento de processamento oculto j no tempo t; x i pode ser tanto um elemento de processamento de saída quanto um de entrada; η denota um termo de ganho (velocidade da aprendizagem); e δ j é um termo de erro para o elemento de processamento j. Se j for um elemento de saída, então δ j = y j(1 y j)(d j y j), onde d j denota a saída desejada e y j é a saída real da rede; se o elemento j for um elemento oculto, então x j (1 x j ) δ kwjk, onde k denota todos os elementos acima dos elementos j. Os limiares delta dos elementos internos são ajustados de forma semelhante. A convergência algumas vezes pode ser mais rápida se um termo de momento for adicionado e os pesos alterados de forma mais suave, pela equação: w ij(t + 1) = w ij(t) + ηδ jx i + α (w ij(t) w ij(t 1)), onde 0 < α < Repetir retornando para o passo 2. Uma demonstração mais detalhada do algoritmo de retro-propagação pode ser vista em Tasinaffo e Rios Neto (2003), Bishop (1999) e Ripley (1996). A regra delta generalizada funciona quando são utilizadas, na rede, unidades com uma função de ativação semilinear, que é uma função diferenciável e não decrescente. Uma função de ativação amplamente utilizada, nestes casos, é a função sigmóide. Duas funções sigmóides muito utilizadas são a função logística, definida por x 1 1 e y = x 1 e +, e a tangente hiperbólica, definida por y = x (Bishop, 1999). 1+ e A taxa de aprendizagem influencia, essencialmente, a magnitude das mudanças dos pesos, desempenhando papel fundamental no desempenho do aprendizado. Uma taxa de aprendizado pequena implica pequenas variações, tornando o treinamento lento e aumentando as chances de paradas em mínimos locais; altas taxas de aprendizado, no entanto, podem levar a MLP à saturação, ou mesmo à oscilação, comprometendo todo o processo de aprendizado. Esta taxa de aprendizagem é introduzida na rede com o objetivo de permitir maior rapidez na convergência ao erro desejado, enquanto o erro estiver diminuindo e, ao mesmo tempo, evita que a rede venha a oscilar, diminuindo a taxa de aprendizagem quando o erro tende a aumentar. O treinamento das redes MLP com retro-propagação pode demandar muitos passos no conjunto de treinamento, resultando num tempo de treinamento consideravelmente longo. Se for encontrado um mínimo local, o erro para o conjunto de treinamento pára de diminuir e estaciona em um valor maior que o aceitável. Uma maneira de aumentar a taxa de aprendizagem sem acarretar oscilação é modificar a regra delta generalizada para incluir o termo momento, uma constante que determina o efeito das mudanças passadas dos pesos na direção atual do movimento no espaço de pesos (Haykin, 2001; Tafner et al., 1996). Desta forma, o termo momento leva em consideração o efeito de mudanças anteriores de pesos na direção do movimento atual no espaço de pesos. O termo momento torna-se útil em espaços de erro que contenham longas gargantas com curvas acentuadas, ou vales com descidas suaves. 3.Estruturas de Integradores Numéricos e Modelagem A utilização de integradores numéricos de sistemas de equações diferenciais ordinárias em esquemas de controle, o qual utiliza um modelo de rede neural interno discreto para frente, é apresentado em Tasinaffo (2003) e Rios Neto (2001). A obtenção de um modelo de rede neural com arquitetura feedforward que necessite somente aprender a função de derivadas do modelo original representado por sistemas de equações diferenciais ordinárias, inicialmente, proposto também por Rios Neto (2001) teve a estrutura interna dos algoritmos aproveitados por Tasinaffo (2003) para o uso de derivadas médias. Adaptou-se a referida estrutura interna dos algoritmos de integração numérica para obtenção de um modelo de rede neural com arquitetura feedforward que necessite somente aprender a função de derivadas do modelo original representado por sistemas de equações diferenciais ordinárias. Considerando um sistema dinâmico e supondo que o modelo matemático obtido por meio de um conjunto de equações diferenciais ordinárias (Ordinary Differential Equations ODE), tem-se: x& = f ( x, u) (1) Onde x R n é o vetor de estado; x R m é o vetor de controle; f(x,u) é a função de derivadas do sistema. Considera-se um integrador numérico para obter uma aproximação discreta do sistema da Eq. (1): x( t + t) f ( x( t), x( t t),..., x( t n t); u( t),..., u( t n t); t) (2) n 0 0 k

4 onde f ( x( t), x( t t),..., x( t n t); u( t),..., u( t n t); t) é uma função que resulta a partir da avaliação da n 0 0 função de derivada da Eq. (1) no algoritmo do integrador numérico; n o relaciona-se a ordem de aproximação. Se n o é igual a zero tem-se os integradores de passo simples, por exemplo, os integradores de Euler ou de Runge- Kutta. Se n o for maior que zero tem-se os integradores de múltiplos passos ou de diferenças finitas, como por exemplo, os integradores de Adams-Bashforth; e t como tamanho do passo, o qual é assumido suficientemente pequeno para assegurar que u(t) seja constante ao longo do intervalo de discretização. O integrador numérico na Eq. (2) pode ser utilizado recursivamente como um aproximador discreto do modelo do sistema dinâmico da Eq. (1) de um esquema de controle de modelo interno, sendo que o erro em cada passo pode ser controlado pela variação do tamanho do passo e/ou pela ordem do integrador numérico (Tasinaffo e Rios Neto, 2003). Na Equação (1) do sistema dinâmico, a função de derivada no modelo matemático da ODE é uma função algébrica que pode ser aproximada pela rede neural feedforward: x& = f ( x, u) fˆ ( x, u, wˆ ) (3) Onde fˆ ( x, u, w ˆ) representa a rede neural treinada; e ŵ o peso de aprendizagem da rede neural. Considerando esta aproximação neural da função de derivada na estrutura da ODE do integrador numérico para obter a aproximação discreta do sistema da Eq. (1): x( t + t) fˆ ( x( t), x( t t),..., x( t n t); u( t),..., u( t n t); t; wˆ ) (4) n 0 0 O integrador numérico neural da Eq. (4) é uma aproximação do integrador numérico da ODE da Eq. (2) e ambos um modelo de controle preditivo discreto do sistema dinâmico da Eq. (1), o qual pode ser usado como um modelo interno no esquema de controle. 4.Desenvolvimento Nesta seção, serão apresentados o treinamento e simulação do sistema dinâmico representado pelo Pêndulo de Wilberforce, bem como os resultados obtidos durante a simulação. Para representação da dinâmica deste sistema pela rede neural, será adotado o método das derivadas instantâneas (Rios Neto, 2001; Tasinaffo, 2003) Pêndulo de Wilberforce O pêndulo de Wilberforce, conforme ilustrado na Fig. 2, consiste num objeto, ligado a uma mola vertical, que pode oscilar na vertical, ou rodar no plano horizontal, o qual é equivalente a um pêndulo de torção preso à extremidade de uma mola, formando um sistema massa-mola com momento de inércia variável. A energia potencial adquirida pela massa (se girada e depois solta) se transforma em energia cinética tanto rotacional quanto translacional. Quando o pêndulo está subindo e descendo com amplitude máxima (energia cinética translacional máxima) observa-se que a massa para de girar (energia cinética rotacional mínima) e vice-versa, se a energia translacional é mínima, a rotacional é máxima. Figura 2 Pêndulo de Wilberforce.

5 Para além da energia cinética de translação, existe energia cinética de rotação, que depende do momento angular, L, e do momento de inércia, I. A energia elástica de torsão é proporcional ao quadrado do ângulo de rotação: 2 2 p L k 2 a 2 b H = + + z + θ + zθ (5) 2m 2I O termo de acoplamento é devido à relação que existe entre o alongamento e a torsão da mola. Por cada par deslocamento-momento, existem duas equações de movimento (Villate, 2006): H H z& = θ& = p L H H p& = L& = z θ O sistema obtido é: p z& = m L θ& = I b p& kz θ = 2 b L& = aθ z 2 (6) Estudos efetuados sumarizam os cálculos, permitindo o entendimento e a dedução do conjunto de Eq. (6) utilizado para determinação e verificação experimental das modalidades normal e coordenada normal para um pêndulo de wilberforce disponível comercialmente (Berg et al., 1991) Treinamento Para o problema de transformação de energia descrito acima, e como ilustra a Figura 2, apresentam-se como variáveis de estado deste problema: a amplitude de deslocamento da mola z, deslocamento angular θ, momento linear p e momento angular L. As equações de estado (Villate, 2006) da dinâmica da transformação de energia do Pêndulo de Wilberforce são apresentadas no Sistema de Equações (6). As constantes deste problema são: massa, m, igual a 0.5 Kg, momento de inércia, I, igual a Kgm², constante da mola, k, igual a 5, constante de torsão, a, igual a e termo de acoplamento, b, igual a A tabela 1 apresenta os valores mínimos e máximos das variáveis de estado do problema. Tabela 1 - Domínio das Variáveis de Estado utilizadas no treinamento neural da função. Variáveis Valor Mínimo Valor Máximo z -1 1 θ p L Quanto à arquitetura e o desempenho da rede neural utilizada para obter os resultados numéricos da simulação, os dados mais significativos são: rede com 4 entradas (4 variáveis de estados), há somente uma camada interna com 40 neurônios tansig ( λ = 2 ), rede com 4 saídas (funções de derivadas instantâneas), as camadas de entrada e interna possuem cada uma um neurônio extra de viés com entrada sempre constante e igual a 1, durante treinamento neural foram utilizados 800 vetores de entrada/saída, e 200 vetores de entrada/saída durante os testes, com tempo 2471 segundos para realização das 10 mil primeiras iterações. Ao final do treinamento, com 60 mil iterações, as Médias dos Erros Quadráticos (MEQ) de treinamento e teste alcançados foram respectivamente 2, e 2,

6 O treinamento foi várias vezes iniciado na tentativa de determinar os melhores valores para quantidade de neurônios, número de padrões de treinamento e teste, com vista a se obter a menor Média dos erros quadráticos. Ressalta-se que a finalização de cada treinamento ocorreu em razão do número máximo de iterações, inicialmente estabelecido em 10 mil, e que não se observou divergência entre a MEQ de teste e treinamento. A Tabela 2 resume alguns dados de entrada e saída dos treinamentos executados inicialmente. Tabela 2 Resumo dos dados de treinamentos executados. Vetores Entrada/Saída Número de Neurônios Tempo Gasto (segundos) MEQ Teste MEQ Treinamento , , , , , , , , , , , , , , , , , , , , , , , , Simulação A Figura 3 apresenta o resultado da simulação da dinâmica do Pêndulo de Wilberforce. A curva contínua foi obtida a partir da solução numérica com o integrador de Range-Kutta de 4ª ordem aplicado à função de derivada original, ou seja, conjunto de equações (6), validando a solução modelada. Os círculos e os triângulos representam a solução neural obtida, respectivamente, com o integrador neural Range- Kutta e integrador neural Adams-Bashforth, ambos de 4ª ordem, com o tamanho do passo de.001 unidades e reinicializado a cada 250 propagações, o que permiti corrigir possíveis desvios. A média das normas das diferenças entre os valores originais e neurais da Figura 3 é de 8, Figura 3 Resultado da Simulação da modelagem da dinâmica do Pêndulo de Wilberforce.

7 5.Conclusões A utilização de integrador numérico em conjunto com redes neurais para representar sistema dinâmico se mostrou factível, visto que a rede neural desempenha o papel da função de derivadas do sistema dinâmico, simplificando a fase computacional de treinamento neural. Quanto à estrutura da rede neural, é mais simples em termos do número necessário das camadas e do número dos neurônios, pois aprenderá somente as funções derivativas do sistema dinâmico; Durante a fase de treinamento para aprendizagem do sistema dinâmico do Pêndulo de Wilberforce foi necessária a adoção de várias heurísticas para minimizar o esforço de treinamento, as quais propiciaram um treinamento eficaz da dinâmica do pêndulo. Deve-se dosar o número de neurônios e a quantidade de padrões de treinamento e teste, as quais estão ligadas à complexidade do sistema dinâmico e à quantidade de variáveis de estado e de controle. No caso de serem utilizadas 4 variáveis de estado, o número inicial de neurônios seria 40 e o de padrões de treinamento e teste, Definida essa situação inicial, os estudos incipientes mostraram ser necessário um número mínimo de interações a fim de se alcançar o EQM desejado. No caso do sistema dinâmico do pêndulo, apenas a incrementação do número de iterações possibilitou se alcançar o erro desejado. 6.Referências Berg, Richard E.. Marshall, Todd S.., 1991, Wilberforce pendulum oscillations and normal modes. American Journal of Physics. Volume 59, Issue (1), pp Bishop, C. M.., 1999, Neural Networks for Pattern Recognition. Oxford University Press, New York. Dyminski, A. S.., 2000, Análise de Problemas Geotécnicos através de Redes Neurais. Rio de Janeiro: Pontifícia Universidade Católica do Rio de Janeiro. Tese. Freixinho, M. A. P.., 1996, Reconhecimento de dígitos manuscritos por redes neurais. Rio de Janeiro: Pontifícia Universidade Católica do Rio de Janeiro. Tese. Hassoun, M. H.., 1995, Fundamentals of Artificial Neural Networks. MIT Press, Cambridge, MA, USA. Haykin, S., 2001, Redes Neurais: Princípios e Prática. 2.ª edição, Porto Alegre: Bookman. Hornik, K.; Stinchcombe, M.; White, H., 1989, Multilayer feedforward networks are universal approximators. Neural Networks, v. 2, n. 5, p Hunt, K. J.; Sbarbaro, D.; Zbikowski, R.; Gawthrop, P. J., 1992, Neural networks for control systems A survey. Automatica, v. 28, n. 6, p Piccoli, L.., 1999, Segmentação e classificação de imagens ecocardiográficas utilizando redes neurais. Porto Alegre: Universidade Federal do Rio Grande do Sul. Dissertação. Rios Neto, Altair., 2001, Dynamic systems numerical integrators in neural control schemes. In: Congresso Brasileiro de Redes Neurais, 5., 2001, Rio de Janeiro, RJ, Brasil. Anais. Rio de Janeiro: Conselho Nacional de Redes Neurais, 2001, p CD-ROM. Ripley, B. D.., 1996, Pattern Recognition and Neural Networks. Cambridge University Press, United Kigndom. Swingler, K.., 1996, Applying Neural Networks : a Practical Guide. Academic Press, London. Tafner, M. A.; Xerez, M. ; Filho, E. R.., 1996, Redes Neurais Artificiais : Introdução e Princípios de Neurocomputação. Editora FURB, Blumenau. Tasinaffo, Paulo Marcelo. Rios Neto, Altair., 2003, Feedforward Neural Networks Combined with a Numerical Integrator Structure for Dynamic Systems Modeling. In: 17 th International Congress of Mechanical Engineering (COBEM, 2003). São Paulo. Tasinaffo, Paulo Marcelo., 2003, Estruturas de Integração Neural Feedforward Testadas em Problemas de Controle Preditivo. São José dos Campos: INPE, p.- (INPE TDI/945). Tese. Unser, M.., 1986, Sum and difference histograms for texture classification. IEEE Transactions on Pattern Analysis and Machine Intelligence, PAMI-8(1): Villate, Jaime E.., 2006, Introdução aos sistemas dinâmicos: uma abordagem prática com Máxima. Creative Commons, Califórnia. Wang, Y.-J.; Lin, C.-T., 1998, Runge-Kutta neural network for identification of dynamical systems in high accuracy. IEEE Transactions On Neural Networks, v. 9, n. 2, p , Mar/1998.

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

ESTRUTURAS DE CONTROLE PREDITIVO NEURAL COM DERIVADAS MÉDIAS PARA REPRESENTAÇÃO E CONTROLE EM PROBLEMAS DINÂMICOS NÃO-LINEARES

ESTRUTURAS DE CONTROLE PREDITIVO NEURAL COM DERIVADAS MÉDIAS PARA REPRESENTAÇÃO E CONTROLE EM PROBLEMAS DINÂMICOS NÃO-LINEARES Anais do 14 O Encontro de Iniciação Científica e Pós-Graduação do ITA XIV ENCITA / 2008 Instituto Tecnológico de Aeronáutica São José dos Campos SP Brasil Outubro 20 a 23 2008. ESTRUTURAS DE CONTROLE PREDITIVO

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

UMA METODOLOGIA DE MODELAGEM EMPÍRICA UTILIZANDO O INTEGRADOR NEURAL DE MÚLTIPLOS PASSOS DO TIPO ADAMS-BASHFORTH

UMA METODOLOGIA DE MODELAGEM EMPÍRICA UTILIZANDO O INTEGRADOR NEURAL DE MÚLTIPLOS PASSOS DO TIPO ADAMS-BASHFORTH UMA METODOLOGIA DE MODELAGEM EMPÍRICA UTILIZANDO O INTEGRADOR NEURAL DE MÚLTIPLOS PASSOS DO TIPO ADAMS-BASHFORTH Regina Paiva Melo Marin reginam@ita.br Paulo Marcelo Tasinaffo tasinafo@ita.br Divisão de

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

UM MÉTODO DE DESENVOLVIMENTO DE SISTEMA DE CONTROLE BASEADO EM INTEGRAÇÃO NEURAL COM DERIVADAS MÉDIAS: ESTUDO DE CASO

UM MÉTODO DE DESENVOLVIMENTO DE SISTEMA DE CONTROLE BASEADO EM INTEGRAÇÃO NEURAL COM DERIVADAS MÉDIAS: ESTUDO DE CASO Anais do O Encontro de Iniciação Científica e Pós-Graduação do ITA XII ENCITA / 006 Instituto Tecnológico de Aeronáutica, São José dos Campos, SP, Brasil, Outubro, 6 a 9, 006 ENCITA-06-XXX UM MÉTODO DE

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica PERCEPTRON MULTICAMADAS: TÉCNICAS DE VALIDAÇÃO Prof. Dr. André A. P. Biscaro 2º Semestre de 2016 UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT Aspectos de seleção topológica de redes PMC A especificação

Leia mais

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs)

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs) Aprendizagem de Máquina Redes Neurais Artificiais (RNAs) Plano de Aula Introdução Motivação Biológica Perceptron Superfície de Decisão Descida do Gradiente Redes Multicamadas (Multilayer) Retropropagação

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

Redes Neurais Artificiais (RNA)

Redes Neurais Artificiais (RNA) Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace

Leia mais

Parte 7. Redes Neurais INTRODUÇÃO

Parte 7. Redes Neurais INTRODUÇÃO Parte 7. Redes Neurais INTRODUÇÃO As redes neurais representam uma técnica de inteligência artificial que permaneceu pouco estudada por muito tempo, sendo utilizada basicamente no reconhecimento de imagens.

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional

Leia mais

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial

Leia mais

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)

Leia mais

Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial

Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial Renan Bessa 1, Elder dos Santos Teixeira 2, Guilherme Costa Holanda 3, Auzuir Ripardo de Alexandria 4 1 Graduando em

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

y rede RNA Conjunto de treino em arquiteturas supervisionadas (ex. clássico: MLP com Error Back Propagation) Sistema Físico, Econômico, Biológico...

y rede RNA Conjunto de treino em arquiteturas supervisionadas (ex. clássico: MLP com Error Back Propagation) Sistema Físico, Econômico, Biológico... Retornando `as nossas motivaçoes ininciais no calculo de adaptaçoes de pesos... X Conjunto de treino em arquiteturas supervisionadas (ex. clássico: MLP com Error Back Propagation) Sistema Físico, Econômico,

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja

Leia mais

3 REDES NEURAIS ARTIFICIAIS

3 REDES NEURAIS ARTIFICIAIS 47 3 REDES NEURAIS ARTIFICIAIS Neste capítulo será apresentado um breve histórico das redes neurais artificiais de modo a situar o leitor, descrevendo-se suas aplicações, teorias e finalmente detalhando-se

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

Variações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa

Variações do BP. Variações do BP. Variações do BP. Taxa de Aprendizado Adaptativa. Taxa de Aprendizado Adaptativa A principal crítica ao algoritmo Back Propagation é o longo tempo de treinamento proposta de variações simples para acelerar o processo de aprendizado Taxa de Aprendizado Adaptativa Inicia-se com um valor

Leia mais

SCC Capítulo 5 Perceptron Multicamadas

SCC Capítulo 5 Perceptron Multicamadas Introdução Back-propagation (BP) MLPs Convolução SCC-5809 - Capítulo 5 Perceptron Multicamadas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMAR MATRIZ ORIGEM-DESTINO DE CARGA

APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMAR MATRIZ ORIGEM-DESTINO DE CARGA APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMAR MATRIZ ORIGEM-DESTINO DE CARGA Daniel Neves Schmitz Gonçalves Luiz Antonio Silveira Lopes Marcelino Aurelio Vieira da Silva APLICAÇÃO DE REDES NEURAIS

Leia mais

Profa. Josiane M. Pinheiro outubro/2008

Profa. Josiane M. Pinheiro outubro/2008 Baseada em: Stuart Russel e Peter Norving - Inteligência Artificial seção 20.5 Jorge M. Barreto Introdução às Redes Neurais Artificiais - http://www.inf.ufsc.br/~barreto/tutoriais/survey.pdf Cassia Yuri

Leia mais

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. Resumo: Lucas da Silva Assis Universidade Federal de Goiás lucasilvassis@gmail.com Esse trabalho apresenta

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas

Leia mais

ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS.

ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS. ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS. Arini de Menezes Costa 1, Kaio Martins Ramos 2, Hugo Hermano da Costa Castro 3, Antonio Alisson P.

Leia mais

Inteligência Computacional

Inteligência Computacional Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Apresentação da Disciplina Alessandro L. Koerich 2008 Mestrado e Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática Aprendizagem

Leia mais

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL Juliana A. ANOCHI 1, Sabrina B. M. SAMBATTI 1, Eduardo F. P. da LUZ 1, Haroldo F. de CAMPOS VELHO 1 Instituto Nacional de Pesquisas Espaciais - INPE

Leia mais

Modelagem Computacional. Parte 8 2

Modelagem Computacional. Parte 8 2 Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 8 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 10 e 11] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,

Leia mais

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs

Leia mais

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann: Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis

Leia mais

Redes neurais artificiais

Redes neurais artificiais Redes neurais artificiais Conceitos em redes neuronais Redes neuronais artificiais (RNA): uma metáfora cerebral para processamento de informações Computação neuronal Muitos usos de RNA para Reconhecimento

Leia mais

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz

Leia mais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo

Leia mais

IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS

IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS Anais do Simpósio Brasileiro de Geomática, Presidente Prudente SP, 9- de julho de 2002 p242-250 IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS ROMUALDO WANDRESEN

Leia mais

Aplicação da Técnica de Componentes Principais no Treinamento de uma Rede Neural no Contexto de Assimilação de Dados

Aplicação da Técnica de Componentes Principais no Treinamento de uma Rede Neural no Contexto de Assimilação de Dados Aplicação da Técnica de Componentes Principais no Treinamento de uma Rede Neural no Contexto de Assimilação de Dados 1 Vinicius Carvalho Beck 2 Júlio Renato Q. Marques 3 Fabrício P. Härter Universidade

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Plano da Apresentação Aprendizagem de Máquina Alessandro L. Koerich 2007 Mestrado e Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Professor & Experiência Acadêmica Horários

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

3 Redes Neurais Introdução

3 Redes Neurais Introdução 3 Redes Neurais 3.. Introdução As redes neurais artificiais, ou comumente conhecidas como Neural Networs, foram motivadas em princípio pela extraordinária capacidade do cérebro humano para executar tarefas

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação

Leia mais

Paradigmas de Aprendizagem

Paradigmas de Aprendizagem Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

IF-705 Automação Inteligente Redes Neurais para Modelagem e Controle

IF-705 Automação Inteligente Redes Neurais para Modelagem e Controle IF-705 Automação Inteligente Redes Neurais para Modelagem e Controle Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação

Leia mais

Mineração de Dados em Biologia Molecular

Mineração de Dados em Biologia Molecular Mineração Dados em Biologia Molecular Principais tópicos André C. P. L. F. Carvalho Monitor: Valéria Carvalho Res Neurais Artificiais Introdução Arquitetura Aprendizado Principais molos Perceptron MLP

Leia mais

SEMINÁRIO DOS ARTIGOS:

SEMINÁRIO DOS ARTIGOS: SEMINÁRIO DOS ARTIGOS: Text Detection and Character Recognition in Scene Images with Unsupervised Feature Learning End-to-End Text Recognition with Convolutional Neural Networks Fernanda Maria Sirlene

Leia mais

Introdução às Redes Neurais Artificiais. Eduardo Simas

Introdução às Redes Neurais Artificiais. Eduardo Simas Introdução às Redes Neurais Artificiais Eduardo Simas (eduardo.simas@ufba.br) Sumário O que são as Redes Neurais Artificiais? Para que servem? Processamento da Informação Tipos de Redes Neurais Modos de

Leia mais

ANÁLISE DA TAXA DE CONVERGÊNCIA DO CONSENSO EM SISTEMAS MULTI-AGENTE COM RETARDOS DE ENTRADA

ANÁLISE DA TAXA DE CONVERGÊNCIA DO CONSENSO EM SISTEMAS MULTI-AGENTE COM RETARDOS DE ENTRADA Anais do 14 O Encontro de Iniciação Científica e Pós-Graduação do ITA XIV ENCITA / 2008 Instituto Tecnológico de Aeronáutica São José dos Campos SP Brasil Outubro 20 a 23 2008. ANÁLISE DA TAXA DE CONVERGÊNCIA

Leia mais

CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS.

CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS. CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS. A. B. B. GIOPATTO 1, E. A. SILVA 2, T. D. MARTINS 1 1 Universidade Federal de São Paulo, Departamento

Leia mais