Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005

Documentos relacionados
Redes Neurais Artificiais

Redes Neurais Artificiais

Redes Neurais Artificiais

Redes Neurais Artificiais

Redes Neurais Artificiais. Prof. João Alberto Fabro

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Classificação Linear. André Tavares da Silva.

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Aprendizado de Máquina (Machine Learning)

Inteligência Artificial Redes Neurais

Redes Neurais Artificiais. Profa. Teresa Ludermir Sistemas Inteligentes

Redes Neurais Artificiais. Capítulos 1 e 2

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Redes Neurais Artificiais

Redes Neurais Artificial

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Capítulo 1. Redes Neuronais Artificiais - Origem, história e aplicações. ADC/DEI/FCTUC/CA/Cap.1/2005 1

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO

REDES NEURAIS ARTIFICIAIS

Fundamentos das Redes Neurais: exemplos em Java

Inteligência Computacional

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

Redes Neurais Noções Gerais

Professor José Gomes de Carvalho Jr. Modelos Conexionistas - Redes Neurais 1 INTRODUÇÃO

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

Introdução às Redes Neurais Artificiais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

3 Redes Neurais Artificiais

Rede Perceptron. Capítulo 3

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

REDES NEURAIS. Marley Maria B.R. Vellasco. ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada CONTEÚDO

Sistemas Inteligentes - Redes Neurais -

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

3 REDES NEURAIS ARTIFICIAIS

Introdução às Redes Neurais Artificiais

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO

lnteligência Artificial Introdução a Redes Neurais Artificiais

4 Redes Neurais Artificiais RNAs

Redes neurais artificiais

SCC Redes Neurais

Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação. Perceptron

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

2. Redes Neurais Artificiais

Por que Redes Neurais?

João Paulo Teixeira Departamento de Electrotecnia ESTiG Instituto Politécnico de Bragança

Rede RBF (Radial Basis Function)

Introdução. O cérebro humano. O sistema nervoso biológico é formado por um conjunto extremamente

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Redes Neurais INTELIGÊNCIA ARTIFICIAL

Redes Neurais Artificiais ( Neural(

2. Redes Neurais Artificiais

IAC - Inteligência Artificial Aplicada a Controle

2. Redes Neurais Artificiais

FÁBIO BARROS TEBALDI ESTUDO DE REDES NEURAIS ARTIFICIAS PARA VERIFICAÇÃO E CLASSIFICAÇÃO DE ASSINATURAS ATRAVÉS DE IMAGENS

Neural Networks. Neurônios: Elementos aritméticos simples. Redes Neuronais: conj de neurônios interligados.

Modelos ART Adaptive Ressonance Theory. Germano C. Vasconcelos Centro de Informática - UFPE

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

4 Redes Neurais Artificiais

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

2. Redes Neurais Artificiais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Mineração de Dados em Biologia Molecular

INTELIGÊNCIA ARTIFICIAL

Redes Competitivas e de Kohonen

Uso de Redes Neurais Artificiais na Determinação dos Zeros de Funções Polinomiais

Inteligência Artificial. Redes Neurais Artificiais. Aula II Introdução

Redes Neurais Artificiais - Introdução. Visão Computacional

Inteligência Artificial

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Redes Neurais. Artificiais. Fabricio Breve Parte 2. 19/04/2018 Fabricio Breve. Bias. Sinais de entrada. Pesos sinápticos.

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Motivação, Objetivo, Definição, Características Básicas e Histórico. Neurônio Artificial, Modos de Interconexão

Mapas Auto-Organizáveis de Kohonen SOM

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas

Redes Neurais Artificial. Prática. Inteligência Artificial

O Perceptron de Rosenblatt foi desenvolvido para lidar com o problema de

Tópicos Especiais em Informática Fatec Indaiatuba

3 INTELIGÊNCIA COMPUTACIONAL (IC)

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

IBAPE Redes Neurais Artificiais XIV COBREAP A TÉCNICA A SERVIÇO DO MERCADO. Salvador, novembro de 2007

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

Mapas Auto-Organizáveis de Kohonen SOM

Redes Neurais Artificiais

INF 1771 Inteligência Artificial

SCC Capítulo 3 Aprendizado

Profa. Josiane M. Pinheiro outubro/2008

Transcrição:

Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005 1.3. Alguns aspectos históricos 1.4. Principais Conceitos 1.4.1. Definições 1.4.2. Alguns tipos de Arquitetura Revisão da Aula-1 x 1 1 x 2 2 S v = å x i i v - m y = sign( v - m ) x n n Neurônio de McCulloch-Pitts. (1943) Considerando uma unidade j em uma dada rede, a resposta dessa unidade é expressa por: y j v j ( - m ) = sgn (1) j onde a função sinal (sgn) assume dois valores: ì ï 1 se sgn( x) = í ï î-1 se x ³ 0 x < 0 m é o limiar ( bias ) e, v j = n å i= 1 x j, i j, i (2)

Redes Neurais Artificiais na Engenharia Nuclear 2 Aula-2 Ano: 2005 1.3 - Aspectos Históricos Na época do Neurônio de McCulloch-Pitts não existiam computadores para simulação, as implementações eram físicas (hardare), mas os componentes não eram adequados e robustos o suficiente para uma boa implementação. Essas dificuldades, que persistiram até o final da década de 50, diminuiram o entusiasmo inicial, gerando o que ficou marcado como o primeiro período de ceticismo, que durou até 1958, quando Rosenblatt apresentou o seu projeto de um computador neural denominado PERCEPTRON. É importante destacar que a solução do problema de se construir máquinas confiáveis com componentes não confiáveis começou a surgir na metade da década de cinqüenta, quando John von Neumann (1956) introduziu o conceito de redundância, originando a geração dos atuais computadores digitais, que vieram a vencer a corrida disputada com a linha de cérebros eletrônicos. O PERCEPTRON (termo que sobrevive até hoje), que surgiu nesse período, era uma rede, de uma única camada, contendo unidades associativas alimentadas por 400 células fotoelétricas. Entre 1960 e 1962 o grupo de Rosenblatt se concentrava no problema do treinamento do PERCEPTRON, tendo conseguido provar a convergência de um algoritmo de aprendizado. Aproximadamente na mesma época, Widro e Hoff (1960), que seguiam por um caminho diferente do de Rosenblatt, introduziram o conceito que foi batizado como: ADALINE (sigla de ADAptive LINear Element, posteriormente chamado por alguns autores como ADAptive Linear NEuron). A composição de uma rede de múltiplos ADALINES s origina o chamado MADALINE.

Redes Neurais Artificiais na Engenharia Nuclear 3 Aula-2 Ano: 2003 1943 Neurônio de McCulloch-Pitts 1949 Plasticidade das Sinapses - Hebb 1962 1960 ADALINE Widro-Hoff 1958 PERCEPTRON Rosenblatt 1956 Uso da Redundância von Neumann Algoritmo PERCEPTRON Rosenblatt 1969 Livro PERCEPTRONS Minsk & Papert 1974 1976 ART Grossberg 1ª Invenção da Retro- Propagação Werbos 1982 1985 2ª Re-invenção da Retro- Propagação - Rumelhart, Hinton e Williams Memória Associativa Hopfield Re-invenção da Retro-Propagação Parker SOM Kohonen

Redes Neurais Artificiais na Engenharia Nuclear 4 O PERCEPTRON original era constituído por 400 células fotoelétricas recebendo estímulos óticos primários e interligadas a elementos processadores que, dependendo da entrada, produziam uma determinada resposta. Entradas fotocélulas S Saída Unidades Associativas PERCEPTRON de Rosenblatt. Vetor Peso () x 0 = 1 "Bias" 0 S k Saída Linear Vetor de Entradas S -1 +1 y k Saída Binária x k Algorítmo LMS Erro Linear - e 2m S + Resposta Desejada ADALINE de WIDROW (1960).

Redes Neurais Artificiais na Engenharia Nuclear 5 Do mesmo modo que o PERCEPTRON, o ADALINE possuía apenas uma única camada de unidades. A diferença é que o erro era baseado na saída linear. Apesar dos bons resultados com os primeiros experimentos, constatouse que uma única camada não é capaz de implementar qualquer função, sendo limitada a solução de funções linearmente separáveis. Durante muito tempo a dificuldade dessa limitação, abordada no livro PERCEPTRONS, que foi publicado em 1969 por Minsky e Papert, se tornou o maior empecilho para o desenvolvimento do campo de RNA. Nesse trabalho eles demonstraram que o teorema de Rosenblatt se aplicava somente a problemas que a rede era capaz de resolver, não sendo capaz de implementar mesmo diversas funções simples. A Fig. a seguir mostra algumas funções para um sistema com duas entradas (x 1 e x 2 ), demonstrando que não é possível, para esse sistema, representar a função XOR (o ou-exclusivo ). x 1 x 1 x 1 x 2 solução solução x 2 sem solução x 2 Discriminador Linear Não Implementa Função "XOR".

Redes Neurais Artificiais na Engenharia Nuclear 6 A próxima figura mostra um ADALINE com duas entradas e a representação de sua resposta na forma de uma linha de separação no espaço de padrões. x 1k 1k x 0k = +1 ( "Bias") 0k 2k S v k -1 +1 y k Saída x 2k x 2 saída do ADALINE = -1 (-1, +1) (+1, +1) (-) x 1 saída do ADALINE = +1 (-1, -1) (+1, -1) (+) Linha de Separação de um ADALINE de duas entradas. A saída da unidade acima é ativada quando v k ³ 0. No caso da unidade com duas entradas (x 1 e x 2 ), e no limite quando v k = 0 se tem: v = x 1 1 + x22 + 0 = 0 portanto à 1 x2 = - x1-2 0 2 onde à declividade - 1 = e, 2 0 Interceptação = - 2

Redes Neurais Artificiais na Engenharia Nuclear 7 O ADALINE e o PERCEPTRON foram responsáveis por um grande ciclo de entusiasmo que, no entanto, esbarrando na dificuldade da separação linear, quase desapareceu quando foram praticamente cortados todos os recursos +destinados às pesquisas em redes neurais. Muito tempo depois se constatou que grupos de elementos simples organizados em camadas, semelhantes aos PERCEPTRONS mas utilizando um novo algoritmo de aprendizado, a regra delta de aprendizado, podiam implementar todas as funções básicas dos computadores digitais (na época se pensava ainda na utilização de funções lógicas para o desenvolvimento do cérebro eletrônico). Apesar do arrefecimento provocado pelo corte dos investimentos em redes neurais e, portanto com muita dificuldade, alguns pesquisadores prosseguiram seu trabalho. Somente para ilustrar destacam-se os trabalhos de: James Anderson (1968), que trabalhava em um modelo baseado em modelos biológicos da memória e de reconhecimento, nos quais as forças de ligação sinápticas são fortalecidas quanto mais freqüentemente são ativadas. Tuevo Kohonen (1974-1982), que desenvolveu o conceito de uma rede chamada mapa auto-organizável. A contribuição de Kohonen define o conceito de aprendizado competitivo, no qual as unidades competem para responder a determinada entrada e o elemento vencedor tem os pesos de suas entradas modificados para responder a valores próximos dessa entrada, cada vez com maior força. Stephen Grossberg (1967-1969), cujos estudos procuravam utilizar dados neurológicos na construção de novos modelos em computação neural. Seus trabalhos se focalizaram no estudo dos reflexos condicionados, baseando-se nos postulados de Hebb (1949) sobre o aprendizado.

Redes Neurais Artificiais na Engenharia Nuclear 8 Werbos (1974), desenvolveu e apresentou na sua tese de doutorado um algoritmo de aprendizado que é o método atualmente denominado de retro-propagação (ou propagação para trás ). Infelizmente esse algoritmo não chegou a ser disseminado na época. Grossberg (1976), desenvolveu a Teoria da Ressonância Adaptativa (Adaptive Ressonance Theory ART) que trata de implementações neurais com algoritmos auto-organizáveis de agrupamento de padrões. Parker (1982), também ainda sem uma merecida divulgação, reinventou esse mesmo algoritmo. John Hopfield (1982), apresentou um trabalho que é uma particularização do trabalho de Grossberg e que ficou conhecido como redes associativas em linha transversal, constituídas por elementos interligados buscando o aprendizado com um mínimo de energia. O trabalho de Hopfield originou um novo ciclo de entusiasmo e progresso nessa outra linha. Rumelhart, Hinton e Williams (1985) mais uma vez reinventaram o algoritmo de retro-propagação e, somente a partir daí, começaram a se desenvolver muitas pesquisas dentro dessa linha. Atualmente muitos grupos em praticamente todas as universidades e centros de pesquisa desenvolvem trabalhos no campo de redes neurais artificiais, ainda baseados nos estudos acima.

Redes Neurais Artificiais na Engenharia Nuclear 9 1.4 - Principais Conceitos 1.4.1. Definições Ação Arquitetura Limiar (Bias) Camada Conexão : Processo durante o qual uma rede dá resposta a um conjunto de parâmetros de entrada... : É o modo de organização das unidades da rede, em conjunto com a função de transferência, fluxo de sinais e ainda, às vezes, em conjunto com o algoritmo de treinamento que a distingue de outras. : Valor que corresponde a limiar de disparo e promove uma transformação afim... : Conjunto de unidades em paralelo que recebem sinais sincronizadamente... : Representa uma sinapse... Função de ativação, ganho, ou transferência Peso Tabela de Treinamento Treinamento Unidade : Função resposta da unidade (função sinal, sigmóide, tangente hiperbólica, etc.) : Multiplicador das entradas em uma unidade que representa uma resistência/ganho sináptico : Conjunto de dados entrada/saída para treinamento de uma rede : Processo de apresentação de exemplos e alteração de pesos para aprendizado : Representação artificial de um neurônio

Redes Neurais Artificiais na Engenharia Nuclear 10 PADRÃO RNA s servem para classificar padrões! De fato, o que elas fazem é mapear um conjunto de dados, construindo uma representação interna! O que é um padrão no campo de RNA? Um padrão pode ser um estado, uma condição, uma característica, etc. de um determinado processo, objeto, população, etc. Por exemplo: A pressão (p) e a temperatura (T), que definem um estado de um determinado sistema, definem um padrão para propriedades termodinâmicas à padrão 01 (p 1, T 1 ) A idade (i), o sexo (s) e a altura (h), características de uma dada população, podem representar padrões a serem classificados à padrão p ( i p, s p, h p ) x 2 (-1, +1) (+1, +1) Padrão 01 (-) x 1 (+) Padrão 02 (-1, -1) (+1, -1) Segundo Exemplo

Redes Neurais Artificiais na Engenharia Nuclear 11 Implementação de funções E, OU e outras com uma unidade de 2 entradas Considere a Unidade abaixo: x 1k 1k m = 2. k S v k -1 +1 y k Saída x 2k 2k Para resolver esse problema vamos utilizar a planilha Excel: Separação Linear- Aula-2.xls A unidade pode ser treinada para tentar reproduzir qualquer uma das funções a seguir (uma de cada vez). Vamos verificar... OU x2 x1 x2 y x1 x2 y 0 0 0 0 0 0 0 1 1 0 1 1 1 0 1 1 0 0 1 1 1 1 1 1 E x1 x1 x2 y x1 x2 y 0 0 0 0 0 0 0 1 0 0 1 0 1 0 0 1 0 1 1 1 1 1 1 1 Será que ela é capaz de aprender a função Ou-Exclusivo? OU-Exclusivo x1 x2 y 0 0 0 0 1 1 1 0 1 1 1 0

Redes Neurais Artificiais na Engenharia Nuclear 12 1.4.2. Algumas Arquiteturas Quase pode ser afirmado que cada aplicação, ou melhor, cada tipo de problema, pode requerer uma arquitetura específica para sua melhor solução. Por esse motivo podem ser encontradas inúmeras arquiteturas de RNA, muitas definidas apenas por uma classificação do fluxo de sinais, da organização das unidades, da forma da função de transferência, por alguma característica específica do algoritmo de treinamento, ou ainda por outros motivos. O processo de construção de uma rede ainda é uma atividade repleta de heurísticas. De um modo geral as redes neurais artificiais formam arranjos regulares de unidades que representam os neurônios. Essas unidades, uniformemente organizadas, são associadas em paralelo e em camadas, como se constituíssem um cérebro em um estágio primitivo de desenvolvimento, ou seja, antes de adquirir significado. As forças de ligação entre essas unidades, denominadas de pesos, após serem criadas tendo valores pequenos e escolhidos aleatoriamente, são ajustadas num processo de aprendizado. Essas unidades se comunicam e a transmissão dos sinais entre elas pode se resumir em: amplificação ou atenuação linear dos sinais de entrada através da sua multiplicação pelos pesos; soma desses sinais ponderados; e, emissão de um sinal de resposta filtrado por meio da função de transferência (em geral representada por uma tangente hiperbólica ou uma sigmóide). Com base nesses conceitos é que se define a arquitetura da rede: que é o modo de organização de suas unidades em conjunto com o fluxo dos sinais e ainda às vezes em conjunto com o processo de aprendizado envolvido. Para cada tipo de arquitetura se encontram muitos exemplos de aplicações, como por exemplo, o reconhecimento de padrões por meio de PERCEPTRONS, a previsão do tempo utilizando MADALINE, a codificação e compressão de imagens, etc., todas essas representando a utilização de redes

Redes Neurais Artificiais na Engenharia Nuclear 13 alimentadas adiante ( feed-forard ); o posicionamento de um braço robótico utilizando os mapas auto-organizáveis (rede competitiva) de Kohonen; e o conceito de memória associativa utilizando redes em realimentação ( feedback ) de Hopfield, etc. Muitos outros conceitos, que até poderiam ser encaixados nos tipos de arquitetura descritos anteriormente, são tratados como de arquitetura diferente por introduzirem aperfeiçoamentos significativos; nesse caso são batizados conforme sua aplicação ou pelo nome de seu idealizador. A Fig. seguinte ilustra os três tipos de arquitetura mais comuns: redes em feed-forard ; redes em feedback ; e mapas autoorganizáveis. (a) Redes Alimentadas Adiante ("feed-forard") (b) Redes com realimentação ("feedback") (c) "Mapas Auto-Organizáveis" (Rede competitiva) Tipos de Arquitetura de Redes.

Redes Neurais Artificiais na Engenharia Nuclear 14 Questões: 1. A qual evento se atribui o marco inicial do campo de RNA? 2. O que era o PERCEPTRON de Rosenblatt? 3. Descreva, com suas palavras, o comportamento que sempre caracterizou o desenvolvimento do campo de RNA? 4. Represente o tipo de separação de padrões que um neurônio de McCulloch com duas entradas pode fazer. Represente pelo menos duas situações. 5. Qual a maior diferença entre o PERCEPTRON e o ADALINE. 6. O que você entende por Limiar? 7. Defina o que é padrão no campo de RNA. 8. Relacione três (3) tipos de redes diferentes pelo fluxo de sinais. 9. Utilizando a Planilha Excel fornecida, teste todas as possíveis combinações de entradas para a unidade singular e relate o observado.