ERI 97 ENCONTRO REGIONAL DE INFORMÁTICA SOCIEDADE BRASILEIRA DE COMPUTAÇÃO. Nova Friburgo, RJ e Vitória, ES Mini-Curso

Tamanho: px
Começar a partir da página:

Download "ERI 97 ENCONTRO REGIONAL DE INFORMÁTICA SOCIEDADE BRASILEIRA DE COMPUTAÇÃO. Nova Friburgo, RJ e Vitória, ES Mini-Curso"

Transcrição

1 ERI 97 ENCONTRO REGIONAL E INFORMÁTICA SOCIEAE BRASILEIRA E COMPUTAÇÃO Nova Friburgo, RJ e Vitória, ES Mini-Curso Redes Neurais Artifiiais Resumo: Este doumento aresenta uma introdução ara a área de redes neurais artifiiais (RNA). Em rimeiro lugar motiva-se o aradigma da neuroomutação elas aaidades ognitivas de redes neurais biológias, insirado elo onheimento da neuroiênia. Os fundamentos das RNA são o modelo de um neurônio, a toologia da rede e os aradigmas de arendizagem. O modelo de MCulloh e Pitts serve omo modelo básio de um neurônio artifiial. Proagação ara frente e redes om realimentação onstituem as riniais toologias de redes. Paradigmas de arendizagem aresentados são a arendizagem suervisionada e arendizagem nãosuervisionada. Em relação às regras ara a adatação dos esos distingue-se entre a regra de Hebb, a regra de delta e a arendizagem ometitiva. A lasse de redes de roagação ara frente é reresentada elo eretron, o AALINE e o eretron om uma amada esondida. Nas regras de arendizagem do AALINE aresentam-se duas ténias riniais ara adatar os esos, a solução determinístia linear ela seudoinversa e a desida de gradiente. O algoritmo de retroroagação do erro é a ferramenta fundamental ara treinar o eretron multiamada. Redes om realimentação que aresentam um omortamento dinâmio são reresentadas elo modelo de Hofield. Motiva-se a toologia e funionalidade da rede e analisa-se a estabilidade dos esos. A introdução de uma função de energia or Hofield junto om esos simétrios garante a estabilidade da rede. Um exemlo de aliação desse tio de rede é o armazenamento e reueração de imagens binárias. Redes ometitivas onluem a aresentação. entro de uma amada ometitiva existe um venedor que mostra a maior oinidênia om o sinal de entrada. O maa de reservação toológia de Kohonen adiionalmente ao uso da arendizagem ometitiva imõe uma ordem toológia sobre os neurônios individuais. Thomas Walter Rauber eartamento de Informátia Universidade Federal do Esírito Santo Av. F. Ferrari, Vitória - ES, BRASIL Tel.: (+55)(27) Fax: (+55)(27) thomas@inf.ufes.br WWW-homeage: htt://

2 ÍNICE 1 INTROUÇÃO A Insiração da Neuroiênia História da Neuroomutação Referênias ara Arofundamento na Matéria de Redes Neurais FUNAMENTOS Modelo de Neurônio Artifiial Toologia de Redes de Neurônios Artifiiais Paradigmas de Arendizagem Arendizagem suervisionada Arendizagem não-suervisionada Regras de Adatação dos Pesos Arendizagem ela Regra de Hebb Arendizagem ela Regra de elta Arendizagem Cometitiva Taxonomia de Redes REES E PROPAGAÇÃO PARA FRENTE Peretron AALINE O erro quadrátio mínimo Solução determinístia Solução iterativa: esida de Gradiente Peretron Multi-Camada e Retroroagação de Erro Arquitetura Adatação dos esos REES COM REALIMENTAÇÃO Modelo de Hofield Assoiatividade de Padrões na Rede de Hofield Estabilidade e Arendizagem de Pesos Relaxação, Minimização de Energia Aliação: Reueração de Imagens REES COMPETITIVAS eterminação do Venedor Adatação dos Pesos O Maa de Preservação Toológia de Kohonen CONCLUSÕES...25 i

3 Redes Neurais Artifiiais Thomas Walter Rauber eartamento de Informátia Universidade Federal do Esírito Santo Av. F. Ferrari, Vitória - ES, BRASIL Tel.: (+55)(27) Fax: (+55)(27) thomas@inf.ufes.br WWW-homeage: htt:// Resumo: Este doumento aresenta uma introdução ara a área de redes neurais artifiiais (RNA). Em rimeiro lugar motiva-se o aradigma da neuroomutação elas aaidades ognitivas de redes neurais biológias, insirado elo onheimento da neuroiênia. Os fundamentos das RNA são o modelo de um neurônio, a toologia da rede e os aradigmas de arendizagem. O modelo de MCulloh e Pitts serve omo modelo básio de um neurônio artifiial. Proagação ara frente e redes om realimentação onstituem as riniais toologias de redes. Paradigmas de arendizagem aresentados são a arendizagem suervisionada e arendizagem nãosuervisionada. Em relação às regras ara a adatação dos esos distingue-se entre a regra de Hebb, a regra de delta e a arendizagem ometitiva. A lasse de redes de roagação ara frente é reresentada elo eretron, o AALINE e o eretron om uma amada esondida. Nas regras de arendizagem do AALINE aresentam-se duas ténias riniais ara adatar os esos, a solução determinístia linear ela seudoinversa e a desida de gradiente. O algoritmo de retroroagação do erro é a ferramenta fundamental ara treinar o eretron multiamada. Redes om realimentação que aresentam um omortamento dinâmio são reresentadas elo modelo de Hofield. Motiva-se a toologia e funionalidade da rede e analisa-se a estabilidade dos esos. A introdução de uma função de energia or Hofield junto om esos simétrios garante a estabilidade da rede. Um exemlo de aliação desse tio de rede é o armazenamento e reueração de imagens binárias. Redes ometitivas onluem a aresentação. entro de uma amada ometitiva existe um venedor que mostra a maior oinidênia om o sinal de entrada. O maa de reservação toológia de Kohonen adiionalmente ao uso da arendizagem ometitiva imõe uma ordem toológia sobre os neurônios individuais.

4 ÍNICE I INTROUÇÃO I.1 A Insiração da Neuroiênia I.2 História da Neuroomutação I.3 Referênias ara Arofundamento na Matéria de Redes Neurais II FUNAMENTOS II.1 Modelo de Neurônio Artifiial II.2 Toologia de Redes de Neurônios Artifiiais II.3 Paradigmas de Arendizagem II.3.1 Arendizagem suervisionada II.3.2 Arendizagem não-suervisionada II.4 Regras de Adatação dos Pesos II.4.1 Arendizagem ela Regra de Hebb II.4.2 Arendizagem ela Regra de elta II.4.3 Arendizagem Cometitiva II.5 Taxinomia de Redes III REES E PROPAGAÇÃO PARA FRENTE III.1 Peretron III.2 AALINE III.2.1 O erro quadrátio mínimo III.2.2 Solução determinístia III.2.3 Solução iterativa: esida de Gradiente III.3 Peretron Multi-Camada e Retroroagação de Erro III.3.1 Arquitetura III.3.2 Adatação dos esos IV REES COM REALIMENTAÇÃO IV.1 Modelo de Hofield IV.2 Assoiatividade de Padrões na Rede de Hofield IV.3 Estabilidade e Arendizagem de Pesos IV.4 Relaxação, Minimização de Energia IV.5 Aliação: Reueração de Imagens V REES COMPETITIVAS V.1 eterminação do Venedor V.2 Adatação dos Pesos V.3 O Maa de Preservação Toológia de Kohonen VI CONCLUSÕES BIBLIOGRAFIA

5 I. INTROUÇÃO Uma das áreas de esquisa mais fasinante resentemente é a simulação de aaidades ognitivas de um ser humano. Projetam-se máquinas aazes de exibir um omortamento inteligente, omo se fossem reações humanas. A inteligênia do ser humano é a mais avançada dentro do universo das riaturas e o loal dessa inteligênia dentro do oro humano é o érebro. As entidades básias são os neurônios, interonetados em redes o que ermite a troa de informação entre eles, riando a inteligênia biológia. Uma ambição óbvia que surge desses fatos é a tentativa de oiar a estrutura e o funionamento do érebro em um ambiente ténio. Isso signifia que a esquisa tenta entender o funionamento da inteligênia residente nos neurônios e maeá-la ara uma estrutura artifiial, or exemlo uma ombinação de hardware e software, assim transformando as redes neurais biológias em redes neurais artifiiais. Foram definidas uma quantidade extensa de modelos de redes neurais artifiiais e os métodos assoiados ara adatá-los às tarefas a serem resolvidas. Um aviso révio é o fato que os modelos artifiiais têm ouo em omum om as redes neurais reais. Por outro lado existem aralelos entre os dois mundos que rometem que as redes neurais artifiiais sejam uma aroximação aroriada ara resolver roblemas ognitivos omlexos. Neste material tenta-se dar uma breve introdução ao amo de omutação neural. As restrições de esaço ermitem uniamente a aresentação de alguns dos modelos e algoritmos de redes neurais artifiiais. Tenta-se dar uma idéia básia sobre as aaidades e limitações desse área de esquisa e engenharia. Para o leitor interessado dão-se referênias ara o arofundamento da matéria. I.1 A Insiração da Neuroiênia Quais são as qualidades do érebro humano que o aaitam de um omortamento inteligente? Os seguintes tóios refletem as mais imortantes araterístias que são eseialmente atrativas ara serem simuladas em uma rede neural artifiial: Robustez e tolerânia a falhas: A eliminação de alguns neurônios não afeta a funionalidade global. Caaidade de arendizagem: O érebro é aaz de arender novas tarefas que nuna foram exeutadas antes. Proessamento de informação inerta: Mesmo que a informação forneida esteja inomleta, afetada or ruído ou arialmente ontraditória, ainda um raioínio orreto é ossível. Paralelismo: Um imenso número de neurônios está ativo ao mesmo temo. Não existe a restrição de um roessador que obrigatoriamente trabalhe uma instrução aós a outra O roessamento loal de informação no érebro efetua-se em era de unidades (os neurônios) que têm uma estrutura relativamente simles. Na Figura 1 aresenta-se o modelo simlifiado de um únio neurônio real. O neurônio é uma élula om núleo e oro (soma) onde reações químias e elétrias reresentam o roessamento de informação. A saída da informação do soma é realizada or imulsos elétrios que se roagam através do axônio. No final do axônio existem inúmeras ramifiações que distribuem a informação ara outros neurônios vizinhos. A ligação om outros neurônios é realizada através de sinases que estão onetadas a um dendrite do neurônio reetor. A sinase disara uma substânia químia

6 quando for exitada elo imulso do axônio. A substânia se transmite entre sinase e dendrite realizando a onexão entre dois neurônios vizinhos. Conforme as exitações (ou inibições) que élulas vizinhas transmitem ara a élula em onsideração ela roessa a informação novamente e a transmite via seu axônio. sinase núleo soma axônio dendrites I.2 História da Neuroomutação Figura 1 - Neurônio biológio Um onto marante na história das redes neurais artifiiais foi a aresentação de um modelo de um neurônio artifiial or [MCulloh and Pitts, 1943]. As atividades nessa linha de esquisa ulminaram na oneção do eretron or [Rosenblatt, 1958] e em um modelo areido, o adaline or [Widrow and Hoff, 1960]. O eretron é aaz de lassifiar entre lasses que são linearmente searáveis. Foi usado ara reonheer or exemlo arateres. Essa aliação foi realizada em uma máquina hamada MARK I PERCEPTRON e ausou uma grande euforia ertamente exagerada em relação a imaginação das aaidades de futuros robôs inteligentes. A araterístia imortante do eretron foi a aresentação de um algoritmo de arendizagem aaz de adatar os esos internos do neurônio de maneira que seja aaz de resolver o roblema de lassifiação linear, em aso da searabilidade linear das lasses. O aso exemlar das limitações do eretron é o roblema Ou exlusivo (XOR) ( f ( 0, 0) = f ( 1, 1) = 0, f ( 0, 1) = f ( 1, 0) = 1) que rova que uma função tão simles de lassifiação não ode ser alulada elo eretron. Essa rítia entrou-se no livro Peretrons de [Minsky and Paert, 1969]. O imato dessa rítia foi tão grande que a omunidade ientífia abandonou a área das redes neurais artifiiais, om a exeção de alguns esquisadores or exemlo Fukushima, Grossberg, Hofield e Kohonen. A solução ara o roblema XOR já era onheida. Bastava aresentar mais uma amada de neurônios na rede (uma amada esondida). O que faltava era um algoritmo que fosse aaz de treinar os esos dessa rede multi-amada ara que udesse lassifiar orretamente roblemas mais omlexos. Várias soluções equivalentes foram desobertas durante os anos seguintes, más só a ubliação do algoritmo de retroroagação de erro (error bakroagation) or [Rumelhart et al., 1986] oularizou uma solução de aráter universal ara esse tio de roblema. A artir desse momento, surgiram os modelos que foram desenvolvidos durante os anos tranquilos da esquisa e inúmeros outros modelos de redes neurais artifiiais junto om algoritmos de arendizagem foram aresentados. Esera-se ara o futuro que o aradigma da neuroomutação rove ser uma ferramenta otente ara resolver roblemas omlexos.

7 I.3 Referênias ara Arofundamento na Matéria de Redes Neurais Além de uma idéia suerfiial, este texto não ode transmitir muita informação sobre esse tema altamente interessante e desafiador. O leitor interessado deve ser dirigido ara uma esolha boa de livros de texto e reursos eletrônios. Leitores om aesso a Internet deveriam ler as Questões mais erguntadas ( FAQ Frequently Asked Questions ) do gruo de disussões USENET om o endereço news:om.ai.neural-nets. Nessas questões dão-se reomendações de livros e artigos ara uma maior eseialização. Reomenda-se [Hinton, 1992] omo artigo de introdução mais oular na área. Livros ara iniiantes, arialmente junto om ódigo, inluem [Masters, 1994], [Fausett, 1994] e [Anderson, 1995], de nível intermediário e avançado [Bisho, 1995], [Hertz et al., 1991], [Haykin, 1994] e [Riley, 1996]. Além das reomendações de livros enontram-se exliações básias relaionadas aos tóios de redes neurais artifiiais (RNA), or exemlo resostas às erguntas: O que é uma rede neural?, O que se ode fazer om redes neurais artifiiais e o que não?, Quais são as aliações ossíveis?, entre outras. A maioria das imlementações de RNA é feita em software. Existem uma série de simuladores ubliamente disoníveis, om ódigo fonte e manual. Um simulador eseialmente otente ara o sistema oeraional UNIX, que obre a maioria das arquiteturas e algoritmos de arendizagem é o Stuttgart Neural Network Simulator (SNNS). O rograma está imlementado em C e ossui uma interfae gráfia extensa. O endereço na internet desse software é ft://ft.informatik.uni-stuttgart.de/ub/snns. II. FUNAMENTOS Uma rede neural artifiial (RNA) tem duas faetas elementares: a arquitetura e o algoritmo de arendizagem. Essa divisão surge naturalmente elo aradigma omo a rede é treinada. Ao ontrário de um omutador om arquitetura de von Neumann que é rogramado, a rede é treinada or exemlos de treino. O onheimento sobre o roblema em onsideração está guardado dentro dos exemlos que têm que estar obrigatoriamente disoníveis. O algoritmo de arendizagem generaliza esses dados e memoriza o onheimento dentro dos arâmetros adatáveis da rede, os esos. Assim o onstrutor de um sistema baseado em RNA tem dois graus de liberdade, a definição sobre o tio de rede ara resolver o roblema em onsideração e o algoritmo ara treinar a rede, i.e. ara adatar os esos da rede. A omosição da rede é feita elos neurônios. Normalmente o tio de roessamento de um únio neurônio é a ombinação linear das entradas om os esos seguida ela assagem da ombinação linear or uma função de ativação. A natureza do roblema a ser resolvido normalmente define restrições em relação aos tios de redes e algoritmos de arendizagem ossíveis. Neste texto distinguem-se redes om roagação do fluxo de informação ara frente, redes reorrentes (om realimentação das saídas ara as entradas) e redes ometitivas. Em relação aos algoritmos de adatação, vamos distinguir entre arendizagem suervisionada e arendizagem não-suervisionada. II.1 Modelo de Neurônio Artifiial Em rimeiro lugar, vamos introduzir o modelo simlifiado de um neurônio e as aaidades de roessamento assoiadas. Na Figura 2 mostra-se o modelo de um neurônio artifiial de [MCulloh and Pitts, 1943]. Este modelo tenta simular as realidades biológias que oorrem dentro de uma élula do sistema nervoso, omare Figura 1. A informação forneida or

8 outros neurônios entra em entradas (=sinases) no neurônio roessador. O roessamento onsiste de uma ombinação linear das entradas j = 1 net = w 1 x 1 + w 2 x w x = w j = w T x. A ada entrada está assoiada um eso que reflete a imortânia da entrada. O resultado dessa ombinação linear é o valor w j net. Se esse valor ultraassar um limiar µ, o neurônio disara o valor 1 na saída binária y, se não ultraassar o limiar a saída fia assiva em y = 0. A omaração de net om o limiar µ é realizada ela função de Heaveside (função de esada) Θ ( x) = 1 se x 0 e Θ ( x) = 0 aso ontrário. y = Θ ( w j x j = 1 j µ ) (1) ENTRAAS x 1 PESOS w 2 w x x 2 w 1 Σ net FUNÇÃO E ATIVAÇÃO µ COMBINAÇÃO LIMIAR LINEAR NEURÔNIO ARTIFICIAL y SAÍA Figura 2 - Modelo de um neurônio de MCulloh e Pitts A função de ativação no aso do modelo de [MCulloh and Pitts, 1943] não é a únia maneira de roduzir o valor de saída do neurônio. Figura 3 mostra diferentes tios de funções de ativação. A função linear roduz uma saída linear ontínua, a função de esada, uma saída binária (não-linear disreta) e a função sigmoidal, uma saída não-linear ontínua. y ( net) y ( net) y ( net) net net net LINEAR ESCAA SIGMOIAL A definição da função sigmoidal é Figura 3 - Funções de Ativação 1 Função sigmoidal: g ( z) = (2) 1 + e z e tem um onjunto de roriedades que se mostrarão muito úteis nos álulos relaionados à arendizagem dos esos e ao maeamento realizado ela rede:

9 Não linear Contínua e diferençiável em todo o domínio de R erivada tem forma simles e é exressa ela rória função: g' ( z) = g ( z) ( 1 g ( z) ) Estritamente monótona: z 1 z 2 g ( z 1 ) g ( z 2 ) Em termos do domínio dos valores alulados distingue-se basiamente entre saídas binárias om y i { 0, 1} ou y i { 1, 1} e saídas ontínuas om y i R. Eventualmente o neurônio ossui uma memória loal, i.e. o estado de ativação anterior é tomado em onsideração no álulo da ativação atual. Esse tio de roessamento dinâmio está fora do âmbito desse texto. II.2 Toologia de Redes de Neurônios Artifiiais Aabamos de definir uma entidade de roessamento relativamente simles que alula uma função de saída y a artir das entradas e dos esos w j, om uma função de ativação redefinida. O otenial e flexibilidade do álulo baseado em redes neurais vêm da riação de onjuntos de neurônios que estão interligados entre si. Esse aralelismo de elementos om roessamento loal ria a inteligênia global da rede. Um elemento da rede reebe um estimulo nas suas entradas, roessa esse sinal e emite um novo sinal de saída ara fora que or sua vez é reebido elos outros elementos. y i SAÍAS CAMAAS ESCONIAS ENTRAAS Proagação ara Frente Realimentação Figura 4 - Toologias riniais de redes neurais artifiiais Uma ategorização fundamental da toologia dos neurônios ode ser feita em relação ao método de roagação da informação reebida, veja Figura 4. Pode-se distinguir entre redes de roagação ara frente (feedforward) e redes realimentadas (reurrent). No aso das redes de roagação ara frente o fluxo de informação é unidireional. Neurônios que reebem a informação simultaneamente agruam-se em amadas. Camadas que não estão ligadas às entradas e nem às saídas da rede hamam-se amadas esondidas. Exemlos ara esse tio de

10 rede são o eretron [Rosenblatt, 1958], o eretron multi-amada [Rumelhart et al., 1986] e o AALINE [Widrow and Hoff, 1960]. Uma rede que adiionalmente tem uma relação toológia de vizinhança entre os neurônios é o maa auto-organizável de Kohonen [Kohonen, 1972], [Kohonen, 1990]. Redes realimentadas têm ligações entre os neurônios sem restrições. Ao ontrário das redes sem realimentação, o omortamento dinâmio desemenha o ael fundamental nesse modelo. Em alguns asos os valores de ativação da rede assam or um roesso de relaxação até hegarem a um estado estável. O modelo que se aresentará omo reresentante é a rede auto-assoiativa de [Hofield, 1982]. II.3 Paradigmas de Arendizagem Uma vez definida a rede neural, essa tem que ser treinada. Isso signifia que os graus de liberdade que a rede disõe, ara soluionar a tarefa em onsideração, têm que ser adatados de uma maneira ótima. Normalmente, isso signifia que temos que modifiar os esos entre o neurônio i e o neurônio j, segundo um algoritmo. Um onjunto finito T de n exemlos de treino está à nossa disosição ara adatar os esos durante a fase de treinamento da rede. Uma distinção rinial em relação ao aradigma de arendizagem que é válido ara todo tio de sistemas om aaidade de adatação é arendizagem suervisionada e arendizagem não-suervisionada. II.3.1 Arendizagem suervisionada Na arendizagem suervisionada ada exemlo de treino está aomanhado or um valor que é o valor desejado. Isso signifia que o onjunto de treino T está omosto or n ares de n exemlos ( x, y ) onde T = { ( x, y ) }. A dimensão do vetor de entrada é, i.e. as = 1 variáveis de entrada estão agruadas em um valor multidimensional (vetor de oluna), normalmente do domínio dos números reais: x = ( x 1 x ) T, R. (A transosição (. ) T é usada ara eonomizar esaço esrevendo um vetor em uma linha). As variáveis de saída estão agruadas em um vetor de saída y = ( y1,, yi y ) T. w ij y * * * * * * ( x 1, y 1 ) ( x n, y n ) * y = w 0 + w 1 x x Figura 5 - Regressão linear Um exemlo de uma tarefa de arendizagem suervisionada é a regressão linear. Usamos o aso unidimensional ara failitar a ilustração, veja Figura 5. Nesse roblema o onjunto de treino onsiste em ares de números reais ( x, y ). O objetivo da arendizagem é a determinação de oefiientes w 0 e w 1 da reta y = w 0 + w 1 x. O algoritmo de arendizagem

11 tenta minimizar a disreânia entre o valor desejado e o valor que é a resosta y' = w 0 + w 1 x do sistema, e isso em média ara ada exemlo ( x, y ). II.3.2 Arendizagem não-suervisionada Quando a únia informação disonível são os valores ( ) a tarefa de arendizagem é desobrir orrelações entre os exemlos de treino T = { ( x ) }. O número de ategorias = 1 ou lasses não está definido a riori. Isso signifia que a rede tem que ahar atributos estatístios relevantes, ela tem que desenvolver uma reresentação rória dos estímulos que entram na rede. Um sinônimo ara arendizagem não-suervisionada é aglomeração ( lustering ). Um exemlo da área de mediina é a deteção de doenças a artir de imagens, or exemlo imagens de raio-x. Existem várias regiões dentro da imagem que se deixam atribuir ao mesmo material, or exemlo osso. O número dos materiais (das aglomerações) não é onheido a riori. O objetivo do sistema é desobrir o número dos materiais diferentes e ao mesmo temo ategorizar ada onto da imagem ara o resetivo material. A entrada ara a rede seriam os ontos da imagem, or exemlo uma equena janela de 5 or 5 ontos. A resosta ideal da rede seria o material a qual ertene essa região da imagem. II.4 Regras de Adatação dos Pesos urante o roesso de arendizagem os esos normalmente erorrem uma modifiação iterativa. O eso entre neurônio i e neurônio j seja w ij, veja Figura 6. Na iteração l o eso ( l) w ij influenia a função alulada ela rede. O algoritmo de arendizagem julga a qualidade do eso e eventualmente determina se o eso deve sofrer uma modifiação no seu valor de uma diferença na róxima iteração l + 1. Assim, se define a regra básia de adatação dos esos: ( l) w ij ( l + 1) w ij ( l) w ij Adatação de eso: = + (3) Costuma-se iniializar os esos aleatoriamente. O algoritmo de arendizagem erorre um número fixo de iteração e/ou até que uma ondição de arada seja atingida, or exemlo numa arendizagem suervisionada a disreânia entre o valor alulado e o valor desejado desaaree ara todos os exemlos de treino. y x n ( l) w ij Neurônio i w ii w ij w ji Neurônio j w jj Figura 6 - Pesos entre neurônios, aso geral om realimentação II.4.1 Arendizagem ela Regra de Hebb Um dos trabalhos ioneiros nos estudos de sistemas aazes de arender foi feito or [Hebb, 1949]. Ele riou uma hiótese de que o eso de ligação entre dois neurônios que estão ativos

12 aos mesmo temo deve ser reforçado. Para o nosso modelo essa lei traduz-se ara a Regra de arendizagem de Hebb: w ij = ηy i y j (4) onde a taxa de arendizagem η é um fator de esala ositivo que determina a veloidade da arendizagem. A definição dessa regra baseia-se em estudos biológios do érebro, mas omo já foi onstatado, a orresondênia do modelo matemátio om a realidade biológia é somente uma idealização aroximada. A regra de Hebb define um algoritmo de adatação dos esos, orém sem a definição de um objetivo a atingir, or exemlo, minimizar um erro entre um valor desejado e alulado. No estudo da rede de Hofield voltaremos à regra de Hebb e vamos rovar que tem utilidade rátia. II.4.2 Arendizagem ela Regra de elta Uma regra de adatação dos esos om um objetivo bem visível é a regra de delta ou regra de Widrow-Hoff [Widrow and Hoff, 1960]. A rede alula na saída (no neurônio i) uma função y' i. Na arendizagem suervisionada onhee-se o valor desejado y i que a rede deve alular. Assim ode-se alular o erro e i = y i y' i entre o alulado e o desejado. O eso entre o neurônio i e o neurônio j que é resonsável or esse erro então deve ser modifiado roorional à ativação e ao erro, outra vez esalado or uma taxa de arendizagem η: Regra de elta: w ij = ηe i y j = η ( y i y' i ) y j (5) Neste aso, o objetivo do algoritmo de arendizagem está bem laro, nomeadamente minimizar o erro entre os valores alulados ela rede e desejados elos exemlos forneidos num roblema de arendizagem suervisionada. II.4.3 Arendizagem Cometitiva Consideram-se as redes de neurônios onde um únio neurônio ode ser ativo ao mesmo temo. Isso signifia que todos os outros neurônios têm uma ativação igual a zero y i = 0 ara i i * e somente o venedor i * emite um sinal de ativação y * = 1. i Arendizagem Cometitiva: w ij = ηy i ( w ij ) (6) O efeito dessa regra é que os esos se desloam em direção do estímulo (entrada) da rede x. Vamos onsiderar a rede de Kohonen omo exemlo de uma rede neural artifiial que usa arendizagem ometitiva ara adatar os esos. II.5 Taxinomia de Redes w i Resumindo o aradigma de arendizagem e as regras de adatação dos esos ode-se riar uma divisão hierárquia ara os modelos de redes neurais aresentados nesse texto, veja Figura 7. Os modelos que têm uma aaidade de arendizagem dividem-se em modelos que usam arendizagem suervisionada e arendizagem não suervisionada, deendendo se ara ada estímulo x um sinal om a resosta desejada da rede y está disonível ou não. Peretron, eretron multi-amada e adaline são modelos om arendizagem suervisionada que se baseiam no erro entre a resosta desejada e alulada da rede ara adatar os esos. A rede de

13 Hofield usa a regra de Hebb ara memorizar um onjunto de adrões. Na arendizagem não suervisionada a regra de Hebb também ode ser usada, or exemlo ara estimar a densidade de robabilidade om base nos exemlos dados. Uma arquitetura de rede om um algoritmo ometitivo é a rede toológia de Kohonen. Modelo om aaidade de arendizagem Arendizagem suervisionada Arendizagem não-suervisionada Regressão, Classifiação (Regra de elta) Assoiativo (Regra de Hebb) Assoiativo (Regra de Hebb) Cometitivo Peretron Peretron Multi-Camada Adaline Hofield ensidade de robabilidade Kohonen Figura 7 - Classifiação estrutural e funional de redes neurais artifiiais III. REES E PROPAGAÇÃO PARA FRENTE Considera-se arendizagem suervisionada em redes de roagação ara frente que estão organizadas em amadas. No iníio das atividades de esquisa essas redes hamaram-se eretrons. O aso mais simles é o eretron om uma únia amada. O domínio dos valores de saída é binário. O AALINE ermite variáveis de saída om valores ontínuos. Quando existe mais que uma amada, i.e. existe uma ou mais amadas esondidas, trata-se de eretrons multi-amada. O fluxo de informação é semre unidireional, ao ontrário de redes om realimentação. Existem esos (assimétrios) unidireionais entre dois neurônios que neessariamente têm que estar em amadas diferentes. III.1 Peretron Classifiação é uma das aliações riniais do álulo que as redes neurais são aazes de realizar. O objetivo é assoiar uma ategoria de um universo finito a um objeto. Exemlos ara lassifiação são: Reonheimento automátio de arateres eteção de falhas em roessos Identifiação de essoas or imressões digitais, voz, iris do olho iagnóstio médio O eretron [Rosenblatt, 1958] é aaz de lassifiar entre duas lasses que linearmente são searáveis, veja Figura 8 (O modelo é extensível failmente ara o aso de várias lasses).

14 Junto om a arquitetura foi roosto um método de omo os esos odem ser adatados. Também foi dada uma rova formal da onvergênia em um número finito de iterações desse algoritmo em aso da searabilidade linear. A função que o eretron imlementa é a do neurônio de MCulloh e Pitts (1), onde a função de esada Θ (. ) é substituída ela função do sinal sgn ( z) = 1 se z 0 e sgn ( z) = 1 se z < 0. Pode-se absorver o limiar µ no álulo omo µ = w 0, introduzindo um novo valor de entrada fixo x 0 = 1: Regra de Classifiação do Peretron: d ( x) = sgn ( w j ) (7) A função alulada d ( x) fornee uma resosta binária de que lado está o objeto j = 0 x = ( x 1, x 2 ) T, assim ermitindo uma lassifiação linear entre duas lasses. x 2 * * * * * d ( x) < * Classe Classe d ( x) > 0 d ( x) = 0 x 1 Figura 8 - Problema de lassifiação. uas lasses são linearmente searáveis. A reta d ( x) = 0 seara as duas lasses. O objetivo do algoritmo de eretron é ahar esos w 0, w 1 e w 2 ara a definição do hierlano searador (nesse aso a reta d ( x) = w 0 + w 1 x 1 + w 2 x 2 ). A estrutura da rede então foi definida simlesmente ela equação linear de (7). Resta agora o algoritmo de adatação dos esos, o algoritmo de arendizagem de eretron. A ideia básia é uma adatação iterativa nos moldes de (3) or um algoritmo iterativo. O algoritmo lassifia n todos os objetos de treino T = { ( x, t, om neste aso ilustrativo ) } x = ( x = 1 1, x 2 ) T de duas dimensões ela regra (7) d ( x ). A lasse verdadeira de x está disonível no valor de alvo t. Se nenhum erro de lassifiação oorreu temos d ( x ) = t. Nesse aso estamos satisfeitos om o onjunto dos esos W = { w j } j = 1. Se d ( x ) t oorreu um erro de lassifiação. Todos os objetos que rovoaram um erro de lassifiação são usados ara modifiar os esos W ara que o número de erros diminua e finalmente desaareça. efine-se uma regra simles de modifiação de esos x Regra de arendizagem do eretron (versão simles): w j = ηt se d ( x ) t e se (8) w j = 0 d ( x ) = t Esolhem-se esos aleatórios iniialmente. A regra (8) adata os esos em um número finito de iterações, se existe uma searação linear. O eretron é um sistema de uma rede neural simles (nesse aso + 1 entradas, uma saída),

15 aaz de resolver roblemas lineares de lassifiação. Está equiado om um algoritmo de adatação de esos que arende baseado nos exemlos de treino. Obviamente a aaidade de álulo do eretron está limitada ela searabilidade linear das lasses. Para lassifiar roblemas em que as lasses se distribuem de tal maneira que seja imossível riar um hierlano ara seará-las, ténias mais sofistiadas têm que ser usadas, omo o eretron multi-amada. III.2 AALINE Vimos no exemlo anterior do eretron que as saídas estavam limitadas ara terem valores binários. Um modelo muito areido om o eretron em termos de arquitetura é o AALINE [Widrow and Hoff, 1960]. A diferença orém está nas saídas ontínuas, i.e. ermite-se alular valores de saída do domínio dos números reais, veja Figura 9. A função alulada é simlesmente a ombinação linear dos esos e das entradas, ou equivalentemente o roduto interno do vetor de esos e o vetor das entradas: Função do AALINE: d ( x) = w j = w T x (9) j = 0 Foi outra vez introduzido uma entrada om um valor onstante de 1 que failita a reresentação da função alulada. Camada de saída Rede Entradas d, t w x w 0 w 1 SAÍA d Σ w 2 w 3 w 4 d ( x) = w j j = 0 1 x 1 x 2 x 3 x 4 ENTRAAS Figura 9- AALINE om 4 variáveis de entrada Outra vez o roblema ara resolver (a função ara alular) está eseifiado nos n exemlos de treino: T = n { ( x, t, omare om o eretron. Os graus de liberdade que ) } = 1 existem ara realizar essa aroximação de função 1 são os esos w = ( w 0, w 1 w ) T. O objetivo do algoritmo de arendizagem está na busa dos esos que exibem uma roriedade ótima em relação a função a ser alulada. 1. Se tivéssemos saídas d i e não só uma saída d, teríamos que introduzir mais um índie i ara os esos w ij, assim indiando a ligação entre entrada j e saída i. Em vez de ter um vetor de esos w = ( w 0, w 1 w ) T teríamos uma matriz de esos W = ( w T wt) T de dimensão ( + 1), 1 om = ( w i0, w i1 w i ) T. O vetor de funções seria Wx = d ( x). w i

16 III.2.1 O erro quadrátio mínimo Uma esolha natural ara medir a qualidade da função alulada ela rede é a diferença entre o valor desejado ara o exemlo e o valor alulado ela rede: x Erro de álulo ara um exemlo x : e ( x ) = desejado ( x ) alulado ( x ) (10) O valor desejado é o valor de alvo t. O valor alulado ela rede é d ( x ). Como o erro (10) ode ser negativo ou ositivo, alula-se o quadrado ara semre ter uma diferença ositiva que não se elimina, onsiderando todos os exemlos individuais do onjunto de treino T. Erro quadrátio ara um exemlo x : e 2 ( x ) = ( t (11) d ( x ) ) 2 = ( t w T x ) 2 x O objetivo do algoritmo vai ser a minimização do erro, onsiderando a média de todos os exemlos (valor eserado E { e 2 ( x ) } ). Isso ermite definir o ritério a ser minimizado: n Erro quadrátio médio: EQM 1 e 2 1 = ( x ) (12) n = t n ( w T x) 2 III.2.2 Solução determinístia Para esse tio de roblema linear existe uma solução exlíita ara obter aquele vetor de esos w que minimize (12). Pode-se juntar todos os n exemlos de treino x em uma únia matriz X de dimensão n ( + 1) : X x T T = x, om x = ( x. Em analogia 1 n 1 x ) T ode-se juntar todos os valores de alvo t num vetor de alvo t = ( t 1 t n ) T de dimensão n 1. = 1 O exemlo x deve ser maeado ela rede ara w T x = t. Assim ode-se formular o álulo de todos os n exemlos de treino numa únia equação de dimensão ( n ( + 1) ) ( ( + 1) 1) = ( n 1) de vetores e matrizes: Maeamento de AALINE de todos os exemlos: Xw = t (13) Uma ré-multiliação de (13) ela matriz transosta X T de X resulta em X T Xw = X T t. Outra ré-multiliação ela inversa ( X T X) 1 de X T X (que semre existe, sem rova) finalmente resulta na solução exlíita do roblema: Solução determinístia do AALINE: w = ( X T X) 1 X T t (14) onde a matriz X = ( X T X) 1 X T é denominada omo Pseudoinversa de X. n T x n = 1

17 III.2.3 Solução iterativa: esida de Gradiente Aabamos de ver que existe uma solução direta ara alular o onjunto de esos que minimiza o ritério de qualidade do maeamento da rede. Esse solução deve-se rinialmente à natureza linear do roblema, ossibilitando assim a solução or álgebra linear. Em aso de redes que realizam um maeamento não-linear, omo no aso do eretron multi-amada om função de ativação sigmoidal, essa solução determinístia já não ode ser enontrada. Temos que emregar ténias de otimização de roblemas sem restrições. Analisaremos omo aso exemlar a ténia da desida de gradiente. Em rimeiro lugar aresenta-se esse método ara o aso linear do AALINE. Como vamos ver no aso do eretron multi-amada a desida de gradiente onstitui o veíulo ara o onheido algoritmo de retroroagação de erro. Figura 10 mostra a idéia rinial da ténia da desida de gradiente. O erro quadrátio médio EQM é uma função dos esos da rede EQM ( w) = f ( w) (ara fins de ilustração usa-se só um únio eso w). Essa função em geral não é onheida ara quem está rourando os esos ótimos (se fosse onheida existia uma solução determinístia). O objetivo geral é enontrar o eso w min que minimize o erro EQM (12), i.e. que faz a rede aroximar da melhor maneira ossível o maeamento entre todos os n exemlos x ara os valores de alvo. Tenta-se hegar iterativamente ao mínimo global. A únia informação que é onheida na iteração l é o valor do erro EQM ( w ( l) ) = E ( w ( l) ) ara o eso w ( l) atual. Suõe-se que a função do erro seja derivável em todo o domínio. Isso signifia que o gradiente da função de erro E = de ( w) dw existe (no aso de um eso: E' ( w) = de dw). w min t EQM ( w) Gradiente Gradiente negativo onderado η E ( w) w η w Taxa de arendizagem E ( w) w min w ( l) w ( l + 1) w Figura 10- esida de Gradiente. Considera-se um únio eso w =. O gradiente é um vetor. Ele aonta na direção do resimento da função E. Consequentemente o gradiente negativo aonta na direção de deresimento da função E. A tentativa ara hegar no mínimo da função então é a modifiação do eso na iteração l ara a iteração l + 1 na direção do gradiente negativo E (da desida do gradiente). Para ontrolar a veloidade da w ( l) w ( l + 1) modifiação do eso de ara usa-se um fator de esala, a taxa de arendizagem w j

18 η. Temos então no esírito da ténia da adatação dos esos (3) uma regra de omo vamos rourar aquele eso que minimize o erro de maeamento da rede: Regra de adatação de eso or desida de gradiente: Agora fia mais lara a neessidade da roriedade da função sigmoidal (2) de que ela seja ontínua e diferençiável em todo o domínio de R. Assim onsegue-se alular o gradiente ara uma rede om função de maeamento não-linear, omo ainda vamos verifiar mais tarde. Começa-se om um valor aleatório do eso na iteração. A regra de adatação de eso é aliada um número fixo de vezes ou até que a diferença entre dois onjuntos de esos onseutivos w ( l + 1) e w ( l) seja menor do que uma tolerânia es. A diferença oderia or exemlo ser a distânia Eulidiana entre os dois vetores de esos. Todos os assos estão resumidos no Algoritmo 1. Algoritmo 1: esida de Gradiente Objetivo: Arende uma vetor de esos ótimos que minimize a função de ustos E 0.) Número máximo de iterações: iferença mínima entre dois vetores de esos onseutivos: es Taxa de arendizagem: η 1.) l = 0, w ( 0) arbitrário 2.) Reete iteração l w ( l + 1) w ( l) w ( l) 2.1) Calule o gradiente do erro relativo aos esos individuais : 2.2) Adate os esos na direção oosta ao gradiente ( l + 1) w j ( l) w j ( l) w j = + = w ( l) η E l l max l = + = w j w ( 0) 0 w ot até ( l > ou w ( l + 1) w ( l) w ( l + 1 ) l = ( j w ( ) j ) 2 < es ) l max ( ) η j = 0 ( l) E j w j ( l) E j ( ) = E l ( ) w ( l ) j (15) Problemas om o algoritmo são a esolha da taxa de arendizagem η e a oorrênia de mínimos loais. Se η for esolhida muito equena a arendizagem oderia fiar lenta, se for esolhida grande demais oderiam surgir osilações do erro om uma divergênia dos esos, i.e. os esos não aram de reser. Mínimos loais são loais na função de erro onde o gradiente desaaree, ortanto já não há uma modifiação dos esos. Assim o algoritmo ode arar num onjunto de esos que não orresonde ao mínimo global da função de erro o que seria desejável. Resta definir a rória função de erro. Temos duas ossibilidades de omo modifiar os esos: 1.) eois da aresentação de ada exemlo x, i.e. E = E ( x ) = e 2 ( x ) (arendizagem estoástia, aresentação dos exemlos em ordem aleatória). Neste aso alula-se o gradiente relativo ao eso individual omo: w j

19 E j = E w j = ( e 2 ( x ) ) w j = 2e ( x ) ( e ( x ) w j ) = 2e ( x ) ( ( t w x ) w j = 0 j j j ) = 2e ( x ) x j 2.) eois da aresentação de todos os exemlos x, i.e. E = e 2 ( x ) (arendizagem = 1 bath ). Neste aso alula-se o gradiente relativo ao eso individual omo: E j = E w 2 e = ( ) x = 1 j o que resulta nas regras de atualização de esos (15) (absorvendo o termo onstante 2 na taxa de arendizagem η): ( l + 1) w j ( l) w j 1.) = + ηe ( x ) x, ara j j = 0 ( l + 1) w j ( l) w j n n 2.) = + η e ( x ) x, ara = 1 j j = 0 A regra de adatação de esos aresentada aima hama-se regra de delta, regra de adaline, regra de Widrow-Hoff [Widrow and Hoff, 1960] ou regra da média dos quadrados mínimos (LMS, least mean square rule), veja também [Hertz et al., 1991]. III.3 Peretron Multi-Camada e Retroroagação de Erro O estudo dos modelos do eretron e do AALINE trouxe-nos onheimento sobre a natureza das funções aluladas ela rede neural artifiial e os métodos de adatação de esos. Uma limitação natural desse tio de rede é a linearidade das funções aluladas. Como já foi referido anteriormente a inaaidade do eretron de alular a lassifiação dos dois resultados da função do Ou exlusivo (XOR) ( f ( 0, 0) = f ( 1, 1) = 0, f ( 0, 1) = f ( 1, 0) = 1) na Figura 11 levou a um erto desinteresse or arte da omunidade ientífia, devido eseialmente a ubliação de Peretrons [Minsky and Paert, 1969]. n w j x * * Classe 1 + Classe 2 * x 1 Figura 11- O roblema XOR. Não existe uma searação linear entre as duas lasses. Era onheido que a introdução de mais amadas no eretron oderia resolver o roblema de XOR. O que não se onheia era um método ara adatar os esos, eseialmente em roblemas de regressão e lassifiação de maior omlexidade. [Rumelhart et al., 1986] oularizaram o algoritmo de retroroagação de erro. Aresenta-se em seguida o eretron om uma amada esondida e várias saídas, treinado ela retroroagação de erro.

20 III.3.1 Arquitetura Qualquer eretron om elo menos uma amada esondida (nem entrada, nem saída) é um eretron multi-amada. Consideramos aqui o aso de uma únia amada esondida. A generalização ara mais que uma amada esondida é direta e a teoria alia-se sem alteração, veja a literatura. Um neurônio reebe várias entradas da amada anterior e alula uma ombinação linear (9) dessas variáveis. O resultado da ombinação linear assa ela função de ativação, neste aso novamente a função sigmoidal (2). Usamos mais que uma saída. Isso signifia que a saída é um vetor d = ( d 1 d ) T de funções individuais d i aluladas. Assim a rede realiza um maeamento de um vetor multidimensional x ara outro vetor multidimensional d, i.e. a rede alula d ( x) om d ( x) = ( d 1 ( x 1 x ) d ( x 1 x ) ). A amada esondida tem um número H de neurônios. Usa-se eventualmente outra vez uma entrada onstante de 1 também na amada esondida. Um eso entre a variável de entrada e o neurônio om índie h na amada esondida hama-se w hj. Todos os esos w hj odem ser juntados na matriz de esos entrada-esondida. Em analogia, existe um eso que liga o neurônio om índie h na amada esondida om a saída d i. Todos os w ih formam a matriz. W i W h w ih Camada de saída d, t Camada esondida(s) h Rede W = W i, W h H SAÍAS d i ( x) = g w ih g w hj x j d 1 d 2 d 3 h = 0 j = 0 g i Σ Σ Σ Σ i 1 1 Σ Σ w ih g h Σ h g ( z) = 1 + e z w hj Entradas x 1 x 1 x 2 x 3 x 4 ENTRAAS Figura 12- Peretron multi-amada om uma amada esondida. Quatro variáveis de entrada, três variáveis de saída. Função de ativação sigmoidal. O maeamento realizado ara uma função de saída é: d i H h = 0 j = 0 Função do eretron multi-amada: d i ( x) = g ( w ih g ( w hj ) ) (16)

21 A função (16) onstitui um instrumento oderoso de realizar álulos não lineares em muitas áreas de aliação. Pode-se usar (16) ara lassifiação de lasses que não são linearmente searáveis, omo no aso do XOR. Também ara roblemas de regressão o eretron multiamada é muito útil, or exemlo ara realizar revisões. A área de ontrole automátio e a identifiação de lantas é outro exemlo. Uma das grandes vantagens dessa ténia é que o eretron multi-amada é um aroximador universal de funções. Isso signifia que desde que os esos sejam bem adatados e a rede disõe um número sufiiente de neurônios esondidos, o álulo desejado é atingido. III.3.2 Adatação dos esos Em analogia ao AALINE tenta-se arender os esos da rede baseado numa função de erro entre o maeamento realizado e desejado. Usa-se outra vez a ténia de desida de gradiente do Algoritmo 1. Temos que reformular o erro quadrátio (10) orque aumentamos o número de saídas d i ara. A diferença entre os valores desejados ara o exemlo x e os valores alulados ela rede (10) agora virou diferença entre dois vetores. Os valores desejados é o vetor de alvo = ( t 1 t ) T. O valor alulado ela rede é o vetor t d ( x ) = ( d. A esolha omum ara a diferença entre o desejado e o 1 ( x ) d ( x ) ) T alulado ela rede é a distânia Eulidiana 1 quadrátia entre os dois vetores: Erro quadrátio ara um exemlo x : e 2 2 ( x ) = t d ( x ) = ( t (17) i d i ( x ) ) 2 Finalmente o valor eserado do erro quadrátio E { e 2 ( x ) } ode ser estimado ela média dos erros quadrátios de todos os exemlos do onjunto de treino T. Erro quadrátio médio: EQM 1 e 2 1 = ( x ) (18) n = t n ( i d i ( x ) ) 2 = 1 Utilizamos outra vez a filosofia da desida de gradiente (15) e o Algoritmo 1 ara adatar os esos. esta vez orém, temos que adatar esos que deendem não-linearmente do gradiente de erro. Na adatação dos esos da amada esondida ara a amada de saída W i = [ w ih ] ainda odemos usar a regra de delta. Para a adatação dos esos da entrada ara a amada esondida = [ ] temos que usar a regra de delta generalizada. Vamos onsiderar uniamente a arendizagem orientada a ada exemlo. Resta então alular o gradiente em relação aos esos da amada esondida ara a amada de saída E ih = E w ih e o gradiente em relação aos esos da entrada ara a amada esondida E hj = W h E w hj w hj. Usamos as seguintes abreviações: n n = 1i = 0 i = 0 x 1. istânia Eulidiana entre dois vetores x = ( x 1 x dim ) T e y = ( y 1 y dim ) T de dimensão dim é dim i = 0 x y = ( x i y i ) 2

22 e i = t i d i ( x ) H H H d i ( x ) = g i = g ( Σ i ) = g w ih g h = g w ih g ( Σ h ) = g w ih g w hj x j Camada esondida ara a amada de saída: Regra de delta: onde a quantidade δ i = e i g' i = e i ( g i ( 1 g i ) ) foi definida omo o delta da amada de saída. E ih h = 0 h = 0 Entrada ara amada esondida: Regra de delta generalizada: onde a quantidade δ h = g' h δ i foi definida omo o delta da amada esondida. Fia lara que os deltas da amadas anteriores são roagadas ara trás, assim justifiando o nome retroroagação de erro (error bakroagation). A rede neural artifiial do eretron multi-amada é um instrumento oderoso de realizar aroximações universais de funções a artir de um onjunto de dados de treino. Existem muitos amos de aliação que ermitem maear o roblema ara uma rede e adatar os esos elos dados de treino eseifiados. Uma desvantagem do eretron multi-amada é o temo de treino extenso. Em um roblema omlexo ode-se levar várias semanas até se obter um onjunto de esos adequados. A i = 1 h = 0 E w ih e 2 2 = = w ih = ( e i ) w ih i = 1 i = 1 = ( ( t i g i ) 2 ) w ih = ( t i g i ) 2 w ih = i = 1 j = 0 = 2 ( t i g i ) ( g i w ih ) = 2 ( t i g i ) ( g i w ih ) = 2e i g i w ih E hj = 2e i [ g i ( 1 g i ) ( Σ i w ih ) ] = 2e i [ g i ( 1 g i ) g h ] = 2δ i g h i = 1 i = 1 E w hj e 2 2 = = w hj = ( e i ) w hj = ( ( t i g i ) 2 ) w hj ( t i g ) 2 w = i = 1 i = 2 ( t hj i g i ) g i w i = 1 hj i = 1 i = 1 = 2 e i ( g ( Σ i ) w hj ) = 2 e i g i ( 1 g i ) ( Σ i w hj ) i = 1 H h = 0 = 2 e i g i ( 1 g i ) ( w ih g h ) w hj i = 1 H h = 0 = 2 e i g i ( 1 g i ) ( w ih g h ) w hj i = 1 = 2 e i g i ( 1 g i ) [ g h ( 1 g h ) ( Σ h w hj ) ] i = 1 = 2 e i g i ( 1 g i ) w ih g ( 1 g h h ) i = 1 = 2g h ( 1 g h ) e i g i ( 1 g i ) w ih = i = 1 2δ h

23 esolha da taxa de arendizagem desemenha também um ael fundamental. Como já foi dito existe a ossibilidade de que a função de erro fique resa em um mínimo loal. Existem heurístias ara tentar resolver esse roblema (fora do âmbito desse texto). Paralisia do treino é um fenômeno que aontee quando a magnitude dos esos é grande. A derivada da função sigmoidal (2) fia muito equena nesse aso, o que ausa que a modifiação dos esos ratiamente desaaree. IV. REES COM REALIMENTAÇÃO Todos os modelos até agora aresentados (eretron e adaline) são redes om roagação ara frente. Isso signifia que a informação é roessada unidireionalmente dentro da rede. Esse tio de roessamento suõe que não há omortamento dinâmio da rede, i.e. a ativação dos neurônios deende deterministiamente das entradas. Por outro lado, odemos oneber uma rede que realimenta os valores alulados omo entradas novamente, o que rovoa o álulo de valores modifiados nas saídas, que or sua vez novamente são realimentadas, omare Figura 4 e Figura 6. Certamente esse tio de rede exibe um omortamento dinâmio dos seus valores, i.e. uma modifiação dos valores ao longo do temo, dado um únio estímulo iniial. O onjunto de valores de saída atuais dos neurônios hama-se o estado da rede. esejável é um omortamento estável. Isso signifia que deois de um estímulo iniial da rede os valores de saída aminham ara uma onstante. IV.1 Modelo de Hofield Como exemlo ara aresentar os oneitos de redes om realimentação e omortamento dinâmio aresenta-se o modelo de Hofield, denominado segundo um esquisador om um grande imato nesse tio de arquitetura de rede [Hofield, 1982]. Entradas e saídas do neurônio i são valores binários, sendo o valor 1 atribuído ao estado ativo e o valor 1 atribuído ao estado inativo, i.e. { 1, 1} e x i { 1, 1}. O neurônio é do modelo MCulloh-Pitts, om esos w ij entre neurônio i e neurônio j, veja Figura 2. Para failitar o álulo usa-se omo função de ativação a função do sinal sgn ( z) = 1 se z 0 e sgn ( z) = 1 se z < 0 e seja o limiar µ = 0. Assim ermite-se a formulação da Regra de adatação dinâmia da saída de neurônio i: x i = sgn ( w ij ) (19) Em riníio não se distinguiu entre variáveis de entrada e variáveis de saída, orque a saída de um neurônio ode servir omo entrada realimentada do mesmo neurônio. Tendo uma rede de H neurônios o estado atual da rede arateriza-se or um vetor de dimensão H om valores de 1 ou 1, e.g. Estado = ( 1, 1, 1, 1, 1, 1) T = x ( t) ara uma rede de 6 neurônios. O omortamento dinâmio é a mudança do estado de x ( t) no momento t ara o estado x ( t + t) no momento t + t. A rede está estável se já não há mudança de estado, i.e. x ( t + t) = x ( t) ara todos t 0. Existem duas maneiras de atualizar o estado da rede. Na atualização sínrona existe uma entidade entral que regula a transição de x ( t) ara x ( t + t) ao mesmo temo ara todos os j = 0 x i x i

24 H neurônios. Na atualização assínrona ada neurônio se atualiza indeendentemente dos outros neurônio (mas om a mesma frequênia). A melhor maneira de realizar uma simulação é assar or todos os neurônios numa ordem aleatória e atualizar sequenialmente. IV.2 Assoiatividade de Padrões na Rede de Hofield O objetivo da rede é memorizar n adrões x de um onjunto de adrões T = { x }. A = 1 rede tem que resonder nas saídas om o estado x ( t) = x quando esse mesmo estado for n aresentado iniialmente à rede, i.e. x ( 0) = x. A resosta deveria ser também o adrão memorizado, mesmo se o estímulo iniial somente for areido 1 om um dos adrões memorizados, i.e. x ( 0) x. essa aaidade de reuerar informação memorizada, mesmo om informação iniial inomleta, orromida ou arialmente errada deriva-se a ambição desse tio de rede, nomeadamente de ser uma memória assoiativa que é aaz de imitar as aaidades do ser humano. IV.3 Estabilidade e Arendizagem de Pesos Quais são as ondições ara que a rede seja estável? Se tivéssemos só um únio adrão x = ( x 1 x H ) T o estado alulado ela rede segundo (19) teria que fiar inalterado ara ada neurônio i = 1 H, i.e. x i ( t + t) = x i ( t). Substituindo o eso w ij ela exressão x i ( t) ( t) na regra (19) x i ( t + t) = sgn ( w ij ( t) ), obtém-se j = 0 Normalizando elo número dos neurônios resentes na rede (e ignorando o índie t do temo) ode-se definir a: 1 Regra de arendizagem ara o eso w ij ara um adrão: w ij = (20) H x i Uma rede treinada or essa regra vai reuerar o adrão ensinado x mesmo quando a metade (menos 1) das entradas esteja diferente do adrão. Um estímulo iniial areido om raidamente relaxa ara x. No aso de n adrões diferentes a extensão óbvia da regra (20) é a suerosição do eso ara todos os adrões. Observa-se que a regra de arendizagem de Hebb (4) foi aliada em (20), dando o nome à regra de arendizagem ara o eso ara n adrões. j = 0 j = 0 x i ( t + t) = sgn ( x i ( t) ( t) ( t) ) = sgn ( x i ( t) 1) = sgn ( x i ( t) ) = x i ( t) w ij. x 1. A semelhança entre dois adrões binários = ( x 1 x H ) T e x = ( x ode-se medir q q1 x qh ) T x or exemlo em termos da distânia de Hamming: H dist ( x, x ) = [ x q i ( 1 x qi ) + ( 1 x i ) x qi ] i = 0

0 são números reais negativos. Desta maneira, existem duas possibilidades:

0 são números reais negativos. Desta maneira, existem duas possibilidades: Aula 5 Projeto de Sistemas de Controle or meio do Método do Lugar das Raízes SCS Sistemas de Controle / Servomeanismos Aula 5 Projeto de Sistemas de Controle or meio do Método do Lugar das Raízes Definição:

Leia mais

(5.20) Sistemas de primeira ordem: Para sistemas de primeira ordem (5.21) com y(0)=m(0)=d(0)=0 Isto leva à seguinte função de transferência:

(5.20) Sistemas de primeira ordem: Para sistemas de primeira ordem (5.21) com y(0)=m(0)=d(0)=0 Isto leva à seguinte função de transferência: 5.2- Efeito do ontrole roorional na resosta de um roesso A resosta em malha fehada de um roesso é dada ela equação 5.7. Para simlifiar a análise vamos assumir que Gm(s) e Gf(s). Além disso, ara o ontrolador

Leia mais

1ª PROVA ICIN 1º/2015

1ª PROVA ICIN 1º/2015 ENE/FT/UnB Deartamento de Engenharia Elétrica Faculdade de Tecnologia Universidade de Brasília Prof. Adolfo Bauchsiess Laboratório de Automação e Robótica 63848 INTRODUÇÃO AO CONTROLE INTELIGENTE NUMÉRICO

Leia mais

Dinâmica de Sistemas e Controlo de Processos. 1º Exame - 14 de Junho de Proposta de Resolução

Dinâmica de Sistemas e Controlo de Processos. 1º Exame - 14 de Junho de Proposta de Resolução Dinâmia de Sistemas e Controlo de Proessos º Exame - 4 de Junho de 0 Proosta de Resolução. Um motor é arrefeido or um fluido refrigerante que se enontra num reiiente e é irulado, om um audal elevado, elo

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Conceitos básicos de redes neurais recorrentes Redes eurais e Sistemas Fuzzy Redes eurais Recorrentes A Rede de Hofield A suressão do ruído numa memória auto-associativa linear ode ser obtida colocando-se

Leia mais

Processo adiabático e o ciclo de Carnot

Processo adiabático e o ciclo de Carnot ermodinâmia ara roessos da irometalurgia método rogressivo NC Hek NCm / UFGS 9 40 roesso adiabátio e o ilo de Carnot 4 roesso adiabátio Um roesso resulta adiabátio quando a fronteira do sistema é flexível,

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artifiiais Thomas Walter Rauber epartamento de Informátia Universidade Federal do Espírito Santo Av. F. Ferrari, 29065-900 Vitória - ES, BRASIL Tel.: (+55)(27) 3352654 Fax: (+55)(27) 3352850

Leia mais

UNIDADE 2 10º ANO REVISÃO SISTEMA COMPLEXO SISTEMA TERMODINÂMICO

UNIDADE 2 10º ANO REVISÃO SISTEMA COMPLEXO SISTEMA TERMODINÂMICO UNIDADE 2 10º ANO REVISÃO SISTEMA COMPLEXO Trata-se de um sistema físio onde oorrem transformações de energia sob várias formas. Um veíulo motorizado é um sistema omlexo (sistema meânio e termodinâmio).

Leia mais

RESOLUÇÃO - 1ª PROVA ICIN 2º/2012

RESOLUÇÃO - 1ª PROVA ICIN 2º/2012 Deartamento de Engenharia Elétrica Prof. Adolfo Bauchsiess Faculdade de Tecnologia Laboratório de Automação e Robótica Universidade de Brasília 63848 INTRODUÇÃO AO CONTROLE INTELIGENTE NUMÉRICO - 2 /22

Leia mais

Rememorando. Situação-problema 5. Teorema do Limite Central. Estatística II. Aula II

Rememorando. Situação-problema 5. Teorema do Limite Central. Estatística II. Aula II UNIVERSIDADE FEDERAL DE RONDÔNIA CAMPUS DE JI-PARAN PARANÁ DEPARTAMENTO DE ENGENHARIA AMBIENTAL Rememorando Estatística II Aula II Profa. Renata G. Aguiar 1 Figura 7 Distribuição de uma amostra (n = 150).

Leia mais

Estruturas de Betão Armado II 17 Pré-Esforço Perdas

Estruturas de Betão Armado II 17 Pré-Esforço Perdas Estruturas de Betão Armado II Força Máxima de Tensionamento (Força de uxe A força aliada à armadura de réesforço, max (ou seja, a força na extremidade ativa durante a aliação do réesforço, não deve exeder

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerih / Aleu S Britto Programa de Pós-Graduação em Informátia Pontifíia Universidade Católia do Paraná (PUCPR) Aprendizagem Bayesiana Plano de Aula Introdução Teorema

Leia mais

out II - Algoritmo Back-Propagation II - Algoritmo BackPropagation II - Algoritmo Back-Propagation Modelo de Rede Neural com Multiplas Camadas

out II - Algoritmo Back-Propagation II - Algoritmo BackPropagation II - Algoritmo Back-Propagation Modelo de Rede Neural com Multiplas Camadas Modelo de Rede Neural com Multilas Camadas SCE 5809 REDES NEURAIS REDE NEURAL DO TIPO MULTI- CAMADAS Profa Inut First Hidden Second Roseli Hidden Romero Outut II - Algoritmo Bac-Proagation Out(x) = g(

Leia mais

Transições de Fase - Aula 3. Termodinâmica Isotermas de van der Waals Construção de Maxwell

Transições de Fase - Aula 3. Termodinâmica Isotermas de van der Waals Construção de Maxwell ransições de Fase - Aula 3 ermodinâmia 017 Isotermas de an der Waals Construção de Maxwell O onto rítio &Exoentes rítios ransições de fase - ermodinâmia 017 - ânia omé 1 eoria de an der Waals Equação de

Leia mais

Redes Neurais. Redes Neurais Recorrentes A Rede de Hopfield. Prof. Paulo Martins Engel. Memória associativa recorrente

Redes Neurais. Redes Neurais Recorrentes A Rede de Hopfield. Prof. Paulo Martins Engel. Memória associativa recorrente Redes eurais Redes eurais Recorrentes A Rede de Hofield Memória associativa recorrente A suressão do ruído numa memória auto-associativa ode ser obtida colocando-se uma função de limiar na saída de um

Leia mais

PROTOCOLO PARA ESTIMAR ERROS DE DISCRETIZAÇÃO EM CFD: VERSÃO 1.1. Carlos Henrique Marchi. Curitiba, UFPR, setembro de 2005.

PROTOCOLO PARA ESTIMAR ERROS DE DISCRETIZAÇÃO EM CFD: VERSÃO 1.1. Carlos Henrique Marchi. Curitiba, UFPR, setembro de 2005. PROTOCOLO PARA ESTIMAR ERROS DE DISCRETIZAÇÃO EM CFD: VERSÃO. Carlos Henrique Marchi Curitiba, FPR, setembro de 2005. O objetivo deste rotocolo é adronizar o rocesso de Verificação de soluções numéricas

Leia mais

Otimização da freqüência na manutenção preventiva

Otimização da freqüência na manutenção preventiva Otimização da freqüênia na manutenção reventiva Olavo Pinto Leal Júnior (CVRD/FANESE) olavojuniorleal@lik2.om.br Paulo Baffa Júnior (CVRD/FANESE) aulobaffa@aulobaffa.eng.br Helenie Leite Garia (FANESE)

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Neurônio Natural Dendritos: recebe os estímulos transmitidos por outros neurônios Soma Sinapse Axônio Soma: coleta e combina informações vindas de outros neurônios Sinapse Dendrito

Leia mais

LASERS- Resolução do problema teórico-prático 1

LASERS- Resolução do problema teórico-prático 1 Instrumentação Otoeletrónia LASERS- Resolução do roblema teório-rátio 1 1- Considere um laser hiotétio de estado sólido, om as seguintes araterístias: O nível de bombagem, W, está,ev aima do estado fundamental,

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerih Programa de Pós-Graduação em Informátia Pontifíia Universidade Católia do Paraná (PUCPR Aprendizagem Bayesiana Plano de Aula Introdução Teorema de Bayes Classifiador

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

Modelos para Regressão. Modelos lineares. Exemplo. Método de regressão linear

Modelos para Regressão. Modelos lineares. Exemplo. Método de regressão linear Modelos ara Regressão Pretende-se arender a redizer o valor de uma variável (atributo) numérica. Os atributos (ou variáveis) usados como entrada ara o algoritmo de arendizagem dizem-se reditores odendo

Leia mais

3 Conceitos Fundamentais

3 Conceitos Fundamentais 3 Coneitos Fundamentais Neste aítulo são aresentados oneitos fundamentais ara o entendimento e estudo do omressor axial, assim omo sua modelagem termodinâmia 3 Máquinas de Fluxo As máquinas de fluxo odem

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Modelagem matemática para o problema de localização de centros de distribuição de empresa de alimentos

Modelagem matemática para o problema de localização de centros de distribuição de empresa de alimentos Modelagem matemátia ara o roblema de loalização de entros de distribuição de emresa de alimentos Cauê Sauter Guazzelli¹, Claudio Barbieri da Cunha² Resumo: Neste trabalho é aresentado um modelo matemátio

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Instituto Superior Técnico PROPAGAÇÃO & ANTENAS. Projecto 2014 / 2015

Instituto Superior Técnico PROPAGAÇÃO & ANTENAS. Projecto 2014 / 2015 Instituto Superior Ténio PROPAGAÇÃO & ANTENAS Projeto 4 / 5 Prof Carlos R Paiva Ano Letivo 4/5 Introdução Este trabalho entra-se sobre a propagação de impulsos em fibras óptias onvenionais, de perfil em

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

Método Simplex Resolução Algébrica. Prof. Ricardo Santos

Método Simplex Resolução Algébrica. Prof. Ricardo Santos Método Simple Resolução Algébria Prof. Riardo Santos Método Simple Dada uma solução fatível: Essa solução é ótima? Caso não seja ótima omo determinar uma melhor? Considere uma solução básia fatível: em

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Aprendizagem de Dados Simbólicos e/ou Numéricos. Francisco Carvalho

Aprendizagem de Dados Simbólicos e/ou Numéricos. Francisco Carvalho Arendizagem de Dados Simbólicos e/ou Numéricos Francisco Carvalho Inut n objetos formando uma artição em m classes cada objeto é descrito or variáveis modais de semântica robabilística. Objetivo Descrever,

Leia mais

EXAME NACIONAL DO ENSINO SECUNDÁRIO

EXAME NACIONAL DO ENSINO SECUNDÁRIO EXAME NACIONAL DO ENSINO SECUNDÁRIO. Ano de Escolaridade (Decreto-Lei n. 86/8, de de Agosto Programas novos e Decreto-Lei n. 74/004, de 6 de Março) Duração da rova: 50 minutos.ª FASE 007 VERSÃO PROVA ESCRITA

Leia mais

Um Modelo Híbrido para Previsão de Produção de Petróleo

Um Modelo Híbrido para Previsão de Produção de Petróleo Um Modelo Híbrido ara Previsão de Produção de Petróleo Francisca de Fátima do Nascimento Silva Programa de Pós-Graduação em Ciência e Engenharia de Petróleo - PPGCEP fatima@ccet.ufrn.br Adrião Duarte Dória

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCA UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Universidade Federal do Espírito Santo CCENS UFES Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Redes Neurais Artificiais Redes Neurais Artificiais

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

LEIS DAS COLISÕES. 1. Resumo. 2. Tópicos teóricos

LEIS DAS COLISÕES. 1. Resumo. 2. Tópicos teóricos Físia Geral I EF, ESI, MAT, FQ, Q, BQ, OCE, EA Protoolos das Aulas Prátias 003 / 004 LEIS DAS COLISÕES. Resuo Faz-se olidir, elástia e inelastiaente, dois lanadores que se ove se atrito nua alha de ar.

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

Aula # 8 Vibrações em Sistemas Contínuos Modelo de Segunda Ordem

Aula # 8 Vibrações em Sistemas Contínuos Modelo de Segunda Ordem UNIVERSIDADE DE SÃO PAULO ESCOLA DE ENGENHARIA DE SÃO CARLOS DEPARTAMENTO DE ENGENHARIA MECÂNICA Laboratório de Dinâmica SEM 504 DINÂMICA ESTRUTURAL Aula # 8 Vibrações em Sistemas Contínuos Modelo de Segunda

Leia mais

ONS - Rua da Quitanda, o. andar - Centro - CEP: Rio de Janeiro - RJ - Telefone : (21)

ONS - Rua da Quitanda, o. andar - Centro - CEP: Rio de Janeiro - RJ   - Telefone : (21) GOP/03 a 6 de Outubro de 00 Caminas - São Paulo - Brasil GRUPO IX ESTUDO DE OPERAÇÃO DE SISTEMAS ELÉTRICOS PREVISÃO DE VAZÕES DE LONGO PRAZO UTILIZANDO REDES NEURAIS Mêuser Valença Teresa Bernarda Ludermir

Leia mais

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 20 - Backpropagation

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 20 - Backpropagation Inteligência Artificial Prof. Tiago A. E. Ferreira Aula 20 - Backroagation Introdução Redes de uma camada resolvem aenas roblemas linearmente searáveis Solução: utilizar mais de uma camada Camada 1: uma

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

ANALYTICAL METHODS IN VIBRATION. Leonard Meirovitch Capitulo 1

ANALYTICAL METHODS IN VIBRATION. Leonard Meirovitch Capitulo 1 ANALYTICAL METHODS IN VIBRATION Leonard Meirovith Capitulo Comportamento de sistemas Um sistema é definido omo uma montagem de omponentes atuando omo um todo. Os omponentes são lassifiados e definidos

Leia mais

Distribuição de uma proporção amostral

Distribuição de uma proporção amostral Distribuição de uma roorção amostral Estatística II Antonio Roque Aula 4 Exemlo Ilustrativo: Suonha que se saiba que em uma certa oulação humana uma roorção de essoas igual a = 0, 08 (8%) seja cega ara

Leia mais

11 Métodos de sintonia convencionais: Métodos de Cohen-Coon e Zigler Nichols. Avaliação das performances da malha fechada usando Scilab.

11 Métodos de sintonia convencionais: Métodos de Cohen-Coon e Zigler Nichols. Avaliação das performances da malha fechada usando Scilab. Métodos de sintonia onvenionais: Métodos de Cohen-Coon e Zigler Nihols. Avaliação das erformanes da malha fehada usando Silab. O desemenho de sistemas de ontrole ode ser julgado ela resosta transiente

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Voo Nivelado - Avião a Jacto

Voo Nivelado - Avião a Jacto - Avião a Jato 763 º Ano da ieniatura em Engenharia Aeronáutia. oo de ruzeiro () O voo de uma aeronave é normalmente omposto por várias fases diferentes. As fases de voo que formam um programa de voo simples,

Leia mais

Problema 4.40 do livro do Symon

Problema 4.40 do livro do Symon Problema 4.4 do livro do Symon O problema 4.4 do livro do Symon é uma variação do que vimos na postagem Dois osiladores harmônios aoplados pois onsta de três massas presas a duas molas ao longo de um eixo

Leia mais

3. ANÁLISE DE DADOS EXPERIMENTAIS

3. ANÁLISE DE DADOS EXPERIMENTAIS 3. AÁLISE DE DADOS EXPEIMETAIS 3. Introdução. Todo dado eerimental deve ser analisado através de algum tio de rocedimento. Um bom eerimentalista deve fazer todo o esforço ossível ara eliminar todos os

Leia mais

Análise da Aquisição de Equipamentos Médicos Utilizando Redes Neurais Artificiais

Análise da Aquisição de Equipamentos Médicos Utilizando Redes Neurais Artificiais Análise da Aquisição de Equiamentos Médicos Utilizando Redes Neurais Artificiais Ernesto F. F. Ramírez 1, Saide J. Calil 1 Deto. de Engenharia Elétrica (DEEL), Centro de Tecnologia e Urbanismo (CTU), Universidade

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

Profa.. Dra. Ana Maria Pereira Neto

Profa.. Dra. Ana Maria Pereira Neto 4/0/0 Uniersidade Federal do ABC BC309 ermodinâmia Aliada Profa.. Dra. Ana Maria Pereira Neto ana.neto@ufab.edu.br Entroia BC309_Ana Maria Pereira Neto 4/0/0 Entroia Desigualdade de Clausius; Definição

Leia mais

3.1. Algoritmos de Solução (algoritmo N 1) o chiller acompanha a carga. os programas N 1.1 e N 1.2 (algoritmo N 2) (algoritmo N 3)

3.1. Algoritmos de Solução (algoritmo N 1) o chiller acompanha a carga. os programas N 1.1 e N 1.2 (algoritmo N 2) (algoritmo N 3) 3 Solução Usando os modelos matemátios apresentados no apitulo 2 para ada omponente do sistema e para o sistema global, foram elaborados os algoritmos e os programas de álulo para simular o omportamento

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerih Programa de Pós-Graduação em Informátia Pontifíia Universidade Católia do Paraná (PUCPR Aprendizagem Bayesiana Plano de Aula Introdução Teorema de Bayes Classifiador

Leia mais

SÉRIE CADERNOS ECONÔMICOS

SÉRIE CADERNOS ECONÔMICOS UNIVERSIDADE FEDERAL DE PELOTAS DEPARTAMENTO DE ECONOMIA CURSO DE CIÊNCIAS ECONÔMICAS SÉRIE CADERNOS ECONÔMICOS DUOPÓLIOS E JOGOS Texto didátio n. Autores: André Carraro Gabrielito Menezes Rodrigo Fernandez

Leia mais

Invertendo a exponencial

Invertendo a exponencial Reforço escolar M ate mática Invertendo a exonencial Dinâmica 3 2ª Série 1º Bimestre DISCIPLINA SÉRIE CAMPO CONCEITO Matemática 2ª do Ensino Médio Algébrico Simbólico Função Logarítmica Aluno Primeira

Leia mais

pode recorrer à derivada da seguinte igualdade válida para uma série geométrica (com

pode recorrer à derivada da seguinte igualdade válida para uma série geométrica (com Aulas rátias: Lasers semiondutores Problema uma avidade ótia a energia média de um modo de osilação é E Do onto de vista da meânia quântia, a energia eletromagnétia deverá estar organizada em níveis disretos

Leia mais

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

AVALIAÇÃO DO CONSUMO DE ENERGIA ELÉTRICA A PARTIR DA OTIMIZAÇÃO DOS PARÂMETROS DE CORTE EM TORNEAMENTO

AVALIAÇÃO DO CONSUMO DE ENERGIA ELÉTRICA A PARTIR DA OTIMIZAÇÃO DOS PARÂMETROS DE CORTE EM TORNEAMENTO AVALIAÇÃO DO ONSUMO DE ENEGIA ELÉIA A PAI DA OIMIZAÇÃO DOS PAÂMEOS DE OE EM ONEAMENO Filie Molinar Mahado Universidade egional Integrada (UI). Engenharia Industrial Meânia (EIM), aixa Postal 203, EP 98802-470,

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

Exames Nacionais. Prova Escrita de Matemática A 2009 VERSÃO Ano de Escolaridade Prova 635/1.ª Fase. Grupo I

Exames Nacionais. Prova Escrita de Matemática A 2009 VERSÃO Ano de Escolaridade Prova 635/1.ª Fase. Grupo I Exames Nacionais EXAME NACIONAL DO ENSINO SECUNDÁRIO Decreto-Lei n. 7/00, de 6 de Março Prova Escrita de Matemática A. Ano de Escolaridade Prova 6/.ª Fase Duração da Prova: 0 minutos. Tolerância: 0 minutos

Leia mais

3 Propagação em ambientes abertos na faixa GHz

3 Propagação em ambientes abertos na faixa GHz 3 Proagação em ambientes abertos na faixa 10-66 GHz Na faixa de freqüências de oeração entre 10 e 66 GHz, a existência de visada direta é muito imortante ara viabilizar a comunicação de sistemas sem fio

Leia mais

CORRELAÇÃO ENTRE O AQUECIMENTO POR LIBERAÇÃO DE CALOR LATENTE E A RADIAÇÃO DE ONDA LONGA EMERGENTE NO TOPO DA ATMOSFERA PARA A REGIÃO TROPICAL

CORRELAÇÃO ENTRE O AQUECIMENTO POR LIBERAÇÃO DE CALOR LATENTE E A RADIAÇÃO DE ONDA LONGA EMERGENTE NO TOPO DA ATMOSFERA PARA A REGIÃO TROPICAL CORRELAÇÃO ENTRE O AQUECIMENTO POR LIBERAÇÃO DE CALOR LATENTE E A RADIAÇÃO DE ONDA LONGA EMERGENTE NO TOPO DA ATMOSFERA PARA A REGIÃO TROPICAL Marelo Belassiano e Adilson W. Gandu Instituto Astronômio

Leia mais

As Equações de Maxwell e a Onda Eletromagnética

As Equações de Maxwell e a Onda Eletromagnética As Equações de Maxwell e a Onda Eletromagnétia Evandro Bastos dos antos 27 de Maio de 2017 1 Introdução Até agora vimos aqui quatro leis do no eletromagnetismo. A lei de Gauss na eletrostátia, E ˆnda =

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

Universidade do Estado do Rio de Janeiro. Cálculo I e Cálculo Diferencial I - Professora: Mariana G. Villapouca Aula 5 - Aplicações da derivada

Universidade do Estado do Rio de Janeiro. Cálculo I e Cálculo Diferencial I - Professora: Mariana G. Villapouca Aula 5 - Aplicações da derivada Universidade do Estado do Rio de Janeiro Cálulo I e Cálulo Diferenial I - Professora: Mariana G. Villapoua Aula 5 - Apliações da derivada Regra de L Hôspital: Suponha que f e g sejam deriváveis e que g

Leia mais

A equação de onda com fonte

A equação de onda com fonte A equação de onda om fonte Na postagem, Invariânia de alibre ou gauge, vimos que podemos esolher o alibre de Lorentz e resolver a mesma equação de onda om fonte para as três omponentes do potenial vetorial

Leia mais

Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005

Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005 Redes Neurais Artificiais na Engenharia Nuclear 1 Aula-2 Ano: 2005 1.3. Alguns aspectos históricos 1.4. Principais Conceitos 1.4.1. Definições 1.4.2. Alguns tipos de Arquitetura Revisão da Aula-1 x 1 1

Leia mais

Somas de números naturais consecutivos

Somas de números naturais consecutivos Julho 006 - nº 5 Somas de números naturais consecutivos António Pereira Rosa Escola Secundária Maria Amália Vaz de Carvalho, Lisboa. Introdução O objectivo deste trabalho é abordar o roblema da reresentação

Leia mais

Sistemas Inteligentes de Inferência

Sistemas Inteligentes de Inferência istemas Inteligentes de Inferência enominação correta: Redes eurais com Treinamento Baesiano Carlos Hall ois tios de statística: statística Clássica: lida com freqüências de ocorrência statística Baesiana:

Leia mais

Outras Técnicas que Utilizam o Escore de Propensão

Outras Técnicas que Utilizam o Escore de Propensão Técnicas Econométricas ara Avaliação de Imacto Outras Técnicas que Utilizam o Escore de Proensão Rafael Perez Ribas Centro Internacional de Pobreza Brasília, 28 de maio de 2008 Introdução O Escore de Proensão

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Tópicos sobre Redes Neurais

Tópicos sobre Redes Neurais Tópicos sobre Redes Neurais -Memórias Matriciais -Modelos Híbridos -Redes de Base Radial(RBF) -Redes Construtivas -Redes Recorrentes Prof João Alberto Fabro IF67D Sistemas Inteligentes 1 Dep de Informática

Leia mais

L 100 km, C 6 e ps km. Considere 4B0 1.

L 100 km, C 6 e ps km. Considere 4B0 1. Proagação e Antenas Teste 1 de Janeiro de 17 Doente Resonsável: Prof Carlos R Paiva Duração: 1 hora minutos 1 de Janeiro de 17 Ano etivo: 16 / 17 SEGUNDO TESTE 1 Quando uma fibra ótia é oerada numa ortadora

Leia mais

Estimação de Parâmetros de um Modelo Semi-Empírico de Transferência Simultânea de Calor e Água no Solo

Estimação de Parâmetros de um Modelo Semi-Empírico de Transferência Simultânea de Calor e Água no Solo rabalho apresentado no XXXV CNMAC, Natal-RN, 0. Estimação de Parâmetros de um Modelo Semi-Empírio de ransferênia Simultânea de Calor e Água no Solo Emanueli Bandeira Avi, Peterson Cleyton Avi, Depto de

Leia mais

Capítulo VI Interferência Intersimbólica e Equalização de Canal

Capítulo VI Interferência Intersimbólica e Equalização de Canal PUCRS FENG Engenharia da Comutação Redes de Comunicação Sem Fio 006/I Maria Cristina Felietto De Castro Caítulo 6 Caítulo VI Um dos maiores obstáculos ara a confiabilidade de comunicações digitais é a

Leia mais

Modelagem e Análise de Vídeo Games baseadas em WorkFlow nets e Grafos de Estado Franciny Medeiros Barreto

Modelagem e Análise de Vídeo Games baseadas em WorkFlow nets e Grafos de Estado Franciny Medeiros Barreto Modelagem e Análise de Vídeo Games baseadas em WorkFlow nets e Grafos de Estado Franiny Medeiros Barreto Universidade Federal de Uberlândia Fauldade de Comutação Programa de Pós-Graduação em Ciênia da

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

Inteligência Computacional

Inteligência Computacional Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

Cap. 6. Definição e métodos de resolução do problema de valores de fronteira

Cap. 6. Definição e métodos de resolução do problema de valores de fronteira Ca. 6. Definição e métodos de resolução do roblema de valores de fronteira 1. Pressuostos 2. Formulação clássica do roblema de elasticidade linear 2.1 Condições no interior 2.2 Condições de fronteira 2.3

Leia mais

Escola Secundária/3 da Sé-Lamego Ficha de Trabalho de Matemática Ano Lectivo 2003/04 Probabilidade condicionada; acontecimentos independentes 12.

Escola Secundária/3 da Sé-Lamego Ficha de Trabalho de Matemática Ano Lectivo 2003/04 Probabilidade condicionada; acontecimentos independentes 12. Escola Secundária/ da Sé-Lamego Ficha de Trabalho de Matemática no Lectivo 00/0 Probabilidade condicionada; acontecimentos indeendentes º no Nome: Nº: Turma: Demonstre que se e são acontecimentos indeendentes,

Leia mais

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial 1 Redes Neurais - Definição O que é Rede Neural ou Rede Neuronal Artificial (RNA)? É um modelo computacional que objetiva

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

MATEMÁTICA COMENTÁRIO DA PROVA

MATEMÁTICA COMENTÁRIO DA PROVA COMENTÁRIO DA PROVA Os objetivos desta rova discursiva foram lenamente alcançados. Os conteúdos rinciais foram contemlados, inclusive comlementando os tóicos abordados na ª. fase, mostrando uma conveniente

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS INTRODUÇÃO Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 REDES NEURAIS ARTIFICIAIS - RNAs Inspiradas no cérebro humano São modelos computacionais inspirados nos mecanismos

Leia mais

Noções de Testes de Hipóteses

Noções de Testes de Hipóteses Noções de Testes de Hióteses Outro tio de roblema da Inferência Estatística é o de testar se uma conjectura sobre determinada característica de uma ou mais oulações é, ou não, aoiada ela evidência obtida

Leia mais