REDES NEURAIS SEGMENTADAS UMA APLICAÇÃO AO PROBLEMA DE RECONHECIMENTO DE PADRÃO



Documentos relacionados
CAP RATES, YIELDS E AVALIAÇÃO DE IMÓVEIS pelo método do rendimento

Departamento de Informática. Modelagem Analítica. Modelagem Analítica do Desempenho de Sistemas de Computação. Disciplina: Medida de Probabilidade

MEDIÇÃO DA ACELERAÇÃO DA GRAVIDADE COM UM PÊNDULO SIMPLES

Modelação da elasticidade de quotas de mercado para produtos de grande consumo

PÊNDULO ELÁSTICO. Fig. 1. Considere o sistema da figura 1. Quando se suspende uma massa, m, na mola, o seu comprimento aumenta de l 0

INTERPOLAÇÃO POLINOMIAL DE LAGRANGE E DE HERMITE INTRODUÇÃO

ANÁLISE DE ERROS. Todas as medidas das grandezas físicas deverão estar sempre acompanhadas da sua dimensão (unidades)! ERROS

Despacho Econômico de. Sistemas Termoelétricos e. Hidrotérmicos

Sistema para pesquisa de imagens com Retroacção de Relevância *

Física. Física Módulo 1 Vetores, escalares e movimento em 2-D

NOTA II TABELAS E GRÁFICOS

PÊNDULO ELÁSTICO. Fig. 1. Considere o sistema da figura 1. Quando se suspende uma massa, m, na mola, o seu comprimento aumenta de l 0

Aula de Hoje. Introdução a Sistemas Inteligentes. Motivação (PCA) Redes Neurais para PCA. Motivação para PCA Redes Neurais para PCA

TEORIA DE ERROS * ERRO é a diferença entre um valor obtido ao se medir uma grandeza e o valor real ou correto da mesma.

TRABAJO 1/7. Autores del Trabajo Nombre País Gelson Antônio Andrêa Brigatto Brasil

Sistemas de Filas: Aula 5. Amedeo R. Odoni 22 de outubro de 2001

A PRIMEIRA LEI DA TERMODINÂMICA

MODELOS DE OTIMIZAÇÃO PARA PROBLEMAS DE CARREGAMENTO DE CONTÊINERES COM CONSIDERAÇÕES DE ESTABILIDADE E DE EMPILHAMENTO

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

, para. Assim, a soma (S) das áreas pedida é dada por:

Universidade Estadual de Campinas Faculdade de Engenharia Elétrica e de Computação Departamento de Comunicações

CAPÍTULO VI Introdução ao Método de Elementos Finitos (MEF)

RAD1507 Estatística Aplicada à Administração I Prof. Dr. Evandro Marcos Saidel Ribeiro

3 Algoritmos propostos

Seja o problema primal o qual será solucionado utilizando o método simplex Dual: (P)

Os modelos de regressão paramétricos vistos anteriormente exigem que se suponha uma distribuição estatística para o tempo de sobrevivência.

Resolução. Capítulo 32. Força Magnética. 6. C Para que não haja desvio devemos garantir que as forças magnética ( F M. ) e elétrica ( F E

F-128 Física Geral I. Aula Exploratória 09 Unicamp - IFGW. F128 2o Semestre de 2012

Influência dos Procedimentos de Ensaios e Tratamento de Dados em Análise Probabilística de Estrutura de Contenção

Módulo 4 Sistema de Partículas e Momento Linear

Introdução à Análise de Dados nas medidas de grandezas físicas

Introdução e Organização de Dados Estatísticos

CQ110 : Princípios de FQ

Quanto mais alto o coqueiro, maior é o tombo

Covariância e Correlação Linear

Ministério da Educação. Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira. Cálculo do Conceito Preliminar de Cursos de Graduação

ANÁLISE MATRICIAL DE ESTRUTURAS DE BARRAS PELO MÉTODO DE RIGIDEZ

ANEXOS REGULAMENTO DELEGADO DA COMISSÃO

Departamento de Informática. Modelagem Analítica do Desempenho de Sistemas de Computação. Modelagem Analítica. Disciplina: Variável Aleatória

2 Máquinas de Vetor Suporte 2.1. Introdução

Sistema de Partículas e Conservação da Quantidade de Movimento Linear

Universidade Salvador UNIFACS Cursos de Engenharia Cálculo IV Profa: Ilka Rebouças Freire. Integrais Múltiplas

Objetivo: converter um comando de posição de entrada em uma resposta de posição de saída.

Cálculo do Conceito ENADE

Fast Multiresolution Image Querying

C são matrizes que satisfazem

FORÇA DE ORIGEM MAGNÉTICA NO ENTREFERRO

X = 1, se ocorre : VB ou BV (vermelha e branca ou branca e vermelha)

7. Resolução Numérica de Equações Diferenciais Ordinárias

Ao se calcular a média, moda e mediana, temos: Quanto mais os dados variam, menos representativa é a média.

Adriana da Costa F. Chaves

5.1 Seleção dos melhores regressores univariados (modelo de Índice de Difusão univariado)

Aula Características dos sistemas de medição

R X. X(s) Y Y(s) Variáveis aleatórias discretas bidimensionais

Métodos Numéricos no Traçado de Campos

UNIVERSIDADE PRESBITERIANA MACKENZIE CCSA - Centro de Ciências Sociais e Aplicadas Curso de Economia

Departamento de Engenharia Metalurgia e de Materiais POLI-USP b Instituto de Pesquisas Energéticas e Nucleares IPEN-CNEN/SP.

TESTE DO CAPM ZERO-BETA NO MERCADO DE CAPITAIS BRASILEIRO*

PREVISÃO DO ÍNDICE MERVAL: UMA APLICAÇÃO DE REDES NEURIAS POLINOMIAIS GMDH

RISCO. Investimento inicial $ $ Taxa de retorno anual Pessimista 13% 7% Mais provável 15% 15% Otimista 17% 23% Faixa 4% 16%

c (1) OS PREÇOS E A RENTABILIDADE DOS INVESTIMENTOS NA ANÁLISE DE PROJETOS Benedito Silva Neto

Y X Baixo Alto Total Baixo 1 (0,025) 7 (0,175) 8 (0,20) Alto 19 (0,475) 13 (0,325) 32 (0,80) Total 20 (0,50) 20 (0,50) 40 (1,00)

A INFLUÊNCIA DOS PARÂMETROS DE SÍNTESE IONOTÉRMICA NAS PROPRIEDADES DO MAPO-5 PARA APLICAÇÃO NA REMOÇÃO DE METAIS PESADOS

11 Sistemas resolvem problemas

Lista de Exercícios de Recuperação do 2 Bimestre. Lista de exercícios de Recuperação de Matemática 3º E.M.

Física. Física Módulo 1. Sistemas de Partículas e Centro de Massa. Quantidade de movimento (momento) Conservação do momento linear

MECÂNICA CLÁSSICA. AULA N o 8. Invariância de Calibre-Partícula em um Campo Eletromagnético-Colchetes de Poisson

Capítulo 1. Exercício 5. Capítulo 2 Exercício

AS COMPONENTES SIMÉTRICAS INSTANTÂNEAS E A MÁQUINA SIMÉTRICA

Rastreando Algoritmos

O Método de Redes Neurais com Função de Ativação de Base Radial para Classificação em Data Mining

CAPÍTULO 1 Exercícios Propostos

INTRODUÇÃO À CALIBRAÇÃO MULTIVARIADA

Variabilidade Espacial do Teor de Água de um Argissolo sob Plantio Convencional de Feijão Irrigado

Ao se calcular a média, moda e mediana, temos: Quanto mais os dados variam, menos representativa é a média.

IMPLEMENTAÇÃO DO MÉTODO DE FATORAÇÃO DE INTEIROS CRIVO QUADRÁTICO

Cálculo Numérico BCC760 Interpolação Polinomial

UNIVERSIDADE DO ESTADO DA BAHIA - UNEB DEPARTAMENTO DE CIÊNCIAS EXATAS E DA TERRA COLEGIADO DO CURSO DE DESENHO INDUSTRIAL CAMPUS I - SALVADOR

2 Aproximação por curvas impĺıcitas e partição da unidade

7.4 Precificação dos Serviços de Transmissão em Ambiente Desregulamentado

PROJETO DE MALHAS DE ATERRAMENTO: CONTRIBUIÇÃO AO CÔMPUTO DA ESTRATIFICAÇÃO DO SOLO

IMPLEMENTAÇÃO DE REDES NEURAIS ARTIFICIAIS UTILIZANDO A LINGUAGEM DE PROGRAMAÇÃO JAVA

Determinação dos Momentos de Encastramento Perfeito. Um membro de secção constante ligando os nós i e j está representado na figura.

UTILIZAÇÃO DE VISCOSIDADE, DENSIDADE E O UNIFAC-VISCO PARA A CARACTERIZAÇÃO DE FRAÇÕES DE PETRÓLEO

Índices de Concentração 1

Análise de Regressão. Profa Alcione Miranda dos Santos Departamento de Saúde Pública UFMA

Agregação das Demandas Individuais

Tratamento de Dados 2º Semestre 2005/2006 Tópicos de Resolução do Trabalho 1

Faculdade de Engenharia Optimização. Prof. Doutor Engº Jorge Nhambiu

Capítulo 1. O plano complexo Introdução. Os números complexos começaram por ser introduzidos para dar sentido à 2

Aula 7: Circuitos. Curso de Física Geral III F-328 1º semestre, 2014

4.5 Métodos de defuzificação. Métodos de defuzificação. Métodos. Centro de área (centro de gravidade, centróide)

5.1 Método de Ponderação da Linha de Rotação

Sempre que surgir uma dúvida quanto à utilização de um instrumento ou componente, o aluno deverá consultar o professor para esclarecimentos.

2 O Problema do Fluxo de Custo Mínimo

Análise de Agrupamentos (Clusters) Marcelo Lauretto

Objetivos da aula. Essa aula objetiva fornecer algumas ferramentas descritivas úteis para


Medidas de Bem-Estar no Modelo de Equilíbrio Parcial. Suponha que, para um determinado sub-conjunto de L 1 bens da economia,

Transcrição:

REDES NEURAIS SEGMENTADAS UMA APLICAÇÃO AO PROBLEMA DE RECONHECIMENTO DE PADRÃO Luz Caros Pedroza CEFET-RJ Av. aracanã, 9 Ro de Janero, CEP 7- E-as, pedroza@cefet-r.br Resuo Reconhecento de padrão é u probea de grande reevânca na área de processaento de snas. Geraente o padrão procurado está deforado e ebutdo e u outro sna. Neste artgo é apresentada ua soução para este probea a partr de ua nova arqutetura de rede neura que sendo trenada a pror co u padrão odeo, perte sua deforação ssteátca a edda que opera a busca peas suas deforações ebutdas no sna dsponíve. Abstract Pattern recognton s a very reevant probe n sgna processng area. Generay the searched pattern s dstorted and but nto another sgna. In ths paper t s presented a souton to ths probe through the use of a new neura network archtecture whch, traned a pror wth the ode pattern, aows ts systeatc dstortons whe accopshng ts search nto the avaabe sgna Keywords Neura Networks, Pattern Recognton Introdução U probea de grande reevânca na área de processaento de snas é o probea de reconhecento de padrão á que o padrão procurado está geraente deforado e ebutdo e outro sna (La and Chn,995;La and Chn,998). Geraente este probea é abordado, na área de redes neuras, através do uso de redes recursvas (Lppann,989a;Lppann,989b). No caso, o padrão a ser reconhecdo defne u atrator na função de energa da rede recursva. Contudo pea dnâca não near da rede o probea de geração destes capos atratores é etreaente copeos fazendo co que geraente, nos casos prátcos, o sna dsponíve, onde se opera o reconhecento, não possa dferr uto do padrão a ser reconhecdo(haykns,999) Coo ostrado e (Pedroza, Pedrera e Farñas,), as Redes Neuras Segentadas (RNS) representa ua nova arqutetura coneonsta co perforance, no caso de aproação de funções, equvaente a das redes utcaadas tradconas. Sua arqutetura fo deazada para pertr o partconaento do doíno da função a ser euada enquanto dentro destes partconaentos a função é aproada por u conunto de funções de apoo uto spes, utas vezes neares. E outras paavras, a déa centra da RNS é epressar o apeaento entrada-saída deseado através de ua função segentada e ntervaos. Sua estrutura básca é consttuída pea cobnação de város neurônos copostos por ua funções de aproação e ua funções de pertnênca. As funções de pertnênca defne e cada trecho do doíno a partcpação da função de atvação a essa assocada. É possíve a ocorrênca de sobreposções parcas das funções de pertnênca proporconando ua aor rqueza do apeaento pretenddo. Desse odo o probea de aproação de funções é enfocado especazandose grupos de neurônos, forados peos pares anterorente descrtos, que eua a função geradora e cada setor do doíno. O grau de especazação e u deternado trecho é dado peo níve da função de pertnênca. Por eepo, e u trecho aonde apenas ua das funções de pertnênca assue vaor ato haverá ua donânca da função de aproação assocada a esta. Devdo a sua propredade de partconaento do doíno de aproação, devdo a possbdade de anáse da pertnênca de cada neurônos e u ponto do doíno e pea spcdade das funções de atvação as redes segentadas perte ua ehor etração do conhecento contdo na sua estrutura do que as tradconas(pedrera, Pedroza e Farñas, ). Esta propredade é de grande vaa quando da sua apcação ao probea de reconhecento de padrões pos perte que se proponha transforações na estrutura da rede, prevaente trenada co u padrão odeo, de fora que esta possa ser retrenada, usando-se agora u conunto de trenaento obtdo do sna rea dsponíve. Este retrenaento reazará ua busca, sobre sna rea, de deforações do padrão odeo. A arqutetura Proposta Consdereos ua rede co nós ou neurônos. Sea { } n a partção dos dados usada para trenaento. Por spcdade agébrca e de notação reos consderar o caso onde R (o subscrto de será otdo), a generazação para o caso onde

R n é agebrcaente dreta. Defne-se, para cada ponto, funções de pertnênca do segunte odo: B κ () = C + ep( d ( h =.., )) + ep( d ( h B () ( ), )) B κ Σ g onde C, d, h ( ) e h ( ) são parâetros a sere austados. Note-se que o parâetro C refete o níve da função de pertnênca, enquanto d está reaconado a decvdade desta função. Os parâetros h ( ) e h ( ) deta o setor do doíno no qua a função de aproação assocada a esta função de pertnênca é as atva. (ver fgura )..5.5-3 - - 3 4 5 Fgura Eepos de funções de atvação C=, d=6; h ( ) = -; h ) ( = * C=., d=6; h ( ) = ; h ) ( =4 As funções de aproação são tpcaente funções neares ou quadrátcas. Ebora funções as copeas possa ser usadas se preuízo da estrutura teórca proposta, não parece trazer contrbução sgnfcatva ao odeo. Consdereos funções de aproação neares: κ () = a + b =,..., onde a e b são os parâetros a sere estados. Cada nó, ou neurôno, da rede é consttuído de u par { função de pertnênca ; função de aproação} (ver fgura ). Então, para cada nó é necessáro se estar 6 parâetros (7 no caso de funções de aproação quadrátcas). Coo usuaente, o núero de nós ndca a copedade do odeo. As entradas são conectadas ao nó onde é efetuado o produto da função de pertnênca B () e da função de aproação κ (). A saída da rede é u soatóro da saída de cada u destes nós. Note que não há pesos gando a saída dos nós a saída da rede (vea fgura ). Deste odo a saída do -éso nó é B () κ (), e a saída da rede é dada por: g () = B ( ) κ ( ) = (.) B κ Fgura A arqutetura proposta Defnndo-se B vet () (B (), B (),... B ()) e κ vet () (κ (), κ (),... κ ()) pode-se escrever a saída da rede e fora de produto nterno,.e. g ()= < B vet (), κ vet () >. O obetvo centra é proetar ua rede cua saída aproe ua função avo, f(), da ehor fora possíve. Defne-se então ua função de erro coo ua cobnação convea do quadrado de duas eddas de erro E e E : k E α E ( ) + ( α) E = onde E ( ) g ( ) y( ) e E - C = (.) (.3) O tero E está assocado a quadade da aproação obtda enquanto E é usado co a fnadade de anter as funções de pertnênca tadas. Na readade se está penazando souções nas quas o soatóro destas funções ecede. A escoha da undade coo vaor tante não é necessára ebora confra as nterpretabdade aos resutados. Defne-se, para cada neurôno, u vetor de parâetros I (C, d, h ( ), h ( ), a, b ) e o obetvo centra será encontrar os I ótos que nze a função de erro E. Isto pode ser reazado utzandose do gradente decrescente ou outro agorto anáogo. E Pedroza et a () prova-se que o conunto de funções gerados pea RNS é denso e L. Ou sea a rede se presta penaente a aproação de funções quadratcaente ntegráves(nayor and Se,98). 3. Escoha nca dos parâetros e aceeração do trenaento. A reação entre a entrada e a saída da rede é aprendda através da varação dos parâetros que defne as funções de pertnênca e de aproação. As funções de pertnênca pode se sobrepor e parte do doí-

no pertndo que u deternado ponto sea estado através de ua cobnação ponderada de as de ua função de aproação. A escoha nca dos parâetros h ( ) e h ( ) pode refetr u conhecento a pror do doíno da função. Pode-se anda utzar ua heurístca de ncazação co a descrta abao co a fnadade de aceerar a convergênca. A déa centra da heurístca que se segue é fazer ua dvsão do doíno obtendo ntervaos onde a função é aproadaente onotônca. Para ta, austa-se, sobre os dados, u ponôo co grau gua ao núero de funções de aproação que se pretende utzar. Cacuando-se os áos e ínos do ponôo, deterna-se as regões do doíno onde a função anté-se onotônca. Para defnr os vaores a e b assocados à função de aproação near, para cada ntervao, austa-se, ua reta a través de ua regressão near. Fgura 3a - 3. U heurístca autoátca para cacuar a soução nca Dados,, y Passo : Austar aos dados o ponôo P() de grau. Passo: Cacuar os pontos áos e ínos de P():, Se I( )=, escoher I =[n( )-ε, -ε], I =[, -ε],, I =[, a()+ ε] Caso contráro, se agu é copeo, dvdr o ntervao e ntervaos unfores dsuntos. Passo 3: Para cada ntervao, austar regressão near nos pares (,y ), I para obter a e b. Ao se utzar este procedento para ncazação dos parâetros da rede, as regões de pertnênca dos neurônos fca sufcenteente dsuntas. Isto faz co que apenas aguns neurônos da vznhança de u deternado ponto do doíno da função f() possua função de pertnênca consderáve. Neste caso, todos os outros neurônos que não estea nesta vznhança apresenta saída pratcaente nua e pode ser desconsderados durante esta nteração e do agorto de trenaento. 3. Eepo O eepo e questão consste e ua conunto de trenaento de pares obtdos da função f()=sen()+ corroída por u ruído Gaussano de eda zero e desvo padrão. e defnda sobre o ntervao << π.. A confguração nca da rede é gerada pea heurístca proposta. A fgura 3a ostra o aproação gerada pea rede. Na fgura 3b ostrase que eso na presença de ruído a RNS apresenta ua boa capacdade de generazação. Fgura 3b - Níve de Ruído:. 4. Reconhecento de Padrão Observe no eepo da seção 3. que, partndo-se da RNS que reaze a função sen()+ no ntervao << π é possíve operar transforações nesta rede de fora que ea aproe a função 3sen(+4)+5 no ntervao -<< π-, para sto basta se aterar, pea ntrodução e odfcação de snapses, as funções de aproação para 3 κ ( + 4) e as de pertnênca para ( + 4) e soar 3 ao neurôno de saída da B rede. Esta possbdade de ateração ssteátca dos pesos da rede perte se gerar a aproação de toda ua faía de funções. Esta propredade, quando apcada ao probea de reconhecento de padrão, rá pertr a deforação ssteátca de u padrão odeo de fora que toda ua faía do padrão, que na verdade são suas deforações, possa ser descrta pea rede aterada. E seguda a rede será retrenada de fora a buscar dentro desta faía o padrão deforado que possa estar ebutdo dentro do sna dsponíve para anáse. Sea M:R n R o apeaento do padrão odeo M() defndo sobre o ntervao. Sea P() = β M( + τ + λ (4.) )

ua faía de padrões deforados defndos sobre o ntervao ( + τ (4.) ) Sea s() o sna, que conte o padrão deforado, defndo e R n coo: s() = βm( + τ) + λ ( + τ ) s( ) β M( + τ ) + λ caso contraro (4.3) Nas defnções β R R = {,,}, R n R, τ R, λ R são operadores neares. O probea de reconhecento de padrões é aqu defndo coo a busca de vaores ótos * * * * β,, τ λ que nze a nora, P( ) s( ) (4.4) sobre o ntervao. (4.5) Este probea de nzação pode ser resovdo por étodos de otzação a partr da escoha dos pontos dentro da regão de vabdade dada por (4.5) Observa-se que se < < < (4.6) o probea apresenta apenas ua soução goba * * * = β =, τ = τ, β, λ = λ Se a condção (4.6) não for satsfeta o probea poderá convergr para outras souções co por eepo para β = ou = Para se apcar as RNS na soução do probea de reconhecento de padrões, o prero passo consste e se trenar a rede co o padrão que se desea reconhecer: a função M. Após o trenaento gerar ua aproação satsfatóra o segundo passo consste e se aterar a rede á trenada de fora que seu novos parâetros de trenaento sea I = β,, τ, ). Isto se faz aterando-se as ( λ função de aproação para β κ + ) e as de * ( τ pertnênca para + ) e se adconando o B ( τ peso snáptco λ ao neurôno da caada de saída da rede..neste caso a equação. é rescrta coo: P() = ( τ ) β κ ( τ ) + λ B + + (4.7) = O vetor de parâetros nca I é escohdo de fora a satsfazer a condção 4.6. A próa etapa consste e sortear pontos que satsfaça 4.5 e utzando-se de u étodo de otzação varar os pesos β,, τ, λ a f de nzar a nora 4.4. 5. Eepos Nesta seção, apresenta-se dos eepos do uso da etodooga proposta a probeas e R de reconhecento de padrões. O prero eepo, as spes, trata de reconhecento de u padrão estátco ebutdo e u sna rudoso. O segundo ostra a capacdade de se utzar desta etodooga para se rastrear u padrão não-estátco sobre u sna as copeo. Eepo 5. Sea o padrão odeo.95,.5.7,.5 < M ( ) =.9, <.5.,.5 < Desea-se reconhecer este padrão ebutdo e deforado no sna.45,.5.35,.5<.5 s( ) =.9,.5 <.75.6,.75 <.ε caso contraro onde ε é u ruído branco co varânca untára. O prero passo consste e se trenar, a partr do que fo dscutdo nas seções e 3, ua rede segentada para aproar o padrão odeo M. A fgura 4 ostra o padrão odeo aproado pea RNS..5.5 -.5 -.5.5.5.5 Fgura4 -Padrão odeo M aproado pea rede

O segundo passo consste e se aterar as funções de atvação e pertnênca da rede de fora que esta sea capaz de reazar toda a faía de padrões deforados P() = β + λ. M( + τ ) O tercero passo consste na escoha de vaores ncas para os novos parâetros da rede β =, =, τ =, λ = Para deonstrar a robustez do processo de reconhecento de padrão a escoha dos parâetros ncas da rede aterada não satsfaz a condção 4.6, coo pode se ver na fgura 5 que ostra u nstantâneo do processo de busca e ua de suas nterações ncas. Por uto, apca-se o agorto de trenaento para buscar os parâetros I = ( β,, τ, λ ) ótos da rede aterada. No caso, para aceerar o processo, apenas os neurônos na vznhança de ponto sorteado e ua deternada nteração do agorto são evados e consderação para cacuar as varações nos parâetros β,, τ λ.,.5.5.5 Eepo 5. Suponha que agora se desee apcar esta técnca não ao reconhecento de u padrão estátco ebutdo e u sna rudoso, as ao probea do reconhecento e rastreaento de u padrão que se desoca contnuaente sobre u sna. No caso suponha que se desee buscar o eso padrão do eepo anteror ebutdo no sna s(,t) defndo coo..45, δt.5.35,.5< δt.5 s(, t) =.9,.5 < δt.75.6,.75 < δt sgna(+ sen(π )) caso contraro onde a função sgna vae se seu arguento for aor ou gua a zero e caso contraro. Note que o sna s(,t) é varante no tepo. No caso, o padrão ebutdo se desoca co o tepo para esquerda co veocdade δ sobre ua seqüênca de pusos co argura /π. Usando o eso agorto de busca do eepo anteror co condções ncas dêntcas o processo de reconhecento e rastreaento é efetvado. Na fgura 7 ostra-se ua fase onde o reconhecento do padrão anda não é satsfatóro. No caso o padrão deforado encobre dos puso da fgura de fundo. Na fgura 8, depos de 5k nterações o padrão á fo reconhecdo e o processo de rastreaento está e curso. No caso o padrão encobre apenas parcaente dos pusos. -.5.5.5.5 3 Fgura5- Interação nca do processo de busca de P()(--) e s()(-) A fgura 6 ostra a convergênca do agorto de busca depos de k nterações co o efetvo reconhecento do padrão deseado. Observa-se que, eso co deforações no padrão e co a não satsfação da condção 4.6 o agorto de busca fo robusto o sufcente par reconhecer o padrão ebutdo e s()...8.6.5.5 -.5.5.5.5 3 Fgura7- Interação nca do processo de busca de P()(--) e s()(-)..8.6.4.4.. -..5.5.5 3 -..5.5.5 3 Fgura 8 - rastreaneto P()(--) e s(,t)(-) Fgura 6 - fna do trnaento P()(--) s()(-) Peo eepo pode-se perceber que o padrão procurado pode ser desocado de fora contnua sobre u sna copeo que anda ass, a partr

do processo de reconhecento, é possíve se reazar u efetvo rastreaento do padrão. 6. Concusões Neste artgo, baseando-se e ua nova arqutetura de rede neura, se propôs ua etodooga para efetuar o reconhecento de padrões ebutdos e snas. No eepo 5. ostra-se coo trenar ua RNS para aprender u padrão odeo. E seguda esta nforação contda na rede é utzada para dentfcar este padrão deforado e ebutdo e u eo rudoso. No eepo 5. ostra-se ua apcação dferente onde o eso padrão deforado e desocado para esquerda co veocdade constante e o processo de reconhecento é capaz de acopanhar este desocaento. Anda que os eepos utzados revee ua baa copebdade pertencendo a R, os resutados acançados são bastante prossores á que, coo fo coentado no artgo, caso ua padrão as copeo deandasse as neurônos para ser aproado este acrésco de neurônos não acarretara u auento eponenca no tepo de trenaento da rede pos a atuazação dos peso da rede se baseara apenas e neurônos na vznhança do ponto de trenaento. Nas apcações de processaentos de age onde couente utos padrões estão ebutdos no eso quadro esta técnca parece be prossora pos nada pede a busca paraea de város padrões dferente por varas redes dferentes sobre o eso conunto de dados. A técnca parece be prossora nas apcações de controe va age pos nesta este poucos padrões a sere reconhecdos e a capacdade de rastrear padrões oves sobre fundos de age copeos sera be út na edda das varáves de controe. Quando coparada as técncas tradconas de reconhecento de padrão va redes recursva esta etodooga apresenta a defcênca de que para cada padrão a ser procurado é necessára ua rede pre-trenada, o que a prncpo acarretara u acrésco ssteátco no núero de neurônos no sstea. Entretanto coo estas redes pode ser trabahadas ndependenteente, até e coputadores dferentes, esta dfcudade sera copensada pea aor capacdade de reconhecento da etodooga proposta. Os próos passos da pesqusa consste e: prero apar a apcação da etodooga a probeas e R ; descobrr etodoogas para partconar ao áo o probea pertndo a descentrazação do uso dos recursos coputaconas; nvestgar a utzação desta técnca na restaurações de padrões deforados por ftrage ou perda de parte de nforação. Referêncas Haykn S. (999). Neura Networks A Coprehensve Foundaton, nd ed. Prentce Ha New York La K.F., Chn R.T(995), Deforabe Contours: Modeng and Etracton,IEEE trans. Pat. Ana. Mach. Inte. Vo-7,pp84-9 La K.F, Chn R.T(998), On Modeng, Etracton, Detecton and Cassfcaton of deforabe Contours fro Nose Iages, Iage and Vson Coputng Vo- 6,pp 55-6 Lppann R.P(989a), Pattern Cassfcaton usng Neuron Networks IEEE Councaton Magazne, Vo 7, pp 47-64, 989 Lppann R.P(989b),Revew of Neura Networks for speach recognton, Neura Coputaton, Vo-,pp -38 Nayor A.W., Se G.R.(98), Lnear Operator Theory n engneerng and scence. nd ed. Sprnger- Verag, New York, 98. Pedrera C.E., Pedroza L.C., Farñas M(a). Loca-Goba Neura Networks for Interpoaton, Proccedngs of V Internatona Conference on Neura Networks and Genetc Agorths, Sprng Veag, Praga, Repubca Theca, Vo, pp 3-35. Pedroza L.C e Pedrera C.E(999). Mutayer Neura Networks and Functon Reconstructon by Usng a pror Knowedge Internatona Journa of Neura Systes, Vo- 9, nuber 3, pp 5-56. Pedroza L C. e Pedrera C.E, Farnas M.(b) Redes Neuras Locas Gobas-Ua acação ao probea de dados fatantes, Anas do V Congresso Brasero de Redes Neuras, Ro de Janero Vo, pp 433-338.