Redução de Dimensões Baseada em Redes Neurais Perceptron Multicamada

Tamanho: px
Começar a partir da página:

Download "Redução de Dimensões Baseada em Redes Neurais Perceptron Multicamada"

Transcrição

1 Redução de Dmensões Baseada em Redes Neuras Perceptron Multcamada Soledad spezúa Llerena, Carlos Das Macel scola de ngenhara de São Carlos Unversdade de São Paulo, Brasl. Resumo Neste trabalho, é apresentada uma alternatva ao clássco método estatístco Multdmensonal Scalng (MDS) para reduzr dmensonaldade de dados multvarados. alternatva proposta usa duas redes neuras gêmeas com arqutetura Perceptron Multcamada (PMC) conectadas em paralelo, com o fm de alcançar o mapeamento dos dados de um espaço de alta dmensonaldade para outro espaço de baxa dmensonaldade (3-D). ste modelo aprende a partr de um conunto de vetores de característcas de entrada e saídas deseadas em forma de matrz de dstânca ou dssmlardade entre pares de dados. O modelo fo testado em dados sntétcos e em dados de um conhecdo exemplo de mapeamento de cores, obtendose resultados acetáves. Fo observado que nclusve com uma medda destorcda dos vetores de entrada a rede neural proposta consegue encontrar uma boa representação num espaço baxo dmensonal. Palavras Chave: Perceptron Multcamada, Multdmensonal Scalng. 1. Introdução Com o contnuo ncremento do poder computaconal e a tecnologa de armazenamento atual, é possível coletar, analsar e armazenar grandes quantdades de dados. s técncas de redução dmensonal consttuem uma ferramenta mportante para os usuáros, no processo de extração e compressão de nformação de bancos de dados com grandes quantdades de regstros e atrbutos. Mutos métodos têm sdo propostos para tratar a redução de dmensonaldade de dados multvarados. Por exemplo, têm-se técncas estatístcas como análse de componentes prncpas (PC) e escalonamento multdmensonal (MDS) [6]; técncas de ntelgênca artfcal baseadas em redes neuras [1] como mapas auto-organzados (SOM-maps), redes uto-assocatvas FeedForward (FN), as quas realzam a redução dmensonal medante a extração da atvdade dos neurônos desde a camada nterna, Curvlnear Components nalyss (CC) [] que fo proposta como uma melhora aos SOM-maps, NeuroScale [3] que é uma FN modfcada para ncorporar nformação subetva assocada. Posterormente se propuseram outras técncas como Generatve Topographc Mappng (GTM) [4] [5] que é um modelo probablístco que tem sdo usado como uma alternatva aos SOM-maps para sobrepor as prncpas desvantagens encontradas nesse modelo. m técncas como MDS o número de dmensões é determnado de uma forma semelhante àquela utlzada na análse fatoral [7], com o erro de aproxmação (stress) desempenhando o papel da varânca explcada. À medda que se aumenta o número de dmensões, os dados representam melhor a matrz de dstânca deseada e o valor de stress dmnu. dsposção dos dados (mapa) pode ser alcançada por város métodos; prmero é necessáro que os dados multvarados seam transformados em meddas de proxmdade (matrz de dstânca) usando alguma métrca de dstânca para logo se encontrar a dsposção de pontos num espaço de coordenadas reduzdo medante o uso de uma técnca de redução dmensonal. Neste trabalho é apresentado um método para realzar redução dmensonal com redes neuras artfcas, baseado no método proposto por Ken Suzuk [8] para mapeamento de faces. O método desenvolvdo usa um arrano de duas redes neuras com arqutetura Perceptron Multcamada (PMC) conectadas em paralelo, as quas aprendem o mapeamento não lnear, entre os vetores de característcas de entrada (com alta dmensonaldade) e a representação dos dados em baxa dmensão, tendo como snal de aprendzagem a matrz de dssmlardade deseada. O trenamento da rede é baseado no algortmo Backpropagaton com a consderação de que o snal de erro para o trenamento é obtdo a partr da dferença entre a dstânca eucldana calculada nas saídas das redes e a dssmlardade deseada. Depos do trenamento, novos dados podem ser apresentados e avalados, aprovetando a capacdade de generalzação da rede. ste trabalho está organzado da segunte forma, a parte apresenta uma defnção de nosso problema, a parte 3 segue com a solução do problema com redes neuras, a parte 4 mostra os resultados computaconas e dscussões para dos bancos de dados sntétcos e um conhecdo banco de dados para percepção de cores; fnalmente na parte 5 são apresentadas ás conclusões.. Defnção do problema Formalmente o problema pode ser defndo como: dado um conunto de p vetores de característcas de entrada X = { x 1,..., x p }, defndos em um espaço m - dmensonal m R, onde um padrão é representado *O presente trabalho fo auxlado pela CPS. genca de Governo Braslero para o desenvolvmento de recursos humanos.

2 ( 1 x m pelo vetor x = x, x,..., ). Dada também uma matrz de dssmlardade entre os padrões S= ( δ ( )), (onde δ ( ) representa a dstânca entre os padrões e ). Desea-se fazer o mapeamento φ : X Y do conunto de padrões de entrada X em um conunto de vetores de saída Y = y,..., y } defndo no espaço { 1 p n reduzdo R com n< m e y = ( y1, y,..., y n ), tal que a dstânca eucldana entre qualquer par de vetores β de saída y e y, denotado por d ( y, y β ), sea o mas próxmo possível à dssmlardade dos padrões de entrada e β, sto é, δ (, β ). Neste trabalho é consderada a matrz de dssmlardade S como uma matrz smétrca com valores δ (, β ) = δ ( β, ). 3. Solução do problema Na Fgura 1 é mostrado um dagrama lustratvo da confguração da solução do problema descrto. s duas redes neuras e B são dêntcas com arqutetura PMC e com uma topologa de três camadas (consderando a camada de entrada), cada PMC aceta um vetor de entrada (padrão), as saídas das PMC e PMC B são conectadas em paralelo a uma undade C a qual calcula a dstanca eucldana d (, β ). Quando os vetores de β entrada x, x são fornecdos, as redes produzem os β vetores de saída y, y nas suas camadas de saída, cada um com dmensão n. undade C calcula então a dstânca eucldana entre os dos vetores de saída, a qual é comprada com a dssmlardade deseada δ (, β ) (undade ) produzndo o snal de erro que é mnmzado na etapa de trenamento. s saídas de cada rede são as representações em baxa dmensão dos padrões e β. Fgura 1. Ilustração da solução MDS com duas redes PMC gêmeas, e B com topologa de três camadas. regra de aprendzado é dervada do método Backpropagaton.[9] e os pesos de conexão entre as camadas são austados de modo que vão aproxmando a dstanca obtda d (, β ) nas saídas das redes com a dstanca deseada δ (, β ) em cada par de padrões e β. O método de gradente descendente é adaptado para trenar as ambas redes. s redes e B são ncadas com a mesma confguração ncal de pesos, os quas são austados da mesma forma para prover o mesmo mapeamento (smétrco). função de atvação µ da camada oculta e da camada de saída é a função tangente hperbólca. função de erro calculada para dos padrões de entrada e β é dada por. 1 = (1) (, β ) ( δ (, β ) d(, β)) N β (, ) B d β y y = Y Y () = 1 O rro Quadrátco Médo (QM) relatvo a todos os p padrões de trenamento é: M 1 = p p, β β = 1 (, β ) 1 Fgura. Topologa das redes PMC. Na Fgura é mostrada a topologa para uma das redes, sendo a outra rede exatamente gual. No sucessvo deste texto é usada a letra para ndcar qualquer das duas redes ou B. Nesta topologa são dentfcadas as seguntes partes: - Camada de ntrada: Consttuída de m snas de entrada ( x 1, x,..., x m ) - Camada Neural scondda: Consttuída de N1 neurônos; o número de N1 é varado até obter o melhor resultado. - Camada Neural de Saída: Consttuída de N neurônos de saída ( y 1, y,..., y N ). Para os expermentos realzados neste trabalho foram usados 3 e neurônos, de acordo com o expermento. (3) - W 1 = { w1 } : Matrz de pesos de conexão entre a 1 ra e da camada da rede - W = { w } : Matrz de pesos de conexão entre a da e 3 ra camada da rede - I1 : Vetor de entradas ponderadas da camada escondda da rede. - I : Vetor de entradas ponderadas da camada de saída para a rede. - Y1 : Vetor de saídas da camada escondda na rede.

3 - Y : Vetor de saídas da camada de saída na rede. Os pesos da camada de saída W em as ambas redes são austados cada vez que é fornecdo um par de padrões de trenamento e β com dssmlardade δ (, β ). regra de atualzação dervada do método de gradente descendente é dada por (Ver nexo ): w ( t+ 1) = w ( t) +η * ( ρ * Y1 ) (4) Y ( ) Y (, ) d(, ) * ρ = δ β β * G`( I ) (5) d(, β ) onde η representa a taxa de aprendzagem. Para avalar o erro de aproxmação obtdo do método, além da função de erro quadrátco médo usado na etapa de trenamento (quação 3) foram usadas outras funções de Stress para verfcar a qualdade do mapeamento aprenddo pelas redes: - Kruskal Stress 1. Stress 1= ( ( ) d( ) ) d( ) δ (6) - Mean Relatve bsolute error d d MR (δ (, ) (, )) / (, ) = n - Root Relatve Mean-Squared error RRMS = ((δ ( ) d( )) / d( ) ) 4. Resultados computaconas e dscussões n (7) (8) Para avalar a capacdade de reconhecmento no mapeamento da rede foram testados dos bancos de dados artfcas QUDRDO e STRL e para avalar o método de redução dmensonal fo testado um conhecdo exemplo de percepção de cores apresentado em [9]. QUDRDO: ste banco de dados é composto por 4 pontos em dmensões os quas formam um quadrado (ver Fgura 3b). Os padrões de entrada das PMC são versões dstorcdas destes pontos como é mostrado na Fgura 4. s PMC foram trenadas com todas as combnações de pares entre os padrões de entrada e com dstâncas deseadas guas aos valores de dssmlardade orgnas. O obetvo então é fazer o mapeamento com as redes neuras para levar os pontos dstorcdos da Fgura 4b a uma dsposção em que a matrz de dstânca calculada se aproxme à matrz de dssmlardade orgnal. Foram testadas varas topologas de rede varando o número de neurônos da camada escondda e por cada topologa foram executados 10 trenamentos, obtendo-se o melhor deles (com respeto ao erro quadrátco médo). Para encontrar o número de neurônos adequados foram realzados expermentos ncrementando o número de neurônos na camada escondda e em cada expermento fo calculado o valor de Stress. Fgura 5 apresenta o Stress para os 3 crtéros em função do número de neurônos. Observa-se que nas topologas com 6, 9, 11 e 1 neurônos na camada escondda se apresentam os menores valores de Stress, sendo o menor entre eles o valor em 1 neurônos. Smlarmente, a Fgura 6 mostra o QM, onde também é observado que as topologas de 6, 9, 11 e 1 neurônos apresentam erros baxos. Fo tomada a topologa de 1 neurônos como a topologa ótma por ter apresentado os menores valores de Stress. Os parâmetros desta topologa são mostrados na Tabela 1 e os pontos resultantes obtdos com esta confguração são mostrados na Fgura 7, onde é observado o resultado da proxmdade com respeto aos pontos orgnas. dferença encontrada esta bascamente na rotação (Comparar Fgura 3b e 7b). Pontos Dm1 Dm Fgura 3: Pontos orgnas, Mapeamento dos pontos. Pontos dstorcdos (padrões) Dm1 Dm Fgura 4: Padrões de entrada (pontos dstorcdos), Mapeamento dos pontos dstorcdos ngressados à rede PMC. Stress Kruscal_Stress MR_Stress RRMS_Stress Número de neurônos da camada escondda Fgura 5: Stress vs. Número de neurônos. QM_Fnal Número de neurônos Fgura 6. QM vs. Número de neurônos.

4 Tabela 1: Topologa ótma com 1 neurônos na camada escondda Taxa de aprendzagem η = 0.1 Épocas de trenamento 0000 Neurônos na camada de entrada N = Neurônos na camada oculta N1 = 1 Neurônos na camada de saída N = QM Kruskal_stress MR_Stress RRMS_Stress Dm1 Dm Fgura 7: Matrz de pontos e, Mapeamento dos pontos obtdos com a rede PMC. STRL: ste banco de dados é composto por 8 pontos em dmensões os quas formam uma estrela (Fgura 8b). Os padrões de entrada das PMC são versões dstorcdas destes pontos no sentdo de rotação (Ver Fgura 9b). o gual que o obetvo do caso anteror se requer levar os pontos dstorcdos a uma dsposção na qual a matrz de dstânca calculada nos pontos resultantes se aproxme à matrz de dssmlardade. Dm1 Dm Fgura 8: Matrz de pontos orgnas. Mapeamento dos pontos. Dm1 Dm Fgura 9: Padrões de entrada (pontos dstorcdos) apresentados às redes PMC. Mapeamento de pontos dstorcdos apresentados à rede. Como no exemplo anteror, foram testadas varas topologas de rede varando o número de neurônos da camada escondda. Por cada topologa testada foram executados 10 trenamentos obtendo-se o melhor deles (com respeto ao erro quadrátco médo). Fgura 10 apresenta os valores das funções de Stress para cada topologa testada correspondentes ao melhor trenamento. Observa-se que com, 3 ou 4 neurônos na camada escondda os valores de Stress são mínmos, mas observando pelo erro quadrátco médo (Ver Fgura 11) fo vsto que a topologa com 6 neurônos na camada oculta possu o menor valor de erro, portanto fo escolhda esta topologa como a topologa ótma. Os parâmetros desta topologa são mostrados na Tabela e os pontos obtdos com esta confguração são mostrados na Fgura 1 onde pode ser observada a proxmdade com os pontos orgnas (rotados). Stress Kruscal_Stress MR_Stress RRMS_Stress Fgura 10: Stress vs. Neurônos na camada escondda. QM QM_Fnal Fgura 11: QM vs. Neurônos na camada escondda. Tabela : Topologa ótma com 6 neurônos na camada escondda Taxa de aprendzagem η = 0.1 Épocas de trenamento 0000 Neurônos na Camada de entrada N = Neurônos na Camada Oculta N1 = 6 Neurônos na Camada de Saída N = QM Kruskal_stress MR_Stress RRMS_Stress

5 Dm1 Dm Fgura 1: Pontos obtdos das PMC com topologa ótma. Mapeamento dos pontos obtdos com a rede PMC. TBL D CORS Com este exemplo fo testada a efcáca do método mplementado para redução dmensonal; aqu se tenta verfcar se a mplementação realzada neste trabalho obtém os mesmos resultados que os apresentados em kman [10] reduzndo a dmensonaldade desde 13 a dmensões. Na Tabela 5 é apresentada a matrz de dssmlardade coletada em um estudo de percepção de dados para 14 dferentes cores. Cada par de cores fo ulgado por 31 avaladores os quas davam uízos de smlardade. Incou-se em uma faxa do espetro de freqüêncas entre 434nm a 674nm, ou sea, de azulado-roxo, azul, verde, amarelo, ao vermelho. ssm para nossa rede os padrões de entrada corresponderão a 14 pontos cada um com 13 coordenadas, obtdas pelo procedmento MDS clássco [6]. O obetvo aqu é encontrar um mapeamento dos padrões de entrada em um conunto de pontos em um espaço D tal que a matrz de dstânca calculada nesses pontos se aproxme à matrz de dssmlardades deseada ( Ver Tabela 5). o gual que nos exemplos anterores, foram testadas varas topologas de rede varando o número de neurônos da camada escondda. Por cada topologa testada foram executados 6 trenamentos obtendo-se o melhor deles (com respeto ao erro quadrátco médo). Stress Kruscal_Stress MR_Stress RRMS_Stress Fgura 13: Stress vs. Neurônos na camada escondda. baxo. Os mesmos resultados observam-se no QM (Ver Fgura 14) donde a topologa de 4 neurônos apresenta o menor valor de stress e QM, mas não sendo muto dstante das outras topologas entre 3 e 9 neurônos. Tomando a topologa de 4 neurônos como a ótma, os seus parâmetros são mostrados na Tabela 4. QM QM_Fnal Fgura 14: QM vs. Neurônos na camada escondda. Tabela 4: Topologa ótma com 4 neurônos na camada escondda para o exemplo de cores Taxa de aprendzagem η = 0.01 Épocas de trenamento Precsão ε = 1.0exp-14 Neurônos na Camada de entrada N = 14 Neurônos na Camada Oculta N1 = 4 Neurônos na Camada de Saída N = Padrões P = 14 QM Kruskal_stress MR_Stress RRMS_Stress Tabela 5: Dssmlardades de cores com ranges entre 434 e 674 nm ,14 0,58 0,58 0,8 0,94 0,93 0,96 0,98 0,93 0,91 0,88 0,87 0,84 0,14 0 0,5 0,56 0,78 0,91 0,93 0,93 0,98 0,96 0,93 0,89 0,87 0,86 0,58 0,5 0 0,19 0,53 0,83 0,9 0,9 0,98 0,99 0,98 0,99 0,95 0,97 0,58 0,56 0,19 0 0,46 0,75 0,9 0,91 0,98 0,99 0,99 0,99 0,98 0,96 0,8 0,78 0,53 0,46 0 0,39 0,69 0,74 0,93 0,98 0,98 0,99 0,98 0,99 0,94 0,91 0,83 0,75 0,39 0 0,38 0,55 0,86 0,9 0,98 0,98 0,98 0,99 0,93 0,93 0,9 0,9 0,69 0,38 0 0,7 0,78 0,86 0,95 0,98 0,98 0,99 0,96 0,93 0,9 0,91 0,74 0,55 0,7 0 0,67 0,81 0,96 0,97 0,98 0,98 0,98 0,98 0,98 0,98 0,93 0,86 0,78 0,67 0 0,4 0,63 0,73 0,8 0,77 0,93 0,96 0,99 0,99 0,98 0,9 0,86 0,81 0,4 0 0,6 0,5 0,59 0,7 0,91 0,93 0,98 0,99 0,98 0,98 0,95 0,96 0,63 0,6 0 0,4 0,38 0,45 0,88 0,89 0,99 0,99 0,99 0,98 0,98 0,97 0,73 0,5 0,4 0 0,15 0,3 0,87 0,87 0,95 0,98 0,98 0,98 0,98 0,98 0,8 0,59 0,38 0,15 0 0,4 0,84 0,86 0,97 0,96 0,99 0,99 0,99 0,98 0,77 0,7 0,45 0,3 0,4 0 Fgura 15 apresenta o mapeamento resultante obtdo com o método proposto neste trabalho e a Tabela 6 apresenta as coordenadas ( dmensões) usadas para gerar este mapeamento. Fgura 13 apresenta os valores das funções de Stress para cada topologa testada correspondentes ao melhor trenamento. Observa-se que nas topologas com poucos neurônos (de 3 a 9) na camada oculta o valor de Stress é

6 5. Conclusão Fgura 15: Pontos obtdos pelas PMC com topologa ótma para dados de cores de kman [10]. Tabela 6: Matrz de coordenadas obtdas por PMC proposto neste trabalho para o mapeamento de cores. Cor Dm1 Dm Fazendo uma comparação vsual entre os resultados obtdos por PMC e os resultados MDS obtdos por kman [10] (Ver Fgura 15 e Fgura 16), pode ser observado que em ambos os mapeamentos estão bastante próxmos (obvamente desconsderando a rotação). matrz para o mapeamento obtda por kman e apresentada no nexo B. Fgura 16: Resultados MDS obtdos por kman [10]. De acordo aos testes realzados pode-se conclur que o método mplementado baseado em redes neuras artfcas PMC mostrou ser efcente na determnação de mapeamentos para redução de dmensões. vantagem adconal deste método é que uma vez trenado pode efetuar o mapeamento on-lne para padrões de entrada não apresentados na etapa de trenamento, ao contraro de outros métodos MDS que precsam realzar um recalculo de todos os dados em forma off-lne. É sugerda a realzação de um estudo comparatvo com outros métodos MDS exstentes para valdar o método. Também se sugere o uso de outras arquteturas de rede com a fnaldade de verfcar se é possível reduzr anda mas o erro e assm atngr uma maor precsão na extração de nformação relevante nos dados. Um ponto mportante fo a dfculdade na obtenção de bons aprendzados, devdo ao fato que o método de gradente descendente não garante pesos ótmos globas, pelo que é sugerdo para futuros trabalhos o estudo de outros métodos de aprendzagem. 6. Referêncas [1]. Naud, Neural and Statstcal Methods for the Vsualzaton of Multdmensonal Data. Ph. D. thess, Unv. of Mkolaa Kopernka Torunu, [] P. Demartnes and J. Hérault, Curvlnear component analyss: self-organzng neural network for nonlnear mappng of data sets, Proc. I Transacton on Neural Networks, vol. 8, pp , January [3] M.. Tppng, Topographc mappngs and feed-forward neural networks, PhD thess, The Unversty of ston n Brmngham, Feb [4] C. M. Bshop, M. Svensén, and C. K. I.Wllams, GTM: prncpled alternatve to the selforganzng map, techncal report, ston Unversty, Brmngham, Neural Computng Research Group, prl [5] J. F. M. Svensén, GTM: The generatve topographc mappng, Ph.D. thess, ston Unversty, prl [6] I. Borg and P. Groenen, Modern Multdmensonal Scalng: Theory and pplcatons. New York: Sprnger [7] R. L. Gorsuch, Factor nalyss, Hllsdale, NJ: Lawrence rlbaum. Org. ed [8] K. S. H. Yamada and S. Hashmoto, smlarty-based neural network for facal expresson analyss, Proc. Pattern Recognton Letters, vol. 8, Issue 9, pp , July 007. [9] S. Haykn, Neural Networks: Comprehensve Foundaton, Second dton, 1999, Prentce Hall. [10] G. kman, Dmensons of color vson, Proc. Journal of Psychology, vol. 38, pp , 1954.

7 ) NXO Dervação da regra de aprendzagem para os neurônos da camada de saída da rede Y I (1) = = * * W Y I W I () = Y1 W Y (3) = G`( I ) I B ( ) Y Y (4) = δ (, β ) d (, β ) * B Y (, β ) d B Substtundo (), (3) e (4) em (1): B Y ( ) Y (, ) d B (, ) * * G`( I )* Y1 W d B (, ) (5) = = δ β β β No qual: B Y ( ) Y (, ) d (, ) * (6) ρ = δ β B β * G`( I ) d B (, β ) uste ao gradente: W = η * =η * ρ * Y1 (7) W ( t+ 1) = W ( t) +η * ρ * Y1 (8) B) Pontos obtdos pelo método MDS clássco no exemplo de cores de kman [10] Cor Dm1 Dm Dm3 Dm4 Dm5 Dm6 Dm7 Dm8 Dm9 Dm10 Dm11 Dm1 Dm

MÉTODOS MULTIVARIADOS. Rodrigo A. Scarpel

MÉTODOS MULTIVARIADOS. Rodrigo A. Scarpel MÉTODOS MULTIVARIADOS Rodrgo A. Scarpel rodrgo@ta.br www.mec.ta.br/~rodrgo INTRODUÇÃO Semana Conteúdo Introdução aos métodos multvarados 1 Análse de componentes prncpas Aplcações de análse de componentes

Leia mais

4 Critérios para Avaliação dos Cenários

4 Critérios para Avaliação dos Cenários Crtéros para Avalação dos Cenáros É desejável que um modelo de geração de séres sntétcas preserve as prncpas característcas da sére hstórca. Isto quer dzer que a utldade de um modelo pode ser verfcada

Leia mais

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Classificadores Lineares. Luiz Eduardo S. Oliveira, Ph.D.

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Classificadores Lineares. Luiz Eduardo S. Oliveira, Ph.D. Unversdade Federal do Paraná Departamento de Informátca Reconhecmento de Padrões Classfcadores Lneares Luz Eduardo S. Olvera, Ph.D. http://lesolvera.net Objetvos Introduzr os o conceto de classfcação lnear.

Leia mais

Universidade Federal do Rio de Janeiro GRADUAÇÃO /2. Modelo MLP. MLP Multi Layers Perceptron

Universidade Federal do Rio de Janeiro GRADUAÇÃO /2. Modelo MLP. MLP Multi Layers Perceptron Unversdade Federal do Ro de Janero GRADUAÇÃO - 8/ Modelo MLP www.labc.nce.ufrj.br Antono G. Thomé thome@nce.ufrj.br Sala - 3 598-368 MLP Mult Laers Perceptron. Redes Neuras RN de múltplas camadas resolvem

Leia mais

3 Algoritmos propostos

3 Algoritmos propostos Algortmos propostos 3 Algortmos propostos Nesse trabalho foram desenvolvdos dos algortmos que permtem classfcar documentos em categoras de forma automátca, com trenamento feto por usuáros Tas algortmos

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 77 Intelgênca Artfcal Aula 8 Redes Neuras Edrle Soares de Lma Formas de Aprendzado Aprendzado Supervsonado Árvores de decsão. K-Nearest Neghbor (KNN). Support Vector Machnes (SVM).

Leia mais

Redes Neurais (Inteligência Artificial)

Redes Neurais (Inteligência Artificial) Redes Neuras (Intelgênca Artfcal) Aula 14 Redes Neuras Edrle Soares de Lma Formas de Aprendzado Aprendzado Supervsonado Árvores de Decsão. K-Nearest Neghbor (KNN). Support Vector Machnes

Leia mais

3 Redes Neurais Auto-Associativas

3 Redes Neurais Auto-Associativas 44 3 Redes Neuras Auto-Assocatvas 3.1. Neurôno Artfcal Redes neuras artfcas são estruturas compostas por dversas undades processadoras, chamadas de neurônos artfcas, que são nterlgados através de conexões,

Leia mais

Reconhecimento Estatístico de Padrões

Reconhecimento Estatístico de Padrões Reconhecmento Estatístco de Padrões X 3 O paradgma pode ser sumarzado da segunte forma: Cada padrão é representado por um vector de característcas x = x1 x2 x N (,,, ) x x1 x... x d 2 = X 1 X 2 Espaço

Leia mais

IMPLEMENTAÇÃO DO MÉTODO DE FATORAÇÃO DE INTEIROS CRIVO QUADRÁTICO

IMPLEMENTAÇÃO DO MÉTODO DE FATORAÇÃO DE INTEIROS CRIVO QUADRÁTICO IMPLEMENTAÇÃO DO MÉTODO DE FATORAÇÃO DE INTEIROS CRIVO QUADRÁTICO Alne de Paula Sanches 1 ; Adrana Betâna de Paula Molgora 1 Estudante do Curso de Cênca da Computação da UEMS, Undade Unverstára de Dourados;

Leia mais

Representação e Descrição de Regiões

Representação e Descrição de Regiões Depos de uma magem ter sdo segmentada em regões é necessáro representar e descrever cada regão para posteror processamento A escolha da representação de uma regão envolve a escolha dos elementos que são

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Plano de Aula Aprendzagem de Máquna Aprendzagem Baseada em Instâncas Alessandro L. Koerch Introdução Espaço Eucldano Aprendzagem Baseada em Instâncas (ou Modelos Baseados em Dstânca) Regra knn (k vznhos

Leia mais

5 Implementação Procedimento de segmentação

5 Implementação Procedimento de segmentação 5 Implementação O capítulo segunte apresenta uma batera de expermentos prátcos realzados com o objetvo de valdar o método proposto neste trabalho. O método envolve, contudo, alguns passos que podem ser

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendzagem de Máquna Aprendzado baseado em nstâncas Aprendzado não-paramétrco Quando as suposções fetas por métodos paramétrcos não são váldas para todo o espaço de entrada, provocando erros predtvos

Leia mais

Análise de influência

Análise de influência Análse de nfluênca Dzemos que uma observação é nfluente caso ela altere, de forma substancal, alguma propredade do modelo ajustado (como as estmatvas dos parâmetros, seus erros padrões, valores ajustados...).

Leia mais

RAD1507 Estatística Aplicada à Administração I Prof. Dr. Evandro Marcos Saidel Ribeiro

RAD1507 Estatística Aplicada à Administração I Prof. Dr. Evandro Marcos Saidel Ribeiro UNIVERIDADE DE ÃO PAULO FACULDADE DE ECONOMIA, ADMINITRAÇÃO E CONTABILIDADE DE RIBEIRÃO PRETO DEPARTAMENTO DE ADMINITRAÇÃO RAD1507 Estatístca Aplcada à Admnstração I Prof. Dr. Evandro Marcos adel Rbero

Leia mais

3 Método Numérico. 3.1 Discretização da Equação Diferencial

3 Método Numérico. 3.1 Discretização da Equação Diferencial 3 Método Numérco O presente capítulo apresenta a dscretação da equação dferencal para o campo de pressão e a ntegração numérca da expressão obtda anterormente para a Vscosdade Newtonana Equvalente possbltando

Leia mais

UNIDADE IV DELINEAMENTO INTEIRAMENTE CASUALIZADO (DIC)

UNIDADE IV DELINEAMENTO INTEIRAMENTE CASUALIZADO (DIC) UNDADE V DELNEAMENTO NTERAMENTE CASUALZADO (DC) CUABÁ, MT 015/ PROF.: RÔMULO MÔRA romulomora.webnode.com 1. NTRODUÇÃO Este delneamento apresenta como característca prncpal a necessdade de homogenedade

Leia mais

Capítulo 4. Multilayer Perceptrons

Capítulo 4. Multilayer Perceptrons Capítulo 4 Multlayer Perceptrons As redes Multlayer Perceptron (MLPs) têm sdo aplcadas com sucesso em uma varedade de áreas, desempenhando tarefas tas como: classfcação de padrões (reconhecmento), controle

Leia mais

7 - Distribuição de Freqüências

7 - Distribuição de Freqüências 7 - Dstrbução de Freqüêncas 7.1 Introdução Em mutas áreas há uma grande quantdade de nformações numércas que precsam ser dvulgadas de forma resumda. O método mas comum de resumr estes dados numércos consste

Leia mais

6 Modelo Proposto Introdução

6 Modelo Proposto Introdução 6 Modelo Proposto 6.1. Introdução Neste capítulo serão apresentados detalhes do modelo proposto nesta dssertação de mestrado, onde será utlzado um modelo híbrdo para se obter prevsão de carga curto prazo

Leia mais

CAPÍTULO IV PROPRIEDADES GEOMÉTRICAS DA SEÇÃO TRANSVERSAL

CAPÍTULO IV PROPRIEDADES GEOMÉTRICAS DA SEÇÃO TRANSVERSAL CPÍTULO IV PROPRIEDDES GEOMÉTRICS D SEÇÃO TRNSVERSL Propredades Geométrcas da Seção Transversal 4. Propredades Geométrcas da Seção Transversal 4.. Introdução O presente trabalho é desenvolvdo paralelamente

Leia mais

Figura 3: Diagrama de blocos do sistema de inferência da qualidade.

Figura 3: Diagrama de blocos do sistema de inferência da qualidade. 4 Solução Proposta A metodologa proposta nesta dssertação pode ser dvdda em quatro etapas complementares que estão representadas no dagrama de blocos na Fgura 3. Cada uma delas está descrta através do

Leia mais

Reconhecimento de Padrões

Reconhecimento de Padrões Capítulo 2 Reconhecmento de Padrões 2.1 O que é reconhecmento de padrões? Há duas maneras de se reconhecer e/ou classfcar um padrão [CONNEL, S. D. & JAIN, A. K. (2001)]: () classfcação supervsonada: o

Leia mais

3 A técnica de computação intensiva Bootstrap

3 A técnica de computação intensiva Bootstrap A técnca de computação ntensva ootstrap O termo ootstrap tem orgem na expressão de língua nglesa lft oneself by pullng hs/her bootstrap, ou seja, alguém levantar-se puxando seu própro cadarço de bota.

Leia mais

Figura 8.1: Distribuição uniforme de pontos em uma malha uni-dimensional. A notação empregada neste capítulo para avaliação da derivada de uma

Figura 8.1: Distribuição uniforme de pontos em uma malha uni-dimensional. A notação empregada neste capítulo para avaliação da derivada de uma Capítulo 8 Dferencação Numérca Quase todos os métodos numércos utlzados atualmente para obtenção de soluções de equações erencas ordnáras e parcas utlzam algum tpo de aproxmação para as dervadas contínuas

Leia mais

Introdução. Introdução. Introdução I - PERCEPTRON. Modelos de Neurônios LABIC. Neurônio:

Introdução. Introdução. Introdução I - PERCEPTRON. Modelos de Neurônios LABIC. Neurônio: Modelos de Neurônos Introdução Característcas Báscas Modelo de Neurôno Estrutura da Rede Neurôno: Cada neurôno é composto por: dendrtos: con de termnas de entrada corpo central Algortmo de Aprendzado axôno:

Leia mais

2 Redes Neurais Auto-Organizáveis

2 Redes Neurais Auto-Organizáveis 2 Redes Neuras Auto-Organzáves 2.1 Introdução Problemas de clusterng estão presentes nos mas varados contetos, como por eemplo: classfcação de padrões, mneração de dados e recuperação de nformações de

Leia mais

REDE NEURAL ARTMAP NEBULOSA PARA ANÁLISE DE ESTABILIDADE TRANSITÓRIA DE SISTEMAS DE ENERGIA ELÉTRICA

REDE NEURAL ARTMAP NEBULOSA PARA ANÁLISE DE ESTABILIDADE TRANSITÓRIA DE SISTEMAS DE ENERGIA ELÉTRICA REDE NEURAL ARTMAP NEBULOSA PARA ANÁLISE DE ESTABILIDADE TRANSITÓRIA DE SISTEMAS DE ENERGIA ELÉTRICA Sandra C. Marchor Carlos R. Mnuss Anna Dva P. Lotufo Unversdade Estadual Paulsta UNESP - Câmpus de Ilha

Leia mais

O MMD se baseia no sistema no sistema linearizado das equações de fluxo de potência, ou seja: Δ (4.1)

O MMD se baseia no sistema no sistema linearizado das equações de fluxo de potência, ou seja: Δ (4.1) 4 Método da Matrz D Neste capítulo será apresentada uma descrção do MMD [Prada, 99], [Prada, ]. Este método será usado para dentfcar casos de nstabldade de tensão causados pela perda de controlabldade.

Leia mais

Psicologia Conexionista Antonio Roque Aula 8 Modelos Conexionistas com tempo contínuo

Psicologia Conexionista Antonio Roque Aula 8 Modelos Conexionistas com tempo contínuo Modelos Conexonstas com tempo contínuo Mutos fenômenos de aprendzado assocatvo podem ser explcados por modelos em que o tempo é uma varável dscreta como nos casos vstos nas aulas anterores. Tas modelos

Leia mais

INCORPORAÇÃO DE RECORRÊNCIA EM ESTRUTURAS NEURAIS NEBULOSAS

INCORPORAÇÃO DE RECORRÊNCIA EM ESTRUTURAS NEURAIS NEBULOSAS INCORPORAÇÃO DE RECORRÊNCIA EM ESTRUTURAS NEURAIS NEBULOSAS Ivette Luna 1, Rosangela Balln 2, Fernando Gomde 3 1,3 Unversdade Estadual de Campnas Faculdade de Engenhara Elétrca e de Computação 13083-970

Leia mais

Aula Características dos sistemas de medição

Aula Características dos sistemas de medição Aula - Característcas dos sstemas de medção O comportamento funconal de um sstema de medção é descrto pelas suas característcas (parâmetros) operaconas e metrológcas. Aqu é defnda e analsada uma sére destes

Leia mais

Cap. IV Análise estatística de incertezas aleatórias

Cap. IV Análise estatística de incertezas aleatórias TLF 010/11 Cap. IV Análse estatístca de ncertezas aleatóras Capítulo IV Análse estatístca de ncertezas aleatóras 4.1. Méda 43 4.. Desvo padrão 44 4.3. Sgnfcado do desvo padrão 46 4.4. Desvo padrão da méda

Leia mais

2 Análise de Campos Modais em Guias de Onda Arbitrários

2 Análise de Campos Modais em Guias de Onda Arbitrários Análse de Campos Modas em Guas de Onda Arbtráros Neste capítulo serão analsados os campos modas em guas de onda de seção arbtrára. A seção transversal do gua é apromada por um polígono conveo descrto por

Leia mais

Associação entre duas variáveis quantitativas

Associação entre duas variáveis quantitativas Exemplo O departamento de RH de uma empresa deseja avalar a efcáca dos testes aplcados para a seleção de funconáros. Para tanto, fo sorteada uma amostra aleatóra de 50 funconáros que fazem parte da empresa

Leia mais

Identidade dos parâmetros de modelos segmentados

Identidade dos parâmetros de modelos segmentados Identdade dos parâmetros de modelos segmentados Dana Campos de Olvera Antono Polcarpo Souza Carnero Joel Augusto Munz Fabyano Fonseca e Slva 4 Introdução No Brasl, dentre os anmas de médo porte, os ovnos

Leia mais

2 Lógica Fuzzy Introdução

2 Lógica Fuzzy Introdução 2 Lógca Fuzzy 2.. Introdução A lógca fuzzy é uma extensão da lógca booleana, ntroduzda pelo Dr. Loft Zadeh da Unversdade da Calfórna / Berkeley no ano 965. Fo desenvolvda para expressar o conceto de verdade

Leia mais

Programa do Curso. Sistemas Inteligentes Aplicados. Análise e Seleção de Variáveis. Análise e Seleção de Variáveis. Carlos Hall

Programa do Curso. Sistemas Inteligentes Aplicados. Análise e Seleção de Variáveis. Análise e Seleção de Variáveis. Carlos Hall Sstemas Intelgentes Aplcados Carlos Hall Programa do Curso Lmpeza/Integração de Dados Transformação de Dados Dscretzação de Varáves Contínuas Transformação de Varáves Dscretas em Contínuas Transformação

Leia mais

Estudo comparativo entre redes neurais artificiais e análise de regressão múltipla na avaliação de bens, para pequenas amostragens

Estudo comparativo entre redes neurais artificiais e análise de regressão múltipla na avaliação de bens, para pequenas amostragens Estudo comparatvo entre redes neuras artfcas e análse de regressão múltpla na avalação de bens, para pequenas amostragens Elane Hasselmann Camardella Schavo (CEFET/RJ) elane@consultora-cca.com.br Márco

Leia mais

3 Metodologia de Avaliação da Relação entre o Custo Operacional e o Preço do Óleo

3 Metodologia de Avaliação da Relação entre o Custo Operacional e o Preço do Óleo 3 Metodologa de Avalação da Relação entre o Custo Operaconal e o Preço do Óleo Este capítulo tem como objetvo apresentar a metodologa que será empregada nesta pesqusa para avalar a dependênca entre duas

Leia mais

Os modelos de regressão paramétricos vistos anteriormente exigem que se suponha uma distribuição estatística para o tempo de sobrevivência.

Os modelos de regressão paramétricos vistos anteriormente exigem que se suponha uma distribuição estatística para o tempo de sobrevivência. MODELO DE REGRESSÃO DE COX Os modelos de regressão paramétrcos vstos anterormente exgem que se suponha uma dstrbução estatístca para o tempo de sobrevvênca. Contudo esta suposção, caso não sea adequada,

Leia mais

CONTROLADORES FUZZY. Um sistema de controle típico é representado pelo diagrama de blocos abaixo:

CONTROLADORES FUZZY. Um sistema de controle típico é representado pelo diagrama de blocos abaixo: CONTROLADORES FUZZY Um sstema de controle típco é representado pelo dagrama de blocos abaxo: entrada ou referênca - erro CONTROLADOR snal de controle PLANTA saída A entrada ou referênca expressa a saída

Leia mais

Adriana da Costa F. Chaves

Adriana da Costa F. Chaves Máquna de Vetor Suporte (SVM) para Regressão Adrana da Costa F. Chaves Conteúdo da apresentação Introdução Regressão Regressão Lnear Regressão não Lnear Conclusão 2 1 Introdução Sejam {(x,y )}, =1,...,,

Leia mais

DIFERENCIANDO SÉRIES TEMPORAIS CAÓTICAS DE ALEATÓRIAS ATRAVÉS DAS TREND STRIPS

DIFERENCIANDO SÉRIES TEMPORAIS CAÓTICAS DE ALEATÓRIAS ATRAVÉS DAS TREND STRIPS 177 DIFERENCIANDO SÉRIES TEMPORAIS CAÓTICAS DE ALEATÓRIAS ATRAVÉS DAS TREND STRIPS Antôno Carlos da Slva Flho Un-FACEF Introdução Trend Strps (TS) são uma nova técnca de análse da dnâmca de um sstema,

Leia mais

Realimentação negativa em ampliadores

Realimentação negativa em ampliadores Realmentação negatva em ampladores 1 Introdução necessdade de amplfcadores com ganho estável em undades repetdoras em lnhas telefôncas levou o Eng. Harold Black à cração da técnca denomnada realmentação

Leia mais

Ângulo de Inclinação (rad) [α min α max ] 1 a Camada [360,0 520,0] 2000 X:[-0,2065 0,2065] Velocidade da Onda P (m/s)

Ângulo de Inclinação (rad) [α min α max ] 1 a Camada [360,0 520,0] 2000 X:[-0,2065 0,2065] Velocidade da Onda P (m/s) 4 Estudo de Caso O estudo de caso, para avalar o método de estmação de parâmetros trdmensonal fo realzado em um modelo de referênca de três camadas, e foram realzados os seguntes passos: Descrção do modelo

Leia mais

EXERCÍCIO: VIA EXPRESSA CONTROLADA

EXERCÍCIO: VIA EXPRESSA CONTROLADA EXERCÍCIO: VIA EXPRESSA CONTROLADA Engenhara de Tráfego Consdere o segmento de va expressa esquematzado abaxo, que apresenta problemas de congestonamento no pco, e os dados a segur apresentados: Trechos

Leia mais

Análise da curva de crescimento de ovinos cruzados

Análise da curva de crescimento de ovinos cruzados Análse da curva de crescmento de ovnos cruzados Dana Campos de Olvera DEX, UFLA Antôno Polcarpo Souza Carnero DET, UFV Joel Augusto Munz DEX, UFLA Introdução Os ovnos, assm como grande maora dos anmas

Leia mais

Interceptação Visual de Alvos 3D usando Redes Neurais de Aprendizado Não Supervisionado

Interceptação Visual de Alvos 3D usando Redes Neurais de Aprendizado Não Supervisionado Proceedngs of V Brazlan Conference on Neural Networks - V Congresso Braslero de Redes Neuras pp. 888-999, uly 0-, 999 - TA, São osé dos Campos - SP - Brazl nterceptação Vsual de Alvos 3D usando Redes Neuras

Leia mais

ESTRATÉGIA DE ESTIMAÇÃO DE FLUXO ESTATÓRICO PARA MOTORES DE INDUÇÃO UTILIZANDO REDES NEURAIS

ESTRATÉGIA DE ESTIMAÇÃO DE FLUXO ESTATÓRICO PARA MOTORES DE INDUÇÃO UTILIZANDO REDES NEURAIS ESTRATÉGIA DE ESTIMAÇÃO DE FLUXO ESTATÓRICO PARA MOTORES DE INDUÇÃO UTILIZANDO REDES NEURAIS VICTOR P. B. AGUIAR, RICARDO S. T. PONTES, RODRIGO C. CIARLINI Laboratóro de Efcênca Energétca em Sstemas Motrzes-LAMOTRIZ,

Leia mais

Echo State Networks. Universidade de São Paulo São Carlos / SP. Instituto de Ciências Matemáticas e de Computação

Echo State Networks. Universidade de São Paulo São Carlos / SP. Instituto de Ciências Matemáticas e de Computação Unversdade de São Paulo São Carlos / SP Insttuto de Cêncas Matemátcas e de Computação Echo State Networks Sstemas Intelgentes Prof. Dra. Rosel A. Franceln Romero Fabríco Breve João R. Bertn Jr. Sumáro

Leia mais

Análise Dinâmica de uma Viga de Euler-Bernoulli Submetida a Impacto no Centro após Queda Livre Através do Método de Diferenças Finitas

Análise Dinâmica de uma Viga de Euler-Bernoulli Submetida a Impacto no Centro após Queda Livre Através do Método de Diferenças Finitas Proceedng Seres of the Brazlan Socety of Appled and Computatonal Mathematcs, Vol. 4, N., 06. Trabalho apresentado no DINCON, Natal - RN, 05. Proceedng Seres of the Brazlan Socety of Computatonal and Appled

Leia mais

4.1 Modelagem dos Resultados Considerando Sazonalização

4.1 Modelagem dos Resultados Considerando Sazonalização 30 4 METODOLOGIA 4.1 Modelagem dos Resultados Consderando Sazonalzação A sazonalzação da quantdade de energa assegurada versus a quantdade contratada unforme, em contratos de fornecmento de energa elétrca,

Leia mais

4 Discretização e Linearização

4 Discretização e Linearização 4 Dscretzação e Lnearzação Uma vez defndas as equações dferencas do problema, o passo segunte consste no processo de dscretzação e lnearzação das mesmas para que seja montado um sstema de equações algébrcas

Leia mais

2 Principio do Trabalho Virtual (PTV)

2 Principio do Trabalho Virtual (PTV) Prncpo do Trabalho rtual (PT)..Contnuo com mcroestrutura Na teora que leva em consderação a mcroestrutura do materal, cada partícula anda é representada por um ponto P, conforme Fgura. Porém suas propredades

Leia mais

ALGORITMO ADAPTATIVO BASEADO NO MÉTODO LEVENBERG- MARQUARDT PARA TREINAMENTO DE REDES NEURAIS PPS WAVELET: APROXIMAÇÃO DE FUNÇÕES - UM ESTUDO DE CASO

ALGORITMO ADAPTATIVO BASEADO NO MÉTODO LEVENBERG- MARQUARDT PARA TREINAMENTO DE REDES NEURAIS PPS WAVELET: APROXIMAÇÃO DE FUNÇÕES - UM ESTUDO DE CASO ALGORITO ADAPTATIVO BASEADO NO ÉTODO LEVENBERG- ARQUARDT PARA TREINAENTO DE REDES NEURAIS PPS WAVELET: APROXIAÇÃO DE FUNÇÕES - U ESTUDO DE CASO Rafael Alves Bonfm de Queroz IC João Fernando arar PQ, Unversdade

Leia mais

Ao se calcular a média, moda e mediana, temos: Quanto mais os dados variam, menos representativa é a média.

Ao se calcular a média, moda e mediana, temos: Quanto mais os dados variam, menos representativa é a média. Estatístca Dscplna de Estatístca 0/ Curso de Admnstração em Gestão Públca Profª. Me. Valéra Espíndola Lessa e-mal: lessavalera@gmal.com Meddas de Dspersão Indcam se os dados estão, ou não, prómos uns dos

Leia mais

UM ALGORITMO GENÉTICO PARA O PROBLEMA DE AGRUPAMENTO

UM ALGORITMO GENÉTICO PARA O PROBLEMA DE AGRUPAMENTO Pesqusa Operaconal na Socedade: Educação, Meo Ambente e Desenvolvmento 12 a 15/09/06 Goâna, GO UM ALGORITMO GENÉTICO PARA O PROBLEMA DE AGRUPAMENTO Flávo Marcelo Tavares Montenegro IBGE Insttuto Braslero

Leia mais

Ao se calcular a média, moda e mediana, temos: Quanto mais os dados variam, menos representativa é a média.

Ao se calcular a média, moda e mediana, temos: Quanto mais os dados variam, menos representativa é a média. Estatístca Dscplna de Estatístca 0/ Curso Superor de tecnólogo em Gestão Ambental Profª. Me. Valéra Espíndola Lessa e-mal: lessavalera@gmal.com Meddas de Dspersão Indcam se os dados estão, ou não, prómos

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS PERCEPTRON Característcas Báscas Modelo de Neurôno Estrutura da Rede Algortmo de Aprendzado CARACTERISTICAS BASICAS - Regra de propagação net - Função de atvação: Degrau = x w + - Topologa: uma únca camada

Leia mais

Classificação de Padrões

Classificação de Padrões Classfcação de Padrões Introdução Classfcadores Paramétrcos Classfcadores Sem-paramétrcos Redução da Dmensonaldade Teste de Sgnfcânca 6.345 Sstema de Reconhecmento de Voz Teora Acústca da Produção de Voz

Leia mais

REGRESSÃO NÃO LINEAR 27/06/2017

REGRESSÃO NÃO LINEAR 27/06/2017 7/06/07 REGRESSÃO NÃO LINEAR CUIABÁ, MT 07/ Os modelos de regressão não lnear dferencam-se dos modelos lneares, tanto smples como múltplos, pelo fato de suas varáves ndependentes não estarem separados

Leia mais

RISCO. Investimento inicial $ $ Taxa de retorno anual Pessimista 13% 7% Mais provável 15% 15% Otimista 17% 23% Faixa 4% 16%

RISCO. Investimento inicial $ $ Taxa de retorno anual Pessimista 13% 7% Mais provável 15% 15% Otimista 17% 23% Faixa 4% 16% Análse de Rsco 1 RISCO Rsco possbldade de perda. Quanto maor a possbldade, maor o rsco. Exemplo: Empresa X va receber $ 1.000 de uros em 30 das com títulos do governo. A empresa Y pode receber entre $

Leia mais

DELINEAMENTOS EXPERIMENTAIS

DELINEAMENTOS EXPERIMENTAIS SUMÁRIO 1 Delneamentos Expermentas 2 1.1 Delneamento Interamente Casualzado..................... 2 1.2 Delneamento Blocos Casualzados (DBC).................... 3 1.3 Delneamento Quadrado Latno (DQL)......................

Leia mais

UMA VALIDAÇÃO MATEMÁTICA PARA UM ALGORITMO QUE SIMULA MISTURAS DE DISTRIBUIÇÕES

UMA VALIDAÇÃO MATEMÁTICA PARA UM ALGORITMO QUE SIMULA MISTURAS DE DISTRIBUIÇÕES UMA VALIDAÇÃO MATEMÁTICA PARA UM ALGORITMO QUE SIMULA MISTURAS DE DISTRIBUIÇÕES Ana Paula Coelho MADEIRA Lucas Montero CHAVES Devanl Jaques de SOUZA Resumo: Uma valdação matemátca, utlzando o conceto de

Leia mais

3 Subtração de Fundo Segmentação por Subtração de Fundo

3 Subtração de Fundo Segmentação por Subtração de Fundo 3 Subtração de Fundo Este capítulo apresenta um estudo sobre algortmos para a detecção de objetos em movmento em uma cena com fundo estátco. Normalmente, estas cenas estão sob a nfluênca de mudanças na

Leia mais

Radiação Térmica Processos, Propriedades e Troca de Radiação entre Superfícies (Parte 2)

Radiação Térmica Processos, Propriedades e Troca de Radiação entre Superfícies (Parte 2) Radação Térmca Processos, Propredades e Troca de Radação entre Superfíces (Parte ) Obetvo: calcular a troca por radação entre duas ou mas superfíces. Essa troca depende das geometras e orentações das superfíces,

Leia mais

MODELOS DE REGRESSÃO PARAMÉTRICOS

MODELOS DE REGRESSÃO PARAMÉTRICOS MODELOS DE REGRESSÃO PARAMÉTRICOS Às vezes é de nteresse nclur na análse, característcas dos ndvíduos que podem estar relaconadas com o tempo de vda. Estudo de nsufcênca renal: verfcar qual o efeto da

Leia mais

XX SNPTEE SEMINÁRIO NACIONAL DE PRODUÇÃO E TRANSMISSÃO DE ENERGIA ELÉTRICA

XX SNPTEE SEMINÁRIO NACIONAL DE PRODUÇÃO E TRANSMISSÃO DE ENERGIA ELÉTRICA XX SNPTEE SEMINÁRIO NACIONAL DE PRODUÇÃO E TRANSMISSÃO DE ENERGIA ELÉTRICA 22 a 25 Novembro de 2009 Recfe - PE GRUPO IV GRUPO DE ESTUDO DE ANÁLISE E TÉCNICAS DE SISTEMAS DE POTÊNCIA CA E CC - GAT DESENVOLVIMENTO

Leia mais

REDES NEURAIS NEBULOSAS PARA PREVISÃO DE VAZÕES MÉDIAS MENSAIS

REDES NEURAIS NEBULOSAS PARA PREVISÃO DE VAZÕES MÉDIAS MENSAIS GOP/010 21 a 26 de Outubro de 2001 Campnas - São Paulo - Brasl GRUPO IX GRUPO DE ESTUDOS DE OPERAÇÕES DE SISTEMAS ELÉTRICOS REDES NEURAIS NEBULOSAS PARA PREVISÃO DE VAZÕES MÉDIAS MENSAIS Rosângela Balln

Leia mais

Identificação de curvas de carga diária típicas com uso de Mapa de Kohonen e Fuzzy C-Means

Identificação de curvas de carga diária típicas com uso de Mapa de Kohonen e Fuzzy C-Means Identfcação de curvas de carga dára típcas com uso de Mapa de Kohonen e Fuzzy C-Means Nelson R. de Albuquerque, Douglas A. A. de Faras Pontfíca Unversdade Católca do Ro de Janero Departamento de Engenhara

Leia mais

Regressão Múltipla. Parte I: Modelo Geral e Estimação

Regressão Múltipla. Parte I: Modelo Geral e Estimação Regressão Múltpla Parte I: Modelo Geral e Estmação Regressão lnear múltpla Exemplos: Num estudo sobre a produtvdade de trabalhadores ( em aeronave, navos) o pesqusador deseja controlar o número desses

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Plano de Aula Aprendzagem de Máquna Aprendzagem Não Supervsonada Alessandro L. Koerch Aprendzagem não supervsonada Algortmos de agrupamento (Clusterng) Seqüencas Herárqucos Baseados na otmzação de funções

Leia mais

2 Incerteza de medição

2 Incerteza de medição 2 Incerteza de medção Toda medção envolve ensaos, ajustes, condconamentos e a observação de ndcações em um nstrumento. Este conhecmento é utlzado para obter o valor de uma grandeza (mensurando) a partr

Leia mais

3.6. Análise descritiva com dados agrupados Dados agrupados com variáveis discretas

3.6. Análise descritiva com dados agrupados Dados agrupados com variáveis discretas 3.6. Análse descrtva com dados agrupados Em algumas stuações, os dados podem ser apresentados dretamente nas tabelas de frequêncas. Netas stuações devemos utlzar estratégas específcas para obter as meddas

Leia mais

5 Formulação para Problemas de Potencial

5 Formulação para Problemas de Potencial 48 Formulação para Problemas de Potencal O prncpal objetvo do presente capítulo é valdar a função de tensão do tpo Westergaard obtda para uma trnca com abertura polnomal (como mostrado na Fgura 9a) quando

Leia mais

3 Aproximador de Função para Simulador de Reservatório Petrolífero

3 Aproximador de Função para Simulador de Reservatório Petrolífero Aproxmador de Função para Smulador de Reservatóro Petrolífero 37 3 Aproxmador de Função para Smulador de Reservatóro Petrolífero 3.1. Introdução O desenvolvmento de um campo petrolífero pode ser entenddo

Leia mais

Introdução às Medidas em Física a Aula

Introdução às Medidas em Física a Aula Introdução às Meddas em Físca 4300152 8 a Aula Objetvos: Experênca Curvas Característcas Meddas de grandezas elétrcas: Estudar curvas característcas de elementos resstvos Utlzação de um multímetro Influênca

Leia mais

DEFINIÇÃO - MODELO LINEAR GENERALIZADO

DEFINIÇÃO - MODELO LINEAR GENERALIZADO DEFINIÇÃO - MODELO LINEAR GENERALIZADO 1 Um modelo lnear generalzado é defndo pelos seguntes três componentes: Componente aleatóro; Componente sstemátco; Função de lgação; Componente aleatóro: Um conjunto

Leia mais

Reconhecimento Automático de Modulação Digital de Sinais de Comunicações

Reconhecimento Automático de Modulação Digital de Sinais de Comunicações Reconhecmento Automátco de Modulação Dgtal de Snas de Comuncações Marcelo Corrêa Horewcz, Caro Lúco ascmento Jr. e Waldecr João Perrella Insttuto Tecnológco de Aeronáutca Praça Marechal Eduardo Gomes,

Leia mais

3 Elementos de modelagem para o problema de controle de potência

3 Elementos de modelagem para o problema de controle de potência 3 Elementos de modelagem para o problema de controle de potênca Neste trabalho assume-se que a rede de comuncações é composta por uma coleção de enlaces consttuídos por um par de undades-rádo ndvdualmente

Leia mais

Brazilian Journal of Biosystems Engineering v. 11(1): 01-17, 2017

Brazilian Journal of Biosystems Engineering v. 11(1): 01-17, 2017 AVALIAÇÃO DO MODELO DE REGRESSÃO LINEAR MÚLTIPLA E REDES NEURAIS ARTIFICIAIS NA PREVISÃO DO GANHO DE MASSA EM ANIMAIS M. L. M. Lopes, F. R. Chavarette *, A. M. Coss UNESP - Unv. Estadual Paulsta, Faculdade

Leia mais

Learning and Nonlinear Models Revista da Sociedade Brasileira de Redes Neurais (SBRN), Vol. 6, No. 2, pp , 2008

Learning and Nonlinear Models Revista da Sociedade Brasileira de Redes Neurais (SBRN), Vol. 6, No. 2, pp , 2008 REDES NEURAIS ARTIFICIAIS COM FUNÇÕES DE ATIVAÇÃO COMPLEMENTO LOG- LOG E PROBIT PARA APROXIMAR FUNÇÕES NA PRESENÇA DE OBSERVAÇÕES EXTREMAS Gecynalda S. da S. Gomes e Teresa B. Ludermr Centro de Informátca,

Leia mais

REDES NEURAIS NEBULOSAS REGULARIZADAS PARA PROBLEMAS DE CLASSIFICAÇÃO PAULO VITOR DE CAMPOS SOUZA 1, ANDRE PAIM LEMOS 1.

REDES NEURAIS NEBULOSAS REGULARIZADAS PARA PROBLEMAS DE CLASSIFICAÇÃO PAULO VITOR DE CAMPOS SOUZA 1, ANDRE PAIM LEMOS 1. REDES NEURAIS NEBULOSAS REGULARIZADAS PARA PROBLEMAS DE CLASSIFICAÇÃO PAULO VITOR DE CAMPOS SOUZA 1, ANDRE PAIM LEMOS 1. 1. Programa de Pós Graduação em Engenhara Elétrca, Unversdade Federal de Mnas Geras

Leia mais

Rede de Hopfield. Rede de camada única com realimentação x n x 2 x 1 w 1n. w n2. w n1 w 2n w 21. w 12

Rede de Hopfield. Rede de camada única com realimentação x n x 2 x 1 w 1n. w n2. w n1 w 2n w 21. w 12 Rede de Hopfeld Rede de camada únca com realmentação x n x 2 x n n2 2 n 2n 2 - b - - n b 2 b n 2 Memóra (auto-assocata) assocata (terata) ou memóra de conteúdo endereçáel não lnear Cada undade lga com

Leia mais

2 Agregação Dinâmica de Modelos de Turbinas e Reguladores de Velocidade: Teoria

2 Agregação Dinâmica de Modelos de Turbinas e Reguladores de Velocidade: Teoria Agregação Dnâmca de Modelos de urbnas e Reguladores de elocdade: eora. Introdução O objetvo da agregação dnâmca de turbnas e reguladores de velocdade é a obtenção dos parâmetros do modelo equvalente, dados

Leia mais

Capítulo 2. Modelos de Regressão

Capítulo 2. Modelos de Regressão Capítulo 2 Modelos de regressão 39 Capítulo 2 Modelos de Regressão Objetvos do Capítulo Todos os modelos são errados, mas alguns são útes George E P Box Algumas vezes fcamos assustados quando vemos engenheros

Leia mais

Algarismos Significativos Propagação de Erros ou Desvios

Algarismos Significativos Propagação de Erros ou Desvios Algarsmos Sgnfcatvos Propagação de Erros ou Desvos L1 = 1,35 cm; L = 1,3 cm; L3 = 1,30 cm L4 = 1,4 cm; L5 = 1,7 cm. Qual destas meddas está correta? Qual apresenta algarsmos com sgnfcado? O nstrumento

Leia mais

Prof. Lorí Viali, Dr.

Prof. Lorí Viali, Dr. Prof. Lorí Val, Dr. val@mat.ufrgs.br http://www.mat.ufrgs.br/~val/ É o grau de assocação entre duas ou mas varáves. Pode ser: correlaconal ou expermental. Prof. Lorí Val, Dr. UFRG Insttuto de Matemátca

Leia mais

7 Tratamento dos Dados

7 Tratamento dos Dados 7 Tratamento dos Dados 7.. Coefcentes de Troca de Calor O úmero de usselt local é dado por h( r )d u ( r ) (7-) k onde h(r), o coefcente local de troca de calor é h( r ) q''- perdas T q''- perdas (T( r

Leia mais

Curso de extensão, MMQ IFUSP, fevereiro/2014. Alguns exercício básicos

Curso de extensão, MMQ IFUSP, fevereiro/2014. Alguns exercício básicos Curso de extensão, MMQ IFUSP, feverero/4 Alguns exercíco báscos I Exercícos (MMQ) Uma grandeza cujo valor verdadero x é desconhecdo, fo medda três vezes, com procedmentos expermentas dêntcos e, portanto,

Leia mais

4 Análise de confiabilidade de estruturas

4 Análise de confiabilidade de estruturas 4 Análse de confabldade de estruturas Nos prmórdos da engenhara cvl, o desconhecmento técnco-centífco conduza a proetos excessvamente seguros, mas em contrapartda de custo muto elevado. Hoe em da, o progresso

Leia mais

Desenvolvimento de software de simulação Monte Carlo para auxiliar no estudo da propagação de doenças infecciosas

Desenvolvimento de software de simulação Monte Carlo para auxiliar no estudo da propagação de doenças infecciosas Desenvolvmento de software de smulação Monte Carlo para auxlar no estudo da propagação de doenças nfeccosas João Batsta dos Santos-Flho 1, Tatana Santos de Araujo Batsta 2, José Carlos Rodrgues Olvera

Leia mais

REDES NEURAIS ARTIFICIAIS PARA A CLASSIFICAÇÃO DE SONS VOCÁLICOS

REDES NEURAIS ARTIFICIAIS PARA A CLASSIFICAÇÃO DE SONS VOCÁLICOS REDES EURIS RTIFICIIS R CLSSIFICÇÃO DE SOS VOCÁLICOS lexandre de Souza Brandão Unversdade Federal Flumnense GMEC rograma de ós-graduação em Engenhara Mecânca Rua asso da átra, 56-2420-240 - São Domngos

Leia mais

Gráficos de Controle para Processos Autocorrelacionados

Gráficos de Controle para Processos Autocorrelacionados Gráfcos de Controle para Processos Autocorrelaconados Gráfco de controle de Shewhart: observações ndependentes e normalmente dstrbuídas. Shewhart ao crar os gráfcos de controle não exgu que os dados fossem

Leia mais

3 AGRUPAMENTO E CLASSIFICAÇÃO POR TÉCNICAS INTELIGENTES

3 AGRUPAMENTO E CLASSIFICAÇÃO POR TÉCNICAS INTELIGENTES 36 3 AGRUPAMENTO E CLASSIFICAÇÃO POR TÉCNICAS INTELIGENTES 3.1 INTRODUÇÃO Nas seções seguntes (3.2 e 3.3) são ntroduzdos os modelos de categorzação e Neuro-Fuzzy que são a base dos módulos do Sstema de

Leia mais