Redução de Dimensões Baseada em Redes Neurais Perceptron Multicamada
|
|
- Manoela Candal Sá
- 7 Há anos
- Visualizações:
Transcrição
1 Redução de Dmensões Baseada em Redes Neuras Perceptron Multcamada Soledad spezúa Llerena, Carlos Das Macel scola de ngenhara de São Carlos Unversdade de São Paulo, Brasl. Resumo Neste trabalho, é apresentada uma alternatva ao clássco método estatístco Multdmensonal Scalng (MDS) para reduzr dmensonaldade de dados multvarados. alternatva proposta usa duas redes neuras gêmeas com arqutetura Perceptron Multcamada (PMC) conectadas em paralelo, com o fm de alcançar o mapeamento dos dados de um espaço de alta dmensonaldade para outro espaço de baxa dmensonaldade (3-D). ste modelo aprende a partr de um conunto de vetores de característcas de entrada e saídas deseadas em forma de matrz de dstânca ou dssmlardade entre pares de dados. O modelo fo testado em dados sntétcos e em dados de um conhecdo exemplo de mapeamento de cores, obtendose resultados acetáves. Fo observado que nclusve com uma medda destorcda dos vetores de entrada a rede neural proposta consegue encontrar uma boa representação num espaço baxo dmensonal. Palavras Chave: Perceptron Multcamada, Multdmensonal Scalng. 1. Introdução Com o contnuo ncremento do poder computaconal e a tecnologa de armazenamento atual, é possível coletar, analsar e armazenar grandes quantdades de dados. s técncas de redução dmensonal consttuem uma ferramenta mportante para os usuáros, no processo de extração e compressão de nformação de bancos de dados com grandes quantdades de regstros e atrbutos. Mutos métodos têm sdo propostos para tratar a redução de dmensonaldade de dados multvarados. Por exemplo, têm-se técncas estatístcas como análse de componentes prncpas (PC) e escalonamento multdmensonal (MDS) [6]; técncas de ntelgênca artfcal baseadas em redes neuras [1] como mapas auto-organzados (SOM-maps), redes uto-assocatvas FeedForward (FN), as quas realzam a redução dmensonal medante a extração da atvdade dos neurônos desde a camada nterna, Curvlnear Components nalyss (CC) [] que fo proposta como uma melhora aos SOM-maps, NeuroScale [3] que é uma FN modfcada para ncorporar nformação subetva assocada. Posterormente se propuseram outras técncas como Generatve Topographc Mappng (GTM) [4] [5] que é um modelo probablístco que tem sdo usado como uma alternatva aos SOM-maps para sobrepor as prncpas desvantagens encontradas nesse modelo. m técncas como MDS o número de dmensões é determnado de uma forma semelhante àquela utlzada na análse fatoral [7], com o erro de aproxmação (stress) desempenhando o papel da varânca explcada. À medda que se aumenta o número de dmensões, os dados representam melhor a matrz de dstânca deseada e o valor de stress dmnu. dsposção dos dados (mapa) pode ser alcançada por város métodos; prmero é necessáro que os dados multvarados seam transformados em meddas de proxmdade (matrz de dstânca) usando alguma métrca de dstânca para logo se encontrar a dsposção de pontos num espaço de coordenadas reduzdo medante o uso de uma técnca de redução dmensonal. Neste trabalho é apresentado um método para realzar redução dmensonal com redes neuras artfcas, baseado no método proposto por Ken Suzuk [8] para mapeamento de faces. O método desenvolvdo usa um arrano de duas redes neuras com arqutetura Perceptron Multcamada (PMC) conectadas em paralelo, as quas aprendem o mapeamento não lnear, entre os vetores de característcas de entrada (com alta dmensonaldade) e a representação dos dados em baxa dmensão, tendo como snal de aprendzagem a matrz de dssmlardade deseada. O trenamento da rede é baseado no algortmo Backpropagaton com a consderação de que o snal de erro para o trenamento é obtdo a partr da dferença entre a dstânca eucldana calculada nas saídas das redes e a dssmlardade deseada. Depos do trenamento, novos dados podem ser apresentados e avalados, aprovetando a capacdade de generalzação da rede. ste trabalho está organzado da segunte forma, a parte apresenta uma defnção de nosso problema, a parte 3 segue com a solução do problema com redes neuras, a parte 4 mostra os resultados computaconas e dscussões para dos bancos de dados sntétcos e um conhecdo banco de dados para percepção de cores; fnalmente na parte 5 são apresentadas ás conclusões.. Defnção do problema Formalmente o problema pode ser defndo como: dado um conunto de p vetores de característcas de entrada X = { x 1,..., x p }, defndos em um espaço m - dmensonal m R, onde um padrão é representado *O presente trabalho fo auxlado pela CPS. genca de Governo Braslero para o desenvolvmento de recursos humanos.
2 ( 1 x m pelo vetor x = x, x,..., ). Dada também uma matrz de dssmlardade entre os padrões S= ( δ ( )), (onde δ ( ) representa a dstânca entre os padrões e ). Desea-se fazer o mapeamento φ : X Y do conunto de padrões de entrada X em um conunto de vetores de saída Y = y,..., y } defndo no espaço { 1 p n reduzdo R com n< m e y = ( y1, y,..., y n ), tal que a dstânca eucldana entre qualquer par de vetores β de saída y e y, denotado por d ( y, y β ), sea o mas próxmo possível à dssmlardade dos padrões de entrada e β, sto é, δ (, β ). Neste trabalho é consderada a matrz de dssmlardade S como uma matrz smétrca com valores δ (, β ) = δ ( β, ). 3. Solução do problema Na Fgura 1 é mostrado um dagrama lustratvo da confguração da solução do problema descrto. s duas redes neuras e B são dêntcas com arqutetura PMC e com uma topologa de três camadas (consderando a camada de entrada), cada PMC aceta um vetor de entrada (padrão), as saídas das PMC e PMC B são conectadas em paralelo a uma undade C a qual calcula a dstanca eucldana d (, β ). Quando os vetores de β entrada x, x são fornecdos, as redes produzem os β vetores de saída y, y nas suas camadas de saída, cada um com dmensão n. undade C calcula então a dstânca eucldana entre os dos vetores de saída, a qual é comprada com a dssmlardade deseada δ (, β ) (undade ) produzndo o snal de erro que é mnmzado na etapa de trenamento. s saídas de cada rede são as representações em baxa dmensão dos padrões e β. Fgura 1. Ilustração da solução MDS com duas redes PMC gêmeas, e B com topologa de três camadas. regra de aprendzado é dervada do método Backpropagaton.[9] e os pesos de conexão entre as camadas são austados de modo que vão aproxmando a dstanca obtda d (, β ) nas saídas das redes com a dstanca deseada δ (, β ) em cada par de padrões e β. O método de gradente descendente é adaptado para trenar as ambas redes. s redes e B são ncadas com a mesma confguração ncal de pesos, os quas são austados da mesma forma para prover o mesmo mapeamento (smétrco). função de atvação µ da camada oculta e da camada de saída é a função tangente hperbólca. função de erro calculada para dos padrões de entrada e β é dada por. 1 = (1) (, β ) ( δ (, β ) d(, β)) N β (, ) B d β y y = Y Y () = 1 O rro Quadrátco Médo (QM) relatvo a todos os p padrões de trenamento é: M 1 = p p, β β = 1 (, β ) 1 Fgura. Topologa das redes PMC. Na Fgura é mostrada a topologa para uma das redes, sendo a outra rede exatamente gual. No sucessvo deste texto é usada a letra para ndcar qualquer das duas redes ou B. Nesta topologa são dentfcadas as seguntes partes: - Camada de ntrada: Consttuída de m snas de entrada ( x 1, x,..., x m ) - Camada Neural scondda: Consttuída de N1 neurônos; o número de N1 é varado até obter o melhor resultado. - Camada Neural de Saída: Consttuída de N neurônos de saída ( y 1, y,..., y N ). Para os expermentos realzados neste trabalho foram usados 3 e neurônos, de acordo com o expermento. (3) - W 1 = { w1 } : Matrz de pesos de conexão entre a 1 ra e da camada da rede - W = { w } : Matrz de pesos de conexão entre a da e 3 ra camada da rede - I1 : Vetor de entradas ponderadas da camada escondda da rede. - I : Vetor de entradas ponderadas da camada de saída para a rede. - Y1 : Vetor de saídas da camada escondda na rede.
3 - Y : Vetor de saídas da camada de saída na rede. Os pesos da camada de saída W em as ambas redes são austados cada vez que é fornecdo um par de padrões de trenamento e β com dssmlardade δ (, β ). regra de atualzação dervada do método de gradente descendente é dada por (Ver nexo ): w ( t+ 1) = w ( t) +η * ( ρ * Y1 ) (4) Y ( ) Y (, ) d(, ) * ρ = δ β β * G`( I ) (5) d(, β ) onde η representa a taxa de aprendzagem. Para avalar o erro de aproxmação obtdo do método, além da função de erro quadrátco médo usado na etapa de trenamento (quação 3) foram usadas outras funções de Stress para verfcar a qualdade do mapeamento aprenddo pelas redes: - Kruskal Stress 1. Stress 1= ( ( ) d( ) ) d( ) δ (6) - Mean Relatve bsolute error d d MR (δ (, ) (, )) / (, ) = n - Root Relatve Mean-Squared error RRMS = ((δ ( ) d( )) / d( ) ) 4. Resultados computaconas e dscussões n (7) (8) Para avalar a capacdade de reconhecmento no mapeamento da rede foram testados dos bancos de dados artfcas QUDRDO e STRL e para avalar o método de redução dmensonal fo testado um conhecdo exemplo de percepção de cores apresentado em [9]. QUDRDO: ste banco de dados é composto por 4 pontos em dmensões os quas formam um quadrado (ver Fgura 3b). Os padrões de entrada das PMC são versões dstorcdas destes pontos como é mostrado na Fgura 4. s PMC foram trenadas com todas as combnações de pares entre os padrões de entrada e com dstâncas deseadas guas aos valores de dssmlardade orgnas. O obetvo então é fazer o mapeamento com as redes neuras para levar os pontos dstorcdos da Fgura 4b a uma dsposção em que a matrz de dstânca calculada se aproxme à matrz de dssmlardade orgnal. Foram testadas varas topologas de rede varando o número de neurônos da camada escondda e por cada topologa foram executados 10 trenamentos, obtendo-se o melhor deles (com respeto ao erro quadrátco médo). Para encontrar o número de neurônos adequados foram realzados expermentos ncrementando o número de neurônos na camada escondda e em cada expermento fo calculado o valor de Stress. Fgura 5 apresenta o Stress para os 3 crtéros em função do número de neurônos. Observa-se que nas topologas com 6, 9, 11 e 1 neurônos na camada escondda se apresentam os menores valores de Stress, sendo o menor entre eles o valor em 1 neurônos. Smlarmente, a Fgura 6 mostra o QM, onde também é observado que as topologas de 6, 9, 11 e 1 neurônos apresentam erros baxos. Fo tomada a topologa de 1 neurônos como a topologa ótma por ter apresentado os menores valores de Stress. Os parâmetros desta topologa são mostrados na Tabela 1 e os pontos resultantes obtdos com esta confguração são mostrados na Fgura 7, onde é observado o resultado da proxmdade com respeto aos pontos orgnas. dferença encontrada esta bascamente na rotação (Comparar Fgura 3b e 7b). Pontos Dm1 Dm Fgura 3: Pontos orgnas, Mapeamento dos pontos. Pontos dstorcdos (padrões) Dm1 Dm Fgura 4: Padrões de entrada (pontos dstorcdos), Mapeamento dos pontos dstorcdos ngressados à rede PMC. Stress Kruscal_Stress MR_Stress RRMS_Stress Número de neurônos da camada escondda Fgura 5: Stress vs. Número de neurônos. QM_Fnal Número de neurônos Fgura 6. QM vs. Número de neurônos.
4 Tabela 1: Topologa ótma com 1 neurônos na camada escondda Taxa de aprendzagem η = 0.1 Épocas de trenamento 0000 Neurônos na camada de entrada N = Neurônos na camada oculta N1 = 1 Neurônos na camada de saída N = QM Kruskal_stress MR_Stress RRMS_Stress Dm1 Dm Fgura 7: Matrz de pontos e, Mapeamento dos pontos obtdos com a rede PMC. STRL: ste banco de dados é composto por 8 pontos em dmensões os quas formam uma estrela (Fgura 8b). Os padrões de entrada das PMC são versões dstorcdas destes pontos no sentdo de rotação (Ver Fgura 9b). o gual que o obetvo do caso anteror se requer levar os pontos dstorcdos a uma dsposção na qual a matrz de dstânca calculada nos pontos resultantes se aproxme à matrz de dssmlardade. Dm1 Dm Fgura 8: Matrz de pontos orgnas. Mapeamento dos pontos. Dm1 Dm Fgura 9: Padrões de entrada (pontos dstorcdos) apresentados às redes PMC. Mapeamento de pontos dstorcdos apresentados à rede. Como no exemplo anteror, foram testadas varas topologas de rede varando o número de neurônos da camada escondda. Por cada topologa testada foram executados 10 trenamentos obtendo-se o melhor deles (com respeto ao erro quadrátco médo). Fgura 10 apresenta os valores das funções de Stress para cada topologa testada correspondentes ao melhor trenamento. Observa-se que com, 3 ou 4 neurônos na camada escondda os valores de Stress são mínmos, mas observando pelo erro quadrátco médo (Ver Fgura 11) fo vsto que a topologa com 6 neurônos na camada oculta possu o menor valor de erro, portanto fo escolhda esta topologa como a topologa ótma. Os parâmetros desta topologa são mostrados na Tabela e os pontos obtdos com esta confguração são mostrados na Fgura 1 onde pode ser observada a proxmdade com os pontos orgnas (rotados). Stress Kruscal_Stress MR_Stress RRMS_Stress Fgura 10: Stress vs. Neurônos na camada escondda. QM QM_Fnal Fgura 11: QM vs. Neurônos na camada escondda. Tabela : Topologa ótma com 6 neurônos na camada escondda Taxa de aprendzagem η = 0.1 Épocas de trenamento 0000 Neurônos na Camada de entrada N = Neurônos na Camada Oculta N1 = 6 Neurônos na Camada de Saída N = QM Kruskal_stress MR_Stress RRMS_Stress
5 Dm1 Dm Fgura 1: Pontos obtdos das PMC com topologa ótma. Mapeamento dos pontos obtdos com a rede PMC. TBL D CORS Com este exemplo fo testada a efcáca do método mplementado para redução dmensonal; aqu se tenta verfcar se a mplementação realzada neste trabalho obtém os mesmos resultados que os apresentados em kman [10] reduzndo a dmensonaldade desde 13 a dmensões. Na Tabela 5 é apresentada a matrz de dssmlardade coletada em um estudo de percepção de dados para 14 dferentes cores. Cada par de cores fo ulgado por 31 avaladores os quas davam uízos de smlardade. Incou-se em uma faxa do espetro de freqüêncas entre 434nm a 674nm, ou sea, de azulado-roxo, azul, verde, amarelo, ao vermelho. ssm para nossa rede os padrões de entrada corresponderão a 14 pontos cada um com 13 coordenadas, obtdas pelo procedmento MDS clássco [6]. O obetvo aqu é encontrar um mapeamento dos padrões de entrada em um conunto de pontos em um espaço D tal que a matrz de dstânca calculada nesses pontos se aproxme à matrz de dssmlardades deseada ( Ver Tabela 5). o gual que nos exemplos anterores, foram testadas varas topologas de rede varando o número de neurônos da camada escondda. Por cada topologa testada foram executados 6 trenamentos obtendo-se o melhor deles (com respeto ao erro quadrátco médo). Stress Kruscal_Stress MR_Stress RRMS_Stress Fgura 13: Stress vs. Neurônos na camada escondda. baxo. Os mesmos resultados observam-se no QM (Ver Fgura 14) donde a topologa de 4 neurônos apresenta o menor valor de stress e QM, mas não sendo muto dstante das outras topologas entre 3 e 9 neurônos. Tomando a topologa de 4 neurônos como a ótma, os seus parâmetros são mostrados na Tabela 4. QM QM_Fnal Fgura 14: QM vs. Neurônos na camada escondda. Tabela 4: Topologa ótma com 4 neurônos na camada escondda para o exemplo de cores Taxa de aprendzagem η = 0.01 Épocas de trenamento Precsão ε = 1.0exp-14 Neurônos na Camada de entrada N = 14 Neurônos na Camada Oculta N1 = 4 Neurônos na Camada de Saída N = Padrões P = 14 QM Kruskal_stress MR_Stress RRMS_Stress Tabela 5: Dssmlardades de cores com ranges entre 434 e 674 nm ,14 0,58 0,58 0,8 0,94 0,93 0,96 0,98 0,93 0,91 0,88 0,87 0,84 0,14 0 0,5 0,56 0,78 0,91 0,93 0,93 0,98 0,96 0,93 0,89 0,87 0,86 0,58 0,5 0 0,19 0,53 0,83 0,9 0,9 0,98 0,99 0,98 0,99 0,95 0,97 0,58 0,56 0,19 0 0,46 0,75 0,9 0,91 0,98 0,99 0,99 0,99 0,98 0,96 0,8 0,78 0,53 0,46 0 0,39 0,69 0,74 0,93 0,98 0,98 0,99 0,98 0,99 0,94 0,91 0,83 0,75 0,39 0 0,38 0,55 0,86 0,9 0,98 0,98 0,98 0,99 0,93 0,93 0,9 0,9 0,69 0,38 0 0,7 0,78 0,86 0,95 0,98 0,98 0,99 0,96 0,93 0,9 0,91 0,74 0,55 0,7 0 0,67 0,81 0,96 0,97 0,98 0,98 0,98 0,98 0,98 0,98 0,93 0,86 0,78 0,67 0 0,4 0,63 0,73 0,8 0,77 0,93 0,96 0,99 0,99 0,98 0,9 0,86 0,81 0,4 0 0,6 0,5 0,59 0,7 0,91 0,93 0,98 0,99 0,98 0,98 0,95 0,96 0,63 0,6 0 0,4 0,38 0,45 0,88 0,89 0,99 0,99 0,99 0,98 0,98 0,97 0,73 0,5 0,4 0 0,15 0,3 0,87 0,87 0,95 0,98 0,98 0,98 0,98 0,98 0,8 0,59 0,38 0,15 0 0,4 0,84 0,86 0,97 0,96 0,99 0,99 0,99 0,98 0,77 0,7 0,45 0,3 0,4 0 Fgura 15 apresenta o mapeamento resultante obtdo com o método proposto neste trabalho e a Tabela 6 apresenta as coordenadas ( dmensões) usadas para gerar este mapeamento. Fgura 13 apresenta os valores das funções de Stress para cada topologa testada correspondentes ao melhor trenamento. Observa-se que nas topologas com poucos neurônos (de 3 a 9) na camada oculta o valor de Stress é
6 5. Conclusão Fgura 15: Pontos obtdos pelas PMC com topologa ótma para dados de cores de kman [10]. Tabela 6: Matrz de coordenadas obtdas por PMC proposto neste trabalho para o mapeamento de cores. Cor Dm1 Dm Fazendo uma comparação vsual entre os resultados obtdos por PMC e os resultados MDS obtdos por kman [10] (Ver Fgura 15 e Fgura 16), pode ser observado que em ambos os mapeamentos estão bastante próxmos (obvamente desconsderando a rotação). matrz para o mapeamento obtda por kman e apresentada no nexo B. Fgura 16: Resultados MDS obtdos por kman [10]. De acordo aos testes realzados pode-se conclur que o método mplementado baseado em redes neuras artfcas PMC mostrou ser efcente na determnação de mapeamentos para redução de dmensões. vantagem adconal deste método é que uma vez trenado pode efetuar o mapeamento on-lne para padrões de entrada não apresentados na etapa de trenamento, ao contraro de outros métodos MDS que precsam realzar um recalculo de todos os dados em forma off-lne. É sugerda a realzação de um estudo comparatvo com outros métodos MDS exstentes para valdar o método. Também se sugere o uso de outras arquteturas de rede com a fnaldade de verfcar se é possível reduzr anda mas o erro e assm atngr uma maor precsão na extração de nformação relevante nos dados. Um ponto mportante fo a dfculdade na obtenção de bons aprendzados, devdo ao fato que o método de gradente descendente não garante pesos ótmos globas, pelo que é sugerdo para futuros trabalhos o estudo de outros métodos de aprendzagem. 6. Referêncas [1]. Naud, Neural and Statstcal Methods for the Vsualzaton of Multdmensonal Data. Ph. D. thess, Unv. of Mkolaa Kopernka Torunu, [] P. Demartnes and J. Hérault, Curvlnear component analyss: self-organzng neural network for nonlnear mappng of data sets, Proc. I Transacton on Neural Networks, vol. 8, pp , January [3] M.. Tppng, Topographc mappngs and feed-forward neural networks, PhD thess, The Unversty of ston n Brmngham, Feb [4] C. M. Bshop, M. Svensén, and C. K. I.Wllams, GTM: prncpled alternatve to the selforganzng map, techncal report, ston Unversty, Brmngham, Neural Computng Research Group, prl [5] J. F. M. Svensén, GTM: The generatve topographc mappng, Ph.D. thess, ston Unversty, prl [6] I. Borg and P. Groenen, Modern Multdmensonal Scalng: Theory and pplcatons. New York: Sprnger [7] R. L. Gorsuch, Factor nalyss, Hllsdale, NJ: Lawrence rlbaum. Org. ed [8] K. S. H. Yamada and S. Hashmoto, smlarty-based neural network for facal expresson analyss, Proc. Pattern Recognton Letters, vol. 8, Issue 9, pp , July 007. [9] S. Haykn, Neural Networks: Comprehensve Foundaton, Second dton, 1999, Prentce Hall. [10] G. kman, Dmensons of color vson, Proc. Journal of Psychology, vol. 38, pp , 1954.
7 ) NXO Dervação da regra de aprendzagem para os neurônos da camada de saída da rede Y I (1) = = * * W Y I W I () = Y1 W Y (3) = G`( I ) I B ( ) Y Y (4) = δ (, β ) d (, β ) * B Y (, β ) d B Substtundo (), (3) e (4) em (1): B Y ( ) Y (, ) d B (, ) * * G`( I )* Y1 W d B (, ) (5) = = δ β β β No qual: B Y ( ) Y (, ) d (, ) * (6) ρ = δ β B β * G`( I ) d B (, β ) uste ao gradente: W = η * =η * ρ * Y1 (7) W ( t+ 1) = W ( t) +η * ρ * Y1 (8) B) Pontos obtdos pelo método MDS clássco no exemplo de cores de kman [10] Cor Dm1 Dm Dm3 Dm4 Dm5 Dm6 Dm7 Dm8 Dm9 Dm10 Dm11 Dm1 Dm
MÉTODOS MULTIVARIADOS. Rodrigo A. Scarpel
MÉTODOS MULTIVARIADOS Rodrgo A. Scarpel rodrgo@ta.br www.mec.ta.br/~rodrgo INTRODUÇÃO Semana Conteúdo Introdução aos métodos multvarados 1 Análse de componentes prncpas Aplcações de análse de componentes
Leia mais4 Critérios para Avaliação dos Cenários
Crtéros para Avalação dos Cenáros É desejável que um modelo de geração de séres sntétcas preserve as prncpas característcas da sére hstórca. Isto quer dzer que a utldade de um modelo pode ser verfcada
Leia maisUniversidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Classificadores Lineares. Luiz Eduardo S. Oliveira, Ph.D.
Unversdade Federal do Paraná Departamento de Informátca Reconhecmento de Padrões Classfcadores Lneares Luz Eduardo S. Olvera, Ph.D. http://lesolvera.net Objetvos Introduzr os o conceto de classfcação lnear.
Leia maisUniversidade Federal do Rio de Janeiro GRADUAÇÃO /2. Modelo MLP. MLP Multi Layers Perceptron
Unversdade Federal do Ro de Janero GRADUAÇÃO - 8/ Modelo MLP www.labc.nce.ufrj.br Antono G. Thomé thome@nce.ufrj.br Sala - 3 598-368 MLP Mult Laers Perceptron. Redes Neuras RN de múltplas camadas resolvem
Leia mais3 Algoritmos propostos
Algortmos propostos 3 Algortmos propostos Nesse trabalho foram desenvolvdos dos algortmos que permtem classfcar documentos em categoras de forma automátca, com trenamento feto por usuáros Tas algortmos
Leia maisINF 1771 Inteligência Artificial
INF 77 Intelgênca Artfcal Aula 8 Redes Neuras Edrle Soares de Lma Formas de Aprendzado Aprendzado Supervsonado Árvores de decsão. K-Nearest Neghbor (KNN). Support Vector Machnes (SVM).
Leia maisRedes Neurais (Inteligência Artificial)
Redes Neuras (Intelgênca Artfcal) Aula 14 Redes Neuras Edrle Soares de Lma Formas de Aprendzado Aprendzado Supervsonado Árvores de Decsão. K-Nearest Neghbor (KNN). Support Vector Machnes
Leia mais3 Redes Neurais Auto-Associativas
44 3 Redes Neuras Auto-Assocatvas 3.1. Neurôno Artfcal Redes neuras artfcas são estruturas compostas por dversas undades processadoras, chamadas de neurônos artfcas, que são nterlgados através de conexões,
Leia maisReconhecimento Estatístico de Padrões
Reconhecmento Estatístco de Padrões X 3 O paradgma pode ser sumarzado da segunte forma: Cada padrão é representado por um vector de característcas x = x1 x2 x N (,,, ) x x1 x... x d 2 = X 1 X 2 Espaço
Leia maisIMPLEMENTAÇÃO DO MÉTODO DE FATORAÇÃO DE INTEIROS CRIVO QUADRÁTICO
IMPLEMENTAÇÃO DO MÉTODO DE FATORAÇÃO DE INTEIROS CRIVO QUADRÁTICO Alne de Paula Sanches 1 ; Adrana Betâna de Paula Molgora 1 Estudante do Curso de Cênca da Computação da UEMS, Undade Unverstára de Dourados;
Leia maisRepresentação e Descrição de Regiões
Depos de uma magem ter sdo segmentada em regões é necessáro representar e descrever cada regão para posteror processamento A escolha da representação de uma regão envolve a escolha dos elementos que são
Leia maisAprendizagem de Máquina
Plano de Aula Aprendzagem de Máquna Aprendzagem Baseada em Instâncas Alessandro L. Koerch Introdução Espaço Eucldano Aprendzagem Baseada em Instâncas (ou Modelos Baseados em Dstânca) Regra knn (k vznhos
Leia mais5 Implementação Procedimento de segmentação
5 Implementação O capítulo segunte apresenta uma batera de expermentos prátcos realzados com o objetvo de valdar o método proposto neste trabalho. O método envolve, contudo, alguns passos que podem ser
Leia maisAprendizagem de Máquina
Aprendzagem de Máquna Aprendzado baseado em nstâncas Aprendzado não-paramétrco Quando as suposções fetas por métodos paramétrcos não são váldas para todo o espaço de entrada, provocando erros predtvos
Leia maisAnálise de influência
Análse de nfluênca Dzemos que uma observação é nfluente caso ela altere, de forma substancal, alguma propredade do modelo ajustado (como as estmatvas dos parâmetros, seus erros padrões, valores ajustados...).
Leia maisRAD1507 Estatística Aplicada à Administração I Prof. Dr. Evandro Marcos Saidel Ribeiro
UNIVERIDADE DE ÃO PAULO FACULDADE DE ECONOMIA, ADMINITRAÇÃO E CONTABILIDADE DE RIBEIRÃO PRETO DEPARTAMENTO DE ADMINITRAÇÃO RAD1507 Estatístca Aplcada à Admnstração I Prof. Dr. Evandro Marcos adel Rbero
Leia mais3 Método Numérico. 3.1 Discretização da Equação Diferencial
3 Método Numérco O presente capítulo apresenta a dscretação da equação dferencal para o campo de pressão e a ntegração numérca da expressão obtda anterormente para a Vscosdade Newtonana Equvalente possbltando
Leia maisUNIDADE IV DELINEAMENTO INTEIRAMENTE CASUALIZADO (DIC)
UNDADE V DELNEAMENTO NTERAMENTE CASUALZADO (DC) CUABÁ, MT 015/ PROF.: RÔMULO MÔRA romulomora.webnode.com 1. NTRODUÇÃO Este delneamento apresenta como característca prncpal a necessdade de homogenedade
Leia maisCapítulo 4. Multilayer Perceptrons
Capítulo 4 Multlayer Perceptrons As redes Multlayer Perceptron (MLPs) têm sdo aplcadas com sucesso em uma varedade de áreas, desempenhando tarefas tas como: classfcação de padrões (reconhecmento), controle
Leia mais7 - Distribuição de Freqüências
7 - Dstrbução de Freqüêncas 7.1 Introdução Em mutas áreas há uma grande quantdade de nformações numércas que precsam ser dvulgadas de forma resumda. O método mas comum de resumr estes dados numércos consste
Leia mais6 Modelo Proposto Introdução
6 Modelo Proposto 6.1. Introdução Neste capítulo serão apresentados detalhes do modelo proposto nesta dssertação de mestrado, onde será utlzado um modelo híbrdo para se obter prevsão de carga curto prazo
Leia maisCAPÍTULO IV PROPRIEDADES GEOMÉTRICAS DA SEÇÃO TRANSVERSAL
CPÍTULO IV PROPRIEDDES GEOMÉTRICS D SEÇÃO TRNSVERSL Propredades Geométrcas da Seção Transversal 4. Propredades Geométrcas da Seção Transversal 4.. Introdução O presente trabalho é desenvolvdo paralelamente
Leia maisFigura 3: Diagrama de blocos do sistema de inferência da qualidade.
4 Solução Proposta A metodologa proposta nesta dssertação pode ser dvdda em quatro etapas complementares que estão representadas no dagrama de blocos na Fgura 3. Cada uma delas está descrta através do
Leia maisReconhecimento de Padrões
Capítulo 2 Reconhecmento de Padrões 2.1 O que é reconhecmento de padrões? Há duas maneras de se reconhecer e/ou classfcar um padrão [CONNEL, S. D. & JAIN, A. K. (2001)]: () classfcação supervsonada: o
Leia mais3 A técnica de computação intensiva Bootstrap
A técnca de computação ntensva ootstrap O termo ootstrap tem orgem na expressão de língua nglesa lft oneself by pullng hs/her bootstrap, ou seja, alguém levantar-se puxando seu própro cadarço de bota.
Leia maisFigura 8.1: Distribuição uniforme de pontos em uma malha uni-dimensional. A notação empregada neste capítulo para avaliação da derivada de uma
Capítulo 8 Dferencação Numérca Quase todos os métodos numércos utlzados atualmente para obtenção de soluções de equações erencas ordnáras e parcas utlzam algum tpo de aproxmação para as dervadas contínuas
Leia maisIntrodução. Introdução. Introdução I - PERCEPTRON. Modelos de Neurônios LABIC. Neurônio:
Modelos de Neurônos Introdução Característcas Báscas Modelo de Neurôno Estrutura da Rede Neurôno: Cada neurôno é composto por: dendrtos: con de termnas de entrada corpo central Algortmo de Aprendzado axôno:
Leia mais2 Redes Neurais Auto-Organizáveis
2 Redes Neuras Auto-Organzáves 2.1 Introdução Problemas de clusterng estão presentes nos mas varados contetos, como por eemplo: classfcação de padrões, mneração de dados e recuperação de nformações de
Leia maisREDE NEURAL ARTMAP NEBULOSA PARA ANÁLISE DE ESTABILIDADE TRANSITÓRIA DE SISTEMAS DE ENERGIA ELÉTRICA
REDE NEURAL ARTMAP NEBULOSA PARA ANÁLISE DE ESTABILIDADE TRANSITÓRIA DE SISTEMAS DE ENERGIA ELÉTRICA Sandra C. Marchor Carlos R. Mnuss Anna Dva P. Lotufo Unversdade Estadual Paulsta UNESP - Câmpus de Ilha
Leia maisO MMD se baseia no sistema no sistema linearizado das equações de fluxo de potência, ou seja: Δ (4.1)
4 Método da Matrz D Neste capítulo será apresentada uma descrção do MMD [Prada, 99], [Prada, ]. Este método será usado para dentfcar casos de nstabldade de tensão causados pela perda de controlabldade.
Leia maisPsicologia Conexionista Antonio Roque Aula 8 Modelos Conexionistas com tempo contínuo
Modelos Conexonstas com tempo contínuo Mutos fenômenos de aprendzado assocatvo podem ser explcados por modelos em que o tempo é uma varável dscreta como nos casos vstos nas aulas anterores. Tas modelos
Leia maisINCORPORAÇÃO DE RECORRÊNCIA EM ESTRUTURAS NEURAIS NEBULOSAS
INCORPORAÇÃO DE RECORRÊNCIA EM ESTRUTURAS NEURAIS NEBULOSAS Ivette Luna 1, Rosangela Balln 2, Fernando Gomde 3 1,3 Unversdade Estadual de Campnas Faculdade de Engenhara Elétrca e de Computação 13083-970
Leia maisAula Características dos sistemas de medição
Aula - Característcas dos sstemas de medção O comportamento funconal de um sstema de medção é descrto pelas suas característcas (parâmetros) operaconas e metrológcas. Aqu é defnda e analsada uma sére destes
Leia maisCap. IV Análise estatística de incertezas aleatórias
TLF 010/11 Cap. IV Análse estatístca de ncertezas aleatóras Capítulo IV Análse estatístca de ncertezas aleatóras 4.1. Méda 43 4.. Desvo padrão 44 4.3. Sgnfcado do desvo padrão 46 4.4. Desvo padrão da méda
Leia mais2 Análise de Campos Modais em Guias de Onda Arbitrários
Análse de Campos Modas em Guas de Onda Arbtráros Neste capítulo serão analsados os campos modas em guas de onda de seção arbtrára. A seção transversal do gua é apromada por um polígono conveo descrto por
Leia maisAssociação entre duas variáveis quantitativas
Exemplo O departamento de RH de uma empresa deseja avalar a efcáca dos testes aplcados para a seleção de funconáros. Para tanto, fo sorteada uma amostra aleatóra de 50 funconáros que fazem parte da empresa
Leia maisIdentidade dos parâmetros de modelos segmentados
Identdade dos parâmetros de modelos segmentados Dana Campos de Olvera Antono Polcarpo Souza Carnero Joel Augusto Munz Fabyano Fonseca e Slva 4 Introdução No Brasl, dentre os anmas de médo porte, os ovnos
Leia mais2 Lógica Fuzzy Introdução
2 Lógca Fuzzy 2.. Introdução A lógca fuzzy é uma extensão da lógca booleana, ntroduzda pelo Dr. Loft Zadeh da Unversdade da Calfórna / Berkeley no ano 965. Fo desenvolvda para expressar o conceto de verdade
Leia maisPrograma do Curso. Sistemas Inteligentes Aplicados. Análise e Seleção de Variáveis. Análise e Seleção de Variáveis. Carlos Hall
Sstemas Intelgentes Aplcados Carlos Hall Programa do Curso Lmpeza/Integração de Dados Transformação de Dados Dscretzação de Varáves Contínuas Transformação de Varáves Dscretas em Contínuas Transformação
Leia maisEstudo comparativo entre redes neurais artificiais e análise de regressão múltipla na avaliação de bens, para pequenas amostragens
Estudo comparatvo entre redes neuras artfcas e análse de regressão múltpla na avalação de bens, para pequenas amostragens Elane Hasselmann Camardella Schavo (CEFET/RJ) elane@consultora-cca.com.br Márco
Leia mais3 Metodologia de Avaliação da Relação entre o Custo Operacional e o Preço do Óleo
3 Metodologa de Avalação da Relação entre o Custo Operaconal e o Preço do Óleo Este capítulo tem como objetvo apresentar a metodologa que será empregada nesta pesqusa para avalar a dependênca entre duas
Leia maisOs modelos de regressão paramétricos vistos anteriormente exigem que se suponha uma distribuição estatística para o tempo de sobrevivência.
MODELO DE REGRESSÃO DE COX Os modelos de regressão paramétrcos vstos anterormente exgem que se suponha uma dstrbução estatístca para o tempo de sobrevvênca. Contudo esta suposção, caso não sea adequada,
Leia maisCONTROLADORES FUZZY. Um sistema de controle típico é representado pelo diagrama de blocos abaixo:
CONTROLADORES FUZZY Um sstema de controle típco é representado pelo dagrama de blocos abaxo: entrada ou referênca - erro CONTROLADOR snal de controle PLANTA saída A entrada ou referênca expressa a saída
Leia maisAdriana da Costa F. Chaves
Máquna de Vetor Suporte (SVM) para Regressão Adrana da Costa F. Chaves Conteúdo da apresentação Introdução Regressão Regressão Lnear Regressão não Lnear Conclusão 2 1 Introdução Sejam {(x,y )}, =1,...,,
Leia maisDIFERENCIANDO SÉRIES TEMPORAIS CAÓTICAS DE ALEATÓRIAS ATRAVÉS DAS TREND STRIPS
177 DIFERENCIANDO SÉRIES TEMPORAIS CAÓTICAS DE ALEATÓRIAS ATRAVÉS DAS TREND STRIPS Antôno Carlos da Slva Flho Un-FACEF Introdução Trend Strps (TS) são uma nova técnca de análse da dnâmca de um sstema,
Leia maisRealimentação negativa em ampliadores
Realmentação negatva em ampladores 1 Introdução necessdade de amplfcadores com ganho estável em undades repetdoras em lnhas telefôncas levou o Eng. Harold Black à cração da técnca denomnada realmentação
Leia maisÂngulo de Inclinação (rad) [α min α max ] 1 a Camada [360,0 520,0] 2000 X:[-0,2065 0,2065] Velocidade da Onda P (m/s)
4 Estudo de Caso O estudo de caso, para avalar o método de estmação de parâmetros trdmensonal fo realzado em um modelo de referênca de três camadas, e foram realzados os seguntes passos: Descrção do modelo
Leia maisEXERCÍCIO: VIA EXPRESSA CONTROLADA
EXERCÍCIO: VIA EXPRESSA CONTROLADA Engenhara de Tráfego Consdere o segmento de va expressa esquematzado abaxo, que apresenta problemas de congestonamento no pco, e os dados a segur apresentados: Trechos
Leia maisAnálise da curva de crescimento de ovinos cruzados
Análse da curva de crescmento de ovnos cruzados Dana Campos de Olvera DEX, UFLA Antôno Polcarpo Souza Carnero DET, UFV Joel Augusto Munz DEX, UFLA Introdução Os ovnos, assm como grande maora dos anmas
Leia maisInterceptação Visual de Alvos 3D usando Redes Neurais de Aprendizado Não Supervisionado
Proceedngs of V Brazlan Conference on Neural Networks - V Congresso Braslero de Redes Neuras pp. 888-999, uly 0-, 999 - TA, São osé dos Campos - SP - Brazl nterceptação Vsual de Alvos 3D usando Redes Neuras
Leia maisESTRATÉGIA DE ESTIMAÇÃO DE FLUXO ESTATÓRICO PARA MOTORES DE INDUÇÃO UTILIZANDO REDES NEURAIS
ESTRATÉGIA DE ESTIMAÇÃO DE FLUXO ESTATÓRICO PARA MOTORES DE INDUÇÃO UTILIZANDO REDES NEURAIS VICTOR P. B. AGUIAR, RICARDO S. T. PONTES, RODRIGO C. CIARLINI Laboratóro de Efcênca Energétca em Sstemas Motrzes-LAMOTRIZ,
Leia maisEcho State Networks. Universidade de São Paulo São Carlos / SP. Instituto de Ciências Matemáticas e de Computação
Unversdade de São Paulo São Carlos / SP Insttuto de Cêncas Matemátcas e de Computação Echo State Networks Sstemas Intelgentes Prof. Dra. Rosel A. Franceln Romero Fabríco Breve João R. Bertn Jr. Sumáro
Leia maisAnálise Dinâmica de uma Viga de Euler-Bernoulli Submetida a Impacto no Centro após Queda Livre Através do Método de Diferenças Finitas
Proceedng Seres of the Brazlan Socety of Appled and Computatonal Mathematcs, Vol. 4, N., 06. Trabalho apresentado no DINCON, Natal - RN, 05. Proceedng Seres of the Brazlan Socety of Computatonal and Appled
Leia mais4.1 Modelagem dos Resultados Considerando Sazonalização
30 4 METODOLOGIA 4.1 Modelagem dos Resultados Consderando Sazonalzação A sazonalzação da quantdade de energa assegurada versus a quantdade contratada unforme, em contratos de fornecmento de energa elétrca,
Leia mais4 Discretização e Linearização
4 Dscretzação e Lnearzação Uma vez defndas as equações dferencas do problema, o passo segunte consste no processo de dscretzação e lnearzação das mesmas para que seja montado um sstema de equações algébrcas
Leia mais2 Principio do Trabalho Virtual (PTV)
Prncpo do Trabalho rtual (PT)..Contnuo com mcroestrutura Na teora que leva em consderação a mcroestrutura do materal, cada partícula anda é representada por um ponto P, conforme Fgura. Porém suas propredades
Leia maisALGORITMO ADAPTATIVO BASEADO NO MÉTODO LEVENBERG- MARQUARDT PARA TREINAMENTO DE REDES NEURAIS PPS WAVELET: APROXIMAÇÃO DE FUNÇÕES - UM ESTUDO DE CASO
ALGORITO ADAPTATIVO BASEADO NO ÉTODO LEVENBERG- ARQUARDT PARA TREINAENTO DE REDES NEURAIS PPS WAVELET: APROXIAÇÃO DE FUNÇÕES - U ESTUDO DE CASO Rafael Alves Bonfm de Queroz IC João Fernando arar PQ, Unversdade
Leia maisAo se calcular a média, moda e mediana, temos: Quanto mais os dados variam, menos representativa é a média.
Estatístca Dscplna de Estatístca 0/ Curso de Admnstração em Gestão Públca Profª. Me. Valéra Espíndola Lessa e-mal: lessavalera@gmal.com Meddas de Dspersão Indcam se os dados estão, ou não, prómos uns dos
Leia maisUM ALGORITMO GENÉTICO PARA O PROBLEMA DE AGRUPAMENTO
Pesqusa Operaconal na Socedade: Educação, Meo Ambente e Desenvolvmento 12 a 15/09/06 Goâna, GO UM ALGORITMO GENÉTICO PARA O PROBLEMA DE AGRUPAMENTO Flávo Marcelo Tavares Montenegro IBGE Insttuto Braslero
Leia maisAo se calcular a média, moda e mediana, temos: Quanto mais os dados variam, menos representativa é a média.
Estatístca Dscplna de Estatístca 0/ Curso Superor de tecnólogo em Gestão Ambental Profª. Me. Valéra Espíndola Lessa e-mal: lessavalera@gmal.com Meddas de Dspersão Indcam se os dados estão, ou não, prómos
Leia maisPERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS
PERCEPTRON Característcas Báscas Modelo de Neurôno Estrutura da Rede Algortmo de Aprendzado CARACTERISTICAS BASICAS - Regra de propagação net - Função de atvação: Degrau = x w + - Topologa: uma únca camada
Leia maisClassificação de Padrões
Classfcação de Padrões Introdução Classfcadores Paramétrcos Classfcadores Sem-paramétrcos Redução da Dmensonaldade Teste de Sgnfcânca 6.345 Sstema de Reconhecmento de Voz Teora Acústca da Produção de Voz
Leia maisREGRESSÃO NÃO LINEAR 27/06/2017
7/06/07 REGRESSÃO NÃO LINEAR CUIABÁ, MT 07/ Os modelos de regressão não lnear dferencam-se dos modelos lneares, tanto smples como múltplos, pelo fato de suas varáves ndependentes não estarem separados
Leia maisRISCO. Investimento inicial $ $ Taxa de retorno anual Pessimista 13% 7% Mais provável 15% 15% Otimista 17% 23% Faixa 4% 16%
Análse de Rsco 1 RISCO Rsco possbldade de perda. Quanto maor a possbldade, maor o rsco. Exemplo: Empresa X va receber $ 1.000 de uros em 30 das com títulos do governo. A empresa Y pode receber entre $
Leia maisDELINEAMENTOS EXPERIMENTAIS
SUMÁRIO 1 Delneamentos Expermentas 2 1.1 Delneamento Interamente Casualzado..................... 2 1.2 Delneamento Blocos Casualzados (DBC).................... 3 1.3 Delneamento Quadrado Latno (DQL)......................
Leia maisUMA VALIDAÇÃO MATEMÁTICA PARA UM ALGORITMO QUE SIMULA MISTURAS DE DISTRIBUIÇÕES
UMA VALIDAÇÃO MATEMÁTICA PARA UM ALGORITMO QUE SIMULA MISTURAS DE DISTRIBUIÇÕES Ana Paula Coelho MADEIRA Lucas Montero CHAVES Devanl Jaques de SOUZA Resumo: Uma valdação matemátca, utlzando o conceto de
Leia mais3 Subtração de Fundo Segmentação por Subtração de Fundo
3 Subtração de Fundo Este capítulo apresenta um estudo sobre algortmos para a detecção de objetos em movmento em uma cena com fundo estátco. Normalmente, estas cenas estão sob a nfluênca de mudanças na
Leia maisRadiação Térmica Processos, Propriedades e Troca de Radiação entre Superfícies (Parte 2)
Radação Térmca Processos, Propredades e Troca de Radação entre Superfíces (Parte ) Obetvo: calcular a troca por radação entre duas ou mas superfíces. Essa troca depende das geometras e orentações das superfíces,
Leia maisMODELOS DE REGRESSÃO PARAMÉTRICOS
MODELOS DE REGRESSÃO PARAMÉTRICOS Às vezes é de nteresse nclur na análse, característcas dos ndvíduos que podem estar relaconadas com o tempo de vda. Estudo de nsufcênca renal: verfcar qual o efeto da
Leia maisXX SNPTEE SEMINÁRIO NACIONAL DE PRODUÇÃO E TRANSMISSÃO DE ENERGIA ELÉTRICA
XX SNPTEE SEMINÁRIO NACIONAL DE PRODUÇÃO E TRANSMISSÃO DE ENERGIA ELÉTRICA 22 a 25 Novembro de 2009 Recfe - PE GRUPO IV GRUPO DE ESTUDO DE ANÁLISE E TÉCNICAS DE SISTEMAS DE POTÊNCIA CA E CC - GAT DESENVOLVIMENTO
Leia maisREDES NEURAIS NEBULOSAS PARA PREVISÃO DE VAZÕES MÉDIAS MENSAIS
GOP/010 21 a 26 de Outubro de 2001 Campnas - São Paulo - Brasl GRUPO IX GRUPO DE ESTUDOS DE OPERAÇÕES DE SISTEMAS ELÉTRICOS REDES NEURAIS NEBULOSAS PARA PREVISÃO DE VAZÕES MÉDIAS MENSAIS Rosângela Balln
Leia maisIdentificação de curvas de carga diária típicas com uso de Mapa de Kohonen e Fuzzy C-Means
Identfcação de curvas de carga dára típcas com uso de Mapa de Kohonen e Fuzzy C-Means Nelson R. de Albuquerque, Douglas A. A. de Faras Pontfíca Unversdade Católca do Ro de Janero Departamento de Engenhara
Leia maisRegressão Múltipla. Parte I: Modelo Geral e Estimação
Regressão Múltpla Parte I: Modelo Geral e Estmação Regressão lnear múltpla Exemplos: Num estudo sobre a produtvdade de trabalhadores ( em aeronave, navos) o pesqusador deseja controlar o número desses
Leia maisAprendizagem de Máquina
Plano de Aula Aprendzagem de Máquna Aprendzagem Não Supervsonada Alessandro L. Koerch Aprendzagem não supervsonada Algortmos de agrupamento (Clusterng) Seqüencas Herárqucos Baseados na otmzação de funções
Leia mais2 Incerteza de medição
2 Incerteza de medção Toda medção envolve ensaos, ajustes, condconamentos e a observação de ndcações em um nstrumento. Este conhecmento é utlzado para obter o valor de uma grandeza (mensurando) a partr
Leia mais3.6. Análise descritiva com dados agrupados Dados agrupados com variáveis discretas
3.6. Análse descrtva com dados agrupados Em algumas stuações, os dados podem ser apresentados dretamente nas tabelas de frequêncas. Netas stuações devemos utlzar estratégas específcas para obter as meddas
Leia mais5 Formulação para Problemas de Potencial
48 Formulação para Problemas de Potencal O prncpal objetvo do presente capítulo é valdar a função de tensão do tpo Westergaard obtda para uma trnca com abertura polnomal (como mostrado na Fgura 9a) quando
Leia mais3 Aproximador de Função para Simulador de Reservatório Petrolífero
Aproxmador de Função para Smulador de Reservatóro Petrolífero 37 3 Aproxmador de Função para Smulador de Reservatóro Petrolífero 3.1. Introdução O desenvolvmento de um campo petrolífero pode ser entenddo
Leia maisIntrodução às Medidas em Física a Aula
Introdução às Meddas em Físca 4300152 8 a Aula Objetvos: Experênca Curvas Característcas Meddas de grandezas elétrcas: Estudar curvas característcas de elementos resstvos Utlzação de um multímetro Influênca
Leia maisDEFINIÇÃO - MODELO LINEAR GENERALIZADO
DEFINIÇÃO - MODELO LINEAR GENERALIZADO 1 Um modelo lnear generalzado é defndo pelos seguntes três componentes: Componente aleatóro; Componente sstemátco; Função de lgação; Componente aleatóro: Um conjunto
Leia maisReconhecimento Automático de Modulação Digital de Sinais de Comunicações
Reconhecmento Automátco de Modulação Dgtal de Snas de Comuncações Marcelo Corrêa Horewcz, Caro Lúco ascmento Jr. e Waldecr João Perrella Insttuto Tecnológco de Aeronáutca Praça Marechal Eduardo Gomes,
Leia mais3 Elementos de modelagem para o problema de controle de potência
3 Elementos de modelagem para o problema de controle de potênca Neste trabalho assume-se que a rede de comuncações é composta por uma coleção de enlaces consttuídos por um par de undades-rádo ndvdualmente
Leia maisBrazilian Journal of Biosystems Engineering v. 11(1): 01-17, 2017
AVALIAÇÃO DO MODELO DE REGRESSÃO LINEAR MÚLTIPLA E REDES NEURAIS ARTIFICIAIS NA PREVISÃO DO GANHO DE MASSA EM ANIMAIS M. L. M. Lopes, F. R. Chavarette *, A. M. Coss UNESP - Unv. Estadual Paulsta, Faculdade
Leia maisLearning and Nonlinear Models Revista da Sociedade Brasileira de Redes Neurais (SBRN), Vol. 6, No. 2, pp , 2008
REDES NEURAIS ARTIFICIAIS COM FUNÇÕES DE ATIVAÇÃO COMPLEMENTO LOG- LOG E PROBIT PARA APROXIMAR FUNÇÕES NA PRESENÇA DE OBSERVAÇÕES EXTREMAS Gecynalda S. da S. Gomes e Teresa B. Ludermr Centro de Informátca,
Leia maisREDES NEURAIS NEBULOSAS REGULARIZADAS PARA PROBLEMAS DE CLASSIFICAÇÃO PAULO VITOR DE CAMPOS SOUZA 1, ANDRE PAIM LEMOS 1.
REDES NEURAIS NEBULOSAS REGULARIZADAS PARA PROBLEMAS DE CLASSIFICAÇÃO PAULO VITOR DE CAMPOS SOUZA 1, ANDRE PAIM LEMOS 1. 1. Programa de Pós Graduação em Engenhara Elétrca, Unversdade Federal de Mnas Geras
Leia maisRede de Hopfield. Rede de camada única com realimentação x n x 2 x 1 w 1n. w n2. w n1 w 2n w 21. w 12
Rede de Hopfeld Rede de camada únca com realmentação x n x 2 x n n2 2 n 2n 2 - b - - n b 2 b n 2 Memóra (auto-assocata) assocata (terata) ou memóra de conteúdo endereçáel não lnear Cada undade lga com
Leia mais2 Agregação Dinâmica de Modelos de Turbinas e Reguladores de Velocidade: Teoria
Agregação Dnâmca de Modelos de urbnas e Reguladores de elocdade: eora. Introdução O objetvo da agregação dnâmca de turbnas e reguladores de velocdade é a obtenção dos parâmetros do modelo equvalente, dados
Leia maisCapítulo 2. Modelos de Regressão
Capítulo 2 Modelos de regressão 39 Capítulo 2 Modelos de Regressão Objetvos do Capítulo Todos os modelos são errados, mas alguns são útes George E P Box Algumas vezes fcamos assustados quando vemos engenheros
Leia maisAlgarismos Significativos Propagação de Erros ou Desvios
Algarsmos Sgnfcatvos Propagação de Erros ou Desvos L1 = 1,35 cm; L = 1,3 cm; L3 = 1,30 cm L4 = 1,4 cm; L5 = 1,7 cm. Qual destas meddas está correta? Qual apresenta algarsmos com sgnfcado? O nstrumento
Leia maisProf. Lorí Viali, Dr.
Prof. Lorí Val, Dr. val@mat.ufrgs.br http://www.mat.ufrgs.br/~val/ É o grau de assocação entre duas ou mas varáves. Pode ser: correlaconal ou expermental. Prof. Lorí Val, Dr. UFRG Insttuto de Matemátca
Leia mais7 Tratamento dos Dados
7 Tratamento dos Dados 7.. Coefcentes de Troca de Calor O úmero de usselt local é dado por h( r )d u ( r ) (7-) k onde h(r), o coefcente local de troca de calor é h( r ) q''- perdas T q''- perdas (T( r
Leia maisCurso de extensão, MMQ IFUSP, fevereiro/2014. Alguns exercício básicos
Curso de extensão, MMQ IFUSP, feverero/4 Alguns exercíco báscos I Exercícos (MMQ) Uma grandeza cujo valor verdadero x é desconhecdo, fo medda três vezes, com procedmentos expermentas dêntcos e, portanto,
Leia mais4 Análise de confiabilidade de estruturas
4 Análse de confabldade de estruturas Nos prmórdos da engenhara cvl, o desconhecmento técnco-centífco conduza a proetos excessvamente seguros, mas em contrapartda de custo muto elevado. Hoe em da, o progresso
Leia maisDesenvolvimento de software de simulação Monte Carlo para auxiliar no estudo da propagação de doenças infecciosas
Desenvolvmento de software de smulação Monte Carlo para auxlar no estudo da propagação de doenças nfeccosas João Batsta dos Santos-Flho 1, Tatana Santos de Araujo Batsta 2, José Carlos Rodrgues Olvera
Leia maisREDES NEURAIS ARTIFICIAIS PARA A CLASSIFICAÇÃO DE SONS VOCÁLICOS
REDES EURIS RTIFICIIS R CLSSIFICÇÃO DE SOS VOCÁLICOS lexandre de Souza Brandão Unversdade Federal Flumnense GMEC rograma de ós-graduação em Engenhara Mecânca Rua asso da átra, 56-2420-240 - São Domngos
Leia maisGráficos de Controle para Processos Autocorrelacionados
Gráfcos de Controle para Processos Autocorrelaconados Gráfco de controle de Shewhart: observações ndependentes e normalmente dstrbuídas. Shewhart ao crar os gráfcos de controle não exgu que os dados fossem
Leia mais3 AGRUPAMENTO E CLASSIFICAÇÃO POR TÉCNICAS INTELIGENTES
36 3 AGRUPAMENTO E CLASSIFICAÇÃO POR TÉCNICAS INTELIGENTES 3.1 INTRODUÇÃO Nas seções seguntes (3.2 e 3.3) são ntroduzdos os modelos de categorzação e Neuro-Fuzzy que são a base dos módulos do Sstema de
Leia mais