Aprendizado Competitivo e Auto-Organizado

Tamanho: px
Começar a partir da página:

Download "Aprendizado Competitivo e Auto-Organizado"

Transcrição

1 Pscologa Conexonsta Antono Roque Aula 9 Aprendzado Compettvo e Auto-Organzado Uma característca mportante das redes neuras é a sua capacdade de aprender a partr de estímulos fornecdos pelo meo-ambente. Nas aulas anterores estudamos algortmos de aprendzado supervsonado, em que a cada padrão vndo do ambente é assocado um padrão de resposta deseado, dado por um professor, e o aprendzado da rede consste em aproxmar a relação entrada-saída subacente aos padrões fornecdos. Nesta aula, vamos estudar um algortmo para aprendzado não-supervsonado ou auto-organzado cuo obetvo é fazer com que a rede descubra característcas sgnfcantes nos padrões de entrada sem o auxílo de um professor. Para que um algortmo de aprendzado não-supervsonado sea mplementado ele deve se basear em um conunto de regras que levem em conta apenas nformação local, sto é, que façam com que as mudanças nos pesos snáptcos de um dado neurôno seam conseqüênca apenas de fenômenos que aconteçam nas vznhanças do neurôno. O algortmo de aprendzado auto-organzado que vamos estudar é chamado de Mapa Auto-Organzado de Kohonen (Self-Organzng Map, ou SOM, em nglês), desenvolvdo pelo fnlandês Teuvo Kohonen ( ) no começo dos anos O algortmo SOM está baseado no chamado aprendzado compettvo. Uma rede neural típca com aprendzado compettvo é uma rede de uma únca camada (un- ou b-dmensonal) em que todos os neurônos recebem a mesma entrada. Cada neurôno computa o seu nível de atvação multplcando o seu vetor de pesos pelo vetor de entrada, da manera usual. O neurôno que tver o maor nível de atvação é chamado de vencedor e apenas ele terá atvdade dferente de zero na saída da rede, ou sea, o padrão de entrada que estver sendo apresentado à rede provocará a atvação de apenas um neurôno da rede neural. 1

2 Pscologa Conexonsta Antono Roque Aula 9 Um exemplo de uma rede com aprendzado compettvo em duas dmensões está dado acma. Os padrões de entrada são vetores N dmensonas x, = 1,..., N. Vamos supor que exstam P desses padrões. A rede neural consste de M neurônos organzados em uma grade b-dmensonal. No nosso caso, M = 16. Quando um dos P padrões é apresentado na entrada, cada um dos M neurônos recebe este padrão e calcula o seu nível de atvação, N u = wkxk, = 1,, M k = 1 onde x é o vetor de entrada, é o índce que ndca o neurôno e w é o vetor de pesos entre o padrão de entrada e o neurôno (os pesos não estão mostrados na fgura para não congestona-la)., O neurôno vencedor quando o padrão x estver sendo apresentado é aquele que tver o maor valor de u. Vamos desgna-lo por *. Segundo a regra do aprendzado compettvo, apenas o neurôno vencedor terá saída dferente de zero após a apresentação do padrão x. A resposta da rede ao padrão x é, 2

3 Pscologa Conexonsta Antono Roque Aula 9 * 1para = y ( x ) = *. 0 para O únco neurôno atvo da rede em resposta ao padrão x (o neurôno vencedor) representa o padrão. É como se os M neurônos da rede competssem entre s para determnar quem va fcar mas atvo em resposta ao padrão de entrada e apenas o vencedor fcasse atvo, dexando todos os perdedores natvos. Por causa dsso, este tpo de rede é também chamada de rede do tpo o vencedor fca com tudo. Uma rede do tpo o vencedor fca com tudo mplementa um mapa entre um espaço N-dmensonal contínuo de vetores x e um espaço dscreto de M neurônos. Note que podemos ter mas de um vetor x sendo representado pelo mesmo neurôno vencedor. Neste caso, este neurôno é o representante do grupo de padrões x que o fazem ser vencedor. Desta forma, este tpo de rede neural mplementa um mecansmo de agrupamento (ou clusterng) de padrões: padrões com característcas smlares são representados pelo mesmo vetor da rede. Após a determnação do neurôno vencedor em resposta a um padrão de entrada x, ocorre a alteração nos pesos da rede. Pela regra do aprendzado compettvo, apenas os pesos do neurôno vencedor são modfcados. Chamando o vetor de pesos do neurôno vencedor de w *, a regra do aprendzado compettvo mplca em, e ( x( n) w ( )) w * ( n + 1) = w * ( n) + η * n * w ( n + 1) = w ( n) para, onde η é a constante de taxa de aprendzagem (um valor entre 0 e 1) que controla a rapdez com que as mudanças nos pesos são fetas. 3

4 Pscologa Conexonsta Antono Roque Aula 9 Pare entender melhor a regra do aprendzado compettvo, vamos analsa-la vetoralmente. O neurôno vencedor é aquele que tver o maor nível de atvação u. Como o nível de atvação de um neurôno é o produto nterno entre o vetor de entrada x e o vetor de pesos do neurôno, u = w.x, o crtéro para a escolha do neurôno vencedor é o de smlardade entre x e w tendo por medda de smlardade o produto nterno. Sabemos que este produto pode ser escrto como u = x cosθ, w onde θ é o ângulo entre os vetores x e w. Se os vetores de entrada e de pesos estverem normalzados, um valor grande de u ndca que o vetor de entrada x está próxmo do vetor de pesos w, ou sea, que x está nas vznhanças de w. Já um valor pequeno de u ndca que o vetor de entrada x é quase perpendcular ao vetor de pesos w. A fgura acma lustra o processo de escolha do neurôno vencedor em um caso em que os padrões de entrada são b-dmensonas, com uma rede neural com três neurônos e os vetores de peso e de entrada normalzados. O neurôno vencedor * é o que tver o valor máxmo de w.x. 4

5 Pscologa Conexonsta Antono Roque Aula 9 A normalzação dos padrões de entrada provoca alterações neles, o que nem sempre é deseável. Para evtar sto, costuma-se usar como crtéro de defnção do neurôno vencedor o cálculo da dstânca eucldeana entre o vetor x e o vetor de pesos w, N ( x w ) x w =, = 1 pos pode-se mostrar que maxmzar o produto nterno w.x é matematcamente equvalente a mnmzar a dstânca eucldeana entre x e w. Portanto, o neurôno vencedor * é aquele cuo vetor de pesos tver a menor dstânca eucldeana com o padrão de entrada. Este crtéro de escolha do neurôno vencedor fo utlzado pela prmera vez por Stephen Grossberg em Uma vez determnado o neurôno vencedor, o seu vetor de pesos é modfcado pela regra do aprendzado compettvo, Δw * = η(x w * ). Ela nos dz que o vetor de pesos do neurôno vencedor deve ser modfcado por um fator η na dreção de x w *. Geometrcamente, em duas dmensões, Esta regra de mudança de pesos faz com que o vetor de pesos do neurôno vencedor, que á era o mas próxmo do padrão de entrada, sea arrastado na dreção do padrão de entrada, fcando anda mas próxmo dele. 5

6 Pscologa Conexonsta Antono Roque Aula 9 A partr de uma população de padrões de entrada retra-se, a cada passo, um dos padrões e aplca-o à entrada da rede. O neurôno vencedor é determnado e o seu peso alterado conforme a regra do aprendzado compettvo. Repetndo-se este procedmento váras vezes, os pesos da rede acabam convergndo para uma stuação de relatva establdade em que eles fcam nos centros de massa de agrupamentos de padrões de entrada. A fgura abaxo lustra sso para um caso com 13 padrões de entrada tr-dmensonas e uma rede neural com 3 neurônos, onde por smplcdade os padrões de entrada e os vetores de peso têm todos módulo untáro, ou sea, podem ser representados por pontos na superfíce de uma esfera. A convergênca dos vetores de peso é controlada pelo valor de η. Se η for muto grande (próxmo de 1) as mudanças nos pesos serão grandes e a convergênca será rápda, mas os vetores de peso podem não se establzar. Se η for muto pequeno, a convergênca pode ser muto vagarosa. Uma técnca muto adotada é fazer η varar com o passo de teração t, começando com um valor próxmo de 1 e dmnundo à medda que o aprendzado progrde. A regra de aprendzado compettvo faz com que a rede neural represente grupos de padrões que esteam próxmos entre s por um vetor protótpo (por exemplo, os vetores ndcados por cruzes na fgura acma). O espaço de vetores de entrada fca dvddo em regões, ou vznhanças, tas que cada uma delas está assocada a um vetor protótpo que é o vetor de pesos de um dos neurônos da rede. 6

7 Pscologa Conexonsta Antono Roque Aula 9 Os vetores protótpos são representantes de todos os possíves vetores que estverem na sua vznhança. Se lgarmos os vetores protótpos por lnhas e as cortamos perpendcularmente nos seus pontos médos, as lnhas de corte vão se unr e formar uma dvsão do espaço que é chamada de mosaco de Vorono. O contínuo de pontos que pertence ao nteror de uma das regões do mosaco é representado pelo vetor protótpo correspondente (vea a fgura abaxo). Uma das aplcações mas mportantes do aprendzado compettvo está na quantzação de vetores. Por exemplo, em telecomuncações a redução na dmensonaldade dos dados envados é mportante pela redução de custos que ela provoca. Uma das maneras mas usadas de se reduzr a dmensão dos dados é por quantzação de vetores. Nesta técnca, os vetores (dados) a serem transmtdos por uma lnha de comuncação são agrupados em regões como a do desenho acma e cada vetor protótpo recebe um número. Um lvro de códgo é então crado de manera que dado um número o vetor protótpo a ele assocado pode ser obtdo. Então, quando se quer transmtr um dado vetor o que se faz é envar, ao nvés dele, apenas o número do grupo ao qual ele pertence. O recebedor da mensagem tem o lvro de códgo e consegue, a partr do número, construr o vetor protótpo que representa o vetor orgnal que se quera transmtr. Se a quantzação de vetores for feta com uma granulardade bem fna, de manera que a dstânca entre um vetor de um dado agrupamento e o seu protótpo sea pequena e, portanto, o erro ao se usar o protótpo para representar o vetor também sea pequeno, a fdeldade deste método pode ser bastante boa. 7

8 Pscologa Conexonsta Antono Roque Aula 9 O aprendzado compettvo é uma técnca de agrupamento de dados (clusterng). É mportante fazer uma dstnção entre agrupamento e classfcação de dados. Um agrupamento é um processo pelo qual amostras de dados de uma população são colocadas untas em um grupo de acordo com algum crtéro de vznhança espacal (no R N ). Uma classfcação envolve a atrbução de rótulos às amostras de uma população, de acordo com algum crtéro externo (em geral, baseado nas convenções e preconcetos humanos). Um agrupamento é um método não-supervsonado de se colocar padrões dentro de um mesmo grupo, enquanto que uma classfcação é um método supervsonado. A fgura abaxo (adaptada do lvro de Prncpe, J.C., Eulano, N.R., Curt Lefebvre, W. Neural and Adaptve Systems: fundamentals through smulatons. John Wley & Sons, New York, NY, 2000.) lustra a dferença entre agrupamento e classfcação. 8

9 Pscologa Conexonsta Antono Roque Aula 9 Na fgura do exemplo exstem duas classes e quatro agrupamentos. Como o agrupamento é determnado por um crtéro baseado apenas na proxmdade entre os dados, pode haver dferentes maneras de agrupá-los. Por exemplo, os dados dos agrupamentos 1 e 2 podem ser agrupados em um únco grupo, ou os do agrupamento 4 podem ser dvddos em dos, etc. Note que se os dados dos agrupamentos 1 e 2 forem colocados dentro de um mesmo agrupamento, este concdrá com a classe 1. Então, às vezes, uma dada manera de se agrupar um conunto de dados, baseada num crtéro natural de vznhança entre eles, acaba concdndo com um crtéro decddo antecpadamente para classfcá-los. Um estudo nteressante que deve ser feto sempre que se usa um método de agrupamento (não supervsonado) é verfcar se ele fornece uma dvsão dos dados em grupos que tenham alguma smlardade com as classes em que nós, humanos, os classfcamos. Em prncípo, pode não haver qualquer relação entre os agrupamentos e as classes, e então o agrupamento pode estar revelando assocações entre os dados completamente novas para nós (que podem ou não ser útes), mas se for possível nterpretar os agrupamentos em termos das classes usadas por nós, então o método de agrupamento pode á estar fazendo a tarefa de classfcação para nós. De um ponto de vsta teórco, o agrupamento é uma forma de estmação de densdade de pontos não-paramétrca. Na ausênca de um crtéro externo de classfcação de dados, que nos dga em que categoras eles devem ser arranados, o melhor que podemos fazer para dvd-los em grupos é usar a nformação sobre a dstrbução dos dados no espaço de entrada ( N) para separá-los em conuntos de elementos vznhos neste espaço. 9

10 Pscologa Conexonsta Antono Roque Aula 9 A déa básca das técncas de agrupamento é buscar regões de alta densdade de pontos no espaço de entrada, os agrupamentos (clusters) de dados, e escolher os seus centros para representar os pontos das regões. Portanto, o centro de cada uma dessas regões é o protótpo que representa todos os pontos da regão. No caso da rede neural trenada por aprendzado compettvo, os protótpos são os vetores de pesos dos M neurônos da rede. Uma técnca não baseada em redes neuras de se fazer agrupamento de dados é a que usa o chamado algortmo de agrupamento por K-médas (K-means clusterng). A déa deste algortmo é encontrar a melhor dvsão de P dados em K grupos C, = 1,..., K, de manera que a dstânca total entre os dados de um grupo e o seu respectvo centro, somada por todos os grupos, sea mnmzada. Mas concretamente, suponha que temos P pontos N-dmensonas, x, = 1,..., P, e queremos encontrar um conunto de K vetores protótpos µ, = 1,..., K. O algortmo deve separar os pontos {x } em K subconuntos dsuntos S, cada um contendo n pontos, de manera a mnmzar a função que dá a soma total das dstâncas entre os dados dos grupos e os seus respectvos centros, K J = x µ, = 1 S onde o centro µ é a méda dos n pontos no subconunto S, µ = 1 n Note que este método é parecdo com o de regressão lnear, só que lá o que se mnmza é a soma dos quadrados das dstâncas entre os pontos e a reta de regressão, e aqu o que se mnmza é a soma dos quadrados das dstâncas entre os pontos de um grupo e o centro do grupo, tomado como a méda dos pontos do grupo. S x. 2 10

11 Pscologa Conexonsta Antono Roque Aula 9 O algortmo de agrupamento por K-médas começa atrbundo aleatoramente os P pontos a K grupos e calculando as médas dos vetores de cada grupo. Depos, cada ponto é deslocado para o grupo correspondente ao vetor médo do qual ele está mas próxmo. Com este novo rearrano dos pontos em K grupos, novos vetores médos são calculados. O processo de re-alocação de pontos a novos grupos cuos vetores médos são os mas próxmos deles contnua até que se chegue a uma stuação em que todos os pontos á esteam nos grupos dos seus vetores médos mas próxmos. Pode-se mostrar matematcamente que durante esse processo teratvo o valor de J não aumenta; ele, ou permanece constante, ou dmnu até atngr um mínmo. A função J pode ser vsta como uma função custo e o seu mínmo pode ser obtdo usando-se o método do gradente descendente com as componentes dos vetores médos dos K grupos sendo as varáves em relação às quas as dervadas são calculadas. Se para calcular o gradente de J em relação às componentes dos vetores médos µ l ( = 1,...,K; l = 1,...,N) usarmos uma aproxmação parecda com a adotada por Wdrow e Hoff no cálculo da regra LMS da Adalne, obtemos uma regra on lne para a atualzação dos vetores médos dos K grupos. Esta regra é a segunte: Incalmente, escolhe-se aleatoramente K vetores µ para ser os vetores centras de cada grupo. Em seguda, os padrões x vão sendo apresentados, um por vez, e o vetor central mas próxmo do padrão sendo apresentado é modfcado pela regra, ( x( t) ( )) Δµ ( t) = η t. µ Note que esta é exatamente a regra de atualzação do aprendzado compettvo se consderarmos que cada vetor central de um agrupamento é o vetor de pesos de um nos neurônos da rede. Portanto, a aplcação do aprendzado compettvo a uma rede neural com K neurônos mplementa uma versão on lne (estocástca) do método de agrupamento por K-médas. 11

12 Pscologa Conexonsta Antono Roque Aula 9 Alguns problemas apresentados pelo aprendzado compettvo do tpo o vencedor fca com tudo são: 1. Precsa-se de uma undade de saída para cada agrupamento. Se a rede neural tem M neurônos ela pode agrupar os P dados em, no máxmo, M classes dstntas. Compare com o caso em que as M undades podem fcar atvas smultaneamente e são bnáras (0 ou 1): neste caso a rede pode representar 2 M classes dferentes; 2. Falta de robustez: se a undade responsável por determnado agrupamento falhar, todos os padrões do agrupamento fcam sem representação; 3. Não se pode representar conhecmento herárquco, com categoras dentro de categoras; 4. Undades que tenham o seu vetor de pesos w(0) longe de qualquer um dos padrões x podem nunca vencer e, portanto, nunca terem seu vetor de pesos modfcado. Elas fcam natvas por todo o aprendzado e, por sso, são chamadas de undades mortas. No entanto, é convenente dexar algumas dessas undades na rede para a eventualdade de aparecer um padrão novo que estea próxmo dos seus vetores de peso e longe dos demas (neste caso, será necessáro um novo trenamento da rede). Há maneras de se evtar o aparecmento de undades mortas em uma rede com aprendzado compettvo: - Pode-se ncalzar os pesos dos neurônos da rede com amostras dos própros padrões de entrada; - Pode-se atualzar os pesos dos neurônos perdedores também, mas com coefcentes η menores ( aprendzado vazado ); - Pode-se usar um termo de conscênca, mplementado como um termo de vés, proposto ncalmente por Grossberg em 1976 (vea a segur): A déa do termo de conscênca é que cada undade da rede deve ser penalzada se começar a ganhar demas (a sua conscênca a fara se sentr 12

13 Pscologa Conexonsta Antono Roque Aula 9 culpada de ganhar tanto, de manera que ela própra dfcultara as suas vtóras para dar mas chances às demas undades). Para mplementar o termo de conscênca, cada undade deve ter uma espéce de contador do número de vezes que ela ganha, [ r ( t) c ( )] c ( t + 1) = c ( t) + β t, onde c (0) = 0, r (t) é o resultado da competção no passo t (1 se a undade ganha, 0 se não) e β é uma constante postva pequena (por exemplo, 0,0001). Com o uso desta fórmula, cada vez que a undade ganha c aumenta e cada vez que ela perde c dmnu. O termo de conscênca do neurôno é um vés b que é subtraído da dstânca entre o seu vetor de pesos w e o padrão atual x, de manera que a smlardade entre w e x passa a ser calculada como, 2 ( x w ) b N w, x) = x b =, =1 D( w e b é atualzado a cada passo de tempo pela fórmula, ( 1 c ( )) b ( t) = γ t M, onde γ é uma constante postva (por exemplo, 10). Desta forma, se uma undade ganha muto o seu c cresce fazendo o seu b tornarse negatvo, dmnundo as chances de que ela ganhe de novo. Por outro lado, uma undade que ganha pouco tem c pequeno e b postvo, o que aumenta as suas chances de ganhar em um novo passo. O algortmo SOM de Kohonen esta baseado no aprendzado compettvo vsto acma. Uma rede SOM é do tpo da mostrada abaxo. A camada de entrada recebe padrões que são vetores N-dmensonas vndos de alguma população de 13

14 Pscologa Conexonsta Antono Roque Aula 9 de padrões e a rede SOM é uma camada b-dmensonal (como no caso do desenho) ou un-dmensonal. Quando um padrão x é apresentado na entrada da rede, a undade vencedora, *, é aquela cua dstânca eucldeana entre o seu vetor de pesos w * e o padrão x for a menor de todas (como no caso do aprendzado compettvo), * ( x) = mn x w A dferença é que agora não é só o neurôno vencedor que tem o seu vetor de pesos atualzado, mas todos os neurônos vznhos do neurôno vencedor. A regra de mudança de pesos do algortmo SOM é, w ( *. [ x( t) w ( )] t + 1) = w ( t) + Λ ( t) η ( t) t,, onde Λ,* (t) é a chamada função de vznhança centrada no neurôno vencedor * e η(t) é a taxa de aprendzagem. Em geral, tanto Λ,* (t) como η(t) varam com o passo de aprendzagem t. O efeto da ntrodução da função de vznhança Λ,* (t) é fazer com que não apenas o vetor de pesos do neurôno vencedor sea modfcado na dreção do padrão atual, mas que os vetores de pesos de todos os neurônos vznhos ao neurôno vencedor também seam arrastados na dreção do padrão atual, porém 14

15 Pscologa Conexonsta Antono Roque Aula 9 por um fator menor va dmnundo à medda que o neurôno correspondente va fcando mas dstante do vencedor. É como se todos os vetores de pesos dos neurônos da rede neural estvessem undos por elástcos sendo que os elástcos mas fortes unram os vetores de pesos dos neurônos que fossem prmeros vznhos, elástcos um pouco mas fracos unram os vetores de pesos dos neurônos que fossem segundos vznhos, elástcos mas fracos unram os vetores de pesos dos neurônos que fossem terceros vznhos etc. Quando o vetor de pesos de um neurôno vencedor em um dado passo for modfcado, por estar preso aos outros por elástcos, ele rá arrastar consgo os demas vetores de peso, e mas fortemente aqueles dos neurônos mas próxmos. Em geral, usa-se uma função gaussana para mplementar a função de vznhança, 2 d Λ *, = * ( t) exp, 2 2 ( t ), σ onde d,* é a dstânca entre um neurôno e o neurôno vencedor *. Se a rede neural for un-dmensonal, essa dstânca é smplesmente o módulo da dferença entre os índces de e *, d,* = índce_de_ índce_de_ * ; se a rede for bdmensonal essa dstânca é dada pela dstânca eucldeana entre os seus vetores de posção, d 2, * 2 = r r *, onde r é o vetor posção do neurôno e r * é o vetor posção do neurôno vencedor, os dos sendo meddos nos espaço dscreto defndo pelos nodos da rede neural. O desvo padrão da função de vznhança, σ,* (t), dmnu com o número de passos t. Uma manera comum de mplementar essa dmnução é por um decamento exponencal, t σ ( t ) = σ 0 exp, τ 1 15

16 Pscologa Conexonsta Antono Roque Aula 9 onde τ 1 é uma constante temporal (determnada emprcamente). Em geral, também faz-se a taxa de aprendzagem η(t) dmnur com o passo de teração de uma manera exponencal, t η( t ) = η 0 exp, τ 2 onde τ 2 é outra constante temporal (também determnada emprcamente). A função de vznhança dá ao algortmo SOM uma característca especal. Ele faz com que a representação dos padrões do espaço de entrada pela rede neural em grupos preserve a topografa do espaço de entrada. Isto quer dzer que padrões vznhos no espaço de entrada são representados por neurônos vznhos na rede neural. Além dsso, regões do espaço de entrada cuos padrões x tenham maor probabldade de ocorrer são representadas por um número maor de neurônos da rede neural, sto é, elas são representadas com uma resolução maor do que as regões cuos padrões ocorrem menos freqüentemente. Portanto, um mapa entre o espaço contínuo de entrada e o espaço dscreto da rede neural mplementado pelo algortmo SOM tende a preservar tanto a métrca como a dstrbução do espaço de entrada. É mportante lembrar que sto ocorre a partr apenas da nformação contda nos padrões de entrada; o mapa crado pelo SOM não é supervsonado. Durante o trenamento segundo o algortmo SOM ocorrem, em geral, duas fases dstntas: 1. Fase de auto-organzação ou de ordenamento: É nesta fase que o ordenamento topográfco dos vetores de pesos ocorre. Incalmente, os vetores de pesos têm valores aleatóros e não possuem qualquer tpo de ordenamento. À medda que a rede va sendo trenada, vetores de neurônos vznhos entre s no espaço da rede neural começam a se aproxmar uns dos outros, de manera que 16

17 Pscologa Conexonsta Antono Roque Aula 9 neurônos de uma mesma área da rede neural acabam representando padrões vndos de uma mesma regão do espaço de entrada. Esta fase pode levar mutas terações para termnar, em geral mas do que Algumas dcas útes para que ela ocorra da melhor manera possível, dadas por Haykn em seu lvro, são as seguntes: A taxa de aprendzagem η(t) deve começar com um valor próxmo de 0,1 e r dmnundo gradualmente, mas sem fcar abaxo de 0,01. Para um decamento exponencal como o dado pela fórmula acma, a constante τ 2 deve ser da ordem de Incalmente, a função de vznhança Λ,* (t) deve nclur pratcamente todos os neurônos da rede (ou sea, todo mundo sendo vznho do neurôno vencedor * ), mas depos ela deve r encolhendo com o passo de teração até que, após mas ou menos 1000 passos, apenas os quatro prmeros vznhos de * (no caso de uma rede b-dmensonal quadrada) façam parte da sua função de vznhança (e mesmo assm, um pouco mas tarde, somente o própro neurôno vencedor é que tenha o seu vetor de pesos modfcado, como no aprendzado compettvo do tpo o vencedor fca com tudo). Uma possível manera de mplementar sso é fazendo σ 0 ser gual ao rao da rede neural e τ 1 = 1000/logσ Fase de Convergênca: Nesta fase ocorre o refnamento do mapa, levando a uma representação mas acurada do espaço de entrada por parte da rede neural. Como regra geral, o número de terações nesta fase deve ser de pelo menos 500 vezes o número de neurônos na rede neural. Logo, o número de terações pode atngr dezenas de mlhares de passos. Nesta fase, a taxa de aprendzagem η deve permanecer pequena, da ordem de 0,01 e a função de vznhança de englobar apenas o própro neurôno vencedor e, no máxmo, os seus prmeros vznhos. Uma síntese do algortmo SOM de Kohonen é a segunte: 17

18 Pscologa Conexonsta Antono Roque Aula 9 1. Incalzação: Escolha valores aleatóros para as componentes ncas dos vetores de pesos w (0), = 1,..., M. A únca restrção é que os M vetores de pesos devem ser dferentes uns dos outros, mas é, em geral, convenente que os seus módulos seam pequenos; 2. Escolha do padrão de entrada: De acordo com alguma dstrbução de probabldades p(x), escolha um padrão x da população para ser colocado na camada de entrada da rede; 3. Determnação do neurôno vencedor: Use o crtéro de smlardade baseado na dstânca eucldeana entre o vetor de entrada e os vetores de peso para determnar o neurôno vencedor * para o passo atual, x = mn * ( ) x w 4. Atualzação dos pesos: Modfque os vetores de pesos dos neurônos da rede de acordo com a regra, w ( * ; [ x( t) w ( )] t + 1) = w ( t) + Λ ( t) η ( t) t, ; 5. Contnuação: Volte para o passo 2 e contnue até que não seam observadas mudanças sgnfcatvas no mapa formado. 18

Psicologia Conexionista Antonio Roque Aula 8 Modelos Conexionistas com tempo contínuo

Psicologia Conexionista Antonio Roque Aula 8 Modelos Conexionistas com tempo contínuo Modelos Conexonstas com tempo contínuo Mutos fenômenos de aprendzado assocatvo podem ser explcados por modelos em que o tempo é uma varável dscreta como nos casos vstos nas aulas anterores. Tas modelos

Leia mais

Introdução. Introdução. Introdução I - PERCEPTRON. Modelos de Neurônios LABIC. Neurônio:

Introdução. Introdução. Introdução I - PERCEPTRON. Modelos de Neurônios LABIC. Neurônio: Modelos de Neurônos Introdução Característcas Báscas Modelo de Neurôno Estrutura da Rede Neurôno: Cada neurôno é composto por: dendrtos: con de termnas de entrada corpo central Algortmo de Aprendzado axôno:

Leia mais

2 Redes Neurais Auto-Organizáveis

2 Redes Neurais Auto-Organizáveis 2 Redes Neuras Auto-Organzáves 2.1 Introdução Problemas de clusterng estão presentes nos mas varados contetos, como por eemplo: classfcação de padrões, mneração de dados e recuperação de nformações de

Leia mais

Prof. Lorí Viali, Dr.

Prof. Lorí Viali, Dr. Prof. Lorí Val, Dr. val@mat.ufrgs.br http://www.mat.ufrgs.br/~val/ É o grau de assocação entre duas ou mas varáves. Pode ser: correlaconal ou expermental. Prof. Lorí Val, Dr. UFRG Insttuto de Matemátca

Leia mais

7 - Distribuição de Freqüências

7 - Distribuição de Freqüências 7 - Dstrbução de Freqüêncas 7.1 Introdução Em mutas áreas há uma grande quantdade de nformações numércas que precsam ser dvulgadas de forma resumda. O método mas comum de resumr estes dados numércos consste

Leia mais

Notas Processos estocásticos. Nestor Caticha 23 de abril de 2012

Notas Processos estocásticos. Nestor Caticha 23 de abril de 2012 Notas Processos estocástcos Nestor Catcha 23 de abrl de 2012 notas processos estocástcos 2 O Teorema de Perron Frobenus para matrzes de Markov Consdere um processo estocástco representado por um conunto

Leia mais

4 Critérios para Avaliação dos Cenários

4 Critérios para Avaliação dos Cenários Crtéros para Avalação dos Cenáros É desejável que um modelo de geração de séres sntétcas preserve as prncpas característcas da sére hstórca. Isto quer dzer que a utldade de um modelo pode ser verfcada

Leia mais

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Classificadores Lineares. Luiz Eduardo S. Oliveira, Ph.D.

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Classificadores Lineares. Luiz Eduardo S. Oliveira, Ph.D. Unversdade Federal do Paraná Departamento de Informátca Reconhecmento de Padrões Classfcadores Lneares Luz Eduardo S. Olvera, Ph.D. http://lesolvera.net Objetvos Introduzr os o conceto de classfcação lnear.

Leia mais

É o grau de associação entre duas ou mais variáveis. Pode ser: correlacional ou experimental.

É o grau de associação entre duas ou mais variáveis. Pode ser: correlacional ou experimental. Prof. Lorí Val, Dr. val@mat.ufrgs.br http://www.mat.ufrgs.br/~val/ É o grau de assocação entre duas ou mas varáves. Pode ser: correlaconal ou expermental. Numa relação expermental os valores de uma das

Leia mais

3 Algoritmos propostos

3 Algoritmos propostos Algortmos propostos 3 Algortmos propostos Nesse trabalho foram desenvolvdos dos algortmos que permtem classfcar documentos em categoras de forma automátca, com trenamento feto por usuáros Tas algortmos

Leia mais

RISCO. Investimento inicial $ $ Taxa de retorno anual Pessimista 13% 7% Mais provável 15% 15% Otimista 17% 23% Faixa 4% 16%

RISCO. Investimento inicial $ $ Taxa de retorno anual Pessimista 13% 7% Mais provável 15% 15% Otimista 17% 23% Faixa 4% 16% Análse de Rsco 1 RISCO Rsco possbldade de perda. Quanto maor a possbldade, maor o rsco. Exemplo: Empresa X va receber $ 1.000 de uros em 30 das com títulos do governo. A empresa Y pode receber entre $

Leia mais

Reconhecimento Estatístico de Padrões

Reconhecimento Estatístico de Padrões Reconhecmento Estatístco de Padrões X 3 O paradgma pode ser sumarzado da segunte forma: Cada padrão é representado por um vector de característcas x = x1 x2 x N (,,, ) x x1 x... x d 2 = X 1 X 2 Espaço

Leia mais

Estatística II Antonio Roque Aula 18. Regressão Linear

Estatística II Antonio Roque Aula 18. Regressão Linear Estatístca II Antono Roque Aula 18 Regressão Lnear Quando se consderam duas varáves aleatóras ao mesmo tempo, X e Y, as técncas estatístcas aplcadas são as de regressão e correlação. As duas técncas estão

Leia mais

R X. X(s) Y Y(s) Variáveis aleatórias discretas bidimensionais

R X. X(s) Y Y(s) Variáveis aleatórias discretas bidimensionais 30 Varáves aleatóras bdmensonas Sea ε uma experênca aleatóra e S um espaço amostral assocado a essa experênca. Seam X X(s) e Y Y(s) duas funções cada uma assocando um número real a cada resultado s S.

Leia mais

Ângulo de Inclinação (rad) [α min α max ] 1 a Camada [360,0 520,0] 2000 X:[-0,2065 0,2065] Velocidade da Onda P (m/s)

Ângulo de Inclinação (rad) [α min α max ] 1 a Camada [360,0 520,0] 2000 X:[-0,2065 0,2065] Velocidade da Onda P (m/s) 4 Estudo de Caso O estudo de caso, para avalar o método de estmação de parâmetros trdmensonal fo realzado em um modelo de referênca de três camadas, e foram realzados os seguntes passos: Descrção do modelo

Leia mais

6 Modelo Proposto Introdução

6 Modelo Proposto Introdução 6 Modelo Proposto 6.1. Introdução Neste capítulo serão apresentados detalhes do modelo proposto nesta dssertação de mestrado, onde será utlzado um modelo híbrdo para se obter prevsão de carga curto prazo

Leia mais

Programa do Curso. Sistemas Inteligentes Aplicados. Análise e Seleção de Variáveis. Análise e Seleção de Variáveis. Carlos Hall

Programa do Curso. Sistemas Inteligentes Aplicados. Análise e Seleção de Variáveis. Análise e Seleção de Variáveis. Carlos Hall Sstemas Intelgentes Aplcados Carlos Hall Programa do Curso Lmpeza/Integração de Dados Transformação de Dados Dscretzação de Varáves Contínuas Transformação de Varáves Dscretas em Contínuas Transformação

Leia mais

Algarismos Significativos Propagação de Erros ou Desvios

Algarismos Significativos Propagação de Erros ou Desvios Algarsmos Sgnfcatvos Propagação de Erros ou Desvos L1 = 1,35 cm; L = 1,3 cm; L3 = 1,30 cm L4 = 1,4 cm; L5 = 1,7 cm. Qual destas meddas está correta? Qual apresenta algarsmos com sgnfcado? O nstrumento

Leia mais

X = 1, se ocorre : VB ou BV (vermelha e branca ou branca e vermelha)

X = 1, se ocorre : VB ou BV (vermelha e branca ou branca e vermelha) Estatístca p/ Admnstração II - Profª Ana Cláuda Melo Undade : Probabldade Aula: 3 Varável Aleatóra. Varáves Aleatóras Ao descrever um espaço amostral de um expermento, não especfcamos que um resultado

Leia mais

Prof. Lorí Viali, Dr.

Prof. Lorí Viali, Dr. Prof. Lorí Val, Dr. val@mat.ufrgs.br http://www.mat.ufrgs.br/~val/ 1 É o grau de assocação entre duas ou mas varáves. Pode ser: correlaconal ou expermental. Numa relação expermental os valores de uma das

Leia mais

2 Aproximação por curvas impĺıcitas e partição da unidade

2 Aproximação por curvas impĺıcitas e partição da unidade Aproxmação por curvas mpĺıctas e partção da undade Este capítulo expõe alguns concetos báscos necessáros para o entendmento deste trabalho 1 Curvas Algébrcas Um subconjunto O R é chamado de uma curva mplícta

Leia mais

Os modelos de regressão paramétricos vistos anteriormente exigem que se suponha uma distribuição estatística para o tempo de sobrevivência.

Os modelos de regressão paramétricos vistos anteriormente exigem que se suponha uma distribuição estatística para o tempo de sobrevivência. MODELO DE REGRESSÃO DE COX Os modelos de regressão paramétrcos vstos anterormente exgem que se suponha uma dstrbução estatístca para o tempo de sobrevvênca. Contudo esta suposção, caso não sea adequada,

Leia mais

PROVA 2 Cálculo Numérico. Q1. (2.0) (20 min)

PROVA 2 Cálculo Numérico. Q1. (2.0) (20 min) PROVA Cálculo Numérco Q. (.0) (0 mn) Seja f a função dada pelo gráfco abaxo. Para claro entendmento da fgura, foram marcados todos os pontos que são: () raízes; () pontos crítcos; () pontos de nflexão.

Leia mais

Termo-Estatística Licenciatura: 4ª Aula (08/03/2013)

Termo-Estatística Licenciatura: 4ª Aula (08/03/2013) Termo-Estatístca Lcencatura: 4ª Aula (08/03/013) Prof. Alvaro Vannucc RELEMBRADO Dstrbução dscreta (hstogramas) x contínua (curvas de dstrbução): Dada uma Função de Dstrbução de Densdade de Probabldade,

Leia mais

Estatística Espacial: Dados de Área

Estatística Espacial: Dados de Área Estatístca Espacal: Dados de Área Dstrbução do número observado de eventos Padronzação e SMR Mapas de Probabldades Mapas com taxas empírcas bayesanas Padronzação Para permtr comparações entre dferentes

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS PERCEPTRON Característcas Báscas Modelo de Neurôno Estrutura da Rede Algortmo de Aprendzado CARACTERISTICAS BASICAS - Regra de propagação net - Função de atvação: Degrau = x w + - Topologa: uma únca camada

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendzagem de Máquna Aprendzado baseado em nstâncas Aprendzado não-paramétrco Quando as suposções fetas por métodos paramétrcos não são váldas para todo o espaço de entrada, provocando erros predtvos

Leia mais

REGRESSÃO NÃO LINEAR 27/06/2017

REGRESSÃO NÃO LINEAR 27/06/2017 7/06/07 REGRESSÃO NÃO LINEAR CUIABÁ, MT 07/ Os modelos de regressão não lnear dferencam-se dos modelos lneares, tanto smples como múltplos, pelo fato de suas varáves ndependentes não estarem separados

Leia mais

Eventos coletivamente exaustivos: A união dos eventos é o espaço amostral.

Eventos coletivamente exaustivos: A união dos eventos é o espaço amostral. DEFINIÇÕES ADICIONAIS: PROBABILIDADE Espaço amostral (Ω) é o conjunto de todos os possíves resultados de um expermento. Evento é qualquer subconjunto do espaço amostral. Evento combnado: Possu duas ou

Leia mais

Representação e Descrição de Regiões

Representação e Descrição de Regiões Depos de uma magem ter sdo segmentada em regões é necessáro representar e descrever cada regão para posteror processamento A escolha da representação de uma regão envolve a escolha dos elementos que são

Leia mais

Capítulo 2. APROXIMAÇÕES NUMÉRICAS 1D EM MALHAS UNIFORMES

Capítulo 2. APROXIMAÇÕES NUMÉRICAS 1D EM MALHAS UNIFORMES Capítulo. Aproxmações numércas 1D em malhas unformes 9 Capítulo. AROXIMAÇÕS NUMÉRICAS 1D M MALHAS UNIFORMS O prncípo fundamental do método das dferenças fntas (MDF é aproxmar através de expressões algébrcas

Leia mais

CAPÍTULO 2 DESCRIÇÃO DE DADOS ESTATÍSTICA DESCRITIVA

CAPÍTULO 2 DESCRIÇÃO DE DADOS ESTATÍSTICA DESCRITIVA CAPÍTULO DESCRIÇÃO DE DADOS ESTATÍSTICA DESCRITIVA. A MÉDIA ARITMÉTICA OU PROMÉDIO Defnção: é gual a soma dos valores do grupo de dados dvdda pelo número de valores. X x Soma dos valores de x número de

Leia mais

MODELOS DE REGRESSÃO PARAMÉTRICOS

MODELOS DE REGRESSÃO PARAMÉTRICOS MODELOS DE REGRESSÃO PARAMÉTRICOS Às vezes é de nteresse nclur na análse, característcas dos ndvíduos que podem estar relaconadas com o tempo de vda. Estudo de nsufcênca renal: verfcar qual o efeto da

Leia mais

Primeiras Redes Neurais. Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática

Primeiras Redes Neurais. Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática Prmeras Redes Neuras Aluzo Fausto Rbero Araújo Unversdade Federal de Pernambuco Centro de Informátca Conteúdo. Modelo de McCullough and Ptts 2. Teora de Hebb 3. O Perceptron 4. Exemplos 2 Modelo de McCullough

Leia mais

Prof. Lorí Viali, Dr.

Prof. Lorí Viali, Dr. Prof. Lorí Val, Dr. vall@mat.ufrgs.br http://www.mat.ufrgs.br/~val/ Em mutas stuações duas ou mas varáves estão relaconadas e surge então a necessdade de determnar a natureza deste relaconamento. A análse

Leia mais

3. Estatística descritiva bidimensional

3. Estatística descritiva bidimensional 3. Estatístca descrtva bdmensonal (Tabelas, Gráfcos e números) Análse bvarada (ou bdmensonal): avala o comportamento de uma varável em função da outra, por exemplo: Quantas TV Phlps são venddas na regão

Leia mais

5 Implementação Procedimento de segmentação

5 Implementação Procedimento de segmentação 5 Implementação O capítulo segunte apresenta uma batera de expermentos prátcos realzados com o objetvo de valdar o método proposto neste trabalho. O método envolve, contudo, alguns passos que podem ser

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 77 Intelgênca Artfcal Aula 8 Redes Neuras Edrle Soares de Lma Formas de Aprendzado Aprendzado Supervsonado Árvores de decsão. K-Nearest Neghbor (KNN). Support Vector Machnes (SVM).

Leia mais

Redes Neurais (Inteligência Artificial)

Redes Neurais (Inteligência Artificial) Redes Neuras (Intelgênca Artfcal) Aula 14 Redes Neuras Edrle Soares de Lma Formas de Aprendzado Aprendzado Supervsonado Árvores de Decsão. K-Nearest Neghbor (KNN). Support Vector Machnes

Leia mais

Figura 8.1: Distribuição uniforme de pontos em uma malha uni-dimensional. A notação empregada neste capítulo para avaliação da derivada de uma

Figura 8.1: Distribuição uniforme de pontos em uma malha uni-dimensional. A notação empregada neste capítulo para avaliação da derivada de uma Capítulo 8 Dferencação Numérca Quase todos os métodos numércos utlzados atualmente para obtenção de soluções de equações erencas ordnáras e parcas utlzam algum tpo de aproxmação para as dervadas contínuas

Leia mais

Curso de extensão, MMQ IFUSP, fevereiro/2014. Alguns exercício básicos

Curso de extensão, MMQ IFUSP, fevereiro/2014. Alguns exercício básicos Curso de extensão, MMQ IFUSP, feverero/4 Alguns exercíco báscos I Exercícos (MMQ) Uma grandeza cujo valor verdadero x é desconhecdo, fo medda três vezes, com procedmentos expermentas dêntcos e, portanto,

Leia mais

RAD1507 Estatística Aplicada à Administração I Prof. Dr. Evandro Marcos Saidel Ribeiro

RAD1507 Estatística Aplicada à Administração I Prof. Dr. Evandro Marcos Saidel Ribeiro UNIVERIDADE DE ÃO PAULO FACULDADE DE ECONOMIA, ADMINITRAÇÃO E CONTABILIDADE DE RIBEIRÃO PRETO DEPARTAMENTO DE ADMINITRAÇÃO RAD1507 Estatístca Aplcada à Admnstração I Prof. Dr. Evandro Marcos adel Rbero

Leia mais

Regressão Múltipla. Parte I: Modelo Geral e Estimação

Regressão Múltipla. Parte I: Modelo Geral e Estimação Regressão Múltpla Parte I: Modelo Geral e Estmação Regressão lnear múltpla Exemplos: Num estudo sobre a produtvdade de trabalhadores ( em aeronave, navos) o pesqusador deseja controlar o número desses

Leia mais

Variáveis Aleatórias

Variáveis Aleatórias Unversdade Federal do Pará Insttuto de Tecnologa Estatístca Aplcada I Prof. Dr. Jorge Teóflo de Barros Lopes Campus de Belém Curso de Engenhara Mecânca /08/06 7:39 ESTATÍSTICA APLICADA I - Teora das Probabldades

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Plano de Aula Aprendzagem de Máquna Aprendzagem Baseada em Instâncas Alessandro L. Koerch Introdução Espaço Eucldano Aprendzagem Baseada em Instâncas (ou Modelos Baseados em Dstânca) Regra knn (k vznhos

Leia mais

EXERCÍCIO: VIA EXPRESSA CONTROLADA

EXERCÍCIO: VIA EXPRESSA CONTROLADA EXERCÍCIO: VIA EXPRESSA CONTROLADA Engenhara de Tráfego Consdere o segmento de va expressa esquematzado abaxo, que apresenta problemas de congestonamento no pco, e os dados a segur apresentados: Trechos

Leia mais

Adriana da Costa F. Chaves

Adriana da Costa F. Chaves Máquna de Vetor Suporte (SVM) para Regressão Adrana da Costa F. Chaves Conteúdo da apresentação Introdução Regressão Regressão Lnear Regressão não Lnear Conclusão 2 1 Introdução Sejam {(x,y )}, =1,...,,

Leia mais

3 Metodologia de Avaliação da Relação entre o Custo Operacional e o Preço do Óleo

3 Metodologia de Avaliação da Relação entre o Custo Operacional e o Preço do Óleo 3 Metodologa de Avalação da Relação entre o Custo Operaconal e o Preço do Óleo Este capítulo tem como objetvo apresentar a metodologa que será empregada nesta pesqusa para avalar a dependênca entre duas

Leia mais

NOÇÕES SOBRE CORRELAÇÃO E REGRESSÃO LINEAR SIMPLES

NOÇÕES SOBRE CORRELAÇÃO E REGRESSÃO LINEAR SIMPLES NOÇÕES SOBRE CORRELAÇÃO E REGRESSÃO LINEAR SIMPLES 1 O nosso objetvo é estudar a relação entre duas varáves quanttatvas. Eemplos:. Idade e altura das cranças.. v. Tempo de prátca de esportes e rtmo cardíaco

Leia mais

Covariância na Propagação de Erros

Covariância na Propagação de Erros Técncas Laboratoras de Físca Lc. Físca e Eng. omédca 007/08 Capítulo VII Covarânca e Correlação Covarânca na propagação de erros Coefcente de Correlação Lnear 35 Covarânca na Propagação de Erros Suponhamos

Leia mais

Teoria Elementar da Probabilidade

Teoria Elementar da Probabilidade 10 Teora Elementar da Probabldade MODELOS MATEMÁTICOS DETERMINÍSTICOS PROBABILÍSTICOS PROCESSO (FENÓMENO) ALEATÓRIO - Quando o acaso nterfere na ocorrênca de um ou mas dos resultados nos quas tal processo

Leia mais

2 Principio do Trabalho Virtual (PTV)

2 Principio do Trabalho Virtual (PTV) Prncpo do Trabalho rtual (PT)..Contnuo com mcroestrutura Na teora que leva em consderação a mcroestrutura do materal, cada partícula anda é representada por um ponto P, conforme Fgura. Porém suas propredades

Leia mais

Faculdade de Engenharia Optimização. Prof. Doutor Engº Jorge Nhambiu

Faculdade de Engenharia Optimização. Prof. Doutor Engº Jorge Nhambiu 1 Programação Não Lnear com Restrções Aula 9: Programação Não-Lnear - Funções de Váras Varáves com Restrções Ponto Regular; Introdução aos Multplcadores de Lagrange; Multplcadores de Lagrange e Condções

Leia mais

FICHA de AVALIAÇÃO de MATEMÁTICA A 10.º Ano Versão 4

FICHA de AVALIAÇÃO de MATEMÁTICA A 10.º Ano Versão 4 FICHA de AVALIAÇÃO de MATEMÁTICA A 10.º Ano Versão 4 Nome Nº Turma: Data: / / Professor 10.º Ano Classfcação Apresente o seu racocíno de forma clara, ndcando todos os cálculos que tver de efetuar e todas

Leia mais

UNIDADE IV DELINEAMENTO INTEIRAMENTE CASUALIZADO (DIC)

UNIDADE IV DELINEAMENTO INTEIRAMENTE CASUALIZADO (DIC) UNDADE V DELNEAMENTO NTERAMENTE CASUALZADO (DC) CUABÁ, MT 015/ PROF.: RÔMULO MÔRA romulomora.webnode.com 1. NTRODUÇÃO Este delneamento apresenta como característca prncpal a necessdade de homogenedade

Leia mais

8 - Medidas Descritivas

8 - Medidas Descritivas 8 - Meddas Descrtvas 8. Introdução Ao descrevemos um conjunto de dados por meo de tabelas e gráfcos temos muto mas nformações sobre o comportamento de uma varável do que a própra sére orgnal de dados.

Leia mais

NOTA II TABELAS E GRÁFICOS

NOTA II TABELAS E GRÁFICOS Depto de Físca/UFMG Laboratóro de Fundamentos de Físca NOTA II TABELAS E GRÁFICOS II.1 - TABELAS A manera mas adequada na apresentação de uma sére de meddas de um certo epermento é através de tabelas.

Leia mais

Análise Exploratória de Dados

Análise Exploratória de Dados Análse Exploratóra de Dados Objetvos Análse de duas varáves quanttatvas: traçar dagramas de dspersão, para avalar possíves relações entre as duas varáves; calcular o coefcente de correlação entre as duas

Leia mais

FICHA de AVALIAÇÃO de MATEMÁTICA A 10.º Ano Versão 3

FICHA de AVALIAÇÃO de MATEMÁTICA A 10.º Ano Versão 3 FICHA de AVALIAÇÃO de MATEMÁTICA A 10.º Ano Versão 3 Nome Nº Turma: Data: / / Professor 10.º Ano Classfcação Apresente o seu racocíno de forma clara, ndcando todos os cálculos que tver de efetuar e todas

Leia mais

3 Animação de fluidos com SPH

3 Animação de fluidos com SPH 3 Anmação de fludos com SPH O SPH (Smoothed Partcle Hydrodynamcs) é um método Lagrangeano baseado em partículas, proposto orgnalmente para smulação de problemas astrofíscos por Gngold e Monaghan (1977)

Leia mais

PUCPR- Pontifícia Universidade Católica Do Paraná PPGIA- Programa de Pós-Graduação Em Informática Aplicada PROF. DR. JACQUES FACON

PUCPR- Pontifícia Universidade Católica Do Paraná PPGIA- Programa de Pós-Graduação Em Informática Aplicada PROF. DR. JACQUES FACON 1 PUCPR- Pontfíca Unversdade Católca Do Paraná PPGIA- Programa de Pós-Graduação Em Informátca Aplcada PROF. DR. JACQUES FACON LIMIARIZAÇÃO ITERATIVA DE LAM E LEUNG Resumo: A proposta para essa sére de

Leia mais

Classificação de Padrões

Classificação de Padrões Classfcação de Padrões Introdução Classfcadores Paramétrcos Classfcadores Sem-paramétrcos Redução da Dmensonaldade Teste de Sgnfcânca 6.345 Sstema de Reconhecmento de Voz Teora Acústca da Produção de Voz

Leia mais

FICHA de AVALIAÇÃO de MATEMÁTICA A 10.º Ano Versão 1

FICHA de AVALIAÇÃO de MATEMÁTICA A 10.º Ano Versão 1 FICHA de AVALIAÇÃO de MATEMÁTICA A 10.º Ano Versão 1 Nome Nº Turma: Data: / / Professor 10.º Ano Classfcação Apresente o seu racocíno de forma clara, ndcando todos os cálculos que tver de efetuar e todas

Leia mais

5 Relação entre Análise Limite e Programação Linear 5.1. Modelo Matemático para Análise Limite

5 Relação entre Análise Limite e Programação Linear 5.1. Modelo Matemático para Análise Limite 5 Relação entre Análse Lmte e Programação Lnear 5.. Modelo Matemátco para Análse Lmte Como fo explcado anterormente, a análse lmte oferece a facldade para o cálculo da carga de ruptura pelo fato de utlzar

Leia mais

Associação entre duas variáveis quantitativas

Associação entre duas variáveis quantitativas Exemplo O departamento de RH de uma empresa deseja avalar a efcáca dos testes aplcados para a seleção de funconáros. Para tanto, fo sorteada uma amostra aleatóra de 50 funconáros que fazem parte da empresa

Leia mais

Cap. 5 Classificação Temática

Cap. 5 Classificação Temática Prncípos e Aplcações da Deteção Remota Cap. 5 Classfcação Temátca 5.1 O Processo de Classfcação 5. Classfcação de Máxma Verosmlhança (supervsonada paramétrca) 5..1 Classes multvaradas normas 5.. Lmtes

Leia mais

É o grau de associação entre duas ou mais variáveis. Pode ser: correlacional. ou experimental.

É o grau de associação entre duas ou mais variáveis. Pode ser: correlacional. ou experimental. Prof. Lorí Val, Dr. vall@mat.ufrgs.br http://www.mat.ufrgs.br/~vall/ É o grau de assocação entre duas ou mas varáves. Pode ser: correlaconal http://www.mat.ufrgs.br/~vall/ ou expermental. Numa relação

Leia mais

Interpolação Segmentada

Interpolação Segmentada Interpolação Segmentada Uma splne é uma função segmentada e consste na junção de váras funções defndas num ntervalo, de tal forma que as partes que estão lgadas umas às outras de uma manera contínua e

Leia mais

O problema da superdispersão na análise de dados de contagens

O problema da superdispersão na análise de dados de contagens O problema da superdspersão na análse de dados de contagens 1 Uma das restrções mpostas pelas dstrbuções bnomal e Posson, aplcadas usualmente na análse de dados dscretos, é que o parâmetro de dspersão

Leia mais

11. Indutância (baseado no Halliday, 4 a edição)

11. Indutância (baseado no Halliday, 4 a edição) 11. Indutânca Capítulo 11 11. Indutânca (baseado no Hallday, 4 a edção) Capactores e Indutores Capactores Capactor: dspostvo que podemos usar para produzr um determnado campo elétrco numa certa regão do

Leia mais

MECÂNICA CLÁSSICA. AULA N o 7. Teorema de Liouville Fluxo no Espaço de Fases Sistemas Caóticos Lagrangeano com Potencial Vetor

MECÂNICA CLÁSSICA. AULA N o 7. Teorema de Liouville Fluxo no Espaço de Fases Sistemas Caóticos Lagrangeano com Potencial Vetor 1 MECÂNICA CLÁSSICA AULA N o 7 Teorema de Louvlle Fluo no Espaço de Fases Sstemas Caótcos Lagrangeano com Potencal Vetor Voltando mas uma ve ao assunto das les admssíves na Físca, acrescentamos que, nos

Leia mais

Laboratório de Mecânica Aplicada I Estática: Roldanas e Equilíbrio de Momentos

Laboratório de Mecânica Aplicada I Estática: Roldanas e Equilíbrio de Momentos Laboratóro de Mecânca Aplcada I Estátca: Roldanas e Equlíbro de Momentos 1 Introdução O conhecmento das condções de equlíbro de um corpo é mprescndível em númeras stuações. Por exemplo, o estudo do equlíbro

Leia mais

3 Definição automática de carregamento ótimo

3 Definição automática de carregamento ótimo 3 Defnção automátca de carregamento ótmo A formulação ncal mostrada neste capítulo fo feta por Sérgo Álvares Maffra[11] e parte da mplementação fo feta por Anderson Perera, tendo sofrdo algumas modfcações

Leia mais

3 Método Numérico. 3.1 Discretização da Equação Diferencial

3 Método Numérico. 3.1 Discretização da Equação Diferencial 3 Método Numérco O presente capítulo apresenta a dscretação da equação dferencal para o campo de pressão e a ntegração numérca da expressão obtda anterormente para a Vscosdade Newtonana Equvalente possbltando

Leia mais

Experiência V (aulas 08 e 09) Curvas características

Experiência V (aulas 08 e 09) Curvas características Experênca (aulas 08 e 09) Curvas característcas 1. Objetvos 2. Introdução 3. Procedmento expermental 4. Análse de dados 5. Referêncas 1. Objetvos Como no expermento anteror, remos estudar a adequação de

Leia mais

3 A técnica de computação intensiva Bootstrap

3 A técnica de computação intensiva Bootstrap A técnca de computação ntensva ootstrap O termo ootstrap tem orgem na expressão de língua nglesa lft oneself by pullng hs/her bootstrap, ou seja, alguém levantar-se puxando seu própro cadarço de bota.

Leia mais

Radiação Térmica Processos, Propriedades e Troca de Radiação entre Superfícies (Parte 2)

Radiação Térmica Processos, Propriedades e Troca de Radiação entre Superfícies (Parte 2) Radação Térmca Processos, Propredades e Troca de Radação entre Superfíces (Parte ) Obetvo: calcular a troca por radação entre duas ou mas superfíces. Essa troca depende das geometras e orentações das superfíces,

Leia mais

Índice. Exemplo de minimização de estados mais complexo. estados

Índice. Exemplo de minimização de estados mais complexo. estados Sumáro Método da tabela de mplcações para mnmzar estados. Atrbução de códgos aos estados: métodos baseados em heurístcas. Índce Exemplo de mnmzação de estados mas complexo Método da tabela de mplcações

Leia mais

CURSO de ESTATÍSTICA Gabarito

CURSO de ESTATÍSTICA Gabarito UNIVERSIDADE FEDERAL FLUMINENSE TRANSFERÊNCIA o semestre letvo de 010 e 1 o semestre letvo de 011 CURSO de ESTATÍSTICA Gabarto INSTRUÇÕES AO CANDIDATO Verfque se este caderno contém: PROVA DE REDAÇÃO com

Leia mais

7 Tratamento dos Dados

7 Tratamento dos Dados 7 Tratamento dos Dados 7.. Coefcentes de Troca de Calor O úmero de usselt local é dado por h( r )d u ( r ) (7-) k onde h(r), o coefcente local de troca de calor é h( r ) q''- perdas T q''- perdas (T( r

Leia mais

Prof. Lorí Viali, Dr.

Prof. Lorí Viali, Dr. Prof. Lorí Val, Dr. val@mat.ufrgs.br http://www.mat.ufrgs.br/~val É o grau de assocação entre duas ou mas varáves. Pode ser: correlaconal ou expermental. Prof. Lorí Val, Dr. UFRGS Insttuto de Matemátca

Leia mais

Gráficos de Controle para Processos Autocorrelacionados

Gráficos de Controle para Processos Autocorrelacionados Gráfcos de Controle para Processos Autocorrelaconados Gráfco de controle de Shewhart: observações ndependentes e normalmente dstrbuídas. Shewhart ao crar os gráfcos de controle não exgu que os dados fossem

Leia mais

3.6. Análise descritiva com dados agrupados Dados agrupados com variáveis discretas

3.6. Análise descritiva com dados agrupados Dados agrupados com variáveis discretas 3.6. Análse descrtva com dados agrupados Em algumas stuações, os dados podem ser apresentados dretamente nas tabelas de frequêncas. Netas stuações devemos utlzar estratégas específcas para obter as meddas

Leia mais

Aula Características dos sistemas de medição

Aula Características dos sistemas de medição Aula - Característcas dos sstemas de medção O comportamento funconal de um sstema de medção é descrto pelas suas característcas (parâmetros) operaconas e metrológcas. Aqu é defnda e analsada uma sére destes

Leia mais

Implementação Bayesiana

Implementação Bayesiana Implementação Bayesana Defnção 1 O perfl de estratégas s.) = s 1.),..., s I.)) é um equlíbro Nash-Bayesano do mecansmo Γ = S 1,..., S I, g.)) se, para todo e todo θ Θ, u gs θ ), s θ )), θ ) θ Eθ u gŝ,

Leia mais

CORRELAÇÃO E REGRESSÃO

CORRELAÇÃO E REGRESSÃO CORRELAÇÃO E REGRESSÃO Constata-se, freqüentemente, a estênca de uma relação entre duas (ou mas) varáves. Se tal relação é de natureza quanttatva, a correlação é o nstrumento adequado para descobrr e medr

Leia mais

Análise Exploratória de Dados

Análise Exploratória de Dados Análse Exploratóra de Dados Objetvos Análse de duas varáves quanttatvas: obter uma reta que se ajuste aos dados segundo o crtéro de mínmos quadrados; apresentar outros crtéros para a determnação de uma

Leia mais

Elementos de Estatística e Probabilidades II

Elementos de Estatística e Probabilidades II Elementos de Estatístca e Probabldades II Varáves e Vetores Aleatóros dscretos Inês Das 203 O prncpal objetvo da deste documento é fornecer conhecmentos báscos de varáves aleatóras dscretas e pares aleatóros

Leia mais

Laboratório de Mecânica Aplicada I Determinação de Centros de Gravidade

Laboratório de Mecânica Aplicada I Determinação de Centros de Gravidade Laboratóro de Mecânca Aplcada I Determnação de Centros de Gravdade Em mutos problemas de mecânca o efeto do peso dos corpos é representado por um únco vector, aplcado num ponto denomnado centro de gravdade.

Leia mais

Estatística I Licenciatura MAEG 2006/07

Estatística I Licenciatura MAEG 2006/07 Estatístca I Lcencatura MAEG 006/07 AMOSTRAGEM. DISTRIBUIÇÕES POR AMOSTRAGEM.. Em determnada unversdade verfca-se que 30% dos alunos têm carro. Seleccona-se uma amostra casual smples de 0 alunos. a) Qual

Leia mais

princípios do design i

princípios do design i prncípos prncípos Gestalt "Exposto ao olhar", "o que é colocado dante dos olhos A Gestalt, ou pscologa da forma, surgu no níco do século XX e trabalha com dos concetos: supersoma e transponbldade. prncípos

Leia mais

3 Elementos de modelagem para o problema de controle de potência

3 Elementos de modelagem para o problema de controle de potência 3 Elementos de modelagem para o problema de controle de potênca Neste trabalho assume-se que a rede de comuncações é composta por uma coleção de enlaces consttuídos por um par de undades-rádo ndvdualmente

Leia mais

Modelos Conexionistas para Aprendizagem Associativa

Modelos Conexionistas para Aprendizagem Associativa Modelos Conexonstas para Aprendzagem Assocatva Baseado no artgo de revsão de Vogel, Castro e Saavedra, Bran Res. Bull., 63:173-202, 2004. O prncpal paradgma expermental para o estudo dos mecansmos de aprendzagem

Leia mais

DIAGNÓSTICO EM MODELOS LINEARES GENERALIZADOS

DIAGNÓSTICO EM MODELOS LINEARES GENERALIZADOS DIAGNÓSTICO EM MODELOS LINEARES GENERALIZADOS 1 A análse de dagnóstco (ou dagnóstco do ajuste) confgura uma etapa fundamental no ajuste de modelos de regressão. O objetvo prncpal da análse de dagnóstco

Leia mais

FICHA de AVALIAÇÃO de MATEMÁTICA A 10.º Ano Versão 2

FICHA de AVALIAÇÃO de MATEMÁTICA A 10.º Ano Versão 2 FICHA de AVALIAÇÃO de MATEMÁTICA A 10.º Ano Versão 2 Nome Nº Turma: Data: / / Professor 10.º Ano Classfcação Apresente o seu racocíno de forma clara, ndcando todos os cálculos que tver de efetuar e todas

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendzagem de Máquna Alessandro L. Koerch Programa de Pós-Graduação em Informátca Pontfíca Unversdade Católca do Paraná (PUCPR) Máqunas de Vetor de Suporte Introdução Support Vector Machnes SVM Método

Leia mais

CURSO A DISTÂNCIA DE GEOESTATÍSTICA

CURSO A DISTÂNCIA DE GEOESTATÍSTICA CURSO A DISTÂNCIA DE GEOESTATÍSTICA Aula 6: Estaconardade e Semvarânca: Estaconardade de a. ordem, Hpótese ntríseca, Hpótese de krgagem unversal, Crtéros para escolha, Verfcação, Representatvdade espacal,

Leia mais