Rede MLP: Perceptron de Múltiplas Camadas

Tamanho: px
Começar a partir da página:

Download "Rede MLP: Perceptron de Múltiplas Camadas"

Transcrição

1 Rede MLP: Perceptron de Múltiplas Camadas Conteúdo. Neurônio artificial.... Eemplos mais usuais de funções de ativação Produto interno e projeção Função de epansão ortogonal Redes neurais e perceptron com uma camada intermediária Contribuição de cada neurônio em uma rede MLP O papel dos pesos sinápticos Superfície de erro Aprendizado a partir de dados amostrados O problema do OU-eclusivo em MLP Otimização não-linear e capacidade de generalização Gradiente, hessiana e algoritmos de otimização Mínimos locais Condição inicial para os pesos da rede neural Processo Iterativo para MLP Método Padrão-a-Padrão Processo Iterativo para MLP Método em Lote ou Batelada Referências... 5 Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte )

2 . Neurônio artificial Modelo matemático: Simplificações da realidade com o propósito de representar aspectos relevantes de um sistema em estudo, sendo que detalhes de menor significância são descartados para viabilizar a modelagem. Entradas m Pesos das coneões w k w k w km b k Limiar(bias) Σ Junção somadora Função de ativação u k y k f(u k ) Saída Figura Modelo matemático de um neurônio artificial m A saída do neurônio k pode ser descrita por: y k = f ( uk ) = f wkj j + bk j= É possível simplificar a notação acima de forma a incluir o bias simplesmente definindo um sinal de entrada de valor = com peso associado w k = b k : m y ( ) ( w T k = f uk = f wkj j = f ) j = Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte )

3 . Eemplos mais usuais de funções de ativação IA353 Prof. Fernando J. Von Zuben y = f pu k e ( u k ) = = y puk pu = pu k k ( u k ) > e + + e u k p=3 p=.5 p= p=3 p=.5.4 p= a) b) Figura Função logística (a) e sua derivada em relação à entrada interna (b) Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 3

4 y = f u ) = tanh( pu ) = k k e e pu pu k k e + e pu pu k k IA353 Prof. Fernando J. Von Zuben ( p( u ) > y u k = k.5.5 p= p=.6 p=. p=..5 p= p= a) b) Figura 3 Função tangente hiperbólica (a) e sua derivada em relação à entrada interna (b) Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 4

5 3. Produto interno e projeção IA353 Prof. Fernando J. Von Zuben v v - av av v Figura 4 Projeção realizada pelo produto interno no R Sejam v, v R elementos não-nulos. Considere um escalar a tal que av corresponda à projeção de v na direção de v. Então, pode-se afirmar que conduzindo a av v av, av, v av =. Logo, Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 5

6 permitindo obter a na forma a v, v a v, v =, a = v v, v, v. IA353 Prof. Fernando J. Von Zuben Isto significa que a projeção de v na direção de v (v ) assume a forma: proj v ( v ) = v v, v, v v Mantendo constante o módulo de v, a sua projeção na direção de v é tão maior quanto mais colineares forem esses dois vetores. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 6

7 4. Função de epansão ortogonal IA353 Prof. Fernando J. Von Zuben.8.8 f ( ) j.6.4 T f ( v ) j (a) f j ( ) e, = 5 (b) f j 5, [ ] T v = e ( ) T Figura 5 Função de epansão ortogonal em que v = [ ] e = [ ] T A função de epansão ortogonal é conhecida na literatura em língua inglesa como ridge function. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 7

8 5. Redes neurais e perceptron com uma camada intermediária O processo de coneão entre neurônios artificiais leva à geração de sinapses e à construção de redes neurais artificiais. g y j w i w ui y g i ij w ij w Figura 6 Estabelecimento de coneão entre dois neurônios artificiais As estruturas mais conhecidas são em camadas, onde a saída de cada neurônio de uma camada precedente é entrada para todos os neurônios da camada seguinte. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 8

9 v v + f y w v m v w w + ^ s v + f y w n m v m w r v n w r w r + ^ s r v n + f y n w rn v nm Figura 7 Rede neural perceptron com uma camada intermediária Do inglês Multilayer Perceptron (MLP) n m n sˆ k = wkj f v jii = wkj f j k j= i= j= ( T v ) = gˆ (, θ ), k =,..., r Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 9

10 6. Contribuição de cada neurônio em uma rede MLP IA353 Prof. Fernando J. Von Zuben O mapeamento não-linear realizado por uma rede neural do tipo perceptron de uma camada intermediária é uma combinação linear de funções de epansão ortogonal, ou seja, funções que têm a forma de tangente hiperbólica em uma direção e são constantes nas demais direções ortogonais a esta única direção em que a forma da função se manifesta. Como um eemplo, vamos tomar amostras de um mapeamento do R para o R, e utilizar uma rede neural com 5 neurônios na camada intermediária para buscar aproimar este mapeamento, o qual pode ser visualizado no R 3. Os pesos sinápticos resultantes do processo de treinamento estão apresentados na sequência, sendo que a rede neural tem ao todo = pesos ajustáveis. São entradas, 5 neurônios na camada intermediária e saída, mais as entradas constantes (entradas de polarização) de todos os 6 neurônios da rede neural. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte )

11 Pesos sinápticos da camada intermediária (cada coluna representa os pesos de um neurônio): Pesos sinápticos da camada de saída: Obs: O peso de polarização é o primeiro peso de cada neurônio. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte )

12 Figura 8 Mapeamento a ser aproimado Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte )

13 Figura 9 Contribuição do neurônio Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 3

14 Figura Contribuição do neurônio Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 4

15 Figura Contribuição do neurônio 3 Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 5

16 Figura Contribuição do neurônio 4 Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 6

17 Figura 3 Contribuição do neurônio 5 Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 7

18 Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 8 7. O papel dos pesos sinápticos ( ) = + + = p n n n n a b g c c y a b g u y g u y c c c y a b ( ) ( ) = c : amplitude da sigmóide b : inclinação da sigmóide a : deslocamento no eio a b g c a b g c c y

19 Eemplo: Forma construtiva de aproimação de um mapeamento não-linear empregando neurônios com função de ativação do tipo tangente hiperbólica. Eemplo considerando um único estímulo de entrada. a b c d e ( w ) = c g( b + a ) + c g( b + a ) + c g( b + a ) + c g( b + a ) + c g( b + a ) f c a b Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 9 c d e { bias

20 b a.4. e a+b+c+d bias. -. c a+b a+b+c+d+e d a+b+c a+b+c+d+e+bias Figura 4 Composição aditiva de ativações na reprodução de um mapeamento não-linear O mapeamento a ser aproimado encontra-se na última figura à direita. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte )

21 8. Superfície de erro IA353 Prof. Fernando J. Von Zuben Seja X uma região compacta do R m e seja g: X R m R a função a ser aproimada (formulação para uma única saída, r = ); l l m O conjunto de dados de aproimação {(, s ) R R } = é gerado considerandose que os vetores de entrada l estão distribuídos na região compacta X R m de acordo com uma função densidade de probabilidade fia d P : X R m [,] e que os vetores de saída s l são produzidos pelo mapeamento definido pela função g na forma: s = g( ) + ε, l =,..., N, l l l onde ε l R é uma variável aleatória de média zero e variância fia. A função g que associa a cada vetor de entrada X uma saída escalar s R pode ser aproimada com base no conjunto de dados de aproimação m N {( l, s l ) R R } l = por uma composição aditiva de funções de epansão ortogonal na forma: N l Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte )

22 sˆ l = gˆ n m ( ) ( T, θ = w f v = w f v ) l j j= i= ji li n j= IA353 Prof. Fernando J. Von Zuben j j l onde θ é o vetor contendo todos os pesos da rede neural. Logo, o erro quadrático médio produzido na saída da rede neural, considerando as N amostras, assume a forma: J ( θ ) = ( sˆ s ) = ( gˆ (, θ ) s ) = N N N l= n N m wj f l= j= i= l l v ji N li N l= s l l = N N l = n l= j= w j f T ( v ) j l s l Sendo P a dimensão do vetor θ, então tem-se que: A superfície de erro definida por J ( θ ) reside no espaço buscar em P R um ponto que minimiza J ( θ ) Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) J : R. R P erro entre a saída produzida pelo rede neural e a saída desejada. + R P, sendo que deve-se, supondo que se queira minimizar o

23 9. Aprendizado a partir de dados amostrados IA353 Prof. Fernando J. Von Zuben O aprendizado supervisionado visto como um problema de otimização não-linear A função objetivo (critério de desempenho a ser otimizado) e os parâmetros ajustáveis: min θ J ( θ) Formalização matemática do que se quer otimizar + método de solução Solução na forma fechada busca iterativa Os dados de entrada/saída e a questão dos 3 mapeamentos envolvidos no processo:. O mapeamento a ser aproimado (do qual se conhece apenas dados amostrados);. O mapeamento resultante do processo de aproimação; 3. O mapeamento entre cada vetor de pesos e o erro: superfície de erro. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 3

24 Figura 5 Mapeamento desconhecido a ser aproimado Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 4

25 Figura 6 Eemplo de região de operação. É uma região compacta (fechada e limitada). Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 5

26 Figura 7 Amostras epressando o comportamento da função para pontos específicos da região de operação. Essas amostras comporão os conjuntos de treinamento e validação (sendo que os dois conjuntos são independentes entre si) Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 6

27 (a) (b) (c) (d) Figura 8 (a) Função a ser aproimada (agora considerando apenas uma entrada); (b) Amostras disponíveis; (c) Resultado de um processo de aproimação com sobretreinamento; (d) Resultado de um processo de aproimação sem sobretreinamento. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 7

28 (a) (b) Figura 9 Comparação de desempenho para dados de treinamento e validação, de modo a medir a capacidade de generalização dos mapeamentos produzidos. O mapeamento da esquerda apresenta um erro de treinamento muito baio, mas um erro de validação bastante elevado, quando comparado ao mapeamento da direita. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 8

29 . O problema do OU-eclusivo em MLP IA353 Prof. Fernando J. Von Zuben Considere os pontos (,),(,),(,) e (,) no plano R, conforme apresentado na Figura. O objetivo é determinar uma rede com duas entradas i {,} (i=,), e uma saída y {,} de maneira que: (, ) = (,) ou (,) y = (, ) = (,) ou (,) y = (,) (,) y = y = (,) (,) Figura O problema do OU-eclusivo Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 9

30 Inicialmente será analisado o comportamento de um neurônio tipo perceptron (veja Figura ) no processo de solução do problema eposto acima. A saída y pode ser representada na forma: y = g(w + w + w ) onde g( u) = se u g( u) = se u < w w u g y w Figura Neurônio tipo perceptron, com duas entradas (mais a polarização) Para qualquer valor dos parâmetros w, w e w, a função g(u) separa o espaço de entradas em duas regiões, sendo que a curva de separação é uma linha reta. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 3

31 Figura Mapeamento de entrada-saída para o perceptron da Figura, com w = 6, w = 4 e w = 3 Aqui tomou-se a função g( ) como sendo a função sinal, pois as saídas são binárias. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 3 5

32 No problema do OU-eclusivo (Figura ), pode-se constatar que não eiste uma única linha reta divisória de forma que os pontos (,) e (,) se posicionem de um lado enquanto que (,) e (,) permaneçam do outro lado da linha. Logo, pode-se imediatamente concluir que um neurônio tipo perceptron não apresenta grau de liberdade suficiente para resolver o problema proposto, o que foi corretamente constatado por Minsky & Papert, em 969. No entanto, esses autores também acreditavam que não havia razão para supor que redes multicamadas pudessem conduzir a uma solução para o problema proposto. Esta hipótese só foi definitivamente rejeitada com o desenvolvimento do algoritmo de retro-propagação (back-propagation), já nos anos 8, o qual permite o ajuste automático de pesos para redes neurais multicamadas, arquitetura necessária para a realização de mapeamentos não-lineares. Considere o problema de mapeamento de uma rede neural tipo perceptron, com uma camada intermediária (Figura 3), aplicada ao problema do OU-eclusivo. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 3

33 w w w w w g g z z w w g y w w Figura 3 Perceptron de três camadas (uma camada intermediária) A camada de entrada fornece um vetor de entrada (, ) para a camada intermediária, enquanto que a camada intermediária produz duas saídas z =sgn(w +w +w ) e z =sgn(w +w +w ). Na camada de saída, o sinal de saída da rede neural é dado por y=sgn(w +w z +w z ). Surge uma questão: eistem parâmetros w ij (i=,; j=,,) e w k (k =,,) tais que y = para as entradas (,) e (,) e y = para as entradas (,) e (,)? Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 33

34 As saídas da primeira camada (z e z ) podem ser consideradas como variáveis intermediárias utilizadas na geração da saída y. Do que já foi visto a respeito de um neurônio tipo perceptron, sabe-se que eistem pesos w j (j=,,) tais que (veja curva de separação L na Figura 4(a)): (,) produza z = (,),(,),(,) produza z =. De forma similar, eistem pesos w j (j=,,) tais que (veja curva de separação L na Figura 4(a)): (,),(,),(,) produza z = (,) produza z = Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 34

35 L L 3 z IA353 Prof. Fernando J. Von Zuben (,) (,) (,) (,) L (,) (,) (,) z (a) (b) Figura 4 Realização da função OU-eclusivo A discussão acima mostra que eistem pesos w ij (i=,; j=,,) de maneira que a entrada (,) resulte em z =, z =, e a entrada (,) resulte em z =, z =, enquanto que (,) e (,) produzam z =, z =. Já que (,) e (,) podem ser separados linearmente de (,), como mostrado na Figura 4(b) pela curva de separação L 3, pode-se concluir que a função booleana desejada pode ser obtida utilizando-se perceptrons em cascata, ou seja, 3 neurônios do tipo perceptron. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 35

36 . Otimização não-linear e capacidade de generalização Diversos tipos de parâmetros da rede neural poderiam ser submetidos a processos de ajuste durante o treinamento, como (i) pesos sinápticos; (ii) parâmetros da função de ativação de cada neurônio; (iii) número de neurônios na camada intermediária; (iv) número de camadas intermediárias. Iremos nos restringir aqui ao ajuste dos pesos sinápticos. Neste caso, o processo de treinamento supervisionado de redes neurais artificiais multicamadas é equivalente a um problema de otimização não-linear irrestrita, em que a superfície de erro é minimizada a partir do ajuste dos pesos sinápticos. Iremos nos restringir também a perceptrons com uma única camada intermediária, visto que com apenas uma camada intermediária a rede neural já apresenta capacidade de aproimação universal (CYBENKO, 989; HORNIK et al., 989; HORNIK et al., 99; HORNIK et al., 994). Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 36

37 Um problema comum a todos os modelos de aproimação de funções que possuem capacidade de aproimação universal, não apenas redes neurais artificiais do tipo MLP, é a necessidade de controlar adequadamente o seu grau de fleibilidade. Como o conjunto de amostras disponível para treinamento supervisionado é finito, infinitos mapeamentos podem produzir o mesmo desempenho de aproimação, independente do critério de desempenho adotado. Esses mapeamentos alternativos vão diferir justamente onde não há amostras disponíveis para diferenciá-los. Visando maimizar a capacidade de generalização do modelo de aproimação (no caso, uma rede neural MLP), ou seja, buscando encontrar o grau de fleibilidade adequado para o modelo de aproimação (dada a demanda da aplicação), um procedimento recomendado é dividir o conjunto de amostras disponível para treinamento em dois: um conjunto que será efetivamente empregado no ajuste dos pesos (conjunto de treinamento) e um conjunto que será Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 37

38 empregado para definir o momento de interromper o treinamento (conjunto de validação). Deve-se assegurar que ambos os conjuntos sejam suficientemente representativos do mapeamento que se pretende aproimar. Assim, minimizar o erro junto ao conjunto de validação implica em maimizar a capacidade de generalização. Logo, espera-se que a rede neural que minimiza o erro junto ao conjunto de validação (não usado para o ajuste dos pesos) tenha o melhor desempenho possível junto a novas amostras. A figura alto/esquerda a seguir mostra um mapeamento unidimensional a ser aproimado (desconhecido pela rede neural) e amostras sujeitas a ruído de média zero (única informação disponível para o treinamento da rede neural). A figura alto/direita mostra o resultado da aproimação produzida por uma rede neural com muito poucos neurônios, a qual foi incapaz de realizar a aproimação (tem baia fleibilidade). Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 38

39 Figura 5 Dados amostrados, função a ser aproimada e modelos de aproimação com diferentes capacidades de generalização Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 39

40 Já as figuras baio/esquerda e baio/direita mostram o resultado de uma mesma rede neural (com número suficiente de neurônios), mas à esquerda ocorreu sobretreinamento, enquanto que à direita o treinamento foi interrompido quando minimizou-se o erro junto a dados de validação (não apresentados). Curvas típicas de erro de treinamento e validação são apresentadas a seguir..8 _ Erro de treinamento, Erro de Validação.4 _ Erro de treinamento, Erro de Validação Épocas Épocas Figura 6 Ilustrações típicas da evolução, ao longo das épocas de treinamento, dos erros de treinamento e de validação em treinamento supervisionado de redes MLP. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 4

41 No entanto, nem sempre o erro de validação apresenta este comportamento, e cada caso deve ser analisado isoladamente. Como a curva do erro de validação oscila bastante e esboça um comportamento pouco previsível, não é indicado desenvolver detectores automáticos de mínimos e encerrar o treinamento ali. O mais indicado é sobre-treinar a rede e armazenar os pesos associados ao mínimo do erro de validação. Não eiste um consenso sobre como fazer o melhor particionamento do conjunto de dados, ou seja, sobre como dividi-lo de forma que possamos encontrar uma rede com a melhor capacidade de generalização em todos os casos. Uma sugestão de partida pode ser 8% das amostras para treinamento e % para validação. Quando as amostras correspondem a dados rotulados em problemas de classificação de padrões, procure respeitar a distribuição junto a cada classe. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 4

42 Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 4. Gradiente, hessiana e algoritmos de otimização Considere uma função contínua e diferenciável até a. ordem em todos os pontos do domínio de interesse, tal que: f: R n R e R n Epansão em série de Taylor em torno do ponto * R n : ( ) ( ) ( ) ) (3 * *) ( * * *) ( *) ( ) ( O f f f f T T = = n f f f f *) ( *) ( *) ( *) ( M = *) ( *) ( *) ( *) ( *) ( *) ( *) ( *) ( n n n f f f f f f f f L O M L Vetor gradiente Matriz hessiana

43 O algoritmo de retropopagação do erro (do inglês backpropagation) é empregado para obter o vetor gradiente, onde cada elemento do vetor gradiente está associado a um peso da rede neural e indica o quanto a saída é influenciada por uma variação incremental neste peso. Na função cos() a seguir, observam-se as aproimações de primeira, segunda e quarta ordem em torno do ponto =. cos() F 4 () F () - - F () Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 43

44 Eistem várias técnicas para obter eatamente ou aproimadamente a informação de a. ordem em redes neurais MLP (BATTITI, 99; BISHOP, 99). O processo de otimização não-linear envolvido no ajuste de pesos de uma rede neural vai realizar aproimações locais de primeira ordem ou de primeira e segunda ordem junto à superfície de erro e realizar ajustes incrementais e recursivos na forma: θ = θ + passo * direção k + k Parte-se de uma condição inicial θ e aplica-se iterativamente a fórmula acima, sendo que a direção depende da informação local de primeira e segunda ordem. Cada proposta de algoritmo de otimização vai diferir na forma de computar o passo e a direção de ajuste, a cada iteração. A figura a seguir apresenta uma classificação dos principais algoritmos empregados para o treinamento supervisionado de redes neurais artificiais. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 44

45 ESTRATÉGIAS DE TREINAMENTO SEM DIFERENCIAÇÃO a ORDEM a ORDEM EMPÍRICOS BE GA SA BP GRAD CG N-LM OSS QN QP MOD. SCG FR PR DFP BFGS Figura 7 Taonomia de algoritmos de otimização para treinamento supervisionado de redes neurais MLP. Aquele que é utilizado no toolbo fornecido pelo professor é o gradiente conjungado escalonado (do inglês Scaled Conjugate Gradient SCG). Uma vantagem deste algoritmo é que ele apresenta um custo computacional (memória e processamento por iteração) linear com o número de pesos e não quadrático, como a maioria dos algoritmos de a. ordem. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 45

46 . Mínimos locais IA353 Prof. Fernando J. Von Zuben Como o processo de ajuste é iterativo e baseado apenas em informações locais, os algoritmos de otimização geralmente convergem para o mínimo local mais próimo, que pode representar uma solução inadequada (com nível de erro acima do aceitável) Mínimo local -5 - Mínimo global Figura 8 Eemplo ilustrativo de mínimos local e global (considerando uma única variável). Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 46

47 Note que algoritmos de a. ordem tendem a convergir mais rápido para os mínimos locais, mas não se pode afirmar que eles convergem para mínimos de melhor qualidade que aqueles produzidos pelos algoritmos de primeira ordem..3 Condição inicial para os pesos da rede neural Embora eistam técnicas mais elaboradas, os pesos da rede neural podem ser inicializados com valores pequenos e aleatoriamente distribuídos em torno de zero. Esta inicialização tende a promover as seguintes propriedades da rede neural inicial: o O mapeamento realizado pela MLP tende a se aproimar de um hiperplano, não apresentando, assim, nenhuma tendência definida, em termos de comportamento não-linear; o A ativação de todos os neurônios se encontram fora da região de saturação, facilitando o processo de ajuste de pesos, a ser iniciado. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 47

48 . Processo Iterativo para MLP Método Padrão-a-Padrão Defina uma condição inicial para o vetor de pesos w e escolha um passo α pequeno; Faça k = e calcule J ( w (k)); Enquanto o critério de parada não for atendido, faça: Ordene aleatoriamente os padrões de entrada-saída; Para l variando de até N, faça: k = k + ; Apresente o padrão l de entrada à rede; Calcule J l ( w (k)) e J l ( w(k) ) ; w( k + ) = w( k) α J ( ( k) ); Calcule J ( w (k)); l w Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 48

49 3. Processo Iterativo para MLP Método em Lote ou Batelada Defina uma condição inicial para o vetor de pesos w e escolha um passo α pequeno; Faça k = e calcule J ( w (k)); Enquanto o critério de parada não for atendido, faça: Para l variando de até N, faça: Apresente o padrão l de entrada à rede; Calcule J l ( w (k)) e J l ( w(k) ) ; N α w( k + ) = w( k) J l ( w( k) ); N k = k + ; Calcule J ( w (k)); l = Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 49

50 4. Referências IA353 Prof. Fernando J. Von Zuben BATTITI, R. First- and Second-Order Methods for Learning: Between Steepest Descent and Newton's Method. Neural Computation, vol. 4, no., pp. 4-66, 99. BISHOP, C. Eact Calculation of the Hessian Matri for the Multilayer Perceptron. Neural Computation, vol. 4, no. 4, pp , 99. CYBENKO, G. Approimation by superposition of sigmoidal functions. Mathematics of Control, Signals and Systems, vol., no. 4, pp , 989. HAYKIN, S. Neural Networks: A Comprehensive Foundation, nd edition, Prentice-Hall, 999. HAYKIN, S. Neural Networks and Learning Machines, 3rd edition, Prentice-Hall, 8. HEBB, D. O. The Organization of Behavior, Wiley, 949. HORNIK, K., STINCHCOMBE, M., WHITE, H. Multi-layer feedforward networks are universal approimators. Neural Networks, vol., no. 5, pp , 989. HORNIK, K., STINCHCOMBE, M., WHITE, H. Universal approimation of an unknown function and its derivatives using multilayer feedforward networks. Neural Networks, vol. 3, no. 5, pp , 99. HORNIK, K., STINCHCOMBE, M., WHITE, H., AUER, P. Degree of Approimation Results for Feedforward Networks Approimating Unknown Mappings and Their Derivatives. Neural Computation, vol. 6, no. 6, pp. 6-75, 994. NERRAND, O., ROUSSEL-RAGOT, P., PERSONNAZ, L., DREYFUS, G. Neural Networks and Nonlinear Adaptive Filtering: Unifying Concepts and New Algorithms. Neural Computation, vol. 5, no., pp , 993. Tópico 4: Redes Neurais Não-recorrentes: Redes MLP, RBF e ELM (Parte ) 5

RNAs, Classificação de Padrões e Motivação Geométrica. Conteúdo

RNAs, Classificação de Padrões e Motivação Geométrica. Conteúdo RNAs, Classificação de Padrões e Motiação Geométrica Conteúdo. O problema do OU-eclusio.... Um problema mais geral de mapeamento não-linear... 0 3. Mapeamentos não-lineares genéricos... 4 4. Redes neurais

Leia mais

Modelos Pioneiros de Aprendizado

Modelos Pioneiros de Aprendizado Modelos Pioneiros de Aprendizado Conteúdo 1. Hebb... 2 2. Perceptron... 5 2.1. Perceptron Simples para Classificaçãod e Padrões... 6 2.2. Exemplo de Aplicação e Motivação Geométrica... 9 2.3. Perceptron

Leia mais

Figura 5.1.Modelo não linear de um neurônio j da camada k+1. Fonte: HAYKIN, 2001

Figura 5.1.Modelo não linear de um neurônio j da camada k+1. Fonte: HAYKIN, 2001 47 5 Redes Neurais O trabalho em redes neurais artificiais, usualmente denominadas redes neurais ou RNA, tem sido motivado desde o começo pelo reconhecimento de que o cérebro humano processa informações

Leia mais

UMA ABORDAGEM DE PODA PARA MÁQUINAS DE APRENDIZADO EXTREMO VIA ALGORITMOS GENÉTICOS

UMA ABORDAGEM DE PODA PARA MÁQUINAS DE APRENDIZADO EXTREMO VIA ALGORITMOS GENÉTICOS UMA ABORDAGEM DE PODA PARA MÁQUINAS DE APRENDIZADO EXTREMO VIA ALGORITMOS GENÉTICOS Alisson S. C. Alencar, Ajalmar R. da Rocha Neto Departamento de Computação, Instituto Federal do Ceará (IFCE). Programa

Leia mais

A otimização é o processo de

A otimização é o processo de A otimização é o processo de encontrar a melhor solução (ou solução ótima) para um problema. Eiste um conjunto particular de problemas nos quais é decisivo a aplicação de um procedimento de otimização.

Leia mais

Redes Neurais Artificiais: Funções de Base Radial

Redes Neurais Artificiais: Funções de Base Radial Treinamento COELCE CEFET UFC MÓDULO II 2008.1 Redes Neurais Artificiais: Funções de Base Radial Prof. Dr. Guilherme de Alencar Barreto Depto. Engenharia de Teleinformática (DETI/UFC) URL: www.deti.ufc.br/~guilherme

Leia mais

Redes Neurais. A IA clássica segue o paradigma da computação simbólica

Redes Neurais. A IA clássica segue o paradigma da computação simbólica Abordagens não simbólicas A IA clássica segue o paradigma da computação simbólica Redes Neurais As redes neurais deram origem a chamada IA conexionista, pertencendo também a grande área da Inteligência

Leia mais

Do neurônio biológico ao neurônio das redes neurais artificiais

Do neurônio biológico ao neurônio das redes neurais artificiais Do neurônio biológico ao neurônio das redes neurais artificiais O objetivo desta aula é procurar justificar o modelo de neurônio usado pelas redes neurais artificiais em termos das propriedades essenciais

Leia mais

Exercícios Teóricos Resolvidos

Exercícios Teóricos Resolvidos Universidade Federal de Minas Gerais Instituto de Ciências Exatas Departamento de Matemática Exercícios Teóricos Resolvidos O propósito deste texto é tentar mostrar aos alunos várias maneiras de raciocinar

Leia mais

Potenciação no Conjunto dos Números Inteiros - Z

Potenciação no Conjunto dos Números Inteiros - Z Rua Oto de Alencar nº 5-9, Maracanã/RJ - tel. 04-98/4-98 Potenciação no Conjunto dos Números Inteiros - Z Podemos epressar o produto de quatro fatores iguais a.... por meio de uma potência de base e epoente

Leia mais

Nota Técnica 113/2007 SRD/SRE/ANEEL Metodologia para Projeção de Investimentos para o Cálculo do Fator X Contribuição da Audiência Publica 052/2007

Nota Técnica 113/2007 SRD/SRE/ANEEL Metodologia para Projeção de Investimentos para o Cálculo do Fator X Contribuição da Audiência Publica 052/2007 Nota Técnica 113/2007 SRD/SRE/ANEEL Metodologia para Projeção de Investimentos para o Cálculo do Fator X Contribuição da Audiência Publica 052/2007 1 1. Estrutura do Trabalho : De forma que se pudesse

Leia mais

Notas sobre a Fórmula de Taylor e o estudo de extremos

Notas sobre a Fórmula de Taylor e o estudo de extremos Notas sobre a Fórmula de Taylor e o estudo de etremos O Teorema de Taylor estabelece que sob certas condições) uma função pode ser aproimada na proimidade de algum ponto dado) por um polinómio, de modo

Leia mais

5 Considerações Finais e Recomendações

5 Considerações Finais e Recomendações Considerações Finais e Recomendações 132 5 Considerações Finais e Recomendações O controle estatístico de processos compõe-se essencialmente do monitoramento on line dos processos por gráficos de controle

Leia mais

Estatística II Antonio Roque Aula 9. Testes de Hipóteses

Estatística II Antonio Roque Aula 9. Testes de Hipóteses Testes de Hipóteses Os problemas de inferência estatística tratados nas aulas anteriores podem ser enfocados de um ponto de vista um pouco diferente: ao invés de se construir intervalos de confiança para

Leia mais

Projeto de Redes Neurais e MATLAB

Projeto de Redes Neurais e MATLAB Projeto de Redes Neurais e MATLAB Centro de Informática Universidade Federal de Pernambuco Sistemas Inteligentes IF684 Arley Ristar arrr2@cin.ufpe.br Thiago Miotto tma@cin.ufpe.br Baseado na apresentação

Leia mais

MÓDULO 4 DISTRIBUIÇÃO DE FREQÜÊNCIAS

MÓDULO 4 DISTRIBUIÇÃO DE FREQÜÊNCIAS MÓDULO 4 DISTRIBUIÇÃO DE FREQÜÊNCIS Como vimos no módulo 1, para que nós possamos extrair dos dados estatísticos de que dispomos a correta análise e interpretação, o primeiro passo deverá ser a correta

Leia mais

Root Locus (Método do Lugar das Raízes)

Root Locus (Método do Lugar das Raízes) Root Locus (Método do Lugar das Raízes) Ambos a estabilidade e o comportamento da resposta transitória em um sistema de controle em malha fechada estão diretamente relacionadas com a localização das raízes

Leia mais

MLP (Multi Layer Perceptron)

MLP (Multi Layer Perceptron) MLP (Multi Layer Perceptron) André Tavares da Silva andre.silva@udesc.br Roteiro Rede neural com mais de uma camada Codificação de entradas e saídas Decorar x generalizar Perceptron Multi-Camada (MLP -

Leia mais

Universidade Federal do Paraná

Universidade Federal do Paraná Universidade Federal do Paraná Programa de pós-graduação em engenharia de recursos hídricos e ambiental TH705 Mecânica dos fluidos ambiental II Prof. Fernando Oliveira de Andrade Problema do fechamento

Leia mais

3. Fase de Planejamento dos Ciclos de Construção do Software

3. Fase de Planejamento dos Ciclos de Construção do Software 3. Fase de Planejamento dos Ciclos de Construção do Software A tarefa de planejar os ciclos de construção do software pode partir de diretrizes básicas. Estas diretrizes visam orientar que os ciclos de

Leia mais

Programação não Linear Conteúdos da Seção Programação Não Linear Aplicações Solução Gráfica Resolução no Excel Controle de Eestoque Modelo do Lote

Programação não Linear Conteúdos da Seção Programação Não Linear Aplicações Solução Gráfica Resolução no Excel Controle de Eestoque Modelo do Lote Programação não Linear Conteúdos da Seção Programação Não Linear Aplicações Solução Gráfica Resolução no Ecel Controle de Eestoque Modelo do Lote Econômico Problemas de Localização Caso LCL Telecom S.A.

Leia mais

Linear Solver Program - Manual do Usuário

Linear Solver Program - Manual do Usuário Linear Solver Program - Manual do Usuário Versão 1.11.0 Traduzido por: Angelo de Oliveira (angelo@unir.br/mrxyztplk@gmail.com) 1 Introdução Linear Program Solver (LiPS) é um pacote de otimização projetado

Leia mais

PP 301 Engenharia de Reservatórios I 11/05/2011

PP 301 Engenharia de Reservatórios I 11/05/2011 PP 301 Engenharia de Reservatórios I 11/05/2011 As informações abaixo têm como objetivo auxiliar o aluno quanto à organização dos tópicos principais abordados em sala e não excluem a necessidade de estudo

Leia mais

Matlab - Neural Networw Toolbox. Ana Lívia Soares Silva de Almeida

Matlab - Neural Networw Toolbox. Ana Lívia Soares Silva de Almeida 27 de maio de 2014 O que é a Neural Networw Toolbox? A Neural Network Toolbox fornece funções e aplicativos para a modelagem de sistemas não-lineares complexos que não são facilmente modelados com uma

Leia mais

Rede de Elementos Caóticos Acoplados Globalmente

Rede de Elementos Caóticos Acoplados Globalmente Rede de Elementos Caóticos Acoplados Globalmente Rosagela Follmann 1, Elbert E. N. Macau 2 1 Programa de Pós-graduação em Computação Aplicada - CAP Instituto Nacional de Pesquisas Espaciais - INPE 2 Laboratório

Leia mais

Capítulo 7. Limitações

Capítulo 7. Limitações Capítulo 7 Limitações Os principais problemas das arquiteturas MLP que serão abordados são a sensibilidade a mínimos locais, o não conhecimento a priori da arquitetura ótima de rede e a implementação destes

Leia mais

Problema de Otimização Combinatória

Problema de Otimização Combinatória Problema de Otimização Combinatória Otimização é o processo de encontrar e comparar soluções factíveis até que nenhuma solução melhor possa ser encontrada. Essas soluções são ditas boas ou ruins em termos

Leia mais

CÁLCULO DE ZEROS DE FUNÇÕES REAIS

CÁLCULO DE ZEROS DE FUNÇÕES REAIS 15 CÁLCULO DE ZEROS DE FUNÇÕES REAIS Um dos problemas que ocorrem mais frequentemente em trabalhos científicos é calcular as raízes de equações da forma: f() = 0. A função f() pode ser um polinômio em

Leia mais

Resolução dos Exercícios sobre Derivadas

Resolução dos Exercícios sobre Derivadas Resolução dos Eercícios sobre Derivadas Eercício Utilizando a idéia do eemplo anterior, encontre a reta tangente à curva nos pontos onde e Vamos determinar a reta tangente à curva nos pontos de abscissas

Leia mais

Reconhecimento de Padrões Utilizando Filtros Casados

Reconhecimento de Padrões Utilizando Filtros Casados Detecção e estimação de sinais Reconhecimento de Padrões Utilizando Filtros Casados Aline da Rocha Gesualdi Mello, José Manuel de Seixas, Márcio Portes de Albuquerque, Eugênio Suares Caner, Marcelo Portes

Leia mais

Solução de problemas por meio de busca (com Python) Luis Martí DEE/PUC-Rio http://lmarti.com

Solução de problemas por meio de busca (com Python) Luis Martí DEE/PUC-Rio http://lmarti.com Solução de problemas por meio de busca (com Python) Luis Martí DEE/PUC-Rio http://lmarti.com Python e AI (Re)-introdução ao Python. Problemas de busca e principais abordagens. Exemplos em Python Por que

Leia mais

Testedegeradoresde. Parte X. 38 Testes de Ajuste à Distribuição. 38.1 Teste Chi-Quadrado

Testedegeradoresde. Parte X. 38 Testes de Ajuste à Distribuição. 38.1 Teste Chi-Quadrado Parte X Testedegeradoresde números aleatórios Os usuários de uma simulação devem se certificar de que os números fornecidos pelo gerador de números aleatórios são suficientemente aleatórios. O primeiro

Leia mais

Exemplos de Testes de Hipóteses para Médias Populacionais

Exemplos de Testes de Hipóteses para Médias Populacionais Exemplos de Testes de Hipóteses para Médias Populacionais Vamos considerar exemplos de testes de hipóteses para a média de uma população para os dois casos mais importantes na prática: O tamanho da amostra

Leia mais

ITIL v3 - Operação de Serviço - Parte 1

ITIL v3 - Operação de Serviço - Parte 1 ITIL v3 - Operação de Serviço - Parte 1 É na Operação de Serviço que se coordena e realiza as atividades e processos necessários para fornecer e gerenciar serviços em níveis acordados com o usuário e clientes

Leia mais

Capítulo SETE Números em Ponto Fixo e Ponto Flutuante

Capítulo SETE Números em Ponto Fixo e Ponto Flutuante Capítulo SETE Números em Ponto Fixo e Ponto Flutuante 7.1 Números em ponto fixo Observação inicial: os termos ponto fixo e ponto flutuante são traduções diretas dos termos ingleses fixed point e floating

Leia mais

AULA 6 Esquemas Elétricos Básicos das Subestações Elétricas

AULA 6 Esquemas Elétricos Básicos das Subestações Elétricas CONSIDERAÇÕES INICIAIS AULA 6 Esquemas Elétricos Básicos das Subestações Elétricas Quando planejamos construir uma subestação, o aspecto de maior importância está na escolha (e, conseqüentemente, da definição)

Leia mais

Equações Diferenciais Ordinárias

Equações Diferenciais Ordinárias Equações Diferenciais Ordinárias Uma equação diferencial é uma equação que relaciona uma ou mais funções (desconhecidas com uma ou mais das suas derivadas. Eemplos: ( t dt ( t, u t d u ( cos( ( t d u +

Leia mais

Material Teórico - Aplicações das Técnicas Desenvolvidas. Exercícios e Tópicos Relacionados a Combinatória. Segundo Ano do Ensino Médio

Material Teórico - Aplicações das Técnicas Desenvolvidas. Exercícios e Tópicos Relacionados a Combinatória. Segundo Ano do Ensino Médio Material Teórico - Aplicações das Técnicas Desenvolvidas Exercícios e Tópicos Relacionados a Combinatória Segundo Ano do Ensino Médio Prof Cícero Thiago Bernardino Magalhães Prof Antonio Caminha Muniz

Leia mais

Gerenciamento da Integração (PMBoK 5ª ed.)

Gerenciamento da Integração (PMBoK 5ª ed.) Gerenciamento da Integração (PMBoK 5ª ed.) O PMBoK diz que: O gerenciamento da integração do projeto inclui os processos e as atividades necessárias para identificar, definir, combinar, unificar e coordenar

Leia mais

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU Prof. Dr. Sergio Pilling (IPD/ Física e Astronomia) III Resolução de sistemas lineares por métodos numéricos. Objetivos: Veremos

Leia mais

Relatório Trabalho Prático 2 : Colônia de Formigas para Otimização e Agrupamento

Relatório Trabalho Prático 2 : Colônia de Formigas para Otimização e Agrupamento Relatório Trabalho Prático 2 : Colônia de Formigas para Otimização e Agrupamento Ramon Pereira Lopes Rangel Silva Oliveira 31 de outubro de 2011 1 Introdução O presente documento refere-se ao relatório

Leia mais

INSTITUTO TECNOLÓGICO

INSTITUTO TECNOLÓGICO PAC - PROGRAMA DE APRIMORAMENTO DE CONTEÚDOS. ATIVIDADES DE NIVELAMENTO BÁSICO. DISCIPLINAS: MATEMÁTICA & ESTATÍSTICA. PROFº.: PROF. DR. AUSTER RUZANTE 1ª SEMANA DE ATIVIDADES DOS CURSOS DE TECNOLOGIA

Leia mais

CAPÍTULO 2. Grafos e Redes

CAPÍTULO 2. Grafos e Redes CAPÍTULO 2 1. Introdução Um grafo é uma representação visual de um determinado conjunto de dados e da ligação existente entre alguns dos elementos desse conjunto. Desta forma, em muitos dos problemas que

Leia mais

GERAÇÃO DE NÚMEROS ALEATÓRIOS PARA A SIMULAÇÃO DE AMBIENTES

GERAÇÃO DE NÚMEROS ALEATÓRIOS PARA A SIMULAÇÃO DE AMBIENTES WCMC IV Brazilian Workshop on Wirless Communications and Mobile Computing GERAÇÃO DE NÚMEROS ALEATÓRIOS PARA A SIMULAÇÃO DE AMBIENTES DE PROPAGAÇÃO NÃO-HOMOGÊNEOS CÉSAR KYN D ÁVILA (), RAUSLEY A. A. DE

Leia mais

Propriedades das Funções Deriváveis. Prof. Doherty Andrade

Propriedades das Funções Deriváveis. Prof. Doherty Andrade Propriedades das Funções Deriváveis Prof Doerty Andrade 2005 Sumário Funções Deriváveis 2 Introdução 2 2 Propriedades 3 3 Teste da derivada segunda para máimos e mínimos 7 2 Formas indeterminadas 8 2 Introdução

Leia mais

Metodologia para seleção de amostras de contratos de obras públicas (jurisdicionados) utilizando a programação linear aplicativo Solver

Metodologia para seleção de amostras de contratos de obras públicas (jurisdicionados) utilizando a programação linear aplicativo Solver REVISTA Metodologia para seleção de amostras de contratos de obras públicas (jurisdicionados) utilizando a programação linear aplicativo Solver André Mainardes Berezowski 1 Resumo Trata da apresentação

Leia mais

Complemento II Noções Introdutória em Redes Neurais

Complemento II Noções Introdutória em Redes Neurais Complemento II Noções Introdutória em Redes Neurais Esse documento é parte integrante do material fornecido pela WEB para a 2ª edição do livro Data Mining: Conceitos, técnicas, algoritmos, orientações

Leia mais

Equações Diferenciais Ordinárias

Equações Diferenciais Ordinárias Capítulo 8 Equações Diferenciais Ordinárias Vários modelos utilizados nas ciências naturais e exatas envolvem equações diferenciais. Essas equações descrevem a relação entre uma função, o seu argumento

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Professor: Rosalvo Ferreira de Oliveira Neto Disciplina: Inteligência Artificial Tópicos 1. Definições 2. Tipos de aprendizagem 3. Paradigmas de aprendizagem 4. Modos de aprendizagem

Leia mais

Redes Neurais Artificiais na Engenharia Nuclear 2 Aula-1 Ano: 2005

Redes Neurais Artificiais na Engenharia Nuclear 2 Aula-1 Ano: 2005 Redes Neurais Artificiais na Engenharia Nuclear 1 - Apresentação do Professor: dados, lista de E-mail s, etc. - Apresentação da Turma: Estatística sobre origem dos alunos para adaptação do curso - Apresentação

Leia mais

MD Sequências e Indução Matemática 1

MD Sequências e Indução Matemática 1 Sequências Indução Matemática Renato Martins Assunção assuncao@dcc.ufmg.br Antonio Alfredo Ferreira Loureiro loureiro@dcc.ufmg.br MD Sequências e Indução Matemática 1 Introdução Uma das tarefas mais importantes

Leia mais

Para entender como funciona um perceptron, vamos continuar considerando um perceptron com somente duas entradas, x 1 e x 2, e uma saída s.

Para entender como funciona um perceptron, vamos continuar considerando um perceptron com somente duas entradas, x 1 e x 2, e uma saída s. Análise do Perceptron Para entender como funciona um perceptron, vamos continuar considerando um perceptron com somente duas entradas, x 1 e x 2, e uma saída s. O neurônio de saída tem limiar b, de maneira

Leia mais

Prova de Admissão para o Mestrado em Matemática IME-USP - 23.11.2007

Prova de Admissão para o Mestrado em Matemática IME-USP - 23.11.2007 Prova de Admissão para o Mestrado em Matemática IME-USP - 23.11.2007 A Nome: RG: Assinatura: Instruções A duração da prova é de duas horas. Assinale as alternativas corretas na folha de respostas que está

Leia mais

Distribuição Gaussiana. Modelo Probabilístico para Variáveis Contínuas

Distribuição Gaussiana. Modelo Probabilístico para Variáveis Contínuas Distribuição Gaussiana Modelo Probabilístico para Variáveis Contínuas Distribuição de Frequências do Peso, em gramas, de 10000 recém-nascidos Frequencia 0 500 1000 1500 2000 2500 3000 3500 1000 2000 3000

Leia mais

CAPÍTULO 6 TRANSFORMAÇÃO LINEAR

CAPÍTULO 6 TRANSFORMAÇÃO LINEAR INODUÇÃO AO ESUDO DA ÁLGEBA LINEA CAPÍULO 6 ANSFOMAÇÃO LINEA Introdução Muitos problemas de Matemática Aplicada envolvem o estudo de transformações, ou seja, a maneira como certos dados de entrada são

Leia mais

Universidade de São Paulo. Escola Politécnica

Universidade de São Paulo. Escola Politécnica Universidade de São Paulo Escola Politécnica Engenharia Química Vitor Gazzaneo Modelagem do Equilíbrio Líquido-Líquido para o sistema Água- Ácido Acético-Acetato de Butila Prof. Orientador José Luis Pires

Leia mais

Curvas em coordenadas polares

Curvas em coordenadas polares 1 Curvas em coordenadas polares As coordenadas polares nos dão uma maneira alternativa de localizar pontos no plano e são especialmente adequadas para expressar certas situações, como veremos a seguir.

Leia mais

3 Qualidade de Software

3 Qualidade de Software 3 Qualidade de Software Este capítulo tem como objetivo esclarecer conceitos relacionados à qualidade de software; conceitos estes muito importantes para o entendimento do presente trabalho, cujo objetivo

Leia mais

Universidade Federal de Ouro Preto - UFOP Instituto de Ciências Exatas e Biológicas ICEB

Universidade Federal de Ouro Preto - UFOP Instituto de Ciências Exatas e Biológicas ICEB Universidade Federal de Ouro Preto - UFOP Instituto de Ciências Exatas e Biológicas ICEB PROBLEMA DE PROGRAMAÇÃO DE VEÍCULOS 1 (Vehicle Scheduling Problem) Cássio Roberto de Araújo cassio@em.ufop.br Elva

Leia mais

Análise de regressão linear simples. Departamento de Matemática Escola Superior de Tecnologia de Viseu

Análise de regressão linear simples. Departamento de Matemática Escola Superior de Tecnologia de Viseu Análise de regressão linear simples Departamento de Matemática Escola Superior de Tecnologia de Viseu Introdução A análise de regressão estuda o relacionamento entre uma variável chamada a variável dependente

Leia mais

Texto 07 - Sistemas de Partículas. A figura ao lado mostra uma bola lançada por um malabarista, descrevendo uma trajetória parabólica.

Texto 07 - Sistemas de Partículas. A figura ao lado mostra uma bola lançada por um malabarista, descrevendo uma trajetória parabólica. Texto 07 - Sistemas de Partículas Um ponto especial A figura ao lado mostra uma bola lançada por um malabarista, descrevendo uma trajetória parabólica. Porém objetos que apresentam uma geometria, diferenciada,

Leia mais

Karine Nayara F. Valle. Métodos Numéricos de Euler e Runge-Kutta

Karine Nayara F. Valle. Métodos Numéricos de Euler e Runge-Kutta Karine Nayara F. Valle Métodos Numéricos de Euler e Runge-Kutta Professor Orientador: Alberto Berly Sarmiento Vera Belo Horizonte 2012 Karine Nayara F. Valle Métodos Numéricos de Euler e Runge-Kutta Monografia

Leia mais

Unidade 5: Sistemas de Representação

Unidade 5: Sistemas de Representação Arquitetura e Organização de Computadores Atualização: 9/8/ Unidade 5: Sistemas de Representação Números de Ponto Flutuante IEEE 754/8 e Caracteres ASCII Prof. Daniel Caetano Objetivo: Compreender a representação

Leia mais

A presente seção apresenta e especifica as hipótese que se buscou testar com o experimento. A seção 5 vai detalhar o desenho do experimento.

A presente seção apresenta e especifica as hipótese que se buscou testar com o experimento. A seção 5 vai detalhar o desenho do experimento. 4 Plano de Análise O desenho do experimento realizado foi elaborado de forma a identificar o quão relevantes para a explicação do fenômeno de overbidding são os fatores mencionados na literatura em questão

Leia mais

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU Prof. Dr. Sergio Pilling (IPD/ Física e Astronomia) II Métodos numéricos para encontrar raízes (zeros) de funções reais. Objetivos:

Leia mais

1 Propagação de Onda Livre ao Longo de um Guia de Ondas Estreito.

1 Propagação de Onda Livre ao Longo de um Guia de Ondas Estreito. 1 I-projeto do campus Programa Sobre Mecânica dos Fluidos Módulos Sobre Ondas em Fluidos T. R. Akylas & C. C. Mei CAPÍTULO SEIS ONDAS DISPERSIVAS FORÇADAS AO LONGO DE UM CANAL ESTREITO As ondas de gravidade

Leia mais

Curso: Engenharia de Software com Ênfase em Padrões de Software (UECE Universidade Estadual do Ceará) RUP

Curso: Engenharia de Software com Ênfase em Padrões de Software (UECE Universidade Estadual do Ceará) RUP Conceitos RUP RUP, abreviação de Rational Unified Process (ou Processo Unificado da Rational), é um processo de Engenharia de software criado pela Rational Software Corporation(a qual foi incorporada pela

Leia mais

3 Procedimento experimental

3 Procedimento experimental 3 Procedimento experimental O trabalho experimental foi realizado utilizando-se os equipamentos disponíveis na PUC-Rio, juntamente com aqueles que foram cedidos pelo Instituto Militar de Engenharia (IME).

Leia mais

Notas de Cálculo Numérico

Notas de Cálculo Numérico Notas de Cálculo Numérico Túlio Carvalho 6 de novembro de 2002 2 Cálculo Numérico Capítulo 1 Elementos sobre erros numéricos Neste primeiro capítulo, vamos falar de uma limitação importante do cálculo

Leia mais

Processos Estocásticos

Processos Estocásticos Processos Estocásticos Terceira Lista de Exercícios 22 de julho de 20 Seja X uma VA contínua com função densidade de probabilidade f dada por Calcule P ( < X < 2. f(x = 2 e x x R. A fdp dada tem o seguinte

Leia mais

LIDANDO COM SAZONALIDADES NO PROCESSO LOGÍSTICO

LIDANDO COM SAZONALIDADES NO PROCESSO LOGÍSTICO LIDANDO COM SAZONALIDADES NO PROCESSO LOGÍSTICO Praticamente todos os processos logísticos estão sujeitos a algum tipo de sazonalidade. A humanidade e seus grupos sociais, desde tempos remotos, sempre

Leia mais

Capítulo 5: Aplicações da Derivada

Capítulo 5: Aplicações da Derivada Instituto de Ciências Exatas - Departamento de Matemática Cálculo I Profª Maria Julieta Ventura Carvalho de Araujo Capítulo 5: Aplicações da Derivada 5- Acréscimos e Diferenciais - Acréscimos Seja y f

Leia mais

1. Método Simplex. Faculdade de Engenharia Eng. Celso Daniel Engenharia de Produção. Pesquisa Operacional II Profa. Dra. Lílian Kátia de Oliveira

1. Método Simplex. Faculdade de Engenharia Eng. Celso Daniel Engenharia de Produção. Pesquisa Operacional II Profa. Dra. Lílian Kátia de Oliveira Faculdade de Engenharia Eng. Celso Daniel Engenharia de Produção. Método Simple.. Solução eata para os modelos de Programação Linear O modelo de Programação Linear (PL) reduz um sistema real a um conjunto

Leia mais

Problemas de Otimização. Problemas de Otimização. Solução: Exemplo 1: Determinação do Volume Máximo

Problemas de Otimização. Problemas de Otimização. Solução: Exemplo 1: Determinação do Volume Máximo UNIVERSIDADE DO ESTADO DE MATO GROSSO CAMPUS UNIVERSITÁRIO DE SINOP FACULDADE DE CIÊNCIAS EXATAS E TECNOLÓGICAS CURSO DE ENGENHARIA CIVIL DISCIPLINA: CÁLCULO DIFERENCIAL E INTEGRAL I Eemplo 1: Determinação

Leia mais

O MÉTODO HÚNGARO PARA RESOLUÇÃO DE PROBLEMAS DE OTIMIZAÇÃO

O MÉTODO HÚNGARO PARA RESOLUÇÃO DE PROBLEMAS DE OTIMIZAÇÃO O MÉTODO HÚNGARO PARA RESOLUÇÃO DE PROBLEMAS DE OTIMIZAÇÃO João Cesar Guirado Universidade Estadual de Maringá E-mail: jcguirado@gmail.com Márcio Roberto da Rocha Universidade Estadual de Maringá E-mail:

Leia mais

Engenharia de Software II

Engenharia de Software II Engenharia de Software II Aula 14 Revisão http://www.ic.uff.br/~bianca/engsoft2/ Aula 14-07/05/2006 1 Processo de Software Qual é a diferença entre uma atividade de arcabouço e uma atividade guarda chuva?

Leia mais

MONITORAMENTO QUANTITATIVO E QUALITATIVO DO VAPOR GERADO EM UMA CALDEIRA DE RECUPERAÇÃO QUÍMICA

MONITORAMENTO QUANTITATIVO E QUALITATIVO DO VAPOR GERADO EM UMA CALDEIRA DE RECUPERAÇÃO QUÍMICA MONITORAMENTO QUANTITATIVO E QUALITATIVO DO VAPOR GERADO EM UMA CALDEIRA DE RECUPERAÇÃO QUÍMICA 1 Gilberto D. M. Filho, 2 Marcelardoso, 3 Gustavo M. de Almeida 1 Aluno de Iniciaçãientífica/UFMG, discente

Leia mais

9. Derivadas de ordem superior

9. Derivadas de ordem superior 9. Derivadas de ordem superior Se uma função f for derivável, então f é chamada a derivada primeira de f (ou de ordem 1). Se a derivada de f eistir, então ela será chamada derivada segunda de f (ou de

Leia mais

3 Previsão da demanda

3 Previsão da demanda 42 3 Previsão da demanda Este capítulo estuda o processo de previsão da demanda através de métodos quantitativos, assim como estuda algumas medidas de erro de previsão. Num processo de previsão de demanda,

Leia mais

4Distribuição de. freqüência

4Distribuição de. freqüência 4Distribuição de freqüência O objetivo desta Unidade é partir dos dados brutos, isto é, desorganizados, para uma apresentação formal. Nesse percurso, seção 1, destacaremos a diferença entre tabela primitiva

Leia mais

CAPÍTULO 2. BANCOS DE DADOS DISTRIBUÍDOS

CAPÍTULO 2. BANCOS DE DADOS DISTRIBUÍDOS CAPÍTULO 2. BANCOS DE DADOS DISTRIBUÍDOS Este capítulo inicia com uma proposta para estruturação da descrição de bancos de dados distribuídos, que estende aquela sugerida pela ANSI/SPARC os centralizados.

Leia mais

Programação Não Linear Otimização Univariada E Multivariada Sem Restrições

Programação Não Linear Otimização Univariada E Multivariada Sem Restrições Programação Não Linear Otimização Univariada E Multivariada Sem Restrições A otimização é o processo de encontrar a melhor solução (ou solução ótima) para um prolema. Eiste um conjunto particular de prolemas

Leia mais

Aula 2 - Cálculo Numérico

Aula 2 - Cálculo Numérico Aula 2 - Cálculo Numérico Erros Prof. Phelipe Fabres Anhanguera Prof. Phelipe Fabres (Anhanguera) Aula 2 - Cálculo Numérico 1 / 41 Sumário Sumário 1 Sumário 2 Erros Modelagem Truncamento Representação

Leia mais

Aplicação de Ensembles de Classificadores na Detecção de Patologias na Coluna Vertebral

Aplicação de Ensembles de Classificadores na Detecção de Patologias na Coluna Vertebral Aplicação de Ensembles de Classificadores na Detecção de Patologias na Coluna Vertebral Hedenir M. Pinheiro Instituto de Informática Universidade Federal de Goiás (UFG) Caixa Postal 131 74001-970 Goiânia

Leia mais

1. Os métodos Não-Paramétricos podem ser aplicados a uma ampla diversidade de situações, porque não exigem populações distribuídas normalmente.

1. Os métodos Não-Paramétricos podem ser aplicados a uma ampla diversidade de situações, porque não exigem populações distribuídas normalmente. TESTES NÃO - PARAMÉTRICOS As técnicas da Estatística Não-Paramétrica são, particularmente, adaptáveis aos dados das ciências do comportamento. A aplicação dessas técnicas não exige suposições quanto à

Leia mais

RESOLUÇÃO DE EQUAÇÕES DIFERENCIAIS ORDINÁRIAS DE ORDEM 2 HOMOGÊNEAS, COM COEFICIENTES CONSTANTES

RESOLUÇÃO DE EQUAÇÕES DIFERENCIAIS ORDINÁRIAS DE ORDEM 2 HOMOGÊNEAS, COM COEFICIENTES CONSTANTES Pontifícia Universidade Católica do Rio Grande do Sul Faculdade de Matemática Equações Diferenciais RESOLUÇÃO DE EQUAÇÕES DIFERENCIAIS ORDINÁRIAS DE ORDEM HOMOGÊNEAS, COM COEFICIENTES CONSTANTES FORMA

Leia mais

Aula 9 ESCALA GRÁFICA. Antônio Carlos Campos

Aula 9 ESCALA GRÁFICA. Antônio Carlos Campos Aula 9 ESCALA GRÁFICA META Apresentar as formas de medição da proporcionalidade entre o mundo real e os mapas através das escalas gráficas. OBJETIVOS Ao final desta aula, o aluno deverá: estabelecer formas

Leia mais

Redes Neurais. Profa. Flavia Cristina Bernardini

Redes Neurais. Profa. Flavia Cristina Bernardini Redes Neurais Profa. Flavia Cristina Bernardini Introdução Cérebro & Computador Modelos Cognitivos Diferentes Cérebro Computador Seqüência de Comandos Reconhecimento de Padrão Lento Rápido Rápido Lento

Leia mais

Modelagem Digital do Terreno

Modelagem Digital do Terreno Geoprocessamento: Geração de dados 3D Modelagem Digital do Terreno Conceito Um Modelo Digital de Terreno (MDT) representa o comportamento de um fenômeno que ocorre em uma região da superfície terrestre

Leia mais

Um estudo sobre funções contínuas que não são diferenciáveis em nenhum ponto

Um estudo sobre funções contínuas que não são diferenciáveis em nenhum ponto Um estudo sobre funções contínuas que não são diferenciáveis em nenhum ponto Maria Angélica Araújo Universidade Federal de Uberlândia - Faculdade de Matemática Graduanda em Matemática - Programa de Educação

Leia mais

Análise de Regressão Linear Simples e Múltipla

Análise de Regressão Linear Simples e Múltipla Análise de Regressão Linear Simples e Múltipla Carla Henriques Departamento de Matemática Escola Superior de Tecnologia de Viseu Carla Henriques (DepMAT ESTV) Análise de Regres. Linear Simples e Múltipla

Leia mais

Cadernos do CNLF, Vol. XVI, Nº 04, t. 3, pág. 2451

Cadernos do CNLF, Vol. XVI, Nº 04, t. 3, pág. 2451 O PLURAL DAS PALAVRAS TERMINADAS EM -ÃO: MUDANÇA OU VARIAÇÃO ESTÁVEL? Miriam Cristina Almeida Severino (UFRJ) cristinasmiriams@yahoo.com.br Christina Abreu Gomes (UFRJ) christina-gomes@uol.com.br 1. Introdução

Leia mais

UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS

UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS UNISINOS - UNIVERSIDADE DO VALE DO RIO DOS SINOS Curso: Informática Disciplina: Redes Neurais Prof. Fernando Osório E-mail: osorio@exatas.unisinos.br EXEMPLO DE QUESTÕES DE PROVAS ANTIGAS 1. Supondo que

Leia mais

CAPÍTULO 3. Sistemas com Vários Componentes (Multicomponentes) em Modelos Markovianos de Decisão

CAPÍTULO 3. Sistemas com Vários Componentes (Multicomponentes) em Modelos Markovianos de Decisão CAPÍTULO 3 Sistemas com Vários Componentes (Multicomponentes) em Modelos Markovianos de Decisão 3.1 - Multicomponentes Conceitos Básicos: O conceito de multicomponente é utilizado em diversas áreas de

Leia mais

Estudaremos métodos numéricos para resolução de sistemas lineares com n equações e n incógnitas. Estes podem ser:

Estudaremos métodos numéricos para resolução de sistemas lineares com n equações e n incógnitas. Estes podem ser: 1 UNIVERSIDADE FEDERAL DE VIÇOSA Departamento de Matemática - CCE Cálculo Numérico - MAT 271 Prof.: Valéria Mattos da Rosa As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia

Leia mais

UNIVERSIDADE DO ALGARVE ESCOLA SUPERIOR DE TECNOLOGIA

UNIVERSIDADE DO ALGARVE ESCOLA SUPERIOR DE TECNOLOGIA UNIVERSIDADE DO ALGARVE ESCOLA SUPERIOR DE TECNOLOGIA CURSO BIETÁPICO EM ENGENHARIA CIVIL º ciclo Regime Diurno/Nocturno Disciplina de COMPLEMENTOS DE MATEMÁTICA Ano lectivo de 7/8 - º Semestre Etremos

Leia mais

Análise de Arredondamento em Ponto Flutuante

Análise de Arredondamento em Ponto Flutuante Capítulo 2 Análise de Arredondamento em Ponto Flutuante 2.1 Introdução Neste capítulo, chamamos atenção para o fato de que o conjunto dos números representáveis em qualquer máquina é finito, e portanto

Leia mais

Relatório da Aula Prática sobre Redes Neurais Artificiais

Relatório da Aula Prática sobre Redes Neurais Artificiais Relatório da Aula Prática sobre Redes Neurais Artificiais Instituto de Informática UFRGS Carlos Eduardo Ramisch Cartão: 134657 INF01017 Redes Neurais e Sistemas Fuzzy Porto Alegre, 16 de outubro de 2006.

Leia mais

MODELAGEM DO CUSTO MARGINAL DA ENERGIA ELÉTRICA EM FUNÇÃO DO NÍVEL DE ARMAZENAMENTO NOS RESERVATÓRIOS

MODELAGEM DO CUSTO MARGINAL DA ENERGIA ELÉTRICA EM FUNÇÃO DO NÍVEL DE ARMAZENAMENTO NOS RESERVATÓRIOS SNPTEE SEMINÁRIO NACIONAL DE PRODUÇÃO E TRANSMISSÃO DE ENERGIA ELÉTRICA GOP - 17 16 a 21 Outubro de 2005 Curitiba - Paraná GRUPO IX GRUPO DE ESTUDO DE OPERAÇÃO DE SISTEMAS ELÉTRICOS - GOP MODELAGEM DO

Leia mais

Fundamentos de Teste de Software

Fundamentos de Teste de Software Núcleo de Excelência em Testes de Sistemas Fundamentos de Teste de Software Módulo 2- Teste Estático e Teste Dinâmico Aula 4 Projeto de Teste 1 SUMÁRIO INTRODUÇÃO... 3 ANÁLISE E PROJETO DE TESTE... 3 1.

Leia mais