ISCTE/FCUL - Mestrado Matemática Financeira. Aula de Janeiro de 2009 Ano lectivo: 2008/2009. Diana Aldea Mendes
|
|
- Isabel Sacramento Avelar
- 5 Há anos
- Visualizações:
Transcrição
1 ISCTE/FCUL - Mestrado Matemática Financeira Aula 4 15 de Janeiro de 2009 Ano lectivo: 2008/2009 Diana Aldea Mendes Departamento de Métodos Quantitativos, IBS - ISCTE Business School Gab. 207 AA, diana.mendes@iscte.pt, deam 1
2 Optimização multi-dimensional - Métodos gradiente (gradiente descendente, gradiente conjugado) -Métodos de Newton e quase-newton -Método de Powell (non-gradiente search) - Método dos mínimos quadrados (não-linear) (Levenberg-Marquardt) 2
3 Nota-se que: -Os computadores não podem encontrar todas as soluções -Os computadores não podem provar a ausência de soluções -Os computadores não podem provar a existência de soluções -Oscomputadoresnão podem provar a unicidade de uma solução hbn/software/ (Software by Hans Bruun Nielsen) 3
4 min f (x) f (x) =0, x D 2 f (x) definida positiva x R n, f : D R n R (1) f (x) = f (x) função objectivo (2) " # f vector gradiente (3) x i i=1,...,n 2 f (x) = (derivadas parciais de primeira ordem) (4) " 2 # f H (x) = matriz Hessiana (5) x i x j i,j=1,...,n (derivadas parciais de segunda ordem) (6) 4
5 Aformulação do problema de mínimo émuitosimples,mas,apesardisto, não existe um algoritmo perfeito. A arte de minimizar funções não-lineares consta em saber qual éométodo à utilizar e como determinar se o método escolhido converge para a solução correcta. Em geral - Utilizamos métodos iterativos que calculam uma sequência de pontos x 0,x 1,... R n tal que f x k+1 <f(xk ). O algoritmo termina quando f (x k ) <ε para ε pré-definido -Sef é fortemente convexa, isto é, m>0talque 2 f (x) >> mi, x R n, então existe um critério de paragem definido por k f (x)k 2mε f (x) f (x ) ε 5
6 Classificação dos métodos de optimização não-condicionada multidimensional - Métodos anaĺıticos: resolver f (x) = 0 analiticamente - Métodos directos: precisam só a computação de f (x) em cada passo (Powell ou DogLeg, Nelder-Mead) - Métodos gradiente: requerem a computação de f (x) e f (x) em cada passo (gradiente descendente, gradiente conjugado) -Métodos de segunda ordem: requerem a computação de 2 f (x), f (x) e f (x) em cada passo (Newton e quase-newton) - Outros métodos: arrefecimento simulado, algoritmos genéticos, etc... 6
7 Método de Powell - Requere apenas o cálculo de f (x). Necessita de um grande número de avaliações da função objectivo, o que aumenta o custo computacional - Idéia básica: considerar um número elevado de vectores x ecalcularof (x) associado. O vector correspondente ao menor valor f (x) será considerado como o valor óptimo x. - Melhor: seja x 0 o ponto que aproxima inicialmente o minimizante de f (x). Opróximo valor do minimizante, o ponto x 1, obtem-se procurando sucessivamente um minimizante de f ao longo de cada um dos vectores da base canónica {e 1,..., e n } de R n. Este processo gera a sequência de pontos x 0 = P 0,P 1,...,P N = x 1. 7
8 Ao longo de cada um dos vectores da base canónica, a função f torna ser só de uma variável. Assim, minimizar f signifique aplicar os métodos de optimização unidimensional sobre intervalos onde a função éunimodal. Opontox 1 é determinado como sendo o ponto em qual o mínimo de f ocorre ao longo do vector P N P 0. Como o vector P N P 0 é considerado ser uma direcção de investigação viável, vai substituir um dos vectores direcção para a próxima iterada. A iteração é repetida para gerar uma sequência de pontos {x k } k 0. Algoritmo 1. P 0 = x i 2. Para k = 1,...,n encontre o valor de γ k que minimiza f (P 0 + γ k U k )e escolha P k = P k 1 + γ k U k 8
9 3. i = i U j = U j+1 para j =1,..., n 1. Seja U n = P n P 0 5. Encontre o valor γ que minimiza f (P 0 + γu n ). Escolha x i = P 0 + γu n 6. Repetir os passos (1)-(5). onde U =[U T 1...UT n ]=[e T 1...eT n]. 9
10 Exemplo: Seja f (x, y) =cosx+siny esejax 0 =(5.5, 2). Determine os pontos x 1 e x
11 Seja U = " e P 0 = x 0 =(5.5, 2). Para i =1, afunção f (P 0 + γ 1 U 1 )=f ((5.5, 2) + γ 1 (1, 0)) = cos (5.5+γ 1 )+sin2temummínimo em γ 1 = Logo P 1 =(3.1415, 2). # Para i =2, afunção f (P 1 + γ 2 U 2 )=f((3.1415, 2) + γ 2 (0, 1)) = cos (3.1415)+ sin (2 + γ 2 )temummínimo em γ 2 = Logo P 2 =(3.1415, ).Seja agora " # U2 T =(P 2 P 0 ) T e U =
12 Afunção f (P 0 + γu 2 ) = f ((5.5, 2) + γ ( , )) = cos( γ)+ sin( γ) temummínimo em γ = Logo x 1 =(3.1848, ). Seja P 0 = x 1. Quando i =1, afunção f (P 0 + γ 1 U 1 ) = f ((3.1848, ) + γ 1 (0, 1)) = cos(3.1848) + sin ( γ 1 ) temummínimo em γ 1 = Logo P 1 =(3.1484, ). Quando i =2, a função f (P 1 + γ 2 U 2 ) = f ((3.1848, ) + γ 2 ( , )) = cos( γ 2 )+sin( γ 2 ) 12
13 temummínimo em γ 2 = Logo P 2 =(3.1662, ). Seja U T 2 =(P 2 P 0 ) T e U = " #. Afunção f (P 0 + γu 2 ) = f ((3.1848, ) + γ ( , )) = cos( γ)+ sin( γ) temummínimo em γ = Logo x 2 =(3.1698, ). Afunção f (x, y) =cosx +siny tem um mínimo no ponto P =(π, 3π/2). 13
14 Métodos gradiente ou métodos descendentes Minimização ao longo de uma direcção - Problema geral Minimizar uma função real de n variáveis reais, f, onde: f é regular, o seu gradiente g = f é conhecido e é dada um direcção descendente u. Uma direcção u diz-se descendente para a função f em x se u T f 0 (x) < 0. -Consideram-se iterações de forma x k+1 = x k + λ k u k, onde u k é a direcção descendente investigada e λ k é o comprimento de passo obtido por uma procura unidimensional (faz decrescer a função f). Em todos 14
15 os métodos consideremos que f x k+1 <f(xk ), (descending condition) oque obriga a convergência para um ponto de mínimo, caso existe. O algoritmo termina quando satisfaz o críterio de paragem. Tem convergência linear e portanto é um algoritmo bastante lento. Problema: Dada uma função f (x), x =(x 1,...,x n ) R n, um ponto inicial x 0 R n eumadirecção u =(u 1,..., u n ) R n, como minimizar a função f ao longo da direcção u? Resposta: Começamos com um ponto inicial x 0 e procuramos um novo ponto tal que a função x = x 0 + λ u F (λ) =f (x 0 + λu) 15
16 é minimizada quando λ = λ. Nesta situação F (λ) é uma função só deuma variável (λ). Como escolher a direcção descendente: Nos métodos do gradiente conjugado não linear, a direcção de investigação édeforma u k = g k + β k u k 1 ou seja h k = f (x k )=g k, onde o escalar β k é escolhido de tal maneira que o método reduz-se ao método linear dos gradientes conjugados, quando afunção é quadrática e a linha de investigação é exacta. 16
17 Uma outra classe de métodos define a linha (direcção) de investigação por u k = Bk 1 g k onde B k é uma matriz regular ( B k 6= 0)esimétrica (b ij = b ji ). Casos especiais são dados quando B k = I the steepest descent method B k = 2 f (x k )=H (f (x k )) o método de Newton. Os métodos quase-newton ou métricos variáveis são também deste tipo, mas neste caso B k depende ainda de B k 1 edex k 1. Matlab: m-file opt steep.m [xo,fo] = opt steep(f,x0,tolx,tolfun,alpha0,maxiter) 17
18 Minimização ao longo de uma direcção - exemplo Seja f (x) =f (x 1,x 2 )=1+x 1 x 2 + x x2 2. Minimize f na direcção u =( 2, 1) para o ponto inicial x 0 =(0, 0). Definimos a linha de investigação x = x 0 + λu =(0, 0) + λ ( 2, 1) = ( 2λ, λ) eanovafunção F, isto é F (λ) =f (x 0 + λu) =f ( 2λ, λ) =1 3λ +6λ 2. O minimizante de F (λ) éobtidodef 0 (λ) =0, isto é F 0 (λ) =12λ 3=0 λ = 1 4, 18
19 ecomof 00 (λ )=12> 0, temos que λ = 1 4 éummínimo. Tem-se então que x = x 0 + λ u = ³ 1 2, 1 4 éomínimo de f (x) ao longo da linha x = x 0 + λu. Mais, podemos mostrar que x éomínimo global da função f (x). Escrevendo µ f (x) =f (x 1,x 2 )=1+x 1 x 2 + x x2 2 = x µ +2 x aúltima função tem curvas de nível (contorno) definidas por elipses centradas no ponto de mínimo x = ³ 1 2, 1 4. Observa-se que o mínimoaolongodadirecção 19
20 x = x 0 + λu passa pelo centro ³ 1 2, Funço f (x 1,x 2 )=1+x 1 x 2 + x x2 2 20
21 Método do gradiente conjugado (Fletcher-Reeves) A introdução do método do gradiente conjugado por Fletcher-Reeves nos anos 1960 conduz a possibilidade de optimizar problemas não lineares de larga escala, pois só são precissos O (n) operações por iteração e pouco espaço para armazenagem. São métodos simples e bastante fáceis de implementar. São superiores aos métodos que não utilizam informação sobre o gradiente, mas são inferiores aos métodos de tipo Newton. Considerando uma equação da forma f(x) = 0, é claro que f(x) = 0 sse f(x)f(x) = 0. Logo, se existirem, os zeros de f, são os pontos de mínimo absoluto de f 2. 21
22 De forma semelhante, no caso de funções com várias variáveis, usando a norma euclidiana, obtemos: F (x) =0<=> F (x) 2 =0<=> F(x).F (x) =0 e, se existirem, as soluções de F (x) =0são os pontos de mínimo absoluto de f(x) =F (x).f (x). Seja A uma matriz simétrica e definida positiva, e consideremos uma forma quadrática auxiliar: f (x) =a b T x xt Ax que transforma vectores em números reais. Como a forma équadrática, há apenas um vector que minimiza f eé exactamente o ponto crítico, ou seja, a 22
23 solução de f 0 (x) = 0, e neste caso, f 0 (x) = 1 2 (AT + A)x b = Ax b. Assim, se encontrarmos o ponto de mínimo, ele será solução do sistema linear Ax = b. Consideramos métodos iterativos de optimização de tipo investigação de linha, ou seja: x n+1 = x n + a n h n de forma que haja uma direcção descendente, ou seja, f(x n+1 ) <f(x n ). O vector h n define a direcção de investigação descendente. 23
24 Método do Gradiente No caso do método do gradiente (ou declive máximo - steepest descent), a direcção de descida escolhida é h n = f(x n )=b Ax n, e neste caso (de sistemas lineares) é também designado por resíduo. Resta encontrar o valor a n que minimiza f, deentreospossíveis valores x n +ah n. Encontramos o ponto de mínimo, derivando f (nesses pontos) em ordem a a, ou seja, d da (f (x n + ah n )) = f 0 (x n + ah n ).h n = (b A(x n + ah n )).h n = h n.h n aah n.h n 24
25 Assim, o valor mínimo a n será obtidocomozerodaderivada, h n.h n a n Ah n.h n =0<=> a n = h n.h n. Ah n.h n Em conclusão, dado um vector inicial x 0,ométododogradienteresume-seà iteração x n+1 = x n + a n h n = x n + h n.h n h n com h n = b Ax n h n.a h n Um critério de paragem consiste em exigir que h n 2 = h n.h n <ε com ε pequeno, notando que isso implica que Ax n épróximo de b. 25
26 Método das Direcções Conjugadas Começamos por definir direcções conjugadas: Um conjunto de direcções {h 1,h 2,...} diz-se conjugado com respeito a uma matriz A simétrica e definida positiva se h T i Ah j = 0 para qualquer i 6= j. Com este produto interno, dois vectores dizem-se A-ortogonais se <h i,h j > A = h i.ah j = h T i Ah j =0,comosinónimo diz-se que as direcções h i e h j são conjugadas. Seja N adimensão da matriz A esejamh 1,h 2,...,h N direcções conjugadas, que constituem uma base A-ortogonal em R N. Se considerarmos h n como direcções de descida, temos a iteração x n+1 = x n + a n h n 26
27 e queremos agora encontrar o valor a n que minimiza f, deentreospossíveis valores x n + ah n. De forma, semelhante, podemos obter a n = r n.h n, com r n = b Ax n h n.ah n eportantoométodo de direcções conjugadas é x n+1 = x n + r n.h n h n.ah n h n Teorema: Um método de direcções conjugadas atinge a solução ao fim de N iterações. 27
28 Método dos Gradientes Conjugados Consideramos agora o caso particular do método das direcções conjugadas, em que elas são obtidas através do gradiente. Recordamos que no caso linear o gradiente é dado pelo resíduo r n = b Ax n. Através de um processo de ortogonalização (ou melhor, A-ortogonalização) de Gram-Schmidt, através dos sucessivos resíduos (gradientes) podemos construir as direcções h n que serão conjugadas (A-ortogonais). Assim, podemos resumir o Método dos Gradientes Conjugados, 1. Dado x 0 definimos h 0 = r 0 = b Ax 0, 28
29 2. Definimos x n+1 = x n + a n h n com a n = r n.h n h n.ah n 3. Definimos r n+1 = r n a n Ah n e h n+1 = r n+1 + b n h n, com b n = r n+1.r n+1 r n.r n. 4. Regressamos ao 2 o passo, até que sejam efectuados N passos. Nota: Apesar de termos dito que o método atinge a solução exacta ao fim de N passos, um mau condicionamento da matriz poderá impedir que a solução seja efectivamente obtida. Nesse caso há que utilizar um critério de paragem, por exemplo, exigindo que o resíduo seja suficientemente pequeno. 29
30 (a). Método de Fletcher-Reeves (1964) onde x prev é a iterada prévia. b n = r n+1.r n+1 r n.r n = f 0 (x n+1 ) T f 0 (x n+1 ) f 0 (x n ) T f 0 (x n ) (b). Método de Polak-Ribière (1971) b n = (r n+1 r n ).r n+1 r n.r n = f 0 (x n+1 ) f 0 (x n ) T f 0 (x n+1 ) f 0 (x n ) T f 0 (x n ) Para uma função quadrática os dois métodos são identicos. 30
31 Mtododogradienteconjugado 31
32 Em Matlab o programa mincg.m está baseado neste método de optimização. [res, noiter]=mincg(f, derf, ftau, x, tol) onde f éafunção a optimizar, derf são as derivadas paciais de 1 a ordem da função (gradiente), ftau represente o método de investigação de linhas, x a condição inicial e tol a tolerância permitida. De forma alternativa tem-se o m-file opt conjg.m [xo,fo] = opt conjg(f,x0,tolx,tolfun,alpha0,maxiter,kc) Exemplo: Seja A = " #. 32
33 Determine os vectores próprios de A e motra que são A-conjugados. Primeira vez determinam-se os valores próprios, isto é A λi =0 λ 1 =1 e λ 2 =3. Logo " #" # " # v1 0 (A λi) v = 0 = v 1 = ³ v1 1 ³ 2,v1 = v 1 1,v1 1 = v 1 1 (1, 1), v1 1 R " #" # " # v1 0 = v 2 v 2 = ³ v 2 1,v2 2 = ³ v 2 1, v 2 1 = v 2 1 (1, 1), v 2 1 R v 2 33
34 Agora ³ v 1 T Av 2 = h 1 1 i " #" 1 1 # =0 Exemplo: Aplicando o método das direcções conjugadas, minimiza a seguinte função quadrática min x1,x 2 R f (x 1,x 2 )= 1 2 xt Ax b T x + c, onde " # " # " # A =, b =, c =5 e x =. 0 Calculamos os vectores conjugados de A (exemplo anterior) h 0 =(1, 1) eh 1 = (1, 1). 34
35 Agora r 0 = b Ax 0 = " 3 8 # " #" 0 0 # = " 3 8 # 6= 0 a 0 = rt 0 h 0 h T 0 Ah 0 = 11 2 x 1 = x 0 + a 0 h 0 = h " # " r 1 = b Ax 1 = i T #" # = " # a 1 = rt 1 h 1 h T 1 Ah 1 = 5 6 x 2 = x 1 + a 1 h 1 = r 2 = b Ax 2 = " 3 8 " # 2 # " # = " " #" # # = " #. 35
36 Exemplo: Aplicando o método do gradiente conjugado (Fletcher-Reeves), minimiza a seguinte função quadrática onde o ponto inicial é x 0 =(1, 2). min x 1,x 2 R f (x 1,x 2 )=x 2 1 x 1x 2 +3x 2 2, Calculamos o vector gradiente logo f (x) =f 0 (x) = f 0 (x 0 )= " 0 11 # " 2x1 x 2 x 1 +6x 2 e r 0 = h 0 = # " 0 11 # 36
37 Agora x 1 = x 0 + a 0 h 0 = h b 1 = f 0 (x 1 ) T f 0 (x 1 ) f 0 (x 0 ) T f 0 (x 0 ) = 1 36 h 1 = f 0 (x 1 )+b 1 h 0 = x 2 = x 1 + a 1 h 1 = " 0 0 " 116 #. i T e f 0 (x 1 )= # " # Exemplo: Determinar um mínimo local da função f (x, y) =0.5(x 4 16x 2 +5x)+0.5(y 4 16y 2 +5y) 37
38 Função f801.m >> x1=mincg( f801, f801pd, ftau2cg, x0, ) 38
39 > number of iter= 6, > Solution >> x=-4:0.1:4;y=-4:0.1:4; [X,Y]=meshgrid(x,y); >> z=0.5.*(x.ˆ4-16.*x.ˆ2+5.*x)+0.5.*(y.ˆ4-16.*y.ˆ2+5.*y); >> x1=[ ]; y1=[ ]; >> figure; axis([ ]); contour(-4:0.1:4, -4:0.1:4, z,15) >> hold on; plot(x1,y1,x1,y1, o ) 39
40 Método de Newton Ométodo de Newton inicía uma classe importante de algoritmos que, para serem aplicados, requerem a computação do vector gradiente g = f (x) = f x 1 (x). f x n (x), onde f : D R n R e x =(x 1,...,x n ) 40
41 edamatrizhessiana H (f (x)) = 2 f (x) = 2 f 2 f 2 f x 2 (x) (x)... (x) 1 x 1 x 2 x 1 x n 2 f 2 f 2 f (x) x 2 x 1 x 2 (x)... (x) 2 x 2 x n f (x) 2 f x n x 1 (x) 2 f x n x 2 (x)... x 2 n. Teorema: Suponhamos que f : D R n R é duas vezes diferenciável e x R n satisfaz 1. f (x )=0 41
42 2. 2 f (x ) édefinida positiva (em particular, não-singular) 3. 2 f élipschitzcontínua numa vizinhança do ponto x. Então x éummínimo local de f e para qualquer x 0 suficientemente próximo de x,ométodo de Newton define uma sequência que converge (local) quadraticamente para x. Nota: O método ainda converge se a matriz Hessiana é semidefinida positiva e singular. O método de Newton determina um modelo quadrático para a função objectivo em torno da iterada corrente x k definida por q k (h k )=f (x k )+ T f (x k ) h k ht k 2 f (x k ) h k. 42
43 Na versão básica do método de Newton, a próxima iterada éobtidaapartir do minimizante de q k. Quando a matriz Hessiana édefinida positiva, o modelo quadrático tem um único minimizante que pode ser obtido resolvendo o seguinte sistema simétrico (n n) 2 f (x k ) h k = f (x k ) h k = ³ 2 f (x k ) 1 f (xk ) Agora, a nova iterada vai ser x k+1 = x k + h k = x k ³ 2 f (x k ) 1 f (xk ) Como já referidoaconvergência (local) é garantida se o ponto de partida é suficientemente próximo de um minimizante local x. Ocritério de paragem é dado por α 2 µ 2 ε onde α (x) = T f (x) ³ 1/2 2 f (x) 1 f (x) = kx x k 43
44 Figura 1: Método de Newton. Caso (a), convergência imediata para p mínimo (1 iterada) e caso (b) convergência ao fim de10iteradas. 44
45 O algoritmo de Newton se funciona bem, funciona muito bem. Com tudo isto não é o método ideal, pois requere a computação da matriz hessiana em cada iterada, também como a resolução do sistema linear que envolve a hessiana. Falha facilmente se a matriz hessiana não é definida positiva ou regular. Nestes casos (quando a matriz hessiana não é definida positiva ou regular) convém substituir a matriz Hessiana H por uma nova matriz Ĥ = H + E. O método de Levenberg-Marquardt pode ser utilizado com sucesso, fazendo a substituição: Ĥ = H + γi, com I matriz identidade. O papel de γ émantera matriz H definida positiva. Matlab: m-file newtons.m [x,fx,xx] = newtons(f,x0,tolx,maxiter,varargin) 45
46 Exemplo: Minimizar a função f (x) =f (x 1,x 2 )= 1 2 x2 1 Ã! x x 2 arctan x ln ³ x
47 Precisamos do gradiente e da matriz Hessiana f (x) = x x 1 arctan x 2 e f (x) = x x 2 2 Atabelaseguintedá os resultados de iteração quando x 0 =(1, 0.7). Há convergência local quadrática. 47
48 Mudando a condição inicial, nomeadamente x 0 =(1, 2), ométodo de Newton comporta-se muito mal (não há convergência global), como pode ser visto na próxima tabela Na maioria dos casos, o método básico de Newton não converge e para se obter bons resultados é preciso modificar o algoritmo. Basicamente, há dois métodos para modificar o algoritmo de Newton em ordem a obter convergência: 48
49 1. Abordagem baseada numa investigação de linhas (direcções) (modifica a direcção da linha de investigação para obter uma outra direcção descendent para f) 2. Abordagem baseada numa região de confiança (utiliza a função quadrática original, mas condiciona-se que a nova iterada pertencer a uma vizinhança da iterada corrente) Estas técnicas são adequadas se o número de variáveis da função objectivo não é muito elevado e se a matriz Hessiana é acessível e fácil de calcular. Os algoritmos ficam não-alterados se a matriz Hessiana vem substituída por uma boa aproximação sua. Existem dois tipos de métodos que aproximam a matriz Hessiana, nomeadamente: Aproximações com diferenças e Métodos quase-newton 49
50 Métodos Quase-Newton ou métodos métricos variáveis Podem ser utilizados quando a matriz Hessiana é difícil de calcular ou demora muito tempo para ser avaliada. Este método constrói gradualmente uma matriz Hessiana aproximada utilizando informações a partir do gradiente avaliado para quase todas as iteradas anteriores visitadas pelo algoritmo. Consta de dois passos fundamentais - Determinação de uma direcção de investigação - Escolha do método de investigação da linha Dada a iterada corrente x k e a matriz Hessiana aproximada B k em x k, asolução do sistema linear B k h k = f (x k ) h k = Bk 1 f (x k) 50
51 gera uma direcção h k. Apróxima iterada encontra-se fazendo uma investigação linear sobre h k e considerando x k+1 = x k + α k h k, onde o comprimentos de passo α k satisfaz as condições de Wolfe, isto é, onde 0 <σ 1 <σ 2 < 1. f (x k + α k h k ) f (x k )+σ 1 α k T f (x k ) h k T f (x k + α k h k ) h k σ 2 T f (x k ) h k Para obter a aproximação B k+1 apartirdeb k é precisso considerar o Teorema Fundamental de Cálculo Integral. Se definimos s k = x k+1 x k y k = f x k+1 f (xk ) 51
52 então ( Z f (x k + ts k ) dt média da Hessiana sobre o segmento [x k,x k +s k ] ) s k = y k. A partir dessa observação podemos obter a aproximação B k+1 imitandoocomportamento da matriz 2 f e considerando a condição de quase-newton B k+1 s k = y k. Ao fim de cada passo a aproximação da matriz Hessiana vem actualizada. A mais comum (e utilizada) família de actualizações consideradas no método de quase-newton (para determinação da direcção de investigação) é a de Broyden de rang 2, isto é B k+1 = B k B ks k (B k s k ) T s T k B ks k + y ky T k y T k s k + φ k [s T k B ks k ]v k v T k, 52
53 onde φ k [0, 1] e v k = " yk y T k s k B ks k s T k B ks k Para φ k =0tem-seaactualização de Broyden-Fletcher-Goldfarb-Shanno (BFGS) eparaφ k =1tem-seaactualização de Davidon-Fletcher-Powell (DFP). #. Aplicando qualquer uma dessas actualizações a matriz Hessiana aproximada permanence definida positiva e portanto a direcção de procura ésempreumadi- recção descendente. São algoritmos que convergem rapidamente e evitam a computação das derivadas de segunda ordem. 53
54 Matlab fminunc é o m-file que determine extremos livres de uma função real de várias variáveis reais. >> x=fminunc( fname,x0) Inicia em x 0 e tenta encontrar o mínimo local x da função fname (definida como m-file também) Exemplo >>x =fminunc( ffdi,[2 3]) % sem gradiente 54
55 > f = > f = Optimization terminated: relative infinity-norm of gradient less than options.tolfun. x = Para minimizar esta função já com o gradiente dado modificamos a função como a seguir (indicando no comando fminunc que o gradiente está disponível utilizando OPTIONS) 55
56 >>x = fminunc( fname, x0, options); >> options=optimset( GradObj, on ); x0=[2 3] >> [x,fval]=fminunc( dffdi, x0, options) Optimization terminated: first-order optimality less than OPTIONS.TolFun, and no negative/zero curvature detected in trust region model. x = fval = -2 56
57 Método dos mínimos quadrados (problema não-linear) Consideremos, de novo, um conjunto de pontos x 0,...,x n aqueestão associados, respectivamente, os valores f(x 0 ),...,f(x n ). Temos que considerar agora uma classe de funções, entre as quais vamos tentar encontrar a que melhor aproxima aquele conjunto de valores, nos pontos dados. Vamos concentrar em funções da forma: g(x) =a 0 f 0 (x) a m f m (x) em que f 0,...,f m são funções base (linearmente independentes), e são conhecidas. Neste caso, apenas teremos que determinar os parâmetros a 0,..., a n,deforma que a soma quadrática das diferenças entre os f(x i )eosg(x i )sejamínima. Faz 57
58 então sentido introduzir a distância f g em que u 2 = aqueestáassociadaoprodutointerno <u,v>= nx i=0 nx i=0 u 2 (x i ) u (x i ) v (x i ). A norma e o produto interno estão bem definidos para funções que assumem quaisquer valores nos pontos x 0,...,x n. Pretende-se pois encontrar os parâmetros a 0,...,a n que minimizem a distância entre f e g,istoé: Q = f g 2 =<f g, f g> 58
59 Para obtermos esse mínimo, começamos por procurar os valores a 0,...,a m tais que todas as derivadas parciais de Q sejam nulas, isto é: Q a j (a 0,...,a m )=0, para j =0,...,m. Calculamos a derivada parcial, usando as propriedades de derivação do produto interno: Q = * + * + <f g, f g>= (f g),f g + f g, (f g) a j a j a j a j = 2 * Por outro lado f g, a j (f g) g a j = + = 2 * f g, a j g + a j (a 0 φ a m φ m )=φ j. 59
60 e assim obtemos, para cada j de 0 até m: D f g, φ j E =0 Podemos ainda substituir a expressão de g e obtemos um sistema linear: nx i=0 designado por sistema normal. a i <φ i,φ j >=< f,φ j > para cada j =0,...,m Teorema: Se as funções base φ 0,..., φ m forem linearmente independentes, a matriz do sistema normal é definida positiva. Observações: 1)A matriz Hessiana de Q coincide justamente com a matriz do sistema normal. Fica assim justificado que a solução do sistema normal, tratando-se de um ponto 60
61 crítico de Q, e como a matriz Hessiana édefinida positiva, seja o mínimo do funcional Q. 2) Como a matriz ésimétrica e definida positiva, um métodoapropriadopara resolver o sistema normal é o método de Cholesky. Mais geral: Seja f : R n R m, com m n. Objectivo: minimizar kf (x)k, ou equivalente, encontrar um x, tal que x =min x {F (x)} onde F (x) = 1 2 mx i=1 (f i (x)) 2 = 1 2 kf (x)k2 = 1 2 f T (x) f (x). Os problemas dos mínimos quadrados podem ser resolvidos pelos métodos usuais de optimização ou pelos métodos dos mínimos quadrados que se tornam mais efficientes 61
62 Temos F 0 (x) =J (x) T f (x) e F 00 (x) =J (x) T J (x)+ mx i=1 f i (x) f 00 i (x). Método de Levenberg-Marquardt Opassoh lm édefinido por ³ J T J + μi h lm = J T f. A principal dificuldade em implementar este algoritmo consta em encontrar uma estratégia efectiva para controlar o tamanho de μ em cada iteração de tal forma que será eficiente para um conjunto grande de problemas. O método utilizado neste algoritmo consta na medição da não linearidade relativa de f (x) utilizando uma soma linear de quadrados. Não procura explicitamente a direcção de investigação o que torna o algoritmo bastante rápido e exacto. 62
63 Algoritmo Iniciar k = 0;υ =2; x = x 0 ; A = J (x) T J (x); g = J (x) T f (x) found = (kgk ε 1 ); μ = τ max {a ii } while (not found) e (k <k max ) k = k +1; resolver (A + μi) h lm = g if kh lm k ε 2 (kxk + ε 2 ) found = true // else x new = x + h lm ; ρ = F (x) F (x new) L (0) L (h lm ) if ρ > 0 x = x new ; A = J (x) T J (x); g = J (x) T f (x) found = (kgk ε 1 ) μ = μ max n 1/3, 1 (2ρ 1) 3o ; υ =2 else μ = μν; ν =2ν end 63
64 Matlab Optimization Toolbox - lsqnonlin.m >> x=lsqnonlin(fun,x0) >> function F = lsqdi(x,a) >> F=[2*x(1)-exp(a*x(1)) -x(1)-exp(a*x(2)) x(1)-x(2)]; >> a = -1; x = lsqnonlin(@(x) lsqdi(x,a),[1;1]) Optimization terminated: TIONS.TolFun. relative function value changing by less than OP- 64
65 x = Função lsqdi.m 65
Optimização. Carlos Balsa. Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança
Optimização Carlos Balsa balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Matemática Aplicada - Mestrados Eng. Química e Industrial Carlos Balsa Matemática Aplicada
Leia maisCapítulo 5 - Optimização Não-Linear
Capítulo 5 - Optimização Não-Linear balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Mestrados em Engenharia da Construção Métodos de Aproximação em Engenharia
Leia maisMétodos Numéricos. MEI - Logística e distribuição Programação quadrática sequencial 2004/2005. A. Ismael F. Vaz - Departamento de Produção e Sistemas
Métodos Numéricos MEI - Logística e distribuição Programação quadrática sequencial 2004/2005 Métodos Numéricos - MEI 1 Motivação Considere-se o seguinte exemplo de um problema de minimização com restrições
Leia maisDepartamento de Matemática da Universidade de Coimbra. Licenciatura em Matemática. e B =
Departamento de Matemática da Universidade de Coimbra Optimização Numérica Licenciatura em Matemática Ano lectivo 2006/2007 Folha 1 1. Considere as matrizes A = [ 1 1 1 2 ] e B = [ 1 3 1 2 (a) Verifique
Leia maisMÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA
MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA Marlon Luiz Dal Pasquale Junior, UNESPAR/FECILCAM, jr.marlon@hotmail.com Solange Regina dos Santos (OR), UNESPAR/FECILCAM, solaregina@fecilcam.br
Leia maisMétodo de Newton truncado
Método de Newton truncado Marina Andretta ICMC-USP 8 de outubro de 2018 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear
Leia maisINSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o
INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 27/28 Semestre: o MATEMÁTICA COMPUTACIONAL Exercícios [4 Sendo A M n (C) mostre que: (a) n A 2 A n A 2 ; (b)
Leia maisBCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017
BCC465 - TÉCNICAS DE OTIMIZAÇÃO MULTI-OBJETIVO Aula 04 - Otimização Não-linear Gladston Juliano Prates Moreira email: gladston@iceb.ufop.br CSILab, Departamento de Computação Universidade Federal de Ouro
Leia maisMarina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright.
Métodos de regiões de confiança Marina Andretta ICMC-USP 17 de setembro de 2014 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear
Leia maisOptimização e Algoritmos (2004/2005)
Optimização e Algoritmos 2004/2005) Instituto Superior Técnico Engenharia Electrotécnica e de Computadores Série de Problemas 4 Minimização sem restrições algoritmos gradiente, Newton, quasi-newton BFGS)
Leia maisCapítulo 6 - Equações Não-Lineares
Sistemas de Capítulo 6 - Carlos Balsa balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança 2 o Ano - Eng. Civil e Electrotécnica Carlos Balsa Métodos Numéricos 1/
Leia maisProcessamento de Imagens CPS755
Processamento de Imagens CPS755 aula 06 - sistemas não lineares Antonio Oliveira Ricardo Marroquim 1 / 38 laboratório de processamento de imagens tópicos RANSAC métodos iterativos (não-lineares) gradientes
Leia maisMatemática Computacional - 2 o ano LEMat e MEQ
Instituto Superior Técnico Departamento de Matemática Secção de Matemática Aplicada e Análise Numérica Matemática Computacional - o ano LEMat e MEQ Exame/Teste - 1 de Janeiro de 1 - Parte I (1h3m) 1. Considere
Leia maisModelagem Computacional. Parte 8 2
Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 8 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 10 e 11] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,
Leia mais)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD
)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD,QWURGXomR A grande maioria dos problemas de engenharia pode ser solucionado de diferentes formas, uma vez que um número muito grande de soluções atende aos critérios
Leia maisCapítulo 4 - Equações Não-Lineares
Capítulo 4 - Carlos Balsa balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança 2 o Ano - Eng. Civil, Química e Gestão Industrial Carlos Balsa Métodos Numéricos 1/
Leia maisMétodo dos gradientes (ou método de máxima descida)
Método dos gradientes (ou método de máxima descida) Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 14 de setembro de 2010 1 / 16 Método dos gradientes
Leia maisISCTE/FCUL - Mestrado Matemática Financeira. Aula de Janeiro de 2009 Ano lectivo: 2008/2009. Diana Aldea Mendes
ISCTE/FCUL - Mestrado Matemática Financeira Aula 1 03 de Janeiro de 2009 Ano lectivo: 2008/2009 Diana Aldea Mendes Departamento de Métodos Quantitativos, IBS - ISCTE Business School Gab. 207 AA, diana.mendes@iscte.pt,
Leia maisParte 1: Exercícios Teóricos
Cálculo Numérico SME0104 ICMC-USP Lista 5: Zero de Funções Lembrete (informação que vai estar disponível na prova) Método de Newton Método da Secante x k+1 = x k f(x k) f (x k ), x k+1 = x k J 1 F (x k
Leia maisSME0300 Cálculo Numérico Aula 4
SME0300 Cálculo Numérico Aula 4 Maria Luísa Bambozzi de Oliveira marialuisa @ icmc. usp. br Sala: 3-241 Página: tidia-ae.usp.br 13 de agosto de 2015 Aula Passada Operações Aritméticas: Arredondamento a
Leia maisMétodo de Newton modificado
Método de Newton modificado Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 14 de setembro de 2010 1 / 36 Método de Newton Como já vimos, o método
Leia maisÁLGEBRA LINEAR I - MAT0032
UNIVERSIDADE FEDERAL DA INTEGRAÇÃO LATINO-AMERICANA Instituto Latino-Americano de Ciências da Vida e Da Natureza Centro Interdisciplinar de Ciências da Natureza ÁLGEBRA LINEAR I - MAT32 12 a Lista de exercícios
Leia maisMétodos Numéricos C. A. Ismael F. Vaz 1. Escola de Engenharia Universidade do Minho Ano lectivo 2007/2008
Métodos Numéricos C A. Ismael F. Vaz 1 1 Departamento de Produção e Sistemas Escola de Engenharia Universidade do Minho aivaz@dps.uminho.pt Ano lectivo 2007/2008 A. Ismael F. Vaz (UMinho) MN C 2007/2008
Leia maisSISTEMAS LINEARES PROF. EDÉZIO
SOLUÇÕES NUMÉRICAS DE SISTEMAS LINEARES PROF. EDÉZIO Considere o sistema de n equações e n incógnitas: onde E : a x + a x +... + a n x n = b E : a x + a x +... + a n x n = b. =. () E n : a n x + a n x
Leia maisResolução de sistemas de equações lineares: Método do Gradiente
Resolução de sistemas de equações lineares: Método do Gradiente Marina Andretta ICMC-USP 24 de março de 2015 Marina Andretta (ICMC-USP) sme0301 - Métodos Numéricos para Engenharia I 24 de março de 2015
Leia maisSME Gustavo C. Buscaglia
SME0602-2017 Gustavo C. Buscaglia ICMC - Ramal 738176, gustavo.buscaglia@gmail.com Cálculo de autovalores e autovetores Existem vários problemas na engenharia em que precisamos calcular os autovalores
Leia maisMatemática Computacional - 2 o ano LEMat e MEQ
Instituto Superior Técnico Departamento de Matemática Secção de Matemática Aplicada e Análise Numérica Matemática Computacional - o ano LEMat e MEQ Exame/Teste - 5 de Fevereiro de - Parte I (h3m). Considere
Leia maisSolução aproximada de equações de uma variável
Cálculo Numérico de uma variável Prof. Daniel G. Alfaro Vigo dgalfaro@dcc.ufrj.br Departamento de Ciência da Computação IM UFRJ Parte I Localização de zeros e Método da bissecção Motivação: Queda de um
Leia maisApontamentos III. Espaços euclidianos. Álgebra Linear aulas teóricas. Lina Oliveira Departamento de Matemática, Instituto Superior Técnico
Apontamentos III Espaços euclidianos Álgebra Linear aulas teóricas 1 o semestre 2017/18 Lina Oliveira Departamento de Matemática, Instituto Superior Técnico Índice Índice i 1 Espaços euclidianos 1 1.1
Leia maisLista de Exercícios de Métodos Numéricos
Lista de Exercícios de Métodos Numéricos 1 de outubro de 010 Para todos os algoritmos abaixo assumir n = 0, 1,, 3... Bisseção: Algoritmo:x n = a+b Se f(a) f(x n ) < 0 então b = x n senão a = x n Parada:
Leia maisAutovalores e Autovetores
Algoritmos Numéricos II / Computação Científica Autovalores e Autovetores Lucia Catabriga 1 1 DI/UFES - Brazil Junho 2016 Introdução Ideia Básica Se multiplicarmos a matriz por um autovetor encontramos
Leia maisUNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição
UNIVERSIDADE FEDERAL DO ABC BC1419 Cálculo Numérico - LISTA 1 - Zeros de Funções (Profs. André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda) 1 Existência e unicidade de zeros; Métodos
Leia mais2.12 Sistemas de equações não-lineares
.1 Sistemas de equações não-lineares Problema.9 Usando o método de Horner, construa o algoritmo correspondente ao método de Newton para a determinação de zeros de funções polinomiais: p(x) = a nx n + a
Leia maisx exp( t 2 )dt f(x) =
INTERPOLAÇÃO POLINOMIAL 1 As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia e não têm a intenção de substituir o livro-texto, nem qualquer outra bibliografia Aproximação
Leia maisEspaços vectoriais com produto interno. ALGA 2008/2009 Mest. Int. Eng. Electrotécnica e de Computadores Espaços vectoriais com produto interno 1 / 19
Capítulo 6 Espaços vectoriais com produto interno ALGA 2008/2009 Mest. Int. Eng. Electrotécnica e de Computadores Espaços vectoriais com produto interno 1 / 19 Definição e propriedades ALGA 2008/2009 Mest.
Leia maisEquações não lineares Universidade de Coimbra Professor João Soares 2008/2009
Matemática Computacional Equações não lineares Universidade de Coimbra 13 pages Professor João Soares 2008/2009 1. Localize graficamente (à mão ou em matlab) as soluções das seguintes equações e demonstre,
Leia maisConceitos Básicos de Matemática. Aula 1. ISCTE - IUL, Mestrados de Continuidade. Diana Aldea Mendes. 12 de Setembro de 2011
Conceitos Básicos de Matemática Aula 1 ISCTE - IUL, Mestrados de Continuidade Diana Aldea Mendes diana.mendes@iscte.pt 12 de Setembro de 2011 DMQ, ISCTE-IUL (diana.mendes@iscte.pt) Matemática 12 de Setembro
Leia mais12 AULA. ciáveis LIVRO. META Estudar derivadas de funções de duas variáveis a valores reais.
1 LIVRO Diferen- Funções ciáveis META Estudar derivadas de funções de duas variáveis a valores reais. OBJETIVOS Estender os conceitos de diferenciabilidade de funções de uma variável a valores reais. PRÉ-REQUISITOS
Leia maisFaculdade de Engenharia Optimização. Prof. Doutor Engº Jorge Nhambiu
Programação Não Linear Aula 7: Programação Não-Linear - Funções de Várias variáveis Vector Gradiente; Matriz Hessiana; Conveidade de Funções e de Conjuntos; Condições óptimas de funções irrestritas; Método
Leia maisConsidere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b
Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação
Leia maisÁLGEBRA LINEAR A FICHA 6. Por definição do determinante de uma matriz 3 3, tem-se det A = 7.
Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Última actualização: 20/Nov/2003 ÁLGEBRA LINEAR A FICHA 6 SOLUÇÕES SUMÁRIAS DOS EXERCÍCIOS ÍMPARES Propriedades dos Determinantes
Leia maisCálculo Numérico BCC760
Cálculo Numérico BCC760 Resolução de Sistemas de Equações Lineares Simultâneas Departamento de Computação Página da disciplina http://www.decom.ufop.br/bcc760/ 1 Introdução! Definição Uma equação é dita
Leia maisEquações não lineares
DMPA IM UFRGS Cálculo Numérico Índice 1 Método da bissecção 2 Método Newton-Raphson 3 Método da secante Vamos estudar métodos numéricos para resolver o seguinte problema. Dada uma função f contínua, real
Leia maisAnálise Complexa e Equações Diferenciais 1 ō Semestre 2016/2017
Análise Complexa e Equações Diferenciais 1 ō Semestre 016/017 ō Teste Versão A (Cursos: MEBiol, MEQ 17 de Dezembro de 016, 10h [,0 val 1 Considere a equação diferencial e t + y e t + ( 1 + ye t dy dt 0
Leia maisSME306 - Métodos Numéricos e Computacionais II Prof. Murilo F. Tomé. (α 1)z + 88 ]
SME306 - Métodos Numéricos e Computacionais II Prof. Murilo F. Tomé 1 o sem/2016 Nome: 1 a Prova - 07/10/2016 Apresentar todos os cálculos - casas decimais 1. Considere a família de funções da forma onde
Leia maisNeste capítulo estamos interessados em resolver numericamente a equação
CAPÍTULO1 EQUAÇÕES NÃO-LINEARES 1.1 Introdução Neste capítulo estamos interessados em resolver numericamente a equação f(x) = 0, onde f é uma função arbitrária. Quando escrevemos resolver numericamente,
Leia maisEquações não lineares
DMPA IME UFRGS Cálculo Numérico Índice Raizes de polinômios 1 Raizes de polinômios 2 raizes de polinômios As equações não lineares constituídas por polinômios de grau n N com coeficientes complexos a n,a
Leia maisf(1) = 6 < 0, f(2) = 1 < 0, f(3) = 16 > 0 x [2, 3].
1 As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia e não têm a intenção de substituir o livro-texto, nem qualquer outra bibliografia. Métodos Numéricos Para Solução
Leia maisUNIVERSIDADE FEDERAL DO ABC
UNIVERSIDADE FEDERAL DO ABC BC49 Cálculo Numérico - LISTA - sistemas lineares de equações Profs André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda Métodos diretos Analise os sistemas
Leia maisFOLHAS DE PROBLEMAS DE MATEMÁTICA II CURSO DE ERGONOMIA PEDRO FREITAS
FOLHAS DE PROBLEMAS DE MATEMÁTICA II CURSO DE ERGONOMIA PEDRO FREITAS Maio 12, 2008 2 Contents 1. Complementos de Álgebra Linear 3 1.1. Determinantes 3 1.2. Valores e vectores próprios 5 2. Análise em
Leia maisExercícios de ANÁLISE E SIMULAÇÃO NUMÉRICA
Exercícios de ANÁLISE E SIMULAÇÃO NUMÉRICA Licenciaturas em Engenharia do Ambiente e Química 2 o Semestre de 2005/2006 Capítulo III Resolução Numérica de Sistemas de Equações Normas, Erros e Condicionamento.
Leia maisResolução de sistemas de equações lineares: Método dos Gradientes Conjugados
Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados Marina Andretta/Franklina Toledo ICMC-USP 24 de março de 2015 Baseado no livro Cálculo Numérico, de Neide B. Franco Marina Andretta/Franklina
Leia maisCCI-22 FORMALIZAÇÃO CCI-22 MODOS DE SE OBTER P N (X) Prof. Paulo André CCI - 22 MATEMÁTICA COMPUTACIONAL INTERPOLAÇÃO
CCI - MATEMÁTICA COMPUTACIONAL INTERPOLAÇÃO Prof. Paulo André ttp://www.comp.ita.br/~pauloac pauloac@ita.br Sala 0 Prédio da Computação -Gregory DEFINIÇÃO Em matemática computacional, interpolar significa
Leia maisResolução do Exame Tipo
Departamento de Matemática e Engenharias Análise e Computação Numérica Resolução do Exame Tipo 1. O computador IBM 3090 possuía um sistema de vírgula flutuante F F(16, 5, 65, 62) (em precisão simples),
Leia maisProf. Lorí Viali, Dr. PUCRS FAMAT: Departamento de Estatística. Curso: Engenharia de Produção
Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação
Leia maisMétodos iterativos dão-nos uma valor aproximado para s. Sequência de valores de x que convergem para s.
Análise Numérica 1 Resolução de equações não lineares ou Cálculo de zeros de funções Problema: Dada a função f(x) determinar o valor s tal que f(s) = 0. Slide 1 Solução: Fórmulas exemplo: fórmula resolvente
Leia maisBioinformática Avançada e Biologia de Sistemas Optimização
Bioinformática Avançada e Biologia de Sistemas Optimização A. Ismael F. Vaz Departamento de Produção e Sistemas Escola de Engenharia Universidade do Minho aivaz@dps.uminho.pt Mestrado em Bioinformática
Leia maisMatemática Computacional - Exercícios
Matemática Computacional - Exercícios 1 o semestre de 2007/2008 - Engenharia Biológica Teoria de erros e Representação de números no computador Nos exercícios deste capítulo os números são representados
Leia maisMétodos Numéricos C. A. Ismael F. Vaz 1. Escola de Engenharia Universidade do Minho Ano lectivo 2007/2008
Métodos Numéricos C A. Ismael F. Vaz 1 1 Departamento de Produção e Sistemas Escola de Engenharia Universidade do Minho aivaz@dps.uminho.pt Ano lectivo 2007/2008 A. Ismael F. Vaz (UMinho) MN C 2007/2008
Leia mais2 Propriedades geométricas de curvas parametrizadas no R 4
2 Propriedades geométricas de curvas parametrizadas no R 4 Nesse capítulo trataremos dos conceitos básicos de geometria diferencial referentes à curvas parametrizadas no R 4. 2.1 Curvas Parametrizadas
Leia maisAna Paula. October 26, 2016
Raízes de Equações October 26, 2016 Sumário 1 Aula Anterior 2 Método da Secante 3 Convergência 4 Comparação entre os Métodos 5 Revisão Aula Anterior Aula Anterior Aula Anterior Aula Anterior Método de
Leia maisUniversidade Federal do Espírito Santo - UFES
Universidade Federal do Espírito Santo - UFES Centro Universitário Norte do Espírito Santo - CEUNES Departamento de Matemática Aplicada - DMA Prof. Isaac P. Santos - 2018/1 Aula: Métodos Iterativos Para
Leia maisPROVAS Ciência da Computação. 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta)
PROVAS Ciência da Computação 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta) Ajuste de Curvas Objetivo Ajustar curvas pelo método dos mínimos quadrados 1 - INTRODUÇÃO Em geral, experimentos
Leia maisExercícios de Mínimos Quadrados
INSTITUTO DE CIÊNCIAS MATEMÁTICAS E DE COMPUTAÇÃO DEPARTAMENTO DE MATEMÁTICA APLICADA E ESTATÍSTICA Exercícios de Mínimos Quadrados 1 Provar que a matriz de mínimos quadrados é denida positiva, isto é,
Leia maisdepende apenas da variável y então a função ṽ(y) = e R R(y) dy
Formulario Equações Diferenciais Ordinárias de 1 a Ordem Equações Exactas. Factor Integrante. Dada uma equação diferencial não exacta M(x, y) dx + N(x, y) dy = 0. ( ) 1. Se R = 1 M N y N x depende apenas
Leia mais{ 1 se x é racional, 0 se x é irracional. cos(k!πx) = cos(mπ) = ±1. { 1 se x Ak
Solução dos Exercícios Capítulo 0 Exercício 0.: Seja f k : [0, ] R a função definida por Mostre que f k (x) = lim j (cos k!πx)2j. { f k (x) = se x {/k!, 2/k!,..., }, 0 senão e que f k converge pontualmente
Leia maisDCC008 - Cálculo Numérico
DCC008 - Cálculo Numérico Equações Não-Lineares Bernardo Martins Rocha Departamento de Ciência da Computação Universidade Federal de Juiz de Fora bernardomartinsrocha@ice.ufjf.br Conteúdo Introdução Localização
Leia maisExercícios de MATEMÁTICA COMPUTACIONAL. 1 0 Semestre de 2009/2010 Resolução Numérica de Equações Não-Lineares
Exercícios de MATEMÁTICA COMPUTACIONAL Mestrado Integrado em Engenharia Biomédica 1 0 Semestre de 2009/2010 Resolução Numérica de Equações Não-Lineares 1. Considere a equação sin(x) e x = 0. a) Prove que
Leia maisInstituto Superior Técnico Departamento de Matemática Última actualização: 18/Nov/2003 ÁLGEBRA LINEAR A
Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Última actualização: 18/Nov/2003 ÁLGEBRA LINEAR A REVISÃO DA PARTE III Parte III - (a) Ortogonalidade Conceitos: produto
Leia maisMétodos Numéricos e Estatísticos Parte I-Métodos Numéricos
Métodos Numéricos e Estatísticos Parte I-Métodos Numéricos Lic. Eng. Biomédica e Bioengenharia-2009/2010 lineares Muitos problemas da Física, Matemática, Engenharia, Biologia, economia e outras ciências,
Leia maisSilvia Maria Pereira Grandi dos Santos
Método iterativo para solução de sistemas lineares Gradientes e Gradientes Conjugados Silvia Maria Pereira Grandi dos Santos USP - São Carlos/SP Outubro 2008 Roteiro Motivação; Processos de Relaxação;
Leia maisMatemática Computacional
Matemática Computacional MEEC 1 ạ Parte/ 1 ọ Teste 019/01/ 18h30 (+1h30) Apresente todos os cálculos e justifique convenientemente as respostas. 1. Nas duas alíneas seguintes apresente os resultados num
Leia maisExame/Teste (1) de Análise Numérica (LMAC, MEIC, MMA) Instituto Superior Técnico, 12 de Janeiro de 2011, 18h30-20h00 (1º Teste)
Exame/Teste () de Análise Numérica (LMAC, MEIC, MMA) Instituto Superior Técnico, de Janeiro de, 8h-h (º Teste) ) [] Seja f(x) = e x a) Determine um p n polinómio interpolador de f nos nós {, }, tal que
Leia maisétodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA
étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO
Leia maisAnálise Matemática II - 1 o Semestre 2001/ o Exame - 25 de Janeiro de h
Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Análise Matemática II - 1 o Semestre 2001/2002 2 o Exame - 25 de Janeiro de 2001-9 h Todos os cursos excepto Eng. Civil,
Leia maisResolução de problemas com apenas restrições lineares de igualdade
Resolução de problemas com apenas restrições lineares de igualdade Marina Andretta ICMC-USP 14 de outubro de 2014 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 14 de outubro de 2014 1 / 22
Leia maisCálculo Numérico Ponto Fixo
Cálculo Numérico Ponto Fixo Método do Ponto Fixo (MPF) Dada uma função f(x) contínua no intervalo [a,b] onde existe uma raiz única, f(x) = 0, é possível transformar tal equação em uma equação equivalente
Leia maisf(x) f(a), x D. O ponto a é então chamado ponto de máximo absoluto ou maximizante absoluto.
Capítulo 4 Problemas de Extremo 41 Extremos Seja f : D R m R uma função real de n variáveis reais, de domínio D e a D Definição 1 Diz-se que: A função f tem um máximo absoluto em a se f(x) f(a), x D O
Leia mais2.3- Método Iterativo Linear (MIL)
.3- Método Iterativo Linear (MIL) A fim de introduzir o método de iteração linear no cálculo de uma raiz da equação (.) f(x) = 0 expressamos, inicialmente, a equação na forma: (.) x = Ψ(x) de forma que
Leia maisMÉTODOS NUMÉRICOS. ENGENHARIA ELECTRÓNICA INDUSTRIAL e de COMPUTADORES
UNIVERSIDADE DO MINHO MÉTODOS NUMÉRICOS ENGENHARIA ELECTRÓNICA INDUSTRIAL e de COMPUTADORES EXERCÍCIOS PRÁTICOS- 1 a parte Ano lectivo de 2004/2005 Exercícios práticos - CONUM Solução de uma equação não
Leia maisSME Cálculo Numérico. Lista de Exercícios: Gabarito
Exercícios de prova SME0300 - Cálculo Numérico Segundo semestre de 2012 Lista de Exercícios: Gabarito 1. Dentre os métodos que você estudou no curso para resolver sistemas lineares, qual é o mais adequado
Leia mais= f(0) D2 f 0 (x, x) + o( x 2 )
6 a aula, 26-04-2007 Formas Quadráticas Suponhamos que 0 é um ponto crítico duma função suave f : U R definida sobre um aberto U R n. O desenvolvimento de Taylor de segunda ordem da função f em 0 permite-nos
Leia mais4.1 Resolvendo o Sistema Linear
4 Solução Numérica 4.1 Resolvendo o Sistema Linear Resolveremos o sistema (2 7) pelo método de Usawa acelerado por Gradiente Conjugado (ver [15, pp. 202]). Primeiro eliminamos a variável u e depois resolvemos
Leia maisEXAMES DE ANÁLISE MATEMÁTICA III
EXAMES DE ANÁLISE MATEMÁTICA III Jaime E. Villate Faculdade de Engenharia Universidade do Porto 22 de Fevereiro de 1999 Resumo Estes são alguns dos exames e testes da disciplina de Análise Matemática III,
Leia maisINSTITUTO SUPERIOR TÉCNICO Licenciatura em Engenharia Física Tecnológica Licenciatura em Engenharia e Gestão Industrial Ano Lectivo: 2002/
INSTITUTO SUPERIOR TÉCNICO Licenciatura em Engenharia Física Tecnológica Licenciatura em Engenharia e Gestão Industrial Ano Lectivo: / ANÁLISE NUMÉRICA Exercícios Considere o sistema linear 6 x 5 y = a)
Leia maisArtur M. C. Brito da Cruz. Escola Superior de Tecnologia Instituto Politécnico de Setúbal 2015/2016 1
Equações Não Lineares Análise Numérica Artur M. C. Brito da Cruz Escola Superior de Tecnologia Instituto Politécnico de Setúbal 2015/2016 1 1 versão 20 de Setembro de 2017 Conteúdo 1 Introdução...................................
Leia maisDerivadas direcionais Definição (Derivadas segundo um vector): f : Dom(f) R n R e P 0 int(dom(f)) então
Derivadas direcionais Definição (Derivadas segundo um vector): f : Dom(f) R n R e P 0 int(dom(f)) então Seja D v f(p 0 ) = lim λ 0 f(p 0 + λ v) f(p 0 ) λ v representa a derivada direcional de f segundo
Leia maisMAP Métodos Numéricos e Aplicações Escola Politécnica 1 Semestre de 2017 EPREC - Entrega em 27 de julho de 2017
1 Preliminares MAP3121 - Métodos Numéricos e Aplicações Escola Politécnica 1 Semestre de 2017 EPREC - Entrega em 27 de julho de 2017 A decomposição de Cholesky aplicada a Finanças O exercício-programa
Leia maisAula 6. Zeros reais de funções Parte 3
CÁLCULO NUMÉRICO Aula 6 Zeros reais de funções Parte 3 MÉTODO DE NEWTON RAPHSON Cálculo Numérico 3/48 CONSIDERAÇÕES INICIAS MÉTODO DO PONTO FIXO: Uma das condições de convergência é que onde I é um intervalo
Leia maisInstituto Superior de Engenharia de Lisboa Engenharia Informática e de Computadores
Instituto Superior de Engenharia de Lisboa Engenharia Informática e de Computadores Teoria dos Sinais e dos Sistemas O procedimento de Gram-Schmidt: definição, exemplos e aplicações Artur Ferreira {arturj@isel.pt}
Leia maisZeros de Polinômios. 1 Resultados Básicos. Iguer Luis Domini dos Santos 1, Geraldo Nunes Silva 2
Zeros de Polinômios Iguer Luis Domini dos Santos, Geraldo Nunes Silva 2 DCCE/IBILCE/UNESP, São José do Rio Preto, SP, Brazil, iguerluis@hotmail.com 2 DCCE/IBILCE/UNESP, São José do Rio Preto, SP,Brazil,
Leia maisModelagem Computacional. Parte 7 2
Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 7 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,
Leia maisexercícios de análise numérica II
exercícios de análise numérica II lic. matemática aplicada e computação (4/5) aulas práticas - capítulo Exercício. Mostre que a soma dos polinómios base de Lagrange é a função constante. Exercício. Usando
Leia maisNota: Turma: MA 327 Álgebra Linear. Terceira Prova. Boa Prova! Primeiro Semestre de T o t a l
Turma: Nota: MA 327 Álgebra Linear Primeiro Semestre de 26 Terceira Prova Nome: RA: Questões Pontos Questão 1 Questão 2 Questão 3 Questão 4 Questão 5 T o t a l Boa Prova! Questão 1. 2. Pontos) Seja U um
Leia maisSME Roberto F. Ausas / Gustavo C. Buscaglia
SME0305-2016 Roberto F. Ausas / Gustavo C. Buscaglia ICMC - Ramal 736628, rfausas@gmail.com ICMC - Ramal 738176, gustavo.buscaglia@gmail.com Métodos iterativos Vamos considerar o problema: Achar x R n
Leia maisMatrizes positivas definidas, semidefinidas, etc.
Matrizes positivas definidas, semidefinidas, etc. Amit Bhaya, Programa de Engenharia Elétrica COPPE/UFRJ Universidade Federal do Rio de Janeiro amit@nacad.ufrj.br http://www.nacad.ufrj.br/ amit Funções
Leia maisAjuste de mínimos quadrados
Capítulo 5 Ajuste de mínimos quadrados 5 Ajuste de mínimos quadrados polinomial No capítulo anterior estudamos como encontrar um polinômio de grau m que interpola um conjunto de n pontos {{x i, f i }}
Leia maisResolução do exame de matemática computacional
Resolução do exame de matemática computacional 0 de Janeiro de 00 GRUPO I f x_ : x^ x 1 g1 x_ : x^ 1 x^ g x_ : x 1 g x_ x^ 1 1 1 x Plot f x, x,, - -1 1 - -4 Graphics 1 Método de Newton Quando se procura
Leia maisEXERCICIOS RESOLVIDOS - INT-POLIN - MMQ - INT-NUMERICA - EDO
Cálculo Numérico EXERCICIOS EXTRAIDOS DE PROVAS ANTERIORES o sem/08 EXERCICIOS RESOLVIDOS - INT-POLIN - MMQ - INT-NUMERICA - EDO x. Considere a seguinte tabela de valores de uma função f: i 0 f(x i ).50
Leia mais