Programação de Matemática: Teoria, Algoritmos e Aplicações na Engenharia. Luiz Eloy Vaz Anderson Pereira Ivan F. Menezes
|
|
- Ana Beatriz Laís Stachinski
- 5 Há anos
- Visualizações:
Transcrição
1
2 Programação de Matemática: Teoria, Algoritmos e Aplicações na Engenharia Luiz Eloy Vaz Anderson Pereira Ivan F. Menezes Rio de Janeiro, 08 de agosto de 2012
3
4 Sumário I Teoria e Algoritmos 3 1 Introdução O Problema Geral de Programação Matemática Exemplo de Aplicação em Otimização de Estruturas Treliça Plana de Duas Barras Fundamentos de Otimização sem Restrições (OSR) Série de Taylor Condições de Mínimo no Problema de OSR Condição de Primeira Ordem Condição de Segunda Ordem Métodos de Otimização sem Restrições (OSR) Métodos de Busca Unidimensional Método de Passo Constante ou Incremental Método de Armijo Método da Bisseção Método da Seção Áurea (Golden Section, em inglês) Método da Ortogonalidade Método Secante Métodos de Direção de Busca Método Univariante Método de Powell Direções Conjugadas no Método de Powell Convergência do Método de Powell Método do Máximo Declive (Steepest Descent, em inglês) Método de Fletcher Reeves Método de Hestenes Stiefel Método de Polak Ribière Método de Newton Raphson Métodos Quase Newton Algoritmo de Correção de Posto Um Algoritmo de Correção de Posto Dois ou DFP (Davison Fletcher Powell) Algoritmo BFGS (Broyden Fletcher Goldfarb Shanno) Fundamentos de Otimização Com Restrições (OCR) Condições de Mínimo no Problema de OCR Condições de Primeira Ordem Problemas com Restrições de Igualdade Problemas com Restrições de Desigualdade Problema Geral de Otimização com Restrições Condições de Segunda Ordem Problemas com Restrições de Igualdade i
5 ii SUMÁRIO Problemas com Restrições de Desigualdade Os Multiplicadores de Lagrange Exemplo de Aplicação Dualidade de Wolfe Exemplos Teóricos Programação Linear Programação Quadrática Métodos Indiretos em OCR Método de Penalidade Método de Barreira Problemas Especiais em OCR O Problema de Programação Linear (PL) Introdução Fundamentos matemáticos Dependência linear Bases Posto (ranking) de uma matriz A mxn Soluções básicas Pontos e conjuntos de pontos Teoremas importantes Algoritmo Simplex Formulação do problema de PL Hipóteses preliminares Redução de uma solução compatível qualquer para uma solução compatível básica Algumas definições e notações Formulação do método Simplex Soluções ilimitadas Condições de otimização Alternativa ótima Pontos extremos e soluções compatíveis básicas Solução compatível básica inicial O Problema de Programação Quadrática (PQ) Eliminação de restrições de igualdade Problemas de Programação Linear Complementar (PLC) Algoritmo de Lemke para a solução do PLC Esquema de Pivoteamento de Lemke O Problema Geral de Programação Não-Linear (PNL) Método de Programação Linear Seqüencial (PLS) Método dos Centros Método das Direções Viáveis Solução Inicial Viável Restrições de Igualdade Método do Gradiente Reduzido Generalizado (GRG) Método de Programação Quadrática Seqüencial (PQS) Problema P1 (problema original) Problema P2 (subproblema de PQS relativo a P1)
6 SUMÁRIO 1 8 Análise de Sensibilidade Introdução Métodos de Análise de Sensibilidade Método das Diferenças Finitas Método Direto Método Adjunto Comparação entre os Métodos de Análise de Sensibilidade Aplicação dos Métodos de Análise de Sensibilidade Análise Linear Elástica Método das Diferenças Finitas Método Direto Método Adjunto Problema de Autovalores e Autovetores Método das Diferenças Finitas Método Direto Método Adjunto Problema de Análise Não Linear Estática Método das Diferenças Finitas Método Direto Método Adjunto Problemas de Carga Limite Método das Diferenças Finitas Método Direto Método Adjunto Problemas de Fluxo Térmico Transiente Método das Diferenças Finitas Método Direto Método Adjunto Problemas de Análise Dinâmica Método das Diferenças Finitas Método Direto Método Adjunto A Exemplo de Análise de Sensibilidade 129
7 2 SUMA RIO
8 Parte I Teoria e Algoritmos 3
9
10 Capítulo 1 Introdução Programação Matemática (PM) é a área da Matemática que trata dos problemas de minimização ou otimização de funções. Ela se ocupa tanto do tratamento teórico do problema quanto do desenvolvimento de algoritmos para a sua solução. A função a ser minimizada ou otimizada num problema de PM é denominada de função objetivo, a qual pode ter um número qualquer de variáveis, que por sua vez, podem estar sujeitas a restrições de igualdade e/ou desigualdade. Restrições de desigualdade que definem limites inferior e superior para as variáveis são chamadas de restrições laterais. Existem vários problemas particulares de PM. No problema geral as variáveis são contínuas. Quando as variáveis só podem assumir valores inteiros, diz-se que o problema é de Programação Inteira (PI). Esse tipo de problema não será tratado neste texto. Os problemas de PM podem ainda ser classificados como de Programação Restrita (PR) ou Otimização Com Restrições (OCR) e Programação Irrestrita (PI) ou Otimização Sem Restrições (OSR). Nos problemas de OCR, quando a função objetivo e as restrições do problema são funções lineares das variáveis e todas as variáveis são sujeitas a restrições laterais do tipo maior ou igual a zero, o problema é chamado de problema padrão de Programação Linear (PL). Quando a função objetivo é quadrática e as restrições do problema de OCR são restrições lineares de desigualdade e todas as variáveis são do tipo maior ou igual a zero, o problema é chamado de problema padrão de Programação Quadrática (PQ). Esses problemas podem ser escritos na forma equivalente de problemas de Programação Linear Complementar (PLC). No caso geral de problemas de OCR onde a função objetivo e as restrições são não lineares o problema é dito de Programação Não Linear (PNL). Os algoritmos de PNL são classificados em algoritmos de ordem zero, de primeira e de segunda ordem, dependendo se eles usam ou não derivadas parciais de primeira e segunda ordem da função objetivo e das restrições, respectivamente, nas suas operações numéricas. O estudo das técnicas de obtenção dessas derivadas para os diversos problemas ganhou a denominação de análise de sensibilidade. Problemas particulares de PM apresentam algoritmos específicos para a sua solução. Assim, o algoritmo Simplex tem sido usado para a solução de problemas de PL, o algoritmo de Lemke tem sido aplicado na solução de problemas de PLC, dentre outros. Vários problemas de Engenharia, quando adequadamente formulados, recaem em problemas de PM. Dentre esses problemas podem-se citar a análise de estruturas por elementos finitos com comportamento não linear; a identificação de parâmetros ou retro-análise; a análise limite de estruturas; as otimizações topológica, de dimensões e de forma de estruturas; o problema de contato entre corpos elásticos; e a análise de confiabilidade. Devido à crescente importância da PM na engenharia, diversos programas comerciais de análise de estruturas por elementos finitos já incorporam algoritmos de PM em seus códigos. Entre eles estão o NASTRAN e o ANSYS. Existem ainda programas comerciais especializados em resolver problemas de PM nos quais o usuário tem que fornecer a função e as restrições explicitamente. Dentre os mais conhecidos nessa área citam-se LANCELOT [1], Lingo [5], Minos [6] e DOT. 5
11 6 CAPÍTULO 1. INTRODUÇÃO 1.1 O Problema Geral de Programação Matemática O problema geral de Programação Matemática (PM) pode ser representado matematicamente como: min f (x) x R n s.t. h k (x) = 0 k = 1... m c l (x) 0 l = 1... p x l i x i x u i i = 1... n e pode ser descrito nos seguintes termos: minimizar a função f(x), dita função objetivo, de n variáveis contidas no vetor x, designado de vetor das variáveis de projeto, sendo que as n variáveis estão submetidas ( s.t., subjected to, em inglês) a m restrições de igualdade h k (x), p restrições de desigualdade c l (x) e n restrições laterais do tipo maior ou igual a um limite inferior, x l i (l, do inglês lower limit) e um limite superior (u, do inglês upper limit). x u i O problema geral gera vários sub-problemas tais como: 1. Problema de Otimização Sem Restrições (OSR), quando nenhuma das restrições está presente. 2. Problema padrão de Programação Linear (PL), quando a função objetivo e as restrições são funções lineares das variáveis de projeto, as variáveis de projeto são maiores ou iguais a zero e as restrições laterais são do tipo maior ou igual a zero. 3. Problema padrão de Programação Quadrática (PQ), quando a função objetivo é uma função quadrática, as variáveis de projeto são maiores ou iguais a zero e as restrições são de desigualdade e são funções lineares das variáveis de projeto. 4. Problema de Programação Linear Complementar (PLC) que surge da aplicação das condições de ótimo ao problema padrão de Programação Quadrática. 1.2 Exemplo de Aplicação em Otimização de Estruturas Para os engenheiros de projeto, sejam eles civis, mecânicos, aeronáuticos ou navais, a aplicação clássica do problema de Programação Matemática é a otimização de estruturas Treliça Plana de Duas Barras Para se entender a importância do estudo da otimização estrutural, considerar o problema apresentado na Figura 1.1. (1.1) Projetar a treliça apresentada na Figura 1.1, em função de r 2 e H, raio da seção transversal da barra 2 e altura da treliça respectivamente, de tal forma que ela apresente um volume mínimo e que as tensões nas barras sejam inferiores às tensões de escoamento e de flambagem. Informações conhecidas: r 1 (raio da seção transversal da barra 1) L (dimensão horizontal da treliça) P (força vertical aplicada) E (módulo de elasticidade) σ Y (tensão de escoamento) Informações a serem obtidas (variáveis de projeto):
12 1.2. EXEMPLO DE APLICAÇÃO EM OTIMIZAÇÃO DE ESTRUTURAS 7 1 P H 2 r seção transversal L Figura 1.1: Treliça Plana de Duas Barras. r 2 (raio da seção transversal da barra 2) H (dimensão vertical da treliça) Informações adicionais (restrições laterais): 0.4 r 2 1 (intervalo de variação de r 2 ) 1 H 7 (intervalo de variação de H) Em função das variáveis r 2 e H, o volume (V ) da barra 2 é dado por: onde, de acordo com a Figura 1.1, tem-se: V = A 2 L 2 (1.2) L 2 = H 2 + L 2 A 2 = πr 2 2 Portanto, o volume da barra 2 pode ser expresso como: V (r 2, H) = πr 2 2 H2 + L 2 (1.3) Porém, as tensões nas barras (σ) não devem exceder os valores da tensão de escoamento do material (σ Y ) e os da tensão crítica de Euler (σ CR ), ou seja, deve-se ter: σ σ Y e σ σ CR Cálculo das Tensões nas Barras Fazendo-se o equilíbrio das forças horizontais (vide Figura 1.2), tem-se:
13 8 CAPÍTULO 1. INTRODUÇÃO y N 1 P x N 2 Figura 1.2: Esforços nas Barras da Treliça. N 1 = N 2 cos(α) (1.4) onde sen(α) = H H2 + L 2 e cos(α) = L H2 + L 2 Na direção vertical deve-se ter: P = N 2 sen(α) (1.5) Combinando-se as Equações (1.4) e (1.5) chega-se a: N 1 = P L H (1.6) e N 2 = P H2 + L 2 H (1.7) Portanto: e σ 2 = N P 2 = A 2 σ 1 = N P L 1 = H A 1 πr1 2 H2 + L 2 H πr 2 2 Como N 1 < N 2, tem-se que, a tensão crítica é σ 2. = P L Hπr 2 1 = P H 2 + L 2 Hπr 2 2 (1.8) (1.9)
14 1.2. EXEMPLO DE APLICAÇÃO EM OTIMIZAÇÃO DE ESTRUTURAS 9 Tensão Crítica de Euler σ CR = π2 EI L 2 ea (1.10) onde L e é o comprimento efetivo da barra, I = πr4 4 e A = πr 2, logo: σ CR = π2 Er 2 4L 2 e Formulação do Problema Com as expressões acime pode-se definir as restrições como: g 1 (r 2, H) = σ 1 σ e 0 ou g 1 (r 2, H) = P L Hπr1 2σ 1 0 e g 2 (r 2, H) = σ 2 σ e 0 ou g 2 (r 2, H) = P L 2 + H 2 Hπr2 2σ 1 0 e g 3 (r 2, H) = σ 2 σ CR 0 ou g 3 (r 2, H) = 4P ( L 2 + H 2) 3/2 Hπ 3 r O problema proposto pode ser formulado da seguinte maneira: min V (r 2, H) s.t. g 1 (r 2, H) 0 g 2 (r 2, H) 0 g 3 (r 2, H) r H 7 (1.11) Resultados O problema proposto em 1.11 foi resolvido para diferentes dados de entrada conforme a tabela 1.1. dados resultados restrições σ e r 1 E r 2 H g 1 g 2 g 3 função objetivo modo de falha e e e e e Tabela 1.1: Resultados.
15 10 CAPÍTULO 1. INTRODUÇÃO H 4 H r 2 (a) σ E = 350 e r 1 = r 2 (b) σ E = 350 e r 1 = H 4 H r 2 (c) σ E = 350 e r 1 = r 2 (d) σ E = 500 e r 1 = 0.3 Figura 1.3: Curvas para o módulo de eslasticidade igual a 2000.
16 1.2. EXEMPLO DE APLICAÇÃO EM OTIMIZAÇÃO DE ESTRUTURAS H 4 H r 2 (a) σ E = 350 e r 1 = r 2 (b) σ E = 350 e r 1 = H 4 H r 2 (c) σ E = 350 e r 1 = r 2 (d) σ E = 500 e r 1 = 0.3 Figura 1.4: Curvas para o módulo de eslasticidade igual a
17 12 CAPÍTULO 1. INTRODUÇÃO
18 Capítulo 2 Fundamentos de Otimização sem Restrições (OSR) 2.1 Série de Taylor A aproximação de uma função f(x) de uma variável, em torno de um ponto x 0, por meio da série de Taylor é um recurso utilizado em Programação Matemática, e será aqui apresentado para facilitar a compreensão de várias passagens matemáticas e demonstrações ao longo desse capítulo. A série de Taylor, designada pela função s(x), é dada pela seguinte expressão: s (x) f (x 0 ) + 1 1! df (x) dx (x x 0 ) + 1 x=x0 2! d 2 f (x) dx 2 (x x 0 ) 2 + (2.1) x=x0 A série acima foi truncada no termo de segunda ordem (assim denominado por conter a segunda derivada de f) e apresenta o seguinte termo genérico de ordem n: 1 d n f (x) n! dx n (x x 0 ) n (2.2) x=x0 A aproximação é tanto melhor quanto mais próximo x estiver de x 0 e quanto mais termos a série contiver. É possível observar as seguintes propriedades da função aproximadora s(x) no ponto x 0 : 1. s (x 0 ) = f (x 0 ) 2. ds (x) dx = x=x0 3. d 2 s (x) dx 2 x=x0 df (x) dx = d2 f (x) dx 2 x=x0 x=x0 4. E assim sucessivamente até o termo de ordem n, d n s (x) dx n x=x0 = dn f (x) dx n x=x0 A generalização da série de Taylor para o caso de uma função de n variáveis, f(x), é dada por: s (x) f (x 0 ) + [g(x)] t x=x0 (x x 0 ) (x x 0) t H(x) x=x0 (x x 0 ) + (2.3) onde g(x) é o vetor gradiente de f(x), cujos componentes são obtidos da seguinte forma: g i (x) = f(x) x i, i = 1 n (2.4) 13
19 14 CAPÍTULO 2. FUNDAMENTOS DE OTIMIZAÇÃO SEM RESTRIÇÕES (OSR) e H(x) é a matriz Hessiana 1 de f(x), cujos elementos são dados por: h ij (x) = 2 f(x) x i x j, i, j = 1 n (2.5) Exemplo 2.1 Série de Taylor para Função de Uma Variável Aproximar f(x) = sin(x) em torno do ponto x 0 = π 4. Solução: As derivadas de f(x) são: df d = cos (x) dx 2 f d = sin (x) dx2 3 f dx 3 = cos (x) (2.6) Utilizando-se a Equação (2.1), a expansão de primeira ordem para sin(x) em torno do ponto x 0 = π 4 é dada por: ( π ) ( π ) ( s 1 (x) = sin (x) sin + cos x π ) As expansões de segunda e terceira ordem são dadas, respectivamente, por: s 2 (x) = s 1 (x) 1 2 sin ( π 4 (2.7) ) ( x π 4 ) 2 (2.8) s 3 (x) = s 2 (x) 1 6 cos ( π 4 ) ( x π 4 ) 3 (2.9) A Figura 2.1 ilustra as aproximações em série de Taylor de primeira, segunda e terceira ordens, respectivamente, da função sin(x). Exemplo 2.2 Série de Taylor para Função de Duas Variáveis Obter a aproximação de f(x) = sin(x 1 ) sin(x 2 ) em torno do ponto x 0 = { π 4, π 4 } t. Solução: O vetor gradiente e a matriz Hessiana de f(x) no ponto x 0 Equações (2.4) e (2.5), ou seja: g(x) = f(x) x 1 f(x) x 2 = cos (x 1 ) sin (x 2 ) sin (x 1 ) cos (x 2 ) = { π 4, π 4 } t são obtidos utilizando-se as = (2.10) 1 A denominação Hessiana é uma homenagem ao matemático alemão Ludwig Otto Hesse, que trabalhou no desenvolvimento da teoria das Funções Algébricas e dos Invariantes.
20 2.1. SÉRIE DE TAYLOR sin(x) s1(x) s2(x) s3(x) approximação de sin(x) pi/ pi/4 0 pi/4 pi/2 3*pi/4 x Figura 2.1: Aproximações em Série de Taylor da Função sin(x). H(x) = = = 2 f(x) x f(x) x 2 x 1 2 f(x) x 1 x 2 2 f(x) x 2 2 sin (x 1 ) sin (x 2 ) cos (x 1 ) cos (x 2 ) 1 2 cos (x 1 ) cos (x 2 ) sin (x 1 ) sin (x 2 ) Substituindo-se as Equações (2.10) e (2.11) na Equação (2.3) chega-se a: (2.11) s (x) = t x 1 π 4 x 2 π 4 x 1 π x 2 π 4 t 1/2 1/2 1/2 1/2 x 1 π 4 x 2 π 4 (2.12) = x 1 2 π 4 + x x x 1x 2 2 x que é a aproximação de segunda ordem para a função sin(x 1 ) sin(x 2 ). Calculando-se os valores da função e de sua aproximação no ponto { π 5, } t, 3π 10 que representa uma variação de 20% de x0, obtém-se f( π 5, 3π 10 ) = e s( π 5, 3π 10 ) = , respectivamente. A função s(x) apresentou uma ótima aproximação de f(x) com um erro em torno de 0.05%, o que é bastante razoável.
21 16 CAPÍTULO 2. FUNDAMENTOS DE OTIMIZAÇÃO SEM RESTRIÇÕES (OSR) 2.2 Condições de Mínimo no Problema de OSR Condição de Primeira Ordem A condição de primeira ordem para que o vetor x seja um mínimo local x da função f(x) é dada por: g (x) x=x = g (x ) = 0 (2.13) ou seja, o vetor gradiente g(x) deve ser nulo em x = x. Para provar essa condição, considerar s(x) uma aproximação de f(x) em série de Taylor, em torno de x, até o termo de segunda ordem: s (x) f (x ) + [g(x )] t (x x ) (x x ) t H (x ) (x x ) (2.14) Considerando-se que x esteja bem próximo de x de tal maneira que o módulo de x x seja muito pequeno ( x x ϵ), onde os elementos do vetor ϵ são números muito menores que a unidade), o segundo termo da série de Taylor, ou seja, o que contém o vetor g(x ) predomina sobre o terceiro termo que contém a matriz Hessiana H(x) e um termo quadrático em (x x ). Num ponto de mínimo local, f(x) deve ser maior do que f(x ) para um valor arbitrário de x em torno de x. Representando-se f(x) por sua aproximação s(x) e desprezando-se o termo de segunda ordem em relação ao de primeira ordem tem-se: ou ainda: f (x) f (x ) s (x) f (x ) [g(x )] t (x x ) (2.15) df (x ) [g(x )] t dx (2.16) onde df(x ) é o incremento de f(x) em x e dx o incremento de x. O produto interno que define df(x ) pode ser reescrito usando seus módulos e o co-seno do ângulo α entre os dois vetores, ou seja: df (x ) g (x ) dx cos(α) (2.17) Fixando-se o módulo de dx e deixando-se α variar, df(x ) será uma função apenas de α, ou seja: No mínino local deve-se ter, para arbitrário α: df (α) g (x ) dx cos(α) (2.18) df (α) g (x ) dx cos(α) 0 (2.19) A expressão acima representa o acréscimo da função f(x) a partir de x para um passo de módulo dx na direção que forma um ângulo α com o vetor g(x ). Como cos(α) é arbitrário e o módulo do vetor dx na expressão acima é uma constante pré fixada, a única possibilidade de se garantir que a Equação (2.19) seja satisfeita é: ou: g (x ) = 0 (2.20) que é conhecida como a condição de mínimo local de primeira ordem. g (x ) = 0 (2.21)
22 2.2. CONDIÇÕES DE MÍNIMO NO PROBLEMA DE OSR Condição de Segunda Ordem Se o ponto x for um mínimo, ele deverá satisfazer a condição de primeira ordem, g (x ) = 0 (Eq. 2.21) e, portanto, a série de Taylor s(x) em torno de x pode ser reescrita desprezando-se o segundo termo e truncada no terceiro termo, ou seja: s (x) f (x ) (x x ) t H(x ) (x x ) (2.22) Analogamente às Equações (2.15) e (2.16), a Equação (2.22) pode ser escrita como: Para que x seja um mínimo local, a Equação (2.22) deve satisfazer: df (x ) 1 2 (x x ) t H(x ) (x x ) (2.23) ou: df (x ) 0 (2.24) (x x ) t H(x ) (x x ) 0 (2.25) A restrição acima representa a condição de segunda ordem para um mínimo local x e significa que a matriz Hessiana de f(x), em x, deve ser positiva semi definida. Exemplo 2.3 Exercício 2.1 de Nocedal & Wright [7] (Pág. 27) Calcular o gradiente f(x) e a Hessiana 2 f(x) da função de Rosenbrock f(x) = 100 ( x 2 x 2 1) 2 + (1 x1 ) 2. Mostrar que x = {1, 1} t é um ponto de mínimo local desta função, e que a matrix Hessiana neste ponto é positiva definida. Solução: f(x) = 400 ( x 2 x ) 2 1 x x 1 200x 2 200x f(x) = 1200x x x 1 400x A condição de mínimo local, dada pela Equação (2.13), requer que o gradiente no ponto x = {1, 1} t seja nulo. Desta forma: { } f(x ) = g(x 0 ) = 0 satisfazendo-se assim a condição de mínimo de primeira ordem. A Hessiana de f(x) avaliada em x é: [ ] 2 f(x ) = H(x ) = Sabe-se que uma matriz A é positiva definida se todos os seus autovalores forem positivos, ou seja, se todos os valores de λ que satizfazem a equação forem positivos. A λi = 0
23 18 CAPÍTULO 2. FUNDAMENTOS DE OTIMIZAÇÃO SEM RESTRIÇÕES (OSR) Usando-se os valores de H(x ) na equação acima tem-se: [ ] [ ] [ ] λ = 802 λ = λ λ = λ Obtendo-se os valores λ 1 = e λ 2 = Como λ 1 > 0 e λ 2 > 0 pode-se concluir que H(x ) é positiva definida. Outra maneira de se testar se a matriz A é positiva definida envolve o cálculo de n determinantes, ou seja: A 1 = a 11 A n = A 2 = a 11 a 12 a 21 a 22 a 11 a 12 a 13 A 3 = a 21 a 22 a 23 a 31 a 32 a 33. a 11 a 12 a 13 a 1n a 21 a 22 a 23 a 2n a 31 a 32 a 33 a 3n. a n1 a n2 a n3 a nn A matrix A será positiva definida se todos os valores de A 1, A 2, A 3,..., A n forem positivos. Os determinantes das submatrizes quadradas de H são: H 2 = H 1 = 802 = 802 > 0 = ( 400) ( 400) = 400 > 0 Então a matrix H é positiva definida e, portanto, o ponto x = {1, 1} t corresponde a um ponto de mínimo de f(x).
24 Capítulo 3 Métodos de Otimização sem Restrições (OSR) Neste capítulo, estudaremos a minimização de uma função sem a presença de restrições, conhecida como minimização irrestrita, isto é, resolvemos o problema min f (x), x R n (3.1) Em geral, os algoritmos de otimização são procedimentos iterativos e geram uma sequência de pontos onde o valor da função no novo ponto decresce em relação ao ponto anterior. Muitos algoritmos de otimização irrestrita têm em comum a seguinte estrutura: Escolha ϵ > 0, x 0 e faça k = 0 Enquanto f ( x k) ϵ Passo 1: Encontre d k Passo 2: Determine α k de modo que f ( x k + α k d k) < f ( x k) Passo 3: Faça x k+1 = x k + α k d k Fim enquanto x = x k No passo 1, para um dado ponto x k, determina-se a direção de descida, ou direção de busca. No passo 2 é realizada uma busca unidimensional para encontrar o tamanho do passo α k. No passo 3 um novo ponto é calculado através da fórmula de recorrência x k+1 = x k + α k d k e o processo se repete até que o critério de parada seja satisfeito. Este capítulo se divide em duas partes, a primeira, apresentada na seção 3.1, estuda os métodos de busca unimensional para determinação do tamanho do passo α k. A seguda parte, apresentada na seção 3.2, estuda os métodos de determinação da direção de busca d k. 3.1 Métodos de Busca Unidimensional A minimização unidimensional surge como um subproblema do na maioria do métodos de otimização multidimensionais. Precisa-se obter o valor α k, da variável α, para que se possa avançar para o próximo ponto x k+1. Vale salientar que a incógnita α é um escalar e, portanto, essa tarefa não é das mais complexas, pois consiste em se buscar o mínimo de uma função de uma variável f(α). Essa tarefa é conhecida na literatura técnica como busca unidimensional (line search, em inglês) 1. Os métodos de busca unidimensional apresentados nesse capítulo são: de Passo Constante ou Incremental; Armijo; Bisseção; Seção (ou Razão) Áurea; Ortogonalidade; e Secante. 1 Em algumas referências, o termo line search é traduzido como busca linear ou busca unidirecional. 19
25 20 CAPÍTULO 3. MÉTODOS DE OTIMIZAÇÃO SEM RESTRIÇÕES (OSR) Método de Passo Constante ou Incremental O método de passo constante ou incremental é o mais simples da família dos métodos de busca unidimensional e surgiu associado ao método de direção de busca univariante, seção 3.2.1, também o mais primitivo da família dos métodos de direção de busca. A idéia básica deste método de passo constante consiste na escolha de um incremento α que será usado na expressão: α i+1 = α i + α, i = 0,..., n (3.2) O valor de α 0 na expressão (3.2) deve ser igual a zero e o número de iterações deve ser o necessário para se obter o mínimo de f (α). A cada novo valor de α na iteração i + 1, f (α) deve ser avaliada para saber se seu valor é menor do que o encontrado na iteração anterior. Caso não seja, faz-se α k = α i, i.e., o valor de α que minimiza f (α) foi encontrado e é colocado em α k, para se avançar para x k+1. O algoritmo de passo incremental adota α constante nas duas primeiras iterações. A partir da terceira iteração o valor de α vai sendo dobrado em relação ao valor anterior. Os incrementos para cada nova iteração, a partir da terceira, passam a ser 2 α, 4 α, 8 α,. Espera-se com isso acelerar o processo iterativo e diminuir o número de avaliações de f (α). Como no caso de α constante, o processo iterativo é interrompido assim que se obtém um α i+1 para o qual f (α) é maior do que na iteração anterior. A escolha de α é uma tarefa delicada, pois o incremento tem que ser compatível com a ordem de grandeza da variável x. Se a variável x for uma dimensão em mm o valor do incremento α deve ser diferente daquele para o qual a variável x seja dada em Km. A precisão de α k depende do valor relativo de α em relação ao valor de α k Método de Armijo Esse método, assim como os de passo constante ou incremental, é chamado de método de busca inexata, pois não se preocupa em obter o valor exato de α que minimiza f (α) e sim caminhar na direção de decréscimo até que não seja mais possível com o incremento α escolhido. O método faz uso do conceito de taxa de decréscimo m. O valor de α pode ser incrementado como no método de passo constante ou incremental. A determinação de α k se dá quando a seguinte restrição é violada: f(x k + αd k ) r(α) = f α=0 mα (3.3) onde α k é o valor de α para o qual a função f é maior do que o valor da reta r que passa por f(x k ) (que corresponde ao valor de f para α = 0) e tem inclinação m. A taxa de decréscimo m deve ser um valor entre 0.2 e 0.4 dependendo do problema. Recomenda-se o valor m = Método da Bisseção O método da Bisseção objetiva encontrar o mínimo de f (α) no intervalo ou região de busca 0 α β. Caso o mínimo não esteja na região de busca pré-definida, o método converge para α k = 0 ou para α k = β. Para a busca do mínimo, o intervalo é subdividido em dois intervalos iguais, pelo ponto α = β/2. Cada um desses dois novos intervalos é, por sua vez, subdividido em outros dois intervalos iguais e assim sucessivamente. Em cada nova divisão, um intervalo é escolhido para continuar a busca do mínimo e o outro é descartado. Para se escolher o intervalo descartado, calcula-se f no ponto médio dos dois intervalos. O intervalo descartado é aquele que apresenta o maior valor de f no seu ponto médio. A idéia do método é reduzir progressivamente a região de busca em torno do mínimo. A precisão de α k depende do critério de convergência adotado para se interromper as iterações Método da Seção Áurea (Golden Section, em inglês) Para se explicar o conceito da razão áurea, deve-se introduzir, inicialmente, a sequência de Fibonacci. Essa sequência, denominada F N, gera números que começam com N = 0 e F 0 = 1 e segue com N = 1 e F 1 = 1. A partir daí utiliza-se a seguinte fórmula de recorrência:
26 3.1. MÉTODOS DE BUSCA UNIDIMENSIONAL 21 f( ) f( ) m r( ) k Figura 3.1: Método da Armijo. F N = F N 1 + F N 2 (3.4) Com os números de Fibonacci F N, pode-se definir a razão de Fibonacci, R F, da seguinte forma: R F = F N 1 F N (3.5) A Tabela 3.1 mostra uma seqüência de números e razões de Fibonacci desde N = 0 até N = 10. N F N R F Tabela 3.1: Sequência de Fibonacci para N = 0 até N = 10. É interessante observar que a razão de Fibonacci converge para um determinado valor, próximo de 0.618, que se denomina razão áurea (R A ). Esse número aparece outras vezes nas relações da natureza, como por exemplo: o número π e o número Neperiano e. Vários artistas, como Leonardo da Vinci, usavam em seus quadros essa razão entre as dimensões por achá-la harmônica. Da Vinci identificou também que essa razão poderia ser encontrada entre dimensões do corpo humano, como a razão entre a distância da sola do pé ao umbigo e a altura total do indivíduo.
27 22 CAPÍTULO 3. MÉTODOS DE OTIMIZAÇÃO SEM RESTRIÇÕES (OSR) O método da Seção Áurea apresenta uma idéia semelhante ao da Bisseção. A diferença está na razão utilizada para reduzir o intervalo de busca. No método da Bisseção essa razão é 0.5, enquanto que no método da Seção Áurea utiliza-se a razão áurea. A partir do comprimento do intervalo de busca inicial β, dois novos pontos são determinados: α1 d = R A β e α1 e = (1 R A )β que definem dois novos intervalos, 0 α α1 d e α1 e α β. Qual intervalo deve ser descartado na próxima iteração? Para se tomar essa decisão, deve-se calcular f (α1 d ) e f (α1 e ); o ponto α correspondente ao maior valor da função f define este intervalo a ser descartado e, consequentemente, os novos limites da busca. Se for α1 d, o novo intervalo deverá ser 0 α α1 d, se for α1 e, o novo intervalo será α1 e α β, conforme ilustrado na Figura 3.2. Os subscritos d e e caracterizam os pontos do intervalo localizados na direita e na esquerda, respectivamente. 1 =(1-R ) e A 1 d =R A 0 Figura 3.2: Intervalos de Busca do Método da Seção Áurea. A vantagem de se usar a razão áurea R A para dividir os intervalos e não qualquer outra razão, está no fato desta razão economizar uma avaliação da função f por divisão de intervalo. Isso se deve à coincidência entre um dos pontos novos e um ponto antigo de extremidade de intervalo quando se usa a razão áurea. Para esclarecer esse ponto, considere uma razão qualquer R no procedimento acima e que o segundo intervalo α1 e α β, tenha sido escolhido, conforme ilustrado na Figura 3.3. O comprimento do novo intervalo é dado por: β α1 e = β (1 R) β = R β (3.6) Como o ponto inicial do intervalo é α1 e e seu comprimento R β, os dois novos pontos seriam: α2 d = α1 e + R (R β) e α2 e = β R (R β) = (1 R 2 ) β (3.7) Para que o novo ponto α2 e coincida com o antigo ponto α1 d descartado, deve-se ter: ou: com raízes iguais a: R β = (1 R 2 ) β (3.8) R 2 + R 1 = 0 (3.9) R 1 = = (3.10)
28 3.1. MÉTODOS DE BUSCA UNIDIMENSIONAL e 1 d 1 e 2 e 2 d 1 e 3 e 3 d 2 d 3 e e 4 d 2 d 3 e 5 e 5 d 4 d 6 e 6 d 3 e 5 d Figura 3.3: Escolha dos Intervalos de Busca no Método da Seção Áurea.
29 24 CAPÍTULO 3. MÉTODOS DE OTIMIZAÇÃO SEM RESTRIÇÕES (OSR) R 2 = = (3.11) Desprezando-se a raíz negativa, o valor de R para poupar uma avaliação de f em cada subdivisão dos intervalos é exatamente igual à razão áurea, i.e., R A = A precisão de α k depende, como nos métodos anteriores, do critério de convergência adotado no processo iterativo Método da Ortogonalidade Sejam x(α) = x k + αd k, o próximo ponto para um determinado valor de α, e f [x(α)] o valor da função f nesse ponto. Derivando-se f [x(α)] em relação a α, obtém-se: df [x(α)] dα = f(x) x dx dα = {g [x(α)]}t d k (3.12) O valor α k de α que minimiza f [x(α)] a partir de x k na direção d k é obtido da condição: ou então: df(α) dα = 0 (3.13) [ g(x k + αd k ) ] t d k = 0 (3.14) O significado geométrico da Equação (3.14) é que o valor α k de α que minimiza f (α), é o mesmo que torna o vetor gradiente g (α) ortogonal ao vetor d k. Para se obter α k numericamente, deve-se incrementar α até que se obtenha um valor que torne o produto escalar acima nulo, segundo uma tolerância numérica pré-estabelecida. A Figura 3.4 ilustra o comportamento do método da ortogonalidade. d k x k+1 g[ x( )] x k Figura 3.4: Comportamento do Método da Ortogonalidade.
30 3.2. MÉTODOS DE DIREÇÃO DE BUSCA Método Secante O método de Newton faz uso das segundas derivadas para minimizar uma função f(α), ou seja: Aproximando-se a segunda derivada f por: α k+1 = α k f (α k ) f (α k ) pode-se obter o seguinte algoritmo: f (α k ) f (α k 1 ) α k α k 1 α k+1 = α k α k α k 1 f (α k ) f (α k 1 ) f (α k ) o qual é conhecido como algoritmo secante. Pode-se ainda reescrever esse algoritmo da seguinte forma: α k+1 = f (α k ) α k 1 f (α k 1 ) α k f (α k ) f (α k 1 ) 3.2 Métodos de Direção de Busca Nesta seção, serão apresentados os seguintes métodos de direção de busca: Univariante; Powell; Máximo Declive; Fletcher Reeves; Hestenes Stiefel; Polak Ribière; e Newton-Raphson, além dos métodos Quase- Newton: de Correção Um; DFP e BFGS. Os métodos Univariante e de Powell são da família dos métodos de ordem zero, os de Máximo Declive, Fletcher Reeves, Hestenes Stiefel e Polak Ribière pertencem à família dos métodos de primeira ordem e, finalmente, o método de Newton-Raphson pertence à família dos métodos de segunda ordem. Os métodos Quase-Newton, apesar de serem efetivamente de primeira ordem, têm ambição de funcionar como métodos de segunda ordem. Os métodos de direção de busca define uma expressão para de obter d k. A partir daí, o mínimo de f (x (α)) será procurado ao longo da reta x (α) = x k + αd k Método Univariante No método Univariante, a direção de busca na iteração k é definida por: d k = e k, k = 1,, n (3.15) onde e k é um vetor com elementos nulos, exceto na posição k, onde o elemento vale 1. Esse procedimento é equivalente a modificar uma variável de cada vez no processo iterativo, ou seja, apenas a variável na posição k do vetor de variáveis x, é modificada na iteração k. Para um problema com n variáveis, se, ao final de n iterações, a posição x não tiver convergido para a solução x, então um novo ciclo de iterações deve ser iniciado com as mesmas direções usadas no primeiro ciclo, e assim sucessivamente até a convergência Método de Powell O método Univariante é computacionalmente pouco eficiente e requer, em geral, muitas iterações até a solução. Uma maneira de acelerar esse processo é incorporar uma nova direção de busca, denominada de movimento padrão, ao conjunto de n direções de busca, no final de cada ciclo iterativo formado por n iterações. Durante os n primeiros ciclos, uma direção padrão é incorporada, ao fim de cada ciclo, ao conjunto das n direções de busca do ciclo, substituindo uma das direções univariantes que é descartada. Depois de n ciclos, nenhuma direção univariante deve restar no conjunto de direções de busca. Essas novas direções de busca foram propostas por Powell e são obtidas de acordo com a expressão abaixo:
31 26 CAPÍTULO 3. MÉTODOS DE OTIMIZAÇÃO SEM RESTRIÇÕES (OSR) Ponto inicial Ponto final Figura 3.5: Univariante.
32 3.2. MÉTODOS DE DIREÇÃO DE BUSCA 27 d j = x n x 0, j = 1,, m (3.16) onde x n é o ponto obtido no final de cada ciclo de n iterações e x 0 é o ponto inicial. Para cada novo ciclo, caso não haja convergência, uma nova direção padrão é criada com esse mesmo procedimento, ou seja: ponto final menos ponto inicial. A metodologia do método de Powell pode ser resumida nos seguintes passos: 1. Inicializar j = 1; 2. Realizar um ciclo de n iterações (com as direções univariantes e k, k = 1... n), do ponto x 0 até o ponto x n ; 3. Criar uma direção de movimento padrão d j = x n x 0 ; 4. Minimizar f(x) na direção d j, determinando-se o novo ponto x 0 ; 5. Substituir e j por d j da seguinte forma: e i = e i+1, i = 1, n 1; e n = d j ; j = j + 1; 6. Repetir os passos de 2 a 5, enquanto j n; 7. Reinicializar as direções e k e voltar para o passo 1, até que a convergência numérica seja atingida Direções Conjugadas no Método de Powell Considerações Iniciais Se um determinado método de minimização sempre encontra o mínimo de uma função quadrática em um número de passos (operações) proporcional ao tamanho do problema (n variáveis), este método é dito quadraticamente convergente [3]. Se um método quadraticamente convergente é aplicado a uma função genérica para a qual a série de Taylor é dominada pelo seu termo quadrático, espera-se que o método tenha uma convergência rápida. Muitos métodos quadraticamente convergentes se baseiam no conceito de direções conjugadas. Se uma função quadrática q(x), de n variáveis, é minimizada sequencialmente, uma vez em cada direção de um conjunto de n direções linearmente independentes (LI) e Q conjugadas (a definição de Q será vista adiante), o mínimo global será obtido em até n passos, independentemente do ponto inicial x 0. Proposição Seja q(x) uma função quadrática dada por: q(x) = 1 2 xt Q x b t x (3.17) onde Q é uma matriz quadrada, positiva semi-definida e b um vetor. Dados dois pontos x a e x b e uma direção de busca d a, e supondo-se que y a e y b sejam, respectivamente, os mínimos de q(x) na direção d a partindo-se de x a e x b, mostrar que as direções d a e ( y a y b) são Q conjugadas. Demonstração A condição de mínimo dessa função quadrática é garantida apenas pela condição de primeira ordem, fazendo-se com que o gradiente de q(x) seja igual a um vetor nulo. A condição de segunda ordem está previamente satisfeita pelo fato da matriz Q (Hessiana de q(x)) ser positiva semi-definida. Portanto:
33 28 CAPÍTULO 3. MÉTODOS DE OTIMIZAÇÃO SEM RESTRIÇÕES (OSR) g (x) = Q x b = 0 (3.18) ou: Q x = b (3.19) Para se obter a solução do problema acima por meio da fórmula de recorrência, parte-se de: x k+1 = x k + α k d k, k = 0,, n 1 (3.20) onde as direções de busca d k serão direções Q conjugadas, ou seja: ( d i ) t Q d j = 0, i j (3.21) Considere-se, inicialmente, o ponto x a e a direção de busca d a. Deve-se determinar α a na expressão dada a seguir, que é o valor de α que minimiza q (x) a partir do ponto x a na direção d a. x(α) = x a + αd a (3.22) Uma vez obtido α a, chega-se ao ponto x(α a ) que, doravante, será denominado de y a, ou seja: e, da condição de mínimo em y a : y a = x a + α a d a (3.23) onde: dq [x(α)] dα = q(x) dx(α) x dα = {g [x(αa )]} t d a = 0 (3.24) g [x(α a )] = Q x(α a ) b (3.25) Partindo-se de y a na direção de d a, pode-se prever que α a = 0 pois y a é um mínimo nessa direção. Logo: [Q (y a + 0d a ) b] t d a = 0 (3.26) ou: [Q y a b] t d a = 0 (3.27) Considerando-se agora a minimização de q(x) a partir de x b, na mesma direção d a, tem-se: x (α) = x b + αd a (3.28) Denominando-se x(α b ) doravante de y b e, com raciocínio análogo ao anterior, tem-se em y b : y b = x b + α b d a (3.29) onde: dq [x(α)] dα = q(x) dx(α) x dα = { g [ x(α b ) ]} t d a = 0 (3.30) g [ x(α b ) ] = Q x(α b ) b (3.31) Analogamente, partindo-se de y b na mesma direção de d a, pode-se prever que α b = 0 pois y b é um mínimo nessa direção. Logo: y b = x b + α b d a (3.32)
34 x a x b 3.2. MÉTODOS DE DIREÇÃO DE BUSCA 29 [ Q (y b + 0d a ) b ] t d a = 0 (3.33) [ Q y b b ] t d a = 0 (3.34) Subtraindo-se as Expressões (3.27) e (3.34), obtém-se: (d a ) t Q (y a y b ) = 0 (3.35) o que demonstra que as direções d a e ( y a y b) são Q conjugadas. A Figura 3.6 ilustra o processo iterativo descrito acima até as posições y a e y b, respectivamente. a d y y a - y b a d a y b Figura 3.6: Direções Q Conjugadas do Método Powell [3]. Se d a foi criada no final de um dado ciclo como movimento padrão, as duas operações anteriores são exatamente o que recomenda o método de Powell. A primeira operação corresponde ao passo dado no final de cada ciclo e a segunda corresponde ao primeiro passo de cada novo ciclo, onde a direção de busca d a, criada no final de um ciclo, é repetida no início do novo ciclo Convergência do Método de Powell Proposição 1 O método de Powell converge para o mínimo de uma função quadrática, q(x), de n variáveis, em um número finito de iterações, dado por (n + 1) 2. Demonstração Inicia-se mostrando que o conjunto de vetores d i, Q conjugados, é linearmente independente (LI). Como dito anteriormente, dois vetores d i e d j são Q conjugados (ou Q ortogonais) quando:
35 30 CAPÍTULO 3. MÉTODOS DE OTIMIZAÇÃO SEM RESTRIÇÕES (OSR) ( d i ) t Q d j = 0, i j (3.36) A prova se dará por contradição. equação: Supor que existam α i, não todos nulos, que satisfaçam à seguinte α 0 d 0 + α 1 d α n 1 d n 1 = 0 (3.37) Nesse caso, os vetores d i são linearmente dependentes. Pré-multiplicando-se a equação acima por ( d i) t Q, chega-se a: α i ( d i ) t Q d i = 0 (3.38) uma vez que as demais parcelas se anulam porque o conjunto de vetores é Q conjugado. Todavia, como Q deve ser positiva semi-definida em q (x), então: ( d i ) t Q d i 0, logo: α i = 0 o que contradiz a hipótese inicial, de α i não serem todos nulos, e assim o conjunto de vetores d i é LI. Dessa forma, o conjunto dos n vetores d i pode formar uma base para o espaço de n dimensões e, portanto, o vetor x desse espaço, solução do problema de minimização de q (x), pode ser representado nessa base por: x = α 0 d 0 + α 1 d α n 1 d n 1 (3.39) Pré-multiplicando-se ambos os lados da equação acima por ( d i) t Q e considerando-se o que já foi visto até o momento, obtém-se: α i = ( ) d i t ( ) Q x d i t b (d i ) t Q d = i (d i ) t (3.40) Q d i Conclui-se portanto, que, quando se tem um conjunto de n vetores Q conjugados, pode-se obter x usando a expressão (3.39) e com os valores de α i calculados segundo (3.40) a partir da matriz Q, do vetor b e do conjunto de vetores d i, como indicado. A solução x pode ser vista como uma aplicação da fórmula geral de recorrência dos métodos de OSR, partindo-se de x 0 = 0 e indo-se, sucessivamente, aos pontos x 1, x 2,, até o ponto x k+1, ou seja: Após n passos, chega-se ao ponto x : x k+1 = α 0 d 0 + α 1 d α k d k ; (3.41) x = α 0 d 0 + α 1 d α (n 1) d n 1 (3.42) Proposição 2 A partir de um ponto inicial x 0, arbitrário, e um conjunto de n vetores Q conjugados, a sequência gerada por: x k+1 = x k + α k d k (3.43) sendo: α k = ( g k) t d k (d k ) t Q d k (3.44) g k = Q x k b (3.45)
36 3.2. MÉTODOS DE DIREÇÃO DE BUSCA 31 converge para a solução x que minimiza q(x) depois de n passos, ou seja: x n = x. Demonstração Como os vetores d i são LI, é possível representar qualquer vetor do espaço de x usando esses vetores como base do espaço, ou seja: x x 0 = α 0 d 0 + α 1 d α n 1 d n 1 (3.46) Pré-multiplicando-se a expressão acima por ( d k) t Q, obtém-se: α k = ( d k ) t Q ( x x 0) (d k ) t Q d k (3.47) Considerando-se a expressão acima como um processo iterativo, ter-se-ia na iteração k o ponto x k, ou seja: x k x (0) = α 0 d 0 + α 1 d α k 1 d k 1 (3.48) Pré-multiplicando-se mais uma vez por ( d k) t Q e lembrando-se que o conjunto é Q conjugado, obtém-se: A expressão de α k na Equação (3.47) pode ser reescrita como: (d k ) t Q ( x k x 0 ) = 0 (3.49) Como: α k = ( d k ) t Q [( x x k) + ( x k x 0)] (d k ) t Q d k (3.50) Q x = b (3.51) e, considerando-se a Equação (3.45): finalmente, considerando-se a Equação (3.49), chega-se a: Q x k = g k + b (3.52) α k = ( g k) t d k (d k ) t Q d k (3.53) Vale observar que esse valor de α k é justamente o que minimiza a função q (x) a partir de x k na direção d k. Considerar que q (x) seja representada por uma série de Taylor de segunda ordem dada por s 2 (x), a partir do ponto x k, com um passo αd k. Como a função q (x) é quadrática, a aproximação por série de Taylor de q (x), s 2 (x), até o termo de segunda ordem é exata, ou seja: s 2 (x k + αd k ) = q(x k ) + α ( g k) t d k α2 ( d k) t Q d k (3.54) Para se obter α que minimiza s 2 (x), calcula-se: obtendo-se: ds 2 (x k + αd k ) dα = 0 (3.55) que fornece o mesmo valor de α k, ou seja: ( g k ) t d k + α ( d k) t Q d k = 0 (3.56)
37 32 CAPÍTULO 3. MÉTODOS DE OTIMIZAÇÃO SEM RESTRIÇÕES (OSR) A Figura 3.7 ilustra o processo de convergência do método de Powell. α = α k = ( g k) t d k (d k ) t Q d k (3.57) Figura 3.7: Passos do Método de Powell Método do Máximo Declive (Steepest Descent, em inglês) O método do Máximo Declive utiliza o gradiente como sendo a direção de busca, ou seja: d k = g k (3.58) Para se demonstrar que a direção definida pela expressão (3.58) é a direção de maior decréscimo da função f(x), no ponto x, considerar a expansão de f(x) em série de Taylor de primeira ordem, s 1 (x), em torno do ponto (x + s): s 1 (x + s) f(x) + [g(x)] t s (3.59) onde g(x) é o gradiente de f(x) no ponto x. O crescimento da função f(x) quando se vai do ponto x para (x + s) é dado por: df(x) [g(x)] t s (3.60)
38 3.2. MÉTODOS DE DIREÇÃO DE BUSCA 33 ou ainda: df(x) g(x) s cos(θ) (3.61) onde θ é o ângulo entre os vetores g(x) e s. Para um dado ponto x, df depende apenas de θ, já que os módulos dos vetores s e gradiente de f em x são conhecidos. O valor de θ que minimiza df é θ = π, quando cos(θ) = 1, ou seja, quando s tem a direção de: Método de Fletcher Reeves s = d = g(x) O método de Fletcher Reeves é uma extensão do Método dos Gradientes Conjugados. Utilizando-se da fórmula geral de recorrência dos métodos de OSR, o método dos Gradientes Conjugados visa, de forma iterativa, minimizar somente funções quadráticas q (x). Ele apresenta uma expressão para gerar direções de busca d k+1, na iteração k + 1, que têm a propriedade de serem Q conjugadas em relação a todas as k direções geradas anteriormente. Essa propriedade garante que o processo iterativo para minimizar uma função quadrática q (x) converge em n passos. Vale lembrar que, ao minimizar a função quadrática q (x), o método terá encontrado a solução do sistema de equações lineares Q x = b. Os principais passos do algoritmo que representa o método dos Gradientes Conjugados são: 1. k = 0; Dado: x 0 ; 2. g 0 ; 3. Se: g 0 = 0 = Fim; 4. d 0 = g 0 5. α k = (gk ) t d k (d k ) t Q d k ; 6. x k+1 = x k + α k d k ; 7. g k+1 ; 8. Se: g k+1 = 0 = Fim; 9. β k = (gk+1 ) t Q d k (d k ) t Q d k ; 10. d k+1 = g k+1 + β k d k ; 11. k = k + 1; 12. Volta para o passo 5. A fórmula que permite o cálculo de β k (passo 9 do algoritmo acima) é obtida pré-multiplicando-se a expressão que calcula a direção d k+1 (passo 10 do algoritmo acima) por ( d k) t Q, ou seja: ( d k ) t Q d k+1 = ( d k) t Q ( g k+1 + β k d k) = 0 (3.62) Como as direções d k e d k+1 são Q conjugadas, chega-se a: β k = ( g k+1 ) t Q d k (d k ) t Q d k (3.63)
DEPARTAMENTO DE ENGENHARIA MECÂNICA
DEPARTAMENTO DE ENGENHARIA MECÂNICA Otimização: Algoritmos e Aplicações na Engenharia Mecânica ENG1786 & MEC2403 Ivan Menezes 2018-2 1 EMENTA 1. Introdução 1.1 Definições Básicas 1.2 Classificação dos
Leia maisMÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA
MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA Marlon Luiz Dal Pasquale Junior, UNESPAR/FECILCAM, jr.marlon@hotmail.com Solange Regina dos Santos (OR), UNESPAR/FECILCAM, solaregina@fecilcam.br
Leia maisBCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017
BCC465 - TÉCNICAS DE OTIMIZAÇÃO MULTI-OBJETIVO Aula 04 - Otimização Não-linear Gladston Juliano Prates Moreira email: gladston@iceb.ufop.br CSILab, Departamento de Computação Universidade Federal de Ouro
Leia mais)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD
)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD,QWURGXomR A grande maioria dos problemas de engenharia pode ser solucionado de diferentes formas, uma vez que um número muito grande de soluções atende aos critérios
Leia maisUNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição
UNIVERSIDADE FEDERAL DO ABC BC1419 Cálculo Numérico - LISTA 1 - Zeros de Funções (Profs. André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda) 1 Existência e unicidade de zeros; Métodos
Leia maisMétodo de Newton truncado
Método de Newton truncado Marina Andretta ICMC-USP 8 de outubro de 2018 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear
Leia maisCálculo Numérico BCC760 Raízes de equações algébricas e transcendentes
Cálculo Numérico BCC760 Raízes de equações algébricas e transcendentes Departamento de Computação Página da disciplina http://www.decom.ufop.br/bcc760/ Introdução Dada uma função y = f(x), o objetivo deste
Leia maisOptimização. Carlos Balsa. Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança
Optimização Carlos Balsa balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Matemática Aplicada - Mestrados Eng. Química e Industrial Carlos Balsa Matemática Aplicada
Leia maisII. Funções de uma única variável
II. Funções de uma única variável 1 II.1. Conceitos básicos A otimização de de funções de de uma única variável consiste no no tipo mais elementar de de otimização. Importância: Tipo de problema encontrado
Leia maisétodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA
étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO
Leia maisCálculo Numérico. que é denominado erro relativo. Temos então para os dados acima:
Cálculo Numérico 1 Erros Nenhum resultado obtido através de cálculos eletrônicos ou métodos numéricos tem valor se não tivermos conhecimento e controle sobre os possíveis erros envolvidos no processo.
Leia maisProf. Lorí Viali, Dr. PUCRS FAMAT: Departamento de Estatística. Curso: Engenharia de Produção
Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação
Leia maisConsidere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b
Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação
Leia maisCapítulo 5 - Optimização Não-Linear
Capítulo 5 - Optimização Não-Linear balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Mestrados em Engenharia da Construção Métodos de Aproximação em Engenharia
Leia maisModelagem Computacional. Parte 8 2
Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 8 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 10 e 11] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,
Leia maisMarina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright.
Métodos de regiões de confiança Marina Andretta ICMC-USP 17 de setembro de 2014 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear
Leia maisExercícios de MATEMÁTICA COMPUTACIONAL. 1 0 Semestre de 2009/2010 Resolução Numérica de Equações Não-Lineares
Exercícios de MATEMÁTICA COMPUTACIONAL Mestrado Integrado em Engenharia Biomédica 1 0 Semestre de 2009/2010 Resolução Numérica de Equações Não-Lineares 1. Considere a equação sin(x) e x = 0. a) Prove que
Leia maisMétodo dos gradientes (ou método de máxima descida)
Método dos gradientes (ou método de máxima descida) Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 14 de setembro de 2010 1 / 16 Método dos gradientes
Leia maisétodos uméricos ZEROS DE FUNÇÕES DE UMA OU MAIS VARIÁVEIS Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA
étodos uméricos ZEROS DE FUNÇÕES DE UMA OU MAIS VARIÁVEIS Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO
Leia maisProf. MSc. David Roza José 1/35
1/35 Métodos Iterativos Objetivos: Compreender a diferença entre os métodos de Gauss-Seidel e Jacobi; Saber analisar a dominância diagonal e entender o quê significa; Reconhecer como a relaxação pode ser
Leia mais4 Modelagem Numérica. 4.1 Método das Diferenças Finitas
4 Modelagem Numérica Para se obter a solução numérica das equações diferenciais que regem o processo de absorção de CO 2,desenvolvido no capitulo anterior, estas precisam ser transformadas em sistemas
Leia maisLista de Exercícios de Métodos Numéricos
Lista de Exercícios de Métodos Numéricos 1 de outubro de 010 Para todos os algoritmos abaixo assumir n = 0, 1,, 3... Bisseção: Algoritmo:x n = a+b Se f(a) f(x n ) < 0 então b = x n senão a = x n Parada:
Leia maisSISTEMAS LINEARES PROF. EDÉZIO
SOLUÇÕES NUMÉRICAS DE SISTEMAS LINEARES PROF. EDÉZIO Considere o sistema de n equações e n incógnitas: onde E : a x + a x +... + a n x n = b E : a x + a x +... + a n x n = b. =. () E n : a n x + a n x
Leia maisDepartamento de Matemática da Universidade de Coimbra. Licenciatura em Matemática. e B =
Departamento de Matemática da Universidade de Coimbra Optimização Numérica Licenciatura em Matemática Ano lectivo 2006/2007 Folha 1 1. Considere as matrizes A = [ 1 1 1 2 ] e B = [ 1 3 1 2 (a) Verifique
Leia maisOTIMIZAÇÃO ESTRUTURAL DE TRELIÇAS COM RESTRIÇÕES DE FLAMBAGEM E DE ESCOAMENTO DE MATERIAIS
20 de junho de 2014 OTIMIZAÇÃO ESTRUTURAL DE TRELIÇAS COM RESTRIÇÕES DE FLAMBAGEM E DE ESCOAMENTO DE MATERIAIS Daniel Santhiago de Souza OTIMIZAÇÃO ESTRUTURAL DE TRELIÇAS COM RESTRIÇÕES DE FLAMBAGEM E
Leia maisCálculo Numérico. que é denominado erro relativo. Temos então para os dados acima:
Cálculo Numérico 1 Erros Nenhum resultado obtido através de cálculos eletrônicos ou métodos numéricos tem valor se não tivermos conhecimento e controle sobre os possíveis erros envolvidos no processo.
Leia maisNeste capítulo estamos interessados em resolver numericamente a equação
CAPÍTULO1 EQUAÇÕES NÃO-LINEARES 1.1 Introdução Neste capítulo estamos interessados em resolver numericamente a equação f(x) = 0, onde f é uma função arbitrária. Quando escrevemos resolver numericamente,
Leia maisf(1) = 6 < 0, f(2) = 1 < 0, f(3) = 16 > 0 x [2, 3].
1 As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia e não têm a intenção de substituir o livro-texto, nem qualquer outra bibliografia. Métodos Numéricos Para Solução
Leia maisétodos uméricos ZEROS DE FUNÇÕES Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA
étodos uméricos ZEROS DE FUNÇÕES Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO FEDERAL DE EDUCAÇÃO TECNOLÓGICA
Leia maisCálculo Numérico BCC760
Cálculo Numérico BCC760 Resolução de Sistemas de Equações Lineares Simultâneas Departamento de Computação Página da disciplina http://www.decom.ufop.br/bcc760/ 1 Introdução! Definição Uma equação é dita
Leia maisResolução Numérica de Equações (Parte II)
Cálculo Numérico Módulo III Resolução Numérica de Equações (Parte II) Prof: Reinaldo Haas Cálculo Numérico Bissecção Métodos Iterativos para a Obtenção de Zeros Reais de Funções Bissecção Newton-Raphson
Leia mais5 Formulação Dinâmica Não Linear no Domínio da Frequência
129 5 Formulação Dinâmica Não Linear no Domínio da Frequência No Capítulo 2, foram apresentadas as formulações para a análise dinâmica de estruturas reticuladas no domínio do tempo, sendo uma informação
Leia maisTeoria de dualidade. Marina Andretta ICMC-USP. 19 de outubro de 2016
Teoria de dualidade Marina Andretta ICMC-USP 19 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211 - Otimização
Leia maisUNIVERSIDADE FEDERAL DE PERNAMBUCO Lista de Exercícios / Cálculo Numérico 1ª Unidade
1) Analise as alternativas abaixo e marque V para verdadeiro e F para falso. No segundo caso, explique como as tornaria verdadeiras: ( ) O método das secantes é utilizado para solucionar um problema de
Leia maisEXERCÍCIOS DE MATEMÁTICA COMPUTACIONAL: PRIMEIRO BIMESTRE: EDGARD JAMHOUR. QUESTÃO 1: Indique as afirmativas verdadeiras.
EXERCÍCIOS DE MATEMÁTICA COMPUTACIONAL: PRIMEIRO BIMESTRE: EDGARD JAMHOUR QUESTÃO 1: Indique as afirmativas verdadeiras. ( ) O número Pi não pode ser representado de forma exata em sistemas numéricos de
Leia maisMétodo do Lagrangiano aumentado
Método do Lagrangiano aumentado Marina Andretta ICMC-USP 23 de novembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 1 / 17 Problema com restrições gerais Vamos
Leia maisMétodos Numéricos - Notas de Aula
Métodos Numéricos - Notas de Aula Prof a Olga Regina Bellon Junho 2007 Zeros de equações transcendentes e Tipos de Métodos polinomiais São dois os tipos de métodos para se achar a(s) raízes de uma equação:
Leia maisCálculo Numérico Ponto Fixo
Cálculo Numérico Ponto Fixo Método do Ponto Fixo (MPF) Dada uma função f(x) contínua no intervalo [a,b] onde existe uma raiz única, f(x) = 0, é possível transformar tal equação em uma equação equivalente
Leia maisCálculo Numérico. Santos Alberto Enriquez-Remigio FAMAT-UFU 2015
Cálculo Numérico Santos Alberto Enriquez-Remigio FAMAT-UFU 2015 1 Capítulo 1 Solução numérica de equações não-lineares 1.1 Introdução Lembremos que todo problema matemático pode ser expresso na forma de
Leia maisCÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano
CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano yaratadano@utfpr.edu.br Aula 7 04/2014 Zeros reais de funções Parte 1 Objetivo Determinar valores aproximados para as soluções (raízes) de equações da
Leia maisModelagem Computacional. Parte 2 2
Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 2 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 2 e 3] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,
Leia maisParte 1: Exercícios Teóricos
Cálculo Numérico SME0104 ICMC-USP Lista 5: Zero de Funções Lembrete (informação que vai estar disponível na prova) Método de Newton Método da Secante x k+1 = x k f(x k) f (x k ), x k+1 = x k J 1 F (x k
Leia mais2 Análise do Colapso de Estruturas através do Método dos Elementos Finitos
2 Análise do Colapso de Estruturas através do Método dos Elementos Finitos Neste capítulo, através do método dos elementos finitos baseado em deslocamentos, são apresentadas três técnicas de análise do
Leia maisExercícios de ANÁLISE E SIMULAÇÃO NUMÉRICA
Exercícios de ANÁLISE E SIMULAÇÃO NUMÉRICA Licenciaturas em Engenharia do Ambiente e Química 2 o Semestre de 2005/2006 Capítulo II Resolução Numérica de Equações Não-Lineares 1. Considere a equação sin(x)
Leia maisÁlgebra Linear I - Aula Bases Ortonormais e Matrizes Ortogonais
Álgebra Linear I - Aula 19 1. Bases Ortonormais e Matrizes Ortogonais. 2. Matrizes ortogonais 2 2. 3. Rotações em R 3. Roteiro 1 Bases Ortonormais e Matrizes Ortogonais 1.1 Bases ortogonais Lembre que
Leia mais4 Implementação Computacional
4 Implementação Computacional 4.1. Introdução Neste capítulo é apresentada a formulação matemática do problema de otimização da disposição das linhas de ancoragem para minimizar os deslocamentos (offsets)
Leia maisAula 6. Zeros reais de funções Parte 3
CÁLCULO NUMÉRICO Aula 6 Zeros reais de funções Parte 3 MÉTODO DE NEWTON RAPHSON Cálculo Numérico 3/48 CONSIDERAÇÕES INICIAS MÉTODO DO PONTO FIXO: Uma das condições de convergência é que onde I é um intervalo
Leia maisCÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano
CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano yaratadano@utfpr.edu.br Aula 6 Zeros reais de funções Parte 3 MÉTODO DE NEWTON RAPHSON Cálculo Numérico 3/47 CONSIDERAÇÕES INICIAS MÉTODO DO PONTO FIXO:
Leia maisSist. de equações não-lineares e problemas de empacotamento
Sistemas de equações não-lineares e problemas de empacotamento Jan Marcel Paiva Gentil Orientador: Ernesto G. Birgin Instituto de Matemática e Estatística Universidade de São Paulo Fomento: FAPESP (proc.
Leia maisAna Paula. October 26, 2016
Raízes de Equações October 26, 2016 Sumário 1 Aula Anterior 2 Método da Secante 3 Convergência 4 Comparação entre os Métodos 5 Revisão Aula Anterior Aula Anterior Aula Anterior Aula Anterior Método de
Leia maisTE231 Capitulo 2 Zeros de Funções; Prof. Mateus Duarte Teixeira
TE231 Capitulo 2 Zeros de Funções; Prof. Mateus Duarte Teixeira Sumário 1. Como obter raízes reais de uma equação qualquer 2. Métodos iterativos para obtenção de raízes 1. Isolamento das raízes 2. Refinamento
Leia maisMétodos de Pesquisa Operacional
Métodos de Pesquisa Operacional Programação Linear é a parte da Pesquisa Operacional que trata da modelagem e resolução de problemas formulados com funções lineares. Programação Linear } Métodos de Resolução
Leia maisUniversidade Federal do Pará Instituto de Tecnologia. Cálculo III. Campus de Belém Curso de Engenharia Mecânica
Universidade Federal do Pará Instituto de Tecnologia Cálculo III Prof. Dr. Jorge Teófilo de Barros Lopes Campus de Belém Curso de Engenharia Mecânica Universidade Federal do Pará Instituto de Tecnologia
Leia maisCÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano
CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano yaratadano@utfpr.edu.br Aula 8 04/2014 Zeros reais de funções Parte 2 Voltando ao exemplo da aula anterior, vemos que o ponto médio da primeira iteração
Leia maisEquações não lineares
DMPA IM UFRGS Cálculo Numérico Índice 1 Método da bissecção 2 Método Newton-Raphson 3 Método da secante Vamos estudar métodos numéricos para resolver o seguinte problema. Dada uma função f contínua, real
Leia maisCÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano
CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano yaratadano@utfpr.edu.br Aula 9 04/2014 Zeros reais de funções Parte 3 MÉTODO DE NEWTON RAPHSON Cálculo Numérico 3/42 CONSIDERAÇÕES INICIAS MÉTODO DO PONTO
Leia maisResolvendo algebricamente um PPL
Capítulo 6 Resolvendo algebricamente um PPL 6.1 O método algébrico para solução de um modelo linear A solução de problemas de programação linear com mais de duas variáveis, não pode ser obtida utilizando-se
Leia maisUniversidade Federal do Espírito Santo - UFES
Universidade Federal do Espírito Santo - UFES Centro Universitário Norte do Espírito Santo - CEUNES Departamento de Matemática Aplicada - DMA Prof. Isaac P. Santos - 2018/1 Aula: Métodos Iterativos Para
Leia maisENG-418 OTIMIZAÇÃO DE PROCESSOS QUÍMICOS
Universidade Federal da Bahia - UFBA Escola Politécnica EP Departamento de Engenharia Química - DEQ Laboratório de Controle e Otimização de Processos Industriais - LACOI Disciplina: Otimização de Processos
Leia maisétodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA
étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO
Leia maisLista 1 - Cálculo Numérico - Zeros de funções
Lista 1 - Cálculo Numérico - Zeros de funções 1.) De acordo com o teorema de Bolzano, se uma função contínua f(x) assume valores de sinais opostos nos pontos extremos do intervalo [a, b], isto é se f(a)
Leia maisExercícios de Mínimos Quadrados
INSTITUTO DE CIÊNCIAS MATEMÁTICAS E DE COMPUTAÇÃO DEPARTAMENTO DE MATEMÁTICA APLICADA E ESTATÍSTICA Exercícios de Mínimos Quadrados 1 Provar que a matriz de mínimos quadrados é denida positiva, isto é,
Leia maisCÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano
CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano yaratadano@utfpr.edu.br Aula 13 04/2014 Sistemas de Equações Lineares Parte 3 MÉTODOS ITERATIVOS Cálculo Numérico 3/44 MOTIVAÇÃO Os métodos iterativos
Leia maisEquações não lineares
Capítulo 2 Equações não lineares Vamos estudar métodos numéricos para resolver o seguinte problema. Dada uma função f contínua, real e de uma variável, queremos encontrar uma solução x que satisfaça a
Leia maisEspaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:
Espaços Euclidianos Espaços R n O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: R n = {(x 1,..., x n ) : x 1,..., x n R}. R 1 é simplesmente o conjunto R dos números
Leia maisTP062-Métodos Numéricos para Engenharia de Produção Zeros: Introdução
TP062-Métodos Numéricos para Engenharia de Produção Zeros: Introdução Prof. Volmir Wilhelm Curitiba, 2015 Os zeros de uma função são os valores de x que anulam esta função. Este podem ser Reais ou Complexos.
Leia maisPolinômios de Legendre
Seção 5: continuação do método de resolução por séries de potências Na Seção foi exposto informalmente, através de exemplos, o método de resolução de equações diferenciais ordinárias por séries de potências.
Leia maisAutovalores e Autovetores
Algoritmos Numéricos II / Computação Científica Autovalores e Autovetores Lucia Catabriga 1 1 DI/UFES - Brazil Junho 2016 Introdução Ideia Básica Se multiplicarmos a matriz por um autovetor encontramos
Leia maisMAT2457 ÁLGEBRA LINEAR PARA ENGENHARIA I Gabarito da 2 a Prova - 1 o semestre de 2015
MAT27 ÁLGEBRA LINEAR PARA ENGENHARIA I Gabarito da 2 a Prova - 1 o semestre de 201 Nesta prova considera-se fixada uma orientação do espaço e um sistema de coordenadas Σ (O, E) em E 3, em que E é uma base
Leia maisMétodos Numéricos. Professor Tenani - 9 de Agosto de 2015
Métodos Numéricos Professor Tenani - www.professortenani.com.br 9 de Agosto de 2015 Métodos Numéricos Professor Tenani - www.professortenani.com.br 1 / 51 Índice Métodos Numéricos Professor Tenani - www.professortenani.com.br
Leia maisII Seminário da Pós-graduação em Engenharia Elétrica
UMA INVESTIGAÇÃO DOS PARÂMETROS NOS MÉTODOS MISTOS DE OTIMIZAÇÃO NÃO LINEAR Ellen Cristina Ferreira Aluna do Programa de Pós-Graduação em Engenharia Elétrica Unesp Bauru Profa. Dra. Edméa Cássia Baptista
Leia maisCapítulo 6 - Equações Não-Lineares
Sistemas de Capítulo 6 - Carlos Balsa balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança 2 o Ano - Eng. Civil e Electrotécnica Carlos Balsa Métodos Numéricos 1/
Leia maisCálculo Numérico A - 2 semestre de 2006 Prof. Leonardo F. Guidi. 2 a Lista de Exercícios - Gabarito. 1) Seja a equação não linear x e x = 0.
Cálculo Numérico A - 2 semestre de 2006 Prof. Leonardo F. Guidi 2 a Lista de Exercícios - Gabarito 1) Seja a equação não linear x e x = 0. A solução é dada em termos da função W de Lambert, x = W 1) 0,
Leia maisDisciplina: Cálculo Numérico IPRJ/UERJ. Sílvia Mara da Costa Campos Victer. Aula 6 - Solução de Sistema de Equações Algébricas
Disciplina: Cálculo Numérico IPRJ/UERJ Sílvia Mara da Costa Campos Victer Aula 6 - Solução de Sistema de Equações Algébricas Métodos diretos: 1- Eliminação de Gauss com substituição recuada 2- Decomposição
Leia maisINTRODUÇÃO AOS MÉTODOS NUMÉRICOS. Solução de Sistemas Lineares
INTRODUÇÃO AOS MÉTODOS NUMÉRICOS Solução de Sistemas Lineares Introdução Uma variedade de problemas de engenharia pode ser resolvido através da análise linear; entre eles podemos citar: determinação do
Leia maisMétodos Numéricos - Notas de Aula
Métodos Numéricos - Notas de Aula Prof a Olga Regina Bellon Junho 2007 Introdução Sistemas Lineares Sistemas lineares são sistemas de equações com m equações e n incógnitas formados por equações lineares,
Leia maisMétodos iterativos para sistemas lineares.
Métodos iterativos para sistemas lineares. Alan Costa de Souza 7 de Setembro de 2017 Alan Costa de Souza Métodos iterativos para sistemas lineares. 7 de Setembro de 2017 1 / 46 Introdução. A ideia central
Leia maisUNIVERSIDADE FEDERAL DO ABC
UNIVERSIDADE FEDERAL DO ABC BC49 Cálculo Numérico - LISTA - sistemas lineares de equações Profs André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda Métodos diretos Analise os sistemas
Leia maisMétodos iterativos dão-nos uma valor aproximado para s. Sequência de valores de x que convergem para s.
Análise Numérica 1 Resolução de equações não lineares ou Cálculo de zeros de funções Problema: Dada a função f(x) determinar o valor s tal que f(s) = 0. Slide 1 Solução: Fórmulas exemplo: fórmula resolvente
Leia maisIntrodução à Otimização de Processos. Prof. Marcos L Corazza Departamento de Engenharia Química Universidade Federal do Paraná
Introdução à Otimização de Processos Prof. Marcos L Corazza Departamento de Engenharia Química Universidade Federal do Paraná Otimização Não-Linear Algumas definições e conceitos preliminares: 1. Derivadas
Leia maisUNIVERSIDADE FEDERAL DO RIO DE JANEIRO Departamento de Ciência da ComputaçãoUFRJ. Cálculo Numérico. S. C. Coutinho. Provas e gabaritos
UNIVERSIDADE FEDERAL DO RIO DE JANEIRO Departamento de Ciência da ComputaçãoUFRJ Cálculo Numérico S. C. Coutinho Provas e gabaritos Lembre-se: Nas provas não são aceitas respostas sem justicativa. Você
Leia maisMAP CÁLCULO NUMÉRICO (POLI) Lista de Exercícios sobre Zeros de Funções
MAP 2121 - CÁLCULO NUMÉRICO (POLI) Lista de Exercícios sobre Zeros de Funções 1: Mostre que a função f(x) = x 2 4x + cos x possui exatamente duas raízes: α 1 [0, 1.8] e α 2 [3, 5]. Considere as funções:
Leia maisFunções ortogonais e problemas de Sturm-Liouville. Prof. Rodrigo M. S. de Oliveira UFPA / PPGEE
Funções ortogonais e problemas de Sturm-Liouville Prof. Rodrigo M. S. de Oliveira UFPA / PPGEE Série de Fourier Soma de funções ortogonais entre si Perguntas: -existem outras bases ortogonais que podem
Leia maisModelagem Computacional. Parte 7 2
Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 7 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,
Leia maisResolução de Sistemas Lineares. Ana Paula
Resolução de Sistemas Lineares Sumário 1 Introdução 2 Alguns Conceitos de Álgebra Linear 3 Sistemas Lineares 4 Métodos Computacionais 5 Sistemas Triangulares 6 Revisão Introdução Introdução Introdução
Leia maisProf. MSc. David Roza José 1/28
1/28 Otimização Objetivos: Compreender porquê e onde surgem problemas de otimização na engenharia; Reconhecer a diferença entre otimização unidimensional e multidimensional; Distinguir entre ótimo local
Leia maisMétodo Simplex. Marina Andretta ICMC-USP. 19 de outubro de 2016
Método Simplex Marina Andretta ICMC-USP 19 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211 - Otimização linear
Leia maisOptimização e Algoritmos (2004/2005)
Optimização e Algoritmos 2004/2005) Instituto Superior Técnico Engenharia Electrotécnica e de Computadores Série de Problemas 4 Minimização sem restrições algoritmos gradiente, Newton, quasi-newton BFGS)
Leia maisAlgoritmos para resolução de problemas de minimização irrestrita
Algoritmos para resolução de problemas de minimização irrestrita Marina Andretta ICMC-USP 10 de agosto de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 1 / 16 Algoritmos
Leia maisProf. MSc. David Roza José 1/37
1/37 Métodos Abertos Objetivos: Reconhecer as diferenças entre os métodos intervalados e abertos para a localização de raízes; Compreender o método da iteração de ponto-fixo e avaliar suas características
Leia maisDCC008 - Cálculo Numérico
DCC008 - Cálculo Numérico Polinômios de Taylor Bernardo Martins Rocha Departamento de Ciência da Computação Universidade Federal de Juiz de Fora bernardomartinsrocha@ice.ufjf.br Conteúdo Introdução Definição
Leia maisSME306 - Métodos Numéricos e Computacionais II Prof. Murilo F. Tomé. (α 1)z + 88 ]
SME306 - Métodos Numéricos e Computacionais II Prof. Murilo F. Tomé 1 o sem/2016 Nome: 1 a Prova - 07/10/2016 Apresentar todos os cálculos - casas decimais 1. Considere a família de funções da forma onde
Leia maisSilvia Maria Pereira Grandi dos Santos
Método iterativo para solução de sistemas lineares Gradientes e Gradientes Conjugados Silvia Maria Pereira Grandi dos Santos USP - São Carlos/SP Outubro 2008 Roteiro Motivação; Processos de Relaxação;
Leia maisINSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o
INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 27/28 Semestre: o MATEMÁTICA COMPUTACIONAL Exercícios [4 Sendo A M n (C) mostre que: (a) n A 2 A n A 2 ; (b)
Leia maisMétodos Numéricos Zeros: Introdução. Professor Volmir Eugênio Wilhelm Professora Mariana Kleina
Métodos Numéricos Zeros: Introdução Professor Volmir Eugênio Wilhelm Professora Mariana Kleina Um número real é um zero da função f(x) ou uma raiz da equação f(x)=0, se f( )=0. 2 Os zeros de uma função
Leia maisétodos uméricos SOLUÇÃO NUMÉRICA DE EQUAÇÕES DIFERENCIAIS ORDINÁRIOAS Prof. Erivelton Geraldo Nepomuceno
étodos uméricos SOLUÇÃO NUMÉRICA DE EQUAÇÕES DIFERENCIAIS ORDINÁRIOAS Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA
Leia maisMétodo de restrições ativas para minimização em caixas
Método de restrições ativas para minimização em caixas Marina Andretta ICMC-USP 20 de outubro de 2014 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 20 de outubro de 2014 1 / 25 Problema com
Leia maisJ. Delgado - K. Frensel - L. Crissaff Geometria Analítica e Cálculo Vetorial
178 Capítulo 10 Equação da reta e do plano no espaço 1. Equações paramétricas da reta no espaço Sejam A e B dois pontos distintos no espaço e seja r a reta que os contém. Então, P r existe t R tal que
Leia mais