Método do Lagrangiano aumentado

Documentos relacionados
Métodos para resolver problemas de otimização restrita

Resolução de problemas com apenas restrições lineares de igualdade

Método de restrições ativas para minimização em caixas

Teoria de dualidade. Marina Andretta ICMC-USP. 19 de outubro de 2016

Método de Newton truncado

Pontos extremos, vértices e soluções básicas viáveis

Método de restrições ativas para minimização com restrições lineares

Método dos gradientes (ou método de máxima descida)

Método de Newton modificado

Representação de poliedros

Resolução de sistemas de equações lineares: Método do Gradiente

Degenerescência. Marina Andretta ICMC-USP. 19 de outubro de 2016

Resolução de sistemas de equações não-lineares: Método Iterativo Linear

1 Otimização com restrições I: Condições de Primeira Ordem

Método Simplex dual. Marina Andretta ICMC-USP. 24 de outubro de 2016

Resolução de sistemas de equações não-lineares: Método Iterativo Linear

Interpolação polinomial: Polinômio de Lagrange

Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados

BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017

Método Simplex. Marina Andretta ICMC-USP. 19 de outubro de 2016

Resolução de sistemas de equações não-lineares: Método de Newton

Existência e otimalidade de pontos extremos

Resolução de sistemas de equações lineares: Método de eliminação de Gauss - estratégias de pivotamento

Marina Andretta. 10 de outubro de Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis.

Lema de Farkas e desigualdades lineares

Regras para evitar ciclagem

Otimização Multiobjetivo

Algoritmos de aproximação - Método primal-dual

Teoremas de dualidade

Condições de qualificação, otimalidade e um método tipo lagrangiano aumentado

Notações e revisão de álgebra linear

Determinação numérica de autovalores e autovetores: Método das Potências Inversas

Capítulo 5 - Optimização Não-Linear

Método de Quadrados Mínimos: Caso discreto

Resolução de sistemas de equações lineares: Fatorações de matrizes

Multiplicadores de Lagrange

ELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES NUMÉRICOS

Programação Linear - Parte 5

Interpolação polinomial: Diferenças divididas de Newton

DEPARTAMENTO DE ENGENHARIA MECÂNICA

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

OTIMIZAÇÃO E DESPACHO ECONÔMICO

Programação Linear M É T O D O S : E S T A T Í S T I C A E M A T E M Á T I C A A P L I C A D A S D e 1 1 d e m a r ç o a 2 9 d e a b r i l d e

Um algoritmo sem derivadas para otimização restrita

Combinando inequações lineares

Resolução de sistemas de equações lineares: Fatorações de matrizes

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

Resolução de sistemas de equações lineares: Fatorações de matrizes

Combinando inequações lineares

Cálculo Numérico BCC760

Otimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana

Departamento de Matemática da Universidade de Coimbra. Licenciatura em Matemática. e B =

Métodos iterativos para sistemas lineares.

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

OPTIMIZAÇÃO NÃO LINEAR

SME306 - Métodos Numéricos e Computacionais II Prof. Murilo F. Tomé. (α 1)z + 88 ]

Aula 18. Método Multiplicadores Lagrange (continuação)

Condições geométricas de otimalidade

Determinação numérica de autovalores e autovetores: Método de Jacobi

Determinação de Uma Solução Básica Factível Inicial

Programação Linear. MÉTODOS QUANTITATIVOS: ESTATÍSTICA E MATEMÁTICA APLICADAS De 30 de setembro a 13 de novembro de 2011 prof. Lori Viali, Dr.

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

Condições de otimalidade de primeira e segunda ordem em otimização não linear

Resolução de sistemas de equações lineares: Método de eliminação de Gauss - estratégias de pivotamento

Aula 07: Análise de sensibilidade (2)

Interpolação polinomial: Diferenças divididas de Newton

Cálculo II. Resumo e Exercícios P3

Programação Linear - Parte 3

Teoria dos Grafos. Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada.

MAT-2454 Cálculo Diferencial e Integral II EP-USP

Método Preditor-Corretor Aplicado ao Fluxo de Carga Ótimo com Correções Não-lineares nas Condições de Otimalidade

Determinação de raízes de polinômios: Método de Briot-Ruffini-Horner

Transcrição:

Método do Lagrangiano aumentado Marina Andretta ICMC-USP 23 de novembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 1 / 17

Problema com restrições gerais Vamos agora resolver problemas de programação não-linear geral Minimizar f (x) sujeita a h(x) = 0 g(x) 0 x Ω, (1) onde Ω = {x IR n h(x) = 0 e ḡ(x) 0}, x IR n, f : IR n IR, h : IR n IR m, g : IR n IR p, h : IR n IR m, ḡ : IR n IR p, f, h, g, h, ḡ funções suaves. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 2 / 17

A função de Lagrangiano aumentado Powell-Hestenes-Rockafellar (PHR) é dada por [ h(x) L ρ (x, λ, µ) = f (x) + ρ 2 + λ ρ 2 ( ) + g(x) + µ ρ + 2], com a + = max{0, a}, ρ > 0, λ IR m, µ IR p +. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 3 / 17

O escalar ρ é chamado de parâmetro de penalidade. Os vetores λ e µ são os multiplicadores de Lagrange associados às restrições de igualdade e desigualdade, respectivamente. Note que a função de Lagrangiano aumentado penaliza as restrições h e g que não são satisfeitas pelo ponto x. Quanto maior o valor do parâmetro ρ, mais penalizadas são as restrições não satisfeitas. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 4 / 17

Método de Lagrangiano aumentado: Dados x 0 IR n, λ 0 IR m, 0 < µ 0 IR p, escalar ρ 0 > 0. Passo 1: Faça k 0. Passo 2: Se x k é solução do problema original (1), pare. Passo 3: Com os valores de λ k, µ k e ρ k fixos, resolva aproximadamente o subproblema Minimizar L ρk (x, λ k, µ k ) sujeita a x Ω, Passo 4: Atualize multiplicadores λ k+1, µ k+1 > 0 e parâmetro de penalidade ρ k+1 > 0. Passo 5: Faça k k + 1 e volte para o passo 2. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 5 / 17

Note que, no passo 3 do método de Lagrangianos aumentados, é necessário resolver um problema de minimização restrito ao conjunto Ω. Por isso, Ω é escolhido como um conjunto de restrições fáceis. Quando dizemos que Ω é um conjunto de restrições fáceis, queremos dizer que existem métodos eficientes para resolver problemas restritos ao conjunto Ω. Vamos considerar o caso em que Ω = {x IR n l x u}. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 6 / 17

No passo 3, quando dizemos que se deve resolver o subproblema aproximadamente, queremos dizer que, dada uma sequência de ɛ k 0, deve ser usado um método para resolver o subproblema que termine com um ponto x k tal que x k Ω e P Ω (x k L ρk (x k, λ k, µ k )) x k ɛ k, com P Ω projeção ortogonal em Ω. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 7 / 17

Atualização dos multiplicadores de Lagrange Em implementações práticas do método de Lagrangiano aumentado, calculamos λ k+1 i = min{max{λ min, λ k i + ρ k h i (x k )}, λ max } µ k+1 i = min{max{0, µ k i + ρ k g i (x k )}, µ max }. Estas são estimativas de primeira ordem dos multiplicadores de Lagrange com salvaguardas. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 8 / 17

Atualização dos multiplicadores de Lagrange As salvaguardas definidas por λ min, λ max e µ max (λ min < λ max e µ max > 0) são necessárias para provar resultados de convergência global. Sem estas salvaguardas são necessárias hipóteses fortes sobre o problema para garantir a limitação dos parâmetros de penalidade. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 9 / 17

Atualização do parâmetro de penalidade Defina V k i { } = max g i (x k ), µk i ρ k, i = 1,..., p. A atualização do parâmetro de penalidade ρ é feita da seguinte maneira: Se k = 0, faça ρ k+1 ρ k. Se max{ h(x k ), Vi k } τ max{ h(x k 1 ), V k 1 i }, com 0 < τ < 1, faça ρ k+1 ρ k. Caso contrário, faça ρ k+1 γρ k, para γ > 1. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 10 / 17

Convergência Teorema 1: Seja {x k } a sequência gerada pelo método de Lagrangiano aumentado. Seja x o ponto limite de {x k }. Então, se a sequência de parâmetros de penalidade {ρ k } for limitada, o ponto limite x é viável. Caso contrário, x é um ponto KKT do problema 1 [ Minimizar m 2 i=1 [h(x)]2 i + p i=1 max{0, [g(x)]2 i }] sujeita a x Ω. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 11 / 17

Convergência Teorema 2: Seja {x k } a sequência gerada pelo método de Lagrangiano aumentado. Suponha que x seja um ponto limite viável do problema (1). Então, x é um ponto KKT do problema (1). Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 12 / 17

Há várias vantagens no uso de métodos de Lagrangiano aumentado. Algumas delas são: Progresso na análise e implementação de métodos de otimização eficientes para resolver problemas simples produzem um efeito positivo quase imediato na eficiência e robustez dos métodos de Lagrangiano aumentado correspondentes. Minimização global dos subproblemas implica em convergência a minimizadores globais do método de Lagrangiano aumentado. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 13 / 17

Em vários problemas práticos, a Hessiana do Lagrangiano é uma matriz estruturalmente densa (ou seja, qualquer entrada pode ser diferente de zero para Hessianas calculadas em diferentes pontos) mas geralmente esparsa (dado um ponto no domínio, a Hessiana do Lagrangiano neste ponto é esparsa). Métodos Newtonianos geralmente têm dificuldades em problemas deste tipo, tanto em termos de memória como em termos de tempo computacional, pois o padrão de esparsidade muda a cada iteração. Esta dificuldade é praticamente irrelevante para métodos do tipo Lagrangiano aumentado que utilizam subalgoritmos que necessitam de pouca memória. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 14 / 17

Independentemente da densidade da Hessiana do Lagrangiano, a estrutura do sistema KKT pode ser muito ruim para fatorações esparsas. Este é um problema grave para métodos Newtonianos, mas não para boas implementações de métodos de Lagrangiano aumentado baseados na formulação PHR. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 15 / 17

Se o problema de programação não-linear possui muitas restrições de desigualdade, o uso de variáveis de folga feito por métodos de pontos interiores pode não ser conveniente. Há várias maneiras de reduzir os efeitos causados por muitas variáveis de folga, mas eles podem não ser tão efetivos como não usar variáveis de folga. A desvantagem de não usar variáveis de folga é a ausência de segundas derivadas contínuas da função de Lagrangiano aumentado. Em muitos casos, isto não se mostra um inconveniente na prática. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 16 / 17

Problemas de grande porte têm a desvantagem óbvia em termos de necessidade de armazenamento. Métodos do tipo Lagrangiano aumentado apresentam uma solução: dados do problema podem ser computados apenas quando necessários, usados quando preciso para os subproblemas, sem nenhum armazenamento. Isto não é possível quando se usam métodos matriciais, independentemente da estratégia de esparsidade adotada. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 17 / 17