Algoritmos para resolução de problemas de minimização irrestrita

Documentos relacionados
Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright.

Métodos para resolver problemas de otimização restrita

Método de restrições ativas para minimização em caixas

Método de Newton truncado

Método dos gradientes (ou método de máxima descida)

Resolução de problemas com apenas restrições lineares de igualdade

Método do Lagrangiano aumentado

Resolução de sistemas de equações lineares: Método do Gradiente

Método de restrições ativas para minimização com restrições lineares

Resolução de sistemas de equações não-lineares: Método Iterativo Linear

Resolução de sistemas de equações não-lineares: Método Iterativo Linear

Resolução de sistemas de equações não-lineares: Método de Newton

Método de Newton modificado

Método do Ponto Fixo

Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados

Marina Andretta. 02 de agosto de 2010

Optimização. Carlos Balsa. Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança

Marina Andretta/Franklina Toledo. 18 de outubro de Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires.

Marina Andretta. 9 de agosto de Baseado em problemas presentes em

Interpolação polinomial: Diferenças divididas de Newton

Marina Andretta. 18 de outubro de 2010

Marina Andretta. 10 de outubro de Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis.

Método Simplex. Marina Andretta ICMC-USP. 19 de outubro de 2016

Determinação de raízes de polinômios: Método de Briot-Ruffini-Horner

Degenerescência. Marina Andretta ICMC-USP. 19 de outubro de 2016

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

Determinação de raízes de polinômios: Método de Briot-Ruffini-Horner

Teoria de dualidade. Marina Andretta ICMC-USP. 19 de outubro de 2016

Capítulo 5 - Optimização Não-Linear

Poliedros na forma padrão

Métodos de Runge-Kutta

Interpolação polinomial: Polinômio de Lagrange

Método das Secantes. Marina Andretta/Franklina Toledo ICMC-USP. 4 de setembro de 2012

Cones e raios extremos

Determinação numérica de autovalores e autovetores: Método das Potências Inversas

Método de Quadrados Mínimos: Caso discreto

Teoremas de dualidade

Determinação numérica de autovalores e autovetores: Método das Potências Inversas

SME0300 Cálculo Numérico Aula 6

Prof. MSc. David Roza José 1/35

SME306 - Métodos Numéricos e Computacionais II Prof. Murilo F. Tomé. (α 1)z + 88 ]

Marina Andretta. 29 de setembro de 2014

Representação de poliedros

SME Roberto F. Ausas / Gustavo C. Buscaglia

Algoritmos de aproximação - Método primal-dual

Interpolação polinomial: Diferenças divididas de Newton

SME0300 Cálculo Numérico Aula 11

Regras para evitar ciclagem

Cálculo Numérico. Aula 6 Método das Secantes e Critérios de Parada /04/2014

Métodos iterativos para sistemas lineares.

Método Simplex dual. Marina Andretta ICMC-USP. 24 de outubro de 2016

Determinação numérica de autovalores e autovetores: Método de Jacobi

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

Processamento de Imagens CPS755

Encontre um valor aproximado para 3 25 com precisão de 10 5 utilizando o método da bissecção.

Pontos extremos, vértices e soluções básicas viáveis

Cálculo Numérico. Santos Alberto Enriquez-Remigio FAMAT-UFU 2015

SME0300 Cálculo Numérico Aula 4

Como resolver o QFEMUP usando otimização

Modelagem Computacional. Parte 8 2

Séries Alternadas. São as séries cujos termos se alternam entre positivos e negativos. Por exemplo, ( 1) k+1 1 k =

Existência e otimalidade de pontos extremos

Neste capítulo estamos interessados em resolver numericamente a equação

Ana Paula. October 26, 2016

Modelagem Computacional. Parte 2 2

Resolução de sistemas de equações lineares: Fatorações de matrizes

Modelagem Computacional. Parte 7 2

Prof. Lorí Viali, Dr. PUCRS FAMAT: Departamento de Estatística. Curso: Engenharia de Produção

Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b

Sist. de equações não-lineares e problemas de empacotamento

Um algoritmo sem derivadas para otimização restrita

Parte 1: Exercícios Teóricos

Marina Andretta/Franklina Toledo. 25 de outubro de 2013

BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017

SISTEMAS LINEARES PROF. EDÉZIO

Cálculo Numérico. Sistemas lineares Métodos Iterativos: Introdução Método Iterativo de Jacobi-Richardson

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

Cálculo Numérico. Zeros de funções reais

CAP. II RESOLUÇÃO NUMÉRICA DE EQUAÇÕES NÃO LINEARES

Lista de Exercícios de Métodos Numéricos

Cálculo Numérico / Métodos Numéricos. Solução de equações polinomiais Briot-Ruffini-Horner

Introdução aos Métodos Numéricos

Lema de Farkas e desigualdades lineares

Métodos Previsor-Corretor

SME Cálculo Numérico. Lista de Exercícios: Gabarito

Representação e erros numéricos

LUCAS PALMA SILVA MÉTODO DE NEWTON E BACIAS DE

Resolução de sistemas de equações lineares: Fatorações de matrizes

Equações Não Lineares. 35T12 Sala 3G4 Bruno Motta de Carvalho DIMAp Sala 15 Ramal 227

Representação e erros numéricos

Instruções, dados e expressões

Resolução de sistemas de equações lineares: Fatorações de matrizes

Como modelar um problema de nesting com rotações livres

Prof. MSc. David Roza José 1/37

Algoritmos de aproximação - Problema de cobertura por conjuntos

Disciplina: Cálculo Numérico IPRJ/UERJ. Sílvia Mara da Costa Campos Victer. Aula 6 - Solução de Sistema de Equações Algébricas

Vetores. Marina Andretta. 11 de abril de 2016 ICMC-USP. Marina Andretta (ICMC-USP) sme0230-ipc 11 de abril de / 20

Cálculo Numérico. Resumo e Exercícios P1

Algoritmos de aproximação - Problema do caixeiro viajante

Transcrição:

Algoritmos para resolução de problemas de minimização irrestrita Marina Andretta ICMC-USP 10 de agosto de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 1 / 16

Algoritmos para minimização irrestrita Veremos agora um resumo dos algoritmos existentes mais comuns para resolução de problemas de minimização irrestrita, ou seja, Minimizar f (x) (1) onde x IR n ; f IR n IR uma função suave. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 2 / 16

Algoritmos para minimização irrestrita Todos os algoritmos para resolução de problemas de minimização irrestrita precisam de um ponto inicial x 0. O usuário com conhecimento da aplicação e do conjunto de dados referente ao problema a ser resolvido pode fornecer uma boa aproximação x 0 para a solução do problema. Quando uma boa aproximação não é conhecida, um ponto arbitrário pode ser escolhido como x 0. Iniciando em x 0, algoritmos de otimização geram uma sequência de iterandos {x k } k=0 que termina quando não é mais possível obter progresso ou quando uma solução é encontrada com precisão suficiente. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 3 / 16

Algoritmos para minimização irrestrita Para decidir como mover de um ponto x k para o próximo, algoritmos usam a informação de f em x k e, possivelmente, informação sobre os iterandos anteriores x 0, x 1,..., x k 1. Eles usam esta informação para calcular o novo iterando x k+1 com valor de função menor do que x k. Existem algoritmos não-monótonos, que não exigem que o valor da função decresça a cada iteração. Mas mesmo estes algoritmos exigem que o valor da função descresça depois de um número fixo m de iterações. Há duas estratégias fundamentais para se mover do ponto x k para o próximo iterando x k+1 : busca linear e regiões de confiança. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 4 / 16

Estratégia de busca linear Na estratégia de busca linear, o algoritmo calcula uma direção p k e busca ao longo desta direção, a partir de x k, um ponto x k+1 com valor de função menor do que x k. A distância a se mover ao longo de p k pode ser encontrada resolvendo-se a proximadamente o problema unidimensional Minimizar α>0 f (x k + αp k ). (2) Resolvendo este problema exatamente, obteríamos o ponto com melhor valor de função na direção p k (a partir de x k ). Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 5 / 16

Estratégia de busca linear No entanto, resolver (2) de maneira exata é custoso e desnecessário. Em vez disso, o algoritmo de busca linear gera um número limitado de tentativas de tamanho de passo até que encontre um α k que aproxima a solução do problema (2). O novo iterando passa a ser x k+1 = x k + α k p k. A partir do novo ponto calculado x k+1, uma nova direção p k+1 é calculada, uma nova busca pelo tamanho de passo é feita e um novo iterando é calculado. Este processo é repetido até que uma solução para o problema original (1) seja encontrada. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 6 / 16

Estratégia de regiões de confiança Na estratégia de regiões de confiança, a informação obtida sobre a função f é usada para construir uma função modelo m k, cujo comportamento perto do ponto x k é parecido com o comportamento de f. Como o comportamento de m k pode não ser similar ao comportamento de f em pontos distantes de x k, restringimos a busca por um minimizador de m k a uma região em torno de x k. Em outras palavras, calculamos o candidato a passo p resolvendo aproximadamente o problema Minimizar p m k (x k + p), (3) com x k + p pertencente à região de confiança. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 7 / 16

Estratégia de regiões de confiança Calculado o passo p, verifica-se se o ponto x k + p produz decréscimo suficiente da função f. Em caso negativo, entende-se que a região de confiança está muito grande, então ela é diminuida e calcula-se novamente uma solução aproximada para (3). Se o decréscimo produzido na função objetivo f for suficiente, o próximo iterando passa a ser x k+1 = x k + p. O processo é repetido até que uma solução para o problema original (1) seja encontrada. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 8 / 16

Estratégia de regiões de confiança Geralmente, a região de confiança é a bola dada por p, com > 0. é chamado de raio da região de confiança. Regiões eĺıpticas ou com formato de caixa também podem ser usadas. O modelo m k geralmente é definido como uma função quadrática da forma m k (x k + p) = f k + p T f k + 1 2 pt B k p, com f k = f (x k ), f k = f (x k ) e B k uma aproximação (ou a própria) Hessiana de f em x k. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 9 / 16

Diferenças entre as duas estratégias Note que, quando o tamanho da região de confiança é mudado, a direção a ser calculada muda, diferentemente do que acontece com a estratégia de busca linear - na qual, uma vez calculada a direção, apenas o tamanho de passo é modificado. Basicamente, as estratégias de busca linear e regiões de confiança diferem na ordem em que calculam a direção e o distância de x k para x k+1. A busca linear começa fixando uma direção e, então, calcula a distância apropriada que x k deve ter de x k+1 (ou seja, o tamanho de passo α k ). Em regiões de confiança, primeiro determina-se a maior distância permitida entre x k e x k+1 (ou seja, o raio da região de confiança k ). Então, calcula-se o passo que será dado, a partir de x k, para calcular x k+1, Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 10 / 16

Ordem de convergência Uma das maneiras de medir a performance de um algoritmo é calcular sua ordem de convergência. Seja {x k } a sequência em IR n que converge a x. Dizemos que a convergência é Q-linear se existe uma constante r (0, 1) tal que x k+1 x x k x r, para todo k suficientemente grande. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 11 / 16

Ordem de convergência Isto significa que a distância à solução x diminui a cada iteração de, pelo menos, um fator constante. Por exemplo, a sequência 1 + (0.5) k converge Q-linearmente a 1. O prefixo Q vem de quociente, já que o tipo de convergência é definido em termos dos quocientes dos erros sucessivos. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 12 / 16

Ordem de convergência A convergência é dita Q-superlinear se lim k x k+1 x x k x = 0. Por exemplo, a sequência 1 + k k converge Q-superlinearmente para 1. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 13 / 16

Ordem de convergência A convergência é dita Q-quadrática se x k+1 x x k x 2 M, para todo k suficientemente grande. M é uma constante positiva, não necessariamente menor do que 1. Por exemplo, a sequência 1 + (0.5) 2k converge Q-quadraticamente para 1. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 14 / 16

Ordem de convergência A velocidade de convergência depende de r e, mais fracamente, de M. Estes valores dependem não só do algoritmo, mas das propriedades do problema particular. No entanto, independentemente destes valores, uma sequência Q-quadraticamente convergente sempre convergirá, a partir de um momento, mais rápido do que uma sequência Q-linearmente convergente. Obviamente, se uma sequência converge Q-quadraticamente, ela também converge Q-superlinearmente. E se uma sequência converge Q-superlinearmente, ela também converge Q-linearmente. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 15 / 16

Ordem de convergência Estas são as ordens de convergência mais usadas na prática. Mais geralmente, dizemos que a Q-ordem de convergência de uma sequência é p (para p > 1) se existe uma constante positiva M tal que x k+1 x x k x p M, para todo k suficientemente grande. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 16 / 16