)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD

Documentos relacionados
BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

II. Funções de uma única variável

Método do Lagrangiano aumentado

II Seminário da Pós-graduação em Engenharia Elétrica

Optimização. Carlos Balsa. Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança

Métodos Numéricos. MEI - Logística e distribuição Optimização não linear com restrições de igualdade 2004/2005

Departamento de Matemática da Universidade de Coimbra. Licenciatura em Matemática. e B =

Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright.

DEPARTAMENTO DE ENGENHARIA MECÂNICA

Otimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana

Capítulo 5 - Optimização Não-Linear

Métodos de Pesquisa Operacional

Métodos Numéricos. MEI - Logística e distribuição Programação quadrática sequencial 2004/2005. A. Ismael F. Vaz - Departamento de Produção e Sistemas

Otimização Aplicada à Engenharia de Processos

MÉTODOS DE OTIMIZAÇÃO ENE081

Alocação de Unidades via Relaxação Lagrangeana

Método de Newton truncado

ENG-418 OTIMIZAÇÃO DE PROCESSOS QUÍMICOS

Anderson Pereira. Projeto ótimo de pórticos planos com restrição à flambagem

Resolvendo algebricamente um PPL

Métodos para resolver problemas de otimização restrita

INTRODUÇÃO AOS MÉTODOS NUMÉRICOS. Solução de Sistemas Lineares

2 Análise do Colapso de Estruturas através do Método dos Elementos Finitos

Cálculo Numérico BCC760

4.1 Resolvendo o Sistema Linear

Universidade Federal do Espírito Santo - UFES

Aula 10 Sistemas Não-lineares e o Método de Newton.

1 Otimização com restrições I: Condições de Primeira Ordem

OTIMIZAÇÃO ESTRUTURAL MEDIANTE PROGRAMAÇÃO SEMIDEFINIDA. Elmer Giovanni Bazán Córdova

Redes Neurais e Sistemas Fuzzy

OTIMIZAÇÃO E DESPACHO ECONÔMICO

pontos: f(1)=2, f(2)=3, f(3)=5, f(5)=10 e f(6)=30.

Alexey Izmailov Mikhail Solodov VOLUME II MÉTODOS COMPUTACIONAIS. Rio de Janeiro 2 007

Método dos gradientes (ou método de máxima descida)

Lista 7.4 Optimização com Restrições de Desigualdade

Prof. Lorí Viali, Dr. PUCRS FAMAT: Departamento de Estatística. Curso: Engenharia de Produção

Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b

4 Fundamentos Teóricos

Erasmo Tales Fonseca FDIPA - Algoritmo de Pontos Interiores e Direções Viáveis para Otimização Não-Linear Diferenciável: Um Estudo de Parâmetros

Despacho Econômico Considerando as Perdas de Transmissão

OPTIMIZAÇÃO DE ESTRUTURAS

Introdução à Otimização de Processos. Prof. Marcos L Corazza Departamento de Engenharia Química Universidade Federal do Paraná

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

(x n + tv n) dxn df. (x n ) dxn. = Df(x) v derivada de f em x na direção. v n. (x ): Apenas a derivada parcial em

Máquinas de Vetores de Suporte

EEL 7100 Despacho Econômico de Unidades Térmicas Parte 1

3 Aprendizado por reforço

Aula 22: Formulações com número exponencial de variáveis

INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o

Benemar Alencar de Souza

Programação Linear - Parte 5

Máximos e mínimos (continuação)

SME0300 Cálculo Numérico Aula 11

Aplicação do Método de Barreira Logarítmica na Resolução de um Problema de Programação Linear.

MAT-2454 Cálculo Diferencial e Integral II EP-USP

étodos uméricos ZEROS DE FUNÇÕES DE UMA OU MAIS VARIÁVEIS Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

2. Redes Neurais Artificiais

OTIMIZAÇÃO. O processo de otimização normalmente involve a procura de pontos de máximos e mínimos de uma função.

Como resolver o QFEMUP usando otimização

Otimização Multiobjetivo

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

étodos uméricos ZEROS DE FUNÇÕES Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

Programação de Matemática: Teoria, Algoritmos e Aplicações na Engenharia. Luiz Eloy Vaz Anderson Pereira Ivan F. Menezes

INTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL. Aula 04 Prof. Vitor Hugo Ferreira

Resolução de problemas com apenas restrições lineares de igualdade

Andréa Maria Pedrosa Valli

OPTIMIZAÇÃO NÃO LINEAR EM REDES

MODELAGEM DA IONOSFERA COM INJUNÇÃO DE DESIGUALDADE

3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução

4 Métodos Existentes. 4.1 Algoritmo Genético

Otimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana

Capítulo 4 - Equações Não-Lineares

Modelagem Computacional. Parte 8 2

C alculo Num erico Ra ızes de Equa c oes Ana Paula Ana Paula C alculo Num erico

Prof. MSc. David Roza José 1/37

Otimização Escalar e Vetorial

Lucia Catabriga e Andréa Maria Pedrosa Valli

UNIVERSIDADE FEDERAL UBERLÂNDIA FACULDADE DE ENGENHARIA QUÍMICA CAROLINA ALARI FARIA

5. Formulação Matemática do Modelo

Resolução de sistemas de equações não-lineares: Método de Newton

III Seminário da Pós-graduação em Engenharia Elétrica

Disciplina: Cálculo Numérico IPRJ/UERJ. Sílvia Mara da Costa Campos Victer. Aula 6 - Solução de Sistema de Equações Algébricas

SISTEMAS LINEARES PROF. EDÉZIO

Exercícios sobre zeros de funções Aula 7

Método de Newton modificado

UNIVERSIDADE FEDERAL DE PERNAMBUCO Lista de Exercícios / Cálculo Numérico 1ª Unidade

Algoritmos para resolução de problemas de minimização irrestrita

SUPPORT VECTOR MACHINE - SVM

Algebra Linear. 1. Ortonormalização. 2. Sistema de Equações Lineares. pag.1 Teoria de Sistemas Lineares Aula 6. c Reinaldo M.

MAT Cálculo 2 para Economia 3 a Prova - 28 de novembro de 2016

3 Modelos matemáticos e formulação numérica

Faculdade de Engenharia Optimização. Prof. Doutor Engº Jorge Nhambiu

Cálculo Diferencial e Integral 2 Formas Quadráticas

Teoria de dualidade. Marina Andretta ICMC-USP. 19 de outubro de 2016

Universidade de Coimbra Departamento de Engenharia Electrotecnica e Computadores Matemática Computacional

UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL FACULDADE DE CIÊNCIAS ECONÔMICAS DEPARTAMENTO DE ECONOMIA E RELAÇÕES INTERNACIONAIS DANIEL DE SALES CASULA

Universidade Federal de Santa Maria Centro de Ciências Naturais e Exatas Departamento de Física Laboratório de Teoria da Matéria Condensada

SME0300 Cálculo Numérico Aula 4

Transcrição:

)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD,QWURGXomR A grande maioria dos problemas de engenharia pode ser solucionado de diferentes formas, uma vez que um número muito grande de soluções atende aos critérios e normas previamente estabelecidas. Desta forma seria exigido um número muito grande de repetições nos cálculos para a obtenção dos valores ideais. Porém, com a descrição, através de funções matemáticas, do comportamento da estrutura pode-se determinar os valores extremos dessas funções com a utilização de técnicas de programação matemática. A programação matemática trata da obtenção de valores extremos, máximos ou mínimos, para funções em problemas sujeitos ou não a restrições. Este capítulo apresenta de forma sucinta os conceitos básicos de programação matemática, como a descrição de um problema de programação matemática e condições de ótimo. Descreve-se também o algoritmo de pontos interiores empregado no trabalho na etapa de otimização. &RQFHLWRVEiVLFRV Um problema de otimização, no caso minimização, pode ser escrito de forma geral da seguinte maneira:

74 LQLPL]DU I ([) n [ R VXMHLWRD F ([) = L = 1... O F ([) L = O + 1... P [ [ [ L = 1... Q (6.1) Onde, I ([) é a função a ser minimizada designada de função objetivo, [ é um ponto do n R, ( ) F [ são chamadas restrições do problema e representam as restrições de igualdade e de desigualdade. Supõe-se que tanto a função objetivo quanto as restrições são funções contínuas no n R. Em geral, elas são funções não lineares e implícitas das variáveis [ que definem o problema, entretanto, podem ser funções lineares e as variáveis de projeto [ serem explícitas. Os valores limites que podem ser assumidos pelas variáveis de projeto são denotados pelos superescritos O e por X sendo estes, respectivamente, os limites inferior e superior. Um ponto que satisfaça todas as restrições é denominado ponto viável e o conjunto de todos os pontos que satisfaçam todas as restrições é conhecido como região viável ou região factível. Uma restrição de desigualdade define uma fronteira que divide o n R em uma região factível e outra não factível. Quando um ponto está sobre esta fronteira, a restrição é dita ativa, quando um ponto está no interior da região viável, a restrição é dita inativa e, quando um ponto está fora desta região, a restrição está violada. &RQGLo}HVGHyWLPR As condições de ótimo do problema de programação matemática enunciado em (6.1) são chamadas de condições de Kuhn-Tucker e são descritas por (6.2). A solução [ do problema enunciado em (6.1) deve obrigatoriamente atender às condições de Kuhn-Tucker.

75 / [ = (, O ) F ([ ) = L = 1... O F ([ ) = + 1... L O P λ = + 1... L O P (6.2) onde λ F ([ ) = L /([, O ) é a função lagrangiana dada pela seguinte expressão: ([ ) = I ([ ) + λ F ([ ) / = 1 (6.3) λ são os multiplicadores de Lagrange associados às restrições no ponto solução e é o operador gradiente em relação às variáveis [. [ da As condições de Kuhn-Tucker também são chamadas de condições de primeira ordem. Para problemas de programação convexa, tais como programação linear e programação quadrática as condições de Kuhn-Tucker são suficientes para a determinação de uma solução ótima global. Entretanto, se o problema não é de programação convexa, as condições de primeira ordem não são suficientes para a determinação da solução ótima global. Deve-se então ser verificada a condição de segunda ordem. A expressão (6.4) representa a condição de segunda ordem de Kuhn-Tucker. Onde: G : G, G (6.4) Neste caso, : 2 /([, = [ [ λ : a matriz Hessiana da função Lagrangiana em definida no ponto ótimo para qualquer direção viável G. ) (6.5) [ é positiva

76 )RUPDJHUDOGRVDOJRULWPRVGHSURJUDPDomRPDWHPiWLFD Os algoritmos de programação matemática são baseados em procedimentos iterativos que necessitam de valores iniciais para as variáveis de projeto. Após a especificação desses valores, os valores das variáveis são atualizados pela seguinte expressão: [ = [ + WG (6.6) Na expressão (6.6) G representa a direção de busca, que deve ser também uma direção de descida nos problemas de minimização. O parâmetro escalar W representa o tamanho do passo a ser dado ao longo da direção de busca. Observase que um problema de Q variáveis, passa a ser tratado como um problema unidimensional, função do escalar W após a determinação da direção de busca. O ponto obtido definirá um novo vetor [. Todo o procedimento é repetido a partir do novo ponto, até que um critério de convergência, pré-estabelecido seja atendido. Dessa maneira, os algoritmos podem ser divididos em duas etapas principais: a primeira etapa é a determinação da direção de busca G e a segunda é a avaliação do parâmetro escalar W. As técnicas de programação matemática variam predominantemente pela forma como são determinados G e W De acordo com as informações necessárias para a obtenção da direção de busca podemos classificar os algoritmos de programação matemática como sendo de primeira ou de segunda ordem. Os algoritmos de primeira ordem são os que utilizam apenas os gradientes da função objetivo e das restrições. Os de segunda ordem são os que fazem uso das Hessianas dessas funções. $OJRULWPRGHSRQWRVLQWHULRUHV O algoritmo de pontos interiores, desenvolvido por HERSKOVITZ (1995), baseia-se na aplicação do método de Newton para a solução de um sistema de equações não lineares obtidas a partir da aplicação das condições de Kuhn-Tucker no problema de otimização. Dado o fato desse trabalho tratar somente de

77 restrições de desigualdade, as restrições de igualdade serão desconsideradas e, portanto, não estarão presentes na descrição do algoritmo. Salienta-se, porém, que o mesmo tratamento dispensado às restrições de desigualdade pode ser dado às restrições de igualdade. O algoritmo de pontos interiores apresenta duas características bastante importantes que favorecem sua utilização. A primeira propriedade do algoritmo é que este gera pontos ou soluções intermediárias no interior da região viável. A segunda propriedade, que decorre da primeira, é o fato de que se, por alguma razão, o algoritmo for interrompido antes de alcançar o ponto de ótimo, tem-se um ponto viável e com um valor da função objetivo inferior ao anterior. Isso se deve ao fato de cada ponto intermediário gerar valores decrescentes para a função objetivo. Com essas considerações pode-se descrever o problema de otimização da seguinte forma: PLQLPL]DU I ([) VXMHLWRD F ([) L = 1... P Cujas condições de Kuhn-Tucker são: (6.7) J + λ D = = 1 λ F [ = ( ) F [ ( ) (6.8) λ onde J é o vetor gradiente da função objetivo, D os gradientes das restrições avaliadas no ponto corrente [. Sendo $ a matriz dos gradientes das restrições e & uma matriz diagonal contendo os valores das restrições, descrevem-se as duas primeiras equações de (6.8) como: J + $ O = &O = (6.9)

" 78 Aplicando o método de Newton para resolver o problema acima, obtém-se o sistema de equações lineares: : $ G J = / $ & O (6.1) Na equação (6.1), / é uma matriz diagonal para a qual / ii = λ i, G é a direção de busca, O é a estimativa dos multiplicadores de Lagrange e : é a hessiana da função Lagrangiana. G e são solução do sistema. A direção de busca encontrada com a solução de (6.1) pode apontar para uma direção não viável. Fazendo-se a expansão de uma das equações da parte inferior do sistema (6.1), chega-se a: λ D G + F λ = (6.11) A equação (6.11) implica que D G = para todo L tal que F! =. Significando geometricamente, que G é tangente às restrições ativas, podendo apontar para fora da região viável no caso de restrição convexa. Uma forma de se evitar este efeito é adicionar uma constante negativa ao lado direito da equação acima: λ## D G + F#$# λ = ρλ# (6.12) Este procedimento faz com que a direção original seja defletida, de um valor proporcional a ρ, para o interior da região viável. Sendo a deflexão proporcional a ρ e sendo G uma direção de decréscimo de I, é possível encontrar limites em ρ para que G também seja uma direção de decréscimo. Isto é possível através de: " " N% J G J G (6.13) Para N& (; 1). Em geral, a taxa de decréscimo de I ao longo de G é menor que ao longo de G. Considerando agora um sistema auxiliar expresso por:

' ( 79 É possível demonstrar que: : $ G1 J = / $ & O O (6.14) 1 e: G G + ρg 1 (6.15) O O + ρo 1 Substituindo-se (6.15) em (6.13) pode-se escrever: (6.16) J G ρ ( N) -1) ( J G (6.17) Após a definição da direção de busca faz-se uma busca linear ao longo dessa direção, de forma que seja garantido que o ponto encontrado esteja no interior da região viável. 1 (WDSDVGR$OJRULWPRGH3RQWRV,QWHULRUHV Como já mencionado o algoritmo de pontos interiores necessita de um ponto inicial. Como o algoritmo é de pontos interiores, ou seja os pontos são viáveis, o ponto inicial [ também deve ser viável. Também são necessárias estimativas iniciais dos multiplicadores de Lagrange tais que λ+ >, e da matriz % simétrica e positiva definida, para se obter a aproximação inicial de :. De acordo com HERSKOVITS & SANTOS (1997), após a determinação dos valores iniciais dos vetores ( G, O) o algoritmo segue os seguintes passos: 1. Cálculo da direção de busca G: Faz-se a verificação do critério de convergência, utilizando a expressão (6.18). G WRO (6.18)

, - 8 Caso o critério de convergência seja atendido, parar o algoritmo. Caso contrário, determinam-se os vetores ( G1, O 1) através da solução do sistema linear descrito por (6.14). Calcula-se o valor de ρ por (6.19),,, 2 VHJ G1 >, HQWDR ρ PLQ N- G,( N. 1) J G / J G 1 2 VHJ G1, HQWDR ρ N G Sendo N / uma constante escalar pré definida e estritamente positiva. (6.19) Calcula-se a direção de busca G: E G G + ρg 1 (6.2) 2. Busca linear sobre G: O O + ρo 1 Determina-se o tamanho do passo WWDOTXH (6.21) e o novo ponto [ F F ([ + WG), VH ([ + WG) F ([), _ λ _ VH λ < (6.22) 3. Atualização da matriz %: [ = [ 1 + WG (6.23) É realizada a atualização da matriz % (aproximação da matriz Hessiana da função Lagrangeana :), através do método BFGS (Broyden - Fletcher - Goldfarb - Shanno). A aproximação % da matriz Hessiana : da função Lagrangeana % é dada pela seguinte função: % = E2, (6.24) Onde E 3 é um parâmetro definido pelo usuário do algoritmo. Para maior estabilidade do processo numérico o esquema BFGS de aproximação da matriz Hessiana deve ser reinicializado após um número Q 4 de iterações,

5 81 definido pelo usuário. Segundo PARENTE (2) o reinício de % serve para descartar a influência de pontos muito distantes do ponto corrente. 4. Nova estimativa para os multiplicadores de Lagrange através da expressão (6.25): λ6 = max λ, N7 Sendo N e uma constante escalar pré definida e estritamente positiva. G 2 (6.25) 5. Fazer [ igual a [ 8 e retornar ao passo 1.