UMA NOVA METODOLOGIA PARA A RESOLUÇÃO DE PROBLEMAS DE CONFIABILIDADE ESTRUTURAL BASEADA EM LAGRANGEANO AUMENTADO

Documentos relacionados
Método do Lagrangiano aumentado

Um algoritmo sem derivadas para otimização restrita

DEPARTAMENTO DE ENGENHARIA MECÂNICA

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

Otimização do Despacho Hidrotérmico utilizando Lagrangeano Aumentado e SPG

2 Conceitos de confiabilidade estrutural

BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017

II Seminário da Pós-graduação em Engenharia Elétrica

)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD

Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright.

Um algoritmo do tipo Lagrangeano aumentado para a correção das equações do problema de. Fluxo de Potência

CURSO DE MESTRADO EM Construções Metálicas

4 Confiabilidade Estrutural 4.1. Introdução

2 Métodologia para a Resolução do NEP

18 a 21 de novembro de 2014, Caldas Novas - Goiás

Método dos gradientes (ou método de máxima descida)

Um Algoritmo do Tipo Lagrangeano Aumentado para a Correção das Equações do Problema de Fluxo de Potência

Métodos para resolver problemas de otimização restrita

Métodos Numéricos. MEI - Logística e distribuição Programação quadrática sequencial 2004/2005. A. Ismael F. Vaz - Departamento de Produção e Sistemas

UN ALGORITMO DE PUNTO INTERIOR PARA LA RESOLUCIÓN DE PROBLEMAS DE CONTACTO

Disciplina que estuda métodos analíticos para auxiliar na tomada de decisões.

5 Análise de Confiabilidade

Optimização. Carlos Balsa. Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança

Otimização Multiobjetivo

Capítulo 5 - Optimização Não-Linear

AVALIAÇÃO DO ENRIQUECIMENTO POLINOMIAL NO MÉTODO DOS ELEMENTOS FINITOS GENERALIZADOS EM ELEMENTOS TRIANGULARES

martinez Florianópolis, Setembro 2007

Departamento de Matemática da Universidade de Coimbra. Licenciatura em Matemática. e B =

OPTIMIZAÇÃO NÃO LINEAR EM REDES

Comparação entre as estratégias de região de confiança e busca linear para controlar o passo em um algoritmo de filtro baseado em PQS

4 Implementação Computacional

Pontos Interiores versus Lagrangeano Aumentado na Otimização do Despacho Hidrotérmico

ESTUDO DE CASO PARA VERIFICAR A SEGURANÇA EM DUTOS COM DEFEITOS DE CORROSÃO

OPTIMIZAÇÃO NÃO LINEAR

Aula 6. Zeros reais de funções Parte 3

Método do gradiente projetado espectral para minimização com restrições de ortogonalidade

Método de Newton modificado

ENG-418 OTIMIZAÇÃO DE PROCESSOS QUÍMICOS

Uma nova taxa de convergência para o Método do Gradiente

OPTIMIZAÇÃO DE ESTRUTURAS

TÍTULO DO PROJETO: O problema de empacotamento de figuras usando suas equações. Área do Conhecimento (Tabela do CNPq):

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b

Alexey Izmailov Mikhail Solodov VOLUME II MÉTODOS COMPUTACIONAIS. Rio de Janeiro 2 007

Método de Newton truncado

O Algoritmo Talus para Otimização Global

ANÁLISE NUMÉRICA DO MÉTODO DE NEWTON PARA OBTENÇÃO DE ZEROS DE FUNÇÕES.

Prof. Lorí Viali, Dr. PUCRS FAMAT: Departamento de Estatística. Curso: Engenharia de Produção

ELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES NUMÉRICOS

Método do Gradiente Projetado Para Funções Convexas Generalizadas

UNIVERSIDADE FEDERAL DO PARANÁ OKSANA HERINGER DA SILVA

MÉTODO DE RUNGE-KUTTA APLICADO À DEFLEXÃO DE VIGA 1 RUNGE-KUTTA METHOD APPLIED TO BEAM DEFLECTION

4 Elementos da análise probabiĺıstica

DETERMINAÇÃO DE FUNÇÕES DE TRANSFERÊNCIA DE PROCESSOS QUÍMICOS ATRAVÉS DO MÉTODO DE EVOLUÇÃO DIFERENCIAL UTILIZANDO O SCILAB

Um método de reescalamento não-linear integrado

Ana Paula. October 26, 2016

UNIVERSIDADE FEDERAL DE OURO PRETO ESCOLA DE MINAS DEPARTAMENTO DE ENGENHARIA CIVIL PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA CIVIL

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

Condições de qualificação, otimalidade e um método tipo lagrangiano aumentado

Resolução de problemas com apenas restrições lineares de igualdade

3 Confiabilidade de Estruturas

Optimização e Algoritmos (2004/2005)

ALGUMS MÉTODOS CLÁSSICOS DE OTIMIZAÇÃO

Estudo do Efeito de Incertezas na Otimização Estrutural

Método de restrições ativas para minimização em caixas

Cálculo Numérico BCC760 Raízes de equações algébricas e transcendentes

étodos uméricos ZEROS DE FUNÇÕES DE UMA OU MAIS VARIÁVEIS Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

PROGRAMA COMPUTACIONAL PARA ANÁLISE DINÂMICA DE ESTRUTURAS TRELIÇADAS Computational Program for dynamic analysis of lattice structures

pontos: f(1)=2, f(2)=3, f(3)=5, f(5)=10 e f(6)=30.

Reconfiguração de Sistemas de Distribuição Visando Balanceamento entre Alimentadores Através de Técnica de Decomposição

Máquinas de Vetores de Suporte

Estudo sobre decodificação iterativa usando códigos de treliça

OTIMIZAÇÃO ESTRUTURAL DE TRELIÇAS COM RESTRIÇÕES DE FLAMBAGEM E DE ESCOAMENTO DE MATERIAIS

Métodos Numéricos - Notas de Aula

Modelagem Computacional. Parte 8 2

Resumo. Palavras-chave. Confiabilidade, concreto armado, segurança global. Introdução

MÉTODOS DE OTIMIZAÇÃO ENE081

1 Despacho económico

Marina Andretta. 02 de agosto de 2010

TE231 Capitulo 2 Zeros de Funções; Prof. Mateus Duarte Teixeira

Algoritmos para resolução de problemas de minimização irrestrita

Como resolver o QFEMUP usando otimização

Setor de Tecnologia - TC Engenharia Ambiental Prova 1. Matemática Aplicada I

UNIVERSIDADE FEDERAL DO PARANA

AVALIAÇÃO DA SEGURANÇA, PROJETO BASEADO EM CONFIABILIDADE E CALIBRAÇÃO DE PROJETOS ESPECÍFICOS DE DUTOS COM DEFEITOS DE CORROSÃO

Aula 10 Sistemas Não-lineares e o Método de Newton.

Métodos Numéricos. MEI - Logística e distribuição Optimização não linear com restrições de igualdade 2004/2005

Métodos de Pesquisa Operacional

Matemática Aplicada Mestrados em Engenharia Industrial e Engenharia Química

Método Heurístico para problemas de Otimização sob Incerteza, baseado em Simulação de Monte Carlo

O teorema do ponto fixo de Banach e algumas aplicações

Processamento de Imagens CPS755

7 Conclusões e desenvolvimentos futuros

Thiago Christiano Silva

ÁLGEBRA LINEAR I - MAT0032

Estimadores, pontual e intervalar, para dados com censuras intervalar

Método Preditor-Corretor Aplicado ao Fluxo de Carga Ótimo com Correções Não-lineares nas Condições de Otimalidade

MÉTODO GALERKIN DE ELEMENTOS FINITOS NA DETERMINAÇÃO DO PERFIL DE TEMPERATURA NA PAREDE DE UM CONTÊINER ESFÉRICO UTILIZANDO MATLAB

DESENVOLVIMENTO E IMPLEMENTAÇÃO DE ESTRATÉGIAS NUMÉRICAS PARA A ANÁLISE DINÂMICA NÃO-LINEAR DE RISERS UTILIZANDO O MEF

Transcrição:

UMA NOVA METODOLOGIA PARA A RESOLUÇÃO DE PROBLEMAS DE CONFIABILIDADE ESTRUTURAL BASEADA EM LAGRANGEANO AUMENTADO Solange Regina dos Santos Programa de Pós-Graduação em Métodos Numéricos em Engenharia, PPGMNE Universidade Federal do Paraná - UFPR, Curitiba - PR Universidade Estadual do Paraná - UEPR, Campus Campo Mourão\FECILCAM - PR solaregina@gmail.com Luiz Carlos Matioli Departamento de Matemática Universidade Federal do Paraná, Curitiba - PR matioli@ufpr.com RESUMO Em confiabilidade estrutural o cálculo da probabilidade de falha de uma estrutura recai em um problema de otimização, cujo objetivo é determinar a mínima distância da origem até a superfície de falha no espaço normal padrão. O algoritmo HLRF aplicado na resolução deste problema não possui garantia de convergência. Sendo assim, o objetivo deste trabalho é investigar a eficiência dos métodos Lagrangeano Aumentado com penalidade clássica e moderna, juntamente com o método de minimização que utiliza a estratégia de busca linear não monótona, desenvolvido por Raydan. Testes numéricos indicam que a combinação destes métodos resulta em um algoritmo adequado para problemas de grande porte e simples de ser implementado. PALAVRAS-CHAVE. Probabilidade de Falha. Lagrangeano Aumentado. Método Globalizado de Barzilai e Borwein. PM - Programação Matemática. ABSTRACT When it is concerned the probability of failure of a structure in structural reliability it has to be with an optimization problem, whose objective is to determine the minimum distance from the origin to the failure surface in standard normal space. The algorithm HLRF applied to solving this problem doesn t have guarantee of convergence. Therefore, the objective is to investigate the efficiency Augmented Lagrangian s methods with classical and modern penalty, together with the minimization method that uses the not monotone linear search strategy, developed by Raydan. The numerical results indicate that the combination of these methods results in a suitable algorithm for large problems and simple to implement. KEYWORDS. Probability of failure. Augmented Lagrangian. Global Barzilai and Borwein Method. MP - Mathematical Programming. 2270

1. Introdução Na engenharia diversos estudos têm sido desenvolvidos com o objetivo de analisar a capacidade de uma estrutura suportar a solicitação imposta durante a sua vida útil. Projetos estruturais podem vir a falhar devido a existência de incertezas que podem ser ocasionadas por variações no carregamento, nas propriedades mecânicas dos materiais, nas condições ambientais e nas propriedades geométricas. O cálculo da probabilidade de falha é realizado por meio da análise de confiabilidade estrutural, em que são empregados métodos de simulação e métodos analíticos de primeira e segunda ordem, FORM (First Order Reliability Method) e SORM (Second Order Reliability Method), envolvendo em geral, um grande número de variáveis aleatórias e um alto custo computacional. Os métodos analíticos são baseados em conceitos probabilísticos, podendo ser utilizados como ferramenta para encontrar projetos seguros e econômicos ou também para determinar a probabilidade de falha de estruturas já existentes. Para a obtenção da probabilidade de falha de uma estrutura é essencial a definição de uma equação de estado limite, podendo ser modelada por uma função linear ou não-linear, e a determinação do ponto de projeto, que é obtido por meio da resolução de um problema de otimização, cujo objetivo é determinar o ponto de mínima distância da origem até a equação de estado limite no espaço normal padronizado. Vários algoritmos foram desenvolvidos para a determinação do ponto de projeto, sendo o algoritmo HLRF desenvolvido por Hasofer e Lind em 1974 e aperfeiçoado por Rackwitz e Fiessler em 1978, o mais conhecido na literatura. Diversas melhorias têm sido feitas, ao longo dos anos, pois na sua forma original o HLFR mostra-se instável podendo não convergir, sendo portanto, sob o enfoque da otimização um importante campo para pesquisas. Santosh et al (2006) propuseram a utilização da regra de Armijo para a seleção do comprimento do passo, com o objetivo de melhorar seu desempenho, tornando o algoritmo HLRF mais robusto e eficiente. Liu e Kiureghian (1991) analisaram a eficiência dos métodos de otimização: Gradiente Projetado, Penalização, Lagrangeano Aumentado com penalidade quadrática clássica e Programação Quadrática Sequencial, e comparou os resultados aos obtidos pelo algoritmo HLRF. O objetivo deste artigo é propor uma metodologia alternativa, ainda não aplicada na Análise de Confiabilidade Estrutural, para o cálculo da probabilidade de falha de uma estrutura e que seja competitiva com o algoritmo HLRF. Esta metodologia refere-se a aplicação do método Lagrangeano Aumentado com a utilização de uma nova função de penalidade, desenvolvida por Matioli e Gonzaga (2008), denominada penalidade moderna. A metodologia dos métodos Lagrangeano Aumentado é bastante simples, sob o ponto de vista da otimização, pois consiste em transformar o problema restrito em uma sequência de subproblemas irrestritos e em cada iteração um subproblema irrestrito é resolvido e os parâmetros (multiplicadores de lagrange e parâmetro de penalização) são atualizados. Na resolução do subproblema irrestrito é aplicado o método Globalizado de Barzilai e Borwein desenvolvido por Raydan (1997), que estabelece uma estratégia de globalizaçao para o método do Gradiente de Barzilai e Borwein baseada na técnica de busca linear não-monótona de Grippo, Lampariello e Lucidi (1986), que não exige decréscimo na função objetivo a cada iteração. A utilização dessa estratégia na resolução de problemas de programação não-linear é mencionada em vários trabalhos, como por exemplo, Diniz-Ehrhardt et al (2004) e Andreani et al (2007). Sendo assim, analisamos o desempenho dos métodos Lagrangeano Aumentado com penalidade clássica e com penalidade moderna com base nos resultados de onze problemas acadêmicos retirados da literatura especializada e os comparamos com o algoritmo HLRF. 2271

2. Cálculo da Probabilidade de Falha por Com base na formulação convencional de Confiabilidade Estrutural, o vetor X dado X = {X 1, X 2,..., X n } (1) denota as variáveis básicas ou variáveis de projeto, que são grandezas físicas presentes em um projeto estrutural e h (X) = h (X 1, X 2,..., X n ) (2) é a função desempenho que exprime o relacionamento funcional entre as variáveis de projeto. Para calcular a probabilidade de falha de uma estrutura é essencial a determinação de uma equação de estado limite, denominada também de superfície de falha denotada por h (X) = 0, (3) que representa o limite entre a região de segurança, h (X) > 0, e a região de falha, h (X) < 0. A probabilidade de falha é dada pela integral múltipla P f =... f X (X 1, X 2,..., X n ) dx 1 dx 2... dx n, (4) h(x)<0 em que f X (X 1, X 2,..., X n ) é a função densidade de probabilidade conjunta (f.d.p) das variáveis de projeto e a integração é realizada sobre o domínio de falha, h (X) < 0. Este cálculo é considerado complexo, uma vez que envolve integração multi-dimensional e, além disso, raramente se tem conhecimento da forma exata da f.d.p conjunta. Desta forma, soluções aproximadas de primeira e segunda ordem da probabilidade de falha, são obtidas por meio da aplicação dos métodos analíticos que consistem em substituir a superfície de falha no espaço normal padrão por um hiperplano, no caso do método FORM, ou por uma superfície quadrática, no caso do método SORM, no ponto do domínio de falha com maior densidade de probabilidade, denominado ponto de projeto. (MELCHERS, 2001). A aproximação de primeira ordem para P f é dada por P f = 1 Φ(β) (5) onde β é o índice de confiabilidade da estrutura definido como a mínima distância da origem à superficíe de falha no espaço normal padrão e Φ( ) é a função distribuição acumulada normal padrão. De acordo com Haldar e Mahadevan (2000), a aproximação de segunda ordem é dada em termos de β e as curvaturas da superfície de falha definem a aproximação quadrática. No contexto dos métodos analíticos, para obter a probabilidade de falha é necessário transformar o vetor de variáveis aleatórias do problema X, definidos no IR n, com qualquer distribuição conjunta de probabilidade, em um vetor de variáveis aleatórias Y, com distribuição normal padrão. Na literatura, os possíveis valores que X e Y podem assumir é denominado de espaço de projeto e espaço normal padrão ou espaço reduzido, respectivamente. Para encontrar β é necessário determinar o ponto y sob a superfície de falha, no espaço reduzido, mais próximo da origem. Isto é formulado pelo seguinte problema de otimização restrito: (P R1) min f(y) sujeito a h(y) = 0 2272

em que: f(y) = y T y com f : IR n IR é a função objetivo, h : IR n IR m define a superfície de falha, y IR n é a variável de projeto no espaço reduzido e f, h C 1. Um algoritmo muito difundido na literatura para a resolução do problema (PR1) é o HLRF. 2. Algoritmo HLRF Segundo Liu e Kiureghian (1991), o algoritmo HLRF foi originalmente proposto por Hasofer e Lind em 1974 para análise de confiabilidade utilizando informações de primeiro e segundo momento das variáveis de projeto, ou seja, média e desvio padrão e, em 1978, extendido por Rackwitz e Fiessler que incluíram informações das distribuições de probabilidade das váriaveis. Ao contrário dos demais algoritmos que serão apresentados neste artigo, o HLRF foi elaborado especificamente para resolução de problemas de confiabilidade estrutural, sendo empregado somente na resolução de problemas no formato de (PR1). O algoritmo é definido por meio da seguinte fórmula recursiva y k+1 = 1 [ ] h(y k ) 2 h(y k ) T y k h(y k ) h(y k ). (6) De acordo com Haldar e Mahadevan (2000), Madsen (2006), Wang e Grandhi (1996) e Liu e Kiureghian (1991), comparados a outros algoritmos de otimização disponíveis na literatura, o HLRF requer uma quantidade mínima de cálculos a cada iteração. Além disso, utiliza somente os valores da função e de sua derivada primeira e possui convergência rápida. No entanto, em algumas situações, como por exemplo quando a função estado limite é altamente não linear, o método converge lentamente, ou ainda, pode divergir para longe da solução. (MELCHERS, 2001). Numerosas pesquisas têm sido desenvolvidas nas últimas décadas com o objetivo de contornar tais problemas, envolvendo por exempo, Simulação de Monte Carlo (Mori, 1993), Teoria do Caos (Yang, 2006), Superfície de Resposta (Faravelli, 1989), Métodos dos Momentos (Zhao e Ono, 2001), Algoritmo Genético (Zhao e Jiang, 1995) e Métodos baseados em Programação Matemática (Liu e Kiureghian, 1991; Santosh et al, 2006). 3. Métodos de Otimização Esta seção é destinada a apresentação do método Lagrangeano Aumentado e do método Globalizado de Barzilai e Borwein que compõem a nova metodologia empregada no cálculo da probabilidade de falha. Primeiramente, é necessário apresentar um procedimento, denominado de penalização, destinado a converter problemas restritos, geralmente complexos, em problemas mais simples de serem resolvidos. 3.1. Penalização Os métodos de penalização se dividem em penalidade interna, quando o conjunto viável é constituído apenas de restrições de desigualdade, e penalidade externa, quando o conjunto viável é composto por restriçoes de igualdade e\ou desigualdade. Como estamos trabalhando com o problema (PR1) vamos considerar apenas a penalidade externa. Na penalização o problema restrito é aproximado por uma sequência de problemas irrestritos, de maneira que a função que define a restrição é eliminada e um termo ρp (y) é introduzido na função objetivo, onde ρ é um parâmetro de penalidade positivo e P (y) é uma função de penalidade que se anula quando y pertence ao conjunto viável e, em caso contrário, 2273

assume valores positivos. Portanto, a resolução do problema (PR1) é substituída pela resolução do seguinte problema irrestrito (P I) min f (y) + ρp (y) sujeito a y IR n. Várias funções de penalidade podem ser encontradas na literatura. Uma função de penalidade clássica é a penalidade quadrática, dada por P (y) = 1 h i (y) 2 (7) 2 onde h(y) são as restrições de igualdade do problema restrito (PR1). A violação das restrições torna-se mais cara a medida que o valor do parâmetro de penalidade aumenta, fazendo com que, no processo de minimização a solução do problema satisfaça h(y) = 0 e concomitantemente minimize f(y) = y T y. Deste modo, a solução do problema penalizado (PI) se aproxima do conjunto viável quando ρ e portanto, os problemas (PR1) e (PI) possuem o mesmo conjunto solução. 3.2. Lagrangeano Aumentado Nos métodos de penalização a obtenção da solução do problema (PR1) depende diretamente do valor do parâmetro de penalidade ρ. Segundo Martinez e Santos (1998), podem surgir dificuldades por uma escolha inadequada de ρ, pois se ρ for muito grande é possível que apareça problemas de mal-condicionamento. Sendo assim, visando reduzir a possibilidade de mal-condicionamento dos subproblemas gerados na abordagem de penalização clássica, Hestenes e Powell na década de 60 introduziram a cada passo, nos problemas com restrições de igualdade, estimativas do multiplicador de Lagrange à função a ser minimizada. Mais tarde, Rockafellar generalizou para problemas com restrições de desigualdade. Para apresentar as ideias do método Lagrangeano Aumentado, considere a função de Lagrange associada ao problema (PR1) (y, λ) IR n IR m l(y, λ) = f(y) + λ i h i (y) (8) em que λ i, com i = 1,..., m, é o multiplicador de Lagrange associado as restrições de igualdade. Considere agora o seguinte problema (P R2) min l (y, λ) = f(y) + λ i h i (y) sujeito a h(y) = 0. No conjunto viável a função objetivo do problema (PR1) e (PR2) coincidem, logo possuem o mesmo conjunto solução. Portanto, a partir da penalização do problema (PR2) é definida a função Lagrangeano Aumentado mais conhecida na literatura, dada por (y, λ, ρ) IR n IR m IR ++ L (y, λ, ρ) = f(y) + λ i h i (y) + ρ h i (y) 2 (9) 2 2274

onde ρ é o parâmetro de penalidade e λ i, i = 1,..., m, as estimativas do multiplicador de Lagrange. O algoritmo Lagrangeano Aumentado com penalidade clássica para o problema (PR1) é dado como segue: Algoritmo 3.1: Lagrangeano Aumentado com penalidade clássica (LAPM) Dados: y 0 IR n, ρ 0 > 0, λ 0 IR m, t (0, 1], γ > 1. k = 0 Enquanto não convergir y k+1 argmin λ k+1 { i = λ k i + ρk h i (y k+1 ) Se h(y k+1 ) t h(y k ) L(y, λ, ρ) = f(y) + λ k i h i (y) + ρk 2 } h i (y) 2 ρ k+1 = γρ k Senão ρ k+1 = ρ k k = k + 1 Fim A atualização do multiplicador de Lagrange λ é obtida derivando a função Lagrangeano Aumentado (9) em relação a y e a atualização do parâmetro de penalidade é feita com base em alguma medida de inviabilidade do problema. Existem várias funções de penalidade P (y) que podem ser aplicadas em problemas com restrições de igualdade. Um caso particular é a penalidade elaborada por Matioli e Gonzaga (2008) dada por ( ) ( ) hi (y) P ρ, λ hi (y) i = θ ρ λ i (10) com θ(y) = 1 2 y2 + y. Deste modo ( ) hi (y) P ρ, λ i = 1 ( ) hi (y) 2 ( ) 2 ρ λ hi (y) i + ρ λ i onde λ i, i = 1,..., m, é o multiplicador de Lagrange associado a restrição de igualdade h i (y) e ρ é o parâmetro de penalidade. Logo, a função Lagrangeano Aumentado com penalidade moderna associado a (P R2) é definida como [ ( ) 1 (y, λ, ρ) IR n IR m hi (y) 2 ( ) IR ++ L(y, λ, ρ) = f(y) + ρ 2 ρ λ hi (y) ] i + ρ λ i. (11) No algoritmo, primeiramente um vetor arbitrário é fornecido para λ e a cada iteração este valor é atualizado forçando satisfazer y L(y, λ, ρ) = 0. Deste modo, a fórmula recursiva de atualização de λ no método Lagrangeano Aumentado com penalidade moderna é estabelecida da seguinte maneira { h(y λ k+1 k+1 )λ k } = ρ k + 1 λ k. (12) 2275

Comparado com os métodos de penalidade clássicos, que exigem certas restrições sobre o valor do parâmetro de penalidade, o método de Lagrangeano Aumentado tem a vantagem de não restringir o parâmetro de penalidade para obter a convergência. Algoritmo 3.2: Lagrangeano Aumentado com penalidade moderna (LAPM) Dados: y 0 IR n, ρ 0 > 0, λ 0 IR m, t (0, 1], 0 < δ < 1. k = 0 Enquanto não convergir{ [ ( ) 1 y k+1 hi (y) 2 ( ) argmin L(y, λ, ρ) = f(y) + ρ 2 ρ λ hi (y) ]} i + ρ λ i { } λ k+1 = h(y k+1 )λ k + 1 λ k ρ k Se h(y k+1 ) t h(y k ) Fim ρ k+1 = δρ k Senão ρ k+1 = ρ k k = k + 1 3.3. Método Globalizado de Barzilai e Borwein O método Globabilizado de Barzilai e Borwein (GBB) é aplicado na resolução de subproblemas irrestritos gerados a cada iteração do método Lagrangeano Aumentado. As ideias iniciais deste método foram propostas por Barzilai e Borwein na resolução de problemas irrestritos cujas funções objetivos fossem quadráticas e convexas. Raydan (1997) estendeu este método a problemas irrestritos gerais inserindo uma estratégia de globalização baseada na busca não-monótona, desenvolvida por Grippo, Lampariello e Lucidi (1986) e aplicado com sucesso para o método de Newton a um conjunto de funções teste. A busca não-monótona é definida por f(y k λg k ) > max 0 j min(k,m) f(yk j ) γλgkg t k, (13) onde g k = f(y k ), M é um inteiro não negativo e γ é um número positivo pequeno. A condição (13) exige que a cada nova iteração o valor funcional no novo ponto, satisfaça a regra de Armijo com relação ao máximo valor funcional de um número pré-fixado, M, de iterações anteriores. Esta busca permite um aumento no valor da função com relação as iterações anteriores sem afetar as propriedades de convergência do método. (RAYDAN, 1997). Algoritmo 3.3 - GBB Dados: y 0 IR n, α 0, M 0, γ (0, 1), 0 < σ 1 < σ 2 < 1 e 0 < ɛ < 1 k = 0 Enquanto g k > ɛ(1 + abs(f(y k )) λ = 1 α k Enquanto f(y k λg k ) > Fim λ k = λ max 0 j min(k,m) f(yk j ) γλg t kg k Escolha σ [σ 1, σ 2 ] e λ = σλ 2276

y k+1 = y k λ k g k α k+1 = gt k (g k+1 g k ) λ k gk t g k k = k + 1 Fim O método GBB é semelhante ao método de Cauchy, pois a direção de busca é sempre f(y k ), porém, requer menos esforço computacional e possui maior velocidade de convergência (caso quadrático). A escolha do comprimento do passo 1 α k é definida com base na equação secante utilizada para calcular uma aproximação da matriz Hessiana nos métodos Quase Newton. Além disso, não requer armazenamento de matrizes, pois realiza apenas cálculos vetoriais e por utilizar busca não-monótona, que é menos restritiva que a de Armijo, permite uma redução do número de buscas e de funções avaliadas. 4. Comparação dos Resultados Os algoritmos apresentados na seção anterior foram implementados em Matlab 7.8, versão R2009a, processador Intel(R) Core(TM)2 Duo CPU T5870 2,00GHz e 3,00GB de memória RAM. Vários testes numéricos foram realizados com o objetivo de analisar a eficácia dos métodos e os resultados são apresentados resumidamente nas tabelas 2 e 3. Para os algoritmos LAPC e LAPM utilizamos os seguintes valores para os parâmetros iniciais: ρ 0 = 1, λ 0 = 1, t = 0, 9, γ = 1, 5 e δ = 0, 5 e, para o algoritmo GBB consideramos: M = 10, α 0 = 1, γ = 10 4, σ 1 = 0, 1, σ 2 = 0, 9 e ɛ = 10 3. Na tabela 1 são apresentados onze problemas (P) retirados da literatura e a distribuição de probabilidade de cada variável. P Função estado limite Descrição das variáveis 1 h(x) = X 1 X 2 146, 14 X 1 N(78064, 4; 11709, 7 2 ) X 2 N(0, 0104; 0, 00156 2 ) 2 h(x) = 2 + 0.015 9 Xi 2 X 10 X 1,...,10 N(0, 1) 3 h(x) = 0, 1(X 1 X 2 ) 2 (X 1+X 2 ) 2 + 2, 5 X 1,2 N(0, 1) 4 h(x) = 0, 5(X 1 X 2 ) 2 (X 1+X 2 ) 2 + 3 X 1,2 N(0, 1) 5 h(x) = 2 X 2 0, 1X1 2 + 0, 06X3 1 X 1,2 N(0, 1) 6 h(x) = 2, 5 0, 2357(X 1 X 2 ) + 0, 0046(X 1 + X 2 20) 4 X 1,2 N(10, 3 2 ) 7 h(x) = 3 X 2 + 256X1 4 X 1,2 N(0, 1) 8 h(x) = X1 3 + X3 2 18 X 1,2 N(10, 5 2 ) 9 h(x) = X1 3 + X3 2 18 X 1 N(10, 5 2 ) X 2 N(9, 9; 5 2 ) 10 h(x) = X1 3 + X3 2 67, 5 X 1 N(10, 5 2 ) X 2 N(9, 9; 5 2 ) 11 h(x) = 1, 8 X 1 X 2 X 1,2 U[0, 1] Tabela 1: Funções estado limite Na tabela 2 mostramos para cada problema (P), mencionado na tabela 1, o ponto inicial (PI) no espaço normal reduzido, o número de iterações do método Lagrangeano Aumentado (IT/LA), o número de iterações do método GBB (IT/GBB) aplicado na resolução do subproblema gerado a cada iteração, o número de busca não-monótona (busca) requerida no método GBB, o número de avaliação da função estado limite (h), o número de avaliação da função Lagrangeano Aumentado (L) e de sua derivada ( y L), e o índice de confiabilidade (β) 2277

obtidos pelos algoritmos LAPC e LAPM. Resultados - Lagrangeano Aumentado P PI Método IT/LA IT/GBB busca h L y L β 1 (0,0) LAPC 3 14 20 4 37 17 5,4280 LAPM 4 16 18 5 38 20 5,4280 2 X 1,...,10 = 0 LAPC 8 13 18 9 39 21 2,0000 LAPM 6 10 20 7 36 16 2,0000 3 (-1,0) LAPC 8 18 17 9 43 26 2,5000 LAPM 5 12 14 6 31 31 2,5000 4 (1,5) LAPC 2 28 0 3 30 30 1,6583 LAPM 2 16 0 3 18 18 1,6583 5 (8,3) LAPC 8 25 15 9 48 33 2,0000 LAPM 6 24 16 7 46 30 2,0000 6 (1,7) LAPC 8 33 15 9 56 41 2,5000 LAPM 6 32 16 7 54 38 2,5000 7 (5,1) LAPC 9 50 18 10 77 59 3,0000 LAPM 6 47 19 7 72 53 3,0000 8 (1,2) LAPC 3 37 21 4 61 40 2,2401 LAPM 7 43 37 8 87 50 2,2401 9 (0,0) LAPC 3 31 21 4 55 34 2,2260 LAPM 7 36 37 8 801 43 2,2260 10 (0,0) LAPC 3 28 24 4 55 31 1,9003 LAPM 7 32 33 8 72 39 1,9003 11 (0.5,0.5) LAPC 41 131 40 42 212 172 1,8121 LAPM 12 45 25 13 82 57 1,8123 Tabela 2: Comparação dos algoritmos: LAPC LAPM Na tabela 3 estão listados para os onze problemas, o número de avaliações de função (f) e (h), o número de avaliações de gradiente ( h) e o índice de confiabilidade (β), obtido por meio do algoritmo HLRF, considerando os pontos iniciais da tabela 2. Teste - HLRF P IT h h β 1 5 6 6 5,4280 2 4 5 5 2,0000 3 não convergiu 4 5 6 6 1.6583 5 6 8 8 2,0000 6 13 14 14 2,5000 7 39 40 40 3,0000 8 não convergiu 9 não convergiu 10 não convergiu 11 não convergiu Tabela 3: Resultados HLRF 2278

Conforme mostrado na seção 2, o algoritmo HLRF possui uma estrutura muito simples, sendo assim, a quantidade de cálculos necessários por iteração é, na maioria das vezes, inferior a quantidade necessária no método Lagrangeano Aumentado. Nos testes, vimos que o algoritmo HLRF quando converge, converge rápido, porém sua convergência é totalmente dependente da escolha do ponto inicial. Deste modo, os resultados apresentados nas tabelas 2 e 3, mostram que os algoritmos LAPC e LAPM convergiram em 100% dos casos, enquanto que o algoritmo HLRF convergiu em apenas 45% dos casos testados. Em geral, a comparação de diversos algoritmos a i, com i = 1,..., n, é feita selecionando-se um conjunto de problemas P = {p 1, p 2,..., p m } que são resolvidos por cada um dos algoritmos a i. Para cada par de problema-algoritmo, (p j, a i ), são medidos diversos critérios, como por exemplo, número de iterações e tempo computacional. Para auxiliar a análise dos resultados podemos utilizar uma técnica gráfica desenvolvida por Dolan e More (2002), denominada de performance profile, que permite apresentar de forma compactada a comparação entre os algoritmos com base em um determinado critério. No performance profile o eixo das ordenadas representa o percentual de problemas cujo o algoritmo a i, i = 1,..., n, obteve o melhor desempenho para o conjunto de problemas P. Já o eixo das abscissas representa a quantidade de vezes que o algoritmo a i superou o melhor desempenho, considerando todos os problemas {p 1, p 2,..., p m } e fixado um determinado critério, por exemplo, número de iterações. Neste termos, a figura 1 indica que o algoritmo LAPM apresentou desempenho melhor em aproximadamente 54% dos problemas analisados, quanto ao número de iterações. Já os algoritmos LAPC e HLRF, foram mais eficientes com relação a este critério em aproximadamente 45% e 18% dos casos, respectivamente. Analisando o eixo das abcissas é possível perceber que, o algoritmo LAPM resolveu 100% dos casos utilizando aproximadamente 2,4 vezes o menor número de iterações para cada um dos 11 problemas, diferentemente dos algoritmos, LAPC e HLRF, que necessitaram aproximadamente de até 3,4 e 16,7 vezes o melhor desempenho, respectivamente. Figura 1: Performance profile - número de iterações Na IT/LA dos algoritmos LAPC e LAPM são realizadas apenas a atualização do parâmetro de penalidade e do multiplicador de Lagrange, sendo que, o esforço computacional mais relevante consiste na minimização do subproblema gerado a cada iteração (IT/GBB), conforme pode ser visto no algoritmo 3.3. É nesta fase que ocorre a maior parte das avaliações 2279

de funções e os cálculos de derivadas. Figura 2: Performance profile - número de iterações GBB A figura 2 mostra que a quantidade de iterações necessárias para a obtenção do novo iterando y k+1 no algoritmo LAPM, foi em aproximadamente 63% dos casos menor que para o algoritmo LAPC. Além disso, o algoritmo LAPC resolveu 100% dos casos utilizando aproximadamente 2,9 vezes o menor número de IT/GBB para cada um dos 11 problemas, enquanto que o algoritmo LAPM necessitou de apenas 1,2 vezes o melhor desempenho. Deste modo, a quantidade de avaliações de funções e de derivadas do algoritmo LAPM foi inferior ao do algoritmo LAPC. 4. Conclusão Neste artigo apresentamos uma nova metodologia para o cálculo do índice de confiabilidade estrutural. A metodologia é baseada no método Lagrangeano Aumentado com estratégia de penalização moderna, proposta por Matioli e Gonzaga (2008), e na utilização do método Globalizado de Barzilai e Borwein, desenvolvido por Raydan (1997). A utilização do método Lagrangeano Aumentado é motivada por ser um método com implementação simples, por requerer apenas informação de primeira ordem das funções envolvidas, não necessitar da suposição de convexidade e por adequar-se a problemas de grande porte. Os resultados apresentados estão baseados em um número limitado de exemplos, sendo insuficientes para afirmações gerais e definitivas. No entanto, tais resultados indicam que o método Lagrangeano Aumentado com penalidade moderna é uma metodologia promissora para a resolução de problemas de Confiabilidade Estrutural, uma vez que, seu desempenho superou na maioria dos casos, o desempenho do método Lagrangeano Aumentado com penalidade clássica e o desempenho do algoritmo HLRF. Referências Andreani, R., Birgin, E. G., Martínez, J. M. e Schuverdt, M. L. (2007), On Augmented Lagrangian methods with general lower-level constraints, Journal on Optimization - SIAM, 18, 1286-1309. Barzilai, J. e Borwein, J. M. (1988), Two point step size gradient method, Journal of numerical analysis, 8, 141 148. Diniz-Ehrhardt, M. A., Gomes-Ruggiero, M. A., Martínez, J. M. e Santos, S. A. 2280

(2004), Augmented Lagrangian algorithms based on the spectral projected gradient for solving nonlinear programming problems, Journal of Optimization Theory and Applications, 123, 497-517. Dolan, E.D. e More, J.J. (2002), Benchmarking optimization software with performance profiles, Mathematical Programming, 91, 201-213. Faravelli, L. (1989), Response-surface approach for reliability analysis, Journal of Engineering Mechanics, 115, 2763-2781. Grippo, L., Lampariello, F. e Lucidi, S. (1986), A nommonotone line search technique for Newton s method, Journal numerical analysis, 23, 707-716. Haldar, A. e Mahadevan, S., Probability, reliability and statistical methods in engineering design, John Wiley & Sons, New York, 2000. Liu, P. L. e Der Kiureghian, A. (1991), Optimization algorithms for structural reliability, Structural Safety, 9, 161-177. Luenberger, D. G. (1974), A combined penalty function and gradient projection method for nonlinear programming, Journal of optimization theory and applications, 14, 477-495. Madsen, H.O., Krenk, S. e Lind, N.C., Methods of structural safety, Dover publications, New York, 2006. Martinez, J. M. e Santos, S. A., Métodos computacionais de otimização, Departamento de Matemática Aplicada, IMECC - UNICAMP, 1998. Matioli, L. C. e Gonzaga, C. C. (2008), A new family of penalties for augmented Lagrangian methods, Numerical linear algebra with applications, 15, 925-944. Melchers, R. E., Structural reliability analysis and prediction, John Wiley & Sons, New York, 2001. Mori, Y. e Ellingwood, B. (1993), Time-dependent system reliability analysis by adaptive importance sampling, Structural Safety, 12, 59 73. Raydan, M. (1997), The Barzilai and Borwein Gradient Method for the large scale unconstrained minimization problem, Journal optimization, 7, 26-33. Santosh, T.V., et al (2006), Optimum step length selection rule in modified HL RF method for structural reliability, International Journal of Pressure Vessels and Piping, 83, 742-748. Wang, L. e Grandhi, R.V. (1996), Safety index calculations using intervening variables for structural reliability, Computers and Structures, 59, 1139-1148. Yang, D., et al (2006), Convergence analysis of first order reliability method using chaos theory, omputers and Structures, 84, 563-571. Zhao, YG. e Jiang, JR. (1995), A structural reliability method basead on genetic algorithm, Earthquake Engineering and Engineering Vibration, 15, 44-58. Zhao, YG. e Ono, T. (2001), Moment methods for structural reliabilty, Structural Safety, 23, 47-75. 2281