ALGORITMOS PARA PROBLEMAS DE COMPLEMENTARIDADE NÃO LINEAR. Sandro Rodrigues Mazorche

Tamanho: px
Começar a partir da página:

Download "ALGORITMOS PARA PROBLEMAS DE COMPLEMENTARIDADE NÃO LINEAR. Sandro Rodrigues Mazorche"

Transcrição

1 ALGORITMOS PARA PROBLEMAS DE COMPLEMENTARIDADE NÃO LINEAR Sandro Rodrigues Mazorche TESE SUBMETIDA AO CORPO DOCENTE DA COORDENAÇÃO DOS PROGRAMAS DE PÓS-GRADUAÇÃO DE ENGENHARIA DA UNIVERSIDADE FEDERAL DO RIO DE JANEIRO COMO PARTE DOS REQUISITOS NECESSÁRIOS PARA A OBTENÇÃO DO GRAU DE DOUTOR EM CIÊNCIAS EM ENGENHARIA MECÂNICA. Aprovada por: Prof. José Herskovits Norman, D. Ing. Prof. Fernando Pereira Duda, D. Sc. Prof a. Susana Scheimberg de Makler, D. Sc. Prof a. Claudia Alejandra Sagastizábal, D. Habil. Prof. Anatoli Leontiev, D. Ing. RIO DE JANEIRO, RJ - BRASIL DEZEMBRO DE 2007

2 MAZORCHE, SANDRO RODRIGUES Algoritmos para Problemas de Complementaridade Não Linear [Rio de Janeiro] 2007 vii, 132 p. 29,7 cm (COPPE/UFRJ, D.Sc., Engenharia Mecânica, 2007) Tese - Universidade Federal do Rio de Janeiro, COPPE 1. Problema de Complementaridade. 2. Otimização não linear. I. COPPE/UFRJ II. Título (série) ii

3 Agradecimentos Ao professor Herskovits, pela orientação e pelo grande apoio para a realização deste trabalho. A CAPES/PQI pelo apoio financeiro. Ao corpo docente do Programa de Engenharia Mecânica. Ao grande amigo Alfredo Canelas Botta, o qual trabalhou comigo muitas horas na frente do quadro, agradeço a ele pelas valiosas observações e comentários. Ao apoio dos colegas e amigos do Laboratório Optimize: Paulo, Veranise, Evandro, Passarella, Moisés, Gabriel, Miguel, Marcelo e Henry. Ao pessoal administrativo do Programa de Engenharia Mecânica. Aos meus queridos pais, Dálber e Marlene, minha irmã Aline e seu marido André pelo carinho, incentivo e apoio constantes. A minha amada família esposa Flávia e filhas Maria Julia e Eduarda que me apoiaram em todos os momentos. Às pessoas que colaboraram de forma direta ou indireta, por meio de incentivo, confiança e troca de experiências. iii

4 Resumo da Tese apresentada à COPPE/UFRJ como parte dos requisitos necessários para a obtenção do grau de Doutor em Ciências (D.Sc.) ALGORITMOS PARA PROBLEMAS DE COMPLEMENTARIDADE NÃO LINEAR Sandro Rodrigues Mazorche Dezembro/2007 Orientador: José Herskovits Norman Programa: Engenharia Mecânica Esta tese apresenta novas técnicas de ponto interior para resolver problemas de complementaridade não linear. Os algoritmos FDA-NCP, para complementaridade, e FDA-MNCP, para complementaridade mista, geram uma seqüência de pontos que verificam as desigualdades dos respectivos problemas e que decresce monotonamente o valor de uma função potencial convenientemente definida. Para ambos algoritmos são demonstrados resultados de convergência global e assintótica. São apresentados resultados numéricos para diversos problemas testes da literatura e problemas clássicos da engenharia mecânica. Estes resultados concordam com a análise assintótica de convergência e indicam que os algoritmos propostos são eficientes e robustos. iv

5 Abstract of Thesis presented to COPPE/UFRJ as a partial fulfillment of the requirements for the degree of Doctor of Science (D. Sc.) ALGORITHMS FOR NONLINEAR COMPLEMENTARITY PROBLEMS Sandro Rodrigues Mazorche December/2007 Advisor: José Herskovits Norman Department: Mechanical Engineering This thesis presents new developed interior-point techniques for nonlinear complementarity problems. The algorithms FDA-NCP, for complementarity, and FDA-MNCP, for mixed complementarity, define a sequence of points that verify the problem inequalities and reduce monotonically a suitable potential function. Results about global and asymptotic convergence are obtained for both algorithms. Numerical results obtained for several benchmark problems and some classical problems in mechanical engineering are presented. These results agree with the asymptotic analysis and show that the proposed algorithms are efficient and robust. v

6 Índice 1 Introdução Preliminares Conceitos básicos para problemas de otimização Buscas lineares inexatas Condições de otimalidade O método de Newton para equações Problema de Complementaridade Métodos para Resolução de Problemas de Complementaridade Método baseado em Problemas de Minimização - Funções de Mérito Método baseado em Sistemas de Equações - Função-NCP Método de Suavização Método de Ponto Interior Método tipo Projeção Um Algoritmo de Ponto Interior Viável para NCP Idéias Básicas Descrição do Algoritmo FDA-NCP Convergência Global do FDA-NCP Resultados de Convergência Problema de Complementaridade Mista Idéias Básicas Descrição do Algoritmo FDA-MNCP vi

7 5.3 Convergência Global para FDA-MNCP Análise de Convergência Assintótica Resultados de Convergência Assintótica Usando FAIPA para Resolver NCP FAIPA Descrição do Algoritmo FAIPA Reformulando NCP com Problema de Minimização com Restrição Uma nova atualização de λ no FAIPA Problema de Complementaridade Reformulado Reformulando o Problema de Complementaridade Resultados Numéricos Coletânea de Problemas de Complementaridade Casos especiais para FDA-NCP Problemas de Complementaridade Mista Aplicações - Inequações Variacionais O Problema do Obstáculo em duas dimensões Problema clássico de infiltração em meio poroso Problema de Elasticidade Linear com Contato Modelo de Elementos Finitos Modelo de Elementos de Contorno Conclusões 124 Bibliografia 126 vii

8 Capítulo 1 Introdução Os problemas de complementaridade estão presentes em várias aplicações [17] da Engenharia, Economia e outras ciências em geral. Em Engenharia Mecânica nós mencionamos os problemas de sólidos em contato e dinâmica Multi-Corpo. Neste trabalho apresentaremos um algoritmo de pontos interiores para a resolução numérica de problemas de complementaridade (FDA-NCP). O algoritmo proposto aqui segue a filosofia do algoritmo FAIPA [26] com respeito a geração da seqüência de pontos viáveis que converge a solução do problema de complementaridade. Esta seqüência de pontos tem a propriedade de verificar uma condição de viabilidade e uma condição de decrescimento para função potencial associada ao problema de complementaridade. Veremos resultados de convergência global para o algoritmo e uma variação deste para problemas de complementaridade mista (FDA-MNCP). Mostraremos a que taxa de convergência de ambos os algoritmos é superlinear e/ou quadrática sobre certas condições. Implementaremos o FAIPA para resolver o problema de complementaridade e ainda proporemos uma nova atualização para os multiplicadores de Lagrange para o problema de minimização com restrições associado ao problema de complementaridade. Verificaremos ainda que através desta atualização é possível aplicar uma busca em arco no FDA-NCP. Também proporemos uma reformulação no problema de complementaridade para facilitar a obtenção de um ponto inicial estritamente viável. E por fim realizaremos vários testes numéricos e algumas aplicações para 1

9 mostrar a eficiência dos algoritmos FDA-NCP e FDA-MNCP. O trabalho é dividido em dez capítulos. No primeiro capítulo apresentaremos definições e resultados básicos para o entendimento do assunto aqui tratado. No segundo capítulo veremos uma breve apresentação de métodos e técnicas utilizadas para a resolução numérica do problema de complementaridade. No terceiro capítulo apresentaremos a filosofia de funcionamento do FDA-NCP e resultados que apontam que a seqüência gerada esta contida na região viável. Uma descrição do algoritmo FDA-NCP também é apresentada neste capítulo, destacaremos a estrutura do FDA-NCP para gerar pontos viáveis e verificaremos que a direção obtida é viável e de descida para uma função potencial associada ao problema de complementaridade. No quarto capítulo mostraremos a convergência global para o FDA-NCP. Resultados sobre a limitação da direção de busca, que a direção de busca é um campo uniformemente viável na região viável e que o passo da busca linear é finito e não nulo serão demonstrados. No quinto capítulo apresentaremos uma extensão do algoritmo FDA-NCP para problemas de complementaridade mista, o algoritmo FDA-MNCP. Uma descrição do algoritmo FDA-MNCP será apresentada bem como os correspondentes resultados de convergência global. No sexto capítulo será mostrado que ambos os algoritmos possuem um esquema de iteração do tipo Newton Amortecido e assim, sobre certas condições, terão taxa de convergência superlinear e/ou quadrática. No sétimo capítulo descreveremos o algoritmo FAIPA e o aplicaremos no problema de complementaridade. Também veremos que é possível tomar uma nova regra de atualização para os multiplicadores de Lagrange no algoritmo FAIPA. E esta nova regra de atualização permitirá, através de manipulações algébricas, chegarmos a sistemas lineares idênticos ao do algoritmo FDA-NCP. Com isso usaremos esta nova regra de atualização para o FAIPA e ainda utilizaremos para o FDA-NCP uma busca em arco motivado nestas mudanças. No oitavo capítulo apresentaremos uma reformulação no problema de 2

10 complementaridade afim de facilitar a obtenção de um ponto inicial estritamente viável para o problema reformulado sem precisar alterar a estrutura do algoritmo. No nono capítulo temos os resultados numéricos com respeito aos algoritmos de complementaridade e complementaridade mista. Um conjuntos de problemas testes será usado para verificar o desempenho dos algoritmos de complementaridade onde comparamos o FDA-NCP com outros algoritmos de complementaridade e com o FAIPA nas duas versões. O décimo capítulo é composto por aplicações a inequações variacionais, que são os seguintes problemas: O Problema do obstáculo, O Problema do Dique e O Problema de Elasticidade linear com Contato sem atrito. O décimo primeiro capítulo é destinado as conclusões do trabalho e propostas de continuidade de estudo e pesquisa. 3

11 1.1 Preliminares Neste capítulo apresentaremos resultados que consideramos pertinentes para a compreensão dos próximos capítulos. Aqui apresentaremos definições e resultados que ajudaram a formar uma base de conhecimento para tratarmos do problema em questão que é elaboração do algoritmo FDA-NCP bem como seus resultados de convergência Conceitos básicos para problemas de otimização Seja, um problema de otimização não linear: min f(x) Sujeito a: g i (x) 0 ; i = 1, 2,..., m e h i (x) = 0 ; i = 1, 2,..., p, (1.1) onde temos f : IR n IR, g : IR n IR m e h : IR n IR p são funções suaves em IR n e pelo menos uma destas funções é não-linear. Uma restrição de desigualdade é dita ativa se g i (x) = 0 e Inativa se g i (x) < 0. Denotamos g(x) = [g 1 (x), g 2 (x),..., g m (x)] t e h(x) = [h 1 (x), h 2 (x),..., h p (x)] t, assim nos temos min f(x) Sujeito a: g(x) 0 (1.2) e h(x) = 0. Veremos agora algumas definições dirigidas ao problema de otimização não linear 1.2. Definição Um ponto x Ω IR n é dito Mínimo Local (ou Mínimo Relativo) de f sobre Ω se existe uma vizinhança V {x Ω / x x δ} tal que f(x) f(x ) para qualquer x V. Se f(x) > f(x ) para todo x V, x x, então dizemos que x é um Mínimo Local Estrito. Definição Um ponto x Ω IR n é dito Mínimo Global (ou Mínimo Absoluto) de f sobre Ω se f(x) f(x ) para qualquer x Ω. Se f(x) > f(x ) para todo x Ω \ {x }, então dizemos que x é um Mínimo Global Estrito. 4

12 A maioria dos métodos de Programação Não Linear (PNL) são iterativos. Dado um ponto inicial x 0, uma seqüencia de pontos, {x k }, é obtida por repetidas aplicações de uma regra algoritmica. Esta seqüência deve convergir a uma solução x do problema. A convergência é dita assintótica quando a solução não é atingida antes de um numero finito de iterações. Definição Um algoritmo iterativo é dito ser globalmente convergente se para qualquer ponto inicial x 0 IR n (ou x 0 Ω) este gera uma seqüencia de pontos que converge a uma solução do problema. Definição Um algoritmo iterativo é dito ser localmente convergente se existe ɛ > 0 tal que para qualquer ponto inicial x 0 IR n (ou x 0 Ω) que verifica x 0 x ɛ, a seqüência gerada de pontos converge para uma solução do problema. Agora segue uma definição que introduz um critério para medir a velocidade de convergência de métodos iterativos com convergência assintótica. Definição A ordem de convergência de uma seqüência {x k } x é o maior numero p dos números não negativos ρ que satisfazem: lim sup k x k+1 x x k x ρ = β <. Quando p = 1 nos dizemos que a Convergência é q-linear com Raio de Convergência β < 1. Se β = 0 a convergência é dita Superlinear. A convergência é Quadrática quando p = 2. A relação entre o limite de k, p e β é uma forma de medir a velocidade assintótica da convergência. Uma seqüência pode ter uma boa ordem de convergência mas ir muito devagar para a solução. A convergência é rápida quando p é grande e β é pequeno. Nas provas de convergência, usaremos quando conveniente as seguintes notações O(.) e o(.) definidas abaixo. 5

13 Dado uma função h : IR n IR m, usamos a expressão O(h(x)) para representar as funções g : IR n IR m que satisfazem g(x) lim x 0 h(x) <. (1.3) E a expressão o(h(x)) para representar as funções g : IR n IR m que satisfazem g(x) lim x 0 h(x) = 0. (1.4) A geração de pontos de uma seqüência é dada por uma regra algoritmica. Por exemplo, dado um ponto inicial, determinamos uma direção de busca para determinar o próximo ponto e assim sucessivamente. Para isso veremos algumas definições sobre direções. Definição Um vetor d IR n é uma direção de descida para uma função real f em x IR n se existe um δ > 0 tal que f(x + td) < f(x) para qualquer t (0, δ). No caso de f ser diferenciável em x e d t f(x) < 0 então d é uma direção de descida para f em x. Definição Um vetor d IR n é uma direção de viável de um problema PNL 1.2, em x Ω = {x IR n / g(x) 0}, se para algum θ > 0 nos temos x + td Ω para todo t [0, θ]. É claro que qualquer direção d em um ponto interior a Ω é uma direção viável. Definição Um campo vetorial d(.) definido em Ω é dito ser um campo uniforme de direções de viáveis do problema PNL 1.2, em Ω = {x IR n / g(x) 0}, se existe um τ > 0 tal que x + td(x) Ω para todo t [0, τ] e para todo x Ω Buscas lineares inexatas Uma vez definida a direção de busca podemos considerar critérios para determinar o próximo ponto por meio das buscas lineares inexatas. Apresentaremos dois tipos de buscas, Armijo e Wolfe. 6

14 Definição (Busca de Armijo) Dada uma função potencial f, definimos o tamanho do passo t como sendo o primeiro numero inteiro da seqüência {1, ν, ν 2, ν 3,...} satisfazendo f(x + td) f(x) + tη f(x) T d, onde η (0, 1) e ν (0, 1) são parâmetros dados. O critério da busca linear inexata de Wolfe também estabelece limites no tamanho do passo, pedindo uma redução na função potencial e ao mesmo tempo uma redução em sua derivada direcional. Definição (Busca de Wolfe) Dada uma função potencial f, o passo t é aceito se verificar: sendo o primeiro numero inteiro da seqüência {1, ν, ν 2, ν 3,...}, satisfazendo f(x + td) f(x) + tη 1 f t (x)d, onde ν (0, 1), η 1 (0, 1), η 2 2 (η 1, 1) são parâmetros dados e verificando f t (x + td)d η 2 f(x) T d Condições de otimalidade O seguinte resultado nos dá uma interpretação geométrica da condições de otimalidade de uma grande classe de Problemas. Teorema Condição necessaria Primeira e Segunda Ordem. Se x Ω é um mínimo local de f sobre Ω então, para qualquer direção viável d IR n, satisfaz: i) d t f(x ) 0 ii) se d t f(x ) = 0, então d t 2 f(x )d 0. Se Ω = IR n, temos um problema de Otimização sem Restrição, min f(x), (1.5) x IR n 7

15 do teorema e como toda direção não nula d IR n é uma direção viável temos o seguinte teorema: Teorema Condição necessaria Primeira e Segunda Ordem. Se x é um mínimo local de f sobre IR n então: i) f(x ) = 0 ii) para todo d IR n, d t 2 f(x )d 0. Isto é, 2 f(x ) é semi definida positiva. A condição suficiente de otimalidade local o problema de Otimização sem Restrição 1.5. Teorema Condição suficiente de otimalidade. Seja f uma função escalar duas vezes continuamente diferenciável em IR n e x tal que: i) f(x ) = 0 ii) 2 f(x ) é definida positiva. Então, x é um ponto de mínimo local estrito de f. As condições de otimalidade para o problema de Otimização com Restrição 1.2. Definição Um ponto x Ω é um ponto regular das restrições do problema 1.2 se os vetores h i (x), para i = 1, 2,...p, e g i (x) para i I(x) são linearmente independente. (I(x) {i / g i (x) = 0} é chamado de Conjuntos das restrições Ativas em x.) Definição (Espaço Tangente) Para o conjunto dos pontos regulares, x Ω, definido em o espaço tangente se expressa como: T (x) = {d g i (x) T d = 0 i I(x), h i (x) T d = 0, i {1, 2,..., p}}. Nos vamos introduzir agora as variáveis auxiliares λ IR m e µ IR p, chamadas de Variáveis Duais ou Multiplicadores de Lagrange e definimos a função Lagrangeana associada com o problema 1.2 como l(x, λ, µ) = f(x) + λ T g(x) + µ T h(x). (1.6) 8

16 Teorema Karush-Kuhn-Tucker (KKT) Condição Necessaria de Primeira Ordem. Seja x um ponto regular das restrições g(x) 0 e h(x) = 0, um Mínimo Local do problema 1.2. Então, existe um vetor λ IR m e um vetor µ IR p tal que f(x ) + g(x )λ + h(x )µ = 0 (1.7) G(x )λ = 0 (1.8) h(x ) = 0 (1.9) g(x ) 0 (1.10) λ 0 (1.11) onde G(x ) é uma matriz diagonal. Teorema Condição Necessaria de Segunda Ordem. Seja x um ponto regular das restrições g(x) 0 e h(x) = 0, um Mínimo Local do problema 1.2. Então, existe um vetor λ IR m e um vetor µ IR p tal que as condições ( ) é satisfeita e a matriz m p H(x, λ, µ ) = 2 f(x ) + λ i 2 g i (x ) + µ i 2 h i (x ) (1.12) i=1 i=1 é semi definida positiva no espaço do plano tangente T (x). Teorema Condição Suficiente de Segunda Ordem. Seja x, um ponto satisfazendo g(x ) 0 e h(x ) = 0. Existe um vetor λ IR m, λ 0 e um vetor µ IR p tal que f(x ) + g(x )λ + h(x )µ = 0 (1.13) G(x )λ = 0 (1.14) e H(x, λ, µ ) é definida positiva no espaço tangente T (x). Então x é um Mínimo Local Estrito do problema O método de Newton para equações O método de Newton clássico é introduzido para resolver sistemas não lineares do tipo T (z) = 0, (1.15) 9

17 onde T : IR n IR n é diferenciável. Este método é muito utilizado em algoritmos de Programação Matemática. Para o método de Newton clássico é comum pedir as seguintes suposições: Suposição Existe z IR n tal que T (z ) = 0. Suposição A matriz jacobiana T (z ) é não singular. Suposição O operador jacobiano T é continuo e localmente Lipschitz em x. Assim, determinar uma seqüência {z k } que se aproxima de alguma solução z do sistema (1.15) utilizamos a aproximação linear T (z k ) + T (z k )(z z k ) = 0. A relação acima chama-se a equação de iteração do método de Newton. O método de Newton pode ser escrito em forma do esquema iterativo z k+1 = z k (T (z k )) 1 T (z k ), k = 0, 1, 2,... (1.16) Desta forma é de se esperar que a seqüência de pontos gerada acima se aproxima de uma solução do sistema (1.15). E quando isso ocorre podemos esperar uma convergência rápida. É o diz no próximo resultado. Iremos assumir que T (z) é diferenciável e as suposições Teorema Dado z 0 IR n suficientemente próximo de z, o Algoritmo definido por (1.16) gera uma seqüência {z k } bem definida que converge a z. A taxa de convergência é quadrática. A demonstração deste resultado pode ser vista em [29] e [13]. Portanto este teorema estabelece a convergência local do método de Newton. Dos vários métodos existentes para resolver numericamente problemas de Programação Matemática, muitos utilizam ou se baseiam na iteração de Newton para construir a seqüência de pontos que converge a uma solução destes problemas. 10

18 1.1.5 Problema de Complementaridade Definição Seja F : D IR n IR n uma função vetorial. O problema de complementaridade é: Encontrar x IR n tal que x 0, F (x) 0 e x F (x) = 0 (1.17) onde x 0 x i 0 para todo 1 i n, F (x) 0 F i (x) 0 para todo x 1 F 1 (x) 1 i n e x F (x) =. é o produto de Hadamard. x n F n (x) Quando F é uma função afim (F (x) = Ax + b, A IR n n e b IR n ), temos um Problema de Complementaridade Linear (PCL), caso contrário temos um Problema de Complementaridade Não-Linear(PCN). Vamos definir conjunto de pontos viáveis para o problema e solução não degenerada. Definição Seja Ω IR n. Chamaremos de conjunto de pontos viáveis do problema de complementaridade dado por F o seguinte conjunto: Ω := {x IR n x 0, F (x) 0}. (1.18) Definição Se x Ω e verifica as seguintes condições x > 0 e F (x) > 0 então diremos que este ponto é estritamente viável para o problema de complementaridade. E denotaremos o conjunto dos pontos estritamente viáveis por Ω 0. Definição Uma solução de é dita solução degenerada se para algum índice i, x i = 0 e F i (x) = 0. Definição Uma solução de é dita solução não degenerada se para todo índice i, x i + F i (x) 0. 11

19 Vamos introduzir os seguintes conjuntos de indices para um dado x Ω: K = {i x i = 0 e F i (x) > 0}, (1.19) J = {i x i > 0 e F i (x) = 0}, (1.20) L = {i x i > 0 e F i (x) > 0}, (1.21) I 0 = {i x i = 0 e F i (x) = 0}. (1.22) Um Problema de Complementaridade que vem agregado com uma restrição de igualdade é chamado de Problema de Complementaridade Mista e tem a seguinte definição. Definição Sejam F : D IR n IR n IR m e Q : D IR m IR n IR m funções vetoriais. O Problema de Complementaridade Mista é: Encontrar (x, y) IR n IR m tal que x 0, F (x, y) 0 e x F (x, y) = 0 Q(x, y) = 0 (1.23) E da mesma forma como definimos para o caso de complementaridade temos: Conjunto de pontos viáveis com respeito as restrições x e F (x, y). Ω := {(x, y) IR n IR m x 0 e F (x, y) 0}. Conjunto de pontos estritamente viáveis Ω 0 := {(x, y) IR n IR m x > 0 e F (x, y) > 0}. Definição Uma solução de 1.23 é dita solução degenerada se para algum índice i, x i = 0 e F i (x, y) = 0. Definição Uma solução de 1.23 é dita solução não degenerada se para todo índice i, x i + F i (x, y) 0. Nas últimas décadas muitos pesquisadores tem estudado o Problema de Complementaridade e desenvolveram (ou adaptaram) métodos para resolver este 12

20 problema. Alguns destes métodos e pesquisadores que trabalharam neles: Método baseado em Problema de Minimização sem restrições, podemos destacar aqui Mangasarian e Solodov, [40], Yamashita e Fukushima, [62], Geiger e Kanzow, [20], Kanzow, [31]. Método baseado em Sistemas de Equações. Mangasarian foi quem propôs pela primeira vez em seu artigo, [39], a resolução de um problema de Complementaridade como a resolução de um sistema de equação associado ao problema de complementaridade. Outros autores que também trabalharam nessa linha: Subramanian, [54], Kanzow, [30], C. Chen e O. L. Mangasarian, [6]. Método de Suavização, esta técnica é tanto aplicável ao primeiro caso quanto ao segundo caso, pois a idéia aqui é trazer a regularidade requerida para aplicar o método em questão. Destacamos os autores M. C. Ferris e C. Kanzow, [16], S. J. Wright, [59], C. Chen e O. L. Mangasarian, [6]. Método de Ponto Interior, é utilizado uma variável de folga para definir a região IR 2n + como a região viável para o problema de complementaridade com respeito a essa nova variável. Esta técnica é muito empregada para os casos de complementaridade linear. Podemos citar aqui os trabalhos de M. C. Ferris e C. Kanzow, [16], S. J. Wright, [59], P. Tseng, [[58], [57]]. Método tipo Projeção, utiliza-se o teorema do ponto fixo de Banach para gerar a seqüencia de pontos e uma vantagem desta técnica é que não necessita de derivadas mas a convergência é lenta. Destacamos os seguintes autores A. Auslender, [1], G. M. Korpelevich, [36], E. M. Khobotov, [33], M. V. Solodov e B. F. Svaiter, [52], M. V. Solodov e P. Tseng, [53], D. Sun, [55]. 13

21 Capítulo 2 Métodos para Resolução de Problemas de Complementaridade Vamos comentar sobre alguns métodos numéricos existentes para a resolução de problemas de complementaridade. Nas décadas de 60 s e inicio de 70 s utilizava-se muito o artifício de reescrever os problemas de complementaridade como um problema de minimização sem restrições em IR n, para isto usavam as funções especiais chamadas de Funções de Mérito. Uma vez que o problema de complementaridade foi reescrito como um problema de minimização sem restrições utiliza-se técnicas para resolver numericamente estes problemas de minimização. No ano de 1976 O.L. Mangasarian apresentou a equivalência do Problema de Complementaridade com a resolução de Sistema Não Linear em IR n, [39]. A partir dai foram desenvolvidos vários algoritmos baseados na resolução de sistemas não lineares de equações. Nesta técnica utiliza-se uma classe de funções conhecida como Funções-NCP que permitem estabelecer esta equivalência. Nos final dos anos 70 s em diante os métodos baseados na resolução de sistemas de equações foram melhorados com técnicas não diferenciáveis pois justamente as Funções-NCP utilizadas não tinham a suavidade requerida pelo método de Newton. Também nesta mesma época surgiram técnicas que utilizam variáveis de folga na restrição F (x) 0 transformando-a em uma restrição de igualdade e reescrevendo assim o problema de complementaridade em um grande sistema de equações em IR 2n +. Nesta técnica utiliza-se algoritmos de pontos interiores, [59]. 14

22 Do teorema de Ponto Fixo de Banach temos a técnica de projeção que projeta um vetor v de IR n em IR n Método baseado em Problemas de Minimização - Funções de Mérito A idéia deste método é transformar um problema de complementaridade em um problema de minimização sem restrição. Vamos definir as propriedades que uma determinada função tem que satisfazer para que possamos reescrever o problema de complementaridade. Definição Uma função φ(x) : IR n IR é chamada função de mérito para um problema de complementaridade se satisfaz: a) φ(x) 0 para todo x IR n ; b) φ(x) = 0 se e somente se x é uma solução do Problema de Complementaridade Assim, podemos transformar o Problema de Complementaridade em um problema de minimização sem restrições do tipo min φ(x). (1.1) x IR n Para aplicarmos as técnicas usuais de otimização a este problema de minimização, a função de mérito terá que satisfazer determinadas hipóteses de regularidade. Por exemplo, se utilizarmos algoritmos baseados na diferenciabilidade da função potencial devemos pedir que φ seja pelo menos uma vez continuamente diferenciável e se possível até duas vezes continuamente diferenciável. Alguns exemplos de funções de méritos. Função Lagrangiana Implícita [40]. n φ(x) := {x i F i (x)+ 1 i=1 2α (max{0, x i αf i (x)} 2 x 2 i +max{0, F i (x) αx i } 2 F i (x) 2 )} onde, α > 1 é um parâmetro fixo. 15

23 Função mérito de Fischer-Burmeister [14]. φ(x) := 1 n ( x 2 i + F i (x) 2 2 x i F i (x)) 2. i=1 Função mérito penalizada de Fischer-Burmeister [5]. φ(x) := 1 n {λ( x 2 i + F i (x) 2 2 x i F i (x)) 2 +(1 λ) max{0, x i } 2 max{0, F i (x)} 2 }). i=1 onde, λ (0, 1) é um parâmetro fixo. As funções de mérito apresentadas são uma vez continuamente diferenciável em IR n. Portanto não é aconselhável minimizar diretamente estas funções de mérito com algoritmos clássicos para problemas de otimização diferenciáveis. Apesar disto, as funções de mérito são freqüentemente usadas para monitorar a convergência global de diversos algoritmos. A maioria dos algoritmos de otimização garantem que os pontos limite da seqüência gerada por eles são pontos estacionário de φ(x) satisfazendo φ(x) = Método baseado em Sistemas de Equações - Função-NCP A idéia de reformular um problema de complementaridade como um sistema de equações foi proposta por Mangasarian [39]. Ele utilizou uma classe de funções chamada de Funções-NCP que tem a seguinte propriedade. Definição Uma função ψ : IR 2 IR é chamada de Função-NCP para um problema de complementaridade se satisfaz a condição: ψ(a, b) = 0 a 0, b 0 e ab = 0 Alguns exemplos de Funções-NCP. ψ M (a, b) = (a b) 2 a a b b, Função Mangasarian [39]. 16

24 ψ m (a, b) = min(a, b), Função Resíduo natural. ψ F B (a, b) = a + b a 2 + b 2, Função Fischer-Burmeister. ψ R (a, b) = ab min2 (0, a + b), Função min. Das Funções-NCP acima somente a primeira e a quarta são continuamente diferenciáveis em IR 2. A terceira é diferenciável em IR n \ {(0, 0)}. Para uma dada Função-NCP ψ, definimos um operador Ψ : IR n IR n como o sistema de equações associado a ele da seguinte forma: ψ(x 1, F 1 (x)). Ψ(x) :=., Ψ(x) = 0 (2.1). ψ(x n, F n (x)) É claro que para cada Função-NCP, existe a função de mérito natural dada por: φ(x) = 1 2 Ψ(x)t.Ψ(x) = 1 n Ψ 2 i (x) 2 i=1 Chamaremos Ψ de operador das equações correspondente ao problema de complementaridade Como conseqüência da definição obtemos a seguinte caracterização do problema de complementaridade: Sejam ψ uma Função-NCP e Ψ seu operador de equações correspondente. Então x é uma solução do problema de complementaridade se e somente se é uma solução do sistema de equações 2.1. Se F (x) e ψ(a, b) são funções continuamente diferenciáveis, então o operador Ψ também é. Neste caso, nós podemos aplicar o método clássico de Newton para achar x que verifica Ψ(x) = 0 e assim resolver o problema de complementaridade. Isto nos leva a iterações do tipo x k+1 := x k [ Ψ(x k )] 1 Ψ(x k ), k = 0, 1, 2,... onde Ψ(x k )] 1 é a matriz jacobiana de Ψ(x k ). A matriz jacobiana Ψ(x ) tem que ser não singular na solução x do problema de complementaridade para podermos ter pelo menos convergência local superlinear. Infelizmente, esta matriz é singular em qualquer solução degenerada, [32]. 17

25 Proposição Sejam F (x) e ψ(a, b) funções diferenciáveis, seja Ψ(x) o operador de equações correspondente. Se x é uma solução degenerada do problema de complementaridade então a Jacobiana Ψ(x ) é singular. Nos casos em que Ψ(x) não existe, podemos utilizar métodos para funções não diferenciáveis e neste caso normalmente pede-se que Ψ(x) seja no mínimo localmente lipschitziana, pois assim, Ψ(x) será diferenciável em quase todo ponto. Denotaremos de D Ψ ao conjunto de pontos onde Ψ(x) é diferenciável. Então definimos o que chamamos de B-subdiferencial, B Ψ(x) := {H IR n n {x k } D Ψ : x k x e Ψ(x k ) H} bem como seu fecho convexo Ψ(x) := conv{ B Ψ(x)} que é chamado jacobiano generalizado, [9]. Elementos de B Ψ(x) e Ψ(x) podem ser usados no lugar da jacobiana clássica Ψ(x) (que em algumas situações não existe). Um método de Newton não suave típico consiste em realizar as seguintes iterações: x k+1 = x k H 1 k Ψ(xk ), k = 0, 1, 2,..., onde H k é um elemento arbitrário de B Ψ(x k ), não singular. Dois pontos importantes deste método são: 1) O cálculo de um elemento do B-subdiferencial. Por isso é interessante utilizarmos determinados operadores Ψ, que seja fácil o cálculo de um elemento de seu B-subdiferencial, H k B Ψ(x). 2) Devemos ainda considerar o fato que este elemento H k seja não singular. Quando se utiliza a Funcão-NCP de Fischer-Burmeister, resultados com respeito a 1) e 2) podem ser visto em Houyuan Jiang e Liqun Qi [28], [51] e T. De Luca, F. Facchinei, C. Kanzow [38]. Em suma se consegue o seguinte resultado: Todo elemento H B Ψ(x ) é não singular. 18

26 Nos casos dos problemas de complementaridade monótona pode-se mostrar a convergência global destes métodos. Para isso, incluímos uma busca linear tomando como direção de busca o vetor d k := H 1 k Ψ(xk ) e como função potencial a função de mérito natural correspondente. Assim executa-se uma busca linear ao longo desta direção pedindo o decrescimento da função potencial ([38], [19], [49], [50]) Método de Suavização Os métodos de suavização para problemas de complementaridade basicamente fazem uma aproximação da Função-NCP não diferenciável ψ(a, b) por uma seqüência de funções diferenciáveis ψ µ (a, b) que depende de um parâmetro de suavidade µ > 0. Por exemplo, uma possibilidade de aproximação da função de Fischer-Burmeister é: ψ µ (a, b) := a 2 + b 2 + 2µ (a + b) (2.2) Usando técnicas similares, é possível suavizar a maioria das Funções-NCP conhecidas. Uma vez conhecida tal aproximação suave ψ µ, podemos definir o operador de equações correspondente Ψ µ (x) := ψ µ (x 1, F 1 (x))... ψ µ (x n, F n (x)) A aproximação Ψ µ de Ψ será suave se a própria F (x) for suave. (2.3) A idéia principal de qualquer método de suavização é aplicar o método de Newton clássico para o sistema de equações não lineares Ψ µ (x) = 0 e fazer com que o parâmetro µ de suavidade tenda a zero. Uma forma de fazer isso é indexar o valor de µ à iteração k através de µ k. Assim, uma iteração do método de suavização é dada pela expressão x k+1 = x k Ψ µk (x k ) 1 Ψ µk (x k ), k = 0, 1, 2,... 19

27 Um ponto delicado para todo método de suavização é o modo que o parâmetro de suavidade µ k é escolhido a cada iteração. Se isto é feito de um modo apropriado, é possível provar resultados de convergência global para problemas monótonos. (Ver, [7]) 2.3 Método de Ponto Interior Uma descrição de um algoritmo de pontos interiores para problemas de complementaridade pode ser vista no livro Primal-Dual interior-point Methods, [59]. O problema de complementaridade é reescrito da seguinte forma: Dados x e y IR n temos F (x) y = 0, x 0, y 0 e x y = 0 (3.1) onde F (x) é uma função monótona associada ao problema de complementaridade Então (x, y) é uma solução do problema (3.1) x é uma solução de Dado o seguinte sistema com as restrições x 0 e y 0: S(x, y) = F (x) y y x = 0. Uma iteração é definida pela resolução do sistema abaixo: F (x) Id. x = y F (x), Y X y y x + µe onde Id é a matriz identidade de ordem n, X = diag(x), Y = diag(y), E = [1,...1] um vetor coluna e µ = xt y n. A maioria dos métodos de ponto interior para problema de complementaridade é baseada nesta técnica que também pode ser vista em ([35], [58], [57]). Estes métodos são chamados de métodos de ponto-interior não viável pois a seqüência gerada de pontos cumpre a condição x 0 e não necessariamente cumpre a condição F (x) 0. Esta técnica é muito utilizada para problemas de complementaridade linear. 20

28 2.4 Método tipo Projeção Os métodos tipo projeção são baseados na seguinte proposição. Proposição Um vetor x é uma solução de se e somente se x satisfaz a equação x = (x λf (x)) +, onde λ > 0 é uma constante arbitraria e z + denota a projeção Euclidiana de um vetor z IR n sobre IR n +. Os métodos tipo projeção consistem em realizar a seguinte iteração x k+1 := (x k λf (x k )) +, k = 0, 1, 2,... onde x 0 IR n + é um dado ponto inicial [1]. Usando o Teorema de ponto fixo de Banach, se F for fortemente monótona, globalmente Lispschitz e λ > 0 seja suficientemente pequeno, pode-se mostrar que este método possui convergência global, além disso, a taxa de convergência é linear. Algumas modificações neste método de projeções permitem obter resultados de convergência global. Por exemplo, o método Extragradiente ([36] e [33]) gera iterações usando a fórmula x k+1 := (x k λf ((x k λf (x k )) + ) +, k = 0, 1, 2,... Para o método Extragradiente pode-se mostrar a convergência global se F for monótona e globalmente Lispschitz desde que λ > 0 seja suficientemente pequeno. O valor de λ suficientemente pequeno que garanta a convergência global não pode ser conhecido a priori. Isto implica que devemos escolher λ dinamicamente para conseguir resultados satisfatórios nos métodos de projeção.([52],[53],[55]). O método de projeção Extragradiente tem propriedades de convergência globais boas para problemas de complementaridade monótona, mas eles são na melhor das hipóteses de convergência linear. Devido ao número excessivo de iterações que eles realizam, em comparações aos outros métodos. Seria recomendado o uso destes métodos de projeção nos casos em que a dimensão de IR n seja suficientemente grande ou o cálculo de F (x) seja muito complicado ou impossível. 21

29 Capítulo 3 Um Algoritmo de Ponto Interior Viável para NCP 3.1 Idéias Básicas Neste capitulo apresentaremos um algoritmo ponto interior para problemas de complementaridade. Este algoritmo gera uma seqüência de pontos que satisfaz as desigualdades do problema de complementaridade Relembrando da definição do Problema de Complementaridade Determinar x IR n tal que x 0, F (x) 0 e x F (x) = 0 onde x 1 F 1 (x) 0.. x F (x) =. =. (1.1).. x n F n (x) 0 A idéia do algoritmo é resolver o sistema de equações acima dentro da região Ω IR n. Para isto utilizaremos a iteração de Newton para construir uma seqüência de pontos viáveis, a qual convergirá para a solução do problema de complementaridade

30 Considere o seguinte sistema: H(x) = x 1 F 1 (x)... x n F n (x) = 0 (1.2) É claro que toda solução do problema de complementaridade é uma solução do sistema de equações (1.2). Mas infelizmente não podemos afirmar que toda solução do sistema (1.2) seja uma solução do problema de complementaridade Por outro lado, se restringirmos a resolução do sistema (1.2) na região de pontos viáveis Ω = {x IR n x 0 e F (x) 0} podemos afirmar que uma solução deste sistema em Ω é uma solução do problema de complementaridade Assim, temos que desenvolver um algoritmo que gere uma seqüência de pontos em Ω e convirja para a solução do sistema (1.2) e portanto convergirá para uma solução do problema de complementaridade Para gerar esta seqüência utilizaremos uma iteração de Newton no sistema 1.2 mas veremos que isso não será suficiente para garantir que a seqüência gerada esta contida em Ω. Antes de começarmos a construção do algoritmo veremos algumas notações que auxiliaram no decorrer do texto. O Gradiente de H(x) é dado por H(x) = D F (x) + D x F (x) (1.3) onde D F (x) e D x são matrizes diagonais, [D F (x) ] (i,i) = F i (x), [D x ] (i,i) = x i para todo 1 i n e a matriz jacobiana de F (x) é F (x) = F 1 (x) x 1 F 2 (x) x 1 F 1 (x) x 2... F 2 (x) x 2... F 1 (x) x n F 2 (x) x n F n(x) x 1 F n(x) x 2... Observe que a i-ésima linha de H(x) e definida por F n(x) x n. H i (x) = F i (x)e i + x i F i (x) (1.4) 23

31 onde e i é um vetor (linha) unitário com 1 na i-ésima coordenada e F i (x) é um vetor linha. Portando, dado um ponto x k em Ω, que não seja solução de (1.2), pela iteração de Newton em H(x) = 0 temos H(x k )d k 1 = H(x k ) (1.5) Para que o sistema (1.5) esteja bem definido vamos supor que H(x k ) seja não singular em x k. Então, se para algum índice i 1, 2,..., n ocorrer que H i (x k ) = 0 sem que seja solução do problema de complementaridade, teremos a seguinte situação. Seja a i-ésima linha do sistema (1.5) onde ocorre H i (x k ) = 0, (F i (x k )e i + x k i F i (x k ))d k 1 = 0, pela não singularidade da matriz H(x k ) temos duas possibilidades: (1) x k i = 0 e F i (x k ) > 0 isso implica que d k 1 é tangente a restrição x i 0. (2) F i (x k ) = 0 e x k i > 0 isso implica que d k 1 é tangente a restrição F i (x) 0. E em ambos os casos não temos garantido a viabilidade da direção d k 1 em Ω. A proposição abaixo nos fornece as condições para que uma direção d IR n tem que satisfazer para ser uma direção viável em Ω. Proposição Seja d IR n e x Ω. Se a direção d satisfaz as condições: (1) d i > 0 para todo índice i tal que x i = 0. (2) F i (x)d > 0 para todo índice i tal que F i (x) = 0. então d é uma direção viável no ponto x. Portanto usaremos uma direção de restauração, para compor junto com a direção d 1 de Newton uma nova direção d que seja viável em Ω. Para isso tome o seguinte sistema: H(x k )d k 2 = ρ k E (1.6) onde o vetor E IR n é composto por 1 s e m parâmetro ρ k > 0. Então para todo ponto x k Ω que não seja solução do problema de complementaridade mas que para algum índice i, temos H i (x k ) = 0 segue que (1) x k i = 0 e F i (x k ) > 0 isso implica que d k 2 i > 0. 24

32 (2) F i (x k ) = 0 e x k i > 0 isso implica que F i (x k )d k 2 > 0. Assim a direção d k 2 é uma direção viável em Ω, pela proposição Portanto, a seguinte combinação linear d = d k 1 + ρ k d k 2, com ρ k > 0 faz com que a direção d k seja uma direção viável em Ω. Como podemos ver na figura 3.1. Figura 1.1: Vamos definir ρ k = ρ 0 φ(x k ) β n onde, ρ 0 > 0, φ(x k ) = x kt F (x k ) e β [1, 2]. observe que ρ k > 0 para todo x k Ω que não seja solução do problema de complementaridade. Desta forma vamos calcular a direção de busca d k resolvendo o seguinte sistema H(x k )d k = H(x k ) + ρ k E (1.7) em cada iteração. Veremos agora que a direção d k tem a propriedade de ser viável em Ω e de ser uma direção de descida para a seguinte função potencial φ(x) = x T F (x). Vamos considerar os conjuntos de indices dados em ( ). Proposição (Viabilidade da direção) Sejam x k Ω tal que φ(x k ) > 0 e H(x k ) não singular, então temos que a direção d k obtida pela resolução do sistema (1.7) é viável em Ω. Prova: Seja x k Ω, se o ponto x k é estritamente viável, qualquer direção d k é viável em 25

33 Ω. Então basta verificar para os pontos x k em que os conjuntos de indices K e J. Pelo sistema (1.7); H(x k )d k = x k F (x k ) + ρ k E, Observe que a i-ésima linha deste sistema é: [e i F i (x k ) + x k i F i (x k )]d k = x k i F i (x k ) + ρ k. Segue então que: (1) Para um índice i K temos: x k i = 0 e F i (x k ) > 0 portanto: assim, d k i = [e i F i (x k )]d k = F i (x k )d k i = ρ k ρk > 0 então, F i (x k ) dk i > 0 para todo ρ k > 0. (2) Para um índice i J temos: x i > 0 e F i (x) = 0 portanto: [x k i F i (x k )]d k = x k i [ F i (x k )d k ] = ρ k o que implica que F i (x k )d k > 0. Logo pela proposição temos que d k é uma direção viável em Ω. A direção d k é uma direção de descida para a função potencial φ(x). Proposição Em todo ponto x k Ω tal que φ(x k ) > 0, a direção d k obtida pela resolução do sistema (1.7) é uma direção de descida para φ(x k ) se ρ 0 φ(x k ) β 1 < 1. Prova: A função φ(x) é estritamente positiva para todo ponto x k em Ω que não seja solução do problema de complementaridade , e ainda, todo ponto x k Ω tal que φ(x k ) = 0 implica que x k é uma solução do problema de complementaridade , ou seja, x k 0, F (x k ) 0 e xi k F i (x k ) = 0 para todo 0 i n. O gradiente de φ(x k ) é dado por 26

34 φ(x k ) = E T [D F (x k ) + D x k F (x k )]. Dada a direção d k obtida pela resolução do sistema (1.7) temos que φ(x k )d k = E t [D F (x k ) + D x k F (x k )]d k = E t ( x k F (x k ) + ρ k E) = φ(x k ) + ρ k n = [1 ρ 0 φ(x k ) β 1 ]φ(x k ) < 0 para todo ρ 0 φ(x k ) β 1 (0, 1). Por tanto a direção d k é uma direção de descida para φ(x k ). Com estes dois resultados temos que a direção d k é de descida e viável para o problema de complementaridade desde que tenhamos H(x k ) não singular e ρ 0 φ(x k ) β 1 < 1 para todo x k Ω. Assim vamos definir o seguinte conjunto Ω c = {x Ω φ(x) c} onde c é uma constante positiva. Assim, podemos por exemplo definir ρ 0 = α c β 1 com α (0, 1). Veremos na próxima seção que a seqüência gerada está contida no conjunto Ω c. Mas vamos agora apresentar a descrição do algoritmo FDA-NCP. 27

35 3.2 Descrição do Algoritmo FDA-NCP. O presente algoritmo produzirá uma seqüência de pontos interiores a região Ω que converge a uma solução do problema de complementaridade mediante a resolução de um sistema linear e uma busca linear nas restrições x 0, F (x) 0 e na função potencial φ(x). A busca que iremos utilizar é a de Armijo. Vamos considerar os seguintes parâmetros: c, ɛ > 0, ρ 0, η, ν (0, 1), β (1, 2]. Dados iniciais: x 0 Ω estritamente viável tal que φ(x 0 ) c e k = Passo 1: Direção de Busca. Resolva o sistema onde ρ k = ρ 0 φ(x k ) β n. 2. Passo 2: Busca linear. [D F (x k ) + D x k F (x k )]d k = H(x k ) + ρ k E, Define-se o tamanho do passo t k como sendo o primeiro valor da seqüência {1, ν, ν 2, ν 3,...} satisfazendo 1) x k + t k d k 0 2) F (x k + t k d k ) 0 3) φ(x k ) + t k η φ(x k ) t d k φ(x k + t k d k ) 3. Passo 3: Atualização dos Dados x k+1 := x k + t k d k e k := k Passo 4: Critério de parada Se φ(x k+1 ) < ɛ, pare. caso contrário volte ao passo 1. Neste algoritmo podemos destacar dois pontos importantes. Primeiro é o calculo da direção de busca e o segundo é busca linear. No passo 1 determinamos a direção 28

36 de busca d k por meio da resolução de um sistema linear. Este sistema fornece uma direção d k que é uma combinação da direção de Newton d k 1 e da direção de restauração d k 2. A direção de Newton d k 1 é uma direção de descida para a função potencial φ(x k ) dentro da região Ω, como já visto o grande inconveniente de usarmos esta direção para achar o próximo ponto da seqüência é que esta direção não é em geral uma direção viável na região Ω. A direção d k 2 por sua vez é uma direção de restauração que tem a propriedade de ser viável na região Ω, porem não é em geral uma direção de descida para função potencial φ(x k ). Mas a combinação destas duas direções nos fornece uma direção d k que tem a propriedade de ser uma direção de descida da função potencial φ(x k ) e viável na região Ω como mostrado nas proposições e Desta forma é possível gerar uma seqüência de pontos com a direção d k onde cada ponto desta seqüência esta contido em Ω e ainda decresce o valor da função potencial φ(x k ). Isto é possível por meio de uma busca linear na direção de d k que é justamente o segundo passo. A busca linear determina o próximo ponto da seqüência, x k+1, que verifica duas condições x k+1 Ω e φ(x k+1 ) φ(x k ). É importante na busca linear que o comprimento do passo t k não tenda a zero pois isso comprometerá na convergência do algoritmo. Para a aplicação do algoritmo é muito importante termos as seguintes condições: Um ponto inicial x 0 estritamente viável. O conjunto Ω IR n ter interior não vazio. A matriz H(x) ser não singular para x Ω. Portanto o que faremos a seguir é estabelecer condições para que os passos 1 e 2 do algoritmo FDA-NCP estejam bem definidos e ainda garanta que a seqüência gerada por eles convirja a uma solução do problema de complementaridade. 29

37 Capítulo 4 Convergência Global do FDA-NCP Nesta seção apresentaremos resultados teóricos sobre a convergência global do Algoritmo FDA-NCP a uma solução do problema de complementaridade. Lembrando que o Algoritmo deverá gerar uma seqüência de pontos {x k } Ω, a partir de um ponto estritamente viável, e a cada iteração deverá reduzir o valor da função potencial φ(x k ). Para tal, o algoritmo produzirá uma direção de busca d k que tem as propriedades de ser uma direção viável em Ω e de descida para a função potencial φ(x). Mostraremos que esta direção d k é um campo uniforme de direções viáveis e limitado. O passo da busca de Armijo para a função potencial φ(x) é limitado inferiormente por um valor positivo. Assumiremos condições clássicas para a função F (x), a matriz H(x) e o conjunto de pontos viáveis Ω. Suposição O conjunto Ω c {x Ω φ(x) c} é compacto e possui interior Ω 0 c, tal que para cada x Ω 0 c satisfaz x > 0 e F (x) > 0. Suposição A função F (x) é continuamente diferenciável e F (x) satisfaz a condição de Lipschitz, F (y) F (x) γ 0 y x, 30

38 para qualquer x, y Ω c, onde γ 0 é uma constante positiva. Suposição A matriz H(x) é não singular para todo x Ω c, ou seja, existe ( H(x)) 1 para todo x Ω c. A suposição garante a existência de pontos estritamente viáveis em Ω c. Da suposição temos que as componentes de x e F (x) não se anulam simultaneamente para nenhum x Ω c. Temos também que o sistema de equações do algoritmo H(x k )d k = H(x k ) + ρ k E, possui solução única, logo a direção d k está bem definida. Como F (x) é contínua segue que tanto H(x) quanto ( H(x)) 1 são aplicações contínuas e limitadas em Ω c. Ou seja existem constantes positivas κ 0, κ tal que H(x) κ 0 e ( H(x)) 1 κ para todo x Ω c. 4.1 Resultados de Convergência Nos resultados a seguir assumiremos as suposições ( ). Primeiro veremos resultados com respeito a F (x) e a equação do sistema H(x) = x F (x). Lema Seja um subconjunto Γ R n compacto e não vazio. Então as funções F (x), H(x) = x F (x) satisfazem a condição de Lipschitz em Γ. Prova.: Primeiro observe que como F (x) é de classe C 1 então H(x) = x F (x) é de classe C 1 também. Temos também que F i (x) é contínua para todo i {1, 2,..., n} e como Γ é compacto então F i (x) é limitado em Γ. Existe C Fi constante positiva tal que, F i (x) C Fi para todo x Γ. Assim dados x, y em Γ tal que o seguimento x + t(y x) Γ para todo t [0, 1] e para qualquer i {1, 2,...n}. Segue pelo teorema do valor médio F i (y) F i (x) = F i (x + τ(y x))(y x), 31

39 para algum τ [0, 1]. condição de Lipschitz Portanto, para qualquer i {1, 2,...n}, F i (x) satisfaz a F i (y) F i (x) C Fi y x. De forma análoga temos o mesmo resultado para H i (x). H i (y) H i (x) C Hi y x. Tomando C F = n i=1 C Fi, podemos concluir que n n F (y) F (x) F i (y) F i (x) C Fi y x = C F y x. i=1 i=1 Também de maneira análoga segue que H(y) H(x) onde C H = n i=1 C Hi. n n H i (y) H i (x) C Hi y x = C H y x, i=1 i=1 Lema Seja um subconjunto Γ R n compacto e não vazio. Então a função H(x) satisfaz a condição de Lipschitz em Γ. Prova: Dados x, y em Γ então: ( H(x) = D F (x) + D x F (x)) H(y) H(x) = D F (y) + D y F (y) D F (x) D x F (x) D F (y) D F (x) + D y F (y) D x F (x) D F (y) D F (x) + D y ( F (y) F (x)) + (D y D x ) F (x) D F (y) D F (x) + D y F (y) F (x) + F (x) D y D x. Como Γ é compacto e F (x) é uma função continua, então existem uma constante positiva tal que D z c 0 e F (z) c 1 z Γ e da suposição temos H(y) H(x) C F y x + c 0 γ 0 y x + c 1 y x = γ y x, onde γ = C F + c 0 γ 0 + c 1. 32

40 Lema Para x, y Γ, se o seguimento de reta x + t(y x) Γ para todo t [0, 1], segue as seguintes desigualdades: H i (y) H i (x) + H i (x)(y x) + γ y x 2 1 i n, (1.1) H i (y) H i (x) + H i (x)(y x) γ y x 2 1 i n, (1.2) onde H i (x) é um vetor linha. Prova: Observe primeiro que: H(x) é uma matriz com a i-esima linha igual a H i (x) logo H i (x)d = [ H(x)d] i. Assim temos que H i (x)d H(x)d H(x) d. (1.3) Então pelo teorema do valor médio existe τ [0, 1] tal que H i (y) = H i (x) + H i (x + τ(y x))(y x). agora somando e subtraindo H i (x)(y x) no segundo membro da igualdade temos H i (y) = H i (x) + H i (x)(y x) + ( H i (x + τ(y x)) H i (x))(y x). (1.4) Da equação (1.3) temos ( H i (x + τ(y x)) H i (x))(y x) = [( H(x + τ(y x)) H(x))(y x)] i e pelo lema segue H(x + τ(y x)) H(x) y x, ( H i (x + τ(y x)) H i (x))(y x) γ τ(y x) y x γ y x 2. (1.5) Portanto da equação (1.4) e da desigualdade (1.5) segue as duas desigualdades do lema (1.1) e (1.2). Os resultados a seguir provaram que a direção de busca gerada pelo algoritmo FDA-NCP é: limitada; uma direção de descida ; e constitui um campo uniforme 33

41 de direções viáveis. Lembrando que ρ k = ρ 0 φ(x k ) β β [1, 2], α (0, 1) e x k Ω c. n onde ρ 0 = α min{1, 1 c β 1 } com Lema Para qualquer x k Ω c, da direção de busca d k gerada pelo algoritmo satisfaz d k κφ(x k ). (1.6) Como conseqüência, d k κc. Prova: Seja x k Ω c. Como d k = M 1 (x k )[ H(x k ) + ρ k E], temos a seguinte desigualdade d k M 1 (x k ) H(x k )+ρ k E. Basta mostrar uma limitação para H(x k )+ ρ k E. Tome a seguinte igualdade H(x k ) + ρ k E 2 = H(x k ) 2 2ρ k φ(x k ) + n(ρ k ) 2. Como H(x k ) 2 φ 2 (x k ) para todo x k Ω c temos que H(x k ) + ρ k E 2 φ 2 (x k ) 2ρ k φ(x k ) + n(ρ k ) 2 = (n 1)(ρ k ) 2 + (φ(x k ) ρ k ) 2, como ρ k = ρ 0φ(x k ) β n e ρ 0 φ(x k ) β 1 < 1 segue H(x k ) + ρ k E 2 [ (n 1)(ρ 0φ(x k ) β 1 ) 2 + (n ρ 0 φ(x k ) β 1 ) 2 n 2 ]φ(x k ) 2, observe que (n 1) < (n ρ 0 φ(x k ) β 1 ) < n e (ρ 0 φ(x k ) β 1 ) 2 < ρ 0 φ(x k ) β 1 < 1 então [ (n 1)(ρ 0φ(x k ) β 1 ) 2 + (n ρ 0 φ(x k ) β 1 ) 2 ] < n ρ 0φ(x k ) β 1 n 2 n Assim temos a seguinte desigualdade < 1. H(x k ) + ρ k E φ(x k ), x k Ω c. Portando, segue daqui as desigualdades do lema d k κφ(x k ) e d k κc para todo x k Ω c. 34

42 Lema A direção de busca d k qualquer x k Ω c tal que H(x k ) 0. é uma direção de descida para φ(x k ) para Prova: Como φ(x k ) é continuamente diferenciável basta verificarmos que φ(x k )d k < 0 para qualquer x k Ω c tal que H(x k ) 0 para concluirmos que d k é direção de descida. Observe que φ(x k ) = E t H(x k ), assim φ(x k )d k = E t [ H(x k )d k ] = E t [ H(x k ) + ρ k E] = (1 ρ 0 φ(x k ) β 1 )φ(x k ) < 0 o que conclui o resultado. Lema Sejam f e g funções reais contínuas no intervalo da reta [0, b]. f(t)g(t) > 0 t (0, b) então uma das duas condições ocorre: Se 1) f(t) 0 e g(t) 0 t [0, b], 2) f(t) 0 e g(t) 0 t [0, b]. Prova.: É fácil ver que f e g tem o mesmo sinal no intervalo (0, b). Pois caso contrário, existiria um t (0, b) tal que f(t)) < 0 e g(t) > 0 o que implicaria f(t)g(t) < 0 que é uma contradição. Agora se existe um t (0, b) tal que f(t) > 0 e g(t) > 0 t (0, t), f(t) < 0 e g(t) < 0 t (t, b). Pela continuidade da f(t) (g(t)) temos que f(t) = 0 (g(t) = 0) o que é uma contradição pois por hipótese f(t)g(t) > 0 para todo t no intervalo (0, b). Logo f e g terão o mesmo sinal em todo intervalo (0, b). 1 ) f(t) > 0 e g(t) > 0 t (0, b), 2 ) f(t) < 0 e g(t) < 0 t (0, b). 35

43 No caso de termos 1 ) isto implica em f(0), g(0), f(b) e g(b) 0. No caso de termos 2 ) isto implica em f(0), g(0), f(b) e g(b) 0. Isto é verdade pois, sem perda de generalidade, vamos assumir que estamos com a condição 1 ) e supor f(b) < 0. Pela continuidade f existe um δ > 0 tal que para todo t que satisfaça b t < δ implica que f(t) < 0, ou seja, existe um t < b tal que f(t) < 0 o que é uma contradição. Portanto concluímos que uma das duas condições se verifica: 1) f(t) 0 e g(t) 0 t [0, b], 2) f(t) 0 e g(t) 0 t [0, b]. Lema A seqüência de direção {d k } gerada pelo algoritmo FDA-NCP, consiste em um campo uniforme de direções viáveis do problema de complementaridade em Ω. Prova: Segue da equivalência de normas e do lema que H i (y) H i (x) γ y x para todo x, y Ω c e 1 i n. Suponhamos que exista θ > 0 tal que para todo x k Ω c o seguimento [x k, x k + τd k ] Ω c para τ [0, θ]. Do teorema do valor médio temos que H i (x k + τd k ) H i (x k ) + τ H t i (x k )d k τ 2 γ d k 2 para qualquer τ [0, θ] e 1 i n. Como H i (x k )d k = x k i F i (x k ) + ρ k (1.7) segue que H i (x k + τd k ) (1 τ)h i (x k ) + (ρ k τγ d k 2 )τ. 36

44 Em conseqüência, H i (x k + τd k ) 0 para todo 1 i n e qualquer τ min{1, concluímos que x k + τd k Ω. Considerando agora o lema 4.1.4, e pela definição de ρ k temos Como β [1, 2], basta escolher τ min{1, ρ k γ d k 2 }. Portanto, pelo lema ρ 0 γnκ 2 φ(xk ) β 2 } (1.8) θ = min{1, ρ 0c β 2 γnκ 2 }. Lema Existe ξ > 0 tal que, para todo x k algoritmo é satisfeita para qualquer t k [0, ξ]. Ω c, a condição de Armijo no Prova: Seja t k (0, θ], onde θ foi obtido no lema anterior. Aplicando o Teorema do Valor Médio para i = 1, 2,..., n e tomando x k+1 = x k + t k d k, nos temos H i (x k+1 ) H i (x k ) + t k [H(x k )] i d k + t k2 γ d k 2. Somando as n inequações e considerando a equação (1.7), temos: φ(x k+1 ) [1 (1 ρk n φ(x k ) )tk ]φ(x k ) + nt k2 γ d k 2. Considerando agora da condição de Armijo para φ(x k ) e pelo lema 4.1.5, deduzimos que se, [1 (1 ρk n φ(x k ) )tk ]φ(x k ) + nt k2 γ d k 2 [1 t k η(1 ρk n φ(x k ) )]φ(xk ) é verificado, então a condição de Armijo no algoritmo é satisfeita. Assim, é suficiente tomarmos t k (1 η)(1 ρk n φ(x k ) )φ(xk ) γn d k 2. 37

45 Como no lema anterior, podemos tomar Assim, o lema fica provado para onde θ foi obtido no Lema t k (1 η)(1 ρ 0 φ(x k ) β 1 ) φ(xk ) 1 ξ = min{ (1 η)(1 ρ0 c β 1 ), θ}, γnκ 2 c γnκ 2. (1.9) Como conseqüência dos lemas e 4.1.8, podemos concluir que o passo da busca linear de Armijo no algoritmo FDA-NCP é limitado inferiormente por νξ > 0. Assim podemos enunciar o teorema que garante a convergência global do algoritmo a uma solução do problema de complementaridade. Teorema Dado um ponto inicial estritamente viável, x 0 Ω c, existe uma subseqüência de {x k } gerada pelo Algoritmo FDA-NCP que converge para x, solução do problema de complementaridade. Prova: Segue dos lemas a que {x k } Ω c. Como Ω c é compacto, a seqüência {x k } possui ponto de acumulação em Ω c. Seja x um ponto de acumulação desta seqüência. Como o tamanho do passo é sempre positivo e limitado inferiormente por νξ, concluímos que d k 0. E do sistema do algoritmo temos que {φ(x k )} 0. Assim, x é uma solução do problema de complementaridade. 38

46 Capítulo 5 Problema de Complementaridade Mista 5.1 Idéias Básicas Vamos extender o FDA-NCP para problemas que envolvam mais variáveis e uma condição de igualdade além da condição de complementaridade. Este tipo de problema é chamado de Problema de Complementaridade Mista (MNCP). Que tem a seguinte definição: Definição Sejam F : IR n IR m IR n e Q : IR n IR m IR m, aplicações de classe C 1 em IR n IR m então uma solução para este problema é: x F (x, y) = 0 Encontrar (x, y) IR n IR m tal que x 0, F (x, y) 0 e Q(x, y) = 0. Quando F (x, y) e Q(x, y) são lineares temos o Problema de Complementaridade Mista Linear (MLCP). Para a utilização do algoritmo FDA-NCP no problema vamos agregar no sistema H(x, y) = 0, onde H(x, y) = x F (x, y), a equação de igualdade Q(x, y) = 0. Assim o novo sistema fica da seguinte forma: H(x, y) x F (x, y) S(x, y) = = = 0 (1.1) Q(x, y) Q(x, y) 39

47 Tomando Ω = {(x, y) IR n IR m / x 0 e F (x, y) 0} e a função potencial f(x, y) = φ(x, y) + Q(x, y) 2, onde φ(x, y) = x T F (x, y). Vamos procurar uma solução para o sistema (1.1) na região Ω c = {(x, y) Ω / f(x, y) c}. Da mesma forma como no algoritmo FDA-NCP vamos construir uma seqüência de pontos que converge para uma solução do sistema (1.1). É fácil ver que: (x, y) é uma solução de MNCP (x, y) é solução do sistema 1.1 em Ω. O gradiente de S(x, y) é dado pela expressão: S(x, y) = xh(x, y) D x y F (x, y) x Q(x, y) y Q(x, y) onde x H(x, y) = D F (x,y) + D x x F (x, y). Aplicando simplesmente uma iteração de Newton para o sistema (1.1) não garante que a direção d seja viável em Ω assim pelos mesmos argumentos apresentados no algoritmo FDA-NCP, podemos obter uma direção de busca viável em Ω resolvendo o seguinte sistema: onde ρ k xh(x k, y k ) D x k y F (x k, y k ) x Q(x k, y k ) y Q(x k, y k ) d k = xk F (x k, y k ) + ρ k E 1 Q(x k, y k ) (1.2) = ρ 0φ(x k,y k ) β n (0, 1), φ(x k, y k ) = x k F (x k, y k ), ρ 0 = α min{1, 1 c β 1 }, α (0, 1) e β [1, 2] para todo (x k, y k ) Ω c. Definimos o seguinte vetor coluna E = E 1 com E 1 = [1, 1,..., 1] T IR n e E 0 = [0, 0,..., 0] T IR m. E 0 Assim, o sistema na sua forma compacta é S(x k, y k )d k = S(x k, y k ) + ρ k E. 40

48 5.2 Descrição do Algoritmo FDA-MNCP. O presente algoritmo produzirá uma seqüência de pontos interiores a região Ω que converge a uma solução do problema de complementaridade mista mediante a resolução de um sistema de equações e uma busca linear nas restrições x 0, F (x, y) 0 e na função potencial f(x, y). A busca utilizada é a de Armijo. Vamos considerar os seguintes parâmetros: c, ɛ > 0, α, η, ν (0, 1), β (1, 2]. Dados iniciais: (x 0, y 0 ) Ω estritamente viável tal que f(x 0, y 0 ) c e k = Passo 1: Direção de Busca. Resolva o sistema S(x k, y k )d k = S(x k, y k ) + ρ k E, 2. Passo 2: Busca linear. Define-se o tamanho do passo t k como sendo o primeiro valor da seqüência {1, ν, ν 2, ν 3,...} satisfazendo 1) x k i + t k d k i 0 para todo 1 i n. 2) F ((x k, y k ) + t k d k ) 0 3) f(x k, y k ) + t k η f(x k, y k )d k f((x k, y k ) + t k d k ) 3. Passo 3: Atualização dos Dados (x k+1, y k+1 ) := (x k, y k ) + t k d k e k := k Passo 4: Critério de parada Se f(x k+1 ) < ɛ, pare. caso contrário volte ao passo 1. 41

49 5.3 Convergência Global para FDA-MNCP Da mesma forma como fizemos no capítulo 4.1, vamos assumir as seguintes suposições: Suposição O conjunto Ω c {(x, y) Ω f(x, y) c} é compacto e possui interior Ω 0 c, tal que para cada (x, y) Ω 0 c satisfaz x > 0 e F (x, y) > 0. Suposição As funções F (x, y) e Q(x, y) são de classe C 1 (R n R m ) e ainda F (x, y) e Q(x, y) satisfazem a condição de Lipschitz, F (x 2, y 2 ) F (x 1, y 1 ) γ 0 (x 2, y 2 ) (x 1, y 1 ) e Q(x 2, y 2 ) Q(x 1, y 1 ) L (x 2, y 2 ) (x 1, y 1 ) para qualquer (x 1, y 1 ) e (x 2, y 2 ) Ω c, onde γ 0 e L são constantes positivas. Suposição A matriz S(x, y) é não singular para todo (x, y) Ω c, ou seja, existe ( S(x, y)) 1 para todo (x, y) Ω c. Suposição Existe constante real σ > 0 tal que o seguinte subconjunto Ω é não vazio: Ω {(x, y) Ω c tal que σ Q(x, y) φ(x, y)}. A suposição garante a existência de pontos estritamente viáveis em Ω c. Da suposição segue que S(x, y) satisfaz a condição de Lipschitz e ainda temos que Q 2 i (x, y) para i = 1,..., m também é Lipschitz então sem perda de generalidade podemos supor que existe uma mesma constante γ > 0 que verifica a condição de Lipschitz para S(x, y) e Q 2 i (x, y), i = 1,..., m. Pela suposição concluímos que o sistema linear do algoritmo S(x k, y k )d k = S(x k, y k ) + ρ k E, 42

50 possui solução única, logo a direção d k esta bem definida. Temos também que F (x, y) e Q(x, y) são contínuas assim tanto para S(x, y) quanto para ( S(x, y)) 1 são aplicações contínuas e limitadas em Ω c. Ou seja existem constantes positivas κ 0, κ tal que S(x, y) κ 0 e ( S(x, y)) 1 κ para todo (x, y) Ω c. A suposição garante que quando estamos em um ponto que satisfaz a complementaridade x F (x, y) = 0 implica que também irá satisfazer Q(x, y) = 0. Assim podemos controlar a convergência do algoritmo somente pela condição de complementaridade x F (x, y) = 0. Vamos agora a uma seqüência de resultados que provará a convergência global do algoritmo FDA-MNCP. Proposição Dado um ponto em (x k, y k ) Ω, a direção d k dada pelo sistema (1.2), é viável em Ω desde que f(x k, y k ) 0. Prova: Dado (x k, y k ) Ω, a direção d k cumpre: S(x k, y k )d k = S(x k, y k ) + ρ k E, e como ρ k > 0. Então as linhas i-ésimas, i {1, 2,..., m}, do sistema (1.2) fica definido da seguinte forma: [e i.f i (x k, y k ) + x k i F i (x k, y k )]d k = x k i F i (x k, y k ) + ρ k, onde e i é o vetor da base canônica de IR n IR m e F i (x k, y k ) = [ x F i (x k, y k ), y F i (x k, y k )]. (1) Para um índice i K temos: x k i = 0 e F i (x k, y k ) > 0 portanto: Para a direção d k temos: [e i.f i (x k, y k )]d k = F i (x k, y k ).d k i = ρ k assim, d k i = ρ k F k i (xk,y k ) > 0. Então, d k i (x k, y k ) > 0 para todo ρ k > 0. (2) Para um índice i J temos: 43

51 x k i > 0 e F i (x k, y k ) = 0 portanto: Para a direção d k temos: [x k i F i (x k, y k )]d k = ρ k o que implica que F i (x k, y k )d k = ρk > 0. x k i Então, F i (x k, y k )d k > 0 para todo ρ k > 0. Logo pela proposição temos que d k é uma direção viável no ponto (x k, y k ). Lema Dado (x k, y k ) Ω, f(x k, y k ) 0, a direção d k (1.2), é uma direção de descida para a função potencial dada pelo sistema n m f(x k, y k ) = φ(x k, y k ) + Q(x k, y k ) 2 = x k i F i (x k, y k ) + Q 2 j(x k, y k ), i=1 j=1 com ρ 0 φ(x k, y k ) β 1 < 1 onde β [1, 2], ρ 0 = α min{1, 1 c β 1 } e α (0, 1). Prova: A função f(x k, y k ) é estritamente positiva para todo ponto (x k, y k ) em Ω que não seja solução do problema 5.1.1, e ainda, todo ponto (x k, y k ) Ω tal que f(x k, y k ) = 0 implica que (x k, y k ) é uma solução do problema 5.1.1, ou seja, x k 0, F (x k, y k ) 0, x k F (x k, y k ) = 0 e Q(x k, y k ) = 0. O gradiente de f(x k, y k ) é dado por: f(x k, y k ) = ( E1 T 2Q T (x k, y k ) ) S(x k, y k ) = = ( E1 T 2Q T (x k, y k ) ) M(xk, y k ) D x k y F (x k, y k ). x Q(x k, y k ) y Q(x k, y k ) Dada a direção d k temos: f(x k, y k )d k = ( E1 T 2Q T (x k, y k ) ) W (x k, y k )d k = = ( E1 T 2Q T (x k, y k ) ) ( S(x k, y k ) + ρ k E) = = ( E1 T 2Q T (x k, y k ) ) S(x k, y k ) + ρ k ( E1 T 2Q T (x k, y k ) ) E = = φ(x k, y k ) 2 Q(x k, y k ) 2 + nρ k = = 2[f(x, y) 1 + ρ 0φ(x k, y k ) β 1 φ(x k, y k )] <

52 Por tanto a direção d k é uma direção de descida para f(x k, y k ). Da ultima equação deste lema obtemos a seguinte equação f(x k, y k )d k (1 ρ 0 φ(x k, y k ) β 1 )f(x k, y k ) que é equivalente a proposição do caso FDA-NCP. Lema Dado um ponto (x k, y k ) Ω a direção d k calculada pelo FDA-MNCP, satisfaz a seguinte desigualdade: d k kφ(x k, y k ), (3.1) conseqüentemente, d k kc para todo (x k, y k ) Ω. Prova: Temos o seguinte sistema: S(x k, y k )d k = S(x k, y k ) + ρ k E Como a matriz ( S(x k, y k )) 1 é não singular, podemos estimar d k através da seguinte desigualdade: d k ( S(x k, y k )) 1 S(x k, y k ) + ρ k E. Então basta estimar um valor para S(x k, y k ) + ρ k E. Assim segue que S(x k, y k ) + ρ k E 2 = S(x k, y k ) 2 2ρ k φ(x k, y k ) + n(ρ k ) 2 = = [ x k F (x k, y k ) 2 2ρ k φ(x k, y k ) + n(ρ k ) 2 ] + Q(x k, y k ) 2 pelos mesmos argumentos do lema da seção 4 temos que x k F (x k, y k ) 2 2ρ k φ(x k, y k ) + n(ρ k ) 2 φ(x k, y k ) 2. Portanto pela suposição segue que S(x k, y k ) + ρ k E σ2 σ 2 φ(x k, y k ) 2 o permite concluir a inequação (3.1) do lema onde κ = κ 1+σ 2. σ 2 45

53 Lema A seqüência de direção {d k } gerada pelo algoritmo FDA- MNCP, consiste em um campo uniforme de direções viáveis do problema de complementaridade em Ω. Prova: Como S(x k, y k ) é Lipschitz sem perda de generalidade temos que para cada i = 1,..., n + m S i (x k 2, y2) k S i (x k 1, y1) k γ (x k 2, y2) k (x k 1, y1) k para todo (x k 1, y1) k, (x k 2, y2) k Ω. Seja (x k, y k ) Ω e θ > 0 tal que o seguimento [(x k, y k ), (x k, y k ) + τd k ] Ω para todo τ [0, θ]. Do teorema do valor médio temos que S i ((x k, y k ) + τd k ) S i (x k, y k ) + τ Si T (x k, y k )d k τ 2 γ d k 2 para qualquer τ [0, θ] e 1 i n. Para cada i = 1,..., n temos Si T (x k )d k = x k i F i (x k, y k ) + ρ k (3.2) logo S i ((x k, y k ) + τd k ) (1 τ)s i (x k, y k ) + (ρ k τγ d k 2 )τ. Portanto, para todo i = 1,..., n e qualquer τ min{1, S i ((x k, y k ) + τd k ) 0. Assim, pelo lema concluímos que (x k, y k ) + τd k Ω. Considerando agora o lema 3.1, e pela definição de ρ k temos τ min{1, Como β [1, 2], o lema é valido para ρ k γ d k 2 } temos ρ 0 γnκ 2 φ(xk, y k ) β 2 } (3.3) θ = min{1, ρ 0c β 2 γnκ 2 }. 46

54 Lema Existe ξ > 0 tal que, para (x k, y k ) Ω, a condição de Armijo no algoritmo FDA-MNCP é satisfeita para qualquer t k [0, ξ]. Prova: Seja t k (0, θ], onde θ foi obtido no lema anterior. Aplicando o Teorema do Valor Médio para i = 1, 2,..., n e tomando (x k+1, y k+1 ) = (x k, y k ) + t k d k, nos temos S i ((x k+1, y k+1 )) S i (x k, y k ) + t k [S(x k, y k )] i d k + t k2 γ d k 2. Somando as n inequações e considerando a equação (3.2), temos: φ(x k+1, y k+1 ) (1 t k )φ(x k, y k ) + t k nρ k + nt k2 γ d k 2. Do Teorema do Valor Médio para Q 2 i (x k, y k ), i = n + 1,..., n + m, e como [S(x k, y k )] i d k = Q i (x k, y k ), obtemos a seguinte inequação Q 2 i (x k+1, y k+1 ) (1 t k )Q 2 i (x k, y k ) + t k2 γ d k 2. Agora somando de 1 até m obtemos Q(x k+1, y k+1 ) 2 (1 t k ) Q(x k, y k ) 2 + mt k2 γ d k 2. Somando as duas expressões temos f(x k+1, y k+1 ) (1 t k )f(x k, y k ) + t k (nρ k + (n + m)t k γ d k 2 ). Da definição de ρ k e da suposição segue para (x k, y k ) Ω as seguintes desigualdades nρ k f(x k, y k ) ρ 0φ(x k, y k ) β 1 e f(x k, y k ) (1 + cσ 2 )φ(x k, y k ). Das desigualdades acima obtemos f(x k+1, y k+1 ) [1 (1 ρ 0 φ(x k, y k ) β 1 n + m 1 + cσ 2 γ d k 2 φ(x k, y k ) tk )t k )]f(x k, y k ) Da busca linear do algoritmo FDA-MNCP aplicado na função f(x k, y k ) e pelo lema temos f(x k+1, y k+1 ) [1 t k η(1 ρ 0 φ β 1 (x k, y k )]f(x k, y k ) 47

55 Assim para satisfazer a condição de Armijo basta que [1 (1 (ρ 0 φ(x k, y k ) β 1 + n + m 1 + cσ 2 γ d k 2 φ(x k, y k ) tk )t k )]f(x k, y k ) [1 t k η(1 ρ 0 φ(x k, y k ) β 1 ]f(x k, y k ) segue (1 ρ 0 φ(x k, y k ) β 1 ) n + m 1 + cσ 2 γ d k 2 φ(x k, y k ) tk η(1 ρ 0 φ(x k, y k ) β 1 ) e portanto tomando t k (1 η)(1 ρ 0 φ(x k, y k ) β 1 ) 1 + cσ2 n + m temos a condição de Armijo satisfeita. Assim, o lema fica provado para onde θ foi obtido no Lema ξ = min{(1 η)(1 ρ 0 c β cσ 2 ) (n + m)γκ 2 c, θ}, φ(x k, y k ) γ d k 2 (3.4) Como conseqüência dos lemas e 5.3.4, temos que para todo (x k, y k ) Ω o próximo ponto (x k+1, y k+1 ) = (x k, y k )+t k d k com t k [0, ξ] pertence ao conjunto Ω c. Assim antes de enunciar o teorema que garante a convergência global do algoritmo a uma solução do problema de complementaridade mista. Vamos mostrar que o passo da busca de Armijo é limitado inferiormente por νξ > no conjunto Ω. Lema Existe ξ > 0 tal que, para (x k, y k ) Ω, o ponto (x k+1, y k+1 ) = (x k, y k ) + t k d k pertence ao conjunto Ω para qualquer t k [0, ξ]. Prova: Pelos lemas e temos que z k+1 = (x k, y k ) + t k d k Ω c para todo t k (0, ξ). Vamos mostrar que z k+1 Ω. Assim como no lema temos S i (z k+1 ) (1 t k )S i (x k, y k ) + t k ρ k (t k ) 2 γ d k 2. para todo i {1,...n}. Somando as n inequações acima obtemos; φ(z k+1 ) (1 t k )φ(x k, y k ) + nρ k t k n(t k ) 2 γ d k 2 (3.5) 48

56 usando a Fórmula de Newton-Leibnitz, ver em [29], temos que 1 Q(z k+1 ) = Q(x k, y k ) + t k [ Q((x k, y k ) + θt k d k )dθ]d k = 0 1 = Q(x k, y k ) + t k Q(x k, y k )d k + t k [ ( Q((x k, y k ) + θt k d k ) Q(x k, y k ))d k )dθ]d k = 0 1 = (1 t k )Q(x k, y k ) + t k [ ( Q((x, y) + θt k d k ) Q(x k, y k ))d k )dθ]d k 0 como Q(x k, y k ) é Lipschitz contínua, nos chegamos à seguinte expressão Q(z k+1 ) Q(x k, y k ) (1 t k ) + L(t k ) 2 d k 2 Multiplicando a expressão acima por σ, onde σ é a constante da suposição σ Q(z k+1 ) σ Q(x k, y k ) (1 t k ) σl(t k ) 2 d k 2 (3.6) Somando as duas equações 3.5 e 3.6 φ(z k+1 ) βγ Q(z k+1 ) (1 t k )[φ(x k, y k ) σ Q(x k, y k ) ]+[nρ k (nγ+σl)t k d k 2 ]t k como [φ(x k, y k ) σ Q(x k, y k ) ] 0 basta que [nρ k (nγ + σl)t k d 2 ] 0 ou seja t k ρ k nρ k (nγ + σl) d k = δ 2 γ d 2 onde δ = nγ (0, 1]. Logo basta tomar ξ = min{δ ρ 0c β 2 nγ+σl γnκ 2, ξ} para termos φ(z k+1 ) σ Q(z k+1 ) 0 para todo t k (0, ξ) o que garante que z k+1 Ω. Um observação importante que destacamos para este resultado é que quando a função Q(x, y) for linear temos que L = 0 e portanto δ = 1 o que implica que ξ = ξ. Teorema Dado um ponto inicial estritamente viável, (x 0, y 0 ) Ω, existe uma subseqüência de {(x k, y k )} gerada pelo Algoritmo FDA-MNCP que converge para (x, y ), solução do problema de complementaridade mista. Prova: Segue dos lemas 3.1 a que {(x k, y k )} Ω c. Como Ω c é compacto, a seqüência {(x k, y k )} possui ponto de acumulação em Ω c. Seja (x, y ) um ponto de acumulação desta seqüência. Como o tamanho do passo é sempre positivo 49

57 e limitado inferiormente por νξ, concluímos que d k 0. E do sistema do algoritmo temos que {f(x k, y k )} 0. Assim, (x, y ) é uma solução do problema de complementaridade. 50

58 Capítulo 6 Análise de Convergência Assintótica Agora veremos resultados sobre a taxa de convergência dos algoritmos FDA-NCP e FDA-MNCP. Primeiramente observaremos que uma iteração realizada em qualquer um dos algoritmos é uma iteração do tipo Newton Amortecido com uma pertubação e as suposições pedidas nos algoritmos, FDA-NCP( ) e FDA-MNCP ( ), satisfazem as suposições do Método de Newton clássico ( ) e que são utilizadas para o caso de Newton Amortecido com uma pertubação. 6.1 Resultados de Convergência Assintótica Antes de enunciar o Teorema de convergência assintótica veremos o esquema iterativo do Método de Newton Amortecido com uma pertubação e compararemos com o esquema iterativo do algoritmo FDA-NCP (FDA-MNCP). Portanto, para resolver numericamente o sistema de equações (1.15), T (z) = 0, o Método de Newton Amortecido realiza a seguinte iteração z k+1 = z k t k T 1 (z k )[T (z k ) µ k P ], k = 0, 1, 2,... (1.1) onde 0 < t k 1, µ k > 0 e P um vetor fixo em IR p. 51

59 Lembrando que a seqüência gerada pelos algoritmos FDA-NCP ou FDA-MNCP é baseada na resolução de um sistema de equações mais uma busca linear nas restrições de complementaridade e na função potencial associado ao problema. O que nos remete ao método de Newton Amortecido com uma pertubação (1.1): Observe que quando tomamos p = n, z k = x k, T (z k ) = H(x k ), T 1 (z k ) = ( H(x k )) 1, P = E, µ k = ρ k e t k como o passo da busca linear descrita no algoritmo FDA-NCP temos que a equação (1.1) é exatamente o esquema de iteração para o algoritmo FDA-NCP. x k+1 = x k t k ( H(x k )) 1 [H(x k ) ρ k E], k = 0, 1, 2,... (1.2) onde ρ k = ρ 0 φ β (x k ) n e β [1, 2]. Assim temos o seguinte teorema. Teorema Considere a seqüência {x k } gerada pelo algoritmo FDA-NCP, que converge para uma solução x do problema de complementaridade. Então, (i) Tomando β (1, 2), t k = 1 para k suficientemente grande e a taxa de convergência do algoritmo é superlinear. (ii) Se t k = 1 para k suficientemente grande e β = 2, então a taxa de convergência é quadrática. Prova: Considerando o teorema 4.1.1, nos deduzimos das equações (1.8) e (1.9) que para k suficientemente grande, o comprimento do passo obtido da busca linear de armijo é t k = 1 se β (1, 2). A análise que faremos agora segue os mesmos procedimentos do Método de Newton usual e pode ser visto em [29], [56]. x k+1 x = x k +t k d k x = (1 t k )(x k x )+t k (x k x +( H(x k )) 1 [ H(x k )+ρ k E]) x k+1 x (1 t k ) x k x +t k ( H(x k )) 1 H(x k )(x k x ) H(x k )+ρ k E da suposição 4.0.3, existe uma constante κ > 0 tal que M 1 (x k ) κ para todo x k Ω c. x k+1 x (1 t k ) x k x + κρ k E + κ H(x k ) H(x k )(x k x ) 52

60 como H(x k ) é localmente Lipschitz contínuo e da formulá de Newton-Leidnitz temos que x k+1 x (1 t k ) x k x + κ nρ k + O( x k x 2 ) assim lembrando que ρ k = ρ 0 φ(x k ) β n com β [1, 2] segue a seguinte desigualdade x k+1 x (1 t k ) x k x + κρ 0φ(x k ) β n + O( x k x 2 ), (1.3) Do Teorema do Valor Médio segue que φ β (y) φ(x) β + βφ(x) β 1 n O( y x ), onde x = x + ɛ(y x) para algum ɛ (0, 1). tomando x = x e para todo y = x k suficientemente próximo de x temos φ(x k ) β βφ(x) β 1 n O( x k x ). A prova de (i) segue observando que para β (1, 2), φ(x k ) β = o( x k x ) e por substituição em (1.3) concluímos que x k+1 x lim k x k x = 0. Portanto, a taxa de convergência é superlinear. O resultado (ii) é obtido de forma similar. Observe que para β = 2 temos que φ(x k ) 2 = O( x k x 2 ) e neste caso a equação (1.8) do lema não assegura que t k = 1 para k suficientemente grande assim pedimos que t k 1 para todo k > k 0 com k 0 suficientemente grande, logo x k+1 x lim k x k x <. 2 Ficando assim provado a convergência quadrática. O teorema que acabamos de demonstrar também é valido para o caso de complementaridade mista. Basta tomar na equação (1.1) os seguintes valores: p = n + m, z k = (x k, y k ), T (z k ) = S(x k, y k ), T 1 (z k ) = S(x k, y k ) 1, P = E, µ k = ρ k e t k como o passo da busca linear descrita no algoritmo FDA-MNCP. Então o esquema de iteração para o algoritmo FDA-MNCP é (x k+1, y k+1 ) = (x k, y k ) t k S(x k, y k ) 1 [S(x k, y k ) ρ k E], k = 0, 1, 2,... (1.4) 53

61 onde ρ k = ρ 0 φ(x k,y k ) β n e β [1, 2]. E o teorema equivalente para o algoritmo FDA-MNCP é: Teorema Considere a seqüência {(x k, y k )} gerada pelo algoritmo FDA- MNCP, que converge para uma solução (x, y ) do problema de complementaridade mista. Então, (i) Tomando β (1, 2), t k = 1 para k suficientemente grande e a taxa de convergência do algoritmo é superlinear. (ii) Se t k = 1 para k suficientemente grande e β = 2, então a taxa de convergência é quadrática. Prova: Segue os mesmos argumentos usados na demonstração do teorema

62 Capítulo 7 Usando FAIPA para Resolver NCP Os Algoritmos FAIPA, (Feasible Arc Interior Point Algorithm) [26] e FDIPA (Feasible Direct Interior Point Algorithm) [26] são métodos de pontos interiores utilizado para resolver problemas de otimização não linear do tipo 1.2: min f(x) Sugeito a: g(x) 0 e h(x) = 0 onde f : IR n IR, g : IR n IR m e h : IR n IR p são funções suaves, não necessariamente convexa. Para resolver este problema, José Herskovits propôs em 1982 um algoritmo de primeira ordem de direções viáveis, [[22],[24]] que possui uma convergência super-linear mesmo incluindo uma estimativa quasi-newton para a Hessiana da função Lagrangeana 1.6,[23]. O algoritmo requer um ponto inicial x, no interior da região definida pelas restrições de desigualdades, ele gera uma seqüência de pontos também no interior desta região. Quando temos somente restrições de desigualdades, a função objetivo é reduzida a cada iteração. Em ambos algoritmos FDIPA e FAIPA, o esquema das iterações é definido por: Primeiro estágio, define uma direção de descida por meio de resolução de um sistema linear nas variáveis primal e dual. 55

63 No segundo estagio, o sistema linear é perturbado de tal forma a ter uma deflexão na direção de descida e assim obter uma direção de descida e viável para o problema. (FDIPA) No caso do FAIPA, um terceiro estágio é resolvido afim de obter um arco viável e assim evitar o efeito Maratos. No FAIPA, uma busca em arco é aplicada para obter um novo ponto interior a região viável e que reduz o valor da função potencial, assegurando assim a convergência Global. 7.1 FAIPA Aplicaremos o FAIPA em problemas de complementaridade Para tal consideraremos o problema de programação não linear com restrições dado abaixo. min f(x) Sujeito a: g(x) 0 (1.1) Notação: Nos denotamos g(x) IR n m a matriz das derivadas de g e chamaremos λ IR m o vetor da variável dual, Ω {x IR n / g(x) 0} o conjunto viável, Ω o seu interior, L(x, λ) = f(x)+λ t g(x) a Lagrangeana e H(x, λ) = 2 f(x)+ m i=1 λ i 2 g i (x) sua Hessiana. G(x) denota a matriz diagonal tal que G ii (x) = g i (x). Então, as condições de otimalidade de primeira ordem de Karush-Kuhn-Tucker (KKT) são expressado da seguinte forma: f(x) + g(x)λ = 0, (1.2) G(x)λ = 0, (1.3) g(x) 0, (1.4) λ 0. (1.5) Um vetor (x, λ ) satisfazendo as equações 1.2 e 1.3 é chamado um Par Estacionário do problema 1.1 e um Par KKT se este satisfizer as condições de KKT 56

64 ( ). Um vetor x é um Ponto Estacionário (Ponto KKT) se existe λ tal que (x, λ ) constituindo um par estacionário (par KKT). Para o problema de otimização não linear sem restrições de igualdade 1.1, o algoritmo FDIPA (Feasible Direct Interior Point Algorithm) proposto por Herskovits [22] é um algoritmo de direções viáveis. Em cada iteração é achada uma direção viável e de descida para a função objetivo. Uma busca linear inexata nessa direção para a função objetivo determina o próximo ponto viável. Para definir a direção de busca o algoritmo FDIPA baseia-se na direção da iteração de Newton na variável (x, λ) para o sistema de equações dado pelas igualdades das condições de otimalidade de primeira ordem Eqs. 1.2 e 1.2. A iteração de Newton (amortecida) é: onde a direção (d x, d λ ) verifica: (x k+1, λ k+1 ) = (x k, λ k ) + t(d x, d λ ) H k g k Λ k gk T G k d x = d λ xl T k Λ k g k (1.6) Na Eq. 1.6, H k = H(x k, λ k ) é a Hessiana da função lagrangeana, L k = L(x k, λ k ) é a função lagrangeana e Λ k e G k são as matrizes diagonais diag(λ k ) e diag(g(x k )). Definindo a variável λ = λ k +d λ a direção d x pode-se achar resolvendo o sistema: H k g k d x = f T k (1.7) Λ k gk T G k λ 0 Em geral o método de Newton não converge para um mínimo local do problema 1.1 já que em alguns casos a direção d x não está bem definida pois a matriz de coeficientes das Eqs. 1.6 e 1.7 é singular. De qualquer forma, mesmo que a matriz seja não singular para todos os pontos da seqüência gerada, esta seqüência pode ser divergente ou convergir para um ponto que não seja mínimo local do problema 1.1. Pode acontecer o caso no qual o algoritmo converge para um máximo local do problema 1.1, já que nesses pontos as equações de igualdade das condições de KKT verificam-se para valores não necessariamente positivos da variável λ. Para garantir convergência global para um ponto de KKT do problema 1.1 o algoritmo FDIPA modifica a forma em que calcula-se a direção de busca d x e introduz uma busca linear na função objetivo para achar o passo t. As principais modificações são: 57

65 1. Modificação da matriz do sistema: Esta modificação é feita para que a matriz do sistema linear não seja singular e para garantir que a direção de busca seja de descida para a função objetivo. A matriz H k é substituída por uma matriz B k definida positiva. A direção achada resolvendo este sistema, d a x, é de descida para a função objetivo. A mesma calcula-se resolvendo o sistema: B k g k da x = f T k (1.8) Λ k gk T G k λ a 0 2. Deflexão da direção de busca: Ainda que a direção d a x seja de descida para a função objetivo, as restrições do problema podem obrigar o algoritmo a dar passos cada vez menores, levando a convergência da seqüência de pontos para um ponto na fronteira da região viável, não necessariamente mínimo local do problema. Para evitar este comportamento é necessário um desvio na direção de busca de forma que a nova direção aponte para dentro da região viável, permitindo um maior progresso á solução. A direção desviada calcula-se como: d x = d a x + ρd b x onde ρ é um valor suficientemente pequeno de modo que a direção d x seja também de descida para a função objetivo. Calcula-se a direção de desvio d b x resolvendo o seguinte sistema linear: B k g k db x = 0 (1.9) Λ k gk T G k λ b Λ k ω k onde ω k IR m Correção de segunda ordem: Outra modificação importante é uma correção de segunda ordem sobre a equação de complementaridade para melhorar a convergência do algoritmo. Esta modificação é feita para evitar um efeito similar ao descrito por Maratos que afetaria a velocidade de convergência do algoritmo se não fora implementada. calcula-se a partir do seguinte sistema linear: B k gk T Λ k g k G k dc x λ c = 0 Λ k ω k (1.10) 58

66 onde o vetor ω k calcula-se com a fórmula: ω k = g(x k + d x ) g(x k ) g(x k )d x (1.11) 4. O novo ponto da seqüência se encontrará sobre o arco x(t) = x k + td x + t 2 kd c x. 5. Busca linear em arco: Consiste em achar t de modo a minimizar aproximadamente a função objetivo e satisfazendo as restrições de desigualdade do problema sobre o arco definido pelos vetores d x e d c. 7.2 Descrição do Algoritmo FAIPA Parâmetros: ψ (0, 1), η (0, 1), φ > 0 e ν (0, 1). Dados: x 0 Ω 0, λ 0 positivo, B 0 IR n n simétrica definida positiva e ω 0 IR m positivo. Passo 1: Cálculo da direção 1. Ache (d a x, λ a ) resolvendo o sistema linear da Eq Se d a x = 0, fim. 2. Ache (d b x, λ b ) resolvendo o sistema linear da Eq Se f k d b x > 0, defina: Se não, defina: ρ = min { φ d a x 2 ; (ψ 1) f kd a x f k d b x ρ = φ d a x 2 } 4. A direção viável: d x = d a x + ρd b x também: λ = λ a + ρλ b 5. Ache a direção d c x resolvendo o sistema linear da Eq

67 Passo 2: Busca linear em arco Calcule t como o primeiro número da seqüência {1, ν, ν 2, ν 3,...} que satisfaça: f(x k + td x + t 2 d c x) f(x k ) + tη f k d x e para i = 1,.., m g i (x k + td x + t 2 d c x) < 0 se λ i 0 ou g i (x k + td x + t 2 d c x) g i (x k ) se λ i < 0 Passo 3: Atualização Defina x k+1 = x k + td x + t 2 d c x. Defina valores para λ k+1 > 0, ω k+1 > 0 e B k+1 simétrica definida positiva. Retorne ao Passo 1. Uma regra para a atualização de λ pose ser vista em Herskovits [25]. 7.3 Reformulando NCP com Problema de Minimização com Restrição Vamos formular o problema de complementaridade em um problema de minímização com restrições de desigualdades 1.1. onde, min f(x) (3.1) x Ω f(x) = F (x) n i=1 x i F i (x), Ω = {x IR n / g(x) 0} e g(x) =. x portanto as condições de KKT dadas em ( ) para o problema 3.1 ficam: f(x) ( F (x)) T λ 1 Λ 2 = 0, (3.2) F (x)λ 1 = 0, Xλ 2 = 0, (3.3) 60

68 F (x) 0, X 0, λ 1 0, λ 2 0, (3.4) (3.5) onde Λ 2 é uma matriz diagonal e F (x) = F 1 (x) x 1 F 2 (x) x 1 F 1 (x) x 2... F 2 (x) x 2... F 1 (x) x n F 2 (x) x n F n (x) x 1 F n (x) x 2... Logo a Matriz do sistema 1.7 fica da seguinte forma: F n (x) x n. H k Fk T Id Λ 1 k F k D Fk 0 (3.6) Λ 2 kid 0 D xk onde H k = 2 f(x k ) n i=1 λ 1k i 2 F i (x k ) e Id é a matriz identidade de ordem n. Considerações na utilização do FAIPA: 1. Um ponto x é solução do problema de complementaridade se e somente se f(x) = 0 e x Ω. 2. O Algoritmo FAIPA converge a um par (x, λ ) de KKT. Assim pode ocorrer que o algoritmo convirja para um ponto x de mínimo local para o problema 3.1 que não seja solução do problema de complementaridade , ou seja, f(x) > O problema de complementaridade está definido em IR n enquanto o algoritmo FAIPA trabalha com um sistema em IR 3n, ou seja, o numero de varáveis é aumentado na ordem de 2n. 4. Muitos métodos para problemas de complementaridade trabalha só com a primeira derivada de F (x). Já o FAIPA se utilizar a Hessiana H(x, λ) precisará da derivada segunda das F i s(x) ou então utilizar o método quase-newton para substituir a matriz Hessiana H(x, λ). 61

69 7.4 Uma nova atualização de λ no FAIPA Lembrando que o algoritmo FAIPA converge a um ponto (x, λ ) de KKT ( ) do problema de minimização (1.1). Logo, ao aplicar o FAIPA no problema (3.1), irá convergir para um ponto (x, x, F (x )) que é de KKT ( ) deste problema de minimização. Resta então garantir que x é uma solução do problema de complementaridade Antes de enunciarmos o resultado que comprovará isto vamos a seguinte definição. Definição Uma Função F : IR n IR n é dita monótona em IR n se (x y) T (F x) F y)) 0 para todo x, y IR n. Uma observação importante aqui é o fato da jacobiana de F (x) ser semi definida positiva. (ver em [40],[10]). Teorema Seja F (x) uma função diferenciável e monótona em algum conjunto aberto contendo IR n +. Se o ponto (x, λ 1, λ 2 ) satisfaz as condições de KKT ( ) do problema 3.1, então x é solução do problema de complementaridade Reciprocamente se x é solução do problema de complementaridade , então x,λ 1 = x e λ 2 = F (x ) formam uma tríplice que satisfaz as condições de KKT ( ) do problema 3.1. Prova: Observe que f(x ) = F (x ) + ( F (x )) T x. Vamos mostrar a ida. Segue da equação (3.2) que F (x ) + ( F (x )) T (x λ 1 ) λ 2 = 0 multiplicando nesta ultima equação (x λ 1 ) T obtemos (x λ 1 ) T F (x ) + (x λ 1 ) T ( F (x )) T (x λ 1 ) (x λ 1 ) T λ 2 = 0 (4.1) como (x, λ 1, λ 2 ) satisfazem as condições de KKT da equação (3.3) temos que F (x )λ 1 = 0 e x λ 2 = 0. Substituindo então estes valores na equação (4.1) (x ) T F (x ) + (λ 1 ) T λ 2 + (x λ 1 ) T ( F (x )) T (x λ 1 ) = 0. (4.2) 62

70 Como cada um dos três termo desta igualdade é positivo, pois segue das equações ( ) x 0, F (x ) 0, λ 1 0,λ 2 0 e da monotonicidade de F (x) segue que (x λ 1 ) T ( F (x )) T (x λ 1 ) 0. Portanto podemos concluir que x F (x ) = 0, ou seja, x é uma solução do problema de complementaridade A volta é imediata pois se x é uma solução do problema de complementaridade segue que x 0, F (x ) 0 e x T F (x ) = 0. Assim tomando λ 1 = x e λ 2 = F (x ) e substituindo nas condições de KKT ( ) obtemos o resultado esperado. Portanto com este resultado temos a garantia que a seqüência gerada pelo FAIPA converge para uma solução do problema de complementaridade e ainda quando x for uma solução do problema de complementaridade os pontos x e F (x ) funcionam como os multiplicadores de Lagrange, λ 1 e λ 2 respectivamente, do problema (3.1). Assim como no algoritmo FAIPA existe uma familia de atualizações para os multiplicadores de Lagrange vamos propor a seguinte. Definição Como as iterações ocorrem no interior da região viável, ou seja x > 0 e F (x) > 0 e da regra de atualização proposta em [25] vamos tomar λ 1 = x e λ 2 = F (x) Com atualização acima para λ 1, a matriz Hessiana B que é definida por B = F + ( F ) T + fica da seguinte forma n (x i λ 1 i ) 2 F i i=1 B = F (x) + ( F (x)) T (4.3) Observe que agora B só depende da primeira derivada que é o cálculo exato da Hessiana para esta atualização. Sendo F (x) definida positiva, temos que B satisfaz as condições pedida pelo algoritmo FAIPA. Assim fazendo estas mudanças na matriz do sistema do FAIPA temos F (x) + ( F (x)) T ( F ) T I X F IF 0 (4.4) IF 0 X 63

71 onde I é a matriz identidade de ordem n, IF e X são matrizes diagonais definidas por IF i,i = F i e X i,i = x i para todo i = 1,..., n. Vamos então calcular as três direções do algoritmo FAIPA através da atualização Para a direção d a x dada pelo sistema (1.8). F (x) + ( F (x)) T ( F ) T I d a x f X F IF 0 λ 1 a = 0 IF 0 X λ 2 a 0 ou ( F (x) + ( F (x)) T )d a x ( F ) T λ 1 a Iλ 2 a = f X F d a x IFλ 1 a = 0 IFd a x Xλ 2 a = 0 multiplicando a primeira linha do sistema acima pela matriz X e expressando a segunda linha em relação a IFλ 1 a e a terceira linha em relação a Xλ 2 a temos X( F (x) + ( F (x)) T )d a x X( F ) T IF 1 IFλ a Xλ 2 a = X f IFλ 1 a = X F d a x Xλ 2 a = IFd a x e em seguida substituindo na primeira linha chegamos a [X F + X( F ) T + X( F ) T IF 1 X F + IF]d a x = X f (4.5) Definindo M = IF + X F, segue que M T = IF + ( F ) T X e f = M T E segue da equação (4.5) e de manipulações algébricas que Md a x = x F (x) que é exatamente o sistema que fornece a direção de Newton para o algoritmo FDA-NCP. Para o sistema do calculo da direção desviada (1.9), d b x: 64

72 (4.6) ( F (x) + ( F (x)) T )d b x ( F ) T λ 1 b λ 2 b = 0 X F d b x IFλ 1 b = Xω 1 IFd b x Xλ 2 b = IFω 2 tomando a seguinte atualização para ω 1 e ω 2 : Xω 1 = ρ k E e IFω 2 = ρ k E. Segue da equação (4.6) e repetindo as mesmas contas acima que d b x pode ser calculado por: Md b x = ρ k E. que é o sistema da direção de restauração para o algoritmo FDA-NCP. (4.7) Para a direção do arco d c x dada pelo sistema (1.10). ( F (x) + ( F (x)) T )d c x ( F ) T λ 1 c λ 2 c = 0 X F d c x IFλ 1 c = X ω 1 IFd c x Xλ 2 c = IF ω 2 e pela definição de ω 1 e ω 2 dada pela equação (1.11) podemos concluir que ω 1 = F (x k + d x ) + F (x k ) + F (X)d x e ω 2 = 0 pois a restrição x 0 é linear. Segue da equação (4.7) e repetindo as mesmas contas acima temos que d c x é calculado por: Md c x = [I + X( F ) T IF 1 ] 1 X( F ) T IF 1 X ω 1. E como d c x é a direção que constitui o arco no FAIPA e ainda o sistema acima tem a mesma matriz do sistema do algoritmo FDA-NCP. Vamos propor então uma busca em arco no FDA-NCP usando a direção calculado por este sistema. Assim o 65

73 algoritmo FDA-NCP modificado com uma busca linear em arco, que chamaremos de FAA-NCP, tem as seguintes mudanças no passo 1 e passo 2. Passo 1: Direção de Busca em arco. Resolva os sistemas: direção viável [D F (x k ) + D x k F (x k )]d k = H(x k ) + ρ k E, direção do arco [D F (x k )+D x k F (x k )]d k a = [I+X k ( F (x k )) T IF(x k ) 1 ] 1 X k ( F (x k )) T IF(x k ) 1 X k ωk, onde ω k = F (x k + d k ) + F (x k ) + F (x k )d k. Passo 2: Busca linear em arco. Define-se o tamanho do passo t k como sendo o primeiro valor da seqüência {1, ν, ν 2, ν 3,...} satisfazendo 1) x k + t k d k + t k2 d k a 0 2) F (x k + t k d k + t k2 d k a) 0 3) φ(x k ) + t k η φ(x k ) t d k φ(x k + t k d k + t k2 d k a) x k+1 := x k + t k d k + t k2 d k a e k := k + 1 Também vamos propor uma modificação no algoritmo FAIPA. O que faremos é utilizaremos a atualização e com isso a matriz Hessiana B será definida pela formula abaixo, B = F (x) + ( F (x)) T. No próximo capitulo apresentaremos resultado numéricos com os algoritmos aqui apresentados. 66

74 Capítulo 8 Problema de Complementaridade Reformulado Para a aplicação do algoritmo é muito importante termos as seguintes condições: O conjunto Ω 0 IR n ter interior não vazio para que o algoritmo possa gerar uma seqüência de pontos viáveis. Achar um ponto inicial x 0 estritamente viável. A matriz H(x) ser não singular para x Ω. É claro que poderíamos formular exemplos onde não se verifica uma ou mais condições acima. Por exemplo: 1. F (x) = (x 1) 2 1. Seu conjunto de pontos viáveis é Ω = {0} [2, + ) e o conjunto de pontos estritamente viáveis é Ω 0 = (0, + ). Existem duas soluções isoladas, x 1 = 0, solução degenerada, e x 2 = 2, solução não degenerada. Observe que não é possível gerar uma seqüência de pontos estritamente viáveis que converge para x F (x 1, x 2 ) :=. Não possui pontos estritamente viáveis e a matriz 0 H(x) é singular em IR 2. O conjunto de pontos viáveis é Ω = IR 2 + e as ex2 1 x 2 soluções são x = [0; 0] degenerada e x = [0; 1] não degenerada. 67

75 3. F (x 1, x 2 ) := (x 1 +x 2 1) Não possui pontos estritamente viáveis, o conjunto de pontos viáveis é Ω = {(x IR 2 + x 1 + x 2 = 1}, a matriz H(x) é singular em Ω que tem interior vazio em IR 2 e a solução é x = [0; 1] não degenerada. Afim de resolver estes tipos de situações que por ventura podem ocorrer vamos propor uma reformulação do problema de complementaridade Esta reformulação tem que possuir algumas condições básicas: Uma solução do Problema de Complementaridade Reformulado, é sempre uma solução do Problema de Complementaridade Sempre é possível determinar um ponto inicial estritamente viável para o Problema de Complementaridade Reformulado. O conjunto viável para o Problema de Complementaridade Reformulado tem interior não vazio. A matriz jacobiana do sistema de equações associado ao Problema de Complementaridade Reformulado, seja não singular na região estritamente viável ou em algum subconjunto da região estritamente viável do Problema de Complementaridade Reformulado. 8.1 Reformulando o Problema de Complementaridade Dado um Problema de Complementaridade definido como : Seja u IR n IR, u = [x, z] e E IR n onde E = [1,..., 1], então: F (x) + ze Seja G : IR n IR IR n IR, G(u) := G(x, z) :=. 1 Então dado um problema de complementaridade , chamaremos de Problema de Complementaridade Reformulado (PCR) o seguinte Problema de Complementaridade: 68

76 Definição O Problema PCR consiste em encontrar u IR n IR tal que u satisfaz: onde u 0, G(u) 0 e G(u) u = 0. G(u) = G(x, z) = É fácil ver que: F (x) + ze = 1 F 1 (x) + z.. F n (x) + z 1 u = [x, z ] IR n+1 é uma solução do problema se e somente se z = 0 e x é uma solução de Um ponto estritamente viável para o problema é obtido da seguinte forma: Dados x 0 IR n ++ e ɛ IR ++, tome u 0 i = x 0 i e u 0 n+1 = z 0 = min i=1,..,n {F i (x 0 ), 0} + ɛ. (1.1) É claro que u i > 0 e G i (u) > 0 para todo i = 1,.., n, n + 1. A matriz G(u) é: G(u) := D F (x)+z + D x x F (x) x = 0E T 1 = H(x) + D z x 0E T 1 69

77 O conjunto Ω R = {u = (x, z) IR n IR u 0 e G(u) 0} tem interior não vazio, o que permite obter uma seqüência de pontos u k viáveis no interior de Ω R. A título de ilustração vamos aplicar esta técnica no exemplo (1): F (x) = (x 1) 2 1. G(x, z) = 1)2 1 + z 1 E o conjunto viável para G(x, z) é dado por Ω R = {(x, z) IR 2 x 0, z 0 e z 1 (x 1) 2 } Região Viável Ω R Figura 1.1: Região Viável Ω R Observe que nesta região temos duas soluções para o problema de complementaridade de G(x, z) que são pontos de acumulação em Ω R. Estes pontos são (0, 0), que é uma solução degenerada pois G(0, 0) = (0, 1), e (2, 0) que é uma solução não degenerada pois G(2, 0) = (0, 1). 70

78 A Matriz G(x, z) é dada por: G(x, z) = (x 1) (x 1)x + z x. 0 1 Na solução (0, 0), G(0, 0) é singular: G(0, 0) = Já na solução (2, 0), G(2, 0) é não singular: G(2, 0) =

79 Capítulo 9 Resultados Numéricos Nesta seção aplicaremos os algoritmos proposto neste trabalho, FDA-NCP e FDA-MNCP, a uma bateria de problemas testes da literatura. Os problemas aqui tratados foram tirados de vários artigos como, [62], [20], [21], [47], [28], [8], [27], [17]. Dividiremos este capítulo em três seções. A primeira será destinada a apresentação de uma coletânea de 16 problemas de complementaridade clássicos onde compararemos o desempenho do FDA-NCP com outros algoritmos. A segunda seção será destinada a casos especiais onde verificaremos a eficiência do uso da busca em arco, FAA-NCP, bem como a proposta de reformulação do problema de complementaridade apresentada no capítulo 8. Na terceira seção faremos uma bateria de problemas de complementaridade mista para verificar a eficiência do algoritmo FDA-MNCP. Para comparar os resultados numéricos com o FDA-NCP, utilizaremos o FAIPA e o algoritmo proposto em [28] que baseia-se na Função-NCP de Fischer-Burmeister [18] ψ F B (a, b) = a + b a 2 + b 2. Chamaremos este algoritmo de FB. O FB usa a iteração de Newton para resolver o sistema (2.1), Ψ F B (x) = 0 72

80 apresentado no capítulo 2 e uma busca linear de Armijo na função potencial φ F B (x) = Ψ F B (x) 2. O esquema de iteração é x k+1 = x k t k [B F B (x k )] 1 Ψ F B (x k ) t k {1, ν, ν 2,...} onde t k satisfaz φ F B (x k+1 ) φ F B (x k ) + t k η φ F B (x k )d k e B F B pertence ao conjunto B-subdiferencial de Ψ F B. Os algoritmos FDA-NCP e FAA-NCP utilizaram os seguintes parâmetros. O valor da constante que contribui com a direção de restauração é dada por ρ 0 = α min[1, φ(x k ) β 1 ] onde α = 1 e β (1, 2]. Observe que quando aproximamos da 4 solução o valor de ρ 0 fica constante e igual a α. Os parâmetros com respeito a busca são η = 0.4, ν = 0.8 e serão usados em todos os algoritmos aqui tratados. Estudaremos dois casos para o parâmetro β, que influencia na taxa de convergência dos Algoritmos FDA-NCP e FDA-MNCP. Os valores são β = 1.1 e β = 2. O critério de parada utilizado foi φ(x k ) 10 8 para os algoritmos FDA-NCP, FAA-NCP e FAIPA. Já para o algoritmo FB, como ele não é de pontos viáveis pedimos que ainda que x k i 10 8 e F i (x k ) Foi utilizado um notebook AcerSystem, AMD Turion(tm) 64 Moblie, Processador MK GHz, 2GB de memória RAM e 512 KB L2 cache. O sistema operacional Windows XP e os algoritmos foram programados em MatLab. 9.1 Coletânea de Problemas de Complementaridade Vamos descrever agora alguns problemas de complementaridade que compõem a primeira bateria de problemas testes. 73

81 1. O Problema de Kojima-Josephy. Seja F : IR 4 IR 4 definida por: 3x x 1 x 2 + 2x x 3 + 3x 4 6 2x x x 1 + 3x 3 + 2x 4 2 F (x) := 3x x 1 x 2 + 2x x 3 + 3x 4 9 x x x 3 + 3x 4 3 (1.1) Este problema tem uma solução x = ( 6, 0, 0, 1) com F 2 2 (x ) = (0, 6 +2, 5, 0). 2 A solução é não degenerada e a matriz H(x ) é não singular. O ponto inicial usado é x 0 = [1, 1, 1, 1]. 2. O Problema de Kojima-Shindo. Seja F : IR 4 IR 4 definida por: 3x x 1 x 2 + 2x x 3 + 3x 4 6 2x x x x 3 + 2x 4 2 F (x) := 3x x 1 x 2 + 2x x 3 + 9x 4 9 x x x 3 + 3x 4 3 (1.2) Este problema tem duas soluções x = ( 6, 0, 0, 1) com F 2 2 (x ) = (0, 6 +2, 0, 0) 2 e x = (1, 0, 3, 0) com F (x ) = (0, 31, 0, 4). A primeira solução é degenerada e a matriz H(x ) é singular. A segunda solução é não degenerada e a matriz H(x ) é não singular. Pontos inicial um x0 = [1;.01; 3;.01]. 3. O Problema de Nash-Cournot, por Harker N = 5. Harker,[21], definiu este problema da seguinte forma: Vamos assumir que: Seja N o número de firmas. i = 1,...N; x = (x 1, x 2,..., x N ) o vetor de produção. A firma i produz a quantidade x i da mercadoria. Q = N i=1 x i é a soma total da mercadoria produzida. p(q) é a função demanda inversa. C i (x i ) é o custo de produção para a firma i. 74

82 Neste exemplo, a função C i (x i ) e p(q) são definidas da seguinte maneira. A função F é dada por: p(q) = γ Q 1 γ b i C i (x i ) = c i x i + L 1 + b i 1 b i i b i +1 b x i i. F i (x) = C i(x i ) p(q) x i p (Q); Na forma vetorial a função F é dada como: F (x) = [c + L 1 b x 1 b com c i, L i, b i, γ IR + e γ 1. c = [10, 8, 6, 4, 2] b = [1.2, 1.1, 1, 0.9, 0.8] L = [5, 5, 5, 5, 5] e = [1, 1, 1, 1, 1] γ = 1.1 Tem solução x singular. p(q)(e x γq )] = [15.41, 12.50, 9.66, 7.16, 5.13] e a matriz H(x ) é não Ponto inicial x0 = [20; 20; 20; 20; 20]. 4. O Problema de Nash-Cournot, por Harker. N = 10. c = [5, 3, 8, 5, 1, 3, 7, 4, 6, 3] b = [1.2, 1, 0.9, 0.6, 1.5, 1, 0.7, 1.1, 0.95, 0.75] L = [10, 10, 10, 10, 10, 10, 10, 10, 10, 10] e = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1] γ = 1.2 Tem como solução x = [7.44, 4.09, 2.59, 0.93, 17.93, 4.09, 1.3, 5.59, 3.22, 1.67] e a matriz H(x ) é não singular. Ponto inicial x0 = [20; 20; 20; 20; 20; 20; 20; 20; 20; 20]. 75

83 5. O Problema de Nash-Cournot, por Pang e Murphy N = 5. A definição para este problema teste da seguinte da forma: Vamos assumir que: Seja N o número de firmas. i = 1,...N; x = (x 1, x 2,..., x N ) o vetor de produção. A firma i produz a quantidade x i da mercadoria. Q = N i=1 x i é a soma total da mercadoria produzida. p(q) é a função demanda inversa. C i (x i ) é o custo de produção para a firma i. Neste exemplo, a função C i (x i ) e p(q) são definidas da seguinte maneira. p(q) = γ Q 1 γ b i C i (x i ) = c i x i + L i 1 + b i 1 b i b i +1 b x i i. A diferença entre a versão de Harker para a de Pang e Murphy esta no sinal do expoente de L i. A função F é dada por: F i (x) = C i(x i ) p(q) x i p (Q); Na forma vetorial a função F pode ser dada como: F (x) = [c + L 1 b x 1 b com c i, L i, b i, γ IR + e γ 1. c = [10, 8, 6, 4, 2] b = [1.2, 1.1, 1, 0.9, 0.8] L = [5, 5, 5, 5, 5] E = [1, 1, 1, 1, 1] γ = 1.1 p(q)(e x γq )] Tem solução x = [36.92, 41.73, 43.68, 42.68, 39.19] e a matriz H(x ) é não singular. Vamos tomar como ponto inicial x0 = [50; 50; 50; 50; 50]. 76

84 6. O Problema de Nash-Cournot, por Pang e Murphy N = 10. c = [5, 3, 8, 5, 1, 3, 7, 4, 6, 3] b = [1.2, 1, 0.9, 0.6, 1.5, 1, 0.7, 1.1, 0.95, 0.75] L = [10, 10, 10, 10, 10, 10, 10, 10, 10, 10] E = [1, 1, 1, 1, 1, 1, 1, 1, 1, 1] γ = 1.2 E solução x = [35.37, 46.57, 4.72, 19.91, , 46.57, 12, 42.56, 20.59, 32.98], com a matriz H(x ) não singular. Ponto inicial x0 = [100; 100; 100; 100; 100; 100; 100; 100; 100; 100]. 7. O Exemplo de Mathiesen modificado [28]. Seja F (x) := x 2 + x 3 + x 4 x 1 4.5x 3+2.7x 4 x x 1 0.5x 3+0.3x 4 x x 1 (1.3) Neste exemplo temos infinitas soluções x = (x 1, 0, 0, 0), onde x 1 [0, 3]. Para x 1 = 0 ou 3, as soluções são degeneradas. Já para x 1 (0, 3) as soluções são não degeneradas. Para o ponto inicial x0 = [2.9; 2; 0.01; 3] temos como solução x = [2.5080, , , ]. 8. Exemplo de Programação não linear (Kanzow), [28]. Considere o seguinte problema de programação convexa: 5 min θ(x) = exp ( (x i i + 2) 2 ), sugeito a x 0. i=1 A condição de otimalidade de Kuhn-Tucker aplicado a este problema resulta no seguinte problema de complementaridade: 77

85 x x F (x) := θ(x) = 2 exp ( 2 5 i=1 (x i i + 2) 2 ) x 3 1 x 4 2 x 5 3 Este exemplo tem uma solução degenerada x = (0, 0, 1, 2, 3). Ponto inicial x0 = [5; 5; 5; 5; 5]. 9. Problema de Programação Não Linear de número 34 de Hock-Schittkowski [27] 10. Problema de Programação Não Linear de número 35 de Hock-Schittkowski [27] 11. Problema de Programação Não Linear de número 66 de Hock-Schittkowski [27] 12. Problema de Programação Não Linear de número 76 de Hock-Schittkowski [27] 13. Problema de Complementaridade Não linear de número 9 do Artigo [61] A função F (x) é definida por x 1 2 F (x) = x x 2 x x 2 + 2x x 3 3 Este problema tem solução única, x = [2; 0; 1] com F (x ) = [0; 2; 0], logo é uma solução não degenerada. A matrix H(x ) é não singular. Ponto inicial x 0 = [3; 3; 3]. 14. Problema de Complementaridade Não linear de número 10 do Artigo [61] A função F (x) é definida por x 1 2 F (x) = x x 2 x x 2 + 2x x

86 Este problema tem solução única, x = [2; 0; 1] com F (x ) = [0; 0; 0], logo é uma solução degenerada. Portanto a matrix H(x ) é singular. Ponto inicial x 0 = [3; 3; 3]. 15. Problema de Complementaridade Não linear de número 12 do Artigo [61] A função F (x) é definida por x x 2 + x x 2 x F (x) =. x 2 + 2x x 3 3 x 4 + 2x 3 4 Este problema tem solução única, x = [2; 0; 1; 0] com F (x ) = [0; 2; 0; 0], logo é uma solução degenerada. Portanto a matrix H(x ) é singular. Ponto inicial x 0 = [3; 3; 3; 3]. 16. Problema de complementaridade linear com a matriz B singular [8]. x F (x) = Bx + q = x 3 com B = 0 0 1, x = x 3 x q = 0. 1 O conjunto de pontos viáveis, Ω = {(x 1, x 2, x 3 ) IR 3 + x 3 x 2 1}. x 1 x 2 e x 3 Existem infinitas soluções: x = [0, λ, 0] com λ [0, 1] e x = [λ, 0, 0] com λ 0. Com λ = 0 e λ = 1, x é uma solução degenerada e para λ (0, 1) temos que x é uma solução não degenerada. Já a solução x é sempre degenerada para todo λ 0. x 2 x 1 0 A matriz H(x) = 0 x 3 x 2. Observe que H(x) é 0 x 3 2x 3 x sempre não singular na região estritamente viável. E nas soluções H(x) será sempre singular. λ λ 0 H(x ) = 0 0 λ e M = λ

87 Para o ponto inicial x0 = [1, 1, 1], temos como solução x = [0, 0.5, 0]. A tabela a seguir traz a relação dos problemas e o tamanho da variável x de cada um deles (n). Tabela 1.1: Coletânea de Problemas Teste No Problemas n No Problemas n 1 Kojima-Josephy 4 9 PNL HS Kojima-Shindo 4 10 PNL HS Nash-Cournot (Harker) 5 11 PNL HS Nash-Cournot (Harker) PNL HS Nash-Cournot (Pang e Murphy) 5 13 NCP Nash-Cournot (Pang e Murphy) NCP Mathiesen Modificado 4 15 NCP PNL Kanzow 5 16 Chen e Ye 3 Agora segue a tabela com o históricos de cada um dos 16 problemas. Os dados na tabela são numero de iterações do algoritmo it, busca linear BL. O algoritmo FAIPA utilizaremos em dois casos o primeiro sem a atualização proposta nos multiplicadores de Lagrange (s/atual.) e o segundo com a atualização proposta (c/atual.). 80

88 Tabela 1.2: Histórico dos Problemas Testes Alg FDA-NCP FAA-NCP FAIPA FB β s/atual. c/atual. - Problema It BL It BL It BL It BL It BL It BL It BL * * * * O símbolo * indica que o algoritmo não convergiu a uma solução do problema de complementaridade. No problema 8 os algoritmos FAIPA s/autal. e FB não convergiram. Nos demais casos os algoritmos convergiram a uma solução do problema de complementaridade. Nos problemas 9 e 11, onde aparece o símbolo o passo da busca linear é muito pequeno, o que explica o número excessivo de busca linear. Nestes dois exemplos o que ocorre é que a seqüência gerada se pega em uma restrição do tipo F i (x) = 0 e x i = 0 o que complica o cálculo da direção já que a matriz fica muito mal condicionada. Então quando utilizamos a busca em arco, proposta no capítulo 7, o algoritmo FAA-NCP consegue se afastar das restrições e assim convergindo mais rápido a uma solução do problema de complementaridade. Apresentaremos um gráfico onde podemos verificar a convergência assintótica do algoritmo FDA-NCP, como vimos no Teorema Usaremos os seguintes 81

89 exemplos, Problema (1) Kojima-Josephy e Problema (13), com os valores para β = 1.1 e β = Tx= xk+1 x x k x 0.5 Problema 13 Tx 0.4 Problema Número de iterações Figura 1.1: Convergência Superlinear (β = 1.1) Tx Problema 1 Tx= xk+1 x x k x Problema Número de Iterações Figura 1.2: Convergência Quadrática (β = 2) Apresentaremos agora resultados obtidos, de quatro exemplos de complementaridade linear onde vamos tomar em cada um deles diferentes 82

90 valores de n, dimensão do problema. Nos quatro problemas, a matriz jacobiaca F (x) é simétrica e definida positiva. E os quatro exemplos possui solução única. A função F destes exemplos é da forma F (x) = Cx + c, onde C é uma matriz quadrada de ordem n e c é um vetor fixo de IR n composto por 1 s em todas as coordenadas. No caso de complementaridade linear não faz muito sentido usarmos a versão FAA-NCP, pois ω 1 0. Portanto aqui só compararemos os algoritmos FDA-NCP (β = 1.1 e β = 2), com o FB. Vamos definir cada um dos problemas. 1. Problema 17 [20]. A matriz C é construída da seguinte forma for i = 2, 3,..., n C(i 1, i) = 1, C(i, i 1) = 1 e a matriz é definida por C = C + 4Id n. Ponto inicial é x 0 = [1; 1;...; 1]. 2. Problema 18 [28]. A matriz C é definida por i = 1, 2,..., n C(i, i) = i n. Ponto inicial é x 0 = [n + 1; n; n 1;...; 2]. 3. Problema 19 [48], [60]. A matriz C é definida por C = O ponto inicial é x 0 = [2; 2;...; 2]. 83

91 4. Problema 20 ([15], [60]). A matriz C é construída da seguinte forma i, j = 1, 2,..., n se j = i A(i, j) = 4(i 1) + 1 e B(i, i) = A(i, i) Caso contrário e fica definida por A(i, j) = 4(i 1) + 2 C = triu(a) + triu(a) T B onde triu(a) significa tomar a parte triangular superior de A. O ponto inicial é x 0 = [1, 1,...1]. Segue abaixo as tabelas referentes a cada um dos problemas acima. Tabela 1.3: Iterações para o Problema 17 Alg FDA-NCP FB β n It BL It BL It BL

92 Tabela 1.4: Iterações para o Problema 18 Alg FDA-NCP FB β n It BL It BL It BL Tabela 1.5: Iterações para o Problema 19 Alg FDA-NCP FB β n It BL It BL It BL

93 Tabela 1.6: Iterações para o Problema 20 Alg FDA-NCP FB β n It BL It BL It BL Com estes quatro problemas testes podemos ver que o desempenho do algoritmo FDA-NCP é muito satisfatório quando comparamos em cada problemas o número de iterações como respeito a variação do tamanho do problema. As iterações e buscas lineares aumentam muito pouco em relação a n. Em todos os caso o passo da busca terminou com t = 1. Para fechar esta etapa de problemas teste. Rodamos o problema 1, Kojima-Josephy (K-J), e o problema 2, Kojima-Shindo (K-S), para um conjuntos de 100 pontos iniciais viáveis. Estes pontos foram gerados aleatoriamente no intervalo [1, 100]. O resultado se encontra na tabela abaixo. Tabela 1.7: Histórico dos Problemas Testes Alg FDA-NCP FAA-NCP FAIPA FB β s/atual. c/atual. - Problema C NC C NC C NC C NC C NC C NC C NC K-J 100% - 100% - 100% - 100% - 38% 62% 99% 1% 32% 68% K-S 100% - 100% - 100% - 100% - 48% 52% 100% - 95% 5% Para o problema de Kojima-Josephy (K-J) o algoritmo FDA-NCP e FAA-NCP convergiu em todos os pontos gerados, enquanto os algoritmos FAIPA sem a atualização em λ convergiu só em 38% dos 100 pontos gerados e o FAIPA com 86

94 atualização convergiu em 99% dos 100 pontos gerados e o algoritmo FB só convergiu em 32% dos 100 pontos gerados. Para o problema de Kojima-Shindo (K-S), que possui duas soluções uma degenerada e outra não degenerada. Os algoritmos FDA-NCP e FAA-NCP convergiu em 100% dos pontos gerados e todos para a solução degenerada. Já o algoritmo FAIPA sem a Atualização em λ convergiu em 48% dos 100 pontos gerados, sendo que 35% dos 100 pontos convergiu para a solução degenerada e 13% dos 100 pontos gerados convergiu para a solução não degenerada. Para o FAIPA com a atualização em λ a convergência se deu em todos 100 pontos gerados, sendo que 64% convergiu para a solução degenerada e 36% para a solução não degenerada. E por fim o algoritmo FB convergiu para em 95% dos pontos gerados sendo que 85% dos 100 pontos foi para a solução degenerada e 10% foi para a solução não degenerada. Com isso podemos verificar que os algoritmos FDA-NCP, FAA-NCP são muito mais robusto dentro da região viável dos os outros algoritmos. Reafirmado assim os resultados teóricos do capítulo 4 sobre convergência Global. Destacamos também o algoritmo FAIPA com a atualização em λ que obteve um desempenho muito superior ao FAIPA sem a atualização. 9.2 Casos especiais para FDA-NCP Nesta seção veremos alguns exemplos em que o uso do arco se faz necessário e também alguns casos em que a reformulação proposta no capítulo 7 é útil. Nos casos em que os pontos da seqüência gerada pelo algoritmo FDA-NCP se pegam em uma restrição F i (x) = 0 e/ou x i = 0 a velocidade de convergência fica comprometida. Este fato pode ser ocasionado pelo mal condicionamento da matriz do sistema próximo da solução, que acaba atrapalhando o calculo da direção de busca. Pode ocorrer também o efeito Maratos o que acarreta em um número grande de iterações e buscas lineares. Nestes casos nos iremos utilizar o FAA-NCP, que é a versão do FDA-NCP com a busca em arco como foi proposto no capítulo 7. Também aplicaremos a reformulação no problema de complementaridade proposta no capítulo 8 para casos em que não temos uma região estritamente viável com 87

95 interior não vazio ou quando a matriz do sistema do FDA-NCP é singular na região viável. 1. Problema da Meia Lua. Seja F (x 1, x 2 ) := 1 (x 1 1.5)2 (1.5) 2 (x 2 1.5) (x 1 3) 2 (1.5) 2 + (x 2 1.5) 2. O conjunto de pontos viáveis é Ω = {(x 1, x 2 ) IR (x 1 3) 2 (1.5) 2 (x 2 1.5) 2 1 (x 1 1.5) 2 (1.5) 2 } Temos duas soluções x = [2.25; 2.366] e x = [2.25; 0.634]. A matriz M é não singular nas duas soluções. Aplicando o algoritmo FDA-NCP e o FAA-NCP para os seguintes pontos iniciais x 0 = [1.5, 2.2] e x 0 = [1, 1], veremos que a seqüência gerada pelos algoritmos convergem respectivamente para x e x como mostra a tabela abaixo. Tabela 2.1: Resumo dos iterações Alg FDA-NCP FAA-NCP β Ponto Inicial It BL It BL It BL It BL x x Como podemos notar na tabela (2.1), quando utilizamos o algoritmo FDA-NCP verificamos um grande número de iterações do algoritmo bem como um número excessivo de busca linear. Já para o algoritmo FAA-NCP vemos uma redução drástica nas iterações. Segue abaixo um gráfico com o esquema das iterações para o caso β = 2, onde podemos ver que no caso do FDA-NCP a seqüência gerada se arrasta pela restrição enquanto o FAA-NCP se afasta das restrições se mantendo mais no interior da região viável. 88

96 x 0 x Eixo Y Região Viável x 0 Soluções do NCP Eixo X x Figura 2.1: 2. O problema do peixe. Seja F (x 1, x 2 ) := x 2 2(x 1 1) 2 x 1 x O conjunto de pontos viáveis é: Ω = {(x 1, x 2 ) IR 2 + x 1 x e x 2 2(x 1 1) 2 }. Existem duas soluções x = [ ; ] não degenerada e x = [1; 0] degenerada. Logo a matriz do sistema na solução x é não singular e a matriz do sistema em x é singular. Aplicando o algoritmo FDA-NCP e o FAA-NCP para os seguintes pontos iniciais x 0 = [0.6; 0.6] e x 0 = [0.7; 0.4], veremos que a seqüência gerada pelos algoritmos convergem respectivamente para x e x como mostra a tabela abaixo. Tabela 2.2: Resumo dos iterações Alg FDA-NCP FAA-NCP β Ponto Inicial It BL It BL It BL It BL x x

97 Como podemos notar na tabela (2.1), para a solução não degenerada, x, houve uma melhora nas iterações quando usamos o algoritmo FAA-NCP. Para a solução que é degenerada a matriz do sistema fica mal condicionada a medida que a seqüência gerada se aproxima da solução x. Isso reflete no grande número de iterações do algoritmo FDA-NCP bem como um número excessivo de busca linear. E pelo fato do mal condicionamento do sistema linear próximo da solução x, mesmo quando usamos o FAA-NCP, temos ainda um número razoável de busca linear. Segue abaixo um gráfico com o esquema das iterações para o caso β = x x 0 FDA NCP Eixo Y 0.4 x FAA NCP x Eixo X Figura 2.2: 3. Para F (x) := (x 1) 2 1 temos o conjunto de pontos viáveis é Ω = {0} [2, + ) e o conjunto de pontos estritamente viáveis é Ω 0 = (2, + ). Existem duas soluções isoladas, x = 0, solução degenerada, e x = 2, solução não degenerada. O problema reformulado fica da seguinte forma: G(u) = (x 1)2 1 + z, onde u = (x, z) e com o conjunto viável sendo 1 Ω R = {(x, z) IR 2 x 0, z 0 e z 1 (x 1) 2 } e o conjunto de pontos estritamente viável 90

98 Ω R+ = {(x, z) IR 2 x > 0, z > 0 e z > 1 (x 1) 2 }. Existem duas soluções, u = (x, z ) = (0, 0) solução degenerada e u = (x, z ) = (2, 0) solução não degenerada. Aplicando o algoritmo FDA-NCP e o FAA-NCP para os seguintes pontos iniciais u 0 = [0.15; ] e u 0 = [3; 2], veremos que a seqüência gerada pelos algoritmos convergem respectivamente para u e u como mostra a tabela abaixo. Tabela 2.3: Resumo dos iterações Alg FDA-NCP FAA-NCP β Ponto Inicial It BL It BL It BL It BL u u Veja o gráfico das iterações com β = 2 e para o algoritmo FAA-NCP u u 0 Região Viável u u Figura 2.3: 4. Seja F (x 1, x 2 ) := ex2 1 x 2. 0 O conjunto de pontos viáveis é Ω = IR 2 + mas não existe ponto estritamente 91

99 viável. Este problema tem infinitas soluções da forma x = (0, x 2) IR 2 para todo x 2 0. Temos uma solução degenerada para x 2 = 0 e para x 2 > 0 tem infinitas soluções não degenerada. A matriz (1 + 2x2 1)e x2 1 x 2 x 1 e x2 1 x 2 é singular para todo x IR Portanto, reformulando este problema, teremos: O conjunto de pontos viáveis: Ω G = IR 3 +. O conjunto de pontos estritamente: Ω G+ = IR e x2 1 x 2 + z G(x, z) = z 1 (1 + 2x 2 1)e x2 1 x 2 + z x 1 e x2 1 x 2 x 1 M G (x, z) = 0 z x Observe que M G é não singular na região estritamente viável mas é singular nas soluções do problema em questão. Ponto inicial x0 = [1, 1, 1]; temos como solução o ponto x = [0, 1, 0]. Abaixo segue a tabela com o resumo das iterações. Tabela 2.4: Resumo dos iterações Alg FDA-NCP FAA-NCP β Ponto Inicial It BL It BL It BL It BL x

100 1 0.8 Ponto Inicial Eixo Z Solução do PC 0 2 Iterações Eixo Y Eixo X Figura 2.4: Gráfico da seqüência de pontos Neste caso o arco não ajuda muito, pois, a matriz do sistema é singular na solução do problema. 5. Seja F (x 1, x 2 ) :=. 1 1 (x 1 +x 2 1) Para esta função também não temos uma região estritamente viável. A região viável é Ω = {x IR 2 x 1 +x 2 = 1}, que não tem interior vazio, e muito memos pontos estritamente viáveis, pois para todo x 0 Ω temos que F (x 0 ) = 1. 0 Este problema tem única solução x = [0; 1]. E a matriz H(x) para todo x Ω é: x = x que é singular em Ω. O problema reformulado fica da seguinte forma: O conjunto de pontos viáveis: Ω G = {(x, z) IR 2 + IR + z (x 1+x 2 1) 2 (x 1 +x 2 1) 2 +1 }. O conjunto de pontos estritamente viáveis: Ω G+ = {(x, z) 93

101 IR 2 ++ IR ++ z > (x 1+x 2 1) 2 (x 1 +x 2 1) 2 +1 }. 1 + z (x G(x, z) = 1 +x 2 1) 2 + z (x 1 +x 2 1) z 0 x 1 2(x G(x, z) = 1 +x 2 1) ((x 1 +x 2 x 1) 2 +1) 2 2 z (x 1+x 2 1) 2 2(x 1+x 2 1) (x 1 +x 2 1) 2 +1 ((x 1 +x 2 x 1) 2 +1) 2 2 x Ponto inicial x0 = [1, 1, 0.9]; e solução x = [0, 1, 0]. Tabela 2.5: Resumo dos iterações Alg FDA-NCP FAA-NCP β Ponto Inicial It BL It BL It BL It BL x O fato da matriz do sistema na solução ser singular atrapalha o cálculo da direção de busca tanto para o algoritmo FDA-NCP quanto para o algoritmo FAA-NCP. E principalmente para β = 2. Segue o gráfico do esquema das iterações para o FAA-NCP com β = 1.1 onde temos a região viável acima da superfície Z definida no gráfico abaixo Superfície Z(x,y) Ponto Inicial Eixo Z Solução do PC Eixo Y Iterações Eixo X Figura 2.5: 94

102 Para os dois algoritmos é muito importante o fato da matriz ser não singular, principalmente nos casos em que ocorre o efeito Maratos. Já a idéia da reformulação do problema de complementaridade é evidente que não é uma boa técnica para resolver casos degenerados. Mas para determinar um ponto estritamente viável ela já ajuda muito. É o que veremos a seguir. Para fechar os testes numéricos com os algoritmos FDA-NCP e FAA-NCP. Nos reescrevemos todos os 16 problemas testes da seção 9.1 como proposto no capítulo 8. E geramos aleatoriamente pontos estritamente viáveis conforme a regra (1.1) definida no capítulo 8. A tabela (2.6) mostra o número de iterações (It) e da busca linear (BL) de cada problema. 95

103 Tabela 2.6: Problemas Testes Reformulados Alg FDA-NCP FAA-NCP β Problema It BL It BL It BL It BL Em todos os problemas da tabela (2.6) tivemos a convergência dos algoritmos a um ponto solução. Apesar do numero excessivo de busca linear no problemas em que aparece o símbolo, as buscas só ocorreram no inicio das iterações. Nas últimas iterações o tamanho do passo da busca foi igual a t = 1. Somente no problema em que aparece o símbolo, é que o passo final foi menor que 1. E nos demais casos a busca linear sempre terminou com t = 1. 96

104 9.3 Problemas de Complementaridade Mista Apresentaremos agora alguns problemas de complementaridade mista tirada da literatura afim de testar o algoritmo FDA-MNCP. Vamos a uma breve descrição dos problemas. Os quatro primeiros problemas são problemas de minimização com restrições (1.1). E das condições de KKT empregada neles, podemos descreve-los em problemas de complementaridade mista. 1. Função Objetivo: f(x) = (x 1 2) 2 + (x 2 1) 2 Restrições: h(x) = x 1 2x = 0 g(x) = 1 4 x2 1 x Que em complementaridade mista fica sob a forma: F (x, λ, µ) = g(x), h(x) Q(x, λ, µ) = f(x) + λ h(x) µ g(x) onde λ e µ são os multiplicadores de Lagrange de h(x) e g(x) respectivamente. Temos o seguinte problema de complementaridade mista µ 0, F (x, λ, µ) 0 e µ F (x, λ, µ) = 0 Q(x, λ, µ) = 0 2. Função Objetivo: f(x) = (x 1 + 3x 2 + x 3 ) 2 + 4(x 1 x 2 ) 2 Restrições: 1 x 1 x 2 x 3 h(x) = = 0 6x 2 + 4x 3 x 1 x 4 3 x 0 Que em complementaridade mista fica sob a forma: F (x, λ) = f(x) + λ h(x), 97

105 Q(x, λ) = h(x) onde λ é o multiplicador de Lagrange de h(x). Temos o seguinte problema de complementaridade mista x 0, F (x, λ) 0 e x F (x, λ) = 0 Q(x, λ) = 0 3. Função Objetivo: 10 i=1 x i f(x) = x i [c i + ln( 10 )] i=1 x i onde c = [6.089; ; ; 5.914; ; ; 24.1; ; ; ]. Restrições: x 1 + 2x 2 + 2x 3 + x 6 + x 10 2 h(x) = x 4 + 2x 5 + x 6 + x 7 1 = 0 x 3 + 2x 7 + x 8 + 2x 9 + x 10 1 x 0 Que em complementaridade mista fica sob a forma: F (x, λ) = f(x) + λ h(x), Q(x, λ) = h(x) onde λ é o multiplicador de Lagrange de h(x). Temos o seguinte problema de complementaridade mista x 0, F (x, λ) 0 e x F (x, λ) = 0 Q(x, λ) = 0 4. Função Objetivo: f(x) = 1000 x T x x 2 2 x 1 x 2 x 1 x 3 onde x = [x 1 ; x 2 ; x 3 ] Restrições: x T x 25 h(x) = = 0 8x x 2 + 7x 3 56 x 0 98

106 Que em complementaridade mista fica sob a forma: F (x, λ) = f(x) + λ h(x), Q(x, λ) = h(x) onde λ é o multiplicador de Lagrange de h(x). Temos o seguinte problema de complementaridade mista x 0, F (x, λ) 0 e x F (x, λ) = 0 Q(x, λ) = 0 5. Problema de Kojima-Shindo-Modificado. Seja F : IR 5 IR 4 definida por: 3x x 1 x 2 + 2x x 3 + 3x 4 2 y 2x x x x 3 + 2x y F (x, y) := 3x x 1 x 2 + 2x x 3 + 9x 4 5 y x x x 3 + 3x y e Q : IR 5 IR definida por : 4 Q(x, y) = x i y i=1 Tem como solução x = [1; 0; 3; 0] e y = Problema de Kanzow-Modificado. Seja F : IR 6 IR 5 definida por: x 1 + y 5 x F (x, y) := 2 exp ( 2 + y 6 5 i=1 (x i i + 2) 2 ) x 3 + y 7 x 4 + y 8 x 5 + y 9 e Q : IR 5 IR definida por : 5 Q(x, y) = ( x i y) 2 + y 6 i=1 Este exemplo tem uma solução degenerada x = (0, 0, 1, 2, 3) e y = 6. 99

107 7. Um problema de Complementaridade Mista Linear A = e B = e q = Assim temos as Funções: F (z) = Az + q Q(z) = Bz onde z = (x, y). 8. Problema de Complementaridade Mista linear definido por: F (x, y) = Ay + b e Q(x, y) = Gx Jy onde b é um vetor com 1 em todas as coordenadas, e as matrizes A, G e J são definidas da seguinte maneira: Tomamos A = [I n n : 0 n (p n) ], J = rand(n, p) e G = (G1 + G1 T )/2 com G1 = rand(n, n) e p > n. (A função rand do MatLab gera uma matriz aleatoriamente com entradas entre [0, 1]). Assim vamos resolver este problemas para três valores de n e p diferentes. Problema 8: Para n = 50 e p = 100. Problema 9: Para n = 250 e p =

108 Problema 10: Para n = 500 e p = Os resultados numéricos para os 10 problemas de complementaridade mista descrito acima. Tabela 3.1: Problemas Testes Para FDA-MNCP Alg FDA-MNCP β Problema n It BL t It BL t

109 Capítulo 10 Aplicações - Inequações Variacionais Neste capítulo vamos mostrar aplicações para o FDA-NCP e FDA-MNCP. Basicamente trabalharemos com inequações variacionais. As inequações variacionais constituem uma ferramenta natural, elegante e poderosa para tratamento de problemas de fronteira livre e seu desenvolvimento está ligado principalmente aos nomes de Fichera, Stampacchia, Lions, Baiocchi e Brezis. É conhecido que uma ampla classe de problemas de fronteira livre podem ser escritas como inequações variacionais. Entre eles estão os problemas de obstáculos em duas dimensões, o problema clássico do dique e o problema de contato entre um sólido elástico deformável e um obstáculo rígido. Uma rápida noção de inequação variacional. Seja V um espaço de Hilbert com produto interno (.,.) e associado a ele uma norma.. Seja a(.,.) : V V IR uma forma bilinear contínua em V, isto significa que a(u, v) é linear em cada uma das variáveis (u, v) e que existe uma constate β > 0 tal que a(u, v) β u v para todo u, v V. Dizemos que a(.,.) é coerciva se existe um α > 0 tal que a(v, v) α v 2, v V, e dizemos que é simétrica se a(u, v) = a(v, u) u, v V. 102

110 Note que uma forma bilinear simétrica e coerciva define um produto interno em V e [a(.,.)] 1 2 é uma norma equivalente para. no sentido que para todo v V, α 1 2 v [a(v, v)] 1 2 β 1 2 v. Seja l : V IR uma aplicação linear contínua, ou seja, existe uma constante C > 0 tal que l(v) C v, v V. Finalmente, nós dizemos que K, um subconjunto não vazio de V, é fechado se qualquer seqüência convergente em K tem seu limite em K. Agora vamos considerar a seguinte Inequação Variacional. [P (1)] Encontrar u em K tal que a(u, v u) l(v u) v K. (0.1) onde a(.,.) é uma forma bilinear contínua coerciva, l(.) uma aplicação linear contínua e K um subconjunto não vazio convexo e fechado de V, como definido anteriormente. Se a(.,.) é simétrica, nós também podemos considerar o seguinte problema de otimização. [P (2)] Encontrar u K tal que onde E[v] = 1 a(v, v) l(v). 2 E[u] = min E[v], (0.2) v K Resultado de existência e unicidade para o problema P (1) e a equivalência quando a(.,.) é simétrica entre os problemas P (1) e P (2) pode ser visto em Stampacchia [34]. Tomando V = H 1 g (Ω) = {v H 1 de IR n aberto e limitado e g L 2 (Ω). Seja f L 2 (Ω), a(u, v) = Ω u. v dx, l(v) = f(x)v(x)dx e E[v] = 1 Ω 2 : v = g sobre Ω} onde Ω é um subconjunto e K = {v H 1 g (Ω) v(x) ψ(x) em x Ω} onde ψ H 2 g (Ω). Assim, uma solução de P (1) é a mesma solução do seguinte problema: Ω v 2 dx fv dx u, v V Ω 103

111 [P (3)] Encontrar u K tal que: u ψ 0 em Ω, (0.3) u f 0 em Ω e (0.4) (u ψ)( u f) = 0 em Ω. (0.5) Uma solução de P (3) particiona Ω em duas regiões: Ω 0 = {x : u(x) = ψ(x)}, Ω + = {x : u(x) > ψ(x)} e u = f em Ω +. Assim, considerando hipóteses de regularidade e suavidade para u e os conjuntos Ω + e Ω 0 temos que u é uma solução de P (1). Para mais detalhes ver [34], [11]. As duas primeiras aplicações são de inequações variacionais que são equivalentes a uma formulação em complementaridade P (3). São, o problema do obstáculo e o problema clássico do Dique. Neste caso trabalharemos com o domínio Ω fixo e utilizaremos o Método das Diferenças Finitas (MDF). A terceira aplicação é o problema de elasticidade linear com contato sem atrito, aqui apresentaremos o modelo matemático do problema (Problema de Signorini). Para resolver este problema numericamente utilizaremos dois tipos de discretização, o Método dos Elementos Finitos (MEF) e o Método dos Elementos de Contorno (MEC). No primeiro caso transformamos o problema de Signorini em um problema de otimização, do tipo P (2), a partir da discretização deste problema de otimização, obtemos um problema de complementaridade. No segundo caso a discretização ocorre a partir das equações que compõem o Problema de Signorini, das equações de equilíbrio mais as condições de contorno e através do Método de Elemento de Contorno (MEC) obtemos duas formulações. Uma em complementaridade Mista onde utilizaremos o FDA-MNCP e outra em complementaridade na qual utilizaremos o FDA-NCP para obter um resultado numérico. As próximas seções trazem um resumo dos trabalhos apresentados em Congressos e Simpósios [41], [42], [44], [45], [46] e [43]. 104

112 10.1 O Problema do Obstáculo em duas dimensões Considere uma membrana elástica homogênea que, em sua posição de referência, ocupa a região limitada Ω de IR 2 suficientemente regular e tendo o seu bordo fixo em Ω. A membrana quando sujeita à força externa f deforma-se. Porém, na presença de um obstáculo, que designaremos pela função ψ em Ω, assume sua posição de equilíbrio satisfazendo as equações abaixo. u = f, em Ω +, ( Região onde não há contato) (1) u(x, y) = ψ(x, y), em Ω 0, ( Região onde há contato) u = g, sobre Ω, u = ψ, u = ψ, sobre Γ = Ω 0 Ω +, (g condição de fronteira) u ψ, em Ω = Ω + Ω 0, (ψ obstáculo) u f, em Ω = Ω + Ω 0. Este problema é equivalente ao problema abaixo: Encontrar u K = { v H 1 (Ω) / v ψ em Ω e v = g sobre Ω } tal que: u ψ 0 em Ω, (2) u f 0 em Ω, (u ψ)( u f) = 0 em Ω. A existência e unicidade da solução bem como a equivalência dos sistemas (1) e (2), ficam asseguradas quando assumimos condições de regularidade para os conjuntos Ω e Γ e para as funções ψ, g e f. Faremos um exemplo apresentado em [12]. O conjunto Ω = [0, 1] [0, 1]. Onde f = 0 em Ω. E g sobre Ω vale: 1 (2x 1) 2, se y = 0 e y = 1, g(x, y) = 0 caso contrário. 105

113 Para o obstáculo dado por: 1 se x 1 ψ 1 (x, y) = 1, y 1 1, caso contrário Figura 1.1: O Gráfico da solução para uma malha e usando diferenças finitas. Tabela 1.1: Resumo das iterações - Obstáculo ψ 1 Alg FDA-NCP FB β n It BL It BL It BL

114 Para o obstáculo dado por: ψ se x 1 ψ 2 (x, y) = 1, y caso contrário onde ψ = 400(x 1 4 )(x 3 4 )(y 1 4 )(y 3 4 ) Figura 1.2: O Gráfico da solução para uma malha e usando diferenças finitas. Tabela 1.2: Resumo das iterações - Obstáculo ψ 2 Alg FDA-NCP FB β n It BL It BL It BL

115 Nas duas tabelas 1.1 e 1.2, vemos que o algoritmo FDA-NCP tem um desempenho superior ao algoritmo FB, principalmente com relação a busca linear. Destacamos também, para o algoritmo FDA-NCP, que o numero de iterações e busca linear não varia muito em relação ao numero de variáveis n Problema clássico de infiltração em meio poroso O modelo físico do problema clássico de infiltração consiste em encontrar o fluxo entre dois reservatórios com níveis H e h ( H > h), respectivamente, separados por um meio poroso R, de comprimento a e com a base impermeável. Como mostra a figura 2.2 H Γ R - Ω Parte Seca Água Parte Molhada h1 Ω 0 a h Água h 0 Figura 2.1: Infiltração em meio poroso A diferença entre os níveis provocará um escoamento do fluido formando uma área saturada Ω em R, cuja parte da fronteira dada pela curva Γ é desconhecida à priori. A parte da fronteira Γ dado pelo segmento h 1 h = Γ γ, de comprimento h 0, é chamado superfície de percolação. Considere um fluido ideal, escoamento permanente, o meio poroso homogêneo com coeficiente de permeabilidade constante e igual a 1, [2], [11], [37]. Temos a seguinte formulação matemática para o problema de infiltração em meio poroso: Dado a, h, H IR satisfazendo a > 0 e 0 < h < H, determinar uma 108

116 função decrescente y = φ(x) definida para x [0, a] tal que φ(0) = H, φ(a) > h e uma função potencial de velocidade u(x, y) : Ω IR onde Ω = {(x, y) R ; 0 < y < φ(x)} satisfazendo: u(x, y) harmônica em Ω e contínua em Ω, (i) u(0, y) = H para 0 y H, h para 0 y h, u(a, y) = (ii) y para h y φ(a), u y (x, 0) = 0 para 0 < x < a, (iii) u(x, y) = y u(x,y) ν = 0 para y = φ(x), 0 < x < a, onde ν é o vetor normal externo ao domínio Ω para a curva y = φ(x). Através da transformação de Baiocchi w(x, y) = φ(x) y [u(x, t) t]dt, (x, y) Ω, podemos reformular o problema de infiltração em meio poroso como um problema de complementaridade: Seja R = [0, a] [0, H], Ω R. Encontrar w K = { v H 1 (R) / v 0 em R e v = g sobre R } tal que: w 0 em R 1 w 0 em R w(1 w) = 0 em R (2.1) Onde g(x, y) é definida sobre R por 1 g(x, y) = (H 2 y)2 + x [(h 2a y)2 (H y) 2 ], 0 y h 1 (H 2 y)2 x (H 2a y)2, h y H. Dessa forma a solução deste problema (2.1) é uma solução do problema de infiltração em meio poroso em questão e ainda temos que Ω w = {(x, y) R / w(x, y) > 0 }. Considere o seguinte caso: H = , a = e h =

117 Ω w Parte Seca Parte Molhada h 1 h h 0 Figura 2.2: Solução do Problema (2.1). Solução para uma malha e usando diferenças finitas. O comprimento de h Tabela 2.1: Resumo das iterações para o Problema (2.1) Alg FDA-NCP FB β n It BL It BL It BL * * * * * * Na tabela 2.1 vemos que o algoritmo FDA-NCP teve um comportamento regular com respeito a variação n, número de variáveis na discretização. Para os caso em que aparece a marca o passo final foi menor que 1 e nos outros caso tivemos a convergência com o passo igual a 1. O algoritmo FB não teve um bom desempenho e a medida que n aumenta o algoritmo FB realiza muitas iterações e buscas lineares e para os casos onde aparece não houve convergência a uma solução do problema 110

118 (2.1). Portanto, o algoritmo FDA-NCP teve um desempenho superior ao algoritmo FB Problema de Elasticidade Linear com Contato O problema de elasticidade linear com contato consiste em determinar a função u que define os deslocamentos nos pontos de um domínio Ω IR 2 (IR 3 ) do espaço euclidiano. O domínio Ω é ocupado por um corpo de material elástico linear. As condições de contorno são dadas pela função que define os deslocamentos prescritos, ū e pela função que define as forças de superfície prescritas p, definidas, respectivamente, nas regiões Γ D e Γ N de Ω, e por uma condição de contato na região Γ C (ver Fig. 3.1). Chamando Γ ao contorno de Ω, as regiões Γ D, Γ N e Γ C verificam: Γ D Γ N Γ C = Γ. Figura 3.1: Problema de Signorini. Matematicamente, o problema de elasticidade linear com contato pode ser expresso como o problema de Signorini: a) ( lc S u) = 0 em Ω, b) u = ū em Γ D, c) p = p em Γ N, (3.1) 111

119 mais a condição de complementaridade no contorno Γ C : a) u n + s 0, b) p n 0 em Γ C, c) (u n + s) (p n) = 0, (3.2) onde lc é o tensor elástico, S u = 1/2( u + ( u) T ), p = ( lc S u)n representa as forças de superfície atuando no contorno, n é o vetor unitário normal à superfície sobre a qual tem-se o contato e s é a folga do deslocamento máximo possível na direção do vetor unitário n (ver Fig. 3.1). O problema de elasticidade linear com contato pode ser formulado como um problema de minimização de um funcional num campo de deslocamento admissíveis, = {u U u n + s 0 em Γ C } onde U é o espaço de deslocamentos, ou seja: onde f(u) = 1 2 min f(u), (3.3) u Ω S u ( lc S u)dω Γ u pdγ. N Modelo de Elementos Finitos Utilizando o método de elementos finitos para discretizar o problema (3.3) obtém-se: f(u) = 1 2 ut Ku F u, (3.4) g(u) = Au s, (3.5) onde u g(u) 0 e f(u) é o funcional quadrático que representa a energia total de deformação, K a matriz de rigidez do problema e F vetor carregamento externo. Porém a solução deste problema verifica as condições de otimalidade de (Karush-Kunh-Tucker) de primeira ordem, as quais podem-se escrever da forma seguinte: G(λ) = (AK 1 A t )λ AK 1 F + s 0;, (3.6) λ 0, (3.7) G(λ) λ = 0. (3.8) 112

120 Assim, tem-se um problema de complementaridade na variável dual λ, que representa fisicamente as forças de contato na superfície. Os sistemas K 1 A t e K 1 F são resolvidos uma única vez e de forma simultânea no ABAQUS através de uma interface com o algoritmo (FDA-NCP) [3] e [45]. Apresentados dois exemplos de contato, o primeiro em duas dimensões (2D) e o segundo em três dimensões (3D). No primeiro exemplo (2D) é considerado um corpo semicilíndrico de material isotrópico submetido a um estado plano de tensões, em contato com uma fundação rígida. Devida à simetria axial o problema pode ser modelado em duas dimensões. Ver figura 3.2. Figura 3.2: Problema de contato 2D. Os dados do modelo são: r = 1cm, E = 207GPa, ν= 0.3, q = 66KPa e a solução analítica das pressões de contato: p(x) = 2ρ 4rρ(1 ν2 ) 1 (x/b) πb 2 b = πe ρ = 2rq onde b largura da região de contato e r raio do cilindro. 113

121 2 3 1 Figura 3.3: Configuração deformada Analítica ABAQUS FDA NCP FAIPA P(x)/B x/r Figura 3.4: Curva pressão na região de contato 114

122 Tabela 3.1: Resultados numéricos Alg FDA-NCP FAIPA β 1.1 s/atual. Problema It BL t It BL t (2D) Como podemos verificar na tabela o desempenho do algoritmo FDA-NCP foi superior ao algoritmo FAIPA. Para o segundo exemplo (3D) resolvemos um problema de auto-contato, numa peça que encontra-se sujeita a forças externas num extremo e engastada na sua base como vemos na figura 3.5. Y Z X Figura 3.5: Modelo com condições de contorno Dados do modelo E = 207GPa, ν = 0.3 e ρ = 130KPa. 115

123 S, Mises (Ave. Crit.: 75%) e e e e e e e e e e e e e Figura 3.6: Configuração deformada S, Mises (Ave. Crit.: 75%) e e e e e e e e e e e e e Figura 3.7: Configuração da região de contato Tabela 3.2: Resultados numéricos Alg FDA-NCP FAIPA β 1.1 s/atual. Problema It BL t It BL t (3D) Também neste caso vemos que o algoritmo FDA-NCP obteve um desempenho melhor que o algoritmo FAIPA. 116

Método do Lagrangiano aumentado

Método do Lagrangiano aumentado Método do Lagrangiano aumentado Marina Andretta ICMC-USP 23 de novembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 1 / 17 Problema com restrições gerais Vamos

Leia mais

UN ALGORITMO DE PUNTO INTERIOR PARA LA RESOLUCIÓN DE PROBLEMAS DE CONTACTO

UN ALGORITMO DE PUNTO INTERIOR PARA LA RESOLUCIÓN DE PROBLEMAS DE CONTACTO UN ALGORITMO DE PUNTO INTERIOR PARA LA RESOLUCIÓN DE PROBLEMAS DE CONTACTO Sandro Rodrigues Mazorche Universidade Federal de Juiz de Fora - UFJF, Dep. de Matemática - ICE, Campus Universitário - CEP 36036-330

Leia mais

Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright.

Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Métodos de regiões de confiança Marina Andretta ICMC-USP 17 de setembro de 2014 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear

Leia mais

BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017

BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira   22 de novembro de 2017 BCC465 - TÉCNICAS DE OTIMIZAÇÃO MULTI-OBJETIVO Aula 04 - Otimização Não-linear Gladston Juliano Prates Moreira email: gladston@iceb.ufop.br CSILab, Departamento de Computação Universidade Federal de Ouro

Leia mais

Método de Newton truncado

Método de Newton truncado Método de Newton truncado Marina Andretta ICMC-USP 8 de outubro de 2018 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear

Leia mais

Departamento de Matemática da Universidade de Coimbra. Licenciatura em Matemática. e B =

Departamento de Matemática da Universidade de Coimbra. Licenciatura em Matemática. e B = Departamento de Matemática da Universidade de Coimbra Optimização Numérica Licenciatura em Matemática Ano lectivo 2006/2007 Folha 1 1. Considere as matrizes A = [ 1 1 1 2 ] e B = [ 1 3 1 2 (a) Verifique

Leia mais

1 Álgebra linear matricial

1 Álgebra linear matricial MTM510019 Métodos Computacionais de Otimização 2018.2 1 Álgebra linear matricial Revisão Um vetor x R n será representado por um vetor coluna x 1 x 2 x =., x n enquanto o transposto de x corresponde a

Leia mais

Equações não lineares

Equações não lineares DMPA IM UFRGS Cálculo Numérico Índice 1 Método da bissecção 2 Método Newton-Raphson 3 Método da secante Vamos estudar métodos numéricos para resolver o seguinte problema. Dada uma função f contínua, real

Leia mais

Modelagem Computacional. Parte 8 2

Modelagem Computacional. Parte 8 2 Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 8 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 10 e 11] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,

Leia mais

)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD

)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD )XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD,QWURGXomR A grande maioria dos problemas de engenharia pode ser solucionado de diferentes formas, uma vez que um número muito grande de soluções atende aos critérios

Leia mais

Métodos iterativos para sistemas lineares.

Métodos iterativos para sistemas lineares. Métodos iterativos para sistemas lineares. Alan Costa de Souza 7 de Setembro de 2017 Alan Costa de Souza Métodos iterativos para sistemas lineares. 7 de Setembro de 2017 1 / 46 Introdução. A ideia central

Leia mais

Lista 8 de Análise Funcional - Doutorado 2018

Lista 8 de Análise Funcional - Doutorado 2018 Lista 8 de Análise Funcional - Doutorado 2018 Professor Marcos Leandro 17 de Junho de 2018 1. Sejam M um subespaço de um espaço de Hilbert H e f M. Mostre que f admite uma única extensão para H preservando

Leia mais

Modelagem Computacional. Parte 7 2

Modelagem Computacional. Parte 7 2 Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 7 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,

Leia mais

Método de restrições ativas para minimização em caixas

Método de restrições ativas para minimização em caixas Método de restrições ativas para minimização em caixas Marina Andretta ICMC-USP 20 de outubro de 2014 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 20 de outubro de 2014 1 / 25 Problema com

Leia mais

DANIEL V. TAUSK. se A é um subconjunto de X, denotamos por A c o complementar de

DANIEL V. TAUSK. se A é um subconjunto de X, denotamos por A c o complementar de O TEOREMA DE REPRESENTAÇÃO DE RIESZ PARA MEDIDAS DANIEL V. TAUSK Ao longo do texto, denotará sempre um espaço topológico fixado. Além do mais, as seguintes notações serão utilizadas: supp f denota o suporte

Leia mais

Teorema Do Ponto Fixo Para Contrações 1

Teorema Do Ponto Fixo Para Contrações 1 Universidade Estadual de Maringá - Departamento de Matemática Cálculo Diferencial e Integral: um KIT de Sobrevivência 20 anos c Publicação Eletrônica do KIT http://www.dma.uem.br/kit Teorema Do Ponto Fixo

Leia mais

Cálculo Numérico BCC760

Cálculo Numérico BCC760 Cálculo Numérico BCC760 Resolução de Sistemas de Equações Lineares Simultâneas Departamento de Computação Página da disciplina http://www.decom.ufop.br/bcc760/ 1 Introdução! Definição Uma equação é dita

Leia mais

1 Otimização com restrições I: Condições de Primeira Ordem

1 Otimização com restrições I: Condições de Primeira Ordem Otimização com restrições I: Condições de Primeira Ordem Teorema 8: Seja f e h funções C de duas variáveis Suponha x = (x, x 2 ) é uma solução do problema: max f (x, x 2 ) sa h(x, x 2 ) = c Suponha também

Leia mais

Universidade Federal de Juiz de Fora Instituto de Ciências Exatas Programa de Pós-Graduação em Matemática

Universidade Federal de Juiz de Fora Instituto de Ciências Exatas Programa de Pós-Graduação em Matemática Universidade Federal de Juiz de Fora Instituto de Ciências Exatas Programa de Pós-Graduação em Matemática Mario Octavio Vera Campoverde Estudo de um Caso de Equilíbrio de Nash Usando Técnicas de Inequação

Leia mais

Cálculo Numérico. Sistemas lineares Métodos Iterativos: Introdução Método Iterativo de Jacobi-Richardson

Cálculo Numérico. Sistemas lineares Métodos Iterativos: Introdução Método Iterativo de Jacobi-Richardson Cálculo Numérico Sistemas lineares Métodos Iterativos: Introdução Método Iterativo de Jacobi-Richardson Métodos como: Métodos exatos Método de eliminação de Gauss Método de decomposição LU Método de Cholesky

Leia mais

UM ALGORITMO DE NEWTON DE PONTO INTERIOR E APLICAÇÕES NA FUNDIÇÃO ELETROMAGNÉTICA DE METAIS. Alfredo Canelas Botta

UM ALGORITMO DE NEWTON DE PONTO INTERIOR E APLICAÇÕES NA FUNDIÇÃO ELETROMAGNÉTICA DE METAIS. Alfredo Canelas Botta COPPE/UFRJ UM ALGORITMO DE NEWTON DE PONTO INTERIOR E APLICAÇÕES NA FUNDIÇÃO ELETROMAGNÉTICA DE METAIS Alfredo Canelas Botta Tese de Doutorado apresentada ao Programa de Pós-graduação em Engenharia Mecânica,

Leia mais

Lista 1 - Cálculo Numérico - Zeros de funções

Lista 1 - Cálculo Numérico - Zeros de funções Lista 1 - Cálculo Numérico - Zeros de funções 1.) De acordo com o teorema de Bolzano, se uma função contínua f(x) assume valores de sinais opostos nos pontos extremos do intervalo [a, b], isto é se f(a)

Leia mais

Uma nova taxa de convergência para o Método do Gradiente

Uma nova taxa de convergência para o Método do Gradiente Proceeding Series of the Brazilian Society of Applied and Computational Mathematics, Vol. 2, N. 1, 2014. Trabalho apresentado no CMAC-Sul, Curitiba-PR, 2014. Uma nova taxa de convergência para o Método

Leia mais

Equações não lineares

Equações não lineares DMPA IME UFRGS Cálculo Numérico Índice Raizes de polinômios 1 Raizes de polinômios 2 raizes de polinômios As equações não lineares constituídas por polinômios de grau n N com coeficientes complexos a n,a

Leia mais

Cálculo Numérico. Santos Alberto Enriquez-Remigio FAMAT-UFU 2015

Cálculo Numérico. Santos Alberto Enriquez-Remigio FAMAT-UFU 2015 Cálculo Numérico Santos Alberto Enriquez-Remigio FAMAT-UFU 2015 1 Capítulo 1 Solução numérica de equações não-lineares 1.1 Introdução Lembremos que todo problema matemático pode ser expresso na forma de

Leia mais

Produtos de potências racionais. números primos.

Produtos de potências racionais. números primos. MATEMÁTICA UNIVERSITÁRIA n o 4 Dezembro/2006 pp. 23 3 Produtos de potências racionais de números primos Mário B. Matos e Mário C. Matos INTRODUÇÃO Um dos conceitos mais simples é o de número natural e

Leia mais

II Seminário da Pós-graduação em Engenharia Elétrica

II Seminário da Pós-graduação em Engenharia Elétrica UMA INVESTIGAÇÃO DOS PARÂMETROS NOS MÉTODOS MISTOS DE OTIMIZAÇÃO NÃO LINEAR Ellen Cristina Ferreira Aluna do Programa de Pós-Graduação em Engenharia Elétrica Unesp Bauru Profa. Dra. Edméa Cássia Baptista

Leia mais

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano yaratadano@utfpr.edu.br Aula 13 04/2014 Sistemas de Equações Lineares Parte 3 MÉTODOS ITERATIVOS Cálculo Numérico 3/44 MOTIVAÇÃO Os métodos iterativos

Leia mais

Método de Newton modificado

Método de Newton modificado Método de Newton modificado Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 14 de setembro de 2010 1 / 36 Método de Newton Como já vimos, o método

Leia mais

1 Diferenciabilidade e derivadas direcionais

1 Diferenciabilidade e derivadas direcionais UFPR - Universidade Federal do Paraná Setor de Ciências Exatas Departamento de Matemática CM048 - Cálculo II - Matemática Diurno Prof. Zeca Eidam Nosso objetivo nestas notas é provar alguns resultados

Leia mais

Teoria de dualidade. Marina Andretta ICMC-USP. 19 de outubro de 2016

Teoria de dualidade. Marina Andretta ICMC-USP. 19 de outubro de 2016 Teoria de dualidade Marina Andretta ICMC-USP 19 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211 - Otimização

Leia mais

Lista de Exercícios de Métodos Numéricos

Lista de Exercícios de Métodos Numéricos Lista de Exercícios de Métodos Numéricos 1 de outubro de 010 Para todos os algoritmos abaixo assumir n = 0, 1,, 3... Bisseção: Algoritmo:x n = a+b Se f(a) f(x n ) < 0 então b = x n senão a = x n Parada:

Leia mais

Algoritmos para resolução de problemas de minimização irrestrita

Algoritmos para resolução de problemas de minimização irrestrita Algoritmos para resolução de problemas de minimização irrestrita Marina Andretta ICMC-USP 10 de agosto de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 10 de agosto de 2010 1 / 16 Algoritmos

Leia mais

Optimização. Carlos Balsa. Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança

Optimização. Carlos Balsa. Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Optimização Carlos Balsa balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Matemática Aplicada - Mestrados Eng. Química e Industrial Carlos Balsa Matemática Aplicada

Leia mais

Resolução de sistemas de equações não-lineares: Método de Newton

Resolução de sistemas de equações não-lineares: Método de Newton Resolução de sistemas de equações não-lineares: Método de Newton Marina Andretta/Franklina Toledo ICMC-USP 24 de setembro de 202 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires. Marina

Leia mais

SISTEMAS LINEARES PROF. EDÉZIO

SISTEMAS LINEARES PROF. EDÉZIO SOLUÇÕES NUMÉRICAS DE SISTEMAS LINEARES PROF. EDÉZIO Considere o sistema de n equações e n incógnitas: onde E : a x + a x +... + a n x n = b E : a x + a x +... + a n x n = b. =. () E n : a n x + a n x

Leia mais

INTRODUÇÃO À ANÁLISE CONVEXA E APLICAÇÕES INTRODUCTION TO CONVEX ANALYSIS AND APLICATIONS

INTRODUÇÃO À ANÁLISE CONVEXA E APLICAÇÕES INTRODUCTION TO CONVEX ANALYSIS AND APLICATIONS X CONGRESSO DE INICIAÇÃO CIENTÍFICA DA UNIVERSIDADE FEDERAL DE CAMPINA GRANDE PIBIC/CNPq/UFCG-2013 INTRODUÇÃO À ANÁLISE CONVEXA E APLICAÇÕES João Paulo Formiga de Meneses 1, Jefferson Abrantes dos Santos

Leia mais

UNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição

UNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição UNIVERSIDADE FEDERAL DO ABC BC1419 Cálculo Numérico - LISTA 1 - Zeros de Funções (Profs. André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda) 1 Existência e unicidade de zeros; Métodos

Leia mais

Pontos extremos, vértices e soluções básicas viáveis

Pontos extremos, vértices e soluções básicas viáveis Pontos extremos, vértices e soluções básicas viáveis Marina Andretta ICMC-USP 19 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta

Leia mais

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: Espaços Euclidianos Espaços R n O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: R n = {(x 1,..., x n ) : x 1,..., x n R}. R 1 é simplesmente o conjunto R dos números

Leia mais

Laboratório de Simulação Matemática. Parte 7 2

Laboratório de Simulação Matemática. Parte 7 2 Matemática - RC/UFG Laboratório de Simulação Matemática Parte 7 2 Prof. Thiago Alves de Queiroz 2/2017 2 [Cap. 7] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning, 2010. Thiago

Leia mais

Lista de Exercícios da Primeira Semana Análise Real

Lista de Exercícios da Primeira Semana Análise Real Lista de Exercícios da Primeira Semana Análise Real Nesta lista, a n, b n, c n serão sempre sequências de números reais.. Mostre que todo conjunto ordenado com a propriedade do supremo possui a propriedade

Leia mais

Método do Gradiente Projetado Para Funções Convexas Generalizadas

Método do Gradiente Projetado Para Funções Convexas Generalizadas Método do Gradiente Projetado Para Funções Convexas Generalizadas Milton Gabriel Garcia dos SANTOS 1. Instituto de Matemática e Estatística, Universidade Federal de Goiás, Campus II- Caixa Postal 131,

Leia mais

Método dos gradientes (ou método de máxima descida)

Método dos gradientes (ou método de máxima descida) Método dos gradientes (ou método de máxima descida) Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 14 de setembro de 2010 1 / 16 Método dos gradientes

Leia mais

OPTIMIZAÇÃO NÃO LINEAR EM REDES

OPTIMIZAÇÃO NÃO LINEAR EM REDES OPTIMIZAÇÃO NÃO LINEAR EM REDES Luis Ernesto Torres Guardia Departamento de Engenharia de Produção Universidade Federal Fluminense Rua Passo da Pátria 156, São Domingos 24210-240, Niterói, R.J., Brasil

Leia mais

Capítulo 5 - Optimização Não-Linear

Capítulo 5 - Optimização Não-Linear Capítulo 5 - Optimização Não-Linear balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Mestrados em Engenharia da Construção Métodos de Aproximação em Engenharia

Leia mais

Programação Linear - Parte 5

Programação Linear - Parte 5 Matemática Industrial - RC/UFG Programação Linear - Parte 5 Prof. Thiago Alves de Queiroz 1/2016 Thiago Queiroz (IMTec) Parte 5 1/2016 1 / 29 Dualidade Os parâmetros de entrada são dados de acordo com

Leia mais

Condições de qualificação, otimalidade e um método tipo lagrangiano aumentado

Condições de qualificação, otimalidade e um método tipo lagrangiano aumentado Trabalho apresentado no XXXVII CNMAC, S.J. dos Campos - SP, 2017. Proceeding Series of the Brazilian Society of Computational and Applied Mathematics Condições de qualificação, otimalidade e um método

Leia mais

Método do Ponto Fixo

Método do Ponto Fixo Determinação de raízes de funções: Método do Ponto Fixo Marina Andretta ICMC-USP 07 de março de 2012 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires. Marina Andretta (ICMC-USP) sme0500

Leia mais

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO

Leia mais

O Teorema de Peano. f : D R n. uma função contínua. Vamos considerar o seguinte problema: Encontrar um intervalo I R e uma função ϕ : I R n tais que

O Teorema de Peano. f : D R n. uma função contínua. Vamos considerar o seguinte problema: Encontrar um intervalo I R e uma função ϕ : I R n tais que O Teorema de Peano Equações de primeira ordem Seja D um conjunto aberto de R R n, e seja f : D R n (t, x) f(t, x) uma função contínua. Vamos considerar o seguinte problema: Encontrar um intervalo I R e

Leia mais

Notas Sobre Sequências e Séries Alexandre Fernandes

Notas Sobre Sequências e Séries Alexandre Fernandes Notas Sobre Sequências e Séries 2015 Alexandre Fernandes Limite de seqüências Definição. Uma seq. (s n ) converge para a R, ou a R é limite de (s n ), se para cada ɛ > 0 existe n 0 N tal que s n a < ɛ

Leia mais

Resolução de sistemas de equações não-lineares: Método Iterativo Linear

Resolução de sistemas de equações não-lineares: Método Iterativo Linear Resolução de sistemas de equações não-lineares: Método Iterativo Linear Marina Andretta/Franklina Toledo ICMC-USP 27 de março de 2015 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires.

Leia mais

Cálculo Numérico Ponto Fixo

Cálculo Numérico Ponto Fixo Cálculo Numérico Ponto Fixo Método do Ponto Fixo (MPF) Dada uma função f(x) contínua no intervalo [a,b] onde existe uma raiz única, f(x) = 0, é possível transformar tal equação em uma equação equivalente

Leia mais

O teorema do ponto fixo de Banach e algumas aplicações

O teorema do ponto fixo de Banach e algumas aplicações O teorema do ponto fixo de Banach e algumas aplicações Andressa Fernanda Ost 1, André Vicente 2 1 Acadêmica do Curso de Matemática - Centro de Ciências Exatas e Tecnológicas - Universidade Estadual do

Leia mais

Resolução de problemas com apenas restrições lineares de igualdade

Resolução de problemas com apenas restrições lineares de igualdade Resolução de problemas com apenas restrições lineares de igualdade Marina Andretta ICMC-USP 14 de outubro de 2014 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 14 de outubro de 2014 1 / 22

Leia mais

Universidade Tecnológica Federal do Paraná

Universidade Tecnológica Federal do Paraná Cálculo Numérico - Zeros de Funções Prof a Dr a Diane Rizzotto Rossetto Universidade Tecnológica Federal do Paraná 13 de março de 2016 D.R.Rossetto Zeros de Funções 1/81 Problema Velocidade do pára-quedista

Leia mais

Professor: Carlos Eugênio da Costa Teoria Microeconômica II Monitor: Diego Santiago

Professor: Carlos Eugênio da Costa Teoria Microeconômica II Monitor: Diego Santiago Professor: Carlos Eugênio da Costa Teoria Microeconômica II - 2012 Monitor: Diego Santiago EPGE/FGV Introdução matemática 1 Introdução Esta introdução visa familiarizar o aluno com ferramentas matemáticas

Leia mais

ANÁLISE DE CONVERGÊNCIA DOS MÉTODOS DE GAUSS-NEWTON DO PONTO DE VISTA DO PRINCÍPIO MAJORANTE. Max Leandro Nobre Gonçalves

ANÁLISE DE CONVERGÊNCIA DOS MÉTODOS DE GAUSS-NEWTON DO PONTO DE VISTA DO PRINCÍPIO MAJORANTE. Max Leandro Nobre Gonçalves ANÁLISE DE CONVERGÊNCIA DOS MÉTODOS DE GAUSS-NEWTON DO PONTO DE VISTA DO PRINCÍPIO MAJORANTE Max Leandro Nobre Gonçalves Tese de Doutorado apresentada ao Programa de Pós-graduação em Engenharia de Sistemas

Leia mais

Universidade Federal do Espírito Santo - UFES

Universidade Federal do Espírito Santo - UFES Universidade Federal do Espírito Santo - UFES Centro Universitário Norte do Espírito Santo - CEUNES Departamento de Matemática Aplicada - DMA Prof. Isaac P. Santos - 2018/1 Aula: Métodos Iterativos Para

Leia mais

2 Propriedades geométricas de curvas parametrizadas no R 4

2 Propriedades geométricas de curvas parametrizadas no R 4 2 Propriedades geométricas de curvas parametrizadas no R 4 Nesse capítulo trataremos dos conceitos básicos de geometria diferencial referentes à curvas parametrizadas no R 4. 2.1 Curvas Parametrizadas

Leia mais

Método Simplex. Marina Andretta ICMC-USP. 19 de outubro de 2016

Método Simplex. Marina Andretta ICMC-USP. 19 de outubro de 2016 Método Simplex Marina Andretta ICMC-USP 19 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211 - Otimização linear

Leia mais

Sistemas de equações lineares

Sistemas de equações lineares DMPA IM UFRGS Cálculo Numérico Índice Sistema de Equações Lineares 1 Sistema de Equações Lineares 2 com pivoteamento parcial 3 Método de Jacobi Método Gauss-Seidel Sistema de Equações Lineares n equações

Leia mais

UNIVERSIDADE FEDERAL DO ABC

UNIVERSIDADE FEDERAL DO ABC UNIVERSIDADE FEDERAL DO ABC BC49 Cálculo Numérico - LISTA - sistemas lineares de equações Profs André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda Métodos diretos Analise os sistemas

Leia mais

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA Marlon Luiz Dal Pasquale Junior, UNESPAR/FECILCAM, jr.marlon@hotmail.com Solange Regina dos Santos (OR), UNESPAR/FECILCAM, solaregina@fecilcam.br

Leia mais

Equações não lineares

Equações não lineares Capítulo 2 Equações não lineares Vamos estudar métodos numéricos para resolver o seguinte problema. Dada uma função f contínua, real e de uma variável, queremos encontrar uma solução x que satisfaça a

Leia mais

ELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES NUMÉRICOS

ELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES NUMÉRICOS ELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES NUMÉRICOS ELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES

Leia mais

Exercícios de MATEMÁTICA COMPUTACIONAL. 1 0 Semestre de 2009/2010 Resolução Numérica de Equações Não-Lineares

Exercícios de MATEMÁTICA COMPUTACIONAL. 1 0 Semestre de 2009/2010 Resolução Numérica de Equações Não-Lineares Exercícios de MATEMÁTICA COMPUTACIONAL Mestrado Integrado em Engenharia Biomédica 1 0 Semestre de 2009/2010 Resolução Numérica de Equações Não-Lineares 1. Considere a equação sin(x) e x = 0. a) Prove que

Leia mais

INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o

INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 27/28 Semestre: o MATEMÁTICA COMPUTACIONAL Exercícios [4 Sendo A M n (C) mostre que: (a) n A 2 A n A 2 ; (b)

Leia mais

Andréa Maria Pedrosa Valli

Andréa Maria Pedrosa Valli Raízes de Equações Andréa Maria Pedrosa Valli Laboratório de Computação de Alto Desempenho (LCAD) Departamento de Informática Universidade Federal do Espírito Santo - UFES, Vitória, ES, Brasil 2-27 Raízes

Leia mais

Solução aproximada de equações de uma variável

Solução aproximada de equações de uma variável Cálculo Numérico de uma variável Prof. Daniel G. Alfaro Vigo dgalfaro@dcc.ufrj.br Departamento de Ciência da Computação IM UFRJ Parte I Localização de zeros e Método da bissecção Motivação: Queda de um

Leia mais

Resolução de sistemas de equações não-lineares: Método Iterativo Linear

Resolução de sistemas de equações não-lineares: Método Iterativo Linear Resolução de sistemas de equações não-lineares: Método Iterativo Linear Marina Andretta/Franklina Toledo ICMC-USP 18 de setembro de 2013 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires.

Leia mais

Método Simplex dual. Marina Andretta ICMC-USP. 24 de outubro de 2016

Método Simplex dual. Marina Andretta ICMC-USP. 24 de outubro de 2016 Método Simplex dual Marina Andretta ICMC-USP 24 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211 - Otimização

Leia mais

Cálculo Numérico BCC760 Raízes de equações algébricas e transcendentes

Cálculo Numérico BCC760 Raízes de equações algébricas e transcendentes Cálculo Numérico BCC760 Raízes de equações algébricas e transcendentes Departamento de Computação Página da disciplina http://www.decom.ufop.br/bcc760/ Introdução Dada uma função y = f(x), o objetivo deste

Leia mais

Aula 10 Sistemas Não-lineares e o Método de Newton.

Aula 10 Sistemas Não-lineares e o Método de Newton. Aula 10 Sistemas Não-lineares e o Método de Newton MS211 - Cálculo Numérico Marcos Eduardo Valle Departamento de Matemática Aplicada Instituto de Matemática, Estatística e Computação Científica Universidade

Leia mais

Convergência em espaços normados

Convergência em espaços normados Chapter 1 Convergência em espaços normados Neste capítulo vamos abordar diferentes tipos de convergência em espaços normados. Já sabemos da análise matemática e não só, de diferentes tipos de convergência

Leia mais

UM CURSO DE OTIMIZAÇÃO. Ademir Alves Ribeiro Elizabeth Wegner Karas

UM CURSO DE OTIMIZAÇÃO. Ademir Alves Ribeiro Elizabeth Wegner Karas UM CURSO DE OTIMIZAÇÃO Ademir Alves Ribeiro Elizabeth Wegner Karas Curitiba 2011 Sumário Prefácio 1 Introdução 2 1 Revisão de Conceitos 4 1.1 Sequências.................................... 4 1.1.1 Definições

Leia mais

= f(0) D2 f 0 (x, x) + o( x 2 )

= f(0) D2 f 0 (x, x) + o( x 2 ) 6 a aula, 26-04-2007 Formas Quadráticas Suponhamos que 0 é um ponto crítico duma função suave f : U R definida sobre um aberto U R n. O desenvolvimento de Taylor de segunda ordem da função f em 0 permite-nos

Leia mais

Teoremas de dualidade

Teoremas de dualidade Teoremas de dualidade Marina Andretta ICMC-USP 19 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211 - Otimização

Leia mais

Cap. 5 Estabilidade de Lyapunov

Cap. 5 Estabilidade de Lyapunov Cap. 5 Estabilidade de Lyapunov 1 Motivação Considere as equações diferenciais que modelam o oscilador harmônico sem amortecimento e sem força aplicada, dada por: M z + Kz = 0 Escolhendo-se x 1 = z e x

Leia mais

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO

Leia mais

II. Funções de uma única variável

II. Funções de uma única variável II. Funções de uma única variável 1 II.1. Conceitos básicos A otimização de de funções de de uma única variável consiste no no tipo mais elementar de de otimização. Importância: Tipo de problema encontrado

Leia mais

MÉTODOS COMPUTACIONAIS

MÉTODOS COMPUTACIONAIS 1 MÉTODOS COMPUTACIONAIS DE OTIMIZAÇÃO José Mario Martínez Sandra Augusta Santos Departamento de Matemática Aplicada IMECC-UNICAMP 1995 Atualizado em dezembro de 1998 i ÍNDICE 1. INTRODUÇÃO.................................................

Leia mais

SME306 - Métodos Numéricos e Computacionais II Prof. Murilo F. Tomé. (α 1)z + 88 ]

SME306 - Métodos Numéricos e Computacionais II Prof. Murilo F. Tomé. (α 1)z + 88 ] SME306 - Métodos Numéricos e Computacionais II Prof. Murilo F. Tomé 1 o sem/2016 Nome: 1 a Prova - 07/10/2016 Apresentar todos os cálculos - casas decimais 1. Considere a família de funções da forma onde

Leia mais

Topologia. Fernando Silva. (Licenciatura em Matemática, 2007/2008) 13-agosto-2018

Topologia. Fernando Silva. (Licenciatura em Matemática, 2007/2008) 13-agosto-2018 Topologia (Licenciatura em Matemática, 2007/2008) Fernando Silva 13-agosto-2018 A última revisão deste texto está disponível em http://webpages.fc.ul.pt/~fasilva/top/ Este texto é uma revisão do texto

Leia mais

LISTA 3 DE INTRODUÇÃO À TOPOLOGIA 2011

LISTA 3 DE INTRODUÇÃO À TOPOLOGIA 2011 LISTA 3 DE INTRODUÇÃO À TOPOLOGIA 2011 RICARDO SA EARP Limites e continuidade em espaços topológicos (1) (a) Assuma que Y = A B, onde A e B são subconjuntos abertos disjuntos não vazios. Deduza que A B

Leia mais

Variedades diferenciáveis e grupos de Lie

Variedades diferenciáveis e grupos de Lie LISTA DE EXERCÍCIOS Variedades diferenciáveis e grupos de Lie 1 VARIEDADES TOPOLÓGICAS 1. Seja M uma n-variedade topológica. Mostre que qualquer aberto N M é também uma n-variedade topológica. 2. Mostre

Leia mais

EXAME DE QUALIFICAÇÃO em Álgebra - Mestrado

EXAME DE QUALIFICAÇÃO em Álgebra - Mestrado Programa de Pós-Graduação em Matemática Instituto de Matemática e Estatística - IME Universidade Federal de Goiás - UFG EXAME DE QUALIFICAÇÃO em Álgebra - Mestrado Aluno: 1) Seja G um grupo e a, b G tais

Leia mais

SME Roberto F. Ausas / Gustavo C. Buscaglia

SME Roberto F. Ausas / Gustavo C. Buscaglia SME0305-2016 Roberto F. Ausas / Gustavo C. Buscaglia ICMC - Ramal 736628, rfausas@gmail.com ICMC - Ramal 738176, gustavo.buscaglia@gmail.com Métodos iterativos Vamos considerar o problema: Achar x R n

Leia mais

Métodos para resolver problemas de otimização restrita

Métodos para resolver problemas de otimização restrita Métodos para resolver problemas de otimização restrita Marina Andretta ICMC-USP 22 de novembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 22 de novembro de 2010 1 / 13 Problema

Leia mais

CDI-II. Resumo das Aulas Teóricas (Semana 1) 2 Norma. Distância. Bola. R n = R R R

CDI-II. Resumo das Aulas Teóricas (Semana 1) 2 Norma. Distância. Bola. R n = R R R Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Prof. Gabriel Pires CDI-II Resumo das Aulas Teóricas (Semana 1) 1 Notação R n = R R R x R n : x = (x 1, x 2,, x n ) ; x

Leia mais

2 Métodologia para a Resolução do NEP

2 Métodologia para a Resolução do NEP Trabalho apresentado no CMAC-Sul, Curitiba-PR, 2014. Algoritmos para o Problema de Equilíbrio de Nash Euda Mara da Silva Ferreria Universidade Federal do Paraná, UFPR, Curitiba, PR E-mail: diretoria@facel.com.br

Leia mais

1 Séries de números reais

1 Séries de números reais Universidade do Estado do Rio de Janeiro - PROFMAT MA 22 - Fundamentos de Cálculo - Professora: Mariana Villapouca Resumo Aula 0 - Profmat - MA22 (07/06/9) Séries de números reais Seja (a n ) n uma sequência

Leia mais

f(h) δ h p f(x + h) f(x) (x) = lim

f(h) δ h p f(x + h) f(x) (x) = lim Capítulo 6 Derivação numérica Nesta seção vamos desenvolver métodos para estimar a derivada de uma função f calculada em um ponto x, f (x, a partir de valores conecidos de f em pontos próximos ao ponto

Leia mais

Métodos Numéricos. MEI - Logística e distribuição Optimização não linear com restrições de igualdade 2004/2005

Métodos Numéricos. MEI - Logística e distribuição Optimização não linear com restrições de igualdade 2004/2005 Métodos Numéricos MEI - Logística e distribuição Optimização não linear com restrições de igualdade 2004/2005 Métodos Numéricos - MEI 1 Apresentação - Docentes Aulas teóricas: A. Ismael F. Vaz - aivaz@dps.uminho.pt

Leia mais

A Projeção e seu Potencial

A Projeção e seu Potencial A Projeção e seu Potencial Rolci Cipolatti Departamento de Métodos Matemáticos Instituto de Matemática, Universidade Federal do Rio de Janeiro C.P. 68530, Rio de Janeiro, Brasil e-mail: cipolatti@im.ufrj.br

Leia mais

Alexey Izmailov Mikhail Solodov VOLUME II MÉTODOS COMPUTACIONAIS. Rio de Janeiro 2 007

Alexey Izmailov Mikhail Solodov VOLUME II MÉTODOS COMPUTACIONAIS. Rio de Janeiro 2 007 page 1 Alexey Izmailov Mikhail Solodov OTIMIZAÇÃO, VOLUME II MÉTODOS COMPUTACIONAIS Rio de Janeiro 2 007 page Copyright c 2007 by Alexey Izmailov and Mikhail Solodov Direitos reservados, 2007 pela Associação

Leia mais

Disciplina: Cálculo Numérico IPRJ/UERJ. Sílvia Mara da Costa Campos Victer. Aula 6 - Solução de Sistema de Equações Algébricas

Disciplina: Cálculo Numérico IPRJ/UERJ. Sílvia Mara da Costa Campos Victer. Aula 6 - Solução de Sistema de Equações Algébricas Disciplina: Cálculo Numérico IPRJ/UERJ Sílvia Mara da Costa Campos Victer Aula 6 - Solução de Sistema de Equações Algébricas Métodos diretos: 1- Eliminação de Gauss com substituição recuada 2- Decomposição

Leia mais