Um algoritmo do tipo Lagrangeano aumentado para a correção das equações do problema de fluxo de potência. Juliano B Francisco, Mário C. Zambaldi, juliano@mtm.ufsc.br zambaldi@mtm.ufsc.br. Depto de Matemática, CFM, UFSC, 88040-900, Florianópolis, SC Resumo O problema de fluxo de potências em engenharia elétrica resulta num modelo matemático cuja formulação é um sistema de equações não lineares. Quando ocorre carregamento excessivo nas barras do sistema elétrico, várias equações não apresentam raízes, o que da origem a uma formulação de mínimos quadrados não-lineares com uma estrutura bem particular. Neste trabalho abordamos esse modelo por meio de um método do tipo Lagrangeano aumentado adequado à estrutura particular do problema. Testes numéricos mostram a eficiência da técnica empregada comparada com uma implementação padrão. 1 O problema das equações do Fluxo de Potência As equações do problema de fluxo de potências em coordenadas polares podem ser representadas pelo sistema de equações não-lineares que se segue: Pi cal = G ii Vi 2 + V i V G i c i + B i s i ] (1) Ω Q cal i = B ii Vi 2 + V i V G i s i + B i c i ]. (2) Ω em que c i = cos(θ i θ ) e s i = sen(θ i θ ) Os detalhes desta formulação podem ser obtidos em 11]. Pelo momento enfatizamos que Ω é um conjunto que define a topologia do sistema, isto é, a conexão das barras s que por sua vez resulta na estrutura esparsa das matrizes associadas ao sistema. Neste problema, as variáveis são (V,θ ): a magnitude de tensão e o ângulo de tensão, respectivamente. Todos os outros parâmetros, a saber, G ij e B ij, são constantes matemáticas e apresentam sua própria representatividade intrínseca no sistema elétrico. Em sistemas elétricos com carregamento excessivo várias equações do sistema acima não se realizam, dando origem ao problema de mínimos quadrados não-lineares. Devido à solicitações do sistema elétrico, algumas equações devem efetivamente se realizarem, sendo, portanto, incorporadas como restrições de igualdade no problema. Nesta formulação, atribuindo x = (V,θ ) às variáveis, o problema central deste trabalho pode ser modelado como: min 1 2 F(x) 2 s.a. h(x) = 0, (3) em que F : R n R p, h : R n R m e p+m = n. Se o sistema elétrico estiver operando dentro dos limites de demanda, o problema se resume a encontrar x tal que F(x ] ) h(x = 0. ) Na sequência, descreveremos o procedimento usado para resolver o problema (3), o qual baseia-se nos métodos de Lagrangeano aumentado 4, 5, 12] e Levenberg-Marquardt para sistemas não-lineares 7, 8, 10]. 2 O método corretivo para as equações da rede elétrica - Lagrangeano aumentado Para começar, vamos definir a função Lagrangena L A : R n R m R ++ R para o problema (3): L A (x, λ, ρ) = 1 2 F(x) 2 +h(x) T λ+ ρ 2 h(x) 2. (4)
Com base nesta função, vamos apresentar uma versão do algoritmo Lagrangeano aumentado. Para isso, vamos considerar {ǫ j } j N e {υ j } j N sequências de números reais estritamente positivos convergindo para zero. Algoritmo 1 Lagrangeano Aumentado - Iteração Externa Tome ρ 1 > 0, x s 0 Rn, < λ min < λ max < +, λ 1 ] i λ min, λ max ], para i = 1,...,m, 1 < ζ 1 ζ 2 (0,1) e γ (0,1). Passo 0. Faça l 1. Passo 1. Escolha τ l = min{ǫ,υ h(x ) } e, começando com x s l 1, encontre x l tal que x L A (x l, λ l,ρ l ) τ l. (5) Se h(x l ) = 0 e x L A (x l, λ l,ρ l ) = 0 termine o algoritmo declarando que x l é um ponto estacionário de (3) com multiplicador de Lagrange λ l associado. Passo 2. Estime o vetor dos multiplicadores de Lagrange por e escolha λ l+1 = λ l + ρ l h(x l ), λ l+1 ] i λ min, λ max ], para i = 1,...,m. Passo 3. Se h(x l ) γ h(x l 1 ) então senão, escolha ρ l+1 ρ l, ρ l+1 ζ 1 ρ l,ζ 2 ρ l ]. Passo 4. Faça x s l = x l, l l + 1 e volte para o Passo 1. Além da vantagem de resolver um problema restrito por uma sequência de problemas irrestritos (ou pelo menos problemas mais simples que o original, ver 1]), o método Lagrangeano aumentado apresenta ainda boas propriedades de convergência. Considerando {x } a sequência gerada pelo Algoritmo 1 e x um ponto de acumulação, os seguintes resultados se verificam 1, 5]: (i) x é um ponto estacionário de min h(x) 2 s.a. x R n (ii) se x é viável (h(x ) = 0) e o Jacobiano h (x ) R m n tem posto completo, então x satisfaz as condições Karush- Kuhn-Tucer do problema (3), ou seja, é um ponto estacionário do problema central. Em cada iteração l do método de Lagrangeano aumentado, que chamaremos de iteração externa, precisamos encontrar x l que satisfaça (5). A fase para obter esta solução aproximada x l chamaremos de iteração interna. 2.1 A iteração interna No Passo 1 do Algoritmo 1 precisamos encontrar x l que satisfaça a condição (5). Uma alternativa para obter x l que satisfaça a condição (5) consiste em minimizar a função Lagrangeana (4) em R n. Neste trabalho, iremos tirar proveito das características peculiares do problema (3), obtendo um algoritmo orientado para a fase interna. Para isso, observe que L A (x, λ, ρ) = 1 2 F(x) 2 + h(x) T λ + ρ 2 h(x) 2 = 1 2 F(x) 2 + 1 2 ρh(x) + λ 2 1 ρ 2ρ λ 2 = 1 ] ] F(x) 0 2 2 + ρh(x) λ 1 ρ 2ρ λ 2. Então, uma vez fixado λ l R m e ρ l R ++, temos que é equivalente a min 1 x R n 2 min x R n L A (x,λ l,ρ l ) F(x) ρl h(x) ] + 0 λ l ρl ] 2, (6) que é um problema de quadrados mínimos nãolinear. Para resolver o problema (6) vamos observar o sistema não-linear associado e abordá-lo pelo método de Levenberg-Marquardt 8, 10, 15], embora outros algoritmos para este problema
possam também ser usados. Com estas considerações não serão necessárias informações de segunda ordem do problema na iteração interna. Vamos descrever o procedimento de um passo de uma iteração interna. Considere o sistema de equações não-lineares G : R n R p+m, G(x) = F(x) ρl h(x) ] + 0 λ l ρl ], (7) e denote por G (x) R (p+m) n o Jacobiano de G avaliado no ponto x R n. Como em cada iteração externa precisamos calcular (5), é conveniente expressar esse gradiente em termos da aplicação G: x L A (x,λ l,ρ l ) = G (x) T G(x). Para descrever o procedimento considere y um iterado da iteração interna. Uma iteração do método Levenberg-Marquardt encontra uma direção d LM R n minimizando o modelo quadrático de Gauss-Newton para G acrescido de um termo de regularização, ou seja, d LM = arg min d R n G (y )d + G(y ) 2 + µ d 2, (8) em que µ > 0, denominado parâmetro Levenberg-Marquadt, é um escalar convenientemente escolhido. Por conseguinte, o método prossegue fazendo uma busca linear na direção d LM a partir de y. Impondo as condições necessárias de primeira ordem para o problema (8), temos que d LM é solução do sistema linear (G (y ) T G (y ) + µ I)d = G (y ) T G(y ). Note que, para resolver o sistema acima, precisamos montar a matriz G (y ) T G (y ) R n n, o que nem sempre é uma prática usual em virtude da dimensão e estrutura de G (y ). Além disso, o condicionamento da matriz G (y ) T G (y ) é o quadrado do condicionamento da matriz G (y ) 9]. Uma abordagem eficaz para contornar esta dificuldade consiste em considerar o problema (8) como um problema de quadrados mínimos lineares (PQML) 9], ou seja, min G (y ) d R n µ I ] G(y ) d + 0 ] 2. (9) A partir desta formulação, pode-se usar procedimentos adequados aproveitando a estrutura da matriz G ] (y ) R (p+m+n) n. µ I Apesar da simplicidade, o método de Levenberg-Marquardt apresenta propriedades de convergência bem favoráveis, garantindo, em cada iteração interna, convergência para um ponto estacionário do problema (6) 10, 8, 15] e, consequentemente, o cumprimento da tolerância (5) em algum passo finito da iteração interna. A escolha do parâmetro µ : O parâmetro µ no método Levenberg-Marquardt tem influência essencial na convergência dos iterados. Para o caso em que a sequência da iteração interna {y } converge para um ponto y que seja raiz do sistema não-linear (7), uma escolha razoável para uma iteração é µ = µ G(y ), para algum µ > 0. Sob hipóteses usuais, entre elas G(y ) = 0, prova-se que com esta escolha a sequência dos iterados {y } apresenta convergência localmente quadrática 8]. Entretanto, como também estamos admitindo convergência para um ponto y que não seja uma raíz de G, incorporaremos a filosofia de Barzilai-Borwein 3, 4, 14] na escolha do parâmetro µ. Portanto, fixado µ 2 > 0, o parâmetro Levenberg-Marquardt será escolhido como µ = min{ µ 2 G(y ),µ aux }, em que µ aux é obtido baseado nas idéias de Birgin e Martínez 4]. Assim, fixados 0 < σ min < σ max, µ aux = max{σ min,min{σ max,σ }}, em que σ é escolhido de maneira que a matriz (G (y ) T G(y ) + σ I) esteja o mais próximo possível de satisfazer a equação equação secante 7, 12]. Portanto, conhecendo dois iterados consecutivos de uma dada iteração interna, digamos y 1 e y, e definindo e z = G (y ) T G(y ) G (y 1 ) T G(y 1 ) (10) s = y y 1, (11)
temos que σ = argmin (G (y ) T G(y ) + σi)s y 2 σ R. Deste problema obtemos uma expressão fechada para o parâmetro σ : σ = (z G (y ) T G (y )s ) T s s T s z T = s G (y )s 2 s T s. O algoritmo da iteração interna é descrito com se segue. Para isso, vamos presumir que estamos em uma iteração externa l, e, portanto, são conhecidos x s l 1 Rn, τ l, λ l e ρ l. Algoritmo 2 (Iteração Interna) Tome µ 1, µ 2 > 0, 0 < σ min < σ max < +, η 1,η 2,β (0,1). Faça y 0 x s l 1 e 0. Passo 1. Considere G como em (7) e calcule G(y ) e G (y ). Se G (y )G(y ) τ l então pare a iteração interna e faça x s l y (satisfazendo (5)). Passo 2. Se = 0 faça σ = µ 1 G(y ). Senão, obtenha z e s como em (10) e (11), respectivamente, e calcule σ = zt s G (y )s 2 s T s. Passo 3. Escolha de µ : Considere µ aux = min{max{σ min,σ },σ max } e faça µ = min{ µ 2 G(y ),µ aux }. (12) Passo 4. Encontre d LM solução do PQML: arg min d R n G (y )d + G(y ) 2 + µ d 2, Passo 5. Se G(y +d LM ) η 1 G(y ) faça t = 1. Senão, calcule t = arg max{β i i = 1,2,...} tal que G(y + t d LM ) 2 G(y ) 2 +2t η 2 (d LM ) T G (y ) T G(y ). Passo 6. Faça y +1 = y +t d LM, +1 e volte para o Passo 1. 3 Resultados Numéricos Os modelos apresentados nos experimentos numéricos referem-se a dados padrões IEEE 11] em sistemas de potências como listados na Tabela 1. O sistema SSB 340 corresponde ao sistema simplificado Sul-Sudeste brasileiro 2]. A implementação foi desempenhada no ambiente Matlab 7.0 13]. Parâmetros para iteração externa: {ǫ j } = {υ} j = {10 1 /2 j } j N, ρ 1 = 100, λ min = 10 10, λ max = 10 10 x S 0 = (1,...,1)T, λ 1 = (0,...,0) T, ζ 1 = ζ 2 = 10 e γ = 0.25. Tolerância: L(x,λ ) 10 3. A atualização de λ l+1 na iteração externa (Algoritmo 1) foi feita resolvendo-se um problema de mínimos quadrados linear: h (x l ) T λl+1 = F (x l ) T F(x l ). Parâmetros para iteração interna: µ 1 = 10 5 µ 2 = 10, σ min = 5 10 4, σ max = 2 10 2, η 1 = 0.99995, η 2 = 10 2, β = 0.8. Máximo iterações internas: 150. Tabela 1: Dimensão dos problemas testados. Número de Variáveis Problema n p m IEEE6 9 7 2 IEEE14 22 20 2 IEEE30 53 41 12 IEEE57 106 74 32 IEEE118 201 181 20 SSB340 626 420 206 Para efeito de validação do algoritmo, comparamos o método proposto neste trabalho com o método de Newton aplicado diretamente à função Lagrangeana do problema (3), L(x,λ) = 1 2 F(x) 2 + λ T h(x). Neste caso, a direção de Newton d N Rn+m é obtida resolvendo-se o sistema linear, em que W d = L(x,λ ), W = 2 L(x,λ ) R (n+m) (n+m).
Desta forma, a partir de iterados x e λ, o método de Newton procede fazendo uma busca linear na direção d N com parâmetros iguais aos do Passo 5 no Algoritmo 2. Admitimos um número máximo de 150 iterações de Newton. Os resultados estão apresentados na Tabela 2. Tabela 2: Desempenho do método proposto. Problema NIT NAV F(x ) L(x, λ ) IEEE6 11(9,2) 38 1.8 10 1 5.7 10 5 IEEE14 6(6) 11 9.4 10 2 8.2 10 4 IEEE30 8(8) 20 3.5 10 2 6.2 10 4 IEEE57 11(9,2) 19 1.9 10 2 6.5 10 4 IEEE118 24(24) 133 4.5 10 1 5.9 10 4 SSB340 77(70,7) 328 1.6 3.2 10 4 : Número total de iterações. c(a, b) significa a iterações na primeira iteração interna, b iterações na segunda iteração totalizando c = a + b iterações. Tabela 3: Desempenho do método de Newton. Problema NIT NAV F(x ) L(x, λ ) IEEE6 7 7 1.8 10 1 5.3 10 6 IEEE14 10 10 9.4 10 1 2.6 10 4 IEEE30 8 8 2.9 10 2 6.5 10 5 IEEE57 Max - 2.6 10 2 3.5 10 1 IEEE118 12 16 4.5 10 1 2.2 10 4 SSB340 Max - 33.4 3.2 93.9 Podemos observar nos resultados que o método proposto sempre converge para a solução obtida por Newton. Este fato é muito relevante pois métodos que usam apenas informação de primeira ordem nem sempre são robustos em termos de convergência. Nos Problemas SIS57 e SIS340 a direção de Newton e a direção do gradiente tendem a ortogonalidade e, além disso, a matriz Hessina do Lagrangeano W mostrou-se mal-condicionada, o que não ocorre no modo proposto. Mesmo não sendo objetivo do trabalho a comparação de desempenho, observamos que embora se faça um número razoável de avaliação de função, o método proposto trabalha com sistemas menor dimensão e eventualmente pode apresentar vantagens em dimensão maiores. 4 Conclusões A metodologoia proposta neste trabalho apresentou resultados robustos em termos de convergência à solução dos modelos testados. Algumas vantagens merecem ser enfatizadas. O método não exige o cáculo da matriz Hessiana e os sistemas lineares envolvidos são menores e com estrutura favorável. Além disso, começando com λ 1 = (0,...,0) T R m no Algoritmo 1, o método se resume ao Levenberg- Marquard usual para o caso em que existe x tal que F(x ) = h(x ) = 0. Testes numéricos adicionais e otimização da implementação direcionada para sistemas de grande porte podem eventualmente mostrar a efetividade do método proposto em relação às técnicas usuais em sistemas de potências. Referências 1] R. Andreani, E. G. Birgin, J. M. Martínez and M. L. Schuverdt. Augmented Lagrangian methods with general lower-level constraints, SIAM Journal on Optimization, to appear. 2] Barbosa L. V. 2001]: Análise e Desenvolvimento de Metodologias Corretivas para a Restauração da Solução das Equações da Rede Elétrica. Tese de Doutorado. Dept. Eng. Elétrica, Universidade Ferderal de Sta. Catarina - UFSC. 3] J. Barzilai e J. M. Borwein. Two point step size gradient methods, IMA Journal of Numerical Analysis, 8 (1988), 141-148. 4] E. G. Birgin e J. M. Martínez. Structured Minimal-Memory inexact quasi- Newton method and secant preconditioners for Augmented Lagrangian Optimization, Computational Optimization and Applications, to appear. 5] A. R. Conn, N. I. M. Gould e Ph. L. Toint. A globally convergent Augmented Lagrangian algorithm for optimization with general constraints and simple bounds, SIAM Journal on Numerical Analysis, 28 (1991), 545-572. 6] A. R. Conn, N. I. M. Gould e Ph. L. Toint. LANCELOT: a Fortran Pacage for Large-Scale Nonlinear Optimization (Release A), Springer Verlag, Berlin, 1992.
7] J. E. Dennis e R. B. Schnabel. Numerical Methods for Unconstrained Optimization and Nonlinear Equations, SIAM, Philadelphia, 1996. 8] J. Fan e Y. Yuan. On the quadratic convergence of the Levenberg-Marquardt method without nonsingularity assumption, Computing, 74 (2005), 23-39. 9] G. A. Golub e C. F. Van Loan. Matrix Computations, 3rd. Edition, The John Hopins University Press Ltda., London, 1996. 10] C. Kanzow, N. Yamashita e M. Fuushima. Levenberg-Marquardt methods with strong local convergence properties for solving nonlinear equations with convex constraints, Journal of Computational and Applied Mathematics, 174, n. 2, (2004), 375-397. 11] A. J. Monticelli. Fluxo de Carga em Rede de Energia Elétrica, Edgard Blücher, São Paulo, 1983. 12] J. Nocedal and S. J. Wright. Numerical Optimization, Springer Series in Operations Research, Springer Verlag, New Yor, 1999. 13] E. Pärt-enander and A. Sjöberg. The Matlab Handboo 5, Addison Wesley, Harlow, UK, 1999. 14] M. Raydan. The Barzilai and Borwein gradient method for large scale unconstrained minimization problem, SIAM Journal on Optimization, 7 (1997), 26-33. 15] N. Yamashita, M. Fuushima. On the rate of convergence of the Levenberg- Marquardt method, Computing, 15, (2001), 239-249.