Um algoritmo do tipo Lagrangeano aumentado para a correção das equações do problema de. Fluxo de Potência

Documentos relacionados
Um Algoritmo do Tipo Lagrangeano Aumentado para a Correção das Equações do Problema de Fluxo de Potência

Um algoritmo sem derivadas para otimização restrita

Método do Lagrangiano aumentado

OPTIMIZAÇÃO NÃO LINEAR EM REDES

II Seminário da Pós-graduação em Engenharia Elétrica

Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright.

DEPARTAMENTO DE ENGENHARIA MECÂNICA

Método de Newton truncado

Otimização Multiobjetivo

Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b

2 Métodologia para a Resolução do NEP

Comparação entre as estratégias de região de confiança e busca linear para controlar o passo em um algoritmo de filtro baseado em PQS

Método do Gradiente Projetado Para Funções Convexas Generalizadas

Método dos gradientes (ou método de máxima descida)

Prof. Lorí Viali, Dr. PUCRS FAMAT: Departamento de Estatística. Curso: Engenharia de Produção

martinez Florianópolis, Setembro 2007

BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017

Método do gradiente projetado espectral para minimização com restrições de ortogonalidade

UN ALGORITMO DE PUNTO INTERIOR PARA LA RESOLUCIÓN DE PROBLEMAS DE CONTACTO

Método Preditor-Corretor Aplicado ao Fluxo de Carga Ótimo com Correções Não-lineares nas Condições de Otimalidade

Métodos Numéricos. MEI - Logística e distribuição Programação quadrática sequencial 2004/2005. A. Ismael F. Vaz - Departamento de Produção e Sistemas

Aplicação do Sistema de Girard no Cálculo de Raízes de Polinômios

ESTATÍSTICA COMPUTACIONAL

)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD

Uma nova taxa de convergência para o Método do Gradiente

EEL 7100 Despacho Econômico de Unidades Térmicas Parte 1

Método TLS Truncado para o Problema de Espectroscopia de Ressonância Magnética

Condições de qualificação, otimalidade e um método tipo lagrangiano aumentado

UMA NOVA METODOLOGIA PARA A RESOLUÇÃO DE PROBLEMAS DE CONFIABILIDADE ESTRUTURAL BASEADA EM LAGRANGEANO AUMENTADO

Processamento de Imagens CPS755

1 Otimização com restrições I: Condições de Primeira Ordem

Problemas Inversos em Transferência Radiativa - Uma Formulação Implícita

INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o

Departamento de Matemática da Universidade de Coimbra. Licenciatura em Matemática. e B =

UNIVERSIDADE FEDERAL DO PARANÁ OKSANA HERINGER DA SILVA

SME306 - Métodos Numéricos e Computacionais II Prof. Murilo F. Tomé. (α 1)z + 88 ]

Método de Newton modificado

Resolução de problemas com apenas restrições lineares de igualdade

Métodos Iterativos para a Solução da Equação de Poisson

Método de restrições ativas para minimização em caixas

Otimização do Despacho Hidrotérmico utilizando Lagrangeano Aumentado e SPG

XLVI Pesquisa Operacional na Gestão da Segurança Pública

Uma estratégia para minimização de funções com termos modulares via métodos de pontos interiores

MAP Métodos Numéricos e Aplicações Escola Politécnica 1 Semestre de 2017 EPREC - Entrega em 27 de julho de 2017

Resolução de sistemas de equações lineares: Método dos Gradientes Conjugados

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

Optimização. Carlos Balsa. Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança

Rescalamento Não-Linear com Penalidade e Região de Confiança para Resolução do Problema de Fluxo de Potência Ótimo

Um método de reescalamento não-linear integrado

Como resolver o QFEMUP usando otimização

OTIMIZAÇÃO E DESPACHO ECONÔMICO

Universidade Federal do Espírito Santo - UFES

A RESOLUÇÃO DO PROBLEMA DE DESPACHO ÓTIMO DE REATIVOS PELO MÉTODO DA FUNÇÃO LAGRANGIANA-BARREIRA RELAXADA

Cálculo Diferencial e Integral II Resolução do Exame/Teste de Recuperação 02 de Julho de 2018, 15:00h - versão 2 Duração: Exame (3h), Teste (1h30)

Capítulo 5 - Optimização Não-Linear

AJUSTAMENTO PARAMÉTRICO POR MÍNIMOS QUADRADOS COM ANÁLISE NA ESTABILIDADE DA SOLUÇÃO

O Algoritmo Talus para Otimização Global

Aula 10 Sistemas Não-lineares e o Método de Newton.

INTRODUÇÃO À ANÁLISE CONVEXA E APLICAÇÕES INTRODUCTION TO CONVEX ANALYSIS AND APLICATIONS

Modelagem Computacional. Parte 8 2

Resolução de sistemas de equações lineares: Método do Gradiente

Método Preditor-Corretor com correções em todas as Condições de Otimalidade para o problema de Fluxo de Potência Ótimo PRÉ-ANAIS

Máquinas de Vetores Suporte em Otimização Sem Derivadas

O Método de Levenberg-Marquardt para o Problema de Quadrados Mínimos não Linear

ENG-418 OTIMIZAÇÃO DE PROCESSOS QUÍMICOS

Métodos para resolver problemas de otimização restrita

CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano

SISTEMAS LINEARES PROF. EDÉZIO

MÉTODOS ITERATIVOS MATRICIAIS

O P ROBLEMA DA L OCALIZAÇÃO Ó TIMA DE UM C AIXA E LETRÔNICO

UM ALGORITMO DE NEWTON DE PONTO INTERIOR E APLICAÇÕES NA FUNDIÇÃO ELETROMAGNÉTICA DE METAIS. Alfredo Canelas Botta

UNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição

Disciplina que estuda métodos analíticos para auxiliar na tomada de decisões.

Modelagem Computacional. Parte 7 2

Lista de Exercícios de Métodos Numéricos

Métodos iterativos para sistemas lineares.

Universidade Federal de Santa Catarina

6 Referências Bibliográficas

OPTIMIZAÇÃO DE ESTRUTURAS

UNIVERSIDADE FEDERAL DO ABC

Alocação de Unidades via Relaxação Lagrangeana

Matemática Computacional - 2 o ano LEMat e MEQ

étodos uméricos ZEROS DE FUNÇÕES DE UMA OU MAIS VARIÁVEIS Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

Matemática Computacional

Pontos Interiores versus Lagrangeano Aumentado na Otimização do Despacho Hidrotérmico

OPTIMIZAÇÃO NÃO LINEAR

Teoria de dualidade. Marina Andretta ICMC-USP. 19 de outubro de 2016

Introdução à Otimização de Processos. Prof. Marcos L Corazza Departamento de Engenharia Química Universidade Federal do Paraná

Capítulo III: Sistemas de equações. III.1 - Condicionamento de sistemas lineares

Matemática Computacional - Exercícios

UMA MISTURA DE FUNÇÕES BARREIRA E BARREIRA MODIFICADA NA RESOLUÇÃO DO FLUXO DE POTÊNCIA ÓTIMO

Anderson Pereira. Projeto ótimo de pórticos planos com restrição à flambagem

Estimação de Estados em Sistemas de Potência

Algoritmo Array Rápido para Filtragem de Sistemas Lineares Sujeitos a Saltos Markovianos com Variação Estruturada dos Parâmetros no Tempo

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

Aplicação do Método de Barreira Logarítmica na Resolução de um Problema de Programação Linear.

ELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES NUMÉRICOS

INFORMAÇÕES TRADE-OFF EM PROBLEMAS DE OTIMIZAÇÃO MULTIOBJETIVO

Máquinas de Vetores de Suporte

Transcrição:

Um algoritmo do tipo Lagrangeano aumentado para a correção das equações do problema de fluxo de potência. Juliano B Francisco, Mário C. Zambaldi, juliano@mtm.ufsc.br zambaldi@mtm.ufsc.br. Depto de Matemática, CFM, UFSC, 88040-900, Florianópolis, SC Resumo O problema de fluxo de potências em engenharia elétrica resulta num modelo matemático cuja formulação é um sistema de equações não lineares. Quando ocorre carregamento excessivo nas barras do sistema elétrico, várias equações não apresentam raízes, o que da origem a uma formulação de mínimos quadrados não-lineares com uma estrutura bem particular. Neste trabalho abordamos esse modelo por meio de um método do tipo Lagrangeano aumentado adequado à estrutura particular do problema. Testes numéricos mostram a eficiência da técnica empregada comparada com uma implementação padrão. 1 O problema das equações do Fluxo de Potência As equações do problema de fluxo de potências em coordenadas polares podem ser representadas pelo sistema de equações não-lineares que se segue: Pi cal = G ii Vi 2 + V i V G i c i + B i s i ] (1) Ω Q cal i = B ii Vi 2 + V i V G i s i + B i c i ]. (2) Ω em que c i = cos(θ i θ ) e s i = sen(θ i θ ) Os detalhes desta formulação podem ser obtidos em 11]. Pelo momento enfatizamos que Ω é um conjunto que define a topologia do sistema, isto é, a conexão das barras s que por sua vez resulta na estrutura esparsa das matrizes associadas ao sistema. Neste problema, as variáveis são (V,θ ): a magnitude de tensão e o ângulo de tensão, respectivamente. Todos os outros parâmetros, a saber, G ij e B ij, são constantes matemáticas e apresentam sua própria representatividade intrínseca no sistema elétrico. Em sistemas elétricos com carregamento excessivo várias equações do sistema acima não se realizam, dando origem ao problema de mínimos quadrados não-lineares. Devido à solicitações do sistema elétrico, algumas equações devem efetivamente se realizarem, sendo, portanto, incorporadas como restrições de igualdade no problema. Nesta formulação, atribuindo x = (V,θ ) às variáveis, o problema central deste trabalho pode ser modelado como: min 1 2 F(x) 2 s.a. h(x) = 0, (3) em que F : R n R p, h : R n R m e p+m = n. Se o sistema elétrico estiver operando dentro dos limites de demanda, o problema se resume a encontrar x tal que F(x ] ) h(x = 0. ) Na sequência, descreveremos o procedimento usado para resolver o problema (3), o qual baseia-se nos métodos de Lagrangeano aumentado 4, 5, 12] e Levenberg-Marquardt para sistemas não-lineares 7, 8, 10]. 2 O método corretivo para as equações da rede elétrica - Lagrangeano aumentado Para começar, vamos definir a função Lagrangena L A : R n R m R ++ R para o problema (3): L A (x, λ, ρ) = 1 2 F(x) 2 +h(x) T λ+ ρ 2 h(x) 2. (4)

Com base nesta função, vamos apresentar uma versão do algoritmo Lagrangeano aumentado. Para isso, vamos considerar {ǫ j } j N e {υ j } j N sequências de números reais estritamente positivos convergindo para zero. Algoritmo 1 Lagrangeano Aumentado - Iteração Externa Tome ρ 1 > 0, x s 0 Rn, < λ min < λ max < +, λ 1 ] i λ min, λ max ], para i = 1,...,m, 1 < ζ 1 ζ 2 (0,1) e γ (0,1). Passo 0. Faça l 1. Passo 1. Escolha τ l = min{ǫ,υ h(x ) } e, começando com x s l 1, encontre x l tal que x L A (x l, λ l,ρ l ) τ l. (5) Se h(x l ) = 0 e x L A (x l, λ l,ρ l ) = 0 termine o algoritmo declarando que x l é um ponto estacionário de (3) com multiplicador de Lagrange λ l associado. Passo 2. Estime o vetor dos multiplicadores de Lagrange por e escolha λ l+1 = λ l + ρ l h(x l ), λ l+1 ] i λ min, λ max ], para i = 1,...,m. Passo 3. Se h(x l ) γ h(x l 1 ) então senão, escolha ρ l+1 ρ l, ρ l+1 ζ 1 ρ l,ζ 2 ρ l ]. Passo 4. Faça x s l = x l, l l + 1 e volte para o Passo 1. Além da vantagem de resolver um problema restrito por uma sequência de problemas irrestritos (ou pelo menos problemas mais simples que o original, ver 1]), o método Lagrangeano aumentado apresenta ainda boas propriedades de convergência. Considerando {x } a sequência gerada pelo Algoritmo 1 e x um ponto de acumulação, os seguintes resultados se verificam 1, 5]: (i) x é um ponto estacionário de min h(x) 2 s.a. x R n (ii) se x é viável (h(x ) = 0) e o Jacobiano h (x ) R m n tem posto completo, então x satisfaz as condições Karush- Kuhn-Tucer do problema (3), ou seja, é um ponto estacionário do problema central. Em cada iteração l do método de Lagrangeano aumentado, que chamaremos de iteração externa, precisamos encontrar x l que satisfaça (5). A fase para obter esta solução aproximada x l chamaremos de iteração interna. 2.1 A iteração interna No Passo 1 do Algoritmo 1 precisamos encontrar x l que satisfaça a condição (5). Uma alternativa para obter x l que satisfaça a condição (5) consiste em minimizar a função Lagrangeana (4) em R n. Neste trabalho, iremos tirar proveito das características peculiares do problema (3), obtendo um algoritmo orientado para a fase interna. Para isso, observe que L A (x, λ, ρ) = 1 2 F(x) 2 + h(x) T λ + ρ 2 h(x) 2 = 1 2 F(x) 2 + 1 2 ρh(x) + λ 2 1 ρ 2ρ λ 2 = 1 ] ] F(x) 0 2 2 + ρh(x) λ 1 ρ 2ρ λ 2. Então, uma vez fixado λ l R m e ρ l R ++, temos que é equivalente a min 1 x R n 2 min x R n L A (x,λ l,ρ l ) F(x) ρl h(x) ] + 0 λ l ρl ] 2, (6) que é um problema de quadrados mínimos nãolinear. Para resolver o problema (6) vamos observar o sistema não-linear associado e abordá-lo pelo método de Levenberg-Marquardt 8, 10, 15], embora outros algoritmos para este problema

possam também ser usados. Com estas considerações não serão necessárias informações de segunda ordem do problema na iteração interna. Vamos descrever o procedimento de um passo de uma iteração interna. Considere o sistema de equações não-lineares G : R n R p+m, G(x) = F(x) ρl h(x) ] + 0 λ l ρl ], (7) e denote por G (x) R (p+m) n o Jacobiano de G avaliado no ponto x R n. Como em cada iteração externa precisamos calcular (5), é conveniente expressar esse gradiente em termos da aplicação G: x L A (x,λ l,ρ l ) = G (x) T G(x). Para descrever o procedimento considere y um iterado da iteração interna. Uma iteração do método Levenberg-Marquardt encontra uma direção d LM R n minimizando o modelo quadrático de Gauss-Newton para G acrescido de um termo de regularização, ou seja, d LM = arg min d R n G (y )d + G(y ) 2 + µ d 2, (8) em que µ > 0, denominado parâmetro Levenberg-Marquadt, é um escalar convenientemente escolhido. Por conseguinte, o método prossegue fazendo uma busca linear na direção d LM a partir de y. Impondo as condições necessárias de primeira ordem para o problema (8), temos que d LM é solução do sistema linear (G (y ) T G (y ) + µ I)d = G (y ) T G(y ). Note que, para resolver o sistema acima, precisamos montar a matriz G (y ) T G (y ) R n n, o que nem sempre é uma prática usual em virtude da dimensão e estrutura de G (y ). Além disso, o condicionamento da matriz G (y ) T G (y ) é o quadrado do condicionamento da matriz G (y ) 9]. Uma abordagem eficaz para contornar esta dificuldade consiste em considerar o problema (8) como um problema de quadrados mínimos lineares (PQML) 9], ou seja, min G (y ) d R n µ I ] G(y ) d + 0 ] 2. (9) A partir desta formulação, pode-se usar procedimentos adequados aproveitando a estrutura da matriz G ] (y ) R (p+m+n) n. µ I Apesar da simplicidade, o método de Levenberg-Marquardt apresenta propriedades de convergência bem favoráveis, garantindo, em cada iteração interna, convergência para um ponto estacionário do problema (6) 10, 8, 15] e, consequentemente, o cumprimento da tolerância (5) em algum passo finito da iteração interna. A escolha do parâmetro µ : O parâmetro µ no método Levenberg-Marquardt tem influência essencial na convergência dos iterados. Para o caso em que a sequência da iteração interna {y } converge para um ponto y que seja raiz do sistema não-linear (7), uma escolha razoável para uma iteração é µ = µ G(y ), para algum µ > 0. Sob hipóteses usuais, entre elas G(y ) = 0, prova-se que com esta escolha a sequência dos iterados {y } apresenta convergência localmente quadrática 8]. Entretanto, como também estamos admitindo convergência para um ponto y que não seja uma raíz de G, incorporaremos a filosofia de Barzilai-Borwein 3, 4, 14] na escolha do parâmetro µ. Portanto, fixado µ 2 > 0, o parâmetro Levenberg-Marquardt será escolhido como µ = min{ µ 2 G(y ),µ aux }, em que µ aux é obtido baseado nas idéias de Birgin e Martínez 4]. Assim, fixados 0 < σ min < σ max, µ aux = max{σ min,min{σ max,σ }}, em que σ é escolhido de maneira que a matriz (G (y ) T G(y ) + σ I) esteja o mais próximo possível de satisfazer a equação equação secante 7, 12]. Portanto, conhecendo dois iterados consecutivos de uma dada iteração interna, digamos y 1 e y, e definindo e z = G (y ) T G(y ) G (y 1 ) T G(y 1 ) (10) s = y y 1, (11)

temos que σ = argmin (G (y ) T G(y ) + σi)s y 2 σ R. Deste problema obtemos uma expressão fechada para o parâmetro σ : σ = (z G (y ) T G (y )s ) T s s T s z T = s G (y )s 2 s T s. O algoritmo da iteração interna é descrito com se segue. Para isso, vamos presumir que estamos em uma iteração externa l, e, portanto, são conhecidos x s l 1 Rn, τ l, λ l e ρ l. Algoritmo 2 (Iteração Interna) Tome µ 1, µ 2 > 0, 0 < σ min < σ max < +, η 1,η 2,β (0,1). Faça y 0 x s l 1 e 0. Passo 1. Considere G como em (7) e calcule G(y ) e G (y ). Se G (y )G(y ) τ l então pare a iteração interna e faça x s l y (satisfazendo (5)). Passo 2. Se = 0 faça σ = µ 1 G(y ). Senão, obtenha z e s como em (10) e (11), respectivamente, e calcule σ = zt s G (y )s 2 s T s. Passo 3. Escolha de µ : Considere µ aux = min{max{σ min,σ },σ max } e faça µ = min{ µ 2 G(y ),µ aux }. (12) Passo 4. Encontre d LM solução do PQML: arg min d R n G (y )d + G(y ) 2 + µ d 2, Passo 5. Se G(y +d LM ) η 1 G(y ) faça t = 1. Senão, calcule t = arg max{β i i = 1,2,...} tal que G(y + t d LM ) 2 G(y ) 2 +2t η 2 (d LM ) T G (y ) T G(y ). Passo 6. Faça y +1 = y +t d LM, +1 e volte para o Passo 1. 3 Resultados Numéricos Os modelos apresentados nos experimentos numéricos referem-se a dados padrões IEEE 11] em sistemas de potências como listados na Tabela 1. O sistema SSB 340 corresponde ao sistema simplificado Sul-Sudeste brasileiro 2]. A implementação foi desempenhada no ambiente Matlab 7.0 13]. Parâmetros para iteração externa: {ǫ j } = {υ} j = {10 1 /2 j } j N, ρ 1 = 100, λ min = 10 10, λ max = 10 10 x S 0 = (1,...,1)T, λ 1 = (0,...,0) T, ζ 1 = ζ 2 = 10 e γ = 0.25. Tolerância: L(x,λ ) 10 3. A atualização de λ l+1 na iteração externa (Algoritmo 1) foi feita resolvendo-se um problema de mínimos quadrados linear: h (x l ) T λl+1 = F (x l ) T F(x l ). Parâmetros para iteração interna: µ 1 = 10 5 µ 2 = 10, σ min = 5 10 4, σ max = 2 10 2, η 1 = 0.99995, η 2 = 10 2, β = 0.8. Máximo iterações internas: 150. Tabela 1: Dimensão dos problemas testados. Número de Variáveis Problema n p m IEEE6 9 7 2 IEEE14 22 20 2 IEEE30 53 41 12 IEEE57 106 74 32 IEEE118 201 181 20 SSB340 626 420 206 Para efeito de validação do algoritmo, comparamos o método proposto neste trabalho com o método de Newton aplicado diretamente à função Lagrangeana do problema (3), L(x,λ) = 1 2 F(x) 2 + λ T h(x). Neste caso, a direção de Newton d N Rn+m é obtida resolvendo-se o sistema linear, em que W d = L(x,λ ), W = 2 L(x,λ ) R (n+m) (n+m).

Desta forma, a partir de iterados x e λ, o método de Newton procede fazendo uma busca linear na direção d N com parâmetros iguais aos do Passo 5 no Algoritmo 2. Admitimos um número máximo de 150 iterações de Newton. Os resultados estão apresentados na Tabela 2. Tabela 2: Desempenho do método proposto. Problema NIT NAV F(x ) L(x, λ ) IEEE6 11(9,2) 38 1.8 10 1 5.7 10 5 IEEE14 6(6) 11 9.4 10 2 8.2 10 4 IEEE30 8(8) 20 3.5 10 2 6.2 10 4 IEEE57 11(9,2) 19 1.9 10 2 6.5 10 4 IEEE118 24(24) 133 4.5 10 1 5.9 10 4 SSB340 77(70,7) 328 1.6 3.2 10 4 : Número total de iterações. c(a, b) significa a iterações na primeira iteração interna, b iterações na segunda iteração totalizando c = a + b iterações. Tabela 3: Desempenho do método de Newton. Problema NIT NAV F(x ) L(x, λ ) IEEE6 7 7 1.8 10 1 5.3 10 6 IEEE14 10 10 9.4 10 1 2.6 10 4 IEEE30 8 8 2.9 10 2 6.5 10 5 IEEE57 Max - 2.6 10 2 3.5 10 1 IEEE118 12 16 4.5 10 1 2.2 10 4 SSB340 Max - 33.4 3.2 93.9 Podemos observar nos resultados que o método proposto sempre converge para a solução obtida por Newton. Este fato é muito relevante pois métodos que usam apenas informação de primeira ordem nem sempre são robustos em termos de convergência. Nos Problemas SIS57 e SIS340 a direção de Newton e a direção do gradiente tendem a ortogonalidade e, além disso, a matriz Hessina do Lagrangeano W mostrou-se mal-condicionada, o que não ocorre no modo proposto. Mesmo não sendo objetivo do trabalho a comparação de desempenho, observamos que embora se faça um número razoável de avaliação de função, o método proposto trabalha com sistemas menor dimensão e eventualmente pode apresentar vantagens em dimensão maiores. 4 Conclusões A metodologoia proposta neste trabalho apresentou resultados robustos em termos de convergência à solução dos modelos testados. Algumas vantagens merecem ser enfatizadas. O método não exige o cáculo da matriz Hessiana e os sistemas lineares envolvidos são menores e com estrutura favorável. Além disso, começando com λ 1 = (0,...,0) T R m no Algoritmo 1, o método se resume ao Levenberg- Marquard usual para o caso em que existe x tal que F(x ) = h(x ) = 0. Testes numéricos adicionais e otimização da implementação direcionada para sistemas de grande porte podem eventualmente mostrar a efetividade do método proposto em relação às técnicas usuais em sistemas de potências. Referências 1] R. Andreani, E. G. Birgin, J. M. Martínez and M. L. Schuverdt. Augmented Lagrangian methods with general lower-level constraints, SIAM Journal on Optimization, to appear. 2] Barbosa L. V. 2001]: Análise e Desenvolvimento de Metodologias Corretivas para a Restauração da Solução das Equações da Rede Elétrica. Tese de Doutorado. Dept. Eng. Elétrica, Universidade Ferderal de Sta. Catarina - UFSC. 3] J. Barzilai e J. M. Borwein. Two point step size gradient methods, IMA Journal of Numerical Analysis, 8 (1988), 141-148. 4] E. G. Birgin e J. M. Martínez. Structured Minimal-Memory inexact quasi- Newton method and secant preconditioners for Augmented Lagrangian Optimization, Computational Optimization and Applications, to appear. 5] A. R. Conn, N. I. M. Gould e Ph. L. Toint. A globally convergent Augmented Lagrangian algorithm for optimization with general constraints and simple bounds, SIAM Journal on Numerical Analysis, 28 (1991), 545-572. 6] A. R. Conn, N. I. M. Gould e Ph. L. Toint. LANCELOT: a Fortran Pacage for Large-Scale Nonlinear Optimization (Release A), Springer Verlag, Berlin, 1992.

7] J. E. Dennis e R. B. Schnabel. Numerical Methods for Unconstrained Optimization and Nonlinear Equations, SIAM, Philadelphia, 1996. 8] J. Fan e Y. Yuan. On the quadratic convergence of the Levenberg-Marquardt method without nonsingularity assumption, Computing, 74 (2005), 23-39. 9] G. A. Golub e C. F. Van Loan. Matrix Computations, 3rd. Edition, The John Hopins University Press Ltda., London, 1996. 10] C. Kanzow, N. Yamashita e M. Fuushima. Levenberg-Marquardt methods with strong local convergence properties for solving nonlinear equations with convex constraints, Journal of Computational and Applied Mathematics, 174, n. 2, (2004), 375-397. 11] A. J. Monticelli. Fluxo de Carga em Rede de Energia Elétrica, Edgard Blücher, São Paulo, 1983. 12] J. Nocedal and S. J. Wright. Numerical Optimization, Springer Series in Operations Research, Springer Verlag, New Yor, 1999. 13] E. Pärt-enander and A. Sjöberg. The Matlab Handboo 5, Addison Wesley, Harlow, UK, 1999. 14] M. Raydan. The Barzilai and Borwein gradient method for large scale unconstrained minimization problem, SIAM Journal on Optimization, 7 (1997), 26-33. 15] N. Yamashita, M. Fuushima. On the rate of convergence of the Levenberg- Marquardt method, Computing, 15, (2001), 239-249.