Estudo de Aplicação do Algoritmo de Otimização por Enxame de Partícula na Resolução de Problemas de Otimização Ligados ao SEP

Documentos relacionados
INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO

Método de Hardy-Cross Capitulo 13- Algoritmo genético engenheiro Plínio Tomaz 24 dezembro de Algoritmo genético 13-1

Algoritmos Genéticos. Princípio de Seleção Natural. Sub-áreas da Computação Evolutiva. Idéias básicas da CE. Computação Evolutiva

3 Algoritmos Genéticos

Introdução aos Algoritmos Genéticos

3. Resolução de problemas por meio de busca

Estratégias Evolutivas EEs. Prof. Juan Moisés Mauricio Villanueva

Algoritmos Genéticos. Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008

Inteligência Artificial. Algoritmos Genéticos. Aula I Introdução

Algoritmos Genéticos. Pontos fracos dos métodos tradicionais. Características de alguns problemas. Tamanho do espaço de busca- Ex. caixeiro viajante:

4 Métodos Existentes. 4.1 Algoritmo Genético

Algoritmo Genético. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Computação Evolutiva Eduardo do Valle Simões Renato Tinós ICMC - USP

Computação Evolutiva. Computação Evolutiva. Principais Tópicos. Evolução natural. Introdução. Evolução natural

Aprendizado Evolutivo: Introdução aos Algoritmos Genéticos

ESTUDO DOS PARAMETROS DE UM ALGORITMO GENÉTICO PARA POSTERIOR USO NA SOLUÇÃO DE PROBLEMAS DO TIPO JOB-SHOP

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO

1. Computação Evolutiva

4 Implementação Computacional

Tópicos Especiais em Informática Fatec Indaiatuba

3 Algoritmos Genéticos

Técnicas de Inteligência Artificial

Max Pereira. Inteligência Artificial

Figura 3.1: Fluxograma do algoritmo da Programação Genética.

Técnicas de Inteligência Artificial

Codificação das variáveis: binária Iniciação da população: aleatória Avaliação: função aptidão Operadores. Critério de parada: número de gerações

Exemplo de Aplicação de Algoritmos Genéticos. Prof. Juan Moisés Mauricio Villanueva cear.ufpb.br/juan

Algoritmos Genéticos

3. ALGORITMOS GENÉTICOS

Algoritmos Genéticos. Texto base: Stuart Russel e Peter Norving - Inteligência Artificial

Algoritmos genéticos Abordagem unificada de algoritmos evolutivos simples

Algoritmos Genéticos e Evolucionários

ALGORITMO GENÉTICO COMO REPRESENTAÇÃO DAS MUTAÇÕES NA BIOLOGIA

Inteligência Artificial

11/1/2012. Agenda. Classe de problemas de interesse. Busca Local. Busca Local. Exemplo de Espaço de Estados

ALGORITMOS GENÉTICOS. Adair Santa Catarina Curso de Ciência da Computação Unioeste Campus de Cascavel PR

Inteligência Artificial

Algoritmos Genéticos

Metahuerísticas: Algoritmos Genéticos. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng.

Modelos Evolucionários e Tratamento de Incertezas

Algoritmos Genéticos. 1 Semestre de Cleber Zanchettin UFPE - Universidade Federal de Pernambuco CIn - Centro de Informática

Problema de Satisfação de Restrições

Problema de Satisfação de Restrições. Problema de Satisfação de Restrições. Grafo de restrições. Exemplo: 4 Rainhas como um PSR

1. Computação Evolutiva

Computação Evolutiva. Prof. Eduardo R. Hruschka (Slides baseados nos originais do Prof. André C. P. L. F. de Carvalho)

Introdução a Algoritmos Genéticos

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid

Algoritmos Evolutivos para Otimização

4 Metáforas de Optimização

Algoritmos Evolutivos Canônicos

Otimização com Algoritmos Genéticos no MATLAB. Prof. Rafael Saraiva Campos CEFET-RJ

Otimização. Unidade 6: Algoritmo Genético. Jaime Arturo Ramírez. 7. Teoria do processo evolutivo num GA. 8. Aspectos avançados

3 Otimização Evolucionária de Problemas com Restrição

IF-705 Automação Inteligente Algoritmos Evolucionários

UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ ALGORITMOS GENÉTICOS. Metaheurísticas de Buscas

PSO Particle Swarm Optimization ou Otimização por enxame de partículas Introdução Inspiração Funcionamento Parametrização

3 Métodos de Otimização

3 Computação Evolucionária

INF 1771 Inteligência Artificial

CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro

APLICAÇÃO DE ALGORITMOS BIO-INSPIRADOS EM CONTROLE ÓTIMO

3 Aprendizado por reforço

Estrutura comum dos AEs Seleção

INTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL. Aula 06 Prof. Vitor Hugo Ferreira

Algoritmos Genéticos

OTIMIZAÇÃO FUNÇÕES UTILIZANDO ALGORITMOS GENÉTICOS NO APLICATIVO MS EXCEL RESUMO INTRODUÇÃO

Aprendizado por Reforço usando Aproximação

Inteligência Computacional Aplicada. O que é Inteligência Computacional? Áreas de Aplicação Algoritmos Genéticos

OTIMIZAÇÃO DA LIMPEZA DE REDES DE TROCADORES DE CALOR EMPREGANDO OS ALGORITMOS GENÉTICOS

3 Otimização Aplicada a Reconstituição de Acidentes

Computação Evolutiva. Prof. Eduardo R. Hruschka (Slides baseados nos originais do Prof. André C. P. L. F. de Carvalho)

Minicurso Inteligência Artificial Aplicada a Sistemas Elétricos. Niterói, 12 de Maio de 2018

Créditos. Introdução a Sistemas Inteligentes. Agenda Introdução Breve Histórico. Introdução. Introdução aos Algoritmos Evolutivos

Métodos de Busca. Inteligência Artificial. Algoritmos Genéticos. Algoritmos Evolucionários. Prof. Ms. Luiz Alberto Contato:

Inteligência de Enxame

Computação Evolutiva. Aula 4 Usando AEs Prof. Tiago A. E. Ferreira

Aplicação da Metaheurística Algoritmos Genéticos na solução do problema das n Rainhas

Implementação De Um Algoritmo Genético Codificado Para A Solução do Problema do Caixeiro Viajante

INF 1771 Inteligência Artificial

PEA 2522 MÉTODOS DE OTIMIZAÇÃO. Otimização

ESTUDO DO EFEITO DOS PARÂMETROS GENÉTICOS DE UM ALGORITMO GENÉTICO NA SOLUÇÃO OTIMIZADA E NO TEMPO DE CONVERGÊNCIA EM UMA FUNÇÃO DE DUAS VARIÁVEIS

Tópicos Especiais em Otimização

C o m p u t a ç ã o M ó v e l. André Siqueira Ruela

Particle Swarm Optimization (PSO) Universidade Federal de Alfenas

1. Computação Evolutiva

Agentes Adaptativos. Introdução

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

Inteligência Coletiva. Prof. Eduardo R. Hruschka (Slides adaptados dos originais elaborados pelo Prof. André C. P. L. F.

3 Algoritmos Evolucionários 3.1 Algoritmos Genéticos

4 Otimização de parâmetros dos arranjos gerados

GA Conceitos Básicos. Capítulo 3 Prof. Ricardo Linden

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos. Gustavo Pessin 2007

Pesquisa Operacional Aplicada à Mineração

Inteligência Artificial. Conceitos Gerais

Iterated Local Search. Helena R. Lorenço, Olivier Martinz and THOMAS STUTZLE

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

Introdução ao Algoritmo Genético

Otimização. Algoritmos Genéticos. Teoria da Evolução. Otimização

Algoritmos Genéticos Fundamentos e Aplicações. Prof. Juan Moisés Mauricio Villanueva

Transcrição:

UNIFEI Universidade Federal de Itaubá Programa de Pós-Graduação em Engenharia Elétrica Pró-Diretoria de Pesquisa e Pós-Graduação Estudo de Aplicação do Algoritmo de Otimização por Enxame de Partícula na Resolução de Problemas de Otimização Ligados ao SEP Área de Sistemas Elétricos de Potência Ahmed Ali Abdalla Esmin

Estudo de Aplicação do Algoritmo de Otimização por Enxame de Partícula na Resolução de Problemas de Otimização Ligados ao SEP ORIENTADORES: PROF. GERMANO LAMBERT TORRES PROF. ANTONIO CARLOS ZAMBRONI DE SOUZA TESE APRESENTADA À UNIVERSIDADE FEDERAL DE ITAJUBÁ - UNIFEI COMO REQUISITO DO PROGRAMA DE DOUTORADO ITAJUBÁ ESTADO DE MINAS GERAIS BRASIL ABRIL / 2005

Ficha catalográfica elaborada pela Biblioteca Mauá Bibliotecária Jacqueline R. de Oliveira Balducci- CRB_6/1698 E74e Esmin, Ahmed Ali Abdalla. Estudo de Aplicação do Algoritmo de Otimização por Enxame de Partícula na Resolução de Problemas de Otimização Ligados ao SEP / por Ahmed Ali Abdalla Esmin. -- Itaubá (MG) : [s.n.], 2005. 99 p. : il. Orientador : Prof. Dr. Germano Lambert Torres Orientador : Prof. Dr. Carlos Zambroni de Souza Tese (Doutorado) Universidade Federal de Itaubá - Departamento de Elétrica. 1. Otimização. 2. Otimização por Enxame de Partícula. 3. Sistemas Híbridos. 4. Sistemas Inteligentes Evolutivos. 5. Otimização de Perdas Elétricas. 6. Colapso de Tensão. I. Torres, Germano Lambert, orient. II. Souza, Carlos Zambroni de, orient. III. Universidade Federal de Itaubá. IV. Título. CDU 004.421(043)

À meus pais, pelo carinho e apoio apesar da distancia À meus filhos, Tamara, Tarik e Tamires, pelo carinho À minha esposa, Gilvanete, pela compreensão

Agradecimentos Manifesto meus sinceros agradecimentos às seguintes pessoas e instituições: Aos Professores Germano Lambert Torres e Antonio Carlos Zambroni de Souza, pela amizade e valiosa orientação que tornou possível a conclusão deste trabalho Aos colegas de doutorado da UNIFEI, pelo apoio À Universidade Federal de Engenharia de Itaubá, através do Instituto de Engenharia Elétrica, pela oportunidade de capacitação À Fundação Educacional Comunitária Formiguense - FUOM, pelo apoio À CAPES, pelo auxílio A minha esposa e meus filhos pelo apoio e dedicação E a todas as pessoas que, direta ou indiretamente, contribuíram para a realização deste trabalho

RESUMO Esta tese apresenta um estudo sobre as técnicas de otimização evolutivas e mais especificamente sobre o algoritmo de Otimização por Enxame de Partícula (PSO). Um estudo sobre o comportamento do algoritmo PSO é realizado e um novo algoritmo chamado de Algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM) é apresentado. Este trabalho apresenta também os algoritmos PSO e HPSOM como ferramentas para o estudo da redução de perdas elétricas. Este problema pode ser formulado como um problema de otimização não linear. A aplicação proposta consiste em usar um Fluxo de Potência Ótimo (FPO) baseado na função da minimização de perdas. O estudo é realizado em duas etapas. Primeiramente, usando a técnica do vetor do tangente, a área crítica do sistema de potência é identificada sob o ponto da vista da colapse da tensão. Em seguida, uma vez que esta área é identificada, os algoritmos PSO e HPSOM entram em ação calculando a quantidade de compensação shunt para cada barra do sistema. O modelo proposto foi examinado e testado com resultados promissores usando os sistemas IEEE 14,30, 57 e 118 barras.

ABSTRACT This thesis presents particle swarm optimization (PSO) as a tool for loss reduction study. This issue can be formulated as a nonlinear optimization problem. The proposed application consists of using a developed optimal power flow (OPF) based on loss minimization (LM) function by expanding the original PSO. The study is carried out in two steps. First, by using the tangent vector technique, the critical area of the power systems is identified under the point of view of voltage instability. Second, once this area is identified, the PSO technique calculates the amount of shunt reactive power compensation that takes place in each bus. The proposed approach has been examined and tested with promising numerical results using the IEEE 14, 30, 57, and 118 buses systems.

i Índice Capítulo 1 Introdução...1 1.1 MOTIVAÇÃO...2 1.2 OBJETIVOS...2 1.3 METODOLOGIA...2 1.4 ORGANIZAÇÃO...3 Capítulo 2 Revisão Bibliográfica...4 2.1 OTIMIZAÇÃO...4 2.1.1 Otimização Local...5 2.1.2 Otimização Global...5 2.2 COMPUTAÇÃO EVOLUCIONÁRIA (CES)...6 2.2.1 Histórico...7 2.3 ALGORITMOS GENÉTICOS (AG S)...7 2.3.1 Características Gerais dos Algoritmos Genéticos...8 2.3.2 Operadores Genéticos...10 2.3.3 Parâmetros Genéticos...11 2.4 OTIMIZAÇÃO POR ENXAME DE PARTÍCULAS (PSO)...12 2.4.1 O Algoritmo PSO...12 2.4.2 O Comportamento do PSO...15 2.4.3 Considerações sobre a semelhança entre PSO e EAs...16 2.4.4 Origens e Terminologia...16 2.4.5 Modelo do Melhor Global (gbest)...17 2.4.6 O Modelo do Melhor Local ( Lbest )...17 2.4.7 A Versão Binária do PSO...18 2.5 AS PRINCIPAIS PROPOSTAS DE MELHORIAS DO PSO...19 2.5.1 Melhorias na Taxa de Convergência...19 Capítulo 3 Uma aplicação: O Auste Automático das Funções de Pertinência Fuzzy Usando PSO 21 3.1 INTRODUÇÃO...21 3.2 O PACOTE COMPUTACIONAL ORIGINAL...22 3.3 SIMULAÇÕES...23 3.4 DESCRIÇÃO DO MÓDULO TREINAMENTO PSO...24 3.5 COMPONENTES DO ALGORITMO PSO...25 3.5.1 Representação das Soluções usando PSO...27 3.5.2 Função de Avaliação e o Critério de Parada...27 3.5.3 Apresentação do Algoritmo...27 3.6 TESTES...28 3.7 CONSIDERAÇÕES SOBRE ESTA APLICAÇÃO...32 Capítulo 4 Um novo algoritmo: Algoritmo Híbrido de Otimização por Enxame de Partícula com Mutação HPSOM...34 4.1 INTRODUÇÃO...34

ii 4.2 O ALGORITMO HPSOM...35 4.3 TESTES E EXPERIMENTO...36 4.4 DISCUSSÕES DOS RESULTADOS...41 Capítulo 5 Aplicação do PSO e HPSOM na Resolução de Problema de Otimização de Perdas Elétricas...43 5.1 OTIMIZAÇÃO DE PERDAS ELÉTRICAS...43 5.1.1 Formulação do Problema...43 5.1.2 Metodologia...45 5.1.3 Análise Preliminar dos resultados...46 5.1.4 Identificação das Áreas...47 5.1.5 Exemplo de aplicação usando Sistema de 4 barras...49 5.1.6 Simulação do Sistema IEEE14 barras...53 5.1.7 Simulação do Sistema IEEE30 barras...60 5.1.8 Simulação do Sistema IEEE57 barras...66 5.1.9 Simulação do Sistema IEEE118 barras...70 5.1.10 Considerações sobre a aplicação...75 Capítulo 6 Conclusões...76 6.1 CONTRIBUIÇÕES ALCANÇADAS...77 6.2 PROPOSTAS DE TRABALHO FUTURO...77 Referências Bibliográficas...79 Apêndice A Dados do Sistema de 4 Barras...86 Apêndice B Publicações Associadas ao Trabalho e Realizadas no Período...87 Apêndice C Artigo da Tese Publicado no IEEE Transactions on Power Systems.88

iii Índice de Tabelas Tabela 3.1 Posições iniciais para o treinamento....29 Tabela 3.2 Parâmetros do PSO...29 Tabela 3.3 Iterações após o treinamento com PSO....30 Tabela 3.4 Resultados de Simulações....32 Tabela 4.1- O espaço de busca e os valores iniciais das funções de teste...37 Tabela 4.2 - Resultados de média da melhor aptidão para 100 execuções (médio da melhor aptidão ± erro padrão)...38 Tabela 4.3- Resultados de média da melhor aptidão para 100 execuções - PSO, HPSOM e AG- (médio da melhor aptidão ± erro padrão)...41 Tabela 4.4 - As taxas de cruzamento e mutação usados pelo AG (padrão)...41 Tabela 5.1 Parâmetros utilizados para as simulações...46 Tabela 5.2 Parâmetros do PSO/HPSOM utilizados para as simulações...47 Tabela 5.3- Quantidade de Barras de Controle...48 Tabela 5.4- Relação dos sistemas com respectivas Barras Criticas...49 Tabela 5.5- A população inicial - sistema 4 barras...49 Tabela 5.6- Relação das partículas e o seu valor de perdas - sistema 4 barras...50 Tabela 5.7(a)- Relação das partículas e suas velocidades sistema 4 barras (PSO)...50 Tabela 5.7(b)- A nova população (1ª- Iteração) sistema 4 barras (PSO)...50 Tabela 5.7 (c)- O melhor individual de cada partícula sistema 4 barras (PSO)...50 Tabela 5.7(d)- A população da última (5ª- Iteração) sistema 4 barras (PSO)...51 Tabela 5.7(e)- O melhor global de cada partícula sistema 4 barras (PSO)...51 Tabela 5.8(a)- Relação das partículas e suas velocidades sistema 4 barras (HPSOM)...51 Tabela 5.8(b)- A nova população (1ª- Iteração) sistema 4 barras (HPSOM)...52 Tabela 5.8(c)- As partículas sorteados para a Mutação sistema 4 barras (HPSOM)...52 Tabela 5.8(d)- A nova população antes e depois da Mutação sistema 4 barras (HPSOM)...52 Tabela 5.8(e)- Relação das partículas e o seu valor de perdas - sistema 4 barras (HPSOM)...52 Tabela 5.8 (f)- O melhor individual de cada partícula sistema 4 barras(hpsom)...52 Tabela 5.8(g)- A população da última (5ª- Iteração) sistema 4 barras (HPSOM)...53 Tabela 5.8(h)- O melhor global de cada partícula sistema 4 barras (HPSOM)...53 Tabela 5.9 - Resultados obtidos pelo MPC Sistema IEEE 14...53 Tabela 5.10 - Resultados obtidos pelo PSO no sistema IEEE 14 barras Criticas...54 Tabela 5.11 - Resultados obtidos pelo HPSOM sistema IEEE 14 barras Criticas...55 Tabela 5.12 (a,b) - Resultados obtidos pelos PSO e HPSOM- IEEE 14 BCS...56 Tabela 5.13 (a,b) - Resultados obtidos pelos PSO/HPSOM- IEEE 14 BCS criticas...57 Tabela 5.14 - Resultados obtidos pelo MPC Sistema IEEE 14...59 Tabela 5.15(a,b) - Resultados obtidos pelos PSO/HPSOM- sistema IEEE 14 TBS...59 Tabela 5.15(c) - Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 14 TBS....60 Tabela 5.16 - Resultados obtidos pelo MPC Sistema IEEE 30...61 Tabela 5.17(a,b) - Resultados obtidos pelos PSO/HPSOM- sistema IEEE 30 BCS...61

Tabela 5.17(c) -Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 30 BCS....62 Tabela 5.18 - Resultados obtidos pelo MPC Sistema IEEE 30...64 Tabela 5.19 (a,b) - Resultados obtidos pelo PSO sistema IEEE 30 Todas as Barras...64 Tabela 5.19(c) -Resumo dos resultados obtidos pelos PSO/HPSOM-sistema IEEE 30 TBS....65 Tabela 5.20 (a,b) - Resultados obtidos pelo PSO/HPSOM sistema IEEE 30 TBSiteração = 500...65 Tabela 5.20(c) - Resumo dos resultados obtidos pelo PSO/HPSOM sistema IEEE 30 TBS- iteração = 500...66 Tabela 5.21 - Resultados obtidos pelo MPC Sistema IEEE57...66 Tabela 5.22(c)-Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 5 BCS....67 Tabela 5.22(a,b) - Resultados obtidos pelo PSO sistema IEEE 57 Barras Criticas...68 Tabela 5.23 - Resultados obtidos pelo MPC Sistema IEEE 57...68 Tabela 5.24(c) Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 5 TBS....69 Tabela 5.24(a,b) - Resultados obtidos pelo PSO sistema IEEE 57 TBS....70 Tabela 5.25 - Resultados obtidos pelo MPC Sistema IEEE118...71 Tabela 5.26(a,b) - Resultados obtidos pelo PSO sistema IEEE 118 BCS...71 Tabela 5.26(c) -Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEE118 CBS....72 Tabela 5.27 - Resultados obtidos pelo MPC Sistema IEEE118...74 Tabela 5.28(a,b) - Resultados obtidos pelo PSO sistema IEEE 118 TBS....74 Tabela 5.28(c) - Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 118 TBS....75 iv

v Índice de Figuras 4 3 2 Figura 2.1 - Um exemplo de função f ( x ) = x 12 x + 42 x 55 x, com o * mínimo local x e o mínimo global x....6 * A Figura 2.2 - Indivíduos de uma população e a sua correspondente roleta de seleção....9 Figura 2.3 O Pseudocódigo do AGs...9 Figura 2.5 - Um exemplo de crossover de um ponto....11 Figura 2.6 - O Pseudocódigo do algoritmo de PSO básico....14 Figura 3.1 - Tela básica do programa...22 Figura 3.2 - Exemplos de simulação do pacote computacional....24 Figura 3.3 Parâmetros das funções de pertinência....25 Figura 3.4 Exemplo de auste de uma função de pertinência....26 Figura 3.5 Funções de pertinência originais...28 Figura 3.6 Posições iniciais de treinamento....29 Figura 3.7 Simulações sem treinamento...30 Figura 3.8 Simulações após treinamento genético....31 Figura 3.9 Funções de pertinência após o auste com PSO...31 Figura 4.1 - o pseudocódigo do algoritmo HPSOM...35 Figura 4.2 A função Rastrigin em 3D...37 Figura 4.3- PSO versus HPSOM para a função Spherical (esfera) - f 1...38 Figura 4.4- PSO versus HPSOM model for Rosenbrock function- f 2...39 Figura 4.5 - PSO versus HPSOM para a função for Griewank - f 3...39 Figura 4.6 - PSO versus HPSOM para a função Rastrigin - f 4...40 Figure 4.7- Os comportamentos das partículas PSO/HPSOM para a função Esfera... 40 (pop = 3)- f1...40 Figure 5.1 Sistema elétrico simples...49 Figura 5.2 A evolução dos algoritmos PSO/HPSOM IEEE 14- Barras Criticas...54 Figure 5.3-: O comportamento das partículas usando PSO/HPSOM - Pop(5)...55 Figure 5.4- A evolução dos algoritmos PSO/HPSOM a partir de 20ª iteração - Pop(5)..56 Figure5.5- A evolução dos algoritmos PSO/HPSOM - IEEE14...58 Figure 5.6- A evolução dos algoritmos PSO/HPSOM - IEEE14- Todas as Barras...60 Figure 5.7- A evolução dos algoritmos PSO/HPSOM - IEEE30 - BCS...62 Figure 5.8- A evolução dos algoritmos PSO/HPSOM - IEEE30 TBS...63 Figure 5.9 - A evolução dos algoritmos PSO/HPSOM - IEEE57 - BCS...67 Figura 5.10 - A evolução dos algoritmos PSO/HPSOM- IEEE57 TBS... 69 Figure 5.11 - A evolução dos algoritmos PSO/HPSOM - IEEE118 - BCS...72 Figure 5.12 - A evolução dos algoritmos PSO/HPSOM - IEEE118 - TBS...73

1 Capítulo 1 Introdução Formas de otimização são importantes na vida cotidiana. Muitos problemas científicos, sociais, econômicos e de engenharia têm parâmetros que podem ser austados de forma a produzir um resultado mais deseável. Ao longo dos anos foram desenvolvidas numerosas técnicas para resolver tais problemas. Técnicas de otimização vêm sendo aplicadas em diversos problemas no Sistema Elétricos de Potência (SEP). Dependendo do enfoco do estudo, a técnica de otimização empregada pode levar em conta algumas simplificações no conunto das equações. Tais simplificações podem simplificar a solução e conduz a aplicação de técnicas lineares [1,2]. Porém, outros problemas podem requerer uma formulação mais complexa, como os conuntos de equações envolvidos podem não ser linearizados. Neste caso, devem ser empregadas técnicas não lineares. Um dos problemas não linear analisado em sistemas de potência é o problema de redução de perdas [3] que considera como variáveis de controle, a geração de potência ativa, nível de tensão de geradores, entre outros. Este problema não linear pode ser importante para análise de estabilidade de tensão [4] ou somente melhorar as condições operacionais de sistema [5]. Referências [4] e [5] apresentaram um fluxo ótimo de potência resolvido por método preditor-corretor de pontos interiores baseado em uma função de barreira logarítmica [6]-[8]. A técnica empregada nessas referências também foi aplicada para uma variedade de problemas em sistemas de potência. Outras metodologias, como o métodos quase-newton e o método de direção conugada poderiam ser usados para resolver estes problemas. Estes métodos apresentem, em geral, um desempenho satisfatório. A idéia neste trabalho é analisar, mais uma vez, o problema de redução de perdas. Porém, a ferramenta de análise empregada pertence à família de Algoritmo Evolutiva. É uma técnica relativamente nova conhecida como Otimização por Enxame de Partícula (Particle Swarm Optimization - PSO) [9,11], que resolve problemas simulando comportamento de enxame. Esta ferramenta pode ter um amplo campo de aplicações em sistemas de potência. Por exemplo, a referência [9] enfocou nos problemas de minimização de custo de combustível, melhoria de perfil da tensão e melhoria de estabilidade de tensão. O PSO foi originalmente inspirado no comportamento sócio biológico associado com grupos de pássaros. É um método de otimização baseado em população e foi primeiro proposto pelo Kennedy e Eberhart [10,11]. Algumas das características interessantes do PSO incluem a facilidade de implementação e o fato que nenhuma informação de gradiente é requerida. Pode ser usado para resolver uma gama de diferentes problemas de otimização, incluindo a maioria dos problemas que podem ser resolvidos através dos Algoritmos Genéticos. Neste trabalho, algumas modificações serão incorporadas no método para torná-lo mais robusto. O resultado é um algoritmo novo chamado de algoritmo Híbrido de Otimização por Enxame de Partícula com Mutação (HPSOM).

2 Este trabalho apresenta e investiga os comportamentos das novas ferramentas (PSO e HPSOM) e também apresenta a aplicação destas ferramentas para resolver o problema de redução de perdas elétricas. 1.1 Motivação Com a crescente complexidade dos problemas a resolver, sempre haverá uma necessidade por melhores algoritmos de otimização. No caso especifico da área de engenharia elétrica, o Sistema Elétrico de Potência é um sistema dinâmico de grande complexidade e que está aberto à realização de estudos de problemas de otimização em vários campos, como, por exemplo, a otimização de perdas e o estudo de estabilidade. Por outro lado, o método PSO se apresenta com uma promissora forma de otimização, e como é recente, na literatura não se encontra um estudo mais abrangente de resolução de problemas complexos e sobre tudo ligados ao SEP. Este trabalho se propõe a realizar vários estudos de aplicação e de comportamento do PSO na resolução de problemas complexos ligados ao SEP. 1.2 Obetivos Podem ser resumidos os principais obetivos deste trabalho como segue: Realização de estudo teórico sobre o algoritmo PSO e seu comportamento; Desenvolvimentos de aplicações usando o algoritmo PSO para minimizar as funções de pertinência fuzzy; Desenvolver e testar o novo algoritmo HPSOM e provar o seu sucesso quando aplicado para resolver problemas de otimização local ou global e com melhor desempenho. A investigação e o desenvolvimento de aplicação usando os algoritmos PSO e HPSOM para resolver problemas ligados ao SEP como o problema de perdas elétricas. 1.3 Metodologia Será necessária a realização de estudos teóricos e práticos, iniciando-se por um estudo teórico sobre o PSO e seu comportamento. No caso de estudo de aplicação, será adotada uma metodologia experimental. Será feita uma analise de comportamento e desempenho do PSO onde serão mostrados problemas ligados a atualização da sua velocidade, chamado de problema de estagnação e a proposta de um novo algoritmo para solucionar este problema chamado de HPSOM. Para provar o seu sucesso serão realizados vários experimentos usando tipos diferentes de funções (unimodal e multimodal) envolvendo problemas de minimização. Para minimizar as perdas elétricas, neste trabalho será utilizado como ação de controle a instalação de capacitância shunt. O cálculo do valor ideal de shunt a ser instalado em cada barra identificada para obedecer à função obetivo (redução de perdas elétricas) é um problema de programação não linear. Os algoritmos PSO e HPSOM serão

3 implementados individualmente, e os resultados alcançados serão comparados com os resultados obtidos pelo método preditor-corretor de pontos interiores (MPC). Para cumprir a meta estabelecida acima, a seguinte metodologia será adotada: a) Através do método do vetor tangente serão identificadas as áreas críticas para redução de perdas elétricas nos sistemas IEEE 14, 30, 57 e 118 barras. Este passo será utilizado pelos algoritmos PSO e HPSOM como foi utilizado pelo MPC. b) Serão realizadas várias simulações com os algoritmos PSO e HPSOM variando-se o número de população de partículas no enxame e o número de iterações. c) finalmente os resultados serão analisados e comparados. 1.4 Organização O Capítulo 2 inicia com uma introdução sobre a teoria de otimização, seguida por uma prévia revisão das técnicas evolutivas existentes, e em especial os Algoritmos Genéticos, usados para resolver problemas de otimização. Seguido por uma descrição da Otimização por Enxame de Partícula, com uma discussão das suas principais modificações é apresentada. No capítulo 3 será mostrada uma aplicação do PSO para otimizar as funções de pertinência de um controle Fuzzy, através de apresentação de uma ferramenta para o controle de estacionamento de um carro. Capítulo 4 inicia-se com uma breve analise de comportamento do algoritmo PSO padrão. Em seguida apresentado um novo algoritmo chamado de Algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM), que combine a idéia do enxame de partícula com o conceito de Algoritmos Genéticos. Serão apresentados e discutidos os resultados dos testes entre os dois modelos: PSO e o HPSOM usando funções unimodal e multimodal. No capítulo 5 será apresentada uma aplicação utilizando os algoritmos PSO e HPSOM para resolução de problemas de otimização ligados ao SEP. Será apresentada a aplicação de otimização de perdas elétricas. E por fim, no capitulo 6 serão apresentadas e discutidos as conclusões e os trabalhos futuros.

4 Capítulo 2 Revisão Bibliográfica Este capítulo revisa algumas das definições básicas relacionadas à questão da otimização. Uma discussão breve de Computação Evolucionária e Algoritmos Genéticos é apresentada. As origens da Otimização por Enxame de Partículas são discutidas, seguida por uma avaliação das suas principais características. Finalmente, serão apresentadas as principais extensões e modificações recentemente publicadas. 2.1 Otimização Pode-se definir a otimização como sendo a tarefa de determinar as melhores soluções para certos problemas matematicamente formulados. Esta tarefa é de grande importância para muitas profissões. Por exemplo, físicos, químicos e engenheiros estão interessados em maximizar a produção ao proetar uma indústria química, levando em consideração certas restrições, como por exemplo custo e poluição. Os economistas e investigadores de operação por suas vezes, têm que considerar a ótima alocação de recursos em colocações industriais e sociais. Alguns destes problemas envolvem apenas modelos lineares, em que as variáveis são contínuas e apresentam comportamento linear, tanto em relação à função obetivo com às restrições, resultando em problemas de otimização linear para os quais existe uma técnica muito eficiente conhecida como programação linear (PL) [12]. Os outros problemas são conhecidos como problemas de otimização não-linear se exibir qualquer tipo de não-linearidade, sea na função obetivo ou em qualquer de suas restrições. São geralmente muito mais difíceis de serem resolvidos. Estes problemas são o foco deste trabalho. Toda tarefa de busca e otimização possui vários componentes, entre eles: o espaço de busca, onde são consideradas todas as possibilidades de solução de um determinado problema, e a função de avaliação (ou função de custo), que é uma maneira de avaliar os membros do espaço de busca. Existem muitos métodos de busca e funções de avaliação. As técnicas de busca e otimização tradicionais iniciam-se com um único candidato que, iterativamente, é manipulado utilizando algumas heurísticas (estáticas) diretamente associadas ao problema a ser solucionado. Geralmente, estes processos heurísticos não são algorítmicos e sua simulação em computadores pode ser muito complexa. Apesar destes métodos não serem suficientemente robustos, isto não implica que eles seam inúteis. Na prática, eles são amplamente utilizados, com sucesso, em inúmeras aplicações [13]. Por outro lado, as técnicas de computação evolucionária operam sobre uma população de candidatos em paralelo. Assim, elas podem fazer a busca em diferentes áreas do espaço de solução, alocando um número de membros apropriado para a busca em várias regiões. Existem dois tipos de otimização: global e local. A otimização global busca o melhor ponto dentro da totalidade do espaço da busca, enquanto a local tenta encontrar o

5 melhor ponto dentro de um subespaço especifico. A definição mais completa será dada nas próximas seções. 2.1.1 Otimização Local Pode-se definir um ponto mínimo local ou simplesmente, o mínimo local, função f, para uma determinada região A, da seguinte forma: * f ( x A ) f ( x ), x A (2.1) * x A de uma n onde A S R e S denota o espaço de busca. Note que S = R n em problemas sem restrições e note também que A é um subconunto de S. O espaço de busca S pode conter múltiplas regiões A tal que A I A = φ ; quando i. Então, do mesmo modo, i * * x A x A, de forma que o ponto mínimo de cada região A i i i é único. Qualquer * x A i pode ser considerado como o mínimo de A i. Não há nenhuma restrição no valor que a * * função pode assumir para o mínimo, assim sendo f ( x A ) = f ( x ) i A é permitido. O * valor de f ( x A i ) será chamado do mínimo local. A maioria dos algoritmos de otimização requer um ponto de partida x 0 S. Um algoritmo de otimização local deve garantir que será capaz de encontrar o mínimo local * x A i para um conunto A, se x0 A. Muitos algoritmos de otimização local têm sido propostos. Uma distinção será feita entre algoritmos determinísticos, analíticos e os algoritmos estocásticos nas próximas seções. Dentro dos algoritmos determinísticos de otimização local incluem o algoritmo Newton-Raphson [14] e suas variantes, o algoritmo Escalado de Gradiente Conugado (SCG) [15], o quasi-newton [14,16] e a sua família de algoritmos. 2.1.2 Otimização Global O mínimo global, f ( x * ) x * f ( x ), de uma função f, pode ser definido da seguinte forma: x S (2.2) Onde S é o espaço de busca. Para problemas sem restrições é comum usar S = R n, onde n é a dimensão de x. O algoritmo de otimização global, como no caso dos algoritmos de otimização local descritos acima, também começa pela escolha de um ponto inicial x0 S. Em alguns publicações (por exemplo [14]), há uma definição diferente para o algoritmo de otimização global, definido como sendo um algoritmo capaz de encontrar o mínimo (local) de A S, independentemente da posição atual de x 0. Estes algoritmos consistem em dois processos: O processo dos passos globais" e o processo dos passos locais". Os passos locais normalmente são a aplicação de um algoritmo de otimização

6 local, e os passos globais são proetados para assegurar que o algoritmo passará para região A i, onde o processo dos passos locais será capaz de encontrar o mínimo de A i. Estes métodos são chamados de algoritmos globalmente convergentes. Isto significa que eles podem convergir a um mínimo local indiferentemente de sua posição inicial z 0. Estes métodos também são capazes de encontrar o mínimo global. Entretanto, não há nenhum modo geral seguro e conhecido de fazer isto. * * A Figura 2.1 ilustra a diferença entre o mínimo local x A e o mínimo global x. A * x A * x 4 3 2 Figura 2.1 - Um exemplo de função f ( x ) = x 12 x + 42 x 55 x, com o * * mínimo local x A e o mínimo global x. 2.2 Computação Evolucionária (CEs) Computação evolucionária (CE) define vários métodos proetados para simular a evolução. Estes métodos baseiam-se, para resolver problemas, em população de pontos, e uma combinação de variação aleatória e da seleção. Neste campo existem várias técnicas, incluindo Algoritmos Evolutivos (AEs), Estratégias de Evolução (SE), Programação Evolutivo (PE), Algoritmos Genéticos (AGs) e Programação Genética (PG) [17,18,19]. CEs diferenciam dos métodos tradicionais de otimização em quatro aspectos [13]: 1. Trabalham com codificação do conunto de parâmetros e não com os próprios

7 parâmetros; 2. trabalham com uma população e não com um único ponto; 3. utilizam de informações de custo ou recompensa e não derivadas ou outro conhecimento auxiliar; 4. utilizam de regras de transição probabilísticas e não determinísticas. 2.2.1 Histórico Antes da teoria de evolução apresentada por Charles Darwin e até meados do século 19, os naturalistas acreditavam que cada espécie na natureza havia sido criada separadamente por um ser supremo ou através de geração espontânea. O trabalho do naturalista Carolus Linnaeus levou a comunidade cientifica a acreditar na existência de uma certa relação entre as espécies. Por outro lado, Thomas Robert Malthus propôs que fatores ambientais, tais como doenças e carência de alimentos, limitavam e influenciavam o crescimento de uma população. Após anos de observações e experimentos, Charles Darwin apresentou em 1858 sua teoria de evolução através de seleção natural, ao mesmo tempo que outro naturalista, Alfred Russel Wallace. No ano seguinte, Darwin publicou o seu livro intitulado On the Origin of Species by Means of Natural Selection com a sua teoria completa, sustentada por muitas evidências cientificas. Por volta de 1900, a moderna teoria da evolução combina a genética e as idéias de Darwin e Wallace sobre a seleção natural, criando o princípio básico de Genética Populacional: a variabilidade entre indivíduos em uma população de organismos que se reproduzem sexualmente é produzida pela mutação e pela recombinação genética. Durante os anos 30 e 40 este princípio foi desenvolvido por biólogos e matemáticos de grandes centros de pesquisa. Nos anos 50 e 60, muitos biólogos começaram a desenvolver simulações computacionais de sistemas genéticos. Entretanto, foi John Holland quem começou a desenvolver sistematicamente as primeiras pesquisas no tema. Desenvolveu suas idéias e em 1975 publicou o seu livro Adaptation in Natural and Artificial Systems [19], hoe considerado a principal referência na área de Algoritmos Genéticos. Desde então, estes algoritmos vêm sendo melhorados e aplicados nos mais diversos problemas de otimização e aprendizado de máquina com sucesso. 2.3 Algoritmos Genéticos (AG s) Os Algoritmos Genéticos formam a parte da área dos sistemas inspirados na natureza; simulando os processos naturais e aplicando-os à solução de problemas reais. São métodos generalizados de busca e otimização que simulam os processos naturais de evolução, aplicando a idéia darwiniana de seleção. São capazes de identificar e explorar fatores ambientais e convergir para soluções ótimas, ou aproximadamente. Na natureza os indivíduos competem entre si por recursos como comida e água. Adicionalmente, entre os animais de uma mesma espécie, aqueles que não obtêm êxito tendem provavelmente a ter um número reduzido de descendentes, tendo, portanto menor probabilidade de seus genes serem propagados ao longo de sucessivas gerações. A combinação entre os genes dos indivíduos que perduram na espécie pode produzir um novo indivíduo muito melhor adaptado às características de seu meio ambiente.

8 Os Algoritmos Genéticos utilizam uma analogia direta deste fenômeno de evolução na natureza, onde cada indivíduo representa uma possível solução para um problema dado. A cada indivíduo se atribui uma pontuação de adaptação, dependendo da resposta dada ao problema por este indivíduo. Aos mais adaptados é dada uma maior oportunidade de reproduzir-se mediante cruzamentos com outros indivíduos da população, produzindo descendentes com características de ambas as partes. Um Algoritmo Genético desenvolvido de modo adequado possui elevada probabilidade de que a população (conunto de possíveis respostas) convergirá a uma solução ótima para o problema proposto. Os processos que mais contribuem para a evolução são o cruzamento, mutação e a adaptação baseada na seleção/reprodução. A área biológica mais proximamente ligada aos Algoritmos Genéticos é a Genética Populacional. Algoritmos Genéticos são eficientes para busca de soluções ótimas, ou aproximadamente ótimas, em uma grande variedade de problemas, pois não impõem muitas das limitações encontradas nos métodos de busca tradicionais. Os pesquisadores referem-se a "algoritmos genéticos" ou a "um algoritmo genético" e não "ao algoritmo genético", pois AGs são uma classe de procedimentos com muitos passos separados, e cada um destes passos possui muitas variações possíveis. Os AGs não são as únicas técnicas baseadas em uma analogia da natureza. Por exemplo, as Redes Neurais estão baseadas no comportamento dos neurônios do cérebro. 2.3.1 Características Gerais dos Algoritmos Genéticos Os AGs são algoritmos de otimização global que empregam uma estratégia de busca paralela, estruturada e voltada em direção da busca de pontos de "alta aptidão", ou sea, pontos nos quais a função a ser minimizada (ou maximizada) tem valores relativamente baixos (ou altos). Os AGs exploram informações históricas para encontrar novos pontos de busca onde são esperados melhores desempenhos. Isto é feito através de processos iterativos, onde cada iteração é chamada de geração. O primeiro passo para a utilização de AGs, como ferramenta para solução de problemas, é a representação destes problemas de maneira que os AGs possam atuar adequadamente sobre eles. Tradicionalmente, os indivíduos são representados genotipicamente por um vetor de valores binários, onde cada elemento deste vetor denota a presença (1) ou ausência (0) de uma determinada característica: o seu genótipo. Os elementos podem ser combinados formando as características reais do indivíduo, ou o seu fenótipo. Entretanto, há casos em que é mais adequado o uso de representação numérica. O princípio básico do funcionamento do AGs é que um critério de seleção vai fazer com que, depois de muitas gerações, o conunto inicial de indivíduos gere indivíduos mais aptos. Um método de seleção muito utilizado é o Método da Roleta, onde indivíduos de uma geração são escolhidos pelo sorteio para fazer parte da próxima geração através do cruzamento. A Figura 2.2 mostra a representação da roleta para uma população composta por 4 indivíduos. Os indivíduos são representados na roleta proporcionalmente ao seu índice de aptidão. Finalmente, a roleta é girada um determinado número de vezes, dependendo do tamanho da população, e são escolhidos para participarão da próxima geração, aqueles indivíduos sorteados na roleta.

9 I Indivíduo x i f i (x) Aptidão (x 2 ) Aptidão Relativa 1 00011 9 0,02 2 00101 25 0,05 3 10100 400 0,8 4 01000 64 0,13 Total 498 1,00 X4 13% X1 2% X2 5% X3 80% Figura 2.2 - Indivíduos de uma população e a sua correspondente roleta de seleção. Um conunto de operações (operadores) é necessário para que, dada uma população inicial, se consiga gerar sucessivas populações que (espera-se) que melhora sua aptidão com o passar do tempo. Estes operadores utilizados são: cruzamento (crossover) e mutação. Eles são utilizados para assegurar que a nova geração sea totalmente nova, mas possui, de alguma forma, características de seus pais. Para prevenir que os melhores indivíduos não desapareçam e seam descartados da população pela manipulação dos operadores genéticos, eles podem ser automaticamente colocados na próxima geração através da reprodução elitista. Esse processo é repetido um determinado número de vezes (numero de gerações). Durante esse processo, os melhores indivíduos, assim como alguns dados estatísticos podem ser armazenados para avaliação. A Figura (2.3) mostrada o pseudocódigo de um algoritmo genético. Criar e inicializar: g - geração atual; t número de gerações para finalizar o algoritmo; P - população inicio g = 0; inicia_população (P, g) avaliação (P, g); repita: g = g +1; seleção_dos_pais (P, g); recombinação (P, g); mutação (P, g); avaliação (P, g); até (g = t) fim Figura 2.3 O Pseudocódigo do AGs

10 2.3.2 Operadores Genéticos Os operadores genéticos transformam a população através de sucessivas gerações, estendendo a busca até chegar a um resultado satisfatório. São necessários para que a população se diversifique e mantenha características de adaptação adquiridas pelas gerações anteriores. O operador de mutação modifica aleatoriamente um ou mais genes de um cromossomo. A probabilidade de ocorrência de mutação em um gene é denominada taxa de mutação Pm. Usualmente, são atribuídos valores pequenos para a taxa de mutação. A idéia intuitiva por trás desse operador é a criação de variabilidade extra na população, mas sem destruir o progresso á obtido no decorrer do processo evolutivo, como é ilustrado na Figura 2.4, fornecendo assim, meios para introdução de novos elementos na população. Desta forma, a mutação assegura que a probabilidade de se chegar a qualquer ponto do espaço de busca nunca será zero, além de contornar o problema de mínimos locais, pois com este mecanismo, altera-se levemente a direção da busca..figura 2.4 - Exemplo de mutação. O operador de cruzamento ou recombinação é responsável pela criação de novos indivíduos por intermédio da combinação de dois ou mais indivíduos (pais). A idéia intuitiva por trás desde operador é a troca de informação entre diferentes soluções candidatas permitindo que características dos pais seam herdados pelas próximas gerações. Ele é considerado o operador genético mais importante, por isso é aplicado com probabilidade maior que a taxa de mutação e dada pela taxa de crossover Pc. As formas de utilização desse operador são: Um-ponto: para a aplicação desse operador, são selecionados dois indivíduos (pais) e a partir de seus cromossomos são gerados dois novos elementos (filhos). Para gerar os filhos, seleciona-se um ponto de corte aleatoriamente nos cromossomopais, de modo que os segmentos a partir do ponto de corte seam trocados, como mostrado no exemplo da Figura 2.5. Multi-pontos: a troca de material genético é feita da mesma forma de um ponto, apenas esta troca é utilizada em muitos pontos. Uniforme: como este operador para cada bit no primeiro filho é decidido (com alguma probabilidade fixa p) qual pai vai contribuir com seu respectivo bit para aquela posição.

11 Figura 2.5 - Um exemplo de crossover de um ponto. (a) dois indivíduos são escolhidos. (b) um ponto (2) de crossover é escolhido. (c) são recombinadas as características, gerando dois novos indivíduos. 2.3.3 Parâmetros Genéticos Os parâmetros genéticos influem no comportamento dos Algoritmos Genéticos e é importante, analisá-los e estabelecê-los conforme as necessidades do problema e dos recursos disponíveis. Tamanho da População: o tamanho da população afeta de uma forma direta o desempenho global e a eficiência dos AGs. Uma população pequena oferece uma pequena cobertura do espaço de busca, causando uma queda no desempenho. Uma grande população fornece uma melhor cobertura do domínio do problema e previne a convergência prematura para soluções locais. Entretanto, com uma grande população tornam-se necessários maiores recursos computacionais, ou um tempo maior de processamento do problema. Taxa de Cruzamento: quanto mais alta for esta taxa, mais rapidamente novos indivíduos serão introduzidos na população. Entretanto, isto pode gerar um efeito indeseado, pois a maior parte da população será substituída podendo ocorrer perda de indivíduos com alta aptidão. Com uma taxa baixa, o algoritmo pode ficar muito lento. Taxa de Mutação: uma taxa de mutação baixa pode prevenira a população do problema de estagnação em um determinado valor, além de permitir que se chegue em qualquer ponto do espaço de busca. Com uma taxa muito alta a busca se torna praticamente aleatória. Intervalo de Geração: determina a porcentagem da população que será substituída na próxima geração. Com um valor alto, a maior parte da população será substituída, mas com valores muito altos pode ocorrer perda de indivíduos com alta aptidão. Com um valor baixo, o algoritmo pode ficar muito lento.

12 2.4 Otimização por Enxame de Partículas (PSO) O método de otimização denominado Otimização por Enxame de Partículas (PSO) tal como outras meta-heurísticas recentemente desenvolvidas, simula o comportamento dos sistemas fazendo a analogia com comportamentos sociais. O PSO é um método de otimização baseado em população e foi primeiro proposto pelos Kennedy e Eberhart [10,11]. Possui características interessantes como, a facilidade de implementação nos computadores e o fato que não requer nenhuma informação de gradiente. Pode ser aplicado para resolver uma variedade de diferentes problemas de otimização, incluindo a maioria dos problemas que podem ser resolvidos através dos Algoritmos Genéticos; pode-se citar como exemplo algumas das aplicações, como treinamento de rede neural [20,21,22,23] e a minimizarão de vários tipos de funções [24,25]. Muitos algoritmos de otimizações populares são determinísticos, como os algoritmos baseados em gradientes. O PSO, como o seus similares, que pertencem à família de Algoritmo Evolutiva, é um algoritmo do tipo estocástico que não precisa de gradiente de informações derivadas de função de erro. Isto permite a utilização do PSO em funções onde o gradiente é indisponível ou cua obtenção está associada a um alto custo computacional. 2.4.1 O Algoritmo PSO O algoritmo PSO mantém uma população de partículas, onde cada partícula representa uma solução potencial para um problema de otimização. Assume-se que S como sendo o tamanho do enxame. Cada partícula i pode ser representada como um obeto com várias características. Estas características são as seguintes: x i : A posição atual da partícula; v i : A velocidade atual da partícula; y i : A melhor posição individual alcançada pela partícula. A melhor posição individual da partícula i representa a melhor posição que a partícula visitou e onde obteve a melhor avaliação. No caso de uma tarefa de minimização, por exemplo, uma posição que obteve o menor valor da função é considerada como sendo a posição com melhor avaliação ou com mais alta aptidão. O símbolo f será usado para denotar a função obetivo que está sendo minimizada. A equação de atualização para a melhor posição individual é dada pela equação (2.3), utilizando o tempo t explicitamente. yi ( t) se f ( yi ( t)) f ( xi ( t + 1)) yi ( t + 1) = (2.3) xi ( t + 1) se f ( yi ( t)) > f ( xi ( t + 1)) Existem duas versões do PSO, chamadas de modelos gbest e lbest (o melhor global e o melhor local) [26]. A diferença entre os dois algoritmos está baseada diretamente na forma com que uma determinada partícula interage com o seu conunto de partículas. Para

13 representar esta interação será utilizado o símbolo ŷ. Os detalhes dos dois modelos serão discutidos por completo mais adiante. A definição do ŷ, como usado no modelo de gbest, é apresentado pela equação (2.4). yˆ( t y ) = min{ f ( y), f ( yˆ( t)) } { y ( t), y ( t),..., y ( )} 0 1 s t (2.4) Note que esta definição mostra que ŷ é a melhor posição até então encontrada por todas as partículas no enxame de tamanho S. O algoritmo PSO faz uso de duas seqüências aleatórias independentes, r1 ~ U (0,1) e r 2 ~ U (0,1). Estas seqüências são usadas para dar a natureza estocástica ao algoritmo, como mostrado abaixo na equação (2.5). Os valores de r 1 e r 2 são escalados através de constantes c 1 > 0, c 2 2. Estas constantes são chamadas de coeficientes de aceleração, e exercem influência no tamanho máximo do passo que uma partícula pode dar em uma única iteração. A velocidade que atualiza o passo é especificada separadamente para cada dimensão 1.. n, de forma que v i, denota a dimensão do vetor da velocidade associado com a partícula i. A atualização de velocidade é dada pela seguinte equação: vi, ( t + 1) = vi, ( t) + c1r1, ( t)[ yi, ( t) xi, ( t)] + (2.5) c ( )[ ˆ 2r2, t y ( t) xi, ( t)] Na definição da equação da atualização de velocidade, a constante c 2 regula de uma forma clara o tamanho máximo do passo na direção da melhor partícula global, e a constante c 1 regula o tamanho do passo na direção da melhor posição individual daquela v, é mantido dentro do intervalo de v max, v ] [ max partícula. O valor de i, reduzindo a probabilidade de que uma partícula pode sair fora do espaço de busca. Se o espaço de busca for definido pelo intervalo [ x, x max max], então o valor de v max é calculado da seguinte forma [27]: v max = k * x max, onde 0.1 1. 0 k (2.6) A posição de cada partícula é atualizada usando o seu novo vetor de velocidade: xi ( t + 1) = xi ( t) + vi ( t + 1) (2.7) O algoritmo consiste em aplicação repetida das equações de atualização acima apresentadas. A Figura 2.6 contém o pseudocódigo do algoritmo de PSO básico.

14 Criar e inicializar: i particula atual; S PSO de n-dimensões : inicio repita: para cada partícula i = [1..S] se f(s.x i ) < f(s. y i ) então S. y i = S.x i se f(s.y i ) < f(s. ŷ) então S. ŷ = S. y i fimpara Atualize S usando as equações (2.5 e 2.6) até a condição da parada sea Verdadeira fim Figura 2.6 - O Pseudocódigo do algoritmo de PSO básico. A inicialização mencionada no primeiro passo do algoritmo consiste do seguinte: 1. inicialize cada coordenada x i, com um valor aleatório do intervalo [ x max, xmax ], para todo o i 1.. s e 1.. n. Isto distribui as posições iniciais das partículas ao longo do espaço de busca. Deve selecionar um bom algoritmo de distribuição aleatória para obter uma distribuição uniforme no espaço de busca. 2. inicialize cada v i, com um valor extraído do intervalo [ v max, v max ], para todo o i 1.. s e 1.. n. Alternativamente, as velocidades das partículas poderão ser inicializadas com 0 (zero), desde que as posições inicias seam inicializadas de uma forma aleatória. A condição de parada mencionado no algoritmo (Figura 2.6) depende do tipo de problema a ser resolvido. Normalmente o algoritmo é executado para um número fixo e pré-determinado de iterações (um número fixo de avaliação de função) ou até alcançar um valor específico de erro. É importante perceber que o termo de velocidade modela a taxa de mudança dentro da posição da partícula. As mudanças induzidas pela equação de atualização de velocidade (2.5) representam aceleração, o que explica por que as constantes c 1, c 2 são chamados de coeficientes de aceleração. Uma descrição breve de como o algoritmo trabalha é dada da seguinte forma: Inicialmente, uma partícula qualquer é identificada como sendo a melhor partícula no grupo, baseado na sua aptidão usando a função obetiva. Então, todas as partículas serão

15 aceleradas na direção desta partícula, e ao mesmo tempo na direção das próprias melhores posições previamente encontradas. Ocasionalmente as partículas exploram o espaço de busca ao redor da atual melhor partícula. Desta forma, todas as partículas terão a oportunidade para mudar a sua direção e buscar uma nova 'melhor' partícula. Considerando que a maioria das funções têm alguma forma de continuidade, as chances são boas de encontrar as melhores soluções no espaço que cerca a melhor partícula. Aproximação das partículas vindo de diferentes direções no espaço de busca no sentido da melhor solução aumenta as chances de descobrir as melhores soluções que estão na área vizinha da melhor partícula. 2.4.2 O Comportamento do PSO Foram sugeridas muitas interpretações a respeito do funcionamento e o comportamento do PSO. Kennedy, na sua investigação fortaleceu a visão sócia-biológica do PSO, realizando experiências para investigar as funções dos diferentes componentes da equação de atualização da velocidade [28]. A tarefa de treinar uma rede neural foi usada para comparar o desempenho dos diferentes modelos. Kennedy fez uso do modelo de lbest (vea a seção sobre lbest para uma descrição completa deste modelo), em lugar do modelo gbest. Para isto desenvolveu duas equações de atualização de velocidade, a primeira, usando apenas a experiência da própria partícula, chamado de componente de cognição, e a segunda, utilizando apenas a interação entre as partículas e chamou de componente social. Considere a equação de atualização de velocidade (2.5) apresentada anteriormente: v i, ( t + 1) = v i, c ( t) + c r r 2 2, ( t)[ yˆ 1 1, ( t)[ y ( t) x i, i, ( t) ( t)] x i, ( t)] + (2.8) O termo c1r1, ( t)[ y i, ( t) x i, ( t)] é associado apenas com a cognição, onde leva-se em consideração apenas as experiências da própria partícula. Se um PSO for construído com o uso de apenas o componente cognitivo, a equação de atualização de velocidade se tornará : v i, ( i, 1 1, i, i, t t + 1) = v ( t) + c r ( t)[ y ( t) x ( )] (2.9) Kennedy constatou que o desempenho deste modelo de apenas com cognição era inferior ao desempenho do PSO original. Uma das razões de mal desempenho é atribuído a ausência total da interação entre as diferentes partículas. O terceiro termo na equação de atualização de velocidade, c ˆ 2r2, ( t)[ y ( t) xi, ( t)], representa a interação social entre as partículas. Uma versão do PSO com apenas o componente social pode ser construído usando a seguinte equação de atualização de velocidade: v t + 1) = v ( t) + c r ( t)[ yˆ ( t) x ( )] (2.10) i, ( i, 2 2, i, t

16 Foi observado que nos problemas específicos que Kennedy investigou, o desempenho deste modelo era superior ao PSO original. Em resumo, o termo da atualização da velocidade do PSO consiste de dois componentes, o componente de cognição e o componente social. Atualmente, pouco se sabe sobre a importância relativa deles, embora resultados iniciais indiquem que o componente social é mais importante na maioria dos problemas estudados. Esta interação social entre as partículas desenvolve a cooperação entre elas para resolução dos problemas. 2.4.3 Considerações sobre a semelhança entre PSO e EAs Há uma relação clara do PSO com os algoritmos evolutivos (EAs). Para alguns autores, o PSO mantém uma população de indivíduos que representam soluções potenciais, uma das características encontradas em todos os EAs. Se as melhores posições individuais ( y i ) são tratadas como parte da população, então há uma forma clara de seleção fraca [29]. Em alguns algoritmos de ES, as descendentes (offspring), competem com os pais, substituindoos se forem mais adaptados. A equação (2.3) se assemelha a este mecanismo, com a diferença que, a melhor posição individual (o pai) só pode ser substituída por sua própria posição atual (descendente), desde que a posição atual sea mais adaptada. Portanto, parece ser alguma forma fraca de seleção presente no PSO. A equação de atualização de velocidade se assemelha ao operador de cruzamento aritmético (crossover) encontrado nos AGs. Normalmente, o cruzamento aritmético produz dois descendentes que são resultados da mistura de dois pais envolvidos no cruzamento. A equação de atualização de velocidade no PSO, sem o termo v i, ( t ) (vea a equação 2.5), pode ser interpretado como uma forma de cruzamento aritmético envolvendo dois pais, devolvendo apenas um único descendente. Alternativamente, a equação de atualização de velocidade, sem o termo v i, ( t ) pode ser visto como operador de mutação. A melhor forma de analisar o termo v i, ( t ) é de não pensar em cada iteração como sendo um processo de substituição de população por uma nova (mecanismo de morte e nascimento), mas como um processo de adaptação continuo [30]. Deste modo os valores de xi não são substituídos, mas continuamente adaptados usando os vetores v i de velocidade. Isto torna a diferença entre o PSO e os outros EAs mais clara: o PSO mantém informação relativa a posição e velocidade (mudanças em posição); em contraste, EAs tradicionais só mantêm informação relativa a posição. Apesar de parecer que há algum grau de semelhança entre o PSO e a maioria do outro EAs, o PSO tem algumas características que atualmente não estão presentes em nenhum outro EAs, especialmente o fato de que o PSO modela a velocidade das partículas como também as suas posições. 2.4.4 Origens e Terminologia O movimento das partículas foi descrito como sendo "vôo" no espaço de n-dimensionais [26]. Esta terminologia faz parte das experiências realizadas em simulações de vôo de pássaro, e que conduziu o desenvolvimento do algoritmo original do PSO [28], como foi citado pelos autores do PSO, Kennedy e Eberhart.

17 O termo enxame (swarm) era usado por Millonas para descrever modelos de vidas artificiais [31]. Para ele o termo de inteligência enxame é caracterizado pelas seguintes propriedades : Proximidade: necessita de espaço simples e pequeno tempo computacional. Qualidade: Respondendo a fatores de qualidade no ambiente. Resposta diversa: Não entrando em um subconunto restrito de soluções. Estabilidade: Podendo manter modos de comportamentos quando os ambientes mudam. Adaptabilidade: Podendo mudar modos de comportamentos quando a adaptação for necessária. Eberhart et al. [26] apresentou argumentos que demostraram que as partículas do PSO possuem estas propriedades. Também foi ustificado o uso do termo partícula". Para o autor, usar população poderá dar a sensação de que os membros da população precisam de massa e volume, talvez chamar de pontos" seria o mais preciso. Porém, os conceitos de velocidade e aceleração são mais compatíveis com o termo partícula. Outros campos de pesquisa em computação, como a computação gráfica, também usam o termo "sistemas de partícula para descrever os modelos usados para fazer efeitos especais e animação [32]. 2.4.5 Modelo do Melhor Global (gbest) O modelo gbest permite uma taxa mais rápida de convergência [26] às custas de robustez. Este modelo mantém só uma única "melhor solução", chamada de melhor partícula global, entre todas as partículas no enxame. Esta partícula age como um atrator, puxando todas as partículas para ela. Eventualmente, todas as partículas convergirão a esta posição. Caso não sea atualizada regularmente, o enxame poderá convergir prematuramente. As equações de atualização para ŷ e v são as mesmas apresentadas anteriormente: i yˆ( t y ) = min{ f ( y), f ( yˆ( t)) } { y ( t), y ( t),..., y ( )} 0 1 s t (2.11) vi, ( t + 1) = vi, ( t) + c1r1, ( t)[ yi, ( t) xi, ( t)] + (2.12) c ( )[ ˆ 2r2, t y ( t) xi, ( t)] Note que ŷ é chamado de a melhor posição global, e pertence à partícula chamada de a melhor partícula global. 2.4.6 O Modelo do Melhor Local ( Lbest ) O modelo de lbest tenta prevenir convergência prematura mantendo múltiplos atratores. Um subconunto de partículas é definido para cada partícula de qual é selecionada a melhor partícula local, ŷ. O símbolo i ŷ é chamado de a melhor posição local ou de i melhor na vizinhança (the local best position or the neighbourhood best).

18 Assumindo que os índices das partículas estão ao redor do espaço S, as equações de atualização de lbest para um bairro de tamanho l são os seguintes: N i = { y i l y ( t), y i+ 1 i l + 1 ( t),..., y ( t),..., i+ l ( t )} y i 1 ( t), y ( t), i (2.13) i i i { f ( a) } a N i yˆ ( t + 1) N f ( yˆ ( t + 1)) = min, (2.14) v i, ( t + 1) = v i, c ( t) + c r r 2 2, ( t)[ yˆ 1 1, ( t)[ y ( t) x i, i, ( t) ( t)] x i, ( t)] + (2.15) Note que as partículas selecionadas estão no subconunto N i e não tem nenhuma relação com as outras partículas dentro do domínio do espaço de busca; a seleção é baseada unicamente no índice da partícula. Isto é feito por duas principais razões: o custo computacional é mais baixo, por não necessitar de agrupamento, e isto auda também a promover a expansão de informação relativa às boas soluções para todas as partículas, embora trata-se de busca local. Finalmente, pode observar que o modelo de gbest é de fato um caso especial do modelo de lbest, quando o l = s, ou sea, quando o conunto selecionado engloba todo o enxame [26]. 2.4.7 A Versão Binária do PSO Uma versão binária do PSO foi introduzida pelo Kennedy e Eberhart [33]. Esta versão é útil para fazer comparações entre AG s codificados numa forma binária e o PSO, bem como representar problemas que são por natureza binários. Uma aplicação típica é representar o gráfico de conexão de uma rede neural onde '1' representa uma conexão e '0' representa a ausência de conexão entre dois nodos na rede. A versão binária restringe os valores de componente de x i e y i para serem elementos do intervalo U {0,1}. Porém, não há nenhuma restrição no valor da velocidade, v i, de uma partícula. Entretanto, quando a velocidade é usada para atualizar as posições, ela deve ser colocada dentro do intervalo de [0.0,1.0] e tratado como probabilidade. Isto pode ser obtido utilizando a função sigmoidal, definida por: 1 sig ( x) = 1 + exp( x) (2.16) Então, a equação de atualização para o termo de velocidade usado no enxame binário é dada por : vi, ( t + 1) = vi, ( t) + c1r1, ( t)[ yi, ( t) xi, ( t)] + (2.17) c r ( t)[ yˆ ( t) x ( t)] 2 2, i,

19 Note que esta equação de atualização de velocidade é similar a que foi usada no PSO original. Em vez da equação de atualização de posição habitual (por exemplo equação 2.8), uma nova equação de atualização probabilística é usada: x i, ( ) () 0 se r3, t sig( vi, ( t + 1)) ( t + 1) = 1 se r3, t < sig( vi, ( t + 1)) (2.18) Onde r () t ~ ( 0,1) é um variante aleatório uniforme (selecionado a partir do intervalo 3, U [0.0,1.0]). Ao analisar a equação (2.18), pode-se observar que o valor de i permanecerá 0 (zero) se sig ( v i, ) = 0 Isto acontecerá quando v i, é aproximadamente menor do que -10. Igualmente, a função de sigmoid saturará quando v i, > 10. Para prevenir isto, é recomendado que o valor de v i, sea mantido dentro do intervalo de ± 4 [30]. O artigo original que descreve o PSO binário recomenda um limiar de v max ligeiramente maior de ± 6, resultando em uma probabilidade de aproximadamente 0.0025 [33]. Esta versão foi melhorada com a utilização de novos conceitos [34]. Estes conceitos foram desenvolvidos com sendo extensões do PSO que serão apresentados mais adiante. x, 2.5 As Principais Propostas de Melhorias do PSO Foram propostas várias melhorias para a otimização por Enxame de Partícula. Serão apresentadas as mais importantes melhorias agrupadas de acordo com seus obetivos. 2.5.1 Melhorias na Taxa de Convergência Foram propostas várias técnicas para melhorar a taxa de convergência do PSO. Estas propostas normalmente envolvem mudanças na equação da atualização do PSO, sem mudar a estrutura do próprio algoritmo. Isto normalmente resulta em otimização local de melhor desempenho e às vezes com uma diminuição de desempenho em funções com múltiplos mínimos locais. - Peso da inércia (Inertia weight) : A introdução do peso de inércia por Shi e Eberhart foi uma das primeiras modificações no algoritmo do PSO original obetivando melhorar a sua taxa de convergência [66]. O peso de inércia é um fator escalar associado com a velocidade durante o passo de tempo anterior, resultando na seguinte nova equação de atualização de velocidade : vi, ( t + 1) = wv i, ( t) + c1r1, ( t)[ yi, ( t) xi, ( t)] + (2.19) c r ( t)[ yˆ ( t) x ( t)] 2 2, i, A equação da atualização da velocidade do PSO original pode ser obtida fixando w = 1. Shi

20 e Eberhart investigaram o efeito de valores de w na faixa de [0, 1.4], como também variando w com o passar do tempo [66]. Os resultados obtidos demonstram que escolhendo w [0.8,1.2] resulta em convergência mais rápida, mas com o valor de w maior do que (> 1.2) resulta em mais fracassos para convergir. - Coeficiente de enxugamento (Constriction Factor) Recentemente num trabalho feito por Clerc [27,38] foi demonstrado que o coeficiente (ou fator) de enxugamento pode audar assegurar a convergência. O modelo de coeficiente de enxugamento descreve, entre outras coisas, um modo de escolher os valores de w, c 1 e c 2 de forma que a convergência sea assegurada. A Escolha correta destes valores, elimina a necessidade de austar os valores de v i, à escala de [ v max, v max ]. A equação da atualização usando este coeficiente como foi proposta em [27,38], é apresentada na equação (2.20): ( v ( t) + c r ( t)[ y ( t) x ( t)] + c r ( t)[ yˆ ( t) x ( )]) vi, ( t + 1) = χ i, 1 1, i, i, 2 2, i, t 2 Onde χ =, 2 ϕ ϕ 2 4ϕ e ϕ = c + c ϕ 4., 1 2 >, (2.20) Eberhart e Shi compararam o desempenho de um enxame usando o auste com o v max com outro enxame, onde foi utilizado apenas o coeficiente de enxugamento [43]. Seus resultados indicaram que o uso do coeficiente de enxugamento (sem austar a velocidade) resulta geralmente em uma taxa melhor de convergência em algumas das funções do teste, entretanto, o PSO com o coeficiente de enxugamento não alcançou a convergência esperada com o número de iterações pré-determinado. O problema, de acordo com Eberhart e Shi, é que as partículas vagueiam demasiadamente longe da região deseada do espaço da busca. Para reduzir este efeito decidiram aplicar também o auste no próprio coeficiente de enxugamento, austando o parâmetro do v max igual ao x max,o tamanho do espaço da busca. Isto conduziu melhora no desempenho do algoritmo para quase todas as funções usadas durante os testes. Para mostrar o funcionamento e aplicação do PSO, no próximo capítulo será apresentada uma aplicação do PSO para otimizar as funções de pertinência num controle fuzzy.

21 Capítulo 3 Uma aplicação: O Auste Automático das Funções de Pertinência Fuzzy Usando PSO Neste capítulo será descrita uma aplicação que foi desenvolvida com obetivo de apresentar uma estratégia para o auste automático das funções de pertinência usando PSO. E com o algoritmo PSO pode-se fazer um auste automático das funções de pertinência melhorando significativamente o controle, minimizando o espaço percorrido pelo veículo até estacionar e auxiliando os estudantes no aprendizado de controle difuso. 3.1 Introdução A Teoria dos Conuntos Difusos foi proposta por Lofti A. Zadeh em um artigo publicado em 1965 [87]. Recentemente, a Lógica Difusa tem sido utilizada no controle de processos industriais, equipamentos eletrônicos, de entretenimento, carros, sistemas de diagnose e, até mesmo, para o controle de eletrodomésticos. Os sistemas difusos podem ser considerados como sendo sistemas baseados em conhecimento, incorporando conhecimento humano na Base de Conhecimento deles através de Regras Difusas e Funções de Pertinência. A definição destas regras difusas e as funções de pertinência geralmente são feitas através de decisões subetivas, influenciando de uma forma direta no desempenho do sistema. Na maioria das aplicações existentes, as regras difusas são geradas por peritos na área, especialmente para problemas de controle com poucas entradas (variáveis). Com um número crescente de variáveis, o número de regras aumenta exponencialmente, o que torna mais difícil para peritos definirem conunto de regras que resultam num sistema de bom desempenho. Neste estudo de caso foi utilizado um ambiente computacional para o ensino da lógica difusa [88]. Este programa computacional foi desenvolvido para o treinamento de estudantes de Engenharia na Teoria de Controle Difuso. O seu principal obetivo é estacionar um veículo em uma garagem, partindo de qualquer posição dentro de uma área pré-determinada. Com este pacote, os estudantes dispõem de um recurso que exemplifica uma situação muito conhecida da vida real. Entretanto, este pacote apresenta uma séria desvantagem: o tipo de aprendizagem. Neste caso, os estudantes, para conseguir uma ação

22 de controle apropriada, utilizam o método da tentativa-e-erro na definição das regras e parâmetros para cada uma das funções de pertinência. Neste trabalho então desenvolveu-se um módulo de treinamento PSO para um controle previamente criado. O algoritmo PSO será utilizado para encontrar os melhores parâmetros das funções de pertinência. A concatenação destes parâmetros constitui as partículas do enxame, que são avaliadas de acordo com o número de iterações necessárias para que o veículo estacionar de acordo com o auste feito por cada grupo de partículas. Nas próximas seções será descrito o módulo de treinamento do PSO apresentando o algoritmo bem, como as telas de interface com o usuário. Em seguida serão mostrados os testes realizados com controles difusos que tiveram suas funções de pertinência austadas e finalmente, as conclusões serão apresentadas. 3.2 O Pacote Computacional Original O pacote computacional tem como principal obetivo estacionar um veículo em uma garagem, partindo de qualquer ponto inicial dentro de uma área pré-definida. Para tal, o usuário deve proetar um conunto de regras de controle difuso e também as funções de pertinência que controlarão a traetória do veículo. Para definir tais regras, o programa oferece diversos menus com anelas e rotinas numéricas. Os processos de fuzzificação e de defuzzificação das variáveis são feitos pelo programa sem a necessidade de interferência do usuário [88]. A Figura 3.1 mostra a tela inicial para representar o problema do estacionamento de um veículo. Nesta anela aparecem a posição da garagem, os limites existentes (as paredes) e os valores das coordenados limites. Também são apresentadas as variáveis de entrada (x, y) medidas a partir do ponto central da parte traseira do veículo e finalmente, o ângulo do carro (φ). Figura 3.1 - Tela básica do programa.

23 Para a realização de estacionamento do veículo, algumas condições são estabelecidas, e pertencem dois tipos: ligadas ao pacote computacional e ligadas a lógicas. As condições ligadas ao pacote representam as limitações físicas. São elas [88]: limites das variáveis de entrada: - posição (x, y): 0 < x < 32 e 0 < y < 20 (m) (limitações do estacionamento) - ângulo do veículo: -90 φ 270 - sentido do veículo: para frente ou para trás limite da variável de saída: - ângulo da roda do veículo: -30 θ 30 (limitação do modelo real) Com relação às limitações lógicas, elas podem variar de acordo com os tipos das estratégias empregadas. Alguns exemplos destas estratégias podem ser, entre outras: minimização do número de mudanças de sentido do veículo (para frente ou para trás); minimização do espaço percorrido pelo veículo até a garagem; a restrição de partes da garagem para o estacionamento. Para o movimento do veículo são estabelecidas as seguintes condições: aceleração igual a 1 (m/s 2 ) e velocidade máxima de 1 (m/s). Estes dois valores são utilizados como referência para todos os movimentos. Para inverter o sentido do movimento do veículo existem três possibilidades, que são: a) Choque contra a parede: quando o sistema verifica que o veículo irá se chocar contra a parede no próximo passo; b) Regra que força a inversão: quando a ordem de inverter for utilizada como conseqüência de uma regra; ou, c) Falta de saídas: quando nenhuma regra for utilizada pelo controle, ou sea, se a saída for nula. Para obter mais informações sobre este pacote e também como é feita a criação de um controle difuso vea [88]. 3.3 Simulações Selecionada a opção simulação do menu, o usuário pode definir uma posição inicial (Coordenada X, Y e Ângulo) para o veículo. A Figura 3.2 mostra o deslocamento do veículo utilizando o conunto composto por 356 regras para o deslocamento. No exemplo de simulação da Figura 3.2, pode-se verificar o rastro deixado pelo veículo durante sua traetória. Cada ponto significa uma iteração (ou sea, uma passagem completa no conunto de regras). No exemplo, mostrado na Figura 3.2, produziu-se 256 iterações.

24 Figura 3.2 - Exemplos de simulação do pacote computacional. O pacote computacional dispõe de recursos, que permitem variar o tamanho do carro entre: pequeno, médio ou grande. Esta variação cria a oportunidade de verificar o comportamento do sistema de controle para um equipamento que tenha alteradas algumas de suas grandezas. O pacote computacional possui também três métodos de defuzzificação, que são: o centróide, média das áreas e média das máximas [89]. 3.4 Descrição do Módulo Treinamento PSO De forma geral, a integração dos algoritmo PSO com o controle difuso foi implementada da seguinte maneira: A subpopulação de partículas do enxame foi definido como sendo a concatenação dos valores de auste das funções de pertinência. Os parâmetros são os centros e as larguras de cada conunto difuso. Estes parâmetros compõem as partículas. De uma gama inicial de valores de parâmetros possíveis, o sistema difuso é executado para determinar o quanto ele funciona bem. Essas informações são usadas para determinar o auste de cada subpopulação (adaptabilidade) e estabelecer a evolução do enxame. O ciclo é repetido até que se complete o número de iterações do enxame definido pelo usuário. A cada iteração é encontrado o melhor conunto de valores para os parâmetros das funções de pertinência. Para o treinamento do PSO podem-se definir as posições iniciais que o veículo irá partir para avaliar cada subpopulação do enxame que representa o conunto de valores para os parâmetros das funções de pertinência, buscando assim uma otimização do controle não somente sobre uma única traetória, mas sim de todas as posições iniciais possíveis de se partir o veículo para que se ocorra o estacionamento.

25 Através de utilização do menu Opção Treinamento PSO, o usuário faz o auste dos parâmetros para o treinamento, além de definir os parâmetros (população, iteração, velocidade máxima), estabelecer o valor de auste para as funções de pertinência que é o quanto a função deslocará para esquerda ou direita e quanto ela se encolherá ou expandirá. Após iniciar o treinamento, pode-se acompanhar o treinamento através das informações exibidas por anelas. Concluídas todas as iterações, tem-se o melhor resultado encontrado. Após o auste, as funções de pertinência são redefinidas segundo os parâmetros do melhor resultado encontrado. O sistema fará o controle com base nestas novas funções. 3.5 Componentes do Algoritmo PSO Serão apresentados nesta seção os mecanismos empregados para gerar ótimas funções de pertinência no controlador difuso usando o algoritmo PSO. Cada função de pertinência do controlador difuso implementado é definida usando quatro parâmetros. São eles: IE (inferior esquerdo), ID (inferior direito), SE (superior esquerdo) e SD (superior direito). Figura 3.3 Parâmetros das funções de pertinência. Na Figura 3.3 são mostrados os parâmetros da função de pertinência PE da variável x. Para está função o valor de IE é igual a 30, ID igual a 160, SE igual a 80 e SD igual a 110. Para austar as funções de pertinência foram definidas as seguintes equações: IE = (IE + k i ) w i ID = (ID + k i ) + w i

26 SE = (SE + k i ) SD = (SD + k i ) Onde, k i e w i são coeficientes de austes. O k i faz cada função de pertinência mover-se para a direita ou para esquerda sem perder sua forma original. O coeficiente w i faz com que a função de pertinência encolha ou se expanda. Estes coeficientes assumem valores inteiros negativos ou positivos de acordo com o valor de auste definido pelo usuário. A Figura 3.4 mostra um exemplo de auste com os valores de IE igual a 30, ID igual a 160, SE igual a 80 e SD igual a 110. Sendo k = -8 e w = 5 a função de pertinência terá o seguinte auste: IE = ( 30 + (-8)) 3 = 19 ID = (160 + (-8)) + 3 = 155 SE = ( 80 + (-8)) = 72 SD = (110 + (-8)) = 102 Figura 3.4 Exemplo de auste de uma função de pertinência. O algoritmo PSO será utilizado para achar os ótimos valores das funções de pertinência, segundo a estratégia escolhida, os pontos iniciais utilizados e os coeficientes de austes (k i e w i ).

27 3.5.1 Representação das Soluções usando PSO O controle difuso normalmente está composto por muitas funções. Assim, para este tipo de problema será necessário o uso de subpopulação. Cada subpopulação representa uma possível solução. Com relação ao tamanho da subpopulação, ou sea, quantos partículas cada subpopulação irá ter, isso dependerá do número de funções de pertinência definidas pelo usuário. Para um controle difuso com um grupo de 18 funções de pertinência, por exemplo, necessita ter uma subpopulação com 18 partículas de 2 (duas) dimensões (x,y). Isso porque para cada função deve ter dois coeficientes de auste: k i e w i. A subpopulação então é representada por um vetor de 18 posições de partículas com 2 posições cada. Então, é necessário ter a seguinte estrutura: sp 1 = { p 11,p 12,p 13...p 1m } sp 2 = { p 21,p 22,p 23...p 2m }... sp n = { p n1,p n2,p n3...p nm } Onde: p: uma partícula de 2 dimensões (k i, w i.) n : numero de população(enxame). m : número de partículas. 3.5.2 Função de Avaliação e o Critério de Parada A função de avaliação tem o papel de avaliar o nível de aptidão (adaptação) de cada subpopulação gerada pelo algoritmo. Para o problema em questão, o obetivo é minimizar a traetória do veículo até estacionar. No caso a função de avaliação é dada por: 1 f = (3.1) 1 + I onde I é o total de iterações até estacionar com base no auste feito por cada subpopulação nas função de pertinência. De acordo com está função, a aptidão de cada subpopulação será inversamente proporcional ao número de iterações. Como critério de parada foi utilizado o número máximo de iterações. 3.5.3 Apresentação do Algoritmo Sea, G o número de iterações do PSO, S o enxame, N o número de subpopulações, Vmax a velocidade máxima e VA o valor de auste permitido para as funções de pertinência. O algoritmo abaixo apresentado gere como saída o vetor gbest com a melhor subpopulação representando a melhor solução.

28 Passo 1. Gere subpopulações inicial SP com partículas no intervalo [- VA, +VA]. Passo 2. Gere velocidade inicial Vx e Vy com valores aleatórios. Passo 3. Se completou o número de repetição G vá para Passo 7. Passo 4. Avalie a aptidão da subpopulação SP. Passo 5. Atualize S usando as equações (2.5 e 2.7) Passo 6. Vá para Passo 3. Passo 7. Fim. 3.6 Testes Nesta seção serão apresentados os testes realizados com controles difusos que tiveram suas funções de pertinência austadas usando PSO. Estes testes demonstram a eficiência de tais mecanismos, permitindo uma avaliação obetiva dos resultados encontrados. As funções de pertinência originais são mostradas na Figura 3.5. Este controles possuem 148 regras e 15 funções de pertinência para as variáveis de entrada x, y e ângulo da roda. Figura 3.5 Funções de pertinência originais. O treinamento deste controle foi feito a partir de três posições iniciais, conforme mostra a Tabela 3.1 Nesta tabela tem também o número de iterações geradas pelo veículo até estacionar utilizando as funções de pertinência originais.

29 Tabela 3.1 Posições iniciais para o treinamento. Posição X Y Ângulo do Iterações sem Carro treinamento 1 25 120 180 330 2 160 130-90 888 3 275 160-40 655 A Figura 3.6 mostra o veículo em cada uma das posições iniciais. Figura 3.6 Posições iniciais de treinamento. Estas posições foram escolhidas de acordo com pontos onde o veículo não desenvolve uma boa traetória até estacionar e, consequentemente, gerando um número excessivo de iterações. Como á explicado no Capítulo 4, a definição de várias posições iniciais não irá somente minimizar as traetórias referentes a estes pontos, mas como também para outros pontos, conseguindo assim uma minimização global de espaço percorrido. A Figura 3.7 mostra as traetórias referentes a cada posição inicial. Os parâmetros genéticos definidos para o treinamento são mostrados na Tabela 3.2. Tabela 3.2 Parâmetros do PSO. Tamanho da População 14 Número de Iterações 30 Vmax 10 Os resultados gerados pelo algoritmo PSO são mostrados na Tabela 3.3 e Figura 3.8.

30 Tabela 3.3 Iterações após o treinamento com PSO. Posição Iterações sem Iterações com treinamento treinamento 1 330 285 2 888 592 3 655 439 Total 1873 1316 Média 624,33 438,99 (a) (b) (c) Figura 3.7 Simulações sem treinamento. (a) Posição 1 - (b) Posição 2 (c) Posição 3 Como mostrado na Tabela 3.3, obteve-se uma redução de 557 iterações (29,74%) para o veículo estacionar partindo-se das posições inicias fixadas para o treinamento. Na Tabela 3.4 serão apresentados resultados de simulações feitas partindo de posições iniciais não utilizadas no treinamento.

31 (a) (b) (c) Figura 3.8 Simulações após treinamento genético. Posição 1 (b) Posição 2 (c) Posição 3 Figura 3.9 Funções de pertinência após o auste com PSO. A Figura 3.9 mostra as funções de pertinência após o auste. Nota-se que as maiores modificações ocorreram nas funções das variáveis y e ângulo da roda. O próximo exemplo apresentará modificações significantes nas funções da variável x, uma vez que são utilizadas mais posições iniciais no treinamento.

32 A Tabela 3.4 apresenta o resultado obtido de simulações feitas com 20 posições escolhidas aleatoriamente para o veículo estacionar utilizando o controle original que tiveram suas funções de pertinência austadas pelos PSO. Os resultados demonstram uma redução média do número de iterações para o veículo atingir a posição final de 18,22%. Estes valores representam uma redução global na traetória do veículo partindo-se de posições não utilizadas no treinamento genético. Outra observação é que em determinadas posições o número de iterações é maior que as geradas pelos controles originais (sem treinamento). Na posição 2 da Tabela 3.4 por exemplo, o controle original gera 167 iterações para estacionar o veículo enquanto que o controle treinado gera 306 iterações. Este aumento é conseqüência das modificações nas funções da pertinência que fazem com que o veículo desenvolva uma traetória diferente para atingir a posição final. Tabela 3.4 Resultados de Simulações. Posição X Y Iterações geradas pelos Ângulo Controles Difusos do Traindo carro Original com PSO 1 1 126 182 450 445 2 6 46 132 167 306 3 8 41 190 1000 1000 4 15 70-90 318 313 5 70 95-6 263 257 6 74 69-70 453 450 7 76 193 232 605 363 8 88 46 44 283 289 9 115 120 240 463 289 10 131 140-72 457 512 11 141 69-28 342 225 12 154 166-80 863 950 13 160 135 268 1101 445 14 217 66-50 684 506 15 228 194-48 830 476 16 246 169 154 312 310 17 250 180-40 739 489 18 265 170-40 672 483 19 300 124 258 317 308 20 305 156-40 521 449 Total 10840 8865 Média 542 443,25 3.7 Considerações sobre esta aplicação O algoritmo PSO oferece vantagens distintas de otimização das funções de pertinência resultando em uma pesquisa global, reduzindo as chances de terminarem em um

mínimo local, pois utiliza vários conuntos de soluções simultaneamente. A lógica difusa contribuiu com a função de avaliação, estágio do algoritmo PSO onde o auste é determinado. Este trabalho é também um exemplo de integração de sistemas difusos com algoritmo PSO, constituindo assim um sistema híbrido. Nesta integração mostrou-se que quando se tem o domínio do problema, este pode ser explorado pelo algoritmo PSO conduzindo a um desempenho melhor do controlador difuso. Os resultados obtidos foram bons e consistentes e comprovam os benefícios visualizados e descritos acima. O desenvolvimento desta aplicação permitiu também maior domínio sobre o algoritmo PSO e audou no estudo sobre o seu comportamento que será apresentado no próximo capítulo. 33

34 Capítulo 4 Um novo algoritmo: Algoritmo Híbrido de Otimização por Enxame de Partícula com Mutação HPSOM Este capítulo inicia-se com uma breve analise informal de comportamento do algoritmo PSO padrão e seu desempenho. Em seguida é apresentado um novo algoritmo chamado de Algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM), que combine a idéia do enxame de partícula com o conceito de Algoritmos Genéticos. Serão apresentados e discutidos os resultados dos testes entre os dois modelos: PSO e o HPSOM usando funções unimodal e multimodal. 4.1 Introdução O desempenho do algoritmo PSO foi investigado em diversos trabalhos, desde o seu surgimento em ([10,11]). O trabalho apresentado na referência [62] descreve a complexa tarefa da seleção dos parâmetros no PSO. Uma comparação formal entre PSO e o Algoritmo Genético padrão foi realizada e apresentada na referencia [40], onde o autor apontou que o PSO possui um bom desempenho nas iterações iniciais, mas apresenta problemas de convergência quando se aproxima da solução ótima. O comportamento do PSO no modelo global (gbest) apresenta alguns aspectos importantes relacionados com a atualização da sua velocidade. Se a posição atual de uma partícula coincidir com a melhor posição global, a partícula mover-se-á afastando deste ponto somente se o seu peso de inércia (w) e a sua velocidade anterior forem diferentes de zero. Se as velocidades anteriores das partículas forem muito próximas de zero, todas as partículas pararão de se mover, uma vez que á alcançam a melhor posição global. Isso pode conduzir o algoritmo à convergência prematura. De fato, isto não garante nem mesmo que o algoritmo convergiu em um mínimo local, apenas, significa que todas as partículas convergiram à melhor posição encontrada até então pelo enxame. Este fenômeno é conhecido como estagnação [54]. Algumas soluções forem propostas recentemente na literatura. A solução apresentada em [54] está baseada em acrescentar um parâmetro novo e adicionar novas equações ao PSO. Outro trabalho apresentado em [53], combina o algoritmo PSO com técnicas de Algoritmos Evolutivos, introduzindo a procriação (breeding) e subpopulações (subpopulation). As soluções apresentadas geraram modificações profundas no PSO, o que

35 torna a nova versão do PSO mais complexa ou muito parecida com os Algoritmos Evolutivos. Para resolver o problema anteriormente mencionado, será apresentado um novo algoritmo híbrido chamado de algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM), que combine a idéia do enxame de partícula com os conceitos de Algoritmo Genéticos. O modelo HPSOM combina a tradicional velocidade e regras de atualização de posição do algoritmo PSO com o conceito da mutação numérica dos AGs. O HPSOM é testado e comparado com o PSO padrão usando funções unimodal e funções multimodal. Os resultados obtidos demonstram que o HPSOM tem um grande potencial para alcançar convergência mais rapidamente e achar a melhor solução. Esta solução resolverá o problema de estagnação sem criar qualquer modificação nas equações de PSO e seus parâmetros. A próxima seção apresenta a estrutura do algoritmo HPSOM. Seção 4.3 descreve os testes e apresenta os resultados experimentais e finalmente as conclusões serão apresentadas. 4.2 O Algoritmo HPSOM O algoritmo Enxame de Partícula Híbrido com Mutação (HPSOM) incorpora o processo de mutação geralmente usado no AGs no PSO. Este processo vai permitir que as partículas possam escapar de um ponto ótimo local e realizar buscas em diferentes área no espaço de busca. Este processo inicia pela escolha aleatória de partículas no enxame e mover para uma nova posição diferente dentro do espaço de busca. O processo da mutação utilizado é dado pela seguinte equação: mut ( p [ k ]) = p ([ k ] * 1) + ω (4.1) Onde o p[k ] é a partícula escolhida aleatoriamente do enxame e ω é obtido também de uma forma aleatória dentro da seguinte escala: [ 0,0.1* ( xmax xmin )], representando 0.1 vez o comprimento do espaço da busca. A Figura 4.1 lista o pseudocódigo do algoritmo HPSOM. inicio Criar e inicializar : Enquanto ( condição da parada sea falso) inicio avaliar atualizar velocidade e posição mutação fim fim Figura 4.1 - o pseudocódigo do algoritmo HPSOM.

36 4.3 Testes e experimento Como o obetivo de estudo de desempenho do algoritmo HPSMO e a comparação com o algoritmo original PSO, forem realizados testes usando quatro funções evolvendo problemas de minimização. As primeiras duas funções são unimodal, enquanto que as últimas duas são multimodal com muitos mínimos locais. Estas quatro funções foram usadas em todos os outros estudos realizados sobre o PSO ([42], [53]). A função Spherical : A função de Esfera generalizada é uma função muito simples e unimodal. O seu mínimo global está localizado na x = 0, com f(x) = 0. Esta função não tem nenhuma interação entre suas variáveis. Spherical: f n 2 ( x = (4.2) 1 ) i = 1 A função Rosenbrock : A segunda função é a função de Rosenbrock generalizada. Uma função unimodal, com interação significante entre suas variáveis. n 1 2 2 2 Rosenbrock: 2( ) = f x (100( xi+ 1 xi ) + ( xi 1) ) (4.3) i= 1 A função Griewank : Uma função multimodal com interação significante entre suas variáveis, e seu mínimo global se encontra no x = 0, onde f(x) = 0. 2 i Griewank: f ( x) xi cos( ) 1 (4.4) x i n n 1 x 3 = + 4000 i= 1 i= 1 i A Função Rastrigin : A quarta função é a função de Rastrigin generalizada. É um exemplo típico e muito utilizado de funções não-linear e multimodal. Esta função representa um problema com um grau de dificuldade acentuado causado por seu grande espaço de busca e principalmente por um número grande de mínimos locais como mostrado na Figura (4.2). n 4 = x i x i + i= 1 2 Rastrigin: f ( x) ( 10cos(2π ) 10) (4.5) A Figua 4.2 da função de Rastrigin mostra que existem muitos mínimos locais organizados como inchaços. A função tem apenas um mínimo global, que ocorre no ponto [ 0 0 ] no plano x-y, como indicado pela linha vertical, onde o valor da função é 0. Em qualquer mínimo local à exceção de [ 0 0 ], o valor da função é maior do que 0. A função de Rastrigin é freqüentemente usada também nos estudos sobre os algoritmos genéticos.

37 Figura 4.2 A função Rastrigin em 3D As escalas do espaço da busca e os valores iniciais usados nos experimentos são apresentados na Tabela 4.1. Todos esses experimentos consistiram em 100 execuções. Os parâmetros de PSO e de HPSOM foram austados aos valores dos coeficientes c1 = c2 = 2.0 e um peso de inércia que começa em 0.7 e diminui linearmente até chegar ao limite de 0.4. O valor da velocidade máxima (Vmax) de cada partícula foi austado à metade do comprimento de espaço da busca em uma dimensão. O tamanho da população nos experimentos foi mantida em 20 partículas a fim de manter as exigências computacionais baixas. Note que o HPSOM tem um parâmetro adicional relacionado com a taxa da mutação que foi austado a 30%. Os experimentos das quatro funções foram feitos usando diferente dimensão (10, 20 e 30) e diferente iteração (1000, 1500 e 2000) respectivamente. Tabela 4.1- O espaço de busca e os valores iniciais das funções de teste. Função Espaço de Busca Escala Inicial f 1 100 x 100 50 x 100 i f 2 100 x 100 15 x i 30 i f 3 600 x 600 300 x 600 i f 4 10 x 10 2.56 x 5. 12 i i i i

38 Tabela 4.2 - Resultados de média da melhor aptidão para 100 execuções (médio da melhor aptidão ± erro padrão) F Dim. Iter. PSO (Padrão) HPSOM 10 1000 2.15E-037± 2.30E-037 2.24E-096 ± 1.73E-095 f 1 - Spherical 20 1500 1.44E-028± 9.13E-029 2.1449E-119 ± 1.6891E-118 30 2000 2.07E-014± 2.90E-014 6.5764E-147 ± 5.6809E-146 10 1000 30.2215± 29.6403 6.7701±0.3748 f 2 -Rosenbrock 20 1500 110.3035 ± 15.2610 16.9664± 0.4855 30 2000 151.7675 ± 9.5624 27.3682± 0.7146 10 1000 0.09013±0.00362 0.00±0.00 f 3 -Griewank 20 1500 0.03031±0.0013 0.00± 0.00 30 2000 0.0189 ± 0.0586 0.00± 0.00 10 1000 4.6900±0.3410 0.00±0.00 f 4 -Rastrigin 20 1500 24.3247±0.6291 0.00± 0.00 30 2000 49.4664± 0.6299 0.00± 0.00 Figura 4.3- PSO versus HPSOM para a função Spherical (esfera) - f 1

39 Figura 4.4- PSO versus HPSOM model for Rosenbrock function- f 2 Figura 4.5 - PSO versus HPSOM para a função for Griewank - f 3

40 Figura 4.6 - PSO versus HPSOM para a função Rastrigin - f 4 (a)-pso (b)-hpsom Figure 4.7- Os comportamentos das partículas PSO/HPSOM para a função Esfera (pop = 3)- f1

41 Para ampliar o escopo da comparação, a Tabela 4.3 contém os resultados obtidos usando o Algoritmo Genético padrão como foi apresentado no trabalho [53]. A população é composta por 20 indivíduos (o mesmo tamanho da população dos PSO/HPSOM) e as taxas de cruzamento e mutação estão na Tabela 4.4. Tabela 4.3- Resultados de média da melhor aptidão para 100 execuções - PSO, HPSOM e AG- (médio da melhor aptidão ± erro padrão) F Dim. Iter. PSO (Padrão) GA (Padrão) HPSOM 10 1000 2.15E-037± 2.30E-037 2.43E-04±1.14E-05 2.24E-096 ± 1.73E-095 f 1 - Spherical 20 1500 1.44E-028± 9.13E-029 0.00145± 6.22E-05 2.1449E-119 ± 1.6891E-118 30 2000 2.07E-014± 2.90E-014 0.00442± 1.78E-04 6.5764E-147 ± 5.6809E-146 10 1000 30.2215± 29.6403 109.810± 6.212 6.7701±0.3748 f 2 -Rosenbrock 20 1500 110.3035 ± 15.2610 146.912 ±10.951 16.9664± 0.4855 30 2000 151.7675 ± 9.5624 199.730 ±16.285 27.3682± 0.7146 10 1000 0.09013±0.00362 283.251±1.812 0.00±0.00 f 3 -Griewank 20 1500 0.03031±0.0013 611.266±3.572 0.00± 0.00 30 2000 0.0189 ± 0.0586 889.537 ± 3.939 0.00± 0.00 10 1000 4.6900±0.3410 3.1667±0.2237 0.00±0.00 f 4 -Rastrigin 20 1500 24.3247±0.6291 16.8732±0.6007 0.00± 0.00 30 2000 49.4664± 0.6299 49.3212± 1.1204 0.00± 0.00 Tabela 4.4 - As taxas de cruzamento e mutação usados pelo AG (padrão) Função Taxa de cruzamento Taxa de mutação f 1 0.60 0.30 f 2 0.50 0.30 f 3 0.50 0.40 f 4 0.20 0.02 4.4 Discussões dos Resultados Como apresentado na Tabela 4.2, os testes foram realizados variando a dimensão das funções em (10,20 e 30) e variando o número de iterações dos algoritmos para (1000,2000 e 3000) respectivamente. Os testes foram repetidos 100 vezes e os resultados dos algoritmos PSO e HPSOM são representados pelo valor médio da aptidão da melhor partícula encontrada e seguido pelo valor do erro padrão.

42 As Figuras 4.3 a 4.6 apresentam gráficos que correspondem aos experimentos e mostram os comportamentos obtidos pela melhor aptidão para cada repetição de ambos os algoritmos. Os gráficos ilustram os resultados obtidos nos teste nas funções com dimensão de 30. No caso dos experimentos com as funções unimodal (Esfera e Rosenbrock), o HPSOM alcançou melhores resultados e teve sua convergência mais rápida do que o PSO. No caso dos experimentos com as funções multimodal (Griewank e Rastrigin), o HPSOM novamente obteve uma convergência mais rápida que o PSO, e achou o valor mínimo das duas funções (zero). A Figura (4.3) apresenta um gráfico que descreve o comportamento do PSO na minimização da função de Esfera. Pode-se observar que o PSO entrou em estagnação com iteração próxima a ~800 e mantém o mesmo resultado representado no gráfico como uma linha reta até o fim de execução, sem que o aumento do número de iteração gere uma melhoria nos resultados. Ao mesmo tempo, pode-se observar um comportamento não linear no gráfico do HPSOM na direção ao mínimo global com o aumento de iteração. Como mostrado nos gráficos da Figura (4.7) que apresentam os comportamentos dos dois algoritmos para apenas 3 partículas e com iterações até a 100. Nestes gráficos o PSO entra em estagnação enquanto o HPSOM continua na busca de melhor posição. Este comportamento praticamente idêntico é observado também nos outros gráficos. Isso leva a observação de que o HPSOM tende a varrer de uma forma mais eficiente o espaço de busca e mostra a sua superioridade neste requisito. A Tabela 4.3 apresenta uma outra situação com a inclusão dos resultados obtidos pelo AG padrão [53]. Nesta situação o desempenho do AG padrão foi inferior ao PSO padrão em todas as funções e conseqüentemente é bem abaixo do Híbrido. Pode-se observar claramente e com bases nos resultados obtidos pelos testes realizados e mostrados na Tabelas (4.2 e 4.3) e nas Figuras ( 4.3,4.4.3, 4.5 e 4.6), que o HPSOM obteve melhor desempenho comparando com o PSO e AG padrão, onde o HPSOM alcançou melhores resultados em todas as funções e chegou à uma convergência mais rapidamente do que o PSO. No próximo capítulo será apresentada uma aplicação de otimização de perdas elétricas usando os dois algoritmos e vai ser possível observar entre outras coisas, o fato de que o HPSOM apresenta um desempenho superior ao PSO.

43 Capítulo 5 Aplicação do PSO e HPSOM na Resolução de Problema de Otimização de Perdas Elétricas Este capítulo apresenta um estudo sobre a aplicação dos algoritmos PSO e HPSOM em resolução de problemas de otimização ligados ao Sistema Elétrico de Potência SEP. Será apresentada uma aplicação de Otimização de Perdas Elétricas usando os algoritmos PSO e HPSOM. Os resultados alcançados pelos dois algoritmos serão comparados entre si e também comparados com os resultados obtidos utilizando outro método matemático de otimização [36]. 5.1 Otimização de Perdas Elétricas O obetivo desta aplicação é minimizar as Perdas Elétricas em um sistema. Logo, uma ação do controle é indicada para a redução destas perdas. Neste trabalho a ação considerada é a instalação do capacitor shunt. Este modelo é desenvolvido e integrado a um programa á escrito de fluxo da carga. O estudo é realizado em duas etapas: Primeiramente, as barras críticas nos sistemas são identificadas usando a técnica do vetor tangente [74]. Na segunda etapa, os algoritmos de otimização PSO e HPSOM são aplicados individualmente para calcular a quantidade ideal de shunt a ser instalado em cada barra identificada a fim de obedecer a função obetivo. 5.1.1 Formulação do Problema O problema de otimização de perdas elétricas é basicamente um problema de otimização não linear, que minimiza uma função obetivo sueito a restrições de igualdades e desigualdades como segue: Minimizar f (x) (5.1) Sueito a g ( x) = 0 h xˆ min h( x) h xˆ x min ˆ max max

44 onde f (x) : função escalar que representa o obetivo do problema, a redução de perdas na área de interesse. 2 = loss i i SH = VV k ( Gk cosθ k + Bk senθ k ) GkV f( x) P ( V, θ, b ) sbs k sbl sbl conunto de barras ligadas à. x : vetor das variáveis de decisão, dado por x = V i, θ, B ) ( i sh i sbus, conunto de barras do sistema sbs, conunto de barras candidatas à ação de controle V i Tensão nas barras θ i Ângulo nas barras Bsh Valor da suceptância instalada nas barras. g (x) : conunto de equações representando o sistema de fluxo de potência clássico. esp P( spv, g(x) = Q( spq) esp spq) P( Q cal spv, spq cal ( spq) que será dividido em parte ativa e reativa, da seguinte forma: esp esp [ P spv P ] g 1 ( x) = (, spq) spv, spq esp esp [ Q spq P ] g 1 ( x) = ( ) ( spq) spv conunto de barras de geração. spq conunto de varras de carga. h (x) :vetor com os limites superior e inferior de funções que precisem ter seus limites controlados. No caso o controle será sobre a potência reativa em spv. min h = min Q spv max max h = Q spv

45 xˆ :vetor que contêm as variáveis de decisão que precisa manter seus limites dentro de uma faixa de operação. xˆ min min min = V spq b sh T xˆ max max min = V spq b sh T Î : Matriz que obedece ao seguinte critério: I ˆ. x = xˆ Logo: x V,θ R ( 2* nbus+ nbs) nbus R B sh nbs R P Loss 1 R g ( ) ( npv+ npq) R 1 x g ( ) (npq) R 2 x h (x) (npv) R xˆ onde ( npq+ nbs) R nbus número de barras do sistema nbs número de barras candidatas para o controle nbs número de barras na área de controle npv número de barras de geração do sistema npq número de barras de carga do sistema 5.1.2 Metodologia Para minimizar as perdas elétricas, necessita-se de uma ação de controle. Logo, uma ação de controle indicada é a instalação de capacitância shunt. Esta ação será utilizada nesse trabalho. O cálculo do valor ideal de shunt a ser instalado em cada barra identificada para obedecer à função obetivo (redução de perdas elétricas) é um problema de programação não linear sueito a uma série de restrições.

46 Os algoritmos PSO e HPSOM foram desenvolvidos e integrados em um programa á escrito de fluxo da carga. Os resultados alcançados por ambos serão comparados entre si e também serão comprados com os resultados obtidos pela aplicação do método preditorcorretor de pontos interiores (MPC) desenvolvido num outro trabalho [36]. Para cumprir a meta estabelecida acima, a seguinte metodologia será adotada: a) Através do método do vetor tangente, serão identificadas as áreas críticas para redução de perdas elétricas nos sistemas IEEE 14, 30, 57 e 118 barras. Este passo foi utilizado pelos ambos os algoritmos (PSO e HPSOM) e também por MPC. b) Serão realizadas várias simulações com os algoritmos PSO e HPSOM, variando-se o número de população de partículas no enxame e o número de iterações. 5.1.3 Análise Preliminar dos resultados Nesta seção serão analisados os resultados obtidos pela metodologia proposta. Para tanto, serão utilizados os sistemas IEEE 14, 30, 57 e 118 barras. Os parâmetros referentes ao processo de otimização são os mesmos das Tabela 5.1 e 5.2, alterando-se apenas o conunto de barras selecionadas. Note que o HPSOM tem um parâmetro a mais, o que diz respeito à taxa de mutação, que foi fixada em 30%. Para cada sistema serão identificadas as áreas de atuação (BCS Barras Crítica do sistema e TBS Conunto de todas as barras de carga do sistema) e, através dos algoritmos PSO e HPSOM um valor ótimo de compensação shunt será encontrado. Também será apresentado o valor obtido pelo MPC com a finalidade de comparação. No caso dos algoritmos PSO e HPSOM, foram realizadas várias simulações variando os números das partículas e o número de iterações, com o obetivo de estudar as melhores configurações dos seus parâmetros. No sistema IEEE 14 serão apresentados e analisados os resultados obtidos com população variando de 5, 10 e 15 nos dois algoritmos PSO e HPSOM. Para os sistemas de IEEE 30, 57, 118 serão apresentados os resultados obtidos utilizando também população de 5,10 e 15, porém com iteração de 5,25,50,75 e 100, com o obetivo de tornar os dados mais apresentáveis e mais fácies de serem agrupados em pequenas tabelas. Foram repetidas 50 simulações para cada combinação e os resultados aqui apresentados foram selecionados aleatoriamente entre estes 50 simulações. Tabela 5.1 Parâmetros utilizados para as simulações Limite de Shunt Máximo Limite de Shunt Mínimo Limite de Tensão Máxima 1 pu -1 pu Limite de Tensão Mínima 0.9 o µ 0.5 1.06 pu αº 0.999995 γ 0.35 0 σ 0.2

47 Tabela 5.2 Parâmetros do PSO/HPSOM utilizados para as simulações Número de População 5, 10 e 15 Número de Iterações 100 Wmax (Maximo do peso da inércia) 0.9 Wmin (Mínimo do peso da inércia) 0.2 C1; C2 (coeficientes de aceleração) 1 Taxa de Mutação (HPSOM) 30% 5.1.4 Identificação das Áreas A idéia usada neste trabalho é reduzir a perda de potência ativa em uma área crítica. A redução da perda é executada na área mais vulnerável ao colapso da tensão. Esta área crítica é facilmente determinada com a auda do vetor tangente. Tal vetor é dado pela equação (5.7), e mais informações sobre está técnica podem ser encantados na referência [29]. O modelo de fluxo de potência utilizado nesse trabalho pode ser apresentado pelo conunto de equações: f ( x, σ ) (5.2) Ondeσ é o parâmetro que conduz o sistema de um ponto estável para um ponto de instabilidade. O Vetor Tangente indica como as variáveis de estado variam de acordo com a mudança de carregamento do sistema e pode ser obtido a partir da matriz acobiana do fluxo de potência. Assumindo um ponto de operação conhecido Pg Pl Q l = [ J ] θ g θ l V l (5.3) Onde, P, Q: potência consumida na barra. Pi, Qi: potência na barra i. V: tensão da barra correspondente a P e Q. Vi: tensão da barra correspondente a Pi e Qi. θ i: ângulo de tensão na barra i. J : matriz acobiana. σ : parâmetro do sistema. e a carga é acrescida da seguinte forma

48 PLi = PLio (1 + σ ) (5.4) PGi = PGio (1 + σ ) (5.5) QLi = QLio (1 + σ ) (5.6) Onde PLi, PGi e QLi são respectivamente a carga ativa, a potência ativa gerada e carga reativa após a variação de σ. E PLio, PGio e QLio são os fatores iniciais na barra i. Substituindo (5.4) a (5.6) em (5.3) obtêm-se: θ g 1 θ l σ V l = [ J ] 1 P P Q go lo lo (5.7) Onde P θ g, go θ l, Vl, lo P, Q lo (npv) R (npq) R npv número de barras de geração (PV) npq número de barras de carga (PQ) Este vetor da equação (5.7) mostra como as variáveis do estado mudam em função de uma variação dos parâmetros do sistema, e seus maiores componentes indicam as barras mais prováveis para levar o sistema ao colapso da tensão. A aplicação desta técnica aos estudos da sensibilidade da perda é proposta dentro da referência [3]. Entretanto, a referência [4] mostra que o colapso da tensão e a redução da perda podem não ser conectado. Por outro lado, no estudo da referência [5] foi estabelecida uma conexão entre a redução de perdas e os problemas do colapso da tensão. Neste trabalho foram realizados vários experimentos que mostraram bons resultados entre a redução de perdas nas áreas criticas e o problema de colapso da tensão. Baseados neste estudo, aqui foram estabelecidos dois pontos: a redução da perda é executada com a auda de PSO e HPSOM, e tal redução ocorre na área identificada pela equação (5.7). A Tabela 5.3 mostra as quantidades das barras criticas (BCS) e as barras de carga (TBS) para cada sistema, por exemplo, no sistema IEEE 14 barras, apenas 4 barras são considerados com criticas e 9 barras são barras de carga. Tabela 5.3- Quantidade de Barras de Controle IEEE14 IEEE30 IEEE57 IEEE118 BCS 4 6 8 8 TBS 9 24 50 64 A Tabela 5.4 mostra a relação dos nomes das barras criticas (BCS) para cada sistema, por exemplo, no sistema IEEE 14 barras, apenas as 4 barras ( 10,12,13 e 14) são considerados com barras criticas dentro das 9 barras de carga.

49 Tabela 5.4- Relação dos sistemas com respectivas Barras Criticas Sistema BCS (Nomes das Barras) IEEE14 14 13 12 10 IEEE30 30 29 26 19 24 18 IEEE57 31 33 32 30 25 57 56 42 IEEE118 41 39 33 117 35 43 2 3 Antes de mostrar os resultados obtidos pelas simulações nos sistemas (IEEE 14,30, 57 e 118) será apresentado na próxima seção, um pequeno exemplo didático de aplicação num sistema de 4 barras, afim de tornar os conceitos de como aplicar os algoritmos (PSO e HPSOM) mais claros e simples de serem compreendidos. 5.1.5 Exemplo de aplicação usando Sistema de 4 barras A finalidade deste exemplo é de mostrar de uma forma didática, como os métodos (PSO e HPSOM) trabalham e também identificar os elementos envolvidos no processo de otimização. Isto será feito através de explicar e associar a nomenclatura usada pelos métodos com os conceitos á conhecidos na área de engenharia elétrica. O seguinte sistema simples de 4 barras é usado ( os dados do sistema se encontram no Apêndice A): ~ ~ 2 1 3 4 Figure 5.1 Sistema elétrico simples Como caso base, a perda do sistema é dada por 0.2412 pu. A função obetivo deve reduzir este valor. Para esta finalidade, a instalação do capacitor shunt nas barras 3 e 4 é considerada. Estas barras têm bancos dos capacitores disponíveis, e a escala da compensação pode variar de 0 a 1 pu. Quando o processo foi iniciado, a seguinte população foi obtida: Tabela 5.5- A população inicial - sistema 4 barras Barra 3 0 0.0445 0.0380 0.0686 0.0050 Barra 4 0 0.0913 0.0203 0.0919 0.0766 Neste momento, é possível associar um significado físico com o que foi apresentado na seção 2.4 e também com o dicionário mostrado pelo autor do trabalho apresentado em [9]. Uma partícula é relacionada à ação do controle. Neste caso, qualquer par da compensação shunt nas barras 3 e 4 representa uma partícula. A população ou o enxame é um conunto das partículas, e neste exemplo, por simplificação, foi austado a 5. Os efeitos de cada

50 partícula na função obetivo podem ser calculados. Tal cálculo consiste em determinar a perda do sistema quando cada partícula (compensação shunt) é considerada. Para cada partícula, é obtido: Tabela 5.6- Relação das partículas e o seu valor de perdas - sistema 4 barras Partícula 1 2 3 4 5 Perdas 0.2412 0.2236 0.2412 0.2181 0.2356 Dos resultados acima, pode determinar o melhor indivíduo. Como aquela é a primeira iteração, este valor á é o melhor indivíduo de cada partícula. O melhor global é dado pelo resultado do mais eficaz da população, que é dada pela partícula 4 (0.2181). A fim de gerar uma nova população, precisa-se considerar o melhor indivíduo de cada partícula, o melhor global da população, o peso da inércia, o coeficiente de aceleração e também a velocidade da partícula. Até este ponto, o valor inicial da população é mantido igual para os dois algoritmos (PSO e HPSOM) e daqui para adiante o processo de otimização será divido em duas direções: usando PSO e HPSOM. 5.1.5.1 Usando PSO: Como está na primeira iteração e com a população inicial á foi gerada então, seguindo o algoritmo (Figura 2.6), os valores das velocidades das partículas são calculados pela equação 2.3: Tabela 5.7(a)- Relação das partículas e suas velocidades sistema 4 barras (PSO) Partícula 1 2 3 4 5 Barra 3 0.0049 0.0062 0.0026 0.0099 0.0080 Barra 4 0.0021 0.0025 0.0024 0.0024 0.0042 Uma vez que a velocidade é conhecida, a nova população é calculada pela equação 2.7, gerando os seguintes resultados: Tabela 5.7(b)- A nova população (1ª- Iteração) sistema 4 barras (PSO) Partícula 1 2 3 4 5 Barra 3 0.215 0.0492 0.0456 0.0761 0.0294 Barra 4 0.0218 0.0932 0.0658 0.0937 0.0806 O melhor individual pode agora ser obtido da seguinte forma: para cada partícula, o valor nesta iteração é comparado com os valores na iteração precedente. Isto dá os resultados abaixo. O número entre parênteses indica a iteração onde o melhor individual ocorre. Tabela 5.7 (c)- O melhor individual de cada partícula sistema 4 barras (PSO) Partícula 1 2 3 4 5 Melhor Ind. 0.2412(2) 0.2222(2) 0.2273(2) 0.2162(2) 0.2288(2)

51 É importante mencionar que, não necessariamente, todas as partículas produzem resultados melhores com a evolução do processo. Isto significa que, uma partícula qualquer pode se mover para uma posição associada com resultado pior do que obtido na iteração anterior. Isto é, a base do processo cognitivo e estocástico. Pode-se observar que o valor 0.2162 (partícula 4) é o melhor valor global desta população, uma vez que tem o menor valor de perda do sistema. Isto significa que, até então, a partícula 4 com os valores (0.0761, 0.0937) tem os melhores resultados. Então, a barra 3 deve experimentar compensação shunt com o valor de aproximadamente 0.0761 pu, e a barra 4 com o valor shunt de 0.0937 pu. O processo é repetido, e a velocidade de cada partícula deve ser calculada, como também a sua nova posição. Após a quinta e última iteração os resultados obtidos foram: Tabela 5.7(d)- A população da última (5ª- Iteração) sistema 4 barras (PSO) Partícula 1 2 3 4 5 Barra 3 0.0586 0.0895 0.0809 0.0782 0.0830 Barra 4 0.0870 0.0942 0.1541 0.1102 0.1377 Neste caso, a função obetivo para cada partícula é dada por: Tabela 5.7(e)- O melhor global de cada partícula sistema 4 barras (PSO) Partícula 1 2 3 4 5 Perdas 0.2210 0.2133 0.2073 0.2135 0.2089 Desta vez, a partícula 3 está associada com o melhor valor global. Esta partícula indica uma compensação de 0.0809 pu na barra 3 e 0.1541 na barra 4. Note que, nas primeiras duas iterações, a partícula 4 era a melhor global. Esta característica importante mostra que todas as partículas devem ser focalizadas a fim de buscar uma boa direção. Por ser um exemplo ilustrativo, apenas o número de iterações foi empregado como o único critério de parada. 5.1.5.2 Usando HPSOM: Repete-se agora o processo usando o HPSOM. A partir da primeira iteração e com a população inicial á gerada ( Tabelas 5.5-5.6), os valores das velocidades das partículas são calculados pela equação 5.3: Tabela 5.8(a)- Relação das partículas e suas velocidades sistema 4 barras (HPSOM) Partícula 1 2 3 4 5 Barra 3 0.0049 0.0006 0.0087 0.0070 0.0203 Barra 4 0.0021 0.0075 0.0327 0.0055 0.0192 Uma vez que a velocidade é conhecida, a nova população é calculada pela equação 2.7, gerando as seguintes resultados:

52 Tabela 5.8(b)- A nova população (1ª- Iteração) sistema 4 barras (HPSOM) Partícula 1 2 3 4 5 Barra 3 0.0219 0.0451 0.0467 0.0686 0.0050 Barra 4 0.0219 0.0988 0.0530 0.0919 0.0766 Neste momento, o processo de mutação é iniciado, e o valor da equação é calculado. A taxa de mutação usada neste exemplo é de 30%. Isto significa que somente 2 partículas serão selecionadas aleatoriamente do enxame (com a população de 5). Usando a equação 4.1 o valor do mut é calculado da seguinte forma: ω = [,0.1* ( x )] 0 xmax = 0.0100, onde, min x = min 0, x = 1. max 0 As partículas selecionadas aleatoriamente para esta iteração são as partículas 2 e 3. Para ilustrar como a equação do mutação é calculada, o processo do mutação para a partícula 2 da barra 3 é dado pelo : mut (p[2,3])=(0.0451*-1)+0.0100 = -0.0351. Os valores das partículas nas barras 3 e 4, antes e depois da mutação, são dados por: Tabela 5.8(c)- As partículas sorteados para a Mutação sistema 4 barras (HPSOM) Partículas 2 Barra 3 3 Barra 3 2 Barra 4 3 Barra 4 Antes 0.0451 0.0467 0.0988 0.0530 Depois -0.0351-0.0367-0.0888-0.0430 A nova população após a mutação é dada por: Tabela 5.8(d)- A nova população antes e depois da Mutação sistema 4 barras (HPSOM) Partícula 1 2 3 4 5 Barra 3 0.0219-0.0351 0.0367 0.0686 0.0050 Barra 4 0.0219-0.0888-0.0430 0.0919 0.0766 Para esta população o valor da função obetivo associado a cada partícula é calculado da seguinte forma: Tabela 5.8(e)- Relação das partículas e o seu valor de perdas - sistema 4 barras (HPSOM) Partícula 1 2 3 4 5 Perdas 0.2412 0.2236 0.2412 0.2158 0.2274 O número entre parentes indica a iteração onde o melhor individual foi encontrado. Tabela 5.8 (f)- O melhor individual de cada partícula sistema 4 barras(hpsom) Partícula 1 2 3 4 5 Melhor Ind. 0.2412(1) 0.2236(1) 0.2412(1) 0.2158(2) 0.2274(2) O valor 0.2158 (isto é a partícula (0.0686, 0.0919)) é a partícula com o melhor global desta população, uma vez que tem o menor valor de perda do sistema. Isto significa que, a barra 3 deve experimentar compensação shunt com o valor de aproximadamente 0.0686 pu, e a barra 4 com o valor shunt de aproximadamente 0.0919 pu. O processo é repetido, e a

53 velocidade de cada partícula deve ser calculada, bem como também a mutação e sua nova posição. Após a quinta e última iteração os resultados obtidos foram: Tabela 5.8(g)- A população da última (5ª- Iteração) sistema 4 barras (HPSOM) Partícula 1 2 3 4 5 Bus 3 0.1131 0.0673 0.2193-0.1397 0.1584 Bus 4 0.1292 0.1022 0.1107-0.1064 0.1325 Neste caso, a função obetiva para cada partícula é dada por: Tabela 5.8(h)- O melhor global de cada partícula sistema 4 barras (HPSOM) Partícula 1 2 3 4 5 Perdas 0.2257 0.2182 0.1899 0.2137 2034 Desta vez, a partícula 3 está associada com o melhor valor global. Esta partícula indica uma compensação shunt de 0.2193 pu na barra 3 e 0.1107 na barra 4. Note que, nas primeiras duas iterações, a partícula 4 era o melhor global. Nota-se, os resultados finais foram diferentes nos dois casos usando o mesmo número de população e iterações a pesar que, a partícula associada com o menor perda foi por acaso a mesma (partícula 3), no PSO a perda do sistema foi de 0.2073 e no HPSOM foi de 0.1899, desta forma o HPSOM apresentou melhor desempenho. 5.1.6 Simulação do Sistema IEEE14 barras Nesta seção serão apresentados os resultados de simulações no Sistema IEEE 14 barras, inicialmente na barras criticas (BCS) e em seguida em todas as barras (TBS). 5.1.6.1 Simulação nas BCS IEEE14 As Tabelas 5.9 e 5.11 mostram os resultados obtidos pelas simulações realizadas para o sistema IEEE 14 barras para fator de carregamento de 1pu. Analisando as tabelas, e comparando os três métodos, pode se observar melhores resultados obtidos pelo HPSOM comparando com PSO e MPC na redução de perdas. O HPSOM apresentou melhores resultados comparando com MPC desde a primeira simulação com população = 5 e iterações =5 (ver Tabela 5.11). No caso de PSO e MPC, o algoritmo PSO apresentou uma redução melhor a partir da iteração = 35 ( ver Tabela 5.10). Tabela 5.9 - Resultados obtidos pelo MPC Sistema IEEE 14 Barras Criticas (BCT) Iterações = 6 Tempo de Simulação (s) = 0.89 Perda de Potência Ativa (antes) (pu) = 0.091 Perda de Potência Ativa (depois) (pu) = 0.0903 Redução de P.P. Ativa (pu) = 0.0005

54 Tabela 5.10 - Resultados obtidos pelo PSO no sistema IEEE 14 barras Criticas Iteração Numero de População = 5 - PSO Perda Potência Ativa (antes) (pu) = 0.09099 P.P. Ativa (depois) (pu) Redução de P. P. Ativa (pu) Tempo de simulação (s) Total Shunt instalado (pu) 5 0.09041622 0.00057395 30.49 0.11324086 10 0.09041622 0.00057395 61.74 0.11324086 15 0.09041622 0.00057395 91.51 0.11324086 20 0.09041622 0.00057395 119.80 0.11324086 25 0.09041622 0.00057395 147.20 0.11324086 30 0.09041622 0.00057395 174.83 0.11324086 35 0.09038501 0.00060516 199.05 0.09891350 40 0.09037969 0.00061048 223.33 0.11457272 45 0.09037967 0.00061050 249.15 0.11009633 50 0.09037343 0.00061674 275.57 0.10464175 55 0.09037065 0.00061952 301.98 0.10491014 60 0.09036921 0.00062096 328.40 0.10541847 65 0.09036818 0.00062199 355.15 0.10583967 70 0.09036766 0.00062251 381.57 0.10634546 75 0.09036750 0.00062267 408.05 0.10656279 80 0.09036742 0.00062275 434.52 0.10658013 85 0.09036742 0.00062275 460.88 0.10658582 90 0.09036742 0.00062275 487.30 0.10658718 95 0.09036742 0.00062275 513.78 0.10658730 100 0.09036742 0.00062275 540.64 0.10658731 (a)- PSO (b)- HPSOM Figura 5.2 A evolução dos algoritmos PSO/HPSOM IEEE 14- Barras Criticas

55 Tabela 5.11 - Resultados obtidos pelo HPSOM sistema IEEE 14 barras Criticas Iteração Numero de População = 5 HPSOM Perda Potência Ativa (antes) (pu) = 0.09099 P.P. Ativa (depois) (pu) Redução de P. P. Ativa (pu) Tempo de simulação (s) Total Shunt instalado (pu) 5 0.09036308 0.00062709 112.65 0.10440000 10 0.09036308 0.00062709 135.44 0.10440000 15 0.09036308 0.00062709 158.84 0.10440000 20 0.09036164 0.00062852 179.82 0.10523192 25 0.09036027 0.00062990 198.77 0.10608202 30 0.09036027 0.00062990 217.61 0.10608202 35 0.09036020 0.00062997 235.46 0.10612540 40 0.09036019 0.00062998 253.53 0.10613050 45 0.09035885 0.00063132 271.99 0.10526498 50 0.09035436 0.00063580 289.78 0.10561314 55 0.09035138 0.00063879 306.54 0.10667764 60 0.09034805 0.00064212 322.85 0.10706952 65 0.09034704 0.00064313 340.15 0.10726002 70 0.09034622 0.00064395 357.56 0.10711262 75 0.09034580 0.00064437 373.77 0.10710461 80 0.09034559 0.00064458 389.97 0.10717227 85 0.09034548 0.00064469 406.12 0.10721709 90 0.09034548 0.00064469 422.48 0.10722469 95 0.09034546 0.00064471 438.69 0.10722513 100 0.09034546 0.00064471 454.78 0.10722532 (a)- PSO (b)- HPSOM Figure 5.3-: O comportamento das partículas usando PSO/HPSOM - Pop(5)