Estudo de Aplicação do Algoritmo de Otimização por Enxame de Partícula na Resolução de Problemas de Otimização Ligados ao SEP

Tamanho: px
Começar a partir da página:

Download "Estudo de Aplicação do Algoritmo de Otimização por Enxame de Partícula na Resolução de Problemas de Otimização Ligados ao SEP"

Transcrição

1 UNIFEI Universidade Federal de Itaubá Programa de Pós-Graduação em Engenharia Elétrica Pró-Diretoria de Pesquisa e Pós-Graduação Estudo de Aplicação do Algoritmo de Otimização por Enxame de Partícula na Resolução de Problemas de Otimização Ligados ao SEP Área de Sistemas Elétricos de Potência Ahmed Ali Abdalla Esmin

2 Estudo de Aplicação do Algoritmo de Otimização por Enxame de Partícula na Resolução de Problemas de Otimização Ligados ao SEP ORIENTADORES: PROF. GERMANO LAMBERT TORRES PROF. ANTONIO CARLOS ZAMBRONI DE SOUZA TESE APRESENTADA À UNIVERSIDADE FEDERAL DE ITAJUBÁ - UNIFEI COMO REQUISITO DO PROGRAMA DE DOUTORADO ITAJUBÁ ESTADO DE MINAS GERAIS BRASIL ABRIL / 2005

3 Ficha catalográfica elaborada pela Biblioteca Mauá Bibliotecária Jacqueline R. de Oliveira Balducci- CRB_6/1698 E74e Esmin, Ahmed Ali Abdalla. Estudo de Aplicação do Algoritmo de Otimização por Enxame de Partícula na Resolução de Problemas de Otimização Ligados ao SEP / por Ahmed Ali Abdalla Esmin. -- Itaubá (MG) : [s.n.], p. : il. Orientador : Prof. Dr. Germano Lambert Torres Orientador : Prof. Dr. Carlos Zambroni de Souza Tese (Doutorado) Universidade Federal de Itaubá - Departamento de Elétrica. 1. Otimização. 2. Otimização por Enxame de Partícula. 3. Sistemas Híbridos. 4. Sistemas Inteligentes Evolutivos. 5. Otimização de Perdas Elétricas. 6. Colapso de Tensão. I. Torres, Germano Lambert, orient. II. Souza, Carlos Zambroni de, orient. III. Universidade Federal de Itaubá. IV. Título. CDU (043)

4 À meus pais, pelo carinho e apoio apesar da distancia À meus filhos, Tamara, Tarik e Tamires, pelo carinho À minha esposa, Gilvanete, pela compreensão

5 Agradecimentos Manifesto meus sinceros agradecimentos às seguintes pessoas e instituições: Aos Professores Germano Lambert Torres e Antonio Carlos Zambroni de Souza, pela amizade e valiosa orientação que tornou possível a conclusão deste trabalho Aos colegas de doutorado da UNIFEI, pelo apoio À Universidade Federal de Engenharia de Itaubá, através do Instituto de Engenharia Elétrica, pela oportunidade de capacitação À Fundação Educacional Comunitária Formiguense - FUOM, pelo apoio À CAPES, pelo auxílio A minha esposa e meus filhos pelo apoio e dedicação E a todas as pessoas que, direta ou indiretamente, contribuíram para a realização deste trabalho

6 RESUMO Esta tese apresenta um estudo sobre as técnicas de otimização evolutivas e mais especificamente sobre o algoritmo de Otimização por Enxame de Partícula (PSO). Um estudo sobre o comportamento do algoritmo PSO é realizado e um novo algoritmo chamado de Algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM) é apresentado. Este trabalho apresenta também os algoritmos PSO e HPSOM como ferramentas para o estudo da redução de perdas elétricas. Este problema pode ser formulado como um problema de otimização não linear. A aplicação proposta consiste em usar um Fluxo de Potência Ótimo (FPO) baseado na função da minimização de perdas. O estudo é realizado em duas etapas. Primeiramente, usando a técnica do vetor do tangente, a área crítica do sistema de potência é identificada sob o ponto da vista da colapse da tensão. Em seguida, uma vez que esta área é identificada, os algoritmos PSO e HPSOM entram em ação calculando a quantidade de compensação shunt para cada barra do sistema. O modelo proposto foi examinado e testado com resultados promissores usando os sistemas IEEE 14,30, 57 e 118 barras.

7 ABSTRACT This thesis presents particle swarm optimization (PSO) as a tool for loss reduction study. This issue can be formulated as a nonlinear optimization problem. The proposed application consists of using a developed optimal power flow (OPF) based on loss minimization (LM) function by expanding the original PSO. The study is carried out in two steps. First, by using the tangent vector technique, the critical area of the power systems is identified under the point of view of voltage instability. Second, once this area is identified, the PSO technique calculates the amount of shunt reactive power compensation that takes place in each bus. The proposed approach has been examined and tested with promising numerical results using the IEEE 14, 30, 57, and 118 buses systems.

8 i Índice Capítulo 1 Introdução MOTIVAÇÃO OBJETIVOS METODOLOGIA ORGANIZAÇÃO...3 Capítulo 2 Revisão Bibliográfica OTIMIZAÇÃO Otimização Local Otimização Global COMPUTAÇÃO EVOLUCIONÁRIA (CES) Histórico ALGORITMOS GENÉTICOS (AG S) Características Gerais dos Algoritmos Genéticos Operadores Genéticos Parâmetros Genéticos OTIMIZAÇÃO POR ENXAME DE PARTÍCULAS (PSO) O Algoritmo PSO O Comportamento do PSO Considerações sobre a semelhança entre PSO e EAs Origens e Terminologia Modelo do Melhor Global (gbest) O Modelo do Melhor Local ( Lbest ) A Versão Binária do PSO AS PRINCIPAIS PROPOSTAS DE MELHORIAS DO PSO Melhorias na Taxa de Convergência...19 Capítulo 3 Uma aplicação: O Auste Automático das Funções de Pertinência Fuzzy Usando PSO INTRODUÇÃO O PACOTE COMPUTACIONAL ORIGINAL SIMULAÇÕES DESCRIÇÃO DO MÓDULO TREINAMENTO PSO COMPONENTES DO ALGORITMO PSO Representação das Soluções usando PSO Função de Avaliação e o Critério de Parada Apresentação do Algoritmo TESTES CONSIDERAÇÕES SOBRE ESTA APLICAÇÃO...32 Capítulo 4 Um novo algoritmo: Algoritmo Híbrido de Otimização por Enxame de Partícula com Mutação HPSOM INTRODUÇÃO...34

9 ii 4.2 O ALGORITMO HPSOM TESTES E EXPERIMENTO DISCUSSÕES DOS RESULTADOS...41 Capítulo 5 Aplicação do PSO e HPSOM na Resolução de Problema de Otimização de Perdas Elétricas OTIMIZAÇÃO DE PERDAS ELÉTRICAS Formulação do Problema Metodologia Análise Preliminar dos resultados Identificação das Áreas Exemplo de aplicação usando Sistema de 4 barras Simulação do Sistema IEEE14 barras Simulação do Sistema IEEE30 barras Simulação do Sistema IEEE57 barras Simulação do Sistema IEEE118 barras Considerações sobre a aplicação...75 Capítulo 6 Conclusões CONTRIBUIÇÕES ALCANÇADAS PROPOSTAS DE TRABALHO FUTURO...77 Referências Bibliográficas...79 Apêndice A Dados do Sistema de 4 Barras...86 Apêndice B Publicações Associadas ao Trabalho e Realizadas no Período...87 Apêndice C Artigo da Tese Publicado no IEEE Transactions on Power Systems.88

10 iii Índice de Tabelas Tabela 3.1 Posições iniciais para o treinamento Tabela 3.2 Parâmetros do PSO...29 Tabela 3.3 Iterações após o treinamento com PSO Tabela 3.4 Resultados de Simulações Tabela 4.1- O espaço de busca e os valores iniciais das funções de teste...37 Tabela Resultados de média da melhor aptidão para 100 execuções (médio da melhor aptidão ± erro padrão)...38 Tabela 4.3- Resultados de média da melhor aptidão para 100 execuções - PSO, HPSOM e AG- (médio da melhor aptidão ± erro padrão)...41 Tabela As taxas de cruzamento e mutação usados pelo AG (padrão)...41 Tabela 5.1 Parâmetros utilizados para as simulações...46 Tabela 5.2 Parâmetros do PSO/HPSOM utilizados para as simulações...47 Tabela 5.3- Quantidade de Barras de Controle...48 Tabela 5.4- Relação dos sistemas com respectivas Barras Criticas...49 Tabela 5.5- A população inicial - sistema 4 barras...49 Tabela 5.6- Relação das partículas e o seu valor de perdas - sistema 4 barras...50 Tabela 5.7(a)- Relação das partículas e suas velocidades sistema 4 barras (PSO)...50 Tabela 5.7(b)- A nova população (1ª- Iteração) sistema 4 barras (PSO)...50 Tabela 5.7 (c)- O melhor individual de cada partícula sistema 4 barras (PSO)...50 Tabela 5.7(d)- A população da última (5ª- Iteração) sistema 4 barras (PSO)...51 Tabela 5.7(e)- O melhor global de cada partícula sistema 4 barras (PSO)...51 Tabela 5.8(a)- Relação das partículas e suas velocidades sistema 4 barras (HPSOM)...51 Tabela 5.8(b)- A nova população (1ª- Iteração) sistema 4 barras (HPSOM)...52 Tabela 5.8(c)- As partículas sorteados para a Mutação sistema 4 barras (HPSOM)...52 Tabela 5.8(d)- A nova população antes e depois da Mutação sistema 4 barras (HPSOM)...52 Tabela 5.8(e)- Relação das partículas e o seu valor de perdas - sistema 4 barras (HPSOM)...52 Tabela 5.8 (f)- O melhor individual de cada partícula sistema 4 barras(hpsom)...52 Tabela 5.8(g)- A população da última (5ª- Iteração) sistema 4 barras (HPSOM)...53 Tabela 5.8(h)- O melhor global de cada partícula sistema 4 barras (HPSOM)...53 Tabela Resultados obtidos pelo MPC Sistema IEEE Tabela Resultados obtidos pelo PSO no sistema IEEE 14 barras Criticas...54 Tabela Resultados obtidos pelo HPSOM sistema IEEE 14 barras Criticas...55 Tabela 5.12 (a,b) - Resultados obtidos pelos PSO e HPSOM- IEEE 14 BCS...56 Tabela 5.13 (a,b) - Resultados obtidos pelos PSO/HPSOM- IEEE 14 BCS criticas...57 Tabela Resultados obtidos pelo MPC Sistema IEEE Tabela 5.15(a,b) - Resultados obtidos pelos PSO/HPSOM- sistema IEEE 14 TBS...59 Tabela 5.15(c) - Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 14 TBS Tabela Resultados obtidos pelo MPC Sistema IEEE Tabela 5.17(a,b) - Resultados obtidos pelos PSO/HPSOM- sistema IEEE 30 BCS...61

11 Tabela 5.17(c) -Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 30 BCS Tabela Resultados obtidos pelo MPC Sistema IEEE Tabela 5.19 (a,b) - Resultados obtidos pelo PSO sistema IEEE 30 Todas as Barras...64 Tabela 5.19(c) -Resumo dos resultados obtidos pelos PSO/HPSOM-sistema IEEE 30 TBS Tabela 5.20 (a,b) - Resultados obtidos pelo PSO/HPSOM sistema IEEE 30 TBSiteração = Tabela 5.20(c) - Resumo dos resultados obtidos pelo PSO/HPSOM sistema IEEE 30 TBS- iteração = Tabela Resultados obtidos pelo MPC Sistema IEEE Tabela 5.22(c)-Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 5 BCS Tabela 5.22(a,b) - Resultados obtidos pelo PSO sistema IEEE 57 Barras Criticas...68 Tabela Resultados obtidos pelo MPC Sistema IEEE Tabela 5.24(c) Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 5 TBS Tabela 5.24(a,b) - Resultados obtidos pelo PSO sistema IEEE 57 TBS Tabela Resultados obtidos pelo MPC Sistema IEEE Tabela 5.26(a,b) - Resultados obtidos pelo PSO sistema IEEE 118 BCS...71 Tabela 5.26(c) -Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEE118 CBS Tabela Resultados obtidos pelo MPC Sistema IEEE Tabela 5.28(a,b) - Resultados obtidos pelo PSO sistema IEEE 118 TBS Tabela 5.28(c) - Resumo dos resultados obtidos pelos PSO/HPSOM- sistema IEEE 118 TBS iv

12 v Índice de Figuras Figura Um exemplo de função f ( x ) = x 12 x + 42 x 55 x, com o * mínimo local x e o mínimo global x....6 * A Figura Indivíduos de uma população e a sua correspondente roleta de seleção....9 Figura 2.3 O Pseudocódigo do AGs...9 Figura Um exemplo de crossover de um ponto Figura O Pseudocódigo do algoritmo de PSO básico Figura Tela básica do programa...22 Figura Exemplos de simulação do pacote computacional Figura 3.3 Parâmetros das funções de pertinência Figura 3.4 Exemplo de auste de uma função de pertinência Figura 3.5 Funções de pertinência originais...28 Figura 3.6 Posições iniciais de treinamento Figura 3.7 Simulações sem treinamento...30 Figura 3.8 Simulações após treinamento genético Figura 3.9 Funções de pertinência após o auste com PSO...31 Figura o pseudocódigo do algoritmo HPSOM...35 Figura 4.2 A função Rastrigin em 3D...37 Figura 4.3- PSO versus HPSOM para a função Spherical (esfera) - f Figura 4.4- PSO versus HPSOM model for Rosenbrock function- f Figura PSO versus HPSOM para a função for Griewank - f Figura PSO versus HPSOM para a função Rastrigin - f Figure 4.7- Os comportamentos das partículas PSO/HPSOM para a função Esfera (pop = 3)- f Figure 5.1 Sistema elétrico simples...49 Figura 5.2 A evolução dos algoritmos PSO/HPSOM IEEE 14- Barras Criticas...54 Figure 5.3-: O comportamento das partículas usando PSO/HPSOM - Pop(5)...55 Figure 5.4- A evolução dos algoritmos PSO/HPSOM a partir de 20ª iteração - Pop(5)..56 Figure5.5- A evolução dos algoritmos PSO/HPSOM - IEEE Figure 5.6- A evolução dos algoritmos PSO/HPSOM - IEEE14- Todas as Barras...60 Figure 5.7- A evolução dos algoritmos PSO/HPSOM - IEEE30 - BCS...62 Figure 5.8- A evolução dos algoritmos PSO/HPSOM - IEEE30 TBS...63 Figure A evolução dos algoritmos PSO/HPSOM - IEEE57 - BCS...67 Figura A evolução dos algoritmos PSO/HPSOM- IEEE57 TBS Figure A evolução dos algoritmos PSO/HPSOM - IEEE118 - BCS...72 Figure A evolução dos algoritmos PSO/HPSOM - IEEE118 - TBS...73

13 1 Capítulo 1 Introdução Formas de otimização são importantes na vida cotidiana. Muitos problemas científicos, sociais, econômicos e de engenharia têm parâmetros que podem ser austados de forma a produzir um resultado mais deseável. Ao longo dos anos foram desenvolvidas numerosas técnicas para resolver tais problemas. Técnicas de otimização vêm sendo aplicadas em diversos problemas no Sistema Elétricos de Potência (SEP). Dependendo do enfoco do estudo, a técnica de otimização empregada pode levar em conta algumas simplificações no conunto das equações. Tais simplificações podem simplificar a solução e conduz a aplicação de técnicas lineares [1,2]. Porém, outros problemas podem requerer uma formulação mais complexa, como os conuntos de equações envolvidos podem não ser linearizados. Neste caso, devem ser empregadas técnicas não lineares. Um dos problemas não linear analisado em sistemas de potência é o problema de redução de perdas [3] que considera como variáveis de controle, a geração de potência ativa, nível de tensão de geradores, entre outros. Este problema não linear pode ser importante para análise de estabilidade de tensão [4] ou somente melhorar as condições operacionais de sistema [5]. Referências [4] e [5] apresentaram um fluxo ótimo de potência resolvido por método preditor-corretor de pontos interiores baseado em uma função de barreira logarítmica [6]-[8]. A técnica empregada nessas referências também foi aplicada para uma variedade de problemas em sistemas de potência. Outras metodologias, como o métodos quase-newton e o método de direção conugada poderiam ser usados para resolver estes problemas. Estes métodos apresentem, em geral, um desempenho satisfatório. A idéia neste trabalho é analisar, mais uma vez, o problema de redução de perdas. Porém, a ferramenta de análise empregada pertence à família de Algoritmo Evolutiva. É uma técnica relativamente nova conhecida como Otimização por Enxame de Partícula (Particle Swarm Optimization - PSO) [9,11], que resolve problemas simulando comportamento de enxame. Esta ferramenta pode ter um amplo campo de aplicações em sistemas de potência. Por exemplo, a referência [9] enfocou nos problemas de minimização de custo de combustível, melhoria de perfil da tensão e melhoria de estabilidade de tensão. O PSO foi originalmente inspirado no comportamento sócio biológico associado com grupos de pássaros. É um método de otimização baseado em população e foi primeiro proposto pelo Kennedy e Eberhart [10,11]. Algumas das características interessantes do PSO incluem a facilidade de implementação e o fato que nenhuma informação de gradiente é requerida. Pode ser usado para resolver uma gama de diferentes problemas de otimização, incluindo a maioria dos problemas que podem ser resolvidos através dos Algoritmos Genéticos. Neste trabalho, algumas modificações serão incorporadas no método para torná-lo mais robusto. O resultado é um algoritmo novo chamado de algoritmo Híbrido de Otimização por Enxame de Partícula com Mutação (HPSOM).

14 2 Este trabalho apresenta e investiga os comportamentos das novas ferramentas (PSO e HPSOM) e também apresenta a aplicação destas ferramentas para resolver o problema de redução de perdas elétricas. 1.1 Motivação Com a crescente complexidade dos problemas a resolver, sempre haverá uma necessidade por melhores algoritmos de otimização. No caso especifico da área de engenharia elétrica, o Sistema Elétrico de Potência é um sistema dinâmico de grande complexidade e que está aberto à realização de estudos de problemas de otimização em vários campos, como, por exemplo, a otimização de perdas e o estudo de estabilidade. Por outro lado, o método PSO se apresenta com uma promissora forma de otimização, e como é recente, na literatura não se encontra um estudo mais abrangente de resolução de problemas complexos e sobre tudo ligados ao SEP. Este trabalho se propõe a realizar vários estudos de aplicação e de comportamento do PSO na resolução de problemas complexos ligados ao SEP. 1.2 Obetivos Podem ser resumidos os principais obetivos deste trabalho como segue: Realização de estudo teórico sobre o algoritmo PSO e seu comportamento; Desenvolvimentos de aplicações usando o algoritmo PSO para minimizar as funções de pertinência fuzzy; Desenvolver e testar o novo algoritmo HPSOM e provar o seu sucesso quando aplicado para resolver problemas de otimização local ou global e com melhor desempenho. A investigação e o desenvolvimento de aplicação usando os algoritmos PSO e HPSOM para resolver problemas ligados ao SEP como o problema de perdas elétricas. 1.3 Metodologia Será necessária a realização de estudos teóricos e práticos, iniciando-se por um estudo teórico sobre o PSO e seu comportamento. No caso de estudo de aplicação, será adotada uma metodologia experimental. Será feita uma analise de comportamento e desempenho do PSO onde serão mostrados problemas ligados a atualização da sua velocidade, chamado de problema de estagnação e a proposta de um novo algoritmo para solucionar este problema chamado de HPSOM. Para provar o seu sucesso serão realizados vários experimentos usando tipos diferentes de funções (unimodal e multimodal) envolvendo problemas de minimização. Para minimizar as perdas elétricas, neste trabalho será utilizado como ação de controle a instalação de capacitância shunt. O cálculo do valor ideal de shunt a ser instalado em cada barra identificada para obedecer à função obetivo (redução de perdas elétricas) é um problema de programação não linear. Os algoritmos PSO e HPSOM serão

15 3 implementados individualmente, e os resultados alcançados serão comparados com os resultados obtidos pelo método preditor-corretor de pontos interiores (MPC). Para cumprir a meta estabelecida acima, a seguinte metodologia será adotada: a) Através do método do vetor tangente serão identificadas as áreas críticas para redução de perdas elétricas nos sistemas IEEE 14, 30, 57 e 118 barras. Este passo será utilizado pelos algoritmos PSO e HPSOM como foi utilizado pelo MPC. b) Serão realizadas várias simulações com os algoritmos PSO e HPSOM variando-se o número de população de partículas no enxame e o número de iterações. c) finalmente os resultados serão analisados e comparados. 1.4 Organização O Capítulo 2 inicia com uma introdução sobre a teoria de otimização, seguida por uma prévia revisão das técnicas evolutivas existentes, e em especial os Algoritmos Genéticos, usados para resolver problemas de otimização. Seguido por uma descrição da Otimização por Enxame de Partícula, com uma discussão das suas principais modificações é apresentada. No capítulo 3 será mostrada uma aplicação do PSO para otimizar as funções de pertinência de um controle Fuzzy, através de apresentação de uma ferramenta para o controle de estacionamento de um carro. Capítulo 4 inicia-se com uma breve analise de comportamento do algoritmo PSO padrão. Em seguida apresentado um novo algoritmo chamado de Algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM), que combine a idéia do enxame de partícula com o conceito de Algoritmos Genéticos. Serão apresentados e discutidos os resultados dos testes entre os dois modelos: PSO e o HPSOM usando funções unimodal e multimodal. No capítulo 5 será apresentada uma aplicação utilizando os algoritmos PSO e HPSOM para resolução de problemas de otimização ligados ao SEP. Será apresentada a aplicação de otimização de perdas elétricas. E por fim, no capitulo 6 serão apresentadas e discutidos as conclusões e os trabalhos futuros.

16 4 Capítulo 2 Revisão Bibliográfica Este capítulo revisa algumas das definições básicas relacionadas à questão da otimização. Uma discussão breve de Computação Evolucionária e Algoritmos Genéticos é apresentada. As origens da Otimização por Enxame de Partículas são discutidas, seguida por uma avaliação das suas principais características. Finalmente, serão apresentadas as principais extensões e modificações recentemente publicadas. 2.1 Otimização Pode-se definir a otimização como sendo a tarefa de determinar as melhores soluções para certos problemas matematicamente formulados. Esta tarefa é de grande importância para muitas profissões. Por exemplo, físicos, químicos e engenheiros estão interessados em maximizar a produção ao proetar uma indústria química, levando em consideração certas restrições, como por exemplo custo e poluição. Os economistas e investigadores de operação por suas vezes, têm que considerar a ótima alocação de recursos em colocações industriais e sociais. Alguns destes problemas envolvem apenas modelos lineares, em que as variáveis são contínuas e apresentam comportamento linear, tanto em relação à função obetivo com às restrições, resultando em problemas de otimização linear para os quais existe uma técnica muito eficiente conhecida como programação linear (PL) [12]. Os outros problemas são conhecidos como problemas de otimização não-linear se exibir qualquer tipo de não-linearidade, sea na função obetivo ou em qualquer de suas restrições. São geralmente muito mais difíceis de serem resolvidos. Estes problemas são o foco deste trabalho. Toda tarefa de busca e otimização possui vários componentes, entre eles: o espaço de busca, onde são consideradas todas as possibilidades de solução de um determinado problema, e a função de avaliação (ou função de custo), que é uma maneira de avaliar os membros do espaço de busca. Existem muitos métodos de busca e funções de avaliação. As técnicas de busca e otimização tradicionais iniciam-se com um único candidato que, iterativamente, é manipulado utilizando algumas heurísticas (estáticas) diretamente associadas ao problema a ser solucionado. Geralmente, estes processos heurísticos não são algorítmicos e sua simulação em computadores pode ser muito complexa. Apesar destes métodos não serem suficientemente robustos, isto não implica que eles seam inúteis. Na prática, eles são amplamente utilizados, com sucesso, em inúmeras aplicações [13]. Por outro lado, as técnicas de computação evolucionária operam sobre uma população de candidatos em paralelo. Assim, elas podem fazer a busca em diferentes áreas do espaço de solução, alocando um número de membros apropriado para a busca em várias regiões. Existem dois tipos de otimização: global e local. A otimização global busca o melhor ponto dentro da totalidade do espaço da busca, enquanto a local tenta encontrar o

17 5 melhor ponto dentro de um subespaço especifico. A definição mais completa será dada nas próximas seções Otimização Local Pode-se definir um ponto mínimo local ou simplesmente, o mínimo local, função f, para uma determinada região A, da seguinte forma: * f ( x A ) f ( x ), x A (2.1) * x A de uma n onde A S R e S denota o espaço de busca. Note que S = R n em problemas sem restrições e note também que A é um subconunto de S. O espaço de busca S pode conter múltiplas regiões A tal que A I A = φ ; quando i. Então, do mesmo modo, i * * x A x A, de forma que o ponto mínimo de cada região A i i i é único. Qualquer * x A i pode ser considerado como o mínimo de A i. Não há nenhuma restrição no valor que a * * função pode assumir para o mínimo, assim sendo f ( x A ) = f ( x ) i A é permitido. O * valor de f ( x A i ) será chamado do mínimo local. A maioria dos algoritmos de otimização requer um ponto de partida x 0 S. Um algoritmo de otimização local deve garantir que será capaz de encontrar o mínimo local * x A i para um conunto A, se x0 A. Muitos algoritmos de otimização local têm sido propostos. Uma distinção será feita entre algoritmos determinísticos, analíticos e os algoritmos estocásticos nas próximas seções. Dentro dos algoritmos determinísticos de otimização local incluem o algoritmo Newton-Raphson [14] e suas variantes, o algoritmo Escalado de Gradiente Conugado (SCG) [15], o quasi-newton [14,16] e a sua família de algoritmos Otimização Global O mínimo global, f ( x * ) x * f ( x ), de uma função f, pode ser definido da seguinte forma: x S (2.2) Onde S é o espaço de busca. Para problemas sem restrições é comum usar S = R n, onde n é a dimensão de x. O algoritmo de otimização global, como no caso dos algoritmos de otimização local descritos acima, também começa pela escolha de um ponto inicial x0 S. Em alguns publicações (por exemplo [14]), há uma definição diferente para o algoritmo de otimização global, definido como sendo um algoritmo capaz de encontrar o mínimo (local) de A S, independentemente da posição atual de x 0. Estes algoritmos consistem em dois processos: O processo dos passos globais" e o processo dos passos locais". Os passos locais normalmente são a aplicação de um algoritmo de otimização

18 6 local, e os passos globais são proetados para assegurar que o algoritmo passará para região A i, onde o processo dos passos locais será capaz de encontrar o mínimo de A i. Estes métodos são chamados de algoritmos globalmente convergentes. Isto significa que eles podem convergir a um mínimo local indiferentemente de sua posição inicial z 0. Estes métodos também são capazes de encontrar o mínimo global. Entretanto, não há nenhum modo geral seguro e conhecido de fazer isto. * * A Figura 2.1 ilustra a diferença entre o mínimo local x A e o mínimo global x. A * x A * x Figura Um exemplo de função f ( x ) = x 12 x + 42 x 55 x, com o * * mínimo local x A e o mínimo global x. 2.2 Computação Evolucionária (CEs) Computação evolucionária (CE) define vários métodos proetados para simular a evolução. Estes métodos baseiam-se, para resolver problemas, em população de pontos, e uma combinação de variação aleatória e da seleção. Neste campo existem várias técnicas, incluindo Algoritmos Evolutivos (AEs), Estratégias de Evolução (SE), Programação Evolutivo (PE), Algoritmos Genéticos (AGs) e Programação Genética (PG) [17,18,19]. CEs diferenciam dos métodos tradicionais de otimização em quatro aspectos [13]: 1. Trabalham com codificação do conunto de parâmetros e não com os próprios

19 7 parâmetros; 2. trabalham com uma população e não com um único ponto; 3. utilizam de informações de custo ou recompensa e não derivadas ou outro conhecimento auxiliar; 4. utilizam de regras de transição probabilísticas e não determinísticas Histórico Antes da teoria de evolução apresentada por Charles Darwin e até meados do século 19, os naturalistas acreditavam que cada espécie na natureza havia sido criada separadamente por um ser supremo ou através de geração espontânea. O trabalho do naturalista Carolus Linnaeus levou a comunidade cientifica a acreditar na existência de uma certa relação entre as espécies. Por outro lado, Thomas Robert Malthus propôs que fatores ambientais, tais como doenças e carência de alimentos, limitavam e influenciavam o crescimento de uma população. Após anos de observações e experimentos, Charles Darwin apresentou em 1858 sua teoria de evolução através de seleção natural, ao mesmo tempo que outro naturalista, Alfred Russel Wallace. No ano seguinte, Darwin publicou o seu livro intitulado On the Origin of Species by Means of Natural Selection com a sua teoria completa, sustentada por muitas evidências cientificas. Por volta de 1900, a moderna teoria da evolução combina a genética e as idéias de Darwin e Wallace sobre a seleção natural, criando o princípio básico de Genética Populacional: a variabilidade entre indivíduos em uma população de organismos que se reproduzem sexualmente é produzida pela mutação e pela recombinação genética. Durante os anos 30 e 40 este princípio foi desenvolvido por biólogos e matemáticos de grandes centros de pesquisa. Nos anos 50 e 60, muitos biólogos começaram a desenvolver simulações computacionais de sistemas genéticos. Entretanto, foi John Holland quem começou a desenvolver sistematicamente as primeiras pesquisas no tema. Desenvolveu suas idéias e em 1975 publicou o seu livro Adaptation in Natural and Artificial Systems [19], hoe considerado a principal referência na área de Algoritmos Genéticos. Desde então, estes algoritmos vêm sendo melhorados e aplicados nos mais diversos problemas de otimização e aprendizado de máquina com sucesso. 2.3 Algoritmos Genéticos (AG s) Os Algoritmos Genéticos formam a parte da área dos sistemas inspirados na natureza; simulando os processos naturais e aplicando-os à solução de problemas reais. São métodos generalizados de busca e otimização que simulam os processos naturais de evolução, aplicando a idéia darwiniana de seleção. São capazes de identificar e explorar fatores ambientais e convergir para soluções ótimas, ou aproximadamente. Na natureza os indivíduos competem entre si por recursos como comida e água. Adicionalmente, entre os animais de uma mesma espécie, aqueles que não obtêm êxito tendem provavelmente a ter um número reduzido de descendentes, tendo, portanto menor probabilidade de seus genes serem propagados ao longo de sucessivas gerações. A combinação entre os genes dos indivíduos que perduram na espécie pode produzir um novo indivíduo muito melhor adaptado às características de seu meio ambiente.

20 8 Os Algoritmos Genéticos utilizam uma analogia direta deste fenômeno de evolução na natureza, onde cada indivíduo representa uma possível solução para um problema dado. A cada indivíduo se atribui uma pontuação de adaptação, dependendo da resposta dada ao problema por este indivíduo. Aos mais adaptados é dada uma maior oportunidade de reproduzir-se mediante cruzamentos com outros indivíduos da população, produzindo descendentes com características de ambas as partes. Um Algoritmo Genético desenvolvido de modo adequado possui elevada probabilidade de que a população (conunto de possíveis respostas) convergirá a uma solução ótima para o problema proposto. Os processos que mais contribuem para a evolução são o cruzamento, mutação e a adaptação baseada na seleção/reprodução. A área biológica mais proximamente ligada aos Algoritmos Genéticos é a Genética Populacional. Algoritmos Genéticos são eficientes para busca de soluções ótimas, ou aproximadamente ótimas, em uma grande variedade de problemas, pois não impõem muitas das limitações encontradas nos métodos de busca tradicionais. Os pesquisadores referem-se a "algoritmos genéticos" ou a "um algoritmo genético" e não "ao algoritmo genético", pois AGs são uma classe de procedimentos com muitos passos separados, e cada um destes passos possui muitas variações possíveis. Os AGs não são as únicas técnicas baseadas em uma analogia da natureza. Por exemplo, as Redes Neurais estão baseadas no comportamento dos neurônios do cérebro Características Gerais dos Algoritmos Genéticos Os AGs são algoritmos de otimização global que empregam uma estratégia de busca paralela, estruturada e voltada em direção da busca de pontos de "alta aptidão", ou sea, pontos nos quais a função a ser minimizada (ou maximizada) tem valores relativamente baixos (ou altos). Os AGs exploram informações históricas para encontrar novos pontos de busca onde são esperados melhores desempenhos. Isto é feito através de processos iterativos, onde cada iteração é chamada de geração. O primeiro passo para a utilização de AGs, como ferramenta para solução de problemas, é a representação destes problemas de maneira que os AGs possam atuar adequadamente sobre eles. Tradicionalmente, os indivíduos são representados genotipicamente por um vetor de valores binários, onde cada elemento deste vetor denota a presença (1) ou ausência (0) de uma determinada característica: o seu genótipo. Os elementos podem ser combinados formando as características reais do indivíduo, ou o seu fenótipo. Entretanto, há casos em que é mais adequado o uso de representação numérica. O princípio básico do funcionamento do AGs é que um critério de seleção vai fazer com que, depois de muitas gerações, o conunto inicial de indivíduos gere indivíduos mais aptos. Um método de seleção muito utilizado é o Método da Roleta, onde indivíduos de uma geração são escolhidos pelo sorteio para fazer parte da próxima geração através do cruzamento. A Figura 2.2 mostra a representação da roleta para uma população composta por 4 indivíduos. Os indivíduos são representados na roleta proporcionalmente ao seu índice de aptidão. Finalmente, a roleta é girada um determinado número de vezes, dependendo do tamanho da população, e são escolhidos para participarão da próxima geração, aqueles indivíduos sorteados na roleta.

21 9 I Indivíduo x i f i (x) Aptidão (x 2 ) Aptidão Relativa , , , ,13 Total 498 1,00 X4 13% X1 2% X2 5% X3 80% Figura Indivíduos de uma população e a sua correspondente roleta de seleção. Um conunto de operações (operadores) é necessário para que, dada uma população inicial, se consiga gerar sucessivas populações que (espera-se) que melhora sua aptidão com o passar do tempo. Estes operadores utilizados são: cruzamento (crossover) e mutação. Eles são utilizados para assegurar que a nova geração sea totalmente nova, mas possui, de alguma forma, características de seus pais. Para prevenir que os melhores indivíduos não desapareçam e seam descartados da população pela manipulação dos operadores genéticos, eles podem ser automaticamente colocados na próxima geração através da reprodução elitista. Esse processo é repetido um determinado número de vezes (numero de gerações). Durante esse processo, os melhores indivíduos, assim como alguns dados estatísticos podem ser armazenados para avaliação. A Figura (2.3) mostrada o pseudocódigo de um algoritmo genético. Criar e inicializar: g - geração atual; t número de gerações para finalizar o algoritmo; P - população inicio g = 0; inicia_população (P, g) avaliação (P, g); repita: g = g +1; seleção_dos_pais (P, g); recombinação (P, g); mutação (P, g); avaliação (P, g); até (g = t) fim Figura 2.3 O Pseudocódigo do AGs

22 Operadores Genéticos Os operadores genéticos transformam a população através de sucessivas gerações, estendendo a busca até chegar a um resultado satisfatório. São necessários para que a população se diversifique e mantenha características de adaptação adquiridas pelas gerações anteriores. O operador de mutação modifica aleatoriamente um ou mais genes de um cromossomo. A probabilidade de ocorrência de mutação em um gene é denominada taxa de mutação Pm. Usualmente, são atribuídos valores pequenos para a taxa de mutação. A idéia intuitiva por trás desse operador é a criação de variabilidade extra na população, mas sem destruir o progresso á obtido no decorrer do processo evolutivo, como é ilustrado na Figura 2.4, fornecendo assim, meios para introdução de novos elementos na população. Desta forma, a mutação assegura que a probabilidade de se chegar a qualquer ponto do espaço de busca nunca será zero, além de contornar o problema de mínimos locais, pois com este mecanismo, altera-se levemente a direção da busca..figura Exemplo de mutação. O operador de cruzamento ou recombinação é responsável pela criação de novos indivíduos por intermédio da combinação de dois ou mais indivíduos (pais). A idéia intuitiva por trás desde operador é a troca de informação entre diferentes soluções candidatas permitindo que características dos pais seam herdados pelas próximas gerações. Ele é considerado o operador genético mais importante, por isso é aplicado com probabilidade maior que a taxa de mutação e dada pela taxa de crossover Pc. As formas de utilização desse operador são: Um-ponto: para a aplicação desse operador, são selecionados dois indivíduos (pais) e a partir de seus cromossomos são gerados dois novos elementos (filhos). Para gerar os filhos, seleciona-se um ponto de corte aleatoriamente nos cromossomopais, de modo que os segmentos a partir do ponto de corte seam trocados, como mostrado no exemplo da Figura 2.5. Multi-pontos: a troca de material genético é feita da mesma forma de um ponto, apenas esta troca é utilizada em muitos pontos. Uniforme: como este operador para cada bit no primeiro filho é decidido (com alguma probabilidade fixa p) qual pai vai contribuir com seu respectivo bit para aquela posição.

23 11 Figura Um exemplo de crossover de um ponto. (a) dois indivíduos são escolhidos. (b) um ponto (2) de crossover é escolhido. (c) são recombinadas as características, gerando dois novos indivíduos Parâmetros Genéticos Os parâmetros genéticos influem no comportamento dos Algoritmos Genéticos e é importante, analisá-los e estabelecê-los conforme as necessidades do problema e dos recursos disponíveis. Tamanho da População: o tamanho da população afeta de uma forma direta o desempenho global e a eficiência dos AGs. Uma população pequena oferece uma pequena cobertura do espaço de busca, causando uma queda no desempenho. Uma grande população fornece uma melhor cobertura do domínio do problema e previne a convergência prematura para soluções locais. Entretanto, com uma grande população tornam-se necessários maiores recursos computacionais, ou um tempo maior de processamento do problema. Taxa de Cruzamento: quanto mais alta for esta taxa, mais rapidamente novos indivíduos serão introduzidos na população. Entretanto, isto pode gerar um efeito indeseado, pois a maior parte da população será substituída podendo ocorrer perda de indivíduos com alta aptidão. Com uma taxa baixa, o algoritmo pode ficar muito lento. Taxa de Mutação: uma taxa de mutação baixa pode prevenira a população do problema de estagnação em um determinado valor, além de permitir que se chegue em qualquer ponto do espaço de busca. Com uma taxa muito alta a busca se torna praticamente aleatória. Intervalo de Geração: determina a porcentagem da população que será substituída na próxima geração. Com um valor alto, a maior parte da população será substituída, mas com valores muito altos pode ocorrer perda de indivíduos com alta aptidão. Com um valor baixo, o algoritmo pode ficar muito lento.

24 Otimização por Enxame de Partículas (PSO) O método de otimização denominado Otimização por Enxame de Partículas (PSO) tal como outras meta-heurísticas recentemente desenvolvidas, simula o comportamento dos sistemas fazendo a analogia com comportamentos sociais. O PSO é um método de otimização baseado em população e foi primeiro proposto pelos Kennedy e Eberhart [10,11]. Possui características interessantes como, a facilidade de implementação nos computadores e o fato que não requer nenhuma informação de gradiente. Pode ser aplicado para resolver uma variedade de diferentes problemas de otimização, incluindo a maioria dos problemas que podem ser resolvidos através dos Algoritmos Genéticos; pode-se citar como exemplo algumas das aplicações, como treinamento de rede neural [20,21,22,23] e a minimizarão de vários tipos de funções [24,25]. Muitos algoritmos de otimizações populares são determinísticos, como os algoritmos baseados em gradientes. O PSO, como o seus similares, que pertencem à família de Algoritmo Evolutiva, é um algoritmo do tipo estocástico que não precisa de gradiente de informações derivadas de função de erro. Isto permite a utilização do PSO em funções onde o gradiente é indisponível ou cua obtenção está associada a um alto custo computacional O Algoritmo PSO O algoritmo PSO mantém uma população de partículas, onde cada partícula representa uma solução potencial para um problema de otimização. Assume-se que S como sendo o tamanho do enxame. Cada partícula i pode ser representada como um obeto com várias características. Estas características são as seguintes: x i : A posição atual da partícula; v i : A velocidade atual da partícula; y i : A melhor posição individual alcançada pela partícula. A melhor posição individual da partícula i representa a melhor posição que a partícula visitou e onde obteve a melhor avaliação. No caso de uma tarefa de minimização, por exemplo, uma posição que obteve o menor valor da função é considerada como sendo a posição com melhor avaliação ou com mais alta aptidão. O símbolo f será usado para denotar a função obetivo que está sendo minimizada. A equação de atualização para a melhor posição individual é dada pela equação (2.3), utilizando o tempo t explicitamente. yi ( t) se f ( yi ( t)) f ( xi ( t + 1)) yi ( t + 1) = (2.3) xi ( t + 1) se f ( yi ( t)) > f ( xi ( t + 1)) Existem duas versões do PSO, chamadas de modelos gbest e lbest (o melhor global e o melhor local) [26]. A diferença entre os dois algoritmos está baseada diretamente na forma com que uma determinada partícula interage com o seu conunto de partículas. Para

25 13 representar esta interação será utilizado o símbolo ŷ. Os detalhes dos dois modelos serão discutidos por completo mais adiante. A definição do ŷ, como usado no modelo de gbest, é apresentado pela equação (2.4). yˆ( t y ) = min{ f ( y), f ( yˆ( t)) } { y ( t), y ( t),..., y ( )} 0 1 s t (2.4) Note que esta definição mostra que ŷ é a melhor posição até então encontrada por todas as partículas no enxame de tamanho S. O algoritmo PSO faz uso de duas seqüências aleatórias independentes, r1 ~ U (0,1) e r 2 ~ U (0,1). Estas seqüências são usadas para dar a natureza estocástica ao algoritmo, como mostrado abaixo na equação (2.5). Os valores de r 1 e r 2 são escalados através de constantes c 1 > 0, c 2 2. Estas constantes são chamadas de coeficientes de aceleração, e exercem influência no tamanho máximo do passo que uma partícula pode dar em uma única iteração. A velocidade que atualiza o passo é especificada separadamente para cada dimensão 1.. n, de forma que v i, denota a dimensão do vetor da velocidade associado com a partícula i. A atualização de velocidade é dada pela seguinte equação: vi, ( t + 1) = vi, ( t) + c1r1, ( t)[ yi, ( t) xi, ( t)] + (2.5) c ( )[ ˆ 2r2, t y ( t) xi, ( t)] Na definição da equação da atualização de velocidade, a constante c 2 regula de uma forma clara o tamanho máximo do passo na direção da melhor partícula global, e a constante c 1 regula o tamanho do passo na direção da melhor posição individual daquela v, é mantido dentro do intervalo de v max, v ] [ max partícula. O valor de i, reduzindo a probabilidade de que uma partícula pode sair fora do espaço de busca. Se o espaço de busca for definido pelo intervalo [ x, x max max], então o valor de v max é calculado da seguinte forma [27]: v max = k * x max, onde k (2.6) A posição de cada partícula é atualizada usando o seu novo vetor de velocidade: xi ( t + 1) = xi ( t) + vi ( t + 1) (2.7) O algoritmo consiste em aplicação repetida das equações de atualização acima apresentadas. A Figura 2.6 contém o pseudocódigo do algoritmo de PSO básico.

26 14 Criar e inicializar: i particula atual; S PSO de n-dimensões : inicio repita: para cada partícula i = [1..S] se f(s.x i ) < f(s. y i ) então S. y i = S.x i se f(s.y i ) < f(s. ŷ) então S. ŷ = S. y i fimpara Atualize S usando as equações (2.5 e 2.6) até a condição da parada sea Verdadeira fim Figura O Pseudocódigo do algoritmo de PSO básico. A inicialização mencionada no primeiro passo do algoritmo consiste do seguinte: 1. inicialize cada coordenada x i, com um valor aleatório do intervalo [ x max, xmax ], para todo o i 1.. s e 1.. n. Isto distribui as posições iniciais das partículas ao longo do espaço de busca. Deve selecionar um bom algoritmo de distribuição aleatória para obter uma distribuição uniforme no espaço de busca. 2. inicialize cada v i, com um valor extraído do intervalo [ v max, v max ], para todo o i 1.. s e 1.. n. Alternativamente, as velocidades das partículas poderão ser inicializadas com 0 (zero), desde que as posições inicias seam inicializadas de uma forma aleatória. A condição de parada mencionado no algoritmo (Figura 2.6) depende do tipo de problema a ser resolvido. Normalmente o algoritmo é executado para um número fixo e pré-determinado de iterações (um número fixo de avaliação de função) ou até alcançar um valor específico de erro. É importante perceber que o termo de velocidade modela a taxa de mudança dentro da posição da partícula. As mudanças induzidas pela equação de atualização de velocidade (2.5) representam aceleração, o que explica por que as constantes c 1, c 2 são chamados de coeficientes de aceleração. Uma descrição breve de como o algoritmo trabalha é dada da seguinte forma: Inicialmente, uma partícula qualquer é identificada como sendo a melhor partícula no grupo, baseado na sua aptidão usando a função obetiva. Então, todas as partículas serão

27 15 aceleradas na direção desta partícula, e ao mesmo tempo na direção das próprias melhores posições previamente encontradas. Ocasionalmente as partículas exploram o espaço de busca ao redor da atual melhor partícula. Desta forma, todas as partículas terão a oportunidade para mudar a sua direção e buscar uma nova 'melhor' partícula. Considerando que a maioria das funções têm alguma forma de continuidade, as chances são boas de encontrar as melhores soluções no espaço que cerca a melhor partícula. Aproximação das partículas vindo de diferentes direções no espaço de busca no sentido da melhor solução aumenta as chances de descobrir as melhores soluções que estão na área vizinha da melhor partícula O Comportamento do PSO Foram sugeridas muitas interpretações a respeito do funcionamento e o comportamento do PSO. Kennedy, na sua investigação fortaleceu a visão sócia-biológica do PSO, realizando experiências para investigar as funções dos diferentes componentes da equação de atualização da velocidade [28]. A tarefa de treinar uma rede neural foi usada para comparar o desempenho dos diferentes modelos. Kennedy fez uso do modelo de lbest (vea a seção sobre lbest para uma descrição completa deste modelo), em lugar do modelo gbest. Para isto desenvolveu duas equações de atualização de velocidade, a primeira, usando apenas a experiência da própria partícula, chamado de componente de cognição, e a segunda, utilizando apenas a interação entre as partículas e chamou de componente social. Considere a equação de atualização de velocidade (2.5) apresentada anteriormente: v i, ( t + 1) = v i, c ( t) + c r r 2 2, ( t)[ yˆ 1 1, ( t)[ y ( t) x i, i, ( t) ( t)] x i, ( t)] + (2.8) O termo c1r1, ( t)[ y i, ( t) x i, ( t)] é associado apenas com a cognição, onde leva-se em consideração apenas as experiências da própria partícula. Se um PSO for construído com o uso de apenas o componente cognitivo, a equação de atualização de velocidade se tornará : v i, ( i, 1 1, i, i, t t + 1) = v ( t) + c r ( t)[ y ( t) x ( )] (2.9) Kennedy constatou que o desempenho deste modelo de apenas com cognição era inferior ao desempenho do PSO original. Uma das razões de mal desempenho é atribuído a ausência total da interação entre as diferentes partículas. O terceiro termo na equação de atualização de velocidade, c ˆ 2r2, ( t)[ y ( t) xi, ( t)], representa a interação social entre as partículas. Uma versão do PSO com apenas o componente social pode ser construído usando a seguinte equação de atualização de velocidade: v t + 1) = v ( t) + c r ( t)[ yˆ ( t) x ( )] (2.10) i, ( i, 2 2, i, t

28 16 Foi observado que nos problemas específicos que Kennedy investigou, o desempenho deste modelo era superior ao PSO original. Em resumo, o termo da atualização da velocidade do PSO consiste de dois componentes, o componente de cognição e o componente social. Atualmente, pouco se sabe sobre a importância relativa deles, embora resultados iniciais indiquem que o componente social é mais importante na maioria dos problemas estudados. Esta interação social entre as partículas desenvolve a cooperação entre elas para resolução dos problemas Considerações sobre a semelhança entre PSO e EAs Há uma relação clara do PSO com os algoritmos evolutivos (EAs). Para alguns autores, o PSO mantém uma população de indivíduos que representam soluções potenciais, uma das características encontradas em todos os EAs. Se as melhores posições individuais ( y i ) são tratadas como parte da população, então há uma forma clara de seleção fraca [29]. Em alguns algoritmos de ES, as descendentes (offspring), competem com os pais, substituindoos se forem mais adaptados. A equação (2.3) se assemelha a este mecanismo, com a diferença que, a melhor posição individual (o pai) só pode ser substituída por sua própria posição atual (descendente), desde que a posição atual sea mais adaptada. Portanto, parece ser alguma forma fraca de seleção presente no PSO. A equação de atualização de velocidade se assemelha ao operador de cruzamento aritmético (crossover) encontrado nos AGs. Normalmente, o cruzamento aritmético produz dois descendentes que são resultados da mistura de dois pais envolvidos no cruzamento. A equação de atualização de velocidade no PSO, sem o termo v i, ( t ) (vea a equação 2.5), pode ser interpretado como uma forma de cruzamento aritmético envolvendo dois pais, devolvendo apenas um único descendente. Alternativamente, a equação de atualização de velocidade, sem o termo v i, ( t ) pode ser visto como operador de mutação. A melhor forma de analisar o termo v i, ( t ) é de não pensar em cada iteração como sendo um processo de substituição de população por uma nova (mecanismo de morte e nascimento), mas como um processo de adaptação continuo [30]. Deste modo os valores de xi não são substituídos, mas continuamente adaptados usando os vetores v i de velocidade. Isto torna a diferença entre o PSO e os outros EAs mais clara: o PSO mantém informação relativa a posição e velocidade (mudanças em posição); em contraste, EAs tradicionais só mantêm informação relativa a posição. Apesar de parecer que há algum grau de semelhança entre o PSO e a maioria do outro EAs, o PSO tem algumas características que atualmente não estão presentes em nenhum outro EAs, especialmente o fato de que o PSO modela a velocidade das partículas como também as suas posições Origens e Terminologia O movimento das partículas foi descrito como sendo "vôo" no espaço de n-dimensionais [26]. Esta terminologia faz parte das experiências realizadas em simulações de vôo de pássaro, e que conduziu o desenvolvimento do algoritmo original do PSO [28], como foi citado pelos autores do PSO, Kennedy e Eberhart.

29 17 O termo enxame (swarm) era usado por Millonas para descrever modelos de vidas artificiais [31]. Para ele o termo de inteligência enxame é caracterizado pelas seguintes propriedades : Proximidade: necessita de espaço simples e pequeno tempo computacional. Qualidade: Respondendo a fatores de qualidade no ambiente. Resposta diversa: Não entrando em um subconunto restrito de soluções. Estabilidade: Podendo manter modos de comportamentos quando os ambientes mudam. Adaptabilidade: Podendo mudar modos de comportamentos quando a adaptação for necessária. Eberhart et al. [26] apresentou argumentos que demostraram que as partículas do PSO possuem estas propriedades. Também foi ustificado o uso do termo partícula". Para o autor, usar população poderá dar a sensação de que os membros da população precisam de massa e volume, talvez chamar de pontos" seria o mais preciso. Porém, os conceitos de velocidade e aceleração são mais compatíveis com o termo partícula. Outros campos de pesquisa em computação, como a computação gráfica, também usam o termo "sistemas de partícula para descrever os modelos usados para fazer efeitos especais e animação [32] Modelo do Melhor Global (gbest) O modelo gbest permite uma taxa mais rápida de convergência [26] às custas de robustez. Este modelo mantém só uma única "melhor solução", chamada de melhor partícula global, entre todas as partículas no enxame. Esta partícula age como um atrator, puxando todas as partículas para ela. Eventualmente, todas as partículas convergirão a esta posição. Caso não sea atualizada regularmente, o enxame poderá convergir prematuramente. As equações de atualização para ŷ e v são as mesmas apresentadas anteriormente: i yˆ( t y ) = min{ f ( y), f ( yˆ( t)) } { y ( t), y ( t),..., y ( )} 0 1 s t (2.11) vi, ( t + 1) = vi, ( t) + c1r1, ( t)[ yi, ( t) xi, ( t)] + (2.12) c ( )[ ˆ 2r2, t y ( t) xi, ( t)] Note que ŷ é chamado de a melhor posição global, e pertence à partícula chamada de a melhor partícula global O Modelo do Melhor Local ( Lbest ) O modelo de lbest tenta prevenir convergência prematura mantendo múltiplos atratores. Um subconunto de partículas é definido para cada partícula de qual é selecionada a melhor partícula local, ŷ. O símbolo i ŷ é chamado de a melhor posição local ou de i melhor na vizinhança (the local best position or the neighbourhood best).

30 18 Assumindo que os índices das partículas estão ao redor do espaço S, as equações de atualização de lbest para um bairro de tamanho l são os seguintes: N i = { y i l y ( t), y i+ 1 i l + 1 ( t),..., y ( t),..., i+ l ( t )} y i 1 ( t), y ( t), i (2.13) i i i { f ( a) } a N i yˆ ( t + 1) N f ( yˆ ( t + 1)) = min, (2.14) v i, ( t + 1) = v i, c ( t) + c r r 2 2, ( t)[ yˆ 1 1, ( t)[ y ( t) x i, i, ( t) ( t)] x i, ( t)] + (2.15) Note que as partículas selecionadas estão no subconunto N i e não tem nenhuma relação com as outras partículas dentro do domínio do espaço de busca; a seleção é baseada unicamente no índice da partícula. Isto é feito por duas principais razões: o custo computacional é mais baixo, por não necessitar de agrupamento, e isto auda também a promover a expansão de informação relativa às boas soluções para todas as partículas, embora trata-se de busca local. Finalmente, pode observar que o modelo de gbest é de fato um caso especial do modelo de lbest, quando o l = s, ou sea, quando o conunto selecionado engloba todo o enxame [26] A Versão Binária do PSO Uma versão binária do PSO foi introduzida pelo Kennedy e Eberhart [33]. Esta versão é útil para fazer comparações entre AG s codificados numa forma binária e o PSO, bem como representar problemas que são por natureza binários. Uma aplicação típica é representar o gráfico de conexão de uma rede neural onde '1' representa uma conexão e '0' representa a ausência de conexão entre dois nodos na rede. A versão binária restringe os valores de componente de x i e y i para serem elementos do intervalo U {0,1}. Porém, não há nenhuma restrição no valor da velocidade, v i, de uma partícula. Entretanto, quando a velocidade é usada para atualizar as posições, ela deve ser colocada dentro do intervalo de [0.0,1.0] e tratado como probabilidade. Isto pode ser obtido utilizando a função sigmoidal, definida por: 1 sig ( x) = 1 + exp( x) (2.16) Então, a equação de atualização para o termo de velocidade usado no enxame binário é dada por : vi, ( t + 1) = vi, ( t) + c1r1, ( t)[ yi, ( t) xi, ( t)] + (2.17) c r ( t)[ yˆ ( t) x ( t)] 2 2, i,

31 19 Note que esta equação de atualização de velocidade é similar a que foi usada no PSO original. Em vez da equação de atualização de posição habitual (por exemplo equação 2.8), uma nova equação de atualização probabilística é usada: x i, ( ) () 0 se r3, t sig( vi, ( t + 1)) ( t + 1) = 1 se r3, t < sig( vi, ( t + 1)) (2.18) Onde r () t ~ ( 0,1) é um variante aleatório uniforme (selecionado a partir do intervalo 3, U [0.0,1.0]). Ao analisar a equação (2.18), pode-se observar que o valor de i permanecerá 0 (zero) se sig ( v i, ) = 0 Isto acontecerá quando v i, é aproximadamente menor do que -10. Igualmente, a função de sigmoid saturará quando v i, > 10. Para prevenir isto, é recomendado que o valor de v i, sea mantido dentro do intervalo de ± 4 [30]. O artigo original que descreve o PSO binário recomenda um limiar de v max ligeiramente maior de ± 6, resultando em uma probabilidade de aproximadamente [33]. Esta versão foi melhorada com a utilização de novos conceitos [34]. Estes conceitos foram desenvolvidos com sendo extensões do PSO que serão apresentados mais adiante. x, 2.5 As Principais Propostas de Melhorias do PSO Foram propostas várias melhorias para a otimização por Enxame de Partícula. Serão apresentadas as mais importantes melhorias agrupadas de acordo com seus obetivos Melhorias na Taxa de Convergência Foram propostas várias técnicas para melhorar a taxa de convergência do PSO. Estas propostas normalmente envolvem mudanças na equação da atualização do PSO, sem mudar a estrutura do próprio algoritmo. Isto normalmente resulta em otimização local de melhor desempenho e às vezes com uma diminuição de desempenho em funções com múltiplos mínimos locais. - Peso da inércia (Inertia weight) : A introdução do peso de inércia por Shi e Eberhart foi uma das primeiras modificações no algoritmo do PSO original obetivando melhorar a sua taxa de convergência [66]. O peso de inércia é um fator escalar associado com a velocidade durante o passo de tempo anterior, resultando na seguinte nova equação de atualização de velocidade : vi, ( t + 1) = wv i, ( t) + c1r1, ( t)[ yi, ( t) xi, ( t)] + (2.19) c r ( t)[ yˆ ( t) x ( t)] 2 2, i, A equação da atualização da velocidade do PSO original pode ser obtida fixando w = 1. Shi

32 20 e Eberhart investigaram o efeito de valores de w na faixa de [0, 1.4], como também variando w com o passar do tempo [66]. Os resultados obtidos demonstram que escolhendo w [0.8,1.2] resulta em convergência mais rápida, mas com o valor de w maior do que (> 1.2) resulta em mais fracassos para convergir. - Coeficiente de enxugamento (Constriction Factor) Recentemente num trabalho feito por Clerc [27,38] foi demonstrado que o coeficiente (ou fator) de enxugamento pode audar assegurar a convergência. O modelo de coeficiente de enxugamento descreve, entre outras coisas, um modo de escolher os valores de w, c 1 e c 2 de forma que a convergência sea assegurada. A Escolha correta destes valores, elimina a necessidade de austar os valores de v i, à escala de [ v max, v max ]. A equação da atualização usando este coeficiente como foi proposta em [27,38], é apresentada na equação (2.20): ( v ( t) + c r ( t)[ y ( t) x ( t)] + c r ( t)[ yˆ ( t) x ( )]) vi, ( t + 1) = χ i, 1 1, i, i, 2 2, i, t 2 Onde χ =, 2 ϕ ϕ 2 4ϕ e ϕ = c + c ϕ 4., 1 2 >, (2.20) Eberhart e Shi compararam o desempenho de um enxame usando o auste com o v max com outro enxame, onde foi utilizado apenas o coeficiente de enxugamento [43]. Seus resultados indicaram que o uso do coeficiente de enxugamento (sem austar a velocidade) resulta geralmente em uma taxa melhor de convergência em algumas das funções do teste, entretanto, o PSO com o coeficiente de enxugamento não alcançou a convergência esperada com o número de iterações pré-determinado. O problema, de acordo com Eberhart e Shi, é que as partículas vagueiam demasiadamente longe da região deseada do espaço da busca. Para reduzir este efeito decidiram aplicar também o auste no próprio coeficiente de enxugamento, austando o parâmetro do v max igual ao x max,o tamanho do espaço da busca. Isto conduziu melhora no desempenho do algoritmo para quase todas as funções usadas durante os testes. Para mostrar o funcionamento e aplicação do PSO, no próximo capítulo será apresentada uma aplicação do PSO para otimizar as funções de pertinência num controle fuzzy.

33 21 Capítulo 3 Uma aplicação: O Auste Automático das Funções de Pertinência Fuzzy Usando PSO Neste capítulo será descrita uma aplicação que foi desenvolvida com obetivo de apresentar uma estratégia para o auste automático das funções de pertinência usando PSO. E com o algoritmo PSO pode-se fazer um auste automático das funções de pertinência melhorando significativamente o controle, minimizando o espaço percorrido pelo veículo até estacionar e auxiliando os estudantes no aprendizado de controle difuso. 3.1 Introdução A Teoria dos Conuntos Difusos foi proposta por Lofti A. Zadeh em um artigo publicado em 1965 [87]. Recentemente, a Lógica Difusa tem sido utilizada no controle de processos industriais, equipamentos eletrônicos, de entretenimento, carros, sistemas de diagnose e, até mesmo, para o controle de eletrodomésticos. Os sistemas difusos podem ser considerados como sendo sistemas baseados em conhecimento, incorporando conhecimento humano na Base de Conhecimento deles através de Regras Difusas e Funções de Pertinência. A definição destas regras difusas e as funções de pertinência geralmente são feitas através de decisões subetivas, influenciando de uma forma direta no desempenho do sistema. Na maioria das aplicações existentes, as regras difusas são geradas por peritos na área, especialmente para problemas de controle com poucas entradas (variáveis). Com um número crescente de variáveis, o número de regras aumenta exponencialmente, o que torna mais difícil para peritos definirem conunto de regras que resultam num sistema de bom desempenho. Neste estudo de caso foi utilizado um ambiente computacional para o ensino da lógica difusa [88]. Este programa computacional foi desenvolvido para o treinamento de estudantes de Engenharia na Teoria de Controle Difuso. O seu principal obetivo é estacionar um veículo em uma garagem, partindo de qualquer posição dentro de uma área pré-determinada. Com este pacote, os estudantes dispõem de um recurso que exemplifica uma situação muito conhecida da vida real. Entretanto, este pacote apresenta uma séria desvantagem: o tipo de aprendizagem. Neste caso, os estudantes, para conseguir uma ação

34 22 de controle apropriada, utilizam o método da tentativa-e-erro na definição das regras e parâmetros para cada uma das funções de pertinência. Neste trabalho então desenvolveu-se um módulo de treinamento PSO para um controle previamente criado. O algoritmo PSO será utilizado para encontrar os melhores parâmetros das funções de pertinência. A concatenação destes parâmetros constitui as partículas do enxame, que são avaliadas de acordo com o número de iterações necessárias para que o veículo estacionar de acordo com o auste feito por cada grupo de partículas. Nas próximas seções será descrito o módulo de treinamento do PSO apresentando o algoritmo bem, como as telas de interface com o usuário. Em seguida serão mostrados os testes realizados com controles difusos que tiveram suas funções de pertinência austadas e finalmente, as conclusões serão apresentadas. 3.2 O Pacote Computacional Original O pacote computacional tem como principal obetivo estacionar um veículo em uma garagem, partindo de qualquer ponto inicial dentro de uma área pré-definida. Para tal, o usuário deve proetar um conunto de regras de controle difuso e também as funções de pertinência que controlarão a traetória do veículo. Para definir tais regras, o programa oferece diversos menus com anelas e rotinas numéricas. Os processos de fuzzificação e de defuzzificação das variáveis são feitos pelo programa sem a necessidade de interferência do usuário [88]. A Figura 3.1 mostra a tela inicial para representar o problema do estacionamento de um veículo. Nesta anela aparecem a posição da garagem, os limites existentes (as paredes) e os valores das coordenados limites. Também são apresentadas as variáveis de entrada (x, y) medidas a partir do ponto central da parte traseira do veículo e finalmente, o ângulo do carro (φ). Figura Tela básica do programa.

35 23 Para a realização de estacionamento do veículo, algumas condições são estabelecidas, e pertencem dois tipos: ligadas ao pacote computacional e ligadas a lógicas. As condições ligadas ao pacote representam as limitações físicas. São elas [88]: limites das variáveis de entrada: - posição (x, y): 0 < x < 32 e 0 < y < 20 (m) (limitações do estacionamento) - ângulo do veículo: -90 φ sentido do veículo: para frente ou para trás limite da variável de saída: - ângulo da roda do veículo: -30 θ 30 (limitação do modelo real) Com relação às limitações lógicas, elas podem variar de acordo com os tipos das estratégias empregadas. Alguns exemplos destas estratégias podem ser, entre outras: minimização do número de mudanças de sentido do veículo (para frente ou para trás); minimização do espaço percorrido pelo veículo até a garagem; a restrição de partes da garagem para o estacionamento. Para o movimento do veículo são estabelecidas as seguintes condições: aceleração igual a 1 (m/s 2 ) e velocidade máxima de 1 (m/s). Estes dois valores são utilizados como referência para todos os movimentos. Para inverter o sentido do movimento do veículo existem três possibilidades, que são: a) Choque contra a parede: quando o sistema verifica que o veículo irá se chocar contra a parede no próximo passo; b) Regra que força a inversão: quando a ordem de inverter for utilizada como conseqüência de uma regra; ou, c) Falta de saídas: quando nenhuma regra for utilizada pelo controle, ou sea, se a saída for nula. Para obter mais informações sobre este pacote e também como é feita a criação de um controle difuso vea [88]. 3.3 Simulações Selecionada a opção simulação do menu, o usuário pode definir uma posição inicial (Coordenada X, Y e Ângulo) para o veículo. A Figura 3.2 mostra o deslocamento do veículo utilizando o conunto composto por 356 regras para o deslocamento. No exemplo de simulação da Figura 3.2, pode-se verificar o rastro deixado pelo veículo durante sua traetória. Cada ponto significa uma iteração (ou sea, uma passagem completa no conunto de regras). No exemplo, mostrado na Figura 3.2, produziu-se 256 iterações.

36 24 Figura Exemplos de simulação do pacote computacional. O pacote computacional dispõe de recursos, que permitem variar o tamanho do carro entre: pequeno, médio ou grande. Esta variação cria a oportunidade de verificar o comportamento do sistema de controle para um equipamento que tenha alteradas algumas de suas grandezas. O pacote computacional possui também três métodos de defuzzificação, que são: o centróide, média das áreas e média das máximas [89]. 3.4 Descrição do Módulo Treinamento PSO De forma geral, a integração dos algoritmo PSO com o controle difuso foi implementada da seguinte maneira: A subpopulação de partículas do enxame foi definido como sendo a concatenação dos valores de auste das funções de pertinência. Os parâmetros são os centros e as larguras de cada conunto difuso. Estes parâmetros compõem as partículas. De uma gama inicial de valores de parâmetros possíveis, o sistema difuso é executado para determinar o quanto ele funciona bem. Essas informações são usadas para determinar o auste de cada subpopulação (adaptabilidade) e estabelecer a evolução do enxame. O ciclo é repetido até que se complete o número de iterações do enxame definido pelo usuário. A cada iteração é encontrado o melhor conunto de valores para os parâmetros das funções de pertinência. Para o treinamento do PSO podem-se definir as posições iniciais que o veículo irá partir para avaliar cada subpopulação do enxame que representa o conunto de valores para os parâmetros das funções de pertinência, buscando assim uma otimização do controle não somente sobre uma única traetória, mas sim de todas as posições iniciais possíveis de se partir o veículo para que se ocorra o estacionamento.

37 25 Através de utilização do menu Opção Treinamento PSO, o usuário faz o auste dos parâmetros para o treinamento, além de definir os parâmetros (população, iteração, velocidade máxima), estabelecer o valor de auste para as funções de pertinência que é o quanto a função deslocará para esquerda ou direita e quanto ela se encolherá ou expandirá. Após iniciar o treinamento, pode-se acompanhar o treinamento através das informações exibidas por anelas. Concluídas todas as iterações, tem-se o melhor resultado encontrado. Após o auste, as funções de pertinência são redefinidas segundo os parâmetros do melhor resultado encontrado. O sistema fará o controle com base nestas novas funções. 3.5 Componentes do Algoritmo PSO Serão apresentados nesta seção os mecanismos empregados para gerar ótimas funções de pertinência no controlador difuso usando o algoritmo PSO. Cada função de pertinência do controlador difuso implementado é definida usando quatro parâmetros. São eles: IE (inferior esquerdo), ID (inferior direito), SE (superior esquerdo) e SD (superior direito). Figura 3.3 Parâmetros das funções de pertinência. Na Figura 3.3 são mostrados os parâmetros da função de pertinência PE da variável x. Para está função o valor de IE é igual a 30, ID igual a 160, SE igual a 80 e SD igual a 110. Para austar as funções de pertinência foram definidas as seguintes equações: IE = (IE + k i ) w i ID = (ID + k i ) + w i

38 26 SE = (SE + k i ) SD = (SD + k i ) Onde, k i e w i são coeficientes de austes. O k i faz cada função de pertinência mover-se para a direita ou para esquerda sem perder sua forma original. O coeficiente w i faz com que a função de pertinência encolha ou se expanda. Estes coeficientes assumem valores inteiros negativos ou positivos de acordo com o valor de auste definido pelo usuário. A Figura 3.4 mostra um exemplo de auste com os valores de IE igual a 30, ID igual a 160, SE igual a 80 e SD igual a 110. Sendo k = -8 e w = 5 a função de pertinência terá o seguinte auste: IE = ( 30 + (-8)) 3 = 19 ID = (160 + (-8)) + 3 = 155 SE = ( 80 + (-8)) = 72 SD = (110 + (-8)) = 102 Figura 3.4 Exemplo de auste de uma função de pertinência. O algoritmo PSO será utilizado para achar os ótimos valores das funções de pertinência, segundo a estratégia escolhida, os pontos iniciais utilizados e os coeficientes de austes (k i e w i ).

39 Representação das Soluções usando PSO O controle difuso normalmente está composto por muitas funções. Assim, para este tipo de problema será necessário o uso de subpopulação. Cada subpopulação representa uma possível solução. Com relação ao tamanho da subpopulação, ou sea, quantos partículas cada subpopulação irá ter, isso dependerá do número de funções de pertinência definidas pelo usuário. Para um controle difuso com um grupo de 18 funções de pertinência, por exemplo, necessita ter uma subpopulação com 18 partículas de 2 (duas) dimensões (x,y). Isso porque para cada função deve ter dois coeficientes de auste: k i e w i. A subpopulação então é representada por um vetor de 18 posições de partículas com 2 posições cada. Então, é necessário ter a seguinte estrutura: sp 1 = { p 11,p 12,p 13...p 1m } sp 2 = { p 21,p 22,p 23...p 2m }... sp n = { p n1,p n2,p n3...p nm } Onde: p: uma partícula de 2 dimensões (k i, w i.) n : numero de população(enxame). m : número de partículas Função de Avaliação e o Critério de Parada A função de avaliação tem o papel de avaliar o nível de aptidão (adaptação) de cada subpopulação gerada pelo algoritmo. Para o problema em questão, o obetivo é minimizar a traetória do veículo até estacionar. No caso a função de avaliação é dada por: 1 f = (3.1) 1 + I onde I é o total de iterações até estacionar com base no auste feito por cada subpopulação nas função de pertinência. De acordo com está função, a aptidão de cada subpopulação será inversamente proporcional ao número de iterações. Como critério de parada foi utilizado o número máximo de iterações Apresentação do Algoritmo Sea, G o número de iterações do PSO, S o enxame, N o número de subpopulações, Vmax a velocidade máxima e VA o valor de auste permitido para as funções de pertinência. O algoritmo abaixo apresentado gere como saída o vetor gbest com a melhor subpopulação representando a melhor solução.

40 28 Passo 1. Gere subpopulações inicial SP com partículas no intervalo [- VA, +VA]. Passo 2. Gere velocidade inicial Vx e Vy com valores aleatórios. Passo 3. Se completou o número de repetição G vá para Passo 7. Passo 4. Avalie a aptidão da subpopulação SP. Passo 5. Atualize S usando as equações (2.5 e 2.7) Passo 6. Vá para Passo 3. Passo 7. Fim. 3.6 Testes Nesta seção serão apresentados os testes realizados com controles difusos que tiveram suas funções de pertinência austadas usando PSO. Estes testes demonstram a eficiência de tais mecanismos, permitindo uma avaliação obetiva dos resultados encontrados. As funções de pertinência originais são mostradas na Figura 3.5. Este controles possuem 148 regras e 15 funções de pertinência para as variáveis de entrada x, y e ângulo da roda. Figura 3.5 Funções de pertinência originais. O treinamento deste controle foi feito a partir de três posições iniciais, conforme mostra a Tabela 3.1 Nesta tabela tem também o número de iterações geradas pelo veículo até estacionar utilizando as funções de pertinência originais.

41 29 Tabela 3.1 Posições iniciais para o treinamento. Posição X Y Ângulo do Iterações sem Carro treinamento A Figura 3.6 mostra o veículo em cada uma das posições iniciais. Figura 3.6 Posições iniciais de treinamento. Estas posições foram escolhidas de acordo com pontos onde o veículo não desenvolve uma boa traetória até estacionar e, consequentemente, gerando um número excessivo de iterações. Como á explicado no Capítulo 4, a definição de várias posições iniciais não irá somente minimizar as traetórias referentes a estes pontos, mas como também para outros pontos, conseguindo assim uma minimização global de espaço percorrido. A Figura 3.7 mostra as traetórias referentes a cada posição inicial. Os parâmetros genéticos definidos para o treinamento são mostrados na Tabela 3.2. Tabela 3.2 Parâmetros do PSO. Tamanho da População 14 Número de Iterações 30 Vmax 10 Os resultados gerados pelo algoritmo PSO são mostrados na Tabela 3.3 e Figura 3.8.

42 30 Tabela 3.3 Iterações após o treinamento com PSO. Posição Iterações sem Iterações com treinamento treinamento Total Média 624,33 438,99 (a) (b) (c) Figura 3.7 Simulações sem treinamento. (a) Posição 1 - (b) Posição 2 (c) Posição 3 Como mostrado na Tabela 3.3, obteve-se uma redução de 557 iterações (29,74%) para o veículo estacionar partindo-se das posições inicias fixadas para o treinamento. Na Tabela 3.4 serão apresentados resultados de simulações feitas partindo de posições iniciais não utilizadas no treinamento.

43 31 (a) (b) (c) Figura 3.8 Simulações após treinamento genético. Posição 1 (b) Posição 2 (c) Posição 3 Figura 3.9 Funções de pertinência após o auste com PSO. A Figura 3.9 mostra as funções de pertinência após o auste. Nota-se que as maiores modificações ocorreram nas funções das variáveis y e ângulo da roda. O próximo exemplo apresentará modificações significantes nas funções da variável x, uma vez que são utilizadas mais posições iniciais no treinamento.

44 32 A Tabela 3.4 apresenta o resultado obtido de simulações feitas com 20 posições escolhidas aleatoriamente para o veículo estacionar utilizando o controle original que tiveram suas funções de pertinência austadas pelos PSO. Os resultados demonstram uma redução média do número de iterações para o veículo atingir a posição final de 18,22%. Estes valores representam uma redução global na traetória do veículo partindo-se de posições não utilizadas no treinamento genético. Outra observação é que em determinadas posições o número de iterações é maior que as geradas pelos controles originais (sem treinamento). Na posição 2 da Tabela 3.4 por exemplo, o controle original gera 167 iterações para estacionar o veículo enquanto que o controle treinado gera 306 iterações. Este aumento é conseqüência das modificações nas funções da pertinência que fazem com que o veículo desenvolva uma traetória diferente para atingir a posição final. Tabela 3.4 Resultados de Simulações. Posição X Y Iterações geradas pelos Ângulo Controles Difusos do Traindo carro Original com PSO Total Média , Considerações sobre esta aplicação O algoritmo PSO oferece vantagens distintas de otimização das funções de pertinência resultando em uma pesquisa global, reduzindo as chances de terminarem em um

45 mínimo local, pois utiliza vários conuntos de soluções simultaneamente. A lógica difusa contribuiu com a função de avaliação, estágio do algoritmo PSO onde o auste é determinado. Este trabalho é também um exemplo de integração de sistemas difusos com algoritmo PSO, constituindo assim um sistema híbrido. Nesta integração mostrou-se que quando se tem o domínio do problema, este pode ser explorado pelo algoritmo PSO conduzindo a um desempenho melhor do controlador difuso. Os resultados obtidos foram bons e consistentes e comprovam os benefícios visualizados e descritos acima. O desenvolvimento desta aplicação permitiu também maior domínio sobre o algoritmo PSO e audou no estudo sobre o seu comportamento que será apresentado no próximo capítulo. 33

46 34 Capítulo 4 Um novo algoritmo: Algoritmo Híbrido de Otimização por Enxame de Partícula com Mutação HPSOM Este capítulo inicia-se com uma breve analise informal de comportamento do algoritmo PSO padrão e seu desempenho. Em seguida é apresentado um novo algoritmo chamado de Algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM), que combine a idéia do enxame de partícula com o conceito de Algoritmos Genéticos. Serão apresentados e discutidos os resultados dos testes entre os dois modelos: PSO e o HPSOM usando funções unimodal e multimodal. 4.1 Introdução O desempenho do algoritmo PSO foi investigado em diversos trabalhos, desde o seu surgimento em ([10,11]). O trabalho apresentado na referência [62] descreve a complexa tarefa da seleção dos parâmetros no PSO. Uma comparação formal entre PSO e o Algoritmo Genético padrão foi realizada e apresentada na referencia [40], onde o autor apontou que o PSO possui um bom desempenho nas iterações iniciais, mas apresenta problemas de convergência quando se aproxima da solução ótima. O comportamento do PSO no modelo global (gbest) apresenta alguns aspectos importantes relacionados com a atualização da sua velocidade. Se a posição atual de uma partícula coincidir com a melhor posição global, a partícula mover-se-á afastando deste ponto somente se o seu peso de inércia (w) e a sua velocidade anterior forem diferentes de zero. Se as velocidades anteriores das partículas forem muito próximas de zero, todas as partículas pararão de se mover, uma vez que á alcançam a melhor posição global. Isso pode conduzir o algoritmo à convergência prematura. De fato, isto não garante nem mesmo que o algoritmo convergiu em um mínimo local, apenas, significa que todas as partículas convergiram à melhor posição encontrada até então pelo enxame. Este fenômeno é conhecido como estagnação [54]. Algumas soluções forem propostas recentemente na literatura. A solução apresentada em [54] está baseada em acrescentar um parâmetro novo e adicionar novas equações ao PSO. Outro trabalho apresentado em [53], combina o algoritmo PSO com técnicas de Algoritmos Evolutivos, introduzindo a procriação (breeding) e subpopulações (subpopulation). As soluções apresentadas geraram modificações profundas no PSO, o que

47 35 torna a nova versão do PSO mais complexa ou muito parecida com os Algoritmos Evolutivos. Para resolver o problema anteriormente mencionado, será apresentado um novo algoritmo híbrido chamado de algoritmo de Otimização por Enxame de Partícula Híbrido com Mutação (HPSOM), que combine a idéia do enxame de partícula com os conceitos de Algoritmo Genéticos. O modelo HPSOM combina a tradicional velocidade e regras de atualização de posição do algoritmo PSO com o conceito da mutação numérica dos AGs. O HPSOM é testado e comparado com o PSO padrão usando funções unimodal e funções multimodal. Os resultados obtidos demonstram que o HPSOM tem um grande potencial para alcançar convergência mais rapidamente e achar a melhor solução. Esta solução resolverá o problema de estagnação sem criar qualquer modificação nas equações de PSO e seus parâmetros. A próxima seção apresenta a estrutura do algoritmo HPSOM. Seção 4.3 descreve os testes e apresenta os resultados experimentais e finalmente as conclusões serão apresentadas. 4.2 O Algoritmo HPSOM O algoritmo Enxame de Partícula Híbrido com Mutação (HPSOM) incorpora o processo de mutação geralmente usado no AGs no PSO. Este processo vai permitir que as partículas possam escapar de um ponto ótimo local e realizar buscas em diferentes área no espaço de busca. Este processo inicia pela escolha aleatória de partículas no enxame e mover para uma nova posição diferente dentro do espaço de busca. O processo da mutação utilizado é dado pela seguinte equação: mut ( p [ k ]) = p ([ k ] * 1) + ω (4.1) Onde o p[k ] é a partícula escolhida aleatoriamente do enxame e ω é obtido também de uma forma aleatória dentro da seguinte escala: [ 0,0.1* ( xmax xmin )], representando 0.1 vez o comprimento do espaço da busca. A Figura 4.1 lista o pseudocódigo do algoritmo HPSOM. inicio Criar e inicializar : Enquanto ( condição da parada sea falso) inicio avaliar atualizar velocidade e posição mutação fim fim Figura o pseudocódigo do algoritmo HPSOM.

48 Testes e experimento Como o obetivo de estudo de desempenho do algoritmo HPSMO e a comparação com o algoritmo original PSO, forem realizados testes usando quatro funções evolvendo problemas de minimização. As primeiras duas funções são unimodal, enquanto que as últimas duas são multimodal com muitos mínimos locais. Estas quatro funções foram usadas em todos os outros estudos realizados sobre o PSO ([42], [53]). A função Spherical : A função de Esfera generalizada é uma função muito simples e unimodal. O seu mínimo global está localizado na x = 0, com f(x) = 0. Esta função não tem nenhuma interação entre suas variáveis. Spherical: f n 2 ( x = (4.2) 1 ) i = 1 A função Rosenbrock : A segunda função é a função de Rosenbrock generalizada. Uma função unimodal, com interação significante entre suas variáveis. n Rosenbrock: 2( ) = f x (100( xi+ 1 xi ) + ( xi 1) ) (4.3) i= 1 A função Griewank : Uma função multimodal com interação significante entre suas variáveis, e seu mínimo global se encontra no x = 0, onde f(x) = 0. 2 i Griewank: f ( x) xi cos( ) 1 (4.4) x i n n 1 x 3 = i= 1 i= 1 i A Função Rastrigin : A quarta função é a função de Rastrigin generalizada. É um exemplo típico e muito utilizado de funções não-linear e multimodal. Esta função representa um problema com um grau de dificuldade acentuado causado por seu grande espaço de busca e principalmente por um número grande de mínimos locais como mostrado na Figura (4.2). n 4 = x i x i + i= 1 2 Rastrigin: f ( x) ( 10cos(2π ) 10) (4.5) A Figua 4.2 da função de Rastrigin mostra que existem muitos mínimos locais organizados como inchaços. A função tem apenas um mínimo global, que ocorre no ponto [ 0 0 ] no plano x-y, como indicado pela linha vertical, onde o valor da função é 0. Em qualquer mínimo local à exceção de [ 0 0 ], o valor da função é maior do que 0. A função de Rastrigin é freqüentemente usada também nos estudos sobre os algoritmos genéticos.

49 37 Figura 4.2 A função Rastrigin em 3D As escalas do espaço da busca e os valores iniciais usados nos experimentos são apresentados na Tabela 4.1. Todos esses experimentos consistiram em 100 execuções. Os parâmetros de PSO e de HPSOM foram austados aos valores dos coeficientes c1 = c2 = 2.0 e um peso de inércia que começa em 0.7 e diminui linearmente até chegar ao limite de 0.4. O valor da velocidade máxima (Vmax) de cada partícula foi austado à metade do comprimento de espaço da busca em uma dimensão. O tamanho da população nos experimentos foi mantida em 20 partículas a fim de manter as exigências computacionais baixas. Note que o HPSOM tem um parâmetro adicional relacionado com a taxa da mutação que foi austado a 30%. Os experimentos das quatro funções foram feitos usando diferente dimensão (10, 20 e 30) e diferente iteração (1000, 1500 e 2000) respectivamente. Tabela 4.1- O espaço de busca e os valores iniciais das funções de teste. Função Espaço de Busca Escala Inicial f x x 100 i f x x i 30 i f x x 600 i f 4 10 x x i i i i

50 38 Tabela Resultados de média da melhor aptidão para 100 execuções (médio da melhor aptidão ± erro padrão) F Dim. Iter. PSO (Padrão) HPSOM E-037± 2.30E E-096 ± 1.73E-095 f 1 - Spherical E-028± 9.13E E-119 ± E E-014± 2.90E E-147 ± E ± ± f 2 -Rosenbrock ± ± ± ± ± ±0.00 f 3 -Griewank ± ± ± ± ± ±0.00 f 4 -Rastrigin ± ± ± ± 0.00 Figura 4.3- PSO versus HPSOM para a função Spherical (esfera) - f 1

51 39 Figura 4.4- PSO versus HPSOM model for Rosenbrock function- f 2 Figura PSO versus HPSOM para a função for Griewank - f 3

52 40 Figura PSO versus HPSOM para a função Rastrigin - f 4 (a)-pso (b)-hpsom Figure 4.7- Os comportamentos das partículas PSO/HPSOM para a função Esfera (pop = 3)- f1

53 41 Para ampliar o escopo da comparação, a Tabela 4.3 contém os resultados obtidos usando o Algoritmo Genético padrão como foi apresentado no trabalho [53]. A população é composta por 20 indivíduos (o mesmo tamanho da população dos PSO/HPSOM) e as taxas de cruzamento e mutação estão na Tabela 4.4. Tabela 4.3- Resultados de média da melhor aptidão para 100 execuções - PSO, HPSOM e AG- (médio da melhor aptidão ± erro padrão) F Dim. Iter. PSO (Padrão) GA (Padrão) HPSOM E-037± 2.30E E-04±1.14E E-096 ± 1.73E-095 f 1 - Spherical E-028± 9.13E ± 6.22E E-119 ± E E-014± 2.90E ± 1.78E E-147 ± E ± ± ± f 2 -Rosenbrock ± ± ± ± ± ± ± ± ±0.00 f 3 -Griewank ± ± ± ± ± ± ± ± ±0.00 f 4 -Rastrigin ± ± ± ± ± ± 0.00 Tabela As taxas de cruzamento e mutação usados pelo AG (padrão) Função Taxa de cruzamento Taxa de mutação f f f f Discussões dos Resultados Como apresentado na Tabela 4.2, os testes foram realizados variando a dimensão das funções em (10,20 e 30) e variando o número de iterações dos algoritmos para (1000,2000 e 3000) respectivamente. Os testes foram repetidos 100 vezes e os resultados dos algoritmos PSO e HPSOM são representados pelo valor médio da aptidão da melhor partícula encontrada e seguido pelo valor do erro padrão.

54 42 As Figuras 4.3 a 4.6 apresentam gráficos que correspondem aos experimentos e mostram os comportamentos obtidos pela melhor aptidão para cada repetição de ambos os algoritmos. Os gráficos ilustram os resultados obtidos nos teste nas funções com dimensão de 30. No caso dos experimentos com as funções unimodal (Esfera e Rosenbrock), o HPSOM alcançou melhores resultados e teve sua convergência mais rápida do que o PSO. No caso dos experimentos com as funções multimodal (Griewank e Rastrigin), o HPSOM novamente obteve uma convergência mais rápida que o PSO, e achou o valor mínimo das duas funções (zero). A Figura (4.3) apresenta um gráfico que descreve o comportamento do PSO na minimização da função de Esfera. Pode-se observar que o PSO entrou em estagnação com iteração próxima a ~800 e mantém o mesmo resultado representado no gráfico como uma linha reta até o fim de execução, sem que o aumento do número de iteração gere uma melhoria nos resultados. Ao mesmo tempo, pode-se observar um comportamento não linear no gráfico do HPSOM na direção ao mínimo global com o aumento de iteração. Como mostrado nos gráficos da Figura (4.7) que apresentam os comportamentos dos dois algoritmos para apenas 3 partículas e com iterações até a 100. Nestes gráficos o PSO entra em estagnação enquanto o HPSOM continua na busca de melhor posição. Este comportamento praticamente idêntico é observado também nos outros gráficos. Isso leva a observação de que o HPSOM tende a varrer de uma forma mais eficiente o espaço de busca e mostra a sua superioridade neste requisito. A Tabela 4.3 apresenta uma outra situação com a inclusão dos resultados obtidos pelo AG padrão [53]. Nesta situação o desempenho do AG padrão foi inferior ao PSO padrão em todas as funções e conseqüentemente é bem abaixo do Híbrido. Pode-se observar claramente e com bases nos resultados obtidos pelos testes realizados e mostrados na Tabelas (4.2 e 4.3) e nas Figuras ( 4.3,4.4.3, 4.5 e 4.6), que o HPSOM obteve melhor desempenho comparando com o PSO e AG padrão, onde o HPSOM alcançou melhores resultados em todas as funções e chegou à uma convergência mais rapidamente do que o PSO. No próximo capítulo será apresentada uma aplicação de otimização de perdas elétricas usando os dois algoritmos e vai ser possível observar entre outras coisas, o fato de que o HPSOM apresenta um desempenho superior ao PSO.

55 43 Capítulo 5 Aplicação do PSO e HPSOM na Resolução de Problema de Otimização de Perdas Elétricas Este capítulo apresenta um estudo sobre a aplicação dos algoritmos PSO e HPSOM em resolução de problemas de otimização ligados ao Sistema Elétrico de Potência SEP. Será apresentada uma aplicação de Otimização de Perdas Elétricas usando os algoritmos PSO e HPSOM. Os resultados alcançados pelos dois algoritmos serão comparados entre si e também comparados com os resultados obtidos utilizando outro método matemático de otimização [36]. 5.1 Otimização de Perdas Elétricas O obetivo desta aplicação é minimizar as Perdas Elétricas em um sistema. Logo, uma ação do controle é indicada para a redução destas perdas. Neste trabalho a ação considerada é a instalação do capacitor shunt. Este modelo é desenvolvido e integrado a um programa á escrito de fluxo da carga. O estudo é realizado em duas etapas: Primeiramente, as barras críticas nos sistemas são identificadas usando a técnica do vetor tangente [74]. Na segunda etapa, os algoritmos de otimização PSO e HPSOM são aplicados individualmente para calcular a quantidade ideal de shunt a ser instalado em cada barra identificada a fim de obedecer a função obetivo Formulação do Problema O problema de otimização de perdas elétricas é basicamente um problema de otimização não linear, que minimiza uma função obetivo sueito a restrições de igualdades e desigualdades como segue: Minimizar f (x) (5.1) Sueito a g ( x) = 0 h xˆ min h( x) h xˆ x min ˆ max max

56 44 onde f (x) : função escalar que representa o obetivo do problema, a redução de perdas na área de interesse. 2 = loss i i SH = VV k ( Gk cosθ k + Bk senθ k ) GkV f( x) P ( V, θ, b ) sbs k sbl sbl conunto de barras ligadas à. x : vetor das variáveis de decisão, dado por x = V i, θ, B ) ( i sh i sbus, conunto de barras do sistema sbs, conunto de barras candidatas à ação de controle V i Tensão nas barras θ i Ângulo nas barras Bsh Valor da suceptância instalada nas barras. g (x) : conunto de equações representando o sistema de fluxo de potência clássico. esp P( spv, g(x) = Q( spq) esp spq) P( Q cal spv, spq cal ( spq) que será dividido em parte ativa e reativa, da seguinte forma: esp esp [ P spv P ] g 1 ( x) = (, spq) spv, spq esp esp [ Q spq P ] g 1 ( x) = ( ) ( spq) spv conunto de barras de geração. spq conunto de varras de carga. h (x) :vetor com os limites superior e inferior de funções que precisem ter seus limites controlados. No caso o controle será sobre a potência reativa em spv. min h = min Q spv max max h = Q spv

57 45 xˆ :vetor que contêm as variáveis de decisão que precisa manter seus limites dentro de uma faixa de operação. xˆ min min min = V spq b sh T xˆ max max min = V spq b sh T Î : Matriz que obedece ao seguinte critério: I ˆ. x = xˆ Logo: x V,θ R ( 2* nbus+ nbs) nbus R B sh nbs R P Loss 1 R g ( ) ( npv+ npq) R 1 x g ( ) (npq) R 2 x h (x) (npv) R xˆ onde ( npq+ nbs) R nbus número de barras do sistema nbs número de barras candidatas para o controle nbs número de barras na área de controle npv número de barras de geração do sistema npq número de barras de carga do sistema Metodologia Para minimizar as perdas elétricas, necessita-se de uma ação de controle. Logo, uma ação de controle indicada é a instalação de capacitância shunt. Esta ação será utilizada nesse trabalho. O cálculo do valor ideal de shunt a ser instalado em cada barra identificada para obedecer à função obetivo (redução de perdas elétricas) é um problema de programação não linear sueito a uma série de restrições.

58 46 Os algoritmos PSO e HPSOM foram desenvolvidos e integrados em um programa á escrito de fluxo da carga. Os resultados alcançados por ambos serão comparados entre si e também serão comprados com os resultados obtidos pela aplicação do método preditorcorretor de pontos interiores (MPC) desenvolvido num outro trabalho [36]. Para cumprir a meta estabelecida acima, a seguinte metodologia será adotada: a) Através do método do vetor tangente, serão identificadas as áreas críticas para redução de perdas elétricas nos sistemas IEEE 14, 30, 57 e 118 barras. Este passo foi utilizado pelos ambos os algoritmos (PSO e HPSOM) e também por MPC. b) Serão realizadas várias simulações com os algoritmos PSO e HPSOM, variando-se o número de população de partículas no enxame e o número de iterações Análise Preliminar dos resultados Nesta seção serão analisados os resultados obtidos pela metodologia proposta. Para tanto, serão utilizados os sistemas IEEE 14, 30, 57 e 118 barras. Os parâmetros referentes ao processo de otimização são os mesmos das Tabela 5.1 e 5.2, alterando-se apenas o conunto de barras selecionadas. Note que o HPSOM tem um parâmetro a mais, o que diz respeito à taxa de mutação, que foi fixada em 30%. Para cada sistema serão identificadas as áreas de atuação (BCS Barras Crítica do sistema e TBS Conunto de todas as barras de carga do sistema) e, através dos algoritmos PSO e HPSOM um valor ótimo de compensação shunt será encontrado. Também será apresentado o valor obtido pelo MPC com a finalidade de comparação. No caso dos algoritmos PSO e HPSOM, foram realizadas várias simulações variando os números das partículas e o número de iterações, com o obetivo de estudar as melhores configurações dos seus parâmetros. No sistema IEEE 14 serão apresentados e analisados os resultados obtidos com população variando de 5, 10 e 15 nos dois algoritmos PSO e HPSOM. Para os sistemas de IEEE 30, 57, 118 serão apresentados os resultados obtidos utilizando também população de 5,10 e 15, porém com iteração de 5,25,50,75 e 100, com o obetivo de tornar os dados mais apresentáveis e mais fácies de serem agrupados em pequenas tabelas. Foram repetidas 50 simulações para cada combinação e os resultados aqui apresentados foram selecionados aleatoriamente entre estes 50 simulações. Tabela 5.1 Parâmetros utilizados para as simulações Limite de Shunt Máximo Limite de Shunt Mínimo Limite de Tensão Máxima 1 pu -1 pu Limite de Tensão Mínima 0.9 o µ pu αº γ σ 0.2

59 47 Tabela 5.2 Parâmetros do PSO/HPSOM utilizados para as simulações Número de População 5, 10 e 15 Número de Iterações 100 Wmax (Maximo do peso da inércia) 0.9 Wmin (Mínimo do peso da inércia) 0.2 C1; C2 (coeficientes de aceleração) 1 Taxa de Mutação (HPSOM) 30% Identificação das Áreas A idéia usada neste trabalho é reduzir a perda de potência ativa em uma área crítica. A redução da perda é executada na área mais vulnerável ao colapso da tensão. Esta área crítica é facilmente determinada com a auda do vetor tangente. Tal vetor é dado pela equação (5.7), e mais informações sobre está técnica podem ser encantados na referência [29]. O modelo de fluxo de potência utilizado nesse trabalho pode ser apresentado pelo conunto de equações: f ( x, σ ) (5.2) Ondeσ é o parâmetro que conduz o sistema de um ponto estável para um ponto de instabilidade. O Vetor Tangente indica como as variáveis de estado variam de acordo com a mudança de carregamento do sistema e pode ser obtido a partir da matriz acobiana do fluxo de potência. Assumindo um ponto de operação conhecido Pg Pl Q l = [ J ] θ g θ l V l (5.3) Onde, P, Q: potência consumida na barra. Pi, Qi: potência na barra i. V: tensão da barra correspondente a P e Q. Vi: tensão da barra correspondente a Pi e Qi. θ i: ângulo de tensão na barra i. J : matriz acobiana. σ : parâmetro do sistema. e a carga é acrescida da seguinte forma

60 48 PLi = PLio (1 + σ ) (5.4) PGi = PGio (1 + σ ) (5.5) QLi = QLio (1 + σ ) (5.6) Onde PLi, PGi e QLi são respectivamente a carga ativa, a potência ativa gerada e carga reativa após a variação de σ. E PLio, PGio e QLio são os fatores iniciais na barra i. Substituindo (5.4) a (5.6) em (5.3) obtêm-se: θ g 1 θ l σ V l = [ J ] 1 P P Q go lo lo (5.7) Onde P θ g, go θ l, Vl, lo P, Q lo (npv) R (npq) R npv número de barras de geração (PV) npq número de barras de carga (PQ) Este vetor da equação (5.7) mostra como as variáveis do estado mudam em função de uma variação dos parâmetros do sistema, e seus maiores componentes indicam as barras mais prováveis para levar o sistema ao colapso da tensão. A aplicação desta técnica aos estudos da sensibilidade da perda é proposta dentro da referência [3]. Entretanto, a referência [4] mostra que o colapso da tensão e a redução da perda podem não ser conectado. Por outro lado, no estudo da referência [5] foi estabelecida uma conexão entre a redução de perdas e os problemas do colapso da tensão. Neste trabalho foram realizados vários experimentos que mostraram bons resultados entre a redução de perdas nas áreas criticas e o problema de colapso da tensão. Baseados neste estudo, aqui foram estabelecidos dois pontos: a redução da perda é executada com a auda de PSO e HPSOM, e tal redução ocorre na área identificada pela equação (5.7). A Tabela 5.3 mostra as quantidades das barras criticas (BCS) e as barras de carga (TBS) para cada sistema, por exemplo, no sistema IEEE 14 barras, apenas 4 barras são considerados com criticas e 9 barras são barras de carga. Tabela 5.3- Quantidade de Barras de Controle IEEE14 IEEE30 IEEE57 IEEE118 BCS TBS A Tabela 5.4 mostra a relação dos nomes das barras criticas (BCS) para cada sistema, por exemplo, no sistema IEEE 14 barras, apenas as 4 barras ( 10,12,13 e 14) são considerados com barras criticas dentro das 9 barras de carga.

61 49 Tabela 5.4- Relação dos sistemas com respectivas Barras Criticas Sistema BCS (Nomes das Barras) IEEE IEEE IEEE IEEE Antes de mostrar os resultados obtidos pelas simulações nos sistemas (IEEE 14,30, 57 e 118) será apresentado na próxima seção, um pequeno exemplo didático de aplicação num sistema de 4 barras, afim de tornar os conceitos de como aplicar os algoritmos (PSO e HPSOM) mais claros e simples de serem compreendidos Exemplo de aplicação usando Sistema de 4 barras A finalidade deste exemplo é de mostrar de uma forma didática, como os métodos (PSO e HPSOM) trabalham e também identificar os elementos envolvidos no processo de otimização. Isto será feito através de explicar e associar a nomenclatura usada pelos métodos com os conceitos á conhecidos na área de engenharia elétrica. O seguinte sistema simples de 4 barras é usado ( os dados do sistema se encontram no Apêndice A): ~ ~ Figure 5.1 Sistema elétrico simples Como caso base, a perda do sistema é dada por pu. A função obetivo deve reduzir este valor. Para esta finalidade, a instalação do capacitor shunt nas barras 3 e 4 é considerada. Estas barras têm bancos dos capacitores disponíveis, e a escala da compensação pode variar de 0 a 1 pu. Quando o processo foi iniciado, a seguinte população foi obtida: Tabela 5.5- A população inicial - sistema 4 barras Barra Barra Neste momento, é possível associar um significado físico com o que foi apresentado na seção 2.4 e também com o dicionário mostrado pelo autor do trabalho apresentado em [9]. Uma partícula é relacionada à ação do controle. Neste caso, qualquer par da compensação shunt nas barras 3 e 4 representa uma partícula. A população ou o enxame é um conunto das partículas, e neste exemplo, por simplificação, foi austado a 5. Os efeitos de cada

62 50 partícula na função obetivo podem ser calculados. Tal cálculo consiste em determinar a perda do sistema quando cada partícula (compensação shunt) é considerada. Para cada partícula, é obtido: Tabela 5.6- Relação das partículas e o seu valor de perdas - sistema 4 barras Partícula Perdas Dos resultados acima, pode determinar o melhor indivíduo. Como aquela é a primeira iteração, este valor á é o melhor indivíduo de cada partícula. O melhor global é dado pelo resultado do mais eficaz da população, que é dada pela partícula 4 (0.2181). A fim de gerar uma nova população, precisa-se considerar o melhor indivíduo de cada partícula, o melhor global da população, o peso da inércia, o coeficiente de aceleração e também a velocidade da partícula. Até este ponto, o valor inicial da população é mantido igual para os dois algoritmos (PSO e HPSOM) e daqui para adiante o processo de otimização será divido em duas direções: usando PSO e HPSOM Usando PSO: Como está na primeira iteração e com a população inicial á foi gerada então, seguindo o algoritmo (Figura 2.6), os valores das velocidades das partículas são calculados pela equação 2.3: Tabela 5.7(a)- Relação das partículas e suas velocidades sistema 4 barras (PSO) Partícula Barra Barra Uma vez que a velocidade é conhecida, a nova população é calculada pela equação 2.7, gerando os seguintes resultados: Tabela 5.7(b)- A nova população (1ª- Iteração) sistema 4 barras (PSO) Partícula Barra Barra O melhor individual pode agora ser obtido da seguinte forma: para cada partícula, o valor nesta iteração é comparado com os valores na iteração precedente. Isto dá os resultados abaixo. O número entre parênteses indica a iteração onde o melhor individual ocorre. Tabela 5.7 (c)- O melhor individual de cada partícula sistema 4 barras (PSO) Partícula Melhor Ind (2) (2) (2) (2) (2)

63 51 É importante mencionar que, não necessariamente, todas as partículas produzem resultados melhores com a evolução do processo. Isto significa que, uma partícula qualquer pode se mover para uma posição associada com resultado pior do que obtido na iteração anterior. Isto é, a base do processo cognitivo e estocástico. Pode-se observar que o valor (partícula 4) é o melhor valor global desta população, uma vez que tem o menor valor de perda do sistema. Isto significa que, até então, a partícula 4 com os valores (0.0761, ) tem os melhores resultados. Então, a barra 3 deve experimentar compensação shunt com o valor de aproximadamente pu, e a barra 4 com o valor shunt de pu. O processo é repetido, e a velocidade de cada partícula deve ser calculada, como também a sua nova posição. Após a quinta e última iteração os resultados obtidos foram: Tabela 5.7(d)- A população da última (5ª- Iteração) sistema 4 barras (PSO) Partícula Barra Barra Neste caso, a função obetivo para cada partícula é dada por: Tabela 5.7(e)- O melhor global de cada partícula sistema 4 barras (PSO) Partícula Perdas Desta vez, a partícula 3 está associada com o melhor valor global. Esta partícula indica uma compensação de pu na barra 3 e na barra 4. Note que, nas primeiras duas iterações, a partícula 4 era a melhor global. Esta característica importante mostra que todas as partículas devem ser focalizadas a fim de buscar uma boa direção. Por ser um exemplo ilustrativo, apenas o número de iterações foi empregado como o único critério de parada Usando HPSOM: Repete-se agora o processo usando o HPSOM. A partir da primeira iteração e com a população inicial á gerada ( Tabelas ), os valores das velocidades das partículas são calculados pela equação 5.3: Tabela 5.8(a)- Relação das partículas e suas velocidades sistema 4 barras (HPSOM) Partícula Barra Barra Uma vez que a velocidade é conhecida, a nova população é calculada pela equação 2.7, gerando as seguintes resultados:

64 52 Tabela 5.8(b)- A nova população (1ª- Iteração) sistema 4 barras (HPSOM) Partícula Barra Barra Neste momento, o processo de mutação é iniciado, e o valor da equação é calculado. A taxa de mutação usada neste exemplo é de 30%. Isto significa que somente 2 partículas serão selecionadas aleatoriamente do enxame (com a população de 5). Usando a equação 4.1 o valor do mut é calculado da seguinte forma: ω = [,0.1* ( x )] 0 xmax = , onde, min x = min 0, x = 1. max 0 As partículas selecionadas aleatoriamente para esta iteração são as partículas 2 e 3. Para ilustrar como a equação do mutação é calculada, o processo do mutação para a partícula 2 da barra 3 é dado pelo : mut (p[2,3])=(0.0451*-1) = Os valores das partículas nas barras 3 e 4, antes e depois da mutação, são dados por: Tabela 5.8(c)- As partículas sorteados para a Mutação sistema 4 barras (HPSOM) Partículas 2 Barra 3 3 Barra 3 2 Barra 4 3 Barra 4 Antes Depois A nova população após a mutação é dada por: Tabela 5.8(d)- A nova população antes e depois da Mutação sistema 4 barras (HPSOM) Partícula Barra Barra Para esta população o valor da função obetivo associado a cada partícula é calculado da seguinte forma: Tabela 5.8(e)- Relação das partículas e o seu valor de perdas - sistema 4 barras (HPSOM) Partícula Perdas O número entre parentes indica a iteração onde o melhor individual foi encontrado. Tabela 5.8 (f)- O melhor individual de cada partícula sistema 4 barras(hpsom) Partícula Melhor Ind (1) (1) (1) (2) (2) O valor (isto é a partícula (0.0686, )) é a partícula com o melhor global desta população, uma vez que tem o menor valor de perda do sistema. Isto significa que, a barra 3 deve experimentar compensação shunt com o valor de aproximadamente pu, e a barra 4 com o valor shunt de aproximadamente pu. O processo é repetido, e a

65 53 velocidade de cada partícula deve ser calculada, bem como também a mutação e sua nova posição. Após a quinta e última iteração os resultados obtidos foram: Tabela 5.8(g)- A população da última (5ª- Iteração) sistema 4 barras (HPSOM) Partícula Bus Bus Neste caso, a função obetiva para cada partícula é dada por: Tabela 5.8(h)- O melhor global de cada partícula sistema 4 barras (HPSOM) Partícula Perdas Desta vez, a partícula 3 está associada com o melhor valor global. Esta partícula indica uma compensação shunt de pu na barra 3 e na barra 4. Note que, nas primeiras duas iterações, a partícula 4 era o melhor global. Nota-se, os resultados finais foram diferentes nos dois casos usando o mesmo número de população e iterações a pesar que, a partícula associada com o menor perda foi por acaso a mesma (partícula 3), no PSO a perda do sistema foi de e no HPSOM foi de , desta forma o HPSOM apresentou melhor desempenho Simulação do Sistema IEEE14 barras Nesta seção serão apresentados os resultados de simulações no Sistema IEEE 14 barras, inicialmente na barras criticas (BCS) e em seguida em todas as barras (TBS) Simulação nas BCS IEEE14 As Tabelas 5.9 e 5.11 mostram os resultados obtidos pelas simulações realizadas para o sistema IEEE 14 barras para fator de carregamento de 1pu. Analisando as tabelas, e comparando os três métodos, pode se observar melhores resultados obtidos pelo HPSOM comparando com PSO e MPC na redução de perdas. O HPSOM apresentou melhores resultados comparando com MPC desde a primeira simulação com população = 5 e iterações =5 (ver Tabela 5.11). No caso de PSO e MPC, o algoritmo PSO apresentou uma redução melhor a partir da iteração = 35 ( ver Tabela 5.10). Tabela Resultados obtidos pelo MPC Sistema IEEE 14 Barras Criticas (BCT) Iterações = 6 Tempo de Simulação (s) = 0.89 Perda de Potência Ativa (antes) (pu) = Perda de Potência Ativa (depois) (pu) = Redução de P.P. Ativa (pu) =

66 54 Tabela Resultados obtidos pelo PSO no sistema IEEE 14 barras Criticas Iteração Numero de População = 5 - PSO Perda Potência Ativa (antes) (pu) = P.P. Ativa (depois) (pu) Redução de P. P. Ativa (pu) Tempo de simulação (s) Total Shunt instalado (pu) (a)- PSO (b)- HPSOM Figura 5.2 A evolução dos algoritmos PSO/HPSOM IEEE 14- Barras Criticas

67 55 Tabela Resultados obtidos pelo HPSOM sistema IEEE 14 barras Criticas Iteração Numero de População = 5 HPSOM Perda Potência Ativa (antes) (pu) = P.P. Ativa (depois) (pu) Redução de P. P. Ativa (pu) Tempo de simulação (s) Total Shunt instalado (pu) (a)- PSO (b)- HPSOM Figure 5.3-: O comportamento das partículas usando PSO/HPSOM - Pop(5)

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO

INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO INSTITUTO DE PÓS GRADUAÇÃO ICPG GESTÃO DA TECNOLOGIA DA INFORMAÇÃO Prof. Msc. Saulo Popov Zambiasi (saulopz@gmail.com) Informação - ICPG - Criciuma - SC 1 Características Gerais, operadores, algoritmo.

Leia mais

Método de Hardy-Cross Capitulo 13- Algoritmo genético engenheiro Plínio Tomaz 24 dezembro de Algoritmo genético 13-1

Método de Hardy-Cross Capitulo 13- Algoritmo genético engenheiro Plínio Tomaz 24 dezembro de Algoritmo genético 13-1 1 Algoritmo genético 13-1 2 Capítulo 13-Algoritmo genético 13.1 Introdução As tecnologias recentes para dimensionamento de redes de água são: Algoritmo genético Programação Dinâmica Decision Support System

Leia mais

Algoritmos Genéticos. Princípio de Seleção Natural. Sub-áreas da Computação Evolutiva. Idéias básicas da CE. Computação Evolutiva

Algoritmos Genéticos. Princípio de Seleção Natural. Sub-áreas da Computação Evolutiva. Idéias básicas da CE. Computação Evolutiva Computação Evolutiva Algoritmos Genéticos A computação evolutiva (CE) é uma área da ciência da computação que abrange modelos computacionais inspirados na Teoria da Evolução das Espécies, essencialmente

Leia mais

3 Algoritmos Genéticos

3 Algoritmos Genéticos Técnicas de Inteligência Computacional 33 3 Algoritmos Genéticos Este capítulo resume os principais conceitos sobre o algoritmo evolucionário empregado nesta dissertação. É apresentada uma breve explicação

Leia mais

Introdução aos Algoritmos Genéticos

Introdução aos Algoritmos Genéticos Introdução aos Algoritmos Genéticos Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Algoritmos Genéticos: Introdução Introduzidos

Leia mais

3. Resolução de problemas por meio de busca

3. Resolução de problemas por meio de busca Inteligência Artificial - IBM1024 3. Resolução de problemas por meio de busca Prof. Renato Tinós Local: Depto. de Computação e Matemática (FFCLRP/USP) 1 Principais Tópicos 3. Resolução de problemas por

Leia mais

Estratégias Evolutivas EEs. Prof. Juan Moisés Mauricio Villanueva

Estratégias Evolutivas EEs. Prof. Juan Moisés Mauricio Villanueva Estratégias Evolutivas EEs Prof. Juan Moisés Mauricio Villanueva jmauricio@cear.ufpb.br www.cear.ufpb.br/juan Estratégias Evolutivas Desenvolvidas por Rechenberg e Schwefel, e estendida por Herdy, Kursawe

Leia mais

Algoritmos Genéticos. Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008

Algoritmos Genéticos. Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008 Estéfane G. M. de Lacerda DCA/UFRN Outubro/2008 Introdução São técnicas de busca e otimização. É a metáfora da teoria da evolução das espécies iniciada pelo Fisiologista e Naturalista inglês Charles Darwin.

Leia mais

Inteligência Artificial. Algoritmos Genéticos. Aula I Introdução

Inteligência Artificial. Algoritmos Genéticos. Aula I Introdução Universidade Estadual do Oeste do Paraná Curso de Bacharelado em Ciência da Computação Inteligência Artificial Algoritmos Genéticos Aula I Introdução Roteiro Introdução Computação Evolutiva Algoritmos

Leia mais

Algoritmos Genéticos. Pontos fracos dos métodos tradicionais. Características de alguns problemas. Tamanho do espaço de busca- Ex. caixeiro viajante:

Algoritmos Genéticos. Pontos fracos dos métodos tradicionais. Características de alguns problemas. Tamanho do espaço de busca- Ex. caixeiro viajante: Algoritmos Genéticos Prof. Luis Otavio Alvares INE/UFSC Características de alguns problemas Tamanho do espaço de busca- Ex. caixeiro viajante: 10 cidades: 181.000 soluções 20 cidades: 10.000.000.000.000

Leia mais

4 Métodos Existentes. 4.1 Algoritmo Genético

4 Métodos Existentes. 4.1 Algoritmo Genético 61 4 Métodos Existentes A hibridização de diferentes métodos é em geral utilizada para resolver problemas de escalonamento, por fornecer empiricamente maior eficiência na busca de soluções. Ela pode ser

Leia mais

Algoritmo Genético. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Algoritmo Genético. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Algoritmo Genético Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução 2. Conceitos Básicos 3. Aplicações 4. Algoritmo 5. Exemplo Introdução São técnicas de busca

Leia mais

Computação Evolutiva Eduardo do Valle Simões Renato Tinós ICMC - USP

Computação Evolutiva Eduardo do Valle Simões Renato Tinós ICMC - USP Computação Evolutiva Eduardo do Valle Simões Renato Tinós ICMC - USP 1 Principais Tópicos Introdução Evolução Natural Algoritmos Genéticos Aplicações Conclusão 2 Introdução http://www.formula-um.com/ Como

Leia mais

Computação Evolutiva. Computação Evolutiva. Principais Tópicos. Evolução natural. Introdução. Evolução natural

Computação Evolutiva. Computação Evolutiva. Principais Tópicos. Evolução natural. Introdução. Evolução natural Computação Evolutiva Eduardo do Valle Simões Renato Tinós ICMC - USP Principais Tópicos Introdução Evolução Natural Algoritmos Genéticos Aplicações Conclusão 1 2 Introdução Evolução natural http://www.formula-um.com/

Leia mais

Aprendizado Evolutivo: Introdução aos Algoritmos Genéticos

Aprendizado Evolutivo: Introdução aos Algoritmos Genéticos Aprendizado Evolutivo: Introdução aos Algoritmos Genéticos SCC-230 Inteligência Artificial Thiago A. S. Pardo Solange O. Rezende 1 Computação Evolutiva (CE) Trata de sistemas para a resolução de problemas

Leia mais

ESTUDO DOS PARAMETROS DE UM ALGORITMO GENÉTICO PARA POSTERIOR USO NA SOLUÇÃO DE PROBLEMAS DO TIPO JOB-SHOP

ESTUDO DOS PARAMETROS DE UM ALGORITMO GENÉTICO PARA POSTERIOR USO NA SOLUÇÃO DE PROBLEMAS DO TIPO JOB-SHOP ESTUDO DOS PARAMETROS DE UM ALGORITMO GENÉTICO PARA POSTERIOR USO NA SOLUÇÃO DE PROBLEMAS DO TIPO JOB-SHOP Gilson Rogério Batista, Gideon Villar Leandro Universidade Regional do Noroeste do Estado do Rio

Leia mais

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO AULA 06 Algoritmos Genéticos Sumário Introdução Inteligência Artificial (IA) Algoritmos Genéticos Aplicações de

Leia mais

1. Computação Evolutiva

1. Computação Evolutiva Computação Bioinspirada - 5955010-1 1. Computação Evolutiva Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 1.7. Outras Metaheurísticas Populacionais 1.7.1. Metaheurísticas Populacionais

Leia mais

4 Implementação Computacional

4 Implementação Computacional 4 Implementação Computacional 4.1. Introdução Neste capítulo é apresentada a formulação matemática do problema de otimização da disposição das linhas de ancoragem para minimizar os deslocamentos (offsets)

Leia mais

Tópicos Especiais em Informática Fatec Indaiatuba

Tópicos Especiais em Informática Fatec Indaiatuba Prof. Dilermando Piva Jr. ((Compilação de diversas fontes na Internet)) Principal motivação para o estudo da computação evolutiva Otimização de processos complexo e que possuem um grande número de variáveis

Leia mais

3 Algoritmos Genéticos

3 Algoritmos Genéticos Algoritmos Genéticos Algoritmos Genéticos (AGs) constituem um mecanismo de busca adaptativa que se baseia no princípio Darwiniano de seleção natural e reprodução genética [101]. AGs são tipicamente empregados

Leia mais

Técnicas de Inteligência Artificial

Técnicas de Inteligência Artificial Universidade do Sul de Santa Catarina Ciência da Computação Técnicas de Inteligência Artificial Aula 9 Algoritmos Genéticos Max Pereira Algoritmos Genéticos Algoritmos Genéticos São técnicas de busca e

Leia mais

Max Pereira. Inteligência Artificial

Max Pereira. Inteligência Artificial Max Pereira Inteligência Artificial Algoritmos Genéticos Algoritmos Genéticos São técnicas de busca e otimização. Uma metáfora da teoria da evolução das espécies iniciada pelo Naturalista inglês Charles

Leia mais

Figura 3.1: Fluxograma do algoritmo da Programação Genética.

Figura 3.1: Fluxograma do algoritmo da Programação Genética. 3 Programação Genética O termo Programação Genética passou a ser utilizado em 1990 nos trabalhos publicados por Koza [30] e De Garis [31]. A definição de Koza para este termo passou a predominar após a

Leia mais

Técnicas de Inteligência Artificial

Técnicas de Inteligência Artificial Universidade do Sul de Santa Catarina Ciência da Computação Técnicas de Inteligência Artificial Aula 9 Algoritmos Genéticos Max Pereira Algoritmos Genéticos São técnicas de busca e otimização. Uma metáfora

Leia mais

Codificação das variáveis: binária Iniciação da população: aleatória Avaliação: função aptidão Operadores. Critério de parada: número de gerações

Codificação das variáveis: binária Iniciação da população: aleatória Avaliação: função aptidão Operadores. Critério de parada: número de gerações AG Simples/Canônico (AGS) AG introduzido por Holland Funciona bem para problemas de otimização simples e/ou de pequenas dimensões A maior parte da teoria dos AGs está baseada no AGS Utilidade didática

Leia mais

Exemplo de Aplicação de Algoritmos Genéticos. Prof. Juan Moisés Mauricio Villanueva cear.ufpb.br/juan

Exemplo de Aplicação de Algoritmos Genéticos. Prof. Juan Moisés Mauricio Villanueva cear.ufpb.br/juan Exemplo de Aplicação de Algoritmos Genéticos Prof. Juan Moisés Mauricio Villanueva jmauricio@cear.ufpb.br cear.ufpb.br/juan Estrutura do Algoritmo Genético Algoritmo genético Inicio t = 0 inicializar P(t)

Leia mais

Algoritmos Genéticos

Algoritmos Genéticos Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Algoritmos Genéticos Aluno: Fabricio Aparecido Breve Prof.: Dr. André Ponce de Leon F. de Carvalho São Carlos São Paulo Maio

Leia mais

3. ALGORITMOS GENÉTICOS

3. ALGORITMOS GENÉTICOS 1 3. ALGORITMOS GENÉTICOS PARTE 1 3.1 Analogia Física: a evolução das espécies 3.2 A Tradução Matemática: o algoritmo básico 3.3 Codificação dos Indivíduos 3.4 Avaliação da Aptidão de um Indivíduo 3.5

Leia mais

Algoritmos Genéticos. Texto base: Stuart Russel e Peter Norving - Inteligência Artificial

Algoritmos Genéticos. Texto base: Stuart Russel e Peter Norving - Inteligência Artificial Algoritmos Genéticos Texto base: Stuart Russel e Peter Norving - Inteligência Artificial junho/2007 Algoritmo Genético Uma variante da busca em feixe estocástica Estado sucessor gerado pela combinação

Leia mais

Algoritmos genéticos Abordagem unificada de algoritmos evolutivos simples

Algoritmos genéticos Abordagem unificada de algoritmos evolutivos simples Introdução Inspiração biológica Histórico da computação evolutiva Algoritmo evolutivo simples Programação evolutiva Estratégias evolutivas Algoritmos genéticos Abordagem unificada de algoritmos evolutivos

Leia mais

Algoritmos Genéticos e Evolucionários

Algoritmos Genéticos e Evolucionários Algoritmos Genéticos e Evolucionários Djalma M. Falcão COPPE/UFRJ PEE e NACAD falcao@nacad.ufrj.br http://www.nacad.ufrj.br/~falcao/ http://www.nacad.ufrj.br/~falcao/ag/ag.htm Resumo do Curso Introdução

Leia mais

ALGORITMO GENÉTICO COMO REPRESENTAÇÃO DAS MUTAÇÕES NA BIOLOGIA

ALGORITMO GENÉTICO COMO REPRESENTAÇÃO DAS MUTAÇÕES NA BIOLOGIA Patrocínio, MG, outubro de 2016 ENCONTRO DE PESQUISA & EXTENSÃO, 3., 2016, Patrocínio. Anais... Patrocínio: IFTM, 2016. ALGORITMO GENÉTICO COMO REPRESENTAÇÃO DAS MUTAÇÕES NA BIOLOGIA Igor Acassio Melo

Leia mais

Inteligência Artificial

Inteligência Artificial Inteligência Artificial Prof. Kléber de Oliveira Andrade pdjkleber@gmail.com Algoritmos Genéticos Conteúdo Introdução O Algoritmo Genético Binário Noções de Otimização O Algoritmo Genético com Parâmetros

Leia mais

11/1/2012. Agenda. Classe de problemas de interesse. Busca Local. Busca Local. Exemplo de Espaço de Estados

11/1/2012. Agenda. Classe de problemas de interesse. Busca Local. Busca Local. Exemplo de Espaço de Estados Agenda PCS / PCS 09 Inteligência Artificial Prof. Dr. Jaime Simão Sichman Profa. Dra. Anna Helena Reali Costa Busca Local e Problemas de Otimização. Introdução. Busca Local I. Subida da Encosta (Hill-Climbing)

Leia mais

ALGORITMOS GENÉTICOS. Adair Santa Catarina Curso de Ciência da Computação Unioeste Campus de Cascavel PR

ALGORITMOS GENÉTICOS. Adair Santa Catarina Curso de Ciência da Computação Unioeste Campus de Cascavel PR ALGORITMOS GENÉTICOS Adair Santa Catarina Curso de Ciência da Computação Unioeste Campus de Cascavel PR Fev/2018 Introdução Algoritmos Genéticos são algoritmos heurísticos de busca, que utilizam regras

Leia mais

Inteligência Artificial

Inteligência Artificial Inteligência Artificial Aula 6 Algoritmos Genéticos M.e Guylerme Velasco Roteiro Introdução Otimização Algoritmos Genéticos Representação Seleção Operadores Geneticos Aplicação Caixeiro Viajante Introdução

Leia mais

Algoritmos Genéticos

Algoritmos Genéticos Algoritmos Genéticos Roteiro Introdução Algoritmos Genéticos Otimização Representação Seleção Operadores Genéticos Aplicação Caixeiro Viajante Introdução Algoritmos Genéticos (AGs), são métodos de otimização

Leia mais

Metahuerísticas: Algoritmos Genéticos. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng.

Metahuerísticas: Algoritmos Genéticos. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. Metahuerísticas: Algoritmos Genéticos Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 8) Meta-heurísticas Classificação de métodos heurísticos: os métodos

Leia mais

Modelos Evolucionários e Tratamento de Incertezas

Modelos Evolucionários e Tratamento de Incertezas Ciência da Computação Modelos Evolucionários e Tratamento de Incertezas Aula 01 Computação Evolucionária Max Pereira Motivação Se há uma multiplicidade impressionante de algoritmos para solução de problemas,

Leia mais

Algoritmos Genéticos. 1 Semestre de Cleber Zanchettin UFPE - Universidade Federal de Pernambuco CIn - Centro de Informática

Algoritmos Genéticos. 1 Semestre de Cleber Zanchettin UFPE - Universidade Federal de Pernambuco CIn - Centro de Informática Algoritmos Genéticos 1 Semestre de 2015 Cleber Zanchettin UFPE - Universidade Federal de Pernambuco CIn - Centro de Informática 1 2 Introdução Darwin Naturalistas: cada espécie havia sido criada separadamente

Leia mais

Problema de Satisfação de Restrições

Problema de Satisfação de Restrições Problema de Satisfação de Restrições Exemplos de PSR (CSP, Constraint Satisfaction Problem) Busca genérica aplicada a PSRs Backtracking Verificação forward Heurísticas para PSRs Problema de Satisfação

Leia mais

Problema de Satisfação de Restrições. Problema de Satisfação de Restrições. Grafo de restrições. Exemplo: 4 Rainhas como um PSR

Problema de Satisfação de Restrições. Problema de Satisfação de Restrições. Grafo de restrições. Exemplo: 4 Rainhas como um PSR Problema de Satisfação de Restrições Problema de Satisfação de Restrições Exemplos de PSR (CSP, Constraint Satisfaction Problem) Busca genérica aplicada a PSRs Backtracking Verificação forward Heurísticas

Leia mais

1. Computação Evolutiva

1. Computação Evolutiva Computação Bioinspirada - 5955010-1 1. Computação Evolutiva Prof. Renato Tinós Programa de Pós-Graduação Em Computação Aplicada Depto. de Computação e Matemática (FFCLRP/USP) 2 Computação Bioinspirada

Leia mais

Computação Evolutiva. Prof. Eduardo R. Hruschka (Slides baseados nos originais do Prof. André C. P. L. F. de Carvalho)

Computação Evolutiva. Prof. Eduardo R. Hruschka (Slides baseados nos originais do Prof. André C. P. L. F. de Carvalho) Computação Evolutiva Prof. Eduardo R. Hruschka (Slides baseados nos originais do Prof. André C. P. L. F. de Carvalho) Principais Tópicos Computação Evolutiva Algoritmos Genéticos Codificação Função de

Leia mais

Introdução a Algoritmos Genéticos

Introdução a Algoritmos Genéticos Introdução a Algoritmos Genéticos Tiago da Conceição Mota Laboratório de Inteligência Computacional Núcleo de Computação Eletrônica Universidade Federal do Rio de Janeiro Outubro de 2007 O Que São? Busca

Leia mais

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid 1 Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid Luciana Conceição Dias Campos Resumo Este trabalho consiste da aplicação de um algoritmo genético ao método

Leia mais

Algoritmos Evolutivos para Otimização

Algoritmos Evolutivos para Otimização Algoritmos Evolutivos para Otimização A área de aplicação que tem recebido mais atenção é a otimização. Uma das razões é que existem uma variedade de problemas de otimização e a maioria deles sem solução

Leia mais

4 Metáforas de Optimização

4 Metáforas de Optimização 4 Metáforas de Optimização O gigantesco avanço tecnológico que vem sofrendo os sistemas de computação, mais precisamente as unidades de processamento, criou a base para o uso efetivo da Inteligência Computacional,

Leia mais

Algoritmos Evolutivos Canônicos

Algoritmos Evolutivos Canônicos Algoritmos Evolutivos Canônicos Como representar os indivíduos Vetor de comprimento fixo com L características escolhidas previamente. Ex.: Definição

Leia mais

Otimização com Algoritmos Genéticos no MATLAB. Prof. Rafael Saraiva Campos CEFET-RJ

Otimização com Algoritmos Genéticos no MATLAB. Prof. Rafael Saraiva Campos CEFET-RJ Otimização com Algoritmos Genéticos no MATLAB Prof. Rafael Saraiva Campos CEFET-RJ Conteúdo do Mini-Curso PARTE 1 Teoria PARTE 2 Prática Conteúdo do Mini-Curso PARTE 1 Teoria 1.1. Conceitos Básicos de

Leia mais

Otimização. Unidade 6: Algoritmo Genético. Jaime Arturo Ramírez. 7. Teoria do processo evolutivo num GA. 8. Aspectos avançados

Otimização. Unidade 6: Algoritmo Genético. Jaime Arturo Ramírez. 7. Teoria do processo evolutivo num GA. 8. Aspectos avançados Otimização Jaime Arturo Ramírez Conteúdo 1. Introdução 2. Analogia de mecanismos de seleção natural com sistemas artificiais 3. Algoritmo genético modelo 4. Um GA simples 5. Representação, genes e cromossomos

Leia mais

3 Otimização Evolucionária de Problemas com Restrição

3 Otimização Evolucionária de Problemas com Restrição 3 Otimização Evolucionária de Problemas com Restrição 3.1. Introdução Este capítulo resume os principais conceitos sobre os algoritmos evolucionários empregados nesta dissertação. Primeiramente, se fornece

Leia mais

IF-705 Automação Inteligente Algoritmos Evolucionários

IF-705 Automação Inteligente Algoritmos Evolucionários IF-705 Automação Inteligente Algoritmos Evolucionários Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação aluizioa@cin.ufpe.br

Leia mais

UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ ALGORITMOS GENÉTICOS. Metaheurísticas de Buscas

UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ ALGORITMOS GENÉTICOS. Metaheurísticas de Buscas PR UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ ALGORITMOS GENÉTICOS Metaheurísticas de Buscas ALGORITMOS GENÉTICOS (AG) Popularizados por John Holland podem ser considerados os primeiros modelos algorítmicos

Leia mais

PSO Particle Swarm Optimization ou Otimização por enxame de partículas Introdução Inspiração Funcionamento Parametrização

PSO Particle Swarm Optimization ou Otimização por enxame de partículas Introdução Inspiração Funcionamento Parametrização Manoela Kohler PSO Particle Swarm Optimization ou Otimização por enxame de partículas Introdução Inspiração Funcionamento Parametrização Variantes de PSO Aplicações PSO+: algoritmo baseado em enxame de

Leia mais

3 Métodos de Otimização

3 Métodos de Otimização 3 Métodos de Otimização Problemas de otimização são relacionados a minimização ou maximização de função de uma ou mais variáveis num determinado domínio, possivelmente com a existência de um conjunto de

Leia mais

3 Computação Evolucionária

3 Computação Evolucionária 34 3 Computação Evolucionária Computação Evolucionária compreende diversos algoritmos inspirados no princípio Darwiniano da evolução das espécies e na genética. São algoritmos probabilísticos, que fornecem

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 06 Algoritmos Genéticos Edirlei Soares de Lima Algoritmos Genéticos Método de busca local. Boa abordagem para lidar com espaços de busca muito

Leia mais

CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro

CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa. Prof. Paulo André Castro CTC-17 Inteligência Artificial Busca Competitiva e Busca Iterativa Prof. Paulo André Castro pauloac@ita.br www.comp.ita.br/~pauloac Sala 110, IEC-ITA Sumário Busca Competitiva Para Ambientes multiagentes...

Leia mais

APLICAÇÃO DE ALGORITMOS BIO-INSPIRADOS EM CONTROLE ÓTIMO

APLICAÇÃO DE ALGORITMOS BIO-INSPIRADOS EM CONTROLE ÓTIMO APLICAÇÃO DE ALGORITMOS BIO-INSPIRADOS EM CONTROLE ÓTIMO Profa. Mariana Cavalca Baseado em: Material didático do Prof. Dr. Carlos Henrique V. Moraes da UNIFEI Curso de verão da Profa. Gisele L. Pappa Material

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

Estrutura comum dos AEs Seleção

Estrutura comum dos AEs Seleção Estrutura comum dos AEs Seleção Todos os AEs mantém uma população de tamanho m por: Utilizando uma população como fonte de pais para produzir n descendentes Reduzindo o tamanho da população expandida de

Leia mais

INTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL. Aula 06 Prof. Vitor Hugo Ferreira

INTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL. Aula 06 Prof. Vitor Hugo Ferreira Universidade Federal Fluminense Escola de Engenharia Departamento de Engenharia Elétrica INTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL Aula 06 Prof. Vitor Hugo Ferreira Representação por cromossomos Codificação

Leia mais

Algoritmos Genéticos

Algoritmos Genéticos Algoritmos Genéticos Introdução Um Algoritmo Genético (AG), conceitualmente, segue passos inspirados no processo biológico de evolução natural segundo a teoria de Darwin Algoritmos Genéticos seguem a idéia

Leia mais

OTIMIZAÇÃO FUNÇÕES UTILIZANDO ALGORITMOS GENÉTICOS NO APLICATIVO MS EXCEL RESUMO INTRODUÇÃO

OTIMIZAÇÃO FUNÇÕES UTILIZANDO ALGORITMOS GENÉTICOS NO APLICATIVO MS EXCEL RESUMO INTRODUÇÃO OTIMIZAÇÃO FUNÇÕES UTILIZANDO ALGORITMOS GENÉTICOS NO APLICATIVO MS EXCEL Miquéias Augusto Ferreira Nantes 1, Douglas Peixoto de Carvalho 1 (Alunos do Curso de Matemática da Universidade Anhanguera - Uniderp)

Leia mais

Aprendizado por Reforço usando Aproximação

Aprendizado por Reforço usando Aproximação Aprendizado por Reforço usando Aproximação de Funções Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Aproximação de Funções 2. Do the evolution 1 Aproximação de Funções Função Utilidade

Leia mais

Inteligência Computacional Aplicada. O que é Inteligência Computacional? Áreas de Aplicação Algoritmos Genéticos

Inteligência Computacional Aplicada. O que é Inteligência Computacional? Áreas de Aplicação Algoritmos Genéticos Inteligência Computacional Aplicada Resumo O que é Inteligência Computacional? Áreas de Aplicação Algoritmos Genéticos O que é Inteligência Computacional? Técnicas e sistemas computacionais que imitam

Leia mais

OTIMIZAÇÃO DA LIMPEZA DE REDES DE TROCADORES DE CALOR EMPREGANDO OS ALGORITMOS GENÉTICOS

OTIMIZAÇÃO DA LIMPEZA DE REDES DE TROCADORES DE CALOR EMPREGANDO OS ALGORITMOS GENÉTICOS OTIMIZAÇÃO DA LIMPEZA DE REDES DE TROCADORES DE CALOR EMPREGANDO OS ALGORITMOS GENÉTICOS C. de O. GONÇALVES 1, E. M. QUEIROZ 2, F. L. P. PESSOA 2, F. S. LIPORACE 3, S. G. OLIVEIRA 3 e A. L. H. COSTA 1

Leia mais

3 Otimização Aplicada a Reconstituição de Acidentes

3 Otimização Aplicada a Reconstituição de Acidentes 27 3 Otimização Aplicada a Reconstituição de Acidentes 3.1. Otimização A otimização é uma metodologia empregada para minimizar ou maximizar uma função e geralmente são utilizados em problemas onde existam

Leia mais

Computação Evolutiva. Prof. Eduardo R. Hruschka (Slides baseados nos originais do Prof. André C. P. L. F. de Carvalho)

Computação Evolutiva. Prof. Eduardo R. Hruschka (Slides baseados nos originais do Prof. André C. P. L. F. de Carvalho) Computação Evolutiva Prof. Eduardo R. Hruschka (Slides baseados nos originais do Prof. André C. P. L. F. de Carvalho) Principais Tópicos Computação Evolutiva Algoritmos Genéticos Codificação Função de

Leia mais

Minicurso Inteligência Artificial Aplicada a Sistemas Elétricos. Niterói, 12 de Maio de 2018

Minicurso Inteligência Artificial Aplicada a Sistemas Elétricos. Niterói, 12 de Maio de 2018 Minicurso Inteligência Artificial Aplicada a Sistemas Elétricos Niterói, 12 de Maio de 2018 Realização 2 Realização 3 Programação: manhã 9:30h-10:30H VISÃO GERAL: OTIMIZAÇÃO E INTELIGÊNCIA COMPUTACIONAL

Leia mais

Créditos. Introdução a Sistemas Inteligentes. Agenda Introdução Breve Histórico. Introdução. Introdução aos Algoritmos Evolutivos

Créditos. Introdução a Sistemas Inteligentes. Agenda Introdução Breve Histórico. Introdução. Introdução aos Algoritmos Evolutivos Introdução a Sistemas Inteligentes Introdução aos Algoritmos Evolutivos Créditos Este material consiste de adaptações e extensões dos originais gentilmente cedidos: pelo Prof. Dr. Eduardo Raul Hruschka

Leia mais

Métodos de Busca. Inteligência Artificial. Algoritmos Genéticos. Algoritmos Evolucionários. Prof. Ms. Luiz Alberto Contato:

Métodos de Busca. Inteligência Artificial. Algoritmos Genéticos. Algoritmos Evolucionários. Prof. Ms. Luiz Alberto Contato: Inteligência Artificial Prof. Ms. Luiz Alberto Contato: lasf.bel@gmail.com Métodos de Busca Busca Cega ou Exaustiva: Não sabe qual o melhor nó da fronteira a ser expandido. Apenas distingue o estado objetivo

Leia mais

Inteligência de Enxame

Inteligência de Enxame Inteligência de Enxame! Inteligência de enxames é a denominação aplicada a tentativa de desenvolvimento de algoritmos para a solução distribuída de problemas inspirando-se no comportamento coletivo de

Leia mais

Computação Evolutiva. Aula 4 Usando AEs Prof. Tiago A. E. Ferreira

Computação Evolutiva. Aula 4 Usando AEs Prof. Tiago A. E. Ferreira Computação Evolutiva Aula 4 Usando AEs Prof. Tiago A. E. Ferreira Roteiro Exemplos: Problema das 8 rainhas Comportamentos Típicos dos AE CE no contexto da Otimização Global Relembrando Na Aula Passada,

Leia mais

Aplicação da Metaheurística Algoritmos Genéticos na solução do problema das n Rainhas

Aplicação da Metaheurística Algoritmos Genéticos na solução do problema das n Rainhas Aplicação da Metaheurística Algoritmos Genéticos na solução do problema das n Rainhas Resumo Gardiego Luiz da Silva 1 Henrique Faria de Oliveira 2 Faculdade

Leia mais

Implementação De Um Algoritmo Genético Codificado Para A Solução do Problema do Caixeiro Viajante

Implementação De Um Algoritmo Genético Codificado Para A Solução do Problema do Caixeiro Viajante Implementação De Um Algoritmo Genético Codificado Para A Solução do Problema do Caixeiro Viajante 1 Resumo Neste trabalho será realizada a codificação do algoritmo genético para a solução do problema do

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 04 Algoritmos Genéticos Introdução Algoritmos genéticos são bons para abordar espaços de buscas muito grandes e navegálos

Leia mais

PEA 2522 MÉTODOS DE OTIMIZAÇÃO. Otimização

PEA 2522 MÉTODOS DE OTIMIZAÇÃO. Otimização PEA MÉTODOS DE OTIMIZAÇÃO Otimização Definir claramente o problema a ser resolvido Estabelecer os limites físicos (capacidades, restrições) Definir o modelo matemático adequado PEA 8 - PLANEJAMENTO DE

Leia mais

ESTUDO DO EFEITO DOS PARÂMETROS GENÉTICOS DE UM ALGORITMO GENÉTICO NA SOLUÇÃO OTIMIZADA E NO TEMPO DE CONVERGÊNCIA EM UMA FUNÇÃO DE DUAS VARIÁVEIS

ESTUDO DO EFEITO DOS PARÂMETROS GENÉTICOS DE UM ALGORITMO GENÉTICO NA SOLUÇÃO OTIMIZADA E NO TEMPO DE CONVERGÊNCIA EM UMA FUNÇÃO DE DUAS VARIÁVEIS ESTUDO DO EFEITO DOS PARÂMETROS GENÉTICOS DE UM ALGORITMO GENÉTICO NA SOLUÇÃO OTIMIZADA E NO TEMPO DE CONVERGÊNCIA EM UMA FUNÇÃO DE DUAS VARIÁVEIS Marcelo Henrique dos Santos Universidade de Uberaba, Engenharia

Leia mais

Tópicos Especiais em Otimização

Tópicos Especiais em Otimização Tópicos Especiais em Otimização ivo.junior@ufjf.edu.br Juiz de Fora, 05 de Maio de 2016 Introdução Qual a diferença entre inteligência: ARTIFICIAL E COMPUTACIONAL? ARTIFICIAL: É a ciência que tenta compreender

Leia mais

C o m p u t a ç ã o M ó v e l. André Siqueira Ruela

C o m p u t a ç ã o M ó v e l. André Siqueira Ruela C o m p u t a ç ã o M ó v e l André Siqueira Ruela Sumário Revisão sobre AGs. Codificação de uma Rede Neural. AG em treinamento supervisionado. AG em treinamento não supervisionado. Revisão: Algoritmos

Leia mais

Particle Swarm Optimization (PSO) Universidade Federal de Alfenas

Particle Swarm Optimization (PSO) Universidade Federal de Alfenas Otimização por Enxame de Partículas Particle Swarm Optimization (PSO) Universidade Federal de Alfenas Tiago Silveira ... Detalhe Otimizar é selecionar algo melhor. Otimizar é melhorar até onde pudermos.

Leia mais

1. Computação Evolutiva

1. Computação Evolutiva Computação Bioinspirada - 5955010-1 1. Computação Evolutiva Prof. Renato Tinós Programa de Pós-Graduação Em Computação Aplicada Depto. de Computação e Matemática (FFCLRP/USP) 2 Computação Bioinspirada

Leia mais

Agentes Adaptativos. Introdução

Agentes Adaptativos. Introdução Agentes Adaptativos Capítulo 6: Costa, E. e Simões, A. (2015). Inteligência Artificial Fundamentos e Aplicações, 3.ª edição, FCA. AGENTES ADAPTATIVOS 1 Introdução Os seres vivos que não se adaptam ao seu

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

Inteligência Coletiva. Prof. Eduardo R. Hruschka (Slides adaptados dos originais elaborados pelo Prof. André C. P. L. F.

Inteligência Coletiva. Prof. Eduardo R. Hruschka (Slides adaptados dos originais elaborados pelo Prof. André C. P. L. F. Inteligência Coletiva Prof. Eduardo R. Hruschka (Slides adaptados dos originais elaborados pelo Prof. André C. P. L. F. de Carvalho) Principais tópicos Inteligência Coletiva (CI) Otimização por enxames

Leia mais

3 Algoritmos Evolucionários 3.1 Algoritmos Genéticos

3 Algoritmos Evolucionários 3.1 Algoritmos Genéticos 27 3 Algoritmos Evolucionários 3.1 Algoritmos Genéticos Essencialmente, Algoritmos Genéticos são métodos de busca e otimização que tem sua inspiração nos conceitos da teoria de seleção natural das espécies

Leia mais

4 Otimização de parâmetros dos arranjos gerados

4 Otimização de parâmetros dos arranjos gerados 4 Otimização de parâmetros dos arranjos gerados Nem sempre o algoritmo escolhido para a realização de uma etapa do projeto retorna aquilo que exatamente seria necessário para a etapa seguinte. Em tais

Leia mais

GA Conceitos Básicos. Capítulo 3 Prof. Ricardo Linden

GA Conceitos Básicos. Capítulo 3 Prof. Ricardo Linden GA Conceitos Básicos Capítulo 3 Prof. Ricardo Linden Algoritmos Evolucionários Algoritmos evolucionários usam modelos computacionais dos processos naturais de evolução como uma ferramenta para resolver

Leia mais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos. Gustavo Pessin 2007

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos. Gustavo Pessin 2007 GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2007 Cronograma Base conceitual Exemplo: Achando o máximo de uma função... Como criar uma pequena aplicação: Exercício-Exemplo [Animal selvagem...]

Leia mais

Pesquisa Operacional Aplicada à Mineração

Pesquisa Operacional Aplicada à Mineração Pesquisa Operacional Aplicada à Mineração Módulo de Otimização Parte II-b Prof. Marcone J. F. Souza Prof. Túlio A. M. Toffolo marcone.freitas@yahoo.com.br tulio@toffolo.com.br Departamento de Computação

Leia mais

Inteligência Artificial. Conceitos Gerais

Inteligência Artificial. Conceitos Gerais Inteligência Artificial Conceitos Gerais Inteligência Artificial - IA IA é um campo de estudo multidisciplinar e interdisciplinar, que se apóia no conhecimento e evolução de outras áreas do conhecimento.

Leia mais

Iterated Local Search. Helena R. Lorenço, Olivier Martinz and THOMAS STUTZLE

Iterated Local Search. Helena R. Lorenço, Olivier Martinz and THOMAS STUTZLE I Iterated Local Search Helena R. Lorenço, Olivier Martinz and THOMAS STUTZLE Idéias Metaheurística deve ser simples, eficiente e mais genérica possível. Problema específico deve ser incorporado à metaheurística.

Leia mais

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA Marlon Luiz Dal Pasquale Junior, UNESPAR/FECILCAM, jr.marlon@hotmail.com Solange Regina dos Santos (OR), UNESPAR/FECILCAM, solaregina@fecilcam.br

Leia mais

Introdução ao Algoritmo Genético

Introdução ao Algoritmo Genético Introdução ao Algoritmo Genético Sadao Massago Agosto de 2013 1 Introdução O algoritmo genético é um método de otimização bio insperado, desenvolvida por John Henry Holland em 1975. Segundo a teoria evolucionária

Leia mais

Otimização. Algoritmos Genéticos. Teoria da Evolução. Otimização

Otimização. Algoritmos Genéticos. Teoria da Evolução. Otimização Algoritmos Genéticos Otimização São técnicas de busca e otimização. É a metáfora da teoria da evolução das espécies iniciada pelo Fisiologista e Naturalista inglês Charles Darwin. Desenvolvido por John

Leia mais

Algoritmos Genéticos Fundamentos e Aplicações. Prof. Juan Moisés Mauricio Villanueva

Algoritmos Genéticos Fundamentos e Aplicações. Prof. Juan Moisés Mauricio Villanueva Algoritmos Genéticos Fundamentos e Aplicações Prof. Juan Moisés Mauricio Villanueva jmauricio@cear.ufpb.br Conteúdo Introdução Inteligência Artificial (IA) Algoritmos Genéticos Aplicações de Algoritmos

Leia mais