NOS últimos anos, o consumo de energia no Brasil tem

Documentos relacionados
Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Previsão de Vazões Naturais Afluentes a um Reservatório Utilizando a Técnica de Redes Neurais Artificiais

Bruna Galle UPE Ecomp Mêuser Valença UPE Ecomp

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

3 Redes Neurais Artificiais

Redes Neurais Artificial. Prática. Inteligência Artificial

Previsão de Vazões Naturais Diárias Afluentes ao Reservatório da UHE Tucuruí Utilizando a Técnica de Redes Neurais

CADERNOS DO IME Série Estatística

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Felix da Cunha 412, Pelotas RS Home-Page: s: Bolsista BIC/FAPERGS

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

Otimização de Sistemas Hidrotérmicos por Enxame de Partículas: Uma Abordagem Orientada a Objetos

1.1. Breve Histórico do Planejamento Energético no SEB

2. Redes Neurais Artificiais

Inteligência Artificial Redes Neurais

INF 1771 Inteligência Artificial

Rede Neural com Atraso de Tempo Aplicada à Previsão Mensal de Vazões na Bacia Hidrográfica do Rio Piancó

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

ANÁLISE DE SENSIBILIDADE DA OPERAÇÃO ÓTIMA DE SISTEMAS HIDROTÉRMICOS NO LONGO PRAZO

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Por que Redes Neurais?

Redes Neurais Artificiais

1 Introdução. 1.1 Motivação

Redes Neurais Artificiais - Introdução. Visão Computacional

ESTUDO COMPARATIVO ENTRE TÉCNICAS DE SAZONALIDADE PARA A PREVISÃO DE VAZÕES UTILIZANDO REDES NEURAIS. Trabalho de Conclusão de Curso

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

ESTUDO COMPARATIVO ENTRE MODELOS NEURAIS PARA PREVISÕES DE VAZÕES MÉDIAS MENSAIS

INTELIGÊNCIA ARTIFICIAL

ESTUDO DE CASOS ANÁLISE DO ACOPLAMENTO ENTRE OS MODELOS DE MÉDIO E CURTO PRAZO

REDES NEURAIS ARTIFICIAIS

2. Redes Neurais Artificiais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

CONSTRUINDO INTERVALOS DE CONFIANÇA NA PREVISÃO DA POTÊNCIA DO VENTO UTILIZANDO RESERVOIR COMPUTING

APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMAR MATRIZ ORIGEM-DESTINO DE CARGA

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

UM MÉTODO PARA ESTIMATIVA DO PREÇO DA ENERGIA NO MERCADO ATACADISTA NUM HORIZONTE DE MÉDIO PRAZO

4 Redes Neurais Artificiais

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

6 Aplicação da Metodologia Proposta

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Introdução às Redes Neurais Artificiais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

3 Sistema de Apoio à Decisão para o Controle de Tensão (SADECT) Baseado em Redes Neurais

Oferta e Demanda de Energia Elétrica: Cenários. Juliana Chade

Redes Neurais Artificiais

Modelos de Previsão Hidrológica Aplicados ao Planejamento da Operação do Sistema Elétrico Brasileiro

Análise comparativa entre métodos estatístico e rede neural aplicados em séries temporais

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL

PLANEJAMENTO DA OPERAÇÃO ENERGÉTICA DE SISTEMAS HIDROTÉRMICOS DE POTÊNCIA

Redes Neurais Artificiais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

MODELO NEURAL COM ATRASO DE TEMPO PARA A PREVISÃO DO INCC

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Comparação entre uma neuroprevisão(empírica) e um modelo físico simplificado para estimação hidrológica

MULTI-LAYER PERCEPTRON E RESERVOIR COMPUTING APLICADAS EM UM PROCESSO CHUVA x VAZÃO

5 Estudo de Caso e Resultados

CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS.

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Panorama Mensal do Setor Elétrico

9 Conclusões e Sugestões para Trabalhos Futuros

PREVISÃO DE VAZÕES DIÁRIAS NA BACIA DO RIO SÃO FRANCISCO PARA O PERÍODO ÚMIDO 2011/2012: AVALIAÇÃO DOS RESULTADOS DOS MODELOS NEURO3M E NEUROSF

Multi-Layer. Perceptron. Sumário. Aplicações de Redes Neurais. Previsão de Séries Temporais. Aplicações de Previsão

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

MODELO DE DECISÃO DE DEFLUÊNCIA NEURAL E DE INFERÊNCIA NEBULOSA APLICADA AO PLANEJAMENTO DA OPERAÇÃO DE SISTEMAS HIDROTÉRMICOS

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

Multi-Layer. Perceptron. Sumário. Aplicações de Redes Neurais. Previsão de Séries Temporais. Aplicações de Previsão

ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS.

METODOLOGIA HEURÍSTICA PARA PREVISÃO DE MERCADO A LONGO PRAZO BASEADA EM REDES NEURAIS ARTIFICIAIS

Multiple Layer Perceptron

Classificação Linear. André Tavares da Silva.

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

Redes Neurais MLP: Exemplos e Características

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

PREVISÃO DA DEMANDA BIOQUÍMICA DE OXIGÊNIO POR MEIO DE VARIÁVEIS LIMNOLÓGICAS UTILIZANDO MODELOS DE APRENDIZADO DE MÁQUINA EM PYTHON

Submódulo 9.5. Previsão de vazões e geração de cenários de afluências

ANÁLISE DE CENÁRIOS DA IMPLEMENTAÇÃO DO HIDROGRAMA AMBIENTAL NO BAIXO TRECHO DO RIO SÃO FRANCISCO

COMPARAÇÃO ENTRE DIFERENTES ESTRUTURAS DE REDES NEURAIS NO PROBLEMA PRESA-PREDADOR 1

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

PROPOSTA DE UTILIZAÇÃO DE REDES NEURAIS PARA ANÁLISES FÍSICO- QUÍMICA UTILIZANDO DADOS ESPECTROMÉTRICOS NO UV-VIS

Redes neurais artificiais

REVISÃO DA CURVA BIANUAL DE AVERSÃO A RISCO PARA A REGIÃO SUL - BIÊNIO 2009/2010

APLICAÇÃO DE MULTILAYER PERCEPTRON E RESERVOIR COMPUTING PARA PREVISÃO DE VAZÃO CONSIDERANDO SAZONALIDADE

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

5 Simulação do PLD médio anual

Mineração de Dados em Biologia Molecular

CUSTO MARGINAL DE DÉFICIT DE ENERGIA ELÉTRICA

Aplicação de Redes Neuronais Artificiais no Comportamento da Precipitação em Portugal Continental.

O PLANEJAMENTO E A PROGRAMAÇÃO DA OPERAÇÃO DO SIN PELO OPERADOR NACIONAL DO SISTEMA ELÉTRICO - ONS. Mário Daher

8 REFERÊNCIAS BIBLIOGRÁFICAS

4 Modelagem do Racionamento de Energia em 2001/ Introdução

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Transcrição:

1 Estudo Comparativo de Modelos de Previsão de Vazões Baseados em Redes MLP e NSRBN Alan C. R. Marques, Gélson Cruz Jr, Cássio D. N. Vinhal, and Marco A. A. de Oliveira Resumo In hydrothermal scheduling and planning problems, among all planning variables, some present stochastic characteristics, such as river inflows to hydroelectric reservoirs, which are of critical importance. Estimating inflows to determine a good energy production strategy, while considering a future horizon, is very desirable. Therefore, efficient forecasting models become essential during the planning process as a whole. This work implements and compares methods for inflow forecasting based on different artificial neural networks models, such as multi-layer perceptron - MLP networks and composite nonlinear sigmoidal regression blocks networks - NSRBN networks, with classical auto-regressive models. Results obtained in monthly predictions are very promising. Index Terms hydrothermal systems, operation planning, forecasting, neural networks, MLP networks, NSRBN networks I. INTRODUÇÃO NOS últimos anos, o consumo de energia no Brasil tem crescido de forma acelerada, por conta de vários fatores, tais como o aumento da população, crescimento do PIB, avanço tecnológico e cenário econômico estável. Para suprir o crescimento, além da instalação e construção de novas usinas - principalmente hidrelétricas, a principal fonte de geração de energia no país, mas que têm recebido duras críticas devido ao impacto ambiental - deve-se realizar um melhor planejamento energético que considere a energia proveniente do atual parque instalado. O planejamento energético da operação de sistemas hidrotérmicos pode ser traduzido como a determinação de uma estratégia de geração que minimize o custo de operação em cada unidade do sistema durante o horizonte de planejamento [1]. Entre as diversas variáveis envolvidas nos estudos de planejamento, algumas apresentam caráter estocástico, sendo as mais representativas as vazões naturais afluentes aos reservatórios das hidrelétricas. Portanto, é estratégico conseguir uma estimativa destas vazões para determinar uma boa estratégia de produção de energia num horizonte futuro, o que torna os modelos de previsão de vazões essenciais no processo. A previsão de vazões naturais afluentes aos reservatórios das usinas hidrelétricas é considerada para o Setor Elétrico Brasileiro, um insumo fundamental que permite aos operadores do Sistema Interligado Nacional - SIN, concretizar os estudos que permitirão avaliar e antecipar as condições operacionais das usinas que propiciarão a existência de ganhos sinérgicos reais na operação como um todo. As vazões naturais são aquelas que A. C. R. Marques, G. Cruz Jr., C. D. N. Vinhal, M. A. A. Oliveira are with the Escola de Engenharia Elétrica e de Computação, Universidade Federal de Goiás, Av. Universitária, 1488, Quadra 86, Bloco A, Piso 3, 74605-010, Goiânia, GO, Brasil e-mail: (see http://www.eeec.ufg.br) ocorreriam em uma seção de rio, caso não houvesse a montante a operação de reservatórios com o intuito de produzir energia ou não; a vazão evaporada decorrente da formação de lago artificial; ou o desvio de água para abastecimento ou irrigação [2]. O órgão responsável por realizar as previsões de vazões naturais afluentes é o ONS - Operador Nacional do Sistema, o qual possui direta ou indiretamente, a atribuição de planejar e operar os ativos de geração no Brasil. Nesse contexto, a previsão de vazões naturais diárias, semanais e mensais, para todos os locais de aproveitamentos hidroelétricos do SIN, é feita e serve de insumo para o Programa Mensal de Operação - PMO e suas revisões [3]. Para realizar as previzões, a ONS utiliza modelos estocásticos lineares, desenvolvidos pelo Centro de Pesquisas de Energia Elétrica - CEPEL, como PREVIVAZ [4]. Os modelos estocásticos em uso no setor elétrico apresentam erros percentuais médios absolutos consideráveis, o que tem motivado ao longo dos últimos vinte anos a pesquisa de alternativas de abordagem nos modelos de previsão com o intuito de mitigar tais erros. As redes neurais artificiais - RNA, tem provado ser muito eficientes na modelagem de vazões considerando tanto aspectos quantitativos como qualitativos [5]. Muitos trabalhos têm mostrado a evolução das aplicações que utilizam RNA para a previsão de vazões [6]. As redes mais utilizadas e reportadas na literatura são conhecidas como Multi-layer Perceptrons - MLP. O problema é que os modelos MLP produzem resultados sub-ótimos, pois não realizam um processamento temporal do relacionamento entre as entradas, ou seja, são redes sem memória ou estáticas. O presente trabalho trata da implementação de uma arquitetura alternativa conhecida na literatura por Redes Compostas por Blocos de Regressões Sigmóides Não-Lineares, do inglês Non-linear Sigmoidal Regression Blocks Network - NSRBN [7], que procura minimizar os erros de previsão durante o processo. O objetivo é, em cenários de previsão mensal, contornar os problemas descritos na literatura para os modelos MLP. Valença [8] relatam o uso bem sucedido das redes NSRBN, em comparação com o modelo PREVIVAZ usado pelo Setor, na previsão de vazões para reservatórios do Rio São Francisco. Na Seção II é feita uma discussão sobre RNAs, o modelo MLP e as redes NSRBN. Na Seção 3 é apresentado um estudo de caso comparativo entre as redes MLP e NSRBN e modelos autorregressivos, quando utilizadas na previsão de vazões mensais afluentes para o reservatório de Furnas, localizado no Rio Grande.

2 II. REDES NEURAIS ARTIFICIAIS Sendo um modelo inspirado no cérebro humano, as RNAs são compostas de vários neurônios artifíciais, o que permite a aprendizagem. Em [9], uma RNA é descrita como um sistema constituído por elementos de processamento interconectados, chamados de neurônios, os quais estão dispostos em camadas e são responsáveis pela memória da rede. Estes neurônios artifíciais que compõem a rede são apresentados de maneira esquemática e intuitiva, podendo dessa forma ser compreendidos e utilizados matematicamente. A importância da representação do neurônio está relacionada à aprendizagem da rede, a qual torna possível utilizar a rede para prever valores, por exemplo, um dos possíveis propósitos do treinamento da rede. O treinamento depende da forma utilizada de aprendizagem, podendo ser supervisionado ou não supervisionado. O treinamento supervisionado consiste em apresentar à rede simultaneamente os padrões e as respostas esperadas para estes padrões. No treinamento não supervisionado, não há uma resposta esperada, e a rede neural toma as entradas como amostras independentes de uma distribuição de probabilidade desconhecida. Os pesos são as unidades mutáveis das redes neurais, e o treinamento é que provoca a alteração dos seus valores e o consequente processo de aprendizagem das redes. Neste trabalho, serão utilizadas as redes com aprendizagem supervisionada, que utilizam o conhecimento prévio do resultado desejado para a realização do treinamento. Treinar uma rede neural consiste em ajustar os pesos através de uma regra de aprendizagem até que esta forneça respostas satisfatórias ao problema analisado. No caso, até que um erro, entre a saída encontrada pela rede e a desejada, seja aceitável, ou esgote a quantidade de tentativas sugeridas para essa conversão. A análise do erro é realizada ao final de um ciclo, sendo o ciclo composto pela passagem de todo o conjunto de entradas. Cada conjunto deve passar pelos neurônios de todas as camadas, gerando assim um valor de saída, e realizando o reajuste dos pesos. Com isso, é gerado um erro momentâneo, que será utilizado, juntamente com os outros erros, para descobrir o erro do ciclo e verificar se o problema de minimizar tal erro está satisfeito. Várias redes neurais são desenvolvidas com base nos conceitos apresentados, sendo que as redes Multi-layer Perceptron - MLP e as redes construtivas - NSRBN foram implementadas e utilizadas neste trabalho. A. Multi-layer Perceptron - MLP De acordo com [10], o modelo mais simples de Rede Neural, em que várias unidades de processamento estão conectadas unicamente a uma unidade de saída, através dos pesos sinápticos é a rede Perceptron. Esse modelo pode ser visto na Figura 1. Com apenas uma camada de entrada e uma camada de saída, a rede Perceptron se mostra muito simples para resolver problemas reais, já que ela é uma boa opção para classificar corretamente apenas classes linearmente separáveis. Para permitir a não linearidade da rede é proposto uma implementação Figura 1. Figura 2. Rede Perceptron Rede MLP de múltiplas camadas, o que gera a rede conhecida como MLP, uma rede Perceptron de múltiplas camadas. Uma rede MLP, como pode ser visualizado na Figura 2, possui no mínimo 3 (três) camadas: uma de entrada, uma de saída, e pelo menos uma intermediária. O algoritmo para o cálculo das saídas consiste na multiplicação da entrada por seus pesos, gerando uma saída na camada intermediária, a qual será multiplicada pelos pesos desta camada, realizando isso até a saída definitiva. As equações que representam a resolução do MLP são: net = N j=0 y p i = f p (net p i ) = 1 1 + e netp i w ij net p 1 j (1) (2) e i (n) = d i y i (3) Essas equações representam a fase de propagação da MLP. A saída de cada neurônio é dada por 1, se p for igual a 1, então net p 1 j é igual a entrada x j. Mas a saída real deve passar por uma função de ativação, representada pela equação 2, isso deve ser realizado até o cálculo que permite identificar o erro, representado pela equação 3. Para realizar o reajuste dos pesos é necessário calcular o erro entre a saída calculada e a desejada, mas como não existe uma saída desejada nos neurônios da camada intermediária, utilizase um algoritmo chamado backpropagation. O algoritmo backpropagation foi desenvolvido por Paul Werbos, em 1974, e tem

3 como princípio realizar uma propagação recursiva dos erros encontrados na camada de saída, e dessa forma poder realizar o cálculo dos novos erros de cada neurônio de uma camada para o seu peso da camada anterior. Para calcular os novos pesos, as equações abaixo são utilizadas: δ p i = yp i (1 yp i ) e i (4) δ p 1 j = f p 1 (net p 1 j ) N w p ij δp j (5) w z ij(novo) = w z ij(antigo) + αδ z i f i (net i h) (6) A equação 4 é responsável em realizar o cálculo da sensibilidade para a saída, de forma semelhante é utilizada a equação 5, após descobrir o valor respectivo de cada sensibilidade, é possível calcular o novo peso com a equação 6. A utilização de várias camadas torna a rede mais complexa, só que também permite uma abordagem mais ampla. Vários trabalhos desenvolvidos fazem comparações entre implementações de redes MLP e modelos estocásticos clássicos [9] [8]. B. Rede Composta por Blocos de Regressões Sigmóides Não- Lineares - NSRBN A arquitetura de uma rede neural, de acordo com a possibilidade de mudanças no seu tamanho durante o processo de treinamento, pode ser classificada em estática ou dinâmica. Uma rede é dita de arquitetura estática quando o número de camadas e unidades de processamento permanece constante desde a concepção da rede até a finalização do seu treinamento. Por outro lado, uma rede de arquitetura dinâmica tem como característica principal um processo de mudanças no tamanho durante o treinamento. Nessa nova classe de redes proposta, um algoritmo construtivo será utilizado para incrementar a estrutura da rede, partindo-se de uma pequena estrutura, até que se atinja uma estrutura de tamanho ótimo, segundo critérios estatísticos de seleção adequados. A proposta do modelo NSRBN é de se construir a rede por blocos de polinômios homogêneos, utilizando uma função de ativação adequada (tangente hiperbólica, por exemplo), para os neurônios escondidos. Quanto aos neurônios de saída, estes têm uma ativação mais complexa, uma vez que realizam uma regressão logística não-linear com relação à saída dos neurônios escondidos. A rede NSRBN foi proposta e desenvolvida por Valença ( [11], [7], [8]) e tem como característica realizar uma regressão logística não-linear para ativação dos neurônios da camada de saída. Ela apresenta as entradas ligadas a blocos polinomiais, como pode ser visto na Figura 3. Os blocos polinomiais apresentam quantidade variável, sendo essa variação a representação da dinamicidade do sistema. As entradas são atribuídas a todos os polinômios, e esses são responsáveis pela forte capacidade não-linear do sistema. As redes NSRBN são eficientes, uma vez que elas utilizam blocos de sigmóides não-lineares como função de ativação. i Figura 3. Rede NSRBN Figura 4. Bloco Polinomial de grau p. Este fato é contrário às redes neurais de alta ordem que tomam como base polinômios multivariados e apresentam uma explosão no número de parâmetros livres necessários para aproximar uma dada função. A parte polinomial é representada similarmente a uma rede MLP com apenas uma camada intermediária. Já a quantidade de neurônios que compõem essa camada varia de acordo com o grau. Se o polinômio for de grau 1, existe 1 neurônio na camada intermediária, e assim para o grau P, existem P neurônios na camada intermediária. A saída da rede NSRBN é o somatório da saída de cada polinômio, aplicado a uma função de ativação. f(x) = σ net(o) ( d f p (x)) (7) p=1 Como o valor de f p (x) é a saída de cada polinômio, o cálculo destes devem ser realizados para encontrar o valor da rede total. O treinamento da rede inicia com apenas o polinômio de grau 1, o incremento dos polinômios só acontece apos a realização de um treinamento interno, após achar um erro satisfatório para o grau de polinômio analisado, o peso desse é congelado, para então adicionar um novo polinômio que terá um novo treinamento. Apos a conclusão de cada treinamento interno é realizado a verificação de critério de parada para a rede, verificando se o grau do polinômio satisfaz. A propagação interna é dada de acordo com as formulas abaixo. f p (x) = a 1 (f at (net1)) 1 +a 2 (f at (net2)) 2 +...+a p (f at (netp)) p (8) f at (net(h)) = (σ net(h) + θ h ) (9)

4 net(h) = σ = enet(h) e net(h) e net(h) + e net(h) (10) N w ih x i + w 0h (bias) (11) i=1 Os valores de a p são os pesos que ligam a camada intermediária à saída. O termo f at (net(h)) representa a função de ativação aplicada para cada entrada do neurônio da camada intermediária. III. ESTUDO DE CASO Como estudo de caso deste trabalho, foi realizada a previsão, utilizando as redes MLP e NSRBN, das vazões mensais afluentes ao reservatório da usina hidrelétrica de Furnas, localizada no Rio Grande, situado na região Sudeste. Os dados de vazões foram divididos em grupos com 15 valores de entrada e 12 valores de saída, ou seja, o estudo de previsão é iniciado em outubro e a divisão considera, como dados de entrada, os valores de vazões referentes aos últimos 15 meses, finalizando no dezembro imediatamente anterior e, como valores de saída, os valores de janeiro a dezembro de cada ano em estudo. O conjunto de dados consiste de valores de janeiro de 1931 até dezembro 2009, sendo que, para a realização dos estudos, os dados de treinamento e validação compreendem o período de 1931 a 1999, sendo retirado um percentual randômico destes dados, e os dados para testes são de 2000 até 2009. Além do teste utilizando períodos diferentes de meses para saída, de Janeiro-Dezembro, Fevereiro-Janeiro, até Dezembro- Novembro, sendo sempre 12 meses. Para o valor da taxa de aprendizagem no algoritmo backpropagation (α) foi adotado o valor entre 0.6 e 0.8. Podese observar que se o valor da taxa for muito pequeno, o algoritmo apresenta uma aprendizagem lenta e pode ficar preso em um mínimo local; alternativamente se o valor da taxa for muito grande, o algoritmo tende a ser instável durante o treinamento. Uma possibilidade utilizada principalmente no algoritmo backpropagation da rede NSRBN nesse trabalho, é a utilização do momentum (β), que permite aumentar os passos de treinamento sem aumentar as instabilidades do algoritmo [8]. Para que o treinamento não seja executado indefinidamente, é utilizado um critério de parada, o fator mais importante durante o treinamento, o qual pode ser realizado de diferentes formas, sendo a maneira mais simples colocar um número máximo de ciclos. O problema de adotar esta abordagem é que o número máximo considerado pode ser pequeno para um dado exemplo, e não ter atingido um erro adequado. Outra abordagem comumente utilizada é definir que o treinamento pare em um erro mínimo, mas existe também a possibilidade desse valor nunca chegar e a parada não acontecer. Apesar deste problema, a maioria das implementações utiliza esse método. No caso do trabalho realizado, o critério de parada foi feito de forma um pouco diferente. Utiliza-se uma avaliação que compara os erros passados, isso unido aos dois fatores apresentados anteriormente, de mínimo erro para verificar a diferença dos erros até um valor tão pequeno que não é necessário continuar o treinamento, e também utilizar uma quantidade de interações a ser analisada. Este segundo fator é utilizado principalmente para quantificar se, a partir de uma quantidade de interações, o erro começar a subir e não voltar a cair. Neste caso, o sistema interrompe o treinamento e os pesos do menor erro são mantidos. Os valores de entrada foram normalizados para o modelo MLP, e foi aplicada uma função logarítmica natural para o modelo NSRBN, a fim de reduzir a variabilidade das informações. A. Resultados e Discussões Os testes utilizando a rede MLP foram feitos com 3 (três) treinamentos diferentes para cada grupo de meses a partir dos dados utilizados. Tomando-se como base os resultados destes treinamentos, para previsões no intervalo de 2000 a 2009, foram encontrados erros percentuais com valor médio de 33,66%, sendo o maior erro percentual encontrado igual a 82,32% em 2001. São apresentados avaliações de anos específicos nas Tabelas I e II, onde os resultados para os anos de 2003 e 2005 foram detalhados para as redes MLP e NSRBN e também foram ajustados modelos paramétricos autorregressivos de ordem 1 (PAR(1)) [12]. No caso dos testes com a rede NSRBN, os erros percentuais encontrados apresentam valor médio de 26,72%, sendo o maior erro percentual encontrado igual a 56,64%. A Tabela I e a figura 5 mostram os valores dos erros absolutos mensais, para o ano de 2003. A variável In indica o mês de início da previsão e os previsores estão divididos em 3 tipos 1) Rede MLP; 2) Rede NSRBN; e 3)Previsor PAR(1). A variável M6 indica a média para os primeiros 6 meses de previsão e a variável M12 indica a média para os 12 meses de previsão. Os erros, ao serem analisados, demonstram que a rede NSRBN apresenta um desempenho superior à rede MLP em praticamente todas as previsões, exceto para as previsões iniciadas em novembro. Porém, o Previsor PAR(1) apresenta um desempenho semelhante à rede NSRBN nos meses mais secos. A Tabela II e a figura 6 mostram os valores dos erros absolutos mensais, para o ano de 2005. A variável In indica o mês de início da previsão e os previsores estão divididos em 3 tipos 1) Rede MLP; 2) Rede NSRBN; e 3)Previsor PAR(1). A variável M6 indica a média para os primeiros 6 meses de previsão e a variável M12 indica a média para os 12 meses de previsão. Os erros, ao serem analisados, demonstram a rede MLP apresenta menores erros para as previsões iniciadas de janeiro a maio. Para as previsões iniciadas de junho a dezembro, a rede NSRBN apresenta melhor desempenho. Novamente, os resultados do Previsor PAR(1) mostram um desempenho equivalente ou superior. Tal fato poderia ser explicate pelo perfil de vazões do ano de 2005, muito próximas da média histórica. IV. CONCLUSÕES O estudo de caso mostra a eficácia na previsão mensal de vazões através de duas arquiteturas. A rede MLP comumente

5 Tabela I ERROS ABSOLUTOS MENSAIS DE PREVISÃO PARA O ANO DE 2003 (PREVISORES 1: REDE MLP; 2: REDE NSRBN; 3: PREVISOR PAR(1)). 2003 Erros Absolutos Mensais Erros Médios In Prev 1 2 3 4 5 6 7 8 9 10 11 12 M6 M12 1 0.227 0.106 0.243 0.277 0.339 0.338 0.272 0.544 0.665 0.668 0.771 0.330 0.255 0.398 Jan 2 0.292 0.143 0.078 0.079 0.146 0.259 0.078 0.311 0.302 0.380 0.344 0.059 0.166 0.206 3 0.119 0.159 0.380 0.414 0.401 0.575 0.325 0.553 0.702 0.728 0.702 0.355 0.341 0.451 1 0.129 0.324 0.491 0.406 0.444 0.320 0.538 0.588 0.672 0.819 0.377 0.425 0.352 0.461 Fev 2 0.121 0.139 0.163 0.133 0.291 0.129 0.314 0.235 0.468 0.371 0.219 0.240 0.163 0.235 3 0.246 0.427 0.452 0.446 0.608 0.349 0.603 0.740 0.762 0.725 0.363 0.061 0.421 0.482 1 0.212 0.398 0.391 0.491 0.322 0.589 0.791 0.761 0.855 0.375 0.350 0.049 0.401 0.465 Mar 2 0.223 0.332 0.297 0.334 0.149 0.317 0.357 0.381 0.590 0.264 0.364 0.134 0.275 0.312 3 0.296 0.346 0.322 0.516 0.282 0.464 0.635 0.669 0.661 0.341 0.066 0.197 0.371 0.400 1 0.302 0.348 0.379 0.261 0.543 0.655 0.712 0.863 0.319 0.320 0.048 0.077 0.415 0.402 Abr 2 0.259 0.167 0.268 0.156 0.290 0.445 0.147 0.293 0.210 0.290 0.247 0.169 0.264 0.245 3 0.114 0.052 0.315 0.135 0.161 0.408 0.468 0.521 0.294 0.076 0.190 0.397 0.197 0.261 1 0.418 0.534 0.372 0.634 0.773 0.802 0.767 0.294 0.255 0.076 0.147 0.030 0.589 0.425 Mai 2 0.316 0.344 0.194 0.403 0.419 0.549 0.434 0.275 0.337 0.104 0.062 0.127 0.371 0.297 3 0.105 0.198 0.050 0.015 0.276 0.350 0.440 0.266 0.082 0.186 0.395 0.426 0.166 0.232 1 0.369 0.266 0.503 0.679 0.630 0.779 0.338 0.296 0.049 0.109 0.050 0.026 0.538 0.341 Jun 2 0.460 0.210 0.343 0.441 0.528 0.673 0.299 0.311 0.129 0.169 0.169 0.132 0.442 0.322 3 0.277 0.107 0.103 0.364 0.429 0.495 0.285 0.078 0.189 0.397 0.427 0.416 0.296 0.297 1 0.319 0.563 0.822 0.837 0.932 0.460 0.321 0.129 0.092 0.038 0.043 0.147 0.656 0.392 Jul 2 0.186 0.325 0.424 0.456 0.395 0.193 0.322 0.160 0.078 0.173 0.151 0.247 0.330 0.259 3 0.095 0.315 0.050 0.151 0.301 0.219 0.092 0.179 0.391 0.423 0.411 0.582 0.189 0.267 1 0.578 0.578 0.564 0.688 0.299 0.239 0.071 0.061 0.019 0.030 0.162 0.111 0.491 0.283 Ago 2 0.388 0.451 0.518 0.361 0.158 0.258 0.189 0.119 0.113 0.154 0.208 0.180 0.356 0.258 3 0.117 0.199 0.282 0.393 0.250 0.085 0.183 0.394 0.425 0.414 0.584 0.331 0.221 0.305 1 0.904 0.861 0.909 0.386 0.421 0.087 0.183 0.025 0.081 0.097 0.055 0.188 0.595 0.350 Set 2 0.417 0.411 0.441 0.171 0.275 0.208 0.119 0.112 0.137 0.201 0.172 0.069 0.321 0.228 3 0.288 0.361 0.448 0.269 0.081 0.186 0.395 0.426 0.415 0.585 0.332 0.569 0.272 0.363 1 0.643 0.662 0.315 0.267 0.064 0.062 0.030 0.013 0.085 0.052 0.186 0.703 0.336 0.257 Out 2 0.524 0.417 0.247 0.412 0.052 0.103 0.071 0.102 0.226 0.196 0.088 0.345 0.293 0.232 3 0.101 0.267 0.207 0.094 0.177 0.390 0.422 0.410 0.582 0.330 0.563 0.710 0.206 0.355 1 0.634 0.189 0.346 0.048 0.068 0.066 0.023 0.119 0.064 0.162 0.571 0.130 0.225 0.202 Nov 2 0.622 0.244 0.289 0.151 0.069 0.156 0.198 0.254 0.232 0.110 0.309 0.084 0.255 0.227 3 0.198 0.183 0.099 0.173 0.388 0.421 0.408 0.580 0.329 0.561 0.708 0.734 0.244 0.399 1 0.360 0.332 0.059 0.102 0.024 0.057 0.054 0.044 0.234 0.923 0.343 0.700 0.156 0.270 Dez 2 0.288 0.346 0.087 0.094 0.101 0.135 0.190 0.183 0.082 0.362 0.150 0.330 0.175 0.196 3 0.116 0.113 0.163 0.383 0.416 0.403 0.576 0.326 0.555 0.704 0.730 0.703 0.266 0.432 Figura 5. de 2003. Erro médio mensal de previsão em 12 meses (M12) para o ano Figura 6. de 2005. Erro médio mensal de previsão em 12 meses (M12) para o ano usada como alternativa aos modelos estocásticos clássicos e fartamente documentada apresentou um desempenho em média pior que a arquitetura NSRBN. Tal fato pode ser verificado na Tabela I e na Figura 5, onde a rede MLP só apresenta erro inferior em uma das previsões, e na Tabela II e Figura 6, onde a rede MLP apresenta erro inferior em apenas 5 das 12 previsões. Conclui-se que os modelos fundamentados nos princípios das RNAs podem proporcionar alternativas reais para a previsão mensal de vazões naturais. Deve-se também destacar a facilidade de treinamento e definição da arquitetura da rede NSRBN, quando comparada à MLP. As pesquisas futuras deverão focar na realização de testes mais profundos e diversificados, além de explorar melhor critérios como taxa de

6 Tabela II ERROS ABSOLUTOS MENSAIS DE PREVISÃO PARA O ANO DE 2005 (PREVISORES 1: REDE MLP; 2: REDE NSRBN; 3: PREVISOR PAR(1)). 2005 Erros Absolutos Mensais Erros Médios In Rede 1 2 3 4 5 6 7 8 9 10 11 12 M6 M12 1 0.296 0.095 0.103 0.077 0.223 0.160 0.095 0.036 0.106 0.361 0.114 0.105 0.159 0.148 Jan 2 0.383 0.160 0.257 0.185 0.300 0.184 0.187 0.106 0.215 0.213 0.179 0.093 0.245 0.205 3 0.157 0.017 0.006 0.193 0.192 0.062 0.074 0.045 0.048 0.358 0.036 0.076 0.105 0.105 1 0.070 0.089 0.284 0.181 0.092 0.074 0.038 0.092 0.352 0.134 0.096 0.644 0.132 0.179 Fev 2 0.154 0.178 0.135 0.255 0.179 0.143 0.102 0.157 0.293 0.194 0.156 0.485 0.174 0.203 3 0.129 0.046 0.243 0.152 0.032 0.048 0.096 0.015 0.398 0.058 0.068 0.209 0.108 0.124 1 0.148 0.168 0.216 0.114 0.078 0.042 0.080 0.367 0.136 0.063 0.533 0.391 0.128 0.195 Mar 2 0.154 0.178 0.135 0.255 0.179 0.143 0.102 0.157 0.293 0.194 0.156 0.485 0.174 0.203 3 0.014 0.186 0.198 0.067 0.078 0.037 0.053 0.352 0.033 0.078 0.211 0.022 0.097 0.111 1 0.129 0.235 0.169 0.123 0.012 0.076 0.348 0.128 0.070 0.503 0.396 0.065 0.124 0.188 Abr 2 0.147 0.153 0.243 0.154 0.155 0.099 0.230 0.239 0.117 0.125 0.613 0.397 0.158 0.223 3 0.199 0.187 0.059 0.071 0.050 0.044 0.362 0.039 0.075 0.211 0.021 0.024 0.102 0.112 1 0.193 0.090 0.052 0.068 0.107 0.380 0.057 0.110 0.429 0.547 0.127 0.631 0.149 0.233 Mai 2 0.164 0.341 0.298 0.250 0.143 0.281 0.051 0.177 0.188 0.483 0.337 0.254 0.246 0.247 3 0.352 0.187 0.181 0.164 0.180 0.193 0.053 0.110 0.220 0.028 0.027 0.174 0.209 0.156 1 0.144 0.119 0.029 0.060 0.326 0.089 0.055 0.464 0.388 0.080 0.619 0.565 0.128 0.245 Jun 2 0.193 0.121 0.112 0.034 0.157 0.305 0.086 0.064 0.586 0.460 0.092 0.438 0.154 0.221 3 0.086 0.054 0.295 0.110 0.555 0.143 0.035 0.200 0.014 0.021 0.180 0.202 0.207 0.158 1 0.075 0.050 0.090 0.501 0.199 0.090 0.517 0.287 0.104 0.512 0.530 0.426 0.168 0.282 Jul 2 0.179 0.149 0.067 0.123 0.246 0.113 0.161 0.574 0.412 0.096 0.434 0.407 0.146 0.247 3 0.020 0.150 0.019 0.441 0.081 0.059 0.206 0.018 0.023 0.178 0.204 0.072 0.128 0.123 1 0.051 0.085 0.275 0.081 0.084 0.396 0.304 0.034 0.508 0.465 0.380 0.378 0.162 0.254 Ago 2 0.196 0.100 0.199 0.221 0.090 0.181 0.531 0.363 0.102 0.362 0.332 0.301 0.165 0.248 3 0.190 0.044 0.472 0.098 0.053 0.205 0.017 0.022 0.178 0.203 0.071 0.082 0.177 0.136 1 0.119 0.529 0.184 0.019 0.602 0.481 0.161 0.556 0.626 0.508 0.464 0.609 0.322 0.405 Set 2 0.086 0.247 0.283 0.143 0.210 0.342 0.337 0.091 0.449 0.346 0.318 0.254 0.219 0.259 3 0.076 0.323 0.017 0.084 0.213 0.023 0.025 0.176 0.205 0.073 0.083 0.027 0.122 0.110 1 0.320 0.024 0.078 0.461 0.478 0.077 0.626 0.572 0.564 0.485 0.604 0.574 0.240 0.405 Out 2 0.214 0.183 0.125 0.220 0.464 0.284 0.086 0.410 0.346 0.311 0.277 0.366 0.248 0.274 3 0.418 0.069 0.064 0.208 0.019 0.023 0.178 0.204 0.072 0.082 0.028 0.058 0.133 0.119 1 0.040 0.158 0.548 0.362 0.049 0.462 0.567 0.486 0.459 0.571 0.425 0.167 0.270 0.358 Nov 2 0.206 0.148 0.213 0.386 0.322 0.103 0.333 0.340 0.220 0.228 0.266 0.284 0.230 0.254 3 0.157 0.151 0.230 0.035 0.030 0.171 0.210 0.076 0.086 0.021 0.063 0.339 0.129 0.131 1 0.073 0.532 0.394 0.103 0.613 0.634 0.646 0.560 0.642 0.769 0.384 0.342 0.392 0.474 Dez 2 0.141 0.159 0.455 0.229 0.166 0.393 0.279 0.293 0.251 0.328 0.294 0.103 0.257 0.258 3 0.090 0.215 0.024 0.025 0.176 0.206 0.073 0.084 0.026 0.059 0.343 0.028 0.123 0.112 aprendizagem, momentum e quantidade de épocas a serem utilizados nos ajustes de ambos os modelos. Devem see feitos estudos para outros postos ou usinas, de maneira a determinar melhor quando um modelo baseado em redes neurais tem desempenho superior a um modelo estocástico convencional. REFERÊNCIAS [1] G. C. Júnior, Modelo equivalente não linear para o planejamento da operação a longo prazo de sistemas de energia elétrica, Master s thesis, Universidade Estadual de Campinas, Campinas (SP), 1998. [2] O. O. N. do Sistema, Relatório anual de avaliação das previsões de vazões, IEEE Transactions on Power Systems, 2008, ons RE 3/130/2009. [Online]. Available: http://www.ons.org.br/operacao/ previsao vazoes.aspx [3] O. S. 9.5, Previsão de vazões e geração de cenários de afluências, no. 1, Ago. 2009. [4] F. Costa, M. Maceira, and J. Damázio, Modelos de previsão hidrológicaaplicados ao planejamento da operação do sistema elétrico brasileiro, Revista Brasileira de Recursos Hídricos, vol. 12, no. 3, pp. 21 30, 2007. [5] N. Karunanithi, W. Grenney, D. Whitley, and K. Bovee, Neural networks for river flow prediction, Journal of Computing in Civil Engineering, vol. 8, no. 2, pp. 201 220, 1994. [6] H. Maier and G. Dandy, Neural networks for prediction and forecasting of water resources variables: review of modelling issues and applications, Environmental Modelling and Software, vol. 15, pp. 101 124, 2000. [7] M. Valença, Aplicando Redes Neurais: um guia completo. Olinda, Pernambuco: Editora Livro Rápido, 2005, no. 2a ed. [8], Fundamentos das Redes Neurais: exemplos em Java. Editora Livro Rápido, 2010. [9] R. Ballini, Análise e previsão de vazões utilizando modelos de séries temporais, redes neurais e redes neurais nebulosas, Master s thesis, Universidade Estadual de Campinas, Campinas (SP), 2000. [10] F. Rosenblat, Perceptron simulation experiments. Kolkata, India: Proceedings of the Inst. of radio Eng, 1960. [11] M. Valença, Análise e projeto de redes neurais com abordagem construtiva para modelagem de sistemas, Master s thesis, Universidade Federal de Pernambuco,, Departamento de Informática, 1999. [12] S. G. Makridakis, Forecasting: methods and applications - 3rd. ed. John Wiley & Sons, 1998.