Otimização de Echo State Neural Networks com Algoritmos Genéticos para a Ponderação Dinâmica de Previsores

Tamanho: px
Começar a partir da página:

Download "Otimização de Echo State Neural Networks com Algoritmos Genéticos para a Ponderação Dinâmica de Previsores"

Transcrição

1 Daniel Alberto Meneses Guacas Otimização de Echo State Neural Networks com Algoritmos Genéticos para a Ponderação Dinâmica de Previsores Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do grau de Mestre pelo Programa de Pós- Graduação em Engenharia Elétrica do Departamento de Engenharia Elétrica do Centro Técnico Cientifico da PUC-Rio. Orientador: Profa. Marley Maria Bernardes Rebuzzi Vellasco Rio de Janeiro Abril de 2016

2 Daniel Alberto Meneses Guacas Otimização de Echo State Neural Networks com Algoritmos Genéticos para a Ponderação Dinâmica de Previsores Dissertação apresentada como requisito parcial para obtenção do grau de Mestre pelo Programa de Pós- Graduação em Engenharia Elétrica do Departamento de Engenharia Elétrica do Centro Técnico Científico da PUC- Rio. Aprovada pela Comissão Examinadora abaixo assinada. Profa. Marley Maria Bernardes Rebuzzi Vellasco Orientador Departamento de Engenharia Elétrica - PUC-Rio Profa. Karla Tereza Figueiredo Leite Departamento de Engenharia Elétrica - PUC-Rio Prof. Rafael de Olivaes Vale dos Santos Petróleo Brasileiro Rio de Janeiro - Matriz Prof. Reinaldo Castro Souza Departamento de Engenharia Elétrica PUC-Rio Prof. Marcio da Silveira Carvalho Coordenador Setorial do Centro Técnico Científico - PUC-Rio Rio de Janeiro, 15 de abril de 2016

3 Todos os direitos reservados. É proibida a reprodução total ou parcial do trabalho sem autorização da universidade, da autora e do orientador. Daniel Alberto Meneses Guacas Graduou-se em Engenharia Eletrônica pela Universidad de Nariño - Pasto - Colombia Udenar em Meneses Guacas, Daniel Alberto. Ficha Catalográfica Otimização de Echo State Neural Networks com Algoritmos Genéticos para Ponderação Dinâmica de Previsores / Daniel Alberto Meneses Guacas; orientador: Marley Maria Bernardes Rebuzzi Vellasco f. : il. color. ; 30 cm Dissertação (mestrado) Pontifícia Universidade Católica do Rio de Janeiro, Departamento de Engenharia Elétrica, Inclui bibliografia 1. Engenharia elétrica Teses. 2. Previsão de séries temporais. 3. Combinação de previsores. 4. Ponderação. 5. Redes neurais echo state. 6. Algoritmos genéticos. I. Vellasco, Marley Maria Bernardes Rebuzzi. II. Pontifícia Universidade Católica do Rio de Janeiro. Departamento de Engenharia Elétrica. III. Título. CDD: 621.3

4 Agradecimentos A Deus por me dar a sabedoria necessária e guiar meus passos. À CAPES e à PUC-Rio, pelos auxílios concedidos. A minha orientadora Marley Vellasco pelo apoio e confiança na realização deste trabalho. A minha mãe Alicia pelo apoio, amor e confiança. A minha irmã Patty por seu amor infinito. A todos meus amigos da PUC que fizeram esta experiência muito agradável. A todos os professores e funcionários do departamento por sua ajuda e todo o que me ensinaram. E a todas as pessoas que contribuíram com meu crescimento profissional e pessoal.

5 Resumo Meneses Guacas, Daniel Alberto; Vellasco, Marley Maria Bernardes Rebuzzi. Otimização de Echo State Neural Networks com Algoritmos Genéticos para a Ponderação Dinâmica de Previsores. Rio de Janeiro, p. Dissertação de Mestrado - Departamento de Engenharia Elétrica, Pontifícia Universidade Católica do Rio de Janeiro. Diversos trabalhos demonstraram que a combinação de previsores apresenta uma melhor acurácia relativamente aos previsores individuais. Neste trabalho, é apresentada uma proposta de combinação de métodos clássicos de previsão cujo sucesso depende principalmente da forma como os pesos de cada método são estimados. A combinação é realizada através de uma combinação convexa, cujos pesos de cada previsor são estimados através de uma Echo State Network (ESN). Os pesos são estimados de forma dinâmica ao longo do horizonte de previsão, sendo dependente da contribuição individual de cada previsor através do tempo e dos dados históricos. Para que a rede ESN consiga um desempenho satisfatório, parâmetros globais da mesma são obtidos com o auxílio de técnicas de otimização baseadas em computação evolutiva. O desempenho do modelo proposto, denominado NEW-ESN-GA, foi comparado com outros modelos de combinação de previsores em dois estudos de casos diferentes de séries temporais: séries de derivados de petróleo e séries temporais utilizadas na competição NN3. Palavras-chave Séries temporais; previsão; Redes Neurais; Algoritmos Genéticos; Otimização.

6 Abstract Meneses Guacas, Daniel Alberto; Vellasco, Marley Maria Bernardes Rebuzzi (Advisor). Optimization of Echo State Neural Networks with Genetic Algorithms for Dynamic Weighting of Forecasters. Rio de Janeiro, p. M.Sc. Dissertation - Departamento de Engenharia Elétrica, Pontifícia Universidade Católica do Rio de Janeiro. Several studies have shown that a combination of forecasters has a better accuracy in relation to individual forecasters. This work presents a proposal for a combination of classical forecasting methods, whose success depends mainly on how the weights of each method are estimated. The combination is accomplished through a convex combination, whose weights are estimated for each forecaster via an Echo State Network (ESN). The weights are estimated dynamically over the forecast horizon, being dependent on the individual contribution of each forecaster over time and historical data. For the ESN network to perform satisfactorily, global parameters are obtained with the aid of optimization techniques based on evolutionary computing. The performance of the proposed model, called NEW-ESN-GA, was compared with other forecaster combination models in two different case studies of time series: oil products series and time series used in NN3 competition. Keywords Time series; Forecasting; Neural Networks; Genetic Algorithms; Optimization.

7 Sumário 1. Introdução Motivação Objetivos Descrição do trabalho e Contribuições Organização da Dissertação Fundamentação teórica Resumo de Notação básica Métodos tradicionais de combinação de previsores Mínimos quadrados restritos MQR Modelo NEW Neural Experts Weighting Estrutura Modelo NEW Echo State Neural Networks - ESN Estrutura da ESN Estados do Reservoir Resposta da ESN Modelo NEW-ESN-GA Criação dos conjuntos Treinamento Entrada e Saída Conjunto de Treinamento, Validação e Teste Fase de treinamento e validação da ESN Etapa de Optimização e seleção do modelo Função de Avaliação do GA - Otimização Multiobjetivo da ESN Seleção do melhor modelo Teste do modelo selecionado para análise desempenho Estudo de Casos Produtos de petróleo Testes de Hipóteses para séries produtos de Petróleo Séries competição NN3 54

8 Testes de Hipóteses para Competição NN Comparações adicionais das séries competição NN Conclusões e Considerações finais Referências bibliográficas 64 Anexos 70 A Gráficos das séries de Petróleo 70 B Gráficos das 11 séries da Competição NN3 77

9 Lista de figuras Figura 1. Diagrama representativo de um método tradicional de ponderação. 22 Figura 2. Modelo de treinamento NEW - (Valle Dos Santos & Vellasco, 2015). 25 Figura 3. Estrutura Rede Neural MLP utilizada no aprendizado do modelo NEW. 27 Figura 4. Diagrama representativo do Modelo NEW com MLP propriamente treinada. 28 Figura 5. Topologia Geral de uma ESN (Velasco, 2014). 30 Figura 6. Funções de ativação dos neurônios. 33 Figura 7. Estrutura representativa do modelo NEW-ESN-GA. 35 Figura 8. Componentes Entradas e Saídas do modelo NEW-ESN-GA. 37 Figura 9. Representação conjuntos de treino, validação e teste para um previsor. 38 Figura 10 Fatores involucrados no treinamento 39 Figura 11. Algoritmo Genético para otimização da ESN. 42 Figura 12. Estimação do erro MSE no conjunto de Validação. 43 Figura 13 Estimação de SMAPE no Conjunto de Validação 44 Figura 14. Conjunto ótimo de Pareto Série S104 competição NN3 45 Figura 15. Produtos de Petróleo: Vendas mensais em Brasil, Jan/2000 e Dec/2011 (Valle Dos Santos & Vellasco, 2015) 49 Figura 16. Evolução de SMAPE s ao longo do horizonte de previsão h 51 Figura 17. Séries Competição NN3 55 Figura 18. Evolução de SMAPE s ao longo do horizonte de previsão h 58 Figura 19. Previsão Série Diesel 70 Figura 20. Evolução SMAPE ao longo de horizonte de previsão, Série Diesel 71

10 Figura 21. Evolução de vetores de pesos ao longo de horizonte de previsão, Série Diesel 71 Figura 22. Previsão Série Gasolina 72 Figura 23. Evolução SMAPE ao longo de horizonte de previsão, Série Gasolina 72 Figura 24. Evolução de vetores de pesos ao longo de horizonte de previsão, Série Gasolina. 73 Figura 25. Previsão Série GLP. 73 Figura 26. Evolução SMAPE ao longo de horizonte de previsão, Série GLP. 74 Figura 27. Evolução de vetores de pesos ao longo de horizonte de previsão, Série GLP. 74 Figura 28. Previsão Série QAV 75 Figura 29. Evolução SMAPE ao longo de horizonte de previsão, Série QAV 75 Figura 30. Evolução de vetores de pesos ao longo de horizonte de previsão, Série QAV. 76 Figura 31. Previsão série Competição NN3 S Figura 32. Evolução SMAPE ao longo de horizonte de previsão, Série NN3 S Figura 33. Evolução de vetores de pesos ao longo de horizonte de previsão, Série NN3 S Figura 34. Previsão série Competição NN3 S Figura 35. Evolução SMAPE ao longo de horizonte de previsão, Série NN3 S Figura 36. Evolução de vetores de pesos ao longo de horizonte de previsão, Série NN3 S Figura 37. Previsão série Competição NN3-S Figura 38. Evolução SMAPE ao longo de horizonte de previsão, Série NN3 S Figura 39. Evolução de vetores de pesos ao longo de horizonte de previsão, Série NN3 S Figura 40. Previsão série Competição NN3-S104 82

11 Figura 41. Evolução SMAPE ao longo de horizonte de previsão, Série NN3 S Figura 42. Evolução de vetores de pesos ao longo de horizonte de previsão, Série NN3 S Figura 43. Previsão série Competição NN3 S Figura 44. Evolução SMAPE ao longo de horizonte de previsão, Série NN3 S Figura 45. Evolução de vetores de pesos ao longo de horizonte de previsão, Série NN3 S Figura 46. Previsão série Competição NN3 S Figura 47. Evolução SMAPE ao longo de horizonte de previsão, Série NN3 S Figura 48. Evolução de vetores de pesos ao longo de horizonte de previsão, Série NN3 S Figura 49. Previsão série Competição NN3 S Figura 50. Evolução SMAPE ao longo de horizonte de previsão, Série NN3 S Figura 51. Evolução de vetores de pesos ao longo de horizonte de previsão, Série NN3 S Figura 52. Previsão série Competição NN3 S Figura 53. Evolução SMAPE ao longo de horizonte de previsão, Série NN3 S Figura 54. Evolução de vetores de pesos ao longo de horizonte de previsão, Série NN3 S Figura 55. Previsão série Competição NN3 S Figura 56. Evolução SMAPE ao longo de horizonte de previsão, Série NN3 S Figura 57. Evolução de vetores de pesos ao longo de horizonte de previsão, Série NN3 S Figura 58. Previsão série Competição NN3 S Figura 59. Evolução SMAPE ao longo de horizonte de previsão, Série NN3 S Figura 60. Evolução de vetores de pesos ao longo de horizonte

12 de previsão, Série NN3 S Figura 61. Previsão série Competição NN3 S Figura 62. Evolução SMAPE ao longo de horizonte de previsão, Série NN3 S Figura 63. Evolução de vetores de pesos ao longo de horizonte de previsão, Série NN3 S

13 Lista de tabelas Tabela 1. Espaço de busca do cromossomo do AG. 41 Tabela 2. Configuração inicial de AG para obter o melhor modelo. 41 Tabela 3. Hardware utilizado na configuração do modelo NEW-ESN-GA 47 Tabela 4. Desempenhos por Série (Produtos de Petróleo) 49 Tabela 5. Configurações obtidas pelo AG para cada série de petróleo 50 Tabela 6. Evolução das médias de desempenhos de SMAPE s 50 ao longo do horizonte de previsão - h (Produtos de Petróleo) 50 Tabela 7. Diferenças das médias de desempenhos de SMAPE s ao longo do horizonte de previsão - h (Produtos de Petróleo) 51 Tabela 8. Testes de Hipóteses para séries Produtos de Petróleos. T-Test, Test Sign, e Test Wilcoxon 52 Tabela 9. Test de Friedman 53 Tabela 10. Test de Pos Hoc, aplicado sobre os resultados de Test de Friedman. 54 Tabela 11. Desempenhos por Série (Competição NN3) 56 Tabela 12. Configurações obtidas pelo AG para todas as séries competição NN3 56 Tabela 13. Evolução das médias de desempenhos de SMAPE s ao longo do horizonte de previsão h (competição NN3) 57 Tabela 14. Diferenças das médias de desempenhos de SMAPE s ao longo do horizonte de previsão - h (Competição NN3) 58 Tabela 15. Testes de Hipóteses para séries Produtos de Petróleos. T-Test, Test Sign, e Test Wilcoxon 59 Tabela 16. Test de Friedman 60 Tabela 17. Test de Pos Hoc, aplicado sobre os resultados de Test de Friedman 61 Tabela 18. Tabela comparativa de modelos computacionais e modelos estatísticos com NEW-ESN-GA, SMAPE s sobre o conjunto

14 de teste, para todas as séries da competição NN3 61

15 1. Introdução Uma série temporal é um conjunto de observações ordenadas no tempo (não necessariamente igualmente espaçadas) e que apresentam correlação temporal (isto é, dependência de instantes de tempo) (Cleia, Cabral, & Linden, 2007). É de grande interesse os estudos de previsão de séries temporais, (Campos, 2008; Clements, Franses, & Swanson, 2004; Zhai, Wang, Teng, & Zuo, 2012), isto é, conseguir explicar o passado para predizer características do processo num ponto futuro. Por exemplo, a habilidade de antecipar como o clima irá se alterar de um ano para outro possibilita um melhor gerenciamento da agricultura, dos recursos hídricos e da atividade pesqueira (Silva, 2008). Entre as diversas técnicas de previsão de séries temporais existentes, certamente as técnicas estatísticas são as mais utilizadas, principalmente por apresentarem um maior grau de interpretabilidade, garantido pelos modelos matemáticos gerados. Estas técnicas têm sido combinadas através da história, a fim de obter uma melhor decisão sobre atividades no futuro (Aladag, Egrioglu, & Yolcu, 2010; Wichard, 2011; Zhang, Shan, Wang, & Jin, 2012). Ao se combinar as naturezas diferentes destas técnicas, pode-se obter melhores resultados que os previsores individuais (Clemen, 1989; Makridakis & Hibon, 2000; Stock & Watson, 2004). Além disso, mesmo que nem sempre apresente um melhor desempenho que a previsão individual, a combinação de previsores é menos arriscada (Hibon & Evgeniou, 2005), atuando de maneira complementar, onde cada previsor individual combinado compensa erros das contrapartes (Valle Dos Santos & Vellasco, 2015). O sucesso da combinação de previsores depende de quão bem os pesos de combinação podem ser determinados (Timmermann, 2005). Na literatura tem sido feitas pesquisas na combinação de previsores baseada em redes neurais, as quais sugerem a inferência de pesos estáticos para cada um dos previsores envolvidos: baseado nos dados históricos é gerado um único vetor de pesos aplicado sobre todo o horizonte de previsão (C. Prudencio & Ludermir, 2006; Martins & Werner, 2012). Este procedimento pode ser potencialmente melhorado com geração dinâmica de pesos (Sanchez, 2008; Yang, 2004).

16 16 Recentemente, um novo modelo não linear de combinação foi proposto por (Valle Dos Santos & Vellasco, 2015) e denominado como NEW (Neural Experts Weighting). O modelo NEW permite, através das redes neurais Multilayer Perceptron MLP (Haykin, 1999), a ponderação dinâmica de previsores ao longo do horizonte de previsão. Entretanto, as redes neurais MLP não são as mais adequadas para problemas que envolvam comportamento temporal e dinâmico, em função do seu alto custo computacional de treinamento e não ter conexões recorrentes que permitam, através de um comportamento dinâmico, manter informações do passado. Uma abordagem alternativa a estas situações são as Echo State Networks (ESN), propostas por (Jaeger, 2001). Como não utilizam aprendizagem baseada no gradiente, estas redes têm reduzido custo computacional. Elas utilizam novos modelos de arquitetura com uma camada escondida de neurônios com conexões aleatórias entre si, chamada Reservoir, conectada às camadas de neurônios de saída e entrada deste modelo, transformando a uma dimensão mais alta o espaço dos dados das entradas e saídas implicadas. Com o resultado das pesquisas recentes foi possível determinar que, devido à natureza das arquiteturas das ESN s, estas têm grande potencial para resolver problemas em que os dados possuem atrelamento temporal, com tempo computacional reduzido (Valencia, 2016). Contudo as ESN s possuem mais parâmetros que precisam ser especificados para a obtenção de um bom desempenho, portanto, a determinação desses parâmetros de forma automática é interessante. Estas redes neurais ESN serão utilizadas no modelo NEW, a fim de substituir a MLP do núcleo do modelo, aproveitando suas características dinâmicas, temporais e de baixo custo computacional ( Jaeger, 2001). Além disso, os parâmetros das ESN serão determinados de forma automática, a fim de garantir um melhor desempenho do modelo proposto NEW-ESN-GA. 1.1.Motivação A motivação deste trabalho é utilizar a arquitetura das ESN para substituir as redes MLP no modelo NEW, aproveitando suas características e atrelamento temporal para modelar uma geração dinâmica de pesos a partir de seu baixo custo computacional e dinamismo. Para isto, os principais hiperparâmetros da ESN,

17 17 baseados em (Jaeger, 2001; Valencia, 2016), devem ser determinados, a saber: Porcentagem de Conexão, Número de Neurônios da Camada Escondida (Reservoir), Raio Espectral, Fator de Entrada e Fator da Saída, os quais são apresentados posteriormente neste trabalho. Todos estes hiperparâmetros da arquitetura das ESN são otimizados utilizando a computação evolutiva, com algoritmos matemáticos inspirados nos mecanismos de evolução natural e recombinação genética. A Computação evolucionária com os Algoritmos Genéticos fornece um mecanismo de busca adaptativa que se baseia no princípio Darwiniano de reprodução e sobrevivência dos mais aptos. Isto é obtido a partir de uma população de indivíduos (soluções avaliação de possíveis configurações de hiperparâmetros de rede), representados por cromossomas, cada um associado a uma aptidão (avaliação do problema), que são submetidos a um processo de evolução (seleção e reprodução) por vários ciclos, permitindo assim obter uma configuração adequada dos hiperparâmetros para a resposta da rede Objetivos O objetivo principal deste trabalho é a modificação do modelo NEW através da alteração do núcleo da sua estrutura, isto é, a substituição da rede Multilayer Perceptron (MLP) por uma Echo State Network, aproveitando suas características de memória dinâmica e comportamento temporal. A rede ESN é configurada automaticamente, através de um algoritmo genético, a fim de determinar os hiperparâmetros mais adequados da sua arquitetura com objetivo de fornecer melhores resultados de previsão, resultando no modelo denominado NEW-ESN- GA Descrição do trabalho e Contribuições As principais contribuições desse trabalho são: Desenvolvimento de uma ferramenta que permite a combinação de previsores baseados em métodos estatísticos e em inteligência computacional, gerando uma função de ponderação dinâmica.

18 18 Utilização de redes neurais recorrentes ESN no modelo NEW, permitindo a geração dinâmica de pesos para a previsão de séries temporais múltiplos passos à frente. Ajuste automático da rede neural ESN através de algoritmos genéticos, determinando os principais parâmetros da estrutura das ditas redes. Comparação dos resultados em dois estudos de casos: as 11 séries da competição NN3 (Forecasting Competition 2006/7) e séries temporais derivadas de petróleo, de forma a permitir a comparação de desempenho com diferentes trabalhos anteriores realizados no mesmo conjunto de dados Organização da Dissertação Esta dissertação está organizada em mais cinco capítulos, descritos a seguir. No Capítulo 2, descreve-se o modelo NEW (Valle Dos Santos & Vellasco, 2015), as ferramentas estatísticas utilizadas e a combinação linear de previsores estatísticos para previsão utilizada neste trabalho: Holt-Winters e Box & Jenkins. Além disso, é descrito o método tradicional de ponderação para estimação de pesos: Mínimos quadrados restritos (MQR). Também são apresentadas as redes neurais Echo State, seu comportamento e arquitetura de treinamento. No Capítulo 3 é apresentado o modelo proposto da combinação do modelo NEW com as redes neurais recorrentes ESN otimizadas através de algoritmos genéticos. O capítulo também apresenta as características principais do algoritmo genético gerado para otimizar os parâmetros das ESN e as métricas de avaliação do modelo. No Capítulo 4 são apresentados os resultados dos estudos de casos do conjunto de séries Derivados de petróleo e das 11 séries temporais obtidas do Forecasting Competition de 2006/07 (NN3). Finalmente, no Capítulo 5 estão descritas as conclusões e os trabalhos futuros.

19 2. Fundamentação teórica Este capítulo apresenta os conceitos básicos necessários para a compreensão do modelo proposto nesta dissertação. Primeiramente, o capítulo descreve os métodos tradicionais de combinação de previsores, para em seguida apresentar o modelo NEW de combinação dinâmica. Por fim, o capítulo descreve o modelo das redes neurais Echo State, detalhando os parâmetros mais relevantes na definição de sua estrutura Resumo de Notação básica Com objetivo de resumir a notação utilizada ao longo deste capítulo, é apresentado o conjunto de equações que serão utilizadas ao longo da descrição do modelo proposto no capítulo 3, definem-se aqui as grandezas mais referenciadas ao longo do texto utilizado a partir do modelo NEW, modificando o valor do tempo antes e no tempo t (no somente antes do t). a) Série de treinamento com observações (série realizada ou série histórica): y τ = [y 1 y 2 y τ ] = (1) b) Série de teste com horizonte máximo H (série fora da amostra) y τ+h τ = [y τ+1 y τ+2 y τ+h ] (2) c) Vetor de previsões estimado antes e no instante t (h H), para N previsores. Ŷ t t h = [ŷ t t h,1 ŷ t t h,2 ŷ t t h,n ] (3) d) Vetor de pesos de combinação estimados antes e no instante t (h H), para N previsores. Ŵ t t h = [ŵ t t h,1 ŵ t t h,2 ŵ t t h,n ] (4)

20 20 e) Combinação convexa de previsores estimados antes e no instante t (h H), para N previsores. C y t t h = f(ŷ t t h,k Ŵ t t h,k ) (5) f) Equação de estados da rede Neural ESN para tempo n. x(n + 1) = f( W in. u(n + 1) + W r. x(n) + W back. Ŵ(n)) (6) g) Equação de Treinamento de pesos de conexões da camada de saída. W out = pinv(x) Target (7) h) Resposta da rede Neural ESN. S(n) = x(n) W out (8) As equações anteriores são utilizadas no modelo proposto desta dissertação, o qual é apresentado em detalhes no Capítulo Métodos tradicionais de combinação de previsores Baseados na literatura, as previsões combinadas são, geralmente, superiores às previsões individuais (Timmermann, 2005). Estas combinações podem ser entre previsores de mesma natureza ou não, mais sempre tem o objetivo de compensar erros individuais e melhorar assim o desempenho final. Os conceitos básicos de combinação de previsores são apresentados a seguir. Seja uma série temporal com observações (série realizada ou série histórica) representada na equação (9): y τ = [y 1 y 2 y τ ] (9) e o conjunto de série afora da mostra com máximo horizonte H da equação (10)

21 21 y τ+h τ = [y 1 y 2 y τ+h ] (10) A partir desta série y τ, é gerado um vetor de previsões no instante t (h H), estimados com dados até t-h, para N previsores equação (11) Ŷ t t h = [ŷ t t h,1 ŷ t t h,2 ŷ t t h,n ] (11) A partir das equações (9) e (11) e utilizando métodos tradicionais de geração de pesos descritos em (Valle Dos Santos & Vellasco, 2015), é obtido o vetor de pesos de ponderação apresentado na equação (12): Sujeito a Ŵ τ+h τ = f( y τ, Ŷ t t h ] (12) h H < t τ (13) Fornecendo um vetor de pesos de previsores dado por equação (14) Ŵ τ+h τ = [ŵ τ+h τ,1 ŵ τ+h τ,2 ŵ τ+h τ,n ] (14) Garantindo ser uma combinação convexa, isto é: N Ŵ t t h,k = 1 (15) k=1 Ŵ t t h,k 0 (16) Combinações convexas são geralmente desejáveis por sua simplicidade matemática e facilidade de interpretação, principalmente pelo fato de haver uma relação biunívoca (um para um) entre pesos e previsores, a combinação convexa é apresentada na equação (17) (Valle Dos Santos & Vellasco, 2015).

22 22 C y τ+h τ N = Ŵ τ+h τ,k Ŷ τ+h τ,k k=1 (17) Onde o termo Ŷ τ+h τ,k é a previsão h passos à frente feita pelo k-ésimo previsor, no instante τ (denominado origem da previsão ), e Ŵ τ+h τ,k é o peso associado a esta previsão. Nos métodos tradicionais de combinação de previsores, a combinação convexa garante i). A previsão combinada é não tendenciosa se a previsão subjacente é não tendenciosa. ii). A interpretação direta de pesos possa ser vista como percentagens ordinárias. A Figura 1 apresenta o método de ponderação tradicional de previsores descrito anteriormente, onde os pesos Ŵ τ+h t obtidos pelo método tradicional são combinados com o vetor de previsores Ŷ τ+h τ, gerando uma combinação convexa de previsores, conforme apresentado na equação (17). Figura 1. Diagrama representativo de um método tradicional de ponderação. Os métodos tradicionais de ponderação processam as informações disponíveis considerando uma janela de tempo, que pode ser fixa ou expansiva. Considerando janela fixa de tamanho v, o cálculo do vetor de pesos para o instante t leva em conta informações anteriores ou simultâneas a t, mas apenas as v

23 23 informações mais recentes; informações antigas são descartadas. Por outro lado, considerando janela expansiva, o cálculo do vetor de pesos para o instante t considera toda informação anterior ou simultânea a t, não havendo descarte de informação. O método de ponderação utilizado neste trabalho é apresentado a seguir Mínimos quadrados restritos MQR A principal ideia deste método é ajustar os pesos por meio da minimização do erro quadrático médio (MSE), sobre o conjunto de treinamento. O processo de minimização é expresso a seguir, considerando uma janela fixa v e com um horizonte h. Ŵ t+h t (v) = ŵ t+h t,1 ŵ t+h t,2 [ ŵ t+h t,n] = min w N v 1 (y t i i=0 W t i t i h,k. Ŷ t i t i h,k ) k=1 2 (18) Sujeito a N W t t h,k = 1 k=1 and W t t h,k 0 (19) A equação (19) apresenta o critério de convexidade proposto na seção A equação (18) pode também ser adaptada para uma janela expansiva, apresentada na seguinte equação (20): Ŵ t+h t = min w t N (y i W i i h,k. Ŷ i i h,k ) i=h+1 k=1 2 (20)

24 Modelo NEW Neural Experts Weighting Neural Expert Weighting NEW é uma estrutura para geração de modelos de ponderação de previsores proposto por (Valle Dos Santos & Vellasco, 2015), baseados nas redes neurais tradicionais Multi-Layer Perceptron (MLP) (Haykin, 1999). Segundo o modelo NEW é desejável que existam previsores complementares, ou seja, que tenham baixa correlação medida entre os erros de previsão. A combinação de previsores pode ocorrer, por exemplo, das seguintes maneiras: i. Combinar previsores de naturezas diferentes ou ii. Combinar previsores que sejam variantes da mesma técnica. Baseado no modelo NEW (Valle Dos Santos & Vellasco, 2015), os métodos escolhidos para combinação, por terem naturezas diferentes, são: 1. Multiplicative Holt-Winters (HW) (Hyndman, Koehler, Ord, & Snyder, 2008). 2. ARIMA Box & Jenkins (BJ) (Alonso, 2007). O modelo NEW propõe um paradigma de combinação convexa e limiar, isto é, onde cada previsor individual é substituído por dois novos previsores, conhecidos como Previsores Limiares, cada um representando os limites do intervalo de confiança de 95% que abrange o modelo original de previsão. Os critérios para escolher os previsores foram (Valle Dos Santos & Vellasco, 2015): a) Ter modelo padrão, bem conhecido e de fácil implementação; b) Ser capaz de lidar com o crescimento e a sazonalidade, levando em conta séries temporais do mundo real; c) Ter diferentes naturezas estatísticas, permitindo a diversificação Estrutura Modelo NEW O modelo NEW, através de redes neurais MLP, gera, para cada ponto no tempo, vetores de ponderação para a combinação linear de previsores convexos (Valle Dos Santos & Vellasco, 2015).

25 25 O modelo NEW é representado pela equação: Ŵ τ+h τ = G(Ŷ τ+h τ, h) (21) Sujeito a h H (22) Onde G representa a rede neural MLP propriamente treinada e h é o horizonte de previsão. O treinamento é gerado a partir de um novo conjunto dentro da amostra, apresentado na Figura 2. Uma das principais mudanças no modelo NEW é o fato de que, diferentemente dos métodos tradicionais, considera o valor do tempo antes e durante o tempo t (não somente antes do t como os métodos tradicionais), alterando os índices de (t+h t) para (t t-h) para as equações apresentadas na seção anterior. Figura 2. Modelo de treinamento NEW - (Valle Dos Santos & Vellasco, 2015). Assim, o modelo durante o treinamento pode ser representado por: {Ŷ t t h, h} Ŵ t t h (23) Sujeito a: h H < t τ (24) Onde o vetor de pesos é gerado a partir do MQR (2.2.1): Ŵ t t h = [ŵ t t h,1 ŵ t t h,2 ŵ t t h,n] (25)

26 26 Garantindo a combinação convexa dada pelas seguintes equações: N Ŵ t t h,k = 1 (26) k=1 Ŵ t t h,k 0 (27) O modelo de treinamento da rede neural é dado por: Ŵ t t h,k = logs(z K ) = е Z K (28) Onde p Z K = β k,i. tanh(μ i ) + β k,0 (29) i=1 Sujeito a: tanh(x) = еx е x е x + е x (30) N μ i = β i,j. Ŷ t t h,i + β i,n+1. h + β i (31) j=1 Onde: para uma camada escondida, com (p) neurônios escondidos, como vetores de entrada e saída de longitude fixa, respectivamente N+1 e N, p define a arquitetura e pode ser empiricamente determinada por treinamento. A função logs garante saídas entre 0 e 1, o qual é desejável, procurando fornecer vetores de ponderação convexos. Todos os βs são os parâmetros internos da rede neural, chamados pesos sinápticos. A aprendizagem desta rede neural é baseada no Levenberg-Marquardt back propagation (Valle Dos Santos & Vellasco, 2015). A Figura 3 apresenta o modelo da rede neural MLP:

27 27 Figura 3. Estrutura Rede Neural MLP utilizada no aprendizado do modelo NEW. Depois de treinar diferentes arquiteturas, é apresentado o conjunto nos instantes apresentados em t + h t dentro da mostra, dados por: {Ŷ t+h t, h} Ŵ t+h t (32) Isto é feito para escolher o melhor modelo comparando os resultados obtidos pela rede Ŵ t+h t com os valores reais dos pesos de ponderação Ŵ t+h t. Os critérios de seleção do melhor modelo são apresentados em (Valle Dos Santos & Vellasco, 2015). Depois de treinar, validar e encontrar o modelo apropriado da rede neural com os valores adequados para p e β, é apresentado o conjunto fora da mostra, dado por: {Ŷ τ+h τ, h} Ŵ τ+h τ (33) Os dados de entrada do conjunto fora da mostra (34). {Ŷ τ+h τ, h} = [ ŷ τ+h τ,1 ŷ τ+h τ,2 ŷ τ+h τ,n h ] (34)

28 28 e o conjunto de saídas obtidas pelo modelo NEW e representado pela equação (35). Ŵ τ+h τ (v) = ŵ τ+h τ,1 ŵ τ+h τ,2 [ ŵ τ+h τ,n] (35) A janela utilizada dentro do modelo NEW para estimar a equação (35) pode ser de tamanho fixo v ou expansivo, conforme apresentado na seção 2.2. A Figura 4 apresenta o diagrama do modelo NEW com a rede MLP propriamente treinada. Figura 4. Diagrama representativo do Modelo NEW com MLP propriamente treinada. Fornecendo como resposta final do modelo NEW à previsão convexa da equação (17) a partir dos pesos de ponderação dinâmica gerados pela rede MLP. Na seção seguinte será apresentado o modelo de rede neural conhecido como Echo State Networks, cuja arquitetura será utilizada para substituir a rede neural MLP no modelo NEW na ponderação dinâmica de previsores.

29 Echo State Neural Networks - ESN Reservoir computing (RC) é uma abordagem para desenhar, treinar e analisar as redes neurais recorrentes; RC oferece um estudo sobre estas redes baseado nas suas propriedades com um menor custo computacional, aqui RC têm sido aplicadas em diferentes áreas, por exemplo, processos químicos (Deng & Zhang, 2006), processos geofísicos (Pape, Ruessink, Wiering, & Turner, 2007), processos de controle físico (Lee & Teng, 2000), resolução de problemas de controle de motores (Dominey, 1995). O Reservoir Computing é um tipo de rede neural recorrente, diferentemente das redes Multi Layer Perceptron (MLP), apresentam na camada escondida um grande conjunto de neurônios parcialmente interconectados entre si e com conexões destes neurônios para as camadas de entrada e saídas. Os princípios fundamentais das redes tipo RC podem ser resumidos em: Utiliza uma grande quantidade de neurônios (Conhecido como Reservoir), acionados por meio de sinais de entrada, sendo que cada unidade do Reservoir cria a sua própria transformação não linear da entrada considerando a transformação gerada pelo padrão anterior. Esse processo acontece em um ambiente como uma dimensão bem mais alta do que a utilizada originalmente. Sinais de saída são obtidos a partir de um Reservoir excitado utilizando, geralmente uma simples combinação linear. (Valencia, 2016). Esta nova área fornece recentemente dois novos modelos: i) Liquid State Machine (LSM) proposta por (Natschläger & Maass, 2002) e ii) Echo State Network (ESN) modelo proposto por (Jaeger, 2001). As LSM são redes recorrentes com bom desempenho, que utilizam uma versão truncada de aprendizado baseado no gradiente, são redes de memória de curto prazo (Hochreiter & Schmidhuber, 1997). O modelo das ESN foi apresentado por (Jaeger, 2001), sendo este um dos principais métodos de Reservoir computing. Este modelo foi motivado pela ineficiência dos algoritmos anteriores para o treinamento das Redes Neurais Recorrentes (RNR), as quais são caracterizadas pela presença de ao menos um

30 30 laço de realimentação ( recorrência ) em seus neurônios. As ESN s apresentam um comportamento dinâmico não linear, já que elas podem manter a ativação ou saída mesmo na ausência da entrada, sendo esta característica chamada Memória Dinâmica. A principal vantagem da arquitetura das ESN é que no treinamento somente são atualizados os pesos da camada de saída, sendo a tarefa de aprendizado da rede mais simples comparado com as redes neurais tradicionais (MLP) Estrutura da ESN O modelo das redes neurais ESN, apresentado na Figura 5 é composto por uma camada de neurônios de entrada, um reservatório de neurônios interconectados de maneira recorrente e gerados aleatoriamente (Reservoir), e uma camada de neurônios de saída conhecida como Readout. Figura 5. Topologia Geral de uma ESN (Velasco, 2014). Na topologia da ESN apresentada na Figura 5 W in são os pesos das conexões da camada de entrada, W r são os pesos das conexões do Reservoir, W out são os pesos das conexões da camada de saída (Readout) e W back pesos das conexões da camada de retroalimentação dos neurônios da camada de saída para os neurônios do Reservoir. A matriz de pesos W out é a matriz que deve ser atualizada durante o processo de treinamento, enquanto as outras (W r, W in e W back ) são parâmetros inicializados aleatoriamente no momento de criação da rede e não sofrem alterações (Jaeger, 2010).

31 Estados do Reservoir O principal componente das ESN é o Reservoir. Este é definido como uma camada de grande número de neurônios com pesos, conexões e/ou auto conexões criados de maneira aleatória. Estas interconexões são as que geram a característica de echo state, dado que o estado de ativação do Reservoir para qualquer instante de tempo vai depender das entradas da rede, da retroalimentação da rede e do estado no instante anterior. Logo, a rede é susceptível aos estados anteriores do Reservoir, em maior ou menor proporção, de acordo com a matriz de pesos W r do mesmo. Baseado em (Jaeger, 2010) e na análise de sensibilidade realizada por (Valencia, 2016), os hiperparâmetros mais importantes na determinação de configurações mais adequadas das redes ESN são: a) Número de Neurônios no Reservoir #U: Define o número de unidades ou neurônios que formará o Reservoir. b) Porcentagem de Conexão %C: Indica a porcentagem de neurônios que vão ser conectados aleatoriamente dentro do Reservoir. De acordo com (Jaeger, 2010), 20% deve ser o menor valor a ser utilizado e assim garantir um Reservoir disperso, podendo chegar até a 100% de conexões. c) Raio Espectral ρ(w): Valor usado para escalar ou normalizar os pesos do Reservoir, normalmente menor que 1 para que a rede não apresente um comportamento caótico, e não sejam saturadas as funções de ativação dos neurônios. d) Fator de Escala das Conexões de Entrada sw in : este parâmetro é utilizado com o intuito de privilegiar algumas conexões de entrada. Isso ocorre durante o processo de formação da matriz de estados quando os padrões são apresentados, e determina o grau de não linearidade da dinâmica do Reservoir. Se os pesos forem pequenos o comportamento pode ser próximo do linear; já se forem grandes podem saturar a função de ativação das unidades do Reservoir, alternando os resultados entre 0 e 1 (Valencia, 2016).

32 32 e) Fator de Escala das Conexões Recorrentes sw r : utilizando este parâmetro é possível gerar uma retroalimentação adicional a partir das conexões entre a saída e as conexões do Reservoir. No modelo clássico, não existe este tipo de conexão entre a saída e os neurônios do Reservoir. A existência desse tipo de realimentação pode conduzir a dinâmicas instáveis. No modelo clássico é recomendado utilizar esta conexão quando se tem problemas que precisam conservar a informação dos estados anteriores por mais tempo, além de dispor de informações que se encontram na saída (Target) e que não estão disponíveis nos padrões de entrada (Valencia, 2016). O vetor de estado do Reservoir contém as ativações de cada neurônio em qualquer instante de tempo e é calculado a partir da equação (36). O efeito do estado anterior deve desaparecer gradualmente à medida que o tempo transcorre e não deve persistir por muito tempo. x(n + 1) = f( W in. u(n + 1) + W r. x(n) + W back. v(n)) (36) Onde: x(n + 1): Estado do Reservoir no instante n + 1. x(n): Estado do Reservoir no instante n. u(n + 1): Entradas da rede no instante n + 1. v(n): Saída da rede no instante n. W in : Matriz de pesos de entrada da rede. W r : Matriz de pesos do Reservoir. W back : Matriz de pesos de retroalimentação. f( ): Função de ativação. Os tipos de função de ativação dos neurônios do Reservoir e da camada de saída das ESN são ilustrados na Figura 6.

33 a) Sigm b) Tanh c) Linear Figura 6. Funções de ativação dos neurônios. Neste trabalho as funções de ativação dos neurônios são do tipo Tanh (imagens b da Figura 6), enquanto que a função de ativação do neurônio da saída é linear (imagens c da Figura 6) Resposta da ESN Após a coleta dos estados do Reservoir através da equação (36) em todos os passos de tempo, o procedimento habitual é executar a operação da Pseudoinversa para treinar os pesos das conexões da camada de saída (Millea, 2014), dada pela equação (37). W out = pinv(x) Target (37) onde X é a matriz de estados dada a partir da equação (36) e Target é o vetor de saídas desejado, o qual, no modelo desenvolvido neste trabalho, é o vetor de ponderação Ŵ estimado por o método MQR da seção Para calcular a resposta da saída da rede ESN é utilizada à equação (38): Onde Ŝ(n): x(n): W out : Ŝ(n) = x(n) W out (38) Saída da rede no instante n - pesos de ponderação, estimados pela ESN. Estado do Reservoir no instante n. Matriz de pesos de saída.

34 34 Convém enfatizar que somente os pesos das conexões da camada de saída W out são atualizados durante a etapa de treinamento. Os pesos W in, W r e W back permanecem fixos desde o momento de criação da rede.

35 3. Modelo NEW-ESN-GA O modelo proposto nesta dissertação é uma extensão do modelo NEW (Valle Dos Santos & Vellasco, 2015), onde a rede neural Multi-Layer Percetrons (MLP) foi trocada por um modelo Neuro-Evolucionário baseado em uma Echo State Network (ESN), a qual é mais adequada para o tratamento de sinais temporais (Millea, 2014; Valencia, 2016). A ESN é automaticamente configurada por um Algoritmo Genético Multiobjetivo, de forma a obter o melhor desempenho na previsão de séries temporais. O modelo, NEW-ESN-GA, é apresentado na Figura 7. Os pares de treinamento são criados como no modelo NEW: a partir de uma série temporal e da definição de uma janela fixa ou expansiva, são geradas as entradas com os previsores Holt Winters e Box & Jankins e as saídas ou pesos de ponderação a partir do MQR. Figura 7. Estrutura representativa do modelo NEW-ESN-GA.

36 36 Neste capítulo o modelo NEW-ESN-GA será apresentado em diferentes etapas: Criação dos conjuntos de treinamento, entrada e saída; Fase de treinamento e validação da ESN Etapa de otimização e seleção do modelo; Função de avaliação do GA, Otimização Multiobjetivo de ESN Seleção do melhor modelo Teste do modelo selecionado para análise de desempenho O modelo é representado pela equação (39). Ŵ τ+h τ = G( Ŷ τ+h τ, h) (39) Sujeito a N h H (40) Ŵ t t h,k = 1 and Ŵ t t h,k 0 (41) k=1 No modelo da equação (39) G representa a rede neural ESN propriamente treinada e otimizada pelo algoritmo genético (GA). Garantindo a combinação convexa da equação (41), e h é o horizonte de previsão Criação dos conjuntos Treinamento Entrada e Saída Na Figura 8 são apresentados (vermelho) os componentes envolvidos nesta etapa de criação de conjuntos. Estes conjuntos foram gerados da mesma forma que o modelo NEW o conjunto de entrada a partir de: 1. Multiplicative Holt-Winters (HW). (Hyndman et al., 2008) 2. ARIMA Box & Jenkins (BJ). (Pankratz, 2009) O conjunto de saída (pesos de ponderação dos previsores) foi gerado a partir do MQR, equação (18).

37 37 Figura 8. Componentes Entradas e Saídas do modelo NEW-ESN-GA. A equação (42), da mesma forma que no modelo NEW original, representa o conjunto de treinamento entrada e saída do modelo NEW-ESN-GA. {Ŷ t t h, h} Ŵ t t h (42) Onde o vetor de entradas gerado pelos previsores envolvidos é dado por: {Ŷ t t h, h} = [ ŷ t t h,1 ŷ t t h,2 ŷ t t h,n h ] (43) O vetor de saídas dado por o método MQR é dado por: Ŵ t t h (v) = [ ŵ t t h,1 ŵ t t h,2 ŵ t t h,n] (44) h H < t (45) Sujeito às restrições de convexidade da equação (41).

38 38 Na formulação do modelo NEW-ESN-GA o cálculo de um vetor de ponderação no tempo t considera valores da série original antes e durante o tempo t (não só antes). Isto é feito intencionalmente, como uma tentativa de trazer uma melhora em relação aos métodos tradicionais. Isto é, mudar os índices das anteriores equações de (t t h) para (t + h t) Conjunto de Treinamento, Validação e Teste Os conjuntos de entradas e saídas são divididos em 3 diferentes grupos: Treinamento, Validação dentro da amostra e Teste fora da amostra. A Figura 9 apresenta os conjuntos divididos. Figura 9. Representação conjuntos de treino, validação e teste para um previsor. A seguir são apresentadas as equações desses três conjuntos, de forma a melhor entender o modelo proposto na seção a seguir baseados na conformação de conjuntos de (Valle Dos Santos & Vellasco, 2015). a. Conjunto de Treinamento: {Ŷ (t t h), h} Ŵ (t t h) {Ŷ Treino, h} Ŵ Treino (46) b. Conjunto de Validação: {Ŷ (t+h t), h} Ŵ (t+h t) {Ŷ Val, h} Ŵ Val (47)

39 39 c. Conjunto de Estimação ou Teste: {Ŷ (τ+h τ), h} Ŵ (τ+h τ) {Ŷ Teste, h} Ŵ Test (48) Destaque-se que no modelo NEW-ESN-GA, a letra Ŵ representa os valores reais estimados pelo MQR. Onde Ŵ Treino é o conjunto real utilizado para o treinamento da rede ESN e Ŵ Val, é o conjunto real utilizado para estimar os erros com relação á resposta estimada pela rede ESN Ŝ Val, apresentada na seção 3.2. Os valores de Ŷ nos conjuntos de treinamento e validação são normalizados (conjuntamente) entre -1 e 1, para não ter um comportamento de saturação nas funções de ativação dos neurônios da rede neural ESN Fase de treinamento e validação da ESN. A partir da base de dados obtida na etapa anterior, passa-se ao treinamento do modelo (vermelho), conforme ilustrado na Figura 10. Figura 10 Fatores involucrados no treinamento

40 40 Conforme mencionado no capítulo anterior, somente os pesos da camada de saída das ESN são alterados durante a fase de treinamento, permanecendo inalterados os outros pesos inicializados aleatoriamente (Wr, Win e Wback). De forma a minimizar o efeito da aleatoriedade, são inicializadas diferentes redes ESN (No), gerando para cada rede a matriz de estados apresentada na equação (49): x (n+1) = Tanh( W in {Ŷ Treino, h} (n+1) + W back Ŵ Treino(n) ) + W back x (n) (49) onde n é o instante do tempo (discreto). Os pesos da camada de saída são ajustados da seguinte forma: W out = pinv(x) Ŵ Treino(n) (50) Em seguida à etapa de treinamento, passa-se à etapa de validação, onde é apresentado o conjunto de entrada de validação {Ŷ Val, h}, para obter os pesos de ponderação fornecidos pela ESN já treinada (equação (51)): Ŝ Val = x(n) W out (51) Os valores dos pesos de ponderação estimados à saída da rede Ŝ Val devem cumprir as restrições da equação (41), de forma a garantir uma saída de ponderação de pesos convexos. Na seção a seguir apresenta-se a etapa de otimização, dependente do conjunto de validação obtido anteriormente Etapa de Optimização e seleção do modelo O modelo NEW-ESN-GA utiliza um algoritmo genético para otimizar os principais parâmetros que influenciam no desempenho da ESN. Os parâmetros a

41 41 serem otimizados pelo algoritmo genético são apresentados na Tabela 1, os quais formam o cromossomo de representação real. Tabela 1. Espaço de busca do cromossomo do AG. Parâmetro Mínimo Máximo #U ρ(w) 0,1 1 %C sw rr 0 1 sw e 0,1 1 Para a criação do algoritmo genético, foram aplicadas as seguintes configurações para sua evolução, apresentadas a seguir: 1. Tamanho da População inicial, o qual indica o número de cromossomas em cada geração. Neste estudo foi utilizado um tamanho de População O Torneio foi o critério para seleção dos indivíduos mais capacitados que serão combinados para a próxima geração. 3. A Reprodução dos cromossomos foi feita com o cruzamento em um só ponto nos cromossomos escolhidos anteriormente, com uma taxa de cruzamento de 0,8. 4. A mutação utilizada no algoritmo genético foi a uniforme, a qual garante a diversidade e a capacidade de busca no espaço de busca, utilizando uma taxa de mutação de 0, O critério de parada deste modelo é o número de gerações, o qual foi ajustado para 500 gerações. 6. O espaço de busca de cada gene (hiperparâmetro da ESN) é apresentado na Tabela 1. A configuração do algoritmo genético é dada na Tabela 2. Tabela 2. Configuração inicial de AG para obter o melhor modelo. Taxa Cruzamento Taxa Mutação População Gerações 0,8 0,

42 Função de Avaliação do GA - Otimização Multiobjetivo da ESN A função de avaliação do modelo proposto baseia-se em algoritmos genéticos multiobjectivo, utilizando o critério de Dominância de duas métricas de erro, conforme apresentado na Figura 11 o Mean squared error (MSE) na saída da ESN (pesos para a combinação convexa dos previsores); e o Symmetric mean absolute percentage error (SMAPE) de previsão, isto é, erro na saída da combinação dos previsores. Figura 11. Algoritmo Genético para otimização da ESN. O Mean squared error (MSE), apresentado na equação (52), é calculado comparando-se a resposta da rede Ŝ Val no conjunto de validação com os pesos reais de ponderação Ŵ Val, conforme apresentado na Figura 12.

43 43 Figura 12. Estimação do erro MSE no conjunto de Validação. MSE = 1 M (Ŝ Val Ŵ val. ) 2 M (52) Onde M é o número de dados do conjunto de validação. A segunda métrica de avaliação do cromossomo é calculada comparando-se o valor real da série temporal, no conjunto de validação, com a combinação de previsores fornecida pelo modelo NEW-ESN-GA. A combinação é apresentada na equação (53), onde a resposta da rede Ŝ Val é combinada com os valores de cada c previsor no conjunto de validação Ŷ Val, obtendo a previsão combinada y Val : c y Val τ = Ŝ Val. Ŷ Val τ 2h (53) O resultado da combinação é então comparado através do erro Symmetric mean absolute percentage error (SMAPE) (Equação (54)), com o valor real da série temporal no conjunto de validação, conforme indicado na Figura 13.

44 44 SMAPE = 1 M τ τ 2H y τ val c y val ( y τ val + y c. 100% val 2 ) (54) Figura 13 Estimação de SMAPE no Conjunto de Validação Ambas as métricas são calculadas para uma quantidade fixa (No) de arquiteturas diferentes (apresentadas na seção 4) geradas de cada cromossomo. Com essas métricas calculadas, constrói-se o conjunto de soluções Dominantes através de todo o espaço objetivo, obtendo-se a Frente ótima de Pareto (Peñuela & Granada, 2007), apresentada na Figura 14.

45 45 Figura 14. Conjunto ótimo de Pareto Série S104 competição NN3 Na Figura 14 verifica-se um exemplo da frente ótima de Pareto para uma das séries (S104) da competição NN3. Percebe-se no gráfico apresentado que os erros envolvidos são conflitantes, isto é, quando um objetivo aumenta, o outro diminui Seleção do melhor modelo O critério de seleção do melhor modelo é a melhor média de SMAPE do conjunto de validação da fronteira de Pareto para o cromossomo encontrado. Isto garante um valor de previsão geral adequado comparado com o valor da série real, além de garantir uma boa resposta de pesos de ponderação da ESN devido ao baixo MSE Teste do modelo selecionado para análise desempenho No modelo selecionado na etapa anterior é apresentado o conjunto de Teste {Ŷ Test, h}, o qual é também normalizado entre -1 e 1 com as características da normalização da seção Os pesos de ponderação na saída da rede neural ESN são obtidos através das equações (36) (37) e (38), substituindo o valor de {Ŷ Test, h}, temos as (55) e (56):

46 46 x (n+1) τ = Tanh( W in {Ŷ Teste, h} (n+1) τ + W back Ŝ Teste(n) τ ) + W back x (n) τ (55) Ŝ Teste = x(n) W out (56) O vetor Ŝ Teste é a resposta da rede ESN, sendo assim, os pesos de ponderação obtidos pelo modelo NEW-ESN-GA. A saída da rede Ŝ Teste e os vetores dos previsores Ŷ Teste são apresentados na equação (57), obtendo a Previsão combinada convexa do conjunto de teste do modelo NEW-ESN-GA. O que é igual τ+h c y Teste = Ŝ Teste. Ŷ Teste τ (57) c Ŷ τ+h τ = y Teste (58) Este é a resposta da combinação convexa de previsores com ponderação de pesos dinâmicos do modelo NEW-ESN-GA. Esta resposta será comparada com os modelos de previsão individuais envolvidos na combinação convexa e também com o modelo NEW, além disso, será avaliado o comportamento ao longo do horizonte de previsão, apresentado no seguinte capítulo.

47 4. Estudo de Casos Neste capítulo são apresentados dois estudos de casos com o modelo proposto NEW-ESN-GA. No primeiro caso, Produtos de petróleo, são analisadas as vendas mensais de quatro produtos importantes: Combustível Diesel (Diesel), Gasolina Regular de motor (Gasolina), Gás de petróleo liquefeito (GLP), Combustível Querosene do tipo Jet (QAV). No segundo estudo de caso são analisadas 11 (S101-S111) séries da competição de previsão NN3. A combinação de previsores estatísticos limiares foram gerados a partir do paradigma proposto no modelo original NEW (Valle Dos Santos & Vellasco, 2015) onde cada previsor original é substituído pelos seus limites de confiança de 95%, isto é, cada previsor original é substituído por dois previsores limiares batizados com o nome do previsor original seguido dos prefixos + (limite superior) ou - (limite inferior) (HW+/HW- e BJ+/BJ-). O limite de confiança de 95% é definido como sendo o intervalo de ± 2 desvios-padrão a partir do previsor original; considera-se, por simplificação, que o desvio-padrão é constante e vale MSE raiz quadrada do erro quadrático médio de previsão, tomado dentro da amostra (Valle Dos Santos & Vellasco, 2015). Com o objetivo de minimizar o efeito da aleatoriedade, descrito na seção 3.2, são inicializadas No = 40 diferentes redes ESN. O software utilizado para a criação do algoritmo genético e das arquiteturas das ESN foi o MATLAB (MathWorks, 2016). Na Tabela 3 é apresentado o Hardware e caraterísticas do Software utilizado no presente trabalho Tabela 3. Hardware utilizado na configuração do modelo NEW-ESN-GA Características Hardware e Software Processador RAM Sistema Operativo Software utilizado Core i7 16GB Windows 7 Home Premium MATLAB: Utilizado na criação da ESN e configuração do GA FORECASTPRO: Utilizado na criação dos conjuntos de previsões BJ e HW

48 48 Os resultados do modelo NEW-ESN-GA são comparados com modelos computacionais(valencia, 2016), modelos estatísticos tradicionais e modelo de previsores combinados NEW (Valle Dos Santos & Vellasco, 2015). A métrica de avaliação utilizada é o SMAPE no conjunto fora da amostra, devido a sua usual aplicação em competições de previsão apresentada na seguinte equação. H SMAPE = 1 M y τ+h Ŷ τ+h τ ( y. 100% τ+h + Ŷ τ+h τ h=1 2 ) (59) Testes de hipóteses são aplicados ao modelo NEW-ESN-GA sobre o conjunto de dados de teste com a finalidade de rejeitar a hipóteses nula Ho aplicada sobre a diferença de desempenhos de dois métodos de previsão. a) t-test: Ho a Média é zero. Teste paramétrico e assume que a diferença de desempenhos tem uma distribuição normal (Wang & Chen, 2014). b) Test sing: Ho a Mediana é zero. Teste não paramétrico, o qual não assume uma distribuição normal entre as diferenças de desempenhos (Dixon & Mood, 1946). c) Test Wilcoxon: Ho a Mediana é zero. Teste não paramétrico que também não assume uma distribuição normal entre as diferenças de desempenhos (Salov, 2014). d) Test Jarque-Bera: verifica a validade da suposição de distribuição normal (Santos-Fernández, 2012). e) Test de Friedman: Teste não paramétrico, fornece um ranking entre os desempenhos ao longo de horizonte de previsão de diferentes modelos (Bender, 1993). f) Test de Pos Hoc: Ho assume que um modelo é consequência de um modelo anterior (Klockars & Hancock, 2000).

49 Produtos de petróleo São analisadas as vendas mensais de Diesel, Gasolina, GLP e QAV no Brasil, publicadas por Agência Nacional de Petróleo, Gás Natural e Biocombustíveis ( ANP - Agência Nacional do Petróleo, Gás Natural e Biocombustíveis, 2016) e apresentadas na Figura 15. Figura 15. Produtos de Petróleo: Vendas mensais em Brasil, Jan/2000 e Dec/2011 (Valle Dos Santos & Vellasco, 2015) Na Tabela 4 são apresentados os resultados do NEW-ESN-GA dos últimos 12 meses do conjunto de teste (fora da amostra) das séries de petróleo, assim como a sua comparação com previsores individuais e o modelo NEW original. A métrica utilizada é o SMAPE, sendo que as últimas linhas apresentam o valor médio de SMAPE e o desvio padrão do conjunto de séries. Tabela 4. Desempenhos por Série (Produtos de Petróleo) Série NEW- ESN-GA NEW TRAD HW BJ Diesel 2,39 2,73 3,29 3,02 2,82

50 50 Gasolina 9,15 6,74 7,82 12,03 10,46 GLP 1,51 1,64 1,55 1,66 1,97 QAV 1,06 1,4 3,04 3,57 2,25 Média 3,53 3,13 3,93 5,07 4,38 STD 3,79 2,48 2,71 4,71 4,07 Na Tabela 5 são apresentadas as melhores configurações obtidas pelo algoritmo genético em cada série para o modelo NEW-ESN-GA. Estes resultados foram obtidos a partir da combinação de previsores estatísticos limiares (HW+/HW- e BJ+/BJ-) e uma janela mínima (5), conseguindo melhorar o SMAPE obtido pela configuração individual desses modelos estatísticos. Tabela 5. Configurações obtidas pelo AG para cada série de petróleo Série #U ρ(w) %C sw rr sw e Diesel 258 0,72 75,96 0,01 0,85 Gasolina 241 0,79 33,99 0,01 0,72 GLP 231 0,58 92,10 0,01 0,76 QAV 210 0,77 45,38 0,81 0,70 Na Tabela 6, é apresentada a evolução da média de SMAPE s ao longo do horizonte de previsão (h). Cada SMAPE é uma média acumulada, e na última linha apresenta-se o valor final do horizonte de previsão. Tabela 6. Evolução das médias de desempenhos de SMAPE s ao longo do horizonte de previsão - h (Produtos de Petróleo) h NEW- ESN-GA NEW TRAD HW BJ 1 1,68 3,80 2,75 2,48 3,74 2 1,42 2,96 2,75 2,74 2,57 3 2,43 3,45 3,48 3,64 3,16 4 3,40 4,01 4,03 4,28 3,83 5 3,27 3,63 4,16 4,42 3,76 6 3,00 3,33 4,03 4,36 3,55 7 2,97 3,18 3,88 4,34 3,51 8 3,18 3,21 4,08 4,66 3,91 9 3,39 3,12 4,11 4,86 4, ,36 3,10 4,01 4,84 4, ,44 3,04 3,95 4,97 4, ,53 3,13 3,93 5,07 4,37

51 51 Na Tabela 6 e na Figura 16, percebe-se que o modelo NEW-ESN-GA tem um melhor comportamento em grande parte do horizonte de previsão, de h = 1 até h = 8; para h>8 o modelo NEW consegue ter um melhor resultado. Ambos os modelos de combinação conseguem vencer aos modelos individuais de previsão. Figura 16. Evolução de SMAPE s ao longo do horizonte de previsão h Na Tabela 7 são apresentadas as diferenças das médias de desempenho de SMAPE s passo a passo, entre o SMAPE s do modelo NEW-ESN-GA e os SMAPE s de outro modelo. Quanto mais negativo é o valor apresentado na Tabela 6, melhor o comportamento do modelo NEW-ESN-GA. Tabela 7. Diferenças das médias de desempenhos de SMAPE s ao longo do horizonte de previsão - h (Produtos de Petróleo) H NEW TRAD HW BJ 1-2,12-1,07-0,80-2,06 2-1,54-1,33-1,32-1,15 3-1,02-1,05-1,21-0,73 4-0,61-0,63-0,88-0,43 5-0,36-0,89-1,15-0,49 6-0,33-1,03-1,36-0,55 7-0,21-0,91-1,37-0,54 8-0,03-0,90-1,48-0,73 9 0,27-0,72-1,47-0,75

52 ,26-0,65-1,48-0, ,40-0,51-1,53-0, ,40-0,40-1,54-0,84 Média -0,41-0,84-1,30-0,82 STD 0,80 0,27 0,25 0,44 Os seguintes gráficos de cada série individual são apresentados na seção de Anexos A deste trabalho: Os resultados das previsões das séries de conjunto de produtos de petróleo, A Evolução do SMAPE ao longo de horizonte A Evolução de vetores de pesos para os 12 passos de previsão Testes de Hipóteses para séries produtos de Petróleo Na Tabela 8 são apresentados os resultados dos testes de hipóteses, considerando um grau de significância de 5%, de forma a verificar se as diferenças de desempenho são significantes. Os resultados indicam que o modelo NEW-ESN-GA é significativamente melhor em 9 dos 12 casos apresentados, sendo equivalente ao NEW original. Tabela 8. Testes de Hipóteses para séries Produtos de Petróleos. T-Test, Test Sign, e Test Wilcoxon T test Benchmarking p-valor inf sup Normal? Conclusão NEW 0,1056 0, Sim Equivalente TRAD 3,11E-07-1,0102-0,6707 Sim NEW-ESN-GA melhor HW 1,48E-09-1,456-1,1416 Sim NEW-ESN-GA melhor BJ 4,47E-05-1,0941-0,5401 Não NEW-ESN-GA melhor Test Sign Benchmarking p-valor inf sup Normal? Conclusão NEW 0,3877-1,0213 0,2722 Sim Equivalente TRAD 4,88E-04-1,0513-0,6269 Sim NEW-ESN-GA melhor HW 4,88E-04-1,4814-1,1482 Sim NEW-ESN-GA melhor BJ 4,88E-04-0,8438-0,5422 Não NEW-ESN-GA melhor Test Wilcoxon Benchmarking p-valor inf sup Normal? Conclusão

53 53 NEW 0,2036-0,9356 0,1168 Sim Equivalente TRAD 4,88E-04-1,0256 0,6526 Sim NEW-ESN-GA melhor HW 4,88E-04-1,4715-1,1334 Sim NEW-ESN-GA melhor BJ 4,88E-04-0,9986-0,5873 Não NEW-ESN-GA melhor Na Tabela 9 é apresentado o teste de Friedman, o qual apresenta o Ranking ao longo do horizonte de previsão com os modelos comparados. O modelo NEW- ESN-GA obteve os melhores resultados para h 8, sendo o segundo no ranking para as últimas quatro previsões. As últimas três linhas da tabela apresentam a soma dos valores obtidos ao longo de horizonte e a sua média, fornecendo a melhor posição no ranking dos modelos comparados. H Tabela 9. Test de Friedman NEW- ESN-GA NEW TRAD HW BJ Soma Média 1,33 2,33 3,58 4,58 3,16 Ranking Na Tabela 10 é apresentado o último teste de hipótese, aplicado sobre os resultados ajustado para um p-valor de 5%. Conclui-se que, com respeito ao modelo NEW, o modelo NEW-ESN-GA não é significativamente diferente, uma vez que não consegue rejeitar a hipótese nula. Entretanto, em comparação com os modelos de previsores individuais o NEW-ESN-GA é significativamente diferente, rejeitando a hipótese nula, devido a que o valor de Holm é muito menor do que 5% do p-valor dos modelos comparados.

54 54 Tabela 10. Test de Pos Hoc, aplicado sobre os resultados de Test de Friedman. i Modelo z= (R 0 R i )/SE p-valor Holm 4 HW 5, , , TRAD 3, , , BJ 2, , ,025 1 NEW 0, , , Séries competição NN3 A Competição NN3 foi criada para avaliar algoritmos baseados em redes neurais ou inteligência computacional ( Neural Forecasting Competition Homepage, 2016). A NN3 é composta por 111 séries temporais mensais, mas, neste trabalho, foi utilizado o conjunto reduzido, composto pelas últimas 11 séries, apresentadas na Figura 17.

55 Figura 17. Séries Competição NN3 55

Combinação Geométrica de Métodos Preditivos; Aplicação à Previsão de Consumo Residencial Mensal de Energia Elétrica

Combinação Geométrica de Métodos Preditivos; Aplicação à Previsão de Consumo Residencial Mensal de Energia Elétrica Luiz Albino Teixeira Júnior Combinação Geométrica de Métodos Preditivos; Aplicação à Previsão de Consumo Residencial Mensal de Energia Elétrica Dissertação de Mestrado Dissertação apresentada como requisito

Leia mais

Abordagem Híbrida Neuro-Evolucionária para Ponderação Dinâmica de Previsores

Abordagem Híbrida Neuro-Evolucionária para Ponderação Dinâmica de Previsores Cesar David Revelo Apraez Abordagem Híbrida Neuro-Evolucionária para Ponderação Dinâmica de Previsores Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do grau de Mestre

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

1 Introdução Contexto

1 Introdução Contexto 13 1 Introdução 1.1. Contexto Análise e previsão de séries temporais é notadamente uma disciplina com muitas aplicações práticas, capaz de oferecer suporte à decisão em diversas áreas: 1. Energia; 2. Cadeia

Leia mais

Modelo de Redes Neurais Artificiais para Inferência da Qualidade de um Processo Polimérico

Modelo de Redes Neurais Artificiais para Inferência da Qualidade de um Processo Polimérico Julia Lima Fleck Modelo de Redes Neurais Artificiais para Inferência da Qualidade de um Processo Polimérico Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do título

Leia mais

Gheisa Roberta Telles Esteves. Modelos de Previsão de Carga de Curto Prazo. Dissertação de Mestrado

Gheisa Roberta Telles Esteves. Modelos de Previsão de Carga de Curto Prazo. Dissertação de Mestrado Gheisa Roberta Telles Esteves Modelos de Previsão de Carga de Curto Prazo Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do grau de Mestre pelo Programa de Pós-graduação

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Experimentos de Previsão da Estrutura a Termo da Taxa de Juros Americana: Reversão à Media, Inércia e Influência de Variáveis Macroeconômicas

Experimentos de Previsão da Estrutura a Termo da Taxa de Juros Americana: Reversão à Media, Inércia e Influência de Variáveis Macroeconômicas João Marco Braga da Cunha Experimentos de Previsão da Estrutura a Termo da Taxa de Juros Americana: Reversão à Media, Inércia e Influência de Variáveis Macroeconômicas Dissertação de Mestrado Dissertação

Leia mais

Rodrigo Pereira David. Técnica de Estimação de Canal Utilizando Símbolos Pilotos em Sistemas OFDM. Dissertação de Mestrado

Rodrigo Pereira David. Técnica de Estimação de Canal Utilizando Símbolos Pilotos em Sistemas OFDM. Dissertação de Mestrado Rodrigo Pereira David Técnica de Estimação de Canal Utilizando Símbolos Pilotos em Sistemas OFDM Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do grau de Mestre pelo

Leia mais

5 Estudo de Caso e Resultados

5 Estudo de Caso e Resultados 5 Estudo de Caso e Resultados 5.1. Introdução Finalizado o desenvolvimento da ferramenta, é indispensável testar suas funcionalidades e a eficácia da aplicação conjunta dos seus módulos de geração de experimentos

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Echo State Networks. Fabricio Breve João Bertini

Echo State Networks. Fabricio Breve João Bertini Echo State Networks Fabricio Breve João Bertini RNN Tarefas Filtragem e predição Classificação de Padrões Modelagem de Seqüências Estocásticas Memória Associativa Compressão de Dados RNN Aplicações Telecomunicações

Leia mais

3 Técnicas de Previsão de Séries Temporais 3.1. Introdução

3 Técnicas de Previsão de Séries Temporais 3.1. Introdução 3 Técnicas de Previsão de Séries Temporais 3.1. Introdução A previsão de séries temporais é um problema prático de extrema importância, presente em diversas áreas: economia, indústria, serviços, previsão

Leia mais

Controle Preditivo com Aprendizado por Reforço para Produção de Óleo em Poços Inteligentes

Controle Preditivo com Aprendizado por Reforço para Produção de Óleo em Poços Inteligentes Alvaro Gustavo Talavera Lopez Controle Preditivo com Aprendizado por Reforço para Produção de Óleo em Poços Inteligentes Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

Alexandre Roberto Rentería ESTIMAÇÃO DE PROBABILIDADE FUZZY A PARTIR DE DADOS IMPRECISOS. Tese de Doutorado

Alexandre Roberto Rentería ESTIMAÇÃO DE PROBABILIDADE FUZZY A PARTIR DE DADOS IMPRECISOS. Tese de Doutorado 1 Alexandre Roberto Rentería ESTIMAÇÃO DE PROBABILIDADE FUZZY A PARTIR DE DADOS IMPRECISOS Tese de Doutorado Tese apresentada ao Programa de Pós-graduação em Engenharia Elétrica da PUC-Rio como requisito

Leia mais

4 Estudo de casos Introdução

4 Estudo de casos Introdução 66 4 Estudo de casos 4.1. Introdução Para avaliar os conceitos explorados nos capítulos anteriores, dois estudos de caso foram selecionados: (i) derivados do petróleo e (ii) competição NN3. No primeiro,

Leia mais

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1

Leia mais

Camilo Velasco Rueda. Dissertação de Mestrado

Camilo Velasco Rueda. Dissertação de Mestrado Camilo Velasco Rueda EsnPredictor: Ferramenta de Previsão de Séries Temporais Baseada em Echo State Networks Otimizadas por Algoritmos Genéticos e Particle Swarm Optimization. Dissertação de Mestrado Dissertação

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

Previsão de Contingência Judicial em Empresas do Setor Elétrico: Uma Abordagem via Regressão Dinâmica e Amortecimento Exponencial

Previsão de Contingência Judicial em Empresas do Setor Elétrico: Uma Abordagem via Regressão Dinâmica e Amortecimento Exponencial Bruno Agrélio Ribeiro Previsão de Contingência Judicial em Empresas do Setor Elétrico: Uma Abordagem via Regressão Dinâmica e Amortecimento Exponencial Dissertação de Mestrado Dissertação apresentada ao

Leia mais

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO

Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO Pós-Graduação em Engenharia de Automação Industrial SISTEMAS INTELIGENTES PARA AUTOMAÇÃO AULA 06 Algoritmos Genéticos Sumário Introdução Inteligência Artificial (IA) Algoritmos Genéticos Aplicações de

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

Entropia de Rényi e Informação Mútua de Cauchy-Schwartz Aplicadas ao Algoritmo de Seleção de Variáveis MIFS-U: Um Estudo Comparativo

Entropia de Rényi e Informação Mútua de Cauchy-Schwartz Aplicadas ao Algoritmo de Seleção de Variáveis MIFS-U: Um Estudo Comparativo Leonardo Barroso Gonçalves Entropia de Rényi e Informação Mútua de Cauchy-Schwartz Aplicadas ao Algoritmo de Seleção de Variáveis MIFS-U: Um Estudo Comparativo DISSERTAÇÃO DE MESTRADO DEPARTAMENTO DE ENGENHARIA

Leia mais

3 Modelos Comparativos: Teoria e Metodologia

3 Modelos Comparativos: Teoria e Metodologia 3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito

Leia mais

João Paulo de Freitas Araujo. Algoritmos para acelerar a computação de Árvores de corte de Gomory e Hu. Dissertação de Mestrado

João Paulo de Freitas Araujo. Algoritmos para acelerar a computação de Árvores de corte de Gomory e Hu. Dissertação de Mestrado João Paulo de Freitas Araujo Algoritmos para acelerar a computação de Árvores de corte de Gomory e Hu Dissertação de Mestrado Dissertação apresentada ao Programa de Pós- Graduação em Engenharia de Produção

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

MODELAGEM DE SÉRIES TEMPORAIS FOCADA NA PRECIFICAÇÃO DE DERIVATIVOS CLIMÁTICOS

MODELAGEM DE SÉRIES TEMPORAIS FOCADA NA PRECIFICAÇÃO DE DERIVATIVOS CLIMÁTICOS Bruno Dore Rodrigues MODELAGEM DE SÉRIES TEMPORAIS FOCADA NA PRECIFICAÇÃO DE DERIVATIVOS CLIMÁTICOS Dissertação de Mestrado Dissertação apresentada ao Departamento de Engenharia Elétrica da PUC/RJ como

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Tópicos sobre Redes Neurais

Tópicos sobre Redes Neurais Tópicos sobre Redes Neurais -Memórias Matriciais -Modelos Híbridos -Redes de Base Radial(RBF) -Redes Construtivas -Redes Recorrentes Prof João Alberto Fabro IF67D Sistemas Inteligentes 1 Dep de Informática

Leia mais

1. Computação Evolutiva

1. Computação Evolutiva Computação Bioinspirada - 5955010-1 1. Computação Evolutiva Prof. Renato Tinós Programa de Pós-Graduação Em Computação Aplicada Depto. de Computação e Matemática (FFCLRP/USP) 2 Computação Bioinspirada

Leia mais

Algoritmos Genéticos. Princípio de Seleção Natural. Sub-áreas da Computação Evolutiva. Idéias básicas da CE. Computação Evolutiva

Algoritmos Genéticos. Princípio de Seleção Natural. Sub-áreas da Computação Evolutiva. Idéias básicas da CE. Computação Evolutiva Computação Evolutiva Algoritmos Genéticos A computação evolutiva (CE) é uma área da ciência da computação que abrange modelos computacionais inspirados na Teoria da Evolução das Espécies, essencialmente

Leia mais

Eliane da Silva Christo. Previsão de Potência Reativa. Tese de Doutorado

Eliane da Silva Christo. Previsão de Potência Reativa. Tese de Doutorado Eliane da Silva Christo Previsão de Potência Reativa Tese de Doutorado Tese apresentada como requisito parcial para obtenção do título de Doutor pelo Programa de Pós- Graduação em Engenharia Elétrica da

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

Guilherme de Sousa Neves. Previsão de estoque de peças eletrônicas sobressalentes. Dissertação de Mestrado

Guilherme de Sousa Neves. Previsão de estoque de peças eletrônicas sobressalentes. Dissertação de Mestrado Guilherme de Sousa Neves Previsão de estoque de peças eletrônicas sobressalentes Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do grau de Mestre (opção profissional)

Leia mais

3. Resolução de problemas por meio de busca

3. Resolução de problemas por meio de busca Inteligência Artificial - IBM1024 3. Resolução de problemas por meio de busca Prof. Renato Tinós Local: Depto. de Computação e Matemática (FFCLRP/USP) 1 Principais Tópicos 3. Resolução de problemas por

Leia mais

3 Otimização Evolucionária de Problemas com Restrição

3 Otimização Evolucionária de Problemas com Restrição 3 Otimização Evolucionária de Problemas com Restrição 3.1. Introdução Este capítulo resume os principais conceitos sobre os algoritmos evolucionários empregados nesta dissertação. Primeiramente, se fornece

Leia mais

Inteligência Artificial. Algoritmos Genéticos. Aula I Introdução

Inteligência Artificial. Algoritmos Genéticos. Aula I Introdução Universidade Estadual do Oeste do Paraná Curso de Bacharelado em Ciência da Computação Inteligência Artificial Algoritmos Genéticos Aula I Introdução Roteiro Introdução Computação Evolutiva Algoritmos

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

4 Implementação Computacional

4 Implementação Computacional 4 Implementação Computacional 4.1. Introdução Neste capítulo é apresentada a formulação matemática do problema de otimização da disposição das linhas de ancoragem para minimizar os deslocamentos (offsets)

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

Computação Evolutiva Eduardo do Valle Simões Renato Tinós ICMC - USP

Computação Evolutiva Eduardo do Valle Simões Renato Tinós ICMC - USP Computação Evolutiva Eduardo do Valle Simões Renato Tinós ICMC - USP 1 Principais Tópicos Introdução Evolução Natural Algoritmos Genéticos Aplicações Conclusão 2 Introdução http://www.formula-um.com/ Como

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Computação Evolutiva. Computação Evolutiva. Principais Tópicos. Evolução natural. Introdução. Evolução natural

Computação Evolutiva. Computação Evolutiva. Principais Tópicos. Evolução natural. Introdução. Evolução natural Computação Evolutiva Eduardo do Valle Simões Renato Tinós ICMC - USP Principais Tópicos Introdução Evolução Natural Algoritmos Genéticos Aplicações Conclusão 1 2 Introdução Evolução natural http://www.formula-um.com/

Leia mais

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL Juliana A. ANOCHI 1, Sabrina B. M. SAMBATTI 1, Eduardo F. P. da LUZ 1, Haroldo F. de CAMPOS VELHO 1 Instituto Nacional de Pesquisas Espaciais - INPE

Leia mais

Renata Miranda Gomes. Detecção de Viés na Previsão de Demanda. Dissertação de Mestrado

Renata Miranda Gomes. Detecção de Viés na Previsão de Demanda. Dissertação de Mestrado Renata Miranda Gomes Detecção de Viés na Previsão de Demanda Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do grau de Mestre pelo Programa de Pós- Graduação em Engenharia

Leia mais

Bruno de Figueiredo Melo e Souza. Modelos de fatoração matricial para recomendação de vídeos. Dissertação de Mestrado

Bruno de Figueiredo Melo e Souza. Modelos de fatoração matricial para recomendação de vídeos. Dissertação de Mestrado Bruno de Figueiredo Melo e Souza Modelos de fatoração matricial para recomendação de vídeos Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do grau de Mestre pelo Programa

Leia mais

Modelagem em Experimentos Mistura-Processo para Otimização de Processos Industriais

Modelagem em Experimentos Mistura-Processo para Otimização de Processos Industriais Luiz Henrique Abreu Dal Bello Modelagem em Experimentos Mistura-Processo para Otimização de Processos Industriais Tese de Doutorado Tese apresentada como requisito parcial para obtenção do título de Doutor

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Thomas de Campos Tsuchida. Modelagem da localização de pólos de venda de derivados de petróleo. Dissertação de Mestrado (Opção Profissional)

Thomas de Campos Tsuchida. Modelagem da localização de pólos de venda de derivados de petróleo. Dissertação de Mestrado (Opção Profissional) Thomas de Campos Tsuchida Modelagem da localização de pólos de venda de derivados de petróleo Dissertação de Mestrado (Opção Profissional) Dissertação apresentada como requisito parcial para obtenção do

Leia mais

3 Algoritmos Genéticos

3 Algoritmos Genéticos Técnicas de Inteligência Computacional 33 3 Algoritmos Genéticos Este capítulo resume os principais conceitos sobre o algoritmo evolucionário empregado nesta dissertação. É apresentada uma breve explicação

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

Laura Gonçalves Carvalho

Laura Gonçalves Carvalho Laura Gonçalves Carvalho Metodologia para implementação de sistemas de previsão de demanda. Um estudo de caso em um distribuidor de produtos químicos Dissertação de Mestrado Dissertação apresentada ao

Leia mais

UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE SÉRIES TEMPORAIS

UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE SÉRIES TEMPORAIS UILIAÇÃO DE REDES NEURAIS ARIFICIAIS PARA PREVISÃO DE SÉRIES EMPORAIS Aida Araújo Ferreira(1); Elvis Gonçalves de Lira(2) (1) Instituto Federal de Educação, Ciência e ecnologia (IFPE), Av. Prof Luiz Freire,

Leia mais

Jessica Quintanilha Kubrusly. Métodos Estatísticos para Cálculo de Reservas DEPARTAMENTO DE MATEMÁTICA

Jessica Quintanilha Kubrusly. Métodos Estatísticos para Cálculo de Reservas DEPARTAMENTO DE MATEMÁTICA Jessica Quintanilha Kubrusly Métodos Estatísticos para Cálculo de Reservas DISSERTAÇÃO DE MESTRADO DEPARTAMENTO DE MATEMÁTICA Programa de Pós graduação em Matemática Rio de Janeiro Agosto de 2005 Jessica

Leia mais

6. Controle por Aprendizado Neuro-Fuzzy

6. Controle por Aprendizado Neuro-Fuzzy 6. Controle por Aprendizado Neuro-Fuzzy 6.1. Introdução Neste capítulo é apresentado o controle por aprendizado utilizando um sistema híbrido Neuro-Fuzzy, para o cálculo e atualização dos pontos de reversão

Leia mais

Previsão da Produção Industrial do Brasil: Uma Aplicação do Modelo de Índice de Difusão Linear

Previsão da Produção Industrial do Brasil: Uma Aplicação do Modelo de Índice de Difusão Linear Fernando César dos Santos Cunha Previsão da Produção Industrial do Brasil: Uma Aplicação do Modelo de Índice de Difusão Linear Dissertação de Mestrado Dissertação apresentada como requisito parcial para

Leia mais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência

Leia mais

Criação Automática de Visões Materializadas em SGBDs Relacionais

Criação Automática de Visões Materializadas em SGBDs Relacionais Andréa Weberling Carvalho Criação Automática de Visões Materializadas em SGBDs Relacionais Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do título de Mestre pelo

Leia mais

4 APLICAÇÕES À SÉRIE TEMPORAL DE CONSUMO RESIDENCIAL MENSAL DE ENERGIA ELÉTRICA

4 APLICAÇÕES À SÉRIE TEMPORAL DE CONSUMO RESIDENCIAL MENSAL DE ENERGIA ELÉTRICA 4 APLICAÇÕES À SÉRIE TEMPORAL DE CONSUMO RESIDENCIAL MENSAL DE ENERGIA ELÉTRICA No capítulo 4, são aplicados os métodos individuais e os combinados à projeção de curto prazo da série de consumo residencial

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

Multi-Layer. Perceptron. Sumário. Aplicações de Redes Neurais. Previsão de Séries Temporais. Aplicações de Previsão

Multi-Layer. Perceptron. Sumário. Aplicações de Redes Neurais. Previsão de Séries Temporais. Aplicações de Previsão Aplicações de Redes Neurais Multi-Layer Perceptron Previsão de Séries Temporais Inferência da Qualidade de Produtos de Destilação (Soft Sensors) Classificação de Imagens Determinação da Carga Limite em

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Previsão da Carga de Energia Diária em Patamares Combinando Técnicas Estatísticas e de Inteligência Computacional

Previsão da Carga de Energia Diária em Patamares Combinando Técnicas Estatísticas e de Inteligência Computacional Douglas Alexander Alves de Farias Previsão da Carga de Energia Diária em Patamares Combinando Técnicas Estatísticas e de Inteligência Computacional Dissertação de Mestrado Dissertação apresentada como

Leia mais

Multi-Layer. Perceptron. Sumário. Aplicações de Redes Neurais. Previsão de Séries Temporais. Aplicações de Previsão

Multi-Layer. Perceptron. Sumário. Aplicações de Redes Neurais. Previsão de Séries Temporais. Aplicações de Previsão Aplicações de Redes Neurais Multi-Layer Perceptron Previsão de Séries Temporais Inferência da Qualidade de Produtos de Destilação (Soft Sensors) Classificação de Imagens Determinação da Carga Limite em

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas

Leia mais

ALGORITMOS EVOLUCIONÁRIOS PARA OTIMIZAÇÃO DE REDES NEURAIS ARTIFICIAIS

ALGORITMOS EVOLUCIONÁRIOS PARA OTIMIZAÇÃO DE REDES NEURAIS ARTIFICIAIS ALGORITMOS EVOLUCIONÁRIOS PARA OTIMIZAÇÃO DE REDES NEURAIS ARTIFICIAIS Aida FERREIRA (1); Thiago HENRIQUE(2); (1) Institituto Federal de Pernambuco - IFPE, Av. Prof Luiz Freire, 500 Cidade Universitária

Leia mais

Utilizando Reservoir Computing para a Previsão da Potência do Vento

Utilizando Reservoir Computing para a Previsão da Potência do Vento Utilizando Reservoir Computing para a Previsão da Potência do Vento Bruna Galle Escola Politécnica de Pernambuco Universidade de Pernambuco Brasil Email: bcga@ecomp.poli.br Dr. Mêuser Jorge Silva Valença

Leia mais

1. Computação Evolutiva

1. Computação Evolutiva Computação Bioinspirada - 5955010-1 1. Computação Evolutiva Prof. Renato Tinós Programa de Pós-Graduação Em Computação Aplicada Depto. de Computação e Matemática (FFCLRP/USP) 2 Computação Bioinspirada

Leia mais

Uso de Algoritmo Genético para a otimização do ponto de corte da probabilidade de sucesso estimada do modelo de Regressão Logística

Uso de Algoritmo Genético para a otimização do ponto de corte da probabilidade de sucesso estimada do modelo de Regressão Logística Uso de Algoritmo Genético para a otimização do ponto de corte da probabilidade de sucesso estimada do modelo de Regressão Logística José Edson Rodrigues Guedes Gondim 1 Joab de Oliveira Lima 2 1 Introdução

Leia mais

Modelos de Memória Longa Para Geração de Cenários Hidrológicos Sintéticos

Modelos de Memória Longa Para Geração de Cenários Hidrológicos Sintéticos Guilherme Armando de Almeida Pereira Modelos de Memória Longa Para Geração de Cenários Hidrológicos Sintéticos Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do grau

Leia mais

MAURICIO LANE ESCOAMENTO DE FLUIDOS NÃO NEWTONIANOS ATRAVÉS DE CANAIS CONVERGENTES-DIVERGENTES DISSERTAÇÃO DE MESTRADO

MAURICIO LANE ESCOAMENTO DE FLUIDOS NÃO NEWTONIANOS ATRAVÉS DE CANAIS CONVERGENTES-DIVERGENTES DISSERTAÇÃO DE MESTRADO MAURICIO LANE ESCOAMENTO DE FLUIDOS NÃO NEWTONIANOS ATRAVÉS DE CANAIS CONVERGENTES-DIVERGENTES DISSERTAÇÃO DE MESTRADO DEPARTAMENTO DE ENGENHARIA MECÂNICA Rio de Janeiro, Dezembro de 2004. Mauricio Lane

Leia mais

3 Algoritmos Genéticos

3 Algoritmos Genéticos Algoritmos Genéticos Algoritmos Genéticos (AGs) constituem um mecanismo de busca adaptativa que se baseia no princípio Darwiniano de seleção natural e reprodução genética [101]. AGs são tipicamente empregados

Leia mais

Iam Vita Jabour. O Impacto de Atributos Estruturais na Identificação de Tabelas e Listas em Documentos HTML. Dissertação de Mestrado

Iam Vita Jabour. O Impacto de Atributos Estruturais na Identificação de Tabelas e Listas em Documentos HTML. Dissertação de Mestrado Iam Vita Jabour O Impacto de Atributos Estruturais na Identificação de Tabelas e Listas em Documentos HTML Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do grau de

Leia mais

Análise comparativa entre métodos estatístico e rede neural aplicados em séries temporais

Análise comparativa entre métodos estatístico e rede neural aplicados em séries temporais Análise comparativa entre métodos estatístico e rede neural aplicados em séries temporais Ana Paula de Sousa José Elmo de Menezes Introdução As formas funcionais dos modelos de previsão das redes neurais

Leia mais

Matchmaking Uma infraestrutura para alinhamento de esquemas

Matchmaking Uma infraestrutura para alinhamento de esquemas Raphael do Vale Amaral Gomes Matchmaking Uma infraestrutura para alinhamento de esquemas Dissertação de mestrado Dissertação apresentada como requisito parcial para a obtenção do grau de Mestre pelo Programa

Leia mais

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja

Leia mais

QEEF-G: Execução Paralela Adaptativa de Consultas Iterativas

QEEF-G: Execução Paralela Adaptativa de Consultas Iterativas Vinícius Fontes Vieira da Silva QEEF-G: Execução Paralela Adaptativa de Consultas Iterativas Dissertação de Mestrado Dissertação apresentada ao programa de Pósgraduação em Informática do Departamento de

Leia mais

IF-705 Automação Inteligente Algoritmos Evolucionários

IF-705 Automação Inteligente Algoritmos Evolucionários IF-705 Automação Inteligente Algoritmos Evolucionários Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação aluizioa@cin.ufpe.br

Leia mais

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a

Leia mais

FORECASTING OF EUCALYPTUS WOOD PRICES FOR CELLULOSE AND SAWMILL USING RADIAL BASIS FUNCTION NEURAL NETWORK AND CLUSTERING METHOD

FORECASTING OF EUCALYPTUS WOOD PRICES FOR CELLULOSE AND SAWMILL USING RADIAL BASIS FUNCTION NEURAL NETWORK AND CLUSTERING METHOD FORECASTING OF EUCALYPTUS WOOD PRICES FOR CELLULOSE AND SAWMILL USING RADIAL BASIS FUNCTION NEURAL NETWORK AND CLUSTERING METHOD Roberto Max Protil - PUCPR Leandro dos Santos Coelho PUCPR Wesley Vieira

Leia mais

Adriano Francisco Branco. Um modelo de programação para RSSF com. Dissertação de Mestrado

Adriano Francisco Branco. Um modelo de programação para RSSF com. Dissertação de Mestrado Adriano Francisco Branco Um modelo de programação para RSSF com suporte à reconfiguração dinâmica de aplicações Dissertação de Mestrado Dissertação apresentada ao Programa de Pós graduação em Informática

Leia mais

Análise e Avaliação do Equity Premium Puzzle no Mercado Acionário Brasileiro sob diferentes Contextos Econômicos

Análise e Avaliação do Equity Premium Puzzle no Mercado Acionário Brasileiro sob diferentes Contextos Econômicos Robson Cabral dos Santos Análise e Avaliação do Equity Premium Puzzle no Mercado Acionário Brasileiro sob diferentes Contextos Econômicos Dissertação de Mestrado Dissertação apresentada como requisito

Leia mais

DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho...

DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho... DCBD Métricas para avaliação de desempenho Como avaliar o desempenho de um modelo? Métodos para avaliação de desempenho Como obter estimativas confiáveis? Métodos para comparação de modelos Como comparar

Leia mais

Carlos Roberto da Costa Ferreira. Interpolação Modificada de LSF's. Dissertação de Mestrado

Carlos Roberto da Costa Ferreira. Interpolação Modificada de LSF's. Dissertação de Mestrado Carlos Roberto da Costa Ferreira Interpolação Modificada de LSF's Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do grau de Mestre pelo Programa de Pósgraduação em

Leia mais

4 Métodos Existentes. 4.1 Algoritmo Genético

4 Métodos Existentes. 4.1 Algoritmo Genético 61 4 Métodos Existentes A hibridização de diferentes métodos é em geral utilizada para resolver problemas de escalonamento, por fornecer empiricamente maior eficiência na busca de soluções. Ela pode ser

Leia mais

Utilização do modelo Holt-Winters para previsão das vendas de leite em um laticínio no oeste paranaense

Utilização do modelo Holt-Winters para previsão das vendas de leite em um laticínio no oeste paranaense Utilização do modelo Holt-Winters para previsão das vendas de leitm um laticínio no oeste paranaense Anariele Maria Minosso 1 Silvana Lígia Vincenzi Bortolotti 2 Katiane de Oliveira 3 1 Introdução A cadeia

Leia mais

Geração semi-automática de massas de testes funcionais a partir da composição de casos de uso e tabelas de decisão

Geração semi-automática de massas de testes funcionais a partir da composição de casos de uso e tabelas de decisão Luiz Rodolfo Neves Caldeira Geração semi-automática de massas de testes funcionais a partir da composição de casos de uso e tabelas de decisão Dissertação de Mestrado Dissertação apresentada como requisito

Leia mais

Otimização do Cronograma de Ativação dos Poços de Petróleo por Algoritmos Genéticos

Otimização do Cronograma de Ativação dos Poços de Petróleo por Algoritmos Genéticos Ana Carolina Alves Abreu Otimização do Cronograma de Ativação dos Poços de Petróleo por Algoritmos Genéticos Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do grau

Leia mais

p TPP = (6.1) e a rajada de perda de pacote é medida pela Comprimento Médio da Rajada (CMR ) que é dada por

p TPP = (6.1) e a rajada de perda de pacote é medida pela Comprimento Médio da Rajada (CMR ) que é dada por 6 Perdas de Pacotes O problema de perda de pacotes em rajadas nas redes IP e redes móveis é um dos fatores mais importantes a serem considerados na análise de sistemas de reconhecimento de voz distribuídos.

Leia mais

A análise de séries temporais é uma área da estatística dedicada ao estudo de dados orientados no tempo (MONTGOMERY, 2004).

A análise de séries temporais é uma área da estatística dedicada ao estudo de dados orientados no tempo (MONTGOMERY, 2004). 3 Séries temporais A análise de séries temporais é uma área da estatística dedicada ao estudo de dados orientados no tempo (MONTGOMERY, 2004). 3.1. Princípios fundamentais Conforme Box et al. (1994), uma

Leia mais

ALGORITMO GENÉTICO COMO REPRESENTAÇÃO DAS MUTAÇÕES NA BIOLOGIA

ALGORITMO GENÉTICO COMO REPRESENTAÇÃO DAS MUTAÇÕES NA BIOLOGIA Patrocínio, MG, outubro de 2016 ENCONTRO DE PESQUISA & EXTENSÃO, 3., 2016, Patrocínio. Anais... Patrocínio: IFTM, 2016. ALGORITMO GENÉTICO COMO REPRESENTAÇÃO DAS MUTAÇÕES NA BIOLOGIA Igor Acassio Melo

Leia mais

3 Otimização Aplicada a Reconstituição de Acidentes

3 Otimização Aplicada a Reconstituição de Acidentes 27 3 Otimização Aplicada a Reconstituição de Acidentes 3.1. Otimização A otimização é uma metodologia empregada para minimizar ou maximizar uma função e geralmente são utilizados em problemas onde existam

Leia mais