ISCTE/FCUL - Mestrado Matemática Financeira. Aula5. Diana Aldea Mendes. Departamento de Métodos Quantitativos, IBS - ISCTE Business School



Documentos relacionados
Introdução às Redes Neurais Artificiais

Algoritmos Genéticos

Faculdade de Engenharia Optimização. Prof. Doutor Engº Jorge Nhambiu

Algoritmos Genéticos (GA s)

Complemento IV Introdução aos Algoritmos Genéticos

ALGORITMOS GENÉTICOS: UMA VISÃO EXPLANATÓRIA

Ajuste dos parâmetros de um controlador proporcional, integral e derivativo através de algoritmos genéticos

ALGORITMOS GENÉTICOS

Projeto e Análise de Algoritmos Projeto de Algoritmos Heurísticas e Algoritmos Aproximados

Transcrição Automática de Música

INF 1771 Inteligência Artificial

3 ALGORITMOS GENÉTICOS : CONCEITOS BÁSICOS E EXTENSÕES VINCULADAS AO PROBLEMA DE MINIMIZAÇÃO DE PERDAS

Simulação Transiente

Software reliability analysis by considering fault dependency and debugging time lag Autores

SLAG - Resolvendo o Problema do Caixeiro Viajante Utilizando Algoritmos Genéticos

Computação Paralela. Desenvolvimento de Aplicações Paralelas João Luís Ferreira Sobral Departamento do Informática Universidade do Minho.

Projeto de Redes Neurais e MATLAB

PPD: Balanceamento de Carga e Scheduling 2

Um Estudo Sobre a Chance de Repetição de Sorteios na Mega-Sena

Microsoft Excel na resolução de problemas de optimização

CAP 254 CAP 254. Otimização Combinatória. Professor: Dr. L.A.N. Lorena. Assunto: Metaheurísticas Antonio Augusto Chaves

Representação por Números Reais

Introdução à genética quantitativa usando os recursos do R

Otimização de Funções Não Lineares por Meio do Algoritmo Árvore da Montanha

INVESTIMENTOS HOTELEIROS EM CABO VERDE: O CASO DO RIU HOTELS & RESORTS

Projetos. Universidade Federal do Espírito Santo - UFES. Mestrado em Informática 2004/1. O Projeto. 1. Introdução. 2.

Métodos modernos de pesquisa e Optimização

Luiz Fernando Fernandes de Albuquerque. Avaliação de algoritmos online para seleção de links patrocinados. Dissertação de Mestrado

Utilização do SOLVER do EXCEL

- Computação Evolutiva -

Aplicação de algoritmos genéticos para ajuste de modelos regressores não lineares com grande número de parâmetros 1. Introdução

Placa de vídeo em CUDA

Problema 8-Puzzle: Análise da solução usando Backtracking e Algoritmos Genéticos

Verificação de Impressões Digitais usando Algoritmos Genéticos

Sistemas de Apoio à Decisão Optimização V 2.0, V.Lobo, EN/ISEGI, 2011

Inteligência Computacional Aplicada a Engenharia de Software

UNIVERSIDADE FEDERAL DO CEARÁ FACULDADE DE ECONOMIA, ADMINISTRAÇÃO, ATUÁRIA E CONTABILIDADE CURSO DE PÓS-GRADUAÇÃO EM ECONOMIA-CAEN

Um Modelo Matemático de Gestão de Recursos Humanos

Computadores de Programação (MAB353)

DISCIPLINA: Métodos Heurísticos

Optimização Não-linear

A Otimização Colônia de Formigas

Roteamento em Redes de Computadores

Otimização do Planejamento de Cargas de Dados utilizando Algoritmos Genéticos

APROG - Civil. Excel. Técnicas de pesquisa de informação em tabelas. Instituto Superior de Engenharia do Porto

Computação BioInspirada

Representação de Modelos Dinâmicos em Espaço de Estados Graus de Liberdade para Controle

Dificuldades de Modelos de PNL. Onde está a solução ótima? Outro exemplo: Condição ótima Local vs. Global Quinta-feira, 25 de abril

ALGORITMO HÍBRIDO PARA SISTEMAS DE RECOMENDAÇÃO UTILIZANDO FILTRAGEM COLABORATIVA E ALGORITMO GENÉTICO

Otimização de Recuperação de Informação usando Algoritmos Genéticos

Conceitos Básicos de Algoritmos Genéticos: Teoria e Prática

CAP. I ERROS EM CÁLCULO NUMÉRICO

Optimização Não-linear

Classificação da imagem (ou reconhecimento de padrões): objectivos Métodos de reconhecimento de padrões

UNIVERSIDADE FEDERAL DO PARANÁ UFPR Bacharelado em Ciência da Computação

Geração de Números Aleatórios e Simulação

O degrau de potencial. Caso II: energia maior que o degrau

2. Método de Monte Carlo

Inteligência Computacional [2COP229]

Cap17 - Tomada de Decisões Complexas

1 Descrição do Trabalho

Limitações dos Computadores

3 Modelo Evolucionário para Sustentabilidade Inteligente

Inteligência Computacional: resolvendo problemas difíceis da vida real

Sistemas de Apoio à Decisão Optimização V 1.0, V.Lobo, EN/ISEGI, 2005

Análise e Desenvolvimento de Sistema de Estimação de Modelos da Classe STAR-TREE

PONTIFÍCIA UNIVERSIDADE CATÓLICA DE GOIÁS Curso Superior de Tecnologia em Análise e Desenvolvimento de Sistemas

Gerenciamento de Projeto: Criando o Termo de Abertura II. Prof. Msc Ricardo Britto DIE-UFPI rbritto@ufpi.edu.br

Computação e Programação

ERP Enterprise Resource Planning

APLICAÇÕES DA DERIVADA

Tópicos Especiais em Redes: Introdução a Teoria dos Jogos com Aplicações a Redes de Computadores

Busca Estocástica Baseada em Planejamento para Maximizar Metas em Jogos de RTS

Evolução via Selecção Natural (Darwin) - sobrevivem os mais aptos (fittest )

Análise de complexidade

BC-0005 Bases Computacionais da Ciência. Modelagem e simulação

Desenvolvendo uma Arquitetura de Componentes Orientada a Serviço SCA

Memória Cache. Prof. Leonardo Barreto Campos 1

8 Referências Bibliográficas

Contagem I. Figura 1: Abrindo uma Porta.

Avaliando o que foi Aprendido

Na medida em que se cria um produto, o sistema de software, que será usado e mantido, nos aproximamos da engenharia.

IA Colônia de Formigas. Prof. Ricardo Britto DIE-UFPI

Aplicações de Escritório Electrónico

Preço de Transferência Fund Tranfer Pricing (FTP)

Módulo 4. Construindo uma solução OLAP

Técnicas metaheurísticas aplicadas na otimização de parâmetros em um modelo probabilístico de gestão de estoques

Tarefa Orientada 15 Manipulação de dados

em torno do Planeamento da Produção e da Gestão de Operações

OPERAÇÃO DE SISTEMAS DE POTÊNCIA. TEE Aula 13 Prof. Vitor Hugo Ferreira

Aspectos Sociais de Informática. Simulação Industrial - SIND

Pierre Alexandre Charles Burban. Apreçamento de opções exóticas: Uma abordagem pela simulação de Monte-Carlo. Dissertação de Mestrado

COMPUTAÇÃO E PROGRAMAÇÃO

Algoritmos Genéticos: Aspectos Práticos. Estéfane G. M. de Lacerda DCA/UFRN Junho/2009

MARCELO DE LIMA BRAZ REDUÇÃO DA QUANTIDADE DE REPROCESSO NO SETOR DE PRODUÇÃO DE CALDOS ALIMENTÍCIOS NA EMPRESA DO RAMO ALIMENTÍCIO (ERA).

ARTIGO TÉCNICO. Os objectivos do Projecto passam por:

Tese / Thesis Work Análise de desempenho de sistemas distribuídos de grande porte na plataforma Java

Introdução a IO V 1.1, V.Lobo, EN/ISEGI, 2007

Objetivos. Engenharia de Software. O Estudo de Viabilidade. Fase do Estudo de Viabilidade. Idéias chave. O que Estudar? O que concluir?

Transcrição:

ISCTE/FCUL - Mestrado Matemática Financeira Aula5 20 de Janeiro de 2010 Ano lectivo: 2009/2010 Diana Aldea Mendes Departamento de Métodos Quantitativos, IBS - ISCTE Business School Gab. 207 AA, diana.mendes@iscte.pt, http://iscte.pt/ deam 1

1 Optimização não-linear: mínimo global e aplicações Arrefecimento simulado (simulated annealing) Algoritmos genéticos 2

- Kirkpatrick, S., C.D. Gelatt, and P.M. Vecchi (1983). Optimization by Simulated Annealing, Science, 220, 670-680. - Metropolis, W., A. Rosenbluth, M. Rosenbluth, A. Teller, and E.Teller (1953). Equation of the State Calculations by Fast Computing Machines, Journal of Chemical Physics, 21, 1087-1208. - Michael Berthold, David J. Hand, References, Intelligent data analysis, Springer-Verlag New York, Inc., New York, NY, 2003 -Heuristicsandartificial intelligence in finance and investment, http://www.geocities.com/francorbusetti/ - P. J. M. Van Laarhoven, E. H. L. Aarts, Simulated Annealing: Theory and Applications (1987), Springer. - Michael Bartholomew-Biggs, Nonlinear Optimization with Financial Applications, Springer US, 2005 3

- Haupt, R. and Haupt. S., Practical Genetic Algorithms, (1998) John Wiley & Sons, pps. 192. ISBN 0471188735 - Genetic Algorithms, http://www.pcai.com/web/ai info/ genetic algorithms.html - Genetic Algorithms, http://www.doc.ic.ac.uk/ nd/surprise 96/ journal/vol4/tcw2/report.html 4

2 Resolução de problemas via métodos de busca O processo de resolução do problema consta em tomada de passos (acções) ou sequências de passos, que levam a um objectivo desejado, ou melhoram o desempenho relativo de soluções candidatas busca. Um algoritmo de busca terá como entrada um problema e retornará como saída uma solução Algoritmo Hill Climbing (subida da encosta) - Escolhe aleatoriamente uma solução inicial - Enquanto os critérios de paragem não são satisfeitos 5

- Gera uma nova solução (vizinha) a partir da actual (numa sua vizinhança) - Se custo da nova solução<custodasolução actual aceita a solução nova -Senão rejeita a solução nova - Critérios de paragem: nenhuma melhor solução é alcançada, um número fixo de iterações foi efectuado, ou o objectivo foi atingido Simulated Annealing - Procura minimizar esta limitação, permitindo aceitar vizinhos piores com uma certa probabilidade 6

3 Arrefecimento simulado (simulated annealing) O método de arrefecimento simulado (método de minimização global de Monte Carlo), é um método heurístico e pode ser aplicado a vários problemas, em particular à resolução de problemas de optimização linear e não-linear, de natureza difusa, através da melhor solução de entre um número finito de soluções possíveis. Este método deve ser aplicado para problemas difíceis e com muitas variáveis, onde requeremos um mínimo global e as outras técnicas são inadequadas. Éumatécnica que inicialmente foi utilizada na física da matéria condensada. O termo annealing define uma estratégia que controla a temperatura de tal forma que pode ser aproximado um estado óptimo. (Um sólido num banho quente é 7

aquecido até um valor máximo. A essa temperatura, todo o material encontra-se em estado ĺıquido e as particulas arrumam-se aleatoriamente. A temperatura é arrefecida suavemente, permitindo que as particulas se ordenam no estado de menor energia dessa estrutura. Se o sólido é arrefecido muito depressa, então o estado de energia mínima não pode ser encontrado). 8

Processo físico estado/estado de energia mínima nível de energia estado de transição temperatura ponto de congelamento arrefecimento distribuição de Boltzmann Optimização solução/solução óptima função objectivo soluções vizinhas parâmetro de controle solução heurística busca através da redução de T probabilidade de selecção de um novo ponto 9

Este processo natural foi adaptado e depois utilizado para determinar óptimos globais de uma função não-linear (Metropolis, 1953 e Kirkpatrik, 1983). Para ser implementado o processo lento (suave) de arrefecimento, foi introduzido um parâmetro de controle ρ: assim, emcadaiteração calcula-se a diferença, E, da energia do sistema, onde uma particula é aleatoriamente substituída. Se E <0, a substituição éaceitaese E >0, a substituição é aceita com a probabilidade de Boltzman (dos estados de energia) que tem a seguinte forma P = e E βt, onde β éaconstantedeboltzmanet é a temperatura. Aplicando o algoritmo de Metropolis várias vezes, para cada temperatura são executadas várias iterações e o sistema encontra o equilibrio térmico para cada temperatura. A temperatura T diminui segundo a equação T k+1 = ρt k,onde ρ assume valores de 0.8 a 0.99, até alcançar o ponto de congelamento (que pode ser diferente de zero), quando oalgoritmopára. 10

Algoritmo (Metropolis, 1953) (1) : Escolha k =0, p =0, x k (solução inicial), T p (temperatura arbitrária) (2) : Seja f = f x k+1 f (xk ); então Se f < 0, então aceitar a mudança com probabilidade 1 e x k = x k+1. Se f > 0, então aceitar a mudança com probabilidade e ( f/tp) e x k = x k+1, k = k +1 (3) : Repetir (2) até quando não há uma mudança significativa no valor da função (4) : Baixar a temperatura utilizando um processo de redução apropriado T p+1 = g (T p ), escolha p = p +1erepetede(2)até aqui, até quando já não há uma mudança significativa no valor da função devido a redução de temperatura 11

Matlab [fnew,xnew]=asaq(func,x,maxstep,qf,lb,ub,tinit) onde func éfunção a minimizar, x é a condição inicial, maxstep éonúmero máximo de iterações, qf=ρ é o quenching factor que éumnúmeroentre0e1, lb e lu são os limites inferiores e superiores das variáveis e tinit éatemperatura initial (valores sugeridos: maxstep=200, tinit=100, qf=0.9) Om-file asaq.m é baseado num algoritmo de Lester Ingber (1993) e utiliza um regime de arrefecimeto exponencial T p+1 = Ã T1 T 0! p T p. 12

[minimum,fval] = anneal(loss, parent, options) onde loss é a função a optimizar, parent são as condições iniciais e options são as opções disponíveis no m-file. Também SA.m +fun2d.m+sa02.m para visualizar a convergência do algoritmo de Metropolis. Os problemas fundamentais deste algoritmo são a escolha da temperatura inicial, do regime de redução da temperatura, do número de iterações e da temperatura final. * Temperatura Inicial 13

-suficientemente alto para que as falsas soluções iniciais sejam acceitas no inicio da heurística - relacionado com o valor da função objectivo * Processo de redução da temperatura -através do parâmetro ρ ou através da regra de actualização *Número de iterações - fixo (em geral) - relacionado com o tamanho do problema * Temperatura final: tem que ser próxima de 0 14

Exemplo: Determíne o mínimo global da função do m-file f801.m, cuja representação gráfica é apresentada em baixo: 250 200 150 100 50 0-50 -100 30 20 10 0 0 5 10 15 20 25 Funço f801 15

>> [fnew,xnew]=asaq( f801,[0 0],200,0.9,-10,10,100) fnew = -78.3323 xnew = -2.9040-2.9023 >> [fnew,xnew]=asaq( f801,[0.1 0.1],200,0.9,-10,10,100) fnew = -64.1956 xnew = -2.9024 2.7457 >> [fnew,xnew]=asaq( f801,[-0.1 0.1],200,0.9,-10,10,100) 16

fnew = -64.1956 xnew = -2.9035 2.7465 >> [fnew,xnew]=asaq( f801,[0.5 0.1],200,0.9,-10,10,100) fnew = -64.1956 xnew = 2.7462-2.9031 >> [fnew,xnew]=asaq( f801,[0.5 0.5],200,0.9,-10,10,100) fnew = -78.3323 17

xnew = -2.9052-2.9024 >> [fnew,xnew]=asaq( f801,[1.5 2.5],200,0.9,-10,10,100) fnew = -78.3323 xnew = -2.9031-2.9043 >> [fnew,xnew]=asaq( f801,[-1.5 2.5],200,0.9,-10,10,100) fnew = -64.1955 xnew = -2.9028 2.7488 Nota-se que cada vez quando corremos o programa vamos obter um resultado diferente e não é garantido obter um mínimo global até quando os parâmetros não são calibrados (escolhidos) de forma apropriada para o problema. 18

Matlab: Visualização do processo de arrefecimento simulado (SA.m +fun2d.m+sa02.m): 2.5 8 6 2 4 2 1.5 0-2 1-4 -6 0.5-8 -10-10 -8-6 -4-2 0 2 4 6 8 SA.m +fun2d.m+sa02 19

Vantagens Pode lidar com modelos altamente não-lineares, caóticos, com dados com ruído e com problemas com várias restrições É um algoritmo robusto, muito versátil e geral. A função em estudo não requere diferenciabilidade e nem continuidade Fléxivel, pode obter soluções globais, sendo superior ao muitos outros algoritmos 20

21 Pela simplicidade de implementação, pode ser utilizado em conjunto com alguma outra heurística (existem algoritmos, onde só é utilizada a idéia de simulated annealing, com o objectivo de melhorar o desempenho de outra heurística)

Desvantagens Como é um método heurístico são precisas muitas escolhas para definir um bom algoritmo Pode ser muito demorado em tempo A escolha dos parâmetros é, em geral, bastante delicada 22

4 Algoritmos Genéticos -Os algoritmos genéticos surgiram nos anos 1960 como consequência do trabalho de investigação de John Holland. O seu objectivo foi estudar os fenômenos de desenvolvimento e adaptação à natureza, baseados na teoria de evolução de Darwin. Holland compreendeu que os mecanismos biológicos permitem adaptações que poderiam ser expressas matematicamente e simuladas computacionalmente. - Os algoritmos genéticos partem de uma população inicial (possíveis soluções) e evoluem durante as gerações (numero de iterações), dentro do espaço de procura até uma população final (conjunto dos melhores resultados), dentre os quais se encontra o ponto óptimo. 23

População = conjunto de pontos (indivíduos) no espaço de busca Geração =iteração completa do AG que gera uma nova população - Cada solução possível, dentro de um espaço, é representada como uma sequência de elementos, onde cada elemento é chamado de gene (variáveis), e cada uma dessa sequências formadas pelos genes são os cromossomos (indivíduos). Deste modo cada indivíduo é formado por um único cromossomo e vem codificado por uma sequência diferente de n genes, onde cada gene tem o comprimento m. Cromossomo = cadeia de bits que representa uma solução possível do problema Gene = representação de cada parâmetro de acordo com o alfabeto utilizado Fenótipo = cromossomo codificado 24

cromossomo x 1 x 2 x 3 x 4 = 10110... x n gene de comprimento 5 10110 - Por exemplo uma função de duas variáveis f (x, y), com n =2, será representada por um cromossomo com 2 genes. Seja m = 7 o comprimento de cada gene. Então, temos: Cromossomo: 1100001 {z } x 0011101 {z } y -Para começar o algoritmo define-se uma população inicial representada por um grupo de diferentes configurações viáveis para o sistema em estudo. Estes 25

indivíduos são gerados de forma aleatória ou através de um processo heurístico. A população formada pelas configurações candidatas a solução do problema de optimização deve ser ordenada, do melhor para o pior indivíduo, de modo que, o indivíduo que apresenta menor valor para a função objectivo é considerado o melhor indivíduo, e tem a maior possibilidade de sobrevivência no ambiente. - O valor da função objectivo de cada indivíduo é designada por fitness (adequabilidade ao ambiente ou função de aptidão) O fitness testa os indivíduos como a natureza testa a todos nesta vida. Desta lista de indivíduos haverá recombinações as quais formarão novos indivíduos transmitindo parte do seu material genético ás gerações futuras. Essas novas gerações serão avaliadas de forma que a população seja sempre formada por indivíduos que apresentam melhor fitness. Aptidão bruta = saída gerada pela função objectivo para um indivíduo Aptidão máxima = melhor indivíduo da população corrente 26

- Para o processo de recombinação é realizada uma selecção dentre o grupo de indivíduos. Assim, através de dois indivíduos seleccionados, faz-se uma troca genéticaparageração de novos indivíduos. A selecçãodosdoisindivíduos que efectuarão o processo de recombinação éfeitaatravés da fórmula de Mayerle: Indiv.Selec = m +1 1+1+4α ³ m 2 + m, 2 onde m é o número de indivíduos da população, α é um número aleatório uniformamente distribuído entre 0 e 1 e[ ] represente a parte interira de. - O crossover (cruzamento) é o processo de reprodução realizado pelos indivíduos seleccionados. Neste processo há umatrocadegenesdetipopais- filhos. A troca éaleatória. A mutação é um processo de modificação aleatória (de baixa probabilidade) do um elemento (alelo) da gene, que, em geral, érealizada quando os filhos obtidos no processo de recombinação não forem viáveis. 27

cálculo de aptidão (fitness) seleção cruzamento mutação 4 operações básicas nova população = próxima geração 28

Crossover de 1 Ponto - O crossover é aplicado com uma dada probabilidade denominada taxa de crossover (60% a 90%) - Se o crossover é aplicado, os pais trocam sua informação gerando dois filhos, caso contrário od dois filhos serão cópiasexactasdospais. Pais Filhos ( 110 0 1 011 1 1 opontedecorteé escolhido aleatóriamente ( 110 1 1 011 0 1 29

Mutação -A mutação inverte os valores dos bits - É aplicada com dada probabilidade, denominada taxa de mutação ( '1%), em cada um dos bits do cromossomo Antes da mutação 01101 Depois da mutação 0 0 101 Apenas o 2 o bit passou no teste de probabilidade 30

Algoritmo 1. Inicializar: definir a função objectivo (fitness) 2. Gerar os m indivíduos da população inicial e calcular os fitness 3. Ordenar os indivíduos, de acordo com o fitness, da melhor à pior solução 4. Seleccionar pais (od indivíduos mais aptos) 5. Gerar os filhos (crossover) 31

6. Os filhos são viáveis? Se SIM - próximo passo (7). Se NÃO: mutação e depois passo (7) 7. Calcular o fitness dos filhos 8. Fitness filho(s) < Fitness m-indivíduo? Se SIM - próximo passo (9). Se NÃO - vai ao passo (4) 9. Inserir filhos na população e excluir os piores indivíduos 10. Alcançou o critério de paragem? Se SIM - FIM. Se NÃO - vai ao passo (3) 32

Criterios de paragem: -Número de gerações - Encontrou a solução (quando é conhecida) - Convergência: nas últimas n gerações não houve melhoria 33

Propriedades Realizam buscas simultâneas em várias regiões do espaço de busca, pois trabalham com uma população e não com um único ponto Utilizam informações de custo ou recompensa e não derivadas ou outro conhecimento auxiliar Optimizam um número grande de variáveis Optimizam parâmetros de funções objectivo com superfícies complexas e complicadas reduzindo a incidência de mínimos locais 34

Adaptam-se bem a computadores paralelos e são fáceis de implementar Trabalham com uma codificação do conjunto de parâmetros e não com os próprios parâmetros Trabalham com dados gerados experimentalmente e são tolerantes a ruídos e dados incompletos São facilmente hibridizados com outras técnicas e heurísticas 35

Aplicações dos Algoritmos Genéticos - Economia: modelação de processos de inovação, desenvolvimento de estratégias de licitação, nascimento de mercados económicos - Sistemas Sociais: estudo dos aspectos evolutivos dos sistemas sociais (evolução de colónias de insectos: cooperação e comunicação) - Processamento de imagem: alinhamento e análise de imagens 36

Matlab Genetic Algorithm and Direct Search Toolbox, GA.m -script file para a função fun.m, mais outros a especificar 0.9 0.8 0.7 0.6 0.5 f(x) 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 x 37

6 Aplicações... Economics has a long tradition of relying on quantitative models for both presenting its theory and testing it empirically. In fact, Joseph Schumpeter, in the first edition of Econometrica in 1933, described economics as the most quantitative of all sciences. Optimisation is an inherent part of this methodology. In theoretical models, agents are presented as utility maximisers and firms try to maximise profit or to minimise cost. Selecting and estimating models for given data sets amounts to optimisation as well sums of squares are minimised and likelihoods are maximised so routinely today that often researchers may not even be aware that fitting a model means optimising it. When building models, economists are often limited by the fact that the model later needs to be solved, ideally in a closed-form. Some researchers have abandoned relying on representative agents and opted for more complex models, 38

relying on computer simulations to obtain results. Such agent-based models, if they are to be a viable alternative to more standard approaches, need to be tuned such that the results from these models coincide with empirical facts. This, again, is an estimation and hence optimisation problem... (M. Gilli and P. Winker)... A system of nonlinear asset flow differential equations (AFDE) gives rise to an inverse problem involving optimization of parameters that characterize an investor population. The optimization procedure is used in conjunction with daily market prices (MPs) and net asset values to determine the parameters for which the AFDE yield the best fit for the previous n days. Using these optimal parameters, the equations are computed and solved to render a forecast for MPs for the following days. For a number of closed-end funds, the results are statistically closer to the ensuing MPs than the default prediction of random walk 39

(RW). In particular, we perform this optimization by a nonlinear computational algorithm that combines a quasi-newton weak line search with the Broyden- Fletcher-Goldfarb-Shanno formula. We develop a nonlinear least-square technique with an initial value problem (IVP) approach for arbitrary stream data by focusing on the MP variable P since any real data for the other three variables B, γ 1,andγ 2 in the dynamical system is not available explicitly. We minimize the sum of exponentially weighted squared differences F[K] between the true trading prices from Day i to Day i+n-1, and the corresponding computed MPs obtained from the first row vector of the numerical solution U of the IVP with AFDE for ith optimal parameter vector, where K 0 is an initial parameter vector. Here, the gradient is approximated by using the central difference formula, and step length s is determined by the backtracking line search. One of the novel components of the proposed asset flow optimization forecast algorithm is a dynamic initial parameter pool that contains most recently used successful parameters, besides the 40

various fixed parameters from a set of grid points in a hyper-box...(parameter optimization for differential equations in asset price forecasting, Ahmet Duran and Gunduz Caginalp, Optimization Methods & Software, Volume 23, Issue 4 (August 2008))... Adaptive Simulated Annealing Applications to Finance An article in the Wall Street Journal in 1993 brought ASA to the attention of the finance community, and it now is used regularly in many financial institutions. A few examples can be mentioned here. The asa papers file in my archive references several financial and economics projects. For example, some economists use ASA to fit models of manufacturing capacity, labor tolerance, and interest rates. I have published papers using ASA to fit two-variable interest-rate models (coupled long-term and short-term interest rates) to several years of bond data. 41

I hav e consulted for a large bank that used ASA to fit a class of features of a set of complex derivatives to similar features of a simpler portfolio, so they could conveniently trade on the simpler portfolio. I hav e consulted for several traders, using ASA to find optimal parameters of trading models, e.g., parameters of moving-average indicators.... (Lester Ingber: http://www.ingber.com/)... The development and use of dynamic optimization model is extremely important in financial markets. The classical mean-variance portfolio model assumes the expected returns are known with perfect precision. In practice, however, it is extremely difficult to estimate precisely. While portfolios that ignore estimation error have very poor properties: the portfolio weights have extreme values and fluctuate dramatically over time. The Bayesian approach that is traditionally used to deal with estimation error assumes investors have only a single prior or is 42

neutral to the risk. Further, the Bayesian approach has computational difficulty to incorporate future uncertainty into the model. In this paper, I introduce Genetic algorithms technique in solving a dynamic portfolio optimization system, which incorporate economic uncertainties into a state dependent stochastic portfolio choice model. The advantage of GA is that it solves the model by forward-looking and backward-induction, which incorporates both historical information and future uncertainty when estimating the asset returns. It significantly improves the accuracy of mean return estimation and thus yields a superior model performance compared to the traditional methodologies. The empirical results showed that the portfolio weights using the GA model are less unbalanced and vary much less over time compared to the meanvariance portfolio weights. GA achieves a much higher Sharpe ratio and the out of sample returns generated by the GA portfolio model have a substantially 43

higher mean and lower volatility compared to the classical mean-variance portfolio strategy and Bayesian approach....(dynamic Portfolio Optimization with Economic Uncertainty, by Xiaolou Yang, 2005) (http://editorialexpress.com/cgibin/conference/download.cgi?db name=sce2005&paper id=29) AAplicação do AG no Modelo de Cournot Adinâmica de um mercado é um processo evolutivo, no qual as firmas escolhem as estratégias que irão utilizar e aprendem tanto com seus sucessos e erros quanto com os dos suas rivais. Assim, o objetivo foi estudar um instrumento de replicagem dinâmica de modelos de oligopólio capaz de captar o caráter dinâmicoeevolutivodacondutadefirmas em um mercado ao longo do tempo. O modelo de Cournot aqui utilizado é o mais comum encontrado na Literatura: suponha que a firma i produza a quantidade q i [0,q] e que todas as N 44

firmas escolham simultaneamente o níveldeprodução. O preço de mercado P determinado pelo equiĺıbrio entre oferta e procura. A função de procura inversa é P = a bq, noqualq = P N i=1 q i e a e b>0, e a função custo é C(Q i )=cq i, linear e idêntica para todas as firmas. Assim, a função lucro é π i = q i (a bq) cq i. O equiĺıbrio de Nash deste problema de maximização de lucro é Q =[N/(N + 1)][(a c)/b], P =[(a + Nc)/N +1] e Π = [(a c)2]/[b(n +1)2]. O modelo de Cournot acima foi replicado dinamicamente através do uso de um AG. O objectivo de AG neste trabalho é verificar se as quantidades produzidas pelas firmas, que usam um processo de aprendizagem para tomar suas decisões estratégicas, convergem para a quantidade de equiĺıbrio q. Primeiramente, a estratégia que a firma i tem que escolher no período t, no caso o nível de produção q i(t),éidentificada através de um único número real, codificado como 45

uma série de zeros e uns, os conhecidos cromossomos, e que estão associados a uma pontuação de acordo com seu desempenho no mercado em termos de lucratividade (a medida do seu sucesso). O objetivo do sucesso do cromossomo i no período t é determinado pela lucratividade da firma i no final do período t, ouμ i(t) = π i(t). No processo de aprendizagem, as estratégias com melhores resultados têm maiores chances de serem selecionadas para os próximos períodos. Quando um cromossomo é selecionado para ser reproduzido,uma cópia exacta é feita. Quando n cópias de cromossomos forem feitas (o número de cromossomos na população é mantido constante), a reprodução foi completada. 46

Symbolic Dynamics and Control in a Matching Labor Market Model Diana A. Mendes, J. Sousa Ramos, Vivaldo M. Mendes The Matching Model Aggregate matching function: total number of successful matches M (u t,v t )=Au α t v 1 α t, A>0, α (0, 1) (1) v t number of job vacancies placed by firms u t total measure of workers looking for jobs 47

The intuition behind (1) is very simple: M/ u > 0, M/ v>0 Define the measure of labor tightness by: θ t v t u t Then, the probability of a vacancy being filled at t is q (θ t ) M (u t,v t ) v t The dynamics of employment are given by = Aθ α t. n t+1 =(1 s) n + q (θ t ) v t s probability of a match being dissolved at t θ t v t /u t = v t /(1 n t ) 48

We should focus upon the central planner solution to the matching model. The objective function is given by U(n, v) =φn t + z (1 n t ) cv t φ the productivity of each worker z the utility obtained per unit of leisure time c thecostthatfirms incur per vacancy placed in the market The planner chooses v t and n t+1 by solving the following dynamic optimization problem X max β t [φn v t,n t + z (1 n t ) cv t ] t+1 t=0 49

subject to n t+1 = (1 s) n t + q n 0 > 0 The Lagrangian can be written as " (β t [φn t + z (1 n t ) cv t ]+λ t L = X t=0 ThetwoFOC,foraninteriorsolution,are à vt 1 n t! (1 s) n t + q v t à vt 1 n t! v n t+1 #) L = β t h c + λ t q 0 (θ t ) θ t + q (θ t ) i =0 v t L = λ t + β t+1 h (φ z)+λ t+1 (1 s)+q 0 (θ t+1 ) θ 2 i t+1 =0. n t+1 50

Battacharya & Bunzel (2002) manipulated these FOC to arrive at a reduced equation that can easily lead to chaotic dynamics aθ α t+1 bθ t+1 = θ α t d (2) a β (1 s) (0, 1), b Aαβ > 0, d (A/c)(1 α)(φ z) > 0 The backward dynamics is characterized by the four-parameter family of maps g :[0,g max ] [0,g max ], where g (θ) =(aθ α bθ + d) 1 α, α (0, 1), a (0, 1), b,d > 0and θ max = µ αa b 1 1 α 51

where g max is implicitly defined as the lowest positive root of the equation agmax α bg max + d =0 The unique fixed point (Fig. 1) of g is denoted by θ and is implicitly given by aθ α bθ = θ α d. (3) The fixed point is stable if g 0 (θ ) < 1, backward dynamics g 0 (θ ) < 1, forward dynamics 52