Flavio Filgueiras Pacheco Moreira

Documentos relacionados
, logo, para se obter uma boa precisão seria necessário aumentar, e muito, o número de

)XQGDPHQWRVGHSUREDELOLGDGHHHVWDWtVWLFD

Modelagem do comportamento da variação do índice IBOVESPA através da metodologia de séries temporais

Sumário. CAPÍTULO 1 Conceitos preliminares 1. CAPÍTULO 2 Descrição de dados: análise monovariada 47

MÉTODOS QUANTITATIVOS PARA CIÊNCIA DA COMPUTAÇÃO EXPERIMENTAL

CONFIRMAÇÃO DA IMPRECISÃO DE RESULTADOS ESTATÍSTICOS OBTIDOS COM A UTILIZAÇÃO DO SOFTWARE EXCEL, ATRAVÉS DE SIMULAÇÃO DE DADOS

Um modelo estocástico para o fluxo de caixa de um plano de previdência de um indivíduo 15

Exercícios de programação

Estatística Descritiva

P. P. G. em Agricultura de Precisão DPADP0803: Geoestatística (Prof. Dr. Elódio Sebem)

4 Cálculo de Equivalentes Dinâmicos

Fernando Nogueira Simulação 1

7 Avaliação de Opções Reais Através do Método LSM

MOQ-13 PROBABILIDADE E ESTATÍSTICA. Professor: Rodrigo A. Scarpel

Aula 2. ESTATÍSTICA E TEORIA DAS PROBABILIDADES Conceitos Básicos

SUMÁRIO. Prefácio, Espaço amostrai, Definição de probabilidade, Probabilidades finitas dos espaços amostrais fin itos, 20

8 Conclusões e Sugestões para Trabalhos Futuros

INE 5101 Simulação Discreta. Simulação Discreta de Sistemas - Prof. Paulo Freitas - UFSC/CTC/INE

A Estatística compreende um conjunto de

SSC546 Avaliação de Sistemas Computacionais Parte 1 -Aula 3 Sarita Mazzini Bruschi

6 Simulação de Monte Carlo - Visão Geral

Introdução a Teste de Software

1. Avaliação de impacto de programas sociais: por que, para que e quando fazer? (Cap. 1 do livro) 2. Estatística e Planilhas Eletrônicas 3.

Avaliação Quantitativa de Sistemas

I - Introdução à Simulação

Introdução ao Planejamento e Análise Estatística de Experimentos 1º Semestre de 2013 Capítulo 3 Introdução à Probabilidade e à Inferência Estatística

2. METODOLOGIA DE PESQUISA

6 Validação Metrológica

Instrumentação Industrial. Fundamentos de Instrumentação Industrial: Introdução a Metrologia Incerteza na Medição

Conceito de Estatística

Métodos Estatísticos em Física Experimental

Monitor: Diego Augusto Silva (P8 Eng. Elétrica) Atendimento: 2as. de 19:45h às 21:30h

PERFIL DOS AUTORES... XVII PREFÁCIO... XIX INTRODUÇÃO... XXI

GRADE CURRICULAR E CORPO DOCENTE. Fase 1 Carga horária total: 360h

Modelamento e simulação de processos

AMOSTRAGEM. É a parte da Teoria Estatística que define os procedimentos para os planejamentos amostrais e as técnicas de estimação utilizadas.

Coleta e Modelagem dos Dados de Entrada

étodos uméricos AJUSTE DE FUNÇÕES Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

5 Definição da Árvore de Cenários

PESQUISA OPERACIONAL I

DESENVOLVIMENTO DE UM MÓDULO DE PROGRAMAÇÃO LINEAR NO PROGRAMA OPTIMI

4 Modelos de Regressão Dinâmica

Estatística. Probabilidade. Conteúdo. Objetivos. Definições. Probabilidade: regras e aplicações. Distribuição Discreta e Distribuição Normal.

Opções Reais. Modelagem do Ativo Básico. Processos Estocásticos. Modelando Incerteza. Processos Estocásticos. IAG PUC-Rio

INTERPOLAÇÃO LINEAR E BILINEAR: APLICAÇÃO EM TRANSFORMAÇÕES GEOMÉTRICAS DE IMAGEM INTRODUÇÃO

Súmario APRESENTAÇÃO DA COLEÇÃO...13

INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E tecnologia PARAÍBA. Ministério da Educação

AULA 13 Análise de Regressão Múltipla: MQO Assimptótico

AULAS 14 E 15 Modelo de regressão simples

A UTILIZAÇÃO DE MÉTODOS ESTATÍSTICOS NO PLANEJAMENTO E ANÁLISE DE ESTUDOS EXPERIMENTAIS EM ENGENHARIA DE SOFTWARE (FONTE:

TÉCNICAS DE AMOSTRAGEM

ANOVA - parte I Conceitos Básicos

4 Cálculo de Equivalentes Dinâmicos

MÉTODOS NUMÉRICOS APLICADOS À ENGENHARIA

Introdução aos Números Pseudo-aleatórios. Profa. Dra. Soraia Raupp Musse

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23

PROJETO E ANÁLISES DE EXPERIMENTOS (PAE) INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS EM ENGENHARIA

Aula 4: Gráficos lineares

Noções de Amostragem

CAPÍTULO 3 POPULAÇÃO E AMOSTRA

2 O Processo de Avaliação de Recursos de Petróleo Não Descobertos

Funções Geradoras de Variáveis Aleatórias. Simulação Discreta de Sistemas - Prof. Paulo Freitas - UFSC/CTC/INE

CE Estatística I

4 Exemplos de verificação

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.

População e Amostra. População: O conjunto de todas as coisas que se pretende estudar. Representada por tudo o que está no interior do desenho.

MODELAGEM E SIMULAÇÃO

Distribuições Amostrais

Plano de testes. Norma ANSI/IEEE para Documentação de Teste de Software define plano de testes como:

PESQUISA OPERACIONAL. UNIDADE 1 Introdução à Pesquisa Operacional. Prof. Me. Carlos Guimarães

Conteúdo. 1 Introdução. Histograma do Quarto Sorteio da Nota Fiscal Paraná 032/16. Quarto Sorteio Eletrônico da Nota Fiscal Paraná

MODELO DE PROGRAMAÇÃO LINEAR INTEIRA MISTA PARA MINIMIZAÇÃO DOS ADIANTAMENTOS E ATRASOS EM FLOW SHOP COM SETUP DEPENDENDE DA SEQUÊNCIA

Simulação de Sistemas. Adaptado de material de Júlio Pereira Machado (AULA 17)

1 O esquema de Alamouti: Diversidade na transmissão

Inventário Florestal. Amostragem

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios

Simulação a Eventos Discretos. Fernando Nogueira Simulação 1

UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ CAMPUS CURITIBA CURSO DE ENGENHARIA DE CONTROLE E AUTOMAÇÃO AMANDA LÚCIA CARSTENS RAMOS

Pesquisa Operacional Introdução. Profa. Alessandra Martins Coelho

Introdução controle manual pelo coordenador da disciplina: abordagem conceitual: jogos lúdicos:

Estatística

PESQUISA OPERACIONAL APLICADA A LOGÍSTICA

MATRIZ DE REFERÊNCIA-Ensino Médio Componente Curricular: Matemática

Estatística. Professor Jair Vieira Silva Júnior.

Estatística 1. Resumo Teórico

Probabilidade e Estatística. Estimação de Parâmetros Intervalo de Confiança

Análise de dados em Fisica de Particulas

Parte I Visão Geral do Processo de Pesquisa 21. Capítulo 1 Introdução à Pesquisa em Atividade Física 23

Intervalos de Confiança

Prof. Lorí Viali, Dr.

3.1 CRIAR A GEOMETRIA/MALHA;

Planificação a médio e longo prazo. Matemática B. 11º Ano de escolaridade. Total de aulas previstas: 193. Ano letivo 2015/2016

Nessa situação, a média dessa distribuição Normal (X ) é igual à média populacional, ou seja:

étodos uméricos SOLUÇÃO NUMÉRICA DE EQUAÇÕES DIFERENCIAIS ORDINÁRIOAS Prof. Erivelton Geraldo Nepomuceno

Clóvis de Araújo Peres Cargo: Professor Titular de Estatística da USP UNIFESP Formação: PhD em Estatística pela Universidade WISCONSIN - USA

Técnicas de Amostragem

AVALIAÇÃO DO ENRIQUECIMENTO POLINOMIAL NO MÉTODO DOS ELEMENTOS FINITOS GENERALIZADOS EM ELEMENTOS TRIANGULARES

O ALEATÓRIO EM COMPUTAÇÃO. Por Diogo Anderson Integrante do Grupo PET Computação

Les Estatística Aplicada II AMOSTRA E POPULAÇÃO

VERSÃO RESPOSTAS PROVA DE MÉTODOS QUANTITATIVOS

Transcrição:

UNIVERSIDADE FEDERAL DO RIO DE JANEIRO CENTRO DE CIÊNCIAS JURÍDICAS E ECONÔMICAS INSTITUTO DE PÓS-GRADUAÇÃO E PESQUISA EM ADMINISTRAÇÃO COPPEAD ESTUDO COMPARATIVO DOS MÉTODOS DE QUASI-MONTE CARLO, AMOSTRAGEM DESCRITIVA, HIPERCUBO LATINO E MONTE CARLO CLÁSSICO NA ANÁLISE DE RISCO Flavio Filgueiras Pacheco Moreira Dissertação de Mestrado Orientador: Prof. Dr. Eduardo Saliby PhD em Pesquisa Operacional - LANCASTER/UK Rio de Janeiro Março 1

ii Folha de Aprovação ESTUDO COMPARATIVO DOS MÉTODOS DE QUASI-MONTE CARLO, AMOSTRAGEM DESCRITIVA, HIPERCUBO LATINO E MONTE CARLO CLÁSSICO NA ANÁLISE DE RISCO Flavio Filgueiras Pacheco Moreira Dissertação submetida ao corpo docente do Instituto de Pós-Graduação e Pesquisa em Administração da Universidade Federal do Rio de Janeiro, como parte dos requisitos necessários à obtenção do grau de mestre. Aprovada por: Prof. - Orientador Eduardo Saliby COPPEAD/UFRJ Prof. Eduardo Facó Lemgruber COPPEAD/UFRJ Prof. Gastão Coelho Gomes COPPE/UFRJ

iii Ficha Catalográfica Moreira, Flavio Filgueiras Pacheco. Estudo comparativo dos métodos de Quasi-Monte Carlo, Amostragem Descritiva, Hipercubo Latino e Monte Carlo clássico na análise de risco/flavio Filgueiras Pacheco Moreira. Rio de Janeiro: UFRJ/COPPEAD, 1. xv, 135p. il. Dissertação Universidade Federal do Rio de Janeiro, COPPEAD, 1. 1. Análise de risco.. Métodos de amostragem. 3. Simulação. 4. Tese (Mestr. UFRJ/COPPEAD). I. Título.

iv Ao Lucas, Simples Amostra de Esperança.

v AGRADECIMENTOS Ao professor Eduardo Saliby, pelo grande incentivo, pela confiança demonstrada e pela valiosa Orientação. Aos professores Eduardo Facó Lemgruber e Gastão Coelho Gomes, pelo empenho na leitura da versão final do trabalho há poucos dias da apresentação e pelas sugestões acrescentadas. A minha esposa, Claudia, pela compreensão, apoio e incentivo durante todas as etapas de elaboração deste trabalho, e por Tudo que possa ser entendido como Amor. Aos meus sogros, Alcides e Sabah, pelo incentivo e por cuidar de meu ativo mais precioso, o Lucas, durante os momentos de preparação e redação do trabalho. A minha mãe, Oraide, pelo apoio, incentivo e presença constante em todas as etapas de minha formação. Aos meus irmãos, Claudio e Lucio, pelo incentivo para realização deste projeto. Aos demais parentes, amigos e Instituições (COPPEAD, CNPq e Booz Allen & Hamilton) que, direta ou indiretamente, contribuíram para a realização deste trabalho de pesquisa.

vi RESUMO MOREIRA, F. F. P. Estudo comparativo dos métodos de Quasi-Monte Carlo, Amostragem Descritiva, Hipercubo Latino e Monte Carlo clássico na análise de risco. Orientador: Eduardo Saliby. Rio de Janeiro: UFRJ/COPPEAD, 1. 135p. Dissertação. (Mestrado em Ciências da Administração) Esta pesquisa comparou os desempenhos, quanto à velocidade de convergência e exatidão dos resultados, de seis métodos de amostragem empregados atualmente em ambientes empresariais e acadêmicos. Os métodos analisados foram o de Quasi-Monte Carlo, utilizando as seqüências numéricas de baixa discrepância de Halton, Sobol e Faure, o método de conjunto determinístico, como a amostragem Descritiva, o de conjunto estratificado, como o Hipercubo Latino, e o clássico método de Monte Carlo. Este último é precursor dos demais e considerado padrão de amostragem nas aplicações de Simulação. Os desempenhos dos métodos em relação aos critérios adotados para convergência e exatidão foram comparados entre si em três categorias de aplicações da análise de risco decisão de investimento, avaliação de carteira de ações, avaliação do preço de opções - e em uma aplicação científica, caracterizada pela avaliação de integrais múltiplas. O método da amostragem Descritiva apresentou os melhores resultados consolidados para as condições estabelecidas.

vii ABSTRACT MOREIRA, F. F. P. Estudo comparativo dos métodos de Quasi-Monte Carlo, Amostragem Descritiva, Hipercubo Latino e Monte Carlo clássico na análise de risco. Orientador: Eduardo Saliby. Rio de Janeiro: UFRJ/COPPEAD, 1. 135p. Dissertação. (Mestrado em Ciências da Administração) This research has intended to compare the performance, regarding the rate of convergence and the valuation precision, of six sampling methods applied to the businesses sphere and academic researches nowadays. The employed methods were the Quasi-Monte Carlo with the Halton, Sobol and Faure low discrepancy numerical series, deterministic set method as Descriptive sampling, stratified set method as Latin Hypercube sampling, and the classic Monte Carlo method. The latter method is the pioneer of the existing ones and considered as the standard sampling method in Simulation. The analyzed methods performance based on the rate of convergence and the results precision criteria were compared against each other in three categories of risk analysis applications investment decision, stock portfolio evaluation, option price evaluation and in a scientific application, consisting of multiple integration evaluation. The Descriptive sampling method showed the best aggregate results on the previous assigned conditions.

viii LISTA DE QUADROS Quadro 4.1 Número de corridas e valor absoluto do desvio percentual do resultado relativo ao valor exato definido para o caso-base (D=5), na aplicação de Análise de Risco... 9 Quadro 4. Número de corridas e valor absoluto do desvio percentual do resultado relativo ao valor exato definido para o caso variante 1 (D=8), na aplicação de Análise de Risco... 93 Quadro 4.3 Número de corridas e valor absoluto do desvio percentual relativo ao valor exato definido para o caso variante (D=16), na aplicação de Análise de Risco 94 Quadro 4.4 Número de corridas e valor absoluto do desvio percentual do resultado relativo ao valor exato definido para o caso variante 3 (D=1), na aplicação de Análise de Risco... 95 Quadro 4.5: Número de corridas e valor absoluto do desvio percentual do resultado relativo ao valor exato para o caso-base (D=4), na aplicação de Avaliação de Portfolio de Ações... 1 Quadro 4.6 Número de corridas e valor absoluto do desvio percentual do resultado relativo ao valor exato para o caso variante 1 (D=8), na aplicação de Avaliação de Portfolio de Ações... 11 Quadro 4.7 Número de corridas e valor absoluto do desvio percentual do resultado relativo ao valor exato para o caso variante (D=1), na aplicação de Avaliação de Portfolio de Ações... 1 Quadro 4.8 Número de corridas e valor absoluto do desvio percentual do resultado relativo ao valor exato para o caso-base, na aplicação de Precificação de Opções... 17 Quadro 4.9 Número de corridas e valor absoluto do desvio percentual do resultado relativo ao valor exato da integral no caso-base (D=4), na aplicação de Integração Múltipla... 111 Quadro 4.1 Número de corridas e valor absoluto do desvio percentual do resultado relativo ao valor exato da integral no caso variante 1 (D=8), na aplicação de Integração Múltipla... 11 Quadro 4.11 Número de corridas e valor absoluto do desvio percentual do resultado relativo ao valor exato da integral no caso variante (D=1), na aplicação de Integração Múltipla... 113

ix LISTA DE GRÁFICOS Figura.1 Resultado possível em experimentos bidimensionais para quantificar a discrepância das séries numéricas regiões concentradas e regiões vazias... 9 Figura. Discrepâncias para 5 pares ordenados no quadrado unitário, utilizando como coordenadas séries de Halton (A) e séries aleatórias (B) - D 5 (A) = 3% e D 5 (B) = 5%... 9 Figura.3 Discrepâncias para 15 pares ordenados no quadrado unitário, utilizando como coordenadas séries de Halton (A) e séries aleatórias (B) D 15 (A) = 1,67% e D 15 (B) =,33%.... 3 Figura.4 Discrepância para 55 pares ordenados no quadrado unitário, utilizando como coordenadas séries de Halton (baixa-discrepância) D 55 =,57%.... 3 Figura.5 Discrepância para 55 pares ordenados no quadrado unitário, utilizando como coordenadas séries aleatórias D 55 = 1,35%... 31 Gráfico 3.1 Função de distribuição acumulada de probabilidades dos volumes anuais de vendas (mil unidades), segundo tabela 3.... 67 Gráfico 4.1 Percentual consolidado de vitórias de cada método de amostragem sobre o total relativo ao critério de velocidade de convergência, na aplicação de Análise de Risco... 96 Gráfico 4. Percentual consolidado de vitórias de cada método de amostragem sobre o total relativo ao critério de exatidão do resultado, na aplicação de Análise de Risco...97 Gráfico 4.3 Percentual consolidado de vitórias de cada método de amostragem sobre o total relativo à velocidade de convergência, na aplicação de Avaliação de Portfolio de Ações... 15 Gráfico 4.4 Percentual consolidado de vitórias de cada método de amostragem sobre o total relativo à exatidão do resultado, na aplicação de Avaliação de Portfolio de Ações... 16 Gráfico 4.5 Percentual consolidado de vitórias para cada método de amostragem sobre o total relativo ao critério de exatidão do resultado, na aplicação de Precificação de Opções... 19 Gráfico 4.6 Percentual consolidado das vitórias de cada método de amostragem sobre o total relativo ao critério da velocidade de convergência, na aplicação de Integração Múltipla... 114

x Gráfico 4.7 Percentual consolidado das vitórias de cada método de amostragem sobre o total relativo ao critério de exatidão do resultado, na aplicação de Integração Múltipla... 115 Gráfico 5.1 Percentual consolidado das vitórias de cada método de amostragem sobre o total relativo ao critério da velocidade de convergência, em todos os experimentos da pesquisa... 117 Gráfico 5. Percentual consolidado das vitórias de cada método de amostragem sobre o total relativo ao critério de exatidão do resultado, em todos os experimentos da pesquisa... 118 Gráfico 5.3 Percentual consolidado das vitórias de cada método de amostragem sobre o total relativo a ambos os critérios de desempenho, em todas as aplicações da pesquisa... 1

xi LISTA DE TABELAS Tabela 3.1 Custos unitários dos novos produtos e suas probabilidades de ocorrência, para a aplicação de Análise de Risco no lançamento... 66 Tabela 3. Intervalos possíveis para os volumes anuais de venda dos novos produtos, para a aplicação de Análise de Risco no lançamento... 67 Tabela 3.3 Valores do investimento inicial para lançar o novo produto e suas probabilidades de ocorrência, para a terceira variante da aplicação de Análise de Risco... 7 Tabela 3.4 Variações no preço final dos novos produtos com as respectivas probabilidades de ocorrência, para a terceira variante da aplicação de Análise de Risco... 7 Tabela 3.5 Reduções no volume de vendas do primeiro ano após lançar o produto, para a terceira variante da aplicação de Análise de Risco... 71 Tabela 3.6 Retornos anuais médios e desvios-padrão para as ações da carteira analisada, na aplicação de Avaliação de Portfolio de Ações... 7 Tabela 3.7 Matriz de correlação entre os retornos anuais médios das ações da carteira analisada, na aplicação de Avaliação de Portfolio de Ações... 7 Tabela 3.8 Retornos anuais médios e desvios-padrão para as ações da carteira analisada, na primeira variante da aplicação de Avaliação de Portfolio de Ações 73 Tabela 3.9 Matriz de correlação dos retornos anuais médios das ações da carteira analisada, na segunda variante da aplicação de Avaliação de Portfolio de Ações.74 Tabela 3.1 Retornos anuais médios e desvios-padrão das ações da carteira analisada, na terceira variante da aplicação de Avaliação de Portfolio de Ações... 74 Tabela 3.11 Matriz de correlação dos retornos anuais médios das ações da carteira analisada, na terceira variante da aplicação de Avaliação de Portfolio de Ações.. 75 Tabela 3.1 Fluxo de caixa bruto do portador de uma opção de compra para um ativoobjeto, na data de exercício ou do vencimento da opção... 76 Tabela 4.1 Valores exatos para o VPL, tamanho das amostras, número de corridas e critério de desvio, adotados nos casos da aplicação de Análise de Risco... 91 Tabela 4. Valores exatos para a probabilidade, tamanho das amostras, número de corridas e critério de desvio, adotados na aplicação de Avaliação de Portfolio de Ações... 99

xii Tabela 4.3 Valores exatos para a integral, tamanho de amostras, número de corridas e critério de desvio, adotados na aplicação de Integração Múltipla... 11 Tabela 4.4 Número de linhas de código das macros elaboradas em VBA para fornecer as amostras de acordo com os algoritmos dos métodos de amostragem analisados na pesquisa... 116 Tabela 7.1 Velocidade de convergência máxima e mínima e respectivos desvios percentuais, relativos à Monte Carlo, para cada método de amostragem na aplicação de Análise de Risco... 15 Tabela 7. Desvio percentual máximo e mínimo e respectivas velocidades de convergência, relativos à Monte Carlo, para cada método de amostragem na aplicação de Análise de Risco... 16 Tabela 7.3 Número de vitórias para cada método de amostragem estudado quanto ao critério da velocidade de convergência, na aplicação de Análise de Risco... 17 Tabela 7.5 Velocidade de convergência máxima e mínima e respectivos desvios percentuais, relativos à Monte Carlo, para cada método de amostragem na aplicação de Avaliação de Portfolio de Ações... 18 Tabela 7.6 Desvio percentual máximo e mínimo e respectivas velocidades de convergência, relativos à Monte Carlo, para cada método de amostragem na aplicação de Avaliação de Portfolio de Ações... 19 Tabela 7.7 Número de vitórias para cada método de amostragem estudado quanto ao critério da velocidade de convergência, na aplicação de Avaliação de Portfolio de Ações... 13 Tabela 7.8 Número de vitórias para cada método de amostragem estudado quanto ao critério da exatidão do resultado, na aplicação de Avaliação de Portfolio de Ações... 13 Tabela 7.9 Velocidade de convergência máxima e mínima e respectivos desvios percentuais, relativos à Monte Carlo, para cada método de amostragem na aplicação de Precificação de Opções... 131 Tabela 7.1 Desvio percentual máximo e mínimo e respectivas velocidades de convergência, relativos à Monte Carlo, para cada método de amostragem na aplicação de Precificação de Opções... 131 Tabela 7.11 Número de vitórias para cada método de amostragem estudado quanto aos dois critérios de desempenho, na aplicação de Precificação de Opções... 131 Tabela 7.1 Velocidade de convergência máxima e mínima e respectivos desvios percentuais, relativos à Monte Carlo, para cada método de amostragem na aplicação de Integração Múltipla... 13

xiii Tabela 7.13 Desvio percentual máximo e mínimo e respectivas velocidades de convergência, relativos à Monte Carlo, para cada método de amostragem na aplicação de Integração Múltipla... 133 Tabela 7.14 Número de vitórias para cada método de amostragem quanto ao critério da velocidade de convergência, na aplicação de Integração Múltipla... 134 Tabela 7.15 Número de vitórias para cada método de amostragem quanto ao critério da exatidão do resultado, na aplicação de Integração Múltipla... 134 Tabela 7.16 Número de vitórias consolidadas para cada método de amostragem em relação ao critério da velocidade de convergência, para todas as aplicações... 135 Tabela 7.17 Número de vitórias consolidadas para cada método de amostragem em relação ao critério da exatidão do resultado, para todas as aplicações... 135 Tabela 7.18 Total geral do número de vitórias para cada método de amostragem em relação a ambos os critérios de desempenho, para todas as aplicações... 135

xiv SUMÁRIO 1 O PROBLEMA... 1 1.1 INTRODUÇÃO... 1 1. OBJETIVOS... 4 1.3 QUESTÕES A SEREM RESPONDIDAS... 5 1.4 HIPÓTESES... 6 1.5 DELIMITAÇÃO DO ESTUDO... 6 1.6 RELEVÂNCIA DO ESTUDO... 7 REFERENCIAL TEÓRICO... 9.1 O MÉTODO DE MONTE CARLO... 9. MÉTODOS DE CONJUNTOS DETERMINÍSTICOS E PROBABILÍSTICOS... 1.. Hipercubo Latino para grandes amostras... 18..3 Amostragem Descritiva....3 MÉTODO DE QUASI-MONTE CARLO... 7.3.1 Discrepância... 7.3. Séries numéricas de Halton... 31.3.3 Método simplificado de Halton... 34.3.4 Séries de Sobol e Faure... 36.3.5 Experimentos com séries de baixa-discrepância... 36.4 APLICAÇÕES DE QUASI-MONTE CARLO... 44.5 CONCLUSÕES... 61 3 METODOLOGIA... 63 3.1 TIPO DE PESQUISA... 63 3. UNIVERSO E AMOSTRA... 64 3..1 ANÁLISE DE RISCO... 65 3..1.1 Variantes do experimento de análise de risco... 69 3.. AVALIAÇÃO DE PORTFOLIO DE AÇÕES... 71 3...1 Variantes do experimento de avaliação de portfolio de ações... 73 3..3 PRECIFICAÇÃO DE OPÇÕES... 75 3..4 INTEGRAÇÃO MÚLTIPLA... 78 3..4.1 Variantes do experimento de integração múltipla... 79 3.3 COLETA DE DADOS... 8 3.3.1 Velocidade de convergência... 8 3.3. Exatidão do resultado... 81 3.3.3 Eficiência da correlação forçada... 8 4 RESULTADO... 84 4.1 TRATAMENTO DOS DADOS... 84 4. LIMITAÇÕES DA PESQUISA... 85 4..1 Metodologia... 85 4.. Hardware... 86 4..3 Software... 87 4.3 RESULTADOS DAS SIMULAÇÕES... 88

xv 4.3.1 Análise de risco... 89 4.3.1.1 Velocidade de convergência... 96 4.3.1. Exatidão do resultado... 96 4.3. Avaliação de Portfolio de Ações... 97 4.3..1 Eficiência da correlação forçada... 13 4.3.. Velocidade de convergência... 14 4.3..3 Exatidão do resultado... 15 4.3.3 Precificação de Opções... 16 4.3.3.1 Velocidade de convergência... 18 4.3.3. Exatidão do resultado... 18 4.3.4 Integração múltipla... 19 4.3.4.1 Velocidade de convergência... 114 4.3.4. Exatidão do resultado... 114 4.3.5 Complexidade do código de programação... 115 5 CONCLUSÃO... 117 5.1 SUGESTÕES PARA NOVAS PESQUISAS... 1 6 REFERÊNCIAS BIBLIOGRÁFICAS... 1 7 ANEXO... 15 7.1 APLICAÇÃO DE ANÁLISE DE RISCO... 15 7. APLICAÇÃO DE AVALIAÇÃO DE PORTFOLIO DE AÇÕES... 18 7.3 APLICAÇÃO DE PRECIFICAÇÃO DE OPÇÕES... 131 7.4 APLICAÇÃO DE INTEGRAÇÃO MÚLTIPLA... 13 7.5 CONSOLIDAÇÃO DO NÚMERO DE VITÓRIAS NA PESQUISA... 135

1 O PROBLEMA Neste capítulo, serão apresentadas as principais características dos métodos de simulação, os objetivos e questões a serem respondidos após a pesquisa, as principais hipóteses e delimitações para os métodos empregados e as razões que justificaram e motivaram este estudo. 1.1 Introdução A simulação é um método de resolução de problemas complexos ou de difícil solução analítica que vem sendo cada vez mais utilizada em diversas áreas de conhecimento, como as áreas administrativas e financeiras. A crescente complexidade das análises e das inter-relações entre as variáveis, além da maior disponibilidade de recursos computacionais, têm contribuído para isso. As principais vantagens oferecidas pelo método de simulação são a grande flexibilidade na preparação de aplicações e o grau de acessibilidade aos pesquisadores interessados. Sistemas de apreciação de ativos, avaliação de fluxos de caixa, previsão de vendas, controle de estoques, atendimento a clientes e transportes público e militar têm sido exemplos correntes de aplicações das ferramentas de simulação. As principais desvantagens na utilização do método de simulação - dificuldade operacional na modelagem e implementação das aplicações - e o tempo empregado para executar os programas têm sido atenuados pela evolução computacional e pelo surgimento de algoritmos que procuram reduzir o tempo de execução das atividades. Todo processo de simulação consiste na construção de um modelo lógicomatemático, na tradução deste modelo em linguagem de programação, na execução do programa e na coleta de resultados. Segundo Saliby (1989), há três categorias de simulação: determinística/probabilística, estática/dinâmica e discreta/contínua.

Na simulação determinística, as variáveis presentes são determinísticas e, em caso de problemas mais simples, existe uma solução analítica que deve ser analisada. É o caso de aplicações em planejamento financeiro e sistemas macroeconômicos. Na simulação probabilística, o modelo é mais próximo da realidade e, por conseqüência, mais complexo, havendo maior número de inter-relacionamentos entre variáveis. Nestes casos, os modelos possuem variáveis aleatórias com papéis auxiliares cujos valores serão gerados pelos métodos apropriados a cada problema. A simulação estática é utilizada nos sistemas que não sofrem alteração ao longo do tempo, como por exemplo nas aplicações do método de Monte Carlo ao cálculo de integrais ou nas amostragens realizadas em estudos estatísticos. Contudo, a maioria das aplicações de simulação está ligada a experimentos em sistemas que evoluem com o tempo, como é o caso das análises financeiras, que requerem o uso da simulação dinâmica. A simulação é classificada como discreta ou contínua de acordo com os valores assumidos pelas variáveis e com os processos utilizados para atualização dos mesmos. Na simulação discreta, a hipótese é que o estado do sistema não se altera entre a ocorrência de eventos consecutivos. Na simulação contínua, muito embora a passagem do tempo seja em pequenos intervalos, o tempo é considerado contínuo pelo sistema em estudo. De acordo com Saliby (1989), a simulação contínua é muito utilizada nos sistemas descritos por equações diferenciais e nas simulações de processos contínuos como as operações em refinarias de petróleo. A maioria das aplicações realizadas neste estudo é de natureza probabilística discreta. Esta dissertação estuda o problema do tempo e da exatidão dos resultados nos experimentos de simulação, analisando os diversos métodos de amostragem existentes e que têm sido recentemente pesquisados no universo acadêmico. Dentre estes métodos, estão o método de Monte Carlo, os de Quasi-Monte Carlo (ou de baixa-discrepância), o Hipercubo Latino e a amostragem Descritiva.

3 Na verdade, alguns dos métodos de amostragem utilizados representam uma mudança de princípio em relação ao tradicional método de Monte Carlo. Segundo Saliby (1989), o princípio da imitação total, que fez da amostragem aleatória simples (Monte Carlo) um padrão em simulação, não é seguido quando utilizamos a amostragem Descritiva ou algumas das séries de baixa-discrepância (Quasi-Monte Carlo) nas aplicações. Os resultados obtidos abrem caminho para questionar a padronização deste princípio nos casos de simulação. O método de Monte Carlo foi proposto, inicialmente, por von Neumann e Ulam para a solução de problemas matemáticos complexos com difícil solução analítica, durante a Segunda Guerra Mundial. Estes problemas envolviam soluções de integrais múltiplas nos estudos de difusão de nêutrons que, mais tarde, culminariam na construção da primeira bomba atômica. Alguns anos depois, as principais deficiências do método foram apontadas como sendo o grande esforço computacional envolvido e a baixa precisão dos resultados. Na década de 5, o método de Monte Carlo foi utilizado para aplicações envolvendo filas de espera com o intuito de estimar parâmetros e obter conclusões sobre seu comportamento. Era o início das aplicações de simulação por Monte Carlo. Um dos pioneiros desta idéia foi Tocher, autor do primeiro livro sobre o assunto, lançado em 1963. Os métodos do Hipercubo Latino e da amostragem Descritiva, que surgiram nas aplicações de simulação após Monte Carlo, foram comparados a este por diversos pesquisadores, dentre eles Saliby (199a) e Saliby e Paul (1993), que identificaram melhora, em termos estatísticos, em relação à amostragem aleatória simples. Os métodos de amostragem de Quasi-Monte Carlo, que têm sido empregados recentemente em inúmeros experimentos, podem auxiliar no cálculo do valor em risco das aplicações do mercado financeiro. A complexidade da modelagem e da programação, entretanto, poderia não justificar o aumento na velocidade de convergência dos resultados em algumas ocasiões.

4 Desta forma, seria sempre recomendável utilizar os métodos de amostragem de Quasi-Monte Carlo quando o aparato computacional e seus afins não representassem impedimento e a velocidade de simulação fosse o fator preponderante na aplicação estudada? Assim, o objetivo principal deste trabalho é utilizar os métodos de Quasi-Monte Carlo, amostragem Descritiva e Hipercubo Latino em aplicações voltadas principalmente ao mercado financeiro e comparar os resultados obtidos aos provenientes do método tradicional de Monte Carlo. 1. Objetivos O objetivo principal deste estudo é comparar a exatidão dos resultados e o tempo empregado na simulação dos experimentos da área financeira quando utilizamos os métodos de amostragem de Quasi-Monte Carlo (Faure, Sobol e Halton) e os demais métodos de amostragem conhecidos (Monte Carlo, Hipercubo Latino e Descritiva). Outro objetivo do estudo é identificar o grau de complexidade adicionado ao modelo computacional desenvolvido para Monte Carlo quando adotamos algum dos três outros métodos de amostragem conhecidos (Quasi-Monte Carlo, Hipercubo Latino ou amostragem Descritiva). Um objetivo intermediário é testar os algoritmos sugeridos por Cholesky para obtenção de séries correlacionadas a partir de séries de amostras aleatórias independentes. As amostras transformadas por Cholesky serão empregadas nos experimentos envolvendo carteiras de ações. Os resultados serão comparados aos obtidos sem utilizar a transformação.

5 Há interesse em desenvolver algoritmos e macros em Excel para os métodos de amostragem de Quasi-Monte Carlo e para as transformadas de Cholesky, a fim de tornar acessíveis os resultados e incentivar novas pesquisas na área. Por fim, pretendemos aplicar os conceitos da amostragem por Quasi-Monte Carlo a problemas de cálculo com integrais múltiplas para testar a exatidão dos resultados em relação à solução analítica já conhecida. 1.3 Questões a serem respondidas O aumento na velocidade de simulação utilizando Quasi-Monte Carlo em relação à velocidade utilizando Monte Carlo é significativo? A complexidade acrescentada ao modelo sugerido e ao código de programação pode representar impedimento à utilização de Quasi-Monte Carlo? O ganho de velocidade ao utilizar Quasi-Monte Carlo em relação às velocidades obtidas com os métodos do Hipercubo ou da amostragem Descritiva é significativo? Existe algum parâmetro que possa caracterizar as aplicações em que a utilização de Quasi-Monte Carlo possa ser viável ou inviável? Em aplicações científicas, que exigem normalmente a resolução de integrais múltiplas, a performance do método de Quasi-Monte Carlo excedeu a performance de Monte Carlo clássico? O emprego do algoritmo de transformação de Cholesky realmente produz séries correlacionadas segundo uma matriz fornecida?

6 Os resultados das aplicações envolvendo uma carteira de ações correlacionadas apresentaram valores muito discrepantes antes e após aplicar a transformada de Cholesky? Existe algum parâmetro ou matriz de correlação para as ações da carteira que possua influência na comparação dos resultados antes e após aplicar Cholesky? 1.4 Hipóteses A velocidade de simulação utilizando a seqüência de Faure (Quasi-Monte Carlo) é muito inferior às velocidades utilizando outras seqüências de amostragem com baixadiscrepância. A velocidade de simulação utilizando a seqüência de Faure é equivalente à velocidade de convergência utilizando a seqüência de amostragem Descritiva. A aplicação das transformadas de Cholesky não traz resultados significativos quando o número de corridas de simulação é muito elevado. O aumento na complexidade do código de programação ao utilizar o método de Quasi-Monte Carlo é significativo apenas para a seqüência de Halton. 1.5 Delimitação do estudo O experimento de comparação entre dois ou mais métodos de amostragem pode envolver uma série de dimensões de comparação. Dentre estas dimensões, destacamos apenas três a serem considerados neste estudo: a velocidade de convergência do experimento, a exatidão do resultado obtido na simulação e o grau de complexidade do código de programação adotado.

7 A velocidade de convergência da variável de saída do experimento envolve critérios de parada que podem estar associados, entre outros parâmetros, à precisão do resultado obtido, ao número de corridas executadas ou ao tempo máximo permitido para a simulação do experimento. A escolha do critério dependerá do tipo de exercício realizado. A exatidão do resultado obtido na simulação será avaliada pelo desvio percentual do resultado, após a convergência, relativo ao valor exato da simulação. Este valor foi definido como o resultado obtido pela execução do experimento com Monte Carlo clássico. Pelo critério de convergência adotado, a simulação será interrompida quando duas corridas consecutivas apresentarem resultados cujo desvio percentual for inferior a um limite pré-estabelecido. O grau de complexidade do programa gerador de amostras pode ser comparado através de alguns parâmetros, por exemplo, pelo tempo empregado para gerar uma única amostra de tamanho significativo, pelo número de linhas de programação no códigofonte ou pelo tipo da linguagem de programação adotada na simulação. Neste estudo, a comparação foi feita através do número total de linhas no programa. Devido ao interesse de tornar os programas desenvolvidos acessíveis em simples computadores pessoais (sem softwares específicos para análise de dados), a linguagem de programação utilizada foi o VBA do MS Excel. 1.6 Relevância do estudo O método de Monte Carlo é amplamente utilizado em Simulação, desde a apreciação de instrumentos financeiros complexos até a resolução de integrais múltiplas cuja solução analítica não aparenta ser viável. Estudos preliminares como em Traub (1996) envolvendo métodos determinísticos de amostragem, entretanto, mostraram

8 resultados aparentemente superiores, em relação à velocidade e à exatidão, aos apresentados pelos métodos tradicionais. Velocidades de simulação cerca de 5 vezes mais elevadas e erros cerca de vezes inferiores aos apresentados pelo método tradicional de Monte Carlo foram constatações específicas para os casos testados de Quasi-Monte Carlo. Antes de concluir sobre sua viabilidade em casos gerais, suas propriedades deveriam ser analisadas com maior riqueza de detalhes. Ainda que tenham sido testados com instrumentos derivativos inexistentes no País, as conclusões nos incentivam a aplicar tal método em instrumentos financeiros similares, devido ao grande potencial de economia no tempo de execução e melhoria no resultado associado ao uso do método. O método de transformação de um vetor de variáveis aleatórias independentes em outro vetor de variáveis correlacionadas, desenvolvido por Cholesky e apresentado em Iman e Conover (198), demonstrou resultados satisfatórios nas análises pelo método de Monte Carlo. Sua simplicidade de cálculo e de programação, aliadas ao fato de poder ser aplicado a quaisquer métodos de amostragem que aceitem variáveis correlacionadas, são atrativas para a realização de estudos amostrais. O ganho potencial na exatidão das avaliações de carteiras de ações em nosso mercado acionário poderia ajudar a reduzir os problemas da arbitragem nesse mercado. Este capítulo apontou a flexibilidade dos métodos de simulação na solução de problemas complexos, bem como suas principais desvantagens. Foi mostrado que o objetivo fundamental do trabalho será comparar os diferentes métodos de amostragem existentes. As perguntas relevantes sobre o objetivo principal e as correspondentes hipóteses a serem testadas também foram listadas. Em seguida, foram mostradas as simplificações adotadas e as razões que motivaram a pesquisa, dentre elas a necessidade de obter avaliações confiáveis para problemas de complexidade crescente em intervalos de tempo cada vez menores.

9 REFERENCIAL TEÓRICO Neste capítulo, serão apresentados o contexto histórico e a evolução dos métodos de amostragem empregados em simulação e abordados nesta pesquisa. Uma breve descrição das características dos métodos mais complexos, como o de Quasi- Monte Carlo com séries numéricas de baixa-discrepância, e algumas de suas recentes aplicações também serão mostradas..1 O método de Monte Carlo Segundo Saliby (1989), o método de Monte Carlo com amostragem aleatória simples possui vasta aplicação na simulação probabilística, apesar de ter sido concebido originalmente por von Neumann e Ulam, durante a Segunda Guerra Mundial (1939-45), para resolução de complexas integrais múltiplas e de diversos outros problemas matemáticos de natureza determinística. Após alguns anos de sua criação, suas principais desvantagens foram identificadas e reconhecidas: o esforço computacional na preparação dos programas e a baixa precisão dos resultados obtidos. Com recursos computacionais restritos à época, as pesquisas foram direcionadas para aumentar a precisão nos cálculos através de novas técnicas de redução de variância, muitas delas com controle parcial do processo de amostragem. No início da década de 5, com o aparecimento dos primeiros computadores, o método de Monte Carlo começou a ser aplicado em experimentos probabilísticos como, por exemplo, na obtenção de parâmetros para dimensionar filas de espera. Nascia, assim, a simulação por Monte Carlo, que teria seu primeiro livro publicado em 1963. Impulsionada pela redução nos custos dos recursos computacionais e pelo desenvolvimento de novas linguagens de programação, apesar da persistência dos

1 problemas de precisão nos cálculos, a metodologia de simulação começou a ser largamente empregada. As técnicas de redução de variância ainda eram pouco usadas devido à idéia pré-concebida de que os verdadeiros processos de amostragem não deveriam sofrer restrições.. Métodos de conjuntos determinísticos e probabilísticos McKay, Beckman e Conover (1979) realizaram um estudo comparativo entre dois métodos de amostragem, o Hipercubo Latino e a Amostragem Estratificada, e o método tradicional de Monte Carlo. Naquela época, métodos numéricos que forneciam soluções aproximadas para problemas relacionados ao fluxo de fluidos, com soluções analíticas complexas, já eram empregados há anos. Em alguns dos problemas de fluxo de fluidos era impraticável ou impossível realizar experimentos em laboratório. O código de programação, nestes casos, deveria estar correto para garantir que o resultado da simulação transcreveria a realidade nas condições de contorno adotadas. Na ocasião, os códigos computacionais eram muito complexos e até mesmo um simples conjunto de dados de entrada requeria várias horas de processamento no mais veloz dos computadores utilizados nas simulações. Ao modelarem fenômenos reais em computadores, os pesquisadores sempre enfrentavam o problema da escolha dos valores que deveriam utilizar como variáveis de entrada nos modelos. Tal dificuldade surgia naturalmente, uma vez que em processos físicos os parâmetros estão em constante transformação, flutuando ao redor dos valores nominais. Freqüentemente, os pesquisadores replicavam as incertezas sobre os valores de entrada tratando estes como variáveis aleatórias. Entretanto, como as janelas de tempo dos experimentos eram muito pequenas, as variáveis de entrada precisavam ser escolhidas com cuidado. Esta preocupação

11 freqüente levou os autores a procurar novos métodos de amostragem para as variáveis. Acabaram adotando na pesquisa os métodos desenvolvidos para estudar a segurança de reatores no Grupo de Hidrodinâmica do Laboratório Científico de Los Alamos. Um programa, chamado Sola-Ploop, foi utilizado para simular a descompressão de um vaso retilíneo preenchido com água à temperatura e pressão iniciais definidas. As variáveis de entrada foram consideradas uniformemente distribuídas sobre seus intervalos de flutuação. A variável analisada foi a pressão no interior do vaso em função do tempo. O instante inicial foi definido como o momento de ruptura do vaso. A janela de tempo considerada foi de milisegundos. O programa foi executado inúmeras vezes, aplicando os três métodos estudados, selecionados dentre inúmeros outros, de modo a permitir as comparações realizadas. Os autores demonstraram que os novos métodos de amostragem Hipercubo e Estratificada - não produziram estimativas tendenciosas para a variável de saída. O método da amostragem Estratificada consistiu em subdividir o universo de amostras (de onde seriam extraídos, aleatoriamente, N elementos) em um certo número de subconjuntos disjuntos (I), de onde deveriam ser retiradas as amostras de elementos (n j ), de modo que o produto destes termos (I n j ) igualasse o total de elementos (N) da variável de entrada no modelo. A amostragem por Hipercubo Latino seguia o mesmo princípio da amostragem Estratificada ao considerar N subconjuntos disjuntos. Contudo, apenas um elemento de cada conjunto era extraído para a variável de entrada no modelo. Uma vantagem natural do Hipercubo sobre os demais métodos de amostragem adotados ficava evidente quando a variável de saída do modelo era influenciada apenas por algumas das componentes da variável de entrada. O experimento consistiu em realizar 5 observações para cada um dos três métodos de amostragem analisados e coletar os dados sobre a precisão e a exatidão dos resultados individuais obtidos. O tempo total para a execução do programa foi de sete

1 horas. Alguns dos resultados estavam inconsistentes com o sugerido pela teoria. Segundo os autores, tais discrepâncias aconteceram devido ao tamanho das amostras e à independência parcial dos estimadores ao longo do tempo. Os gráficos comparativos para as médias e desvios obtidos como resultado das 5 observações indicaram que os estimadores adotados não eram tendenciosos. Os desvios dos estimadores utilizando a amostragem Estratificada foram inferiores aos apresentados por Monte Carlo. Contudo, foi a amostragem por Hipercubo que demonstrou clara superioridade, pois os desvios com este método foram cerca de 5% dos desvios apresentados por Monte Carlo...1 Transformada de Cholesky Pouco tempo depois, Iman e Conover (198) desenvolveram um procedimento para induzir determinada matriz de correlação em variáveis multidimensionais nos experimentos de simulação. A metodologia era simples e independente do tipo de distribuição da amostra, preservando o formato original da mesma. O método poderia ser empregado nos experimentos onde o conceito de variáveis correlacionadas era aplicável. Os autores realizaram experimentos utilizando a amostragem por Monte Carlo para estimar o viés e a variância associados ao método. Naquela época, modelagens eram largamente empregadas para simular relacionamentos complexos entre variáveis econômicas, sociais ou físicas, a fim de estimar valores desconhecidos ou realizar previsões. A evolução dos computadores induzia uma crescente complexidade nos modelos desenvolvidos e já não era raro encontrar aplicações com centenas de variáveis de entrada que consumiam horas de processamento até fornecer o primeiro resultado. Muitos estudos sobre técnicas estatísticas para modelagem em computadores já haviam sido publicados, mas pouco fora feito relativamente à incorporação de dependências múltiplas entre as variáveis de entrada. Era comum apenas assumir as variáveis de entrada como independentes entre si, apesar dos estudos de Scheuer e

13 Stoller (196) já apontarem a possibilidade de gerar vetores correlacionados a partir de vetores aleatórios indicando, na ocasião, dois métodos para realizar esta transformação. Uma abordagem em uso para incorporar certa dependência entre variáveis era considerar combinações lineares de variáveis aleatórias a fim de construir uma estrutura com a correlação desejada. Isto funcionava bem para séries de entrada aleatórias normais mas, quando as amostras de entrada eram obtidas por métodos estratificados, esta abordagem destruía a integridade dos estratos originais. Além disso, as combinações lineares para amostragens aleatórias não-normais poderiam afetar a distribuição marginal apresentada pelas séries originais. Outra abordagem, proposta alguns anos antes, segundo os autores, consistia em transformar linearmente um vetor normalmente distribuído em outro vetor multidimensional e, logo após, aplicar as transformações convenientes para obter as distribuições marginais procuradas. Contudo, os momentos (média, variância) das séries transformadas eram difíceis de controlar. Em caso de duas variáveis, o controle poderia ser feito utilizando distribuições log-normais e hiperbólicas mas, em caso de mais variáveis, o tratamento analítico ficava inviável. A abordagem proposta pelos autores foi baseada na hipótese de que a correlação por rank (ou rank correlation) era uma forma sensata de definir dependências entre as variáveis de entrada no modelo. Os autores acreditavam que o coeficiente de correlação calculado sobre as séries originais, ainda não transformadas, poderia perder sentido caso tais séries fossem não-normais ou quando houvesse outliers nas amostras. Por outro lado, os coeficientes de correlação por rank continuavam fazendo sentido para a maioria das simulações, mesmo quando os dados de entrada eram normalmente distribuídos. O método utilizado consistia na aplicação da transformada de Cholesky para obter, a partir da matriz de correlação desejada, uma matriz triangular inferior que, por sua vez, seria multiplicada à direita por um vetor multidimensional com variáveis independentes, resultando no vetor multidimensional com as correlações desejadas.

14 Para o caso tridimensional (D=3), o algoritmo de Cholesky para produzir vetores correlacionados a partir de vetores independentes foi descrito a seguir. Sejam: * Σ... a matriz de correlação desejada para a variável de entrada; * A... uma matriz triangular superior; * A t... a matriz transposta da matriz A. Por definição, devemos admitir que: Σ = A t A [.1] Assim, teremos: Σ = s s s 11 1 31 s s s 1 3 s s s 13 3 33 a A = 11 a a 1 a a a 13 3 33 A T = aa a 11 1 13 a a 3 a 33 [.] E, conseqüentemente: s s s 11 1 31 s s s 1 3 s s s 13 3 33 = aa a 11 1 13 a a 3 a a 33 11 a a 1 a a a 13 3 33 [.3] Ou, de forma equivalente: s s s 11 1 31 s s s 1 3 s s s 13 3 33 = a11 a. 1 a a. 13 a 11 11 a 13. a a a 1 1 11. + + a a a 1 3. a a. 11 a a. a + 1 13 a a + 13 a3 13 +. a a33 3 [.4]

15 E, se este sistema apresentar solução, então: a a a 11 1 13 = = = s s1 a11 s31 a11 11 a a a 3 33 = = = s 1 a s 33 a1 ( s a. a ) 3 13 1 a 13 a 3 [.5] Generalizando para vetores multidimensionais (D=N), teremos: a a ii ij = = i 1 k = 1 i 1 1 a s ii ii a s ij ik a k= 1 ik. a jk, com j = i + 1, i +,..., N [.6] Uma das hipóteses do método era a independência das séries de variáveis de entrada utilizadas na transformação de Cholesky. Entretanto, tais amostras nem sempre apresentavam a independência desejada. Os autores desenvolveram então um procedimento para corrigir as discrepâncias decorrentes deste fato e que eram observadas entre as matrizes de correlação calculadas e esperadas. O procedimento consistia na aplicação da transformada de Cholesky sobre a matriz de correlação real (naturalmente distinta da matriz identidade I) relativa às amostras originais. A nova matriz triangular inferior obtida era invertida e multiplicada à direita pela matriz triangular já produzida por Cholesky, para gerar uma nova matriz triangular inferior que seria aplicada sobre os vetores de entrada. Os novos vetores obtidos a partir desta última operação possuiriam, exatamente, a matriz de correlação procurada. Este algoritmo de ajuste da Transformada de Cholesky, para os casos em que a matriz de correlação dos vetores de entrada é diferente da matriz identidade, foi apresentado a seguir.

16 Sejam: * T... a verdadeira matriz de correlação da variável de entrada; * Q... uma matriz triangular inferior; * Σ... matriz de correlação desejada para a variável de entrada; * S... uma matriz auxiliar. Tais que: T = Q Q t [.7] Σ = S T S t [.8] Assim: Σ = S Q Q t S t = A t A [.9] Onde uma solução possível é: S Q = A t ou S = A t Q -1 [.1] Em seguida, a matriz Q é determinada pela aplicação do algoritmo de Cholesky à matriz T e S é determinada pelas equações.1. A matriz S t é a nova matriz de transformação ajustada. A matriz S t deve ser multiplicada à direita pelo vetor de entrada para obter o novo vetor transformado que, desse modo, possuirá matriz de correlação idêntica à matriz desejada (Σ). Alguns testes realizados pelos autores, envolvendo amostragens de Monte Carlo, demonstraram que a aplicação do procedimento de correção aproximou bastante os valores reais dos valores procurados para as correlações das séries de entrada, principalmente para as correlações próximas de zero. A medida de variância das séries corrigidas era cerca de 1 a 15 vezes menor que a das séries não-corrigidas e decrescia à medida que o número de repetições aumentava.

17 Um teste importante utilizando um exemplo prático obtido de um livro-texto foi realizado pelos autores para avaliar o impacto da transformação das variáveis independentes em variáveis correlacionadas. Neste teste, a variável aleatória de entrada possuía quatro dimensões e alimentava uma função analítica. Foi empregada a distribuição normal multidimensional, por ser a única distribuição multidimensional que poderia ser manipulada sem fazer uso dos métodos de aproximação apresentados pelos autores. Valores arbitrários para as demais variáveis do exercício foram atribuídos apenas para caracterizar uma aplicação de simulação. As saídas consideradas no teste foram: a função-distribuição dos valores da função analítica estudada e seus quatro momentos. Os resultados utilizados como referência para as comparações foram obtidos com amostras de 1 elementos. Em seguida, foram utilizados os métodos de Monte Carlo e do Hipercubo Latino para gerar amostras de 5 elementos em dez corridas consecutivas. Os resultados foram comparados à referência anteriormente definida. Dois casos foram analisados utilizando Monte Carlo e o Hipercubo e aplicando o método desenvolvido pelos autores. Outros dois casos foram preparados utilizando as mesmas amostras sem, contudo, aplicar o procedimento sugerido pelos autores. Nos casos em que o procedimento de forçar a correlação foi aplicado, para ambos os métodos de amostragem, três dos quatro momentos apresentaram valores mais próximos aos da referência. Além disso, todos os casos onde o procedimento foi aplicado apresentaram desvios-padrão com valores inferiores para os quatro momentos. Os gráficos das funções-distribuição da variável de saída (função analítica) também foram comparados nos casos onde o procedimento de forçar a correlação foi utilizado e nos casos em que não o foi. Os resultados mostraram que, para aquele exemplo, utilizar o método sugerido pelos autores resultou em melhores estimativas, tanto para Monte Carlo quanto para o Hipercubo.

18.. Hipercubo Latino para grandes amostras Alguns anos depois, Stein (1987) estava analisando o modelo matemático para um equipamento do qual pretendia estimar o valor esperado de uma certa medida de performance. O modelo matemático consistia em um conjunto de equações diferenciais e a medida de performance era uma função multidimensional. Quando o número de variáveis era muito grande, métodos analíticos ou determinísticos eram evitados, tendo em vista sua complexidade. Nestes casos, os pesquisadores utilizavam então a simulação por Monte Carlo, com amostragem aleatória simples. Contudo, o autor utilizou também, em seu exercício de simulação, a amostragem por Hipercubo Latino, sugerida por McKay e outros (1979). Stein (1987) verificou, ao começar o experimento, que a amostragem por Hipercubo estratificava, na medida do possível, cada distribuição marginal das variáveis de entrada. Por outro lado, escolhia aleatoriamente o valor a ser utilizado dentro de cada estrato do Universo. O autor concluiu que, quanto maior o número de simulações em relação ao número de variáveis de entrada da função estudada, a utilização da amostragem por Hipercubo Latino produzia resultados com menor variância que os obtidos por Monte Carlo. O autor sabia, por McKay e outros (1979), que a variância do resultado da simulação seria menor no Hipercubo que em Monte Carlo quando a covariância entre duas amostras consecutivas fosse negativa. Isso aconteceria quando a função utilizada como estimador fosse monotônica em cada uma de suas variáveis. O autor sabia que não era o caso do estimador no experimento analisado (circuito eletrônico). Como o resultado prático apontava que a variância do Hipercubo era menor que a de Monte Carlo, o autor procurou encontrar uma demonstração que justificasse tal observação. Concluiu assim que, quando o número de observações aumentava e atingia um valor muito superior ao número de variáveis de entrada, a covariância do estimador para duas observações consecutivas era, assintoticamente, negativa.

19 Juntamente com a estimativa de valor do estimador, o autor sabia que era importante produzir a estimativa do erro no cálculo do estimador. Quando utilizava a amostragem aleatória simples (Monte Carlo) com N repetições, o autor sabia que uma estimativa consistente da variância do valor esperado do estimador seria (1/N) da variância da amostra. Porém, quando utilizava o Hipercubo, investigações preliminares indicaram que seria possível avaliar o estimador aproximando sua função por meio de equações de regressão. Entretanto, era difícil avaliar tais equações e a performance do estimador com esse procedimento, o que tornava sua utilidade incerta. Uma forma simples, segundo o autor, de estimar a variância de um estimador ao utilizar a amostragem por Hipercubo é aplicar o método da amostragem por Hipercubo Latino Replicado. Este método consiste em criar várias amostras com Hipercubos independentes e estimar a variância entre tais amostras. Este método foi desenvolvido por Iman e Conover (198). Claro que o número de Hipercubos deve ser grande para que a estimativa seja precisa. Em muitas aplicações, podem existir dependências entre as componentes da variável de entrada dos modelos. O autor apresentou um procedimento para introduzir tais dependências em amostragens por Hipercubo Latino, quando o tamanho destas amostras fosse grande. Embora ciente da existência do procedimento desenvolvido por Iman e Conover (198), o autor verificou que seria inadequado utilizar este procedimento quando a dependência condicional entre duas variáveis de entrada não fosse monotônica. O autor sugeriu, assim, um novo método para atribuir dependência entre variáveis independentes geradas pelo Hipercubo. O método partia de uma matriz de ranks (or rank matrix) já definida e consistia em construir uma nova amostra com o Hipercubo a partir da inversa da função-distribuição geradora da matriz de ranks. O problema era encontrar tal função inversa. Porém, quando era difícil encontrar a função analítica, o autor conseguia uma boa aproximação por simulação.