COPPEAD/UFRJ. Eduardo Facó Lemgruber * George Ohanian ** Setembro, 1997. Professor adjunto - COPPEAD/UFRJ



Documentos relacionados
Decomposição da Inflação de 2011

3 Métricas para Gerenciamento de Riscos em Empresas Não Financeiras

CONSELHO DE REGULAÇÃO E MELHORES PRÁTICAS DE FUNDOS DE INVESTIMENTO DELIBERAÇÃO Nº 68

CAPITAL DE GIRO: ESSÊNCIA DA VIDA EMPRESARIAL

PERGUNTAS E RESPOSTAS

SONDAGEM INDUSTRIAL Dezembro de 2015

Relatório de Estágio Curricular

Análise operacional do terminal público do porto do Rio Grande usando teoria de filas

COMO CALCULAR A PERFORMANCE DOS FUNDOS DE INVESTIMENTOS - PARTE I

Energia Elétrica: Previsão da Carga dos Sistemas Interligados 2 a Revisão Quadrimestral de 2004

Estatística II Antonio Roque Aula 9. Testes de Hipóteses

SINCOR-SP 2016 FEVEREIRO 2016 CARTA DE CONJUNTURA DO SETOR DE SEGUROS

1. Os métodos Não-Paramétricos podem ser aplicados a uma ampla diversidade de situações, porque não exigem populações distribuídas normalmente.

ESTRUTURA DE GERENCIAMENTO DE RISCO DE MERCADO

função de produção côncava. 1 É importante lembrar que este resultado é condicional ao fato das empresas apresentarem uma

ESTUDO DE VIABILIDADE. Santander, Victor - Unioeste Aula de Luiz Eduardo Guarino de Vasconcelos

EFEITO DAS CURVAS DE AVERSÃO SOBRE A OPERAÇÃO DO SISTEMA INTERLIGADO BRASILEIRO. Relatório Final(Versão 2)

NOTA CEMEC 07/2015 FATORES DA DECISÃO DE INVESTIR DAS EMPRESAS NÃO FINANCEIRAS UM MODELO SIMPLES

Distribuição de probabilidades

O mercado monetário. Mercado Financeiro - Prof. Marco Arbex. Os mercados financeiros são subdivididos em quatro categorias (ASSAF NETO, 2012):

TÍTULO: ANÁLISE DE RISCO E RETORNO: UMA COMPARAÇÃO ENTRE TÍTULOS PÚBLICOS

NOTA TÉCNICA Nº 005/2010 SRE/ADASA

DE ARTIGO CIENTÍFICO

DURATION - AVALIANDO O RISCO DE MUDANÇA NAS TAXAS DE JUROS PARTE ll

Documentação Técnica Box de Duas Pontas

5 Considerações Finais e Recomendações

3 Matemática financeira e atuarial

ORIENTAÇÕES BÁSICAS PARA COMPRA DE TÍTULOS NO TESOURO DIRETO

BREVE ANOTAÇÕES SOBRE O PAYBACK

3 Previsão da demanda

ANO 4 NÚMERO 25 MARÇO DE 2014 PROFESSORES RESPONSÁVEIS: FLÁVIO RIANI & RICARDO RABELO

perfis de investimento

PASSO 8 IMPLANTANDO OS CONTROLES

MERCADO FUTURO: BOI GORDO

SINCOR-SP 2015 DEZEMBRO 2015 CARTA DE CONJUNTURA DO SETOR DE SEGUROS

INSTITUTO SUPERIOR DE CIÊNCIAS APLICADAS ADMINISTRAÇÃO DE EMPRESAS B

Mercado de Trabalho. O idoso brasileiro no. NOTA TÉCNICA Ana Amélia Camarano* 1- Introdução

SINCOR-SP 2016 ABRIL 2016 CARTA DE CONJUNTURA DO SETOR DE SEGUROS

Disponibilizo a íntegra das 8 questões elaboradas para o Simulado, no qual foram aproveitadas 4 questões, com as respectivas resoluções comentadas.

PROPOSTA POLÍTICA DE INVESTIMENTOS

Metodologia de Gerenciamento de Risco de Mercado

Indicadores de Risco Macroeconômico no Brasil

DÓLAR FUTURO X DÓLAR PRONTO NO FUTURO: EVIDÊNCIA EMPÍRICA PÓS-PLANO REAL. Autoria: Maurício Barreto Campos e Adonírio Panzieri Filho

ANÁLISE CUSTO - VOLUME - LUCRO COMO FERRAMENTA DE GESTÃO NAS MICRO E PEQUENAS EMPRESAS.

HSBC Fundo de Investimento em Cotas de Fundos de Investimento Curto Prazo Over II - CNPJ nº /

Demonstrações Financeiras Banrisul Foco IRF - M Fundo de Investimento Renda Fixa Longo Prazo CNPJ: /

Política de Investimentos 2014 a 2018

RESULTADOS DO ENEM 2014

TRANSFORMADORES. P = enrolamento do primário S = enrolamento do secundário

Boletim. Contabilidade Internacional. Manual de Procedimentos

PMBoK Comentários das Provas TRE-PR 2009

Aula 4 Estatística Conceitos básicos

Política de Gestão de Riscos Tese Investimentos. Junho/2016

4. RESULTADOS E DISCUSSÃO

Dúvidas e Sugestões Sobre a Regulação do Capital Adicional de Risco de Crédito

Boletim Econômico Edição nº 86 outubro de Organização: Maurício José Nunes Oliveira Assessor econômico

Processos Estocásticos

ADMINISTRAÇÃO FINANCEIRA ORÇAMENTÁRIA

SINCOR-SP 2015 NOVEMBRO 2015 CARTA DE CONJUNTURA DO SETOR DE SEGUROS

AVALIAÇÃO DAS DEMONSTRAÇÕES CONTÁBEIS

Razões para Investir em Fundos de Fundos de Private Equity

CONTRATOS DERIVATIVOS. Futuro de Cupom de IGP-M

MELHORES PRÁTICAS DA OCDE

Análise de Sensibilidade

APLICAÇÕES DA CURVA s NO GERENCIAMENTO DE PROJETOS

Pesquisa de Índice de Aprovação de Governos Executivos

5 Considerações finais

Análise de regressão linear simples. Departamento de Matemática Escola Superior de Tecnologia de Viseu

DESENVOLVIMENTO DE UM SOFTWARE NA LINGUAGEM R PARA CÁLCULO DE TAMANHOS DE AMOSTRAS NA ÁREA DE SAÚDE

As opções de estilo americano podem ser exercidas a partir do pregão subseqüente à realização da compra, até a sua data de vencimento.

CONHECIMENTOS ESPECÍFICOS» ADMINISTRAÇÃO FINANCEIRA «

4 Avaliação Econômica

mat fin 2008/6/27 13:15 page 53 #50

Lâmina de Informações Essenciais do. Título Fundo de Investimento Multimercado Longo Prazo (Título FIM-LP) CNPJ/MF:

Análise Mensal do Comércio Varejista de Belo Horizonte

Juros Simples, Compostos, e Contínuos

3.4 O Princípio da Equipartição de Energia e a Capacidade Calorífica Molar

UNIDADE III Análise Teórico-Prática: Projeto-intervenção

Apresentação. 1. Introdução. 2. Situação Problema

Introdução ao Value-at-Risk

Aula 4 Conceitos Básicos de Estatística. Aula 4 Conceitos básicos de estatística

6 Construção de Cenários

ANÁLISE DOS RESULTADOS DOS PROGRAMAS DE APOIO ÀS PMEs NO BRASIL Resumo Executivo PARA BAIXAR A AVALIAÇÃO COMPLETA:

INVESTIMENTO A LONGO PRAZO 1. Princípios de Fluxo de Caixa para Orçamento de Capital

MERCADO DE CAPITAIS. 4 o. ANO DE ADMINISTRAÇÃO ADMINISTRAÇÃO, REFERENTE À 2 A. AVALIAÇÃO.

Universidade Federal do Paraná

RELATÓRIO DE INVESTIMENTOS

Exercícios resolvidos sobre Função de probabilidade e densidade de probabilidade

Eventos independentes

Diretrizes para determinação de intervalos de comprovação para equipamentos de medição.

Empreendedorismo do Rio de Janeiro: Conjuntura e Análise n.5 Marolinha carioca - Crise financeira praticamente não chegou ao Rio

Relatório dos auditores independentes sobre as demonstrações financeiras

Política monetária e senhoriagem: depósitos compulsórios na economia brasileira recente

Capítulo 12 Simulador LOGSIM

LÂMINA DE INFORMAÇÕES ESSENCIAIS SOBRE O. MARATONA PROGRAMADO FIA - BDR NIVEL I / Informações referentes a Maio de 2016

Efeitos da Desaceleração Econômica Internacional na Economia Brasileira

Faculdade Sagrada Família

SAÍDA DO MERCADO DE TRABALHO: QUAL É A IDADE?

PREVISÃO DE DEMANDA - O QUE PREVISÃO DE DEMANDA - TIPOS E TÉCNICAS DE PREVISÃO DE DEMANDA - MÉTODOS DE PREVISÃO - EXERCÍCIOS

Bem-vindo ao curso delta Gerenciamento de peso para a versão 9.1. Este curso aborda a nova solução de peso introduzida nessa versão.

Transcrição:

COPPEAD/UFRJ RELATÓRIO COPPEAD Nº 313 O MODELO DE PROJEÇÃO DE VOLATILIDADE DO RISKMETRICS TM E A HIPÓTESE DE DISTRIBUIÇÃO NORMAL CONDICIONAL PARA ALGUNS FATORES DE RISCO DO BRASIL Eduardo Facó Lemgruber * George Ohanian ** Setembro, 1997 * ** Professor adjunto - COPPEAD/UFRJ Aluno do curso de Mestrado em Administração de Empresas da Faculdade de Economia, Administração e Contabilidade - Universidade de São Paulo, Professor assistente do curso de administração de empresas da Faculdade Anhembi-Morumbi, São Paulo.

2 1 INTRODUÇÃO Diversos fatores têm contribuído para que nos últimos anos as empresas, principalmente as do setor financeiro, invistam no desenvolvimento de instrumentos de mensuração do risco de mercado. Entre eles, pode-se citar os elevados prejuízos sofridos por bancos como Barings e Daiwa, a adoção em larga escala dos chamados instrumentos derivativos na composição das carteiras das instituições e o crescimento da volatilidade e liquidez dos mercados financeiros. Nesse sentido, os bancos criaram modelos que consolidam informações sobre o nível de risco de seus negócios, sendo que o Banco J.P. Morgan foi pioneiro em divulgar a partir de 1994 sua metodologia (RiskMetrics TM ) de apuração do Valor em Risco, Value at Risk, ou simplesmente VaR. O VaR é um valor monetário que reflete o risco das posições financeiras, calculado através de técnicas estatísticas corriqueiras. Formalmente, o VaR mede a pior perda esperada, em um intervalo de tempo, sob condições normais de mercado e para um determinado grau de confiança. Assim, para sua implementação, é necessário estimar-se as volatilidades dos preços de cada um dos ativos em estudo, σ, estabelecer o nível de confiança para a análise, e o período de manutenção de cada posição financeira. Entretanto, conforme destacam HULL; WHITE (1997), os modelos matemáticos mais utilizados para o cálculo do VaR assumem que retornos diários das variáveis de mercado (preços de ativos, taxas de juros, câmbio, etc.) seguem uma distribuição de probabilidades do tipo normal, o que, na maioria dos casos, não é verdade. Na prática, as séries de retornos diários dessas variáveis apresentam significativos graus de curtose. Isso significa que eventos extremos ocorrem com uma probabilidade maior do que aquela prevista por uma curva normal. Isso pode causar problemas para o acompanhamento do VaR, especialmente quando se trabalha com margens de confiança muito altas. O objetivo desse artigo é testar se estes modelos matemáticos são adequados para analisar o comportamento de algumas variáveis de mercado do Brasil como as taxas de juro interbancário, cupom cambial e dólar comercial 1. Os testes aplicados visam, em especial, verificar a precisão do modelo RiskMetrics TM, de estimativa de volatilidade dos retornos e a consistência da hipótese de distribuição normal condicional de probabilidades. A metodologia utilizada é a de FINGER (1996). Os resultados obtidos confirmam que os modelos funcionam 1 Os autores agradecem ao Lloyds Bank Plc por ter gentilmente cedido o banco de dados histórico das taxas de mercado, que foram utilizadas para os testes apresentados neste artigo. É importante, entretanto, salientar que o Lloyds Bank Plc não tem nenhuma responsabilidade por qualquer tópico ou conclusão aqui divulgada.

3 razoavelmente bem para intervalos de confiança até o 5 o percentil, mas apresentam uma performance ruim para intervalos mais estreitos (1 o percentil, no caso do teste efetuado), o que confirma a característica de distribuição de probabilidade leptocúrtica. Este artigo encontra-se subdividido da seguinte forma: A seção 2, a título de revisão, resume os principais aspectos do VaR e descreve algumas de suas hipóteses genéricas. A seção 3 descreve a amostra das séries de retornos utilizadas para os testes. A seção 4 descreve os testes e seus resultados. O artigo é concluído, na seção 5, onde também são mencionados estudos recentes que abordam o problema da leptocurtose nas séries de retornos para cálculo do VaR. 2 CARACTERÍSTICAS DAS PRINCIPAIS FORMAS DE APURAÇÃO DO VAR Conforme destacam JACKSON; MAUDE; PERRAUDIN (1997), a análise do VaR pode ser feita por métodos paramétricos, por exemplo, método analítico ou simulação de Monte Carlo, ou por métodos não paramétricos de simulação histórica. Na análise paramétrica a distribuição dos retornos dos ativos é estimada a partir de dados históricos. São obtidas estimativas das médias, desvios padrão e correlações das séries de retornos. Esses parâmetros, utilizados tanto de forma analítica como em uma simulação de Monte Carlo (ver RiskMetrics TM ), permitem calcular a perda máxima no valor de uma posição financeira para o nível de confiança desejado, dentro de um período de manutenção dos negócios financeiros. Na simulação histórica, coletam-se informações sobre os níveis atingidos pelas variáveis de mercado a cada dia para, um longo período passado. Para obter-se o VaR, recalcula-se o valor de mercado da posição financeira atual para cada um dos níveis históricos das variáveis de mercado, até encontrar a perda que ocorre com o nível de probabilidade desejado. SMITHSON (1996), faz uma análise comparativa dos métodos mais utilizados para o cálculo do VaR. O Quadro 1, a seguir, resume os resultados de seu trabalho:

4 Quadro 1. Resumo Comparativo das Vantagens e Desvantagens dos Principais Métodos de Cálculo do VaR adaptado de Smithson (1996) Não Paramétrico Paramétricos Histórico Simulação Analítico Facilidade de Implementação. Fácil de agregar riscos entre mercados? Sim Sim Sim. Dados disponíveis sem custos? Não Não Sim. Facilidade de programação em sistemas O mais fácil O Mais Difícil Intermediário Distribuição de Probabilidades. Necessita assumir distribuições específicas? Não Sim Sim. Os resultados obtidos são sensíveis ao tamanho do Sim Possivelmente Sim período histórico utilizado na modelagem? Aspectos relativos aos instrumentos específicos. Necessita de modelos de precificação? Sim Sim Não. É necessário fazer o mapping dos instrumentos? Não Não Sim. A metodologia incorpora opções de forma precisa? Sim Sim Não Comunicação com a alta gerência. Fácil de explicar? O mais fácil Intermediário O Mais Difícil. Permite análise de sensibilidade? Não Sim Alguma Vale ressaltar, mais uma vez, que o objetivo deste trabalho é testar a precisão da metodologia analítica proposta no RiskMetrics TM para o cálculo do VaR, quando se trabalha com variáveis de mercado no Brasil. Mais especificamente, os testes procuram verificar dois alicerces daquela metodologia que são a hipótese de distribuição normal condicional dos retornos e o modelo de estimativa de volatilidades. Resumidamente, a hipótese de distribuição normal condicional significa dizer que variáveis de mercado como taxas de câmbio e de juro comportam-se, diariamente, de acordo com distribuições de probabilidades normais, sendo que os parâmetros média µ t e desvio padrão σ, dessas distribuições variam a cada dia, ou seja, são condicionais ao tempo. Em outras palavras, a distribuição de probabilidade dos retornos é normal em cada ponto de tempo, muito embora a mesma distribuição medida ao longo de toda a amostra não seja necessariamente normal. Quanto à estimativa da volatilidade diária (desvio padrão), o RiskMetrics TM propõe o uso da metodologia de alisamento exponencial, que vem sendo adotada como um padrão no mercado, não só pela facilidade de cálculo, como pela economia proporcionada no espaço computacional para o banco de dados, pois para o cálculo dos valores novos só é necessário o conhecimento dos retornos do dia e da volatilidade do dia anterior. Os resultados obtidos refletem de forma muito mais rápida, as mudanças nos comportamentos dos retornos; do que os percentis históricos. Além disso, pode-se facilmente obter o parâmetro λ, peso da última observação, que define automaticamente o tamanho da amostra. A escolha do λ é feita por

5 testes estatísticos que minimizam os erros encontrados para comparação de volatilidades estimadas e observadas na amostra. Matematicamente, a estimativa de volatilidade dos retornos de uma série para o dia t, no método de alisamento exponencial, é dada pelas seguintes expressões, conforme RiskMetrics TM : a) Supondo que a média dos retornos é igual a zero: ( ) 2 2 $σ = λ σ 1 + 1 λ R [1] t t t b) Supondo a média dos retornos é diferente de zero: ( ) 2 2 σ$ = λ σ + λ 1 λ ( R R ) [2] t t 1 t t 1 onde, R = λ R + ( 1 λ) R [3] t 1 t 2 t 1 Sendo $σ t o desvio padrão estimado na data t para o dia seguinte, λ o fator de decaimento, R t o retorno na data t e R t a média dos retornos na data t. 3 DESCRIÇÃO DAS AMOSTRAS As amostras são compostas das séries históricas de variações diárias ocorridas nas taxas de juros interbancários, taxas de cupom cambial e Dólar Comercial Venda. O período coberto pela amostra vai de 16/1/96 a 15/5/97, perfazendo um total de 332 dias úteis. Trata-se de um período relativamente curto para uma amostragem estatística. Entretanto, não é possível coletar dados de um passado mais distante, especialmente porque a conjuntura econômica e por conseguinte o comportamento das variáveis de mercado é muito diferente do atual no período que antecede ao Plano Real (julho de 1994). Além disso, as taxas de juros para contratos de prazos mais longos (até um ano) somente passam a adquirir maior liquidez no período que se segue ao Plano Real e, em especial, a partir de janeiro de 1996. É interessante ressaltar que este tipo de restrição amostral é comum no caso de economias emergentes. Conforme destacado por JORION (1997), na prática, a validação estatística de modelos de mensuração de risco, para aquelas economias, é problemática, devido ao tamanho sempre limitado das amostras disponíveis, quer porque as séries históricas são recentes, ou também porque mudanças estruturais acabam por tornar sem sentido os dados coletados de períodos muito antigos.

6 As amostras das taxas de juros interbancários e de cupom cambial, foram coletadas para seis prazos diferentes, ou seja, um dia ( overnight ), um mês (considerando 21 dias úteis), dois meses (42 dias úteis), 3 meses (63 dias úteis), 6 meses (126 dias úteis) e um ano (252 dias úteis). As variações diárias das cotações de mercado destas taxas foram medidas entre a abertura e o encerramento dos negócios a cada dia. Vale ressaltar também que, para os cálculos efetuados neste artigo, as taxas de juro interbancário e cupom cambial foram transformadas em taxas de composição contínua; e as respectivas variações foram calculadas de forma logarítmica, conforme a expressão [4], a seguir: + Rf t rt = ln ( 1 ) ( 1+ Ra ) t [4] Onde Rf t é a taxa de composição discreta de fechamento dos juros interbancários (ou cupom cambial) do dia t; e Ra t é a taxa de composição discreta de abertura do juro interbancário (ou cupom cambial) do dia t. Para as taxas de câmbio (Dólar Comercial Venda), foram computadas as variações logarítmicas de um dia para o dia seguinte, conforme a expressão [5], a seguir: Pt rt = ln P t 1 [5] Sendo P t, P t-1 as cotações da taxa de câmbio dos dias t e t-1. 4 DESCRIÇÃO DOS TESTES EFETUADOS E RESULTADOS OBTIDOS 4.1 Teste para verificar o grau de precisão das estimativas de volatilidade obtidas pelo método de alisamento exponencial FINGER (1996), destaca que os retornos das variáveis de mercado comportam-se segundo uma determinada distribuição de probabilidades que, a cada dia possui um determinado desvio padrão (desvio padrão real da data t). A metodologia proposta no RiskMetrics TM (alisamento exponencial) é, portanto, uma tentativa de estimar da melhor forma possível esse desvio padrão real. O teste da eficiência desta metodologia consiste, primeiramente, em padronizar a série de retornos diários, transformando-os, conforme abaixo:

7 ~r t rt t = µ σ t [6] Onde r ~ t é o retorno padronizado da data t, r t é o retorno observado na data t, µ t e σ t são respectivamente a média e o desvio padrão estimados para a data t. Uma vez padronizados os retornos diários de toda a série em estudo conforme a expressão [6] acima, calcula-se o desvio padrão da série padronizada resultante. Se as estimativas de µ t e σ t utilizadas são precisas, então a série de retornos diários padronizados, é do tipo normal reduzida, ou seja, com média igual a zero e desvio padrão igual a um. Em outras palavras, quanto mais próximo da unidade é o desvio padrão da série de retornos padronizados, maior é o grau de precisão das estimativas diárias de volatilidade σ t. O teste acima foi efetuado para diferentes fatores de decaimento λ. Para cada variável de mercado existe um λ ótimo que produz melhores estimativas de volatilidade através do modelo de alisamento exponencial. Basicamente, esse λ ótimo individual é obtido por comparação entre as volatilidades estimadas e as observadas. Isto é, calcula-se as estimativas de volatilidade em cada dia das séries de dados históricos, de cada variável de mercado, utilizando-se diferentes valores de λ, até encontrar aquele que produz o menor erro acumulado 2. Entretanto, ao se calcular o VaR de uma carteira exposta às oscilações de diferentes variáveis de mercado, é preciso que todas elas tenham suas respectivas volatilidades calculadas com um mesmo λ. No caso das variáveis em estudo, este λ comum é igual a 0,91. Ele foi escolhido por ter produzido a menor somatória dos erros acumulados individuais obtidos para cada variável. Assim, as estimativas de volatilidade testadas foram calculadas, primeiramente utilizando λ = 0,91. Em seguida foi utilizado λ = 0,94 que é o coeficiente de decaimento utilizado pelo banco J.P. Morgan para o cálculo das volatilidades diárias divulgadas no RiskMetrics TM. Por último, cada série de variáveis de mercado teve sua estimativa de volatilidades calculada com o seu respectivo fator de decaimento ótimo. Foram também comparadas as estimativas de volatilidade obtidas tanto assumindo a média diária dos retornos, µ, igual a zero, conforme expressão [1], como também, efetuando-se o cálculo das médias diárias dos retornos, de acordo com as expressões [2] e [3]. Os resultados estão condensados no Quadro 1, a seguir: 2 O RiskMetrics TM (1996) define na seção 5.3.2. os critérios para a escolha do melhor fator de decaimento λ.

8 Quadro 1. Desvio-Padrão das Séries de Retornos Padronizados ( r t - m t ) / s t de Variáveis de Mercado do Brasil (Juros Interbancários, Cupom Cambial e Dolar) - Período de 16/1/96 a 15/5/97 Taxa de Juros Interbancários Taxa do Cupon de Dólar ΥΣ Χοµλ 1 Dia 1 Mês 2 Meses 3 Meses 6 Meses 1 Ano 1 Dia 1 Mês 2 Meses 3 Meses 6 Meses 1 Ano ςενδα Assumindo m = 0 l = 0,91 0.89 0.89 0.92 0.93 0.93 0.91 0.96 0.89 0.90 0.91 0.93 0.91 0.81 l = 0,94 0.91 0.90 0.94 0.94 0.95 0.92 0.97 0.89 0.90 0.91 0.94 0.92 0.81 l ótimo para cada vértice 0.87 0.90 0.91 0.91 0.92 0.91 0.95 0.87 0.89 0.90 0.91 0.90 0.80 Calculandom l = 0,91 0.94 0.93 0.97 0.98 0.98 0.96 1.00 0.94 0.94 0.95 0.98 0.96 0.97 l = 0,94 0.94 0.93 0.97 0.98 0.98 0.95 1.00 0.92 0.92 0.94 0.98 0.95 0.96 l ótimo para cada vértice 0.93 0.94 0.98 1.00 1.00 0.99 1.01 0.95 0.96 0.97 1.00 0.97 0.98 Os resultados obtidos demonstram, primeiramente, que no caso do Brasil a inclusão do cálculo das médias no modelo de estimativa de volatilidades agrega relevante grau de precisão. Lembrando que resultados mais próximos de 1 (um) indicam maior precisão das estimativas de volatilidade, pode-se observar que, na primeira parte do quadro, os números oscilam, em torno de 0.92 ao passo que, na segunda metade do quadro, os resultados oscilam em torno de 0.96. O uso do λ ótimo para as séries brasileiras (0.91), ao invés da adoção do λ universal do RiskMetrics TM, também aumenta a precisão do modelo. De forma geral, os resultados obtidos neste teste são bastante animadores, todos muito próximos de 1 (um). 4.2 Teste dos Intervalos de Confiança Projetados A partir das volatilidades projetadas para cada dia, assumindo-se a hipótese de distribuição normal condicional, são desenhados os intervalos de confiança que devem compreender dentro de um percentual de confiança desejado, os retornos diários da variável de mercado. Por exemplo, o Gráfico 1, a seguir, apresenta os retornos diários das taxas de juros interbancárias de seis meses e as respectivas margens de confiança que devem compreender 90% dos retornos. O valor absoluto destas margens é obtido multiplicando-se as volatilidades diárias por 1,65; coeficiente de segurança para 90%, obtido de uma tabela de probabilidades da distribuição normal reduzida 3. 3 Veja, por exemplo, Jorion (1997) - Cap. 5 Seção 1.3

9 Gráfico 1 - Retornos Diários e Margens de Confiança (90%) Taxas de Juros Interbancários de 6 Meses 0.004% 0.003% 0.002% Retorno Diário Margem de Conf. Retornos 0.001% 0.000% -0.001% -0.002% -0.003% -0.004% Mar/96 Apr/96 May/96 Jun/96 Jun/96 Jul/96 Aug/96 Sep/96 Sep/96 Oct/96 Nov/96 Dec/96 Dec/96 Jan/97 Feb/97 Mar/97 Apr/97 Apr/97 A partir da hipótese de normalidade assumida pelo RiskMetrics TM, é dada uma série de retornos diários de uma variável de mercado. Uma vez estimada a sua volatilidade σ t na data t, o retorno dessa série no dia seguinte (t+1) obedecerá uma distribuição normal com desvio padrão σ t. A partir desta hipótese, pode-se concluir que 5% dos retornos irão se situar no intervalo [µ-1.65σ t ; µ+1.65σ t ], 2.5% irão se situar no intervalo [µ-2.2σ t ; µ+2.2σ t ], etc. O segundo teste, também muito simples de ser efetuado, consiste de, para um período histórico de observações, levantar o número de vezes em que os retornos excedem as margens de confiança projetadas e confrontar o número obtido com a margem de confiança. Por exemplo, para 90% de margem de confiança, espera-se que a cada 100 dias aproximadamente, 10 observações superem as margens de confiança. É preciso ainda, notar que as proporções desses excessos são também sujeitas a flutuações aleatórias, ou seja, mesmo que os dados forem efetivamente retirados de uma população normal, poderá haver algum tipo de desvio da proporção dos excessos em relação ao percentual esperado. É preciso então, ao calcular essas margens e proporções, levar em conta um erro padrão, definido em FINGER (1996), como sendo: ( ) ε = p 1 p / T [7] Onde p é a proporção de excessos que se deseja observar, e T é o tamanho da amostra. Os Gráficos 2 e 3, a seguir, apresentam os resultados obtidos nos testes para 5% e 1% de margem de confiança.

10 Gráfico 2. Proporção de Excessos ao Nível do 5o. Percentil Para DIferentes Variáveis do Merc. Brasileiro - Período de 16/1/96 a 15/5/97 - Erro Padrão = 1,29% 8.00% 7.00% 6.00% Proporção 5.00% 4.00% 3.00% 2.00% 1.00% Excessos acima (95o Percentil) Excessos abaixo (5o Percentil) 0.00% Pre 1 D Pre 1 M Pre 2 M Pre 3 M Pre 6 M Pre 12 M Cup 1 D Cup 1 M Cup 2 M Cup 3 M Cup 6 M Cup 12 M US$ Variável de Mercado Proporção 5.00% 4.50% 4.00% 3.50% 3.00% 2.50% 2.00% 1.50% 1.00% 0.50% 0.00% Pre 1 D Gráfico 3. Proporção de Excessos ao Nível do 1o. Percentil Para DIferentes Variáveis do Merc. Brasileiro - Período de 16/1/96 a 15/5/97 - Erro Padrão 0,59% Pre 1 M Pre 2 M Pre 3 M Pre 6 M Pre 12 M Cup 1 D Cup 1 M Cup 2 M Cup 3 M Excessos acima (99o Percentil) Excessos abaixo (1o Percentil) Cup 6 M Cup 12 M US$ Variável de Mercado Os gráficos 2 e 3 mostram que a proporção de excessos em relação ao 5 o percentil enquadra-se razoavelmente bem nas faixas de oscilação máxima e mínima, delimitadas pelas linhas tracejadas. Observa-se, por exemplo, que a maior dispersão percebida é da ordem de 1,5%. O mesmo não ocorre com os excessos ao nível do primeiro percentil. Os excessos, que deveriam ser na ordem de 1,6% das observações, acabam oscilando entre 2% e 4,5%. A interpretação dos resultados mostra que a probabilidade de ocorrência dos eventos mais extremos é maior do que aquela prevista no caso de uma distribuição normal, ou seja, a distribuição de probabilidades das séries de retornos estudadas, apresenta excessivos graus de curtose. Uma característica das distribuições leptocúrticas, conforme destacado por HULL; WHITE (1997), é que os eventos extremos ganham maior massa de probabilidade, enquanto que eventos intermediários tem probabilidade de ocorrência menor, comparada àquela de uma distribuição normal.

11 4.3 Testando o Valor Médio dos Retornos que Excedem os Intervalos de Confiança Projetados Essa seção compara o valor médio dos retornos diários que excedem as margens de confiança com aquele que seria o valor esperado para esses excessos a partir das estimativas de volatilidade e hipótese de distribuição normal condicional. FINGER (1996), demonstra que a média esperada para os retornos que excedem as margens de confiança - ME(α) é dada pela expressão [8], a seguir: α 1 ϕα ( ) ME( α ) = xϕ( x) dx = Φ( α ) Φ( α ) [8] Onde Φ é a função de probabilidade acumulada de uma normal reduzida e ϕ é a função densidade de probabilidade da normal. A variável x representa os retornos padronizados. Assim, para os níveis de confiança, de 5% e de 1%, o cálculo de cada ME(α) é dado no Quadro 2 a seguir: Quadro 2. Cálculo de ME(α) conforme expressão [8] para α = 5% e α = 1% α Φ ϕ ME(α) 5% 5% 0.1032 2.06 1% 1% 0.0266 2.66 Desta forma, dentro da hipótese de distribuição normal condicional dos retornos, assumida pelo RiskMetrics TM, pode-se afirmar que se um retorno, por exemplo, excede o 5 o percentil, então o valor médio esperado para ele é 2.06 vezes a volatilidade projetada para aquele dia. O presente teste compara os valores médios das exceções obtidas nas séries estudadas com o valor calculado conforme a expressão [8]. Os Gráficos 4 e 5, a seguir, apresentam os resultados obtidos para o período em estudo:

12 Gráfico 4 - Média do Excessos acima do 5o Percentil Variáveis do Merc. Brasileiro - Período de 16/1/96 a 15/5/97 3.50 Média dos Excessos 3.00 2.50 2.00 1.50 1.00 0.50 Excessos acima (95o Percentil) Excessos abaixo (5o Percentil) - Pre 1 D Pre 1 M Pre 2 M Pre 3 M Pre 6 M Pre 12 M Cup 1 D Cup 1 M Cup 2 M Cup 3 M Cup 6 M Cup 12 M US$ Variável de Mercado Gráfico 5 - Média dos Excessos Acima do 1o. Percentil Variáveis do Merc. Brasileiro - Período de 16/1/96 a 15/5/97 4.50 4.00 3.50 3.00 2.50 2.00 1.50 1.00 0.50 - Pre 1 D Pre 1 M Pre 2 M Pre 3 M Pre 6 M Pre 12 M Cup 1 D Cup 1 M Cup 2 M Cup 3 M Cup 6 M Cup 12 M US$ Média dos Excessos Excessos acima (99o Percentil) Excessos abaixo (1o Percentil) V Variável de Mercado Novamente se observa a não conformidade dos resultados obtidos com a hipótese de normalidade. Os valores médios dos excessos ocorridos em relação aos percentis projetados são superiores aos valores médios esperados para o caso de distribuições normais. A linha cheia que nos dois gráficos acima demonstra o valor médio esperado dos excessos, é superada na quase totalidade das vezes. Ao nível do primeiro percentil, os excessos chegam a superar quase que o dobro do valor de suas expectativas.

13 5 CONCLUSÕES E RECOMENDAÇÕES PARA PESQUISAS FUTURAS Neste trabalho, foram efetuados testes estatísticos sobre as principais variáveis do mercado financeiro nacional, taxas de juros interbancários, de cupom cambial e de câmbio, para um período de 332 dias úteis que vai de 16/1/96 a 15/5/97. O modelo de alisamento exponencial para estimativa de volatilidades diárias, mostrou-se bastante preciso, principalmente quando é incluído no seu cálculo o valor das médias diárias dos retornos, cálculo esse que é desprezado no modelo sugerido pelo RiskMetrics TM. Os resultados obtidos nos testes confirmam que as variáveis de mercado estudadas apresentam indícios de alto grau de curtose nas suas distribuições de probabilidades. A aplicação pura e simples dos modelos de cálculo do valor em risco, VaR, baseados na metodologia do RiskMetrics TM, funciona razoavelmente bem para margens de confiança da ordem de 5%, porém, tende a subestimar o risco de mercado incorrido quando margens de confiança mais rígidas são exigidas. Esta conclusão coincide com a de FINGER (1996), em testes efetuados para diversas séries de retorno de economias emergentes. Existe, portanto, a necessidade de enriquecer os modelos utilizados. Trabalhos bem recentes, por exemplo, HULL; WHITE (1997) e ZANGARI (1996) propõem sofisticações no cálculo do VaR de forma a levar em conta a leptocurtose. Esses trabalhos sugerem modelos similares aos discutidos mas que assumem as distribuições de probabilidades dos retornos diários das variáveis de mercado como sendo resultantes da mistura de duas distribuições normais.

14 6 REFERÊNCIAS BIBLIOGRÁFICAS FINGER, C.C. Testing riskmetrics TM volatility forecasts on emerging markets data. In: RISKMETRICS Monitor... [s.l.]: Reuters/J.P. Morgan, [19 ]. HENDRICKS, D. Evaluation of value-at-risk models using historical data. Economic Policy Review, Apr. 1996. HULL, J.; WHITE, A. Taking account of the kurtosis in market variables when calculating value at risk. [s.l. : s.n., 19 ]. Versão preliminar de um artigo anexado à apostila de um seminário promovido em São Paulo em Maio de 1997. JACKSON, P.; MAUDE, D.J; PERRAUDIN, W. Bank capital and value at risk. The Journal of Derivatives, Spring 1997. JORION, P. Value at risk: the new benchmark for controlling market risk. Chicago: Irwin Professional, 1997. RISKMETRICS 3. ed.[s.l.]: Reuters/J.P. Morgan, 1995.. 4. ed.[s.l.]: Reuters/J.P. Morgan, dez 1995. SMITHSON, C. Value-at-risk: understanding the various ways to calculate VAR. Risk Magazine,v. 9, n. 1, Jan. 1996. ZANGARI, P. When is non-normality a problem? the case of 15 time series from emerging markets. In: RISKMETRICS Monitor. [s.l.]: Reuters/J.P. Morgan, [19 ].