MODELO DE ANÁLISE DE RISCO DE CRÉDITO UTILIZANDO MÁQUINA DE VETOR SUPORTE. Francisco Alixandre Ávila Rodrigues

Tamanho: px
Começar a partir da página:

Download "MODELO DE ANÁLISE DE RISCO DE CRÉDITO UTILIZANDO MÁQUINA DE VETOR SUPORTE. Francisco Alixandre Ávila Rodrigues"

Transcrição

1 MODELO DE ANÁLISE DE RISCO DE CRÉDITO UTILIZANDO MÁQUINA DE VETOR SUPORTE Francisco Alixandre Ávila Rodrigues Dissertação de Mestrado apresentada ao Programa de Pós-graduação em Engenharia de Sistemas e Computação, COPPE, da Universidade Federal do Rio de Janeiro, como parte dos requisitos necessários à obtenção do título de Mestre em Engenharia de Sistemas e Computação. Orientador: Nelson Maculan Filho Rio de Janeiro Março de 2012

2 MODELO DE ANÁLISE DE RISCO DE CRÉDITO UTILIZANDO MÁQUINA DE VETOR SUPORTE Francisco Alixandre Ávila Rodrigues DISSERTAÇÃO SUBMETIDA AO CORPO DOCENTE DO INSTITUTO ALBERTO LUIZ COIMBRA DE PÓS-GRADUAÇÃO E PESQUISA DE ENGENHARIA (COPPE) DA UNIVERSIDADE FEDERAL DO RIO DE JANEIRO COMO PARTE DOS REQUISITOS NECESSÁRIOS PARA A OBTENÇÃO DO GRAU DE MESTRE EM CIÊNCIAS EM ENGENHARIA DE SITEMAS E COMPUTAÇÃO. Examinada por: Prof. Nelson Maculan Filho, H.D.R. Profa. Leontina Maria Viana Graziadio Pinto, D. Sc. Prof. Ernesto Prado Lopes, Ph. D. RIO DE JANEIRO, RJ - BRASIL MARÇO DE 2012

3 iii Rodrigues, Francisco Alixandre Ávila Modelo de Análise de Risco de Crédito Utilizando Máquina de Vetor Suporte/ Francisco Alixandre Ávila Rodrigues.- Rio de Janeiro: UFRJ/COPPE, XI, 55 p. : il.; 29,7 cm Orientador: Nelson Maculan Filho Dissertação (mestrado) UFRJ/COPPE/Programa de Engenharia de Sistemas e Computação, Referências Bibliográficas: p Risco de Crédito. 2.Máquina de Vetor Suporte. 3.Otimização Quadrática I. Maculan Filho, Nelson. II. Universidade Federal do Rio de Janeiro, COPPE, Programa de Engenharia de Sistemas e Computação. III. Título.

4 iv Dedico este trabalho a minha esposa Lígia Claudia Castro de Oliveira, pelo seu apoio incondicional mesmo nas horas mais difíceis, e por todo seu amor, dedicação e sacrifício.

5 v Agradecimentos Aos meus orientadores, professor Maculan e professora Leontina, pelos seus valiosos conselhos e sugestões, dedicação à tarefa de ajudar-me e por terem acreditado muito neste trabalho. À Engenho Consultoria por ter dado a oportunidade e o apoio necessário à execução deste trabalho. A todos os meus colegas de trabalho da Engenho pelo incentivo e motivação. Aos professores do Departamento de Engenharia de Sistemas e Computação da UFRJ pelo aprendizado. Aos membros da banca examinadora pelas contribuições na geração final desta dissertação. Aos meus pais Antonio Cruz Rodrigues e Rita Ávila Paiva Rodrigues pelo apoio e por terem a visão de sempre incentivarem o estudo de seus filhos. As minhas irmãs Andrea e Adrianne e a todos os meus familiares por sempre torcerem por mim. A todos que de alguma forma me ajudaram ou me motivaram no desenvolvimento desta dissertação. A Deus por ter me dado forças para superar todos os obstáculos.

6 vi Resumo da Dissertação apresentada à COPPE/UFRJ como parte dos requisitos necessários para a obtenção do grau de Mestre em Ciências (M. Sc.). MODELO DE ANÁLISE DE RISCO DE CRÉDITO UTILIZANDO MÁQUINA DE VETOR SUPORTE Francisco Alixandre Ávila Rodrigues Março/2012 Orientador: Nelson Maculan Filho Programa: Engenharia de Sistemas e Computação A crise econômica de 2008 trouxe a tona um risco importante na comercialização de energia que estava esquecido: a qualidade do parceiro e o risco de credito associado. Não importa quão cuidadosamente o portfólio de contratação seja construído, o lucro pode ser convertido em grandes perdas caso o fornecedor não entregue energia ou o consumidor não pague por ela. Este trabalho desenvolve um novo modelo, baseado em máquina de vetor suporte, para a análise e gestão do risco de crédito. A construção do portfólio ótimo está além do escopo deste trabalho, todo o empenho foi na análise de parceiros e na avaliação de suas probabilidades de default. Os resultados obtidos mostraram que o modelo de SVM com soft-margin não só é viável como pode auxiliar um processo de tomada de decisão estratégica referente à comercialização de energia. Dessa forma, o gestor de uma comercializadora de energia estaria de posse de uma ferramenta que pode auxiliá-lo na escolha de empresas comercias e industriais para compor seu portfólio de parceiros.

7 vii Abstract of Dissertation presented to COPPE/UFRJ as a partial fulfillment of the requirements for the degree of master of Science (M.Sc.) MODEL OF CREDIT RISK ANALYSIS USING SUPPORT VECTOR MACHINE Francisco Alixandre Ávila Rodrigues March/2012 Advisor: Nelson Maculan Filho Department: Systems Engineering and Computation The economic crisis of 2008 brought to light an important risk in the commercialization of energy that was forgotten: the quality of the partner and the credit risk associated. No matter how carefully the contract portfolio is built, the profit can be turned into large losses if the supplier does not deliver energy or the consumer does not pay for it. This paper develops a new model based on support vector machine for analysis and management of credit risk. The construction of the optimal portfolio is beyond the scope of this work, every effort was the analysis of partners and assessing their probabilities of default. The results showed that the model with soft-margin SVM is not only feasible, but may help a process of strategic decision making on the commercialization of energy. Thus, the manager of an energy trader was in possession of a tool that can assist you in choosing commercial and industrial companies to integrate its portfolio of partners.

8 viii Sumário 1 Introdução Motivação Avaliação do risco de crédito no mercado de energia elétrica Modelos de classificação de risco de crédito na literatura Modelos para classificação de risco de crédito em geral Modelos para classificação de risco de crédito no setor de energia elétrica O modelo proposto Conceitos básicos de aprendizado de máquina Máquinas de vetor suporte SVM com Hard-Margin SVM com Soft-Margin Cálculo da probabilidade de default Aplicações do modelo Seleção das variáveis de entrada para a SVM Empresas comerciais Empresas industriais Conclusões Sugestões para trabalhos futuros Referências Bibliográficas... 51

9 ix Lista de Figuras Figura 1 Relação entre os valores de Z e a probabilidade de sovência Figura 2 Indução de classificador em aprendizado supervisionado Figura 3 Hiperplano ótimo separando os dados com a máxima margem e os vetores suporte Figura 4 Hiperplano ótimo de separando no espaço bidimensional Figura 5 Cálculo da distância entre os hiperplanos e Figura 6 Caso de dados inseparáveis no espaço bidimensional Figura 7 Visualização das empresas comerciais para treinamento Figura 8 Visualização da probabilidade de default por região para empresas comerciais Figura 9 Visualização das empresas comerciais de teste Figura 10 Visualização das empresas industriais para treinamento Figura 11 Visualização da probabilidade de default por região para empresas industriais Visualização das empresas industriais para treinamento Figura 12 Visualização das empresas industriais de teste

10 x Lista de Tabelas Tabela 1 - Empresas comerciais para treinamento Tabela 2 Empresas comercias de teste Tabela 3 - Empresas industriais para treinamento Tabela 4 Empresas industriais de teste... 48

11 xi Lista de Abreviaturas SVM Support Vector Machine CVM Comissão de Valores Mobiliários ROA Return on Assets KS Kolmogorov Smirnov JSTOR Journal Storage IEEE Institute of Eletrical and Electronic Engineers

12 1 1 Introdução 1.1 Motivação Na maioria dos países, o setor de energia elétrica tem sido progressivamente conduzido a um ambiente orientado ao mercado. Não importando a arquitetura especifica dos mercados, a energia precisa ser comercializada e as receitas são projetadas com base na qualidade do portfólio de contratação: bons resultados indicam contratos lucrativos. Os riscos de negócio são avaliados com base, de forma aproximada, nas incertezas de preço/demanda em conjunto, com aspectos específicos da regulação. Contudo, a crise econômica mundial de 2008 trouxe à tona um risco importante que estava esquecido: a qualidade do parceiro e o risco de credito associado. Não importa quão cuidadosamente o portfólio de contratação seja construído, o lucro pode ser convertido em grandes perdas caso o fornecedor não entregue energia ou o consumidor não pague por ela. A inclusão do risco de crédito de parceiros ao portfólio ótimo é, em princípio, um árduo desafio: a maior parte das agências de rating geralmente atribui apenas uma nota à empresa. Mesmo sendo importante, esta informação não é suficiente. A avaliação dos indicadores de risco só pode ser efetuada através da probabilidade de default associada ao parceiro. O objetivo deste trabalho é propor um novo modelo para a análise e gestão do risco de crédito especialmente desenvolvido para a comercialização de energia. Para

13 2 isso focaremos na análise de parceiros e na avaliação de suas probabilidades de default. A construção do portfólio ótimo está além do escopo deste trabalho. 1.2 Avaliação do risco de crédito no mercado de energia elétrica De um modo geral, o risco de crédito é o risco associado a possíveis perdas quando uma das partes em um contrato não honra os compromissos assumidos. Para tentar minimizar esse tipo de perda, é fundamental um estudo que possibilite uma avaliação da situação econômico-financeira de uma empresa. A capacidade de discriminação entre empresas boas e ruins é crucial na avaliação do risco de crédito. Desse modo, é imperativo termos um modelo que permita prever com o máximo de precisão a qualidade do parceiro a fim de permitir às partes interessadas tomar uma ação preventiva ou corretiva. No processo de comercialização de energia elétrica, o risco de crédito está sempre presente. Por exemplo, o fornecedor pode não entregar a energia ou o consumidor não pagar por ela, caracterizando assim dois tipos de eventos de default. Embora existam diversos outros tipos de eventos de default, o conceito de default adotado nesse trabalho foi a concordata, que permite a uma empresa com dificuldades financeiras continuar funcionando normalmente, dando-lhe um tempo para chegar a um acordo com seus credores. Esse conceito foi utilizado por se tratar de uma informação disponível publicamente.

14 3 2 Modelos de classificação de risco de crédito na literatura Existem muitas técnicas utilizadas para a construção de modelos de risco de crédito. Este capítulo faz uma breve apresentação das técnicas mais utilizadas na literatura para classificar e prever o risco de crédito, dentre os quais estão: regressão logística, árvores de classificação, programação linear, redes neurais, algoritmos genéticos, análise discriminante e SVM. 2.1 Modelos para classificação de risco de crédito em geral Nos últimos anos, impulsionado pela crise financeira mundial de 2008, o uso de metodologias para classificação e previsão de risco de crédito tem sido muito divulgado. Isto tem feito com que as instituições financeiras travem uma corrida acirrada em busca dessas ferramentas. Entretanto, o uso de modelos de risco de crédito não torna os negócios isentos de riscos, por isso não podem ser compreendidos como receitas milagrosas capazes de resolver todos os problemas relacionados ao risco de operações de crédito [1,2]. Dentre os métodos mais antigos de classificação e previsão de risco de crédito, podemos destacar a análise discriminante linear e a regressão logística. Os primeiros

15 4 estudos desenvolvidos sobre a técnica de análise discriminante linear foram realizados em 1966 por Beaver [3] seguido por Altman [4] em Os resultados obtidos deram credibilidade aos modelos de classificação de risco e diversos estudos foram publicados sobre o assunto. É possível encontrar vários trabalhos que fazem uma revisão da literatura dos principais modelos de risco de crédito utilizados. Nos trabalhos de Assaf Neto e Brito [14], Resende [38] os autores destacam que Beaver [3] realizou um estudo utilizando uma amostra com 158 empresas norte-americanas, sendo 79 delas concordatárias e 79 não concordatárias. Para deixar a amostra mais homogênea, o autor agrupou as empresas por setor econômico e tamanho de seus ativos. O modelo inicial criado por Beaver considerou 30 variáveis independentes, divididas nas seguintes categorias de indicadores contábeis: indicadores de fluxo de caixa, indicadores de rentabilidade, indicadores de dívida sobre ativo, indicadores de ativos líquidos sobre ativo total, indicadores de ativos líquidos sobre dívida e indicadores de giro do ativo. Esses indicadores foram calculados para os últimos 05 anos que antecederam o evento de concordata. Após investigar os índices individualmente, o autor selecionou a variável fluxo de caixa sobre total da dívida como o melhor indicador financeiro para discriminar empresas concordatárias de empresas não concordatárias. Vale ressaltar que o autor considerou igual o custo de classificar incorretamente uma empresa concordatária como não concordatária e o custo de classificar incorretamente uma empresa não concordatária como concordatária. Para avaliar a qualidade do uso de indicadores contábeis como uma técnica analítica para medir o desempenho de uma empresa, Altman [4] introduziu o modelo de análise discriminante linear para classificar e fazer previsões envolvendo problemas

16 5 onde a variável resposta aparece de forma qualitativa. O modelo de análise discriminante linear resulta em uma combinação linear desses indicadores que melhor discrimine os diferentes grupos pré - estabelecidos. No caso analisado por Altman, dois grupos foram constituídos, o grupo das empresas concordatárias e grupo das empresas não concordatárias, de forma que a análise foi transformada numa única dimensão. Kanitz [5], em 1976, realizou o primeiro estudo com empresas brasileiras utilizando a técnica de análise discriminante com o objetivo de verificar a capacidade de índices financeiros em prever a falência de empresas. O autor utilizou uma amostra de 42 empresas, sendo 21 empresas concordatárias e 21 empresas não concordatária. Um total de 516 indicadores contábeis foram calculados e avaliados para os últimos 02 anos que antecederam o evento de falência. Para reduzir o número de variáveis, Kanitz utilizou a técnica estatística de diferença de médias para identificar alguns indicadores contábeis com bom poder discriminatório de empresas concordatárias e empresas saudáveis. Onusic e Casa Nova [40] também fizeram uma revisão de alguns modelos de risco de crédito. Assim como em muitos outras trabalhos, os dois autores destacam que em 1976, Elizabetsky [6] desenvolveu um modelo usando análise discriminante para decisão de concessão de crédito em bancos comerciais. O modelo estudado apresentou uma taxa de acerto em classificar empresas como boas" de 88,89%. Em 1977, Altman et al. [7] desenvolveram um modelo utilizando a técnica de análise discriminante linear, que chamaram de ZETA. A razão apontada pelos autores para o desenvolvimento desse modelo foi a mudança do porte das empresas nos anos que precederam o estudo. O porte médio das empresas que entraram em concordata havia aumentado consideravelmente, gerando maior visibilidade e preocupação por parte das instituições financeiras e agências regulatórias.

17 6 Os autores utilizaram uma amostra de 111 empresas, sendo 53 empresas concordatárias e 58 empresas não concordatária, para o período de 1962 a A amostra foi subdividida em dois grupos, empresas de manufaturas e empresas de varejo. Inicialmente foram selecionados 27 indicadores contábeis, divididos em seis categorias: rentabilidade, índices de cobertura, liquidez, índices de capitalização, variação da rentabilidade e outros. O modelo selecionado foi reduzido a sete variáveis independentes, que foram: retorno sobre ativo; estabilidade das receitas; cobertura de juros; lucro acumulado sobre ativo total; liquidez corrente; capitalização (patrimônio líquido sobre capital) e tamanho do ativo. O modelo ZETA foi capaz de classificar corretamente 90% das empresas um ano antes do evento de concordata e 70% para cinco anos antes do evento de concordata. Em 1979, Altman e alguns colaboradores [8] realizaram um estudo para testar a aplicabilidade do modelo de análise discriminante linear previamente utilizado para empresas americanas para empresas brasileiras. Os autores utilizaram uma amostra de 58 empresas brasileiras, sendo 23 empresas concordatárias e 35 empresas não concordatária. Foram utilizadas as cinco variáveis do modelo original de Altman [4], com alterações nas variáveis lucros retidos sobre ativo total e valor de mercado do patrimônio líquido sobre valor contábil do exigível total para adaptar ao mercado brasileiro. Em 1996, Sanvicente e Bader [9] replicaram o modelo de Altman et. al [8] para o Brasil. Nesse estudo, os autores utilizaram uma amostra de 144 empresas, sendo 72 empresas concordatárias e 72 empresas não concordatária, para o período de 1986 a Foram utilizadas as mesmas cinco variáveis do modelo de Altman et. al. Mas nesse caso, os indicadores contábeis foram calculados para os últimos três anos

18 7 anteriores ao evento de concordata. Devido à indisponibilidade de dados, a amostra final de empresas foi reduzida. O modelo apresentado por Sanvicente e Bader foi capaz de classificar corretamente 77,4% das empresas um ano antes do evento de concordata, resultado inferior ao apresentado por Altman et. al. Em 1998, Sanvicente e Minardi [10] desenvolveram um estudo de caráter exploratório que tinha como objetivo identificar os indicadores contábeis mais significativos para prever a falência de empresas brasileiras. A amostra utilizada pelos autores era composta de 92 empresas brasileiras com ações negociadas na Bolsa de Valores de São Paulo, sendo 46 empresas concordatárias e 46 empresas não concordatária no período de 1986 a Os indicadores contábeis selecionados por Sanvicente e Minardi basearam-se em estudos de Altman [4, 7] e na dinâmica de over trading discutida por Assaf Neto e Tibúrcio Silva [11]. Foram selecionados 14 indicadores contábeis no estudo. Os autores utilizaram as mesmas cinco variáveis utilizadas por Altman et al. al [8] e Sanvicente e Bader [9] e adicionaram mais nove variáveis. O modelo selecionado incluiu as seguintes variáveis: ativo circulante menos passivo total sobre ativo total; patrimônio líquido menos capital social sobre ativo total; lucro antes de juros e imposto de renda sobre ativo total; valor contábil do patrimônio líquido sobre valor contábil do exigível total e lucro operacional antes de juros e imposto de renda sobre despesas financeiras. O modelo foi capaz de classificar corretamente 81,8% das empresas um ano antes do evento de concordata. Os modelos apresentados até agora de análise discriminante linear também foram criticados, pois muitas vezes não atendiam às rígidas hipóteses que a metodologia requisitava, tais como: (i) variáveis independentes devem ser normalmente distribuídas,

19 8 (ii) as matrizes de variância e covariância devem ser iguais entre os dois grupos de empresas, e (iii) interpretação pouco intuitiva do resultado da função discriminante. Essas críticas levaram a Ohlson [12], em 1980, a incluir a técnica de regressão logística na avaliação de riscos na concessão de crédito para empresas com dificuldades financeiras. O autor desenvolveu um modelo para previsão de falência similar aos modelos apresentados por Beaver [3] e Altman [4]. Sua contribuição foi essencial para o desenvolvimento de novas ferramentas para avaliação de risco de crédito, uma vez que ele introduziu o modelo de regressão logística. No estudo de Ohlson, foi utilizada uma amostra de 105 empresas americanas concordatárias e empresas não concordatária, para o período de 1970 a Setores econômicos como energia, transporte e financeiro foram excluídos da análise. O autor selecionou nove variáveis independentes para o modelo: tamanho do ativo; passivo total sobre ativo total; capital de giro sobre ativo total; passivo circulante sobre ativo circulante; lucro líquido sobre ativo total; geração de caixa operacional sobre passivo total e variação no lucro líquido. O modelo apresentado por Ohlson foi capaz de classificar corretamente 96,12% das empresas um ano antes do evento de concordata, 95,55% para dois anos antes da concordata e 92,84% para três anos antes da concordata. Scarpel e Milioni [13] utilizaram um modelo do tipo logit, também conhecido como regressão logística, em conjunto com o modelo de programação linear inteira. O objetivo foi auxiliar a análise de crédito utilizando a estimativa da probabilidade de solvência de empresas, minimizando a soma dos custos de oportunidade e inadimplência. Os autores concluíram que a utilização conjunta desses modelos possibilitou eliminar algumas limitações encontradas quando utilizavam isoladamente cada modelo nas decisões de concessão de crédito.

20 9 Em 2005, Assaf Neto e Brito [14] replicaram o modelo de regressão logística de Ohlson [12] para previsão de falências para empresas brasileiras. No estudo, os autores utilizaram uma amostra de 60 empresas, sendo 30 empresas concordatárias e 30 empresas não concordatária, para o período de 1994 a2004. Foram testados 25 indicadores contábeis no estudo, calculados com base nos demonstrativos contábeis do penúltimo exercício anterior ao evento de concordata. O modelo selecionado incluiu as seguintes variáveis: lucros retidos sobre ativo; endividamento financeiro; capital de giro líquido e saldo de tesouraria sobre vendas. O modelo foi capaz de classificar corretamente 91,7% das empresas. O surgimento da técnica chamada redes neurais na década de 1990 que entre outras atende a problemas de classificação, levou Altman et. al [15] a realizarem um estudo comparativo entre modelos de classificação tradicionais, como análise discriminante linear e regressão logística, com o modelo de redes neurais. Esse estudo foi realizado com uma amostra de mais de empresas italianas para o período de 1982 a Dez indicadores contábeis foram utilizados, entre eles: 04 índices de endividamento e estrutura de capital, 02índices de liquidez e 04 índices de rentabilidade. Os resultados encontrados com a utilização de redes neurais foram satisfatórios, e muitas vezes superiores aos resultados encontrados com a utilização de análise discriminante linear. No entanto, os autores ressaltam que o maior problema encontrado foi à existência de tipos não aceitáveis de comportamento na rede neural. O grau e frequência de tipos de comportamento ilógicos cresceram de acordo com o aumento da complexidade da arquitetura da rede neural. Somente em casos extremamente simples foram obtidos resultados aceitáveis. Desai et al. [16] compararam redes neurais, análise discriminante linear e regressão logística para a construção de modelos de escore de crédito. Os autores

21 10 avaliaram o percentual de acerto total de cada modelo e neste aspecto o modelo de redes neurais foi bastante superior aos demais. Porém o percentual de clientes bons e maus corretamente classificados pela rede neural foi equivalente ao modelo de regressão logística. Em 1996, Almeida e Dumontier [17] publicaram um trabalho em que sugeriram uma abordagem estruturada de exploração de redes neurais para avaliação dos riscos de inadimplência do setor de transporte de carga rodoviário francês. Os autores comparam a técnica de redes neurais sugerida com a regressão logística, e os resultados mostraram que o desempenho do modelo de redes neurais não apresentou ganhos significativamente superiores aos obtidos com a utilização da regressão logística. Contudo, os mesmos autores ressaltaram que estudos futuros poderiam ajudar no entendimento e compreensão do processo de falência através do uso de redes neurais, possibilitando assim melhores resultados em outros setores de atividades. Um estudo comparativo entre três técnicas multivariadas para prever se um cliente pagará ou não um empréstimo, foi apresentado em 1997por Armingeret al. [18]. As técnicas comparadas foram regressão logística, redes neurais e árvore de decisão. Para a construção de cada modelo foram levadas em consideração as seguintes variáveis: sexo, tempo de serviço, idade, possuir ou não carro, possuir ou não telefone e estado civil. Os resultados demonstraram acertos na classificação dos clientes de 67,6% para a regressão logística, 66,4% para a árvore de decisão e 65,2 para as redes neurais. Num esforço adicional os autores combinaram as três técnicas, porém o resultado não foi satisfatório, sendo pior que o obtido pela regressão logística. Em 1999, Steiner et al [19] utilizaram sistemas especialistas probabilísticos e redes neurais, ambas na área de inteligência artificial, para auxiliar na análise de concessão de crédito bancário a pessoas físicas. Foram utilizados dados históricos de

22 clientes de um banco alemão com o objetivo de identificar padrões que mostrassem para diagnósticos futuros, em qual situação é interessante para o banco fazer a concessão do crédito. Selau [20] apresentou um estudo destacando a importância de redes neurais como ferramenta para o reconhecimento de padrões e sua superioridade em comparação com outras técnicas. Em uma aplicação na área de crédito a autora utilizou uma amostra de 1000 créditos concedidos em um banco alemão, sendo 700 bons pagadores e 300 maus pagadores. Nessa aplicação, os resultados obtidos com a rede neural foram superiores quando comparada com as técnicas de regressão logística e árvore de decisão. Lemos [21], utilizando redes neurais e árvores de decisão, analisou dados históricos de 339 empresas clientes de uma agência bancária, dos quais 266 eram adimplentes e 73 inadimplentes. Para testar o modelo de árvores de decisão, os dados foram divididos em conjuntos de treinamento e teste, obtendo para o modelo 71,84% de classificação correta das empresas. Já para a técnica de redes neurais os treinamentos foram feitos por meio de uma rede de múltiplas camadas, usando o algoritmo back propagation padrão variando parâmetros, obtendo 90,04% de acerto de classificação. De acordo com Lemos [21], os resultados sugerem que o desempenho das redes neurais foi melhor que o apresentado na técnica árvores de decisão em relação à taxa de classificação correta, porém, do ponto de vista do usuário (analista de crédito ou gerente bancário), sempre há vantagens do uso de árvores de decisão, pois ela apresenta resultados (regras de decisão) de fácil compreensão. Em 2003, Huang et al [22] realizaram um estudo de comparação entre as metodologias de redes neurais, regressão logística e Support Vector Machine (SVM). A análise realizada foi em relação a instituições financeiras que trabalhavam com

23 12 concessão de crédito. O público alvo foi grandes empresas dos Estados Unidos e Taiwan, que para solicitar o crédito necessitavam fornecer os últimos cinco relatórios anuais e demonstrações financeiras, tal como o total de ativos e passivos circulantes, dívidas da empresa, fluxos de caixa. O experimento realizado por Huang foi baseado em dois conjuntos: o de treinamento e o de teste. A regressão logística obteve uma taxa de 73,92% de acerto, 77,65% para as redes neurais e 78,90% para SVM demonstrando melhor desempenho entre as técnicas escolhidas. Kimura et al. [23], através do uso do procedimento de redes neurais, apresentaram um modelo de previsão de risco de crédito com base em uma amostra aleatória de 2475 clientes de uma importante rede de lojas brasileira. O modelo sugerido apresentou 79% de acertos sobre o perfil de pagamento dos clientes. Os autores destacaram ainda que, apesar de ter sido considerado na pesquisa um número pequeno de variáveis, os resultados sugerem que as redes neurais são promissoras como técnica para análise de concessão de crédito ao consumidor. Gouvêa e Gonçalves [24], utilizando uma amostra de dados fornecida por uma grande instituição financeira brasileira, desenvolveram dois modelos com duas técnicas para a classificação de clientes: redes neurais e algoritmos genéticos. Os resultados obtidos pelos modelos de rede neural e algoritmo genético foram satisfatórios, sendo o primeiro modelo superior com percentual de acerto de 69,4% contra 67,6%. Recentemente uma revisão realizada por Yu et al. [25], destacou algumas das técnicas mais usadas para a avaliação do risco de crédito. Dentre elas os autores citaram: análise discriminante linear, regressão logística, regressão probit, árvores de decisão, k-vizinhos mais próximos, programação linear, redes neurais, algoritmos evolucionários, SVM e sistemas híbridos.

24 13 Para comparar a qualidade das diversas técnicas de inteligência computacional na pesquisa bibliográfica, Yu et al.[25] estabeleceram quatro critérios: precisão, interpretabilidade, simplicidade e flexibilidade. De acordo com os autores, cada uma das diferentes técnicas de inteligência computacional se destaca em um ou mais dos aspectos qualitativos, sendo o mais relevante para o problema de risco de crédito a precisão. As maiores precisões foram observadas nas técnicas de SVM e sistemas híbridos. Yu et al. [25] ressaltam a qualidade da técnica SVM, sobretudo, devido ao alto poder de classificação de padrões e suas características de funcionamento. SVM é uma classe de métodos auto adaptáveis, não lineares, dirigidos pelas amostras sem que haja a necessidade de suposições específicas (por exemplo, distribuição estatística normal), no qual se pode construir uma função de discriminante linear para substituir a função não linear de mapeamento de entrada, com a vantagem de uma dimensão mais baixa que a original. Em consequência dessa linearidade da função discriminante, a complexidade computacional não fica dependente da dimensão da amostra. Outra característica importante é a boa capacidade de generalização obtida pelos métodos, através da maximização da separação de hiperplanos, evitando mínimos locais [41]. 2.2 Modelos para classificação de risco de crédito no setor de energia elétrica No setor de energia elétrica, a análise de crédito é feita com o auxílio dos chamados ratings de crédito que são informações públicas que representam o

25 14 julgamento de analistas de crédito, supostamente bem informados, a respeito da capacidade das empresas em honrar compromissos financeiros assumidos. Geralmente essas agências de rating atribuem apenas uma nota ou um conceito às empresas. Por exemplo, as agências Moody s e Standard & Poor s atribuem os conceitos AAA e Aaa, respectivamente, às empresas consideradas de altíssima qualidade, com mínimo risco de crédito e capacidade de pagamento dos compromissos extremamente forte. Mesmo sendo importante, esse tipo de modelo não é suficiente. A quantificação do risco econômico associado a um negócio exige o cálculo numérico da probabilidade de default associada ao parceiro. Poucos autores propõem modelos para o cálculo da probabilidade de default. Encontramos, na literatura, o modelo Silva [26] que utilizou a ferramenta estatística de análise discriminante linear para classificar empresas brasileiras como solventes ou insolventes. O autor incorporou ao modelo o cálculo da probabilidade de insolvência (evento de default) das empresas. Após fazer uma pesquisa dos trabalhos existentes, Silva [26] fez um refinamento dos índices financeiros que deveriam ser incorporados ao modelo e testou outros fatores como a segmentação das empresas e horizonte de tempo. Segundo o autor, é necessário desenvolver modelos específicos para empresas atuantes em setores diferentes (industrial ou comercial, por exemplo), pois essa separação garante maior eficácia nos resultados. Silva [26] construiu dois modelos distintos: um para empresas comercias e outro para empresas industriais. Para cada segmento de empresas o autor analisou o risco de crédito para dois horizontes de tempo distintos, 12 e 24 meses. Martins e Galli [27] fizeram uso do modelo de Cox [28] para classificar companhias brasileiras de capital aberto com o objetivo de avaliar o risco de crédito.

26 15 Esse modelo, também conhecido como modelo de riscos proporcionais de Cox, pertence a uma área da estatística denominada Análise de Sobrevivência (Survival Analysis). Essa metodologia fornece não apenas a probabilidade de que um determinado evento de default ocorra no futuro, mas também uma estimativa do tempo até sua ocorrência. Como sugestão para trabalhos futuros, os autores consideram interessante a realização de estudos setoriais que contemplem a estimação de modelos de previsão de insolvência para empresas de mesma atividade econômica. Nesse sentido, Martins e Galli acreditam que o percentual de acerto do Modelo de Cox tende a se elevar, na medida em que empresas de um mesmo setor possuem não apenas características semelhantes, mas tendem a reagir da mesma forma a determinadas mudanças conjunturais. Os trabalhos desenvolvidos por Silva [26] e Martins e Galli [27] foram o marco inicial dessa dissertação. Pois, além de serem modelos que permitem fazer classificação de empresas brasileiras quanto a serem concordatária ou não concordatária, permitem também estimar probabilidades de default. Os autores tiveram também o cuidado de construir modelos distintos para empresas de mesma atividade econômica, obtendo assim um melhor desempenho. Os modelos desenvolvidos por Silva [26] fazem uso da metodologia de análise discriminante linear que é um método estatístico multivariado que se emprega para descobrir as características que distinguem os membros de diferentes grupos, de modo que, conhecidas as características de um novo membro, seja possível prever a que grupo pertence. Segundo essa metodologia as empresas são classificadas de acordo com índices financeiros. Cada um dos índices utilizados no modelo recebe um peso, que é referente à sua ordem de grandeza e importância relativa no conjunto. Esses pesos foram obtidos

27 16 através do método de mínimos quadrados, de forma que a subjetividade do analista não interfere no resultado final da classificação. O modelo pode ser representado de forma básica como: (3.1) onde, Z é o valor da função que irá classificar a empresa, a 1 é o índice do coeficiente x 1, o peso de x 1, a 2 é o índice do coeficiente x 2, o peso de x 2, a n é o índice do coeficiente x n, o peso de x n, x 1, x 2, x 3,..., x n representam cada um dos índices selecionados. Silva [26] estimou dois tipos de modelo: um para classificar empresas industriais e outro para classificar empresas comerciais, cada qual utilizando variáveis distintas e pesos distintos. Cada modelo indica a probabilidade de insolvência da empresa para o próximo exercício (próximos 12 meses) e a possibilidade de insolvência para os dois próximos exercícios (próximos 24 meses). O ponto de separação entre empresas boas e insolventes é zero. Na figura abaixo mostramos a relação que Silva [26] utiliza entre os valores das funções Z e a probabilidade de solvência P(S) de uma empresa. Figura 01 Relação entre os valores de Z e a probabilidade de solvência.

28 17 No entanto, para fazer uso dessa metodologia é crucial a verificação de alguns pressupostos, tais como a presença de outliers, pois uma análise discriminante é altamente sensível à presença de outliers ou valores extremos de variáveis que têm um largo impacto nas médias e também aumentam as variâncias, podendo resultar em classificações erradas. Assim, os outliers devem ser identificados e removidos antes da análise. Outro pressuposto é que as variáveis sigam uma distribuição Normal multivariada, sendo necessária a confirmação através de testes estatísticos de normalidade. O modelo desenvolvido por Martins e Galli, permite estimar a probabilidade de sobrevivência para diferentes horizontes de tempo obtendo assim o perfil de sobrevivência das empresas incluídas na amostra. Além disso, esse modelo possui a vantagem de não estabelecer qualquer hipótese sobre a forma da distribuição estatística dos dados. Entretanto, o modelo possui algumas limitações. Pois da mesma forma que outras técnicas estatísticas utilizadas na previsão de insolvência, o modelo de risco proporcional exige dados anteriores ao evento sob análise. Além disso, o modelo assume que os valores das variáveis independentes não se alteram ao longo do período de tempo no qual se desenvolve o estudo (suposição de proporcionalidade das taxas de falha). Segundo Whalen [29], a violação dessa hipótese pode reduzir a precisão do modelo. A grande dificuldade em fazermos uso das duas metodologias citadas acima, é a inexistência, em muitos casos, de um conjunto tão amplo de informações disponíveis para podermos garantir as exigências de cada modelo. No caso da analise discriminante linear a presença de outliers pode ser um empecilho para seu uso, e a simples retirada desse valor extremo pode causar um desvio da realidade além de diminuir ainda mais as

29 18 informações. É comum que empresas industriais (comerciais) tenham indicadores financeiros bem diferenciados em relação a valor, assim uma grande empresa que tenha indicadores elevados (ou baixos) em relação às demais seria eliminada da etapa de treinamento do modelo comprometendo assim o seu poder de classificação. No caso do modelo de Cox, a falta de informação também dificulta sua implementação, pois o método é fortemente influenciado pelo tamanho da amostra. Outra dificuldade para fazermos uso desse modelo é garantirmos a suposição de proporcionalidade das taxas de falha, ou seja, assumirmos que os valores das variáveis independentes não se alteram ao longo do período de tempo no qual se desenvolve o estudo. Assumir essa hipótese não é muito adequado, uma vez que o comportamento temporal dos indicadores de uma empresa pode ser muito dinâmico. Assim, o desenvolvimento de uma metodologia que permita fazer classificação, sem perda de generalização, a partir de amostras que não disponibilizem muitas informações ou que não tenham alta dependência com o tamanho da amostra se faz necessário.

30 19 3 O modelo proposto O modelo proposto nesse trabalho faz uso da técnica de aprendizado de máquina conhecida como Máquina de Vetor Suporte, do inglês Support Vectors Machine SVM. A escolha dessa metodologia foi devida sua flexibilidade e sua alta capacidade de classificação, além de não haver problemas em relação à alta dependência com o tamanho da amostra ou outliers. Antes de iniciarmos a apresentação do modelo proposto, será feita uma breve explanação sobre aprendizado de máquina. 3.1 Conceitos básicos de aprendizado de máquina A aprendizagem de maquina é um sub-campo da inteligência artificial dedicado ao desenvolvimento de algoritmos e técnicas que permitam ao computador aprender, isto e, que permitam ao computador aperfeiçoar seu desempenho em alguma tarefa. As técnicas de Aprendizado de Máquina (AM) fazem uso de um princípio de inferência denomina indução, no qual se obtém conclusões genéricas a partir de um conjunto particular de dados. O aprendizado indutivo pode ser dividido em dois tipos principais: supervisionado e não supervisionado.

31 20 No aprendizado supervisionado, o objetivo é induzir conceitos a partir de exemplos pré-definidos, ou seja, exemplos questão rotulados com uma classe conhecida. No aprendizado não supervisionado as classes não estão pré-definidas, ou seja, existe a incerteza sobre a saída esperada. Nesses casos, é comum utilizar os métodos probabilísticos para simular a distribuição de probabilidades dos dados em cada classe. Para realizar tais procedimentos, é amplamente difundida a utilização da aprendizagem bayesiana ou redes bayesianas. O tipo de aprendizado abordado neste trabalho é o supervisionado. Neste caso, dado um conjunto de exemplos rotulados na forma (x i,y i ), em que x i representa uma amostra e y i denota o seu rótulo, deve-se construir um classificador, também denominado modelo, capaz de prever o rótulo de novos dados. Esse processo de indução de um classificador a partir de uma amostra de dados é denominado treinamento. O classificador obtido também pode ser visto como uma função f, a qual recebe um dado x e fornece uma predição y, ou seja, fornece uma classificação. Nesse trabalho, o fenômeno em estudo, ou seja, os rótulos ou classes assumem apenas valores discretos 1,..., k. Se os rótulos possuem valores contínuos, tem-se um problema de regressão, que não é foco desse trabalho. Um problema de classificação no qual k = 2 é denominado binário. Para k > 2, configura-se um problema multiclasses. Cada amostra x, também referenciada por dado ou caso, é tipicamente representada por um vetor de características, ou atributos. Normalmente, há dois tipos básicos de atributos: nominal e contínuo. Um atributo é definido como nominal (ou categórico) quando não existe uma ordem entre os valores que ele pode assumir (por exemplo, entre cores). No caso de atributos contínuos, é possível definir uma ordem linear nos valores assumidos (por exemplo, entre pesos).

32 21 As técnicas de AM idealmente devem ser robustas a ruídos presentes nos dados, ou seja, espera-se que a obtenção dos classificadores através dessas técnicas minimize a influência de outliers no processo de indução, permitindo assim uma melhor avaliação dos dados disponíveis. Os conceitos referentes à construção de um classificador a partir do aprendizado supervisionado são representados de forma simplificada na Figura 02. Tem-se nessa figura um conjunto com n dados x i. Cada dado x i possui m atributos, ou seja, x i = (x i1,..., x im ) e as variáveis y i representam as classes às quais cada dado x i pertence. Com essas informações a disposição, o algoritmo de AM extrai um classificador f(x). Figura 02 Indução de classificador em aprendizado supervisionado A obtenção de um classificador por um algoritmo de AM a partir de uma amostra de dados também pode ser considerada um processo de busca. Procura-se, entre todas as hipóteses que o algoritmo é capaz de gerar a partir dos dados, aquela com melhor capacidade de descrever o domínio em que ocorre o aprendizado [30]. Para estimar as taxas de acerto e de erro obtidas por um classificador, em geral, divide-se os dados em dois subconjuntos disjuntos: de treinamento e de teste. O subconjunto de treinamento é utilizado no aprendizado do classificador e o subconjunto

33 22 de teste é utilizado para medir o grau de efetividade do aprendizado do classificador na predição de novos dados. Um conceito comumente empregado em AM é o poder de generalização de um classificador, que é definido como a sua capacidade de prever corretamente a classe de novos dados. Em se tratando de generalização de um classificador, dois fenômenos têm influência direta no seu desempenho: a) Superajustamento do classificador: esse fenômeno ocorre quando o modelo se especializa nos dados de treinamento, apresentando baixa acurácia quando confrontado com novos dados. Esse fenômeno é também conhecido como over fitting. b) Subajustamento do classificador: Esse fenômeno ocorre quando o classificador apresenta baixa acurácia mesmo no conjunto de treinamento. Esse fenômeno é também conhecido como under fitting. Na próxima seção, iniciaremos a apresentação da metodologia utilizada para o modelo proposto desse trabalho. 3.2 Máquinas de vetor suporte Uma das estratégias de maior sucesso no equacionamento de problemas de classificação é a denominada Máquina de Vetor Suporte, mais conhecida pela denominação em inglês Support Vector Machine (SVM) [31]. De forma simplificada, pode-se dizer que SVM é uma técnica de aprendizado de máquina capaz de produzir classificadores com a máxima capacidade de generalização. Ou seja, a SVM é capaz de produzir classificadores com uma boa capacidade de predizer corretamente dados não presentes na amostra de treinamento.

34 23 A SVM é uma técnica relativamente recente. Foi proposta por Vapnik em 1995 [32] para resolver problemas de classificação binários, tendo sido utilizadas com sucesso em aplicações de reconhecimento de padrões, tais como categorização de textos, reconhecimento de caracteres manuscritos, reconhecimento de textura, análise de expressões de genes, reconhecimento de objetos em três dimensões, etc. Basicamente o funcionamento de uma SVM pode ser descrito da seguinte forma: dadas duas classes e um conjunto de pontos que pertencem a essas classes, uma SVM determina o hiperplano que separa os pontos de forma a colocar o maior numero de pontos da mesma classe do mesmo lado, enquanto maximiza a distância de cada classe a esse hiperplano. A distância de uma classe a um hiperplano é definida como a menor distância entre ele e os pontos dessa classe e é conhecida como margem de separação, ou simplesmente margem. O hiperplano gerado pela SVM é determinado por um subconjunto dos pontos das duas classes, chamado vetores de suporte [39]. Ver figura 03 abaixo. Figura 03 Hiperplano ótimo separando os dados com a máxima margem e os vetores suporte.

35 24 O treinamento de uma SVM consiste em um problema de otimização quadrático que é atrativo pela garantia da convergência para um mínimo global da superfície de erro (exceto quando algum problema de precisão numérica está presente), onde o erro refere-se à diferença entre a resposta desejada e a saída da SVM [33]. Uma das maiores vantagens da SVM é a sua flexibilidade. Utilizando os conceitos de maximização de margem e dualidade, pode-se adaptar o problema de classificação binária para resolver muitos outros tipos de problemas. Nesta sessão, discutiremos as máquinas de vetor suporte para os problemas de classificação binária. Primeiro, iremos apresentar o caso em que os dados de treinamento são assumidos linearmente separáveis no espaço de entrada através do conceito de hard-margin (margem rígida, ou larga) de máquinas de vetores suporte. Em seguida, abordaremos o caso em que dados de treinamento não são linearmente separáveis, onde apresentaremos o conceito de soft-margin de máquinas de vetores suporte. O modelo proposto nesse trabalho usa a ideia de soft-margin SVM com Hard-Margin A complexidade de uma SVM está associada à forma pela qual os dados estão distribuídos, sendo o caso mais simples quando os dados podem ser linearmente separados por um hiperplano. Para padrões linearmente separáveis, a solução do problema de treinamento de uma SVM consiste em achar um hiperplano que separe perfeitamente os pontos de cada classe maximizando a margem de separação. Esse hiperplano e chamado de hiperplano ótimo.

36 25 Considere M dados de treinamento (dados de entrada) m- dimensional pertencente a classe 1 ou 2 e associado a cada um rótulo de classe se for da classe 1 e se for da classe 2. Se os dados forem linearmente separáveis, podemos definir o hiperplano ótimo como sendo: (3.2) Onde é o vetor m-dimensional normal ao hiperplano separador, é o conjunto de pontos de entrada e Assim, para determina o deslocamento do hiperplano em relação à origem., temos a seguinte relação: { (3.3) O fato da amostra de treinamento ser linearmente separável nos dá garantias de que nenhum dos dados de treinamento satisfaça a igualdade. Assim, para controlar a separabilidade, em vez de (3.3), podemos considerar as seguintes inequações: { (3.4) Onde é uma constante de tal forma que podemos afirmar que não há nenhum dado entre e. Mas se dividirmos ambos os lados de (3.4) pela constante, obteremos as seguintes inequações:

37 26 { (3.5) Considerando a restrição imposta por (3.5), podemos afirmar que não há nenhum dado de treinamento entre e, sendo a margem sempre maior que a distância entre os hiperplanos e. Devido a esta suposição a SVM obtida é normalmente chamada de SVM com margens rígidas (ou largas). A inequação (3.5) é equivalente a: (3.6) E a região decisão é chamada de região de generalização para a função de. Assim, existem infinitas de funções de decisão que satisfazem (3.6) como mostra a figura 04.

38 27 Hiperplano ótimo Margem máxima Figura 04 Hiperplano ótimo de separando no espaço bidimensional. Entretanto, estamos interessados no hiperplano ótimo. Assim, seja um ponto no hiperplano e um ponto no hiperplano, como mostra na figura 6. Projetando na direção de, que é ortogonal ao hiperplano separador, é possível obter a distância entre os hiperplanos e [34]. A projeção é apresentada na equação (3.7). ( ) (3.7)

39 28 Figura 05 Cálculo da distância entre os hiperplanos e. A diferença entre os hiperplanos e, leva a. Substituindo esse resultado em (3.7), tem-se: (3.8) Como desejamos encontrar o comprimento do vetor projetado, toma-se a norma da equação (3.8), obtendo: (3.9)

40 29 Essa é a distância, mostrada na figura 05. Como e foram calibrados de forma a não haver amostras entre e, é a distância mínima entre o hiperplano separador e os dados de treinamento. De acordo com Campbell [34], essa distância é definida como a margem geométrica do classificador. (3.10) A equação (3.10) mostra que maximizar a margem de separação entre as classes é equivalente a minimizar a norma euclidiana do vetor de pesos. Em resumo, o hiperplano ótimo definido pela equação (3.5), apresenta um vetor de pesos que leva à máxima separação entre as amostras positivas e negativas. Dessa forma, recorre-se ao seguinte problema de otimização [35]: (3.11) (3.12) Onde as restrições são impostas de maneira a assegurar que não existam amostras de treinamento entre as margens de separação das classes. Como a função objetivo é convexa e os pontos que satisfazem as restrições formam um conjunto convexo, esse problema possui um único mínimo global [36]. Problemas desse tipo podem ser solucionados com a utilização de uma função Lagrangeana. Através desse tipo de função podemos representar o problema primal P1

41 30 na sua formulação dual, onde a função objetivo dependerá unicamente dos chamados multiplicadores de Lagrange. Utilizando a teoria dos multiplicadores de Lagrange, podemos representar (3.11) através da sua correspondente função Lagrangena, como: (3.13) Onde são os multiplicadores de Lagrange. A solução ótima de (3.13) é dada pelo ponto de sela, onde (3.13) e minimizado em relação a e e maximizada com relação a, e que satisfaça as condições de Karush-Kuhn-Tucker (KKT):, (3.14), (3.15) (3.16) (3.17) A partir de (3.16) podemos concluir que, ou e deve ser satisfeito. Os dados de entrada quando são os chamados vetores de suporte. Usando (3.13), podemos reduzir (3.14) e (3.15), respectivamente, para: e (3.18) (3.19)

42 31 Substituindo (3.18) e (3.19) em (3.13), chegamos ao seguinte problema dual: (3.20) { (3.21) O problema formulado P2 é conhecido como SVM com margens rígidas. Como (3.22) A maximização de (3.20) sob as restrições (3.21) é um problema de programação quadrática côncavo. Se existe uma solução, ou seja, se o problema de classificação é linearmente separável, a solução ótima global existe. Na programação quadrática, os valores das funções objetivo primal (problema P1) e dual (problema P2) coincide na solução ótima, se existir [37]. Os dados de treinamento que estão a uma distância do hiperplano ótimo igual à largura da margem, ou seja, os vetores suporte para as classes 1 e 2, possuem seus respectivos. Para o restante dos dados de treinamento os. Então, a partir de (3.18) a função de decisão pode ser reescrita como: (3.23) Onde S é o conjunto de índices associado aos vetores suporte. Das condições de KKT (3.16), b é dado por:

43 32 (3.24) Onde é um vetor suporte. Do ponto de vista da precisão dos cálculos, é melhor tomar a média entre os vetores de suporte da seguinte forma [37]:. (3.25) Assim, um dado desconhecido é classificado como: { (3.26) Se, é inclassificável SVM com Soft-Margin As formulações de SVM apresentadas até agora funcionam apenas quando os dados são linearmente separáveis. Em problemas reais este comportamento nem sempre é encontrado, sendo a maioria deles complexos e não-lineares. Quando os dados não são linearmente separáveis, não existe solução viável para o problema de SVM com margens rígidas. O método de SVM utilizado nesse trabalho é baseado em um algoritmo que além de maximizar a margem de separação entre as classes e o hiperplano, possui variáveis de folga que possibilitam a separação de classes não - linearmente separáveis, ou seja, podem existir erros de classificação durante o processo de treinamento.

44 33 Para permitir a inseparabilidade, são introduzidas variáveis de folga não negativas em (3.6), garantindo a existência de solução viável. (3.27) Para uma amostra de treinamento, se ( na figura 7), não temos a máximo margem, mas ainda estão corretamente classificados. Mas se ( na figura 7) as amostras são classificados erroneamente pelo hiperplano. Uma vez que as variáveis de folga não podem assumir valores negativos e sempre que assumirem valores maiores que 1 implica em erro, temos um objetivo formado, encontrar um hiperplano que minimize. Hiperplano ótimo Margem máxima Figura 06 Caso de dados inseparáveis no espaço bidimensional. Sendo assim, o modelo de otimização primal para o hiperplano ótimo de separação pode ser construído da seguinte maneira[37]:

45 34 (3.30) (3.31) (3.32) Onde e C é uma constante, chamada de constante de regularização, que é usada para controlar o peso dado ao termo referente aos erros de classificação na função objetivo. A constante C também pode ser entendida como o trade-off entre a maximização da margem e a minimização dos erros de classificação. Similarmente ao caso linearmente separável, podemos representar (3.30) através da sua correspondente função Lagrangena, como: (3.33) Onde e são não negativos. Para a solução ótima, as seguintes condições de KKT são satisfeitas:, (3.34), (3.35), (3.36) (3.37)

46 35 (3.38) (3.39) Usando (3.33), podemos reduzir (3.24) a (3.36), respectivamente para: (3.40) (3.41). (3.42) Assim, substituindo (3.40) a (3.42) em (3.33), obteremos a respectiva formulação dual do problema P3: (3.43) (3.44) (3.45) A única diferença entre a formulação do problema P4 (soft- margin) para o problema P2 (hard- margin) é que não pode exceder a constante de regularização C. De acordo com (3.37), (3.38) e (3.42), existem três casos para : 1., então, implicando na classificação correta de. 2., então e. Implicando em e é um vetor suporte conhecido como vetor suporte ilimitado.

47 36 3., então e. Assim, é um vetor suporte conhecido como vetor suporte limitado. Se, é corretamente classificado,, é classificado incorretamente. A função de decisão é a mesma para o caso de SVM com hard-margin e é dada por: (3.46) Onde S é o conjunto de índices associados aos vetores suporte. Pelo fato dos associados aos vetores suporte serem não nulos, o somatório em (3.46) é feito somente para os que são vetores suporte. Então para os ilimitados, (3.47) é satisfeita. Para garantir a precisão dos cálculos, tomamos a média de b que é calculada em relação aos vetores suporte ilimitados,, (3.48) onde U é o conjunto de índices associados aos vetores suporte ilimitados. Assim, uma amostra desconhecida é classificada como: { (3.49)

48 37 Se, está no limite, portanto é inclassificável. Quando não existem vetores suporte limitados, a região é uma região de generalização, que é a mesma para o caso de SVM com hard-margin Cálculo da probabilidade de default Para converter a resposta da SVM em probabilidade, optou-se em utilizar o teorema de Bayes, uma vez que nesse trabalho foi assumido que os erros de classificação têm a mesma importância. Ou seja, classificar uma empresa concordatária como sendo não concordatária é tão ruim quanto classificar uma empresa não concordatária como sendo concordatária. O teorema de Bayes está descrito logo abaixo. Sejam os eventos: C i : A empresa pertence a classe i (i = 1, 2) R j : A nova observação encontra-se na região j (j = 1, 2,..., R) A fórmula de Bayes e dada por, [ ] (3.50) onde, [ ]. (3.51)

49 38 4 Aplicações do modelo Nesse capítulo apresentaremos dois casos exemplos da aplicação do modelo de SVM proposto. Para melhores resultados, as empresas foram divididas em grupos (industrial e comercial) e o histórico foi restrito aos últimos 10 anos, já que um passado distante pode não representar o presente de forma precisa. Cada grupo foi dividido em amostra de treinamento e amostra de validação (ou teste). Para cada grupo, através do modelo de SVM com soft-margin, construímos a fronteira entre concordata e não concordata e em seguida estimamos a probabilidade de default através do Teorema de Bayes. Todos os dados utilizados nas aplicações foram obtidos através dos relatórios de demonstrações financeiras que se encontram na base de dados da Comissão de Valores Mobiliários (CVM). 4.1 Seleção das variáveis de entrada para a SVM A base para a construção da região de solvência, ou seja, a região na qual as empresas são consideradas não concordatárias é a escolha do conjunto gerador do espaço de vetores. Por um lado, pode ser intuitivo que quanto mais informação disponível melhor, porém uma região complexa pode levar a problemas super

50 39 determinados. Excesso de dados pode ser tão fatal quanto a falta deles para a adequação do modelo. Nesse trabalho o conjunto de dados que foi utilizado inicialmente foi baseado nos principais índices citados em Silva [26] que representam a saúde financeira de uma empresa. No caso de empresas comerciais o conjunto de indicadores utilizado foi: Retorno sobre o ativo (Roa) = lucro líquido / ativo total médio Retorno sobre o patrimônio líquido (Roe) = lucro líquido /patrimônio líquido médio Margem líquida = lucro líquido / receita líquida Liquidez corrente = ativo circulante / passivo circulante Liquidez seca = (ativo circulante estoques) / passivo circulante Capital giro = (patrimônio líquido ativo permanente) / patrimônio líquido (reservas + lucros suspensos) / ativo total (variação do imobilizado) / (lucro líquido + 0,1 x imobilizado médio saldo da correção monetária + exigível a longo prazo) disponível / ativo total (ativo circulante - disponível - passivo circulante +fic* + duplicatas descontadas) / vendas *fic =Financiamentos instituições de crédito (lucro operacional + despesas financeiras) / (ativo total médio investimento médio) lucro operacional / lucro bruto (patrimônio líquido / capital de terceiros) / (margem bruta / ciclo financeiro) disponível / ativo permanente duplicatas a receber x 360 / vendas (ativo total médio salários, tributos e correções médios) / patrimônio líquido médio

51 40 Para empresas industriais, o conjunto foi: Retorno sobre o ativo (Roa) = lucro líquido / ativo total médio Retorno sobre o patrimônio líquido (Roe) = lucro líquido /patrimônio líquido médio Margem líquida = lucro líquido / receita líquida Liquidez corrente = ativo circulante / passivo circulante Liquidez seca = (ativo circulante estoques) / passivo circulante Capital de giro = (patrimônio líquido ativo permanente) / patrimônio líquido Estoques / custo do produto vendido Fornecedores / vendas (estoque médio / custo dos produtos vendidos) x 360 (passivo circulante + exigível a longo prazo) / ativo total (variação do imobilizado) / (lucro líquido + 0,1 x imobilizado médio saldo da correção monetária + exigível a longo prazo) Fornecedores / ativo total (lucro operacional + despesas financeira) / (ativo total médio investimentos médios) Capital de terceiros / (lucro líquido + 0,1 x imobilizado médio saldo da correção monetária) Estoques / ativo total A seleção das variáveis de entrada para o algoritmo de SVM foi feita de forma que a região de solvência fosse bidimensional, combinando as vantagens da precisão, eficiência e uma visualização simples onde o tomador de decisão pode, por inspeção, avaliar um parceiro e, além disso, comparar diferentes parceiros candidatos a compor o portfólio.

52 41 Antes de apresentar as variáveis selecionadas ao modelo, foi feita uma normalização no vetor de amostras utilizando a seguinte expressão: ( ) (3.52) Onde, é a variável normalizada, é o j-ésimo elemento da variável original e e são, respectivamente, a média e o desvio padrão da variável original. 4.2 Empresas comerciais Para este caso só estão sendo avaliadas empresas do setor comercial. A amostra é composta de 32 empresas sendo 16 delas usadas para a fase de treinamento do modelo e 16 para a validação. A escolha das variáveis de entrada foi baseada na combinação que resultou na melhor regra de classificação usando duas variáveis. Depois de alguns experimentos, chegamos a uma região de solvência simples e eficiente de duas dimensões definida por: Retorno sobre o Ativo (ROA) e liquidez corrente. O ROA mede a eficiência do emprego dos recursos da empresa e a liquidez corrente avalia quando uma empresa está em dificuldades financeira, uma vez que empresas com dificuldades o seu passivo tende a se elevar mais rapidamente do que os seus ativos, consequentemente sua liquidez será menor. Retorno sobre o Ativo (ROA) = Liquidez Corrente =

53 42 As empresas comerciais selecionadas para compor a amostra de treinamento encontram-se na tabela abaixo. Nessa tabela podemos também visualizar a situação financeira de cada empresa. Tabela 1 Empresas comerciais para treinamento Empresas Ambev Buettner Casa Anglo Brasileira Casa Jose Silva Chapeco Cia Paulista Cosan Drogasil Energias BR Klabin Saraiva SPSCS Tam Teka Usiminas Varig Condição real Não Concordatária Não Concordatária Concordatária Concordatária Concordatária Concordatária Não Concordatária Não Concordatária Não Concordatária Não Concordatária Não Concordatária Concordatária Não Concordatária Não Concordatária Não Concordatária Concordatária A figura 7 mostra o posicionamento das empresas do grupo de treinamento no espaço de variáveis assim como o hiperplano ótimo de separação e os vetores suporte. Os asteriscos vermelhos representam as empresas concordatárias e os asteriscos azuis representam as empresas não concordatárias. As siglas CO e NC representam, respectivamente, as regiões de concordata e não concordata e R 1, R 2, R 3 e R 4 são as subregiões que serão utilizadas na estimação da probabilidade de default.

54 43 Figura 7 Visualização das empresas comerciais para treinamento. Depois de encontrado o hiperplano ótimo de separação e os vetores suporte, estimamos a probabilidade de default. A figura 8 mostra a probabilidade de ocorrência de default em cada região R j (j=1,2,3,4). Figura 8 Visualização da probabilidade de default por região para empresas comerciais

55 44 De posse dessas probabilidades, podemos agora encontrar a probabilidade de default associado a cada nova empresa apresentada ao modelo da seguinte forma: Se o posicionamento da empresa estivar na região R 1, sua probabilidade de concordata será de 100%, se estiver em R 2, será de 67%, em R 3 será de 50% e em R 4 terá sua probabilidade de default nula. A figura 09 mostra o posicionamento das empresas do grupo de validação no espaço de variáveis. As bolas vermelhas representam as empresas concordatárias e as bolas azuis representam as empresas não concordatárias. Figura 9 Visualização das empresas comerciais de teste. A tabela 2 mostra as probabilidades associadas a cada empresa do grupo de teste assim como sua real situação financeira.

56 45 Tabela 2 Empresas comercias de teste Empresas Condição Real Probabilidade de Default obtida Arapua Concordatária 100% Bombril Não concordatária 0,00% Ceb Não concordatária 50,00% Coest Concordatária 50,00% Copas Concordatária 67% Elebra Concordatária 67% Fazendas Reunidas Boi Gordo Concordatária 100,00% Gafisa Não concordatária 0,00% Hoteis Othon Não concordatária 50,00% Iguatemi Não concordatária 0,00% Le Lis Blanc Não concordatária 0,00% Natura Não concordatária 0,00% Petrobras Não concordatária 0,00% Tractebel Não concordatária 0,00% Transbrasil Concordatária 67% Trevisa Não concordatária 50,00% Podemos observar que o modelo conseguiu uma boa estimativa da probabilidade de default para as empresas comerciais de teste. 4.3 Empresas industriais Agora iremos avaliar apenas empresas do setor industrial. A amostra é composta de 22 empresas sendo 18 delas usadas para a fase de treinamento do modelo e 04 para a validação. Assim como no caso de empresas comerciais, a escolha das variáveis de entrada foi baseada na combinação que resultou na melhor regra de classificação usando duas variáveis. Depois de alguns experimentos, chegamos as mesmas variáveis que formam a região de solvência para o casa de empresas comerciais: Retorno sobre o Ativo (ROA) e Liquidez corrente.

57 46 As empresas industriais selecionadas para compor a amostra de treinamento encontram-se na tabela abaixo. Nessa tabela podemos também visualizar a situação financeira de cada empresa. Tabela 3 Empresas industriais para treinamento Empresas Braskem Brasperola CSN Cia Itaunense Eucatex Fertilizantes Heringer Grendene Haga Kalil Sehbe MMX Metalfrio Sadia Sansuy Schulz Hypermarcas Recrusul VASP Wetzel Condição real Não concordatária Concordatária Não concordatária Concordatária Concordatária Concordatária Não concordatária Concordatária Concordatária Concordatária Não concordatária Concordatária Concordatária Não concordatária Não concordatária Concordatária Concordatária Não concordatária A figura 10 mostra o posicionamento das empresas industriais do grupo de treinamento no espaço de variáveis assim como o hiperplano ótimo de separação e os vetores suporte. Os asteriscos vermelhos representam as empresas concordatárias e os asteriscos azuis representam as empresas não concordatárias. As siglas CO e NC representam, respectivamente, as regiões de concordata e não concordata. As subregiões R 1, R 2, R 3 e R 4, que serão utilizadas na estimação da probabilidade de default, estão na mesma disposição para o caso das empresas comerciais.

58 47 Figura 10 Visualização das empresas industriais para treinamento. Depois de encontrado o hiperplano ótimo de separação e os vetores suporte, estimamos a probabilidade de default. A figura 11 mostra a probabilidade de ocorrência de default em cada região R j (j=1,2,3,4). R 4 0% R 1 100% R 3 50% R 2 50% Figura 11 Visualização da probabilidade de default por região para empresas industriais

59 48 De posse dessas probabilidades, podemos agora encontrar a probabilidade de default associado a cada nova empresa apresentada ao modelo da seguinte forma: Se o posicionamento da empresa estivar na região R 1, sua probabilidade de concordata será de 100%, se estiver em R 2, será de 50%, em R 3 será de 50% e em R 4 terá sua probabilidade de default nula. A figura 12 mostra o posicionamento das empresas do grupo de validação no espaço de variáveis. As bolas vermelhas representam as empresas concordatárias e as bolas azuis representam as empresas não concordatárias. Figura 12 Visualização das empresas industriais de teste. A tabela 4 mostra as probabilidades associadas a cada empresa do grupo de teste assim como sua real situação financeira. Tabela 4 Empresas industriais de teste Empresas Condição Real Probabilidade de Default obtida Metal leve Não Concordatária 0% Sharp Concordatária 100% Tectoy Concordatária 100% Vale Não Concordatária 0%

O QUE É E COMO FUNCIONA O CREDIT SCORING PARTE I

O QUE É E COMO FUNCIONA O CREDIT SCORING PARTE I O QUE É E COMO FUNCIONA O CREDIT SCORING PARTE I! A utilização de escores na avaliação de crédito! Como montar um plano de amostragem para o credit scoring?! Como escolher as variáveis no modelo de credit

Leia mais

INDICADORES FINANCEIROS NA TOMADA DE DECISÕES GERENCIAIS

INDICADORES FINANCEIROS NA TOMADA DE DECISÕES GERENCIAIS INDICADORES FINANCEIROS NA TOMADA DE DECISÕES GERENCIAIS ANA BEATRIZ DALRI BRIOSO¹, DAYANE GRAZIELE FANELLI¹, GRAZIELA BALDASSO¹, LAURIANE CARDOSO DA SILVA¹, JULIANO VARANDAS GROPPO². 1 Alunos do 8º semestre

Leia mais

GASTAR MAIS COM A LOGÍSTICA PODE SIGNIFICAR, TAMBÉM, AUMENTO DE LUCRO

GASTAR MAIS COM A LOGÍSTICA PODE SIGNIFICAR, TAMBÉM, AUMENTO DE LUCRO GASTAR MAIS COM A LOGÍSTICA PODE SIGNIFICAR, TAMBÉM, AUMENTO DE LUCRO PAULO ROBERTO GUEDES (Maio de 2015) É comum o entendimento de que os gastos logísticos vêm aumentando em todo o mundo. Estatísticas

Leia mais

APLICAÇÕES DA DERIVADA

APLICAÇÕES DA DERIVADA Notas de Aula: Aplicações das Derivadas APLICAÇÕES DA DERIVADA Vimos, na seção anterior, que a derivada de uma função pode ser interpretada como o coeficiente angular da reta tangente ao seu gráfico. Nesta,

Leia mais

Unidade I FINANÇAS EM PROJETOS DE TI. Prof. Fernando Rodrigues

Unidade I FINANÇAS EM PROJETOS DE TI. Prof. Fernando Rodrigues Unidade I FINANÇAS EM PROJETOS DE TI Prof. Fernando Rodrigues Nas empresas atuais, a Tecnologia de Informação (TI) existe como uma ferramenta utilizada pelas organizações para atingirem seus objetivos.

Leia mais

TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE

TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE Engenharia de Computação Professor: Rosalvo Ferreira de Oliveira Neto Estudos Comparativos Recentes - Behavior Scoring Roteiro Objetivo Critérios de Avaliação

Leia mais

Uma análise econômica do seguro-saúde Francisco Galiza Outubro/2005 www.ratingdeseguros.com.br

Uma análise econômica do seguro-saúde Francisco Galiza Outubro/2005 www.ratingdeseguros.com.br Uma análise econômica do seguro-saúde Francisco Galiza Outubro/2005 www.ratingdeseguros.com.br Um dos ramos mais importantes do mercado segurador brasileiro é o de saúde. Surgido sobretudo com uma opção

Leia mais

4 Segmentação. 4.1. Algoritmo proposto

4 Segmentação. 4.1. Algoritmo proposto 4 Segmentação Este capítulo apresenta primeiramente o algoritmo proposto para a segmentação do áudio em detalhes. Em seguida, são analisadas as inovações apresentadas. É importante mencionar que as mudanças

Leia mais

PERGUNTAS MAIS FREQÜENTES SOBRE VALOR PRESENTE LÍQUIDO (VPL)

PERGUNTAS MAIS FREQÜENTES SOBRE VALOR PRESENTE LÍQUIDO (VPL) PERGUNTAS MAIS FREQÜENTES SOBRE VALOR PRESENTE LÍQUIDO (VPL) Melhor método para avaliar investimentos 16 perguntas importantes 16 respostas que todos os executivos devem saber Francisco Cavalcante(f_c_a@uol.com.br)

Leia mais

Exemplo de Aplicação do DataMinig

Exemplo de Aplicação do DataMinig Exemplo de Aplicação do DataMinig Felipe E. Barletta Mendes 19 de fevereiro de 2008 INTRODUÇÃO AO DATA MINING A mineração de dados (Data Mining) está inserida em um processo maior denominado Descoberta

Leia mais

ANÁLISE DOS RESULTADOS DOS PROGRAMAS DE APOIO ÀS PMEs NO BRASIL Resumo Executivo PARA BAIXAR A AVALIAÇÃO COMPLETA: WWW.IADB.

ANÁLISE DOS RESULTADOS DOS PROGRAMAS DE APOIO ÀS PMEs NO BRASIL Resumo Executivo PARA BAIXAR A AVALIAÇÃO COMPLETA: WWW.IADB. ANÁLISE DOS RESULTADOS DOS PROGRAMAS DE APOIO ÀS PMEs NO BRASIL Resumo Executivo PARA BAIXAR A AVALIAÇÃO COMPLETA: WWW.IADB.ORG/EVALUATION ANÁLISE DOS RESULTADOS DOS PROGRAMAS DE APOIO ÀS PMEs NO BRASIL

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Professor: Rosalvo Ferreira de Oliveira Neto Disciplina: Inteligência Artificial Tópicos 1. Definições 2. Tipos de aprendizagem 3. Paradigmas de aprendizagem 4. Modos de aprendizagem

Leia mais

Construção de Modelos de Previsão de Risco de Crédito Utilizando Técnicas de Estatística Multivariada

Construção de Modelos de Previsão de Risco de Crédito Utilizando Técnicas de Estatística Multivariada MINISTÉRIO DA EDUCAÇÃO UNIVERSIDADE FEDERAL DE PELOTAS PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO Construção de Modelos de Previsão de Risco de Crédito Utilizando Técnicas de Estatística Multivariada Equipe

Leia mais

MINERAÇÃO DE DADOS APLICADA. Pedro Henrique Bragioni Las Casas pedro.lascasas@dcc.ufmg.br

MINERAÇÃO DE DADOS APLICADA. Pedro Henrique Bragioni Las Casas pedro.lascasas@dcc.ufmg.br MINERAÇÃO DE DADOS APLICADA Pedro Henrique Bragioni Las Casas pedro.lascasas@dcc.ufmg.br Processo Weka uma Ferramenta Livre para Data Mining O que é Weka? Weka é um Software livre do tipo open source para

Leia mais

ADM041 / EPR806 Sistemas de Informação

ADM041 / EPR806 Sistemas de Informação ADM041 / EPR806 Sistemas de Informação UNIFEI Universidade Federal de Itajubá Prof. Dr. Alexandre Ferreira de Pinho 1 Sistemas de Apoio à Decisão (SAD) Tipos de SAD Orientados por modelos: Criação de diferentes

Leia mais

ANÁLISE DE DEMONSTRAÇÕES FINANCEIRAS

ANÁLISE DE DEMONSTRAÇÕES FINANCEIRAS Unidade II ANÁLISE DE DEMONSTRAÇÕES FINANCEIRAS Prof. Jean Cavaleiro Introdução Essa unidade tem como objetivo conhecer a padronização das demonstrações contábeis. Conhecer os Índices Padrões para análise;

Leia mais

DESENVOLVIMENTO DE UM SOFTWARE NA LINGUAGEM R PARA CÁLCULO DE TAMANHOS DE AMOSTRAS NA ÁREA DE SAÚDE

DESENVOLVIMENTO DE UM SOFTWARE NA LINGUAGEM R PARA CÁLCULO DE TAMANHOS DE AMOSTRAS NA ÁREA DE SAÚDE DESENVOLVIMENTO DE UM SOFTWARE NA LINGUAGEM R PARA CÁLCULO DE TAMANHOS DE AMOSTRAS NA ÁREA DE SAÚDE Mariane Alves Gomes da Silva Eliana Zandonade 1. INTRODUÇÃO Um aspecto fundamental de um levantamento

Leia mais

4 Avaliação Econômica

4 Avaliação Econômica 4 Avaliação Econômica Este capítulo tem o objetivo de descrever a segunda etapa da metodologia, correspondente a avaliação econômica das entidades de reservas. A avaliação econômica é realizada a partir

Leia mais

Unidade IV INTERPRETAÇÃO DAS. Prof. Walter Dominas

Unidade IV INTERPRETAÇÃO DAS. Prof. Walter Dominas Unidade IV INTERPRETAÇÃO DAS DEMONSTRAÇÕES CONTÁBEIS Prof. Walter Dominas Conteúdo programático Unidade I Avaliação de Empresas Metodologias Simples Unidade II Avaliação de Empresas - Metodologias Complexas

Leia mais

CAPITAL DE GIRO: ESSÊNCIA DA VIDA EMPRESARIAL

CAPITAL DE GIRO: ESSÊNCIA DA VIDA EMPRESARIAL CAPITAL DE GIRO: ESSÊNCIA DA VIDA EMPRESARIAL Renara Tavares da Silva* RESUMO: Trata-se de maneira ampla da vitalidade da empresa fazer referência ao Capital de Giro, pois é através deste que a mesma pode

Leia mais

Administração Financeira

Administração Financeira Administração Financeira MÓDULO 9 O crédito divide-se em dois tipos da forma mais ampla: o crédito público e o crédito privado. O crédito público trata das relações entre entidades públicas governo federal,

Leia mais

ADMINISTRAÇÃO FINANCEIRA ORÇAMENTÁRIA

ADMINISTRAÇÃO FINANCEIRA ORÇAMENTÁRIA ADMINISTRAÇÃO FINANCEIRA ORÇAMENTÁRIA AULA 04: ADMINISTRAÇÃO FINANCEIRA DE CURTO PRAZO TÓPICO 05: ADMINISTRAÇÃO DO DISPONÍVEL VERSÃO TEXTUAL Numa situação ideal, em que uma empresa tem um controle total

Leia mais

APSP. Análise do Projeto do Sistema Produtivo. Aula 7. 22/8/2006 Por: Lucia Balsemão Furtado 1

APSP. Análise do Projeto do Sistema Produtivo. Aula 7. 22/8/2006 Por: Lucia Balsemão Furtado 1 APSP Análise do Projeto do Sistema Produtivo Aula 7 Por: Lucia Balsemão Furtado 1 Análise da Viabilidade Econômica O que é Economia? É a ciência que se preocupa em administrar escassos recursos disponíveis

Leia mais

PESQUISA OPERACIONAL: UMA ABORDAGEM À PROGRAMAÇÃO LINEAR. Rodolfo Cavalcante Pinheiro 1,3 Cleber Giugioli Carrasco 2,3 *

PESQUISA OPERACIONAL: UMA ABORDAGEM À PROGRAMAÇÃO LINEAR. Rodolfo Cavalcante Pinheiro 1,3 Cleber Giugioli Carrasco 2,3 * PESQUISA OPERACIONAL: UMA ABORDAGEM À PROGRAMAÇÃO LINEAR 1 Graduando Rodolfo Cavalcante Pinheiro 1,3 Cleber Giugioli Carrasco 2,3 * 2 Pesquisador - Orientador 3 Curso de Matemática, Unidade Universitária

Leia mais

MRP II. Planejamento e Controle da Produção 3 professor Muris Lage Junior

MRP II. Planejamento e Controle da Produção 3 professor Muris Lage Junior MRP II Introdução A lógica de cálculo das necessidades é conhecida há muito tempo Porém só pode ser utilizada na prática em situações mais complexas a partir dos anos 60 A partir de meados da década de

Leia mais

a 1 x 1 +... + a n x n = b,

a 1 x 1 +... + a n x n = b, Sistemas Lineares Equações Lineares Vários problemas nas áreas científica, tecnológica e econômica são modelados por sistemas de equações lineares e requerem a solução destes no menor tempo possível Definição

Leia mais

FATEC Cruzeiro José da Silva. Ferramenta CRM como estratégia de negócios

FATEC Cruzeiro José da Silva. Ferramenta CRM como estratégia de negócios FATEC Cruzeiro José da Silva Ferramenta CRM como estratégia de negócios Cruzeiro SP 2008 FATEC Cruzeiro José da Silva Ferramenta CRM como estratégia de negócios Projeto de trabalho de formatura como requisito

Leia mais

POLÍTICA DE INVESTIMENTOS

POLÍTICA DE INVESTIMENTOS POLÍTICA DE INVESTIMENTOS Segurança nos investimentos Gestão dos recursos financeiros Equilíbrio dos planos a escolha ÍNDICE INTRODUÇÃO...3 A POLÍTICA DE INVESTIMENTOS...4 SEGMENTOS DE APLICAÇÃO...7 CONTROLE

Leia mais

Teoria da Decisão MÉTODOS QUANTITATIVOS DE GESTÃO

Teoria da Decisão MÉTODOS QUANTITATIVOS DE GESTÃO Teoria da Decisão MÉTODOS QUANTITATIVOS DE GESTÃO INTRODUÇÃO Todo problema de decisão envolve julgamento sobre um conjunto conhecido de alternativas; Informações Disponíveis (Dados) Conhecidos com certeza;

Leia mais

Disciplina: Suprimentos e Logística II 2014-02 Professor: Roberto Cézar Datrino Atividade 3: Transportes e Armazenagem

Disciplina: Suprimentos e Logística II 2014-02 Professor: Roberto Cézar Datrino Atividade 3: Transportes e Armazenagem Disciplina: Suprimentos e Logística II 2014-02 Professor: Roberto Cézar Datrino Atividade 3: Transportes e Armazenagem Caros alunos, Essa terceira atividade da nossa disciplina de Suprimentos e Logística

Leia mais

CAP. 4b INFLUÊNCIA DO IMPOSTO DE RENDA

CAP. 4b INFLUÊNCIA DO IMPOSTO DE RENDA CAP. b INFLUÊNCIA DO IMPOSTO DE RENDA A influência do Imposto de renda Do ponto de vista de um indivíduo ou de uma empresa, o que realmente importa, quando de uma Análise de investimentos, é o que se ganha

Leia mais

Exercícios Teóricos Resolvidos

Exercícios Teóricos Resolvidos Universidade Federal de Minas Gerais Instituto de Ciências Exatas Departamento de Matemática Exercícios Teóricos Resolvidos O propósito deste texto é tentar mostrar aos alunos várias maneiras de raciocinar

Leia mais

4 passos para uma Gestão Financeira Eficiente

4 passos para uma Gestão Financeira Eficiente 4 passos para uma Gestão Financeira Eficiente Saiba como melhorar a gestão financeira da sua empresa e manter o fluxo de caixa sob controle Ciclo Financeiro Introdução Uma boa gestão financeira é um dos

Leia mais

Prof. Cleber Oliveira Gestão Financeira

Prof. Cleber Oliveira Gestão Financeira Aula 2 Gestão de Fluxo de Caixa Introdução Ao estudarmos este capítulo, teremos que nos transportar aos conceitos de contabilidade geral sobre as principais contas contábeis, tais como: contas do ativo

Leia mais

REDUZINDO AS QUEBRAS ATRAVÉS DA MANUTENÇÃO PROFISSIONAL

REDUZINDO AS QUEBRAS ATRAVÉS DA MANUTENÇÃO PROFISSIONAL REDUZINDO AS QUEBRAS ATRAVÉS DA MANUTENÇÃO PROFISSIONAL Luiz Rodrigo Carvalho de Souza (1) RESUMO O alto nível de competitividade exige que as empresas alcancem um nível de excelência na gestão de seus

Leia mais

Notas de aula número 1: Otimização *

Notas de aula número 1: Otimização * UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL UFRGS DEPARTAMENTO DE ECONOMIA CURSO DE CIÊNCIAS ECONÔMICAS DISCIPLINA: TEORIA MICROECONÔMICA II Primeiro Semestre/2001 Professor: Sabino da Silva Porto Júnior

Leia mais

Metodologias de Desenvolvimento de Sistemas. Analise de Sistemas I UNIPAC Rodrigo Videschi

Metodologias de Desenvolvimento de Sistemas. Analise de Sistemas I UNIPAC Rodrigo Videschi Metodologias de Desenvolvimento de Sistemas Analise de Sistemas I UNIPAC Rodrigo Videschi Histórico Uso de Metodologias Histórico Uso de Metodologias Era da Pré-Metodologia 1960-1970 Era da Metodologia

Leia mais

x0 = 1 x n = 3x n 1 x k x k 1 Quantas são as sequências com n letras, cada uma igual a a, b ou c, de modo que não há duas letras a seguidas?

x0 = 1 x n = 3x n 1 x k x k 1 Quantas são as sequências com n letras, cada uma igual a a, b ou c, de modo que não há duas letras a seguidas? Recorrências Muitas vezes não é possível resolver problemas de contagem diretamente combinando os princípios aditivo e multiplicativo. Para resolver esses problemas recorremos a outros recursos: as recursões

Leia mais

Projeto Supervisionado

Projeto Supervisionado Projeto Supervisionado Caio Almasan de Moura ra: 095620 Indice 1. Introdução 2. Principal Projeto: Modelo de Score 2.1. Objetivo... pg 3 2.2. Agentes Envolvidos... pg 3 2.3. Contextualização... pg 3 2.4.

Leia mais

SAD orientado a MODELO

SAD orientado a MODELO Universidade do Contestado Campus Concórdia Curso de Sistemas de Informação Prof.: Maico Petry SAD orientado a MODELO DISCIPLINA: Sistemas de Apoio a Decisão SAD Orientado a Modelo De acordo com ALTER

Leia mais

CAIXA ECONOMICA FEDERAL

CAIXA ECONOMICA FEDERAL JUROS SIMPLES Juros Simples comercial é uma modalidade de juro calculado em relação ao capital inicial, neste modelo de capitalização, os juros de todos os períodos serão sempre iguais, pois eles serão

Leia mais

As fases na resolução de um problema real podem, de modo geral, ser colocadas na seguinte ordem:

As fases na resolução de um problema real podem, de modo geral, ser colocadas na seguinte ordem: 1 As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia e não têm a intenção de substituir o livro-texto, nem qualquer outra bibliografia. Introdução O Cálculo Numérico

Leia mais

Auditor Federal de Controle Externo/TCU - 2015

Auditor Federal de Controle Externo/TCU - 2015 - 2015 Prova de Análise das Demonstrações Comentada Pessoal, a seguir comentamos as questões de Análise das Demonstrações Contábeis aplicada na prova do TCU para Auditor de Controle Externo (2015). Foi

Leia mais

dissertação. 2 Credibilidade total, em linhas gerais, seria a capacidade de representar o comportamento

dissertação. 2 Credibilidade total, em linhas gerais, seria a capacidade de representar o comportamento 13 1 Introdução Esta dissertação é o estudo de um problema estatístico de classificação que diz respeito à precificação de seguros de automóveis. Devido às particularidades deste ramo, a formação dos contratos,

Leia mais

computador-cálculo numérico perfeita. As fases na resolução de um problema real podem, de modo geral, ser colocadas na seguinte ordem:

computador-cálculo numérico perfeita. As fases na resolução de um problema real podem, de modo geral, ser colocadas na seguinte ordem: 1 UNIVERSIDADE FEDERAL DE VIÇOSA Departamento de Matemática - CCE Cálculo Numérico - MAT 271 Prof.: Valéria Mattos da Rosa As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia

Leia mais

Gestão do Conhecimento A Chave para o Sucesso Empresarial. José Renato Sátiro Santiago Jr.

Gestão do Conhecimento A Chave para o Sucesso Empresarial. José Renato Sátiro Santiago Jr. A Chave para o Sucesso Empresarial José Renato Sátiro Santiago Jr. Capítulo 1 O Novo Cenário Corporativo O cenário organizacional, sem dúvida alguma, sofreu muitas alterações nos últimos anos. Estas mudanças

Leia mais

6 Construção de Cenários

6 Construção de Cenários 6 Construção de Cenários Neste capítulo será mostrada a metodologia utilizada para mensuração dos parâmetros estocásticos (ou incertos) e construção dos cenários com respectivas probabilidades de ocorrência.

Leia mais

Podemos encontrar uma figura interessante no PMBOK (Capítulo 7) sobre a necessidade de organizarmos o fluxo de caixa em um projeto.

Podemos encontrar uma figura interessante no PMBOK (Capítulo 7) sobre a necessidade de organizarmos o fluxo de caixa em um projeto. Discussão sobre Nivelamento Baseado em Fluxo de Caixa. Item aberto na lista E-Plan Podemos encontrar uma figura interessante no PMBOK (Capítulo 7) sobre a necessidade de organizarmos o fluxo de caixa em

Leia mais

OFÍCIO-CIRCULAR/CVM/SIN/SNC/ Nº 01/2012. Rio de Janeiro, 04 de dezembro de 2012

OFÍCIO-CIRCULAR/CVM/SIN/SNC/ Nº 01/2012. Rio de Janeiro, 04 de dezembro de 2012 OFÍCIO-CIRCULAR/CVM/SIN/SNC/ Nº 01/2012 Rio de Janeiro, 04 de dezembro de 2012 Assunto: Orientação sobre os deveres e responsabilidades dos administradores e dos auditores independentes, na elaboração

Leia mais

Capítulo 3. Avaliação de Desempenho. 3.1 Definição de Desempenho

Capítulo 3. Avaliação de Desempenho. 3.1 Definição de Desempenho 20 Capítulo 3 Avaliação de Desempenho Este capítulo aborda como medir, informar e documentar aspectos relativos ao desempenho de um computador. Além disso, descreve os principais fatores que influenciam

Leia mais

6 Conclusões e Trabalhos futuros 6.1. Conclusões

6 Conclusões e Trabalhos futuros 6.1. Conclusões 6 Conclusões e Trabalhos futuros 6.1. Conclusões Neste trabalho estudou-se o comportamento do sistema que foi denominado pendulo planar com a adição de uma roda de reação na haste do pendulo composta de

Leia mais

Crédito. Adm. Geral. Para que Estudar Análise de Investimento e Financiamento? Título da aula: Decisões de Investimento e Financiamento I

Crédito. Adm. Geral. Para que Estudar Análise de Investimento e Financiamento? Título da aula: Decisões de Investimento e Financiamento I Adm. Geral Prof. Marcelo dos Santos Título da aula: Decisões de Investimento e Financiamento I Para que Estudar Análise de Investimento e Financiamento? Garantir melhores decisões financeiras na empresa;

Leia mais

Princípios de Finanças

Princípios de Finanças Princípios de Finanças Apostila 02 A função da Administração Financeira Professora: Djessica Karoline Matte 1 SUMÁRIO A função da Administração Financeira... 3 1. A Administração Financeira... 3 2. A função

Leia mais

A Projeção de Investimento em Capital de Giro na Estimação do Fluxo de Caixa

A Projeção de Investimento em Capital de Giro na Estimação do Fluxo de Caixa A Projeção de Investimento em Capital de Giro! Dimensionamento dos Estoques! Outras Contas do Capital de Giro Francisco Cavalcante (francisco@fcavalcante.com.br) Sócio-Diretor da Cavalcante Associados,

Leia mais

Relatório da ListEx02 Aplicação da Heurística do objetivo na definição das propostas do meu aplicativo de banco de dados e dissertação de mestrado

Relatório da ListEx02 Aplicação da Heurística do objetivo na definição das propostas do meu aplicativo de banco de dados e dissertação de mestrado ITA Instituto Tecnológico da Aeronáutica IEC Divisão de Ciência da Computação Pós-Graduação em Engenharia Eletrônica e Computação Relatório da ListEx02 Aplicação da Heurística do objetivo na definição

Leia mais

CONCURSO PÚBLICO ANALISTA DE SISTEMA ÊNFASE GOVERNANÇA DE TI ANALISTA DE GESTÃO RESPOSTAS ESPERADAS PRELIMINARES

CONCURSO PÚBLICO ANALISTA DE SISTEMA ÊNFASE GOVERNANÇA DE TI ANALISTA DE GESTÃO RESPOSTAS ESPERADAS PRELIMINARES CELG DISTRIBUIÇÃO S.A EDITAL N. 1/2014 CONCURSO PÚBLICO ANALISTA DE GESTÃO ANALISTA DE SISTEMA ÊNFASE GOVERNANÇA DE TI RESPOSTAS ESPERADAS PRELIMINARES O Centro de Seleção da Universidade Federal de Goiás

Leia mais

Organizaçãoe Recuperaçãode Informação GSI521. Prof. Dr. Rodrigo Sanches Miani FACOM/UFU

Organizaçãoe Recuperaçãode Informação GSI521. Prof. Dr. Rodrigo Sanches Miani FACOM/UFU Organizaçãoe Recuperaçãode Informação GSI521 Prof. Dr. Rodrigo Sanches Miani FACOM/UFU Aula anterior Organização e Recuperação de Informação(GSI521) Modelo vetorial- Definição Para o modelo vetorial, o

Leia mais

Ponto de vista. Metodologia para um índice de confiança. E expectativas das seguradoras no Brasil

Ponto de vista. Metodologia para um índice de confiança. E expectativas das seguradoras no Brasil Ponto de vista 40 Metodologia para um índice de confiança E expectativas das seguradoras no Brasil Francisco Galiza Em 2012, no Brasil, algumas previsões econômicas não fizeram muito sucesso. Por exemplo,

Leia mais

ESTUDO DE VIABILIDADE. Santander, Victor - Unioeste Aula de Luiz Eduardo Guarino de Vasconcelos

ESTUDO DE VIABILIDADE. Santander, Victor - Unioeste Aula de Luiz Eduardo Guarino de Vasconcelos ESTUDO DE VIABILIDADE Santander, Victor - Unioeste Aula de Luiz Eduardo Guarino de Vasconcelos Objetivos O que é um estudo de viabilidade? O que estudar e concluir? Benefícios e custos Análise de Custo/Benefício

Leia mais

5 Conclusões e Recomendações

5 Conclusões e Recomendações 5 Conclusões e Recomendações 5.1 Conclusões O objetivo deste estudo foi utilizar a base de dados de clientes de uma empresa para desenvolver um modelo de regressão logística que determine o risco de cancelamento

Leia mais

Este capítulo é divido em duas seções, a primeira seção descreve a base de

Este capítulo é divido em duas seções, a primeira seção descreve a base de 30 3. Metodologia Este capítulo é divido em duas seções, a primeira seção descreve a base de dados utilizada, identificando a origem das fontes de informação, apresentando de forma detalhada as informações

Leia mais

MLP (Multi Layer Perceptron)

MLP (Multi Layer Perceptron) MLP (Multi Layer Perceptron) André Tavares da Silva andre.silva@udesc.br Roteiro Rede neural com mais de uma camada Codificação de entradas e saídas Decorar x generalizar Perceptron Multi-Camada (MLP -

Leia mais

O Plano Financeiro no Plano de Negócios Fabiano Marques

O Plano Financeiro no Plano de Negócios Fabiano Marques O Plano Financeiro no Plano de Negócios Fabiano Marques Seguindo a estrutura proposta em Dornelas (2005), apresentada a seguir, podemos montar um plano de negócios de forma eficaz. É importante frisar

Leia mais

O CONSELHO FEDERAL DE CONTABILIDADE, no exercício de suas atribuições legais e regimentais,

O CONSELHO FEDERAL DE CONTABILIDADE, no exercício de suas atribuições legais e regimentais, A Resolução CFC n.º 1.329/11 alterou a sigla e a numeração da NBC T 1 citada nesta Norma para NBC TG ESTRUTURA CONCEITUAL. RESOLUÇÃO CFC Nº. 1.213/09 Aprova a NBC TA 320 Materialidade no Planejamento e

Leia mais

Cálculo Numérico Aula 1: Computação numérica. Tipos de Erros. Aritmética de ponto flutuante

Cálculo Numérico Aula 1: Computação numérica. Tipos de Erros. Aritmética de ponto flutuante Cálculo Numérico Aula : Computação numérica. Tipos de Erros. Aritmética de ponto flutuante Computação Numérica - O que é Cálculo Numérico? Cálculo numérico é uma metodologia para resolver problemas matemáticos

Leia mais

COMO CALCULAR A PERFORMANCE DOS FUNDOS DE INVESTIMENTOS - PARTE II

COMO CALCULAR A PERFORMANCE DOS FUNDOS DE INVESTIMENTOS - PARTE II COMO CALCULAR A PERFORMANCE DOS FUNDOS DE INVESTIMENTOS - PARTE II O que é o Índice de Treynor? Índice de Treynor x Índice de Sharpe Restrições para as análises de Sharpe e Trynor A utilização do risco

Leia mais

Universidade Tecnológica Federal do Paraná UTFPR Programa de Pós-Graduação em Computação Aplicada Disciplina de Mineração de Dados

Universidade Tecnológica Federal do Paraná UTFPR Programa de Pós-Graduação em Computação Aplicada Disciplina de Mineração de Dados Universidade Tecnológica Federal do Paraná UTFPR Programa de Pós-Graduação em Computação Aplicada Disciplina de Mineração de Dados Prof. Celso Kaestner Poker Hand Data Set Aluno: Joyce Schaidt Versão:

Leia mais

UM CONCEITO FUNDAMENTAL: PATRIMÔNIO LÍQUIDO FINANCEIRO. Prof. Alvaro Guimarães de Oliveira Rio, 07/09/2014.

UM CONCEITO FUNDAMENTAL: PATRIMÔNIO LÍQUIDO FINANCEIRO. Prof. Alvaro Guimarães de Oliveira Rio, 07/09/2014. UM CONCEITO FUNDAMENTAL: PATRIMÔNIO LÍQUIDO FINANCEIRO Prof. Alvaro Guimarães de Oliveira Rio, 07/09/2014. Tanto as pessoas físicas quanto as jurídicas têm patrimônio, que nada mais é do que o conjunto

Leia mais

ANÁLISE ECONÔMICO FINANCEIRA DA EMPRESA BOMBRIL S.A.

ANÁLISE ECONÔMICO FINANCEIRA DA EMPRESA BOMBRIL S.A. Universidade Federal do Pará Centro: Sócio Econômico Curso: Ciências Contábeis Disciplina: Análise de Demonstrativos Contábeis II Professor: Héber Lavor Moreira Aluno: Roberto Lima Matrícula:05010001601

Leia mais

Gerenciamento de projetos. cynaracarvalho@yahoo.com.br

Gerenciamento de projetos. cynaracarvalho@yahoo.com.br Gerenciamento de projetos cynaracarvalho@yahoo.com.br Projeto 3URMHWR é um empreendimento não repetitivo, caracterizado por uma seqüência clara e lógica de eventos, com início, meio e fim, que se destina

Leia mais

Seção 2/E Monitoramento, Avaliação e Aprendizagem

Seção 2/E Monitoramento, Avaliação e Aprendizagem Seção 2/E Monitoramento, Avaliação e Aprendizagem www.bettercotton.org Orientação Text to go here O documento Monitoramento, Avaliação e Aprendizagem da BCI proporciona uma estrutura para medir as mudanças

Leia mais

Departamento de Matemática - UEL - 2010. Ulysses Sodré. http://www.mat.uel.br/matessencial/ Arquivo: minimaxi.tex - Londrina-PR, 29 de Junho de 2010.

Departamento de Matemática - UEL - 2010. Ulysses Sodré. http://www.mat.uel.br/matessencial/ Arquivo: minimaxi.tex - Londrina-PR, 29 de Junho de 2010. Matemática Essencial Extremos de funções reais Departamento de Matemática - UEL - 2010 Conteúdo Ulysses Sodré http://www.mat.uel.br/matessencial/ Arquivo: minimaxi.tex - Londrina-PR, 29 de Junho de 2010.

Leia mais

Aspectos Sociais de Informática. Simulação Industrial - SIND

Aspectos Sociais de Informática. Simulação Industrial - SIND Aspectos Sociais de Informática Simulação Industrial - SIND Jogos de Empresas Utilizada com sucesso para o treinamento e desenvolvimento gerencial Capacita estudantes e profissionais de competência intelectual

Leia mais

GESTÃO DAS INFORMAÇÕES DAS ORGANIZAÇÕES MÓDULO 11

GESTÃO DAS INFORMAÇÕES DAS ORGANIZAÇÕES MÓDULO 11 GESTÃO DAS INFORMAÇÕES DAS ORGANIZAÇÕES MÓDULO 11 Índice 1. Importância do ERP para as organizações...3 2. ERP como fonte de vantagem competitiva...4 3. Desenvolvimento e implantação de sistema de informação...5

Leia mais

DESPESAS FIXAS. O que são Despesas Fixas?

DESPESAS FIXAS. O que são Despesas Fixas? Conceitos de Gestão O intuito desse treinamento, é apresentar aos usuários do software Profit, conceitos de gestão que possam ser utilizados em conjunto com as informações disponibilizadas pelo sistema.

Leia mais

1. Introdução. 1.1 Contextualização do problema e questão-problema

1. Introdução. 1.1 Contextualização do problema e questão-problema 1. Introdução 1.1 Contextualização do problema e questão-problema A indústria de seguros no mundo é considerada uma das mais importantes tanto do ponto de vista econômico como do ponto de vista social.

Leia mais

Faculdade de Engenharia Optimização. Prof. Doutor Engº Jorge Nhambiu

Faculdade de Engenharia Optimização. Prof. Doutor Engº Jorge Nhambiu 1 Programação Não Linear Aula 25: Programação Não-Linear - Funções de Uma única variável Mínimo; Mínimo Global; Mínimo Local; Optimização Irrestrita; Condições Óptimas; Método da Bissecção; Método de Newton.

Leia mais

1 Introdução 1.1. Contextualização

1 Introdução 1.1. Contextualização 1 Introdução 1.1. Contextualização O mercado de cartões no Brasil ainda está em fase de amadurecimento. A maior estabilização da economia brasileira com o plano real após 1994 permitiu uma explosão da

Leia mais

Utilização do SOLVER do EXCEL

Utilização do SOLVER do EXCEL Utilização do SOLVER do EXCEL 1 Utilização do SOLVER do EXCEL José Fernando Oliveira DEEC FACULDADE DE ENGENHARIA DA UNIVERSIDADE DO PORTO MAIO 1998 Para ilustrar a utilização do Solver na resolução de

Leia mais

Este trabalho tem como objetivo propor um modelo multicritério para a priorização dos modos de falha indicados a partir de uma aplicação do processo

Este trabalho tem como objetivo propor um modelo multicritério para a priorização dos modos de falha indicados a partir de uma aplicação do processo 1 Introdução A atual regulamentação do setor elétrico brasileiro, decorrente de sua reestruturação na última década, exige das empresas o cumprimento de requisitos de disponibilidade e confiabilidade operativa

Leia mais

CAPÍTULO 1 - CONTABILIDADE E GESTÃO EMPRESARIAL A CONTROLADORIA

CAPÍTULO 1 - CONTABILIDADE E GESTÃO EMPRESARIAL A CONTROLADORIA CAPÍTULO 1 - CONTABILIDADE E GESTÃO EMPRESARIAL A CONTROLADORIA Constata-se que o novo arranjo da economia mundial provocado pelo processo de globalização tem afetado as empresas a fim de disponibilizar

Leia mais

Política monetária e senhoriagem: depósitos compulsórios na economia brasileira recente

Política monetária e senhoriagem: depósitos compulsórios na economia brasileira recente Política monetária e senhoriagem: depósitos compulsórios na economia brasileira recente Roberto Meurer * RESUMO - Neste artigo se analisa a utilização dos depósitos compulsórios sobre depósitos à vista

Leia mais

Gerenciamento de Projeto: Criando o Termo de Abertura II. Prof. Msc Ricardo Britto DIE-UFPI rbritto@ufpi.edu.br

Gerenciamento de Projeto: Criando o Termo de Abertura II. Prof. Msc Ricardo Britto DIE-UFPI rbritto@ufpi.edu.br Gerenciamento de Projeto: Criando o Termo de Abertura II Prof. Msc Ricardo Britto DIE-UFPI rbritto@ufpi.edu.br Sumário Priorizando Projetos. Métodos Matemáticos. Métodos de análise de benefícios. Selecionando

Leia mais

O ESPAÇO NULO DE A: RESOLVENDO AX = 0 3.2

O ESPAÇO NULO DE A: RESOLVENDO AX = 0 3.2 3.2 O Espaço Nulo de A: Resolvendo Ax = 0 11 O ESPAÇO NULO DE A: RESOLVENDO AX = 0 3.2 Esta seção trata do espaço de soluções para Ax = 0. A matriz A pode ser quadrada ou retangular. Uma solução imediata

Leia mais

CAPÍTULO 2 MATEMÁTICA FINANCEIRA

CAPÍTULO 2 MATEMÁTICA FINANCEIRA CAPÍTULO 2 MATEMÁTICA FINANCEIRA A Matemática Financeira se preocupa com o valor do dinheiro no tempo. E pode-se iniciar o estudo sobre o tema com a seguinte frase: NÃO SE SOMA OU SUBTRAI QUANTIAS EM DINHEIRO

Leia mais

Dificuldades de Modelos de PNL. Onde está a solução ótima? Outro exemplo: Condição ótima Local vs. Global. 15.053 Quinta-feira, 25 de abril

Dificuldades de Modelos de PNL. Onde está a solução ótima? Outro exemplo: Condição ótima Local vs. Global. 15.053 Quinta-feira, 25 de abril 15.053 Quinta-feira, 25 de abril Teoria de Programação Não-Linear Programação Separável Dificuldades de Modelos de PNL Programa Linear: Apostilas: Notas de Aula Programas Não-Lineares 1 2 Análise gráfica

Leia mais

CAPÍTULO 9 RISCO E INCERTEZA

CAPÍTULO 9 RISCO E INCERTEZA CAPÍTULO 9 9 RISCO E INCERTEZA 9.1 Conceito de Risco Um fator que pode complicar bastante a solução de um problema de pesquisa operacional é a incerteza. Grande parte das decisões são tomadas baseando-se

Leia mais

ANÁLISE DE BALANÇO DAS SEGURADORAS. Contabilidade Atuarial 6º Período Curso de Ciências Contábeis

ANÁLISE DE BALANÇO DAS SEGURADORAS. Contabilidade Atuarial 6º Período Curso de Ciências Contábeis ANÁLISE DE BALANÇO DAS SEGURADORAS Contabilidade Atuarial 6º Período Curso de Ciências Contábeis Introdução As empresas de seguros são estruturas que apresentam características próprias. Podem se revestir

Leia mais

REC 3600 Finanças 1 primeira prova

REC 3600 Finanças 1 primeira prova REC 3600 Finanças primeira prova Roberto Guena de Oliveira Setembro de 204 Nome Gaba² to nº usp:. Em um mundo com apenas duas datas, uma investidora dispõe de R$60 no ano corrente e pode fazer o li investimento

Leia mais

PLANOS DE CONTINGÊNCIAS

PLANOS DE CONTINGÊNCIAS PLANOS DE CONTINGÊNCIAS ARAÚJO GOMES Capitão SC PMSC ARAÚJO GOMES defesacivilgomes@yahoo.com.br PLANO DE CONTINGÊNCIA O planejamento para emergências é complexo por suas características intrínsecas. Como

Leia mais

Conceito de Contabilidade

Conceito de Contabilidade !" $%&!" #$ "!%!!&$$!!' %$ $(%& )* &%""$!+,%!%!& $+,&$ $(%'!%!-'"&!%%.+,&(+&$ /&$/+0!!$ & "!%!!&$$!!' % $ $(% &!)#$ %1$%, $! "# # #$ &&$ &$ 0&$ 01% & $ #$ % & #$&&$&$&* % %"!+,$%2 %"!31$%"%1%%+3!' #$ "

Leia mais

Curso superior de Tecnologia em Gastronomia

Curso superior de Tecnologia em Gastronomia Curso superior de Tecnologia em Gastronomia Suprimentos na Gastronomia COMPREENDENDO A CADEIA DE SUPRIMENTOS 1- DEFINIÇÃO Engloba todos os estágios envolvidos, direta ou indiretamente, no atendimento de

Leia mais

INTRODUÇÃO AOS MÉTODOS FACTORIAIS

INTRODUÇÃO AOS MÉTODOS FACTORIAIS Capítulo II INTRODUÇÃO AOS MÉTODOS FACTORIAIS A Análise Factorial de Correspondências é uma técnica simples do ponto de vista matemático e computacional. Porém, devido ao elevado suporte geométrico desta

Leia mais

Planejamento - 7. Planejamento do Gerenciamento do Risco Identificação dos riscos. Mauricio Lyra, PMP

Planejamento - 7. Planejamento do Gerenciamento do Risco Identificação dos riscos. Mauricio Lyra, PMP Planejamento - 7 Planejamento do Gerenciamento do Risco Identificação dos riscos 1 O que é risco? Evento que representa uma ameaça ou uma oportunidade em potencial Plano de gerenciamento do risco Especifica

Leia mais

RESOLUÇÃO CFC Nº. 1.265/09. O CONSELHO FEDERAL DE CONTABILIDADE, no exercício de suas atribuições legais e regimentais,

RESOLUÇÃO CFC Nº. 1.265/09. O CONSELHO FEDERAL DE CONTABILIDADE, no exercício de suas atribuições legais e regimentais, NOTA - A Resolução CFC n.º 1.329/11 alterou a sigla e a numeração desta Interpretação de IT 12 para ITG 12 e de outras normas citadas: de NBC T 19.1 para NBC TG 27; de NBC T 19.7 para NBC TG 25; de NBC

Leia mais

AMOSTRAGEM ESTATÍSTICA EM AUDITORIA PARTE ll

AMOSTRAGEM ESTATÍSTICA EM AUDITORIA PARTE ll AMOSTRAGEM ESTATÍSTICA EM AUDITORIA PARTE ll! Os parâmetros para decisão do auditor.! Tipos de planos de amostragem estatística em auditoria. Francisco Cavalcante(f_c_a@uol.com.br) Administrador de Empresas

Leia mais

3 Qualidade de Software

3 Qualidade de Software 3 Qualidade de Software Este capítulo tem como objetivo esclarecer conceitos relacionados à qualidade de software; conceitos estes muito importantes para o entendimento do presente trabalho, cujo objetivo

Leia mais

APOSTILA DE AVALIAÇÃO DE EMPRESAS POR ÍNDICES PADRONIZADOS

APOSTILA DE AVALIAÇÃO DE EMPRESAS POR ÍNDICES PADRONIZADOS UNIVERSIDADE DO ESTADO DE SANTA CATARINA ESCOLA SUPERIOR DE ADMINISTRAÇÃO E GERÊNCIA DEPARTAMENTO DE CIÊNCIAS ECONÔMICAS PROGRAMA DE EXTENSÃO: CENTRO DE DESENVOLVIMENTO EM FINANÇAS PROJETO: CENTRO DE CAPACITAÇÃO

Leia mais

Unidade IV. A necessidade de capital de giro é a chave para a administração financeira de uma empresa (Matarazzo, 2008).

Unidade IV. A necessidade de capital de giro é a chave para a administração financeira de uma empresa (Matarazzo, 2008). AVALIAÇÃO DAS DEMONSTRAÇÕES CONTÁBEIS Unidade IV 7 ANÁLISE DO CAPITAL DE GIRO A necessidade de capital de giro é a chave para a administração financeira de uma empresa (Matarazzo, 2008). A administração

Leia mais