MODELO DE ANÁLISE DE RISCO DE CRÉDITO UTILIZANDO MÁQUINA DE VETOR SUPORTE. Francisco Alixandre Ávila Rodrigues

Tamanho: px
Começar a partir da página:

Download "MODELO DE ANÁLISE DE RISCO DE CRÉDITO UTILIZANDO MÁQUINA DE VETOR SUPORTE. Francisco Alixandre Ávila Rodrigues"

Transcrição

1 MODELO DE ANÁLISE DE RISCO DE CRÉDITO UTILIZANDO MÁQUINA DE VETOR SUPORTE Francisco Alixandre Ávila Rodrigues Dissertação de Mestrado apresentada ao Programa de Pós-graduação em Engenharia de Sistemas e Computação, COPPE, da Universidade Federal do Rio de Janeiro, como parte dos requisitos necessários à obtenção do título de Mestre em Engenharia de Sistemas e Computação. Orientador: Nelson Maculan Filho Rio de Janeiro Março de 2012

2 MODELO DE ANÁLISE DE RISCO DE CRÉDITO UTILIZANDO MÁQUINA DE VETOR SUPORTE Francisco Alixandre Ávila Rodrigues DISSERTAÇÃO SUBMETIDA AO CORPO DOCENTE DO INSTITUTO ALBERTO LUIZ COIMBRA DE PÓS-GRADUAÇÃO E PESQUISA DE ENGENHARIA (COPPE) DA UNIVERSIDADE FEDERAL DO RIO DE JANEIRO COMO PARTE DOS REQUISITOS NECESSÁRIOS PARA A OBTENÇÃO DO GRAU DE MESTRE EM CIÊNCIAS EM ENGENHARIA DE SITEMAS E COMPUTAÇÃO. Examinada por: Prof. Nelson Maculan Filho, H.D.R. Profa. Leontina Maria Viana Graziadio Pinto, D. Sc. Prof. Ernesto Prado Lopes, Ph. D. RIO DE JANEIRO, RJ - BRASIL MARÇO DE 2012

3 iii Rodrigues, Francisco Alixandre Ávila Modelo de Análise de Risco de Crédito Utilizando Máquina de Vetor Suporte/ Francisco Alixandre Ávila Rodrigues.- Rio de Janeiro: UFRJ/COPPE, XI, 55 p. : il.; 29,7 cm Orientador: Nelson Maculan Filho Dissertação (mestrado) UFRJ/COPPE/Programa de Engenharia de Sistemas e Computação, Referências Bibliográficas: p Risco de Crédito. 2.Máquina de Vetor Suporte. 3.Otimização Quadrática I. Maculan Filho, Nelson. II. Universidade Federal do Rio de Janeiro, COPPE, Programa de Engenharia de Sistemas e Computação. III. Título.

4 iv Dedico este trabalho a minha esposa Lígia Claudia Castro de Oliveira, pelo seu apoio incondicional mesmo nas horas mais difíceis, e por todo seu amor, dedicação e sacrifício.

5 v Agradecimentos Aos meus orientadores, professor Maculan e professora Leontina, pelos seus valiosos conselhos e sugestões, dedicação à tarefa de ajudar-me e por terem acreditado muito neste trabalho. À Engenho Consultoria por ter dado a oportunidade e o apoio necessário à execução deste trabalho. A todos os meus colegas de trabalho da Engenho pelo incentivo e motivação. Aos professores do Departamento de Engenharia de Sistemas e Computação da UFRJ pelo aprendizado. Aos membros da banca examinadora pelas contribuições na geração final desta dissertação. Aos meus pais Antonio Cruz Rodrigues e Rita Ávila Paiva Rodrigues pelo apoio e por terem a visão de sempre incentivarem o estudo de seus filhos. As minhas irmãs Andrea e Adrianne e a todos os meus familiares por sempre torcerem por mim. A todos que de alguma forma me ajudaram ou me motivaram no desenvolvimento desta dissertação. A Deus por ter me dado forças para superar todos os obstáculos.

6 vi Resumo da Dissertação apresentada à COPPE/UFRJ como parte dos requisitos necessários para a obtenção do grau de Mestre em Ciências (M. Sc.). MODELO DE ANÁLISE DE RISCO DE CRÉDITO UTILIZANDO MÁQUINA DE VETOR SUPORTE Francisco Alixandre Ávila Rodrigues Março/2012 Orientador: Nelson Maculan Filho Programa: Engenharia de Sistemas e Computação A crise econômica de 2008 trouxe a tona um risco importante na comercialização de energia que estava esquecido: a qualidade do parceiro e o risco de credito associado. Não importa quão cuidadosamente o portfólio de contratação seja construído, o lucro pode ser convertido em grandes perdas caso o fornecedor não entregue energia ou o consumidor não pague por ela. Este trabalho desenvolve um novo modelo, baseado em máquina de vetor suporte, para a análise e gestão do risco de crédito. A construção do portfólio ótimo está além do escopo deste trabalho, todo o empenho foi na análise de parceiros e na avaliação de suas probabilidades de default. Os resultados obtidos mostraram que o modelo de SVM com soft-margin não só é viável como pode auxiliar um processo de tomada de decisão estratégica referente à comercialização de energia. Dessa forma, o gestor de uma comercializadora de energia estaria de posse de uma ferramenta que pode auxiliá-lo na escolha de empresas comercias e industriais para compor seu portfólio de parceiros.

7 vii Abstract of Dissertation presented to COPPE/UFRJ as a partial fulfillment of the requirements for the degree of master of Science (M.Sc.) MODEL OF CREDIT RISK ANALYSIS USING SUPPORT VECTOR MACHINE Francisco Alixandre Ávila Rodrigues March/2012 Advisor: Nelson Maculan Filho Department: Systems Engineering and Computation The economic crisis of 2008 brought to light an important risk in the commercialization of energy that was forgotten: the quality of the partner and the credit risk associated. No matter how carefully the contract portfolio is built, the profit can be turned into large losses if the supplier does not deliver energy or the consumer does not pay for it. This paper develops a new model based on support vector machine for analysis and management of credit risk. The construction of the optimal portfolio is beyond the scope of this work, every effort was the analysis of partners and assessing their probabilities of default. The results showed that the model with soft-margin SVM is not only feasible, but may help a process of strategic decision making on the commercialization of energy. Thus, the manager of an energy trader was in possession of a tool that can assist you in choosing commercial and industrial companies to integrate its portfolio of partners.

8 viii Sumário 1 Introdução Motivação Avaliação do risco de crédito no mercado de energia elétrica Modelos de classificação de risco de crédito na literatura Modelos para classificação de risco de crédito em geral Modelos para classificação de risco de crédito no setor de energia elétrica O modelo proposto Conceitos básicos de aprendizado de máquina Máquinas de vetor suporte SVM com Hard-Margin SVM com Soft-Margin Cálculo da probabilidade de default Aplicações do modelo Seleção das variáveis de entrada para a SVM Empresas comerciais Empresas industriais Conclusões Sugestões para trabalhos futuros Referências Bibliográficas... 51

9 ix Lista de Figuras Figura 1 Relação entre os valores de Z e a probabilidade de sovência Figura 2 Indução de classificador em aprendizado supervisionado Figura 3 Hiperplano ótimo separando os dados com a máxima margem e os vetores suporte Figura 4 Hiperplano ótimo de separando no espaço bidimensional Figura 5 Cálculo da distância entre os hiperplanos e Figura 6 Caso de dados inseparáveis no espaço bidimensional Figura 7 Visualização das empresas comerciais para treinamento Figura 8 Visualização da probabilidade de default por região para empresas comerciais Figura 9 Visualização das empresas comerciais de teste Figura 10 Visualização das empresas industriais para treinamento Figura 11 Visualização da probabilidade de default por região para empresas industriais Visualização das empresas industriais para treinamento Figura 12 Visualização das empresas industriais de teste

10 x Lista de Tabelas Tabela 1 - Empresas comerciais para treinamento Tabela 2 Empresas comercias de teste Tabela 3 - Empresas industriais para treinamento Tabela 4 Empresas industriais de teste... 48

11 xi Lista de Abreviaturas SVM Support Vector Machine CVM Comissão de Valores Mobiliários ROA Return on Assets KS Kolmogorov Smirnov JSTOR Journal Storage IEEE Institute of Eletrical and Electronic Engineers

12 1 1 Introdução 1.1 Motivação Na maioria dos países, o setor de energia elétrica tem sido progressivamente conduzido a um ambiente orientado ao mercado. Não importando a arquitetura especifica dos mercados, a energia precisa ser comercializada e as receitas são projetadas com base na qualidade do portfólio de contratação: bons resultados indicam contratos lucrativos. Os riscos de negócio são avaliados com base, de forma aproximada, nas incertezas de preço/demanda em conjunto, com aspectos específicos da regulação. Contudo, a crise econômica mundial de 2008 trouxe à tona um risco importante que estava esquecido: a qualidade do parceiro e o risco de credito associado. Não importa quão cuidadosamente o portfólio de contratação seja construído, o lucro pode ser convertido em grandes perdas caso o fornecedor não entregue energia ou o consumidor não pague por ela. A inclusão do risco de crédito de parceiros ao portfólio ótimo é, em princípio, um árduo desafio: a maior parte das agências de rating geralmente atribui apenas uma nota à empresa. Mesmo sendo importante, esta informação não é suficiente. A avaliação dos indicadores de risco só pode ser efetuada através da probabilidade de default associada ao parceiro. O objetivo deste trabalho é propor um novo modelo para a análise e gestão do risco de crédito especialmente desenvolvido para a comercialização de energia. Para

13 2 isso focaremos na análise de parceiros e na avaliação de suas probabilidades de default. A construção do portfólio ótimo está além do escopo deste trabalho. 1.2 Avaliação do risco de crédito no mercado de energia elétrica De um modo geral, o risco de crédito é o risco associado a possíveis perdas quando uma das partes em um contrato não honra os compromissos assumidos. Para tentar minimizar esse tipo de perda, é fundamental um estudo que possibilite uma avaliação da situação econômico-financeira de uma empresa. A capacidade de discriminação entre empresas boas e ruins é crucial na avaliação do risco de crédito. Desse modo, é imperativo termos um modelo que permita prever com o máximo de precisão a qualidade do parceiro a fim de permitir às partes interessadas tomar uma ação preventiva ou corretiva. No processo de comercialização de energia elétrica, o risco de crédito está sempre presente. Por exemplo, o fornecedor pode não entregar a energia ou o consumidor não pagar por ela, caracterizando assim dois tipos de eventos de default. Embora existam diversos outros tipos de eventos de default, o conceito de default adotado nesse trabalho foi a concordata, que permite a uma empresa com dificuldades financeiras continuar funcionando normalmente, dando-lhe um tempo para chegar a um acordo com seus credores. Esse conceito foi utilizado por se tratar de uma informação disponível publicamente.

14 3 2 Modelos de classificação de risco de crédito na literatura Existem muitas técnicas utilizadas para a construção de modelos de risco de crédito. Este capítulo faz uma breve apresentação das técnicas mais utilizadas na literatura para classificar e prever o risco de crédito, dentre os quais estão: regressão logística, árvores de classificação, programação linear, redes neurais, algoritmos genéticos, análise discriminante e SVM. 2.1 Modelos para classificação de risco de crédito em geral Nos últimos anos, impulsionado pela crise financeira mundial de 2008, o uso de metodologias para classificação e previsão de risco de crédito tem sido muito divulgado. Isto tem feito com que as instituições financeiras travem uma corrida acirrada em busca dessas ferramentas. Entretanto, o uso de modelos de risco de crédito não torna os negócios isentos de riscos, por isso não podem ser compreendidos como receitas milagrosas capazes de resolver todos os problemas relacionados ao risco de operações de crédito [1,2]. Dentre os métodos mais antigos de classificação e previsão de risco de crédito, podemos destacar a análise discriminante linear e a regressão logística. Os primeiros

15 4 estudos desenvolvidos sobre a técnica de análise discriminante linear foram realizados em 1966 por Beaver [3] seguido por Altman [4] em Os resultados obtidos deram credibilidade aos modelos de classificação de risco e diversos estudos foram publicados sobre o assunto. É possível encontrar vários trabalhos que fazem uma revisão da literatura dos principais modelos de risco de crédito utilizados. Nos trabalhos de Assaf Neto e Brito [14], Resende [38] os autores destacam que Beaver [3] realizou um estudo utilizando uma amostra com 158 empresas norte-americanas, sendo 79 delas concordatárias e 79 não concordatárias. Para deixar a amostra mais homogênea, o autor agrupou as empresas por setor econômico e tamanho de seus ativos. O modelo inicial criado por Beaver considerou 30 variáveis independentes, divididas nas seguintes categorias de indicadores contábeis: indicadores de fluxo de caixa, indicadores de rentabilidade, indicadores de dívida sobre ativo, indicadores de ativos líquidos sobre ativo total, indicadores de ativos líquidos sobre dívida e indicadores de giro do ativo. Esses indicadores foram calculados para os últimos 05 anos que antecederam o evento de concordata. Após investigar os índices individualmente, o autor selecionou a variável fluxo de caixa sobre total da dívida como o melhor indicador financeiro para discriminar empresas concordatárias de empresas não concordatárias. Vale ressaltar que o autor considerou igual o custo de classificar incorretamente uma empresa concordatária como não concordatária e o custo de classificar incorretamente uma empresa não concordatária como concordatária. Para avaliar a qualidade do uso de indicadores contábeis como uma técnica analítica para medir o desempenho de uma empresa, Altman [4] introduziu o modelo de análise discriminante linear para classificar e fazer previsões envolvendo problemas

16 5 onde a variável resposta aparece de forma qualitativa. O modelo de análise discriminante linear resulta em uma combinação linear desses indicadores que melhor discrimine os diferentes grupos pré - estabelecidos. No caso analisado por Altman, dois grupos foram constituídos, o grupo das empresas concordatárias e grupo das empresas não concordatárias, de forma que a análise foi transformada numa única dimensão. Kanitz [5], em 1976, realizou o primeiro estudo com empresas brasileiras utilizando a técnica de análise discriminante com o objetivo de verificar a capacidade de índices financeiros em prever a falência de empresas. O autor utilizou uma amostra de 42 empresas, sendo 21 empresas concordatárias e 21 empresas não concordatária. Um total de 516 indicadores contábeis foram calculados e avaliados para os últimos 02 anos que antecederam o evento de falência. Para reduzir o número de variáveis, Kanitz utilizou a técnica estatística de diferença de médias para identificar alguns indicadores contábeis com bom poder discriminatório de empresas concordatárias e empresas saudáveis. Onusic e Casa Nova [40] também fizeram uma revisão de alguns modelos de risco de crédito. Assim como em muitos outras trabalhos, os dois autores destacam que em 1976, Elizabetsky [6] desenvolveu um modelo usando análise discriminante para decisão de concessão de crédito em bancos comerciais. O modelo estudado apresentou uma taxa de acerto em classificar empresas como boas" de 88,89%. Em 1977, Altman et al. [7] desenvolveram um modelo utilizando a técnica de análise discriminante linear, que chamaram de ZETA. A razão apontada pelos autores para o desenvolvimento desse modelo foi a mudança do porte das empresas nos anos que precederam o estudo. O porte médio das empresas que entraram em concordata havia aumentado consideravelmente, gerando maior visibilidade e preocupação por parte das instituições financeiras e agências regulatórias.

17 6 Os autores utilizaram uma amostra de 111 empresas, sendo 53 empresas concordatárias e 58 empresas não concordatária, para o período de 1962 a A amostra foi subdividida em dois grupos, empresas de manufaturas e empresas de varejo. Inicialmente foram selecionados 27 indicadores contábeis, divididos em seis categorias: rentabilidade, índices de cobertura, liquidez, índices de capitalização, variação da rentabilidade e outros. O modelo selecionado foi reduzido a sete variáveis independentes, que foram: retorno sobre ativo; estabilidade das receitas; cobertura de juros; lucro acumulado sobre ativo total; liquidez corrente; capitalização (patrimônio líquido sobre capital) e tamanho do ativo. O modelo ZETA foi capaz de classificar corretamente 90% das empresas um ano antes do evento de concordata e 70% para cinco anos antes do evento de concordata. Em 1979, Altman e alguns colaboradores [8] realizaram um estudo para testar a aplicabilidade do modelo de análise discriminante linear previamente utilizado para empresas americanas para empresas brasileiras. Os autores utilizaram uma amostra de 58 empresas brasileiras, sendo 23 empresas concordatárias e 35 empresas não concordatária. Foram utilizadas as cinco variáveis do modelo original de Altman [4], com alterações nas variáveis lucros retidos sobre ativo total e valor de mercado do patrimônio líquido sobre valor contábil do exigível total para adaptar ao mercado brasileiro. Em 1996, Sanvicente e Bader [9] replicaram o modelo de Altman et. al [8] para o Brasil. Nesse estudo, os autores utilizaram uma amostra de 144 empresas, sendo 72 empresas concordatárias e 72 empresas não concordatária, para o período de 1986 a Foram utilizadas as mesmas cinco variáveis do modelo de Altman et. al. Mas nesse caso, os indicadores contábeis foram calculados para os últimos três anos

18 7 anteriores ao evento de concordata. Devido à indisponibilidade de dados, a amostra final de empresas foi reduzida. O modelo apresentado por Sanvicente e Bader foi capaz de classificar corretamente 77,4% das empresas um ano antes do evento de concordata, resultado inferior ao apresentado por Altman et. al. Em 1998, Sanvicente e Minardi [10] desenvolveram um estudo de caráter exploratório que tinha como objetivo identificar os indicadores contábeis mais significativos para prever a falência de empresas brasileiras. A amostra utilizada pelos autores era composta de 92 empresas brasileiras com ações negociadas na Bolsa de Valores de São Paulo, sendo 46 empresas concordatárias e 46 empresas não concordatária no período de 1986 a Os indicadores contábeis selecionados por Sanvicente e Minardi basearam-se em estudos de Altman [4, 7] e na dinâmica de over trading discutida por Assaf Neto e Tibúrcio Silva [11]. Foram selecionados 14 indicadores contábeis no estudo. Os autores utilizaram as mesmas cinco variáveis utilizadas por Altman et al. al [8] e Sanvicente e Bader [9] e adicionaram mais nove variáveis. O modelo selecionado incluiu as seguintes variáveis: ativo circulante menos passivo total sobre ativo total; patrimônio líquido menos capital social sobre ativo total; lucro antes de juros e imposto de renda sobre ativo total; valor contábil do patrimônio líquido sobre valor contábil do exigível total e lucro operacional antes de juros e imposto de renda sobre despesas financeiras. O modelo foi capaz de classificar corretamente 81,8% das empresas um ano antes do evento de concordata. Os modelos apresentados até agora de análise discriminante linear também foram criticados, pois muitas vezes não atendiam às rígidas hipóteses que a metodologia requisitava, tais como: (i) variáveis independentes devem ser normalmente distribuídas,

19 8 (ii) as matrizes de variância e covariância devem ser iguais entre os dois grupos de empresas, e (iii) interpretação pouco intuitiva do resultado da função discriminante. Essas críticas levaram a Ohlson [12], em 1980, a incluir a técnica de regressão logística na avaliação de riscos na concessão de crédito para empresas com dificuldades financeiras. O autor desenvolveu um modelo para previsão de falência similar aos modelos apresentados por Beaver [3] e Altman [4]. Sua contribuição foi essencial para o desenvolvimento de novas ferramentas para avaliação de risco de crédito, uma vez que ele introduziu o modelo de regressão logística. No estudo de Ohlson, foi utilizada uma amostra de 105 empresas americanas concordatárias e empresas não concordatária, para o período de 1970 a Setores econômicos como energia, transporte e financeiro foram excluídos da análise. O autor selecionou nove variáveis independentes para o modelo: tamanho do ativo; passivo total sobre ativo total; capital de giro sobre ativo total; passivo circulante sobre ativo circulante; lucro líquido sobre ativo total; geração de caixa operacional sobre passivo total e variação no lucro líquido. O modelo apresentado por Ohlson foi capaz de classificar corretamente 96,12% das empresas um ano antes do evento de concordata, 95,55% para dois anos antes da concordata e 92,84% para três anos antes da concordata. Scarpel e Milioni [13] utilizaram um modelo do tipo logit, também conhecido como regressão logística, em conjunto com o modelo de programação linear inteira. O objetivo foi auxiliar a análise de crédito utilizando a estimativa da probabilidade de solvência de empresas, minimizando a soma dos custos de oportunidade e inadimplência. Os autores concluíram que a utilização conjunta desses modelos possibilitou eliminar algumas limitações encontradas quando utilizavam isoladamente cada modelo nas decisões de concessão de crédito.

20 9 Em 2005, Assaf Neto e Brito [14] replicaram o modelo de regressão logística de Ohlson [12] para previsão de falências para empresas brasileiras. No estudo, os autores utilizaram uma amostra de 60 empresas, sendo 30 empresas concordatárias e 30 empresas não concordatária, para o período de 1994 a2004. Foram testados 25 indicadores contábeis no estudo, calculados com base nos demonstrativos contábeis do penúltimo exercício anterior ao evento de concordata. O modelo selecionado incluiu as seguintes variáveis: lucros retidos sobre ativo; endividamento financeiro; capital de giro líquido e saldo de tesouraria sobre vendas. O modelo foi capaz de classificar corretamente 91,7% das empresas. O surgimento da técnica chamada redes neurais na década de 1990 que entre outras atende a problemas de classificação, levou Altman et. al [15] a realizarem um estudo comparativo entre modelos de classificação tradicionais, como análise discriminante linear e regressão logística, com o modelo de redes neurais. Esse estudo foi realizado com uma amostra de mais de empresas italianas para o período de 1982 a Dez indicadores contábeis foram utilizados, entre eles: 04 índices de endividamento e estrutura de capital, 02índices de liquidez e 04 índices de rentabilidade. Os resultados encontrados com a utilização de redes neurais foram satisfatórios, e muitas vezes superiores aos resultados encontrados com a utilização de análise discriminante linear. No entanto, os autores ressaltam que o maior problema encontrado foi à existência de tipos não aceitáveis de comportamento na rede neural. O grau e frequência de tipos de comportamento ilógicos cresceram de acordo com o aumento da complexidade da arquitetura da rede neural. Somente em casos extremamente simples foram obtidos resultados aceitáveis. Desai et al. [16] compararam redes neurais, análise discriminante linear e regressão logística para a construção de modelos de escore de crédito. Os autores

21 10 avaliaram o percentual de acerto total de cada modelo e neste aspecto o modelo de redes neurais foi bastante superior aos demais. Porém o percentual de clientes bons e maus corretamente classificados pela rede neural foi equivalente ao modelo de regressão logística. Em 1996, Almeida e Dumontier [17] publicaram um trabalho em que sugeriram uma abordagem estruturada de exploração de redes neurais para avaliação dos riscos de inadimplência do setor de transporte de carga rodoviário francês. Os autores comparam a técnica de redes neurais sugerida com a regressão logística, e os resultados mostraram que o desempenho do modelo de redes neurais não apresentou ganhos significativamente superiores aos obtidos com a utilização da regressão logística. Contudo, os mesmos autores ressaltaram que estudos futuros poderiam ajudar no entendimento e compreensão do processo de falência através do uso de redes neurais, possibilitando assim melhores resultados em outros setores de atividades. Um estudo comparativo entre três técnicas multivariadas para prever se um cliente pagará ou não um empréstimo, foi apresentado em 1997por Armingeret al. [18]. As técnicas comparadas foram regressão logística, redes neurais e árvore de decisão. Para a construção de cada modelo foram levadas em consideração as seguintes variáveis: sexo, tempo de serviço, idade, possuir ou não carro, possuir ou não telefone e estado civil. Os resultados demonstraram acertos na classificação dos clientes de 67,6% para a regressão logística, 66,4% para a árvore de decisão e 65,2 para as redes neurais. Num esforço adicional os autores combinaram as três técnicas, porém o resultado não foi satisfatório, sendo pior que o obtido pela regressão logística. Em 1999, Steiner et al [19] utilizaram sistemas especialistas probabilísticos e redes neurais, ambas na área de inteligência artificial, para auxiliar na análise de concessão de crédito bancário a pessoas físicas. Foram utilizados dados históricos de

22 clientes de um banco alemão com o objetivo de identificar padrões que mostrassem para diagnósticos futuros, em qual situação é interessante para o banco fazer a concessão do crédito. Selau [20] apresentou um estudo destacando a importância de redes neurais como ferramenta para o reconhecimento de padrões e sua superioridade em comparação com outras técnicas. Em uma aplicação na área de crédito a autora utilizou uma amostra de 1000 créditos concedidos em um banco alemão, sendo 700 bons pagadores e 300 maus pagadores. Nessa aplicação, os resultados obtidos com a rede neural foram superiores quando comparada com as técnicas de regressão logística e árvore de decisão. Lemos [21], utilizando redes neurais e árvores de decisão, analisou dados históricos de 339 empresas clientes de uma agência bancária, dos quais 266 eram adimplentes e 73 inadimplentes. Para testar o modelo de árvores de decisão, os dados foram divididos em conjuntos de treinamento e teste, obtendo para o modelo 71,84% de classificação correta das empresas. Já para a técnica de redes neurais os treinamentos foram feitos por meio de uma rede de múltiplas camadas, usando o algoritmo back propagation padrão variando parâmetros, obtendo 90,04% de acerto de classificação. De acordo com Lemos [21], os resultados sugerem que o desempenho das redes neurais foi melhor que o apresentado na técnica árvores de decisão em relação à taxa de classificação correta, porém, do ponto de vista do usuário (analista de crédito ou gerente bancário), sempre há vantagens do uso de árvores de decisão, pois ela apresenta resultados (regras de decisão) de fácil compreensão. Em 2003, Huang et al [22] realizaram um estudo de comparação entre as metodologias de redes neurais, regressão logística e Support Vector Machine (SVM). A análise realizada foi em relação a instituições financeiras que trabalhavam com

23 12 concessão de crédito. O público alvo foi grandes empresas dos Estados Unidos e Taiwan, que para solicitar o crédito necessitavam fornecer os últimos cinco relatórios anuais e demonstrações financeiras, tal como o total de ativos e passivos circulantes, dívidas da empresa, fluxos de caixa. O experimento realizado por Huang foi baseado em dois conjuntos: o de treinamento e o de teste. A regressão logística obteve uma taxa de 73,92% de acerto, 77,65% para as redes neurais e 78,90% para SVM demonstrando melhor desempenho entre as técnicas escolhidas. Kimura et al. [23], através do uso do procedimento de redes neurais, apresentaram um modelo de previsão de risco de crédito com base em uma amostra aleatória de 2475 clientes de uma importante rede de lojas brasileira. O modelo sugerido apresentou 79% de acertos sobre o perfil de pagamento dos clientes. Os autores destacaram ainda que, apesar de ter sido considerado na pesquisa um número pequeno de variáveis, os resultados sugerem que as redes neurais são promissoras como técnica para análise de concessão de crédito ao consumidor. Gouvêa e Gonçalves [24], utilizando uma amostra de dados fornecida por uma grande instituição financeira brasileira, desenvolveram dois modelos com duas técnicas para a classificação de clientes: redes neurais e algoritmos genéticos. Os resultados obtidos pelos modelos de rede neural e algoritmo genético foram satisfatórios, sendo o primeiro modelo superior com percentual de acerto de 69,4% contra 67,6%. Recentemente uma revisão realizada por Yu et al. [25], destacou algumas das técnicas mais usadas para a avaliação do risco de crédito. Dentre elas os autores citaram: análise discriminante linear, regressão logística, regressão probit, árvores de decisão, k-vizinhos mais próximos, programação linear, redes neurais, algoritmos evolucionários, SVM e sistemas híbridos.

24 13 Para comparar a qualidade das diversas técnicas de inteligência computacional na pesquisa bibliográfica, Yu et al.[25] estabeleceram quatro critérios: precisão, interpretabilidade, simplicidade e flexibilidade. De acordo com os autores, cada uma das diferentes técnicas de inteligência computacional se destaca em um ou mais dos aspectos qualitativos, sendo o mais relevante para o problema de risco de crédito a precisão. As maiores precisões foram observadas nas técnicas de SVM e sistemas híbridos. Yu et al. [25] ressaltam a qualidade da técnica SVM, sobretudo, devido ao alto poder de classificação de padrões e suas características de funcionamento. SVM é uma classe de métodos auto adaptáveis, não lineares, dirigidos pelas amostras sem que haja a necessidade de suposições específicas (por exemplo, distribuição estatística normal), no qual se pode construir uma função de discriminante linear para substituir a função não linear de mapeamento de entrada, com a vantagem de uma dimensão mais baixa que a original. Em consequência dessa linearidade da função discriminante, a complexidade computacional não fica dependente da dimensão da amostra. Outra característica importante é a boa capacidade de generalização obtida pelos métodos, através da maximização da separação de hiperplanos, evitando mínimos locais [41]. 2.2 Modelos para classificação de risco de crédito no setor de energia elétrica No setor de energia elétrica, a análise de crédito é feita com o auxílio dos chamados ratings de crédito que são informações públicas que representam o

25 14 julgamento de analistas de crédito, supostamente bem informados, a respeito da capacidade das empresas em honrar compromissos financeiros assumidos. Geralmente essas agências de rating atribuem apenas uma nota ou um conceito às empresas. Por exemplo, as agências Moody s e Standard & Poor s atribuem os conceitos AAA e Aaa, respectivamente, às empresas consideradas de altíssima qualidade, com mínimo risco de crédito e capacidade de pagamento dos compromissos extremamente forte. Mesmo sendo importante, esse tipo de modelo não é suficiente. A quantificação do risco econômico associado a um negócio exige o cálculo numérico da probabilidade de default associada ao parceiro. Poucos autores propõem modelos para o cálculo da probabilidade de default. Encontramos, na literatura, o modelo Silva [26] que utilizou a ferramenta estatística de análise discriminante linear para classificar empresas brasileiras como solventes ou insolventes. O autor incorporou ao modelo o cálculo da probabilidade de insolvência (evento de default) das empresas. Após fazer uma pesquisa dos trabalhos existentes, Silva [26] fez um refinamento dos índices financeiros que deveriam ser incorporados ao modelo e testou outros fatores como a segmentação das empresas e horizonte de tempo. Segundo o autor, é necessário desenvolver modelos específicos para empresas atuantes em setores diferentes (industrial ou comercial, por exemplo), pois essa separação garante maior eficácia nos resultados. Silva [26] construiu dois modelos distintos: um para empresas comercias e outro para empresas industriais. Para cada segmento de empresas o autor analisou o risco de crédito para dois horizontes de tempo distintos, 12 e 24 meses. Martins e Galli [27] fizeram uso do modelo de Cox [28] para classificar companhias brasileiras de capital aberto com o objetivo de avaliar o risco de crédito.

26 15 Esse modelo, também conhecido como modelo de riscos proporcionais de Cox, pertence a uma área da estatística denominada Análise de Sobrevivência (Survival Analysis). Essa metodologia fornece não apenas a probabilidade de que um determinado evento de default ocorra no futuro, mas também uma estimativa do tempo até sua ocorrência. Como sugestão para trabalhos futuros, os autores consideram interessante a realização de estudos setoriais que contemplem a estimação de modelos de previsão de insolvência para empresas de mesma atividade econômica. Nesse sentido, Martins e Galli acreditam que o percentual de acerto do Modelo de Cox tende a se elevar, na medida em que empresas de um mesmo setor possuem não apenas características semelhantes, mas tendem a reagir da mesma forma a determinadas mudanças conjunturais. Os trabalhos desenvolvidos por Silva [26] e Martins e Galli [27] foram o marco inicial dessa dissertação. Pois, além de serem modelos que permitem fazer classificação de empresas brasileiras quanto a serem concordatária ou não concordatária, permitem também estimar probabilidades de default. Os autores tiveram também o cuidado de construir modelos distintos para empresas de mesma atividade econômica, obtendo assim um melhor desempenho. Os modelos desenvolvidos por Silva [26] fazem uso da metodologia de análise discriminante linear que é um método estatístico multivariado que se emprega para descobrir as características que distinguem os membros de diferentes grupos, de modo que, conhecidas as características de um novo membro, seja possível prever a que grupo pertence. Segundo essa metodologia as empresas são classificadas de acordo com índices financeiros. Cada um dos índices utilizados no modelo recebe um peso, que é referente à sua ordem de grandeza e importância relativa no conjunto. Esses pesos foram obtidos

27 16 através do método de mínimos quadrados, de forma que a subjetividade do analista não interfere no resultado final da classificação. O modelo pode ser representado de forma básica como: (3.1) onde, Z é o valor da função que irá classificar a empresa, a 1 é o índice do coeficiente x 1, o peso de x 1, a 2 é o índice do coeficiente x 2, o peso de x 2, a n é o índice do coeficiente x n, o peso de x n, x 1, x 2, x 3,..., x n representam cada um dos índices selecionados. Silva [26] estimou dois tipos de modelo: um para classificar empresas industriais e outro para classificar empresas comerciais, cada qual utilizando variáveis distintas e pesos distintos. Cada modelo indica a probabilidade de insolvência da empresa para o próximo exercício (próximos 12 meses) e a possibilidade de insolvência para os dois próximos exercícios (próximos 24 meses). O ponto de separação entre empresas boas e insolventes é zero. Na figura abaixo mostramos a relação que Silva [26] utiliza entre os valores das funções Z e a probabilidade de solvência P(S) de uma empresa. Figura 01 Relação entre os valores de Z e a probabilidade de solvência.

28 17 No entanto, para fazer uso dessa metodologia é crucial a verificação de alguns pressupostos, tais como a presença de outliers, pois uma análise discriminante é altamente sensível à presença de outliers ou valores extremos de variáveis que têm um largo impacto nas médias e também aumentam as variâncias, podendo resultar em classificações erradas. Assim, os outliers devem ser identificados e removidos antes da análise. Outro pressuposto é que as variáveis sigam uma distribuição Normal multivariada, sendo necessária a confirmação através de testes estatísticos de normalidade. O modelo desenvolvido por Martins e Galli, permite estimar a probabilidade de sobrevivência para diferentes horizontes de tempo obtendo assim o perfil de sobrevivência das empresas incluídas na amostra. Além disso, esse modelo possui a vantagem de não estabelecer qualquer hipótese sobre a forma da distribuição estatística dos dados. Entretanto, o modelo possui algumas limitações. Pois da mesma forma que outras técnicas estatísticas utilizadas na previsão de insolvência, o modelo de risco proporcional exige dados anteriores ao evento sob análise. Além disso, o modelo assume que os valores das variáveis independentes não se alteram ao longo do período de tempo no qual se desenvolve o estudo (suposição de proporcionalidade das taxas de falha). Segundo Whalen [29], a violação dessa hipótese pode reduzir a precisão do modelo. A grande dificuldade em fazermos uso das duas metodologias citadas acima, é a inexistência, em muitos casos, de um conjunto tão amplo de informações disponíveis para podermos garantir as exigências de cada modelo. No caso da analise discriminante linear a presença de outliers pode ser um empecilho para seu uso, e a simples retirada desse valor extremo pode causar um desvio da realidade além de diminuir ainda mais as

29 18 informações. É comum que empresas industriais (comerciais) tenham indicadores financeiros bem diferenciados em relação a valor, assim uma grande empresa que tenha indicadores elevados (ou baixos) em relação às demais seria eliminada da etapa de treinamento do modelo comprometendo assim o seu poder de classificação. No caso do modelo de Cox, a falta de informação também dificulta sua implementação, pois o método é fortemente influenciado pelo tamanho da amostra. Outra dificuldade para fazermos uso desse modelo é garantirmos a suposição de proporcionalidade das taxas de falha, ou seja, assumirmos que os valores das variáveis independentes não se alteram ao longo do período de tempo no qual se desenvolve o estudo. Assumir essa hipótese não é muito adequado, uma vez que o comportamento temporal dos indicadores de uma empresa pode ser muito dinâmico. Assim, o desenvolvimento de uma metodologia que permita fazer classificação, sem perda de generalização, a partir de amostras que não disponibilizem muitas informações ou que não tenham alta dependência com o tamanho da amostra se faz necessário.

30 19 3 O modelo proposto O modelo proposto nesse trabalho faz uso da técnica de aprendizado de máquina conhecida como Máquina de Vetor Suporte, do inglês Support Vectors Machine SVM. A escolha dessa metodologia foi devida sua flexibilidade e sua alta capacidade de classificação, além de não haver problemas em relação à alta dependência com o tamanho da amostra ou outliers. Antes de iniciarmos a apresentação do modelo proposto, será feita uma breve explanação sobre aprendizado de máquina. 3.1 Conceitos básicos de aprendizado de máquina A aprendizagem de maquina é um sub-campo da inteligência artificial dedicado ao desenvolvimento de algoritmos e técnicas que permitam ao computador aprender, isto e, que permitam ao computador aperfeiçoar seu desempenho em alguma tarefa. As técnicas de Aprendizado de Máquina (AM) fazem uso de um princípio de inferência denomina indução, no qual se obtém conclusões genéricas a partir de um conjunto particular de dados. O aprendizado indutivo pode ser dividido em dois tipos principais: supervisionado e não supervisionado.

31 20 No aprendizado supervisionado, o objetivo é induzir conceitos a partir de exemplos pré-definidos, ou seja, exemplos questão rotulados com uma classe conhecida. No aprendizado não supervisionado as classes não estão pré-definidas, ou seja, existe a incerteza sobre a saída esperada. Nesses casos, é comum utilizar os métodos probabilísticos para simular a distribuição de probabilidades dos dados em cada classe. Para realizar tais procedimentos, é amplamente difundida a utilização da aprendizagem bayesiana ou redes bayesianas. O tipo de aprendizado abordado neste trabalho é o supervisionado. Neste caso, dado um conjunto de exemplos rotulados na forma (x i,y i ), em que x i representa uma amostra e y i denota o seu rótulo, deve-se construir um classificador, também denominado modelo, capaz de prever o rótulo de novos dados. Esse processo de indução de um classificador a partir de uma amostra de dados é denominado treinamento. O classificador obtido também pode ser visto como uma função f, a qual recebe um dado x e fornece uma predição y, ou seja, fornece uma classificação. Nesse trabalho, o fenômeno em estudo, ou seja, os rótulos ou classes assumem apenas valores discretos 1,..., k. Se os rótulos possuem valores contínuos, tem-se um problema de regressão, que não é foco desse trabalho. Um problema de classificação no qual k = 2 é denominado binário. Para k > 2, configura-se um problema multiclasses. Cada amostra x, também referenciada por dado ou caso, é tipicamente representada por um vetor de características, ou atributos. Normalmente, há dois tipos básicos de atributos: nominal e contínuo. Um atributo é definido como nominal (ou categórico) quando não existe uma ordem entre os valores que ele pode assumir (por exemplo, entre cores). No caso de atributos contínuos, é possível definir uma ordem linear nos valores assumidos (por exemplo, entre pesos).

32 21 As técnicas de AM idealmente devem ser robustas a ruídos presentes nos dados, ou seja, espera-se que a obtenção dos classificadores através dessas técnicas minimize a influência de outliers no processo de indução, permitindo assim uma melhor avaliação dos dados disponíveis. Os conceitos referentes à construção de um classificador a partir do aprendizado supervisionado são representados de forma simplificada na Figura 02. Tem-se nessa figura um conjunto com n dados x i. Cada dado x i possui m atributos, ou seja, x i = (x i1,..., x im ) e as variáveis y i representam as classes às quais cada dado x i pertence. Com essas informações a disposição, o algoritmo de AM extrai um classificador f(x). Figura 02 Indução de classificador em aprendizado supervisionado A obtenção de um classificador por um algoritmo de AM a partir de uma amostra de dados também pode ser considerada um processo de busca. Procura-se, entre todas as hipóteses que o algoritmo é capaz de gerar a partir dos dados, aquela com melhor capacidade de descrever o domínio em que ocorre o aprendizado [30]. Para estimar as taxas de acerto e de erro obtidas por um classificador, em geral, divide-se os dados em dois subconjuntos disjuntos: de treinamento e de teste. O subconjunto de treinamento é utilizado no aprendizado do classificador e o subconjunto

33 22 de teste é utilizado para medir o grau de efetividade do aprendizado do classificador na predição de novos dados. Um conceito comumente empregado em AM é o poder de generalização de um classificador, que é definido como a sua capacidade de prever corretamente a classe de novos dados. Em se tratando de generalização de um classificador, dois fenômenos têm influência direta no seu desempenho: a) Superajustamento do classificador: esse fenômeno ocorre quando o modelo se especializa nos dados de treinamento, apresentando baixa acurácia quando confrontado com novos dados. Esse fenômeno é também conhecido como over fitting. b) Subajustamento do classificador: Esse fenômeno ocorre quando o classificador apresenta baixa acurácia mesmo no conjunto de treinamento. Esse fenômeno é também conhecido como under fitting. Na próxima seção, iniciaremos a apresentação da metodologia utilizada para o modelo proposto desse trabalho. 3.2 Máquinas de vetor suporte Uma das estratégias de maior sucesso no equacionamento de problemas de classificação é a denominada Máquina de Vetor Suporte, mais conhecida pela denominação em inglês Support Vector Machine (SVM) [31]. De forma simplificada, pode-se dizer que SVM é uma técnica de aprendizado de máquina capaz de produzir classificadores com a máxima capacidade de generalização. Ou seja, a SVM é capaz de produzir classificadores com uma boa capacidade de predizer corretamente dados não presentes na amostra de treinamento.

34 23 A SVM é uma técnica relativamente recente. Foi proposta por Vapnik em 1995 [32] para resolver problemas de classificação binários, tendo sido utilizadas com sucesso em aplicações de reconhecimento de padrões, tais como categorização de textos, reconhecimento de caracteres manuscritos, reconhecimento de textura, análise de expressões de genes, reconhecimento de objetos em três dimensões, etc. Basicamente o funcionamento de uma SVM pode ser descrito da seguinte forma: dadas duas classes e um conjunto de pontos que pertencem a essas classes, uma SVM determina o hiperplano que separa os pontos de forma a colocar o maior numero de pontos da mesma classe do mesmo lado, enquanto maximiza a distância de cada classe a esse hiperplano. A distância de uma classe a um hiperplano é definida como a menor distância entre ele e os pontos dessa classe e é conhecida como margem de separação, ou simplesmente margem. O hiperplano gerado pela SVM é determinado por um subconjunto dos pontos das duas classes, chamado vetores de suporte [39]. Ver figura 03 abaixo. Figura 03 Hiperplano ótimo separando os dados com a máxima margem e os vetores suporte.

35 24 O treinamento de uma SVM consiste em um problema de otimização quadrático que é atrativo pela garantia da convergência para um mínimo global da superfície de erro (exceto quando algum problema de precisão numérica está presente), onde o erro refere-se à diferença entre a resposta desejada e a saída da SVM [33]. Uma das maiores vantagens da SVM é a sua flexibilidade. Utilizando os conceitos de maximização de margem e dualidade, pode-se adaptar o problema de classificação binária para resolver muitos outros tipos de problemas. Nesta sessão, discutiremos as máquinas de vetor suporte para os problemas de classificação binária. Primeiro, iremos apresentar o caso em que os dados de treinamento são assumidos linearmente separáveis no espaço de entrada através do conceito de hard-margin (margem rígida, ou larga) de máquinas de vetores suporte. Em seguida, abordaremos o caso em que dados de treinamento não são linearmente separáveis, onde apresentaremos o conceito de soft-margin de máquinas de vetores suporte. O modelo proposto nesse trabalho usa a ideia de soft-margin SVM com Hard-Margin A complexidade de uma SVM está associada à forma pela qual os dados estão distribuídos, sendo o caso mais simples quando os dados podem ser linearmente separados por um hiperplano. Para padrões linearmente separáveis, a solução do problema de treinamento de uma SVM consiste em achar um hiperplano que separe perfeitamente os pontos de cada classe maximizando a margem de separação. Esse hiperplano e chamado de hiperplano ótimo.

36 25 Considere M dados de treinamento (dados de entrada) m- dimensional pertencente a classe 1 ou 2 e associado a cada um rótulo de classe se for da classe 1 e se for da classe 2. Se os dados forem linearmente separáveis, podemos definir o hiperplano ótimo como sendo: (3.2) Onde é o vetor m-dimensional normal ao hiperplano separador, é o conjunto de pontos de entrada e Assim, para determina o deslocamento do hiperplano em relação à origem., temos a seguinte relação: { (3.3) O fato da amostra de treinamento ser linearmente separável nos dá garantias de que nenhum dos dados de treinamento satisfaça a igualdade. Assim, para controlar a separabilidade, em vez de (3.3), podemos considerar as seguintes inequações: { (3.4) Onde é uma constante de tal forma que podemos afirmar que não há nenhum dado entre e. Mas se dividirmos ambos os lados de (3.4) pela constante, obteremos as seguintes inequações:

37 26 { (3.5) Considerando a restrição imposta por (3.5), podemos afirmar que não há nenhum dado de treinamento entre e, sendo a margem sempre maior que a distância entre os hiperplanos e. Devido a esta suposição a SVM obtida é normalmente chamada de SVM com margens rígidas (ou largas). A inequação (3.5) é equivalente a: (3.6) E a região decisão é chamada de região de generalização para a função de. Assim, existem infinitas de funções de decisão que satisfazem (3.6) como mostra a figura 04.

38 27 Hiperplano ótimo Margem máxima Figura 04 Hiperplano ótimo de separando no espaço bidimensional. Entretanto, estamos interessados no hiperplano ótimo. Assim, seja um ponto no hiperplano e um ponto no hiperplano, como mostra na figura 6. Projetando na direção de, que é ortogonal ao hiperplano separador, é possível obter a distância entre os hiperplanos e [34]. A projeção é apresentada na equação (3.7). ( ) (3.7)

39 28 Figura 05 Cálculo da distância entre os hiperplanos e. A diferença entre os hiperplanos e, leva a. Substituindo esse resultado em (3.7), tem-se: (3.8) Como desejamos encontrar o comprimento do vetor projetado, toma-se a norma da equação (3.8), obtendo: (3.9)

40 29 Essa é a distância, mostrada na figura 05. Como e foram calibrados de forma a não haver amostras entre e, é a distância mínima entre o hiperplano separador e os dados de treinamento. De acordo com Campbell [34], essa distância é definida como a margem geométrica do classificador. (3.10) A equação (3.10) mostra que maximizar a margem de separação entre as classes é equivalente a minimizar a norma euclidiana do vetor de pesos. Em resumo, o hiperplano ótimo definido pela equação (3.5), apresenta um vetor de pesos que leva à máxima separação entre as amostras positivas e negativas. Dessa forma, recorre-se ao seguinte problema de otimização [35]: (3.11) (3.12) Onde as restrições são impostas de maneira a assegurar que não existam amostras de treinamento entre as margens de separação das classes. Como a função objetivo é convexa e os pontos que satisfazem as restrições formam um conjunto convexo, esse problema possui um único mínimo global [36]. Problemas desse tipo podem ser solucionados com a utilização de uma função Lagrangeana. Através desse tipo de função podemos representar o problema primal P1

41 30 na sua formulação dual, onde a função objetivo dependerá unicamente dos chamados multiplicadores de Lagrange. Utilizando a teoria dos multiplicadores de Lagrange, podemos representar (3.11) através da sua correspondente função Lagrangena, como: (3.13) Onde são os multiplicadores de Lagrange. A solução ótima de (3.13) é dada pelo ponto de sela, onde (3.13) e minimizado em relação a e e maximizada com relação a, e que satisfaça as condições de Karush-Kuhn-Tucker (KKT):, (3.14), (3.15) (3.16) (3.17) A partir de (3.16) podemos concluir que, ou e deve ser satisfeito. Os dados de entrada quando são os chamados vetores de suporte. Usando (3.13), podemos reduzir (3.14) e (3.15), respectivamente, para: e (3.18) (3.19)

42 31 Substituindo (3.18) e (3.19) em (3.13), chegamos ao seguinte problema dual: (3.20) { (3.21) O problema formulado P2 é conhecido como SVM com margens rígidas. Como (3.22) A maximização de (3.20) sob as restrições (3.21) é um problema de programação quadrática côncavo. Se existe uma solução, ou seja, se o problema de classificação é linearmente separável, a solução ótima global existe. Na programação quadrática, os valores das funções objetivo primal (problema P1) e dual (problema P2) coincide na solução ótima, se existir [37]. Os dados de treinamento que estão a uma distância do hiperplano ótimo igual à largura da margem, ou seja, os vetores suporte para as classes 1 e 2, possuem seus respectivos. Para o restante dos dados de treinamento os. Então, a partir de (3.18) a função de decisão pode ser reescrita como: (3.23) Onde S é o conjunto de índices associado aos vetores suporte. Das condições de KKT (3.16), b é dado por:

43 32 (3.24) Onde é um vetor suporte. Do ponto de vista da precisão dos cálculos, é melhor tomar a média entre os vetores de suporte da seguinte forma [37]:. (3.25) Assim, um dado desconhecido é classificado como: { (3.26) Se, é inclassificável SVM com Soft-Margin As formulações de SVM apresentadas até agora funcionam apenas quando os dados são linearmente separáveis. Em problemas reais este comportamento nem sempre é encontrado, sendo a maioria deles complexos e não-lineares. Quando os dados não são linearmente separáveis, não existe solução viável para o problema de SVM com margens rígidas. O método de SVM utilizado nesse trabalho é baseado em um algoritmo que além de maximizar a margem de separação entre as classes e o hiperplano, possui variáveis de folga que possibilitam a separação de classes não - linearmente separáveis, ou seja, podem existir erros de classificação durante o processo de treinamento.

44 33 Para permitir a inseparabilidade, são introduzidas variáveis de folga não negativas em (3.6), garantindo a existência de solução viável. (3.27) Para uma amostra de treinamento, se ( na figura 7), não temos a máximo margem, mas ainda estão corretamente classificados. Mas se ( na figura 7) as amostras são classificados erroneamente pelo hiperplano. Uma vez que as variáveis de folga não podem assumir valores negativos e sempre que assumirem valores maiores que 1 implica em erro, temos um objetivo formado, encontrar um hiperplano que minimize. Hiperplano ótimo Margem máxima Figura 06 Caso de dados inseparáveis no espaço bidimensional. Sendo assim, o modelo de otimização primal para o hiperplano ótimo de separação pode ser construído da seguinte maneira[37]:

45 34 (3.30) (3.31) (3.32) Onde e C é uma constante, chamada de constante de regularização, que é usada para controlar o peso dado ao termo referente aos erros de classificação na função objetivo. A constante C também pode ser entendida como o trade-off entre a maximização da margem e a minimização dos erros de classificação. Similarmente ao caso linearmente separável, podemos representar (3.30) através da sua correspondente função Lagrangena, como: (3.33) Onde e são não negativos. Para a solução ótima, as seguintes condições de KKT são satisfeitas:, (3.34), (3.35), (3.36) (3.37)

46 35 (3.38) (3.39) Usando (3.33), podemos reduzir (3.24) a (3.36), respectivamente para: (3.40) (3.41). (3.42) Assim, substituindo (3.40) a (3.42) em (3.33), obteremos a respectiva formulação dual do problema P3: (3.43) (3.44) (3.45) A única diferença entre a formulação do problema P4 (soft- margin) para o problema P2 (hard- margin) é que não pode exceder a constante de regularização C. De acordo com (3.37), (3.38) e (3.42), existem três casos para : 1., então, implicando na classificação correta de. 2., então e. Implicando em e é um vetor suporte conhecido como vetor suporte ilimitado.

47 36 3., então e. Assim, é um vetor suporte conhecido como vetor suporte limitado. Se, é corretamente classificado,, é classificado incorretamente. A função de decisão é a mesma para o caso de SVM com hard-margin e é dada por: (3.46) Onde S é o conjunto de índices associados aos vetores suporte. Pelo fato dos associados aos vetores suporte serem não nulos, o somatório em (3.46) é feito somente para os que são vetores suporte. Então para os ilimitados, (3.47) é satisfeita. Para garantir a precisão dos cálculos, tomamos a média de b que é calculada em relação aos vetores suporte ilimitados,, (3.48) onde U é o conjunto de índices associados aos vetores suporte ilimitados. Assim, uma amostra desconhecida é classificada como: { (3.49)

48 37 Se, está no limite, portanto é inclassificável. Quando não existem vetores suporte limitados, a região é uma região de generalização, que é a mesma para o caso de SVM com hard-margin Cálculo da probabilidade de default Para converter a resposta da SVM em probabilidade, optou-se em utilizar o teorema de Bayes, uma vez que nesse trabalho foi assumido que os erros de classificação têm a mesma importância. Ou seja, classificar uma empresa concordatária como sendo não concordatária é tão ruim quanto classificar uma empresa não concordatária como sendo concordatária. O teorema de Bayes está descrito logo abaixo. Sejam os eventos: C i : A empresa pertence a classe i (i = 1, 2) R j : A nova observação encontra-se na região j (j = 1, 2,..., R) A fórmula de Bayes e dada por, [ ] (3.50) onde, [ ]. (3.51)

49 38 4 Aplicações do modelo Nesse capítulo apresentaremos dois casos exemplos da aplicação do modelo de SVM proposto. Para melhores resultados, as empresas foram divididas em grupos (industrial e comercial) e o histórico foi restrito aos últimos 10 anos, já que um passado distante pode não representar o presente de forma precisa. Cada grupo foi dividido em amostra de treinamento e amostra de validação (ou teste). Para cada grupo, através do modelo de SVM com soft-margin, construímos a fronteira entre concordata e não concordata e em seguida estimamos a probabilidade de default através do Teorema de Bayes. Todos os dados utilizados nas aplicações foram obtidos através dos relatórios de demonstrações financeiras que se encontram na base de dados da Comissão de Valores Mobiliários (CVM). 4.1 Seleção das variáveis de entrada para a SVM A base para a construção da região de solvência, ou seja, a região na qual as empresas são consideradas não concordatárias é a escolha do conjunto gerador do espaço de vetores. Por um lado, pode ser intuitivo que quanto mais informação disponível melhor, porém uma região complexa pode levar a problemas super

50 39 determinados. Excesso de dados pode ser tão fatal quanto a falta deles para a adequação do modelo. Nesse trabalho o conjunto de dados que foi utilizado inicialmente foi baseado nos principais índices citados em Silva [26] que representam a saúde financeira de uma empresa. No caso de empresas comerciais o conjunto de indicadores utilizado foi: Retorno sobre o ativo (Roa) = lucro líquido / ativo total médio Retorno sobre o patrimônio líquido (Roe) = lucro líquido /patrimônio líquido médio Margem líquida = lucro líquido / receita líquida Liquidez corrente = ativo circulante / passivo circulante Liquidez seca = (ativo circulante estoques) / passivo circulante Capital giro = (patrimônio líquido ativo permanente) / patrimônio líquido (reservas + lucros suspensos) / ativo total (variação do imobilizado) / (lucro líquido + 0,1 x imobilizado médio saldo da correção monetária + exigível a longo prazo) disponível / ativo total (ativo circulante - disponível - passivo circulante +fic* + duplicatas descontadas) / vendas *fic =Financiamentos instituições de crédito (lucro operacional + despesas financeiras) / (ativo total médio investimento médio) lucro operacional / lucro bruto (patrimônio líquido / capital de terceiros) / (margem bruta / ciclo financeiro) disponível / ativo permanente duplicatas a receber x 360 / vendas (ativo total médio salários, tributos e correções médios) / patrimônio líquido médio

51 40 Para empresas industriais, o conjunto foi: Retorno sobre o ativo (Roa) = lucro líquido / ativo total médio Retorno sobre o patrimônio líquido (Roe) = lucro líquido /patrimônio líquido médio Margem líquida = lucro líquido / receita líquida Liquidez corrente = ativo circulante / passivo circulante Liquidez seca = (ativo circulante estoques) / passivo circulante Capital de giro = (patrimônio líquido ativo permanente) / patrimônio líquido Estoques / custo do produto vendido Fornecedores / vendas (estoque médio / custo dos produtos vendidos) x 360 (passivo circulante + exigível a longo prazo) / ativo total (variação do imobilizado) / (lucro líquido + 0,1 x imobilizado médio saldo da correção monetária + exigível a longo prazo) Fornecedores / ativo total (lucro operacional + despesas financeira) / (ativo total médio investimentos médios) Capital de terceiros / (lucro líquido + 0,1 x imobilizado médio saldo da correção monetária) Estoques / ativo total A seleção das variáveis de entrada para o algoritmo de SVM foi feita de forma que a região de solvência fosse bidimensional, combinando as vantagens da precisão, eficiência e uma visualização simples onde o tomador de decisão pode, por inspeção, avaliar um parceiro e, além disso, comparar diferentes parceiros candidatos a compor o portfólio.

52 41 Antes de apresentar as variáveis selecionadas ao modelo, foi feita uma normalização no vetor de amostras utilizando a seguinte expressão: ( ) (3.52) Onde, é a variável normalizada, é o j-ésimo elemento da variável original e e são, respectivamente, a média e o desvio padrão da variável original. 4.2 Empresas comerciais Para este caso só estão sendo avaliadas empresas do setor comercial. A amostra é composta de 32 empresas sendo 16 delas usadas para a fase de treinamento do modelo e 16 para a validação. A escolha das variáveis de entrada foi baseada na combinação que resultou na melhor regra de classificação usando duas variáveis. Depois de alguns experimentos, chegamos a uma região de solvência simples e eficiente de duas dimensões definida por: Retorno sobre o Ativo (ROA) e liquidez corrente. O ROA mede a eficiência do emprego dos recursos da empresa e a liquidez corrente avalia quando uma empresa está em dificuldades financeira, uma vez que empresas com dificuldades o seu passivo tende a se elevar mais rapidamente do que os seus ativos, consequentemente sua liquidez será menor. Retorno sobre o Ativo (ROA) = Liquidez Corrente =

53 42 As empresas comerciais selecionadas para compor a amostra de treinamento encontram-se na tabela abaixo. Nessa tabela podemos também visualizar a situação financeira de cada empresa. Tabela 1 Empresas comerciais para treinamento Empresas Ambev Buettner Casa Anglo Brasileira Casa Jose Silva Chapeco Cia Paulista Cosan Drogasil Energias BR Klabin Saraiva SPSCS Tam Teka Usiminas Varig Condição real Não Concordatária Não Concordatária Concordatária Concordatária Concordatária Concordatária Não Concordatária Não Concordatária Não Concordatária Não Concordatária Não Concordatária Concordatária Não Concordatária Não Concordatária Não Concordatária Concordatária A figura 7 mostra o posicionamento das empresas do grupo de treinamento no espaço de variáveis assim como o hiperplano ótimo de separação e os vetores suporte. Os asteriscos vermelhos representam as empresas concordatárias e os asteriscos azuis representam as empresas não concordatárias. As siglas CO e NC representam, respectivamente, as regiões de concordata e não concordata e R 1, R 2, R 3 e R 4 são as subregiões que serão utilizadas na estimação da probabilidade de default.

54 43 Figura 7 Visualização das empresas comerciais para treinamento. Depois de encontrado o hiperplano ótimo de separação e os vetores suporte, estimamos a probabilidade de default. A figura 8 mostra a probabilidade de ocorrência de default em cada região R j (j=1,2,3,4). Figura 8 Visualização da probabilidade de default por região para empresas comerciais

55 44 De posse dessas probabilidades, podemos agora encontrar a probabilidade de default associado a cada nova empresa apresentada ao modelo da seguinte forma: Se o posicionamento da empresa estivar na região R 1, sua probabilidade de concordata será de 100%, se estiver em R 2, será de 67%, em R 3 será de 50% e em R 4 terá sua probabilidade de default nula. A figura 09 mostra o posicionamento das empresas do grupo de validação no espaço de variáveis. As bolas vermelhas representam as empresas concordatárias e as bolas azuis representam as empresas não concordatárias. Figura 9 Visualização das empresas comerciais de teste. A tabela 2 mostra as probabilidades associadas a cada empresa do grupo de teste assim como sua real situação financeira.

56 45 Tabela 2 Empresas comercias de teste Empresas Condição Real Probabilidade de Default obtida Arapua Concordatária 100% Bombril Não concordatária 0,00% Ceb Não concordatária 50,00% Coest Concordatária 50,00% Copas Concordatária 67% Elebra Concordatária 67% Fazendas Reunidas Boi Gordo Concordatária 100,00% Gafisa Não concordatária 0,00% Hoteis Othon Não concordatária 50,00% Iguatemi Não concordatária 0,00% Le Lis Blanc Não concordatária 0,00% Natura Não concordatária 0,00% Petrobras Não concordatária 0,00% Tractebel Não concordatária 0,00% Transbrasil Concordatária 67% Trevisa Não concordatária 50,00% Podemos observar que o modelo conseguiu uma boa estimativa da probabilidade de default para as empresas comerciais de teste. 4.3 Empresas industriais Agora iremos avaliar apenas empresas do setor industrial. A amostra é composta de 22 empresas sendo 18 delas usadas para a fase de treinamento do modelo e 04 para a validação. Assim como no caso de empresas comerciais, a escolha das variáveis de entrada foi baseada na combinação que resultou na melhor regra de classificação usando duas variáveis. Depois de alguns experimentos, chegamos as mesmas variáveis que formam a região de solvência para o casa de empresas comerciais: Retorno sobre o Ativo (ROA) e Liquidez corrente.

57 46 As empresas industriais selecionadas para compor a amostra de treinamento encontram-se na tabela abaixo. Nessa tabela podemos também visualizar a situação financeira de cada empresa. Tabela 3 Empresas industriais para treinamento Empresas Braskem Brasperola CSN Cia Itaunense Eucatex Fertilizantes Heringer Grendene Haga Kalil Sehbe MMX Metalfrio Sadia Sansuy Schulz Hypermarcas Recrusul VASP Wetzel Condição real Não concordatária Concordatária Não concordatária Concordatária Concordatária Concordatária Não concordatária Concordatária Concordatária Concordatária Não concordatária Concordatária Concordatária Não concordatária Não concordatária Concordatária Concordatária Não concordatária A figura 10 mostra o posicionamento das empresas industriais do grupo de treinamento no espaço de variáveis assim como o hiperplano ótimo de separação e os vetores suporte. Os asteriscos vermelhos representam as empresas concordatárias e os asteriscos azuis representam as empresas não concordatárias. As siglas CO e NC representam, respectivamente, as regiões de concordata e não concordata. As subregiões R 1, R 2, R 3 e R 4, que serão utilizadas na estimação da probabilidade de default, estão na mesma disposição para o caso das empresas comerciais.

58 47 Figura 10 Visualização das empresas industriais para treinamento. Depois de encontrado o hiperplano ótimo de separação e os vetores suporte, estimamos a probabilidade de default. A figura 11 mostra a probabilidade de ocorrência de default em cada região R j (j=1,2,3,4). R 4 0% R 1 100% R 3 50% R 2 50% Figura 11 Visualização da probabilidade de default por região para empresas industriais

59 48 De posse dessas probabilidades, podemos agora encontrar a probabilidade de default associado a cada nova empresa apresentada ao modelo da seguinte forma: Se o posicionamento da empresa estivar na região R 1, sua probabilidade de concordata será de 100%, se estiver em R 2, será de 50%, em R 3 será de 50% e em R 4 terá sua probabilidade de default nula. A figura 12 mostra o posicionamento das empresas do grupo de validação no espaço de variáveis. As bolas vermelhas representam as empresas concordatárias e as bolas azuis representam as empresas não concordatárias. Figura 12 Visualização das empresas industriais de teste. A tabela 4 mostra as probabilidades associadas a cada empresa do grupo de teste assim como sua real situação financeira. Tabela 4 Empresas industriais de teste Empresas Condição Real Probabilidade de Default obtida Metal leve Não Concordatária 0% Sharp Concordatária 100% Tectoy Concordatária 100% Vale Não Concordatária 0%

tipos de métodos, técnicas de inteligência artificial e técnicas de otimização. Por fim, concluise com as considerações finais.

tipos de métodos, técnicas de inteligência artificial e técnicas de otimização. Por fim, concluise com as considerações finais. 1. Introdução A previsão de vendas é fundamental para as organizações uma vez que permite melhorar o planejamento e a tomada de decisão sobre o futuro da empresa. Contudo toda previsão carrega consigo

Leia mais

Análise de Risco de Crédito em Correspondentes Bancários através de Redes Neurais

Análise de Risco de Crédito em Correspondentes Bancários através de Redes Neurais Análise de Risco de Crédito em Correspondentes Bancários através de Redes Neurais Marcelo França Corrêa, Marley Vellasco ICA: Applied Computational Intelligence Laboratory Department of Electrical Engineering

Leia mais

Exemplo de Aplicação do DataMinig

Exemplo de Aplicação do DataMinig Exemplo de Aplicação do DataMinig Felipe E. Barletta Mendes 19 de fevereiro de 2008 INTRODUÇÃO AO DATA MINING A mineração de dados (Data Mining) está inserida em um processo maior denominado Descoberta

Leia mais

Cálculo da duration como ferramenta auxiliar aos modelos de previsão de insolvência

Cálculo da duration como ferramenta auxiliar aos modelos de previsão de insolvência Cálculo da duration como ferramenta auxiliar aos modelos de previsão de insolvência Prof.Dr.Alexandre Assaf Neto Professor do Departamento de Contabilidade da Faculdade de Economia, Administração e Contabilidade

Leia mais

UNIVERSIDADE DE SÃO PAULO Faculdade de Economia, Administração e Contabilidade Departamento de Administração Pós-Graduação

UNIVERSIDADE DE SÃO PAULO Faculdade de Economia, Administração e Contabilidade Departamento de Administração Pós-Graduação UNIVERSIDADE DE SÃO PAULO Faculdade de Economia, Administração e Contabilidade Departamento de Administração Pós-Graduação VI SEMEAD Seminários em Administração FEA-USP Área Temática: Finanças Título:

Leia mais

TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE

TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE Engenharia de Computação Professor: Rosalvo Ferreira de Oliveira Neto Estudos Comparativos Recentes - Behavior Scoring Roteiro Objetivo Critérios de Avaliação

Leia mais

Proposição de Modelo de Análise Discriminante para Avaliação de Desempenho de Empresas de Sucesso e Fracasso do Setor de Indústrias Manufatureiras

Proposição de Modelo de Análise Discriminante para Avaliação de Desempenho de Empresas de Sucesso e Fracasso do Setor de Indústrias Manufatureiras Proposição de Modelo de Análise Discriminante para Avaliação de Desempenho de Empresas de Sucesso e Fracasso do Setor de Indústrias Manufatureiras Idalberto José Das Neves Júnior Saliza Rodrigues de Faria

Leia mais

3 Metodologia de Previsão de Padrões de Falha

3 Metodologia de Previsão de Padrões de Falha 3 Metodologia de Previsão de Padrões de Falha Antes da ocorrência de uma falha em um equipamento, ele entra em um regime de operação diferente do regime nominal, como descrito em [8-11]. Para detectar

Leia mais

AULAS 13, 14 E 15 Correlação e Regressão

AULAS 13, 14 E 15 Correlação e Regressão 1 AULAS 13, 14 E 15 Correlação e Regressão Ernesto F. L. Amaral 23, 28 e 30 de setembro de 2010 Metodologia de Pesquisa (DCP 854B) Fonte: Triola, Mario F. 2008. Introdução à estatística. 10 ª ed. Rio de

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Professor: Rosalvo Ferreira de Oliveira Neto Disciplina: Inteligência Artificial Tópicos 1. Definições 2. Tipos de aprendizagem 3. Paradigmas de aprendizagem 4. Modos de aprendizagem

Leia mais

O QUE É E COMO FUNCIONA O CREDIT SCORING PARTE I

O QUE É E COMO FUNCIONA O CREDIT SCORING PARTE I O QUE É E COMO FUNCIONA O CREDIT SCORING PARTE I! A utilização de escores na avaliação de crédito! Como montar um plano de amostragem para o credit scoring?! Como escolher as variáveis no modelo de credit

Leia mais

KDD. Fases limpeza etc. Datamining OBJETIVOS PRIMÁRIOS. Conceitos o que é?

KDD. Fases limpeza etc. Datamining OBJETIVOS PRIMÁRIOS. Conceitos o que é? KDD Conceitos o que é? Fases limpeza etc Datamining OBJETIVOS PRIMÁRIOS TAREFAS PRIMÁRIAS Classificação Regressão Clusterização OBJETIVOS PRIMÁRIOS NA PRÁTICA SÃO DESCRIÇÃO E PREDIÇÃO Descrição Wizrule

Leia mais

Introdução. Capítulo 1

Introdução. Capítulo 1 Capítulo 1 Introdução Em computação, muitos problemas são resolvidos por meio da escrita de um algoritmo que especifica, passo a passo, como resolver um problema. No entanto, não é fácil escrever um programa

Leia mais

Pós-Graduação "Lato Sensu" Especialização em Análise de Dados e Data Mining

Pós-Graduação Lato Sensu Especialização em Análise de Dados e Data Mining Pós-Graduação "Lato Sensu" Especialização em Análise de Dados e Data Mining Inscrições Abertas Início das Aulas: 24/03/2015 Dias e horários das aulas: Terça-Feira 19h00 às 22h45 Semanal Quinta-Feira 19h00

Leia mais

ANÁLISE DAS DEMONSTRAÇÕES FINANCEIRAS

ANÁLISE DAS DEMONSTRAÇÕES FINANCEIRAS Bertolo CAPÍTULO 3 ANÁLISE DAS DEMONSTRAÇÕES FINANCEIRAS CONCEITOS PARA REVISÃO Devido aos investidores basearem as suas decisões de compra e venda em suas expectativas sobre a performance futura da empresa,

Leia mais

Necessidade de Capital de Giro, Compras, Vendas e Regressão Linear.

Necessidade de Capital de Giro, Compras, Vendas e Regressão Linear. Necessidade de Capital de Giro, Compras, Vendas e Regressão Linear. MAXIMILLIANO DA SILVA MARINHO Graduando Do Curso De Ciências Contábeis Da UFPA maxi_marinho@yahoo.com.br Heber Lavor Moreira Prof Orientador

Leia mais

O QUE É E COMO FUNCIONA O CREDIT SCORING PARTE II

O QUE É E COMO FUNCIONA O CREDIT SCORING PARTE II O QUE É E COMO FUNCIONA O CREDIT SCORING PARTE II! Como implementar o escore de crédito?! Como avaliar o escore de crédito?! Como calcular a função discriminante usando o Excel?! Como aplicar a função

Leia mais

http://www.publicare.com.br/site/5,1,26,5480.asp

http://www.publicare.com.br/site/5,1,26,5480.asp Página 1 de 7 Terça-feira, 26 de Agosto de 2008 ok Home Direto da redação Última edição Edições anteriores Vitrine Cross-Docking Assine a Tecnologística Anuncie Cadastre-se Agenda Cursos de logística Dicionário

Leia mais

ANÁLISE ECONÔMICA DE BALANÇO

ANÁLISE ECONÔMICA DE BALANÇO 1 ANÁLISE ECONÔMICA DE BALANÇO 1 QUOCIENTES DE RENTABILIDADE Os Quocientes de Rentabilidade servem para medir a capacidade econômica da empresa, isto é, evidenciam o grau de êxito econômico obtido pelo

Leia mais

Análise de Regressão. Tópicos Avançados em Avaliação de Desempenho. Cleber Moura Edson Samuel Jr

Análise de Regressão. Tópicos Avançados em Avaliação de Desempenho. Cleber Moura Edson Samuel Jr Análise de Regressão Tópicos Avançados em Avaliação de Desempenho Cleber Moura Edson Samuel Jr Agenda Introdução Passos para Realização da Análise Modelos para Análise de Regressão Regressão Linear Simples

Leia mais

Construção de Modelos de Previsão de Risco de Crédito Utilizando Técnicas de Estatística Multivariada

Construção de Modelos de Previsão de Risco de Crédito Utilizando Técnicas de Estatística Multivariada MINISTÉRIO DA EDUCAÇÃO UNIVERSIDADE FEDERAL DE PELOTAS PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO Construção de Modelos de Previsão de Risco de Crédito Utilizando Técnicas de Estatística Multivariada Equipe

Leia mais

Critérios de avaliação de seguradoras

Critérios de avaliação de seguradoras Critérios de avaliação de seguradoras Junho/2004 Francisco Galiza, Consultor e Mestre em Economia (FGV) Catedrático em Rating e Estatísticas Gerenciais (ANSP) Consultor e Sócio da Empresa Rating das Seguradoras

Leia mais

TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE

TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE Engenharia de Computação Professor: Rosalvo Ferreira de Oliveira Neto Aplicações de Behavior Scoring Roteiro - Introdução - Diferença entre Credit scoring e

Leia mais

Unidade III FINANÇAS EM PROJETO DE TI. Prof. Fernando Rodrigues

Unidade III FINANÇAS EM PROJETO DE TI. Prof. Fernando Rodrigues Unidade III FINANÇAS EM PROJETO DE TI Prof. Fernando Rodrigues Quando se trabalha com projetos, é necessária a utilização de técnicas e ferramentas que nos auxiliem a estudálos, entendê-los e controlá-los.

Leia mais

A IMPORTÂNCIA DA ANÁLISE DAS DEMONSTRAÇÕES CONTÁBEIS NAS MICROS E PEQUENAS EMPRESAS

A IMPORTÂNCIA DA ANÁLISE DAS DEMONSTRAÇÕES CONTÁBEIS NAS MICROS E PEQUENAS EMPRESAS A IMPORTÂNCIA DA ANÁLISE DAS DEMONSTRAÇÕES CONTÁBEIS NAS MICROS E PEQUENAS EMPRESAS Claudio Barbosa Cardoso Orientador: Benedito Giovani Martins de Paula Linha de Pesquisa: Demonstrações Financeiras Universidade

Leia mais

SAD orientado a MODELO

SAD orientado a MODELO Universidade do Contestado Campus Concórdia Curso de Sistemas de Informação Prof.: Maico Petry SAD orientado a MODELO DISCIPLINA: Sistemas de Apoio a Decisão SAD Orientado a Modelo De acordo com ALTER

Leia mais

MESTRADO EM PESQUISA DE MERCADOS 2006 2007

MESTRADO EM PESQUISA DE MERCADOS 2006 2007 MESTRADO EM PESQUISA DE MERCADOS 2006 2007 PROGRAMA DAS DISCIPLINAS 1 1º trimestre PESQUISA DE MERCADOS Objectivos Pretende-se que os alunos: (a) adquiram os conceitos e semântica próprios do tema, (b)

Leia mais

APSP. Análise do Projeto do Sistema Produtivo. Aula 7. 22/8/2006 Por: Lucia Balsemão Furtado 1

APSP. Análise do Projeto do Sistema Produtivo. Aula 7. 22/8/2006 Por: Lucia Balsemão Furtado 1 APSP Análise do Projeto do Sistema Produtivo Aula 7 Por: Lucia Balsemão Furtado 1 Análise da Viabilidade Econômica O que é Economia? É a ciência que se preocupa em administrar escassos recursos disponíveis

Leia mais

MINERAÇÃO DE DADOS APLICADA. Pedro Henrique Bragioni Las Casas pedro.lascasas@dcc.ufmg.br

MINERAÇÃO DE DADOS APLICADA. Pedro Henrique Bragioni Las Casas pedro.lascasas@dcc.ufmg.br MINERAÇÃO DE DADOS APLICADA Pedro Henrique Bragioni Las Casas pedro.lascasas@dcc.ufmg.br Processo Weka uma Ferramenta Livre para Data Mining O que é Weka? Weka é um Software livre do tipo open source para

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Introdução Aprendizagem de Máquina Alessandro L. Koerich Introdução Desde que os computadores foram inventados temos nos perguntado: Eles são capazes de aprender? Se pudéssemos programá-los para aprender

Leia mais

capítulo 5 O CONTROLE FINANCEIRO DA ORGANIZAÇÃO Senhores, aqui estão os relatórios financeiros do ano passado. Podemos pagar nossas dívidas?

capítulo 5 O CONTROLE FINANCEIRO DA ORGANIZAÇÃO Senhores, aqui estão os relatórios financeiros do ano passado. Podemos pagar nossas dívidas? 22 capítulo 5 O CONTROLE FINANCEIRO DA ORGANIZAÇÃO A Contabilidade é o instrumento que as empresas usam para controlar suas finanças e operações. E os demonstrativos contábeis balanço patrimonial e demonstração

Leia mais

TRATAMENTO MULTIVARIADO DE DADOS POR ANÁLISE DE CORRESPONDÊNCIA E ANÁLISE DE AGRUPAMENTOS

TRATAMENTO MULTIVARIADO DE DADOS POR ANÁLISE DE CORRESPONDÊNCIA E ANÁLISE DE AGRUPAMENTOS TRATAMENTO MULTIVARIADO DE DADOS POR ANÁLISE DE CORRESPONDÊNCIA E ANÁLISE DE AGRUPAMENTOS Luciene Bianca Alves ITA Instituto Tecnológico de Aeronáutica Praça Marechal Eduardo Gomes, 50 Vila das Acácias

Leia mais

ANÁLISE DA ESTRUTURA DE LIQUIDEZ PROPOSTA POR FLEURIET: UM ESTUDO DE CASO DA EMPRESA LOCALIZA RENT A CAR

ANÁLISE DA ESTRUTURA DE LIQUIDEZ PROPOSTA POR FLEURIET: UM ESTUDO DE CASO DA EMPRESA LOCALIZA RENT A CAR 0 ANÁLISE DA ESTRUTURA DE LIQUIDEZ PROPOSTA POR FLEURIET: UM ESTUDO DE CASO DA EMPRESA LOCALIZA RENT A CAR Gabriela de Castro Gaudêncio Cassimiro 1 Thiago Moura de Carvalho 2 Rosália Gonçalves Costa Santos

Leia mais

CAPÍTULO 1 INTRODUÇÃO 1.1 INTRODUÇÃO

CAPÍTULO 1 INTRODUÇÃO 1.1 INTRODUÇÃO CAPÍTULO 1 INTRODUÇÃO 1.1 INTRODUÇÃO Em quase todas as nossas atividades diárias precisamos enfrentar filas para atender as nossas necessidades. Aguardamos em fila na padaria, nos bancos, quando trafegamos

Leia mais

Curso Superior de Tecnologia em Banco de Dados Disciplina: Projeto de Banco de Dados Relacional II Prof.: Fernando Hadad Zaidan

Curso Superior de Tecnologia em Banco de Dados Disciplina: Projeto de Banco de Dados Relacional II Prof.: Fernando Hadad Zaidan Faculdade INED Curso Superior de Tecnologia em Banco de Dados Disciplina: Projeto de Banco de Dados Relacional II Prof.: Fernando Hadad Zaidan 1 Unidade 4.5 2 1 BI BUSINESS INTELLIGENCE BI CARLOS BARBIERI

Leia mais

PERGUNTAS E RESPOSTAS QUE TODO EXECUTIVO FINANCEIRO GOSTARIA DE FAZER SOBRE ANÁLISE ECONÔMICA

PERGUNTAS E RESPOSTAS QUE TODO EXECUTIVO FINANCEIRO GOSTARIA DE FAZER SOBRE ANÁLISE ECONÔMICA CAVALCANTE & PERGUNTAS E RESPOSTAS QUE TODO EXECUTIVO FINANCEIRO GOSTARIA DE FAZER SOBRE ANÁLISE ECONÔMICA! O conceito de econômico e financeiro! Como concluir com base em indicadores! Construção de índices

Leia mais

IC Inteligência Computacional Redes Neurais. Redes Neurais

IC Inteligência Computacional Redes Neurais. Redes Neurais Universidade Federal do Rio de Janeiro PÓS-GRADUAÇÃO / 2008-2 IC Inteligência Computacional Redes Neurais www.labic.nce.ufrj.br Antonio G. Thomé thome@nce.ufrj.br Redes Neurais São modelos computacionais

Leia mais

Conceito. Praticamente todos os indivíduos e organizações recebem ou levantam, gastam ou investem dinheiro.

Conceito. Praticamente todos os indivíduos e organizações recebem ou levantam, gastam ou investem dinheiro. Plano de Ensino Conceito A Função Financeira nas Empresas Utilização das informações contábeis Áreas de Decisões Financeiras Objetivos do Administrador Financeiro Organização da Função Financeira Estrutura

Leia mais

Estudo de Macro-Alocação de Ativos FUNDAÇÃO CIBRIUS

Estudo de Macro-Alocação de Ativos FUNDAÇÃO CIBRIUS Estudo de Macro-Alocação de Ativos FUNDAÇÃO CIBRIUS Outubro de 2014 Esse documento apresenta as hipóteses, premissas e resultados do estudo de macro-alocação de ativos, conduzido pela ADITUS Consultoria

Leia mais

Uma Ferramenta para otimização em Engenharia Mecânica e aplicações na Fundição Eletromagnética de Metais

Uma Ferramenta para otimização em Engenharia Mecânica e aplicações na Fundição Eletromagnética de Metais Uma Ferramenta para otimização em Engenharia Mecânica e aplicações na Fundição Eletromagnética de Metais Departamento de Engenharia Mecânica COPPE UFRJ STIC-AMSUD, Novembro de 2009 Conteúdo Preliminares

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial Edirlei Soares de Lima INF 1771 Inteligência Artificial Aula 12 Aprendizado de Máquina Agentes Vistos Anteriormente Agentes baseados em busca: Busca cega Busca heurística Busca local

Leia mais

Estatística Aplicada ao Serviço Social

Estatística Aplicada ao Serviço Social Estatística Aplicada ao Serviço Social Prof a. Juliana Freitas Pires Departamento de Estatística Universidade Federal da Paraíba - UFPB juliana@de.ufpb.br Introdução O que é Estatística? Coleção de métodos

Leia mais

A aplicação dos Modelos de Previsão de Falência em Postos de Combustíveis: Um Estudo Exploratório. Resumo

A aplicação dos Modelos de Previsão de Falência em Postos de Combustíveis: Um Estudo Exploratório. Resumo A aplicação dos Modelos de Previsão de Falência em Postos de Combustíveis: Um Estudo Exploratório. Resumo Este trabalho busca retratar a realidade vivida por postos de combustíveis que faliram no interior

Leia mais

17/10/2012. dados? Processo. Doutorado em Engenharia de Produção Michel J. Anzanello. Doutorado EP - 2. Doutorado EP - 3.

17/10/2012. dados? Processo. Doutorado em Engenharia de Produção Michel J. Anzanello. Doutorado EP - 2. Doutorado EP - 3. Definição de Data Mining (DM) Mineração de Dados (Data Mining) Doutorado em Engenharia de Produção Michel J. Anzanello Processo de explorar grandes quantidades de dados à procura de padrões consistentes

Leia mais

1 Tipos de dados em Análise de Clusters

1 Tipos de dados em Análise de Clusters Curso de Data Mining Sandra de Amo Aula 13 - Análise de Clusters - Introdução Análise de Clusters é o processo de agrupar um conjunto de objetos físicos ou abstratos em classes de objetos similares Um

Leia mais

Pesquisa Operacional

Pesquisa Operacional GOVERNO DO ESTADO DO PARÁ UNIVERSIDADE DO ESTADO DO PARÁ CENTRO DE CIÊNCIAS NATURAIS E TECNOLOGIA DEPARTAMENTO DE ENGENHARIA Pesquisa Operacional Tópico 4 Simulação Rosana Cavalcante de Oliveira, Msc rosanacavalcante@gmail.com

Leia mais

Modelos de Risco de Crédito em Carteiras Uma Comparação Aplicada ao Caso Brasileiro

Modelos de Risco de Crédito em Carteiras Uma Comparação Aplicada ao Caso Brasileiro Modelos de Risco de Crédito em Carteiras Uma Comparação Aplicada ao Caso Brasileiro Alexandre de Oliveira - out/2013 No atual estágio de desenvolvimento das metodologias para mensuração do risco de crédito

Leia mais

Crédito. Adm. Geral. Para que Estudar Análise de Investimento e Financiamento? Título da aula: Decisões de Investimento e Financiamento I

Crédito. Adm. Geral. Para que Estudar Análise de Investimento e Financiamento? Título da aula: Decisões de Investimento e Financiamento I Adm. Geral Prof. Marcelo dos Santos Título da aula: Decisões de Investimento e Financiamento I Para que Estudar Análise de Investimento e Financiamento? Garantir melhores decisões financeiras na empresa;

Leia mais

Gestão de Recebíveis, Crédito e Cobrança. José Abraão Bezerra Maia Tatiana Parente Gress do Vale

Gestão de Recebíveis, Crédito e Cobrança. José Abraão Bezerra Maia Tatiana Parente Gress do Vale Gestão de Recebíveis, Crédito e Cobrança José Abraão Bezerra Maia Tatiana Parente Gress do Vale CRÉDITO Crédito diz respeito à troca de bens presentes por bens futuros. Função crédito não é exclusividade

Leia mais

ARTIGO 132 A ESCORAGEM DE CRÉDITO PESQUISA MAIS PROFUNDAMENTE OS DADOS

ARTIGO 132 A ESCORAGEM DE CRÉDITO PESQUISA MAIS PROFUNDAMENTE OS DADOS ARTIGO 132 A ESCORAGEM DE CRÉDITO PESQUISA MAIS PROFUNDAMENTE OS DADOS RESUMO: Escoragem de crédito pode auxiliar na simplificação de operações e eliminação de custos, na redução de perdas, na ampliação

Leia mais

INTRODUÇÃO AOS MÉTODOS FACTORIAIS

INTRODUÇÃO AOS MÉTODOS FACTORIAIS Capítulo II INTRODUÇÃO AOS MÉTODOS FACTORIAIS A Análise Factorial de Correspondências é uma técnica simples do ponto de vista matemático e computacional. Porém, devido ao elevado suporte geométrico desta

Leia mais

Pós-Graduação em Engenharia Elétrica Inteligência Artificial

Pós-Graduação em Engenharia Elétrica Inteligência Artificial Pós-Graduação em Engenharia Elétrica Inteligência Artificial João Marques Salomão Rodrigo Varejão Andreão Inteligência Artificial Definição (Fonte: AAAI ): "the scientific understanding of the mechanisms

Leia mais

Análise das Demonstrações Contábeis

Análise das Demonstrações Contábeis Análise das Demonstrações Contábeis Prof. José MANOEL da Costa As demonstrações contábeis para usuário externo, publicadas aos usuários em geral, como já visto, são publicadas conforme princípios e normas

Leia mais

Palavras-chave: Mortalidade Infantil, Análise Multivariada, Redes Neurais.

Palavras-chave: Mortalidade Infantil, Análise Multivariada, Redes Neurais. UMA ANÁLISE COMPARATIVA DE MODELOS PARA CLASSIFICAÇÃO E PREVISÃO DE SOBREVIVÊNCIA OU ÓBITO DE CRIANÇAS NASCIDAS NO RIO DE JANEIRO EM 2006 NO PRIMEIRO ANO DE VIDA Mariana Pereira Nunes Escola Nacional de

Leia mais

COMENTÁRIO AFRM/RS 2012 ESTATÍSTICA Prof. Sérgio Altenfelder

COMENTÁRIO AFRM/RS 2012 ESTATÍSTICA Prof. Sérgio Altenfelder Comentário Geral: Prova muito difícil, muito fora dos padrões das provas do TCE administração e Economia, praticamente só caiu teoria. Existem três questões (4, 45 e 47) que devem ser anuladas, por tratarem

Leia mais

ANÁLISE ECONÔMICO-FINANCEIRA DAS SIDERÚRGICAS LISTADAS NA BOVESPA: COMPARAÇÃO POR ÍNDICES-PADRÃO

ANÁLISE ECONÔMICO-FINANCEIRA DAS SIDERÚRGICAS LISTADAS NA BOVESPA: COMPARAÇÃO POR ÍNDICES-PADRÃO XXIX ENCONTRO NACIONAL DE ENGENHARIA DE PRODUÇÃO. ANÁLISE ECONÔMICO-FINANCEIRA DAS SIDERÚRGICAS LISTADAS NA BOVESPA: COMPARAÇÃO POR ÍNDICES-PADRÃO Rafael Martins Noriller (UFGD) rafael_mn1985@hotmail.com

Leia mais

Prof. Msc. Paulo Muniz de Ávila

Prof. Msc. Paulo Muniz de Ávila Prof. Msc. Paulo Muniz de Ávila O que é Data Mining? Mineração de dados (descoberta de conhecimento em bases de dados): Extração de informação interessante (não-trivial, implícita, previamente desconhecida

Leia mais

ADM041 / EPR806 Sistemas de Informação

ADM041 / EPR806 Sistemas de Informação ADM041 / EPR806 Sistemas de Informação UNIFEI Universidade Federal de Itajubá Prof. Dr. Alexandre Ferreira de Pinho 1 Sistemas de Apoio à Decisão (SAD) Tipos de SAD Orientados por modelos: Criação de diferentes

Leia mais

BANCO STANDARD DE INVESTIMENTOS S.A. ( BSI ) STANDARD BANK INTERNATIONAL HOLDINGS S.A. ( SIH ) ESTRUTURA DE GERENCIAMENTO DE RISCO DE MERCADO

BANCO STANDARD DE INVESTIMENTOS S.A. ( BSI ) STANDARD BANK INTERNATIONAL HOLDINGS S.A. ( SIH ) ESTRUTURA DE GERENCIAMENTO DE RISCO DE MERCADO BANCO STANDARD DE INVESTIMENTOS S.A. ( BSI ) STANDARD BANK INTERNATIONAL HOLDINGS S.A. ( SIH ) ESTRUTURA DE GERENCIAMENTO DE RISCO DE MERCADO ÚLTIMA VERSÃO Abril 2013 APROVAÇÃO Conselho de Administração

Leia mais

DESVENDANDO O TERMÔMETRO DE INSOLVÊNCIA DE KANITZ. Autores: José Roberto Kassai e Silvia Kassai RESUMO

DESVENDANDO O TERMÔMETRO DE INSOLVÊNCIA DE KANITZ. Autores: José Roberto Kassai e Silvia Kassai RESUMO 1 DESVENDANDO O TERMÔMETRO DE INSOLVÊNCIA DE KANITZ Autores: José Roberto Kassai e Silvia Kassai RESUMO A análise de balanço através de indicadores contábeis é enriquecida pela existência de modelos preditivos,

Leia mais

Simulado: Análise das Demonstrações Contábeis p/ TCU

Simulado: Análise das Demonstrações Contábeis p/ TCU Simulado: Análise das Demonstrações Contábeis p/ TCU Prezados(as), para fins de revisão de alguns pontos da disciplina de Análise das Demonstrações Contábeis, exigida no concurso para Auditor Federal de

Leia mais

A pesquisa de campo foi realizada com questões para os núcleos administrativo, pessoal e acadêmico e procura explorar duas situações distintas:

A pesquisa de campo foi realizada com questões para os núcleos administrativo, pessoal e acadêmico e procura explorar duas situações distintas: 4 Pesquisa de campo Neste capitulo será apresentado o resultado dos questionários da pesquisa de campo que serviu para o estudo de caso. A coleta de dados será dividida em: Núcleo administrativo Núcleo

Leia mais

FORECAST OF INSOLVENCY: A COMPARATIVE ANALYSIS BETWEEN THE FINANCIAL STATEMENTS FOR THE HITS AND ERRORS

FORECAST OF INSOLVENCY: A COMPARATIVE ANALYSIS BETWEEN THE FINANCIAL STATEMENTS FOR THE HITS AND ERRORS ABSTRACT The aim of this paper is to compare the result of applying the model prediction of insolvency, based on discriminant analysis, when combining indicators from the Balance Sheet (BP) with indicators

Leia mais

UMA ABORDAGEM DE PODA PARA MÁQUINAS DE APRENDIZADO EXTREMO VIA ALGORITMOS GENÉTICOS

UMA ABORDAGEM DE PODA PARA MÁQUINAS DE APRENDIZADO EXTREMO VIA ALGORITMOS GENÉTICOS UMA ABORDAGEM DE PODA PARA MÁQUINAS DE APRENDIZADO EXTREMO VIA ALGORITMOS GENÉTICOS Alisson S. C. Alencar, Ajalmar R. da Rocha Neto Departamento de Computação, Instituto Federal do Ceará (IFCE). Programa

Leia mais

Como aplicar o conceito de risco na análise de crédito? Parte II

Como aplicar o conceito de risco na análise de crédito? Parte II Como aplicar o conceito de risco na análise de crédito? Parte II! Como ponderar os cenários?! Como criar um rating de crédito?! O preenchimento da matriz de crédito?! A importância da análise setorial

Leia mais

Título : B2 Matemática Financeira. Conteúdo :

Título : B2 Matemática Financeira. Conteúdo : Título : B2 Matemática Financeira Conteúdo : A maioria das questões financeiras é construída por algumas fórmulas padrão e estratégias de negócio. Por exemplo, os investimentos tendem a crescer quando

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Professor: Rosalvo Ferreira de Oliveira Neto Disciplina: Inteligência Artificial Tópicos 1. Definições 2. Tipos de aprendizagem 3. Paradigmas de aprendizagem 4. Modos de aprendizagem

Leia mais

Capítulo 3 Projeções contábeis e financeiras 63

Capítulo 3 Projeções contábeis e financeiras 63 Sumário Capítulo 1 Conceitos de matemática financeira 1 1.1 Introdução 1 1.2 Taxa de juro nominal e taxa de juro real 3 1.2.1 Fórmula 3 1.3 Capitalização simples 4 1.3.1 Fórmulas 4 1.4 Capitalização composta

Leia mais

Plataforma da Informação. Finanças

Plataforma da Informação. Finanças Plataforma da Informação Finanças O que é gestão financeira? A área financeira trata dos assuntos relacionados à administração das finanças das organizações. As finanças correspondem ao conjunto de recursos

Leia mais

4 Gráficos de controle

4 Gráficos de controle 4 Gráficos de controle O gráfico de controle é uma ferramenta poderosa do Controle Estatístico de Processo (CEP) para examinar a variabilidade em dados orientados no tempo. O CEP é composto por um conjunto

Leia mais

SISTEMAS DE APOIO À DECISÃO SAD

SISTEMAS DE APOIO À DECISÃO SAD SISTEMAS DE APOIO À DECISÃO SAD Conceitos introdutórios Decisão Escolha feita entre duas ou mais alternativas. Tomada de decisão típica em organizações: Solução de problemas Exploração de oportunidades

Leia mais

ANÁLISE DAS FERRAMENTAS DE CONTROLE GERENCIAL PARA MELHORIA DA PERFORMANCE EMPRESARIAL. Prof. Elias Garcia egarcia@unioeste.br

ANÁLISE DAS FERRAMENTAS DE CONTROLE GERENCIAL PARA MELHORIA DA PERFORMANCE EMPRESARIAL. Prof. Elias Garcia egarcia@unioeste.br ANÁLISE DAS FERRAMENTAS DE CONTROLE GERENCIAL PARA MELHORIA DA PERFORMANCE EMPRESARIAL Prof. Elias Garcia egarcia@unioeste.br Prof. Elias Garcia Bacharel em Ciências Contábeis 1988 Especialização em Contabilidade

Leia mais

Análise de componentes principais (PCA)

Análise de componentes principais (PCA) Análise de componentes principais (PCA) Redução de dados Sumarizar os dados que contém muitas variáveis (p) por um conjunto menor de (k) variáveis compostas derivadas a partir do conjunto original. p k

Leia mais

O que é Finanças? 22/02/2009 INTRODUÇÃO ÀS FINANÇAS CORPORATIVAS

O que é Finanças? 22/02/2009 INTRODUÇÃO ÀS FINANÇAS CORPORATIVAS Prof. Paulo Cesar C. Rodrigues E mail: prdr30@terra.com.br INTRODUÇÃO ÀS FINANÇAS CORPORATIVAS O que é administração financeira? Qual sua importância para as corporações? Como são tomadas as decisões financeiras?

Leia mais

CONSTRUÇÃO DE UM TERMÔMETRO DE INSOLVÊNCIA

CONSTRUÇÃO DE UM TERMÔMETRO DE INSOLVÊNCIA CONSTRUÇÃO DE UM TERMÔMETRO DE INSOLVÊNCIA Universidade Federal do Pará Centro Sócio Econômico Análise de Demonstrativos Contábeis II Professor: Héber Lavor Moreira Aluno: Udson Pacheco de Souza RESUMO

Leia mais

A SUPERIORIDADE DO MÉTODO DO FLUXO DE CAIXA DESCONTADO NO PROCESSO DE AVALIAÇÃO DE EMPRESAS

A SUPERIORIDADE DO MÉTODO DO FLUXO DE CAIXA DESCONTADO NO PROCESSO DE AVALIAÇÃO DE EMPRESAS A SUPERIORIDADE DO MÉTODO DO FLUXO DE CAIXA DESCONTADO NO PROCESSO DE AVALIAÇÃO DE EMPRESAS Prof. Alexandre Assaf Neto O artigo está direcionado essencialmente aos aspectos técnicos e metodológicos do

Leia mais

Quanto vale FINANÇAS. Miguel A. Eiranova é diretor da área de corporate finance da Price Waterhouse, firma que integra a PricewaterhouseCoopers.

Quanto vale FINANÇAS. Miguel A. Eiranova é diretor da área de corporate finance da Price Waterhouse, firma que integra a PricewaterhouseCoopers. Quanto vale O preço de uma empresa, referência fundamental nas negociações de qualquer tentativa de fusão ou aquisição, nunca é aleatório. Ao contrário, sua determinação exige a combinação da análise estratégica

Leia mais

O QUE É E COMO FUNCIONA O BEHAVIOR SCORING

O QUE É E COMO FUNCIONA O BEHAVIOR SCORING O QUE É E COMO FUNCIONA O BEHAVIOR! O que é o gerenciamento do crédito através do behavior scoring?! Como construir o behavior scoring?! Como calcular a função discriminante usando o Excel?! Como implantar

Leia mais

Engenharia da Produção Projeto de Produto, QFD, FMEA e DoE DoE Dr. Egon Walter Wildauer

Engenharia da Produção Projeto de Produto, QFD, FMEA e DoE DoE Dr. Egon Walter Wildauer Tema DoE Projeto Curso Disciplina Tema Professor Pós-graduação Engenharia da Produção Projeto de Produto, QFD, FMEA e DoE DoE Dr. Egon Walter Wildauer Introdução O DoE Design of Experiments é uma ferramenta

Leia mais

Taxonomia da aprendizagem

Taxonomia da aprendizagem Taxonomia da aprendizagem Taxonomia de Bloom Desde 1948, um grupo de educadores assumiu a tarefa de classificar metas e objetivos educacionais. Eles propuseram-se a desenvolver um sistema de classificação

Leia mais

Unidade I FUNDAMENTOS DA GESTÃO. Prof. Jean Cavaleiro

Unidade I FUNDAMENTOS DA GESTÃO. Prof. Jean Cavaleiro Unidade I FUNDAMENTOS DA GESTÃO FINANCEIRA Prof. Jean Cavaleiro Introdução Definir o papel da gestão financeira; Conceitos de Gestão Financeira; Assim como sua importância na gestão de uma organização;

Leia mais

Análise de Persistência de Participantes em Planos de Previdência

Análise de Persistência de Participantes em Planos de Previdência Roberta de Souza Chun Análise de Persistência de Participantes em Planos de Previdência Dissertação de Mestrado Dissertação apresentada como requisito parcial para obtenção do grau de Mestre pelo Programa

Leia mais

Análise econômica das novas regras de solvência das seguradoras brasileiras Francisco Galiza 1 Outubro/2007

Análise econômica das novas regras de solvência das seguradoras brasileiras Francisco Galiza 1 Outubro/2007 Análise econômica das novas regras de solvência das seguradoras brasileiras Francisco Galiza 1 Outubro/2007 1) Introdução Nos últimos dias úteis de 2006, o Conselho Nacional de Seguros Privados (CNSP)

Leia mais

Analise de Rentabilidade. Prof. Peter Wilson

Analise de Rentabilidade. Prof. Peter Wilson Analise de Rentabilidade Prof. Peter Wilson 1 Fases de Crescimento e Desenvolvimento Alto Receita Baixo Tempo 2 Fonte: Venture 1000.com O Consumo do Caixa Apresenta Diferentes Dinâmicas em cada Estágio

Leia mais

Informativo Bimestral da Siqueira Campos Associados agosto de 2013 - ano VII - Número 21. Catálogo de Treinamentos 2013

Informativo Bimestral da Siqueira Campos Associados agosto de 2013 - ano VII - Número 21. Catálogo de Treinamentos 2013 Informativo Bimestral da Siqueira Campos Associados agosto de 2013 - ano VII - Número 21 Nesta edição Lean Office - Dez dicas para economizar tempo no trabalho Estatística Seis Sigma - Estatística não

Leia mais

SISTEMAS DE INFORMAÇÃO GERENCIAL SIG. Diferença entre relatórios gerados pelo SPT e os gerados pelo SIG

SISTEMAS DE INFORMAÇÃO GERENCIAL SIG. Diferença entre relatórios gerados pelo SPT e os gerados pelo SIG Introdução SISTEMAS DE INFORMAÇÃO GERENCIAL SIG A finalidade principal de um SIG é ajudar uma organização a atingir as suas metas, fornecendo aos administradores uma visão das operações regulares da empresa,

Leia mais

SISTEMÁTICA PARA SELEÇÃO DE TÉCNICAS ESTATÍSTICAS APLICADA AO DESENVOLVIMENTO DE PRODUTOS

SISTEMÁTICA PARA SELEÇÃO DE TÉCNICAS ESTATÍSTICAS APLICADA AO DESENVOLVIMENTO DE PRODUTOS SISTEMÁTICA PARA SELEÇÃO DE TÉCNICAS ESTATÍSTICAS APLICADA AO DESENVOLVIMENTO DE PRODUTOS Creusa Sayuri Tahara Amaral Grupo ei2 NUMA EESC USP São Carlos Agenda Introdução Metodologia Seis sigma Design

Leia mais

4 Análise de Dados. 4.1 Perfil dos Respondentes

4 Análise de Dados. 4.1 Perfil dos Respondentes 4 Análise de Dados 4.1 Perfil dos Respondentes A taxa de resposta foi de aproximadamente 8% de respostas na amostra de clientes que compram fora da loja (telefone e/ou Internet) e 3% na amostra de clientes

Leia mais

Regressão logística na identificação de factores de risco em acidentes automóveis e fraude de seguros.

Regressão logística na identificação de factores de risco em acidentes automóveis e fraude de seguros. Regressão logística na identificação de factores de risco em acidentes automóveis e fraude de seguros. José Luís Mourão Faculdade de Ciências Universidade do Porto 28 de Janeiro de 2013 José Luís Mourão

Leia mais

O objetivo da Mineração de Dados é extrair ou minerar conhecimento de grandes volumes de

O objetivo da Mineração de Dados é extrair ou minerar conhecimento de grandes volumes de MINERAÇÃO DE DADOS MINERAÇÃO DE DADOS O objetivo da Mineração de Dados é extrair ou minerar conhecimento de grandes volumes de dados. A mineração de dados é formada por um conjunto de ferramentas e técnicas

Leia mais

1 Introdução 1.1. Motivação e conceitos básicos

1 Introdução 1.1. Motivação e conceitos básicos 1 Introdução 1.1. Motivação e conceitos básicos Uma seguradora ou companhia de seguros, segundo o Dicionário de Seguros, define-se como uma instituição que tem como objetivo indenizar prejuízos involuntários.

Leia mais

Fábio da Silva Abrate

Fábio da Silva Abrate Fábio da Silva Abrate Elaboração de um Questionário para Avaliar as Variáveis Determinantes do Endividamento de Estudantes Universitários no Cartão de Crédito: Um Estudo Piloto Adaptado para o Mercado

Leia mais

Notas de aula número 1: Otimização *

Notas de aula número 1: Otimização * UNIVERSIDADE FEDERAL DO RIO GRANDE DO SUL UFRGS DEPARTAMENTO DE ECONOMIA CURSO DE CIÊNCIAS ECONÔMICAS DISCIPLINA: TEORIA MICROECONÔMICA II Primeiro Semestre/2001 Professor: Sabino da Silva Porto Júnior

Leia mais

OS NEGÓCIOS LUCRO = VOLUME PRODUZIDO X PREÇO - CUSTO

OS NEGÓCIOS LUCRO = VOLUME PRODUZIDO X PREÇO - CUSTO OS NEGÓCIOS Odilio Sepulcri* INTRODUÇÃO A sobrevivência dos negócios, dentre outros fatores, se dará pela sua capacidade de gerar lucro. O lucro, para um determinado produto, independente da forma como

Leia mais

Líder em consultoria no agronegócio

Líder em consultoria no agronegócio MPRADO COOPERATIVAS mprado.com.br COOPERATIVAS 15 ANOS 70 Consultores 25 Estados 300 cidade s 500 clientes Líder em consultoria no agronegócio 2. Finanças 2.1 Orçamento anual integrado Objetivo: Melhorar

Leia mais

Tipos de riscos Leitura preparada por Luiz A. Bertolo

Tipos de riscos Leitura preparada por Luiz A. Bertolo Tipos de riscos Leitura preparada por Luiz A. Bertolo ESBOÇO 1. Risco 2. Risco de Fluxo de Caixa 3. Risco da Taxa de Re-investimento 4. Risco da taxa de juros 5. Risco do poder de compra 6. Retornos e

Leia mais

CRM e Prospecção de Dados

CRM e Prospecção de Dados CRM e Prospecção de Dados Marília Antunes aula de 11 de Maio 09 6 Modelos de regressão 6.1 Introdução No capítulo anterior foram apresentados alguns modelos preditivos em que a variável resposta (a variável

Leia mais

3 Estado da arte em classificação de imagens de alta resolução

3 Estado da arte em classificação de imagens de alta resolução 37 3 Estado da arte em classificação de imagens de alta resolução Com a recente disponibilidade de imagens de alta resolução produzidas por sensores orbitais como IKONOS e QUICKBIRD se tornou-se possível

Leia mais