REDES NEURAIS - UMA FERRAMENTA PARA KDD E DATA MINING
|
|
- Maria da Assunção Ávila Silva
- 8 Há anos
- Visualizações:
Transcrição
1 REDES NEURAIS - UMA FERRAMENTA PARA KDD E DATA MINING Antonio Carlos Gay Thomé
2 SUMÁRIO Introdução 4 Data Warehouse 6 Data Mart 9 KDD Knowledge Discovery 11 Data Mining 13 Principais Objetivos de um Data Mining 14 Aplicações para Data Mining 15 Marketing 15 Vendas 16 Finanças 16 Manufatura 16 Saúde 16 Energia 17 Redes Neurais 18 O Paradigma do modelo neural 18 Um Breve Histórico 19 Alguns Conceitos Básicos 20 O Neurônio Artificial 21 O Modelo Neural 23 Estrutura de uma Rede Neural 23 Projeto de um Sistema Neural 25 Treinamento de uma Rede Neural 26 Aprendizado 27 PRW Uma Ferramenta para Data Mining 28 Como obter uma cópia 28 Tutorial On-Line 28 Componentes do PRW 28 Guia para Utilização 29 Como Carregar (importar) a base de dados 29 Como criar um experimento 29 Como selecionar as variáveis de entrada e de saída 29 Como selecionar o conjunto para treinamento e para teste 29 Como monitorar os experimentos 30 Como configurar um modelo 30 Como especificar os parâmetros do algoritmo de treinamento 31
3 Como especificar os parâmetros de configuração dos relatórios 31 Como executar um experimento (treinamento da rede) 31 Como verificar o desempenho do modelo 32 Como preparar a rede para operação configurando uma função 32 Como usar a rede sobre novos dados 32 Como Salvar um Experimento 33 Como sair do PRW 33 Estudo de Casos 34 Caso 1 Planejamento de Vendas 34 Caso 2 Planejamento de Marketing I 37 Caso 3 Planejamento de Marketing II 41 Caso 4 Diagnóstico Médico 45 Caso 5 Aplicação Financeira 47 Referências Bibliográficas 49 Antonio Carlos Gay Thomé Inteligência Computacional 3
4 Introdução O crescimento explosivo das bases de dados, sejam elas administradas pelo governo, pela sociedade civil ou pelas entidades de pesquisa, vem ultrapassando em muito, a capacidade humana de interpretar e digerir o volume de dados disponível. Esta realidade vem fazendo surgir a demanda por uma nova geração de ferramentas e técnicas, que possibilitem uma análise automática e mais inteligente destas bases de dados. We re interested in techniques that automatically find fundamental properties and principles that are original and useful. Toshinori Munakata[Toshinori99] Nesta última década, graças aos avanços nas técnicas de aquisição e de armazenamento, presenciamos um crescimento explosivo na capacidade das pessoas em gerar e coletar dados. Avanços nas técnicas de aquisição de dados científicos incorporando, por exemplo, sensores remotos e satélites; a introdução do código de barras, que possibilitou a automatização comercial e o surgimento dos pontos de venda e, mais recentemente, as técnicas de gerenciamento eletrônico de documentos, são fontes geradoras de grandes volumes de dados. No lado do armazenamento, os avanços tecnológicos dos computadores, cada vez mais velozes, relativamente mais baratos e com maior capacidade de armazenamento, dotados de sistemas de gerenciamento de banco de dados cada vez melhores e a tecnologia de data warehouse, vêm possibilitando o acúmulo de verdadeiras montanhas de dados corporativos. Hoje já é relativamente comum encontrar-se bases de dados da ordem de trilhões de bytes (terabytes). Na área comercial, um dos maiores bancos de dados do mundo, com mais de 20 milhões de transações por dia, é o administrado pela cadeia Wal-Mart. A Mobil Oil está desenvolvendo um data warehouse com informações relativas a exploração de petróleo, com capacidade de armazenamento acima de 100 terabytes. As wave after wave of new information technology hits the market and slowly gets assimilated into daily operations, the risks (and rewards) grow higher for those who have placed their bets on the technology roulette wheel. Joseph P. Bigus [Bigus96] Nestas últimas três décadas o computador evoluiu de uma posição de uso limitado a automação de algumas operações rotineiras, principalmente nas áreas administrativa e financeira, para um uso mais abrangente e profundo, oferecendo soluções e respostas para os mais diferentes níveis do processo empresarial. Não apenas a tecnologia computacional Antonio Carlos Gay Thomé Inteligência Computacional 4
5 mudou, mas também, e principalmente, a forma como ela é vista e usada no mundo dos negócios. Em 1981 tivemos o nascimento do IBM PC que, usando um processador Intel 8088 de 16 bits, uma memória RAM de 64Kbytes e apenas um floppy disk de 5 ½, foi lançado no mercado pelo singelo valor de US$3000. O primeiro disco rígido a aparecer no mercado foi o Seagate 5.25, com capacidade de armazenar apenas 5Mbytes de dados. Hoje, passados vinte anos, com os mesmos US$3000, podemos adquirir um computador dual com dois processadores Pentium III de 1GHz, 512Mbytes de RAM, 40Gbytes de armazenamento em disco rígido e mais um número de outros recursos inexistentes na época, como CD-ROM, DVD, Zip Drive, placa de rede, etc. As bases de dados hoje ganharam status e passaram a ser vistas como bem de capital da empresa. Os dados operacionais representam o estado corrente dos negócios e, quando combinados com dados históricos, podem dizer onde estamos, de onde viemos e para onde vamos. Premidos pela necessidade de tomar decisões em tempo cada vez mais curto, os executivos atuais precisam dispor de informações rápidas e precisas que lhes sirvam de suporte. Segundo a revista HSM Management, o planejamento estratégico é a ferramenta mais utilizada pelos executivos nesta última década. Ter informações on line apenas não é mais o suficiente. Há tempos que as tradicionais consultas e relatórios gerenciais perderam a capacidade de proporcionar ao executivo algum diferencial competitivo. Ferramentas avançadas de análise de dados, conhecidas como OLAP (OnLine Analytical Processing), oferecem a possibilidade de uma análise interativa através de diferentes formas de agregação dos dados e apresentação dos resultados na forma de tabelas (2D) ou na forma de gráficos em 3D. Porém, o que observa é que mesmo estas ferramentas já não respondem aos desafios impostos pelo cotidiano da competitividade empresarial. O que o mercado procura hoje são maneiras ou técnicas que permitam tirar maior proveito do investimento feito na coleta e no armazenamento de montanhas de dados sobre o seu negócio. O desafio está em descobrir e extrair conhecimento novo a partir dos dados, que este conhecimento seja útil e que ao ser usado no processo de tomada da decisão, possa representar um diferencial competitivo e um ganho real para a empresa. Nesta área, de forma ainda nebulosa, isto é, sem um consenso, surgem ferramentas, metodologias e mesmo paradigmas, cujas definições muitas vezes se confundem, mas que apontam todas para a multiplicidade de bases de dados e para o caminho do processamento inteligente destas bases. Data Warehouse, KDD Knowledge Discovery in Databases, Data Mining, Inteligência Computacional e Redes Neurais são alguns dos nomes encontrados neste novo segmento. No texto a seguir fazemos uma breve exposição dos principais conceitos e definições sobre os termos acima citados:data Warehouse, KDD e Data Mining. Sobre Redes Neurais fazemos uma apresentação um pouco mais detalhada porém sem muita profundidade. A seguir apresentamos a ferramenta PRW Pattern Recognition Workbench, que será utilizada em apoio ao curso e, finalmente, apresentamos alguns problemas que serão explorados como estudo de casos. Antonio Carlos Gay Thomé Inteligência Computacional 5
6 Data Warehouse Nos anos 80 a sociedade presenciou o surgimento e o apogeu dos microcomputadores que não só viraram objeto de consumo mas também revolucionaram a forma de se fazer computação no meio empresarial. Os antigos e paquidérmicos sistemas centralizados deram lugar a sensação de que cada setor ou mesmo funcionário tem agora o poder de resolver seus próprios problemas e necessidades finalmente alcançada a tão almejada independência da área de TI. O desenvolvimento de diversas ferramentas de software, como planilhas eletrônicas, gerenciadores de pequenos bancos de dados, interfaces gráficas com ícones e menus e sofisticados ambientes de programação, estimulou ao extremo a veneração pelo conceito do faça você mesmo. Embora interessantes e estimuladoras da criatividade e da auto-suficiência, a proliferação desta prática gerou uma nova classe de problemas para o mundo dos negócios. É muito comum hoje uma empresa ter um número elevado de pequenas bases de dados espalhadas por diversas áreas ou setores. Bases estas completamente desconectadas uma das outras, possivelmente com redundância de informações e, não raramente, contendo valores inconsistentes. A falta de um procedimento integrado para concepção e administração do dado como patrimônio corporativo da empresa começou a ser questionada no princípio da década de 90, principalmente por aqueles com tendência à nostalgia. Voltar no entanto aos grandes e pesados sistemas centralizados, em plena era da teleinformática, seria um retrocesso grande demais. É neste contexto que surge um novo conceito - o de Data Warehouse (ou Armazém de Dados em português) - cuja proposta maior é estabelecer um telhado virtual sob o qual se integram as diferentes bases de dados da empresa que agora, sob a perspectiva dos usuários, passam a ser vistas como uma grande base corporativa. Um Data Warehouse, como o nome indica, constitui-se de um grande aglomerado de dados provenientes das mais diversas bases de dados existentes e mantidas por uma empresa. A qualidade e a integridade dos dados no Data Warehouse deve ser mantida por uma equipe centralizada de profissionais competentes. Por outro lado, desenvolvedores de aplicações não precisam mais se preocupar com o layout das diferentes bases, nem com possíveis incompatibilidades em termos de formas e meios de armazenamento, redundâncias ou inconsistências. Em outras palavras, eles precisam apenas saber que todo e qualquer dado pode ser facilmente encontrado através dos recursos oferecidos pela interface de gerenciamento do Data Warehouse. Na bibliografia encontramos conceitos e definições as vezes um pouco distintas sobre DW, tais como: Antonio Carlos Gay Thomé Inteligência Computacional 6
7 Segundo Inmon [INM97a], que é tido como o pai do conceito, Data Warehouse é uma coleção de dados integrados, orientados por assunto, variáveis com o tempo e não voláteis, usados para dar suporte ao processo gerencial de tomada de decisão. Conforme Harjinder [HAR96], Data Warehouse é um processo que aglutina dados de fontes heterogêneas, incluindo dados históricos e dados externos a empresa, usados para atender à necessidade de consultas estruturadas e ad-hoc, relatórios analíticos e de suporte à decisão. Para Barquini [BAR96], Data Warehouse é uma coleção de técnicas e tecnologias que juntas disponibilizam um enfoque pragmático e sistemático para tratar com o problema do usuário final que precisa acessar informações que estão distribuídas em vários sistemas da organização. Fazendo uma comparação com o conceito tradicional de banco de dados, este pode ser visto como uma coleção de dados operacionais armazenados e utilizados pelos diferentes sistemas de aplicação de uma determinada empresa [BAT86]. Os dados mantidos nesta forma são chamados de "operacionais" ou "primitivos". No caso do DW, tem-se uma coleção de dados derivados dos dados operacionais que servem a sistemas de suporte à decisão. Estes dados são, muitas vezes, referidos como dados "gerenciais", "informacionais" ou "analíticos" [INM96]. Os bancos de dados operacionais armazenam as informações necessárias para as operações do dia-a-dia da empresa. São utilizados por todos os funcionários para registrar e executar operações pré-definidas e seus dados podem sofrer constantes mudanças conforme as necessidades atuais da empresa. Por não ocorrer redundância num banco de dados e as informações históricas não ficarem armazenadas por muito tempo, este tipo de estrutura não exige grande capacidade de armazenamento. Já um DW armazena dados analíticos, tanto detalhados como resumidos, e destinados às necessidades da gerência no processo de tomada de decisões. Isto pode envolver consultas complexas que necessitam acessar um grande número de registros, por isso é importante a existência de muitos índices criados para acessar as informações da maneira mais rápida possível. Um DW armazena informações históricas de muitos anos e por isso deve ter uma grande capacidade de processamento e de armazenamento. Na Tabela abaixo, estão relacionadas algumas diferenças entre um banco de dados convencional e um DW [INM96] [BAR96] [KIM96] [ONE97]: Características Bancos de dados Operacionais Data Warehouse Objetivo Operações diárias do negócio Analisar o negócio Uso Operacional Informativo Tipo de processamento OLTP OLAP Unidade de trabalho Inclusão, alteração, exclusão Carga e consulta Número de usuários Milhares Centenas Tipo de usuário Operadores Comunidade gerencial Interação do usuário Somente pré-definida Pré-definida e ad-hoc Condições dos dados Dados operacionais Dados Analíticos Volume Megabytes gigabytes Gigabytes terabytes Antonio Carlos Gay Thomé Inteligência Computacional 7
8 Histórico 60 a 90 dias 5 a 10 anos Granularidade Detalhados Detalhados e resumidos Redundância Não ocorre Ocorre Estrutura Estática Variável Manutenção desejada Mínima Constante Acesso a registros Dezenas Milhares Atualização Contínua (tempo real) Periódica (em batch) Integridade Transação A cada atualização Número de índices Poucos/simples Muitos/complexos Intenção dos índices Localizar um registro Aperfeiçoar consultas Tabela 1 Comparação entre Banco de Dados Operacionais e Data Warehouse. Com base nestes conceitos podemos concluir que o DW não é um fim, mas sim um meio para que as empresas possam dispor e analisar informações históricas com vistas a melhoria dos processos e dos negócios. Um DW é construído com base em resumos retirados de múltiplos sistemas de computação normalmente utilizados há vários anos e que continuam em operação. São construídos para que tais dados possam ser armazenados e acessados de forma que não sejam limitados por tabelas e linhas estritamente relacionais. Os dados de um DW podem ser compostos por um ou mais sistemas distintos e sempre estarão separados de qualquer outro sistema transacional, ou seja, deve existir um local físico onde os dados desse sistema sejam armazenados. A Figura abaixo ilustra o esquema de emprego de um DW, mostrando que entre as fontes de dados e os aplicativos está o DW. Consultas Data Warehouse Consultas Integrador Extrator Extrator Extrator Base de Base de Base de Esquema de Emprego de um Data Warehouse A tecnologia de DW mostra-se muito interessante para empresas que possuam grandes volumes de dados gerados e acumulados durante anos, e que necessitem Antonio Carlos Gay Thomé Inteligência Computacional 8
9 recuperar estes dados de uma forma que eles possam auxiliar os administradores na tomada de decisões estratégicas de maneira rápida, eficiente e segura. Apesar de possuir uma arquitetura relativamente simples, os processos de extração, filtragem, carga e recuperação dos dados são bastante complexos, exigindo que pessoas altamente capacitadas façam parte do projeto para que os objetivos sejam atingidos no menor espaço de tempo possível e sem gastos desnecessários de recursos. Além dos benefícios relativos a qualidade e a segurança dos dados, um DW abre toda uma gama de novas possibilidades em termos de sistemas de informações estratégicas e gerenciais para a tomada da decisão. Um DW mantém a história dos negócios e torna os dados facilmente acessáveis, abrindo assim, caminho para todo um novo paradigma que visa a geração de conhecimento novo e útil para a empresa a partir da busca de padrões e correlações desconhecidas envolvendo partes das bases de dados. Esta nova área é conhecida por KDD Knowledge Discovery in Databases. Data Mart Trata-se de uma alternativa mais modesta aos data warehouse. Menores e mais baratos, os data marts são menos abrangentes limitando-se, na maioria das vezes, ao contexto de um departamento. Pela complexidade que envolve um DW, sua construção é geralmente lenta e cara. Para equilibrar os custos e oferecer resultados em prazos mais curtos, é possível construir Data Marts, que são pequenos DW departamentais. Entre as principais vantagens da utilização de um Data Mart está a redução do tempo de implementação, em média de 120 dias cada, e o fator preço. Segundo estimativas, enquanto um Data Mart departamental custa de US$ 100 mil a US$ 1 milhão, um DW completo começa na casa dos US$ 2 milhões e leva cerca de um ano para estar consolidado. Conforme [INM97], data marts são subconjuntos de dados da empresa armazenados fisicamente em mais de um local, geralmente divididos por departamento (data marts "departamentais"). Existem diferentes alternativas de se implementar um data mart [ONE97], sendo que a proposta original é a aquela onde os Data Marts são desenvolvidos a partir de um DW central. A abaixo exemplifica esta situação. Data Mart Data Mart Compras Data Mart Vendas Estoque Data Warehouse Data Marts departamentais. Nesta arquitetura, grupos de usuários acessam diretamente os Data Marts de seus respectivos departamentos. Somente aquelas análises que necessitam de uma visão global Antonio Carlos Gay Thomé Inteligência Computacional 9
10 da empresa são realizadas sobre o DW. Os Data Marts se diferenciam do DW pelos seguintes fatores [INM97]: São personalizados: Atendem às necessidades de um departamento específico ou grupos de usuários; Menor volume de dados: Por atenderem a um único departamento, armazenam um menor volume de dados; Histórico limitado: Os Data Marts raramente mantém o mesmo período histórico que um DW, que geralmente mantém um histórico de 5 a 10 anos; Dados sumarizados: Os Data Marts geralmente não mantém os dados no mesmo nível de granularidade do DW, ou seja, os dados são, quase sempre, sumarizados quando passam do DW para os Data Marts. Um dos problemas dos Data Marts é o grande risco de desvio do modelo original, pois pode acontecer um crescimento desestruturado. Por ser muito utilizado e estar em constante aperfeiçoamento pode ocorrer a replicação das mesmas informações em vários locais o que dificulta uma futura integração de todos os Data Marts em um único DW. Antonio Carlos Gay Thomé Inteligência Computacional 10
11 KDD Knowledge Discovery A literatura até o momento, não apresenta um consenso e o que se verifica é a existência de diversas denominações distintas para caracterizar as atividades de busca por padrões (ou oportunidades de conhecimento) em conjuntos de dados brutos. A confusão é relativamente grande, e sob este guarda-chuvas encontramos nomes tais como: knowledge discovery in database, data mining, knowledge extraction, information discovery, data archaelogy, information harvesting e ainda data pattern processing. O termo KDD Klnowledge Discovery in Databases (descoberta de conhecimento em bases de dados), foi cunhado em 1989 com o objetivo de representar todo o processo de busca e extração de conhecimento que, em seu nível mais operacional, inclui a aplicação de técnicas e algoritmos de data mining (mineração de dados) para manipular e encontrar indícios de correlação ou de implicação em grandes volumes de dados. Como mencionado, ainda não há um consenso sobre o assunto e o que se observa é a comunidade formada por estatísticos, analistas de dados e desenvolvedores de sistemas de informação gerencial adotar o termo data mining para denominar as mesmas atividades e procedimentos que a comunidade de inteligência artificial descreve como KDD. Nesta apostila preferimos adotar o termo KDD para se referir ao processo completo, que incorpora a preparação e análise prévia dos dados, o uso de conhecimento prévio, a interpretação dos resultados e, também, o data mining, que se refere às técnicas e algoritmos para a extração de padrões das bases de dados. KDD, portanto, se caracteriza por ser um processo não trivial, que busca gerar conhecimento que seja novo e potencialmente útil para aumentar os ganhos, reduzir os custos ou melhorar o desempenho do negócio, através da procura e da identificação de padrões a partir de dados armazenados em bases muitas vezes dispersas e inexploradas. KDD segundo este enfoque, envolve a avaliação e interpretação dos resultados visando a tomada de decisões sobre o que constitui conhecimento e o que não constitui conhecimento. Ele também inclui a escolha do esquema de modelagem do problema e de codificação, amostragem, pré-processamento e projeção dos dados. Data mining, por outro lado, será considerada nesta apostila como uma etapa do KDD, consistindo de algoritmos e técnicas específicas que, dentro das limitações e de uma eficiência computacional aceitável, é capaz de produzir como resultado um modelo e a enumeração de padrões que se correlacionem com determinados fatos ou fenômenos. O processo de KDD é interativo e iterativo, envolvendo uma série de etapas onde cada uma pode requerer do usuário capacidade de análise e de tomada de decisão. As principais fases do processo são: Antonio Carlos Gay Thomé Inteligência Computacional 11
12 Data Warehouse Interpretação Seleção Transformação Pré-processamento Mineração (Data Mining) a) Seleção é a etapa que consiste na análise dos dados existentes e na seleção daqueles a serem utilizados na busca por padrões e na geração de conhecimento novo. b) Pré-processamento consiste no tratamento e na preparação dos dados para uso pelos algoritmos. Nesta etapa devemos identificar e retirar valores inválidos, inconsistentes ou redundantes. c) Transformação consiste em aplicar, quando necessário, alguma transformação linear ou mesmo não linear nos dados, de forma a encontrar aqueles mais relevantes para o problema em estudo. Nesta etapa geralmente são aplicadas técnicas de redução de dimensionalidade e de projeção dos dados. d) Mineração consiste na busca por padrões através da aplicação de algoritmos e técnicas computacionais específicas. e) Interpretação consiste na análise dos resultados da mineração e na geração de conhecimento pela interpretação e utilização dos resultados em benefício do negócio. O processo de descoberta de conhecimento (KDD) é interativo e, em geral, envolve diversos laços de repetição dentro de uma mesma etapa e também entre fases, até que um resultado útil seja alcançado. Como induz a figura, KDD envolve a aplicação de diferentes tecnologias que devem ser adequadamente escolhidas dependendo do problema em questão. Data Mining, ou seja, a busca por padrões, como será mostrado a seguir, pode ser implementada por intermédio de diferentes algoritmos e, dependendo do algoritmo adotado, diferentes formas de pré-processamento, transformação e representação dos dados pode ser necessário. Antonio Carlos Gay Thomé Inteligência Computacional 12
13 Data Mining Data Mining - DM, ou mineração de dados, é uma das principais etapas de um processo de KDD. Consiste na construção de modelos computacionais para a descoberta automática de novos fatos e relacionamentos entre dados, a partir da aplicação repetida e muitas vezes interativa, de algoritmos de busca. A eficiência de um processo de data mining está no potencial de ganho para a empresa a ser gerado pelas informações extraídas. É importante não confundir data mining com complexas estruturas de consulta a bases de dados, onde o usuário já possua alguma hipótese e deseja apenas extrair material para manualmente verificar e confirmar a validade de sua hipótese. A idéia central em data mining é a de que seus algoritmos atuem eles próprios como mineiros e sejam capazes de automaticamente identificar a existência de padrões e relacionamentos desconhecidos, que ao serem analisados posteriormente, possam suscitar e induzir a geração de hipóteses úteis e relevantes para o usuário. Data Mining é a concepção de modelos computacionais capazes de identificar e revelar padrões desconhecidos mas existentes entre dados pertencentes a uma ou mais bases de dados distintas um Data Warehouse. A distinção entre um modelo e um padrão pode ser explicada como o padrão sendo um caso específico de um modelo, ou o modelo sendo a generalização de um 2 padrão. Exemplo: a equação f ( x) = 3x + 5x 9 representa uma função de segundo grau determinada e específica; já a equação das funções de segundo grau. 2 f ( x) = ax + bx + c representa a família ou o modelo O processo de KDD e mais especificamente o de DM representa uma forma de capitalizar o investimento necessário para o armazenamento de grandes volumes de dados, tentando, por exemplo, descobrir padrões de comportamento de clientes para fins de concessão de crédito, ou identificando estilos de ações fraudulentas em administradoras de cartão de créditos. Através da mídia, alguns exemplos clássicos se popularizaram como o da associação de produtos comprados em uma mesma cesta de supermercados (fraldas com cerveja). O grande problema nesta abordagem é que além da possibilidade de garimpar relacionamentos inúteis, o número de correlações possíveis de serem obtidas tende a ser muito grande, o que impede a análise exaustiva de cada uma. A solução é usar algoritmos e técnicas inteligentes que possam identificar e selecionar automaticamente os casos mais relevantes para cada aplicação. Antonio Carlos Gay Thomé Inteligência Computacional 13
14 O processo de data mining difere das técnicas de OLAP já bastante difundidas na literatura, enquanto estas oferecem meios para consolidar os dados em vários níveis, trabalhando-os em múltiplas dimensões, a técnica de data mining busca mais do que a interpretação dos dados existentes, visa fundamentalmente inferir e generalizar possíveis fatos e correlações não percebidas nem facilmente deduzidas. Principais Objetivos de um Data Mining O termo minerar pressupõe o garimpo por alguma preciosidade, minerar dados pressupõe o garimpo entre bases de dados por algo que possa trazer algum valor ou vantagem competitiva para a empresa. Em geral este garimpo tem como objetivo descrever ou prever o comportamento futuro de algum fenômeno. Descrever tem como foco encontrar algo que faça sentido e que consiga explicar os resultados ou valores obtidos em determinados dados ou negócios. Prever, por outro lado, tem como foco antecipar o comportamento ou o valor futuro de algum fenômeno ou variável de interesse, com base no conhecimento de valores do passado. Na busca de tais objetivos diferentes estratégias podem ser utilizadas para garimpar as bases de dados disponíveis na busca por indícios que possam relacionar dados ou fatos. As principais estratégias empregadas nesta tarefa incluem a classificação, a agregação, a associação, a regressão e a predição. Em todas estratégias, o objetivo maior é o de poder generalizar o conhecimento adquirido para novas ocorrências do fenômeno ou para outros contextos ou situações parecidas com a utilizada na construção do modelo computacional. Em cada uma destas estratégias diferentes técnicas e algoritmos podem ser aplicados. Classificação é a estratégia que consiste na busca por uma função que consiga mapear (classificar) uma determinada ocorrência em uma dentre um conjunto finito e prédefinido de classes. A construção do modelo segundo esta estratégia, pressupõe o conhecimento prévio das possíveis classes e a correta classificação dos exemplos usados na modelagem. Várias são as aplicações para este tipo de abordagem, em análise de risco por exemplo, o objetivo pode ser o de classificar um potencial cliente entre as classes de excelente, bom ou mau pagador. Agregação (ou clustering) consiste na busca de similaridades entre os dados tal que permita definir um conjunto finito de classes ou categorias que os contenha e os descreva. A principal diferença entre esta abordagem e classificação é que em agregação não se tem conhecimento prévio sobre o número de classes possíveis nem a possível pertinência dos exemplos usados na modelagem. Descobrir grupos homogêneos de clientes é uma das possíveis aplicações e pode ser usada para ajudar na definição da estratégia de marketing a ser adotada. Associação por outro lado, consiste em identificar fatos que possam ser direta ou indiretamente associados. Esta estratégia é geralmente usada em aplicações onde se busca identificar itens que possam ser colocados juntos em um mesmo pacote de negociação. Por exemplo, a constatação de que vendas de cerveja e de fraldas descartáveis apresentam um comportamento ascendente às sextas-feiras pode levar à construção de uma hipótese que associe ambos os itens a um tipo especial de cliente. Associação também pode ser usada para avaliar a existência de algum tipo de relação temporal entre os itens constantes de uma base de dados. Antonio Carlos Gay Thomé Inteligência Computacional 14
15 Regressão consiste na busca por uma função que represente, de forma aproximada, o comportamento apresentado pelo fenômeno em estudo. A forma mais conhecida de regressão é a linear, por exemplo, uma reta que minimiza o erro médio entre todos os valores considerados, mas também pode ser não linear. Predição envolve uma componente temporal, isto é, representa aquela classe de problemas nos quais estamos interessados em prever o comportamento ou valor futuro de uma determinada variável com base em valores anteriores desta mesma variável (monovariável) ou em valores anteriores da variável de interesse e de outras variáveis (multivariável). Como mencionado, várias são as técnicas que podem ser utilizadas na implementação destas estratégias, onde as principais são: Estratégia Classificação Agregação Associação Regressão Predição Algoritmos árvores de decisão e redes neurais métodos estatísticos e redes neurais métodos estatísticos e teoria de conjuntos métodos de regressão e redes neurais métodos estatísticos e redes neurais Tabela 2 Estratégias de Data Mining Dentre as técnicas listadas podemos notar que redes neurais é a que apresenta maior abrangência, podendo ser aplicada em praticamente todas as estratégias. Aplicações para Data Mining Não há na prática limite ou área específica para aplicação dos conceitos até aqui apresentados, tudo depende da capacidade de modelar o problema para a aplicação de uma das estratégias listadas e da criatividade em analisar e utilizar os resultados alcançados. Dentre as que mais têm explorado o uso de data mining encontramos as áreas de marketing, vendas, finanças, manufatura, saúde e energia. Marketing Database marketing é um segmento emergente que vem revolucionando a forma de encarar e fazer a divulgação dos produtos de uma empresa. Quando aliado às técnicas de data mining amplia suas potencialidades abrindo novas e diferentes formas de avaliar e alavancar a relação entre o cliente e o faturamento da empresa. O esforço de marketing geralmente é elevado, nem sempre é efetivo, mas fatalmente influi no preço final de venda. Qualquer tecnologia que seja capaz de tornar mais efetivo o resultado da propaganda ou de reduzir seus custos, tem impacto direto no faturamento e no sucesso do empreendimento. A manutenção de grandes bancos de dados onde são armazenadas as transações de vendas, operações de crédito ao cliente, de compra a prazo e de pagamento, tem feito do Antonio Carlos Gay Thomé Inteligência Computacional 15
16 database marketing uma das áreas mais ricas e promissoras para aplicação dos conceitos de KDD e data mining. As principais aplicações estão na seleção de candidatos para propaganda seletiva ou na seleção de produtos a serem oferecidos num mesmo pacote. Numa campanha de marketing a possibilidade de identificar antecipadamente aqueles clientes que apresentam maiores chances de responder positivamente a abordagem reduz os custos da propaganda, o mesmo ocorre quando a cesta de produtos a ser oferecida é otimizada para cada cliente em potencial. Vendas No setor de vendas a aplicação provavelmente de maior interesse seja a de identificar produtos que possam ser colocados em uma mesma cesta ou pacote. Isto envolve a garimpagem por associação entre produtos, que pode revelar afinidades ou aversões nunca imaginadas e como conseqüência, sugerir estratégias para maximizar o lucro. A descoberta de que dois ou mais produtos têm suas vendas fortemente associadas pode, por exemplo, ser usada no sentido de não colocá-los em promoção ao mesmo tempo, de organizá-los de uma forma que facilite o cliente a encontrá-los ou de organizálos de maneira que no caminho entre eles o cliente seja exposto a outros produtos cuja venda seja estimulada. Outra aplicação é a busca por associações que envolvam uma componente temporal, isto é, aquela que revela, por exemplo, que a compra de um produto hoje induz, com alta probabilidade, a compra de outro algum tempo depois. Tal descoberta pode sugerir uma estratégia de venda que busque efetivar a venda de ambos logo na primeira oportunidade. Finanças Em finanças as aplicações têm sido várias envolvendo associação, classificação, agregação e também predição. Análise de crédito, potencial transações fraudulentas em cartões de crédito, avaliação de risco, constituição de bolsa de ações (portfólio), previsão de transferência de numerário entre agencias bancárias, previsão de flutuações nos mercados de ações e de commodities e previsão de falências, são algumas das aplicações mais comumente encontradas. Nesta área as transações podem envolver volumes financeiros efetivamente elevados, os riscos e a concorrência também são altos e neste cenário, qualquer oportunidade de ganho é considerada e pode representar, por menor que seja a margem de ganho, um diferencial efetivo. Manufatura A complexidade dos modernos parques de produção e a pressão pela eficiência e pela qualidade tem possibilitado o uso de data mining e de automação em diversas áreas. CAD/CAM e robôs são algumas das aplicações de maior demanda na área. Saúde São basicamente duas frentes distintas de trabalho nesta área: administração e diagnóstico. Na administração os sistemas lidam com os serviços oferecidos aos pacientes, com os seguros, com as ações potencialmente fraudulentas, etc. Antonio Carlos Gay Thomé Inteligência Computacional 16
17 Em termos de diagnóstico o emprego de data mining visa o desenvolvimento de sistemas capazes de realizar diagnósticos (classificações) automaticamente, com base em dados obtidos de exames laboratoriais. Sistemas de diagnóstico apresentam a vantagem de atender rapidamente grandes volumes de pacientes, o que facilita a ação pública em epidemias ou campanhas sanitárias. Energia Previsão de consumo e previsão de falhas em sistemas de transmissão ou de distribuição são as duas aplicações mais comuns, embora muitas outras tenham sido pesquisadas e difundidas na literatura. Conforme visto na tabela 2, a tecnologia de maior emprego atualmente em data mining é a de redes neurais, assunto ao qual dedicamos o próximo capítulo. Nele tentaremos proporcionar ao leitor uma visão geral sobre o paradigma das redes neurais e capacitá-lo a utilizá-las na resolução de alguns problemas reais. Antonio Carlos Gay Thomé Inteligência Computacional 17
18 Redes Neurais Como mencionado na sessão anterior, redes neurais têm sido cada vez mais intensamente utilizadas em aplicações de data mining. Este fato deve-se não só a possibilidade de aplicação do paradigma em praticamente todas as diferentes estratégias de data mining mas também pela relativa simplicidade de uso das redes neurais quando comparadas às demais tecnologias. Existem várias ferramentas neurais oferecidas comercialmente, que são relativamente fáceis de serem usadas e que permitem o usuário final aplicar redes neurais a diversos problemas reais. O PRW Pattern Recognition Workbench é uma destas ferramentas, que descrevemos na próxima sessão e que será usada como suporte aos exercícios práticos preparados para este curso. O Paradigma do modelo neural Redes Neurais são sistemas computacionais formados pela integração de inúmeros elementos de processamento (EP), funcionalmente muito simples, altamente interconectados e trabalhando maciçamente em paralelo. Originalmente concebidas com base no estudo do cérebro humano, redes neurais são radicalmente diferentes de todos os demais modelos computacionais. O paradigma neural não faz uso dos conceitos que até então caracterizam os demais algoritmos e sistemas computacionais. Uma rede neural pode ser integralmente implementada em Hardware, os chips neurais são objeto de intenso estudo em grandes centros de pesquisa e muito em breve serão realidade em muitas aplicações e produtos comerciais. No Japão é comum encontrar-se hoje eletrodomésticos sendo lançados com recursos de autocontrole, por eles chamados neuro-fuzzy (Sistemas híbridos combinando redes neurais e lógica nebulosa - fuzzy). Numa rede neural não se tem a idéia de programa, onde o programador introduz e codifica a estratégia de solução do problema, também não se tem a idéia de um conhecimento explicitamente armazenado que conduza a busca durante o processo de resolução do problema. A rede neural é dinâmica, não possui memória, pelo menos no estilo convencional que conhecemos, não acessa nem possui arquivos de dados e não é programável. Os modelos neurais foram concebidos com base na estrutura do sistema nervoso, mais especificamente na estrutura do cérebro humano e, assim, sua principal característica está na capacidade de aprender com base na exposição a exemplos. A construção de uma rede neural se constitui portanto, na configuração da sua arquitetura interna (uma rede interligada de neurônios) e no treinamento desta rede com base em exemplos, até que ela própria consiga aprender como resolver o problema. Antonio Carlos Gay Thomé Inteligência Computacional 18
19 Uma rede neural é portanto, uma abstração computacional que busca emular o funcionamento do sistema nervoso do ser humano. Nosso sistema nervoso é uma rede por onde fluem sinais eletroquímicos e suas principais partes são: o cérebro, a medula espinhal e os nervos. O cérebro e a medula espinhal formam o sistema nervoso central (SNC) centro de controle e coordenação do corpo. Bilhões de neurônios, a maioria agrupados em nervos, formam o sistema nervoso periférico, transmitindo impulsos nervosos entre o SNC e as demais regiões do corpo. Cada neurônio possui três partes: o corpo celular composto por um núcleo e um citoplasma, onde os estímulos recebidos são integrados e onde a maioria do metabolismo celular é realizado, o axônio que é encarregado da transmissão dos impulsos gerados pela célula para outros neurônios e os dendritos que recebem os impulsos provenientes dos axônios de outros neurônios e os levam ao corpo celular para integração, reiniciando assim, um novo ciclo. Pesquisadores estimam a existência de aproximadamente 100 bilhões de neurônios no córtex cerebral do ser humano. Cada neurônio podendo tratar até 1000 estímulos simultâneos de entrada, o que traduz na capacidade do cérebro processar até 100 trilhões de estímulos simultâneos. Cada neurônio pode disparar até 100 vezes por segundo e, assim, o cérebro humano apresenta uma singela capacidade de processar até trilhões de estímulos/seg. Mais veloz que os maiores supercomputadores até hoje construídos pelo homem. Esta imensa capacidade de processamento torna-se ainda mais expressiva ao se constatar que o cérebro não pesa mais que 1.5 Kg e ocupa aproximadamente 300 cm 3 (menos de 1/2 litro). Um Breve Histórico As primeiras pesquisas para o desenvolvimento de computadores baseados no comportamento das células nervosas (os neurônios) datam da década de 40 [Minsk88]. Em 1943 Wax Ten McCulloch e Walter Pitts propõem um modelo matemático (artificial) para o neurônio biológico. O campo de atuação estava limitado ao entendimento do funcionamento do cérebro para aplicações em medicina e psicologia [McCulloch43]. Em 1947 publicaram um segundo estudo intitulado How we know universal. Dois anos depois, em 1949, Donald Hebb, observando o que ocorria nas sinapses dos neurônios, desenvolveu a Teoria do Aprendizado Neural a qual determina que quanto mais correlacionadas estiverem as saídas de dois neurônios em cascata, maior deverá ser o nível ou a intensidade da ligação entre eles (sinapse). No período entre 1951 e 1958, pouco se evoluiu no campo das redes neurais. Porém em 1959, dois grandes trabalhos foram apresentados: Bernard Widrow desenvolveu o elemento linear adaptativo chamado ADALINE ( ADAptative LINear Element ), capaz de auto ajustar-se de forma a minimizar o erro entre a resposta desejada e a resposta gerada pelo sistema. A primeira aplicação prática de um sistema de computação neural foi a utilização do ADALINE para o desenvolvimento de filtros digitais adaptativos com a função de eliminar ecos em linhas telefônicas. Ainda em 1959, paralelamente a Widrow, Franck Rosemblatt concluia o projeto do Perceptron, iniciado em 1958, que resultou num livro publicado em O fato causou excitação no meio científico da época e expectativas muito acima das possibilidades foram espalhadas e divulgadas no seio da sociedade O cérebro humano finalmente chegava aos computadores. O Perceptron de Rosemblatt consistia em um sistema de classificação de padrões, utilizando apenas uma camada de neurônios. Antonio Carlos Gay Thomé Inteligência Computacional 19
20 A publicação de um livro intitulado Perceptrons feita por Marvin Minsk conhecido e renomado pesquisador da área e Seymour Papert no ano de 1969, criticando o trabalho de Rosemblat, provocou uma parada e um grande atraso no desenvolvimento das Redes Neurais Artificiais (RNAs). Neste livro os autores provaram que o Perceptron apresentava sérias restrições conceituais, sendo capaz apenas de solucionar problemas dentro do universo dos linearmente separáveis. O reaquecimento das pesquisas em redes neurais se deu em 1982 quando John Hopfield [Hopfield82] concebeu um modelo de rede adaptativa para memórias associativas e introduziu o conceito de função de energia às redes, associando a convergência da rede à estabilidade dessa função em seu mínimo global. O fator definitivo de reaquecimento da área foi a publicação feita por James McClelland e David Rumelhart em 1986 [Zurada98] criando as redes MLP Multi Layer Perceptron e o algoritmo de treinamento conhecido por Backpropagation. As redes neurais hoje existentes ainda sofrem de algumas restrições, principalmente aquelas de cunho tecnológico, uma vez que simuladas em software demandam uma capacidade computacional ainda não disponível nos computadores atuais. Mesmo com estas restrições, a área de redes neurais tem demonstrado sua potencialidade em diversas aplicações, superando expectativas e gerando resultados até então não alcançados com qualquer outra técnica, seja computacional ou convencional. Muito ainda tem que ser feito até que possamos ser capazes de criar o computador com reais condições de simular a estrutura cerebral e o raciocínio do ser humano, uma vez que mesmo animais inferiores como a minhoca e a sanguessuga, são capazes de apresentar reações que o mais rápido dos supercomputadores hoje existente é incapaz de fazer. As redes neurais, apesar das limitações tecnológicas, são vistas hoje como a estratégia computacional com maior possibilidade de abrir novos caminhos e áreas de aplicação para a informática. Alguns Conceitos Básicos As redes neurais foram concebidas de forma a emular em um computador, a estrutura e a funcionalidade do cérebro. Para isto os pesquisadores tiveram que buscar alternativas para modelar o neurônio biológico, tanto na sua estrutura como na sua funcionalidade, na conectividade, na interatividade dos neurônios e, principalmente, na dinâmica operacional do sistema biológico. Este tipo de rede necessita de arquiteturas paralelas, de algoritmos adequados na fase de aprendizado e alta capacidade de processamento. Não necessitam de modelos precisos da realidade física do problema e possuem alta capacidade de adaptação. Suas principais vantagens são: tolerância a falhas; alta capacidade de adaptação; capacidade de resolver problemas práticos sem a necessidade da definição de listas, de regras ou de modelos precisos. Na sua tarefa de emular a estrutura e o funcionamento básico do cérebro, as redes neurais fazem uso de um modelo abstrato (matemático) do neurônio cerebral. No modelo de neurônio artificial, a intensidade das ligações entre neurônios (sinapses) são emuladas através de pesos, que são ajustáveis durante o processo de evolução do treinamento e aprendizado da rede. O corpo celular é emulado pela composição de duas funções, chamadas geralmente na literatura de funções de ativação e de propagação. Estas funções realizam o mapeamento, ou seja a transferência dos sinais de entrada em um único sinal Antonio Carlos Gay Thomé Inteligência Computacional 20
Fases para um Projeto de Data Warehouse. Fases para um Projeto de Data Warehouse. Fases para um Projeto de Data Warehouse
Definição escopo do projeto (departamental, empresarial) Grau de redundância dos dados(ods, data staging) Tipo de usuário alvo (executivos, unidades) Definição do ambiente (relatórios e consultas préestruturadas
Leia maisDATA WAREHOUSE. Introdução
DATA WAREHOUSE Introdução O grande crescimento do ambiente de negócios, médias e grandes empresas armazenam também um alto volume de informações, onde que juntamente com a tecnologia da informação, a correta
Leia maisRedes Neurais. Profa. Flavia Cristina Bernardini
Redes Neurais Profa. Flavia Cristina Bernardini Introdução Cérebro & Computador Modelos Cognitivos Diferentes Cérebro Computador Seqüência de Comandos Reconhecimento de Padrão Lento Rápido Rápido Lento
Leia maisPlanejamento Estratégico de TI. Prof.: Fernando Ascani
Planejamento Estratégico de TI Prof.: Fernando Ascani Data Warehouse - Conceitos Hoje em dia uma organização precisa utilizar toda informação disponível para criar e manter vantagem competitiva. Sai na
Leia maisMódulo 4: Gerenciamento de Dados
Módulo 4: Gerenciamento de Dados 1 1. CONCEITOS Os dados são um recurso organizacional decisivo que precisa ser administrado como outros importantes ativos das empresas. A maioria das organizações não
Leia maisNo mundo atual, globalizado e competitivo, as organizações têm buscado cada vez mais, meios de se destacar no mercado. Uma estratégia para o
DATABASE MARKETING No mundo atual, globalizado e competitivo, as organizações têm buscado cada vez mais, meios de se destacar no mercado. Uma estratégia para o empresário obter sucesso em seu negócio é
Leia maisFigura 5.1.Modelo não linear de um neurônio j da camada k+1. Fonte: HAYKIN, 2001
47 5 Redes Neurais O trabalho em redes neurais artificiais, usualmente denominadas redes neurais ou RNA, tem sido motivado desde o começo pelo reconhecimento de que o cérebro humano processa informações
Leia maisIC Inteligência Computacional Redes Neurais. Redes Neurais
Universidade Federal do Rio de Janeiro PÓS-GRADUAÇÃO / 2008-2 IC Inteligência Computacional Redes Neurais www.labic.nce.ufrj.br Antonio G. Thomé thome@nce.ufrj.br Redes Neurais São modelos computacionais
Leia maisADM041 / EPR806 Sistemas de Informação
ADM041 / EPR806 Sistemas de Informação UNIFEI Universidade Federal de Itajubá Prof. Dr. Alexandre Ferreira de Pinho 1 Sistemas de Apoio à Decisão (SAD) Tipos de SAD Orientados por modelos: Criação de diferentes
Leia maisDATA WAREHOUSE NO APOIO À TOMADA DE DECISÕES
DATA WAREHOUSE NO APOIO À TOMADA DE DECISÕES Janaína Schwarzrock jana_100ideia@hotmail.com Prof. Leonardo W. Sommariva RESUMO: Este artigo trata da importância da informação na hora da tomada de decisão,
Leia maisInstituto de Educação Tecnológica Pós-graduação Gestão e Tecnologia da Informação - Turma 25 20/03/2015. Big Data Analytics:
Instituto de Educação Tecnológica Pós-graduação Gestão e Tecnologia da Informação - Turma 25 20/03/2015 Big Data Analytics: Como melhorar a experiência do seu cliente Anderson Adriano de Freitas RESUMO
Leia maisData Warehousing. Leonardo da Silva Leandro. CIn.ufpe.br
Data Warehousing Leonardo da Silva Leandro Agenda Conceito Elementos básicos de um DW Arquitetura do DW Top-Down Bottom-Up Distribuído Modelo de Dados Estrela Snowflake Aplicação Conceito Em português:
Leia maisMINERAÇÃO DE DADOS APLICADA. Pedro Henrique Bragioni Las Casas pedro.lascasas@dcc.ufmg.br
MINERAÇÃO DE DADOS APLICADA Pedro Henrique Bragioni Las Casas pedro.lascasas@dcc.ufmg.br Processo Weka uma Ferramenta Livre para Data Mining O que é Weka? Weka é um Software livre do tipo open source para
Leia maisMódulo 4. Construindo uma solução OLAP
Módulo 4. Construindo uma solução OLAP Objetivos Diferenciar as diversas formas de armazenamento Compreender o que é e como definir a porcentagem de agregação Conhecer a possibilidade da utilização de
Leia maisIdentificar as mudanças que acontecem na forma e no uso de apoio à decisão em empreendimentos de e-business. Identificar o papel e alternativas de
1 Identificar as mudanças que acontecem na forma e no uso de apoio à decisão em empreendimentos de e-business. Identificar o papel e alternativas de relatórios dos sistemas de informação gerencial. Descrever
Leia maisCAPÍTULO 1 - CONTABILIDADE E GESTÃO EMPRESARIAL A CONTROLADORIA
CAPÍTULO 1 - CONTABILIDADE E GESTÃO EMPRESARIAL A CONTROLADORIA Constata-se que o novo arranjo da economia mundial provocado pelo processo de globalização tem afetado as empresas a fim de disponibilizar
Leia maisInteratividade aliada a Análise de Negócios
Interatividade aliada a Análise de Negócios Na era digital, a quase totalidade das organizações necessita da análise de seus negócios de forma ágil e segura - relatórios interativos, análise de gráficos,
Leia maisPlanejamento Estratégico de TI. Prof.: Fernando Ascani
Planejamento Estratégico de TI Prof.: Fernando Ascani BI Business Intelligence A inteligência Empresarial, ou Business Intelligence, é um termo do Gartner Group. O conceito surgiu na década de 80 e descreve
Leia maisMATERIAL DIDÁTICO: APLICAÇÕES EMPRESARIAIS SISTEMA DE APOIO À DECISÃO (SAD)
AULA 07 MATERIAL DIDÁTICO: APLICAÇÕES EMPRESARIAIS SISTEMA DE APOIO À DECISÃO (SAD) JAMES A. O BRIEN MÓDULO 01 Páginas 286 à 294 1 AULA 07 SISTEMAS DE APOIO ÀS DECISÕES 2 Sistemas de Apoio à Decisão (SAD)
Leia maisResumo dos principais conceitos. Resumo dos principais conceitos. Business Intelligence. Business Intelligence
É um conjunto de conceitos e metodologias que, fazem uso de acontecimentos e sistemas e apoiam a tomada de decisões. Utilização de várias fontes de informação para se definir estratégias de competividade
Leia maisMódulo 15 Resumo. Módulo I Cultura da Informação
Módulo 15 Resumo Neste módulo vamos dar uma explanação geral sobre os pontos que foram trabalhados ao longo desta disciplina. Os pontos abordados nesta disciplina foram: Fundamentos teóricos de sistemas
Leia maisComplemento II Noções Introdutória em Redes Neurais
Complemento II Noções Introdutória em Redes Neurais Esse documento é parte integrante do material fornecido pela WEB para a 2ª edição do livro Data Mining: Conceitos, técnicas, algoritmos, orientações
Leia maisPlanejamento Estratégico de TI. Prof.: Fernando Ascani
Planejamento Estratégico de TI Prof.: Fernando Ascani Data Mining Os métodos tradicionais de Data Mining são: Classificação Associa ou classifica um item a uma ou várias classes categóricas pré-definidas.
Leia maisGestão do Conhecimento A Chave para o Sucesso Empresarial. José Renato Sátiro Santiago Jr.
A Chave para o Sucesso Empresarial José Renato Sátiro Santiago Jr. Capítulo 1 O Novo Cenário Corporativo O cenário organizacional, sem dúvida alguma, sofreu muitas alterações nos últimos anos. Estas mudanças
Leia maisSimulação Computacional de Sistemas, ou simplesmente Simulação
Simulação Computacional de Sistemas, ou simplesmente Simulação Utilização de métodos matemáticos & estatísticos em programas computacionais visando imitar o comportamento de algum processo do mundo real.
Leia maisUniversidade Federal de Goiás UFG Campus Catalão CAC Departamento de Engenharia de Produção. Sistemas ERP. PCP 3 - Professor Muris Lage Junior
Sistemas ERP Introdução Sucesso para algumas empresas: acessar informações de forma rápida e confiável responder eficientemente ao mercado consumidor Conseguir não é tarefa simples Isso se deve ao fato
Leia maisSERVIÇO DE ANÁLISE DE REDES DE TELECOMUNICAÇÕES APLICABILIDADE PARA CALL-CENTERS VISÃO DA EMPRESA
SERVIÇO DE ANÁLISE DE REDES DE TELECOMUNICAÇÕES APLICABILIDADE PARA CALL-CENTERS VISÃO DA EMPRESA Muitas organizações terceirizam o transporte das chamadas em seus call-centers, dependendo inteiramente
Leia mais04/08/2012 MODELAGEM DE DADOS. PROF. RAFAEL DIAS RIBEIRO, M.Sc. @ribeirord MODELAGEM DE DADOS. Aula 1. Prof. Rafael Dias Ribeiro. M.Sc.
MODELAGEM DE DADOS PROF. RAFAEL DIAS RIBEIRO, M.Sc. @ribeirord MODELAGEM DE DADOS Aula 1 Prof. Rafael Dias Ribeiro. M.Sc. @ribeirord 1 Objetivos: Apresenta a diferença entre dado e informação e a importância
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Professor: Rosalvo Ferreira de Oliveira Neto Disciplina: Inteligência Artificial Tópicos 1. Definições 2. Tipos de aprendizagem 3. Paradigmas de aprendizagem 4. Modos de aprendizagem
Leia maisBanco de Dados Aula 1 Introdução a Banco de Dados Introdução Sistema Gerenciador de Banco de Dados
Banco de Dados Aula 1 Introdução a Banco de Dados Introdução Um Sistema Gerenciador de Banco de Dados (SGBD) é constituído por um conjunto de dados associados a um conjunto de programas para acesso a esses
Leia maissrbo@ufpa.br www.ufpa.br/srbo
CBSI Curso de Bacharelado em Sistemas de Informação BI Prof. Dr. Sandro Ronaldo Bezerra Oliveira srbo@ufpa.br www.ufpa.br/srbo Tópicos Especiais em Sistemas de Informação Faculdade de Computação Instituto
Leia maisExtração de Requisitos
Extração de Requisitos Extração de requisitos é o processo de transformação das idéias que estão na mente dos usuários (a entrada) em um documento formal (saída). Pode se entender também como o processo
Leia maisPlataforma Sentinela
Plataforma Sentinela A plataforma completa para segurança corporativa A plataforma Sentinela é a mais completa plataforma para monitoramento e interceptação em tempo real, gravação e bilhetagem de chamadas
Leia maisEMENTAS DAS DISCIPLINAS
EMENTAS DAS DISCIPLINAS CURSO CST ANÁLISE E DESENVOLVIMENTO DE SISTEMAS INTRODUÇÃO À COMPUTAÇÃO 68 A disciplina estuda a área da informática como um todo e os conceitos fundamentais, abrangendo desde a
Leia maisIntrodução à Computação
Aspectos Importantes - Desenvolvimento de Software Motivação A economia de todos países dependem do uso de software. Cada vez mais, o controle dos processos tem sido feito por software. Atualmente, os
Leia maisCapacidade = 512 x 300 x 20000 x 2 x 5 = 30.720.000.000 30,72 GB
Calculando a capacidade de disco: Capacidade = (# bytes/setor) x (méd. # setores/trilha) x (# trilhas/superfície) x (# superfícies/prato) x (# pratos/disco) Exemplo 01: 512 bytes/setor 300 setores/trilha
Leia maisPROCESSO DE DESENVOLVIMENTO DE SOFTWARE. Modelos de Processo de Desenvolvimento de Software
PROCESSO DE DESENVOLVIMENTO DE SOFTWARE Introdução Modelos de Processo de Desenvolvimento de Software Os modelos de processos de desenvolvimento de software surgiram pela necessidade de dar resposta às
Leia maisUniversidade de Brasília Departamento de Ciência da Informação e Documentação Programa de Pós Graduação em Ciência da Informação Prof a.
Universidade de Brasília Departamento de Ciência da Informação e Documentação Programa de Pós Graduação em Ciência da Informação Prof a. Lillian Alvares Tecnologia e Gestão O principal papel da Tecnologia
Leia maisLaudon & Laudon Essentials of MIS, 5th Edition. Pg. 1.1
Laudon & Laudon Essentials of MIS, 5th Edition. Pg. 1.1 SISTEMA DE APOIO À DECISÃO Grupo: Denilson Neves Diego Antônio Nelson Santiago Sabrina Dantas CONCEITO É UM SISTEMA QUE AUXILIA O PROCESSO DE DECISÃO
Leia maisAnálise e Projeto de Sistemas. Engenharia de Software. Análise e Projeto de Sistemas. Contextualização. Perspectiva Histórica. A Evolução do Software
Análise e Projeto de Sistemas Análise e Projeto de Sistemas Contextualização ENGENHARIA DE SOFTWARE ANÁLISE E PROJETO DE SISTEMAS ENGENHARIA DA INFORMAÇÃO Perspectiva Histórica Engenharia de Software 1940:
Leia maisPLANEJAMENTO OPERACIONAL - MARKETING E PRODUÇÃO MÓDULO 3 O QUE É PLANEJAMENTO DE VENDAS E OPERAÇÕES?
PLANEJAMENTO OPERACIONAL - MARKETING E PRODUÇÃO MÓDULO 3 O QUE É PLANEJAMENTO DE VENDAS E OPERAÇÕES? Índice 1. O que é planejamento de...3 1.1. Resultados do planejamento de vendas e operações (PVO)...
Leia maisSistemas de Informação I
+ Sistemas de Informação I Dimensões de análise dos SI Ricardo de Sousa Britto rbritto@ufpi.edu.br + Introdução n Os sistemas de informação são combinações das formas de trabalho, informações, pessoas
Leia mais1 http://www.google.com
1 Introdução A computação em grade se caracteriza pelo uso de recursos computacionais distribuídos em várias redes. Os diversos nós contribuem com capacidade de processamento, armazenamento de dados ou
Leia maisModelo Cascata ou Clássico
Modelo Cascata ou Clássico INTRODUÇÃO O modelo clássico ou cascata, que também é conhecido por abordagem top-down, foi proposto por Royce em 1970. Até meados da década de 1980 foi o único modelo com aceitação
Leia maisASSUNTO DA APOSTILA: SISTEMAS DE INFORMAÇÃO E AS DECISÕES GERENCIAIS NA ERA DA INTERNET
AULA 02 ASSUNTO DA APOSTILA: SISTEMAS DE INFORMAÇÃO E AS DECISÕES GERENCIAIS NA ERA DA INTERNET JAMES A. O BRIEN CAPÍTULO 01 continuação Páginas 03 à 25 1 COMPONENTES DE UM SISTEMA DE INFORMAÇÃO Especialistas
Leia maisDo neurônio biológico ao neurônio das redes neurais artificiais
Do neurônio biológico ao neurônio das redes neurais artificiais O objetivo desta aula é procurar justificar o modelo de neurônio usado pelas redes neurais artificiais em termos das propriedades essenciais
Leia maisNa medida em que se cria um produto, o sistema de software, que será usado e mantido, nos aproximamos da engenharia.
1 Introdução aos Sistemas de Informação 2002 Aula 4 - Desenvolvimento de software e seus paradigmas Paradigmas de Desenvolvimento de Software Pode-se considerar 3 tipos de paradigmas que norteiam a atividade
Leia maisGovernança de TI. ITIL v.2&3. parte 1
Governança de TI ITIL v.2&3 parte 1 Prof. Luís Fernando Garcia LUIS@GARCIA.PRO.BR ITIL 1 1 ITIL Gerenciamento de Serviços 2 2 Gerenciamento de Serviços Gerenciamento de Serviços 3 3 Gerenciamento de Serviços
Leia maisConceitos ADMINISTRAÇÃO DE SISTEMAS DE INFORMAÇÃO. Comunicação; Formas de escritas; Processo de contagem primitivo;
Conceitos Comunicação; Formas de escritas; Bacharel Rosélio Marcos Santana Processo de contagem primitivo; roseliomarcos@yahoo.com.br Inicio do primitivo processamento de dados do homem. ADMINISTRAÇÃO
Leia maisSistema. Atividades. Sistema de informações. Tipos de sistemas de informação. Everson Santos Araujo everson@everson.com.br
Sistema Tipos de sistemas de informação Everson Santos Araujo everson@everson.com.br Um sistema pode ser definido como um complexo de elementos em interação (Ludwig Von Bertalanffy) sistema é um conjunto
Leia maisBanco do Brasil S.A. Consulta ao Mercado - RFP - Request for Proposa Aquisição de Ferramenta de Gestão de Limites Dúvida de Fornecedor
1. Em relação ao módulo para Atribuição de Limites, entendemos que Banco do Brasil busca uma solução para o processo de originação/concessão de crédito. Frente a essa necessidade, o Banco do Brasil busca
Leia maisRedes Neurais. A IA clássica segue o paradigma da computação simbólica
Abordagens não simbólicas A IA clássica segue o paradigma da computação simbólica Redes Neurais As redes neurais deram origem a chamada IA conexionista, pertencendo também a grande área da Inteligência
Leia mais)HUUDPHQWDV &RPSXWDFLRQDLV SDUD 6LPXODomR
6LPXODomR GH6LVWHPDV )HUUDPHQWDV &RPSXWDFLRQDLV SDUD 6LPXODomR #5,6. Simulador voltado para análise de risco financeiro 3RQWRV IRUWHV Fácil de usar. Funciona integrado a ferramentas já bastante conhecidas,
Leia maisDATA WAREHOUSE. Rafael Ervin Hass Raphael Laércio Zago
DATA WAREHOUSE Rafael Ervin Hass Raphael Laércio Zago Roteiro Introdução Aplicações Arquitetura Características Desenvolvimento Estudo de Caso Conclusão Introdução O conceito de "data warehousing" data
Leia maisGerenciamento de projetos. cynaracarvalho@yahoo.com.br
Gerenciamento de projetos cynaracarvalho@yahoo.com.br Projeto 3URMHWR é um empreendimento não repetitivo, caracterizado por uma seqüência clara e lógica de eventos, com início, meio e fim, que se destina
Leia maisFUNDAMENTOS DE SISTEMAS DE INFORMAÇÃO
FUNDAMENTOS DE SISTEMAS DE Rafael D. Ribeiro, M.Sc,PMP. rafaeldiasribeiro@gmail.com http://www.rafaeldiasribeiro.com.br Princípios da Teoria de Sistemas 1 Grupos diferentes dentro de uma organização necessitam
Leia maisMLP (Multi Layer Perceptron)
MLP (Multi Layer Perceptron) André Tavares da Silva andre.silva@udesc.br Roteiro Rede neural com mais de uma camada Codificação de entradas e saídas Decorar x generalizar Perceptron Multi-Camada (MLP -
Leia maisMultiplexador. Permitem que vários equipamentos compartilhem um único canal de comunicação
Multiplexadores Permitem que vários equipamentos compartilhem um único canal de comunicação Transmissor 1 Receptor 1 Transmissor 2 Multiplexador Multiplexador Receptor 2 Transmissor 3 Receptor 3 Economia
Leia maisIntrodução ao GED Simone de Abreu
Introdução ao GED Simone de Abreu GED O que é isso? O conhecimento teve, ao longo da história, diferentes significados e funções. No tempo das cavernas nossos antepassados transmitiam aos seus descendentes
Leia mais22/02/2009. Supply Chain Management. É a integração dos processos do negócio desde o usuário final até os fornecedores originais que
Supply Chain Management SUMÁRIO Gestão da Cadeia de Suprimentos (SCM) SCM X Logística Dinâmica Sugestões Definição Cadeia de Suprimentos É a integração dos processos do negócio desde o usuário final até
Leia maisSISTEMAS DE GESTÃO São Paulo, Janeiro de 2005
SISTEMAS DE GESTÃO São Paulo, Janeiro de 2005 ÍNDICE Introdução...3 A Necessidade do Gerenciamento e Controle das Informações...3 Benefícios de um Sistema de Gestão da Albi Informática...4 A Ferramenta...5
Leia maisFaculdade de Ciência da Informação Profa. Lillian Alvares
Universidade de Brasília Faculdade de Ciência da Informação Profa. Lillian Alvares Tecnologia e Gestão O principal papel da Tecnologia da Informação na Gestão do Conhecimento consiste em: Ampliar o alcance
Leia maisINTRODUÇÃO A PORTAIS CORPORATIVOS
INTRODUÇÃO A PORTAIS CORPORATIVOS Conectt i3 Portais Corporativos Há cinco anos, as empresas vêm apostando em Intranet. Hoje estão na terceira geração, a mais interativa de todas. Souvenir Zalla Revista
Leia maisAULA 1 INTRODUÇÃO - ENGENHARIA DE SOFTWARE. Prof. Msc. Hélio Esperidião
AULA 1 INTRODUÇÃO - ENGENHARIA DE SOFTWARE Prof. Msc. Hélio Esperidião O QUE É UM ALGORITMO? É qualquer procedimento computacional bem definido que informa algum valor ou conjunto de valores como entrada
Leia maisROTEIRO PARA ELABORAÇÃO DE PROJETOS
APRESENTAÇÃO ROTEIRO PARA ELABORAÇÃO DE PROJETOS Breve histórico da instituição seguido de diagnóstico e indicadores sobre a temática abrangida pelo projeto, especialmente dados que permitam análise da
Leia maisERP Enterprise Resource Planning
ERP Enterprise Resource Planning Sistemas Integrados de Gestão Evolução dos SI s CRM OPERACIONAL TÁTICO OPERACIONAL ESTRATÉGICO TÁTICO ESTRATÉGICO OPERACIONAL TÁTICO ESTRATÉGICO SIT SIG SAE SAD ES EIS
Leia maisMetodologias de Desenvolvimento de Sistemas. Analise de Sistemas I UNIPAC Rodrigo Videschi
Metodologias de Desenvolvimento de Sistemas Analise de Sistemas I UNIPAC Rodrigo Videschi Histórico Uso de Metodologias Histórico Uso de Metodologias Era da Pré-Metodologia 1960-1970 Era da Metodologia
Leia maisEngª de Produção Prof.: Jesiel Brito. Sistemas Integrados de Produção ERP. Enterprise Resources Planning
ERP Enterprise Resources Planning A Era da Informação - TI GRI Information Resource Management -Informação Modo organizado do conhecimento para ser usado na gestão das empresas. - Sistemas de informação
Leia maisUNIDADE 4. Introdução à Metodologia de Desenvolvimento de Sistemas
UNIDADE 4. Introdução à Metodologia de Desenvolvimento de Sistemas 4.1 Motivação Sistemas de Informação são usados em diversos níveis dentro de uma organização, apoiando a tomada de decisão; Precisam estar
Leia maisData Warehouse. Debora Marrach Renata Miwa Tsuruda
Debora Marrach Renata Miwa Tsuruda Agenda Introdução Contexto corporativo Agenda Introdução Contexto corporativo Introdução O conceito de Data Warehouse surgiu da necessidade de integrar dados corporativos
Leia maisFornecendo Inteligência, para todo o mundo, a mais de 20 anos.
Fornecendo Inteligência, para todo o mundo, a mais de 20 anos. Fundada em 1989, a MicroStrategy é fornecedora líder Mundial de plataformas de software empresarial. A missão é fornecer as plataformas mais
Leia maisExemplo de Aplicação do DataMinig
Exemplo de Aplicação do DataMinig Felipe E. Barletta Mendes 19 de fevereiro de 2008 INTRODUÇÃO AO DATA MINING A mineração de dados (Data Mining) está inserida em um processo maior denominado Descoberta
Leia maisPARTE III Introdução à Consultoria Empresarial
FATERN Faculdade de Excelência Educacional do RN Coordenação Tecnológica de Redes e Sistemas Curso Superior de Tecnologia em Redes de Computadores Técnicas de Consultoria Prof. Fabio Costa Ferrer, M.Sc.
Leia maisData Warehouse Processos e Arquitetura
Data Warehouse - definições: Coleção de dados orientada a assunto, integrada, não volátil e variável em relação ao tempo, que tem por objetivo dar apoio aos processos de tomada de decisão (Inmon, 1997)
Leia mais22 DICAS para REDUZIR O TMA DO CALL CENTER. em Clínicas de Imagem
para REDUZIR O TMA DO CALL CENTER em Clínicas de Imagem Objetivo Um atendimento eficiente e personalizado é um dos principais fatores que o cliente leva em consideração ao iniciar um processo de fidelização
Leia maisCRM. Customer Relationship Management
CRM Customer Relationship Management CRM Uma estratégia de negócio para gerenciar e otimizar o relacionamento com o cliente a longo prazo Mercado CRM Uma ferramenta de CRM é um conjunto de processos e
Leia maisPreparando sua empresa para o forecasting:
Preparando sua empresa para o forecasting: Critérios para escolha de indicadores. Planejamento Performance Dashboard Plano de ação Relatórios Indicadores Embora o forecasting seja uma realidade, muitas
Leia maisFundamentos de Sistemas de Informação Sistemas de Informação
Objetivo da Aula Tecnologia e as Organizações, importância dos sistemas de informação e níveis de atuação dos sistemas de informação Organizações & Tecnologia TECNOLOGIA A razão e a capacidade do homem
Leia maisProjeto Você pede, eu registro.
Projeto Você pede, eu registro. 1) IDENTIFICAÇÃO 1.1) Título do Projeto: Você pede eu registro. 1.2) Equipe responsável pela coordenação do projeto: Pedro Paulo Braga Bolzani Subsecretario de TI Antonio
Leia maisArquitetura de Rede de Computadores
TCP/IP Roteamento Arquitetura de Rede de Prof. Pedro Neto Aracaju Sergipe - 2011 Ementa da Disciplina 4. Roteamento i. Máscara de Rede ii. Sub-Redes iii. Números Binários e Máscara de Sub-Rede iv. O Roteador
Leia maisMRP II. Planejamento e Controle da Produção 3 professor Muris Lage Junior
MRP II Introdução A lógica de cálculo das necessidades é conhecida há muito tempo Porém só pode ser utilizada na prática em situações mais complexas a partir dos anos 60 A partir de meados da década de
Leia maisMemórias Prof. Galvez Gonçalves
Arquitetura e Organização de Computadores 1 s Prof. Galvez Gonçalves Objetivo: Compreender os tipos de memória e como elas são acionadas nos sistemas computacionais modernos. INTRODUÇÃO Nas aulas anteriores
Leia maisSAM GERENCIAMENTO DE ATIVOS DE SOFTWARE
SAM GERENCIAMENTO DE ATIVOS DE SOFTWARE Modelo de Otimização de SAM Controle, otimize, cresça Em um mercado internacional em constante mudança, as empresas buscam oportunidades de ganhar vantagem competitiva
Leia maisSistema de Controle de Solicitação de Desenvolvimento
Sistema de Controle de Solicitação de Desenvolvimento Introdução O presente documento descreverá de forma objetiva as principais operações para abertura e consulta de uma solicitação ao Setor de Desenvolvimento
Leia maisFaculdade de Ciência da Informação Prof a Lillian Alvares
Universidade de Brasília Faculdade de Ciência da Informação Prof a Lillian Alvares Tecnologia e Gestão O principal papel da Tecnologia da Informação na Gestão do Conhecimento consiste em: Ampliar o alcance
Leia maisProcessos de Desenvolvimento de Software
Processos de Desenvolvimento de Software Gerenciamento de Projetos Mauro Lopes Carvalho Silva Professor EBTT DAI Departamento de Informática Campus Monte Castelo Instituto Federal de Educação Ciência e
Leia maisFATEC Cruzeiro José da Silva. Ferramenta CRM como estratégia de negócios
FATEC Cruzeiro José da Silva Ferramenta CRM como estratégia de negócios Cruzeiro SP 2008 FATEC Cruzeiro José da Silva Ferramenta CRM como estratégia de negócios Projeto de trabalho de formatura como requisito
Leia maisIW10. Rev.: 02. Especificações Técnicas
IW10 Rev.: 02 Especificações Técnicas Sumário 1. INTRODUÇÃO... 1 2. COMPOSIÇÃO DO IW10... 2 2.1 Placa Principal... 2 2.2 Módulos de Sensores... 5 3. APLICAÇÕES... 6 3.1 Monitoramento Local... 7 3.2 Monitoramento
Leia maisUNIVERSIDADE FEDERAL DE SANTA CATARINA GRADUAÇÃO EM SISTEMAS DE INFORMAÇÃO DEPARTAMENTO DE INFORMÁTICA E ESTATÍSTICA DATA MINING EM VÍDEOS
UNIVERSIDADE FEDERAL DE SANTA CATARINA GRADUAÇÃO EM SISTEMAS DE INFORMAÇÃO DEPARTAMENTO DE INFORMÁTICA E ESTATÍSTICA DATA MINING EM VÍDEOS VINICIUS DA SILVEIRA SEGALIN FLORIANÓPOLIS OUTUBRO/2013 Sumário
Leia maisGerenciamento de Incidentes
Gerenciamento de Incidentes Os usuários do negócio ou os usuários finais solicitam os serviços de Tecnologia da Informação para melhorar a eficiência dos seus próprios processos de negócio, de forma que
Leia maisADMINISTRAÇÃO DOS RECURSOS DE DADOS
Capítulo 7 ADMINISTRAÇÃO DOS RECURSOS DE DADOS 7.1 2003 by Prentice Hall OBJETIVOS Por que as empresas sentem dificuldades para descobrir que tipo de informação precisam ter em seus sistemas de informação?
Leia maisColetividade; Diferenciais; Informação; Dado; Informação; Conhecimento. Coletar informação; e Identificar as direções.
Revisão 1 Coletividade; Diferenciais; Informação; Dado; Informação; Conhecimento Coletar informação; e Identificar as direções. Precisa; Clara; Econômica; Flexível; Confiável; Dirigida; Simples; Rápida;
Leia mais04/08/2012 MODELAGEM DE DADOS. PROF. RAFAEL DIAS RIBEIRO, M.Sc. @ribeirord MODELAGEM DE DADOS. Aula 2. Prof. Rafael Dias Ribeiro. M.Sc.
MODELAGEM DE DADOS PROF. RAFAEL DIAS RIBEIRO, M.Sc. @ribeirord MODELAGEM DE DADOS Aula 2 Prof. Rafael Dias Ribeiro. M.Sc. @ribeirord 1 Objetivos: Revisão sobre Banco de Dados e SGBDs Aprender as principais
Leia maisProf. JUBRAN. Aula 1 - Conceitos Básicos de Sistemas de Informação
Prof. JUBRAN Aula 1 - Conceitos Básicos de Sistemas de Informação Conhecimento em Sistemas de Informação Os filósofos tentam há séculos definir dados ou fatores, informação e conhecimento. Seus resultados
Leia maisDisciplina: Suprimentos e Logística II 2014-02 Professor: Roberto Cézar Datrino Atividade 3: Transportes e Armazenagem
Disciplina: Suprimentos e Logística II 2014-02 Professor: Roberto Cézar Datrino Atividade 3: Transportes e Armazenagem Caros alunos, Essa terceira atividade da nossa disciplina de Suprimentos e Logística
Leia maisRoteiro para a escrita do documento de Especificação de Requisitos de Software (ERS)
Roteiro para a escrita do documento de Especificação de Requisitos de Software (ERS) Definição Geral: Disciplina de Compiladores Prof. Jorge Bidarra (UNIOESTE) A especificação de requisitos tem como objetivo
Leia maisXDOC. Solução otimizada para armazenamento e recuperação de documentos
XDOC Solução otimizada para armazenamento e recuperação de documentos ObJetivo Principal O Que você ACHA De ter Disponível Online todos OS Documentos emitidos por SUA empresa em UMA intranet OU Mesmo NA
Leia maisFUNDAMENTOS DE SISTEMAS DE INFORMAÇÃO
@ribeirord FUNDAMENTOS DE SISTEMAS DE INFORMAÇÃO Rafael D. Ribeiro, M.Sc,PMP. rafaeldiasribeiro@gmail.com http://www.rafaeldiasribeiro.com.br Lembrando... Aula 4 1 Lembrando... Aula 4 Sistemas de apoio
Leia mais