Ferramentas de Business Intelligence Open Source para PMEs

Tamanho: px
Começar a partir da página:

Download "Ferramentas de Business Intelligence Open Source para PMEs"

Transcrição

1 Instituto Politécnico de Coimbra Instituto Superior de Engenharia de Coimbra Departamento de Engenharia Informática e de Sistemas Ferramentas de Business Intelligence Open Source para PMEs Marco Tereso Mestrado em Informática e Sistemas Coimbra, Dezembro, 2011

2 Instituto Politécnico de Coimbra Instituto Superior de Engenharia de Coimbra Departamento de Engenharia Informática e de Sistemas Mestrado em Informática e Sistemas Projecto Industrial Relatório Final Ferramentas de Business Intelligence Open Source para PMEs Marco Tereso Orientador: Dr. Jorge Bernardino ISEC - DEIS Coimbra, Dezembro, 2011

3 Agradecimentos A conclusão desta dissertação é o culminar da realização de um grande objetivo. Este foi o maior desafio ao nível académico e só se tornou possível graças ao grupo de pessoas que diariamente me apoiaram e incentivaram. Como tal, deixo aqui os meus agradecimentos: Ao Professor Doutor Jorge Rodrigues Bernardino que orientou e acompanhou de forma assídua o meu trabalho, tornando possível esta dissertação. Aos meus pais, por todo o esforço que fazem diariamente e que sempre me incentivaram a estudar. À minha irmã, que me incentivou a entrar no ensino superior. A todos os professores e colegas do Mestrado que directa ou indirectamente contribuíram para a minha formação. Ao Engº Jorge Vieira que se disponibilizou a apoiar o processo de implementação prática num caso real. E a todos os amigos de longa data que são inúmeros e teria uma lista infindável para referir, sem esquecer as pessoas que mais de perto acompanharam todo este trajecto, que prestaram um apoio essencial, mesmo preferindo o anonimato. "Se não puder se destacar pelo talento, vença pelo esforço." (Dave Weinbaum)

4 Ferramentas Open Source BI para PMEs Resumo RESUMO Em época de contenção de despesas e oscilações constantes dos mercados, inovação e otimização devem ser os fatores chave para o desbloqueio da economia. A sustentabilidade e presença no mercado de pequenas e médias empresas é constantemente ameaçada face à concorrência e competitividade apresentadas pelas grandes empresas. Uma das soluções para o aumento da competitividade e rentabilidade das pequenas e média empresas é a aquisição de ferramentas de Business Intelligence. Face às dificuldades de investimento encontradas, por parte das empresas apresentamos no contexto do nosso trabalho um conjunto de ferramentas de Business Intelligence open source que garantidamente apresentam qualidade suficiente para servir interesses e necessidades de pequenas e médias empresas. O nosso trabalho contempla uma investigação em torno de ferramentas Business Intelligence open source, avaliando-as e comparando-as em diversos parâmetros. A nossa avaliação baseou-se inicialmente na descrição das ferramentas e posteriormente na implementação e exploração prática das mesmas. Os resultados preliminares são bastante atrativos e realçam a qualidade das ferramentas de Business Intelligence open source analisadas. Para valorizar o nosso trabalho recorremos à implementação de uma das ferramentas sobre um projeto numa PME, com o principal objetivo de demonstrarmos na prática que a implementação destas ferramentas é simples e é claramente viável. Em suma, as ferramentas de Business Intelligence existentes no mercado constituem uma alternativa viável às soluções comerciais e não envolvem gastos acrescidos. As ferramentas analisadas apresentam alguma maturidade, e uma interface com o utilizador aceitável, traduzindo-se numa menor dificuldade de adaptação por parte do utilizador. Em suma as ferramentas de Business Intelligence open source representam uma solução alternativa viável perante as soluções comerciais, com a mais-valia de serem gratuitas e não implicarem custos de aquisição por parte das empresas. i

5 Ferramentas Open Source BI para PMEs Resumo ABSTRACT In times of cost containment and constant fluctuations of markets, innovation and optimization should be the keys to unlocking the economy. The market for small and medium enterprises is constantly threatened in the face of competition and competitiveness made by large companies. One solution to increase the competitiveness and profitability of small and medium business is the acquisition of business intelligence tools. Given the difficulties of business investment, we present in our work a toolkit of open source Business Intelligence. It is guaranteed to have sufficient quality to serve the interests and needs of small and medium enterprises. Our work includes one research about open source Business Intelligence tools, evaluating them and comparing them on various parameters. Our assessment was initially based on the description of tools and later in implementation. Preliminary results are very attractive and allow highlight the quality of business intelligence tools open source analyzed. To enhance our work we resorted to implementing one of the tools on a real project in an SME, with the main objective to demonstrate in practice that the implementation of these tools is simple and is clearly feasible. In short, the business intelligence tools on the market are a viable alternative to commercial solutions and do not involve a big investment. The analyzed tools have some maturity, and a user interface acceptable, translating into lower difficulty of adaptation by the user. The open source Business Intelligence tools represent a viable alternative before the paid solutions, with the advantage of being free and do not involve acquisition costs, for companies. ii

6 Ferramentas Open Source BI para PMEs Palavras-Chave Palavras-Chave Open Source Business Intelligence PMEs Data Warehousing Keywords Open Source Business Intelligence SMEs Data Warehousing i

7 Ferramentas Open Source BI para PMEs Símbolos e Abreviaturas ABREVIATURAS AGPL Affero General Public License AJAX Asynchronous Javascript and XML API Application Programming Interface BAM - Business Activities Monitoring BD Base de Dados BI Business Intelligence BIRT Business intelligence Reporting Tools BPM - Business Process Management CE Community Edition CRM Customer Relationship Management CSS Cascading Style Sheets CSV Comma-Separated Values DBMS Database Management System DFSG - Debian Free Software Guidelines DSP Decision Studio Professional DW Data Warehouse EJB Enterprise Java Beans ERP Enterprise Resource planning ETL - Extract, Transform, Load FSF - Free Software Foundation GEO Geo-referenced GIS - Geographic Information System GPL General Public License HTML Hypertext Markup language IDE - Integrated Development Environment J2EE Java 2 Enterprise Edition JDBC Java Database Conectivity JVM Java Virtual Machine JOLAP Java Online Analytical Processing JSP Java Server Pages KPI Key Performance Indicator MDX - Multidimensional Expressions ODBC Open Data Base Connectivity OLAP On-line Analytical Processing ii

8 Ferramentas Open Source BI para PMEs Símbolos e Abreviaturas OLTP Online Transaction Processing OSI - Open Source Iniciative PDF Portable Document Format PDI Pentaho Data Integration PHP Hypertext Preprocessor PMEs Pequenas e médias empresas POJO Plain Old Java Objects QBE - Query by Example RDBMS Relational Database Management System ROI Return On Investment SaaS Software as a Service SGBD - Sistema de Gestão de Base de Dados SI Sistemas de Informação SIG Sistema de Informação Geográfica SQL Structured Query Language SWF - Shockwave Flash TOS Talend Open Studio UE União Europeia XML - Extensible Markup Language XMLA Extensible Markup Language for Analysis WCAG - Web Content Accessibility Guidelines WEKA - Waikato Environment for Knowledge Analysis iii

9 ÍNDICE CAPÍTULO 1 - INTRODUÇÃO 1 CAPÍTULO 2 - ESTADO DA ARTE 5 CAPÍTULO 3 - BUSINESS INTELLIGENCE Descrição do conceito de Business Intelligence Benefícios e Objetivos Vantagens Desvantagens Fracassos de BI Arquitetura de BI Propriedades de BI Data Warehouse Data Marts Metadados ETL Cubos de dados OLAP Arquiteturas OLAP Elementos OLAP Dashboards Data Mining GEO/GIS KPIs Importação e Exportação de dados OLTP Relatórios 23 CAPÍTULO 4 SOFTWARE OPEN SOURCE E PMES Vantagens do Software Open Source Desvantagens do Software Open Source Onde encontrar Software Open Source? Descrição de PME 30 CAPÍTULO 5 - FERRAMENTAS BI OPEN SOURCE Suites BI Open Source JasperSoft OpenI Palo Pentaho SpagoBI Vanilla Comparação entre as ferramentas Suite BI Open Source 47 i

10 5.3 - Outras Ferramentas BI Eclipse BIRT Mondrian Kettle Jpivot Weka RapidMiner 54 CAPÍTULO 6 - AVALIAÇÃO PRÁTICA DAS FERRAMENTAS Instalação de requisitos comuns às quatro ferramentas Instalação de JasperSoft Instalação de Pentaho Instalação de SpagoBI Instalação de Vanilla Avaliação técnica das ferramentas Conclusão da avaliação 69 CAPÍTULO 7 - IMPLEMENTAÇÃO NUMA PME Instalação de Pentaho em Windows Construção da Data Warehouse Descrição do negócio Objectivo Desafio Estratégia Questões às quais a DW deve conseguir responder Granularidade Identificação de estrelas e dimensões Tabela de factos Factos_Energy Dimensão Park Dimensão Element Dimensão Time Tabela de factos Factos_Average Dimensão Incident Dimensão Responsability Gerar código MySQL para a construção da DW Processo de ETL Dimensão Park Dimensão Element Dimensão Responsability Dimensão Incident Dimensão Time Tabela de factos Factos_Energy 103 ii

11 Tabela de factos Factos_Average Construção de cubos OLAP Linguagem MDX PAT Analysis Tool Instalação de PAT Plugin 0.8 no Pentaho CE Criação de análises com PAT Analysis Exemplos práticos do projeto utilizando PAT Analysis Saiku Instalação de Saiku 2.0 no Pentaho BI Server CE Exemplos práticos do projeto utilizando Saiku Pentaho Mondrian Criação de dashboards Instalação CDF-DE Criação de relatórios 125 CAPÍTULO 8 - CONCLUSÕES E TRABALHO FUTURO 131 REFERÊNCIAS 135 ANEXOS - A Open Source Business Intelligence tools for SMEs 139 ANEXOS - B Commercial or open source business intelligence tools? 147 ANEXOS - C Open Source CRM Systems for SMEs 153 ANEXOS - D Top Busines Intelligence Software for Small and Medium Enterprises 167 ANEXOS - E Better Decisions With Open Source Business Intelligence Tools 171 iii

12 ÍNDICE DE FIGURAS Figura 3.1. Ilustração da pirâmide de processos de Business Intelligence 10 Figura 3.2. Arquitetura de processos de Business Intelligence 14 Figura 3.3. Cubo tridimensional com o total de vendas 18 Figura 4.1. Gráfico da percentagem dos tipos de empresas a nível Mundial 30 Figura 5.1. Arquitectura JasperSoft 36 Figura 5.2. Relatório JasperSoft 36 Figura 5.3. Arquitectura da aplicação OpenI 37 Figura 5.4. Elementos gráficos OpenI 38 Figura 5.5. Ambiente Microsoft Excel composto do separador Palo 39 Figura 5.6. Conjunto de funcionalidades Pentaho 41 Figura 5.7. Ilustração de funcionalidades GEO de Pentaho 42 Figura 5.8. Conjunto de funcionalidades SpagoBI 43 Figura 5.9. Painel de visualização SpagoBI 45 Figura Painel de visualização Vanilla 46 Figura Painel de visualização Vanilla 46 Figura Versão de Vanilla a correr em dispositivos móveis 47 Figura Ambiente de trabalho Eclipse BIRT 51 Figura Ambiente de trabalho Mondrian 52 Figura Ambiente de trabalho Pentaho Data Integration (PDI) 52 Figura Representação de um cubo de dados e respetivo gráfico em JPivot 53 Figura Ilustração de um exemplo de uma análise Weka 54 Figura Análise de Data Mining 55 Figura 6.1. Percentagem de referências encontradas, relativamente a cada ferramenta 70 Figura 7.1. Configuração da variável JAVA_HOME 72 Figura 7.2. Configuração da variável JRE_HOME 72 Figura 7.3. Servidor Pentaho BI CE 3.8 instalado com sucesso 73 Figura 7.4. Opção de Reverse Engineer 74 Figura 7.5. Escolha do tipo de base de dados a converter 75 Figura 7.6. Selecção do script SQL da base de dados 76 Figura 7.7. Progresso da ação de Reverse Engineer 76 Figura 7.8. Modelo físico da base de dados 77 Figura 7.9. Opção de Seleção de tipo de base de dados actual e futuro 78 Figura Seleção do tipo da nova base de dados 78 Figura Seleção da opção para gerar a nova base de dados 79 Figura Escolha de diretório e nome do ficheiro 79 Figura Ficheiro gerado 80 Figura Script base dados em Bloco de Notas 80 Figura Ambiente de trabalho da ferramenta HeidiSQL iv

13 Figura Modelo concetual da DW 84 Figura Modelo físico da DW 85 Figura Tabela de factos Factos_Energy 86 Figura Dimensão Park 86 Figura Dimensão Element 87 Figura Dimensão Time 87 Figura Tabela de factos, Factos_Average 88 Figura Dimensão Incident 88 Figura Dimensão Responsability 73 Figura Esquema de ETL de carregamento da dimensão Park 90 Figura Ilustração do elemento tmap_1 92 Figura Constituição da dimensão Park da DW. 92 Figura Ilustração dos dados visíveis através do visualizador de dados 93 Figura Ficheiro Excel gerado pelo processo de ETL 93 Figura Esquema do processo ETL da dimensão Element 94 Figura Representação do elemento tmap_1 96 Figura Dimensão Element 96 Figura Processo de ETL para a dimensão responsability 97 Figura Representação do elemento tmap_1 do processo de ETL 98 Figura Dimensão Responsability 99 Figura Modelo de ETL da dimensão Incident 99 Figura Representação do elemento tmap_1 100 Figura Definição de uma expressão para obter o valor da duração de tempo 101 Figura Dimensão Incident 101 Figura Processo de ETL da tabela de factos factos_energy 103 Figura Representação do elemento tmap_2 105 Figura Ilustração do elemento tmap_1 106 Figura Tabela de factos factos_energy 106 Figura Processo de ETL da tabela de factos factos_average 107 Figura Representação do elemento tmap_2 107 Figura Representação do elemento tmap_1 108 Figura Tabela de factos factos_average 108 Figura Visualização dos dados com o elemento tlogrow_1 109 Figura Ícones do ambiente de trabalho de Pentaho 111 Figura Ambiente de trabalho PAT Analysis 112 Figura Cubo de dados por dia por hora 113 Figura Valores de radiação solar por dia por hora 114 Figura Quantidade de incidentes por estado 114 Figura Ícone Saiku no ambiente de trabalho de Pentaho 115 Figura Ambiente de trabalho Saiku 116 v

14 Figura Ícone New Analysis View no ambiente de trabalho de Pentaho 117 Figura Janela para seleção de cubo de dados 118 Figura representação OLAP com a ferramenta do servidor Figura Ambiente de trabalho Pentaho atualizado com a nova funcionalidade CDE 121 Figura Ambiente de trabalho de CDE. 121 Figura Seleção de um Template existente disponível no plugin. 122 Figura Separador Components 123 Figura Representação do separador Data Sources. 123 Figura Dashboards do caso prático. 124 Figura Primeiro passo para a contrução de um relatório de dados 126 Figura Segundo passo para a criação de um relatório 126 Figura Terceiro passo para a criação de um relatório de dados. 127 Figura Quarto passo para a criação de um relatório 128 Figura Ilustração do relatório produzido no formato de HTML. 128 Figura Ilustração do relatório produzido no formato PDF. 129 vi

15 ÍNDICE DE TABELAS Tabela 3.1. Demonstração elementos OLAP 19 Tabela 4.1. Características das PME 30 Tabela 5.1 Comparação de funcionalidades 47 Tabela 5.2. Comparação das ferramentas quanto à linguagem de programação de desenvolvimento 48 Tabela 5.3. Tipo de sistemas operativos que suportam as ferramentas 48 Tabela 5.4. Comparação das ferramentas relativamente às suas versões disponíveis 49 Tabela 5.5. Informações relevantes de cada uma das ferramentas 49 Tabela 6.1. Avaliação das funcionalidades de BI e caraterísticas das ferramentas 64 Tabela 6.2. Distribuições e suporte 65 Tabela 6.3. Avaliação quanto aos tipos de base de dados suportados 65 Tabela 6.4. Funcionalidades OLAP 66 Tabela 6.5. Funcionalidades de Dashboards 67 Tabela 6.6. avaliação aos elementos de KPIs 67 Tabela 6.7. avaliação das caraterísticas dos relatórios 67 Tabela 6.8. Avaliação do portal quanto à internacionalização 68 Tabela 6.9. Classificação das ferramentas na escala de 1 a 5 68 Tabela Classificação das ferramentas de 1 a 4 tendo em conta a preferência 69 Tabela 7.1. Arquitectura da DW a construir 83 vii

16 CAPÍTULO 1 1. INTRODUÇÃO Os graves problemas económicos que afetam atualmente a economia global, conduzem à instabilidade dos mercados. As tendências de oscilação da economia mundial são um entrave à inovação e ao desenvolvimento das empresas, face à incapacidade de investimento e à insegurança demonstrada relativamente à sua rentabilização. Os fatores condicionantes da estabilidade da economia obrigam todo o tecido empresarial a fazer esforços de contenção na despesa e à redução dos custos da atividade. Focando a nossa visão sobre o continente europeu, somos constantemente confrontados com informações que nos revelam o atual estado caótico da economia europeia. O crescimento económico caminha de mãos dadas com a produção e as exportações, na ausência destes dois fatores não existe crescimento económico. Face aos elevados custos de produção, resultantes da atividade laboral diária das empresas, e face às várias medidas de austeridade que vigoram em alguns países da união europeia, torna-se difícil para as empresas produzirem em larga escala e a preços que permitam competir com os preços apresentados pelos produtos comercializados pelos mercados externos e pelas grandes empresas. A incapacidade de investimento por parte das pequenas e médias empresas (PMEs) na otimização dos seus processos de negócio, representa um grave problema. A produção em larga escala muitas vezes contrapõe-se com a necessidade de investir e inovar nos métodos de trabalho e de produção, é a estes investimentos que na generalidade as empresas não se expõem, faltando-lhes a capacidade para investir, otimizar e rentabilizar o seu negócio. Os fatores de fixação no mercado das PMEs bem como a sua rentabilidade, estão diretamente relacionados com a sua capacidade de produção em larga escala, e com a sua capacidade de resposta. As grandes empresas de um modo geral não têm problemas de inovar e investir porque normalmente têm capacidade económica para o fazerem, mas, representam uma percentagem reduzida de todo o conjunto empresarial. O contexto do nosso trabalho são as PMEs, focando-nos nas dificuldades apresentadas pelas PMEs em fixarem-se de forma sólida no mercado e em competir com as grandes empresas. Com isto, o nosso trabalho tem como principal objetivo apresentar soluções viáveis para PMEs, que representam 99,9 % do número total de empresas portuguesas, 98% da totalidade das empresas da União Europeia (UE a 27) (ECEI, 2010/2011) e mais de 98% das empresas à escala mundial (Global Alliance of SMEs, 2010). Atendendo a estes números é fácil perceber a importância das PMEs e qual o nosso interesse de solucionar medidas de rentabilidade e crescimento, tendo em conta alguns fatores 1

17 CAPÍTULO 1 especiais como a incapacidade destas empresas em investir, diminuir os custos resultantes da sua atividade de produção e aumentar os seus lucros. Neste contexto pretendemos solucionar parte das dificuldades de otimização e melhoria dos processos de negócio das empresas. Para isto, sugerimos a adoção de práticas e ferramentas de Business Intelligence (BI). O conceito de BI não é novo, mas só nos últimos anos tem conhecido uma maior divulgação e aceitação junto das empresas. O recurso a práticas de BI subentende que existam dados provenientes da atividade empresarial, que se possam processar de forma a obter informação e conhecimento capazes de suportar o apoio a tomada de decisão por parte de gestores e analistas de negócio. Os dados resultantes da atividade empresarial são a matéria-prima de processos e ferramentas de BI. As ferramentas de BI têm como principal objetico o cruzamento dos dados da atividade económica e exibindo-os de forma gráfica. O recurso a ferramentas BI permite através do cruzamento de dados extrair informações relevantes (p.ex: no sector das energias renováveis, identificar qual a localização do parque eólico que produz mais energia), identificar problemas no processo de negócio (p.ex: identificar qual a marca de motores das torres eólicas que apresentam maior taxa de indisponibilidade), estes dois exemplos permitem gestores e analistas de negócio tomar decisões (p.ex: reforçar os parques que produzem mais; adquirir motores das marcas que apresentam maior taxa de atividade). Tendo em conta o custo das ferramentas de BI comerciais, dificilmente suportados por PMEs, focaremos a nossa investigação essencialmente em ferramentas open source. As ferramentas open source são desenvolvidas por comunidades de programadores sem fins lucrativos, que se dedicam à produção de software seguindo um conjunto de regras estabelecidas pela OSI (Open Source Iniciative), de entre as quais a disponibilização de software de forma gratuita. A disponibilização do código para a comunidade por parte das comunidades de desenvolvimento open source permite solucionar em parte a capacidade de investimento por parte das PMEs. Apesar do foco do nosso trabalho ser essencialmente a divulgação de ferramentas de BI open source, existe no mercado inúmeras ferramentas que apresentam uma alternativa de qualidade às ferramentas comerciais (p.ex: Mozilla Firefox, MySQL, PHP, Open Office). Após a investigação e a análise às ferramentas de BI open source existentes no mercado, iremos analisar e comparar um conjunto de ferramentas elegendo as melhores, mediante um plano de avaliação. Para justificarmos que as ferramentas de BI open source são viáveis iremos proceder à demonstração prática da utilização de uma ferramenta, Pentaho, num projeto empresarial de âmbito real. A nossa demonstração prática detalha todos os passos da implementação de uma ferramenta de BI, tais como: a construção de uma Data Warehouse (DW); especificação de processos de ETL (Extract, Transform, Load); criação de cubos de dados OLAP (On-Line Analytical Processing); criação de dashboards; criação de relatórios de dados. 2

18 CAPÍTULO 1 A demonstração prática do nosso trabalho tem por base sustentar a nossa conclusão, de que as ferramentas de BI open source apresentam uma solução claramente viável e que permite a inovação, desenvolvimento e otimização dos processos de negócio das empresas. Se por um lado a aquisição de software BI open source não implica custos, a sua implementação e utilização podem significar alguns custos para as empresas, tendo em conta que as ferramentas requerem utilizadores que possuam conhecimentos base de informática, especialmente nas áreas de base de dados, Data Warehousing, ETL e OLAP. As comunidades de desenvolvimento de ferramentas BI open source ao longo dos últimos anos têm tentado acompanhar os desenvolvimentos das ferramentas comerciais. Destacamos que um dos maiores desenvolvimentos está relacionado com o aumento da facilidade de interação com o utilizador. As versões mais recentes apresentam uma interação com o utilizador mais amigável, incluindo funcionalidades de drag and drop em alguns processos. Face a este desenvolvimento reconhecido, prevemos que num curto período de tempo as ferramentas de BI open source, se tornem ainda mais fáceis de utilizar e estejam acessíveis a qualquer utilizador sem conhecimentos base de informática Principais Contribuições deste trabalho O principal objetivo do nosso trabalho é contribuir para o avanço da ciência e do conhecimento. Neste contexto, identificámos um problema, a necessidade de rentabilizar e otimizar o processo de negócio das PMEs. Identificado o problema vamos tentar. De um modo geral as nossas principais contribuições do nosso trabalho são: Solucionar a redução de custos da atividade normal das PMEs. Identificar um problema que apresenta facilidade de retorno sobre o investimento. A divulgação da importância do conceito de BI. Divulgação de ferramentas open source como uma solução viável para o problema. A demonstração prática da utilização de ferramentas open source e consequentes avaliações. Comparação prática de várias ferramentas BI, e consequente avaliação. Apresentar um conjunto de elementos que suporte a escolha de ferramentas open source como uma opção de redução de custos. Ajudar na decisão do processo de aquisição. Apoiar os processos de implementação e desenvolvimento. Mostrar que as ferramentas BI open source são claramente uma solução alternativa às ferramentas comerciais. De um modo geral são estas as contribuições que pretendemos acrescentar com o desenvolvimento desta investigação. 3

19 CAPÍTULO Estrutura do relatório Este trabalho encontra-se estruturado em oito capítulos. O capítulo atual, é o capítulo introdutório no qual procurámos descrever o problema, e apresentar a nossa solução para a resolução do mesmo. O capítulo 2, estado da arte, tem como por base a divulgação de outros trabalhos desenvolvidos na área e que de certa forma suportaram (através da sua informação) e incentivaram o desenvolvimento do nosso trabalho, pretendendo dar a conhecer outros trabalhos relacionados. O capítulo 3 apresenta uma descrição detalhada sobre o conceito de Business Intelligence e todas as suas propriedades. É feita ainda referência aos benefícios e objetivos da utilização de BI, vantagens, desvantagens e fracassos. O capítulo 4 apresenta uma descrição base sobre software open source e sobre PMEs, que são o foco do nosso trabalho. Neste capítulo são apresentadas vantagens e desvantagens do software open source e ainda referência aos repositórios Web onde é possível adquirir software open source. O capítulo 5 apresenta um estado da arte relativamente aos pacotes de soluções de BI open source, comparação das ferramentas e ainda uma secção de ferramentas auxiliares, especificas para determinados processos. No capítulo 6 procede-se à descrição dos processos de instalação dos quatro melhores pacotes de ferramentas, consequente avaliação técnica e uma conclusão da avaliação da qual resulta a eleição da melhor ferramenta BI open source que será utilizada para implementação no caso prático. O capítulo 7 apresenta todos os passos de implementação prática de uma ferramenta de BI open source numa PME. Este é o capítulo mais extenso e que descreve em detalhe a construção de uma DW, a implementação de processos de ETL, a construção de cubos de dados OLAP, a criação de relatórios e a utilização de plugins para os processos de criação de cubos de dados e dashboards. Por fim, o capitulo 8, apresenta as conclusões a nível prático e teórico de todo o desenvolvimento do nosso trabalho. De referir ainda a existência do capítulo 9 de referências e em anexo um conjunto de cinco artigos científicos desenvolvidos e publicados no âmbito do nosso trabalho de investigação. 4

20 CAPÍTULO 2 2. ESTADO DA ARTE O trabalho desenvolvido em torno da área da nossa investigação é um pouco escasso, existindo poucas referências bibliográficas no contexto da nossa investigação. Ainda assim destacamos alguns trabalhos nesta área de investigação. Num trabalho de investigação, Christian Thomsen e Torben Pedersen identificaram que se notava um aumento de empresas a procurarem soluções de BI open source, mas que a confiança sobre este tipo de ferramentas estava um pouco aquém, quando comparada com a aceitação registada em torno de ferramentas open source de outras áreas (Thomsen & Pedersen, 2008). A sua investigação procurou classificar as soluções de BI existentes no mercado, avaliando os seus aspetos técnicos e a mais-valia que estas representam. Nesta investigação foram comparadas dez ferramentas de ETL, seis sistemas de gestão de bases de dados (SGBD), dois servidores OLAP e sete ferramentas cliente OLAP. Os mesmos autores desenvolveram uma investigação semelhante no ano 2005 e procuraram comparar a evolução das ferramentas durante esse período de tempo. Relativamente ao tipo de ferramentas em análise os autores definem os SGBDs como as ferramentas open source mais desenvolvidas e que maior número de funcionalidades adquiriram durante aquele período de tempo. Relativamente às ferramentas de ETL identificam a existência de uma evolução clara nas suas funcionalidades. Relativamente aos servidores OLAP identificam Mondrian como melhor ferramenta disponível, quanto às ferramentas cliente OLAP defendem que existe várias ferramentas no mercado ainda que se apresentem pouco desenvolvidas. Numa publicação da Pentaho (Pentaho, 2008), a comunidade alerta para o facto de as empresas estarem a procurar a aquisição de ferramentas BI como solução para a rentabilização dos seus processos de negócio sem a certeza de se as ferramentas que estão a adquirir são as mais indicadas para os seus processos de negócio. O problema identificado pela comunidade é que, gestores de negócio se deixam levar pelas campanhas de marketing por parte das empresas que produzem ferramentas BI, sem avaliar se as caraterísticas das ferramentas suportam as suas necessidades, ação que muitas vezes se traduz em maus investimentos. Desta forma, Pentaho tenta alertar os mercados para o facto das soluções open source terem como vantagem o facto de poderem ser alteradas à medida do negócio e por outro lado a facilidade de mudar de ferramenta sempre que se justifique, sem que isso traduza perdas excessivas. Por sua vez, Matteo Golfarelli desenvolveu uma investigação (Golfarelli, 2009), que identificou a desconfiança dos mercados perante a potencialidade das soluções de BI open source como alternativa às ferramentas comerciais. O objetivo da sua investigação era avaliar quais as potencialidades das ferramentas de BI open source e quais os limites da sua adoção em projetos reais. Golfarelli procurou desta forma avaliar se o contexto de 5

21 CAPÍTULO 2 software open source representaria uma alternativa válida às plataformas comerciais na área de BI. Para fundamentar a sua investigação recorreu à análise de três pacotes de soluções de BI open source, sendo eles: JasperSoft, Pentaho e SpagoBI (versões disponíveis até dezembro de 2008). Golfarelli na sua investigação não procurou medir resultados de eficiência mas procurar uma resposta para o seu problema relativamente à viabilidade da sua aplicação em ambientes reais. As conclusões a que chegou foi que o principal defeito das soluções de BI open source é a ausência de uma camada de Metadados. Da comparação entre as ferramentas concluiu que face à versão comercial a versão open source de Pentaho poderia ser mais abrangente e que a versão SpagoBI open source é idêntica à versão comercial das ferramentas Pentaho e SpagoBI. Num outro tipo de análise referiu que PMEs procuram cada vez mais a aquisição de software deste tipo para colmatar despesas. Identifica ainda que a prematuridade, permanência no mercado e evolução levantam dúvidas no mercado, defendendo que um 20 anos de conhecimento nesta área e a experiência poderão fazer a diferença no futuro. Em (JasperSoft, 2009) é descrita uma análise interessante, sustentada por um estudo (Ventana Research, 2006) que concluiu que 48% dos inquiridos esperam que a implementação de ferramentas open source BI signifiquem um corte de 50% nas despesas, quando comparada com o custo das ferramentas comerciais. O mesmo estudo refere ainda que 25% dos inquiridos estimam que os custos dispendidos com os dois tipos de software sejam equivalentes. O estudo (JasperSoft, 2009) procura apresentar resultados relativamente aos custos ocultos da implementação de ferramentas de BI open source e comparar com os custos das ferramentas comerciais, verificando se as ferramentas open source são uma alternativa viável. Deste estudo o autor conclui que a implementação de do conceito BI tem significado um grande investimento de alto retorno, considerando que os preços de software das versões comerciais se têm tornado um entrave para aquisição por parte das empresas. O autor conclui ainda que a implementação de ferramentas de BI open source em empresas constituídas por equipas ágeis e com conhecimentos poderão significar pouco investimento e um maior retorno sobre o investimento. A distribuição do código permite a empresas com conhecimentos na área de informática adaptarem o software tendo em conta as necessidades das empresas, construindo desta forma uma solução viável e funcional sem grandes investimentos. No mesmo contexto, destacamos também (Damiani et al., 2009) que identificaram a ausência de documentação relativamente ao conjunto de soluções de BI no mercado, destacando que o trabalho de investigação existente na área se prendia com comparações das funcionalidades das ferramentas. Posto isto, os autores apresentam uma visão geral sobre as diversas ferramentas e frameworks relacionadas com a área de BI, descrevendo um caso prático, modelos de custo e o seu risco de adoção. No âmbito da sua investigação os autores referem que um dos principais problemas das versões comerciais para o cliente, prende-se com o facto de antes do cliente obter resultados já efetuou gastos dispendiosos com a aplicação, enquanto que ao implementar soluções open source pode 6

22 CAPÍTULO 2 controlar o seu investimento à medida que vai obtendo resultados. Os autores concluem que os fatores de risco relacionados com a implementação de soluções de BI open source, são o facto de não conterem trabalhadores com conhecimentos de informática na sua estrutura empresarial e o receio de que os projetos sejam desapoiados/abandonados. É importante perceber quais os valores que pretendemos poupar na implementação de ferramentas open source que possam substituir ferramentas comerciais, em (Ferreita et al., 2010) é efetuada uma análise comparativa entre as principais ferramentas comerciais e open source mediante vários critérios, de entre os quais o valor dos custos de aquisição entre uma das principais ferramentas comercial, Microsoft e a ferramenta gratuita Pentaho. Segundo esse estudo, os custos com a ferramenta comercial rondam os reais o que equivale a cerca de euros. Uma quantia que pesa no orçamento de qualquer PME. A estes custos acrescem o valor das licenças anualmente, e uma restrição ao número de utilizadores. O nosso trabalho de investigação foca-se essencialmente nas ferramentas de BI open source, tendo em conta que a sua aquisição não implica custos. Os custos das ferramentas comerciais são bastante elevados, muitas vezes inflacionados pelos custos das licenças e renovação das mesmas dentro de um período de tempo. Face à fraca capacidade de investimento por parte das PMEs, neste tipo de ferramentas pretendemos solucionar o nosso problema com ferramentas gratuitas. Neste contexto existe algum trabalho já desenvolvido, ainda que se considere escasso. Já existe algum trabalho realizado relacionado com o estado da arte de ferramentas de BI open source e comparação das funcionalidades disponibilizadas pelas diversas ferramentas. Relativamente à comparação de custos da aplicação de ferramentas comerciais e ferramentas open source a informação é mais escassa. Quanto a informação relacionada com a comparação dos custos das ferramentas BI comerciais também não existe muita informação. 7

23 8

24 CAPÍTULO 3 3. BUSINESS INTELLIGENCE No âmbito do nosso trabalho, pretendemos investigar de forma aprofundada o conceito de Business Intelligence (BI). Para melhor compreendermos o conceito de BI, iremos apresentar a sua definição, os seus benefícios e objetivos, as suas vantagens e desvantagens, os seus fracassos e a sua arquitetura. Numa segunda fase, descrevemos as propriedades e conceitos relacionados com a área de BI. Neste capítulo pretendemos apresentar a definição de todos os conceitos relacionados com o termo de BI de modo a facilitar a compreensão dos capítulos seguintes Descrição do conceito de Business Intelligence O conceito de Business Intelligence foi definido em 1989 por Howard Dresner como: concepts and methods to improve business decision making by using fact-based support systems (Power, 2007), ou seja, conjunto de conceitos e métodos que pretendem melhorar a atividade de tomada de decisão de negócio por parte de gestores e analistas, apoiadas pelos sistemas de suporte à decisão. O conceito BI não tem a finalidade de decidir, apenas tem o objetivo de reunir elementos visuais capazes de suportar a tomada de decisões por parte de gestores e analistas de negócio. Como podemos constatar o conceito de BI não é recente, a sua definição surgiu há mais de duas décadas ainda assim, possui atualmente um maior reconhecimento, sendo classificado como um conceito de topo atualmente. O facto de o conceito não ser novo mas só ter atingido recentemente o reconhecimento das suas potencialidades, pode ser justificado com o facto da adoção tardia de sistemas de informação (SI), por parte das empresas (Varajão et al. 2011). Os sistemas de informação ganharam um relevo enorme na atividade das empresas, passando a ser essencial a sua utilização nas atividades laborais. Os sistemas de informação permitem auxiliar a atividade das empresas, através do registo de dados. Os dados registados e guardados num sistema de gestão de base de dados permitem gerar informação, é esta informação que permite após ser trabalhada, gerar métricas para a otimização do negócio. Foi com base na necessidade de implementar processos de análise de informação e a partir dela extrair conhecimento que nasceu o termo BI. O conceito de BI é mais vantajoso quanto maior for a quantidade de dados relacionados com a atividade empresarial disponíveis. Uma empresa que não possua dados da sua atividade de negócio não possui elementos que sustentem a instalação de ferramentas de BI. Os dados são a matéria-prima das ferramentas de BI, quando agrupados originam informação. Por sua vez, um conjunto de informação origina conhecimento. É através do conhecimento extraído dos dados que se torna possível otimizar processos e métodos de trabalho. As ferramentas BI existem para apoiar gestores e analistas de negócio. As ferramentas BI simplesmente ilustram o cruzamento de dados, não tomam decisões por si, apenas reúnem 9

25 CAPÍTULO 3 elementos capazes de suportar a tomada de decisão de gestores e analistas de negócio. A análise da informação proveniente dos aglomerados de dados permite aos analistas de negócio extraírem conhecimentos e por conseguinte: estabelecerem métricas e estratégias de negócio, estimar e prever oscilações de mercado e apoiar a tomada de decisão. A Figura 3.1 ajuda a ilustrar o processo de BI, representado por uma pirâmide, em que o conjunto de dados representados na base da pirâmide suporta o conjunto de informações. Por sua vez, a informação sustenta o topo da pirâmide, que coincide com o processo de tomada de decisão. Decisão Informação Figura 3.1. Ilustração da pirâmide de processos de Business Intelligence Uma ferramenta de BI deve apresentar funcionalidades que permitam: Obter e modelar dados provenientes de sistemas de gestão de base de dados (SGBDs); Extrair, transformar, efetuar limpeza e carregamento de dados; Visualizar análises de dados; Mostrar dados em forma de dashboards; Implementação de processos de Data Mining; Criação de relatórios de dados Benefícios e objetivos O principal objetivo de um sistema de BI é promover o cruzamento de dados e facilitar a tomada de decisão. Os principais objetivos e benefícios da utilização de BI são (Rodrigues, 2006): Antecipar alterações de mercados; Dados Antecipar ações dos competidores diretos; Descobrir novos ou potenciais agentes competidores; Aprender com os sucessos e falhas dos outros Conhecer melhor as capacidades próprias 10

26 CAPÍTULO 3 Conhecer novos conceitos e metodologias que causem impacto na atividade de negócio Conquistar novos mercados Avaliar e rever os processos de negócio Auxiliar na implementação de novas práticas de negócio Vantagens À medida que o conhecimento avança vão se verificando novos progressos, baseados na melhoria de práticas e costumes. O desenvolvimento de novas práticas e de novos conceitos, coincide com a necessidade de descobrir e desenvolver novas estratégias que facilitem e melhorem os processos existentes. Deste modo, o conceito de BI surge no âmbito de acrescentar vantagens aos métodos inicialmente existentes. Para melhor classificar as capacidades das ferramentas de BI, passamos a enumerar as vantagens da sua implementação, nas empresas e organizações (Rodrigues, 2006). Aumento da qualidade no planeamento operacional e estratégico: o conhecimento extraído dos resultados obtidos permite um planeamento mais sustentado. Agilização do processo de tomada de decisão: a monitorização dos dados através de representações gráficas torna os processos de tomada de decisão mais simples e menos morosos. Diminuição dos custos da atividade empresarial: cortes na atividade administrativa. Maior credibilidade na previsão de mudança de ações. Aumento da credibilidade sobre as ações e sobre a qualidade dos produtos. Aumento da competitividade: a redução dos custos da atividade empresarial conduz a um aumento da competitividade. Maior rentabilidade: a identificação de problemas e de fatores de sucesso permite rentabilizar os processos de negócio. Redução de custos operacionais: a implementação de ferramentas de BI permite diminuir gastos com agentes de decisão. Ampliação da carteira de clientes: o agrupamento de dados relativos aos clientes, permite traçar um perfil e conhecer as necessidades do cliente, ajudando a definir estratégias capazes de amealhar maior número de clientes. Aumento da lealdade dos clientes: a possibilidade de traçar um perfil dos clientes da empresa ajuda a identificar os grupos de clientes que maiores garantias de lealdade oferecem. Retorno sobre o investimento (ROI) mais rápido em projetos BI: a redução dos gastos com analistas de negócio e gestores, bem como a rentabilidade oferecida pela implementação de soluções de BI, acelera a recuperação do investimento. Maior controlo e menor percentagem de erro: fruto da segurança coordenada, com acesso restrito a dados mediante cada tipo de utilizador; garantia de qualidade da 11

27 CAPÍTULO 3 informação; cruzamento de dados diversos, provenientes de sistemas de informação (SI) e fontes de dados diversas. Partilha de informação entre grupos distintos: a monitorização dos problemas dos diferentes setores empresariais, numa única ferramenta facilita a partilha de informação. Melhor interação com os utilizadores: é possível obter respostas/análises em tempo real e proceder à realização de análises de setores de negócio distintos na mesma ferramenta. Informação on-line: possibilidade de decidir em qualquer lugar e a qualquer hora Desvantagens Do conceito de Business Intelligence não advêm só vantagens, também existem algumas desvantagens resultantes da implementação de ferramentas de BI. De entre as desvantagens enumeramos: Custo: a aquisição de ferramentas BI tem um custo elevado, as ferramentas proprietárias são dispendiosas e as ferramentas open source não dispensam conhecimentos e formação base para a sua utilização; os sistemas que oferecem suporte a este tipo de ferramentas necessitam de hardware com boa capacidade de processamento e resposta. O processamento de grandes quantidades de dados pode representar um congestionamento das redes internas. Suporte: a utilização deste tipo de ferramentas requer algum conhecimento base, alguma documentação de suporte e/ou formação; aspetos relacionados com o suporte aos sistemas muitas vezes também representam uma desvantagem, tendo em conta que este tipo de ferramentas requer sistemas com uma boa capacidade de processamento. ROI: o retorno sobre o investimento pode levar algum tempo, tudo depende do volume de negócio e dos gastos dispendidos com a obtenção, configuração e assistência. Uso limitado: de um modo geral este tipo de soluções, nomeadamente as proprietárias, possui licenças restritas a um número de utilizadores ou computadores. Complexidade: a utilização de ferramentas de BI requer pessoas com conhecimentos básicos na área de informática para a sua utilização. Implementação morosa: o processo de construção de uma Data Warehouse, implementação de processos ETL (Extract, Transform, Load), construção de cubos de dados OLAP (On-line Analytical Processing) e posteriormente a construção de dashboards é um processo moroso. Acumulação de dados históricos: o conceito é mais viável quão maior for a quantidade de dados e o intervalo de tempo da sua recolha, isto representa um 12

28 CAPÍTULO 3 enorme avolumado de dados, que requer uma grande capacidade de processamento. A adoção deste tipo de ferramentas por parte das empresas e organizações ainda não atingiu a maioridade: tendo em conta fatores como o custo e a capacidade de investimento por parte das empresas. Fracassos de BI (descritos na secção seguinte) Fracassos de BI Com base num estudo desenvolvido pela Information Builders (empresa de desenvolvimento de soluções BI proprietárias), é possível verificar que o interesse pela adoção de ferramentas BI aumentou, mas que nem sempre a adoção de ferramentas BI é sinónimo de sucesso. Segundo esse estudo existe um enorme número de projetos BI que terminam em fracasso. No mesmo estudo são identificadas as principais razões que conduzem a esse fracasso (Pino, 2011). Das dez razões expressas temos como principais responsáveis pelo fracasso: O processo de levantamento de requisitos pouco claro: é importante definir KPIs (Key Performace Indicators) de forma concisa e correta para que o processo de tomada de decisão seja o mais correto e coerente. Existência de dados incorretos ou incompletos: é vulgar a existência de dados desatualizados, incorretos ou inacessíveis. Este tipo de dados com pouca qualidade representa um problema nos projetos de BI. Envolvimento de utilizadores finais tardiamente: tal como noutros tipos de projetos é importante integrar utilizadores finais no desenvolvimento do projeto, de forma a precaver anomalias e tornar o projeto mais acessível e à medida do utilizador e dos seus processos normais de trabalho. Resultados finais num prazo médio de dois anos: nos casos em que o cliente não recebe versões provisórias do projeto para ir testando e avaliando o projeto, conhecendo apenas o projeto na sua parte final, pode representar um fracasso na abordagem e implementação de requisitos. Falta de gestão da mudança: é importante existir um grupo de pessoas responsável por acompanhar o desenvolvimento do projeto de modo a gerir atempadamente ajustes e mudanças. Da ausência de gestão de mudanças resultam custos adicionais e atrasos na entrega final do projeto. Cumprimento e segurança descuidados: muitas vezes as equipas de desenvolvimento não se preocupam com questões de segurança, este é um aspeto que deve ser tido em conta para sigilo de dados. Documentação pobre sobre o ambiente de trabalho da aplicação: é comum nas ferramentas de BI pouca documentação sobre a ferramenta que normalmente varia de versão para versão. 13

29 CAPÍTULO 3 Recursos de hardware estimados de forma incorreta: a capacidade necessária por vezes é subestimada, resultando desse erro de cálculos clientes insatisfeitos. Funcionários centrados no Excel: a mudança de costumes é uma barreira para os utilizadores, tornando-se difícil abandonar hábitos que foram adquirindo ao longo do tempo, em que se familiarizaram com determinada aplicação. Orçamentação ação inadequada: erros de orçamentação resultam sempre em clientes insatisfeitos Arquitetura de BI Para uma melhor compreensão de todos os passos dos processos de BI vamos analisar a sua arquitetura. A Figura 3.2 ilustra a arquitetura de um processo o de BI. Figura 3.2. Arquitetura de processos de Business Intelligence A arquitetura de BI, ilustrada na Figura 3.2, pode ser analisada em cinco passos. Passamos a descreve-los: Passo 1 - Recolha de dados: os dados podem ser provenientes de bases de dados de sistemas de informação diversos, ERP (Enterprise Resource planning), CRM (Customer Relationship Management), flat files ou de ficheiros de dados externos (normalmente ficheiros Excel e/ou CSV (Comma-Separated Values)). Passo 2 - Processo de tratamento to de dados: processo de ETL (Extract, Transform, Load), neste passo os dados são trabalhados, extraídos, transformados e carregados para uma DW, Data Marts ou cubos de dados. Por vezes existe incoerência de dados ou necessidade de transformar dados para outro formato que não o original, este é o 14

30 CAPÍTULO 3 Passo 3 - processo de Transformação, (p. ex: transformar mês 1 em janeiro ; Sim ou Não em 1 e 0 respetivamente, etc.). Carregamento de dados: após o passo 1 e 2, a última operação de ETL é o carregamento de dados, este carregamento de dados pode ser efetuado para DWs (Data Warehouses), Data Marts (DWs mais pequenas, normalmente associadas a um setor do negócio) e cubos de dados. Passo 4 - Criação de elementos BI: após o carregamento dos dados é possível usufruir das várias funcionalidades das ferramentas de BI, nomeadamente, construção de relatórios, análises de Data Mining, consultas ad-hoc, consultas OLAP, criação de dashboards e análises geográficas. Passo 5 - Monitorização e interação com o utilizador: o último passo é a apresentação de resultados ao utilizador, o utilizador tem a possibilidade de visualizar os resultados obtidos dos processos de cruzamento de dados e interagir com a ferramenta Propriedades de BI Antes de avançarmos, e para percebermos melhor os conceitos presentes na Figura 3.2, que representa a arquitetura de BI, vamos conhecer melhor, de forma detalhada cada um dos elementos Data Warehouse Data Warehouse é o termo que designa armazém de dados, na prática uma DW é um sistema de armazenamento de dados de grandes dimensões, desenvolvido para guardar grandes quantidades de dados de vários processos de negócio. A sua estrutura foi desenvolvida a pensar num acesso menos moroso aos dados, a sua arquitetura dispensa as normalizações conhecidas da arquitetura de bases de dados relacionais, aumentando o desempenho das consultas à base de dados. A estrutura de um Data Warehouse é constituída por dois tipos de elementos, tabelas de factos (guardam os valores resultantes da medição de negócio) e dimensões (elementos chave de um negócio ou de cada processo de negócio) (Wikipédia, Data Warehouse) Data Marts Os Data Marts são repositórios de dados que representam um subconjunto de dados de um Data warehouse. Habitualmente os Data Marts surgem associados a conceitos específicos ou processos de negócio próprios. Vendas, controlo de stocks, vendas 15

31 CAPÍTULO 3 semanais, são alguns exemplos do que é um Data Mart. Os Data Marts são atualmente estruturas bastante flexíveis, preferencialmente constituídas por dados atómicos Metadados O conceito de metadados surgiu em 1969 e foi criado por Jack Myres (Pereira et al, 2005), designando os dados que descreviam registos de arquivos convencionais. Por outras palavras, metadados são dados utilizados para descrever outros dados, isto é, dados que guardam informação relativamente aos dados a que se referem. Os metadados são utilizados como um dicionário de informação, neste contexto são metadados todas as informações relacionadas com (Wikipédia-Data Warehouse, 2011): Origem dos dados: informação que permite saber a proveniência dos dados. Fluxo de dados: os elementos de dados necessitam de ter identificado os fluxos nos quais sofrem transformações. Formato dos dados: todos os elementos possuem designação relativamente ao tipo e tamanho de dados. Nomes e alias : todos os elementos devem ser identificados por um nome. O nome pode ser da área de negócio ou um nome técnico, os alias também estão inseridos neste contexto. Definições de negócio: esta informação tem bastante importância, tendo em conta que especifica o tipo de negócio ou o processo de negócio. Regras de transformação: esta informação retrata as ações praticadas no processo de extração, transformação e limpeza dos dados. Atualização de dados: a referência temporal é importante para definir atualizações sobre os dados. Requisitos de teste: devem conter informação relativamente aos intervalos de valores corretos no preenchimento de dados. Indicadores de qualidade de dados: é possível integrar informação relativamente à qualidade dos dados, tendo em conta a sua origem e o número de processamentos efetuados sobre esse dado, por exemplo. Triggers automáticos: podem existir processos automáticos associados aos metadados definidos. Responsabilidade sobre a informação: deve ser identificado o responsável pelo registo dos dados e o responsável pelos processos de transformação sobre os mesmos. Acesso e segurança: restrição de utilizadores com acesso aos dados e informações relativamente à segurança são aspetos muito importantes. 16

32 CAPÍTULO ETL O conjunto de processos de ETL (Extract, Transform, Load) divide-se em três passos, Extração, Transformação e Carregamento. Este é um dos processos mais críticos de BI. No processo de extração é importante que se conheça a validade dos dados a fim de os transformar da melhor forma. O processo de transformação pode ser dispensável em alguns casos e bastante complexo noutros. No processo de transformação podem ocorrer diversos tipos de transformações, tais como (Kimball, 2008): Seleção de determinadas colunas de dados a carregar. Limpeza de dados (Transformação de Masculino da fonte de dados para M na Data Warehouse, por exemplo). Codificação de valores de forma livre (Transformar Masculino e Sr. Em M, por exemplo). Derivação de um novo valor calculado (Intervalo_tempo = data_final data_inicial). Junção de dados, provenientes de fontes distintas. Resumo de várias linhas de dados (p. ex: a soma de totais de vendas por loja e por região). Gerar valores de chaves substitutas (Surrogate Keys). Transposição ou rotação (converter colunas em linhas e vice versa). Separação de uma coluna por várias colunas (p. ex: a separação de um campo data do tipo aaaa-mm-dd em aaaa, mm e dd ). Após a estruturação do modelo de ETL, procede-se ao último passo, que retrata o processo de carregamento dos dados para uma Data Warehouse ou Data Mart Cubos de dados O cubo de dados é a representação de um formato lógico que permite modelar e visualizar dados em diversas perspetivas. O cubo de dados é constituído por dimensões e tabelas de factos. As dimensões representam atributos do repositório de dados, apresentando as suas células os valores relativos às medidas de interesse registadas pelas tabelas de factos (Veras, 2009). A Figura 3.3 ilustra um cubo tridimensional com o total de vendas de um produto num determinado mês numa região específica. 17

33 CAPÍTULO 3 Figura 3.3. Cubo tridimensional com o total de vendas Na Figura 3.3 é possível visualizarmos um cubo de dados com três dimensões, a partir da representação do cubo é possível conhecer o total de vendas relativamente aos produtos (A, B, C, D, E e F), nos meses de (Janeiro, Fevereiro, Março, Abril, Maio e Junho), por região (Norte, Sul, Este e Oeste) OLAP O conceito OLAP (On-Line Analytical Processing) define o processamento analítico online dos dados. Permite a visualização de conjuntos de dados organizados em cubos multidimensionais. A sua finalidade é a de reunir conjuntos de dados de forma organizada e hierárquica fornecendo uma melhor organização dos dados, ajudando a uma melhor compreensão por parte dos utilizadores. Estes processos são extremamente importantes no auxílio à tomada de decisão (Anzanello, 2007). Para uma melhor compreensão das caraterísticas das aplicações OLAP passamos a enumerá-las: Cubo de dados é uma estrutura multidimensional que permite analisar dados de forma simples (elemento descrito anteriormente em 3.2.5). Dimensão é uma unidade de análise que agrupa dados de negócio. As dimensões fazem parte dos cabeçalhos de linhas e colunas. Hierarquia composta por todos os níveis de uma dimensão. Existem dois tipos de hierarquias, as balanceadas e as não balanceadas. Na hierarquia balanceada os níveis são equivalentes, nas hierarquias não balanceadas não existe equivalência de níveis. Como exemplo, olhemos para uma dimensão geográfica país, Portugal não possui estados enquanto que os Estados Unidos da América (EUA) possuem 18

34 CAPÍTULO 3 cinquenta estados. Este é um exemplo de hierarquia não balanceada em que Portugal não possui o subnível estado e os EUA possuem. Por outro lado, Portugal possui distritos enquanto que os EUA não. Membro é um subconjunto de uma dimensão, a tabela seguinte ilustra um exemplo prático, apresentando o sub nível e os seus membros de uma dimensão geográfica. Tabela 3.1. Demonstração elementos OLAP Nível Região Países Estados/províncias Membros Europa, América do Norte, Ásia Portugal, Brasil, EUA Califórnia, Boston Medida dimensão especial utilizada para fazer comparações. Esta dimensão surge associada a elementos como somas de totais, médias, custos, lucros, taxas, etc Arquiteturas OLAP Mediante a forma de armazenamento de dados necessários a uma aplicação OLAP, devese procurar aplicar a arquitetura que melhor satisfaça as pretensões do utilizador/cliente. As arquiteturas OLAP de armazenamento são (Araújo, 2009): MOLAP Multidimensional On-Line Analytical Processing, representa a arquitetura OLAP tradicional. Nesta arquitetura os dados são guardados em cubos multidimensionais e não na base de dados. O utilizador trabalha os dados do cubo e manipula-os diretamente no servidor. Esta arquitetura tem como vantagens o alto desempenho (os cubos são construídos previamente e no servidor) e a execução de cálculos complexos (todos os cálculos são gerados previamente aquando da criação do cubo de dados). Esta arquitetura tem como desvantagens a baixa escalabilidade (a vantagem de performance adquirida com a execução prévia de cálculos torna-a numa arquitetura limitada relativamente à quantidade de dados) e investimentos altos (esta arquitetura exige bastantes investimentos adicionais na projeção de cubos). ROLAP Relational On-Line Analytical Processing, os dados são provenientes de bases de dados relacionais. A manipulação de dados da base de dados aparenta as operações de Slice/Dice (descritas em ) e cada ação Slice/Dice equivale à junção de uma cláusula WHERE em uma consulta SQL (Structured Query Language). Esta arquitetura tem como vantagens a alta escalabilidade (utilizando esta arquitetura não existe limitação à quantidade de dados a serem analisados) e a possibilidade de recorrer a funcionalidades implícitas no próprio SGBD (Sistema de Gestão de Base de Dados). Esta arquitetura apresenta como desvantagens, o baixo desempenho (tendo em conta que cada relatório de dados representa pelo 19

35 CAPÍTULO 3 menos uma consulta SQL, estas consultas podem ser morosas nos casos em que a base de dados possua grandes quantidades de dados) e o facto de ser limitada pelas funcionalidades SQL (torna-se constrangedor executar cálculos complexos utilizando SQL). HOLAP Hybrid On-Line Analytical Processing, tecnologia recente que tem por base a junção de MOLAP e ROLAP, oferecendo uma junção de performance existente no MOLAP e escalabilidade proveniente do ROLAP. HOLAP utiliza cubos de dados multidimensionais, em casos de necessidade de maior informação, esta arquitetura possibilita acesso à base de dados relacional. As vantagens são o alto desempenho (cubos de dados armazenam a síntese da informação) e a alta escalabilidade (a informação detalhada fica guardada na base de dados relacional). A desvantagem desta arquitetura é o seu custo, sendo a que detém o custo mais elevado de entre as arquiteturas OLAP. DOLAP Desktop On-Line Analytical Processing, arquitetura que permite ao utilizador emitir uma consulta para o servidor obtendo o cubo de dados respetivo, posteriormente o cubo de dados será analisado na estação cliente. As vantagens desta arquitetura são o pouco tráfego na rede (o processamento OLAP é todo ele efetuado na estação cliente), ausência de sobrecarga do servidor de base de dados (tendo em conta que todo o processamento acontece na estação cliente) e a portabilidade de dados oferecida pela arquitetura. A desvantagem desta arquitetura é a limitação do tamanho do cubo de dados (caso o cubo de dados seja grande, a análise passa a ser morosa colocando até em causa a capacidade de suporte da estação cliente) Elementos OLAP As ferramentas OLAP permitem fazer várias ações sobre os cubos de dados. Para melhor conhecermos os conceitos vamos descreve-los: Consultas ad-hoc: o termo ad-hoc deriva do latim, e tem o significado de para isto ou para esta finalidade, que atribui um valor de especificidade por parte do termo. Este é um tipo de consultas geradas pelo utilizador da aplicação a dada altura, tendo em conta as suas necessidades, procedendo ao cruzamento de dados de forma espontânea e aplicando métodos que o conduzam à obtenção dos resultados pretendidos. Slice-and-Dice: funcionalidade que possibilita alteração de visão e perspetivas. Permite a alteração da posição dos dados e a troca de linhas por colunas, com o objetivo de facilitar a análise por parte dos utilizadores. Drill-down/up: funcionalidade que permite visualizar informação em maior detalhe (p. ex: na dimensão tempo a informação pode ir até ao detalhe hora, minuto, segundo). 20

36 CAPÍTULO 3 Drill-Through: funcionalidade que permite realizar uma consulta SQL, associando as instruções SQL como filtros da consulta. Drill-across: processo de consultas combinadas a várias tabelas de factos, agrupando os resultados num único conjunto de dados. Um exemplo da utilização de este conceito é a criação de duas estrelas idênticas em que a primeira estrela guarda uma previsão de dados e a segunda estrela será composta por dados reais. Neste caso prático as duas estrelas devem ser compostas pelas mesmas dimensões de forma a ser possível a comparação entre dados previstos e dados reais (Thornthwaite, 2005). Para além destas funcionalidades, as ferramentas de OLAP permitem normalmente visualizar gráficos ilustrativos dos dados representados nas dimensões do cubo (Anzanello, 2007) Dashboards O termo dashboard pode ser entendido como um painel de bordo. São responsáveis por demonstrar de forma ilustrada o desempenho dos processos de negócio de toda a organização (Wikipédia-Dashboards, 2011). Podem ser representados num painel virtual composto por uma ou mais camadas constituídas por instrumentos virtuais, como: Knobs (espécie de manómetros), mostradores e gráficos diversos (barras, colunas, bolhas, área, etc.), e tabelas. Os dashboards relativamente à sua aplicação podem classificar-se como (Eckerson, 2006): Dashboards operacionais: Permitem a monitorização e acompanhamento dos processos de negócio, por parte de supervisores e trabalhadores. Dashboards táticos: voltados para o acompanhamento de processos departamentais. Este tipo de dashboards é destinado a gerentes e analistas de negócio. Dashboards estratégicos: permitem acompanhar a execução dos objetivos estratégicos delineados pelas empresas. Este tipo de dashboards é destinado a gestores, executivos e restante organização. No conceito de BPM (Business Process Management) os dashboards devem ser o resultado final da fase de BAM (Business Activities Monitoring) Data Mining O conceito de Data Mining, ou prospeção de dados (traduzido para português), é o processo responsável pela exploração de grandes quantidades de dados. Este processo tem como principal objetivo a procura de padrões consistentes, como regras de associações ou sequências temporais. Estes padrões permitem detetar relacionamentos sistemáticos entre variáveis, em busca de subconjuntos de dados (Wikipédia-Data Mining, 2011). 21

37 CAPÍTULO 3 Os processos de Data Mining partem geralmente da seleção de algumas colunas de DWs ou Data Marts. Este conceito trabalha sobre sequências de dados, implementando técnicas das áreas de estatística, recuperação de informação através da área de inteligência artificial e reconhecimento de padrões. Vejamos um exemplo prático para uma melhor perceção das capacidades de Data Mining. Sequência original: ABCXYABCZKABDKCABCTUABEWLABCWO Após analisarmos atentamente a sequência acima, podemos verificar que: Existem sequências de dados que se repetem, AB e ABC. Existe segmentação de carateres tendo AB e ABC como prefixo. "ABCXY" "ABCZK" "ABDKC" "ABCTU" "ABEWL" "ABCWO" Atendendo aos dados representados acima, podemos descrever estes segmentos de dados recorrendo a representações genéricas. "ABC??", "ABD??", "ABE??" e "AB???" O carater? representa qualquer letra. Pegando nesta representação podemos partir para um caso prático de exemplo. Suponhamos que A representa a compra de um produto, (p. ex: pão), B representa a aquisição de leite enquanto que C possa indicar um tipo de leite (p. ex: meio gordo). Na prática com estes dados ficamos a saber que os clientes que compraram pão também compraram leite. Esta é uma das várias abordagens que o conceito Data Mining nos permite avaliar. Este tipo de informação permite tomar medidas de incentivo ao cliente. Normalmente as superfícies comerciais, tendem a expor este tipo de produtos lado a lado para facilitar a ação do cliente e ao mesmo tempo incentivar a sua compra. Este é um dos conceitos BI recente mas que tem evoluído bastante nos últimos anos GEO/GIS Um Sistema de Informação Geográfica (SIG), ou Geographic Information System (GIS), é um sistema composto de hardware, software, informação espacial e procedimentos computacionais. Estes procedimentos permitem uma melhor análise de forma simplificada, e uma melhor gestão ou representação do espaço e dos factos que nele 22

38 CAPÍTULO 3 ocorrem. Este tipo de sistemas é utilizado com o intuito de detetar e delinear acontecimentos no espaço físico. Em BI, este tipo de sistemas é utilizado para análises no espaço, permitindo a utilização de mapas (p. ex: Google Maps) para especificar zonas com maior poder de compra, maior número de vendas, maior venda a nível de produtos, etc (Wikipédia-GEO, 2011) KPIs Os Key Performance Indicators (KPIs), são indicadores chave de desempenho, tem como principal objetivo medir quaisquer resultados das medidas implementadas. Nos dashboards é comum existirem várias referências de KPIs, servindo essencialmente para verificar se os resultados obtidos estão a superar ou a falhar as metas pretendidas. É uma funcionalidade bastante importante em BI, facilitando a visualização de resultados e comparando-os com as metas a alcançar Importação e Exportação de dados O processo de importação de dados está relacionado com a introdução de dados no sistema provenientes de fontes externas. Estes dados podem ser provenientes de bases de dados externas ou ficheiros de dados. A exportação de dados é o processo disponibilizado pelas aplicações de BI, que permite exportar dados para fontes externas, normalmente para suporte Excel, PDF (Portable Document Format) e visualizações em HTML (Hypertext Markup Language), por exemplo OLTP Online Transaction Processing (OLTP), termo que designa os sistemas de processamento de transações, isto é, são sistemas concebidos para registar todas as transações implícitas a uma determinada organização. No dia a dia utilizamos alguns sistemas deste tipo, como são os casos dos processos de transações bancárias que registam todas as atividades afetas a cada cliente, reservas on-line, utilização de cartões de crédito, etc. Também os sistemas ERP (Enterprise Resource Planning) se enquadram nesta categoria (Wikipédia-OLTP, 2011) Relatórios Relatórios BI são constituídos por um conjunto de elementos diversos de BI. Ilustram relatórios construídos à medida de uma necessidade, compostos de elementos distintos como: tabelas de dados, dashboards, cubos de dados, análises de Data Mining, análises de referenciação geográfica, KPIs etc. É possível configurar a sua construção de modo a obter relatórios relativos a períodos de tempo específicos (hora, dia, semana, mês, trimestre, semestre, ano, etc.) ou elementos exclusivos (nº de vendas de determinado 23

39 CAPÍTULO 3 produto, total de vendas de determinada loja, etc.). Os relatórios representam um dos elementos mais importantes de visualização dos processos de BI. 24

40 CAPÍTULO 4 4. SOFTWARE OPEN SOURCE E PMEs Neste capítulo abordamos os conceitos de software open source e apresentamos uma descrição sobre PMEs, definindo as suas caraterísticas. O termo open source (código aberto) foi criado pela open source Iniciative (OSI) em De um modo geral, estamos perante um tipo de software que respeita as políticas de liberdade estipuladas pela Free Software Foundation (FSF), que são também partilhadas pelo projeto Debian Free Software Guidelines (DFSG). Por vezes o software open source é vulgarizado por software gratuito, no entanto, existem algumas diferenças entre software gratuito e software open source ; a principal diferença é que o software gratuito apesar de não implicar custos não é desenvolvido sobre as regras de software open source, estipuladas pela OSI (OSI, 2011), nem reconhecido como software open source por parte da OSI e FSF. Uma aplicação Open Source deve, segundo a OSI, garantir as dez regras seguintes (OSI, 2011): Distribuição livre: a licença não deve restringir a venda ou distribuição gratuita do programa bem como a distribuição do software como componente de outro programa. Código fonte: o código fonte da aplicação deve estar incluído ou ter acesso gratuito. Deve ainda ser obtido de forma fácil e clara. Trabalhos derivados: as modificações e redistribuições têm de ser permitidas bem como a possibilidade de redistribuição do mesmo sobre a mesma licença. Integridade do autor do código fonte: a licença pode restringir a distribuição de código modificado se as mesmas licenças permitirem que as modificações sejam redistribuídas como patches (pequenas funcionalidades). Sem descriminação contra pessoas ou grupos: ninguém pode ser impedido de utilizar o software. Sem descriminações contra grupos de trabalho: A sua utilização não pode ser proibida em nenhuma atividade. Por exemplo, não se pode proibir que o software seja utilizado em qualquer empresa ou até para fins de pesquisas genéticas. Distribuição de licença: a licença que acompanha o software tem obrigatoriamente de suportar a totalidade do produto, evitando a necessidade de licenças adicionais. Licença não deve ser específica para um produto: a licença de um software não deve depender do facto deste fazer parte de uma distribuição particular de software. Licença não pode ser restrita a outro software: a licença não pode obrigar por exemplo, a que outro software com o qual é incluída, seja também ele open source. 25

41 CAPÍTULO 4 Licença deve ser tecnologicamente neutra: a licença não deve estabelecer uma tecnologia individual, estilo ou interface para ser aplicado no programa. Todo o software que garanta as dez medidas acima enunciadas designa-se por software open source. O software gratuito não considerado open source, normalmente falha alguma (s) das regras mencionadas pela OSI, sendo desta forma considerado de software gratuito. Muitas vezes, este tipo de projetos surge associado a versões de demonstração de projetos comerciais, em que o cliente tem apenas acesso a parte das funcionalidades, sendo o acesso restrito a uma quantidade de espaço de alocação no caso de projetos Web; acesso a uma licença periódica que expira num curto período de tempo; ou que possibilita explorar o ambiente de trabalho mas não permite exportar ou guardar o trabalho produzido. Tal como outros tipos de software, o open source tem vantagens mas também apresenta alguns inconvenientes (Martins e Oliveira, 2008), (open source, 2007). Para uma melhor perceção dos pontos fortes e fracos do software open source, iremos descrever nas secções seguintes as suas principais vantagens e desvantagens Vantagens do Software Open Source Podemos afirmar que as principais vantagens da utilização de software open source são: Baixo custo: para além do software ser gratuito, os equipamentos de hardware necessários não são tão exigentes em termos de capacidade de processamento, quando comparados com os requisitos de hardware exigidos pelo software comercial, permitindo desta forma, reduzir o valor dispendido com os próprios dispositivos. Suporte da comunidade: o conceito de open source permite a troca de informação e esclarecimento de dúvidas perante a comunidade de desenvolvimento, bem como a contribuição na programação do software juntamente com a equipa de desenvolvimento. Normalmente existem fóruns de discussão associados a cada projeto. O software pode ser partilhado e utilizado para fins diversos. Acesso ao código fonte, permitindo por isso o seu estudo, alteração e implementação de novos módulos de funcionalidades. Possibilidade de adaptação às reais necessidades de cada organização, a disponibilização do código permite a adaptação do mesmo às pretensões de cada identidade. Constante atualização das versões através da contribuição da comunidade que o suporta. Possibilidade de experimentar o software sem que isso implique qualquer custo. Este factor contribui para a seleção do software que melhor se enquadre na real 26

42 CAPÍTULO 4 necessidade da instituição, evitando desperdício em aquisições de software que não satisfaça os requisitos pretendidos. Facilidade em aceder a software open source, nomeadamente acedendo aos repositórios específicos para download deste tipo de software (em 4.3 serão enumerados alguns repositórios de software open source) Desvantagens do Software Open Source De entre as desvantagens do software open source, destacamos as seguintes: Projetos em constante desenvolvimento: o que significa que os projetos podem ainda não ter atingido o grau de maturidade aceitável. Problemas no software: o facto de ser uma comunidade open source a desenvolver, por vezes suscita dúvidas relativamente à qualidade do produto final. Contudo, de um modo geral nos últimos anos assistimos a uma grande melhoria nos processos de teste das aplicações, mas ainda assim continuam a ser suscetíveis de conterem alguns bugs e falhas no seu desenvolvimento, o que por vezes também acontece em software comercial. Inexistência de informação: à exceção de uma minoria de projetos open source bem sucedidos, existe uma maioria de projetos open source que possuem pouca informação relativamente à instalação e ao suporte das aplicações. Continuidade dos projetos: esta nem sempre é assegurada, porque depende do tipo de aceitação por parte do mercado, e do objetivo da comunidade de o tornar um projeto comercial, estando o seu desenvolvimento condicionado pelo trabalho das equipas de voluntários. Muitos são os projetos bem sucedidos do mundo open source que surgiram no mercado pelas comunidades de desenvolvimento e que posteriormente foram adquiridos por grandes empresas, patenteando e tornando-os software de licença comercial. Por exemplo, a Apple usa software open source como base do seu sistema operativo; o sistema operativo da Google para dispositivos móveis, o Android, é também open source; o Firefox e o Google Chrome, Web browsers open source, já são mais usados do que o Internet Explorer. Existem muitos outros tipos de software que mantêm a sua licença open source para cativar o mercado e desenvolvem uma versão comercial com mais funcionalidades, de modo a financiar o desenvolvimento dos seus projetos Onde encontrar Software Open Source? Nesta secção iremos apresentar uma lista de repositórios Web, onde é possível: adquirir software open source, aceder a informação de suporte, esclarecer dúvidas em blogues de discussão, participar no desenvolvimento de projetos entre outras opções. 27

43 CAPÍTULO 4 Existem repositórios específicos na Internet para disponibilizar projetos open source desenvolvidos pelas comunidades de desenvolvimento. A existência destes repositórios permite que as comunidades de desenvolvimento possam divulgar e alocar os seus projetos com maior facilidade, bem como, proporcionar aos utilizadores um acesso a software open source de forma simples. Os repositórios de projetos open source, permitem proceder ao download e partilha de projetos, procurando desta forma angariar e divulgar novos projetos bem como despertar o interesse de possíveis colaboradores. Alguns dos projetos open source detêm um repositório próprio pertencente à sua comunidade de desenvolvimento, que permite discussão e esclarecimento de dúvidas entre os membros da equipa de desenvolvimento e os utilizadores. Esta é uma forma de entender as dificuldades diversas dos utilizadores e de detetar eventuais bugs que necessitem de ser corrigidos nas versões futuras. Com a exceção dos projetos indicados na secção anterior, a grande maioria dos projetos open source são alocados e partilhados em repositórios comuns, acessíveis a todo o tipo de público em geral. De seguida, iremos listar alguns dos repositórios de projetos Open Source mais divulgados, indicando também o link respetivo da página Web onde pode ser efetuado o download do software (Martins e Oliveira, 2008): SourceForge ( - neste repositório é possível: colocar projetos desenvolvidos e em desenvolvimento; apresenta uma lista de projetos agrupados por mês de realização; permite visualizar estatísticas de downloads e colaboração; visualizar o número de downloads registados de cada projeto; contém browser, blogues e um separador de suporte no qual se encontra toda a documentação. Freshmeat ( este repositório disponibiliza funcionalidades para: visualizar projetos e artigos inscritos mais recentemente; guardar também artigos; pesquisa de projetos associados a tags; disponibilizar informação acerca de cada projeto; discussões e esclarecimento de dúvidas em blogues. Hotscripts ( este repositório permite: visualizar um conjunto de projetos agrupados por linguagem de programação; ter conhecimento relativamente ao top de projetos procurados; disponibiliza uma avaliação dos projetos mais populares; a utilização de fóruns e blogues diversos para a partilha de informação. RubyForge ( este repositório oferece: suporte para projetos desenvolvidos na linguagem Ruby; uma listagem de projetos que necessitam de ajuda no desenvolvimento; apresenta valores estatísticos relativamente aos projetos mais ativos na semana corrente; exibe a lista dos projetos mais recentes; e mostra o top de projetos com maior número de downloads registado. 28

44 CAPÍTULO 4 Savannah ( este repositório disponibiliza aos utilizadores acesso às últimas notícias da comunidade; permite a consulta de projetos; apresenta valores estatísticos do repositório; exibe uma lista dos projetos que necessitam de colaboradores para o seu desenvolvimento; expõe o top de popularidade de cada projeto; mostra a lista de projetos alocados recentemente. CodeHaus ( neste repositório é possível: a pesquisa de projetos; aceder a um separador de projetos mais recentes; visualizar informação de suporte e das comunidades de desenvolvimento. Tigris ( este repositório permite: visualizar projetos de forma ordenada por categorias; pesquisar projetos; filtrar projetos por nome e conteúdo; obter informação relativamente à utilização dos IDE de desenvolvimento, bem como acesso aos mesmos. OpenSymphony ( este repositório é o mais rudimentar de todos, quando comparado com os apresentados anteriormente. Este repositório apenas permite fazer downloads e aceder ao código fonte de cada projeto. Unesco ( cgi?d=1) neste repositório é possível: aceder à documentação de desenvolvimento dos projetos; obter informação relativa a cada projeto; ver uma listagem de projetos mais recentes; a pesquisa de projetos por palavras-chave; visualizar os diretórios criados mais recentemente e criar links para novos projetos. OSS4lib ( neste repositório destacamos: a pesquisa de projetos por categoria e por linguagem de programação; a visualização de uma lista dos comentários mais recentes; o acesso aos protocolos e standards das normas de qualidade do desenvolvimento de projetos; a visualização de um grupo de artigos e sites recentes. TheOpenDisc ( neste repositório é possível fazer download de uma aplicação que permite o download de projetos de várias categorias. O repositório é composto de wikis e fóruns para a partilha de conhecimento. OpenSourceWindows ( este repositório apresenta uma lista de projetos open source com link direto para as suas páginas oficiais. O software open source oferece uma boa solução para colmatar quase todas as necessidades. De referir, que só o repositório SourceForge.net conta com mais de 300 mil projetos registados. 29

45 CAPÍTULO Descrição de PME Um foco importante do nosso trabalho de investigação são as PMEs. Segundo a definição europeia, PME é toda a empresa que possua um número total inferior a duzentos e cinquenta trabalhadores efetivos; um volume de negócio inferior ou igual a cinquenta milhões de euros; e um balanço total menor ou igual a quarenta e três milhões de euros (EEN, 2011). A Comissão Europeia adotou em maio de 2003 uma nova definição para as empresas, com a criação do conceito de microempresas, pequenas empresas e médias empresas. As microempresas são todas as empresas que possuam um número total de funcionários inferior a dez; um volume de negócios que não exceda os dois milhões de euros; e um balanço total que não ultrapasse também os dois milhões de euros. São consideradas pequenas empresas, todas aquelas que tenham menos de cinquenta trabalhadores efetivos; um volume de negócios e um balanço total que não excedam os dez milhões de euros. A Tabela 4.1 permite analisar todos estes valores divididos pelas diferentes categorias. Tabela 4.1. Caraterísticas das PME (EEN, 2011) Categoria Média empresa Pequena empresa Microempresa Efectivos < 250 < 50 < 10 Volume de Negócios <= <= <= Balanço total <= <= <= Como já fora referido, inicialmente na secção introdutória, as PMEs têm um peso enorme na totalidade de todas as empresas tanto a nível nacional, europeu e Mundial. A Figura 4.1 ilustra um gráfico circular que nos ajuda a perceber qual a verdadeira importância das PMEs na economia europeia e mundial, segundo as referências (ECEI, 2010/2011) e (Global Alliance of SMEs, 2010). O gráfico relativamente à percentagem de cada tipo de empresas a nível nacional não foi produzido face à dificuldade de representação do valor mais baixo (0.01%) referente às grandes empresas, tendo por base (ECEI, 2010/2011). Percentagem de PMEs a nível Mundial 98% PMEs Outras 2% Figura 4.1. Gráfico da percentagem dos tipos de empresas a nível Mundial 30

46 CAPÍTULO 4 A representação da percentagem de PMEs é avassaladora, o que destaca a importância da nossa investigação, em querer solucionar um problema que abrange um enorme número de casos práticos. 31

47 32

48 CAPÍTULO 5 5. FERRAMENTAS BI OPEN SOURCE Após uma primeira abordagem sobre os principais conceitos relacionados com a área de Business Intelligence, vamos começar a especificar em maior detalhe o nosso trabalho de investigação. O nosso trabalho de investigação tem como objetivo proceder ao levantamento do estado da arte relativamente a ferramentas open source de BI no intuito de as avaliar relativamente às suas funcionalidades de modo a encontrar as melhores soluções de integração para as PME s. Após a avaliação das aplicações open source BI será escolhida a melhor solução que será implementada num projeto empresarial de âmbito real numa PME. Os passos da investigação serão descritos nas próximas secções do nosso trabalho Suites BI Open Source Inicialmente procedeu-se a um levantamento do estado da arte de todas as ferramentas open source relacionadas com a área de BI. Podemos constatar que existem bastantes ferramentas, algumas delas desenvolvidas exclusivamente para áreas especificas, isto é, processos de BI independentes (p. ex: processos de Data Mining, processos de ETL, OLAP, etc.). Inicialmente começamos por descrever as ferramentas que são consideradas Suite, este termo é usado para descrever ferramentas que agrupam um conjunto de funcionalidades BI. Como analisaremos ao longo da nossa investigação, algumas Suites de BI integram alguns projetos independentes, tornando-as mais funcionais e com maior ênfase de mercado. Nesta secção iremos descrever sucintamente as principais Suites open source Business Intelligence. As ferramentas analisadas são as seguintes: JasperSoft, OpenI, Palo, Pentaho, SpagoBI e Vanilla JasperSoft Segundo a própria JasperSoft (JasperSoft, 2011), a empresa é uma líder em processos Business Intelligence. Atualmente com mais de clientes comerciais distribuídos por 96 países. O nível de downloads da sua aplicação JasperSoft ultrapassa os 3.5 milhões. Estima-se que o software JasperSoft seja o software de BI mais utilizado em todo o mundo. JasperSoft é uma ferramenta open source que possui uma licença GNU GPL (General Public Licence). Jaspersoft Business Intelligence Suite, inclui um servidor, Jasper Server, que permite: criar relatórios interativos, gráficos de diferentes tipos, consultas ad-hoc (possibilidade de consultas em tempo real, permite a utilizadores com poucos conhecimentos SQL, acederem a informação proveniente de bases de dados), interface de desenho de relatórios, análises OLAP, ferramentas de integração de dados ETL e recurso a bibliotecas java que permitem comunicação escalável. 33

49 CAPÍTULO 5 JasperSoft é uma aplicação fácil de implementar e que tem uma arquitetura incremental, isto torna-a uma aplicação robusta e capacitiva. Possibilita a analistas e profissionais, uma capacidade de conhecimento e observação mais aprofundadas. JasperSoft permite a criação de relatórios e possui algumas propriedades interessantes na criação dos mesmos, permitindo: Facilidade na criação e parametrização de relatórios, sob o conceito de arrastar e soltar (drag-and-drop); Fazer consultas ad-hoc e criação de relatórios em tempo real; Formatação de relatórios de forma detalhada; Acesso a dados via XML (Extensible Markup Language), Hibernate, EJB (Enterprise Java Beans), POJO (Plain Old Java Object) ou tipos personalizados; Programação e distribuição automática de relatórios em diferentes formatos. JasperSoft detém propriedades de criação de dashboards, das quais de destacam: A facilidade de manuseamento através das funcionalidades de arrastar e soltar; A possibilidade de realizar consultas ad-hoc e análises de dados em memória; A possibilidade de elaborar páginas com tabelas, crosstabs (processo que incide no cruzamento de dados de duas vistas de dados diferentes), gráficos, indicadores de entrada de parâmetros em tempo real e Mash-ups (combinação de dados entre duas ou mais fontes de dados). As análises elaboradas em JasperSoft são baseadas em pradões ROLAP (Relational On Line Analytical Processing), com acesso MDX padronizados para Web ou interface em folhas de cálculo Excel. JasperSoft permite análises de dados em memória, possibilita configurações para processar dados em memória ou provenientes de uma base de dados relacional. JasperSoft inclui mecanismos ETL para integração de dados. As funcionalidades ETL de JasperSoft são suportadas pela ferramenta Talend, que disponibiliza: Interface gráfico intuitivo para construção de modelos ETL; Alto desempenho e portabilidade na geração de código Java ou Perl; Monitorização de atividades para gestão de tarefas ETL. A ferramenta JasperSoft possui um servidor (Jasper Server) de alta performance para relatórios. O servidor pode ser implementado como aplicação stand-alone ou integrado com outras aplicações. Permite consultas avançadas, análises de dados e criação de relatórios. O servidor possui: Conceito drag-and-drop, ad-hoc e query builder via comando de metadados; Painel de software drag-and-drop com tecnologia live-refresh e mash-up; 34

50 CAPÍTULO 5 Análise de dados em memória; Construção de gráficos sobre a tecnologia flash; Conjunto de relatórios personalizados; Agendamento de relatórios e controlo de histórico de versões; Relatórios de segurança; Acesso a fontes de dados relacionais XML, Hibernate, EJB, POJO s e fontes personalizadas; Segurança de dados por linha e coluna. O servidor Jasper possui uma arquitetura escalável, sendo baseada em tecnologia Web de padrão aberto, com recurso a XML, JDBC (Java Database Connectivity), Hibernate, Java e Web Services. O servidor é totalmente integrado em Java. O pacote de aplicação Jasper Server é constituído por MySQL, Apache Tomcat, Portal Liferay, abrangente para Web Services, Java e API s HTML. O servidor contém ainda uma particularidade interessante, suporta serviços Web não Java,.NET(C#), C++ e PHP (Hypertext Preprocessor). Jasper Server permite exportação de relatórios nos formatos de pdf, Html, xls, flash, doc, rtf e ods/odt. Relatórios, consultas ad-hoc, dashboards e mash-up s são baseados em tecnologia AJAX (Asynchronous Javascript And XML) e HTML de forma dinâmica. JasperSoft permite a utilizadores sem conhecimentos técnicos sobre bases de dados ou linguagens de consulta a bases de dados criarem relatórios e consultas ad-hoc. Para isso, basta arrastar e soltar itens de visão empresarial definir filtros, parâmetros e gerar consultas sem dificuldades acrescidas. A análise em memória funciona sobre a dinâmica de AJAX com HTML. Esta funcionalidade permite consultas ad-hoc, exploração de dados sobre o conceito multidimensional data-pivoting, perfuração, corte, classificação e filtro de dados. Estes processos evitam sobrecarga de sistemas com criação de Data Warehouses e de consultas OLAP baseadas em MDX. ireport é uma ferramenta concebida para desenho de relatórios, permite o controlo total sobre o seu conteúdo e aspeto. Esta funcionalidade é incluída no pacote JasperSoft. A funcionalidade ireport permite: Criação de relatórios pixel-perfect; Pré-visualização de relatórios em diferentes formatos; Formatação do modelo de impressão; Upload e download de relatórios oriundos do repositório do servidor Jasper; 35

51 CAPÍTULO 5 Personalizar e editar gráficos baseados em tecnologia flash; Construir gráficos de consultas SQL, MDX e domínios Jasper Server; Drill-Through; Girar texto. JasperSoft inclui também funcionalidades GEO, a aplicação é constituída e auxiliada por centenas de mapas. JasperSoft é uma aplicação robusta, confiável e atualizável, permite uma abordagem de integração faseada e pode ser adaptada consoante as necessidades do utilizador. JasperSoft é um pacote BI apreciável, possui suporte para as funcionalidades principais de BI, apresenta apenas algumas lacunas, são elas a inexistência funcionalidades de Data Mining e inexistência de KPIs. Figura 5.1. Arquitetura JasperSoft e Figura 5.2. Relatório JasperSoft (JasperSoft, 2011) A Figura 5.1 ilustra a arquitetura da ferramenta JasperSoft. É possível visualizar o conjunto de ferramentas que constitui a Suite JasperSoft. Na base da arquitetura surgem os processos de ETL a cargo da ferramenta Talend, Posteriormente e após os processos de ETL é possível utilizar ireports, JasperServer, JasperReports e JasperAnalysis, para os processos de criação de relatórios e análises. Na camada superior estão representados os elementos de visualização e interação do utilizador com a ferramenta. A Figura 5.2 mostra um conjunto de elementos BI produzidos com auxílio de JasperSoft, em cima da esquerda para a direita é possível visualizarmos um gráfico de barras, um indicador de performance gráfico e um gráfico de progressão. Em baixo, da esquerda para a direita temos uma tabela de dados, uma listagem de dados e parte de um mapa de um sistema de informação geográfica OpenI OpenI (OpenI, 2011) é uma ferramenta que suporta fontes de dados OLAP, bases de dados relacionais, modelos de dados estatísticos e modelos de Data Mining. Esta é uma ferramenta Web ideal para interagir com fontes de dados OLAP. 36

52 CAPÍTULO 5 A aplicação disponibiliza aos utilizadores componentes gráficas, tabelas Pivot, navegação e configurações. OpenI permite gerar relatórios OLAP, criar processos de Data Mining e Dashboards. A aplicação é desenvolvida sobre a linguagem de programação Java. A ferramenta OpenI é auxiliada por alguns dispositivos de ligação, sendo a ligação entre a aplicação e as bases de dados relacionais estabelecida através de JDBC, para fontes de dados OLAP é utilizada a linguagem XMLA (Extensible Markup Language for Analysis), que é um protocolo de comunicaçãosuportado pelos servidores OLAP Microsoft Analysis Services e Mondrian. No caso de funcionalidades de Data Mining a ferramenta incorpora um aplicativo o RProject aplicativo open source que funciona sobre uma API (Application Programming Interface) nativa designada de RServe. Os relatórios são suportados pela ferramenta JasperReports, tornando-se possível integrar nestes relatórios bases de dados relacionais, relatórios OLAP e conteúdos de Data Mining. A interface é concebida para utilizadores distintos, com a finalidade de tornar acessível não só a pessoas ligadas ao desenvolvimento mas a toda a comunidade, oferecendo um interface amigável. Em termos de segurança são regidas as especificações da tecnologia J2EE (Java 2 Enterprise Edition), após o login de utilizador, é possível aos utilizadores com permissões de administrador configurar aspetos visíveis por parte de utilizadores com permissões diferentes das de administrador. Figura 5.3. Arquitetura da aplicação OpenI (OpenI, 2011) A Figura 5.3 ilustra a arquitetura da aplicação OpenI, a aplicação é constituída pelas componentes de interface com o utilizador, definição do tipo de relatórios suportados pela aplicação, componentes de ligação entre funcionalidades internas da aplicação e servidores externos, nomeadamente servidores Olap, RDBMS (Relational Database Management System) e Data Mining. A aplicação é suportada por um servidor J2EE. 37

53 CAPÍTULO 5 OpenI é um pacote de funcionalidades BI de valor, ainda assim peca numa primeira análise pela inexistência de um módulo de propriedades de ETL, pela impossibilidade de exportar dados e pela ausência do módulo de KPI. Figura 5.4. Elementos gráficos de OpenI (OpenI, 2011) A Figura 5.4 mostra o painel de visualizações da ferramenta OpenI, na figura surge representado tabelas de dados, gráficos de barras, gráficos circulares e gráficos de progressão Palo Palo ou JPalo (Palo, 2011), é uma ferramenta OLAP desenvolvida pela empresa Jedox AG, cujo seu inicio de atividade remonta ao ano de 2002, sob alçada de Kristian Raue. A Suite Palo engloba o grupo de funcionalidades Jedox, Palo OLAP Server, Palo Web, Palo ETL Server e Palo Para Excel. OLAP é o processo chave da ferramenta Palo. O servidor de OLAP Palo fornece estabilidade, desempenho e algoritmos de lógica inovadores. O servidor permite multisessão em tempo real. Palo Web concentra todas as componentes da aplicação num interface Web. Palo Web permite criar e fazer a gestão de relatórios OLAP e a visualização de processos ETL. A suite Palo permite acesso direto a utilizadores via Microsoft Excel e Open Office Calc. Palo ETL Server é a componente de aquisição de dados na Web que permite extrair, transformar, carregar bases de dados de sistemas transacionais, bases de dados simples, DWs e outras fontes de dados externas. A versão Palo concebida para suportes Microsoft Office Excel e Oppen Office Calc, permite resolver problemas relacionados com o limite de dados a processar e o seu tempo de processamento. Evita os habituais transtornos resultantes da necessidade de alteração das habituais folhas de cálculo para sistemas de gestão de dados mais complexos. Esta funcionalidade permite trabalhar sobre bases de dados de registos em folhas de cálculo. 38

54 CAPÍTULO 5 Palo para Excel inclui um servidor de base de dados OLAP robusto e disponibiliza os plugins Oppen Office Calc Add-in e Miccrosoft Excel Add-in. Para usufruir das funcionalidades destes plugins, basta instalá-los no Open Office Calc ou no Microsoft Excel. Após instalados aparecerá um novo separador de funcionalidades na ferramenta (Calc ou Excel), que permite construir um conjunto de elementos de BI. No setor de análises, planeamentos e relatórios, Palo para Excel possui: Uma base de dados multidimensional em memória, disponível para todos os utilizadores; Suporte para processos básicos de BI, consolidação de dados em tempo real e propriedade write-back; Suporte para planeamentos, análises, criação de relatórios, consolidação na área das finanças e controlo de vendas. Microsoft Office Excel Add-in e Oppen Office Calc Add-in, funcionam como um aplicativo adicional fácil de instalar, permite acesso às funcionalidades Palo OLAP Server a partir do Excel ou do Calc. Palo para Excel funciona nas versões Microsoft Office XP, 2003 e 2007, em alternativa funciona também no Oppen Office Calc. Figura 5.5.Ambiente Microsoft Excel composto do separador Palo (Dashboardspy, 2011). A Figura 5.5 ilustra o separador de funcionalidades Palo, instalado com recurso ao aplicativo Microsoft Office Excel Add-in. A ferramenta Palo baseia-se em células, isto é, não se baseia nos registos mas nas próprias células das folhas de cálculo, daí a sua compatibilidade com as folhas de cálculo. Resumidamente as caraterísticas de Palo são: Propriedade write-back (dados só serão escritos em memória principal, quando forçados a sair da memória cache); 39

55 CAPÍTULO 5 Direitos de utilizador; Tecnologia de cálculo baseada em células; Multidimensional; Hierárquico; Baseado em memória e tempo real; Baseado em servidor; Subconjuntos; Regras. Palo é uma plataforma baseada em folhas de cálculo, possibilita integração de dados provenientes de folhas de cálculo Microsoft Excel e de Open Office Calc. A integração de dados ETL e as consultas OLAP são as funcionalidades de maior relevo da plataforma. Os recursos para gerar gráficos e relatórios são os disponibilizados pelas aplicações de suporte (Microsoft Excel ou Open Office Calc) Pentaho Pentaho (Pentaho, 2011) é uma das ferramentas de Business Intelligence mais divulgadas e conceituadas. Pentaho é uma ferramenta de apoio à decisão composta por dois tipos de versões, Community que detém parte das funcionalidades totais da ferramenta sendo completamente gratuita (versão open source) e uma versão Enterprise que contém todas as funcionalidades (versão comercial). As soluções Pentaho são soluções desenvolvidas com recurso à linguagem de programação Java e podem ser executadas a partir de uma JVM (Java Virtual Machine). Pentaho incorpora a ferramenta Kettle para abordagens de ETL (também designada de pentaho Data Integration); para o cruzamento de dados OLAP incorpora as ferramentas Mondrian e Ramsetcube; possui funcionalidades próprias para criação de relatórios de dados; contém propriedades de Data Mining baseadas na aplicação Weka; e disponibiliza ainda propriedades relacionadas com a criação e visualização de dashboard. A versão Community de demonstração online permite fazer análises através de um mecanismo próprio da Pentaho ou com recurso a xanalyzer, permite a criação e visualização de gráficos sendo possível a escolha de entre diversos tipos de gráficos existentes na plataforma. É possível a criação de: relatórios, relatórios de análise e dashboards. A aplicação disponibiliza algumas livrarias Widget (componente de interface gráficas, p. ex: janelas, botões, menus, ícones, etc.) de Dashboards, são elas vistas de análise, KPIs e excertos de relatórios. Os relatórios podem ser visualizados e exportados nos formatos de Html, pdf, xls, csv, rtf e plain text. 40

56 CAPÍTULO 5 MDX (MultiDimensional expression) é a linguagem de consultas à base de dados integrada na ferramenta, é também ela a tecnologia que sustenta as funcionalidades OLAP da aplicação, as consultas podem ser exportadas em ficheiros pdf ou xls. A ferramenta disponibiliza um WorkSpace que permite inserir e publicar elementos a serem analisados. Figura 5.6. Conjunto de funcionalidades Pentaho (Pentaho, 2011) A Figura 5.6 ilustra o conjunto de funcionalidades disponibilizadas pela aplicação Pentaho, apresentadas sob a forma de arquitetura. Surgem ilustrados 4 grupos de funcionalidades distintos: relatórios (produção, operação e ad-hoc), análises (Data Mining, OLAP e Drill & Explode), dashboards (métricas, KPIs e alertas) e processos de gestão (integração, definição e execução). Pentaho é um dos pacotes de BI open source mais poderosos do mercado. 41

57 CAPÍTULO 5 Figura 5.7. Ilustração de funcionalidades GEO de Pentaho (Dashboardinsight, 2011). A Figura 5.7 ilustra uma representação das funcionalidades de GEO de Pentaho, com a utilização de informação e indicadores de performance gráficos SpagoBI SpagoBI (SpagoBI, 2011) é uma aplicação desenvolvida pela SpagoWorld, fundada em 2006 e suportada por uma comunidade open-source. A ferramenta SpagoBI possui uma licença GNU LGPL (Lesser General Public Licence), que permite aos utilizadores usufruir da totalidade das funcionalidades da aplicação. Esta ferramenta tem diversas funcionalidades, destacando-se: a criação e exportação de relatórios, a criação de gráficos, a integração de dados através de processos de ETL, a realização de análises através de processos OLAP, os processos de Data Mining, os processos de consultas simples a bases de dados, a criação de filtros de consulta e as propriedades geográficas. O conjunto de todas estas funcionalidades enumeradas torna a SpagoBI uma aplicação BI Suite. O servidor de aplicação, SpagoBI Server, fornece e disponibiliza as funcionalidades da ferramenta, destacando-se: servidor de aplicação, serviço de login, criação de dashboard, processos de Data Mining, sistema de suporte a bases de dados DBMS (Database Management System), ETL (Extract, Transform, Load), serviços de referenciação geográfica (GEO/GIS), agenda de tarefas, servidor OLAP (On-Line Analytical Processing), criação de relatórios, realização de consultas a bases de dados e servidor Web. A Figura 5.8 ilustra o conjunto de funcionalidades existentes na Suite SpagoBI, acompanhadas pela informação relativamente às ferramentas que lhe oferecem suporte (ilustrada no canto superior direito de cada ícone). 42

58 CAPÍTULO 5 Figura 5.8. Conjunto de funcionalidades SpagoBI (SpagoBI, 2011) Da análise à Figura 5.8 verificamos que SpagoBI permite a criação e visualização de relatórios estruturados com recurso a tabelas, gráficos e aglomerados de dados, estes relatórios têm a possibilidade de serem exportados em diferentes tipos de formatos, pdf, txt, xls, html, xml, csv e rtf. Esta funcionalidade utiliza como recurso de sustentação as ferramentas Eclipse BIRT, JasperReport e BusinessObject. As propriedades OLAP disponibilizadas pela ferramenta permitem uma análise multidimensional efetuada com recurso às perspetivas de drill-down, drill-across, sliceand-dice e drill-through (nome associado ao processo de mudança de uma dimensão para uma outra). Os processos de OLAP são suportados pelos motores OLAP, JPivot/Mondrian, JPalo/Mondrian, JPivot/XMLA Server. As propriedades gráficas têm como suporte a ferramenta JFreeChart, esta funcionalidade permite o desenho de gráficos de diferentes tipos, barras, circulares, histogramas, etc. A ferramenta disponibiliza mecanismos de Dashboard, permite a visualização de gráficos no formato SWF (Shockwave Flash), exibindo KPIs (Key Performance Indicators), estes KPIs são exibidos em tempo real. A ferramenta disponibiliza requisitos de criação, gestão e visualização de KPIs, permitindo aplicar diferentes especificações, entre elas, regras de cálculo, limites e regras de alarme, que condicionarão a ilustração do gráfico final. SpagoBI detém uma funcionalidade para a elaboração de cockpits que permite a junção de diferentes documentos em apenas um, isto é, permite a elaboração de um documento capaz de conter elementos de OLAP, Dashboards, Data Mining entre outros. 43

59 CAPÍTULO 5 A ferramenta disponibiliza mecanismos geográficos, que permitem interligar dados em tempo real com dados provenientes de uma Data Warehouse, esta funcionalidade é suportada por duas aplicações, GEO e GIS. O processo de Data Mining nesta ferramenta, é suportado pela aplicação Weka, esta ferramenta permite a extração de padrões e informação relevante de uma quantidade de dados considerável. A ferramenta fornece um motor próprio de consultas, QBE (Query by Example), as consultas podem ser definidas pelos utilizadores de forma gráfica, esta funcionalidade permite ainda a elaboração de consultas, verificação de resultados, exportar dados, guardar consultas e criação de modelos de relatórios. A opção Smart Filter permite criar formulários de consulta simples, utilizando a opção de filtragem de dados de forma a poder selecionar informação mais válida e específica. No campo de acessibilidade de comunicação a ferramenta disponibiliza a opção de produzir relatórios tabulares, acessíveis tendo em conta a especificação WCAG (Web Content Accessibility Guidelines). A ferramenta possui um aplicativo designado de RT Console, que permite monitorizar dados em tempo real, monitorar processos de negócio e BAM (Business Activity Monitoring), que é a monitorização da atividade de negócio. As funcionalidades de ETL do SpagoBI integram a aplicação TOS (Talend Open Studio). A aplicação permite a publicação de documentos nos formatos do Microsoft Office e Open Office. SpagoBI disponibiliza ainda uma funcionalidade designada de dossiê, esta funcionalidade permite agrupar de forma organizada, elementos como relatórios, a esta informação podem ser adicionadas notas. A ferramenta é disponibilizada nas versões, SpagoBI Studio (permite criar e modificar documentos de análise como relatórios, gráficos etc.), SpagoBI Meta (aplicação mais ligada à área de metadados) e SpagoBI SDK (serviço que agrupa as funcionalidades da aplicação suportadas pelo servidor). SpagoBI é um pacote de funcionalidades de BI de grande dimensão. O seu conjunto de funcionalidades torna-a uma plataforma composta e com potencial, face a outras ferramentas apresenta um grande número de funcionalidades e disponibiliza-as numa única versão sem quaisquer custos. A incapacidade de realizar consultas ad-hoc, é o ponto frágil deste pacote de funcionalidades face a outros existentes no mercado. 44

60 CAPÍTULO 5 Figura 5.9. Painel de visualização SpagoBI (SpagoBI, 2011) A Figura 5.9 ilustra algumas propriedades BI possíveis de execução por parte da ferramenta SpagoBI, nomeadamente a criação de gráficos de barras em 3D, tabelas de dados e gráficos de progressão em tempo real Vanilla Segundo o site oficial, BPM Conceil é o grupo francês líder em soluções open source BI, é esta a organização responsável pelo desenvolvimento da plataforma Vanilla. A plataforma Vanilla é uma solução de BI completa, pois possui todas as funcionalidades de processos BI. A plataforma Vanilla permite efetuar: análises, criação de relatórios, representação de tabelas de dados, definição de KPIs e análises de Data Mining. Das funcionalidades da plataforma Vanilla, destaca-se: A integração de metadados, com recurso às aplicações Birt e ireport; A inclusão de KPIs; Modalidade de Software as a Service (SaaS) habilitado, permite hospedagem de projetos diferentes, num único servidor; Pacote administrativo de gestão de servidores de auxílio à aplicação; Pacotes Java para criação e implantação de documentos de BI (sem manipulação de xml); Integração completa de dashboards, relatórios, cubos de dados, ETL e documentos; Portal com funções BI, relatórios de anotações, livros de histórico e relatórios; Caraterísticas de BI, conteúdo de colunas dinâmicas, fontes de dados alternativas, modo burst (para validação da politica de segurança); ETL integrado com suporte para SQL Server, OLAP, FreeMetrics & FreeMetadata. 45

61 CAPÍTULO 5 A versão mais recente, versão V3.4 GA incute algumas novidades face às versões anteriores, para que a plataforma consiga acompanhar as tendências e necessidades de mercado. As novas funcionalidades são: A existência de um servidor de cluster e acompanhamento; Aumento de performance de dashboards, grelhas de dados (tipo Excel) inovadoras; Sistemas de gestão de conteúdos de indexação e segurança integrados; Consultas ad-hoc; Integração nos relatórios de tabelas cruzadas e gráficos. A plataforma Vanilla encontra-se também disponível numa versão para sistemas operativos Android. Vanilla é uma das plataformas de maior destaque atualmente, para além do suporte a todas as funcionalidades BI, a plataforma começa também a migrar para dispositivos de suporte móvel, o que a torna uma das plataformas com um maior índice de reconhecimento no momento. Figuras 5.10 e Painel de visualização Vanilla (Freeanalysis, 2011) As Figuras 5.10 e 5.11 ilustram o ambiente de trabalho da ferramenta Vanilla, na Figura 5.10 surgem representados dois gráficos de progressão, enquanto que na Figura 5.11 é exibido um gráfico de área. 46

62 CAPÍTULO 5 Figura Versão de Vanilla a correr em dispositivos móveis (Freeanalysis, 2011) A Figura 5.12 ilustra uma representação da versão Vanilla para dispositivos móveis. A figura mostra-nos um relatório de dados composto por um gráfico circular e na parte inferior a representação de uma tabela de dados. A versão inicial para dispositivos móveis foi desenvolvida para sistemas Android. A disponibilização de uma versão móvel representa a capacidade de inovação e objetivo de acompanhamento da inovação dos mercados, por parte da organização BPM Conseil Comparação entre as ferramentas Suite BI Open Source Após uma análise relativamente ao estado da arte de ferramentas de BI open source, pretendemos comparar todas as Suites BI open source analisadas anteriormente em 5.1. A Tabela 5.2.a apresenta uma comparação entre todas as Suites BI analisadas, tendo em conta as funcionalidades de cada uma. A tabela foi preenchida com os elementos recolhidos das várias fontes analisada. Tabela 5.1. Comparação de funcionalidades Funcionalidades das Ferramentas Open Source Business Intelligence Funcionalidades JasperSoft OpenI Palo Pentaho SpagoBI Vanilla Consultas ad-hoc Dashboards Data Mining ETL Exportação de dados GEO/GIS Gráficos KPIs OLAP Relatórios 47

63 CAPÍTULO 5 A Tabela 5.1 permite avaliar que todas as ferramentas permitem a criação de relatórios e dashboards e todas possuem funcionalidades de OLAP. Pentaho possui todas as funcionalidades enquanto que SpagoBI e Vanilla apenas falham num ponto de avaliação cada, consultas ad-hoc e funcionalidades de GEO respetivamente. Da análise podemos ainda observar que OpenI é a ferramenta que apresenta o menor número de funcionalidades. A Tabela 5.2 apresenta uma descrição/comparação relativamente à linguagem de programação utilizada no desenvolvimento de cada ferramenta. Tabela 5.2. Comparação das ferramentas quanto à linguagem de programação de desenvolvimento Linguagem de Desenvolvimento das Ferramentas Open Source Business Intelligence Linguagens JasperSoft OpenI Palo Pentaho SpagoBI Vanilla Java Perl PHP Na Tabela 5.2 é possível avaliar que à exceção de Vanilla todas as ferramentas são desenvolvidas em Java. JasperSoft é também desenvolvidas em Perl, sendo Vanilla a única ferramenta em análise desenvolvida em PHP. A análise desta tabela é interessante do ponto de vista que ao acedermos a software open source temos a possibilidade de desenvolver novas funcionalidades, e a linguagem Java é claramente mais cativante para o público que qualquer uma outra. A Tabela 5.3 identifica os sistemas operativos capazes de suportar cada uma das ferramentas. Tabela 5.3. Tipo de sistemas operativos que suportam as ferramentas Sistemas operativos que Suportam as Ferramentas Open Source Business Intelligence Sistema Operativo JasperSoft OpenI Palo Pentaho SpagoBI Vanilla Linux Unix Windows A Tabela 5.3 permite identificar que todas as ferramentas são suportadas por sistemas operativos Linux e Windows. Os sistemas operativos Unix apenas suportam, segundo os elementos de consulta, as ferramentas: Pentaho, SpagoBI e Vanilla. A Tabela 5.4 identifica o tipo de versões disponíveis no mercado de cada uma das ferramentas, sendo avaliadas quanto à disponibilidade de versões open source, comerciais e móveis. 48

64 CAPÍTULO 5 Tabela 5.4. Comparação das ferramentas relativamente às suas versões disponíveis Versões das Ferramentas Open Source Business Intelligence Versão JasperSoft OpenI Palo Pentaho SpagoBI Vanilla Community Enterprise Mobile # # # * # Apenas na versão paga. * Na versão analisada não possuía, atualmente já possui. Mediante a análise à Tabela 5.4 é possível reter que apenas SpagoBI e Vanilla são verdadeiramente ferramentas open source, isto significa que não possuem versões comerciais. Outro aspeto importante que podemos reter da análise à Tabela 5.4 é o facto de que a comunidade de desenvolvimento de Vanilla foi pioneira na disponibilização de uma versão otimizada para dispositivos móveis (em versões open source). A Tabela 5.5 contém elementos relativamente ao ano de desenvolvimento e ao tipo de licença que cada uma das ferramentas possui. Tabela 5.5. Informações relevantes de cada uma das ferramentas. Outros aspetos das Ferramentas Open Source Business Intelligence Aspetos JasperSoft OpenI Palo Pentaho SpagoBI Vanilla Ano de desenvolvimento Tipo Licença GNU GPL GNU GPL GNU GPL GNU GPL GNU GPL GNU GPL Da análise à Tabela 5.5 podemos verificar que todas as ferramentas possuem uma licença do tipo GNU GPL. Vanilla é a ferramenta mais recente enquanto que Palo é uma das ferramentas open source pioneiras no mercado (não podemos considerar que tenha sido a pioneira porque existiram ao longo dos anos ferramentas que foram sendo descontinuadas, como o caso de BEE Project). As principais conclusões que retiramos da análise a estas cinco tabelas, são que: A ferramenta Pentaho é a que disponibiliza mais funcionalidades. As ferramentas SpagoBI e Vanilla não suportam apenas uma funcionalidade cada, do conjunto de funcionalidades avaliadas. JasperSoft é uma ferramenta com potencial, falhando apenas em dois aspetos da avaliação. As ferramentas OpenI e Palo são as que disponibilizam menos funcionalidades. SpagoBI e Vanilla são das ferramentas analisadas as únicas que são verdadeiramente open source (apenas possuem uma única versão, community, que disponibiliza todas as funcionalidades disponibilizadas no pacote de soluções). Palo poderá ser uma solução viável em empresas que não possuam na sua estrutura alguém com conhecimentos base de informática nem possibilidades de 49

65 CAPÍTULO 5 contratar uma pessoa com essas caraterísticas. A ferramenta poderá ser viável tendo em conta que dispõem de um plugin para Calc e Excel, que normalmente são ambientes com os quais os recursos humanos das empresas se sentem mais familiarizados. Vanilla poderá ser uma opção difícil de incluir em empresas que os seus recursos humanos não estejam familiarizados com a linguagem de programação PHP, isto porque, normalmente Java oferece um maior ávontade aos utilizadores. Vanilla foi a ferramenta pioneira a desenvolver e disponibilizar uma versão para dispositivos móveis na versão open source. Recentemente SpagoBI também já disponibiliza uma versão para dispositivos móveis na sua nova versão 3.0. Tendo por base estas conclusões e a análise às tabelas anteriores, consideramos que JasperSoft, Pentaho, SpagoBI e Vanilla são as melhores ferramentas open source existentes no mercado, sendo as que mais funcionalidades disponibilizam e maior confiança oferecem Outras Ferramentas Para darmos a conhecer mais algumas ferramentas open source da área de BI, sem que constituam um pacote de soluções, iremos descrever sucintamente algumas ferramentas que compõem pacotes de soluções funcionando como módulos extra. As ferramentas aqui analisadas são as seguintes: Eclipse Birt, Mondrian, Kettle, Jpivot, Weka e RapidMiner Eclipse Birt Em 2004 a Actuate Corporation juntamente com a fundação Eclipse iniciaram o projeto Eclipse BIRT (Business Intelligence Reporting Tools) (Eclipse BIRT, 2011). Birt é uma ferramenta open source flexível e de forte aceitação de mercado. BIRT funciona sobre o IDE Eclipse, funcionando como um plugin ideal para: conceção de relatórios, visualização de dados, análises e extrações de dados, acessos a bases de dados de diferentes tipos, transformação de dados, aplicar lógicas de negócio sobre dados, filtrar e formatar dados, a monitorização de resultados para o utilizador. De um modo geral a ferramenta BIRT inclui: Extensão de acesso a dados; Personalização de dados; Reutilização de componentes/bibliotecas; Facilidade de integração; Internacionalização; Apresentação de dados de forma flexível; Múltiplas ferramentas de desenvolvimento e desenho. 50

66 CAPÍTULO 5 BIRT é uma ferramenta implementada em linguagem java, os seus resultados podem ser monitorizados através de funcionalidades Java, em aplicações stand-alone ou Java EE para vistas Web. Os relatórios gerados por BIRT, são relatórios XML (Extensible Markup Language). BIRT permite acesso a bases de dados via Classic Models Inc. Simple Database, Flat File, JDBC, Scripted, Web Services e XML. Figura Ambiente de trabalho Eclipse BIRT (Wikipédia-BIRT, 2011) A Figura 5.13 ilustra o ambiente de trabalho da aplicação Eclipse BIRT. Ao analisarmos a Figura 5.13 é possível verificar que se trata de um interface normal do IDE (Integrated Development Environment) Eclipse. No topo da figura é possível visualizar os vários menus de opções, uma barra lateral do lado esquerdo com funcionalidades de desenho e indicação de diretórios. No centro da figura surge representada a área de desenho de gráficos acompanhada pelas suas opções de especificação de funcionalidades Mondrian A aplicação Mondrian (Mondrian, 2011) é a ferramenta de servidor OLAP, que permite a construção de cubos de dados com várias perspetivas e dimensões. Esta ferramenta permite o cruzamento de dados entre diferentes estrelas de negócio. Esta ferramenta é desenvolvida com recurso à linguagem de programação Java e implementa as linguagens de modelação MDX, XML for Analysys e especificações JOLAP (Java Online Analytical Processing ), recebe dados de várias fontes incluindo SQL Server. 51

67 CAPÍTULO 5 Figura Ambiente de trabalho Mondrian (Pentaho, 2011) A Figura 5.14 ilustra o ambiente de trabalho da aplicação Mondrian, que possui um interface simples e intuitivo. No topo da janela representada na figura, surgem os menus de opções. No lado esquerdo da figura surgem representados a lista de elementos que constituem o esquema atual, composto de cubos de dados, dimensões, elementos e métricas. No centro da figura é apresentada alguma informação relativamente à dimensão selecionada, é também nesta área que é possível visualizar o cubo de dados quando selecionado nas opções disponibilizadas na barra de ferramentas Kettle Kettle (Kettle, 2011) é uma ferramenta de apoio à integração de dados baseada nas tecnologias de ETL (Extract-Transform-Load), tem a capacidade de ler e escrever dados em sistemas Oracle, PosgreSQL, MySQL, SQLServer entre outros e permite importar dados de ficheiros csv, xls e bases de dados ODBC exclusivamente na versão Windows. Kettle também designada de Data Integration é o módulo de ETL incorporado por Pentaho. A ferramenta é intuitiva e possui um ambiente de trabalho de fácil utilização dotado de capacidades de construção de modelos de ETL com recurso a drag and drop. Figura Ambiente de trabalho Pentaho Data Integration (PDI) (Pentaho, 2011) 52

68 CAPÍTULO 5 A Figura 5.15 mostra um esquema de ETL desenvolvido com recurso à utilização da ferramenta Kettle também designada por PDI (Pentaho Data Integration). O interface da ferramenta é simples e intuitivo, no topo da figura surgem os habituais menus de opções, do lado esquerdo da imagem o conjunto de funcionalidades de ETL, neste caso estão visíveis funcionalidades relativamente à entrada de dados. No centro da figura surge a área de trabalho do projeto, em que é possível visualizar um conjunto de processos interligados por setas que representam o sentido do fluxo de dados. No processo de ETL representado na Figura 5.15 as fontes de dados são um ficheiro Excel e uma base de dados Access que seguem várias etapas de transformação até ao carregamento dos dados numa tabela designada por fact-target JPivot O JPivot (JPivot, 2011) é uma biblioteca JSP (Java Server Pages) que permite o desenho de gráficos e tabelas de dados OLAP, dispõe das opções de drill down e slice-and-dice. Mondrian e XMLA servem de suporte para os processos de OLAP. Figura Representação de um cubo de dados e respetivo gráfico em JPivot (Bestanalytics, 2011) Na Figura 5.16 é possível visualizar um cubo de dados representado por uma tabela, e o respetivo gráfico de barras representando os dados do cubo. JPivot utiliza consultas MDX para a construção dos seus cubos de dados. Mais à frente iremos descrever este tipo de consultas desenvolvido nesta linguagem (MDX) Weka Weka (Waikato Environment for Knowledge Analysis) (Weka, 2011) é uma ferramenta open source que permite agregar algoritmos da área de inteligência artificial. O objetivo desta ferramenta é permitir através do agregado de dados a extração de conhecimento indutivo e dedutivo. Esta ferramenta permite a análise computacional de dados e estatísticas aplicando conceitos de Data Mining, suportando processos de tomada de decisão (Wikipédia-Weka, 2011). 53

69 CAPÍTULO 5 A ferramenta Weka é desenvolvida na linguagem de programação Java, o que lhe concede um tipo de arquitetura flexível e portátil. A ferramenta é desenvolvida possui uma licença do tipo GPL. Figura Ilustração de um exemplo de uma análise Weka (Queensu, 2011) A Figura 5.17 permite visualizar a representação de um conjunto de frações em grelha que delimitam conjuntos de pontos de várias cores (definindo-se por clusters em Data Mining), a representação destes gráficos de dispersão permite extrair conhecimento relativamente à disposição de cada cluster e relativamente às diferentes cores que os constituem RapidMiner RapidMiner (RapidMiner, 2011) é um software open source de Data Mining produzido sob licença AGPL (Affero General Public License) (GNU, 2011). RapidMiner é a continuação da versão do antigo software YALE (Yet Another Learning Environment), ambiente de análise de textos e dados. A versão inicial foi desenvolvida pela Unidade de Inteligência Artificial da Universidade de Dortmund, no ano de Segundo informação contida na página Web da Rapid-I (Rapid-I, 2011), RapidMiner é a solução open source de Data Mining líder. Estima-se que existam milhares de utilizadores da ferramenta, distribuídos por mais de 40 países. RapidMiner é uma ferramenta stand-alone desenvolvida em linguagem Java, utilizada para investigação e realização de projetos. RapidMiner integra algoritmos e documentos da ferramenta WEKA. RapidMiner disponibiliza: 54

70 CAPÍTULO 5 Integração de dados de ETL; Análises OLAP; Construção de relatórios diversos; Interação com utilizador intuitiva e poderosa para análises de processos; Repositório para processos de manipulação de dados e metadados; Carregamento de dados, transformação e modelação de dados; Processos de DataMining. RapidMiner funciona nas principais plataformas de BI e em todos os tipos de sistemas operativos. Os processos da aplicação são suportados por arquivos XML. A ferramenta possui linguagem de script para operações com dados provenientes de bases de dados. RapidMiner possibilita manipulação de dados provenientes de: folhas Excel, bases de dados Access, Oracle, IBM DB2, Microsoft SQL Server, Sybase, Ingres, MySQL, Postgres, SPSS, Dbase, arquivos de texto e outros. RapidMiner é um pacote de funcionalidades estável, apresentando como mais valia os processos de Data Mining, ainda assim, permite integração de dados ETL, possibilita consultas OLAP, e permite a produção de relatórios e dashboards. Figura Análise de Data Mining (Amoldit, 2011) A Figura 5.18 ilustra uma análise de Data Mining constituída com recurso à ferramenta RapidMiner. A ferramenta é composta por um menu de opções que oferece um conjunto de funcionalidades e por uma área de visualização que permite analisar processos de Data Mining. 55

71 56

72 CAPÍTULO 6 6. AVALIAÇÃO PRÁTICA DAS FERRAMENTAS Após a análise de todas as Suites BI na secção anterior, procedemos à escolha das quatro melhores ferramentas para proceder à sua instalação e avaliar aspetos mais técnicos de cada uma delas a fim de eleger a melhor solução para implementar num projeto real de uma PME. A nossa escolha relativamente às quatro melhores Suites BI recaiu sobre JasperSoft, Pentaho, SpagoBI e Vanilla. A nossa escolha foi premeditada tendo em conta os resultados expressos nas tabelas 5.1 até 5.5. Após identificadas as melhores ferramentas procedemos à sua instalação a fim de podermos avaliá-las quanto às suas funcionalidades e caraterísticas técnicas. As quatro ferramentas foram instaladas numa máquina Virtual criada com a ferramenta Oracle VM VirtualBox Manager, na qual foi instalado o sistema operativo open source Ubuntu As ferramentas foram instaladas em quatro máquinas virtuais, cada uma com uma ferramenta instalada, de forma a poder explorar cada ferramenta de forma mais eficaz. Este fator ajudou na avaliação da dificuldade da instalação de cada ferramenta, tendo em conta que para cada uma das ferramentas teve de se proceder à instalação de todos os componentes necessários (Java, MySQL, etc.). A escolha do sistema operativo Ubuntu recaiu pelo facto de este ser o mais utilizado atualmente e por ser uma versão desenvolvida com base na versão Debian com a particularidade de ser atualizada semestralmente. Apesar da comunidade de desenvolvimento lançar uma nova versão Ubuntu semestralmente, têm a particularidade de prestar apoio de suporte a cada versão, durante os dezoito meses seguintes. Este fator foi importante porque permitia usufruir de apoio de suporte caso fosse necessário Instalação de requisitos comuns às quatro ferramentas As quatro ferramentas que pretendemos instalar, têm a necessidade da instalação prévia de alguns requisitos comuns. De modo a não repetir os mesmos passos na descrição dos passos de instalação das quatro ferramentas, procedemos à especificação dos passos de instalação comuns às quatro ferramentas. A instalação de todas as quatro ferramentas necessita das instalações prévias dos requisitos, explícitos nos próximos passos. Os requisitos comuns às quatro ferramentas são, a instalação dos pacotes Java (sun), definição das variáveis de ambiente (JAVA_HOME e JRE_HOME) e a instalação de MySQL. Os próximos passos explicam os procedimentos a seguir para instalar os requisitos necessários (Ambiente Livre, 2011). Passo 1 - Instalação do Java (Sun) 57

73 CAPÍTULO 6 O primeiro passo é abrir uma janela do terminal com permissões de root. O segundo passo é atualizar as funcionalidades do repositório do Ubuntu, para isso, na janela do terminal deve digitar o seguinte código: # sudo apt-get update De seguida é necessário digitar o comando que se segue para proceder ao download dos pacotes de Java. # sudo apt-get install Sun-java6-jdk Sun-java6-jre Após a conclusão do download dos pacotes Java, surgirá uma mensagem relativamente aos termos da licença, deve ser aceite o acordo para proseguir com a instalação. A instalação dos pacotes Java foi concluída com sucesso. Passo 2 Definir variáveis de ambiente Para um bom funcionamento das ferramentas, é necessário definir as variáveis de ambiente JAVA_HOME e JRE_HOME. Aceda ao diretório onde se encontra o link de Java, que normalmente se encontra em: # cd /usr/lib/jvm O diretório deverá conter uma pasta relativamente à versão Java instalada e o link de Java. Deve abrir a pasta e digitalizar no terminal com permissões de root o seguinte comando: # sudo gedit /etc/enviroment Ao ficheiro devem ser adicionadas as linhas: JAVA_HOME=/usr/lib/jvm/java-6-sun JRE_HOME=/usr/lib/jvm/java-6-sun Verifique se os diretórios e os ficheiros existem nos diretórios descritos. Caso não possua o ficheiro /etc/enviroment, configure as variáveis acedendo a /etc/profile inserindo as linhas: export JAVA_HOME=/usr/lib/jvm/java-6-sun export JRE_HOME=/usr/lib/jvm/java-6-sun Guarde as alterações efetuadas ao ficheiro e saia do editor. Para a atualização dos passos anteriores, deve reiniciar o sistema operativo. Passo 3 Instalar MySQL A instalação de MySQL é necessária para guardar as definições base das ferramentas, tal como dados de utilizador e códigos de acesso. Para proceder à 58

74 CAPÍTULO 6 instalação de MySQL aceda ao terminal. Proceda à instalação de MySQL Server e MySQL Client, digitalizando no terminal o seguinte comando: # sudo apt-get install mysql-server-5.1 mysql-client-5.1 Nova mensagem de termos e licença deverá aparecer, aceitando os termos de contrato deverá ainda digitar de seguida, a senha de root para MySQL. Para testar a instalação digite na janela do Terminal o seguinte comando: # mysql u root -p De seguida digite a senha de root definida anteriormente. Se o processo de instalação for concluído com sucesso deverá aparecer a consola de MySQL. Neste momento possuímos os requisitos base necessários para o funcionamento das ferramentas, para cada uma basta proceder ao download dos seus ficheiros de instalação e proceder com os passos de instalação mencionados nas próximas secções Instalação de JasperSoft Para proceder à instalação de JasperSoft, deve garantir que efetuou os passos definidos em 6.1. Os passos de instalação da ferramenta JasperSoft são os seguintes: Passo 1 - Criar diretório para instalar JasperServer O primeiro passo para a instalação da ferramenta JasperServer é a criação de um diretório para a sua instalação. $ mkdir /home/<username>/jasperserver Passo 2 - Obter ficheiro de instalação JasperServer O próximo passo é fazer o download do ficheiro de instalação da ferramenta JasperServer. Para obter o ficheiro de instalação (Jasperreports-server-cp linux-installer.bin) basta aceder à página jasperserverwebsite/jsja%20website/js_download.html?header=project&target= jasperserver e selecionar o ficheiro mediante o sistema operativo pretendido, no nosso caso Linux. Passo 3 - Instalar JasperServer Após o download, o ficheiro.bin deve ser executado na pasta criada anteriormente no passo 1. $ sudo sh jasperreports-server-cp linux-installer.bin 59

75 CAPÍTULO 6 Durante a instalação surgirá pedidos de confirmação relativamente aos componentes que o utilizador pretende instalar, surgirá a opção de instalar pacotes Java e MySQL, se seguiu 6.1. deve indicar que não os pretende instalar. Passo 4 - Iniciar a ferramenta Após a instalação da ferramenta para iniciar a sua utilização deve inserir as instruções que se seguem no terminal de comando. $ cd /home/<username>/jasperserver $ jasperctl.sh start Passo 5 Login da aplicação A aplicação corre em As credenciais de login na aplicação são: Username: jasperadmin Password: jasperadmin 6.3. Instalação de Pentaho Para a instalação de Pentaho tomamos por base o tutorial de instalação (Ambiente Livre, 2011). Inicialmente deve proceder à realização dos passos descritos em 6.1. A instalação de Pentaho BI Server 3.8 CE (Community Edition) segue os seguintes passos: Passo 1 Download da aplicação Pentaho BI Server 3.8 e consequente instalação O download da aplicação pode ser feito diretamente acedendo ao link stable/biserver-ce stable.tar.gz/download Após a conclusão do download, deve descompactar o ficheiro descarregado. Para descompactar o arquivo digite o seguinte comando: # tar xzvf.tar.gz Após descompactado o ficheiro, obtemos duas pastas, administration-console e biserver-ce De seguida vamos criar uma pasta para Pentaho no diretório /opt, diretório aconselhado por defeito. Para proceder à criação de uma pasta devemos digitar o seguinte código: # sudo mkdir /opt/pentaho 60

76 CAPÍTULO 6 Por fim, vamos transferir as pastas descompactadas para o novo diretório. #mv administration-console /opt/pentaho #mv biserver-ce /opt/pentaho Passo 2 Criar utilizadores de Pentaho no sistema operativo. Este é um passo opcional, mas oferece algumas vantagens relativamente a questões de acessibilidade de utilizadores. Para criar um grupo de utilizadores Pentaho execute o seguinte comando: # sudo groupadd pentaho Para criar um utilizador de sistema para Pentaho execute o comando: # sudo useradd r g pentaho pentaho Para atribuir permissões ao grupo e ao utilizador criados execute o seguinte comando: # sudo chown R pentaho:pentaho /opt/pentaho Passo 3 Iniciar a aplicação Pentaho BI Server 3.8 Aceda ao diretório de instalação de Pentaho # cd /opt/pentaho/ De seguida é necessário atribuir permissões para a execução de arquivos com a extensão.sh no diretório, para efetuar esta ação execute os comandos seguintes: # chmod 755 administration-console/*.sh # chmod 755 biserver-ce/*.sh # chmod 755 biserver-ce/tomcat/bin/*.sh Para inicializar o servidor Apache Tomcat de Pentaho digite o seguinte comando: # sudo u pentaho JAVA_HOME=/usr/lib/jvm/java-6-sun./start-pentaho.sh Para testar Pentaho digite no browser o seguinte link: Para inicializar Pentaho Administrator console execute os seguintes comandos: # cd /opt/pentaho/administration-console # sudo./start-pac.sh Para testar Pentaho Administrator Console aceda no browser a: Para utilizar a aplicação, o utilizador por defeito é admin e a senha de validação é password. 61

77 CAPÍTULO Instalação de SpagoBI A instalação da ferramenta SpagoBI requer que sejam seguidos os passos descritos em 6.1. Posteriormente para proceder à instalação da ferramenta basta seguir os passos seguintes. Os passos que se seguem foram utilizados para instalação da versão de SpagoBI. Passo 1 Download do ficheiro Acedendo à página file_id=17517 acede diretamente à página de download da versão compacta. Esta versão contém todos os elementos instalados sobre o servidor Apache Tomcat, apenas necessita que descompacte os ficheiros. Passo 2 Criação de um diretório para a ferramenta Após o download do ficheiro deve proceder à criação de um diretório para descompactar o ficheiro. O comando que se segue permite criar um diretório spagobi # sudo mkdir /opt/spagobi Passo 3 Descompactar ficheiros Tendo em conta que o ficheiro compactado tem a extensão.zip utilizamos o comando seguinte para o descompactar. # unzip.zip Após descompactar ficamos com uma pasta com a extensão All-In-One- SpagoBI apache-tomcat Passo 4 Mover pasta descompactada para o diretório criado Devemos proceder à movimentação da pasta descompactada para o diretório criado, o comando que se segue permite efetuar esse passo. #mv All-In-One-SpagoBI apache-tomcat /opt/spagobi Passo 5 Iniciar a aplicação Após a conclusão de todos os passos anteriores a aplicação encontra-se pronta para utilização. Para iniciar a aplicação deve executar os passos: # sudo./apache-tomcat /bin/startup.sh # sudo./apache-tomcat /bin/oostart.sh Para testar a aplicação digite no seu browser o link abaixo. 62

78 CAPÍTULO 6 Para proceder ao login na aplicação utilize um dos pares utilizador/senha seguintes. Administrador: biadmin/biadmin Utilizador: biuser/biuser Demonstração: bidemo/bidemo 6.5. Instalação de Vanilla A instalação de Vanilla requer a instalação dos requisitos enumerados em 6.1. A versão de vanilla que pretendemos instalar é a versão 3.4 GA (GA significa que é uma versão estável de Vanilla). Passo 1 Download do ficheiro Acedendo à página acede diretamente à página de download da versão 3.4 de Vanilla, esta versão é compacta. Esta versão contém todos os elementos instalados sobre o servidor Apache Tomcat, apenas necessita da descompactação dos seus ficheiros. Passo 2 Criação de um diretório para a ferramenta Após o download do ficheiro deve proceder à criação de um diretório para descompactar o ficheiro. O comando que se segue permite criar um diretório vanilla # sudo mkdir /opt/vanilla Passo 3 Descompactar ficheiros Tendo em conta que o ficheiro compactado tem a extensão.zip utilizamos o comando seguinte para o descompactar. # unzip.zip Após descompactar ficamos com uma pasta com a extensão vanilla-tomcat-mysql _GA. Passo 4 Mover pasta descompactada para o diretório criado Devemos proceder à movimentação da pasta descompactada para o diretório criado, o comando que se segue permite efetuar esse passo. #mv vanilla-tomcat-mysql-3.4.0ga/opt/vanilla Passo 5 Iniciar aplicação Após a conclusão de todos os passos anteriores a aplicação encontra-se pronta para utilização. Para iniciar a aplicação deve executar os seguinte comando: 63

79 CAPÍTULO 6 # sudo./ vanilla-tomcat-mysql-3.4.0ga/start-vanilla.sh Para testar a aplicação digite no seu browser o link abaixo. Vanilla disponibiliza acesso para três tipo de utilizadores, Admin, Designer e User. A senha de validação surge na caixa de validação de forma automática, bastando selecionar o tipo de utilizador com que pretende iniciar a aplicação Avaliação técnica das ferramentas Após a instalação dos quatro pacotes de soluções BI, procedemos à exploração de cada uma delas e ao preenchimento das tabelas que se seguem, tendo em conta a nossa apreciação e avaliação relativamente às caraterísticas e funcionalidades disponíveis. A Tabela 6.1 apresenta a comprovação de alguns dados anteriormente descritos relativamente às caraterísticas e funcionalidades de BI, que cada uma das ferramentas suporta. A Tabela 6.1 não acrescenta nada de novo, apenas a comprovação dos elementos obtidos na fase de investigação. Tabela 6.1. Avaliação das funcionalidades de BI e caraterísticas das ferramentas Avaliação das funcionalidades dos pacotes de BI Funcionalidades: JasperSoft Pentaho SpagoBI Vanilla Versão Tipo aplicação Web Web Web Web Custo Gratuito Gratuito Gratuito Gratuito Opção de impressão Constituintes ETL OLAP Data Mining GEO/GIS Dashboards Consultas ad-hoc KPIs Relatórios Exportação de dados Código Linguagem de programação Java/Perl Java Java Java Acesso ao código Possibilidade de alterar código Após a comprovação dos elementos anteriormente descritos, procuramos descrever alguns aspetos e referenciar os ambientes em que testámos as aplicações e consequente apresentação dos resultados obtidos. A Tabela 6.2 apresenta os resultados relativamente a: tipo de distribuição das ferramentas, sistemas operativos, e Web browsers suportados. 64

80 CAPÍTULO 6 Tabela 6.2. Distribuições e suporte Componentes Tipo de distribuição Sistema Operativo Web Browsers Suportados Tipos Ferramentas de Business Intelligence Open Source JasperSoft Pentaho SpagoBI Vanilla Compacta Módulos Linux Windows Mozilla Firefox Internet Explorer Google Chrome Safari Através da análise à Tabela 6.2 é possível verificarmos que JasperSoft e Pentaho são duas ferramentas distribuídas em módulos, isto é, a sua versão servidor não agrupa todas as funcionalidades (ETL e ferramenta para a criação de dashboards essencialmente) enquanto que SpagoBI e Vanilla possuem uma distribuição compacta (o módulo de ETL é externo em nas quatro ferramentas). Nos sistemas operativos em que testámos as aplicações (Linux e Windows), as quatro ferramentas foram suportadas. Todos os Web browsers testados (Mozilla Firefox, Internet Explorer, Google Chrome e Safari) são compatíveis com as quatro ferramentas, o que potencializa ainda mais as ferramentas. A Tabela 6.3 apresenta os resultados para as quatro ferramentas, relativamente aos tipos de bases de dados suportados por cada uma. Os tipos de base de dados avaliados, foram selecionados mediante a lógica de mais utilizados e mais comuns entre as ferramentas. Tabela 6.3. Avaliação quanto aos tipos de base de dados suportados Tipos de Base de dados Ferramentas de Business Intelligence Open Source suportadas JasperSoft Pentaho SpagoBI Vanilla MySQL Oracle SQL Server Access PostgreSQL Hypersonic Base de dados genéricas Outros A Tabela 6.3 permite identificar que existe alguma discrepância em termos de resultados, não existindo uma ferramenta que se destaque maioritariamente. Da análise podemos reter que todas as ferramentas suportam base de dados MySQL e todas possibilitam 65

81 CAPÍTULO 6 acesso a dados provenientes de bases de dados genéricas (dados provenientes de ficheiros Excel por exemplo). A Tabela 6.4 apresenta uma avaliação relativamente às funcionalidades disponíveis pelas componentes OLAP de cada ferramenta. Tabela 6.4. Funcionalidades OLAP Análises OLAP Ferramentas de Business Intelligence Open Source JasperSoft Pentaho SpagoBI Vanilla Navegação OLAP MDX Editor Configurar tabelas Mostrar propriedades Escolher opções de visualização Suprimir colunas/linhas sem dados Mudar disposição de eixos Drill Menber Drill Position Drill Replace Drill Through Mostrar gráficos Configurar gráficos Configurar output Configurar impressão Output para Excel Imprimir em PDF Guardar opções A Tabela 6.4 permite-nos avaliar que todas as ferramentas possuem navegação OLAP, fazem uso da funcionalidade MDX Editor, permitem a criação de gráficos dos cubos de dados e permitem exportar dados para Excel e em formato PDF. Uma curiosidade é o facto de JasperSoft não disponibilizar funcionalidades de Drill sobre os dados. A Tabela 6.5 apresenta uma avaliação relativamente às funcionalidades disponíveis na secção de dashboards. 66

82 CAPÍTULO 6 Tabela 6.5. Funcionalidades de Dashboards Dashboards Ferramentas de Business Intelligence Open Source JasperSoft Pentaho SpagoBI Vanilla Tabelas Medidores Gráficos de progressão Gráficos de barras Gráficos de colunas Gráficos circulares Gráficos de área Gráficos de bolhas A Tabela 6.5 ilustra a ausência da possibilidade de construir gráficos de bolhas na ferramenta Vanilla. Os restantes elementos avaliados são suportados por todas as ferramentas. A Tabela 6.6 especifica as caraterísticas avaliadas sobre KPIs, de notar que JasperSoft não tendo funcionalidades de KPI regista incumprimento ao conjunto de aspetos avaliados. As restantes ferramentas satisfazem todas as especificações. Tabela 6.6. Avaliação aos elementos de KPIs KPIs Ferramentas de Business Intelligence Open Source JasperSoft Pentaho SpagoBI Vanilla Descrição Informação Ilustração A Tabela 6.7 apresenta resultados relativos às caraterísticas da secção de construção e visualização de relatórios. Analisando a tabela é possível verificar que todos os elementos de avaliação foram cumpridos pelas quatro ferramentas. Tabela 6.7. avaliação das caraterísticas dos relatórios Relatórios Ferramentas de Business Intelligence Open Source JasperSoft Pentaho SpagoBI Vanilla Desenho Templates Estruturação Visualização A Tabela 6.8 apresenta os resultados da avaliação do portal das quatro ferramentas BI em relação às línguas que cada uma suporta. As línguas analisadas são o conjunto de línguas suportadas pelas quatro ferramentas. 67

83 CAPÍTULO 6 Tabela 6.8. Avaliação do portal quanto à internacionalização Línguas do Portal Ferramentas de Business Intelligence Open Source JasperSoft Pentaho SpagoBI Vanilla Português Brasil Espanhol Françês Inglês Italiano Alemão Holandês Chinês Analisando a tabela concluímos que Pentaho é a ferramenta com maior internacionalização, JasperSoft a menos internacionalizada e que todas as ferramentas disponibilizam a aplicação em inglês. Após uma análise mais técnica e relativamente às caraterísticas e funcionalidades, passamos agora a avaliar as ferramentas numa avaliação mais pessoal e relativamente a aspetos de usabilidade e suporte. A Tabela 6.9 apresenta uma avaliação na escala de 1 a 5 relativamente a alguns parâmetros de avaliação, em que 5 representa a escala máxima e 1 o valor mínimo da escala. Tabela 6.9. Classificação das ferramentas na escala de 1 a 5 Parâmetros de avaliação Ferramentas de Business Intelligence Open Source JasperSoft Pentaho SpagoBI Vanilla Facilidade de aquisição Facilidade de instalação Facilidade de utilização Qualidade de Interacção com o Utilizador Velocidade de processamento Facilidade na compreensão de código Informação disponível Documentação Fóruns Classificação da página de suporte Total A tabela 6.9 apresenta dados de ordem pessoal, estes dados resultam da avaliação realizada no decorrer da utilização das ferramentas. Os valores apresentados pelo campo total da tabela permite avaliar Pentaho como a ferramenta que amealhou um maior número de pontos na classificação, e SpagoBI com o menor número total apresentado. 68

84 CAPÍTULO 6 Voltando a repetir parte da tabela anterior vamos atribuir novos valores a cada uma das ferramentas tendo em conta uma escala de preferências de 1 a 4 em que 1 representa a ferramenta com maior preferência e 4 a de menor preferência. A Tabela 6.10 apresenta os resultados obtidos da nossa apreciação. Tabela Classificação das ferramentas de 1 a 4 tendo em conta a preferência Parâmetros de avaliação Ferramentas de Business Intelligence Open Source JasperSoft Pentaho SpagoBI Vanilla Facilidade de aquisição Facilidade de instalação Facilidade de utilização Qualidade de Interacção com o Utilizador Velocidade de processamento Informação disponível Documentação Fóruns Classificação da página de suporte Total Na tabela Pentaho é a ferramenta de maior destaque, sendo a preferida em 6 parâmetros de avaliação num total de 9. O campo total representado na tabela deve ser interpretado tendo em conta que a menor soma será a que apresenta um nível de preferência mais alto. Da análise da tabela constatamos que JasperSoft e Vanilla apresentam a mesma soma enquanto que SpagoBI fica um pouco mais atrás. Mediante todos estes dados e focando essencialmente a nossa decisão nas avaliações de ordem pessoal, pela estabilidade que apresenta, pelas funcionalidades que disponibiliza, pela quantidade de documentação e pelos valores expressos na linha total consideramos que Pentaho é a melhor ferramenta de Business Intelligence open source Conclusão da avaliação Após a avaliação dos quatro pacotes de soluções BI, e tendo em conta os resultados obtidos dessa avaliação procedemos à escolha da aplicação a ser utilizada num projeto empresarial de âmbito real numa PME. A nossa escolha recaiu sobre a ferramenta Pentaho, não pela sua maior popularidade a nível de mercado mas essencialmente pelas funcionalidades que disponibiliza e mais importante ainda pela quantidade de elementos de suporte que possui (documentação, fóruns de discussão, apoio ao cliente, etc.). Quando falamos de ferramentas open source, normalmente uma das principais desvantagens é a escassez de documentação de suporte, esse é um entrave claro nos outros três pacotes de ferramentas. SpagoBI é claramente a aplicação que possui menos documentação, talvez por ter estado descontinuada durante algum período de tempo recentemente. Ainda assim, SpagoBI face à quantidade de 69

85 CAPÍTULO 6 funcionalidades que apresenta esperava-se que possuísse maior número de elementos de suporte. Se recorrermos a um motor de busca Web (no nosso caso utilizámos o Google, que é o mais utilizado) e procurarmos pelo nome das quatro ferramentas podemos verificar e comparar a percentagem de documentação existente para cada ferramenta. O gráfico ilustrado na Figura 6.1, representa os valores em percentagem do número de referências a cada ferramenta encontrados na Internet. Vanilla 7% Google SpagoBI 16% Pentaho 24% JasperSoft 53% Figura 6.1. Percentagem de referências encontradas, relativamente a cada ferramenta Da análise à Figura 6.1 é possível verificar que JasperSoft possui a maior percentagem de referências, este fator pode dever-se ao facto de elementos JasperSoft suportarem outras ferramentas, nomeadamente, SpagoBI, Vanilla, Pentaho, ferramentas de CRM, etc. Um dos exemplos de utilização de ferramentas JasperSoft é a utilização dos módulos JasperReports para a criação de relatórios em várias outras ferramentas. Pentaho surge na segunda posição com aproximadamente um quarto da percentagem total, estes números são um pouco enganadores porque na prática Pentaho disponibiliza mais suporte e mais documentação, o que nos leva a justificar este facto com o célebre provérbio de que Quantidade não é qualidade!. SpagoBI surge com uma quota modesta de 16%, surgindo como a terceira ferramenta com mais documentação, este fator pode ser justificado tendo em conta que SpagoBI passou por um período em que esteve desativo, embora recentemente tenha sido novamente continuado. Por fim, Vanilla ocupa apenas 7% da totalidade dos registos de documentação, o facto de ser uma ferramenta recente pode incidir sobre os resultados apresentados. 70

86 CAPÍTULO 7 7. IMPLEMENTAÇÃO NUMA PME Após a análise das ferramentas e a consequente escolha de Pentaho como a melhor solução a aplicar na nossa demonstração prática, surgiu a oportunidade de envolvimento do nosso trabalho com um projeto empresarial de âmbito real numa PME. O projeto consiste na construção de uma Data Warehouse, partindo de um modelo de base de dados relacional de um sistema de controlo de parques de captura de energias renováveis (eólica e solar), fornecido por uma PME que apoiou o nosso projeto. Na nossa aplicação prática tivemos o cuidado de utilizar apenas software open source exceto: o Sistema Operativo, pelo simples facto de que no ambiente empresarial não se utilizar o Sistema Operativo Linux; e a ferramenta de arquitetura de Base de Dados, Power Designer 12.5, tendo em conta a necessidade de transformar a base de dados fornecida, SQL Server para MySQL. De seguida apresentaremos de forma sucinta todos os passos abrangidos na implementação prática do nosso projeto Instalação de Pentaho em Windows Anteriormente em 6.3 descrevemos os passos de instalação de Pentaho Server 3.8 no sistema operativo Ubuntu, mas tendo em conta que o projeto prático será implementado em sistemas operativos Windows procedemos à instalação do servidor Pentaho também em sistema operativo Windows. De seguida apresentamos os passos de instalação da ferramenta no sistema operativo Windows (a versão utilizada foi o Windows XP). Passo1 Instalar Java (sun) O primeiro passo para a instalação da ferramenta Pentaho é proceder à instalação do JDK (Java Development Kit) caso ainda não se encontre instalado. Para proceder ao download do ficheiro de instalação basta aceder em escolhendo a versão do JDK tendo em conta a arquitetura do computador (32/64 bits). Após o download deve proceder à instalação do JDK através da execução do ficheiro obtido. Passo 2 Definir as variáveis de sistema A execução de Pentaho em Windows requer a configuração das variáveis JAVA_HOME e JRE_HOME. Para a configuração das variáveis basta aceder ao painel de controlo do computador, selecionar sistemas, em sistemas seleciona-se a aba de 71

87 CAPÍTULO 7 configurações avançadas, clicando-se de seguida em variáveis de ambiente. Para criar uma nova variável seleciona-se a opção novo em variáveis de utilizador. Surgirá uma janela como a representada nas figuras 7.1 e 7.2, que ilustram a nossa configuração das variáveis. O campo nome da variável deve ser preenchido com o nome de cada uma das variáveis enquanto que no valor da variável deve surgir informação relativamente ao diretório em que se encontram instaladas as componentes JDK e JRE do Java. Figura 7.1. e 7.2. Configuração das variáveis JAVA_HOME e JRE_HOME Passo 3 Instalação de Pentaho BI Server 3.8 Para proceder ao download do ficheiro de instalação de Pentaho BI Server CE 3.8 acedemos à página Intelligence%20Server/3.8.0-stable/. Procedemos ao download da versão estável 3.8 (definida como stable) descarregando o ficheiro biserver-ce stable.zip. Criamos um novo diretório pentaho e descompactamos o ficheiro biserver-ce stable.zip O nosso diretório Pentaho contém dois diretórios, ( administration-console e biserver-ce ). Para iniciar o Pentaho execute o ficheiro start-pentaho.bat Digite o endereço e verifique se funciona. 72

88 CAPÍTULO 7 Figura 7.3. Servidor Pentaho BI CE 3.8 instalado com sucesso Os tipos de utilizador e as respetivas senhas, já se encontram atribuídas por defeito, basta selecionar o utilizador e o campo senha é preenchido automaticamente. Existem quatro tipos de utilizadores registados no Pentaho BI Server CE 3.8, sendo eles (Utilizadore Pentaho, 2011): Joe Diretor executivo este utilizador possui permissões de administrador, é lhe atribuída a possibilidade de utilizar todas as funcionalidades de Pentaho e permissão total sobre o Pentaho User Console. Suzy Diretora de Tecnologia este tipo de utilizador usufrui de permissões de utilizadores comuns, diretor de tecnologia e serviços de informação. Pat Desenvolvedor este utilizador pode usufruir das funcionalidades de utilizadores comuns (visualizar elementos) e ainda possui poder para desenvolver elementos. Tiffany Gerente de desenvolvimento este tipo de utilizador possui permissões de utilizador comum, desenvolvimento e gestão de desenvolvimento. A senha de acesso para todos os tipos de utilizadores é password. No nosso caso prático iremos utilizar o tipo de utilizador Joe, que nos permite usufruir de todas as funcionalidades disponibilizadas pelo servidor Pentaho Construção da Data Warehouse A aplicação prática do nosso projeto tem por base implementar uma ferramenta de BI open source (neste caso Pentaho) sobre um sistema de controlo de parques de captura de energias renováveis (eólicos e solares). A nossa componente prática incide apenas sobre 73

89 CAPÍTULO 7 parques eólicos, ainda que a base de dados dos sistemas seja comum e a DW desenvolvida possa suportar os dois tipos de parques. Da realização de um workshop com o cliente, foi possível conhecer melhor a base de dados do sistema de suporte aos parques de captura de energias renováveis e especificar as necessidades a suportar pela Data Warehouse a construir. O cliente forneceu-nos uma base de dados SQL Server, o primeiro objetivo é transformála numa base de dados open source, neste caso escolhemos MySQL. No processo de transformação do modelo da base de dados de SQL Server para MySQL utilizámos a ferramenta Power Designer 12.5, que possui uma funcionalidade de Reverse Engineer, que nos permite transformar o script de base de dados fornecido para o seu modelo físico de arquitetura. Posteriormente é possível gerar uma nova base de dados a partir do modelo físico da arquitetura da base de dados fornecida pela empresa. Os passos seguintes ilustram o procedimento de transformar a base de dados de SQL Server em MySQL. Inicialmente é necessário proceder à opção de Reverse Engineer do script de base de dados para obter o modelo físico. Após inicializar a ferramenta, no separador File temos a opção Reverse Engineer, dentro dessa opção vamos escolher a opção Databases. A Figura 7.4 ilustra o primeiro passo do procedimento de Reverse Engineer e ajuda a compreensão dos passos. Figura 7.4. Opção de Reverse Engineer O primeiro passo, como demonstra na Figura 7.4 é aceder ao menu File, selecionar a opção Reverse Engineer e escolher a opção Database. 74

90 CAPÍTULO 7 De seguida surge-nos uma janela na qual devemos especificar o nome que pretendemos atribuir ao modelo físico e indicar qual o tipo de base de dados que pretendemos converter, neste caso Microsoft SQL Server A Figura 7.5 ilustra estes passos. Figura 7.5. Escolha do tipo de base de dados a converter Após a confirmação do passo anterior, surge uma nova janela, nesta janela devemos especificar o caminho do script SQL da base de dados a converter, selecionando o primeiro ícone da janela ou premindo a conjunção de teclas Ctrl + N. A Figura 7.6 ilustra este passo. 75

91 CAPÍTULO 7 Figura 7.6. Selecção do script SQL da base de dados Após a confirmação dos passos anteriores, deve surgir no ecrã uma barra de progresso do processo de Reverse Engineer, como mostra a Figura 7.7,o relatório do processo de execução da operação surge ilustrado na parte inferior da imagem. Figura 7.7. Progresso da ação de Reverse Engineer 76

92 CAPÍTULO 7 Finalmente, temos o processo de Reverse Engineer finalizado, e a arquitetura do modelo físico da base de dados gerada. A Figura 7.8 mostra parte da arquitetura do modelo físico da base de dados gerada nos passos anteriores. Figura 7.8. Modelo físico da base de dados Os próximos passos coincidem com a transformação do modelo físico atual para uma base de dados MySQL. Para continuar com o processo, primeiramente é necessário proceder à seleção do tipo de base de dados corrente e seleção do tipo de base de dados futura. Na ferramenta Power Designer 12.5 é necessário especificar antes de gerar novos elementos o tipo de base de dados corrente e o novo tipo de base de dados, caso seja diferente. No nosso caso, pretendemos transformar um modelo físico de uma base de dados SQL Server numa base de dados MySQL, o que obriga a este procedimento. No separador Database devemos selecionar a primeira opção Change Current DBMS, como demonstra na Figura

93 CAPÍTULO 7 Figura 7.9. Opção de Seleção de tipo de base de dados atual e futuro Após a seleção da opção surge-nos uma janela no ecrã como mostra a Figura 7.10, em que devemos especificar na área New da aba General, o tipo de base de dados que pretendemos gerar, neste caso MySQL 5.0, como mostra a Figura Figura Seleção do tipo da nova base de dados 78

94 CAPÍTULO 7 Posteriormente procedemos aos passos para gerar a nova base de dados, no separador Database devemos selecionar a opção Generate Database ou pressionar o conjunto de teclas Ctrl + G. A Figura 7.11 mostra o passo descrito. Figura Seleção da opção para gerar a nova base de dados Surgirá no ecrã uma janela na qual deve ser selecionado o diretório a guardar o script de base de dados gerado e especificar o seu respetivo nome. Este passo é ilustrado pela Figura Figura Escolha de diretório e nome do ficheiro 79

95 CAPÍTULO 7 Após a confirmação do passo anterior, surgirão duas novas janelas no ecrã, uma com a lista de resultados do processo de gerar a base de dados e uma outra com a descrição do ficheiro gerado, sendo possível editar esse ficheiro através da ferramenta Bloco de Notas. A Figura 7.13 ilustra as novas janelas no ecrã, resultantes do passo anterior. Figura Ficheiro gerado Ao editarmos o ficheiro na opção Edit, surge-nos no ecrã o ficheiro em Bloco de Notas, como ilustra a Figura Figura Script base dados em Bloco de Notas 80

96 CAPÍTULO 7 A Figura 7.14 ilustra parte do script da base de dados, contendo informação relativamente ao tipo de base dados, data de criação e a respetiva sintaxe MySQL. Agora que já geramos o script MySQL da base de dados do sistema de recolha de energias, vamos corrê-lo também numa ferramenta open source, HeidiSQL 6.0. A Figura 7.15 ilustra o ambiente de trabalho da ferramenta, do lado esquerdo da figura é possível ver parte da lista de tabelas geradas pelo script, ao centro da figura na área de Query, foi colocada a totalidade do script a executar, na parte inferior da imagem surge a descrição de todos os passos executados na sessão atual da aplicação. Figura Ambiente de trabalho da ferramenta HeidiSQL 6.0 Neste momento já conhecemos a estrutura da base de dados, as suas tabelas e os seus campos, conhecemos assim os elementos que vão sustentar a nossa Data Warehouse. Posteriormente foi-nos fornecido um script de dados para inserção na base de dados, que foi executado como no passo anterior. Nos próximos passos apresentaremos uma descrição sucinta da construção da nossa Data Warehouse para o sistema de controlo de parques eólicos e solares. O projeto tem como principal objetivo a implementação de uma ferramenta de Business Intelligence open source, num sistema de gestão de energias renováveis. O sistema que irá suportar o nosso projeto foi concebido de forma a oferecer suporte ao sistema de energias eólicas e ao sistema de energias solares. A construção de uma Data Warehouse segue vários passos, que passamos a enumerar de seguida. 81

97 CAPÍTULO Descrição do Negócio O sistema de gestão de parques eólicos e solares, tem como principal objetivo controlar e registar as ações diárias dos diversos elementos que o constituem. É essencial o controlo dos diversos dados relacionados com o funcionamento dos diferentes elementos desses mesmos parques. Sucintamente a atividade de negócio prende-se com o controlo de todos os elementos constituintes de um parque de energias renováveis e a medição dos valores diários de energia capturados pelos elementos de cada parque Objetivo O principal objetivo na construção da nossa Data Warehouse é controlar os diferentes elementos que constituem o sistema de captura de energias e monitorizar a sua rentabilidade, funcionamento e controlo de incidentes registados Desafio Planeamento e construção de uma Data Warehouse que guarde a informação essencial do sistema de controlo de parques de energias renováveis, parques eólicos e solares Estratégia A principal estratégia na construção da Data Warehouse é a construção de um modelo de arquitetura que suporte o sistema de gestão de energias eólicas e o sistema de gestão de energias solares Questões às quais a DW deve conseguir responder Quando se desenvolvemos uma DW é importante definir qual a estrutura que deve ter, fazendo uma seleção da informação que realmente é necessária para avaliar os processos de negócio. Posto isto, é importante que o cliente ou representante do cliente elabore uma descrição detalhada sobre o conjunto de métricas que pretende extrair do negócio. O desenvolvimento de uma DW tem o fundamento de tentar reunir a informação que suporte as necessidades exigidas pelo cliente. Desta forma, o cliente deve colocar as questões às quais quer obter resposta por parte da DW. Em seguida enumeramos um conjunto de questões que o cliente quer ver esclarecidas através da nossa implementação prática. Qual o parque que produz mais energia? Qual o ramal que produz mais energia? Qual a torre por ramal que produz mais energia? Quais as condições climatéricas que contribuem para uma maior produção de energia? Qual a posição geográfica mais rentável na produção de energia? Qual a época do ano mais propicia à captura de energia? Qual o tipo de torres que detém melhores índices de rendimento? Qual o tipo de torres mais suscetíveis de avarias? Qual o tempo médio de reparação de avarias por tipo? Qual o tipo de reparação mais dispendiosa? Quais os valores médios de energia capturada por dia, por parque e por ramal? 82

98 CAPÍTULO Granularidade Define-se por granularidade o grau de detalhe a que uma DW deve responder. A informação guardada numa DW poderá ter maior detalhe ou menor detalhe tendo em conta as exigências da avaliação estipulada pelo cliente. Se analisarmos uma dimensão tempo o nosso nível de granularidade pode repartir-se em (ano, semestre, trimestre, mês, semana, dia, hora, minuto, segundo), ou simplesmente (ano, mês, dia, hora). Quantidade de energia produzida por parque, por ramal, por torre, por dia. Custos manutenção por tipo de avaria, por elemento, por tempo dispendido Identificação de estrelas e dimensões Da reunião do conjunto de elementos descritos anteriormente, procedemos à identificação das estrelas, dimensões e tabelas de factos. Da nossa análise idealizámos a criação de um modelo arquitetónico de DW constituído por duas estrelas, uma estrela relacionada com os processos de recolha de energia e uma estrela para registo de avarias e incidentes. A Tabela 7.1 apresenta as estrelas, as suas respetivas dimensões e as tabelas de factos. Tabela 7.1. Arquitetura da DW a construir Estrela Dimensões Factos Captura de energia Parque Elemento Tempo Factos_energy Manutenção Parque Elemento Tempo Incidente Responsabilidade Factos_average A partir das descrições presentes na Tabela 7.1. procedemos à criação do modelo concetual da Data Warehouse. Para a criação dos modelos, concetual e físico utilizámos também a ferramenta Power Designer A Figura a ilustra o modelo conceptual da arquitetura da DW. Segundo a nossa perspetiva, vamos ter uma DW com duas estrelas, suportadas por duas tabelas de factos e cinco dimensões. A estrela relacionada com os processos de recolha de energia é composta pela tabela de factos (Factos_Energy) que guarda as métricas (activepower, reactivepower e solarradiation) e interage com as dimensões (Park, Element e Time). A dimensão Park guarda todos os dados relacionados com o parque eólico/solar. A dimensão Element regista os dados relativamente a cada elemento de captura de energia que constitui o parque. A dimensão Time é a dimensão responsável por associar cada registo ao momento em que acontece, registando dados de 15 em 15 83

99 CAPÍTULO 7 minutos, fazendo uma média dos resultados registados a cada intervalo de 15 minutos. Estas três dimensões também constituem a estrela de ocorrências de avarias composta pela tabela de factos (Factos_Average) que regista as métricas (power, duration e solarradiation), que registarão o valor de power a duração do incidente e os valores de radiação solar de modo a perceber a gravidade do problema tendo em conta a energia que não foi possível capturar nesse intervalo de tempo. Esta estrela é ainda composta pelas dimensões (Responsability e incident) que guardam o tipo de responsabilidade e dados relativamente ao incidente (descrição, duração e estado de resolução) respetivamente. A Figura 7.16 que se segue ilustra a arquitetura do modelo concetual da DW construída. Factos_Energy activepower Float reactivepower Float solarradiation Float Factos_Energy_Park Factos_Energy_Element Factos_Energy_Time ID_Park <pi> name country zone cluster installed_power Key_1 <pi> Park Integer <M> Variable characters (60) Variable characters (60) Variable characters (60) Variable characters (60) Integer ID_Element <pi> name type brand model softwareversion manufacturedate diameter minimumunavailability Key_1 <pi> Element Integer <M> Variable characters (60) Integer Variable characters (60) Variable characters (60) Variable characters (20) Variable characters (50) Variable characters (50) Variable characters (50) ID_Time year moth day hour <pi> Key_1 <pi> Time Integer <M> Integer Variable characters (10) Integer Variable characters (8) Factos_Average_Park Factos_Average_Element Factos_Average_Time Factos_Average power duration solarradiation Integer Float Float Factos_Average_Responsability Factos_Average_Incident ID_Responsability type Key_1 <pi> Responsability <pi> Integer <M> Variable characters (60) Figura Modelo concetual da DW. No modelo concetual, as tabelas de factos (factos_energy e factos_average) apenas possuem os atributos que representam as métricas que se pretendem extrair. Todas as relações entre as tabelas são do tipo 1:N em que as dimensões estão do lado 1 e as tabelas de factos do lado N, de modo a que ao gerar o diagrama físico, as tabelas de factos tendo em conta a normalização, recebam todas as chaves primárias de cada uma das dimensões como chaves forasteiras, para que possuam toda a informação relativamente a cada registo. Incident ID_Incident descriptionincident durationincident stateincident <pi> Integer Variable characters (60) Variable characters (60) Variable characters (60) Key_1 <pi> <M> 84

100 CAPÍTULO 7 A Figura 7.17 ilustra a arquitetura do modelo físico da DW, o modelo físico é o novo modelo que resulta da normalização definida no modelo conceptual, representado na Figura No novo modelo gerado, as únicas diferenças surgem nas tabelas de factos (Factos_Energy e Factos_Average), que recebem como chaves forasteiras (foreign keys) os atributos chave primária (primary key) de cada uma das dimensões a si associadas. Os elementos ID de cada dimensão vão permitir associar todos os registos guardados na DW e obter informação mais detalhada quando necessário. O modelo físico é gerado automaticamente no Power Designer 12.5, selecionando a opção Generate Physical Data Model no separador Tools ou premindo o conjunto de teclas Ctrl + Shift + P. ID_Park ID_Element ID_Time activepower reactivepower solarradiation Factos_Energy int int int float float float <fk1> <fk2> <fk3> FK_FACTOS_ENERGY_PARK FK_FACTOS_ENERGY_ELEMENT FK_FACTOS_ENERGY_TIME ID_Park name country zone cluster installed_power Park int varchar(60) varchar(60) varchar(60) varchar(60) int <pk> Element ID_Element name type brand model softwareversion manufacturedate diameter minimumunavailability int varchar(60) int varchar(60) varchar(60) varchar(20) varchar(50) varchar(50) varchar(50) <pk> ID_Time year moth day hour Time int int varchar(10) int varchar(8) <pk> FK_FACTOS_AVERAGE_TIME FK_FACTOS_AVERAGE_PARK FK_FACTOS_AVERAGE_ELEMENT ID_Element ID_Park ID_Time ID_Incident ID_Responsability power duration solarradiation Factos_Average int int int int int int float float <fk1> <fk2> <fk3> <fk4> <fk5> FK_FACTOS_AVERAGE_RESPONSABILITY FK_FACTOS_AVERAGE_INCIDENT ID_Responsability type Responsability int varchar(60) <pk> Incident ID_Incident descriptionincident durationincident stateincident int varchar(60) varchar(60) varchar(60) <pk> Figura Modelo físico da DW. 85

101 CAPÍTULO 7 A Figura 7.17 ilustra a arquitetura do modelo físico que sustenta a nossa DW. Para uma melhor perceção da estrutura da nossa DW, vejamos em detalhe a descrição de cada uma das tabelas (dimensões e factos) que constituem a arquitetura da DW Tabela de factos Factos_Eenrgy A tabela Factos_Energy é a tabela de factos da estrela de produção de energia responsável por estabelecer a ligação com as dimensões que constituem a mesma estrela. A Figura 7.18 ilustra a estrutura da tabela em análise. Figura Tabela de factos Factos_Energy Os atributos da tabela ilustrada na Figura 7.18 são os atributos chave de cada uma das dimensões da estrela de captura de energia e as métricas activepower (mede o valor da potência ativa), reactivepower (mede o valor da potência reativa) e solarradiation (que mede os valores da radiação solar) Dimensão Park ID_Park ID_Element ID_Time activepower reactivepower solarradiation Factos_Energy int int int float float float <fk1> <fk2> <fk3> A dimensão Park é responsável por guardar o registo de dados relacionados com cada parque de captura de energias renováveis. A Figura 7.19 ilustra a estrutura da tabela da dimensão Park. A dimensão Park é partilhada também pela estrela de manutenção. ID_Park name country zone cluster installed_power Park int varchar(60) varchar(60) varchar(60) varchar(60) int Figura Dimensão Park A dimensão Park é composta pelo atributo chave primária (ID_Park), atributos de informação relativamente ao parque como: nome (name); país de localização (country); zona de localização (zone); identificação do cluster (cluster); e o valor de potência instalada (installed_power). <pk> 86

102 CAPÍTULO Dimensão Element A dimensão Element é responsável por guardar informação relativamente a cada elemento constituinte do parque de captura de energias renováveis. A Figura 7.20 ilustra a estrutura da tabela relativa à dimensão Element. A dimensão Element é partilhada também pela estrela de manutenção. Element ID_Element name type brand model softwareversion manufacturedate diameter minimumunavailability int varchar(60) int varchar(60) varchar(60) varchar(20) varchar(50) varchar(50) varchar(50) <pk> Figura Dimensão Element A tabela relativa à dimensão Element é composta pelo seu atributo chave primária (ID_Element), e por um conjunto de informação relativamente à descrição do elemento e suas caraterísticas. Os atributos que a completam são: descrição do elemento (name); tipo de elemento (type); marca do elemento (brand); modelo (model); versão do software instalado no elemento (softwareversion); data de fabrico (manufacturedate); diâmetro (diameter); e indisponibilidade mínima (minimumunavailability) Dimensão Time A dimensão Time é responsável por guardar dados relacionados com o tempo. A Figura 7.21 mostra a constituição da tabela. A dimensão Time é partilhada também pela estrela de manutenção. Time ID_Time year moth day hour int int varchar(10) int varchar(8) <pk> Figura Dimensão Time A tabela da dimensão Time é constituída pelo seu atributo chave primária (ID_Time) e pelos atributos que guardam informação relativamente ao ano (year), mês (moth), dia (day) e hora (hour) Tabela de factos Factos_Average A tabela de factos Factos_Average é responsável por interligar as dimensões da estrela de manutenção. A sua estrutura é composta pelos atributos chave primária de cada uma 87

103 CAPÍTULO 7 das dimensões da estrela de manutenção e das suas métricas ( power, duration e solarradiation ). A Figura 7.22 ilustra a estrutura da tabela. Factos_Average ID_Element ID_Park ID_Time ID_Incident ID_Responsability power duration solarradiation int int int int int int float float <fk1> <fk2> <fk3> <fk4> <fk5> Figura Tabela de factos, Factos_Average As métricas da tabela pretendem medir a capacidade do elemento danificado (power), a duração da avaria de modo a identificar os danos causados (duration) e a radiação solar que se fez sentir durante o período de tempo em que o equipamento esteve em fase de manutenção Dimensão Incident A dimensão Incident tem como objetivo guardar os dados relativos aos incidentes ocorridos. A Figura 7.23 ilustra a estrutura da tabela. Incident ID_Incident descriptionincident durationincident stateincident int varchar(60) varchar(60) varchar(60) <pk> Figura Dimensão Incident A dimensão Incident é composta pelo seu atributo chave primária (ID_Incident), pela informação descritiva do incidente (descriptionincident), duração do incidente (durationincident) e estado do incidente (stateincident). O incidente pode ter sete estados diferentes, sendo eles: Restored 100%. Open. Closed. Pending. Locally Recognized. Recognized. Restored < 100% Dimensão Responsability A dimensão Responsability é responsável por guardar informação relativamente ao tipo de responsabilidade dos agentes de manutenção sobre o incidente. 88

104 CAPÍTULO 7 Figura Dimensão Responsability A Figura 7.24 ilustra a tabela da dimensão Responsability, que é composta pelo atributo chave primária (ID_Responsability) e pelo atributo que regista o tipo de responsabilidade (type) Gerar código MySQL para a construção da DW Os passos de criação do código MySQL para gerar a Data Warehouse construída nos passos anteriores, são os mesmos que foram seguidos em 7.1. Para a criação do código MySQL para gerar a DW recorrendo ao Power Designer 12.5, basta seguir os passos ilustrados pelas figuras 7.11, 7.12, 7.13, 7.14 e Processos de ETL ID_Responsability type Responsability int varchar(60) O processo de ETL é dos passos mais importantes para o preenchimento correto da nossa Data Warehouse. Aquando do desenvolvimento dos processos de ETL ainda estávamos numa fase de avaliação das quatro ferramentas (JasperSoft, Pentaho, SpagoBI e Vanilla), posto isto a ferramenta escolhida para o desenvolvimento dos processos de ETL foi Talend. Esta escolha deveu-se ao facto de Talend ser adotada por todas as ferramentas BI em análise, ainda que Pentaho possua um módulo específico (Pentaho Data Integration), para os processos de ETL. Posteriormente analisámos o Pentaho Data Integration e classificamo-lo como uma ótima solução fácil de usar e bastante apelativa. Esta escolha surgiu também para demonstrar que as ferramentas open source têm a particularidade de se tornarem compatíveis, sendo que a conciliação/utilização de ferramentas diferentes é possível, complementando-se umas às outras. Após construída a Data Warehouse, e após a definição dos elementos chave da base de dados que seriam importantes analisar, procedemos ao inicio da construção do processo de ETL. <pk> Dimensão Park A dimensão Park é carregada através do processo de ETL ilustrado na Figura

105 CAPÍTULO 7 Figura Esquema de ETL de carregamento da dimensão Park A Figura 7.25 representa o esquema de ETL que permite carregar os dados da dimensão Park. Na figura é possível identificar 5 elementos diferentes: fontes de dados, tabela de mapeamentos, visualização de dados transformados, exportação de dados para um ficheiro Excel e carregamento da dimensão Park da DW. Os elementos power_plant, zone, country, cluster representam fontes de dados de entrada. O elemento tmap_1 é responsável pelo mapeamento de dados das várias fontes de dados para a dimensão park, para o ficheiro de Excel tfileoutputexcel_1 e para o visualizador de registos tlogrow_1. Os dados a carregar para a dimensão park da DW provêm de várias tabelas da base de dados original, que suporta o sistema de energias renováveis. Para uma melhor perceção do processo de extração de dados procedemos à descrição das consultas MySQL de cada elemento de entrada de dados. O elemento country segue a seguinte sintaxe MySQL de consulta. "SELECT country.cty_id, country.cty_name FROM country" O element zone contribui para o processo de transformação de dados com o resultado da consulta que se segue. "SELECT zone.zon_id, zone.cty_id, zone.zon_name FROM zone" O element power_plant fornece os dados resultantes da consulta seguinte. "SELECT power_plant.pwp_id, power_plant.nod_id, power_plant.zon_id, power_plant.ito_id, power_plant.clus_id, power_plant.gpp_last_update, power_plant.gpp_user_last_update, power_plant.gpp_deleted, 90

106 CAPÍTULO 7 power_plant.pwp_name, power_plant.pwp_company, power_plant.pwp_install_date, power_plant.pwp_installed_power, power_plant.pwp_link_point, power_plant.pwp_can_be_limited, power_plant.pwp_limite_type, power_plant.pwp_apparent_pow_limit_domain, power_plant.pwp_power_factor_domain, power_plant.pwp_apparent_power_limit, power_plant.pwp_reactive_power_limit, power_plant.pwp_type, power_plant.pwp_assigned_power, power_plant.pwp_max_feed_power, power_plant.pwp_max_reactive_power, power_plant.pwp_nominal_power FROM power_plant" Existem dois elementos power_plant, em que a consulta seguinte existe apenas para fornecer os dados necessários para a DW e o anterior é responsável por manter a relação com os atributos dos restantes elementos de entrada de dados. "SELECT power_plant.pwp_id, power_plant.nod_id, power_plant.zon_id, power_plant.ito_id, power_plant.clus_id, power_plant.pwp_name FROM power_plant" Por fim a fonte de dados cluster, que disponibiliza os dados resultantes da consulta que se segue. "SELECT cluster.clus_name, cluster.clus_id FROM cluster" A Figura 7.26 ilustra o element tmap_1, responsável por suportar o processo de mapeamento de dados de tabelas para as respetivas fontes de destino, aplicando alguns processos de transformação. 91

107 CAPÍTULO 7 Figura Ilustração do elemento tmap_1 Na Figura 7.26 é possível visualizar do lado esquerdo as fontes de dados, em que o atributo PWP_INSTALLED_POWER mapeia os seus dados para o atributo INSTALLED_POWER da dimensão Park e do ficheiro Excel. Do lado esquerdo da imagem estão representados os três elementos de saída de dados, a dimensão Park da DW (dimension_park), o ficheiro de Excel (park_data) e o visualizador de registos (tlr). Na zona inferior da imagem é possível visualizar o tipo de dados dos atributos de cada elemento e proceder à sua alteração bem como outras especificações (p.ex: tamanho dos campos). É possível inserir novos campos e proceder à eliminação de outros existentes em cada elemento de entrada e saída. A Figura 7.27 ajuda a perceber melhor qual a relação de cada elemento com os atributos da dimensão Park da DW. Figura Constituição da dimensão Park da DW. O elemento tlogrow_1 ilustrado no processo de ETL da dimensão Park, foi utilizado com a finalidade de facilitar a visualização dos dados gerados pelo processo 92

108 CAPÍTULO 7 para avaliar os resultados obtidos, antes de proceder ao carregamento direto dos dados para a DW. O tipo de dados visíveis através do elemento tlogrow_1 são os dados ilustrados na Figura 7.28 na parte central no canto inferior direito da imagem. Figura Ilustração dos dados visíveis através do visualizador de dados Por fim, vamos mostrar os dados mapeados para o ficheiro Excel. A Figura 7.29 ilustra as seis colunas dos dados mapeados através do elemento tmap_1. A possibilidade de exportar dados para ficheiros Excel é uma vantagem que possibilita a extração de informação e criação de gráficos de forma simples utilizando uma ferramenta de conhecimento comum para a grande parte dos recursos humanos de qualquer empresa. Figura Ficheiro Excel gerado pelo processo de ETL 93

109 CAPÍTULO Dimensão Element A dimensão Element tal como fora descrito anteriormente, tem como objetivo possuir informação diversa que permita identificar cada elemento de um parque de captura de energias renováveis. A Figura 7.30 mostra o esquema de ETL implementado. Figura Esquema do processo ETL da dimensão Element A dimensão element é suportada pelos elementos de entrada ( element, manufactureddate, minimumunavability, brand, diameter, model, name, element_type e softwareversion ), pelo elemento de mapeamento tmap_1 e pelo elemento de saida element. A fonte de dados element possui a seguinte sintaxe de consulta. "SELECT element.ele_id, element.ety_id, element.gpp_last_update, element.gpp_user_last_update, element.gpp_deleted FROM element" Tendo em conta que a dimensão Element é constituída pela descrição de vários elementos independentes, e tendo em conta a arquitetura da base de dados do sistema de controlo dos parques, alguns atributos necessitam de consultas com recurso à inclusão da cláusula WHERE, o preenchimento do campo manufactureddate requer uma consulta condicionada como descreve a sintaxe seguinte. "SELECT b.ele_id, b.ela_value_str FROM attribute_i18n a, element_attributes b WHERE ATI_NAME='Manufacture Date' and a.atr_id = b.atr_id;" O elemento de entrada minimumunavability fornece os dados provenientes da consulta que se segue, que também apresenta uma consulta condicionada. 94

110 CAPÍTULO 7 "SELECT b.ele_id, b.ela_value_str FROM attribute_i18n a, element_attributes b WHERE ATI_NAME='Minimum Unavailability' and a.atr_id = b.atr_id;" O elemento de entrada brand fornece os dados provenientes da seguinte consulta condicionada que se segue. "SELECT b.ele_id, b.ela_value_str FROM attribute_i18n a, element_attributes b WHERE ATI_NAME='Brand' and a.atr_id = b.atr_id;" O elemento de entrada diameter retorna os dados provenientes da consulta condicionada que se segue. "SELECT b.ele_id, b.ela_value_str FROM attribute_i18n a, element_attributes b WHERE ATI_NAME='Diameter' and a.atr_id = b.atr_id;" O elemento de entrada model disponibiliza o conjunto de dados provenientes da consulta condicionada: "SELECT b.ele_id, b.ela_value_str FROM attribute_i18n a, element_attributes b WHERE ATI_NAME='Model' and a.atr_id = b.atr_id;" O elemento de entrada name fornece os dados provenientes da consulta que se segue, que também apresenta uma consulta condicionada. "SELECT b.ele_id, b.ela_value_str FROM attribute_i18n a, element_attributes b WHERE ATI_NAME='Name' and a.atr_id = b.atr_id;" O elemento de entrada element_type apresenta os dados resultantes da consulta que se segue. "SELECT element_type.ety_id, element_type.gpp_last_update, element_type.gpp_user_last_update, element_type.gpp_deleted, element_type.ety_type, element_type.ety_pwp_type, element_type.ety_allow_multiple FROM element_type" O element de entrada softwareversion fornece os dados provenientes da consulta que se segue, que também apresenta uma consulta condicionada. "select ELE_ID, ELA_VALUE_STR From attribute_i18n a, element_attributes b where ATI_NAME = 'Software Version' and a.atr_id = b.atr_id;" 95

111 CAPÍTULO 7 O elemento de mapeamento tmap_1 surge representado na Figura 7.31 é possível visualizar a relação entre elementos de entrada através do elemento chave primária comum aos elementos chave forasteiras, essa representação surge ilustrada na figura do lado esquerdo através da representação das chaves de cor roxa presentes nas tabelas de atributos representadas. Neste caso o mapeamento é feito apenas para a dimensão Element. Figura Representação do elemento tmap_1 A Figura 7.32 representa de forma otimizada o conjunto dos atributos mapeados para a dimensão Element da DW. Figura Dimensão Element Na figura é fácil de analisar a proveniência dos dados de cada atributo da dimensão Element, os atributos da coluna Expression são provenientes das diferentes fontes, 96

112 CAPÍTULO 7 identificadas na primeira parte da descrição de cada atributo (fonte +. + atributo), enquanto que na coluna Column estão listados os atributos da dimensão Element da DW Dimensão Responsability A dimensão Responsability tem como objetivo guardar os dados relativamente à responsabilidade pela manutenção dos equipamentos. O processo de ETL desenvolvido para o carregamento de dados na dimensão responsability é o que surge ilustrado na Figura Figura Processo de ETL para a dimensão responsability O processo de ETL apresentado na Figura 7.33, é composto pelas fontes de entrada de dados ( incident, incident_cause e incident_cause_i18n ), pelo ficheiro Excel de saida tfileoutputexcel_1, pelo elemento de mapeamento tmap_1 e pela dimensão responsability da DW. Os dados fornecidos por cada elemento de entrada de dados são os que se fazem representar de seguida. A fonte de dados incident retorna os valores obtidos através da consulta que se segue. "SELECT incident.inc_id, incident.ics_id, incident.icl_id, incident.imd_id, incident.pke_id, incident.icc_id, incident.ids_id, incident.gpp_last_update, incident.gpp_user_last_update, incident.gpp_deleted, incident.inc_code, incident.inc_notes, incident.inc_start_date, incident.inc_end_date, 97

113 CAPÍTULO 7 incident.inc_impact FROM incident" A fonte de dados incident_cause retorna os valores obtidos através da consulta que se segue. "SELECT incident_cause.icc_id, incident_cause.gpp_last_update, incident_cause.gpp_user_last_update, incident_cause.gpp_deleted, incident_cause.icc_internal FROM incident_cause" A fonte de dados incident_cause_i18n, que é uma tabela que apresenta a tradução dos atributos, retorna os valores obtidos através da consulta que se segue. "SELECT incident_cause_i18n.icc_id, incident_cause_i18n.lgg_id, incident_cause_i18n.gpp_last_update, incident_cause_i18n.gpp_user_last_update, incident_cause_i18n.gpp_deleted, incident_cause_i18n.ici_name FROM incident_cause_i18n" A Figura 7.34 apresenta o processo de mapeamento praticado sobre o elemento tmap_1. O elemento tmap_1 apresentado na Figura 7.34 não acrescenta nada de novo relativamente aos elementos de mapeamento descritos nos passos anteriores. Figura Representação do elemento tmap_1 do processo de ETL 98

114 CAPÍTULO 7 A Figura 7.35 permite visualizar em maior detalhe a tabela de atributos que constituem a dimensão Responsability da DW Dimensão Incident Figura Dimensão Responsability A dimensão Incident é responsável por guardar todos os dados que descrevam um incidente. O processo de ETL para o carregamento de dados da dimensão Incident da nossa DW, surge representado na Figura Este processo é simples, apenas é apoiado por duas tabelas da base de dados, a tabela incident e a tabela que guarda os valores da tradução dos estados dos incidentes. O campo estado é preenchido com informação que permite descrever o estado de resolução/conhecimento do incidente. Para além dos elementos de entrada já descritos, o modelo é constituído ainda por um elemento de mapeamento de dados tmap_1, por um ficheiro Excel tfileoutputexcel_1 e pela dimensão incident da DW. Figura Modelo de ETL da dimensão Incident A tabela incident disponibiliza para mapeamento os dados resultantes da consulta que se segue. "SELECT incident.inc_id, incident.ics_id, incident.icl_id, incident.imd_id, incident.pke_id, incident.icc_id, incident.ids_id, incident.gpp_last_update, incident.gpp_user_last_update, incident.gpp_deleted, 99

115 CAPÍTULO 7 incident.inc_code, incident.inc_notes, incident.inc_start_date, incident.inc_end_date, incident.inc_impact FROM incident" Por sua vez a tabela incident_state_i18n disponibiliza os dados provenientes da consulta seguinte. "SELECT incident_state_i18n.ics_id, incident_state_i18n.lgg_id, incident_state_i18n.gpp_last_update, incident_state_i18n.gpp_user_last_update, incident_state_i18n.gpp_deleted, incident_state_i18n.ici_name FROM incident_state_i18n" A Figura 7.37 ilustra o elemento de mapeamento tmap_1, este elemento acrescenta algumas novidades face aos restantes, o recurso a um processo de transformação na ação de mapeamento de dados. Ao centro da imagem existe uma tabela, esta tabela permite inserir processos de transformação sobre os dados de entrada e mapeá-los para o destino após o processo de transformação. Figura Representação do elemento tmap_1 A dimensão possui um atributo duration que guarda valores relativamente à duração do incidente, os dados disponibilizados na tabela incident são as datas de inicio e as datas 100

116 CAPÍTULO 7 de fim do incidente ocorrido, pondo isto, necessitamos de definir uma expressão que através destes dois valores nos retorne a duração. A Figura 7.38 ilustra esses passos. Figura Definição de uma expressão para obter o valor da duração de tempo A Figura 7.38 demonstra o processo de construção de uma expressão que permita retornar o valor da duração do incidente. A estratégia é a subtracção da data de inicio à data de término para obter o total da duração do incidente. Para isto procedemos à utilização da expressão: TalendDate.diffDate(incident.INC_END_DATE,incident.INC_START_DATE, dd ) Em que dd define que a diferença deve ser exibida em dias. A Figura 7.39 representa a dimensão Incident em maior detalhe. Figura Dimensão Incident O elemento resultante da expressão surge representado na coluna Expression com a descrição Var.INC_END_DATE. 101

117 CAPÍTULO Dimensão Time A dimensão Time é uma exceção ao que tem sido descrito nos processos de ETL anteriores. Face à complexidade encontrada e à inexistência de documentação e funcionalidades específicas no Talend Open Studio 3.2 para o preenchimento de dimensões de tempo, o processo seguido no mapeamento de dados para a dimensão Time da DW foi diferente dos anteriores. A solução encontrada foi o desenvolvimento de um script em PHP (linguagem Web open source), que nos permitisse guardar dados para todos os meses em ficheiros diferentes e no final correr a totalidade do ficheiro no motor de base de dados de forma direta. Inicialmente foi estipulado em conjunto com o cliente, que a dimensão Time deveria possuir dados a partir do ano de 2008 e com registos de tempo de quinze em quinze minutos. Pondo estes dados desenvolvemos o script PHP que se segue, não exigindo grande esforço de compreensão. De um modo geral os aspetos que mudam do atual script para os outros desenvolvidos é o nome do ficheiro, o valor de inicio da variável $id, o valor de $ano, o valor relativamente ao dia máximo do mês em $dia<=?, em que? será o número total de dias de cada mês e a descrição do mês na cláusula de VALUES. <?php $ficheiro = fopen("janeiro.txt","w"); $id = 1; $hora = 0; $ano = 2008; for($dia = 1;$dia <= 31;$dia++){ for($h = 0;$h < 24;$h++){ $r = 0; for($r = 0;$r < 4;$r++){ Switch($r){ case 0: $str="insert INTO timer (ID_TIME,ano, mes, dia, hora) VALUES (".$id.",".$ano.",' January ',".$dia.",'".$h.":00');"; fputs($ficheiro,$str); $id+=1; break; case 1: $str="insert INTO timer (ID_TIME,ano, mes, dia, hora) VALUES (".$id.",".$ano.",' January ',".$dia.",'".$h.":15');"; fputs($ficheiro,$str); $id+=1; break; case 2: $str="insert INTO timer (ID_TIME,ano, mes, dia, hora) VALUES (".$id.",".$ano.",' January ',".$dia.",'".$h.":30');"; fputs($ficheiro,$str); $id+=1; break; 102

118 CAPÍTULO 7 case 3: $str="insert INTO timer (ID_TIME,ano, mes, dia, hora) VALUES (".$id.",".$ano.",'january',".$dia.",'".$h.":45');"; fputs($ficheiro,$str); $id+=1; break; } } } } fclose($ficheiro);?> De um modo geral, nas primeiras linhas é especificado o nome do ficheiro a produzir, e os valores das variáveis descritas em cima. Inicia-se um ciclo que vai desde o primeiro dia do mês até ao último dia. Dentro deste ciclo existe um ciclo para cada hora do dia, que inicia nas 0h e se prolonga até às 24h, mas dentro deste ciclo existe ainda um novo ciclo que é repetido quatro vezes, de modo a registar dados de quinze em quinze minutos, ou seja, quatro vezes por hora. A cada quarto de hora será produzida a respetiva linha no ficheiro, esta linha de carateres tem a particularidade de ser a concatenação de elementos que originam instruções MySQL prontas a correr no editor de base de dados Tabela de factos Factos_Energy As tabelas de factos são tabelas constituídas por chaves forasteiras de todas as dimensões da sua estrela e pelos atributos de medida. São compostas de algarismos e permitem aceder a toda a informação dos registos dos dados de cada dimensão. Após descritos todos os processos de ETL das dimensões vamos especificar agora os processos de ETL das tabelas de factos. A Figura 7.40 ilustra o processo de ETL da tabela de factos factos_energy. Figura Processo de ETL da tabela de factos factos_energy 103

119 CAPÍTULO 7 O processo de ETL é composto pelos elementos de entrada de dados ( park, element, activepower, reactivepower, SolarRadiation e timer ), os elementos de mapeamento tmap_1 e tmap_2, visualizador de dados tlogrow_1 e a tabela de factos da DW factos_energy. Os elementos disponíveis por cada elemento de entrada, são os disponibilizados pelas consultas que se seguem. A métrica activepower é satisfeita pela consulta que se segue, esta consulta recorre a uma cláusula WHERE para a seleção dos dados pretendidos, neste caso em que o atributo ANM_ID tenha o valor de "SELEC Tanalogical_values.PKE_ID, analogical_values.anv_value FROM analogical_values WHERE analogical_values.anm_id = '5001';" A métrica reactivepower é satisfeita pela consulta que se segue, esta consulta recorre a uma cláusula WHERE para a seleção dos dados pretendidos, neste caso em que o atributo ANM_ID tenha o valor de "SELECTanalogical_values.PKE_ID, analogical_values.anv_value FROM analogical_values WHERE analogical_values.anm_id = '5002';" A métrica SolarRadiation tendo em conta que é um valor instável durante todo o tempo, e tendo em conta que regista valores diferentes a cada quinze minutos, surgiu a necessidade de construir uma consulta complexa que nos permitisse guardar em cada quinze minutos o valor médio registado durante esse intervalo de tempo. A consulta que se segue representa essa operação. "SELECT ID_TIME, YEAR(criticalsys.analogical_values.ANV_TIMESTAMP) as \"ano2\", MONTHNAME(criticalsys.analogical_values.ANV_TIMESTAMP) as mes2, DAY(criticalsys.analogical_values.ANV_TIMESTAMP) as \"dia2\", HOUR(criticalsys.analogical_values.ANV_TIMESTAMP) as \"hora2\", (SELECT CASE WHEN MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP)>=00 AND MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP) <15 then 00 WHEN MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP)>=15 AND MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP) <30 then 15 WHEN MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP)>=30 AND MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP) <45 then 30 ELSE 45 END) as \"Minuto\", concat(hour(criticalsys.analogical_values.anv_timestamp),':', (SELECT CASE WHEN MINUTE(ANV_TIMESTAMP)>=00 AND MINUTE(ANV_TIMESTAMP) <15 then '00'WHEN MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP)>=15 AND 104

120 CAPÍTULO 7 MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP) <30 then 15 WHEN MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP)>=30 AND MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP) <45 then 30 ELSE 45 END) ) as \"time2\",avg(anv_value) as \"SolarRadiation\" FROM timer, criticalsys.analogical_values WHERE criticalsys.analogical_values.anm_id = 5006 and mes=monthname(criticalsys.analogical_values.anv_timestamp) and dia = DAY(criticalsys.analogical_values.ANV_TIMESTAMP) and ano=year(criticalsys.analogical_values.anv_timestamp) and hora=concat(hour(criticalsys.analogical_values.anv_timestamp),':', (SELECT CASE WHEN MINUTE(ANV_TIMESTAMP)>=00 AND MINUTE(ANV_TIMESTAMP) <15 then '00'WHEN MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP)>=15 AND MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP) <30 then 15 WHEN MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP)>=30 AND MINUTE(criticalsys.analogical_values.ANV_TIMESTAMP) <45 then 30 ELSE 45 END) )GROUP BY DAY(criticalsys.analogical_values.ANV_TIMESTAMP), HOUR(criticalsys.analogical_values.ANV_TIMESTAMP),Minuto;" O processo de ETL possui dois elementos de mapeamento, a Figura 7.41 demonstra a representação do elemento de mapeamento tmap_2, em que o único processo que ocorre é o carregamento dos valores da métrica de SolarRadiation e o respetivo valor de ID_TIME. Este mapeamento permite abordar de forma separada um processo mais complexo. Figura Representação do elemento tmap_2 A Figura 7.42 ilustra o elemento de mapeamento tmap_1 que permite o mapeamento para o visualizador de dados e para a dimensão da DW. O atributo SOLARRADIATION 105

121 CAPÍTULO 7 presente na tabela de factos recebe os valores provenientes de tmap_2 associados com ID_TIME. Figura Ilustração do elemento tmap_1 A Figura 7.43 apresenta de forma mais visível os atributos e a origem dos dados da tabela de factos factos_energy. Figura Tabela de factos factos_energy Tabela de factos Factos_Average A tabela de factos factos_average guarda a informação necessária relativamente a todos os dados relativos a incidentes e manutenção. O processo de ETL para o carregamento de dados nesta tabela de factos, é composto por seis fontes de dados de entrada ( park, element, SolarRadiation, timer, responsability e incident ), os elementos de mapeamento ( tmap_1 e tmap2 ) o visualizador de registos tlogrow_1 e a tabela de factos factos_average. 106

122 CAPÍTULO 7 A Figura 7.44.a ilustra o processo de ETL da tabela de factos factos_average. Figura Processo de ETL da tabela de factos factos_average O elemento tmap_2 é igual ao ilustrado na Figura 7.40, dispensando apresentações. Figura Representação do elemento tmap_2 O elemento tmap_1 possui também uma variável de expressão igual à especificada na Figura

123 CAPÍTULO 7 Figura Representação do elemento tmap_1 A Figura 7.47 ilustra a estrutura da tabela de factos factos_average, apresentando os atributos e a proveniência dos dados que sustentam cada atributo. Figura Tabela de factos factos_average O elemento tlogrow_1 utilizado neste esquema de ETL possui mais dados que o visualizador de registos ilustrado anteriormente na Figura A Figura 7.48 permite visualizar um grupo de dados através da utilização do visualizador de dados tlogrow_1. 108

124 CAPÍTULO 7 Figura Visualização dos dados com o elemento tlogrow_1 A Figura 7.48 permite visualizar através do elemento tlogrow_1 um conjunto de dados composto em oito colunas, tantas como o número de atributos definidos para a visualização Construção de Cubos OLAP Pentaho, tal como tem vindo a ser analisado, é uma ferramenta composta por módulos, em que, alguns desses módulos são construídos por comunidades externas, que se dedicam a construir módulos específicos de BI para integração no servidor de funcionalidades Pentaho. Nas análises e criação de cubos OLAP, a versão Pentaho Server 3.8 disponibiliza uma funcionalidade para criação de análises. Na nossa atividade prática utilizámos a ferramenta disponível para a criação de análises disponibilizada no servidor e ainda implementámos e explorámos mais duas, PAT Analysis Tool e Saiku. Para uma melhor perceção das capacidades de cada uma destas ferramentas vamos falar um pouco sobre cada uma delas, descrever os passos de instalação e proceder à construção de cubos OLAP com auxílio de cada uma delas. Um aspeto comum em cada um destes módulos é o recurso à linguagem MDX, que requer algum conhecimento e alguma informação sobre a mesma Linguagem MDX MDX (Multidimensional Expressions) é uma linguagem de consulta para bases de dados OLAP relacionais. A linguagem foi desenvolvida para consultar e manipular dados armazenados por cubos OLAP. Algumas das ferramentas que a utilizam conseguem 109

125 CAPÍTULO 7 converter sintaxe SQL para MDX ainda que não exista uma conversão base (Wikipédia- MDX, 2011). A sintaxe de MDX possui seis tipos de dados distintos. Escalar: pode representar um número ou uma cadeia de carateres. Dimensão ou Hierarquia: representa a dimensão de um cubo. (p.ex: [Tempo]) Nível: representa o nível de uma hierarquia de dimensão. (p.ex: [Tempo].[Ano].[Mês]). Membros: representa o membro de uma hierarquia de dimensão. (p.ex: [Tempo].[Mês].[dezembro 2011]). Tupla: representa um conjunto de dados agrupados. (p.ex: [Tempo].[Mês].[dezembro], [Clientes].[Zona].[All Clientes].[Coimbra], [Measures].[Sales]). Conjunto: representa um grupo de dados com a mesma dimensão ou hierarquia. (p.ex: {([Measures].[Sales], [Tempo].[Ano].[2006]), ([Measures].[Sales], [Tempo].[Ano].[2007])}). Para uma melhor compreensão vamos descrever um exemplo prático. SELECT NON EMPTY {[Measures].[pc sum(activepower)],[measures].[pc sum( SOLARRADIATION)]} ON COLUMNS, NON EMPTY {Hierarchize({Order({[pc dia].[all pc dias].children, [pc dia].[2].children, [pc dia].[5].children, [pc dia].[8].children, [pc dia].[21].children }, [pc dia].currentmember.name, ASC ) }) } ON ROWS FROM [dw_sisenergias2] A consulta acima apresenta no cubo de dados a soma das métricas (ACTIVEPOWER e SOLARRADIATION) por colunas e nas linhas do cubo os valores respetivos nos dias 2, 5, 8 e 21 de forma ascendente, com base na tabela dw_sisenergias2. Como podemos analisar a estrutura e a sintaxe é um pouco mais complexa que a linguagem SQL PAT Analysis Tool PAT Analysis Tool é um módulo de OLAP desenvolvido pela organização Analytical Labs, liderada por Tom Barber e Paul Stoellberger que idealizaram a construção de uma ferramenta open source que suportasse a realização de análises completas. No futuro a ideia da organização é subdividir o atual projeto por vários módulos de forma a fornecer uma ferramenta mais estruturada e com maior número de funcionalidades. PAT tem como objetivo apresentar os resultados de consultas à DW, através da representação de cubos de dados e gráficos ilustrativos das diferentes consultas. 110

126 CAPÍTULO Instalação de PAT Plugin 0.8 no Pentaho No nosso caso prático procedemos à instalação de uma versão PAT plugin que se instala com facilidade no servidor Pentaho BI Server CE 3.8 e em poucos passos torna-se funcional. O primeiro passo a seguir para proceder à instalação da ferramenta PAT é aceder ao link e proceder ao download do ficheiro, no nosso caso pat-plugin-0.8.zip. Após o download da aplicação deve parar o servidor tomcat da aplicação Pentaho caso esteja a ser utilizado e posteriormente seguir os passos seguintes. Extrair o ficheiro.zip para o diretório de instalação de Pentaho para \pentaho\biserver-ce\pentaho-solutions\system. Iniciar o servidor Pentaho. Verificar a instalação acedendo em Verificar o novo ícone New PAT Analysis, como ilustra a Figura E está pronto a utilizar. Figura Ícones do ambiente de trabalho de Pentaho Criação de análises com PAT Analysis Após a instalação da ferramenta é possível a criação de análises com PAT, os próximos passos vão explicar o processo de criação de análises com a ferramenta (Barber et. Al, 2010). Inicialmente é necessário que o utilizador selecione o ícone New PAT Analysis, posteriormente aparece uma janela onde é possível criar e configurar ligações a bases de dados, selecionar cubos de dados já existentes no repositório ou procurar ajuda online relativamente à utilização da ferramenta. Aquando da seleção de um cubo de dados, a 111

127 CAPÍTULO 7 aplicação envia-nos diretamente para um painel de desenho do cubo de dados, com recurso a funcionalidades de drag and drop ou especificação de consultas através da linguagem MDX. A Figura 7.50 ilustra o ambiente de desenvolvimento de cubo de dados OLAP e o menu de opções mencionado. Figura Ambiente de trabalho PAT Analysis. Na figura é possível visualizar o separador PAT, em cima estão os menus para conexão a base de dados, cubo de dados e ajuda respetivamente. Do lado esquerdo do separador estão as dimensões e as métricas, do lado direito o painel de desenho, basta arrastar os elementos para a estrutura do cubo ou programar em MDX. O ícone de reciclagem no canto inferior direito é utilizado para eliminar elementos que não estejam corretos no cubo de dados Exemplos práticos do projeto utilizando PAT Analysis Para uma melhor demonstração das potencialidades de PAT, procedemos à demonstração de elementos práticos do nosso projeto. Um dos objetivos em termos de análise era desenvolver um cubo de dados que nos permitisse avaliar a oscilação dos valores de potência ativa, potência reativa e radiação solar ao longo do dia corrente. A Figura 7.51 ilustra essa consulta. 112

128 CAPÍTULO 7 Figura Cubo de dados por dia por hora A Figura 7.51 ilustra um cubo de dados com a respetiva representação gráfica, com recurso a um gráfico de progressão. A representação gráfica surge acompanhada da respetiva legenda tornando mais fácil a análise dos dados do cubo. Os dados disponíveis na consulta apenas contemplam cinco períodos do dia, de realçar que a cada período identificado correspondem os valores médios registados durante o intervalo de quinze minutos. No topo da área de trabalho de PAT estão disponíveis algumas funcionalidades, vista de MDX, exportação de dados, inserção e visualização de gráficos, inclusão de maior detalhe de informação, ascendente de dados, descendente de dados, desativar opções de Drill, ativar ausência de registos em branco, mudança de eixos e funcionalidade de Drill Through. Num segundo exemplo, pretendemos visualizar a mesma consulta mas apenas para a métrica SOLARRADIATION, e vamos selecionar a opção de visualizar os resultados num gráfico de barras. 113

129 CAPÍTULO 7 Figura Valores de radiação solar por dia por hora A Figura 7.52 ilustra os valores de radiação solar para o dia corrente em cinco períodos do dia diferentes. A ferramenta de análise disponibiliza a possibilidade de visualizar gráficos em 3D, e aplicar diferentes estilos de visualização. Figura Quantidade de incidentes por estado 114

130 CAPÍTULO 7 A Figura 7.53 mostra uma consulta relativamente aos tipos de estado de incidentes e a quantidade de registos em cada estado de conclusão. Existe a representação de um gráfico circular Saiku Saiku também desenvolvido pela organização Analytical Labs é uma ferramenta open source modular de análises, e surgiu com o objetivo de simplificar o processo de análises de dados internos da aplicação Instalação de Saiku 2.0 no Pentaho BI Server CE 3.8 A ferramenta encontra-se disponível para download em ou acedendo diretamente a Após o download da aplicação descompacta-se o ficheiro saiku-plugin-2.0- SNAPSHOT.zip. Termine a execução do servidor Pentaho caso esteja inicializado. Copie a pasta saiku para o diretório \pentaho\biserver-ce\pentahosolutions\system. Reinicie o servidor Pentaho BI Server CE 3.8. Verificar o novo ícone New Saiku Analytics, como ilustra a Figura Figura Ícone Saiku no ambiente de trabalho de Pentaho E está pronto a utilizar Exemplos práticos do projeto utilizando Saiku Após a instalação, para inicializar a construção de análises com recurso a Saiku basta clicar em New Saiku Analytics e logo de seguida será aberta a aplicação no ambiente de trabalho Pentaho. A Figura 7.55 ilustra o painel de desenvolvimento de Saiku. 115

131 CAPÍTULO 7 Figura Ambiente de trabalho Saiku. O exemplo representado na figura tem a seguinte sintaxe MDX: SELECT NON EMPTY {Hierarchize({[Measures].[pc ACTIVEPOWER],[Measures].[pc REACTIVEPOWER ], [Measures].[pc SOLARRADIATION]})} ON COLUMNS, NON EMPTY {Hierarchize({[pc ID_ELEMENT].[pc ID_ELEMENT].Members})} ON ROWS FROM [dw_sisenergias_energy] WHERE {Hierarchize({[pc ID_PARK].[pc ID_PARK].Members})} Saiku em termos de construção de cubos de dados é mais atrativo que PAT Analysis, mas de um modo geral é bastante mais rudimentar. No ambiente de trabalho ilustrado na Figura 7.55 é possível visualizar na área Saiku, do lado direito uma dropdownlist o grupo de dimensões e as métricas disponíveis pela consulta. A área de desenho é composta pelo menu de opções composto pelos elementos: Run query - funcionalidade para gerar o cubo de dados caso a funcionalidade automatic execution não se encontre ativa. Automatic execution - permite gerar o cubo de dados em tempo real, é possível ativar e desativar esta opção. Toggle fields - esta funcionalidade permite visualizar o cubo de dados produzido, em ambiente alargado. Non-empty - opção que omite dados em branco. Swap axis - opção vulgar para a troca de eixos, em que colunas passam a apresentar os dados das linhas e vise versa. 116

132 CAPÍTULO 7 Drill Through current query permite aplicar a função Drill Through no cubo de dados corrente. Show MDX - funcionalidade que permite aceder ao código de consulta MDX. Export XLS - Saiku permite extrair dados para Excel. Export CSV - exportação para ficheiros CSV também é suportada no Saiku. Na área de desenho é possível construir o cubo de dados através de drag and drop, arrastando dimensões e métricas para os separadores: Columns área restrita aos dados a visualizar nas colunas do cubo de dados. Rows área de definição de dados a apresentar nas linhas do cubo. Filter Saiku também permite filtrar dados relativamente a elementos específicos. O cubo de dados é representado à medida que vai sendo construído, caso a opção Automatic execution esteja ativa. O plugin quando comparado com PAT Analysis torna-se mais rudimentar em termos de visualização, não disponibilizando opções para a criação de gráficos ilustrativos dos dados apresentados pelo cubo Pentaho Mondrian O servidor Pentaho já possui uma funcionalidade para construção de cubos OLAP, o Mondrian. Essa funcionalidade encontra-se disponível no ambiente de trabalho Pentaho. Na Figura 7.56 é possível visualizar o ícone respetivo, acompanhado pela descrição New Analysis View. Figura Ícone New Analysis View no ambiente de trabalho de Pentaho Após seleccionar a opção surge no ecrã uma nova janela, representada na Figura

133 CAPÍTULO 7 Figura Janela de seleção de cubo de dados A janela representada na Figura 7.57 pretende que o utilizador selecione o cubo de dados que pretende trabalhar. A Figura 7.58 ilustra um exemplo da utilização da ferramenta. O exemplo em análise representa os valores da potência ativa num dia específico em cinco horas distintas. Figura Representação OLAP com a ferramenta do servidor 3.8 Em termos visuais a ferramenta tem menor qualidade que PAT, em termos de construção de cubos de dados o processo é pegar num cubo de dados previamente definido e apresenta-lo graficamente, o processo de construção segue assim outros passos, sem existência da possibilidade de construção de cubos de dados recorrendo a processos de drag and drop. De um modo geral esta é uma boa solução ainda que rudimentar. 118

134 CAPÍTULO Criação de Dashboards Os dashboards são um dos elementos BI mais importantes, transformam conjuntos de dados em elementos gráficos. Existem algumas soluções Pentaho para a criação de dashboards, Pentaho é compatível com algumas ferramentas como JFree Charts ou Fusion Charts por exemplo, mas todas estas ferramentas são um pouco arcaicas e requerem bastantes conhecimentos técnicos de informática por parte dos seus utilizadores, nomeadamente conhecimentos da linguagem de programação Java. A maioria das ferramentas trabalham sobre o ambiente de Eclipse, que possibilita a criação de dashboards com recurso a programação de ficheiros que posteriormente sejam interpretados pelo servidor de Pentaho. Para a criação dos nossos dashboards da atividade prática recorremos à utilização de uma Framework inovadora, CDF-DE (Community Dashboard Framework Dashboard Editor). Esta Framework de desenvolvimento de dashboards para a versão CE de Pentaho, foi desenvolvida por Pedro Alves e Klose Ingo, dois membros da comunidade de desenvolvimento de Pentaho. Os dois membros da comunidade desenvolveram um plugin de fácil utilização e com alguns benefícios, nomeadamente (CDF, 2011): A criação de dashboards com necessidade de pouca/nenhuma utilização de javascript. Facilidade em definir objetos, painéis e variáveis. Carregamento automático de painéis em desenvolvimento. Atualização automática dos dashboards relativamente à alteração dos valores dos dados. Geração automática de elementos de navegação, caixas de texto selecionadores, etc. Separação de elementos de html e definição de componentes. Integração com OpenStreetmaps. Facilidade de integração com o servidor. Disponibilização de templates. Suporte a vários tipos de base de dados. Possibilidade da criação de um ficheiro CSS (Cascading Style Sheets) que defina as formatações gerais do painel. A quantidade de benefícios é clara, a facilidade de utilização da ferramenta é um fator crítico na nossa avaliação, procuramos solucionar um problema sem grandes investimentos, este é o plugin ideal tendo em conta que não exige grandes conhecimentos aprofundados de informática por parte dos utilizadores. Em seguida apresentamos um 119

135 CAPÍTULO 7 tutorial de instalação do plugin e alguns exeplos práticos de utilização do mesmo, no nosso caso prático Instalação CDF-DE No nosso caso prático procedemos à instalação do plugin CDF-DE, a instalação do plugin é simples, tal como os plugins de análise de dados instalados e descritos em e Para a instalação apoiada do plugin basta seguir os passos seguintes. Passo 1 Download do plugin Inicialmente deve proceder ao download do ficheiro de instalação do plugin. O ficheiro pode ser encontrado em /list. Ainda não existe uma versão estável do plugin ainda assim procedemos ao download do ficheiro mais atualizado atualmente o CDE-bundle-1.0- RC3.tar.bz2, as versões estáveis contêm a palavra stable na nomenclatura do ficheiro. Passo 2 Descompactar ficheiro Após efectuado o download deve proceder à descompactação do ficheiro CDEbundle-1.0-RC3.tar.bz2. Após descompactado, o resultado deve ser o seguinte conjunto de diretórios: /bi-developers /cde_sample /cdf /CST /system/.../cda... /pentaho-cdf... /pentaho-cdf-dd Passo 3 Mover pastas descompactadas No diretório de instalação de Pentaho selecione as pastas \biserver-ce\pentahosolutions e mova para a atual diretoria as seguintes pastas: /bi-developers /cde_sample /cdf /CST /system/ /cda /pentaho-cdf pentaho-cdf-dd 120

136 CAPÍTULO 7 Figura Ambiente de trabalho Pentaho atualizado com a nova funcionalidade CDE A Figura ilustra o ambiente de trabalho Pentaho com a nova Framework de dashboards instalada, New CDE Dashboard. O plugin está pronto a utilizar, ao selecionar New CDE Dashboard será iniciada a aplicação, a Figura 7.60 ilustra o ambiente de trabalho da aplicação. Para iniciar a utilização do plugin recomenda-se a visualização do tutorial acessível em: embedded #! Figura Ambiente de trabalho de CDE O cabeçalho da aplicação CDE é composto por um menu composto pelas opções (criar novo dashboard, guardar dashboard, guardar como, atualizar dashboard e propriedades do dashboard). O menu da direita, é composto por separadores de opções técnicas. No separador de Layout é possível estruturar a apresentação de dashboards, definindo blocos de instruções HTML, ficheiros de CSS e JavaScript. Esta estruturação pode ser feita de forma manual recorrendo aos ícones de construção presentes em Layout Structure (criar colunas, criar linhas, criar blocos de código HTML, etc.) ou selecionar um dos Templates já estruturados e disponíveis para utilização. A Figura 7.61 ilustra a seleção de um dos Template disponibilizados pelo plugin. 121

137 CAPÍTULO 7 Figura Seleção de um Template existente disponível no plugin. O separador Components disponibiliza um conjunto de elementos a adicionar ao painel de dashboards. Neste separador é possível definir gráficos de diferentes tipos, definir caixas de seleção, incluir tabelas entre outros componentes. Nas propriedades de cada elemento é possível definir em que painel do Layout deve surgir representado, especificar conteúdo, especificar dados, cores, etc. A Figura 7.62 ilustra o separador Components. Ao fazermos duplo clique sobre a janela do CDE podemos visualizar a aplicação numa nova aba do nosso browser, num ambiente de trabalho expandido, como ilustra a Figura Figura Separador Components. 122

138 CAPÍTULO 7 No separador Components representado na Figura 7.62, surge a inserção de dois componentes do grupo de gráficos, um gráfico de barras bar1 e um gráfico circular pie1. Na imagem é possível visualizar as propriedades do gráfico circular pie1. O separador Data Sources é composto pelo conjunto de elementos relacionados com diferentes tipos de bases de dados e tipos de consultas. No nosso caso prático vamos necessitar apenas de utilizar consultas SQL via JDBC, mas a Figura 7.63, permite ter uma maior percepção do conjunto de componentes de base de dados disponíveis. Figura Representação do separador Data Sources. A Figura 7.63 mostra as propriedades definidas para uma base de dados SQL designada de ds1. O acesso aos dados é feito com recurso a JDBC, e requer que nas propriedades da consulta seja definido o driver (com.mysql.jdbc.driver) na segunda variável Name e o URL de acesso à base de dados, que neste caso é jdbc:mysql://localhost:3306/ dw_sisenergias. Cada componente gráfica deve ser associada a um elemento Data Source de modo a representar os dados resultantes da sua consulta. A sintaxe SQL é definida na variável Query das propriedades da Data Source. Por fim o separador Preview, este não é um separador de opções, funciona apenas como uma funcionalidade que tem como objetivo apresentar o resultado final. A atividade prática que a empresa pretende visualizar em dashboard é uma representação dos valores de potência ativa agrupados por mês, no ano corrente. Na nossa base de dados apenas constam dados relativamente aos meses de junho e agosto. 123

139 CAPÍTULO 7 A Figura 7.64 apresenta o resultado prático da nossa atividade prática, representado através de um gráfico de barras e um gráfico circular. Figura Dashboards do caso prático. Da análise à Figura 7.64 podemos concluir que o mês de Agosto representa valores de potência ativa bastante mais elevados que o mês de Junho. A ferramenta permite a inserção de legendas de forma automática, inserção de valores nos eixos dos gráficos de barras e representação dos valores registados Criação de Relatórios A criação de relatórios é uma possibilidade no Pentaho BI Server CE 3.8. Define-se por relatório de Business Intelligence a uma componente que permita apresentar um conjunto de dados, que se façam representar por diferentes tipos de elementos, nomeadamente análises, gráficos e tabelas. O plugin CDF-DE também possibilita a construção de relatórios, compostos de um conjunto de dashboards, tendo como contrapartida o facto de os exibir apenas de forma gráfica, não tendo a possibilidade de os exportar para outro formato. Como atividade prática foi-nos atribuída a tarefa de desenvolver um relatório tendo em conta a análise dos valores de potência ativa, potência reativa e irradiação solar registados no dia corrente ao longo dos períodos de tempo que possuam registos. No nosso caso prático vamos utilizar a ferramenta incluída no servidor Pentaho que se faz representar no ambiente de trabalho pelo ícone New Report. A Figura 7.65 ilustra o ambiente de trabalho da ferramenta de criação de relatórios. A ferramenta é um pouco rudimentar, não permite a personalização dos relatórios em termos de cores e tipos de letra, estilos (CSS) apenas disponibiliza seis modelos de 124

Planejamento Estratégico de TI. Prof.: Fernando Ascani

Planejamento Estratégico de TI. Prof.: Fernando Ascani Planejamento Estratégico de TI Prof.: Fernando Ascani BI Business Intelligence A inteligência Empresarial, ou Business Intelligence, é um termo do Gartner Group. O conceito surgiu na década de 80 e descreve

Leia mais

PENTAHO. História e Apresentação

PENTAHO. História e Apresentação PÓS-GRADUAÇÃO LATO SENSU Curso: Banco de Dados Disciplina: Laboratório de Data Warehouse e Business Intelligence Professor: Fernando Zaidan Unidade 2 2012 Crédito dos Slides: Clever Junior 2 PENTAHO História

Leia mais

Conceito. As empresas como ecossistemas de relações dinâmicas

Conceito. As empresas como ecossistemas de relações dinâmicas Conceito As empresas como ecossistemas de relações dinâmicas PÁG 02 Actualmente, face à crescente necessidade de integração dos processos de negócio, as empresas enfrentam o desafio de inovar e expandir

Leia mais

Uma peça estratégica para o seu negócio

Uma peça estratégica para o seu negócio Uma peça estratégica para o seu negócio INFORMAÇÃO GERAL DA EMPRESA CASO DE SUCESSO EM IMPLEMENTAÇÃO BI PERGUNTAS E RESPOSTAS Fundada em 1997, Habber Tec é uma empresa especializada na oferta de soluções

Leia mais

DATA WAREHOUSE. Introdução

DATA WAREHOUSE. Introdução DATA WAREHOUSE Introdução O grande crescimento do ambiente de negócios, médias e grandes empresas armazenam também um alto volume de informações, onde que juntamente com a tecnologia da informação, a correta

Leia mais

ERP Enterprise Resource Planning

ERP Enterprise Resource Planning ERP Enterprise Resource Planning Sistemas Integrados de Gestão Evolução dos SI s CRM OPERACIONAL TÁTICO OPERACIONAL ESTRATÉGICO TÁTICO ESTRATÉGICO OPERACIONAL TÁTICO ESTRATÉGICO SIT SIG SAE SAD ES EIS

Leia mais

Uma estrutura (framework) para o Business Intelligence (BI)

Uma estrutura (framework) para o Business Intelligence (BI) Uma estrutura conceitural para suporteà decisão que combina arquitetura, bancos de dados (ou data warehouse), ferramentas analíticas e aplicações Principais objetivos: Permitir o acesso interativo aos

Leia mais

Prognos SMART OPTIMIZATION

Prognos SMART OPTIMIZATION Prognos SMART OPTIMIZATION A resposta aos seus desafios Menos estimativas e mais controlo na distribuição A ISA desenvolveu um novo software que permite o acesso a dados remotos. Através de informação

Leia mais

Interatividade aliada a Análise de Negócios

Interatividade aliada a Análise de Negócios Interatividade aliada a Análise de Negócios Na era digital, a quase totalidade das organizações necessita da análise de seus negócios de forma ágil e segura - relatórios interativos, análise de gráficos,

Leia mais

Resumo dos principais conceitos. Resumo dos principais conceitos. Business Intelligence. Business Intelligence

Resumo dos principais conceitos. Resumo dos principais conceitos. Business Intelligence. Business Intelligence É um conjunto de conceitos e metodologias que, fazem uso de acontecimentos e sistemas e apoiam a tomada de decisões. Utilização de várias fontes de informação para se definir estratégias de competividade

Leia mais

PHC dcontroldoc. O acesso a diversos tipos de ficheiros

PHC dcontroldoc. O acesso a diversos tipos de ficheiros PHC dcontroldoc O acesso a diversos tipos de ficheiros A possibilidade de consultar e introduzir documentos, imagens e outro tipo de ficheiros, a partir de um local com acesso à Internet. BUSINESS AT SPEED

Leia mais

Planejamento e Orçamento

Planejamento e Orçamento Planejamento e Orçamento O SIPLAG Sistema Integrado de Planejamento, Orçamento e Gestão, é um sistema voltado à gestão governamental, permitindo a elaboração do Plano Plurianual, da Lei Orçamentária Anual,

Leia mais

ADMINISTRAÇÃO DOS RECURSOS DE DADOS

ADMINISTRAÇÃO DOS RECURSOS DE DADOS Capítulo 7 ADMINISTRAÇÃO DOS RECURSOS DE DADOS 7.1 2003 by Prentice Hall OBJETIVOS Por que as empresas sentem dificuldades para descobrir que tipo de informação precisam ter em seus sistemas de informação?

Leia mais

Plataforma Pentaho. Fagner Fernandes

Plataforma Pentaho. Fagner Fernandes Plataforma Pentaho Fagner Fernandes Sobre a Pentaho Fundada em 2004 por 5 fundadores Foco em Integração de Dados e Análise de Negócio Diferentes versões de sua Suite: Pentaho Enterprise Edition Pentaho

Leia mais

AGILE ROLAP - UMA METODOLOGIA ÁGIL PARA IMPLEMENTAÇÃO DE AMBIENTES DE NEGÓCIOS BASEADO EM SERVIDORES OLAP.

AGILE ROLAP - UMA METODOLOGIA ÁGIL PARA IMPLEMENTAÇÃO DE AMBIENTES DE NEGÓCIOS BASEADO EM SERVIDORES OLAP. AGILE ROLAP - UMA METODOLOGIA ÁGIL PARA IMPLEMENTAÇÃO DE AMBIENTES DE NEGÓCIOS BASEADO EM SERVIDORES OLAP. Luan de Souza Melo (Fundação Araucária), André Luís Andrade Menolli (Orientador), Ricardo G. Coelho

Leia mais

PHC dteamcontrol Interno

PHC dteamcontrol Interno PHC dteamcontrol Interno A gestão remota de projetos em aberto A solução via Internet que permite acompanhar os projetos em aberto em que o utilizador se encontra envolvido, gerir eficazmente o seu tempo

Leia mais

Business Intelligence & Performance Management

Business Intelligence & Performance Management Como medir a evolução do meu negócio? Tenho informação para esta decisão? A medição da performance é uma dimensão fundamental para qualquer actividade de gestão. Recorrentemente, qualquer gestor vê-se

Leia mais

Plataforma de Gestão de Actualizações de Software Descrição do Problema

Plataforma de Gestão de Actualizações de Software Descrição do Problema Plataforma de Gestão de Actualizações de Software Descrição do Problema Pedro Miguel Barros Morgado Índice Introdução... 3 Ponto.C... 4 Descrição do Problema... 5 Bibliografia... 7 2 Introdução No mundo

Leia mais

PHC dteamcontrol Interno

PHC dteamcontrol Interno O módulo PHC dteamcontrol Interno permite acompanhar a gestão de todos os projectos abertos em que um utilizador se encontra envolvido. PHC dteamcontrol Interno A solução via Internet que permite acompanhar

Leia mais

Modelo Cascata ou Clássico

Modelo Cascata ou Clássico Modelo Cascata ou Clássico INTRODUÇÃO O modelo clássico ou cascata, que também é conhecido por abordagem top-down, foi proposto por Royce em 1970. Até meados da década de 1980 foi o único modelo com aceitação

Leia mais

PHC Serviços CS. A gestão de processos de prestação de serviços

PHC Serviços CS. A gestão de processos de prestação de serviços PHC Serviços CS A gestão de processos de prestação de serviços A solução que permite controlar diferentes áreas de uma empresa: reclamações e respectivo tratamento; controlo de processos e respectivos

Leia mais

COMUNICAÇÃO DE PORTIFÓLIO UTILIZANDO DASHBOARDS EXTRAIDOS DO MICROSOFT PROJECT SERVER

COMUNICAÇÃO DE PORTIFÓLIO UTILIZANDO DASHBOARDS EXTRAIDOS DO MICROSOFT PROJECT SERVER COMUNICAÇÃO DE PORTIFÓLIO UTILIZANDO DASHBOARDS EXTRAIDOS DO MICROSOFT PROJECT SERVER Autor: RANGEL TORREZAN RESUMO 1. Gestão de Portfolio e suas vantagens. A gestão de portfólio de projetos estabelece

Leia mais

A VISTA BACKSTAGE PRINCIPAIS OPÇÕES NO ECRÃ DE ACESSO

A VISTA BACKSTAGE PRINCIPAIS OPÇÕES NO ECRÃ DE ACESSO DOMINE A 110% ACCESS 2010 A VISTA BACKSTAGE Assim que é activado o Access, é visualizado o ecrã principal de acesso na nova vista Backstage. Após aceder ao Access 2010, no canto superior esquerdo do Friso,

Leia mais

Engenharia de Software Sistemas Distribuídos

Engenharia de Software Sistemas Distribuídos Engenharia de Software Sistemas Distribuídos 2 o Semestre de 2009/2010 FEARSe Requisitos para a 1 a entrega 18 de Março de 2010 1 Introdução O projecto conjunto das disciplinas de Engenharia de Software

Leia mais

GESTÃO DAS INFORMAÇÕES DAS ORGANIZAÇÕES MÓDULO 11

GESTÃO DAS INFORMAÇÕES DAS ORGANIZAÇÕES MÓDULO 11 GESTÃO DAS INFORMAÇÕES DAS ORGANIZAÇÕES MÓDULO 11 Índice 1. Importância do ERP para as organizações...3 2. ERP como fonte de vantagem competitiva...4 3. Desenvolvimento e implantação de sistema de informação...5

Leia mais

A importância da. nas Organizações de Saúde

A importância da. nas Organizações de Saúde A importância da Gestão por Informações nas Organizações de Saúde Jorge Antônio Pinheiro Machado Filho Consultor de Negócios www.bmpro.com.br jorge@bmpro.com.br 1. Situação nas Empresas 2. A Importância

Leia mais

TECNOLOGIAS DA INFORMAÇÃO E COMUNICAÇÃO. SISTEMAS DE GESTÃO DE BASE DE DADOS Microsoft Access TECNOLOGIAS DA INFORMAÇÃO E COMUNICAÇÃO

TECNOLOGIAS DA INFORMAÇÃO E COMUNICAÇÃO. SISTEMAS DE GESTÃO DE BASE DE DADOS Microsoft Access TECNOLOGIAS DA INFORMAÇÃO E COMUNICAÇÃO TECNOLOGIAS DA INFORMAÇÃO E COMUNICAÇÃO Microsoft Access TECNOLOGIAS DA INFORMAÇÃO E COMUNICAÇÃO CONCEITOS BÁSICOS 1 Necessidade das base de dados Permite guardar dados dos mais variados tipos; Permite

Leia mais

Começo por apresentar uma breve definição para projecto e para gestão de projectos respectivamente.

Começo por apresentar uma breve definição para projecto e para gestão de projectos respectivamente. The role of Project management in achieving Project success Ao longo da desta reflexão vou abordar os seguintes tema: Definir projectos, gestão de projectos e distingui-los. Os objectivos da gestão de

Leia mais

A versão básica disponibiliza a informação criada no Microsoft Navision em unidades de informação

A versão básica disponibiliza a informação criada no Microsoft Navision em unidades de informação O Business Analytics for Microsoft Business Solutions Navision ajuda-o a ter maior controlo do seu negócio, tomar rapidamente melhores decisões e equipar os seus funcionários para que estes possam contribuir

Leia mais

Banco de Dados - Senado

Banco de Dados - Senado Banco de Dados - Senado Exercícios OLAP - CESPE Material preparado: Prof. Marcio Vitorino OLAP Material preparado: Prof. Marcio Vitorino Soluções MOLAP promovem maior independência de fornecedores de SGBDs

Leia mais

PHC dteamcontrol Externo

PHC dteamcontrol Externo PHC dteamcontrol Externo A gestão remota de projetos e de informação A solução via Internet que permite aos seus Clientes participarem nos projetos em que estão envolvidos, interagindo na otimização dos

Leia mais

Material de Apoio. Sistema de Informação Gerencial (SIG)

Material de Apoio. Sistema de Informação Gerencial (SIG) Sistema de Informação Gerencial (SIG) Material de Apoio Os Sistemas de Informação Gerencial (SIG) são sistemas ou processos que fornecem as informações necessárias para gerenciar com eficácia as organizações.

Leia mais

Módulo 4. Construindo uma solução OLAP

Módulo 4. Construindo uma solução OLAP Módulo 4. Construindo uma solução OLAP Objetivos Diferenciar as diversas formas de armazenamento Compreender o que é e como definir a porcentagem de agregação Conhecer a possibilidade da utilização de

Leia mais

O aumento da força de vendas da empresa

O aumento da força de vendas da empresa PHC dcrm O aumento da força de vendas da empresa O enfoque total na atividade do cliente, através do acesso remoto à informação comercial, aumentando assim a capacidade de resposta aos potenciais negócios

Leia mais

Chapter 3. Análise de Negócios e Visualização de Dados

Chapter 3. Análise de Negócios e Visualização de Dados Chapter 3 Análise de Negócios e Visualização de Dados Objetivos de Aprendizado Descrever a análise de negócios (BA) e sua importância par as organizações Listar e descrever brevemente os principais métodos

Leia mais

Suporte Técnico de Software HP

Suporte Técnico de Software HP Suporte Técnico de Software HP Serviços Tecnológicos HP - Serviços Contratuais Dados técnicos O Suporte Técnico de Software HP fornece serviços completos de suporte de software remoto para produtos de

Leia mais

Software PHC com MapPoint

Software PHC com MapPoint Software PHC com MapPoint A análise de informação geográfica A integração entre o Software PHC e o Microsoft Map Point permite a análise de informação geográfica, desde mapas a rotas, com base na informação

Leia mais

Solução Integrada para Gestão e Operação Empresarial - ERP

Solução Integrada para Gestão e Operação Empresarial - ERP Solução Integrada para Gestão e Operação Empresarial - ERP Mastermaq Softwares Há quase 20 anos no mercado, a Mastermaq está entre as maiores software houses do país e é especialista em soluções para Gestão

Leia mais

Pentaho: Inteligência de Negócios utilizando Software Livre

Pentaho: Inteligência de Negócios utilizando Software Livre Pentaho: Inteligência de Negócios utilizando Software Livre CONSEGI 2010 BRASÍLIA-DF 20 DE AGOSTO DE 2010 Por que Pentaho? Funciona; Tecnologia Java; Código Aberto; Robusto; Confiável; Gratuito; Apoio

Leia mais

Projeto de Data Warehousing sobre Informações em Saúde para dar Suporte a Análise de Faturamento Hospitalar

Projeto de Data Warehousing sobre Informações em Saúde para dar Suporte a Análise de Faturamento Hospitalar Projeto de Data Warehousing sobre Informações em Saúde para dar Suporte a Análise de Faturamento Hospitalar Newton Shydeo Brandão Miyoshi Joaquim Cezar Felipe Grupo de Informática Biomédica Departamento

Leia mais

INTRODUÇÃO A PORTAIS CORPORATIVOS

INTRODUÇÃO A PORTAIS CORPORATIVOS INTRODUÇÃO A PORTAIS CORPORATIVOS Conectt i3 Portais Corporativos Há cinco anos, as empresas vêm apostando em Intranet. Hoje estão na terceira geração, a mais interativa de todas. Souvenir Zalla Revista

Leia mais

FrontWave Engenharia e Consultadoria, S.A.

FrontWave Engenharia e Consultadoria, S.A. 01. APRESENTAÇÃO DA EMPRESA 2 01. Apresentação da empresa é uma empresa criada em 2001 como spin-off do Instituto Superior Técnico (IST). Desenvolve tecnologias e metodologias de inovação para rentabilizar

Leia mais

Gestão da Informação

Gestão da Informação Gestão da Informação Aplicações de suporte à Gestão da Informação na empresa Luis Borges Gouveia, lmbg@ufp.pt Aveiro, Fevereiro de 2001 Sistemas de informação para empresas Manutenção e exploração de sistemas

Leia mais

Uma Ferramenta Web para BI focada no Gestor de Informação

Uma Ferramenta Web para BI focada no Gestor de Informação Uma Ferramenta Web para BI focada no Gestor de Informação Mikael de Souza Fernandes 1, Gustavo Zanini Kantorski 12 mikael@cpd.ufsm.br, gustavoz@cpd.ufsm.br 1 Curso de Sistemas de Informação, Universidade

Leia mais

1 Descrição sumária. Varajão, Trigo e Barroso, O Gestor de Sistemas de Informação nas grandes empresas portuguesas, Computerworld, 2011.

1 Descrição sumária. Varajão, Trigo e Barroso, O Gestor de Sistemas de Informação nas grandes empresas portuguesas, Computerworld, 2011. O Gestor de Sistemas de Informação nas grandes empresas portuguesas João Varajão 1, António Trigo 2, João Barroso 1 1 Escola de Ciências e Tecnologia, Universidade de Trás-os-Montes e Alto Douro 2 Instituto

Leia mais

Guia de recomendações para implementação de PLM em PME s

Guia de recomendações para implementação de PLM em PME s 1 Guia de recomendações para implementação de PLM em PME s RESUMO EXECUTIVO Este documento visa informar, de uma forma simples e prática, sobre o que é a gestão do ciclo de vida do Produto (PLM) e quais

Leia mais

A Grande Importância da Mineração de Dados nas Organizações

A Grande Importância da Mineração de Dados nas Organizações A Grande Importância da Mineração de Dados nas Organizações Amarildo Aparecido Ferreira Junior¹, Késsia Rita da Costa Marchi¹, Jaime Willian Dias¹ ¹Universidade Paranaense (Unipar) Paranavaí PR Brasil

Leia mais

Inteligência Empresarial. BI Business Intelligence. Business Intelligence 22/2/2011. Prof. Luiz A. Nascimento

Inteligência Empresarial. BI Business Intelligence. Business Intelligence 22/2/2011. Prof. Luiz A. Nascimento Inteligência Empresarial Prof. Luiz A. Nascimento BI Pode-se traduzir informalmente Business Intelligence como o uso de sistemas inteligentes em negócios. É uma forma de agregar a inteligência humana à

Leia mais

FACULDADE DE ENGENHARIA DE COMPUTAÇÃO. PROJETO FINAL I e II PLANO DE TRABALHO <NOME DO TRABALHO> <Nome do Aluno> <Nome do Orientador>

FACULDADE DE ENGENHARIA DE COMPUTAÇÃO. PROJETO FINAL I e II PLANO DE TRABALHO <NOME DO TRABALHO> <Nome do Aluno> <Nome do Orientador> FACULDADE DE ENGENHARIA DE COMPUTAÇÃO PROJETO FINAL I e II PLANO DE TRABALHO O Trabalho de Conclusão de Curso (TCC) a ser desenvolvido

Leia mais

1. Introdução e Objetivos 2. Fundamentação teórica 3. Desenvolvimento e Especificações do sistema

1. Introdução e Objetivos 2. Fundamentação teórica 3. Desenvolvimento e Especificações do sistema SISTEMA DE CONTROLE DE INDICADORES DE DESEMPENHO VOLTADO À DISPONIBILIDADE DE SERVIÇOS DE TI BASEADO NA BIBLIOTECA ITIL V3 Eduardo Cuco Roteiroda apresentação 1. Introdução e Objetivos 2. Fundamentação

Leia mais

CRM - Customer Relationship Management

CRM - Customer Relationship Management Profª Carla Mota UCB 2014 Unid 2 aula1 CRM - Customer Relationship Management Estratégia de negócio voltada ao entendimento e a antecipação das necessidades dos clientes atuais e potenciais de uma empresa.

Leia mais

Módulo 4: Gerenciamento de Dados

Módulo 4: Gerenciamento de Dados Módulo 4: Gerenciamento de Dados 1 1. CONCEITOS Os dados são um recurso organizacional decisivo que precisa ser administrado como outros importantes ativos das empresas. A maioria das organizações não

Leia mais

MÓDULO IV O ROI NUM SISTEMA DE ELEARNING

MÓDULO IV O ROI NUM SISTEMA DE ELEARNING MÓDULO IV O ROI NUM SISTEMA DE ELEARNING Objectivos gerais do módulo No final do módulo, deverá estar apto a: Identificar os diferentes tipos de custos de elearning; Comparar os custos de elearning com

Leia mais

Gestão de Equipas de Vendas

Gestão de Equipas de Vendas Gestão de Equipas de Vendas Análise Comercial Business Intelligence Gestão de Desempenho Atinjo os meus objectivos comerciais? Quais os vendedores com melhor desempenho? A função comercial é o motor de

Leia mais

BUSINESS INTELLIGENCE Prof. Fabio Purcino

BUSINESS INTELLIGENCE Prof. Fabio Purcino Aula Teste BUSINESS INTELLIGENCE Prof. Fabio Purcino Faça o download desta aula Use um leitor de QR Code Definição Business Intelligence é um conjunto de conceitos e técnicas que buscam extrair conhecimento

Leia mais

CAPÍTULO 2 Processos de negócios, informação e sistemas de informação 39

CAPÍTULO 2 Processos de negócios, informação e sistemas de informação 39 Sumário Introdução 17 PARTE I OsSIG evocê 21 CAPÍTULO 1 A importância do SIG 23 1.1 Existem aplicativos de negócios para Facebook e Twitter que ofereçam uma boa relação custo-benefício? 25 1.2 Como conquistar

Leia mais

Aumente sua velocidade e flexibilidade com a implantação da nuvem gerenciada de software da SAP

Aumente sua velocidade e flexibilidade com a implantação da nuvem gerenciada de software da SAP Parceiros de serviços em nuvem gerenciada Aumente sua velocidade e flexibilidade com a implantação da nuvem gerenciada de software da SAP Implemente a versão mais recente do software da SAP de classe mundial,

Leia mais

Dado: Fatos conhecidos que podem ser registrados e têm um significado implícito. Banco de Dados:

Dado: Fatos conhecidos que podem ser registrados e têm um significado implícito. Banco de Dados: MC536 Introdução Sumário Conceitos preliminares Funcionalidades Características principais Usuários Vantagens do uso de BDs Tendências mais recentes em SGBDs Algumas desvantagens Modelos de dados Classificação

Leia mais

Fornecendo Inteligência, para todo o mundo, a mais de 20 anos.

Fornecendo Inteligência, para todo o mundo, a mais de 20 anos. Fornecendo Inteligência, para todo o mundo, a mais de 20 anos. Fundada em 1989, a MicroStrategy é fornecedora líder Mundial de plataformas de software empresarial. A missão é fornecer as plataformas mais

Leia mais

CRM. Customer Relationship Management

CRM. Customer Relationship Management CRM Customer Relationship Management CRM Uma estratégia de negócio para gerenciar e otimizar o relacionamento com o cliente a longo prazo Mercado CRM Uma ferramenta de CRM é um conjunto de processos e

Leia mais

ABORDAGEM DE FRAMEWORKS PARA JSF QUE AUXILIAM O DESENVOLVIMENTO DE SOFTWARE

ABORDAGEM DE FRAMEWORKS PARA JSF QUE AUXILIAM O DESENVOLVIMENTO DE SOFTWARE ABORDAGEM DE FRAMEWORKS PARA JSF QUE AUXILIAM O DESENVOLVIMENTO DE SOFTWARE Amarildo Aparecido Ferreira Junior 1, Ricardo Ribeiro Rufino 1 ¹Universidade Paranaense (Unipar) Paranavaí PR Brasil aapfjr@gmail.com

Leia mais

Data Warehouse. Debora Marrach Renata Miwa Tsuruda

Data Warehouse. Debora Marrach Renata Miwa Tsuruda Debora Marrach Renata Miwa Tsuruda Agenda Introdução Contexto corporativo Agenda Introdução Contexto corporativo Introdução O conceito de Data Warehouse surgiu da necessidade de integrar dados corporativos

Leia mais

INSTRUÇÃO DE TRABALHO PARA INFORMAÇÕES GERENCIAIS

INSTRUÇÃO DE TRABALHO PARA INFORMAÇÕES GERENCIAIS INSTRUÇÃO DE TRABALHO PARA INFORMAÇÕES GERENCIAIS Asia Shipping Transportes Internacionais Ltda. como cópia não controlada P á g i n a 1 7 ÍNDICE NR TÓPICO PÁG. 1 Introdução & Política 2 Objetivo 3 Responsabilidade

Leia mais

FERRAMENTAS E SOLUÇÕES DE APOIO À GESTÃO E MANUTENÇÃO DE ATIVOS

FERRAMENTAS E SOLUÇÕES DE APOIO À GESTÃO E MANUTENÇÃO DE ATIVOS FERRAMENTAS E SOLUÇÕES DE APOIO À GESTÃO E MANUTENÇÃO DE ATIVOS Ivo BRAGA 1 RESUMO Os Serviços de manutenção exigem cada vez mais um elevado nível de complexidade. Mesmo a nível local onde o grau de especialização

Leia mais

Quem estiver interessado favor mandar currículo para sabrina.rodrigues@neogrid.com. As vagas são as seguintes: *Analista de BI (2 vagas)*

Quem estiver interessado favor mandar currículo para sabrina.rodrigues@neogrid.com. As vagas são as seguintes: *Analista de BI (2 vagas)* Quem estiver interessado favor mandar currículo para sabrina.rodrigues@neogrid.com. As vagas são as seguintes: *Analista de BI (2 vagas)* Buscamos candidatos com interesse e experiência na área de desenvolvimento,

Leia mais

Aprend.e Sistema integrado de formação e aprendizagem

Aprend.e Sistema integrado de formação e aprendizagem Aprend.e Sistema integrado de formação e aprendizagem Pedro Beça 1, Miguel Oliveira 1 e A. Manuel de Oliveira Duarte 2 1 Escola Aveiro Norte, Universidade de Aveiro 2 Escola Aveiro Norte, Departamento

Leia mais

5. Métodos ágeis de desenvolvimento de software

5. Métodos ágeis de desenvolvimento de software Engenharia de Software 5. Métodos ágeis de desenvolvimento de software Nuno Miguel Gil Fonseca nuno.fonseca@estgoh.ipc.pt Desenvolver e entregar software o mais rapidamente possível é hoje em dia um dos

Leia mais

A importância da Informação na perspetiva da Gestão Financeira das Autarquias ESOP - 8ª Sessão de Sensibilização para a Lisboa, 18 de junho 2014

A importância da Informação na perspetiva da Gestão Financeira das Autarquias ESOP - 8ª Sessão de Sensibilização para a Lisboa, 18 de junho 2014 A importância da Informação na perspetiva da Gestão Financeira das Autarquias ESOP - 8ª Sessão de Sensibilização para a Lisboa, 18 de junho 2014 Ricardo Riquito Diretor de Marketing & Comercial doing IT

Leia mais

Como elaborar um Plano de Negócios de Sucesso

Como elaborar um Plano de Negócios de Sucesso Como elaborar um Plano de Negócios de Sucesso Pedro João 28 de Abril 2011 Fundação António Cupertino de Miranda Introdução ao Plano de Negócios Modelo de Negócio Análise Financeira Estrutura do Plano de

Leia mais

Servidores Virtuais. Um servidor à medida da sua empresa, sem investimento nem custos de manutenção.

Servidores Virtuais. Um servidor à medida da sua empresa, sem investimento nem custos de manutenção. es Virtuais Um servidor à medida da sua empresa, sem investimento nem custos de manutenção. O que são os es Virtuais? Virtual é um produto destinado a empresas que necessitam de um servidor dedicado ligado

Leia mais

A PHC atingiu recentemente os 400 clientes Licença Garantida. No mercado há pouco mais de um ano, a modalidade que permite os clientes PHC renovarem a licença do seu software por três anos já representa

Leia mais

Procedimento de Gestão PG 02 Controlo de Documentos e Registos

Procedimento de Gestão PG 02 Controlo de Documentos e Registos Índice 1.0. Objectivo. 2 2.0. Campo de aplicação 2 3.0. Referências e definições....... 2 4.0. Responsabilidades... 3 5.0. Procedimento... 3 5.1. Generalidades 3 5.2. Controlo de documentos... 4 5.3. Procedimentos

Leia mais

Ferramentas de Administração. PostgreSQL

Ferramentas de Administração. PostgreSQL Ferramentas de Administração ao SGBD PostgreSQL Diego Rivera Tavares de Araújo diegoriverata@gmail.com Introdução Mas o que é PostgreSQL? Introdução as ferramentas O PostgreSQL pode ser acessado a partir

Leia mais

PHC dteamcontrol Interno

PHC dteamcontrol Interno PHC dteamcontrol Interno A gestão remota de projectos em aberto A solução via Internet que permite acompanhar os projectos em aberto em que o utilizador se encontra envolvido, gerir eficazmente o seu tempo

Leia mais

P HC XL - Nem calcula o produto que temos para si...

P HC XL - Nem calcula o produto que temos para si... P HC XL - Nem calcula o produto que temos para si... Documento FAQs Poderão ser contemplados campos de utilizadores da ML? Essa possibilidade não existe. Os campos disponíveis são os campos base da tabela

Leia mais

Colocar em prática. Tópicos para aprender. Colocar em prática. Utilizar as aplicações da Microsoft Windows num quadro interactivo SMART Board

Colocar em prática. Tópicos para aprender. Colocar em prática. Utilizar as aplicações da Microsoft Windows num quadro interactivo SMART Board Utilizar as aplicações da Microsoft Windows num quadro interactivo SMART Board Quando se encontra a trabalhar em contexto grupal, a utilização do quadro interactivo SMART Board poderá ajudá-lo a poupar

Leia mais

Banco de Dados I. Apresentação (mini-currículo) Conceitos. Disciplina Banco de Dados. Cont... Cont... Edson Thizon (edson@esucri.com.

Banco de Dados I. Apresentação (mini-currículo) Conceitos. Disciplina Banco de Dados. Cont... Cont... Edson Thizon (edson@esucri.com. Sistemas da Informação Banco de Dados I Edson Thizon (edson@esucri.com.br) 2008 Apresentação (mini-currículo) Formação Acadêmica Mestrando em Ciência da Computação (UFSC/ ) Créditos Concluídos. Bacharel

Leia mais

Sumário executivo. Em conjunto, as empresas que implementaram

Sumário executivo. Em conjunto, as empresas que implementaram 10 Sumário executivo Conclusões coordenadas pela Deloitte, em articulação com os membros do Grupo de Trabalho da AÇÃO 7 Sumário executivo Em conjunto, as empresas que implementaram estes 17 projetos representam

Leia mais

SPEKTRUM SOLUÇÕES DE GRANDE PORTE PARA PEQUENAS E MÉDIAS EMPRESAS SPEKTRUM SAP Partner 1

SPEKTRUM SOLUÇÕES DE GRANDE PORTE PARA PEQUENAS E MÉDIAS EMPRESAS SPEKTRUM SAP Partner 1 SPEKTRUM SOLUÇÕES DE GRANDE PORTE PARA PEQUENAS E MÉDIAS EMPRESAS SPEKTRUM SAP Partner 1 PROSPERE NA NOVA ECONOMIA A SPEKTRUM SUPORTA A EXECUÇÃO DA SUA ESTRATÉGIA Para as empresas que buscam crescimento

Leia mais

BancoEstado ganha eficiência de dados e mais rapidez no desenvolvimento de sistemas com CA ERwin

BancoEstado ganha eficiência de dados e mais rapidez no desenvolvimento de sistemas com CA ERwin CUSTOMER SUCCESS STORY BancoEstado ganha eficiência de dados e mais rapidez no desenvolvimento de sistemas com CA ERwin PERFIL DO CLIENTE Setor: Serviços Financeiros Organização: BancoEstado de Chile Funcionários:

Leia mais

Base de Dados para Administrações de Condomínios

Base de Dados para Administrações de Condomínios Base de Dados para Administrações de Condomínios José Pedro Gaiolas de Sousa Pinto: ei03069@fe.up.pt Marco António Sousa Nunes Fernandes Silva: ei03121@fe.up.pt Pedro Miguel Rosário Alves: alves.pedro@fe.up.pt

Leia mais

Pesquisa e organização de informação

Pesquisa e organização de informação Pesquisa e organização de informação Capítulo 3 A capacidade e a variedade de dispositivos de armazenamento que qualquer computador atual possui, tornam a pesquisa de informação um desafio cada vez maior

Leia mais

FLUXO DE CAIXA: Módulo BI (Business Intelligence)

FLUXO DE CAIXA: Módulo BI (Business Intelligence) RELATÓRIO DE ESTÁGIO: Tânia Cristina Leite RA: 046567 Orientador: Prof. Dr. Aurelio Ribeiro Leite de Oliveira FLUXO DE CAIXA: Módulo BI (Business Intelligence) Universidade Estadual de Campinas Instituto

Leia mais

Análise de Preferências - Estudos para Criação e Desenvolvimento de Produtos ou Serviços

Análise de Preferências - Estudos para Criação e Desenvolvimento de Produtos ou Serviços Análise de Preferências - Estudos para Criação e Desenvolvimento de Produtos ou Serviços 1- Enquadramento O Serviço: Analisar as preferências dos consumidores e identificar os trade-offs que fazem nas

Leia mais

Módulo 15 Resumo. Módulo I Cultura da Informação

Módulo 15 Resumo. Módulo I Cultura da Informação Módulo 15 Resumo Neste módulo vamos dar uma explanação geral sobre os pontos que foram trabalhados ao longo desta disciplina. Os pontos abordados nesta disciplina foram: Fundamentos teóricos de sistemas

Leia mais

UFG - Instituto de Informática

UFG - Instituto de Informática UFG - Instituto de Informática Especialização em Desenvolvimento de Aplicações Web com Interfaces Ricas EJB 3.0 Prof.: Fabrízzio A A M N Soares professor.fabrizzio@gmail.com Aula 13 Web Services Web Services

Leia mais

Dashboards dinâmicos para executivos

Dashboards dinâmicos para executivos dos produtos SAP Soluções SAP Crystal SAP Crystal Dashboard Design Objetivos Dashboards dinâmicos para executivos Transforme dados complexos em dashboards atraentes e interativos Transforme dados complexos

Leia mais

Servidores de Impressão Axis

Servidores de Impressão Axis Servidores de Impressão Axis ARTIGO Servidores de Impressão Axis Como explorar as inúmeras oportunidades de mercado e tirar total partido das mesmas Created: September 27, 2005 Last updated: September

Leia mais

Sistemas ERP. Profa. Reane Franco Goulart

Sistemas ERP. Profa. Reane Franco Goulart Sistemas ERP Profa. Reane Franco Goulart Tópicos O que é um Sistema ERP? Como um sistema ERP pode ajudar nos meus negócios? Os benefícios de um Sistema ERP. Vantagens e desvantagens O que é um ERP? ERP

Leia mais

Gestão dos Níveis de Serviço

Gestão dos Níveis de Serviço A Gestão dos Níveis de Serviço (SLM) Os sistemas e tecnologias de informação e comunicação têm nas empresas um papel cada vez mais importante evoluindo, hoje em dia, para níveis mais elevados de funcionamento

Leia mais

LMA, Solução em Sistemas

LMA, Solução em Sistemas LMA, Solução em Sistemas Ao longo dos anos os sistemas para gestão empresarial se tornaram fundamentais, e por meio dessa ferramenta as empresas aperfeiçoam os processos e os integram para uma gestão mais

Leia mais

Uma análise de ferramentas de modelagem e gerência de metadados aplicadas ao projeto de BI/DW-UFBA

Uma análise de ferramentas de modelagem e gerência de metadados aplicadas ao projeto de BI/DW-UFBA Universidade Federal da Bahia Instituto de Matemática Departamento de Ciência da Computação MATA67 Projeto Final II Uma análise de ferramentas de modelagem e gerência de metadados aplicadas ao projeto

Leia mais

Plataformas de BI Qual é a mais adequada para o meu negócio?

Plataformas de BI Qual é a mais adequada para o meu negócio? Plataformas de BI Qual é a mais adequada para o meu negócio? Comparativo prático para escolher a ferramenta perfeita para a sua empresa Faça nosso Quiz e veja as opções que combinam com o seu perfil ÍNDICE

Leia mais

srbo@ufpa.br www.ufpa.br/srbo

srbo@ufpa.br www.ufpa.br/srbo CBSI Curso de Bacharelado em Sistemas de Informação BI Prof. Dr. Sandro Ronaldo Bezerra Oliveira srbo@ufpa.br www.ufpa.br/srbo Tópicos Especiais em Sistemas de Informação Faculdade de Computação Instituto

Leia mais

TACTIUM ecrm Guia de Funcionalidades

TACTIUM ecrm Guia de Funcionalidades TACTIUM ecrm Guia de Funcionalidades 1 Interagir com seus clientes por variados meios de contato, criando uma visão unificada do relacionamento e reduzindo custos. Essa é a missão do TACTIUM ecrm. As soluções

Leia mais

GereComSaber. Desenvolvimento de Sistemas de Software. Universidade do Minho Conselho de Cursos de Engenharia Licenciatura em Engenharia Informática

GereComSaber. Desenvolvimento de Sistemas de Software. Universidade do Minho Conselho de Cursos de Engenharia Licenciatura em Engenharia Informática Universidade do Minho Conselho de Cursos de Engenharia Licenciatura em Engenharia Informática Desenvolvimento de Sistemas de Software Ano Lectivo de 2009/10 GereComSaber Ana Duarte, André Guedes, Eduardo

Leia mais

Relatório Preliminar de. Projecto de Telecomunicações em Contexto Empresarial II. VoIP Desenvolvimento de Aplicações em Plataformas Open Source

Relatório Preliminar de. Projecto de Telecomunicações em Contexto Empresarial II. VoIP Desenvolvimento de Aplicações em Plataformas Open Source Relatório Preliminar de Projecto de Telecomunicações em Contexto Empresarial II VoIP Desenvolvimento de Aplicações em Plataformas Open Source Cândido Silva Av. dos Descobrimentos, 333 4400-103 Santa Marinha

Leia mais